Petra Badke-Schaub Gesine Hofinger Kristina Lauche (Hrsg.) Human Factors Psychologie sicheren Handelns in Risikobranchen
Petra Badke-Schaub Gesine Hofinger Kristina Lauche (Hrsg.)
Human Factors Psychologie sicheren Handelns in Risikobranchen
Mit 49 Abbildungen und 17 Tabellen
123
Professor Dr. Petra Badke-Schaub
Dr. Gesine Hofinger
Department of Product Innovation Management Faculty for Industrial Design Engineering Delft University of Technology Landbergstraat 15 2628 CE Delft, The Netherlands
Krisenmanagement Hohenheimerstr. 104 71686 Remseck
Dr. Kristina Lauche Department of Product Innovation Management Faculty for Industrial Design Engineering Delft University of Technology Landbergstraat 15 2628 CE Delft, The Netherlands
ISBN 978-3-540-72320-2 Springer Medizin Verlag Heidelberg Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Springer Medizin Verlag springer.de © Springer Medizin Verlag Heidelberg 2008 Die Wiedergabe von Gebrauchsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, daß solche Namen im Sinne der Warenzeichen- und Markenschutzgesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Produkthaftung: Für Angaben über Dosierungsanweisungen und Applikationsformen kann vom Verlag keine Gewähr übernommen werden. Derartige Angaben müssen vom jeweiligen Anwender im Einzelfall anhand anderer Literarturstellen auf ihre Richtigkeit überprüft werden. Planung: Dipl.-Psych. Joachim Coch Projektmanagement: Meike Seeker Copyediting: Annette Wolf, Leipzig Einbandfoto: © Laurent De La Conception, www.fotolia.de Layout und Einbandgestaltung : deblik Berlin Satz: Fotosatz-Service Köhler GmbH, Würzburg SPIN: 11564997 Gedruckt auf säurefreiem Papier
2126 – 5 4 3 2 1 0
V
Vorwort »Können Sie uns nicht ein gutes Buch zum Thema ‚Human Factors’ empfehlen, das ich auch an Kollegen weitergeben könnte? Das gut und übersichtlich zusammenfasst, was ich bei Ihnen zu menschlichem Handeln gelernt habe?« So wurden wir oft nach Workshops oder in Beratungsund Trainingsprojekten gefragt. Auch in der Lehre hätten wir gerne auf ein solches Buch zurückgegriffen. Da es jedoch ein solches zusammenfassendes Buch nicht gab, das Theorie und Praxis menschlichen Handelns in komplexen Arbeitswelten in Verbindung bringt, nahmen wir das Projekt selbst in Angriff – mit dem hier vorliegenden Ergebnis. Das Thema »Human Factors« hat in den letzten Jahren einen bedeutenden Aufschwung erlebt, sowohl hinsichtlich der wissenschaftlichen Betrachtung als auch in Bezug auf die praktische Umsetzung. Daraus könnte man schließen, dass hier ein neuer Wissenschaftsbereich entstanden ist, der Phänomene und Probleme aufgreift, die bislang in einer technikdominierten Welt unbeachtet blieben. Dem ist jedoch nicht so: Tatsächlich finden sich unter dem Dach von Human Factors eine Vielzahl bewährter wissenschaftlicher und anwendungsbezogener Fragen, Methoden und Konzeptionen wieder, die aus ihrer jeweiligen Perspektive die technischen, organisatorischen und prozessualen Implikationen von Human Factors ansprechen. Dies reicht von ergonomischen Fragestellungen konkreter Arbeitsplatzgestaltung über Teamtraining bis zu Organisationsberatung. Der gemeinsame Bezugspunkt all dieser Perspektiven ist der Mensch: Menschen und ihr Handeln in komplexen Arbeitswelten stehen im Zentrum der Betrachtung. Spricht man von Human Factors, so verweist der Plural auf die vielfältigen und unterschiedlichen Prozesse und Strukturen menschlichen Verhaltens. Damit rückt die Wissenschaft ins Zentrum des Human-Factors-Themas, die sich seit ihrer Emanzipation von der Philosophie vor mehr als 100 Jahren wissenschaftlich mit dem Wahrnehmen, Denken, Fühlen, Entscheiden und Handeln von Menschen und Menschengruppen beschäftigt: die Psychologie.
Konzept des Buchs Das vorliegende Buch präsentiert in den unterschiedlichen Kapiteln die Beiträge der Psychologie in Wissenschaft und Anwendung zur Human-Factors-Thematik. Es wird aufgezeigt, dass die Inhalte einer Human-Factors-Betrachtungsweise auf bewährte Methoden, Theorien und Ergebnisse der Psychologie zurückgreifen können und müssen. Es wird aber ebenso deutlich, dass die spezielle Human-Factors-Perspektive über die psychologische Sichtweise hinausgeht, um Human Factors im jeweiligen konkreten Anwendungsbereich zu erfassen, zu verstehen und zu bewerten. Mit dieser psychologischen, auf den handelnden Menschen bezogenen Sichtweise findet das Buch seinen Platz zwischen den verschiedenen technisch oder ergonomisch orientierten Veröffentlichungen zum Thema »Human Factors«. Erste Ideen für dieses Buch entstanden im Rahmen der Treffen der Vereinigung »Plattform ‒ Menschen in komplexen Arbeitswelten« e. V. (http://www.plattform-ev.de). Diese gemeinnützige Vereinigung von Wissenschaftlern und Praktikern entstand 1998 mit dem Ziel, gemeinsam Konzepte zu entwickeln und umzusetzen, die das Handeln von Menschen in komplexen Arbeitsumwelten beschreiben, um daraus einerseits Fehlhandlungen zu erklären und zur Fehlervermeidung beizutragen und andererseits die Stärken des Menschen als Sicherheitsressource sichtbar zu machen. Während des regelmäßig stattfindenden Erfahrungsaustausches im Rahmen von Workshops entstand die Idee, das fehlende Übersichtswerk zur Human-Factors-Psychologie gemeinsam zu schreiben. Im Geiste der Plattform-Workshops sollten solide Grundlagen mit relevanten Pro-
VI
Vorwort
blemstellungen verbunden werden. Dank der Bereitschaft vieler Mitglieder, sich als Autoren und Autorinnen sowie als Reviewer zu beteiligen, ist dieses Vorhaben wahr geworden. Aber auch andere Experten verschiedener Hochschulen konnten als Autoren gewonnen werden. Das Konzept dieses Buches ist es, sowohl wissenschaftliche Grundlagen allgemeinverständlich zu präsentieren als auch Anwendungsfelder in ihren Anforderungen an den Menschen aufzuzeigen. Wir hoffen, dass dieses Buch Leser und Leserinnen aus verschiedenen beruflichen Feldern mit Nutzen lesen –konzipiert ist es als Einführung in und Überblick über psychologische Human-Factors-Themen für Interessierte aus den Anwendungsbranchen und der Psychologie sowie für Studierende und Lehrende im Human-Factors-Themenbereich.
Danksagungen Zum Gelingen des Buchs haben zuallererst die Autoren und Autorinnen beigetragen. Alle haben sich darauf eingelassen, einen unserem Konzept entsprechenden Beitrag zu verfassen und mehrfach reviewen zu lassen. Die meisten Autoren haben zudem selbst andere Kapitel gegengelesen und wertvolle Vorschläge zur Verbesserung eingebracht, auch dafür unser Dank! Einige Kapitel wurden von Reviewern begutachtet, die nicht Autoren dieses Buches sind und die dennoch bereit waren, ihre Zeit in hilfreiche Rückmeldung zu investieren. Wir danken Saskia Bayerl, Axel Bédé, Peter Beer, Begona Hermann, Michael Müller, Annette Nolze, Tim Tisdale, Peter Troxler und Helfried Waleczek. Dank auch an Ursula Nagy, die Material für die Geschichte der Human Factors in 7 Kap. 1 beigesteuert hat. Besonderen Dank sagen wir Carlos Cardoso von der TU Delft, NL, der sich bereitfand, uns seine Designerfähigkeiten zur Verfügung zu stellen und in mühseliger Detailarbeit alle Zeichnungen im Stil vereinheitlichte und in eine ästhetisch ansprechende Form brachte. Joachim Coch vom Springer-Verlag danken wir für sein Engagement für das Projekt und die freundliche und kompetente Betreuung über zwei Jahre hinweg. Annette Wolf sei Dank für die schnelle und gründliche Lektorierung und die gute Betreuung beim Endspurt. Nicht zuletzt danken wir auch unseren Familien, die das Wachsen des Buchs mit Geduld begleiteten. Wir wünschen allen Lesern eine anregende und gewinnbringende Lektüre sowie viel Erfolg bei der Anwendung der gewonnenen Erkenntnisse. Delft und Remseck, Juni 2008 Die Herausgeberinnen: Petra Badke-Schaub, Gesine Hofinger und Kristina Lauche
VII
Inhaltsverzeichnis I Human Factors und sicheres Handeln
II Individuelle und teambezogene Faktoren
1
Human Factors . . . . . . . . . . . . . . . . .
1.1
Die menschlichen Faktoren und die Disziplin Human Factors . . . . . . . . . . Verwandte Disziplinen . . . . . . . . . . . Wurzeln von Human-Factors-Forschung Methoden . . . . . . . . . . . . . . . . . . . Fokus und Aufbau dieses Buches . . . . Literatur . . . . . . . . . . . . . . . . . . . .
4
Wahrnehmung, Aufmerksamkeit und »Situation Awareness« (SA) . . . . .
59
4.1 4.2 4.3 4.4 4.5 4.6 4.7
Einführung . . . . . . . . . . . . . Wahrnehmung: »Wara Neman« Aufmerksamkeit . . . . . . . . . . »Situation Awareness« (SA) . . . Störungen der Wahrnehmung . Zusammenfassung . . . . . . . . Literatur . . . . . . . . . . . . . . .
. . . . . . .
60 61 64 67 71 73 74
. . . . . .
4 8 10 14 16 17
2
Sicherheit . . . . . . . . . . . . . . . . . . . .
19
2.1 2.2
20
5
Denken – Entscheiden – Handeln . . . .
77 78 78
22
. . . . . .
82
. . .
25
5.4
. . . . . . . . .
29 33 33
5.5 5.6
Einleitung und kurze Übersicht . Verhalten – Handeln – Denken . . Handeln unter komplexen Bedingungen . . . . . . . . . . . . . Entscheiden als Komponente von Handlungen . . . . . . . . . . . Zusammenfassung und Ausblick Literatur . . . . . . . . . . . . . . . .
. . . . . . . . . . . .
. . .
5.1 5.2 5.3
2.5 2.6
Einleitung . . . . . . . . . . . . . . . . . . Erklärungsansätze in der Sicherheitsforschung: Warum sind Systeme (un)sicher? . . . . . . . . . . . . . . . . . . Management von Sicherheit in der Praxis . . . . . . . . . . . . . . . . . Der tägliche Umgang mit Sicherheit: Konzept der Sicherheitskultur . . . . . Zusammenfassung und Ausblick . . . Literatur . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . .
88 92 92
6
Emotion und Handeln . . . . . . . . . . . .
94
3
Fehler und Unfälle . . . . . . . . . . . . . .
36
96
Fehler, Irrtümer und Sicherheit . . . . . . . Fehler und Unfälle: Personansatz und Systemansatz . . . . . . . . . . . . . . . . . . Jeder Fehler ein Schatz? Vom Nutzen der Zwischenfälle . . . . . . . Fehlerarten und Fehlerformen . . . . . . . Ursachen für Fehler . . . . . . . . . . . . . . Zuverlässigkeit und Fehlerfreundlichkeit Zusammenfassung . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . .
.
37
.
39
. . . .
96 100
. . .
43 44 51 52 53 54
Einleitung: Begriff »Emotion« . . . . . . . Psi: Integrierte Theorie von Motivation, Kognition und Emotion . . . . . . . . . . Emotionen und Handeln . . . . . . . . . Zusammenfassung und abschließende Bemerkungen . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . .
. .
3.1 3.2
6.1 6.2
. . . .
111 112
1.2 1.3 1.4 1.5 1.6
2.3 2.4
3.3 3.4 3.5 3.6 3.7 3.8
. . . . . .
3
. . .
. .
6.3 6.4 6.5
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
7
Handeln in Gruppen . . . . . . . . . . . . . 113
7.1 7.2
Gruppen als Systeme . . . . . . . . . . . . . Anforderungen an den Gruppenprozess: Kommunikation, Koordination und Kooperation . . . . . . . . . . . . . . . . Motivation . . . . . . . . . . . . . . . . . . . . Integration: Team Mental Models . . . . . Analyse des Beispiels . . . . . . . . . . . . . Zentrale Determinanten des Entscheidungsverhaltens in Gruppen . .
7.3 7.4 7.5 7.6
.
115
. . . .
118 120 121 122
.
125
VIII
7.7
Inhaltsverzeichnis
11
7.8
Zusammenfassung und Zusammenführung: Erfolgsfaktoren sicheren Handelns in Gruppen . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . .
8
Kommunikation . . . . . . . . . . . . . . . . 131
8.1 8.2 8.3 8.4 8.5
Einleitung: Interaktion und Information Kommunikation verstehen . . . . . . . . . Funktionen von Kommunikation . . . . . Störungen der Kommunikation . . . . . . . Kommunikation in kritischen Situationen . . . . . . . . . . . . . . . . . . . Kommunikation als Sicherheitsressource Zusammenfassung und Ausblick . . . . . Literatur . . . . . . . . . . . . . . . . . . . . .
8.6 8.7 8.8
. . . . . .
127 129
132 133 137 140 144 145 149 150
Organisationen – Kommunikationssystem und Sicherheit . . . . . . . . . . . . 155
9.1 9.2
Einleitung . . . . . . . . . . . . . . . . . . Organisationen als soziotechnische Systeme . . . . . . . . . . . . . . . . . . . Organisieren als Prozess . . . . . . . . . Organisationen als Kommunikationssysteme . . . . . . . . . . . . . . . . . . . Organisationale Interaktionen . . . . . Sicherheit organisieren . . . . . . . . . Zusammenfassung und Schlussfolgerungen . . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . .
. . .
156
. . . . . .
157 158
. . . . . . . . .
160 161 164
. . . . . .
172 174
Führung . . . . . . . . . . . . . . . . . . . . . . 10.1 Die Bedeutung von Führung für die Förderung von Sicherheit . . . . . . 10.2 Management von Unsicherheit . . . . . . . 10.3 Anforderungen an normative Führung. . . 10.4 Anforderungen an strategische Führung . 10.5 Anforderungen an operative Führung . . . 10.6 Führung bei organisationalen Veränderungen . . . . . . . . . . . . . . . . . 10.7 Zusammenfassung . . . . . . . . . . . . . . 10.8 Literatur . . . . . . . . . . . . . . . . . . . . .
176
9.3 9.4 9.5 9.6 9.7 9.8
10
178 180 182 183 185 186 187 189
.
193
.
195
. . .
200 202 202
IV Aktuelle HumanFactors-Herausforderungen und Anforderungen für die Zukunft in verschiedenen Risikofeldern
III Organisationale Einflussfaktoren auf sicheres Handeln 9
Neue Formen der Zusammenarbeit . . 191
11.1 Wie verändert sich Zusammenarbeit und warum? . . . . . . . . . . . . . . . . . . . . . . 11.2 Implikationen einer veränderten Arbeitswelt für Sicherheit . . . . . . . . . . 11.3 Anforderungen für Technik- und Organisationsgestaltung . . . . . . . . . . 11.4 Zusammenfassung . . . . . . . . . . . . . . 11.5 Literatur . . . . . . . . . . . . . . . . . . . . .
12
Aktuelle Themen und zukünftige Entwicklungen in der Luftfahrt . . . . . 207
12.1 12.2 12.3 12.4
Einleitung . . . . . . . . . . . . . . Anforderungen für die Zukunft Zusammenfassung . . . . . . . . Literatur . . . . . . . . . . . . . . .
13
Patientensicherheit und Human Factors – Vom Heute in die Zukunft gesehen . . 220
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
13.1 Einführung . . . . . . . . . . . . . . . . . . . . 13.2 Analytische Betrachtung des Fallbeispiels . 13.3 Patientensicherheit in Deutschland im Jahr 2007 . . . . . . . . . . . . . . . . . . . . 13.4 Entwicklungslinien . . . . . . . . . . . . . . . 13.5 Diagnostische Ansätze zur Erfassung der Lage der Patientensicherheit . . . . . . 13.6 Ansatzpunkte zur Erhöhung der Patientensicherheit . . . . . . . . . . . . 13.7 Zusammenfassung und Schlussbetrachtung . . . . . . . . . . . . . . . . . . . 13.8 Literatur . . . . . . . . . . . . . . . . . . . . . .
208 211 218 219
221 222 222 223 225 225 228 229
IX Inhaltsverzeichnis
14
Lernen aus Störfällen und Präventionsansätze in der Prozessindustrie . . . . . . . . . . . . . . . . . . . . . 231
14.1 Einleitung: Kennzeichen der Branche 14.2 Lernen aus Störfällen . . . . . . . . . . . 14.3 Einflussfaktoren und Interventionsmöglichkeiten . . . . . . . . . . . . . . . 14.4 Herausforderungen für die Zukunft . 14.5 Zusammenfassung . . . . . . . . . . . . 14.6 Literatur . . . . . . . . . . . . . . . . . . .
15
. . . . . .
232 235
. . . .
237 241 242 243
. . . .
. . . .
Militär: Handeln in komplexen Problemlagen . . . . . . . . . . . . . . . . . 244
15.1 Einleitung . . . . . . . . . . . . . . . . . . . . . 15.2 Der Soldat in neuen Konfliktszenarien – Kämpfer oder Bürger in Uniform? . . . . . . 15.3 Human Factors – Von der Ergonomie zum Handeln in komplexen Problemlagen . . . 15.4 Human-Factors-Forschung im Bereich des Militärs . . . . . . . . . . . . . . . . . . . . 15.5 Zusammenfassung und Ausblick . . . . . . 15.6 Literatur . . . . . . . . . . . . . . . . . . . . . .
16
245 246
18
Human-Factors-Training . . . . . . . . 18.1 Einleitung . . . . . . . . . . . . . . . . . . . 18.2 HF-Training: Rahmenbedingungen und Trainingsziele . . . . . . . . . . . . . . 18.3 Ebenen der Intervention . . . . . . . . . . 18.4 Trainingsmethoden in Human-FactorsTrainings . . . . . . . . . . . . . . . . . . . . 18.5 Trainingsformen . . . . . . . . . . . . . . . 18.6 Trainerkompetenzen . . . . . . . . . . . . 18.7 Evaluation und Transfer . . . . . . . . . . 18.8 Zusammenfassung und abschließende Bemerkungen . . . . . . . . . . . . . . . . 18.9 Literatur . . . . . . . . . . . . . . . . . . . .
. . 289 . . 290 . . 291 . . 293 . . . .
. . . .
295 297 302 303
. . 304 . . 305
248
19 253 254 255
Stabsarbeit und »Ständige Stäbe« bei der Polizei: Sicherheit durch Professionalisierung . . . . . . . . . . . . . 256
16.1 Einleitung . . . . . . . . . . . . . . . . . . . . 16.2 Wie wirklich ist die Wirklichkeit in Stäben der Polizei? . . . . . . . . . . . . . . . . . . . 16.3 Teamkommunikation im Stab . . . . . . . 16.4 Fehlerprävention im Rahmen der Stabsarbeit: Planentscheidungen . . 16.5 Zusammenfassung . . . . . . . . . . . . . . 16.6 Literatur . . . . . . . . . . . . . . . . . . . . .
17.3 Organisationen sicher gestalten . . . . . . . 285 17.4 Zusammenfassung . . . . . . . . . . . . . . . 286 17.5 Literatur . . . . . . . . . . . . . . . . . . . . . . 287
.
257
. .
259 264
. . .
265 268 269
V Prozesse gestalten im Dienst der Sicherheit
Systemgestaltung und Automatisierung . . . . . . . . . . . . . . .
19.1 Einleitung . . . . . . . . . . . . . . . . . . . 19.2 Automatisierung und Automation: Begriffsbestimmung . . . . . . . . . . . . 19.3 Rolle des Menschen in automatisierten Systemen . . . . . . . . . . . . . . . . . . . 19.4 Probleme der Nutzung automatisierter Systeme durch den Menschen . . . . . . 19.5 Konzepte einer menschzentrierten Systemgestaltung . . . . . . . . . . . . . . 19.6 Zusammenfassung . . . . . . . . . . . . . 19.7 Literatur . . . . . . . . . . . . . . . . . . . .
307
. . 308 . . 309 . . 311 . . 312 . . 318 . . 322 . . 323
Anhang Autorenportraits . . . . . . . . . . . . . . . . . . . 327 Quellenverzeichnis . . . . . . . . . . . . . . . . . . 334
17
Komplexität handhaben – Handeln vereinheitlichen – Organisationen sicher gestalten . . . . . . . . . . . . . . . . 273
17.1 Fallbeispiel: Standardisierung in der Hämotherapie . . . . . . . . . . . . . . . . . . 17.2 Umgang mit Komplexität auf der Ebene der Organisation . . . . . . . . . . . . . . . . .
274 275
Sachverzeichnis . . . . . . . . . . . . . . . . . . . . 335
I Human Factors und sicheres Handeln 1 Human Factors 2 Sicherheit
–3
– 19
3 Fehler und Unfälle
– 36
1 Human Factors Petra Badke-Schaub, Gesine Hofinger und Kristina Lauche
1.1
Die menschlichen Faktoren und die Disziplin Human Factors
1.2
Verwandte Disziplinen
1.3
Wurzeln von Human-Factors-Forschung
1.3.1 1.3.2 1.3.3 1.3.4 1.3.5 1.3.6
Scientific Management – 10 Psychotechnik – 11 Soziale Systemgestaltung: der Human-Relations-Ansatz – 12 Soziotechnische Systemgestaltung – 12 Kognitive Ergonomie – 13 Aktuelle Strömungen und Themen – 13
1.4
Methoden
–8
– 14
1.4.1 Forschungsmethoden – 15 1.4.2 Ausgewählte spezifische Methoden – 15
1.5
Fokus und Aufbau dieses Buches
1.6
Literatur
– 17
– 16
– 10
–4
4
1
Kapitel 1 · Human Factors
Wir möchten mit diesem Buch allen, die Interesse an grundsätzlichen Fragen zum Handeln in soziotechnischen Systemen haben, praxisnah wissenschaftlich fundierte Erkenntnisse vermitteln, die zum besseren Verständnis der Interaktionen von Menschen und Technik in komplexen Arbeitswelten beitragen. Diese Erkenntnisse können zum einen als Grundlage für die Kommunikation der Inhalte über verschiedene Disziplinen hinweg dienen, zum anderen soll auch Unterstützung geboten werden für den eigenen Umgang mit technischen Systemen und/oder deren Gestaltung. In diesem Einleitungskapitel werden wir zunächst die Bedeutung von Human Factors genauer beschreiben (7 Kap. 1.1), danach werden wir uns mit der Abgrenzung von Human Factors zu verwandten Disziplinen beschäftigen (7 Kap. 1.2). Im weiteren Verlauf werden wir uns den historischen Wurzeln von Human Factors sowie aktuellen Strömungen zuwenden (7 Kap. 1.3), im vierten Teil wird die Frage der Methoden diskutiert (7 Kap. 1.4), und abschließend werden wir den Fokus dieses Buches (7 Kap. 1.5) in Aufbau und Inhalt der einzelnen Kapitel vorstellen.
1.1
Die menschlichen Faktoren und die Disziplin Human Factors
»Human Factors« ist ein Begriff, der häufig gebraucht wird, ohne dass notwendigerweise ein gemeinsames Verständnis oder gar eine allgemein akzeptierte Definition über Ziele, Arbeitsfelder, Theorien oder Methoden vorliegen. Vielfach werden Human Factors als »menschliche Faktoren« in Abgrenzung zu »technischen Faktoren« definiert. Allerdings ist diese Sichtweise zu reduziert, da für die Betrachtung der Human Factors genau die Verknüpfung menschlicher Faktoren mit technischen Faktoren relevant ist. Zur Klärung legen wir zunächst fest: ! Die menschlichen Faktoren (Human Factors) sind alle physischen, psychischen und sozialen Charakteristika des Menschen, insofern sie das Handeln in und mit soziotechnischen Systemen beeinflussen oder von diesen beeinflusst werden.
Dementsprechend definiert Salvendy (2006) in der Einleitung des »Handbook of Human Factors and Ergonomics« Human Factors als eine Wissenschaft, die sich mit der Rolle des Menschen in komplexen Systemen, mit dem Design von Ausrüstung, technischen Hilfsmitteln und Gerätschaften und mit der Anpassung der Arbeitsumgebung mit dem Ziel der Steigerung von Komfort und Sicherheit befasst. Auch Hawkins (1987) betont die zweifache Zielorientierung und definiert Human Factors als angewandte Technologie, die sich damit beschäftigt, das Verhältnis zwischen Menschen und ihren Aktivitäten zu optimieren. Dies geschieht durch die systematische Anwendung der Humanwissenschaften innerhalb des Kontextes der Systemgestaltung (»systems engineering«). Die Ziele von Human Factors sind damit Effizienz und Sicherheit des Systems und das Wohlergehen des darin tätigen Menschen. Allerdings wird das Ziel Sicherheit in der Praxis oft in erster Linie als Kostenfaktor angesehen, da weniger an eine Optimierung des Gesamtsystems als an »zusätzliche« Sicherheitsaufwendungen gedacht wird. Die Einsicht, dass Human Factors auch ein Erfolgsfaktor für den ökonomischen Wettbewerbsvorteil von Unternehmen ist, hat sich v. a. in Hochrisikobereichen durchgesetzt, wo das Thema Sicherheit letztendlich eine Conditio sine qua non ist. Aber auch in Hochrisikobereichen müssen teilweise Zielentscheidungen getroffen werden, die eine Gratwanderung darstellen und die Frage aufwerfen, wie viel Sicherheit wir uns leisten können und wollen. Schon diese Diskussion macht deutlich, dass die menschlichen Faktoren in ein System von Aufgabe, Technik und Organisation eingebettet zu betrachten sind. Dabei nimmt der Mensch eine Schlüsselrolle ein, da nur der Mensch in der Lage ist, Ereignisse als Gefahren oder Bedrohungen zu klassifizieren und damit potenzielle Risiken zu antizipieren und frühzeitig präventiv adäquate Maßnahmen zu entwickeln und umzusetzen. Allerdings wird die Rolle des Menschen zunehmend weniger als Problemlöser, sondern vielmehr als Problem, als Risikofaktor in technischenSystemen gesehen. Statistiken scheinen diese Annahme zu bestätigen: So werden im Bereich der Luftfahrt Human Factors in mehr als 70% der Fälle als Unfallursache
5 1.1 · Die menschlichen Faktoren und die Disziplin Human Factors
benannt, in der Raumfahrt 66% und im Bereich Kernkraft 52% (Giesa & Timpe, 2000). Die notwendige Folge dieser Sichtweise ist zunehmende Automatisierung, d. h., Maschinen und Computer übernehmen die Aufgaben von Menschen, die nur noch eine überwachende und kontrollierende Funktion haben und nur in Ausnahmefällen, z. B. bei Störungen, eingreifen. Diese paradoxe Rolle des Menschen in automatisierten Systemen ist von Bainbridge (1987) unter dem Schlagwort »Ironien der Automatisierung« (»ironies of automation«) thematisiert worden: Menschen sollen insbesondere in kritischen Situationen genau die Tätigkeiten ausführen, die zuvor von der Maschine übernommen wurden, um mögliche Fehlerquellen, die vom Mensch ausgehen, zu vermeiden. Das heißt, dass die Bedeutung des Menschen mit dem Grad an Automation zunimmt, während das Wissen des Menschen mit dem Grad der Automation abnimmt, da die Auseinandersetzung mit dem System auf Überwachungstätigkeiten reduziert ist (Fadier & Ciccotelli, 1999). Bei der Unterscheidung »menschliche Faktoren« versus »technische Faktoren« wird häufig vergessen, dass die Entwicklung der Maschine, des Computers oder des Systems immer auch ein Produkt von Menschen ist. Letztlich können alle Fehler auf Human Factors zurückgeführt werden, da Menschen in verschiedenen Funktionen – als Nutzer, Designer oder Manager – auf unterschiedlichen Ebenen Einfluss nehmen. Human-Factors-geleitete Systemgestaltung stellt die Forderung, Systeme so zu entwickeln, dass individuelle Fähigkeiten und Bedürfnisse des Menschen im jeweiligen Kontext Berücksichtigung finden. Beispiele dafür finden sich in verschiedenen Normen hinsichtlich Gestaltungsprinzipien in vielfältigen Kontexten. Die Grundnorm Grundsätze der Ergonomie für die Gestaltung von Arbeitssystemen (DIN EN ISO 6385, 2004) »[...] beschreibt den integrierten Ansatz für die Gestaltung von Arbeitssystemen, bei dem Arbeitswissenschaftler mit Anderen die menschlichen, sozialen und technischen Anforderungen ausgewogen beachten.«
In welcher Weise dabei Menschen mit ihren Fähigkeiten Berücksichtigung finden, wird allerdings un-
1
terschiedlich realisiert. So werden beispielsweise in den Allgemeinen Gestaltungsprinzipien folgende ergonomische Anforderungen an die Gestaltung von Anzeigen und Stellteilen (DIN EN 894-1, 1997) formuliert: 4 Kompatibilität bezogen auf die Leistungsfähigkeit des Menschen 4 Kompatibilität bezogen auf die Erwartungen des Bedieners (Erwartungskonformität) 4 Kompatibilität bezogen auf die Aufgabe (Aufgabenangemessenheit) Zusätzlich wird im Anhang der Norm detailliert auf menschliche Informationsverarbeitung eingegangen, und es werden Aspekte von Wahrnehmung, Aufmerksamkeit und Gedächtnis, aber auch Stress als Einflussgrößen thematisiert. Im Gegensatz dazu betont zwar die Norm Benutzerorientierte Gestaltung interaktiver Systeme (DIN EN ISO 13407, 2000) die Notwendigkeit der Einbindung des Nutzers in den laufenden Softwareentwicklungsprozess, ist aber dann in der konkreten Anleitung auf den Prozessablauf konzentriert und nimmt im Wesentlichen nur das Feedback des Nutzers als Hinweis auf den weiteren Prozessfortschritt. Das folgende Beispiel zeigt, in welch banaler Weise Voraussetzungen für menschliche Fehler geschaffen und wie einfach solche Fehler vermieden werden können, wenn Menschen im Kontext wahrgenommen und ihre Fähigkeiten in der Gestaltung der Interaktion Technik–Mensch–Organisation berücksichtigt werden. Beispiel Vor und während des 2. Weltkriegs kam es zu einem massiven Innovationsschub, insbesondere hinsichtlich der Technik von Flugzeugen. So stieg die Geschwindigkeit der Flugzeuge um 300%, die Anzahl der Bedienelemente und Instrumente um 350%. Gleichermaßen stieg die Anzahl der Unfälle, die aufgrund fehlerhaften Verhaltens der Piloten als »pilot error« bezeichnet wurden. Dabei gab eine Serie von Unfällen während des 2. Weltkriegs besondere Rätsel auf, denn in allen Fällen trat jeweils der gleiche Fehler des Piloten auf, und zwar fuhren die Piloten 6
6
1
Kapitel 1 · Human Factors
und Kopiloten bei der Landung das Fahrwerk ein anstatt die Landeklappen auszufahren. Dieser Fehler trat allerdings nur bei einigen Flugzeugtypen auf (Lockheed P-47, Boeing B-17, North American’s B-25 und Curtiss C-46), in anderen dagegen nicht (z. B. Douglas C-47s DC-3). Der Psychologe Alphonse Chapanis wurde damit beauftragt, dieses Problem zu lösen, und er fand sowohl die Ursache als auch eine einfache Lösung: Chapanis erkannte, dass die nebeneinander liegenden Schalthebel für Landeklappen und Fahrwerk leicht verwechselt werden konnten. Und er ersann eine geniale, schnell umsetzbare Lösung: das Anbringen eines kleinen gummibereiften Rades auf dem Schaltknauf für das Fahrwerk und eines kleinen flügelförmigen Endes auf dem Schaltknauf für die Landeklappen. Nach dieser Modifikation kam es nicht mehr zu Unfällen aufgrund von Verwechselungen dieser Art. Nach Kriegsende wurde diese taktile Unterstützung zur Unterscheidung von Schaltungen weltweit standardisiert und ist heute in allen Flugzeugen zu finden.
Dieses Beispiel macht deutlich, dass die Diagnose »pilot error« zu kurz greift. Es muss die Frage gestellt werden, warum der Pilot den Fehler machte. Und dies umso mehr, da es sich um einen systematischen Fehler handelt (Chapanis, 1951, 7 Kap. 3.4.2), also einen Fehler, der wiederholt in der gleichen Gesamtkonstellation auftritt. Die Wichtigkeit der Gesamtkonstellation ist nicht nur an der Schnittstelle Mensch–Maschine wichtig. Im Folgenden zeigt ein Beispiel aus der Medizin, wie schwerwiegende Fehler durch das Aufeinandertreffen von menschlicher Informationsverarbeitung, sozialen Prozessen wie Kommunikation über Hierarchien und organisationalen Faktoren wie Personaleinsatzplanung entstehen können. Beispiel Eingriffsverwechslungen bei Operationen (Verwechslung der Körperseite, der Eingriffsstelle oder Eingriffsart) sind relativ häufig und für die 6
wrong side surgery
betroffenen Patienten schwerwiegend. Eingriffsverwechslungen sind ein reines Human-FactorsThema – es gibt keinen im Patienten oder in der Technik liegenden Grund; solche Verwechslungen sollten damit zu 100% vermeidbar sein. Die Analyse der Literatur zu diesem Thema (Aktionsbündnis Patientensicherheit, 2006) zeigt, dass die Ursachen im Bereich der »menschlichen Faktoren« zu suchen sind – das gilt aber auch für die Verhinderung: Meist wird eine Verwechslung aufgedeckt, bevor es zu einem Patientenschaden kommt. Hier ist menschliches Handeln Unfallursache und Sicherheitsressource. Eingriffsverwechslungen geschehen fast nie aufgrund eines Fehlers einer einzelnen Person. In Fallanalysen wird fast immer ein Zusammentreffen von Risikofaktoren mit Handlungsfehlern berichtet. Das Risiko für Eingriffsverwechslungen ist besonders hoch, wenn es zu Abweichungen von Routinen kommt (z. B. ungewöhnliche Patientenlagerung im OP) oder wenn Prüfinstanzen ausfallen (z. B. Neulinge im Team, sprachunfähiger Patient). Wenn dann Fehler gemacht werden, beispielsweise falsche Eintragungen im OP-Plan oder fehlerhafte Erinnerungen des Chirurgen, und niemand diese korrigiert (z. B. weil Hierarchie im Team verhindert, dass kritische Fragen gestellt werden), kann es zu einer Eingriffsverwechslung kommen.
Um die relevanten Zusammenhänge zwischen sichtbarem Ereignis und möglichen verursachenden Faktoren zu erkennen, muss eine Human-Factors-Analyse verschiedene Ebenen und deren Vernetzung in Betracht ziehen: 4 Individuum: z. B. Gibt es physiologische Hinweise hinsichtlich Wahrnehmung, Aufmerksamkeit, Müdigkeit, Stress? Gibt es motivationale Probleme, sich an Standards zu halten? 4 Gruppe/Team: z. B. Ist die Kommunikation im Team offen und unterstützend? Werden Standard Operating Procedures (SOPs) korrekt durchgeführt? 4 Organisation: z. B. Wird Sicherheit hinreichend ernst genommen und werden vorbeugende Maßnahmen ergriffen? Gibt es festgelegte Ar-
7 1.1 · Die menschlichen Faktoren und die Disziplin Human Factors
beitszeiten und werden diese auch eingehalten? Gibt es klare Regeln der Aufgabenverteilung und Verantwortlichkeiten hinsichtlich der Schnittstellen? 4 Technik: z. B. Ist das Design aufgabenangemessen und mit den Erwartungen des Nutzers kompatibel? ! Human Factors als interdisziplinäre Wissenschaft beschäftigt sich mit dem Verhältnis von Menschen und Technik unter einer systemischen Perspektive und greift dabei auf verschiedene Basisdisziplinen zu.
Dabei legt Human Factors im Gegensatz zur klassischen Ergonomie den Fokus mehr auf kognitive, motivationale und emotionale Leistungen und Fähigkeiten sowie deren Beschränkungen und weniger auf physische und anthropometrische Eigenschaften. In diesem Zusammenhang werden die sog. nichttechnischen Fertigkeiten (»non-technical skills«) hervorgehoben, die in besonderer Weise geeignet sind, mit der zunehmenden Komplexität technischer Systeme adäquat umzugehen. ! Human Factors ist eine interdisziplinäre Forschungsrichtung, die zum einen Grundlagenforschung realisiert mit dem Ziel des Erkennt6
. Abb. 1.1. Basisdisziplinen sowie Teildisziplinen der Psychologie als wissenschaftliche Grundlage der Human-Factors-Forschung und -Anwendung
1
nisgewinns über Menschen als Ressource und begrenzenden Faktor im System Mensch und Technik. Zum anderen ist Human Factors eine angewandte Wissenschaft, die Anwendungswissen für Problemlösungen in der Praxis bereitstellt. Die vorrangige Zielstellung besteht darin, negative Folgen der Interaktion Mensch und Technik zu vermeiden bzw. zu vermindern und so das Wohlbefinden der Handelnden zu gewährleisten und die Sicherheit sowie die Funktionsfähigkeit des Systems zu verbessern.
Als Grundlage von Human Factors kann eine Vielfalt von Disziplinen genannt werden (. Abb. 1.1). Soll beispielsweise in einem Krankenhaus ein Kommunikationstraining für Ärzte und Pflegepersonal durchgeführt werden, ist als Basisdisziplin Psychologie von zentraler Bedeutung. Geht es um eine Einführung in die Handhabung einer komplexen technischen Anlage, steht die ingenieurwissenschaftliche Sicht im Vordergrund, wobei auch hier der psychologische Anteil von Bedeutung ist (z. B. die Kenntnis menschlicher Verhaltenstendenzen in definierten Situationen). Im Kontext von Informations- und Kommunikationstechnologien ist Informatik eine zentrale Disziplin. Darüber hinaus spielen auch betriebswirtschaftliche oder juristische bzw. arbeitsrechtliche Aspekte eine Rolle.
8
1
Kapitel 1 · Human Factors
Wir betrachten die Psychologie als eine zentrale Basisdisziplin von Human Factors, die in ihren verschiedenen Teildisziplinen theoretische Grundlagen hinsichtlich des Denkens und Handelns in komplexen Handlungsfeldern liefert, wie folgende Beispiele deutlich machen: 4 Allgemeine Psychologie – liefert Theorien zu grundlegenden Prinzipien des menschlichen Denkens, Handelns und Erlebens; dazu gehört sowohl die Aufnahme, Speicherung, Verarbeitung und Generierung von Information als auch Grundlagen, Bedingungen und Ursachen von Motivation und Emotion. Ebenfalls mithilfe von Theorien der allgemeinen Psychologie können Denk- und Handlungsfehler post hoc erklärt und manchmal sogar vorhergesagt werden. 4 Differenzielle Psychologie und Diagnostik – beschäftigen sich im Gegensatz zur allgemeinen Psychologie, die nach allgemeinen Prinzipien menschlichen Erlebens und Handelns forscht, mit den Unterschieden im Erleben und Handeln zwischen einzelnen Menschen bzw. Gruppen von Menschen. Insbesondere im Anwendungskontext spielt differenzielle Psychologie beispielsweise in der Eignungsdiagnostik und differenziellen Arbeitsgestaltung eine wichtige Rolle. 4 Arbeits- und Organisationspsychologie – bezieht sich auf Erwerbsarbeit, und zwar geht es um die Beschreibung, Erklärung und Vorhersage des Erlebens und Handelns von Menschen bei der Ausführung ihrer Arbeitstätigkeiten. Aufgabengebiete der Arbeitspsychologie sind Themen wie Arbeitsmotivation, Arbeitsanalyse, -gestaltung und -bewertung, Belastung und Beanspruchung und im Rahmen von Organisationen Arbeitsund Systemsicherheit. Organisationspsychologie fokussiert eher Führungsprozesse, Teamarbeit und Personaleignung und -entwicklung. 4 Sozialpsychologie – befasst sich mit menschlichem Denken und Handeln unter dem Einfluss sozialer Faktoren, d. h. unter dem Einfluss realer oder vorgestellter Gegenwart anderer Menschen. Zentrale Themen sind Einstellungen und Werthaltungen, Gruppenstrukturen und Gruppenprozesse. Diese Teildisziplinen wurden beispielhaft herausgegriffen, um die Relevanz vielfältiger psychologischer
Erkenntnisse für Human Factors aufzuzeigen. Darüber hinaus sind natürlich Wissen und Erkenntnisse aus weiteren Teildisziplinen der Psychologie von Bedeutung, wie beispielsweise der physiologischen Psychologie oder Entwicklungspsychologie (in Hinsicht auf Veränderungen von kognitiven Prozessen über die Lebensspanne).
1.2
Verwandte Disziplinen
Eine Analyse der verwandten Disziplinen von Human Factors – Arbeitswissenschaft/Ergonomie, Ingenieurpsychologie und Arbeits- und Organisationspsychologie – macht deutlich, dass eine Vielzahl an Begriffen existiert, die in eine ähnliche Kategorie wie Human Factors fallen und die von einigen Autoren sogar synonym verwendet werden, von anderen wiederum gegeneinander abgegrenzt werden. Den größten Überschneidungsbereich bilden die Begriffe und Inhalte von »Arbeitswissenschaft«, »Ergonomie«, »Ingenieurpsychologie« und »Arbeitsund Organisationspsychologie«. Es gibt jedoch keine allgemein akzeptierte Definition. Vielmehr hat jede Disziplin Vertreter, die eher engere Grenzlinien ziehen, und solche, die in ihre Definition die verwandten Disziplinen integrieren. »Arbeitswissenschaft« und »Ergonomie« werden hier synonym gebraucht, denn der Begriff »Ergonomie« setzt sich aus den 2 griechischen Wörtern »ergon« (Arbeit) und »nomos« (Regel, Gesetz) zusammen, und somit kann Ergonomie als die Wissenschaft von der Arbeit definiert werden. Zentrale Themen der Ergonomie sind Anpassung der Arbeit (Arbeitsplatz, Arbeitsablauf, Arbeitsumgebung) an den Menschen und die Anpassung des Menschen (Qualifikation, Fähigkeiten, Fertigkeiten) an die Arbeit. Bokranz & Landau (1991) nennen 3 Gegenstandsbereiche der Arbeitswissenschaft, die Gestaltung der technischen, organisatorischen und der sozialen Bedingungen von Arbeitsprozessen: »Arbeitswissenschaft ist die Systematik der Analyse, Ordnung und Gestaltung der technischen, organisatorischen und sozialen Bedingungen von Arbeitsprozessen mit dem Ziel, dass die arbeitenden Menschen in produktiven und effizienten Arbeitsprozessen
9 1.2 · Verwandte Disziplinen
4 schädigungslose, ausführbare, erträgliche und beeinträchtigungsfreie Arbeitsbedingungen vorfinden, 4 Standards sozialer Angemessenheit sowie Entlohnung und Kooperation erfüllt sehen, 4 Handlungsspielräume entfalten, Fähigkeiten erwerben und in Kooperation mit anderen ihre Persönlichkeit erhalten und entwickeln können.« (S. 19)
Diese Definition macht deutlich, dass die Arbeitswissenschaft insbesondere den Aspekt einer förderlichen Arbeitsgestaltung für den Menschen thematisiert (s. auch Wickens, Gordon & Liu, 2004). Der Fokus liegt auf dem arbeitenden Menschen und dessen Sicherheit und Wohlergehen. Der Mensch als aktiv Handelnder steht nicht im Zentrum, er ist vielmehr derjenige, der die entsprechend gestaltete Arbeitswelt reaktiv wahrnimmt. Damit wird deutlich, dass diese Thematik nur ein Teilaspekt von Human Factors beinhaltet. Andere Autoren wie z. B. Salvendy (2006), Christensen (1986) und auch die International Ergonomics Association (IEA, 2000) sehen dagegen »Human Factors« und »Ergonomics« als 2 unterschiedliche Begriffe für die gleiche Disziplin. So lautet die im Jahr 2000 von der IEA verabschiedete offizielle Definition: »Die Ergonomie (oder human factors) ist die wissenschaftliche Disziplin, welche sich mit dem Verständnis der Wechselwirkungen zwischen Menschen und anderen Elementen eines Systems beschäftigt, sowie die berufliche Tätigkeit, welche die Theorie, Prinzipien, Daten und Methoden zur Gestaltung anwendet, um das menschliche Wohlbefinden und die gesamte Systemleistung zu verbessern.«
In weiteren Erläuterungen weist der Rat darauf hin, dass Ergonomie systemorientiert und holistisch alle Arten der menschlichen Aktivität umfasse, und schließt damit Sport und Freizeit ein. Zudem wird betont, dass es die Aufgabe der Ergonomie sei, »[…] Aufgaben, Arbeiten, Produkte, Umgebungen und Systeme so zu gestalten und zu evaluieren, damit diese den Bedürfnissen, Fähigkeiten und Einschränkungen der Personen entsprechen.« (IEA, 2000)
1
Dabei sollen physische, kognitive, soziale, organisatorische, umgebungsbedingte und andere relevante Faktoren berücksichtigt werden. Zusammenfassend kann festgehalten werden: Ergonomie wird von Autoren mit einem breiten Disziplinverständnis gleichbedeutend mit Human Factors als eigenständige und unabhängige Disziplin mit dem Fokus auf Mensch-Technik-Interaktionen gesehen, und zwar unter einem gemeinsamen Blickwinkel von Wissenschaft, Technik, Anwendung und Management mit dem Ziel, menschenverträgliche Systeme zu gestalten (Karwowski, 2006). Gleichwohl liegt aber auch eine sprachliche Konfusion vor, weil »Ergonomics« im amerikanischen Sprachraum mit »Human Factors« gleichsetzt wird, während im europäischen Sprachraum »Ergonomie« lediglich als die Disziplin Arbeitswissenschaft und damit als Teilbereich von Human Factors verstanden wird. Wir unterscheiden im Folgenden 3 Disziplinen, die zwar mit Human Factors eng verwandt sind, die aber jeweils einen anderen Schwerpunkt betonen: 4 Ergonomie/Arbeitswissenschaft 4 Ingenieurpsychologie 4 Arbeits- und Organisationspsychologie Die Gemeinsamkeit dieser 3 Disziplinen besteht in der Suche und in der Anwendung von Erkenntnissen zum Zusammenwirken von Mensch und Technik mit dem Ziel, diese Interaktion so zu gestalten, dass sie den Bedürfnissen und Fähigkeiten des Menschen gerecht wird. Unterschiedlich wird dabei die Gestaltung der Interaktion gesehen (. Tab. 1.1). Dabei ist der Überschneidungsbereich groß, und eine adäquate Analyse und Gestaltung der Mensch-Technik-Interaktion muss in der Regel diese 3 Disziplinen aufeinander beziehen und integrieren. Die Tabelle konzentriert sich daher auf Unterschiede, wohl wissend, dass eine eindeutige Abgrenzung nicht möglich ist. ! Während in der klassischen Ergonomie/Arbeitswissenschaft der Schwerpunkt auf der physiologischen und anthropometrischen Dimension liegt, wird in der Ingenieurpsychologie der technische Blickwinkel mit dem psychologischen verbunden, und in der Arbeits- und Organisationspsychologie steht das Verhalten von Menschen bei der Ausführung von Arbeitstätigkeiten im Organisationskontext im Vordergrund.
10
1
Kapitel 1 · Human Factors
. Tab. 1.1. Verwandte Disziplinen von Human Factors
Ergonomie/Arbeitswissenschaft
Ingenieurpsychologie
Arbeits- und Organisationspsychologie
Definition
Wissenschaft, die sich mit der Analyse und Gestaltung der Wechselwirkung zwischen menschlichen und anderen Elementen eines Systems befasst
Wissenschaft vom menschlichen Verhalten bei der Bedienung von Systemen
Wissenschaft vom Erleben und Verhalten von Menschen bei der Ausführung ihrer Arbeitstätigkeiten im Organisationskontext
Ziel
Wohlbefinden des Menschen und Leistung des Gesamtsystems optimieren
Anpassung des Systemdesigns an menschliche Faktoren, Fehler verhindern durch intelligentes Design
Erkennen und Verstehen generalisierbarer psychologischer Prinzipien, um Organisationen und technische Systeme entsprechend zu gestalten
Basisdisziplin
Physiologie, Medizin
Ingenieurwissenschaften
Psychologie
1.3
Wurzeln von Human-FactorsForschung
In diesem Kapitel sollen die Gestaltungsprinzipien, die im Laufe des letzten Jahrhunderts als Antworten auf technische und gesellschaftliche Änderungen zentrale Bedeutung für Mensch und Sicherheit erlangten, aufgezeigt werden. Die Betonung liegt dabei nicht auf historischer Vollständigkeit, sondern auf dem Beispielcharakter für die jeweilige Sicht auf den Menschen unter Human-Factors-Gesichtspunkten. Einen Überblick über die Entwicklung der Disziplin Human Factors in verschiedenen Ländern und die Institutionalisierung der entsprechenden Berufsorganisationen und Fachverbände geben Meister (1999) und Karwowski (2006). Noch lange bevor das Thema Arbeitstätigkeit wissenschaftliches Interesse erlangte, gab es erste systematische Analysen von Arbeitssituationen von Georgius Agricola (1494–1555), einem Arzt und langjährigen Bürgermeister von Chemnitz. Er untersuchte alle möglichen arbeitsbedingten Erkrankungen, aber auch Unglücksfälle von Bergleuten im Berg- und Hüttenwesen. Darüber hinaus beschrieb er einige vorbeugende Maßnahmen und veröffentlichte seine Erkenntnisse in 12 Büchern (1556). Diese ausschließlich medizinische Sicht auf Arbeitstätigkeiten ist zwar auch sicherheitsorientiert, jedoch in ihrem Fokus eher als Ursprung der Arbeitsmedizin zu bewerten.
1.3.1 Scientific Management Die echte Geburtstunde von Human Factors wird in der Entwicklung der technischen Systemgestaltung (Scientific Management, 1911) von Frederic W. Taylor gesehen. Die Vision Taylors »Wohlstand für alle« sollte durch die Optimierung von Management, Arbeit und Unternehmen erreicht werden. »Das Hauptaugenmerk einer Verwaltung sollte darauf gerichtet sein, gleichzeitig die größte Prosperität des Arbeitgebers und des Arbeitnehmers herbeizuführen und so beider Interessen zu vereinen.« (Taylor, 1913, S. 7)
Erstmals erfolgten detaillierte Analysen des konkreten Arbeitsprozesses. So erstellte Taylor schon 1882 minutiöse Zeit- und Bewegungsstudien, um für jeden Handgriff den besten Weg (»one best way«) zu finden, der unter den gegebenen Bedingungen den maximalen Wirkungsgrad, also die maximale Arbeitsleistung, ermöglichte. Diese Arbeitsstudien bestanden aus Tausenden von Beobachtungen pro Arbeitseinheit und darauf aufbauend klaren Anweisungen kleinster Tätigkeitselemente für die Arbeiter sowie individuellen Anreizsystemen und einem täglichen Feedback bezüglich der Leistungen des Vortages. Konkrete Merkmale dieser Form der Arbeitsgestaltung waren extreme Partialisierung und Wiederholung von Tätigkeiten mit der Folge geringster Anforderungen an die Qualifikation des Arbeitneh-
wissenschaftliche Betriebsführung
11 1.3 · Wurzeln von Human-Factors-Forschung
mers. Darüber hinaus sollten individuelle Leistungen durch die spezifische Gestaltung von Werkzeugen gesteigert werden. Beispiel Taylors bekanntestes Experiment war das Schaufelexperiment. Seine Hypothese war, dass für einen »Schaufler« ein bestimmtes Gewicht pro Schaufelbewegung optimal ist. Seine Untersuchungsfragen waren z. B.: Ist die Tagesleistung beim Schaufeln von Erde am höchsten, wenn eine kleinere Schaufel (8,5 kg) bei hoher Frequenz, eine mittelgroße (9,5 kg) mit mittlerer Frequenz oder eine große (11 kg) mit niedriger Frequenz verwendet wird? Er fand durch systematische Variation über einige Wochen heraus, dass eine Schaufellast von 9,5 kg optimal für Erdarbeiten ist.
Die vorherrschende Idee dieses Ansatzes war Effizienzsteigerung. Das Optimierungspotenzial wurde aber lediglich in der Relation von Arbeitsmittel und Person gesehen, es gab im Scientific Management noch keine integrative Sicht des Gesamtsystems Mensch, Technik und Organisation. Zusätzlich zu diesen Detailstudien entwickelte Taylor das Prinzip der Personalauswahl, den »rechten Mann am rechten Platz«, der auch geschult werden sollte, um ineffizientes Handeln zu vermeiden. Das Ziel solcher Schulungen war optimale Arbeitsleistung, was bedeutete: »Eine erste Kraft ist der Arbeiter, der genau tut, was ihm gesagt wird, und nicht widerspricht.« (Taylor, 1913, S. 49)
Diese Sicht Taylors auf den arbeitenden Menschen zeigt, dass dieser auf eine nichtintentionale und nichtreflexive Maschine reduziert wird (»Arbeiter gehorchen ähnlichen Gesetzen wie Teile einer Maschine«). Somit muss ein solcher Ansatz scheitern, sobald Problemlösen, Kreativität und Verantwortung gefordert sind. Allerdings mag die tayloristische Effizienzsteigerung für hoch routinisierte Tätigkeiten ein Zugewinn an Störungsfreiheit bedeuten und damit einen Beitrag zu einem sicheren Arbeitsumfeld leisten. Auch das prinzipielle Vorgehen der klas-
1
sischen Ergonomie, nämlich Maschinen und Umgebungsvariablen (z. B. Lichtverhältnisse, Tischhöhe etc.) an die körperliche Leistungsfähigkeit des Menschen anzupassen, um Unfälle und Gesundheitsschäden zu verhindern, entspricht durchaus Teilzielen des Scientific Management. Jedoch wurde das Ziel des menschlichen Wohlbefindens bei Taylor in erster Linie motivational unter dem Aspekt Entlohnung berücksichtigt und weitere motivationale und kognitive Aspekte wie z. B. die Bedeutung des sozialen Kontextes sowie die Auswirkungen stark arbeitsteilig organisierter Tätigkeiten auf die Psyche des Arbeiters ignoriert. Dieses Defizit zeigte sich auch schon sehr bald in den Ergebnissen einer Untersuchung der Auswirkungen des Scientific Management in 35 amerikanischen Industriebetrieben: »[...] Namentlich versagt die wissenschaftliche Betriebsführung vollständig mit Rücksicht auf die Bewertung des menschlichen Faktors bei der Arbeit.« (Frey, 1920, S. 4)
1.3.2 Psychotechnik Münsterberg gilt als Begründer der »Psychotechnik« (obwohl der Begriff erstmals von Stern 1903 gebraucht wurde), und zwar bezeichnete er damit die gesamte angewandte Psychologie. In seinem Buch »Psychologie und Wirtschaftsleben – Lehrbuch zu Aufgaben der Psychotechnik in der Industrie« (1912) behandelte er Themen wie Eignung und Auslese, Training, Technikanpassung, Ermüdung, Leistungsfähigkeit etc. Diese breite Ausrichtung von Münsterberg wurde allerdings nicht beibehalten, sondern die Psychotechnik wurde auf Eignungsdiagnostik und Personalauswahl reduziert. Die Selektion der geeigneten Person für eine Arbeitsstelle galt als Realisierung der ökonomischen sowie der persönlichen Zielsetzungen. Letztlich aber ging es während des 1. Weltkriegs und in der Nachkriegszeit darum, den Bedarf der jeweiligen Nachfrager an Arbeitskräften möglichst schnell und mit geringen Anlernzeiten zu befriedigen. In ihrer Position als Wissenschaftler legten die Vertreter der Psychotechnik Wert darauf, keine normativen Aussagen zu treffen und keine Ziele zu hin-
12
1
Kapitel 1 · Human Factors
terfragen. Somit fiel auch im Folgenden die Anpassung an die NS-Ideologie bzw. die Vereinnahmung durch diese nicht schwer, und die Methoden der Psychotechnik fanden Einzug in diverse Institute nationalsozialistischer Provenienz. Somit verschwand der Begriff »Psychotechnik« nach 1945; die Themen der Psychotechnik leben teilweise in der Eignungsdiagnostik weiter.
1.3.3 Soziale Systemgestaltung:
der Human-Relations-Ansatz In den 1930er Jahren rückten der Mensch als soziales und motiviert handelndes Wesen und damit menschliche Bedürfnisse als zentrale Determinanten industrieller Arbeit in den Vordergrund. Der Grundstein für diese neue Sichtweise wurde durch Untersuchungen von Mayo (1933) und Roethlisberger und Dickson (1939) in den Hawthorne-Werken der Western Electric Company gelegt, die als Hawthorne-Studien bekannt geworden sind. Die ursprüngliche Intention dieser Studien war die Untersuchung der Frage nach den Auswirkungen unterschiedlicher Umweltbedingungen auf die Arbeitsleistung. Diese ersten Untersuchungen standen somit in der Tradition des Scientific Management (s. oben). Zunächst wurden die erwarteten Ergebnisse erzielt, beispielsweise wurde mit zunehmender Beleuchtung die Arbeitsleistung verbessert. Aber es gab darüber hinaus eine Reihe unerwarteter Ergebnisse: So verbesserte sich z. B. die Arbeitsleistung bei fast jeder Veränderung der Variablen, d. h. sowohl bei stärkerer als auch bei schwächerer Beleuchtung wurde die Arbeitsleistung besser. Ebenfalls verblüffend war das Ergebnis, dass auch eine Verbesserung der Arbeitsleistung in der Kontrollgruppe stattfand – in der Gruppe, in der keine experimentellen Veränderungen eingeleitet worden waren. Diese Ergebnisse wurden erklärt mit einer Motivationssteigerung der Arbeiterinnen durch das Wissen, an einer Studie teilzunehmen. Zum anderen waren es die zwischenmenschlichen Beziehungen zwischen Gruppenmitgliedern, Vorgesetzten und Forschern, die die Zufriedenheit der Mitarbeiterinnen und in der Folge die Arbeitsleistung erhöhten. Damit wurde Arbeitsmotivation im sozialen Kontext der Arbeitsumgebung als eine zentrale Variable
erkannt, welche heute in vielen Bereichen z. B. in leistungsabhängigen Belohnungssystemen oder im betrieblichen Vorschlagswesen eine große Rolle spielt.
1.3.4 Soziotechnische System-
gestaltung Der soziotechnische Ansatz betont die Interaktion der sozialen und der technischen Teilsysteme eines Arbeitssystems. Es gilt, dass keines der Teilsysteme ohne Berücksichtigung des anderen optimiert werden kann, da sie vielfältig miteinander zusammenhängen. Dieser Ansatz wurde zuerst vom Tavistock Institute of Human Relations entwickelt. Untersuchungen im englischen Kohlebergbau (Trist & Bamforth, 1951) ergaben, dass die Einführung einer verbesserten Technologie anstelle der erwarteten Produktivitätssteigerung zu Verlusten aufgrund von Fehlzeiten und interpersonellen Konflikten führte. Es stellte sich heraus, dass die Ursache in den durch die Einführung der neuen Technologie veränderten sozialen Arbeitsstrukturen lag. Vorher hatten die Bergleute in festen Teams immer am selben Ort zusammengearbeitet und waren gemeinsam für die vollständige Tätigkeit zuständig. Ihre Löhne, aber auch ihre Sicherheit unter Tage hingen von der Zusammenarbeit ab. Die neue Longwall-Methode sah eine arbeitsteilige Zerlegung der Tätigkeiten auf verschiedene Schichten vor und beraubte so die Bergleute ihrer Freiheit in der Detailplanung, aber auch ihres sozialen Unterstützungssystems. Wurde jedoch die neue Methode unter Beibehaltung der vorhandenen sozialen Struktur eingeführt, trat die erwartete Produktivitätssteigerung ein. Damit wurde nachgewiesen, dass die Interaktion der sozialen und technischen Teilsysteme eine zentrale Rolle spielt, umso mehr in der modernen Informationsgesellschaft, in der soziale Kommunikation unmittelbar Teil der Wertschöpfungskette ist. Der soziotechnische Ansatz blieb bis in die 1990er Jahre ein wichtiges Paradigma in der Arbeitsund Systemgestaltung und wurde erst in jüngster Zeit ergänzt durch Konzepte, die Technik nicht als eigenes Subsystem begreifen, sondern als integralen Bestandteil menschlicher Kultur und sozialer Praktiken (z. B. Kaptelinin & Nardi, 2006).
13 1.3 · Wurzeln von Human-Factors-Forschung
1.3.5 Kognitive Ergonomie Mit dem massiven Aufkommen von Informationsund Kommunikationstechnologien wurden Fragen relevant, wie der Mensch seine Umwelt wahrnimmt, interpretiert, speichert und wieder abruft, welche Gesetzmäßigkeiten also die mentalen Informationsverarbeitungsprozesse des Menschen determinieren. Hollnagel (2001) spricht in diesem Zusammenhang von einem neuen Rahmen, der abweichend von den Prinzipien und Methoden der klassischen Ergonomie notwendig wurde, und diesen bezeichnet er als »kognitive Ergonomie«. Kognitive Ergonomie fokussiert demnach neben der konkreten Arbeitssituation und Aufgabe auf mentale Prozesse, die in Zusammenhang mit jedweder Mensch-System-Gestaltung zum Tragen kommen. Hier geht es nicht nur um die Frage, welche Informationen das jeweilige System bereitstellt, sondern es wird bei der Darstellung von Information gleichermaßen berücksichtigt, in welcher Weise Menschen Informationen wahrnehmen, selektieren und als Basis ihrer weiteren Handlungen integrieren. Neuere Systeme gehen über diese kognitive Schnittstelle hinaus und versuchen auch emotionale und motivationale Aspekte in der Mensch-System-Gestaltung zu berücksichtigen. Beispielsweise wird bei der Gestaltung von aktiven Fahrerassistenzsystemen (FAS) zur Vermeidung von Unfällen angestrebt, Fahrer in ihrer Interaktion mit Fahrzeug und Umwelt zu unterstützen. Dabei stellt sich die Frage, wie Informationen über kritische Situationen so vermittelt werden können, dass der Fahrer oder die Fahrerin den Hinweis oder die Warnung auch akzeptiert und es damit zu der gewünschten Reaktion kommt – und nicht Abwehrreaktionen wie Reaktanz ausgelöst werden.
1.3.6 Aktuelle Strömungen
und Themen Die großen Industrieunfälle der 1980er Jahre (Bhopal, 1984; Tschernobyl, 1986; Herold of Free Enterprise, 1987; Ölplattform Piper Alpha, 1888) haben in hohem Ausmaß die jüngsten Entwicklungen der Human-Factors-Forschung und Anwendung geprägt: Sicherheit wurde das zentrale Human-Factors-
1
Thema. Analysen der Ursachen dieser und weiterer Katastrophen führten zur vermehrten Integration von Menschen in Sicherheitskonzepte. Angetrieben durch die Erfahrung, dass das Ersetzen menschlicher Entscheidungen durch Automatisierung (7 Kap. 19) nicht alle Unfälle vermeiden kann, nahm seit den 1980er Jahren insbesondere die zivile Luftfahrt eine Vorrangstellung in der Entwicklung HumanFactors-orientierter Sicherheitskonzepte ein. Aktuell »entdecken« Branchen wie Medizin und Prozessindustrie die menschlichen Faktoren als sicherheitsrelevante Ressource. Durch die Vielfalt der Themen, Disziplinen und Institutionen hat sich bis heute kein einheitliches Bild von Human Factors ergeben. Dennoch lassen sich einige Themen benennen, die die aktuelle Diskussion über verschiedenen Anwendungsbranchen und Forschungsdisziplinen hinweg bestimmen: Sicherheitskultur
Ein Blick auf die oben dargestellten Gestaltungsprinzipien zeigt, dass keiner dieser Ansätze explizit Bezug auf die Organisation nimmt. Diese Situation hat sich seit den 1980er Jahren dahingehend geändert, dass sich Organisationstheorien verstärkt mit der Rolle der Organisation für sicheres Handeln auseinandersetzen. Die Suche nach Optimierung von organisatorischen Strukturen und Prozessen ist immer auch eine sicherheitsrelevante Aufgabenstellung (7 Kap. 2 und 9). Entwicklung von Human-Factors-Trainings
Aufbauend auf Forschungsergebnissen zu Einflussfaktoren bei Flugunfällen und Zwischenfällen wurden im Bereich der zivilen Luftfahrt Trainingsprogramme zunächst für Piloten und in der Folge für die gesamte Crew entwickelt und umgesetzt. Diese Crew-Ressource-Management-Trainings bilden inzwischen einen wesentlichen Baustein der Sicherheitskultur von Luftfahrtunternehmen (Orlady & Orlady, 1999, 7 Kap. 9 und 12). Mit zeitlicher Verzögerung und einem gestiegenen Bewusstsein für Sicherheitsfragen wurden diese Konzepte in die Medizin über die Anästhesie in den OP-Saal getragen (Helmreich, 2000, 7 Kap. 13). Dieses Feld ist aktuell in einer uneinheitlichen und dynamischen Entwicklung begriffen. Auch in anderen Branchen, z. B. Prozessindustrien (7 Kap. 14), Militär (7 Kap. 15) und
14
1
Kapitel 1 · Human Factors
Polizei (7 Kap. 16) steigt das Interesse an HumanFactors-Trainingsansätzen (7 Kap. 18). Beachtung des Teams
Zunehmend steht das Team im Fokus des Interesses, nicht mehr der Operator, der das System bedient. Dadurch werden teambezogene Themen wie Kommunikation (7 Kap. 8) und Führung (7 Kap. 10) unter dem Aspekt Sicherheit neu beachtet. Besonders deutlich wird dies bei der Relevanz des gemeinsamen Problemverständnisses (»shared mental models«, 7 Kap. 7) und des geteilten Situationsbewusstseins (»situation awareness«, 7 Kap. 4). Neu hinzu kommen Konzepte für sicheres Handeln in verteilten Teams (7 Kap. 11). Neubestimmung des Handlungsspielraums
Standardisierung (7 Kap. 17) und Automatisierung (7 Kap. 19) sind immer schon Themen der HumanFactors-Forschung gewesen. Aktuell werden ihre Nebenwirkungen diskutiert, z. B. Verlust vonFertigkeiten, Verantwortungsdiffusion etc. Hier spielt auch das Bedürfnis der Handelnden nach Autonomie eine Rolle. Nutzerzentriertes (»user-centered«) Design
Zunehmend wird auch von der technischen Seite erkannt, dass die Mehrzahl unserer Produkte immer noch der tayloristischen Maxime des »one best way« folgen; diese Produkte sind in einer Weise entwickelt und hergestellt, dass sie nur von einem kleinen Teil der intendierten Nutzer tatsächlich erfolgreich und sicher genutzt werden können. Allerdings gibt es vermehrt Beispiele von Produktentwicklungsprozessen, die die zukünftigen Nutzer frühzeitig in den Prozess einbeziehen. In eine ähnliche Richtung geht »inclusive« Design, ein Paradigma, das anstrebt, Produkte und Dienstleistungen in einer Weise zu gestalten, dass sie die Bedürfnisse aller Menschen – ob alt oder jung, bewegungseingeschränkt oder nicht – berücksichtigt, ohne dass sie über ein »spezielles« Design verfügen. Das Thema ist hoch aktuell, da es mit dem demografischen Wandel in unserer Gesellschaft hervorragende Marktchancen durch neue Zielgruppen verspricht (Machate & Burmeister, 2003). Hier könnte die Gestaltung risikoreicher Systeme durchaus wertvolle Anregungen aufnehmen. Noch nicht wirklich angekommen in der Human-Factors-Forschung und -Anwendung sind
Emotion und Motivation als Grundlage des Handelns (7 Kap. 5 und 6). Dies ist ein Zukunftsfeld, z. B. bei der Analyse von Tätigkeitsanforderungen oder bei der Beurteilung von Automatisierungskonzepten. Ziel ist eine handlungspsychologische Grundlegung von Human Factors.
1.4
Methoden
Wie für jedes Forschungsfeld stellt sich die Frage, mit welchen Forschungsmethoden relevante und verlässliche Ergebnisse gewonnen werden können. Entsprechend der Breite des Feldes gibt es eine Vielzahl von Methoden und Forschungsansätzen. Das Spektrum reicht von experimentellen Untersuchungen im Labor über die Rekonstruktion von Einzelereignissen bis hin zu prospektiven Wirkungsbeurteilungen. Human-Factors-Forschung versucht dabei nicht nur wie andere Wissenschaften, überprüfbare Kausalzusammenhänge zu identifizieren, sondern legt auch großen Wert auf ökologisch valide Forschung, bei der relevante Problemstellungen realitätsnah untersucht werden. Das Forschungsziel ist nicht nur Erkenntnisgewinn, sondern insbesondere auch ein Beitrag zur Lösung konkreter Probleme: 4 Wie lässt sich die Systemgestaltung verbessern? 4 Welche Handlungsaspekte sind am fehleranfälligsten, und wie lassen sich diese Fehlerquellen vermindern? 4 Welche Kenntnisse müssen Novizen vor Arbeitsbeginn vermittelt werden, und welche Trainingsform eignet sich am besten? Diese Pragmatik der Fragestellungen hat die HumanFactors-Forschung mit anderen Anwendungsfächern wie den Ingenieurwissenschaften gemein, und so werden auch psychologische Kenntnisse dabei als »Technologie« eingesetzt und auf ihre Nützlichkeit zur Lösung konkreter Probleme geprüft. Erkenntnistheoretisch darf angezweifelt werden, ob bei der labormäßigen Isolation einer menschlichen Handlung aus dem Kontext der Tätigkeit noch das reale Phänomen untersucht wird, oder ob man, wie die Vertreter des Naturalistic Decision Making (Schraagen, Militello, Ormerod & Lipshitz, 2008), darauf bestehen sollte, menschliches Handeln soweit wie möglich in der realen Komplexität des Feldes zu untersuchen. Wir ver-
15 1.4 · Methoden
treten die Auffassung, dass Laborexperimente zur Überprüfung von Kausalzusammenhängen und beim Vergleich von klar abzugrenzenden Bedingungen auch für die Human-Factors-Forschung wertvolle Instrumente darstellen; sie sollten jedoch nicht wie sonst häufig in der Psychologie als einzig akzeptable Form des Erkenntnisgewinns angesehen werden.
1.4.1 Forschungsmethoden Viele Forschungsmethoden der Sozialwissenschaften finden auch in der Human-Factors-Forschung Anwendung: 4 Verhaltensbeobachtungen im Labor oder im Feld dienen dazu, Handlungsabläufe zu untersuchen und auch nichtbewusste Reaktionen zu erfassen, beispielsweise bei der Systemnutzung, zu Arbeitsbelastungen oder bei Gruppenprozessen. Es werden sowohl Reaktionszeitmessungen, Augenbewegungen, physiologische Messungen als auch standardisierte Verfahren wie OnlineKodierung von Handlungen durchgeführt. 4 Interviews werden häufig eingesetzt, wenn Erfahrungen zur Rekonstruktion von Unfällen oder bei der Ermittlung von Expertenwissen erhoben werden sollen und diese durch Beobachtungen nicht oder nur mit erheblichem Aufwand zu leisten wären. Mit speziellen Interviewtechniken wie der Critical Incident Analysis (Flanagan, 1954) oder Cognitive Task Analysis (Crandall, Klein & Hoffman, 2006) soll es Informanten erleichtert werden, sich an Einzelheiten und nicht bewusstseinspflichtige Handlungen zu erinnern. 4 Fragebögen kommen insbesondere zur Einstellungsmessung, z. B. im Bereich Sicherheitskultur, vor. Dabei handelt es sich um Selbstbeschreibungen, mit denen zwar sehr effizient Informationen von großen Personengruppen erhoben werden können, die jedoch stark durch Verzerrungstendenzen (z. B. soziale Erwünschtheit) beeinträchtigt werden können. Die meisten Verfahren wurden für einen spezifischen Anwendungskontext entwickelt; es gibt wenige, die auf einer theoretischen Basis aufbauen. 4 Organisationsanalysen oder makroergonomische Verfahren stellen meist eine Kombination von verschiedenen Einzelmethoden dar, mit
1
denen Handlungsbedarf für Systemgestaltung oder organisationale Veränderungen sowie deren Auswirkungen erfasst werden (z. B. MTOAnalyse, Strohm & Ulich, 1997). Eine umfassende Übersicht zu Einzelmethoden bieten Dunckel (1999) sowie Stanton, Hedge, Brookhuis, Salas & Hendrick (2005). Im Folgenden soll kurz auf einige spezifische Methoden eingegangen werden, die in jüngerer Zeit besondere Bedeutung erlangt haben: Simulationen als Zwischenform von Labor- und Felduntersuchungen sowie retrospektive und prospektive Untersuchungen.
1.4.2 Ausgewählte spezifische
Methoden Simulationen
Simulationen bilden relevante Aspekte eines Systems unter Laborbedingungen ab und verbinden damit Realitätsnähe mit experimenteller Kontrolle. So können vergleich- und wiederholbare Bedingungen für verschiedene Probanden hergestellt und seltene Vorfälle oder gefährliche Szenarios zu Forschungsund Trainingszwecken nachgeahmt werden. Dabei gibt es High-fidelity-Simulationen, die das Ambiente und das technische System möglichst genau nachempfinden, wie dies bei Flugsimulatoren üblich ist und in der Medizin mit Patientensimulatoren gegenwärtig versucht wird. Mindestens ebenso wichtig sind jedoch die psychologische Plausibilität und das Generieren von anspruchsvollen, sich dynamisch verändernden Szenarien (vgl. z. B. Tactical Decision Games; Crichton, Flin & Rattray, 2000). Retrospektive Analysen
Retrospektive Analyse von Ereignissen werden in der Human-Factors-Forschung insbesondere zur Ursachenklärung von organisational verursachten Unfällen (»organizational accidents«; Reason, 1997), an denen viele Menschen aus unterschiedlichen Ebenen eines Betriebes beteiligt waren, eingesetzt. Anhand von Dokumenten und Interviews werden Informationen zum Verlauf und zu den zugrunde liegenden Ursachen (»root causes«) zusammengetragen. Derartige Analysen sind wegen der Seltenheit von schwerwiegenden Unfällen methodisch
16
1
Kapitel 1 · Human Factors
gesehen Fallstudien, d. h., sie liefern Erkenntnisse, die nicht auf anderem Weg zu gewinnen wären und die (auch in ihrer historischen Einzigartigkeit) Anhaltspunkte zur Theorienbildung und -prüfung bieten. Allerdings ist das zur Verfügung stehende Material nicht unbedingt zur psychologischen Analyse geeignet, und man sollte typischen Analysefehlern wie vorzeitiger Hypothesenbildung, Rückschaufehlern und Bestätigungstendenzen Rechnung tragen. Auch kann mit einer Analyse eines Ereignishergangs noch keine Kausalität nachgewiesen werden. Dazu empfiehlt es sich, die Plausibilität von Alternativmodellen zu prüfen. Prospektive Untersuchungen
Insbesondere in der angewandten Forschung werden auch prospektive Untersuchungen eingesetzt, bei denen z. B. Wirkungsabschätzungen für neue Arbeitssysteme vorgenommen werden. Hierbei versagen übliche sozialwissenschaftliche Ansätze, da es nicht möglich ist, die zukünftigen Arbeitsplatzinhaber zu beobachten oder zu befragen. Stattdessen werden anhand der Beschreibung des geplanten technischen Systems Arbeitsabläufe imaginiert und von Experten beurteilt (Kirwan & Ainsworth, 1992) oder Kriterien der menschengerechten Arbeitsgestaltung auf geplante Veränderungen angewandt. Insbesondere für Computersysteme werden auch prospektive Methoden wie »mock-ups« (Prototypen auf Papier) und vorgestellte Begehungen (»cognitive walk-throughs«) genutzt.
1.5
Fokus und Aufbau dieses Buches
Die vorangegangenen Ausführungen zeigen verschiedene Möglichkeiten, Human Factors zu verstehen, und skizzieren die inhaltliche und methodische Vielfalt von Human Factors als Forschungsgebiet. ! Es gibt nicht »den menschlichen Faktor« in der Interaktion mit technischen Systemen, sondern viele »menschliche Faktoren«, die berücksichtigt werden müssen, wenn Arbeitssysteme sicher und effektiv und für die darin arbeitenden Menschen zuträglich sein sollen.
In diesem Buch fokussieren wir den Aspekt »Systemsicherheit« und beleuchten in den folgenden 18 Ka-
piteln sicheres Handeln und was Menschen daran hindert oder darin unterstützt. Entsprechend stehen Beispiele und Themen aus Hochrisikobranchen (Luftfahrt, Prozessindustrie, Medizin, Militär, Polizei) im Vordergrund. Je ein Autor der Kapitel 12–16 ist Experte dieser Disziplin, sodass in diesen Kapiteln Praktiker gemeinsam mit Wissenschaftlern die aktuellen Herausforderungen ihrer Branchen im Human-Factors-Bereich beschreiben. Weiterhin thematisiert dieses Buch, entsprechend dem wissenschaftlichen Hintergrund der meisten Autoren, Human Factors aus einer psychologischen Perspektive. Deshalb betrachten wir psychische und organisationale Faktoren stärker als Fragen der technischen Optimierung. Handelnde Menschen stehen hier im Mittelpunkt, d. h., auch Themen wie Organisation und Technologiegestaltung werden im Hinblick auf ihren Einfluss auf sicheres Handeln beschrieben. Schließlich sind Sicherheit und sicheres Handeln hochgradig praxisrelevant. Um dies zu betonen, beginnen alle Kapitel (außer den 3 einleitenden) mit einem Fallbeispiel, das im Verlauf des jeweiligen Kapitels immer wieder aufgegriffen wird. Damit hoffen wir, die Lesefreundlichkeit und Übertragbarkeit des Gesagten zu erhöhen.
Aufbau des Buches Das Buch ist so zusammengestellt und geschrieben, dass es fortlaufend gelesen werden kann. Trotzdem sind die einzelnen Kapitel auch für sich stehend. Zur Unterstützung »stöbernden« Lesens sind Bezüge zu anderen Kapiteln durch Querverweise gekennzeichnet. Die Human Factors werden in 5 Abschnitten besprochen: 1. Human Factors und sicheres Handeln (7 Kap. 1–3) beschreibt als grundlegende Konzepte Human Factors, Sicherheit und Fehler: 5 In 7 Kap. 2 legen Babette Fahlbruch, Markus Schöbel und Juliane Domeinski die Grundlagen zum Verständnis von Sicherheit und Sicherheitskultur in soziotechnischen Systemen. 5 7 Kap. 3 von Gesine Hofinger zur Fehlerforschung behandelt Fehler und ihre Ursachen im Zusammenhang mit Sicherheit und Unfällen.
17 1.6 · Literatur
2. Individuelle und teambezogene Faktoren (7 Kap. 4–8) behandeln die im engeren Sinn psychologischen Human Factors. 7 Kap. 4–6 beschreiben individuelle, 7 Kap. 7–8 teambezogene menschliche Faktoren: 5 Harald Schaub stellt in 7 Kap. 4 die basalen psychischen Prozesse der Wahrnehmung und Aufmerksamkeit dar und zeigt ihre Relevanz für Sicherheit. 5 Denken, Entscheiden und Handeln als Themen der Handlungspsychologie werden von Winfried Hacker und Rüdiger von der Weth in 7 Kap. 5 vorgestellt. 5 Dietrich Dörner behandelt in 7 Kap. 6 Motivation und Emotion in ihrer Interaktion mit Denkprozessen und zeigt stressbedingte Ursachen für Handlungsfehler. 5 Das Handeln in der Gruppe ist Thema des 7 Kap. 7 von Petra Badke-Schaub. Sie beschreibt Gruppenstrukturen und -prozesse vor dem Hintergrund von spezifischen Anforderungen und Konstellationen. 5 In 7 Kap. 8 behandelt Gesine Hofinger Funktionen von Kommunikation, häufige Fehler und sicherheitsförderliche Kommunikationsweisen. 3. Organisationale Einflussfaktoren auf sicheres Handeln (7 Kap. 9–11) sind Gegenstand der Kapitel zu Organisation, Führung und neuen Formen der Zusammenarbeit: 5 Cornelius Buerschaper stellt in 7 Kap. 9 Konzepte der Organisationstheorie vor und gibt einen Überblick über organisationale Einflussfaktoren auf Sicherheit. 5 Führung als Schnittstelle des Teams mit der Organisation wird von Gudela Grote in 7 Kap. 10 mit Fokus auf Bewältigung von Unsicherheit besprochen. 5 7 Kap. 11 behandelt neue Formen der Zusammenarbeit. Kristina Lauche fragt nach Anforderungen an Teams und Organisationen bei verteilter, medienbasierter Kooperation. 4. Aktuelle Human-Factors-Herausforderungen und Anforderungen für die Zukunft in verschiedenen Risikofeldern (7 Kap. 12–16) bringen die in den 7 Kap. 2–11 behandelten Themen mit Erfahrungen aus der Praxis zusammen:
1
5 In 7 Kap. 13 zeigen Peter Dieckmann und Marcus Rall Probleme und Gestaltungsmöglichkeiten für Patientensicherheit in einem sich wandelnden Gesundheitssystem. 5 Human-Factors-Herausforderungen in Prozessindustrien sind Thema von 7 Kap. 14, in dem Günther Horn und Kristina Lauche auch ein Umdenken des Managements einfordern. 5 Markus Bresinsky, Frank Detje und Martin Littschwager stellen in 7 Kap. 15 den Transformationsprozess der Bundeswehr als Human-Factors-Herausforderung vor. 5 Mit polizeilicher Stabsarbeit, ihren Problemen und Optimierungsmöglichkeiten aus einer Human-Factors-Perspektive befassen sich in 7 Kap. 16 Uwe Thieme und Gesine Hofinger. 5. Prozesse gestalten im Dienst der Sicherheit (7 Kap. 17–19). Dieser Teil behandelt Standardisierung, Training und Automatisierung als 3 Strategien von Organisationen, Sicherheit des Handelns zu erhöhen: 5 Vereinheitlichung des Handelns durch Standardisierung und andere Möglichkeiten des Umgangs mit Komplexität in Organisationen beschreibt Tanja Manser in 7 Kap. 17. 5 Stefan Strohschneider stellt in 7 Kap. 18 Ziele, Rahmenbedingungen und Methoden verschiedener Formen von Human-FactorsTrainings vor. 5 Automatisierung und die Probleme ihrer Nutzung durch Menschen behandelt Dietrich Manzey in 7 Kap. 19 und beschließt das Buch mit Konzepten menschzentrierter Systemgestaltung.
1.6
Literatur
Agricola, G. (1556/1953). De re metallica. Zwölf Bücher vom Berg und Hüttenwesen. Original: De re metallica libri XII Basel 1556/57. Deutsche Neuauflage. Düsseldorf: marix. Aktionsbündnis Patientensicherheit e. V. (2006). Handlungsempfehlungen zur Vermeidung von Eingriffsverwechslungen in der Chirurgie. Mitteilungen der Deutschen Gesellschaft für Chirurgie, 1/06, 37–39. Bainbridge, L. (1987). Ironies of automation. In J. Rasmussen, K. Duncan & J. Leplat (Eds.), New technology and human error (271–283). Chichester: Wiley.
18
1
Kapitel 1 · Human Factors
Bokranz, R. & Landau, K. (1991). Einführung in die Arbeitswissenschaft. Stuttgart: UTB. Chapanis, A. (1951). Theory and method for analyzing errors in man-machine systems. Annals of the New York Academie of Science, 51, 1179–1203. Christensen, J. M. (1986). The human factors profession. In G. Salvendy (Ed.), Handbook of human factors (pp. 3–16). New York: Wiley & Sons. Crandall, B., Klein, G. & Hoffman, R. R. (2006). Working minds. A practitioner’s guide to cognitive task analysis. Cambridge, MA: MIT Press. Crichton, M., Flin, R. & Rattray, W. A. (2000). Training decision makers – Tactical decision games. Journal of Contingencies and Crisis Management, 8 (4), 208–217. DIN EN ISO 6385 (2004). Ergonomie – Grundsätze der Ergonomie für die Gestaltung von Arbeitssystemen. Berlin: Beuth. DIN EN ISO 13407 (2000). Benutzer-orientierte Gestaltung interaktiver Systeme. Berlin: Beuth. DIN EN 894-1 (1997). Sicherheit von Maschinen – Ergonomische Anforderungen an die Gestaltung von Anzeigen und Stellteilen – Teil 1: Allgemeine Leitsätze für Benutzer-Interaktion mit Anzeigen und Stellteilen. Deutsche Fassung. Berlin: Beuth. Dunckel, H. (Hrsg.) (1999). Handbuch psychologischer Arbeitsanalyseverfahren (Vol. 14). Zürich: vdf. Fadier, E. & Ciccotelli, J. (1999). How to integrate safety in design: Methods and models. Human Factors and Ergonomics in Manufacturing, 9, 367–379. Flanagan, J. C. (1954). The critical incident technique. Psychological Bulletin, 51, 327–358. Frey, J. P. (1920). Die wissenschaftliche Betriebsführung und die Arbeiterschaft. Eine öffentliche Untersuchung der Betriebe mit Taylor-System in den Vereinigten Staaten von Nordamerika. Leipzig: Lindner. Giesa, H.-G. & Timpe, K.-P. (2000). Technisches Versagen und menschliche Zuverlässigkeit: Bewertung der Verläßlichkeit in Mensch-Maschine-Systemen. In K.-P. Timpe, Th. Jürgensohn & H. Kolrep (Hg.), Mensch-Maschine-Systeme. Düsseldorf: Symposion Verlag. Hawkins, H. F. (1987). Human factors in flight. Hampshire: Gower Technical Press. Helmreich, R. L. (2000). On error management: lessons from aviation. British Medical Journal, 320, 781–785. Hollnagel, E. (1991). The phenotype of erroneous actions: Implications for HCI design. In G. R. S. Weir & J. L. Alty (Eds.), Human-computer interaction and complex systems (pp. 73– 121). London: Academic Press. Hollnagel, E. (2000). Modeling the orderliness of human action. In N. Sarter & R. Amalberti (Eds.), Cognitive engineering in the aviation domain (pp. 65–98). Hillsdale, NJ: Lawrence Erlbaum Associates. Hollnagel, E. (2001). Cognition as control: a pragmatic approach to the modeling of joint cognitive systems. Special issue
of IEEE Transactions on Systems, Man and Cybernetics A: Systems and Humans. IEA (2000). International Ergonomics Association. http://www. iea.cc/browse.php?contID=what_is_ergonomics. Kaptelinin, V. & Nardi, B. (2006). Acting with technolog.. Activity theory and interaction design. Cambridge, MA: MIT Press. Karwowski, W. (2006). The discipline of ergonomics and human factors. In G. Salvendy (Ed.), Handbook of human factors and ergonomics (pp. 3–31). New York: Wiley & Sons. Kirwan, B. & Ainsworth, L. (Eds.) (1992). A guide to task analysis. London: Taylor & Francis. Machate, J. & Burmeister, M. (Hrsg.) (2003). User Interface Tuning – Benutzungsschnittstellen menschlich gestalten. Frankfurt a. M.: Software & Support Verlag. Mayo, E. (1933). Human problems of an industrial civilization. New York: Macmillian. Meister, D. (1999). The history of human factors and ergonomics. Mahwah: Lawrence Erlbaum. Münsterberg, H. (1912). Psychologie und Wirtschaftsleben – Lehrbuch zu Aufgaben der Psychotechnik in der Industrie. Leipzig: A. J. Barth. Orlady, H. W. & Orlady, L. M. (1999). Human factors in multi-crew flight operations. Aldershot, UK: Ashgate. Reason, J. (1997). Managing the risks of organizational accidents. Aldershot: Ashgate. Roethlisberger, F. & Dickson, W. (1939). Management and the worker. Cambridge, MA: Harvard University Press. Salvendy, G. (Ed.) (2006). Handbook of human factors and ergonomics. New York: Wiley & Sons. Schraagen, J. M., Militello, L., Ormerod, T. & Lipshitz, R. (Eds.) (2008). Macrocognition and naturalistic decision making. Aldershot: Ashgate. Stanton, N., Hedge, A., Brookhuis, K., Salas, E. & Hendrick, H. (Eds.) (2005). Handbook of human factors and ergonomics methods. Boca Raton, FL.: CRC Press. Strohm, O. & Ulich, E. (Hrsg.) (1997). Unternehmen arbeitspsychologisch bewerten. Ein Mehr-Ebenen-Ansatz unter besonderer Berücksichtigung von Mensch, Technik und Organisation (Vol. 10). Zürich: vdf Hochschulverlag. Taylor, F. W. (1911). The Principles of scientific management. New York: Harper & Row. Taylor, F. W. (1913). Die Grundsätze wissenschaftlicher Betriebsführung. München: Oldenbourg. Taylor, F. W. (1977). Die Grundsätze wissenschaftlicher Betriebsführung, mit Einleitungen von R. Vahrenkamp und W. Volpert (Original 1913). Weinheim: Beltz. Trist, E. L. & Bamforth, K. (1951). Some social and psychological consequences of the longwall method of coalgetting. Human Relations, 4, 3–38. Wickens, C. D., Gordon, S. E. & Liu, Y. (2004). An introduction to human factors engineering. (2nd edition) Upper Saddle River NJ: Prentice-Hall.
2 Sicherheit Babette Fahlbruch, Markus Schöbel und Juliane Domeinski
2.1
Einleitung
– 20
2.1.1 Begriffsbestimmung – 20 2.1.2 Sicherheit in der betrieblichen Praxis
2.2
– 21
Erklärungsansätze in der Sicherheitsforschung: Warum sind Systeme (un)sicher? – 22
2.2.1 Modell der fehlerhaften Informationsverarbeitung in Organisationen 2.2.2 Theorie der normalen Katastrophen (Normal Accident Theory) – 23 2.2.3 Theorie der Organisationen mit hoher Zuverlässigkeit (»High Reliability Theory«) – 24
2.3
Management von Sicherheit in der Praxis
– 25
2.3.1 Ansätze des Sicherheitsmanagements – 25 2.3.2 Strategien und Instrumente des Sicherheitsmanagements – 26
2.4
Der tägliche Umgang mit Sicherheit: Konzept der Sicherheitskultur – 29
2.4.1 Diagnose von Sicherheitskultur – 31 2.4.2 Positive Beeinflussung von Sicherheitskultur
2.5
Zusammenfassung und Ausblick
2.6
Literatur
– 33
– 33
– 32
– 22
2
20
Kapitel 2 · Sicherheit
2.1
Einleitung
Sicherheit in Organisationen übt einen starken Einfluss auf den wirtschaftlichen Erfolg, die gesellschaftliche Akzeptanz sowie das Wohlbefinden und die Zufriedenheit von Organisationsmitgliedern aus. In der Europäischen Union kommen jährlich über 5000 Menschen durch arbeitsbedingte Unfälle ums Leben. Neben schweren personenbedingten Konsequenzen kommt es zu hohen volkswirtschaftlichen Einbußen, diese können je nach Land zwischen 1% und 3% des Bruttosozialprodukts (OSHA, 2002) betragen. Die Vermeidung von Unfällen ist somit ein wichtiges Ziel jeder Art von Organisation. Dies gilt sowohl für Arbeitsunfälle, bei denen das Ausmaß des Schadens in erster Linie die ausführende Person betrifft, als auch für organisationale Unfälle, die durch das Zusammentreffen fehlerhafter Einzelfaktoren entstehen und deren Schadensausmaß weit über die eigentlichen Organisationsgrenzen hinausgehen kann. In diesem Kapitel werden ausgewählte Ansätze und Theorien der Sicherheitswissenschaft vorgestellt, die das menschliche Handeln in Systemen mit hohem Gefährdungspotenzial beschreiben. So werden zunächst unterschiedliche Perspektiven auf das Konzept Sicherheit dargestellt. Dann wird auf Theorien Bezug genommen, die sich mit dem menschlichen Beitrag zur (Un-)Sicherheit in Organisationen mit hohem Gefährdungspotenzial beschäftigen. Es folgt ein Überblick zu strategischen Steuerungsmechanismen und Implikationen des Managements von Sicherheit. Abschließend wird als Ergänzung zur Sichtweise der institutionalisierten Instrumente das Konzept der Sicherheitskultur diskutiert.
2.1.1 Begriffsbestimmung In der alltäglichen Verwendung des Begriffs »Sicherheit« sprechen wir im Allgemeinen (in Anlehnung an ein mathematisches Verständnis) von der 100%igen Wahrscheinlichkeit des Zutreffens einer Aussage oder des (Nicht-)Eintretens eines Ereignisses. Gemäß dieser ergebnisorientierten Perspektive wird in ingenieurwissenschaftlichen Ansätzen Sicherheit als ein Zustand der voraussichtlich störungsfreien und gefahrenfreien Funktion definiert (ISO/IEC Guide 51,
1999). In diesem Zusammenhang wird Sicherheit als positiver Sollzustand mit einer weiteren Eigenschaft von Systemen gleichgesetzt, der Zuverlässigkeit. Systeme gelten als zuverlässig, wenn eine geforderte Funktion unter gegebenen Arbeitsbedingungen während einer festgelegten Zeitdauer ausfallfrei ausgeführt wird (DIN 40041, 1990). Zuverlässigkeit umfasst demzufolge 3 Aspekte: 4 Korrektheit (nach Vorgaben verlaufend) 4 Robustheit (System kann auftretende Störungen ausgleichen) 4 Ausfallsfreiheit (definierte Sicherheit gegen einen Ausfall) Ein Begriffsverständnis, das über die ingenieurwissenschaftliche Perspektive hinausgeht, wird in der Forschung zu Organisationen mit hohem Gefährdungspotenzial (z. B. Kernkraftwerke, Öltanker, Flugzeugträger) vorangetrieben. Sicherheit wird hier als Eigenschaft aufgefasst, »[...] die es dem System gestattet, ohne größere Zusammenbrüche unter vorgegebenen Bedingungen und mit einem Minimum unbeabsichtigten Kontrollverlusts oder Schadens für die Organisation und die Umwelt zu funktionieren.« (Fahlbruch & Wilpert, 1999, S. 56)
Die Sicherheit ergibt sich aus fortwährenden Interaktionen von Organisationsmitgliedern, Strukturen und Regeln sowie Technologien in und außerhalb der Organisation (Gherardi, Nicolini & Odella, 1998). Nicht der störungsfreie Betrieb einzelner Systemkomponenten, beispielsweise eines einzelnen Ventils, sondern das Zusammenwirken von Faktoren wie Regelwerken, Qualifikationen der Operateure, Komponentenabhängigkeiten oder Managementsysteme sind mit einzuschließen, um eine sichere Ausführung sicherheitskritischer Prozesse in der Gesamtorganisation zu gewährleisten. Es steht bei dieser Betrachtung somit nicht mehr nur das einzelne Ergebnis im Vordergrund, sondern auch die kontinuierlich ablaufenden Prozesse, die zu diesem beitragen. Weick & Sutcliffe (2001, S. 43) sprechen in diesem Zusammenhang von einem »dynamischen Nicht-Ereignis«. Nach diesem Verständnis sind Zuverlässigkeit und Sicherheit unterschiedliche Qualitäten eines
Definition
21 2.1 · Einleitung
Systems und können unabhängig voneinander auftreten. Dies zeigt sich auch in der Diskussion um Gestaltungsaspekte von Organisationen mit hohem Gefährdungspotenzial (Sagan, 2004). Die Implementierung redundanter Komponenten (zusätzlich vorhandene funktional gleiche oder vergleichbare Ressourcen eines technischen Systems) kann die Zuverlässigkeit einer sicherheitskritischen Systemfunktion erhöhen, da bei Ausfall einer Komponente ihre Funktion durch eine redundante Komponente übernommen wird. Allerdings führt eine zunehmend redundante Systemauslegung auch zu einer erhöhten Systemkomplexität (Perrow, 1987). Diese kann neue, möglicherweise unvorhersehbare Wechselwirkungen bedingen (7 Kap. 17.2). Daraus folgt, dass ein System zwar aus zuverlässigen Einzelkomponenten besteht, in der Gesamtheit aber nicht zwangsläufig als sicher einzustufen ist (Marais, Dulac & Leveson, 2004). ! Sicherheit entsteht kontinuierlich aus dem Zusammenwirken von intra- und extraorganisationalen Faktoren (wie z. B. den Organisationsmitgliedern, der Technologie, den Strukturen oder Regeln) und bezeichnet ein Funktionieren ohne größere Zusammenbrüche oder Schäden für die Organisation und die Umwelt, ein sog. dynamisches Nichtereignis.
2.1.2 Sicherheit in der betrieblichen
Praxis Die Förderung von Sicherheit in der betrieblichen Praxis zielt auf die Vermeidung gesundheitlicher Schädigungen der Beschäftigten ab. Sicherheit wird nach diesem Verständnis als gefahrenfreier Zustand bei der Berufsausübung definiert (Skiba, 1997). Nach dem deutschen Arbeitsschutzgesetz (ArbSchG) ist der Arbeitgeber verpflichtet, erforderliche Maßnahmen zur Herstellung sicherer Arbeitsbedingungen durchzuführen. Zudem hat er die Maßnahmen auf ihre Wirksamkeit zu überprüfen und diese gemäß sich ändernder Gegebenheiten anzupassen. Die Verhütung von Unfällen, Berufskrankheiten und arbeitsbedingten Erkrankungen hat dabei Vorrang vor Entschädigungen. Die Gesetzesvorlagen verfolgen demnach einen präventiven Weg.
2
Die Umsetzung von präventiven Maßnahmen kann gemäß dem TOP-Modell des Arbeitsschutzes (Skiba, 1997) erfolgen. Dieses postuliert eine Maßnahmenhierarchie, die technische (T – Vermeidung bzw. Trennung der Gefahr), organisatorische (O – zeitliche Begrenzung der Einwirkung einer Gefahr bringenden Bedingung) und persönliche Voraussetzungen (P – Bereitstellung persönlicher Schutzkleidung oder Unterweisungen) der Arbeit berücksichtigt. Das Konzept der Arbeitssicherheit erlangt in allen klassischen Industrien eine wichtige Bedeutung. Heute werden die Aufgaben im Rahmen integrierter Managementsysteme (IMS) durch eine sinnvolle Verknüpfung mit Qualitäts- und Umweltschutzaspekten verfolgt, wie z. B. im EFQM-Modell for Excellence (EFQM, 1999–2003) oder im St. Galler Konzept für ein Integriertes Qualitätsmanagement (Seghezzi, Fahrni & Herrmann, 2007). Inwieweit eine Organisation eine umfassende bzw. systemorientierte Strategie hinsichtlich der Gewährleistung von Sicherheit verfolgen sollte, hängt in erster Linie vom Gefährdungspotenzial ihrer Produktionsprozesse ab. Systemsicherheit erhält eine unverzichtbare Bedeutung, wenn aufgrund der verwendeten Technologien bzw. Produktionsmittel ein hohes Gefährdungspotenzial entsteht, wie z. B. in sog. High-hazard-Organisationen: Kernkraftwerke, chemische Anlagen, Flugzeugträger oder Flugsicherungssysteme. Doch Organisationen, denen ein hohes Gefährdungspotenzial innewohnt, müssen nicht zwangsläufig riskant sein, im Gegenteil, das Risiko ist relativ gering. Gemäß Amalberti (2001) ist ein gefahrenträchtiges System durch ein Risiko von 10-3 gekennzeichnet. Dies bedeutet, dass das Risiko (eines »gefährdenden« Systemversagens) größer ist als ein Unfall auf 1000 Ereignisse (vergleichbar mit dem Risiko beim Bungee-Jumping). Systeme mit einem Risikograd von einem Unfall auf 1000 bis 100.000 Ereignissen (10-5) werden als regulierte Systeme bezeichnet. Kernkraftwerke und die zivile Luftfahrt bzw. die europäische Bahn gelten als ultrasichere Systeme (»ultra safe«). Deren Risikograd liegt zwischen einem Unfall auf 100.000 bis zu unter einem Unfall auf 1.000.000 Ereignissen (10–6). Ultrasichere Organisationen verdanken ihr geringeres Risikopotenzial bestimmten Gestaltungsmerkmalen, die sich oftmals im Design technischer Systeme widerspiegeln. So werden z. B. nach dem
22
2
Kapitel 2 · Sicherheit
Prinzip des beschränkten Versagens (»fail safe«) schon bei der Entwicklung solcher Systeme mögliche Schadensfälle einkalkuliert, um größere Gefährdungen auszuschließen (wie das Vermeiden von Überbeanspruchungen durch Sollbruchstellen/Sicherungen). Oder dem Ausfall sicherheitskritischer Funktionen wird durch mehrfache Auslegung von Systemen mit gleicher Funktion nach dem Redundanz- oder Diversitätsprinzip vorgebeugt. Im Allgemeinen gilt das Prinzip der tief gestaffelten Sicherheitssysteme (»defence in depth«) als wesentliches Gestaltungsmerkmal, insbesondere in kerntechnischen Anlagen. Es wird das Ziel verfolgt, das Eintreten von sicherheitskritischen Ereignissen durch Barrieren zu verhindern (ausführlich 7 Kap. 9). Beim Ausfall einzelner Komponenten wird das Schadensausmaß durch die voneinander unabhängigen Sicherheitsebenen begrenzt, um schwerwiegende Konsequenzen für die Umgebung zu verhindern, wie in einer kerntechnischen Anlage das Mehrbarrierensystem: Hüllrohre der Brennstäbe, Reaktordruckbehälter, Sicherheitsbehälter, Reaktorgebäude aus Stahlbeton. Zudem werden Barrieren auch prozedural angelegt, indem sie menschliches Verhalten im Umgang mit technischen Systemen anleiten und unterstützen (z. B. Sicherheitsanweisungen, Schulungen zur Qualifizierung des Bedienerpersonals). Obwohl das Risiko eines Systemzusammenbruchs als relativ gering eingeschätzt wird, zeigen beispielsweise der Chemieunfall in Seveso (1976), die Reaktorkatastrophe in Tschernobyl (1986) oder die Flugzeugkollision von Überlingen (2002), dass trotz massiver technischer Sicherheitsvorkehrungen Systeme mit hohem Gefährdungspotenzial versagen. Es wird deutlich, dass eine Optimierung der Systemsicherheit nicht nur die Förderung der technischen Sicherheit umfassen sollte, sondern auch den Faktor Mensch berücksichtigen muss.
2.2
Erklärungsansätze in der Sicherheitsforschung: Warum sind Systeme (un)sicher?
Wichtige Beiträge zur Entwicklung der Sicherheitsforschung liefern die Arbeiten von Turner (1978), Perrow (1987) sowie die Arbeiten der Forschungsgruppe High Reliability (La Porte, 1996; La Porte &
Consolini, 1991; Rochlin, 1993; Weick, 1987; Weick & Roberts, 1993). Die Gemeinsamkeit dieser Ansätze liegt in deren Zielstellung, die Fähigkeit von Organisationen zu beschreiben, dauerhaft zuverlässig bzw. sicher zu operieren. Zudem stellen sie die Bedeutsamkeit menschlichen Verhaltens und der organisationalen Rahmenbedingungen für die Gewährleistung der Sicherheit heraus. Während in der Theorie der fehlerhaften Informationsverarbeitung in Organisationen (Turner, 1978) und der Theorie der normalen Katastrophen (Perrow, 1987) Unzulänglichkeiten der Systemgestaltung und der Informationsnutzung deutlich gemacht werden, beschäftigen sich die Begründer der Theorie der Organisationen hoher Zuverlässigkeit (Weick & Roberts, 1993) mit wirksamen organisationalen Maßnahmen, die ein System befähigen, zuverlässig zu operieren. Im Folgenden wird auf diese Ansätze näher eingegangen.
2.2.1 Modell der fehlerhaften
Informationsverarbeitung in Organisationen Ereignen sich schwere Katastrophen, erscheinen diese zunächst als unvorhersehbar (»fundamental surprises«). Im Rahmen der nachfolgenden Analyse findet man dann aber oftmals Anzeichen dafür, dass zumindest einigen Mitgliedern der jeweiligen Organisation schon vor bzw. während der Ereignisentstehung »ereignishinweisende« Informationen vorlagen. Diesem zunächst als Paradox erscheinenden Phänomen widmet sich Turner (Turner, 1978; Turner & Pidgeon, 1997) in seiner Theorie der »man-made disasters«. Auf der Grundlage einer systematischen Analyse von 84 Unfallberichten kam er zu dem Schluss, dass die Ursachen dieser Unfälle auf Dysfunktionalitäten von menschlichen und organisatorischen Anpassungsprozessen zurückgehen. Als Beispiel nennt er Störungen des Informationsflusses innerhalb einer Organisation bzw. fehlerhafte oder unzureichende Interpretationen und Bewertungen von vorhandenen sicherheitskritischen Informationen. Diese Theorie der fehlerhaften Informationsverarbeitung macht auf Faktoren der Entstehung von Ereignissen aufmerksam, die mit einer deutlichen
23 2.2 · Erklärungsansätze in der Sicherheitsforschung: Warum sind Systeme (un)sicher?
räumlich-zeitlichen Distanz zum eigentlichen Ereignisentstehungsort in einer Organisation verankert sein können. Dieser Aspekt wurde von Reason (1990, 1997) weiterentwickelt, der zwischen aktiven und latenten Fehlern unterscheidet (7 Kap. 3). Ersteren kommt eine Auslösefunktion zu, während die zweiten unerkannt im System ereignisfördernd wirken. Latente Fehler oder indirekte Faktoren spiegeln organisationale Schwachstellen oder dysfunktionale Beziehungen zwischen Organisationen wider. Zur Zeit der Entwicklung dieser Theorie stand Turners Sichtweise traditionellen Konzepten der menschlichen Fehlerforschung entgegen, die ausschließlich auf direkt ereignisauslösende Fehlhandlungen fokussieren. Einen ähnlichen Beschreibungsansatz, der insbesondere auf strukturelle Merkmale von Organisationen bei der Ereignisentstehung hinweist, wählte Perrow in seiner Arbeit mit dem provokanten Titel »Theorie der normalen Katastrophen« (1987).
2.2.2 Theorie der normalen
Katastrophen (Normal Accident Theory) Auf der Basis des Unfallgutachtens von Three Mile Island (TMI, 1978) sowie der intensiven Auseinandersetzung mit vorwiegend ingenieurwissenschaftlichen Analysen der eingesetzten Untersuchungskommission entwickelte der Organisationssoziologe Perrow seinen Beschreibungsansatz. Das Hauptaugenmerk in der Analyse von Three Mile Island legte Perrow auf die Beschreibung der Mechanismen, die Systemunfälle in komplexen technischen Systemen zwangsläufig bedingen (Perrow, 1987). Nach seiner Theorie ereignen sich Systemunfälle (»normal accidents«) aufgrund unvorhergesehener Wechselwirkungen zwischen einzelnen Ausfällen. Den Schwerpunkt bei der Definition von Systemunfällen legt Perrow auf die Anzahl und Art der betroffenen Einheiten eines Systems. Die Entstehung von Unfällen wird demnach als natürliche Konsequenz eines Systems gesehen, dass durch (1) viele komplexe Interaktionen und (2) enge Kopplung gekennzeichnet ist. 1. Die Eigenschaften von Interaktionen in einem System werden durch die 2 Pole linear und
2
komplex bestimmt. Komplexe Interaktionen äußern sich in Rückkopplungsschleifen, Verzweigungen oder Sprüngen innerhalb der Prozessabläufe und führen zu für den Operateur unerwarteten Ergebnissen. Ein Wärmetauscher, der gleichzeitig als Heizvorrichtung dient, kann beim Ausfall beide Funktionen nicht mehr erfüllen. Lineare Interaktionen sind für den Operateur gut sichtbar und Teil des normalen Betriebsablaufs. Als Beispiel für lineare Interaktionen führt Perrow ein Montageband an, das beim Ausfall die Teile auflaufen lässt, aber es zu keinem unvorhersehbaren Schaden führt. 2. Die zweite von Perrow identifizierte Systemeigenschaft, die Weick (1976) im Rahmen der Analyse von organisationalen Strukturen beschreibt, ist die Art der Kopplung einzelner Systemkomponenten (eng vs. lose). Eng gekoppelte Systeme (zeitlich, räumlich, funktional) zeichnen sich durch keinerlei Verzögerungen des Betriebsablaufs aus, die Abläufe sind invariabel gestaltet, und das Produktionsziel kann nur mithilfe einer vorgegebenen Strategie erreicht werden. In eng gekoppelten Systemen zeigen lokale Störungen meist große Auswirkungen, da z. B. der gestörte Systemteil nicht abgeschaltet werden kann oder aufgrund der räumlichen Nähe ebenfalls zerstört wurde. Die Just-in-Time-Produktion in der Automobilindustrie erfüllt diese Kriterien. Zulieferbetriebe produzieren und liefern die Autoteile zu dem Zeitpunkt, in denen sie benötigt werden, ansonsten kommt es zur Unterbrechung des gesamten Produktionsprozesses. Eine lose Kopplung ermöglicht bestimmten Teilen des Systems, gemäß ihrer eigenen Logik zu funktionieren. Lose gekoppelte Systeme können Störungen oder erzwungene Änderungen besser verarbeiten, ohne sich zu destabilisieren. Bei eng gekoppelten Systemen müssen Puffer, Redundanzen und Substitutionsmöglichkeiten von den Konstrukteuren vorab eingeplant werden. Die überwiegend auf der Untersuchung des Unfalls von TMI basierenden Schlussfolgerungen zu den Versagensmechanismen überträgt Perrow auf ein sehr breites Feld technischer Systeme, angefangen von Kernkraftwerken, Petrochemie, Schifffahrt,
24
2
Kapitel 2 · Sicherheit
Flugsicherung über Staudämme, Bergwerke und Gentechnologie. Deren Gemeinsamkeiten sieht er in den grundlegenden Unzulänglichkeiten der Systemgestaltung. Maßnahmen zur Förderung von Sicherheit sind in einem solchen System nur reaktiv möglich. Optimalerweise sollten Systeme schon bei der Planung im Hinblick auf die Vermeidung des Zusammentreffens dieser Eigenschaften gestaltet werden. Weitere sicherheitsfördernde Maßnahmen sieht Perrow in Faktoren wie der Systematisierung von Informationen über Fehler im System, der gleichmäßigen Verteilung und Zugänglichkeit der Informationen sowie in der Offenheit für Kritik von außen (Perrow, 1986). Auch wenn einige Kritiker anmerken, dass Perrow seine Schlussfolgerungen vorwiegend aus der Analyse von Unfalluntersuchungen (Hopkins, 1999) ableitet und eine Generalisierung auf ein sehr heterogenes Feld an technischen Systemen anstrebt, liegt sein Verdienst v. a. in der Ausweitung des Betrachtungsspielraums und in der Einbeziehung struktureller Faktoren bei der Betrachtung von Systemsicherheit.
2.2.3 Theorie der Organisationen
mit hoher Zuverlässigkeit (»High Reliability Theory«) Die »high reliability theory« ging aus der intensiven Beschäftigung der interdisziplinären Forschungsgruppe in Berkeley und Michigan mit der Analyse von Organisationen mit hohem Gefährdungspotenzial hervor, denen es dennoch gelingt, weit weniger Unfälle zu produzieren, als statistisch zu erwarten wäre (Weick & Roberts, 1993). Die Annahmen der HR-Theorie gründen auf Felduntersuchungen, die auf Flugzeugträgern der U. S. Navy durchgeführt wurden, sowie auf der Analyse organisationaler Strukturen des Flugsicherungssystems der Federal Aviation Administration (FAA) und des Kernkraftwerks Diablo Canyon in Kalifornien/USA. Zielstellung war die Identifikation von Systemeigenschaften, die es den Organisationen ermöglichen, trotz des vorhandenen Gefährdungspotenzials (»high-hazard«) nahezu fehlerfrei und somit zuverlässig zu operieren. Die HRO-Forscher führen die Sicherheit dieser Systeme grundsätzlich auf achtsames Han-
deln zurück. Kennzeichen sind (7 Kap. 9) eine ständige Aktualisierung der Deutung von Systemzuständen und Zusammenhängen, um frühzeitige, meist noch schwache Signale plausibel erklären und angemessene Reaktionen entwickeln zu können. Das Prinzip der Achtsamkeit (»heedfulness«) ergibt sich aus dem Zusammenspiel von folgenden Merkmalen (Weick & Roberts, 1993): 4 Toleranz gegenüber Fehlern 4 Abneigung gegen vereinfachende Interpretationen 4 Sensibilität für betriebliche Abläufe 4 Streben nach Flexibilität 4 Respekt vor fachlichem Wissen und Können Die Toleranz gegenüber Fehlern zeigt sich in häufig durchgeführten Analysen von Beinahe-Ereignissen oder in den Bemühungen, den Umgang mit Fehlern den Mitarbeitenden so zu vermitteln, dass ein freiwilliges Melden der Fehler gefördert wird. Das Ziel ist eine kontinuierliche Verbesserung durch die Gewährleistung eines geeigneten Erfahrungsrückflusses. Hierzu können Belohnungsstrukturen für Fehlerentdeckung und Fehlermeldung etabliert werden. Oft entstehen Fehler dadurch, dass schwache Signale übersehen, die Wahrnehmung der jeweiligen Situation eingeschränkt war und dann Entscheidungen mit folgenschweren Konsequenzen getroffen wurden. Durch eine kontinuierliche Überprüfung von Sicherheitsstandards können HROs eine Sensibilität für betriebliche Abläufe entwickeln. Diese wird durch einen fortwährenden Austausch an relevanten Informationen erreicht. Die bisher genannten Merkmale erfassen gewünschte Muster, die das Antizipieren und bewusste Wahrnehmen von unerwarteten Systemzuständen ermöglichen sollen. Kommt es innerhalb der HROs dann doch zu unvorhergesehenen Ereignissen, sind situationsabhängige flexible Wechsel zwischen Organisationsformen mit unterschiedlichem Zentralisierungs-/Autonomiegrad entscheidend (7 Kap. 10). Mitarbeiter und Mitarbeiterinnen können, unabhängig von ihrer Stellung in der Hierarchie, allein wichtige Entscheidungen treffen, sofern sie hierzu qualifiziert sind. Dies bedeutet, dass die Expertise der Akteure, falls notwendig, jederzeit die hierarchische Struktur aushebeln kann.
25 2.3 · Management von Sicherheit in der Praxis
2.3
Management von Sicherheit in der Praxis
Die Gewährleistung von Sicherheit wird in Industrien mit hohem Gefährdungspotenzial v. a. als eine Managementaufgabe angesehen. Sicherheitsmanagement ist die strategische Steuerung organisationalen Handelns und kann auch als die durch die Unternehmensleitung veranlasste Institutionalisierung der sicherheitsgerichteten Aktivitäten in einer Organisation angesehen werden. Ähnlich wie beim Qualitätsmanagement sollen Faktoren mit potenziellem Einfluss identifiziert und kontrolliert werden, jedoch mit dem Ziel, die Sicherheit und Zuverlässigkeit der Organisation zu gewährleisten und zu optimieren.
2.3.1 Ansätze des
Sicherheitsmanagements Eine Unterteilung von Sicherheitsmanagementansätzen nach ihrem Schwerpunkt, der sich bei der Analyse von Stör- und Unfällen, bei Maßnahmenfindung und sicherheitsgerichteten Interventionen zeigt, nimmt Reason (1997) vor. Er unterscheidet dabei 3 Sicherheitsmanagementmodelle: 4 Personenmodell 4 Ingenieurmodell 4 Organisationsmodell
Personenmodell Das Personenmodell wird am besten durch den traditionellen Arbeitssicherheitsansatz charakterisiert. Es werden v. a. Fehler, unsichere Handlungen und Regelverletzungen fokussiert. Die Ursachen von Stör- und Unfällen werden in der Regel in psychologischen Faktoren wie mangelnde Aufmerksamkeit, unzureichende Motivation oder fehlende Fähigkeiten gesehen. Begründet ist dies in der impliziten Annahme, dass alle Mitarbeiter und Mitarbeiterinnen sich bewusst und frei zwischen sicherem und unsicherem Verhalten entscheiden können. Dementsprechend zielen Maßnahmen v. a. auf Auswahl, Training und Schulungen von Mitarbeitern. Im Grunde greift ein derart verstandenes Sicherheitsmanagement jedoch zu kurz, da sowohl Analysen als auch Interventionen hauptsächlich auf die
2
Mitarbeiter und Mitarbeiterinnen und nicht auf die organisationalen und technischen Randbedingungen zielen.
Ingenieurmodell Das Ingenieurmodell steht in der Tradition von Ingenieurwissenschaft, Arbeitswissenschaft und Risikomanagement (»risk control«, »loss control«). Schwachstellen werden im Rahmen dieses Modells im Design der Technologie oder der Mensch-Maschine-Schnittstelle erklärt. Sicherheit kann daher in das System »eingebaut« werden. Bei diesem Modell zielen Maßnahmen auf eine technische Verbesserung der Anlage und der Mensch-Maschine-Schnittstelle. Ausgelassen werden Aspekte wie Führung, Teamprozesse, Organisation oder Dokumente und Arbeitsunterlagen, denen im folgenden Modell besondere Beachtung geschenkt wird.
Organisationsmodell Das Organisationsmodell kann als eine Erweiterung des Ingenieurmodells angesehen werden. Grundlage ist die Annahme, dass neben technischem Versagen und Operateursfehlern auch weitere latente Faktoren in der Organisation zu der Entstehung von Unfällen beitragen. So kann die Instandsetzung beispielsweise zu lange Prüfintervalle haben, sodass Verschleiß oder Alterung nicht rechtzeitig bemerkt werden, was zum Ausfall einer technischen Komponente führen könnte. Als ein weiteres Beispiel sei hier eine ungünstige Arbeitsplanung genannt, durch die die Wahrscheinlichkeit für das Auftreten von Operateurfehlern erhöht werden könnte. Eine kontinuierliche Kontrolle und Anpassung elementarer Systemfunktionen und -prozesse ist also erforderlich, um die Sicherheit zu gewährleisten. Maßnahmen sind dementsprechend umfassend konzipiert und beziehen alle Ebenen der Organisation mit ein, da ein ausschließlicher Fokus auf Personen oder die Mensch-Maschine-Schnittstelle wichtige Einflussfaktoren auf die Sicherheit außer Acht lässt. Für die praktische Umsetzung werden häufig Sicherheitsmanagementsysteme (SMS) eingesetzt, die in der Regel aus den Bausteinen Prozesswesen, Gefahren- und Risikomanagement, Berichtswesen und interne Auditierungen bestehen. Zum Prozesswesen können Prozessidentifikation, Prozessdokumentation, Aktualisierung und Changemanagement gezählt
26
2
Kapitel 2 · Sicherheit
werden. Für einen Flughafen können beispielsweise Baustellenplanung, Winterdienst auf Start- und Landebahn oder Abfertigung auf dem Vorfeld Prozesse sein, die im SMS erfasst werden. Für die Dokumentation könnten der Name des Prozesses, das Erstellungsdatum, die Dokumentennummer, das ausführende Unternehmen bzw. die Flugplatzabteilung, der Prozesseigner, am Prozess Beteiligte, existierende Vorgaben, durchgeführte Audits und vorgefallene Ereignisse festgehalten werden. Häufig werden auch Vorgaben durch Aufsichtsbehörden festgeschrieben. Zum Beispiel wurde durch die Änderung des ICAOAbkommens über die internationale Zivilluftfahrt (International Civil Aviation Organisation) – Annex 14 die Einführung von SMS an Flugplätzen verpflichtend (ICAO, 2004). Beispiel Die Implementierung, Funktion und Umsetzung des Sicherheitsmanagementsystems (SMS) an Flugplätzen wird durch die luftrechtliche Genehmigungsbehörde geprüft. Ein SMS gilt vom Flugplatzunternehmer als komplett umgesetzt, wenn folgende Merkmale nachweisbar eingeführt wurden: 1. Sicherheitspolitik des Unternehmens 2. Installation eines Sicherheitsmanagers 3. Zuordnung der Verantwortlichkeiten zu Prozessen 4. Einrichtung von Sicherheitsausschüssen 5. Gefahrenidentifikation und Risikomanagement 6. Berichtswesen zu sicherheitsrelevanten Vorkommnissen 7. Untersuchung sicherheitsrelevanter Vorkommnisse 8. Dokumentation 9. Auditierung 10. Changemanagement (Anpassen der Verfahren bei Änderungen) 11. Organisation von Sicherheitsunterweisungen von Mitarbeitern (eigene und Fremdfirmen) 12. Definition von Sicherheitsleitzielen 13. Fortlaufende Überwachung der Wirksamkeit des SMS 14. Notfallplanung
2.3.2 Strategien und Instrumente des
Sicherheitsmanagements Rasmussen (1991) beschreibt 3 verschiedene Kontrolloder Steuerungsstrategien für die Gewährleistung der Sicherheit, deren Angemessenheit vom Gefährdungspotenzial der Industrie und von der Geschwindigkeit der Technologieentwicklung abhängen: 4 Feedforward-Steuerung 4 Feedback-Steuerung 4 Kombination aus Feedforward- und FeedbackSteuerung Feedforward-Steuerung kann als die vorausschauende Strategie angesehen werden, mithilfe von Risikoabschätzungen werden Interventionen geplant. Die Feedback-Steuerung bezieht sich auf das Lernen aus Betriebserfahrungen, Interventionen basieren hier auf der Analyse von Ereignissen oder Beinahe-Ereignissen. In die Praxis umgesetzt könnte die Kombination von Feedforward- und Feedback-Steuerung in einem SMS folgendermaßen aussehen: Für die Bestandteile eines SMS »Gefahrenidentifikation« und »Risikomanagement« können Verfahren eingesetzt werden, die nach Rasmussen der Feedforward-Steuerung zuzuordnen sind. Vor allem für die Kerntechnik wurden aufgrund des hohen Gefährdungspotenzials Methoden entwickelt, um die Risiken des Systems einschätzen zu können sowie mögliche Unfälle und Schwachstellen vorauszusehen, um durch geeignete Maßnahmen präventiv einschreiten zu können. Die meisten dieser Methoden basieren auf ingenieurwissenschaftlichen Ansätzen und modellieren Systemfunktionalitäten. In der probabilistischen Sicherheitsanalyse (PSA) werden Ansätze zur Analyse der Technologie um Verfahren ergänzt, die den menschlichen Beitrag modellieren, wie die »human reliability analysis« (HRA), um zu einer realistischen Abschätzung für das gesamte Systemverhalten zu kommen (auch 7 Kap. 3). Es gibt erste Versuche, die diversen quantitativen Methoden (eine Evaluation der verschiedenen Ansätze findet man bei Kirwan, 1996 u. 1997a–d) um qualitative Aspekte zu ergänzen, mit denen beispielsweise organisationale oder kulturelle Faktoren berücksichtigt werden können (Kirwan, 1998). Methoden zur Feedback-Steuerung sind v. a. Ereignisanalyseverfahren, die im SMS im Baustein »Be-
27 2.3 · Management von Sicherheit in der Praxis
richtswesen« angesiedelt sind. Hierbei geht es um die Analyse von Ereignissen und Beinahe-Ereignissen. Den aktuellen Stand der Sicherheitsforschung stellen Modelle zur Erklärung der Entstehung von Ereignissen dar, die organisatorische und Umweltfaktoren zusätzlich zu menschlichen und technischen Ursachen abbilden. Beispiele sind das »Schweizer-KäseModell« von Reason (1997) oder das soziotechnische Ereignisentstehungsmodell (Fahlbruch & Wilpert, 1999). Untersuchungen von Unfällen, wie beispielsweise das Sinken der Fähre »Herald of Free Enterprise« oder der Reaktorunfall in Tschernobyl, zeigten, dass eine hoch komplexe Interaktion unterschiedlichster Faktoren, die auch außerhalb der Betreiberorganisation angesiedelt sein können, an der Entstehung der Unfälle beteiligt waren. Ereignisanalysen dienen der Aufklärung dieser Interaktion, in dem der Ereignishergang und seine Ursachen rekonstruiert werden. Damit stellen sie Ansprüche an die Analytiker, die bei der Analyse über die vorhandene Information hinaus kausale Schlüsse vornehmen müssen – ein Prozess, der nach Fahlbruch & Wilpert (1997) mit komplexem Problemlösen verglichen werden kann. Ereignisanalysen werden mehr oder weniger systematisch durchgeführt. Oftmals unterliegen Ereignisse mit sicherheitstechnischer Bedeutung einer Meldepflicht gegenüber den zuständigen Behörden. Ziel ist es, meldepflichtige Ereignisse nach einem geordneten Verfahren mit definierten Vorgaben und einer abgestuften Dringlichkeit der Aufsichtsbehörde zur Kenntnis zu bringen. Für meldepflichtige Ereignisse gibt es je nach Industrie unterschiedliche Klassifikationssysteme, in denen beispielsweise in der Kerntechnik Systemstatus, Ablauf des Ereignisses, Ursachen, Auswirkungen, Sofortmaßnahmen, Übertragbarkeit und Vorkehrung gegen Wiederholung erfasst werden. Zumindest für Industrien mit
hohem Gefährdungspotenzial existieren ferner eine Reihe unterschiedlicher Ereignisanalyseverfahren. Ereignisse werden hier als multikausale Ereignissequenzen gesehen, und meistens wird von einem notwendigen Zusammenspiel direkt wirkender Faktoren oder aktiver Fehler mit indirekt wirkenden Faktoren oder latenten Fehlern ausgegangen. Ersteren kommt eine Auslösefunktion zu, während die zweiten unerkannt im System ereignisfördernd wirken. Latente Fehler oder indirekte Faktoren spiegeln organisationale Schwachstellen oder dysfunktionale Beziehungen zwischen Organisationen wider. Neu ist die explizite Betrachtung der Organisationsumwelt als Einflussfaktor auf die Entstehung von Ereignissen. Kritisch anzumerken ist vor allem, dass die wenigsten Verfahren wissenschaftlich entwickelt wurden, meistens sind die Analysemethoden in der Praxis entstanden. Dementsprechend sind auch kaum Untersuchungen zu ihren Gütekriterien zu finden (Fahlbruch, 2000). Typische Verfahren für die Kerntechnik sind ASSET (Assessment of Safety Significant Event Teams – IAEA, 1991), HPES (Human Performance Enhancement System – Bishop & LaRhette, 1988), MORT (Management Oversight and Risk Tree – Johnson, 1980) und SOL (Sicherheit durch organisationales Lernen – Wilpert, Becker, Maimer, Miller, Fahlbruch, Baggen, Gans, Leiber & Szameitat, 1997). In der chemischen Industrie wird ebenfalls MORT angewandt, aus der Luftfahrt kann stellvertretend HERA-JANUS (Human Error in Air Traffic Management Technique – Isaac, Shorrock, Kennedy, Kirwan, Andersen & Bove, 2003) als von Eurocontrol entwickeltes Verfahren genannt werden. Im Folgenden soll als ein Beispiel kurz das Verfahren SOL beschrieben werden, das an der TU Berlin entwickelt wurde und inzwischen das Standardverfahren für die vertiefte Ereignisanalyse in der deutschen Kerntechnik ist.
Beispiel SOL – Sicherheit durch organisationales Lernen SOL (Wilpert, Becker, Maimer, Miller, Fahlbruch, Baggen, Gans, Leiber & Szameitat, 1997) wird in 2 voneinander getrennten und aufeinander aufbauenden Schritten durchgeführt: 4 Beschreibung der Ereignissituation 4 Identifikation beitragender Faktoren 6
2
Erst nachdem die Situation ausreichend beschrieben wurde, soll mit dem zweiten Schritt begonnen werden. Diese klare Trennung zwischen Informationssammlung und Interpretation der Information wurde konzipiert, um die mögliche Einschränkung durch vorschnelle Hypothesen gering zu halten. Zur
28
2
Kapitel 2 · Sicherheit
Sammlung von Informationen werden dem Analytiker eine Reihe von Fragen als Anregung zur Verfügung gestellt, mit deren Hilfe geklärt werden kann, was passiert ist, aber nicht warum es passiert ist. Die zusammengetragene Information wird in standardisierter Form auf Ereignisbausteinkarten übertragen, die Informationen über Akteure, hier Menschen und technische Komponenten, und Aktionen, hier menschliche Handlungen oder maschinelle Abläufe, sowie über Ort, Zeit und Bemerkungen enthalten. Für alle beteiligten Menschen und Maschinen bzw. technischen Komponenten werden auf diese Weise Ereignisbausteine gebildet. Pro Akteur und Aktion wird eine separate Ereignisbausteinkarte angelegt. Die Ereignisbausteine repräsentieren die einzelnen Ereignissequenzen. Sie werden dann nach Akteuren und nach der Zeit in einer Art Matrix geordnet wieder zu einem gesamten Bild zusammengesetzt. Mit der Identifikation beitragender Faktoren wird erst begonnen, wenn eine vollständige Situationsbeschreibung erstellt wurde. Um monokausales Denken, eine abgebrochene Suche und eine Einschränkung durch vorschnelle Hypothesen sowie durch Übertragung aus Referenzsituationen zu verhindern, wird für jede Ereignisbausteinkarte einzeln nach beitragenden Faktoren gesucht. So wird für jede Ereignissequenz eine separate Analyse durchgeführt, deren Ergebnisse ebenfalls auf Karten festgehalten werden und mit denen die Er-
Das Lernen aus Betriebserfahrung beschreibt den erfolgreichen Erfahrungsrückfluss. Nach Koornneef (2000) sind Ereignisse bzw. Beinahe-Ereignisse einerseits Lernmaterial, andererseits Auslöser für das Lernen in einer Organisation. Voraussetzung für erfolgreiches Lernen ist nach Argyris und Schön (1996), dass über ein einfaches Fehlerkorrigieren (Single-loop-Lernen) hinausgegangen wird. Beim Double-loop-Lernen werden tiefere und gemeinsame Ursachen und Schwachstellen gesucht, d. h. mit einer systematischen Analyse vorgegangen. Beim Deutero-Lernen wird im Sinne eines Meta-Lernens über die Lernprozesse reflektiert. Carroll, Rudolph &
eignisdarstellung ergänzt wird. Im Laufe der Analyse entsteht so eine immer komplexer werdende Ereignisrekonstruktion. Als Hilfe für die Analytiker gibt es mögliche direkt und indirekt beitragende Faktoren wie Arbeitsbedingungen, Arbeitsplanung, Abweichung von Regeln, Qualifikation, Gruppeneinflüsse, Organisation und Management und Training, die in einer Identifikationshilfe zusammengefasst sind. Die Vorgabe dieser möglichen beitragenden Faktoren dient zum einen der Sicherung des Untersuchungsumfangs, zum anderen soll sie den Analytikern helfen, mögliche Hypothesen zu generieren. Es gibt ferner Verweise von den direkt beitragenden zu den indirekt beitragenden Faktoren. Diese Verweise sind in der Analyse zu überprüfen, wenn ein Faktor identifiziert wurde. Die Identifikationshilfe enthält für jeden direkt und indirekt kontribuierenden Faktor eine allgemeingehaltene Frage, wie beispielsweise »Könnte es einen Einfluss der Arbeitsbedingungen auf das Handeln gegeben haben?«, um die Bildung von Analogien anzuregen und um den Eindruck der Vollständigkeit zu vermeiden, der durch zu detaillierte Unterkategorien entstehen kann. Da SOL aber in erster Linie für das Personal in Kernkraftwerken und nicht für Human-Factors-Spezialisten konzipiert wurde, wird jede allgemeingehaltene Frage anhand von Beispielen erläutert. Die Beispiele sind nicht erschöpfend, sondern sollen vielmehr die mögliche Spannbreite der Wirkung des Faktors verdeutlichen.
Hatakenaka (2002) sehen jedoch durchaus Schwierigkeiten besonders in hochregulierten Industrien, in denen die formale Regelbefolgung höchste Priorität besitzt. Aus Sicht der Autoren ist es für das Lernen aus Ereignissen notwendig, dass ein nichtlineares, dynamisches, multikausales Systemverständnis existiert und dass problemorientiertes Feedback sowie ein offener Austausch stattfinden. In einem SMS sollten einerseits Methoden zur systematischen Analyse von Ereignissen, andererseits aber auch Feedbackschleifen für »lessons learned« implementiert sein.
29 2.4 · Der tägliche Umgang mit Sicherheit: Konzept der Sicherheitskultur
2.4
Der tägliche Umgang mit Sicherheit: Konzept der Sicherheitskultur
Der Begriff »Sicherheitskultur« (auch 7 Kap. 9.6.1) wurde erstmals von einer Beratergruppe der Internationalen Atomenergiebehörde (IAEA) der breiten Öffentlichkeit vorgestellt – im Zuge der Analyse des Reaktorunglücks in Tschernobyl (INSAG-1, 1986; INSAG-4, 1991). Diese Analyse führte organisationale Schwachstellen wie auch die Vielzahl an Regelverletzungen des operativen Personals auf Defizite der zum Zeitpunkt der Katastrophe vorherrschenden Sicherheitskultur zurück. Mittlerweile genießt das Konzept nicht nur in der kerntechnischen Industrie weltweite Aufmerksamkeit. Auch in anderen Ultra-safe-Branchen, wie z. B. der Raumfahrt (Leveson, Cutcher-Gershenfeld, Barrett, Brown, Carroll, Dulac, Fraile & Marais, 2004) oder der Luftfahrt (Helmreich & Merrit, 1998), wurde die Notwendigkeit erkannt, den organisationskulturellen Einfluss auf das individuelle Sicherheitshandeln der Organisationsmitglieder zu berücksichtigen. Branchenübergreifend gilt das Hauptinteresse der Entwicklung von Maßnahmen zur Optimierung von Sicherheitskultur. Dies bedeutet, dass Mitglieder einer Organisation eine Idee davon haben sollten, was ihre Sicherheitskultur ist und wie sie sein sollte. In der 1991 vorgelegten Definition der IAEA wird Sicherheitskultur verstanden als »[...] that assembly of characteristics and attitudes in organization and individuals which establishes that, as an overriding priority, nuclear plant safety issues receive the attention warranted by their significance.« (INSAG-4, 1991)
Darauf aufbauend werden auf 3 Ebenen Anforderungen definiert, deren Erfüllung eine »funktionierende Sicherheitskultur« ausmachen soll: Auf der unternehmenspolitischen Ebene gilt es, sowohl von der Organisation selbst wie auch von politischen Aufsichtsorganen die Rahmenbedingungen zu konstituieren, unter denen die Organisationsmitglieder ihre Arbeit sicherheitsgerichtet verrichten können (z. B. sicherheitspolitische Programme, ausreichende finanzielle und personelle Ressourcen, Sicherheitsmanagementsysteme).
2
Auf der Ebene des Managements werden v. a. thematisiert: die Festlegung von innerbetrieblichen Verantwortlichkeiten, die regelmäßige Durchführung von Trainings- und Qualifizierungsmaßnahmen, sicherheitsförderliche Belohnungs- und Sanktionssysteme sowie die Definition und Überprüfung von Sicherheitspraktiken. Auf der individuellen Ebene wird von allen Mitarbeitenden unabhängig von ihrer Position innerhalb der Organisation eine hinterfragende Grundhaltung, ein sorgfältiges und vorsichtiges Handeln und eine umfangreiche Kommunikation über sicherheitsrelevante Thematiken gefordert. Die IAEA versteht Sicherheitskultur als ein ganzheitliches Phänomen, das alle Mitglieder einer Organisation (und die mit ihnen in Verbindung stehenden »interorganisationalen« Akteure) einbezieht und dessen Verhaltenswirksamkeit sich sowohl auf beobachtbaren (»characteristics«) wie auch psychologischen (»attitudes«) Merkmalen abbildet. Neuere Publikationen der IAEA erweitern diese Auffassung dahingehend, dass 1. Konzepte wie »lernende Organisation« sowie konservative Entscheidungsfindung, der Aufbau einer Berichtskultur (INSAG-15, 2002) wie auch die individuellen (Sicherheits-)Werte der Organisationsmitglieder (IAEA, 2005) integriert werden und 2. unterschiedliche Entwicklungsstufen von Sicherheitskultur definiert werden (IAEA, 1998). Letzteres kennzeichnet auch die sog. Reifegradmodelle der Sicherheitskultur (z. B. Fleming & Lardner, 1999; Parker, Lawrie & Hudson, 2006; Hudson, 2007), die die jeweilige Reife einer Sicherheitskultur anhand von ausgewählten Indikatoren bestimmen (. Abb. 2.1). Unklar bleibt jedoch, wie es zu unterschiedlichen Reifegraden einer Sicherheitskultur kommt bzw. wie beispielsweise das »bedrohliche« Verhalten der Mitglieder einer pathologischen Sicherheitskultur erklärt werden kann, wenn man davon ausgeht, dass diese sich nicht bewusst Gefahren und Risiken aussetzen. Basierend auf den Arbeiten zur Organisationskultur von Schein (1990) wird zunehmend ein Mehrebenenkonzept von Sicherheitskultur favorisiert (Guldenmund, 2000; Glendon & Stanton, 2000; Hale, 2000). Dieses fokussiert das Wechselspiel zwi-
30
Kapitel 2 · Sicherheit
. Abb. 2.1. Reifegradmodell der Sicherheitskultur. (Übersetzt nach Hudson, 2007)
2
schen »nichtbeobachtbaren« und »beobachtbaren« Merkmalen einer Sicherheitskultur. Schein betrachtet die Kultur einer Organisation auf 3 Ebenen, wobei Ausprägungen auf den beiden höheren Ebenen (Ebene der Artefakte bzw. des beobachtbaren Verhaltens und Ebene der geäußerten Werte) maßgeblich durch die tiefste Ebene – Ebene der Grundannahmen – beeinflusst werden. Der verhaltensbestimmende Kern einer (Organisations-)Kultur wird als ein Muster gemeinsamer Grundannahmen definiert, das eine Gruppe bzw. eine Organisation im Spannungsfeld von externer Anpassung und interner Integration erlernt hat, das sich bewährt hat, somit als bindend gilt und daher an neue Organisationsmitglieder als rationale und emotionale Leitlinie eigenen Handelns weitergegeben wird. Die Grundannahmen einer Organisationskultur sind den Organisationsmitgliedern in der Regel nicht bewusst; sie leiten ihr Handeln »wie selbstverständlich«. Auf den unmittelbaren Zusammenhang zwischen den in sozialen Gruppierungen entstehenden Grundannahmen und sicherheitsgerichtetem Verhalten verweist Hale (2000, S. 7): »The attitudes, beliefs, and perceptions shared by natural groups as defining norms and values, which determine how they act and react in relation to risks and risk control system.«
Auch Pidgeon (1991) in Anlehnung an Turner, Pidgeon, Blockley & Toft (1989) fasst Sicherheitskultur als sozial geteiltes Phänomen auf, d. h. als »[...] set of beliefs, norms, attitudes roles, and social and technical practices that are concerned with minimising the exposure of employees, managers, customers and members of the public to conditions considered dangerous and injurious.« (p. 134)
! Das Konzept Sicherheitskultur beinhaltet sowohl beobachtbare Indikatoren wie auch psychologische Aspekte. Die Schwerpunkte der verschiedenen Modelle liegen entweder auf der Entwicklung von beobachtbaren Indikatoren für Sicherheitskultur oder auf der Identifikation von im Gruppenkontext entstehenden verhaltenswirksamen und sozial geteilten Grundannahmen einer Sicherheitskultur. Eine gezielte Optimierung von Sicherheitskultur sollte beide Aspekte integrieren und ist in hohem Maße davon abhängig, welches Verständnis von Sicherheitskultur zugrunde gelegt wird (Baram & Schöbel, 2007).
So bedarf es psychologischer Modelle kultureller Beeinflussung, um beispielsweise Auswirkungen von Veränderungsprozessen vorhersagen und steu-
31 2.4 · Der tägliche Umgang mit Sicherheit: Konzept der Sicherheitskultur
ern zu können. Gleichzeitig benötigt man eine Vorstellung davon, was ein »wünschenswertes« sicherheitsgerichtetes Verhalten ist und welche organisationalen Rahmenbedingungen vorliegen müssten, um ein solches Verhalten zu unterstützen. Beide Aspekte einer Sicherheitskultur lassen sich allerdings nur schwer verallgemeinern; sie sollten an die spezifischen Bedingungen einer Sicherheitskultur angepasst werden. So ist durchaus vorstellbar, dass eine »starke« Teamkultur in der einen Organisation negative Effekte für die Sicherheit produziert (z. B. Verschweigen von Fehlhandlungen anderer Teammitglieder), in einer anderen Organisation jedoch positive Einflüsse hat (Teammitglieder unterstützen sich gegenseitig bei der Entdeckung von Missständen). Des Weiteren muss bei jeglicher »sicherheitskulturellen« Intervention entschieden werden, ob auf die Veränderung des Verhaltens (z. B. durch Behavioral-Safety-Programme; s. Lardner, 2004) oder auf Veränderung von Einstellungen und Werten der Organisationsmitglieder (z. B. durch Informationsworkshops) abgezielt werden sollte, und inwieweit nichtprimäre sicherheitsrelevante Entscheidungen und Prozesse (wie z. B. die Verteilung von Ressourcen, organisationale Restrukturierungen) einbezogen werden, d. h. vordergründig eine Veränderung der Organisationskultur anzustreben ist. Daraus folgt, dass der Diagnose von Sicherheitskultur eine entscheidende Rolle zukommt, sobald sich eine Organisation mit ihrer Sicherheitskultur auseinandersetzt bzw. ihre gezielte Optimierung anstrebt.
2.4.1 Diagnose von Sicherheitskultur Im Gegensatz zur Feedback-Steuerung von Sicherheit (beispielsweise durch Ereignisanalysen, 7 Kap. 2.3.2) stellt die Diagnose der Sicherheitskultur einen Feedforward-Steuerungsmechanismus dar. Seit der Einführung des Konzeptes sind eine Vielzahl an Methoden entwickelt worden, mittels derer Optimierungspotenziale und somit Ansatzpunkte zur positiven Beeinflussung der Sicherheitskultur aufgezeigt werden. Im Bereich der kerntechnischen Industrie überwiegen Ansätze der Selbsteinschätzung der Sicherheitskultur (IAEA, 1995; VGB-Powertec, 2004; IAEA, 2005). Diese greifen zumeist auf 3 unterschiedliche Verfahren zurück:
2
4 Betriebsbegehungen 4 Dokumentenanalysen 4 Interviews Anhand von Betriebsbegehungen und der Analyse von Dokumenten sollen beobachtbare Merkmale einer Sicherheitskultur eingeschätzt werden. Dazu liegen Checklisten vor, die den Bewertungsprozess anleiten (Was soll beobachtet werden? Welche Dokumente sollen analysiert werden?) und gleichzeitig Bewertungskriterien formulieren (z. B. Housekeeping in der Anlage, Qualität von Arbeitsprozeduren und -regeln). Mit der Durchführung von Interviews werden die »tieferen« Ebenen einer Sicherheitskultur, d. h. Einstellungen und Werte der Mitarbeitenden zu Sicherheit und Zuverlässigkeit analysiert, wobei Fragenkataloge die Interviews anleiten. Zudem werden die Ergebnisse der Dokumentenanalyse und Betriebsbegehung in die Befragung integriert. Einen weiteren Zugang zu den nichtbeobachtbaren Merkmalen einer Sicherheitskultur verspricht man sich auch durch den Einsatz von Fragebögen. Es wird zwar empfohlen, dass die Analyse der tieferen Ebenen einer Sicherheitskultur (Ebene der »unbewussten« Grundannahmen) dem Einsatz qualitativer Methoden vorbehalten bleiben sollte (Schein, 1990; Denison, 1996), jedoch bieten Fragebögen die Möglichkeit, Aussagen über das Sicherheitsklima einer Organisation und damit »Schnappschüsse« einer Kultur (Flin, Mearns, O’Connor & Bryden, 2000) abzuleiten. Unter Sicherheitsklima werden demnach die »offenkundigen« Merkmale einer Sicherheitskultur verstanden. Zohar (1980) beschreibt diese als »a summary of molar perceptions that employees share about their work environment« (S. 96). Allerdings ist die Interpretation von Daten aus Klimafragebögen und damit das Schlussfolgern auf die Sicherheitskultur einer Organisation auch mit Schwierigkeiten behaftet. So gehen mittlerweile viele Konzeptionen der Sicherheitskultur davon aus, dass sich innerhalb einer Organisation unterschiedliche Subkulturen entwickeln können, deren Ausformung vom spezifischen Kontext der Arbeitstätigkeit einzelner Gruppen abhängt. Dies bedeutet für die Auswertung von Sicherheitsklimafragebögen, dass entschieden werden muss, auf welcher Ebene die erhobenen Daten sinnvoll aggregiert werden können (auf der organisationalen Ebene, der Gruppenebene, der
32
2
Kapitel 2 · Sicherheit
Ebene der funktionalen Zugehörigkeit etc.) und ob hierfür die Anzahl der erhobenen Datensätze ausreicht, ohne gegen die Voraussetzung statistischer Verfahren zu verstoßen. Weiter bleibt auch festzuhalten, dass in bisherigen Studien kaum Aussagen zur Validität der eingesetzten Fragebögen getroffen werden, d. h. inwieweit ein Zusammenhang zwischen Ausprägungen des Sicherheitsklimas bzw. der Sicherheitskultur und der tatsächlichen Sicherheit organisationalen Handelns vorliegt. Neben dem Mangel an Erklärungsmodellen bisheriger Sicherheitsklimakonzeptionen (Guldenmund, 2007; Flin, 2007) mag dies auch an der Schwierigkeit liegen, geeignete (Sicherheits-)Leistungsindikatoren zu identifizieren, da üblicherweise eingesetzte Indikatoren (Anzahl Beinahe-Unfälle, Unfallstatistiken, Verfügbarkeitsdaten, Selbstberichte) nur bedingt Rückschlüsse zulassen.
2.4.2 Positive Beeinflussung von
Sicherheitskultur Um die Sicherheit organisationalen Handelns zu gewährleisten, ist es für Organisationen unerlässlich, Informationen über potenzielle bzw. reale Gefährdungspotenziale zu generieren, zu sammeln, zu analysieren und zu verbreiten. Ultra-safe-Organisationen stehen allerdings vor der Herausforderung, dass diese Informationen im Vergleich zu anderen Industrien (z. B. in der Bauindustrie) nur schwer zugänglich sind. Ereignisse treten selten auf. Sicherheit ist »unsichtbar« in dem Sinne, dass mit dem Erreichen von Produktionszielen gleichzeitig die Sicherheit organisationalen Handelns suggeriert wird, und demnach die wahrgenommene Notwendigkeit sinkt, weitere »Sicherheits«-Informationen zu suchen (Weick, 1987). An diesem Punkt sollte eine positive Beeinflussung der Sicherheitskultur ansetzen. Reason (1998) greift die Notwendigkeit der aktiven Suche und Verbreitung sicherheitsrelevanter Informationen in seinem Konzept der informierten Kultur (»informed culture«, auch 7 Kap. 9) auf. Hierunter versteht er eine Kultur, in der die Organisationsmitglieder Gefährdungspotenziale bewusst wahrnehmen, verstehen und respektieren. Sicherheitsmanagementsysteme stellen die notwendigen formalen Strukturen zur Verfügung, gleichzeitig be-
darf es einer Organisationskultur, die zur Nutzung dieser Strukturen motiviert. Reason nennt dafür 2 Voraussetzungen: Zunächst bedarf es einer »reporting culture«: Die Organisationsmitglieder sollten bereit sein, eigene Fehlhandlungen sowie Beobachtungen zu abweichendem Systemverhalten zu kommunizieren. Dies erfordert ein Meldesystem mit förderlichen Merkmalen, wie z. B. Vertraulichkeit, einfacher Zugang, schnelle Rückmeldung (van der Schaaf & Kanse, 2004). Primär sollte jedoch das Vertrauen der Organisationsmitglieder in die Ziele und die zu erwartenden Gewinne eines (»freiwilligen«) Meldesystems gestärkt werden. Voraussetzung dafür ist eine sog. gerechte Kultur (»just culture«): In der Organisation muss Klarheit darüber herrschen, wie mit Schuldzuweisungen und Bestrafungen umgegangen wird. Das Spektrum, wie Organisationen heutzutage solche Aspekte handhaben, reicht von der Null-Toleranz gegenüber Fehlern bis hin zur »no-blame culture«. Ziel einer just culture sollte jedoch sein, dass die Organisationsmitglieder genau wissen, wo die Linie gezogen wird zwischen inakzeptablem Verhalten, das einer Disziplinierung bedarf, und sonstigem Fehlverhalten, dessen Bestrafung weder angemessen noch hilfreich für eine Entdeckung von sicherheitskritischen Systemdysfunktionalitäten ist. Ein potenzielles Kriterium dafür, wie bei Ereignissen mit menschlicher Beteiligung vorgegangen werden soll, bietet der Substitutionstest. In einer möglichen Variante dieses Tests werden die Kollegen eines in ein Ereignis verwickelten Mitarbeiters gefragt, ob sie unter den gegebenen Umständen ähnlich gehandelt hätten. Wird die Frage bejaht, sollte man davon ausgehen, dass eine Bestrafung des Mitarbeiters keinen Sinn macht und eher mit negativen Effekten hinsichtlich der Etablierung einer informierten Kultur verbunden wäre – in Form von wahrgenommener Ungerechtigkeit und daraus resultierendem Misstrauen gegenüber dem Management. Im Hinblick auf die Umsetzung einer just culture sollte jedoch auch darauf hingewiesen werden, dass jegliche Interventionen die Privatsphäre und die Grundrechte von Arbeitnehmern und Arbeitnehmerinnen zu achten haben. Die positive Beeinflussung der Sicherheitskultur in Richtung einer informierten Kultur sollte sicherstellen, dass die hier bislang aufgezählten Aspekte
33 2.6 · Literatur
nicht nur auf der Ebene einzelner Subkulturen umgesetzt werden, sondern zu Merkmalen der »dominanten« Organisationskultur werden. Dies bedeutet, dass das Top-Management sich den Zielen und der Vision einer informierten Kultur verpflichtet fühlt und somit bereit ist, bestehende Grundannahmen zu hinterfragen und aufzugeben. Ein kritischer Aspekt dabei ist die Bereitschaft, auch das sicherheitsrelevante Verhalten von Mitarbeitern auf höheren Führungsebenen zu thematisieren bzw. zu verändern (7 Kap. 10).
2.5
Zusammenfassung und Ausblick
Dieses Kapitel beschreibt die Gewährleistung von Sicherheit im organisationalen Kontext. Über eine ergebnisorientierte Sichtweise hinaus wird Sicherheit als Systemmerkmal betrachtet, das sich aus Interaktionsprozessen intra- und extraorganisationaler Einzelfaktoren kontinuierlich generiert. Die strategische und sicherheitsgerichtete Steuerung der Vielzahl organisationaler Prozesse wird durch Sicherheitsmanagementsysteme vollzogen. Diese ermöglichen einer Organisation sowohl die Feedforward- (z. B. durch probabilistische Sicherheitsanalysen) wie auch Feedback-Steuerung (z. B. durch Ereignisanalysen) von Gefährdungspotenzialen. Neben diesen institutionalisierten Instrumenten sind die Bedeutung und das Ausmaß eines organisationskulturellen Einflusses auf das Sicherheitshandeln der Organisationsmitglieder unumstritten. Eine Sicherheitskultur wird als ganzheitliches Phänomen beschrieben, dessen Verhaltenswirksamkeit sich sowohl auf beobachtbaren Indikatoren wie auch psychologischen Merkmalen abbildet. Während Sicherheitsmanagementsysteme die »beobachtbaren« Strukturen zur Verfügung stellen, bedarf es gleichzeitig einer Sicherheitskultur, die zur Nutzung dieser Strukturen motiviert. Eine Weiterentwicklung dieser systemischen Sichtweise auf die Sicherheit stellt der Ansatz zur Resilienzforschung (Hale & Heijer, 2006; Hollnagel, Woods & Leveson, 2006; auch 7 Kap. 3) dar. Dem Resilienzansatz liegt das Drift-to-danger-Modell von Rasmussen (1997) zugrunde, das davon ausgeht, dass sich das Verhalten der Mitarbeitenden in Orga-
2
nisationen mit hohem Gefährdungspotenzial innerhalb von definierten Grenzen (»safety margins«) bewegt. Entscheidungen und Handlungen der Organisationsmitglieder werden grundsätzlich durch das Streben nach maximalem Produktionsoutput bei minimalem individuellen Aufwand geprägt. Resilienz ist die Fähigkeit von Organisationen und ihrer Mitglieder, Übertretungen dieser Grenzen (z. B. durch Abweichungen von Sicherheitsregeln) und die daraus folgenden Konsequenzen frühzeitig zu antizipieren und deren Einfluss auf die Gesamtleistung eines Systems abzuschätzen. Schwerpunkte aktueller Entwicklungen sind Methoden zur Erfassung und Beobachtung von Resilienz, entsprechende Unterstützungssysteme bezüglich sicherheitsrelevanter Entscheidungsprozesse, Visualisierungstechniken zur Antizipation möglicher Auswirkungen getroffener Entscheidungen und damit verbundener Veränderungen im System. Resiliente Organisationen schenken »unerwarteten« bzw. nicht vorab definierten Systemzuständen erhöhte Aufmerksamkeit und entwickeln angemessene Abwehrstrategien (Hollnagel, Woods & Leveson, 2006). Resilienz erinnert somit stark an die Konzeption der Achtsamkeit, bezieht sich darüber hinaus aber auch auf die Fähigkeit, nach aufgetretenen Störungen einen reibungslosen Betrieb zu garantieren, in dem Ausgleichsmechanismen vorhanden sind und auch angewendet werden. Demnach müssen Organisationen heutzutage Strategien entwickeln, die sowohl auf die Beherrschung von »vorhersehbaren« Störfällen als auch auf den Umgang und die Bewältigung von unerwarteten Situationen abzielen.
2.6
Literatur
Amalberti, R. (2001). The paradoxes of almost totally safe transportation systems. Safety Science, 37, 109–126. Argyris, C. & Schön, D. (1996). Organizational learning II: Theory, method, and practice. Reading MA: Addison-Wesley. Baram, M. & Schöbel, M. (2007). Safety culture and behavioral change at the workplace (Editorial). Safety Science, 45 (6), 631–636. Bishop, J. & LaRhette, R. (1988). Managing human performance – INPO’s human performance evaluation. System. HumanError-Avoidance-Techniques Conferences Proceedings. Warrendale, Pennsylvania: Society of Automotive Engineers, Inc. (SAE), Publications No. P-204, 79–85.
34
2
Kapitel 2 · Sicherheit
Carroll, J. S., Rudolph, J. W. & Hatakenaka, S. (2002). Organizational learning from experience in high-hazard industries: Problem investigation as off-line reflective practice. MIT Sloan School of Management: Working Paper 4359–02. Denison, D. R. (1996). What is the difference between organizational culture and organizational climate? A native’s point of view on a decade of paradigm wars. Academy of Management Review, 21, 619–654. DIN 40041. (1990-12). Zuverlässigkeit; Begriffe. Berlin: BeuthVerlag. EFQM (2003). Die Grundkonzepte der Excellence. [Online] http:// www.deutsche-efqm.de/download/Grundkonzepte_ 2003.pdf [01.03.2007]. Fahlbruch, B. (2000). Vom Unfall zu den Ursachen – Empirische Bewertung von Analyseverfahren. Berlin: Mensch & Buch. Fahlbruch, B. & Wilpert, B. (1997). Event analysis as problem solving process. In A. R. Hale, B. Wilpert & M. Freitag (Eds.), After the event: from accident to organisational learning (pp. 113–130). Oxford: Elsevier. Fahlbruch, B. & Wilpert, B. (1999). System safety – an emerging field for I/O psychologie. In C. L. Cooper & I. T. Robertson (Hrsg.), International Review of Industrial and Organizational Psychology (Bd. 14, S. 55–93). Chichester: Wiley. Fleming, M. & Lardner, R. (1999). The development of a draft safety culture maturity model. Suffolk: HSE Books. Flin, R. (2007). Measuring safety culture in healthcare. A case for accurate diagnosis. Safety Science, 45 (6), 653–667. Flin, R., Mearns, K., O’Connor, P. & Bryden, R. (2000). Measuring safety climate: Identifying the common features. Safety Science, 34 (1–3), 177–192. Gherardi, S., Nicolini, D. & Odella, F. (1998). What do you mean by safety? Conflicting perspectives on accident causation and safety management in a construction firm. Journal of Contingencies and Crisis Management, 6 (4), 202–213. Glendon, A. I. & Stanton, N. A. (2000). Perspectives on safety culture. Safety Science, 34 (1–3), 193–214. Guldenmund, F. W. (2000). The nature of safety culture: A review of theory and research. Safety Science, 34 (1–3), 215–257. Guldenmund, F. (2007). The use of questionnaires in safety culture research: An evaluation. Safety Science, 45 (6), 723–740. Hale, A. R. (2000). Editorial: Culture’s confusion. Safety Science, 34, 1–14. Hale, A. & Heijer, T. (2006). Defining resilience. In E. Hollnagel, D. D. Woods & N. Leveson (Eds.), Resilience engineering: concepts and precepts (pp. 35–41). Burlington, VT: Ashgate. Helmreich, R. L. & Merritt A. C. (1998). Culture at work: National, organisational and professional influences. Aldershot, UK: Ashgate. Hollnagel, E., Woods, D. D. & Leveson, N. (2006). Resilience engineering: concepts and precepts. Burlington, VT: Ashgate. Hopkins, A. (1999). The limits of normal accident theory. Safety Science, 32 (2–3), 93–102. Hudson, P. (2007). Implementing a safety culture in a major multi-national. Safety Science, 45 (6), 697–722. IAEA (1991). ASSET Guidelines revised 1991 edition. Reference material prepared by the IAEA for assessment of safety signifi-
cant event teams (IAEA-TECDOC-632). Vienna: International Atomic Energy Agency. IAEA (1995). ASCOT-Guidelines. Guidelines for reviews by the assessment of safety culture in organizations teams. Vienna: International Atomic Energy Agency. IAEA (1998). Developing safety culture in nuclear activities: Practical suggestions to assist progress. IAEA Safety Report Series Nr. 11. Vienna: International Atomic Energy Agency. IAEA (2005). SCART Guidelines. Guidelines for safety culture assessment review teams. Unpublished report. Vienna: International Atomic Energy Agency. ICAO (2004). ICAO-Annex 14, Volume I, »Aerodrome design and operations«. 4th Edition, July 2004. INSAG-1 (1986). Summary Report on the Post-Accident Review Meeting on the Chernobyl accident. Vienna: International Atomic Energy Agency. INSAG-4 (International Nuclear Safety Advisory Group) (1991). Safety Culture. Vienna: International Atomic Energy Agency. INSAG-15 (International Nuclear Safety Advisory Group) (2002). Key practical issues in strengthening safety culture. Vienna: International Atomic Energy Agency. ISO/IEC Guide 51 (1999). Leitfaden für die Aufnahme von Sicherheitsaspekten in Normen. Berlin: Beuth Verlag. Isaac, A., Shorrock, S. T., Kennedy, R., Kirwan, B., Andersen, H. & Bove, T. (2003). The human error in ATM technique (HERAJANUS) (HRS/HSP-002-REP-03). Brussels: Eurocontrol. Johnson, W. (1980). MORT Safety Assurance Systems. New York: Marcel Dekker. Kirwan, B. (1996). The validation of three human reliability quantification techniques – THERP, HEART and JHEDI: Part 1 – technique descriptions and validation issues. Applied Ergonomics, 27 (6), 359–373. Kirwan, B. (1997a). The development of a nuclear chemical plant human reliability management approach: HRMS and JHEDI. Relibility Engineering and System Safety, 56, 107–133. Kirwan, B. (1997b). The validation of three human reliability quantification techniques – THERP, HEART and JHEDI: Part III – Practical aspects of the usage of the techniques. Applied Ergonomics, 28 (1), 27–39. Kirwan, B. (1997c). Validation of human reliability assessment techniques: Part 1 – Validation issues. Safety Science, 27 (1), 25–41. Kirwan, B. (1997d). Validation of human reliability assessment techniques: Part 2 – Validation results. Safety Science, 27 (1), 43–75. Kirwan, B. (1998). Safety management assessment and task analysis – a missing link. In A. Hale & M. Baram (Eds.), Safety management: The challenge of change (pp. 67–92). Amsterdam: Elsevier. Koornneef, F. (2000). Organised learning from small-scale incidents. Delft: Delft University Press. La Porte, T. R. (1996). High reliability organizations: Unlikely, demanding and at risk. Journal of Contingencies and Crisis Management, 4 (2), 60–71. La Porte, T. R. & Consolini, P. M. (1991). Working in practice but not in theory: theoretical challenges of high-reliability
35 2.6 · Literatur
organizations. Journal of Public Administration Research and Theory, 1, 19–47. Lardner, R. (2004). Mismatches between safety culture Improvement and behaviour-based safety. Paper presented at the 23th NetWork-Meeting on Safety Culture and Behavioral Change, Blankensee, Germany. Leveson, N., Cutcher-Gershenfeld, J., Barrett, B., Brown, A., Carroll, J., Dulac, N., Fraile, L. & Marais, K. (2004). Effectively addressing NASA’s organizational and safety culture: Insights from system safety and engineering systems. Paper presented at MIT ESD Symposium, March 2004. Marais, K., Dulac, N. & Leveson, N. (2004). Beyond normal accidents and high reliability organizations: The need for an alternative approach to safety in complex systems. Paper presented at the Engineering Systems Symposium, Cambridge, MA, March, 24. OSHA (2002). Arbeitsunfälle verhindern. Magazin der Europäischen Agentur für Sicherheit und Gesundheitsschutz am Arbeitsplatz, 4, 1–33. Parker, D., Lawrie, M. & Hudson, P. (2006). A framework of understanding the development of organisational safety culture. Safety Science, 44 (6), 551–562. Perrow, C. (1986). Lernen wir etwas aus den jüngsten Katastrophen? Soziale Welt, 37, 390–401. Perrow, C. (1987). Normale Katastrophen. Die unvermeidbaren Risiken der Großtechnik. Frankfurt u. a.: Campus-Verlag. Pidgeon, N. F. (1991). Safety culture and risk management in organizations. Journal of Cross-Cultural Psychology, Vol. 22, pp. 129–140. Rasmussen, J. (1991). Safety control: Some basic distinctions and research issues in high hazard low risk operation. Paper preseted at the NeTWork workshop on Risk Management, Bad Homburg, May 1991. Rasmussen, J. (1997). Risk management in a dynamic society: A modelling problem. Safety Science, 27 (2–3), 183–213. Reason, J. (1990). Human error. Cambridge: Cambridge University Press. Reason, J. (1997). Managing the risks of organizational accidents. Aldershot: Ashgate. Reason, J.T. (1998). Achieving a safe culture: theory and practice. Work and Stress, 12 (3), 293–306. Rochlin, G. I. (1993). Defining »High reliability« organizations in practice: A taxonomic prologue. In K. H. Roberts (Ed.), New challenges to understanding organizations (pp. 11–32). New York, Toronto: Macmillan.
2
Sagan, S. D. (2004) Learning from normal accidents. Organization and Environment, 17 (1), 15–19. Schaaf, T. W. van der & Kanse, L. (2004). Biases in incident reporting databases: An empirical study in the chemical process industry. Safety Science, 42 (1), 57–67. Schein, E. H. (1990). Organizational culture. American Psychologist, 45 (2), 109–119. Seghezzi, H. D., Fahrni, F. & Herrmann, F. (2007). Integriertes Qualitätsmanagement. Der St. Galler Ansatz. (3., vollst. überarbeitete Aufl.). München: Carl Hanser. Skiba, R. (1997). Taschenbuch Arbeitssicherheit (9., neubearb. Aufl.). Bielefeld: Schmidt. Turner, B. A. (1978). Man-made disasters. London: Wykeham Publ. Turner, B. A. & Pidgeon, N. F. (1997). Man-made disasters (2. ed.). Boston [u. a.]: Butterworth-Heinemann. Turner, B. A., Pidgeon, N., Blockley, D. & Toft, B. (1989) Safety culture: its importance in future risk management. Position paper for the Second World Bank Workshop on safety control and risk management, Karlstad, Sweden. VGB-Powertec (2002). Sicherheitskultur in deutschen Kernkraftwerken – Konzept zur Bewertung und Trendverfolgung. [Unveröffentliches Manuskript]. Weick, K. E. (1976). Educational organisations as loosely coupled systems. Administrative Science Quarterly, 21, 1–19. Weick, K. E. (1987). Organizational culture as a source of highreliability. California Management Review, 29 (2), 112–127. Weick, K. E. & Roberts, K. H. (1993). Collective mind in organizations – Heedful interrelating on flight decks. Administrative Science Quarterly, 38 (3), 357–381. Weick, K. E. & Sutcliffe, K. M. (2001). Das unerwartete Managen: Wie Unternehmen aus Extremsituationen lernen. Stuttgart: Klett-Cotta. Wilpert, B., Becker, G., Maimer, H., Miller, R., Fahlbruch, B., Baggen, R., Gans, A., Leiber, I. & Szameitat, S. (1997). Umsetzung und Erprobung von Vorschlägen zur Einbeziehung von Human Factors (HF) bei der Meldung und Ursachenanalyse in Kernkraftwerken. [Endbericht SR 2039/8, Bericht der Technischen Universität Berlin und des TÜV Rheinland e. V. im Auftrag des Bundesministers für Umwelt, Naturschutz und Reaktorsicherheit im Rahmen des Vorhabens SR 2039/8]. Zohar, D. (1980). Safety climate in industrial organizations: Theoretical and applied implications. Journal of Applied Psychology, 65 (1), 96–102.
3 Fehler und Unfälle Gesine Hofinger
3.1
Fehler, Irrtümer und Sicherheit
– 37
3.1.1 Was sind Fehler? – 37 3.1.2 Hinweise zur Geschichte der Fehlerforschung
3.2
– 38
Fehler und Unfälle: Personansatz und Systemansatz
– 39
3.2.1 Aktive Fehler und latente Bedingungen – 40 3.2.2 Fehlerketten – 41
3.3
Jeder Fehler ein Schatz? Vom Nutzen der Zwischenfälle
– 43
3.4
Fehlerarten und Fehlerformen
3.4.1 3.4.2 3.4.3 3.4.4 3.4.5
Arten von Fehlerklassifikationen – 44 Fehler im System? Arbeitsprozessbezogene Klassifikationen – 45 Ebenen von Fehlerursachen – 46 Unsichere Handlungen (Reason, 1990) – 48 Fehler beim Problemlösen – 50
3.5
Ursachen für Fehler
3.5.1 3.5.2 3.5.3 3.5.4
Ressourcenschonung – 51 Aktives Gedächtnis – 52 Überwertigkeit des aktuellen Motivs – 52 Kompetenzschutz und soziale Motive – 52
3.6
Zuverlässigkeit und Fehlerfreundlichkeit
3.7
Zusammenfassung
3.8
Literatur
– 54
– 44
– 51
– 53
– 52
37 3.1 · Fehler, Irrtümer und Sicherheit
3.1
Fehler, Irrtümer und Sicherheit
Fehler, Irrtümer und Pannen begleiten menschliches Handeln – anscheinend unentrinnbar. »Es irrt der Mensch, so lang er strebt«, wusste Goethes Faust. »Errare humanum est«, heißt es schon bei den alten Römern. Dass etwas nicht so funktioniert, wie es soll, gehört zum Leben, zum Alltagshandeln und damit auch zum beruflichen Handeln in Hochrisikobereichen. Als Lebensweisheit ist die Einsicht in menschliche Fehlbarkeit wohl unbestritten. Da Fehler jedoch Ursache von Unfällen mit Folgen für Mensch, Umwelt und Kapital sein können, streben ganze Industrien wie auch Unternehmen nach Fehlerlosigkeit mit 2 verschiedenen Ansatzpunkten: 4 Handeln wird reguliert durch Standards und Regeln (7 Kap. 17) 4 Menschliche Eingriffe werden teils oder vollständig durch Automatisierung ersetzt (7 Kap. 19) In diesem Kapitel geht es um Fehler, ihre Ursachen, ihren Zusammenhang mit Sicherheit und Unfällen. Nicht erst seit Sicherheit ein Forschungsthema mit starkem Praxisbezug ist, sind Fehler in der Forschung auf Interesse gestoßen. Als »Fenster zum Geist« (Norman, 1981) haben Psychologen seit etwa 150 Jahren Fehlhandlungen genutzt, um menschliche Informationsverarbeitung und Handlungsregulation besser zu verstehen. Nach dem Versuch einer begrifflichen Abgrenzung folgt deshalb in 7 Kap. 3.1.2 ein kurzer Blick auf die Geschichte und wichtige Strömungen der Fehlerforschung. Der Blick zurück zeigt, dass neben Fachinteressen insbesondere gesellschaftliche und technische Entwicklungen die Forschung beeinflussen. 7 Kap. 3.2 stellt grundlegende Perspektiven auf Fehler gegenüber und klärt den Zusammenhang von Fehlern und Unfällen bzw. Sicherheit. Fehlerforschung hat immer schon versucht, die Vielzahl beobachtbarer Fehler auf wenige Grundmuster zurückzuführen. In 7 Kap. 3.3. werden deshalb wichtige Fehlerklassifikationen besprochen. Ursachen für Fehler werden überblicksartig in 7 Kap. 3.4 benannt; sie werden ausführlich in den 7 Kap. 5–11 behandelt. Abschließend geht es im 7 Kap. 3.5 um menschliche Zuverlässigkeit – hier wird deutlich, dass Fehler nicht zu Unfällen führen müssen.
3
3.1.1 Was sind Fehler? Es gibt viele Definitionen von Fehlern, jedoch bis heute keinen Konsens hinsichtlich einer allgemein akzeptierten Definition. Dies ist nicht verwunderlich, da sich Forscher aus verschiedenen Richtungen mit unterschiedlichen Interessen des Themas annehmen. Dennoch gibt es einen gemeinsamen Kern in allen Fehlerdefinitionen: ! Fehler sind eine Abweichung von einem als richtig angesehenen Verhalten oder von einem gewünschten Handlungsziel, das der Handelnde eigentlich hätte ausführen bzw. erreichen können.
Damit sind die wichtigsten Bestimmungsstücke genannt:
Eingrenzung des Fehlerbegriffs 4 Von Fehlern kann man nur sprechen, wenn menschliches Handeln betroffen ist – Maschinen machen keine Fehler, sie können entweder defekt oder falsch programmiert sein. 4 Fehler können im Prozess des Handelns oder im Handlungsergebnis liegen. 4 Fehler setzen eine Absicht (Intention) voraus, die nicht wie geplant ausgeführt wird. 4 Die Bezeichnung einer Handlung oder eines Handlungsergebnisses als »Fehler« setzt also eine Bewertung voraus. 4 Fehler setzen voraus, dass das Wissen und Können für die richtige Handlungsausführung vorhanden war.
Reason (1990) schreibt entsprechend: »Error will be taken as a generic term to encompass all those occasions in which a planned sequence of mental or physical activities fails to achieve its intended outcome, and when these failures cannot be attributed to the inervention of some change agency.« (S. 9)
Denselben Kerngedanken finden wir bei Wehner, Mehl & Dieckmann (im Druck): Fehler sind eine
38
3
Kapitel 3 · Fehler und Unfälle
»Zielverfehlung wider besseres Wissen und Können« – man hätte es also besser machen können, wenn man etwas anderes oder etwas anders getan hätte. Da Fehler Wissen und Können voraussetzen, grenzen Psychologen (Wehner, Mehl & Dieckmann, im Druck) seit Weimer (1925) den Fehler vom Irrtum ab. So heißt z. B. einen Irrtum begehen, dass das nötige Wissen nicht vorhanden war, um das gewünschte Handlungsziel zu erreichen. Diese Unterscheidung mag auf den ersten Blick unnötig erscheinen, ist aber – wenn Sicherheit gefährdet ist – relevant für die Analyse: Ob ein Ventil fälschlich geöffnet wurde, weil der Operator nicht wusste, dass es zu diesem Zeitpunkt geschlossen sein musste, oder weil er 2 Ventile verwechselte – das Ventil wurde fälschlich geöffnet, sodass es zu Stoffaustritt kam. Zudem wird umgangssprachlich nicht unterschieden, ob Wissen nicht vorhanden oder nicht verfügbar war (z. B. würde man eine Verwechslung auch als Irrtum bezeichnen). Die Abgrenzung des Irrtums vom Fehler ist aber für die Prävention wie auch für die juristische Aufarbeitung von Fehlern wichtig: Wenn Wissen fehlt, kann es gelernt werden; wenn es nicht zugänglich ist, muss die Arbeitsumgebung so gestaltet werden, dass der Wissensabruf erleichtert wird. Nur wer weiß, was er tut (oder es hätte wissen müssen), kann verantwortlich gemacht werden für die Handlungsresultate. In ingenieurwissenschaftlichen Arbeiten wird häufig nicht die Intention als Bewertungskriterium zugrunde gelegt, sondern die Aufgabe. Dabei wird vorausgesetzt, dass es die Intention des Handelnden ist, eine Arbeitsaufgabe korrekt zu bearbeiten. Ein Beispiel: »‚Menschliche Fehler’ können formal definiert werden als menschliches Versagen in einer definierten Aufgabe (oder Ausführung einer verbotenen Aufgabe) innerhalb einer spezifizierten Ausführungsgenauigkeit, Reihenfolge oder Zeit, welche in einer Beschädigung von Material und Besitz oder Störung geplanter Abläufe münden kann.« (Hagen & Mays, 1981, S. 316)
Rigby (1970) setzt die Variabilität menschlichen Verhaltens in Bezug zur Aufgabe und definiert entsprechend Fehler als Handlungen, die tolerierte Grenzen
überschreiten, sodass die Aufgabe nicht mehr korrekt erfüllt werden kann: »[…] variability is not important as long as it is within certain limits. Deficiencies such as defects, failures, occurrences, and errors occur when those limits are exceeded. Thus, in the most general and practical sense, a human error is any member of a set of human actions that exceeds (fails to meets) some limit of acceptability. An error is only an outof-tolerance action, and the most important ingredients in any discussion of error are definitions for both the set of actions and the tolerance limits that define the errors for those actions.«
Für die Fehlerforschung ist es daher wichtig, die Bandbreite des »Normalen« zu verstehen (vgl. auch Wehner, Mehl & Dieckmann, im Druck). Das heißt, dass ausgehend von dem Wissen, wie Menschen im Allgemeinen denken und handeln, Fehlerforschung versucht, Fehler auf der Basis dieser allgemeinen Gesetze, Theorien und Hypothesen zu erklären.
3.1.2 Hinweise zur Geschichte
der Fehlerforschung Die Geschichte der modernen Fehlerforschung begann Anfang des 19. Jahrhunderts mit dem Interesse an Wahrnehmungsfehlern einerseits (z. B. Beobachtungsfehler, Gauss, 1823; optische Täuschungen, Necker, 1832) und Hör-, Schreib- und Druckfehlern (Goethe, 1820) andererseits. Diese Art von Fehlern ist offensichtlich (lässt sich gut erfassen) und ist teilweise der Selbstbeobachtung (Introspektion) zugänglich, eine Forschungsmethode, die zu dieser Zeit besondere Aufmerksamkeit erfuhr. Schon Goethe zog daraus den Schluss, dass man sich nicht selbst vor solchen Fehlern schützen könne. Seine Lösung, »Zensoren« (Lektoren, die seine Fehler korrigierten), würde man heute als Erhöhung von Redundanz bezeichnen. Weithin bekannt geworden sind diese Art von Hör-, Schreib- und Druckfehler als »Freudsche Versprecher«. Freud stellte in der »Psychopathologie des Alltagslebens« (1901) dar, dass Versprechen, Verhören und dergleichen durch unbewusste Motive zustande kommen. Verdrängte Inhalte schaffen sich Zugang zum Bewusstsein auf indirekte
39 3.2 · Fehler und Unfälle: Personansatz und Systemansatz
Weise, eben über den »Fehler«, der ja nur für die bewusste Intention ein Fehler ist. Wichtig bleibt neben diesem Bezug auf Intention/Motivation bis heute seine Erkenntnis, dass (Denk-)Fehler nicht Zufallsprodukte sind, sondern Gesetzmäßigkeiten der Informationsverarbeitung, und der Motivation folgen. Während Freud sich vorrangig mit der Psychodynamik (Motiven) befasste, versuchte Sully (1881) als erster Psychologe, Fehler der Wahrnehmung und Erinnerung zu klassifizieren und kognitive Erklärungsprinzipien zu finden. Er stellte Wahrnehmungs- und Introspektionsfehler den Wissens- und Gedächtnisfehlern gegenüber. Im 20. Jahrhundert ist die Fehlerforschung innerhalb zweier Disziplinen ansässsig: Einerseits ist Fehlerforschung im Gefolge der Industrialisierung und der militärtechnischen Entwicklung ein Gebiet der Arbeitspsychologie und Human-Factors-Forschung (7 Kap. 1), andererseits wird Fehlerforschung weiterhin als allgemeinpsychologische Forschung zu Mechanismen der Wahrnehmung und Informationsverarbeitung betrieben. Im Zuge der Industrialisierung wuchs das Interesse an falschen Handlungsausführungen bei der Bedienung von Maschinen. Von Anfang an richtete sich die angewandte Fehlerforschung an Produktivität und Gesundheitsschutz aus. Infolge der rasanten Entwicklung der Fliegerei (angeschoben durch die Weltkriege) kam es zu zahlreichen Abstürzen durch Pilotenfehler, unangepasstes Design und Funktionsprobleme der Maschinen. Die Beschäftigung mit »pilot error« ist seit dem 2. Weltkrieg ein wichtiger Teil der Human-Factors-Forschung. Hier geht es nicht so sehr darum, den menschlichen Geist zu verstehen, sondern Fehler werden explizit im Kontext von Sicherheit betrachtet. Menschliche Fehler als Absturzursache förderten Klassifikationsansätze ebenso wie Ansätze, durch Personalauswahl und Training Fehler zu verhindern. Andererseits führten offensichtliche Design- und Konstruktionsmängel zu einer Stärkung des Human Factors Engineering, das versucht, durch angepasstes Design Fehler zu verhindern (7 Kap. 1). In der Fehlerforschung innerhalb der Arbeitswissenschaft liegt der Fokus auf den Bedingungen von Tätigkeitsausführung und Maschinenbedienung (z. B. Egger, 2001). Als Ursachen von Fehlern werden z. B. untersucht:
4 4 4 4 4
3
Überforderung Übermüdung Umwelteinflüsse wie Lärm Unklare Zielanforderungen Unangepasste Mensch-Maschine-Schnittstellen.
Die Grundlagenforschung hat die Idee des Fehlers früh als »window to the mind« (Norman, 1981) beibehalten – z. B. untersuchte die Gestaltpsychologie Wahrnehmung (auch) anhand von Täuschungen (z. B. Metzger, 1936). Entscheidungsfehler waren in der Entscheidungstheorie Grundlage für die Formulierung von Entscheidungsheurismen (z. B. Kahneman, Slovic &Tversky, 1982). Die Problemlösepsychologie untersuchte Fehler vorrangig im Umgang mit verschiedenen Problemtypen (z. B. Dörner, Kreuzig, Reither & Stäudel, 1983) und verlässt dabei den Bereich der Routinehandlungen, der für die (industrielle) angewandte »Fehlerforschung kennzeichnend ist. Fehler als Datenmaterial für die Untersuchung von Denkprozessen setzen voraus, dass sie denselben psychologischen Gesetzen folgen wie »richtiges« Verhalten. So formulieren Senders & Moray (1991, S. 54): »Errors are simply behavior. […] This view implies that a study of error is therefore nothing more than the study of behavior and its contexts.«
Ein dritter Aspekt von Fehlern neben ihrer Rolle für Sicherheit und die Erforschung des menschlichen Denkens ist seit den 1980er Jahren in der Fehlerforschung betont worden: Fehler als Potenzial für Kreativität und tieferes Verständnis des jeweiligen (Arbeits-)systems (z. B. Wehner, 1984, 1992).
3.2
Fehler und Unfälle: Personansatz und Systemansatz
Lange Zeit hat sich die Fehlerforschung mit individuellen Handlungsfehlern befasst (das mag auch ein Resultat der Forschungsdesigns sein; es wurden ausschließlich Individuen untersucht). Auch der Blick auf Unfälle (meist Arbeitsunfälle, Flugunfälle oder Verkehrsunfälle) war darauf gerichtet, die eine falsche Handlung zu finden, die den Unfall verursacht
40
Kapitel 3 · Fehler und Unfälle
hatte. Durch den Vergleich verschiedener Unfallsituationen wurde erforscht, unter welchen Bedingungen Menschen welche Art von Fehlern machen.
3
! Klassische Fehlerforschung fragt, was genau falsch gemacht wird und warum. Die erste Frage führt zur Klassifikation von Fehlern, die zweite Frage zur Suche nach Ursachen.
Es werden also die Ursachen falscher Handlungen in der menschlichen Informationsverarbeitung, der Aufgabe oder dem Kontext gesucht. Diese Sicht auf den fehlerverursachenden Menschen und seine oder ihre Handlungen führt allerdings schnell zu einer Haltung des »naming, blaming, shaming« – der sog. Personansatz (»person approach«), deutlich gemacht durch Schlagzeilen wie »menschliches Versagen als Absturzursache«. Diese Haltung, die Suche nach dem Schuldigen, ist in der Praxis mancher Branchen (z. B. Medizin) auch heute noch häufig anzutreffen. Für die juristische Aufarbeitung von Unfällen, die traditionell dem Personansatz folgt, wird gefragt, welche Vorläufer eine Handlung hatte, welche guten Gründe eine Person gehabt hatte oder welche Faktoren ihre Urteilsfähigkeit verminderten. Diese Fragen führen dazu, eine falsche Handlung zu verstehen und möglicherweise zu relativieren. Dabei ist nicht nur wichtig, ob die handelnde Person anders hätte handeln können, sondern auch, ob sie wusste, dass sie etwas Falsches tat oder die Folgen ihres Handelns absehen konnte. Seit den 1980er Jahren rückten in der Forschung – aufgrund einer Häufung spektakulärer Unfälle wie Tschernobyl, Challenger, Herald of Free Enterprise – die Bedingungen von Unfällen in komplexen soziotechnischen Systemen (7 Kap. 2) in den Blick. Es wurde klar, dass nicht eine falsche Handlung zu Unfällen in solchen Systemen führt. Es entwickelte sich, unterstützt durch das Buch »Human Error« von Reason (1990), eine systemische Sicht auf Fehler. Der Fehler, um den es geht, ist nicht mehr eine falsche Handlung, sondern ein unerwünschtes Ereignis, ein Unfall oder ein Zwischenfall innerhalb eines soziotechnischen Systems. Um ein solches Ereignis erklären zu können, muss man seine Vorbedingungen auf allen Systemebenen untersuchen, vom Design des Arbeitsplatzes über einzelne falsche Handlungen am Arbeitsplatz bis zu den Ausbildungsrichtlinien. Letztlich sind es Handlungen und Ereignisse auf vie-
len Ebenen, die zusammen dazu führen, dass ein unerwünschtes Ereignis eintritt.
3.2.1 Aktive Fehler und latente
Bedingungen Mit dieser systemischen Sichtweise wird die Suche nach Fehlerursachen nicht nur im Umfang, sondern auch in der Zeit ausgedehnt: Manche Ursachen liegen zeitlich weit vor dem Ereignis, so wie auch verursachende Entscheidungen nicht notwendigerweise von den am Unfall beteiligten Personen getroffen werden. Reason (1990, 1997) unterscheidet deshalb »aktive Fehler« von »latenten Bedingungen«:
Aktive Fehler Aktive Fehler werden von Menschen unmittelbar an der Mensch-System-Schnittstelle begangen, am »scharfen Ende« einer Organisation. Aktive Fehler sind sichtbar, haben das Potenzial, Zwischenfälle oder Unfälle direkt auszulösen, und können somit unmittelbare Konsequenzen haben. Weil aktive Fehler leicht identifizierbar sind, werden sie Gegenstand des öffentlichen Interesses und haben oft eine Sanktionierung der verursachenden Person zur Folge. Das Verwechseln von 2 Medikamenten ist ein solcher aktiver Fehler.
Latente Bedingungen Sicherheitskritische Entscheidungen werden aber auch fern von der Mensch-System-Schnittstelle in Situationen getroffen, die räumlich und zeitlich entfernt von möglichen Unfällen sind. Diese Entscheidungen stellen latente Bedingungen für Unfälle dar, v. a. wenn sie nicht mit dem Zielkriterium Sicherheit getroffen wurden. Latente Unfallbedingungen sind Entscheidungen »am stumpfen Ende« der Organisation, die auf allen Ebenen von direkten Vorgesetzten bis zur Verwaltung gemacht werden. Sie können in Strukturen (z. B. bauliche Gegebenheiten) oder Prozessen (Ausbildung, Dienstplangestaltung) vorliegen. Es sind häufig Entscheidungen, bei denen Sicherheit kein vorrangiges Kriterium war. Sie haben keine unmittelbaren Konsequenzen und bleiben so lange unbemerkt, bis ihre Kombination mit lokal auslösenden Faktoren, beispielsweise durch aktive Fehler
41 3.2 · Fehler und Unfälle: Personansatz und Systemansatz
von Personen, die »Schutzbarrieren« eines Systems durchbricht. Jedes komplexe Arbeitssystem trägt zu jedem beliebigen Zeitpunkt eine bestimmte Anzahl latenter Unfallbedingungen in sich. Doch es gilt auch für Organisationsentscheidungen: Was ein Fehler ist, kann nur von einem Ziel aus bestimmt werden!
3.2.2 Fehlerketten Aus der Kombination von aktiven und latenten Fehlern lässt sich das Zustandekommen von Unfällen und Zwischenfällen erklären. Reason (1990) beschreibt dieses Aufeinandertreffen vieler Faktoren anhand des sog. Käsescheibenmodells (. Abb. 3.1): Die Entstehung eines Unfalls ist dabei wie die Flugbahn eines Projektils gedacht, das normalerweise durch vielfältige Barrieren davon abgehalten wird, Schaden anzurichten. Latente Fehler (hier als »Löcher« in den Barrierescheiben) ermöglichen es, dass aktive Fehler zu Unfällen führen, wenn sie nicht mehr korrigiert werden können. Bekannt geworden ist dieses Konzept unter dem Begriff der Fehlerkette; aktive Fehler stehen somit am Ende und nicht am Anfang einer Fehlerkette. Menschen, die aktive Fehler bege-
3
hen, tragen neben ihrer eigenen Verantwortlichkeit die »Erblast« von latenten Fehlern wie unzureichende Ausbildung, problematische Dienstplangestaltung, ökonomische Ressourcenbegrenzung und vieles mehr. Ein Kritikpunkt ist die Linearität des Modells: Ein Fehler führt nicht geradlinig zum nächsten Fehler, sondern die bei Reason genannten »lokalen Auslöser« und »ungewöhnliche Zustände« treffen mit Fehlern zusammen. Man könnte von einem Netz aus Sicherheitsbarrieren sprechen, durch dessen Maschen Fehler »schlüpfen« können. Ob »Kette« oder »Netz« – das Ergebnis, der Unfall, ist letztlich aus der Verknüpfung der einzelnen Fehler und der Randbedingungen möglich. Schwerwiegende Ereignisse sind nicht durch einen Fehler einer Person verursacht, auch wenn es auf den ersten Blick so aussieht. Betrachten wir beispielsweise einen Assistenzarzt, der 2 Medikamente verwechselt und damit eine schwere Komplikation bei einem Patienten herbeiführt. Fragen, die zur Identifizierung von »Sicherheitslöchern« führen können, sind z. B. die nach dem Teamverständnis (Warum widerspricht die Pflegekraft nicht?), nach der Organisation des Arbeitsplatzes (Warum lagen 2 ähnlich aussehende Medikamente nebeneinander in einem Medikamentenfach?), nach der Dienstplangestaltung (Warum
. Abb. 3.1. Modell der Entstehung von Fehlern. (Nach Reason, 1990)
42
3
Kapitel 3 · Fehler und Unfälle
hatte der Assistenzarzt schon mehr als 24 h gearbeitet?). Jeder dieser Faktoren für sich genommen ist noch keine hinreichende Bedingung für das Ereignis. Erst das Zusammentreffen aller Faktoren führt zu dem Behandlungsfehler. Dieser Gedanke lässt sich auch so formulieren: Fehler sind in komplexen Arbeitssystemen »normal« und unvermeidlich, weil Menschen nicht immer fehlerfrei arbeiten können. Unfälle kommen jedoch nur zustande, wenn mehrere Sicherheitsbarrieren versagen. Das erklärt, dass Bemühungen um die Zuverlässigkeit einzelner Abläufe nicht unbedingt Unfälle verhindern. Wenn Systeme eng gekoppelt sind und komplexe Interaktionen vorherrschen (7 Kap. 2, 9 und 17), kann aus dem Zusammenwirken einzelner Fehler ein Unfall werden. Deshalb betonen neuere Konzepte der Sicherheitsforschung, dass Systeme
resilient sein sollten, d. h., Fehler dürfen nicht zu Unfällen führen (Überblick in Hollnagel, Woods & Leveson, 2006; ähnlich Wehner, 1992). Die Idee der latenten Bedingungen zeigt, dass in komplexen Systemzusammenhängen Entscheidungen, die für ein bestimmtes Ziel getroffen wurden, sich später unter dem Oberziel »Sicherheit« als falsch erweisen können, weil sie in Kombination mit anderen Faktoren Unfälle ermöglichten. Die Identifikation von Fehlern ist immer abhängig von den Zielkriterien, nach denen eine Handlung bewertet wird. Post hoc, nach dem Unfall, wird das Kriterium »Sicherheit« bei der Bewertung von Entscheidungen im Vordergrund stehen. Das muss zum Zeitpunkt des Handelns aber nicht der Fall gewesen sein – oder ein anderer Aspekt von Sicherheit stand im Vordergrund, wie das folgende Beispiel zeigt:
Beispiel In einem deutschen Krankenhaus wurden im Zuge der Renovierung des OP-Traktes die alten Holzschwingtüren durch automatische Edelstahlschiebetüren ersetzt. Das verfolgte Ziel war sicherheitsbezogen – die Verbesserung der Hygiene stand im Vordergrund; Edelstahltüren sind leicht zu desinfizieren. Die neuen Türen bestanden aber aus geschlossenen Flächen, während die alten Türen »Bullaugen«-Fenster hatten. Diese boten eine einfache Möglichkeit, im Vorbeigehen zu sehen, ob zur je-
! Was ein Fehler ist, wird von einem Zielkriterium aus entschieden.
Die systemische Perspektive zeigt, dass einzelne Fehlhandlungen nicht zu negativen Ergebnissen führen müssen: Andere Faktoren, wie Hilfe durch andere Personen, Kontrollmechanismen, Aufmerksamkeit oder auch Glück können das »Wirksamwerden« eines Fehlers verhindern. Der Zusammenhang von Fehlern im Sinn unerwünschter Ereignisse und Fehlern im Sinn falscher Handlungen ist also nicht eindeutig.
Hindernisse für eine systemische Sichtweise Es gibt einige Hindernisse dafür, Handlungsfehler und Unfälle als multikausal verursacht anzusehen. Reason (2001) fasst die folgenden, aus der Sozial-
weiligen OP Hilfe benötigt wurde. Ohne Fenster musste man die Türen eigens öffnen, was eine Störung darstellte und auch Zeit kostete. Dadurch entfielen Hilfsangebote an unerfahrenes oder überlastetes Personal – eine latente Bedingung für Unfälle. Nach einem OP-Zwischenfall war die Beurteilung: »Wie konnte man solche Türen einbauen!« – Die fensterlosen Türen waren aber zum Zeitpunkt des Einbaus als Fortschritt angesehen worden, nicht als Fehler – was für das Zielkriterium »Hygiene« auch zutraf.
psychologie bekannten Phänomene zusammen, die alle dazu führen, dass das Handeln oder die Absichten einer Person als ursächlich für Fehler gesehen werden. 4 Fundamentaler Attributionsfehler (Fiske & Taylor, 1984): Menschen haben die Tendenz, Handlungsergebnisse anderer Menschen der Person zuzuschreiben, während dieselbe Person bei sich selbst den Einfluss situativer Umstände hervorhebt. 4 Rückschaufehler (hindsight bias) (Fischhoff, 1975): Im Nachhinein ist man immer schlauer. Da man nach dem Unfall weiß, was richtig gewesen wäre, nimmt man an, die handelnde Person hätte dies – zum Zeitpunkt des Unfalls – auch wissen müssen.
43 3.3 · Jeder Fehler ein Schatz? Vom Nutzen der Zwischenfälle
4 Unvollständiges Schließen (counterfactual fallacy) (Miller & Turnbull, 1990): »Wenn jemand anders gehandelt hätte, wäre es anders gekommen« – das Wissen darum verleitet dazu anzunehmen, dass die handelnde Person verantwortlich ist für das Geschehen, weil sie so und nicht anders gehandelt hat. 4 Starke Betonung des freien Willens, v. a. in westlichen Kulturen – die Idee, dass die Umstände uns »handeln machen«, behagt uns nicht. Die Zuschreibung oder Übernahme persönlicher Verantwortung wird dem vorgezogen.
Menschen in komplexen Systemen: »Richtiges« und »falsches« Handeln Die systemische Perspektive kann ergänzt werden durch eine »neue Sichtweise« auf Fehler bzw. Menschen, die Fehler machen (Dekker, 2002, 2005): Es wird nicht nur gefragt, welche Handlung warum falsch war, sondern auch, warum genau diese Maßnahme aus Sicht der handelnden Person zum Zeitpunkt des Handelns sinnvoll war. »The new view of human error wants to understand why people made the assessments or decisions they made – why these assessments or decisions would have made sense from the point of view inside the situation. When you view people’s situation from the inside, as much like these people did themselves as you can reconstruct, you may begin to see that they were trying to make the best of their circumstances, under the uncertainty and ambiguity surrounding them. When viewed from inside the situation, their behavior probably made sense – it was systematically connected to features of their tools, tasks and environment.« (Dekker, 2002, S. 64 f.)
Diese Haltung versucht, den »hindsight bias« zu vermeiden, und erkennt an, dass Menschen Intentionen bilden und diesen gemäß denken und handeln. Im Moment des Handelns können andere Intentionen als Sicherheit im Vordergrund stehen, ohne dass die betreffende Person einen Fehler machen oder einen Unfall verursachen will. Zudem können falsche Annahmen über das System (mentales Modell, 7 Kap. 4 und 16) auch bei »richtiger« Intention zu Fehlern führen.
3
In vielen Lebenskontexten ist oftmals nicht eindeutig festlegbar, welche Handlungen »richtig« sind und was Fehler sein können (man denke z. B. an Beziehungen oder Kindererziehung). Im Umgang mit technischen Systemen scheint es einfacher: Wenn Menschen so handeln, dass das System das tut, was es tun soll, handeln sie »richtig«. Aber auch hier sind soziale Aushandlungsprozesse am Werk: Regelverletzungen (s. unten) oder »Abkürzungen« aufgrund von Erfahrungswissen machen deutlich, dass auch innerhalb soziotechnischer Systeme und sogar beim Bedienen von Maschinen Handlungsspielräume bestehen und verschiedene Konstruktionen von »richtig« und »falsch« möglich sind.
3.3
Jeder Fehler ein Schatz? Vom Nutzen der Zwischenfälle
Auch in der »neuen« Sichtweise, die nach Gründen für falsches Handeln fragt, sind Fehler negativ konnotiert. Fehler können aber – neben ihrer Eigenschaft als Sicherheitsrisiko – auch als Lerngelegenheit angesehen werden (Senders & Moray, 1991; Wehner, 1984, 1992). Wehner betont ebenfalls den positiven Einfluss, wenn er von der »potenziellen Vitalität fehlerhaften Handelns« spricht, weil Zielverfehlungen einen Perspektivenwechsel anregen sowie zu Skepsis und Reflexion: Dies gilt für Handlungsfehler einzelner Personen, die zum Lernen anregen, aber auch für das organisationale Lernen aufgrund von Unfällen: »Disasters can bring about‚full cultural readjustment’, provide new understanding of hazards and become a catalyst for change.« (Turner, 1978, S. 85 b)
Diese positive Sicht auf Fehler wird im Rahmen der Bemühungen um Sicherheit und Qualitätsmanagement gerne mit der Verheißung »Jeder Fehler ein Schatz!« angepriesen. Die Lernchance, die mehr im Blick auf den Fehler als im Fehler selbst steckt, braucht jedoch einen entsprechenden Kontext, in dem sie sich entfalten kann, wie z. B. Zeit zum Nachdenken, eine offene Kommunikationsatmosphäre (7 Kap. 8), Angstfreiheit und den Willen zu Veränderung. Große Unfälle mit desaströsen Auswirkun-
44
Kapitel 3 · Fehler und Unfälle
gen können eine solche Veränderungsbereitschaft hervorrufen (besonders im Schockzustand nach einem Unfall, vgl. Dekker, 2002). Häufig wird aber die Suche nach Ursachen und Veränderungsmöglichkeiten aufgrund der Angst vor Haftung und Straf-
verfolgung gerade nach einem Unfall eher beschränkt sein. Deshalb setzen lernwillige Organisationen verstärkt auf die Analyse von Zwischenfällen, bei denen es zu keinem (irreparablen) Schaden gekommen ist.
3 Unfälle, Zwischenfälle, minimale Ereignisse Ein Unfall ist ein unerwünschtes Ereignis, das Schaden mit sich bringt. Zwischenfälle sind Ereignisse, bei denen Fehler manifest geworden sind, aber kein größerer Schaden eintrat. Je nach Branche werden Unfälle und Zwischenfälle unterschiedlich abgegrenzt: In der Luftfahrt z. B. wird die Abgrenzung nach der Schwere des Schadens vorgenommen (z. B. Perrow, 1999; Strauch, 2001). Ein Zwischenfall ist hier ein Unfall ohne Schwerverletzte, Tote oder großen materiellen Schaden. In der Medizin wird ein Zwischenfall als ein Ereignis angesehen, das ein Unfall hätte werden können, aber keiner wurde (z. B. CIRS, 2001; St. Pierre, Hofinger & Buerschaper, 2007). Eine weitere Klasse von Ereignissen sind minimale Ereignisse (Weick & Sutcliffe, 2001) oder auch Friktionen (Dörner, 1989). Es sind kleine Abweichungen von vorgegebenen Prozessen, die normalerweise schnell und folgenlos korrigiert werden können, z. B. das Eindrehen einer falschen Funkfrequenz im Cockpit. Minimale Ereignisse sind normaler Bestandteil des Funktionierens komplexer Systeme. Sie bleiben »unter der Oberfläche« der Organisation, von außen gesehen passiert »nichts«. Sicher-
Natürlich bieten Zwischenfälle und minimale Ereignisse die besten Chancen zum Lernen, und es kann wirklich jeder Fehler als »Schatz« angesehen werden. Jede Prozessabweichung und jeder Fehler kann dazu verwendet werden, mögliche latente Unfallbedingungen aufzuspüren. Zudem wird hier auch der Blick auf menschliches Handeln als Sicherheitsressource gelenkt, da aufgezeigt werden kann, dass aus Zwischenfällen durch adäquates Handeln (oder Glück) kein Unfall geworden ist.
heitsrelevant werden sie, wenn lokale Ressourcen der Korrektur nicht ausreichen, dann kann sich ein Zwischenfall oder sogar Unfall entwickeln (. Abb. 3.2).
. Abb. 3.2. Unfälle, Zwischenfälle und minimale Ereignisse. (Nach St. Pierre, Hofinger & Buerschaper, 2005)
3.4
Fehlerarten und Fehlerformen
3.4.1 Arten von Fehlerklassifikationen In der Fehlerforschung ist es üblich, die beobachtbaren Erscheinungen von Fehlern von ihren Ursachen zu trennen. Die vielfältigen beobachtbaren »Fehlerformen« (Weimer, 1925; Reason, 1990) oder »Phänotypen« (Hollnagel, 1993) werden von den zugrunde liegenden Ursachen, den »Fehlerarten« oder »Genotypen« unterschieden. Eine Fehlerart, z. B. ein Aufmerksamkeitsdefizit, kann verschiedene Formen annehmen, z. B. eine Verwechslung von Handlungs-
45 3.4 · Fehlerarten und Fehlerformen
schritten, eine falsche Situationsdiagnose etc. Wichtig ist, dass Fehlerformen beobachtbar sind und damit intersubjektiv festlegbar; Fehlerarten dagegen beruhen auf theoretischen Annahmen über Handlungsregulation und Informationsverarbeitung. Je nach Forschungsinteresse und Hintergrund der Forschenden gibt es entsprechend dieser Unterteilung verschiedene Zugangsweisen zu Fehlern: 4 Welche Fehler gibt es? An welcher Stelle in einem Arbeitssystem oder im Verlauf des Handelns passieren Fehler? Diese Fragen werden durch die Bestimmung der Fehlerformen beantwortet. Klassifikationen dieser Art ermöglichen u. a. eine statistische Berechnung der Fehlerwahrscheinlichkeit. 4 Warum passieren Fehler? Der Fokus liegt hier auf Prozessen des Handelns, auf Motivation, Informationsverarbeitung, Handlungsregulation und Organisationstheorie. Ursachenorientierte Ansätze beinhalten immer auch eine zumindest grobe Klassifikation der Fehlerformen, die sie ja erklären wollen. Aus der Vielzahl der Fehlerklassifikationen (Überblick z. B. in Sharit, 2006; Wallace & Ross, 2006) werden im Folgenden einige bis heute verwendete Klassifikationen vorgestellt: Zunächst werden Klassifikationen dargestellt, die das Auftreten von Fehlern im Arbeitsprozess/-system beschreiben, darauf folgen Klassifikationen, die Ebenen von Fehlerursachen unterscheiden. Die übergreifende Klassifikation von Reason (1990) verbindet und erweitert viele der früheren Ansätze. Da Problemlöseprozesse in den meisten Klassifikationen nur als Stichwort vorkommen, werden sie hier ausführlicher besprochen.
3.4.2 Fehler im System?
Arbeitsprozessbezogene Klassifikationen
3
maßnahmen ergreifen – wenn die Konsequenzen von Fehlern relevant genug sind, dass sich die Mühe lohnt. Gegenstand dieser Klassifikation ist nicht das Handeln von Personen (nicht »human error«), sondern das Auftreten von unerwünschten Ereignissen in einem Arbeitssystem, unabhängig von ihrer Verursachung. Chapanis unterscheidet 3 Arten von Fehlern hinsichtlich ihrer Auftretenshäufigkeit: systematische, zufällige und sporadische Fehler (. Abb. 3.3). 4 Systematische Fehler sind solche, die immer wieder in dergleichen Weise bei einem bestimmten Arbeitsprozessschritt auftreten, unabhängig von der konkret handelnden Person. Abhilfe können Veränderungen des Prozesses oder Veränderungen der verwendeten Geräte schaffen sowie Personalauswahl und -training. 4 Zufällige Fehler treten aufgrund verschiedener Ursachen auf. Sie sind nicht verhinderbar, aber ihre Auswirkungen können abgefangen werden – hier helfen nur zusätzliche Sicherungssysteme, also Redundanzerhöhung. Dazu gehören »Failsafe-Systeme« (»beschränktes Versagen«: Wird eine nötige Handlung nicht ausgeführt oder eine falsche Handlung ausgeführt, wird das System heruntergefahren). 4 Sporadische Fehler sind Fehler, die selten und ohne erkennbares Muster auftreten. Sie sind ein Problem aller »ultrasicheren« (Amalberti, 2001) Organisationen. Die Seltenheit und Unterschiedlichkeit der Fehler erschweren nicht nur ihre Entdeckung und Analyse, sondern lassen auch die Kosten für zusätzliche Sicherheitsanstrengungen immens ansteigen. Diese Einteilung ist bis heute aktuell dahingehend, dass sie auf Fehlerursachen außerhalb der handelnden Person aufmerksam macht (z. B. inadäquates Design) und hilft, Schwerpunkte für Sicherheitsbemühungen zu identifizieren.
Klassifikation von Chapanis (1951)
Fehlerursprünge: Klassifikation von Meister (1971)
Die Klassifikation von Chapanis (1951) beruht auf der Überzeugung, dass die Analyse der Verteilung von Fehlern hilft, Systemprobleme zu entdecken und Gegenstrategien zu entwickeln. Wenn man weiß, wo im Arbeitsprozess welche Fehler auftreten können und wie wahrscheinlich diese sind, kann man Gegen-
Eine weitere, auf Arbeitssysteme bezogene Klassifikation ist die von Meister (1971), der unterscheidet, in welchem Teilsystem (technischer Systeme) Fehler ihren Ursprung haben: 4 »Operating error«: Das System wird nicht entsprechend der Intention bedient.
46
Kapitel 3 · Fehler und Unfälle
. Abb. 3.3. Fehlerklassifikation nach Auftretenshäufigkeit. (Nach Chapanis, 1951)
3
4 »Design error«: Designer und Konstrukteure achten nicht auf menschliche Eigenschaften. 4 »Manufacturing error«: Das System wurde nicht so gebaut, wie es geplant war. 4 »Installation and maintenance errors«: Das System wurde nicht korrekt installiert oder gewartet. Kategorien wie Herstellung und Wartung machen deutlich, dass Fehlerursachen räumlich und zeitlich weit entfernt von den am »scharfen Ende« handelnden Personen liegen können.
3.4.3 Ebenen von Fehlerursachen Klassifikationen, die Fehlerursachen beschreiben, beziehen sich meist auf Ursachen innerhalb der Person. Sie setzen ein theoretisches Modell des Handelns und der Fehlerentstehung voraus. Ursachen für Fehler werden in Motivationsprozessen und in internen oder externen auslösenden Bedingungen gesehen.
»Slips« und »lapses« (Norman, 1981) Die Activation-Trigger-Theorie (1981) von Norman beschreibt, wie Schemata Handlungssequenzen kontrollieren. Schemata werden aktiviert und bei entsprechenden Auslösebedingungen getriggert. Welches Schema handlungsleitend wird (es sind immer viele Schemata aktiviert), hängt von den Auslösebedingungen und dem Aktivierungsgrad ab. Norman unterscheidet Fehler, die durch falsche Schemaaktivierung entstehen, von denen, die durch kognitive Aktivität entstehen. Die erste Art von Fehlern nennt er »slips« (Ausrutscher). In ihrer Erscheinungsform ähneln sie den von Freud beobachteten Fehlern, z. B. dem Versprecher. Norman geht aber
davon aus, dass sie ausgelöst werden durch das Zusammentreffen von Umweltfaktoren und Schemata, die aufgrund von Intentionen aktiviert sind. Er unterscheidet 6 Klassen von »slips«, je nachdem, ob eine falsche Intention gebildet wird, ein falsches Schema aktiviert wird (durch externe Trigger-Reize oder Assoziationen), ein passendes Schema nicht aktiviert wird, Schemaaktivierung verloren geht (z. B. durch Vergessen der Intention oder bereits ausgeführter Handlungsschritte). »Mistakes« dagegen sind »Gedankenfehler«: kognitive Aktivität, z. B. Planen führt zu Handlungen, die der Intention widersprechen. Norman wählt Beispiele aus dem Alltagsleben, um diese Kategorien zu erläutern, z. B. Kaffee in die neben der Tasse stehende Müslischüssel gießen, eine falsche Taste tippen, sich versprechen. Normans Unterscheidung von »slips« und »mistakes« wurde in der Fehlerforschung generell übernommen und speziell für die Analyse von Fehlern in sicherheitsrelevanten Bereichen erweitert, z. B. von Reason (1990, 7 Kap. 3.4.4) wurden »slips« unterteilt in »slips« und »lapses«; »slips« beruhen nach Reason auf Aufmerksamkeitsproblemen, »lapses« auf Gedächtnisfehlern. Rasmussen (z. B. 1983) unterteilt »mistakes« in regelbasierte und wissensbasierte Fehler (s. unten). ! Da die Unterscheidung von »error« und »mistake« im Deutschen nicht möglich ist (beides wird mit »Fehler« übersetzt), werden in der deutschsprachigen Fehlerforschung häufig die Begriffe »mistakes«, »slips« und »lapses« beibehalten, um spezifische Formen menschlicher Fehler zu kennzeichnen.
Der anwendungsbezogene Nutzen der Unterscheidung liegt in den Möglichkeiten zur Fehlerprävention: Aufmerksamkeits- und Gedächtnisfehler (»slips«) sind durch aufmerksamkeitsfördernde Ar-
47 3.4 · Fehlerarten und Fehlerformen
beitsbedingungen (z. B. regelmäßige Pausen) reduzierbar, aber nie vollständig vermeidbar. Arbeitssysteme müssen also so entworfen werden, dass einzelne »slips« vom System aufgefangen werden und nicht zu Unfällen führen können (v. a. technische Redundanz). Dazu ist es nötig, die Anforderungen bei jedem Arbeitsschritt zu kennen und zu wissen, an welchen Stellen »slips« zu erwarten sind. Die Individualität der arbeitenden Person ist hier sekundär. »Mistakes« dagegen beruhen auf Wissen und Erfahrung, sie sind schwerer erkennbar; Präventionsmöglichkeiten liegen hier u. a. in Ausbildung und Training sowie in sozialer Redundanz.
Handlungsregulation und Informationsnutzung als Fehlerquelle (Hacker, 1998) Hacker (1998) versteht unter Fehlhandlung das fehlerhafte Ausführen von Handlungen oder das Ausführen falscher Handlungen im Arbeitsprozess. In Fehlern sind die Gesetzmäßigkeiten des menschlichen Handelns erkennbar. Fehler sind nur aus dem Zusammenspiel von Arbeitsbedingungen und psychischer Regulation von (Arbeits-)Tätigkeiten verstehbar. Hacker unterteilt mangelnde Informationsnutzung entsprechend der Ebenen der Handlungsregulation. Ähnlich wie Rasmussen (s. unten) unterscheidet er die sensumotorische Ebene (weitgehend automatisierte Steuerung) von der begrifflichperzeptiven (flexible Handlungsmuster) und der intellektuellen Ebene (neuartige, komplexe Pläne). Daneben ist als Regulationsgrundlage das vorhandene Wissen relevant. Fehler auf der sensumotorischen Ebene sind den »slips« zuzuordnen; Fehler auf der intellektuellen Ebene können z. B. Zielsetzungsfehler sein. Fehlhandlungen entstehen letztlich immer durch einen Mangel an zutreffenden und handlungswirksamen Informationen, die zu einem bestimmten Zeitpunkt für ein zielgerechtes Handeln unentbehrlich sind. Der Mangel kann objektiv gegeben sein – fehlende oder nicht zugängliche Information – oder durch mangelnde (fehlende oder falsche) Nutzung vorhandener Information entstehen. Der Blick wird hier auf die Arbeitsbedingungen gelenkt, die so gestaltet sind, dass Information nicht oder nicht angemessen verfügbar ist.
3
Für die Prävention von Fehlern sind folgende Fragen zu beantworten: 4 Welche Informationen sind für die jeweilige Tätigkeit nötig? 4 Was sind die Ursachen dafür, dass Informationen in den einzelnen Handlungsschritten nicht angemessen verfügbar sind?
Fehler auf den Ebenen der Handlungsregulation (Rasmussen, 1983) Rasmussen (1983) unterscheidet hinsichtlich der Analyse von Fehlern bei der Bedienung technischer Systeme 3 Ebenen der Handlungsregulation (. Abb. 3.4): 4 Fertigkeitsbasiertes (»skill-based«) Handeln 4 Regelbasiertes (»rule-based«) Handeln 4 Wissensbasiertes (»knowledge-based«) Handeln Diese Hierarchie der Handlungsebenen, auch »Rasmussen-Leiter« genannt, bildet verschiedene Wege ab, um von einer Information (über das technische System) zu einer Aktion zu kommen. Im einfachsten Fall triggert die Information quasi automatisch die Aktion; im Fall, dass keine automatische Aktion aufgerufen werden kann, wird nach einer Diagnose der Situation eine passende Handlungsregel ausgewählt und anhand dieser dann eine Aktion. Kann keine Handlungsregel gefunden werden, muss eine Strategie entwickelt werden. Ist die Situation unklar, kommen Prozesse der Zielbildung hinzu. Auf jeder Regulationsebene treten spezifische Fehler auf: 4 »Skill-based errors«: Diese entsprechen Normans »slips«; es sind Fehler in der Ausführung eigentlich beherrschter korrekter Handlungen. 4 »Rule-based errors«: Es kommt aufgrund fehlender Information zu einem falschen Verständ-
. Abb. 3.4. Regulationsebenen. (Nach Rasmussen, 1983)
48
Kapitel 3 · Fehler und Unfälle
nis der Situation, entsprechend folgt die Anwendung unpassender Verhaltensregeln. 4 »Knowledge-based errors«: Falsches oder fehlendes Wissen oder die mangelnde Anwendung von Wissen auf unbekannte Situationen.
3
Rasmussens Modell ist stark kognitiv geprägt und bezieht sich v. a. auf gut geübte Arbeitsaufgaben in technischen Systemen. Der Kontext (die Aufgabe) ist sehr wichtig, da fehlende oder falsch dargestellte Informationen korrektes Handeln unmöglich machen. Rasmussen (1982) hat verschiedene Fehlerarten entlang der Handlungsebenen identifiziert (. Abb. 3.5):
3.4.4 Unsichere Handlungen
(Reason, 1990) Die bekannteste Klassifikation, die Fehlerarten und -formen kombiniert und dabei die Arbeit von Norman und Rasmussen integriert, stammt von Reason (1990), der Formen »unsicherer Handlungen« untersucht (. Abb. 3.6). Er klassifiziert diese danach, 4 auf welcher Ebene der Handlungskontrolle (7 Kap. 4) sie vorkommen (Fehler in der Ausführung vs. Fehler in der Planung) und
. Abb. 3.5. Fehler auf den verschiedenen Handlungsebenen. (Nach Rasmussen, 1982; übersetzt von G. Hofinger)
4 ob sie auf Absicht beruhen oder nicht (Regelverstöße vs. Fehler). Wichtig ist, dass Reason nicht nur Fehler klassifiziert, sondern Handlungen, die im Ergebnis zu einer Verringerung von Sicherheit führen können – dies sind Fehler, aber eben auch Regelverletzungen oder suboptimale Pläne, die nicht eigentlich falsch sind.
Fehler in der Ausführung und Fehler in der Planung Eine Handlung wird mit einer Absicht durchgeführt und erreicht doch nicht das angestrebte Ziel. Daraus lässt sich die folgende grundlegende Unterscheidung ableiten, die in psychologischen Fehlerklassifikationen immer zu finden ist (Norman, 1981; Klumb, 1995, S. 3): 4 Fehler bei der Ausführung einer Handlung: Ein Misserfolg tritt ein, weil Handlungen anders ausgeführt werden, als sie ursprünglich geplant waren. Die geplante Handlung ist angemessen, jedoch weicht die ausgeführte Handlung vom beabsichtigten Verlauf ab. Ausführungsfehler lassen sich nach ihrem Ursprung nochmals unterteilen (Reason, 1990) in
49 3.4 · Fehlerarten und Fehlerformen
3
. Abb. 3.6. Fehlerklassifikation. (Nach Reason, 1990)
5 Aufmerksamkeitsfehler, die v. a. dann auftreten, wenn automatisierte Handlungen in vertrauter Umgebung durchgeführt werden, und 5 Gedächtnisfehler, bei denen Teile von Arbeitsabläufen nicht korrekt erinnert werden. 4 Fehler bei der Planung einer Handlung: Die Handlung wird so durchgeführt, wie sie geplant war. Die beabsichtigte Folge des Handelns tritt jedoch nicht ein. Hier liegt das Problem in der Angemessenheit des Plans, der je nach Handlungsanforderung anders ausfallen kann: a) Ist die Situation bekannt, besteht dieser »Plan« in der Anwendung einer Regel. Fehler in der Anwendung von Regeln können – die falsche Anwendung einer »guten« Regel (weil Kontraindikationen nicht beachtet wurden), – die Anwendung einer »falschen« Regel oder – die Nichtanwendung einer »guten« Regel sein. b) Fehlt Wissen über die Situation, so muss ein Plan aus dem vorhandenen Wissen generiert werden. Dabei können Fehler entstehen, weil Wissen falsch ist oder im falschen Kontext angewendet wird. Planungsfehler können schwieriger zu entdecken sein als Fehler in der Ausführung. Menschen kön-
nen Abweichungen einer Handlung von einer Handlungsabsicht erkennen; dass ein Plan unangemessen ist, kann jedoch lange unbemerkt bleiben. Planungsfehler werden oft erst relativ spät daran erkannt, dass das intendierte Ziel nicht erreicht wurde.
Fehler und Regelverstöße Die bisher aufgeführten Fehlerformen bewirken, dass eine Absicht nicht umgesetzt werden kann oder ein Ziel nicht erreicht wird. Sie werden auch von dem oder der Handelnden als Fehler wahrgenommen. Es gibt jedoch auch Verhaltensweisen, die nicht von der Person, wohl aber von anderen als Fehler eingestuft werden: das Nichtbeachten von Regeln und Handlungsvorschriften. Ein absichtliches Abweichen von solchen Verfahrensvorschriften wird als Verstoß (»violation«) bezeichnet. Verstöße beispielsweise gegen Sicherheitsregeln werden absichtlich begangen, aber haben (außer im Fall von Sabotage) nicht das Ziel, eine unsichere Handlung zu begehen oder gar einen Unfall herbeizuführen. Regelverstöße werden begangen, weil sie sinnvoll sind für die Ziele, denen sie dienen: »Sacherfordernisse« (z. B. mehrmaliges Überprüfen von Arbeitsschritten) kollidieren mit anderen Zielen und Bedürfnissen. Diese können persönlicher Art sein – Schlafbedürfnis, Kompetenzstreben, Statussicherung etc. Oder sie können aus arbeitsbezogenen Zielen entstehen – Zeitersparnis, Ressourcenersparnis etc.
50
3
Kapitel 3 · Fehler und Unfälle
Regelverstöße entspringen z. T. der Konkurrenz der Sicherheitsziele zu Effektivität, Einfachheit etc. Eine weitere Ursache für Regelverstöße liegt im Prinzip des Lernens: Wenn Sicherheitsregeln mit »Puffern« ausgestattet sind, also eine Übertretung nicht sofort bestraft wird, lernen Menschen, dass sie solche Regeln gefahrlos übertreten können. Sie werden im Gegenteil noch für die Übertretung belohnt, da die anderen Ziele (schnelles, einfaches Handeln, Bequemlichkeit) erreicht werden. Solche Regelübertretungen erfolgen bald gewohnheitsmäßig (Routineverstöße) (Vaughan, 1997) und gehören dann zum festen Verhaltensrepertoire sowie zur Unternehmenskultur (7 Kap. 9). Sie gelten nach ihrer »Etablierung« als Gewohnheit erst dann als Fehler, wenn sie zu einem Unfall beigetragen haben.
Regelverstöße (»violations«) 4 ... sind bewusstes, beabsichtigtes Handeln, kein »Irrtum«. 4 ... werden von der handelnden Person nicht als Fehler angesehen. 4 ... werden von anderen bzw. im Nachhinein als Fehler beurteilt. 4 ... werden begangen, weil andere Ziele/ Motive als die mit der Regel verfolgten im Vordergrund stehen. 4 ... werden »belohnt« (verstärkt), wenn kein Schaden eintritt, sodass sie zur Gewohnheit werden (»Routineverstöße«).
3.4.5 Fehler beim Problemlösen Ein wichtiger Teil der Fehlerforschung widmet sich dem regel- oder fähigkeitsbasierten Handeln (Rasmussen, 1983): Die Handelnden hätten eigentlich wissen können, was zu tun ist (es hätte richtige Lösungen gegeben), und sie hätten es auch tun können (z. B. weil es Fachleute waren). Aus verschiedenen Gründen kam es dennoch zu einer falschen Handlung oder nicht zu einer richtigen. Die Quelle des Fehlers kann in basalen Prozessen der Informationsverarbeitung liegen (Gedächtnis, Aufmerksamkeit), in unangemessenen Handlungszielen oder schlechter Planung. Seltener geht es um Entscheidungen in Bereichen, für die es (noch) keine Regellösung gibt und Handelnde mit komplexen Problemen konfrontiert sind, für die sie neuartige Problemlösungen finden müssen. Es handelt sich um wissensbasierte Fehler in der Reason’schen Terminologie. Fehlerklassifikationen, wie die oben vorgestellte, die v. a. Fehler beim Bedienen komplexer technischer Anlagen wie Kernkraftwerke erfassen sollen, fassen alle wissensbasierten Fehler (»mistakes«) zusammen. Wissensbasiertes Handeln wurde in der Problemlöseforschung seit den 1980er Jahren erforscht. Problemlösefehler sind nicht so eindeutig zu klassifizieren wie motorische oder basale kognitive Fehler, v. a. weil weniger eindeutig ist, was »richtiges« Handeln oder Denken gewesen wäre. Situationen, bei denen eine Lageeinschätzung und die erforderlichen Handlungen erst durch Denken ermittelt werden müssen, erfordern Problemlösen. . Tab. 3.1 zeigt die wichtigsten Anforderungen
. Tab. 3.1. Anforderungen und Fehler beim Problemlösen. (In Anlehnung an Dörner, 1989; Dörner & Schaub, 1995; Hofinger, 2003)
Handlungsanforderung
»Kardinalfehler«
Zielbildung und -elaboration
4 »Ad-hocismus«: es wird ohne ausreichende Zielklärung und Planung gehandelt 4 Zielkonflikte werden nicht beachtet
Informationssammlung und Modellbildung
4 Übergeneralisierung bestehenden Wissens 4 Suche nach bestätigender Information
Planen
4 Planoptimismus 4 Einkapselung 4 Nebenwirkungen und Risiken werden vernachlässigt
Kontrolle und Reflexion
4 Die Auswirkungen des Handelns werden nicht nachhaltig kontrolliert 4 Fehlende Reflexion
51 3.5 · Ursachen für Fehler
an Problemlöser und bestimmte »Kardinalfehler« im Umgang mit komplexen Problemen. Anders als bei »slips« und »lapses« sind diese Phänomene nicht Fehler an sich, obwohl sie zu schlechten (oder suboptimalen) Entscheidungen führen. Im Gegenteil: Die besprochenen Mechanismen können aus Sicht der psychischen Regulation mitunter notwendig und sinnvoll sein. »Erkenntnis und Irrtum fließen aus denselben Quellen; nur der Erfolg vermag beide zu scheiden. Der klar erkannte Irrtum ist als Korrektur ebenso erkenntnisfördernd wie die positive Erkenntnis. Es sind dieselben psychischen Funktionen, nach denselben Regeln ablaufend, welche einmal zur Erkenntnis, das andere Mal zum Irrtum führen.« (Mach, 1905, S. 123)
Beispielsweise ist die Fähigkeit zur Komplexitätsreduktion nötig, damit Menschen sich in der Welt zurechtfinden können. Ein Zuviel an Information auszublenden ist ein Schutzmechanismus, der hilft, Handlungsfähigkeit aufrechtzuerhalten. Insofern ist Selektion von Information kein Fehler. Andererseits dient Informationsselektion eben der Befriedigung des Kompetenzschutzbedürfnisses (7 Kap. 6) und nicht der Lösung des Sachproblems. Mit Blick auf Handlungsergebnisse kann also Informationsselektion ein Fehler sein.
3.5
Ursachen für Fehler
Die Suche nach generellen Ursachen »hinter« den Fehlerarten zeigt kein eindeutiges Ergebnis: Viele Fehlerarten sind sowohl durch Faktoren außerhalb der Person wie durch motivationale und kognitive Faktoren verursacht. Dennoch werden hier überblicksartig die Ebenen von Fehlerursachen innerhalb und außerhalb der Person zusammengefasst (»exogenous« vs. »endogenous errors«, Senders & Moray, 1991). Einige Eigenheiten der Handlungsregulation wurden oben als wichtige Ursache für Fehler (Fehlerart) schon angesprochen. a) Fehlerursachen außerhalb der handelnden Person liegen zum einen in Organisationsfaktoren (7 Kap. 2 und 9; z. B. Sicherheitskultur, Zielprioritäten in der Organisation) und in der Ar-
3
beitsumgebung (z. B. Lärm, Arbeitszeiten, Geräteausstattung). Zum anderen können die Arbeitsaufgabe (z. B. Komplexität, Strukturiertheit) und das Arbeitsteam (z. B. Kommunikationsregeln, Erfahrung) Fehler verursachen. b) Fehlerursachen innerhalb der Person liegen auf 3 Ebenen: 5 Physiologische und biologische Faktoren: Die körperliche Ausstattung des Menschen kann Ursache von Fehlern sein – allerdings nur, wenn Arbeitssysteme nicht an diese Gegebenheiten angepasst sind. Müdigkeit z. B. führt zu Wahrnehmungs- und Denkfehlern, allerdings sollten Menschen in sicherheitsrelevanten Bereichen nicht müde arbeiten müssen. Andere Beispiele für biologische Fehlerursachen sind Abhängigkeit von Sauerstoff, Ablenkung durch Lärm, Aufmerksamkeitsstörungen bei Krankheit etc. Biologische und physiologische Faktoren sind mit einer gewissen Varianz für alle Menschen relevant – will man sie bei der Gestaltung von Arbeitssystemen beachten, spielt kaum eine Rolle, wer die Tätigkeit ausführt. 5 Zum anderen sind individuelles Wissen, Fertigkeiten und Fähigkeiten als Fehlerursachen relevant. Diese Ebene ist die spezifisch individuelle, hier kommt es auf die konkrete Person an. Beeinflussbar sind diese Faktoren über Personalauswahl sowie Ausund Weiterbildung. 5 Weiterhin sind Mechanismen der menschlichen Informationsverarbeitung und Motivationsregulation als Fehlerquellen bedeutsam. Diese sind im Prinzip bei allen Menschen vorhanden, können aber individuell unterschiedlich stark ausgeprägt sein. Im Folgenden werden einige dieser psychologischen Fehlerursachen kurz besprochen.
3.5.1 Ressourcenschonung Viele Fehler können auf die Anpassung der Informationsverarbeitungsprozesse an begrenzte kognitive Ressourcen zurückgeführt werden (Dörner, 1999). Diese basale Notwendigkeit der Ressourcenschonung, v. a. die sparsame Verwendung des bewussten
52
3
Kapitel 3 · Fehler und Unfälle
Denkens, zeigt sich insbesondere in der Tendenz zur Komplexitätsreduktion und in der Bildung von Handlungsroutinen (Gewohnheiten) und Automatismen (Rasmussen, 1983). Die Tendenz, Routinen zu bilden, ist auch in den von Reason (1990, S.115 f.) identifizierten basalen Heurismen der Informationsverarbeitung wiederzufinden: Wahrnehmungsinhalte werden nach Ähnlichkeit zu vorhandenen Schemata erkannt (»similarity matching«); von mehreren möglichen Schemata wird dasjenige gewählt, das bislang am häufigsten vorkam (»frequency gambling«). Menschen suchen nach bekannten Mustern – und wenden bekannte Regeln an –, ehe sie neue Lösungen erdenken. Menschen bevorzugen das sparsame fertigkeits- und regelbasierte Handeln vor dem wissensbasierten Handeln und problemlösenden Denken.
3.5.3 Überwertigkeit des aktuellen
Motivs Die Motivauswahl wird über Prozesse der gegenseitigen Hemmung so gesteuert, dass das aktuelle, handlungsleitende Motiv gegenüber konkurrierenden abgeschirmt wird (Dörner, 1999). Diese Abschirmung führt zu einer Überwertigkeit des aktuellen Motivs: »Verhaltensoszillation« wird verhindert, wir können zielgerichtet handeln, ohne uns ablenken zu lassen. Dadurch, dass aktuelle Bedürfnisse stärker sind als antizipierte, lösen Menschen Probleme, die sie im Moment haben, nicht solche, die sie (vielleicht) haben werden (kurzfristige Ausrichtung des Handelns).
3.5.4 Kompetenzschutz
und soziale Motive 3.5.2 Aktives Gedächtnis Gedächtnisinhalte werden kontinuierlich verändert und umorganisiert, so wie es den aktuellen Bedürfnissen und der Situation entspricht. Erinnerungen sind eher Rekonstruktionen als Abrufe. Die einzelnen Gedächtnisinhalte sind assoziativ miteinander verknüpft, was einen sehr schnellen Aufruf persönlich relevanter Informationen erlaubt – nur dass persönlich relevant nicht immer sachlich relevant bedeutet. Auch sind Lernen und Erinnern emotionsabhängig: Emotional aufgeladene Inhalte fallen uns z. B. schneller wieder ein. Das »aktive Gedächtnis« ist ebenso zwiespältig wie die o. g. Ökonomietendenz, da es Irrtümer erlaubt und man Rekonstruktion und Abruf nicht zuverlässig unterscheiden kann. Über das Prinzip der Bahnung (»Was oft aufgerufen wird, ist am leichtesten wieder zugänglich«) neigt man dazu, das zu denken, was man schon häufiger dachte, also konservativ an neue Probleme heranzugehen. Neben der Begrenztheit der kognitiven Ressourcen und Gedächtnisprozesse spielen motivationale Faktoren eine wichtige Rolle. Hier ist besonders die Überwertigkeit des aktuellen Motivs, der Schutz des Kompetenzempfindens und das Streben nach sozialer Anerkennung zu nennen.
Kompetenz, das Gefühl, etwas bewirken zu können, ist nötig, um überhaupt zu handeln (7 Kap. 6). Menschen haben deshalb ein starkes Motiv, ihr Kompetenzgefühl zu schützen und so die Handlungsfähigkeit aufrechtzuerhalten. Aus diesem Motiv erwachsen häufig Ursachen schlechter Entscheidungen, wie z. B. die Tendenz zu bestätigender Informationssuche (»confirmation bias«; Wason, 1960). Auf der anderen Seite gibt es ein starkes Motiv nach Ausweitung der Kompetenz. Dieses äußert sich in Neugier, der Bereitschaft zu lernen, aber auch in Machtstreben und in der Bereitschaft, Risiken auf sich zu nehmen, etc. Die Einbettung des Menschen in seinen sozialen Kontext ist lebensnotwendig. Menschen brauchen die Nähe und die Akzeptanz anderer Menschen. Beides ist wiederum mit dem Kompetenzgefühl verknüpft. Um Akzeptanz und Status in der Gruppe nicht zu gefährden, weisen Menschen ihre Gruppe evtl. nicht auf Fehler hin und verzichten auf Zielklärung in Gruppen.
3.6
Zuverlässigkeit und Fehlerfreundlichkeit
Kennt man mögliche Fehler in einem System und ihre Wahrscheinlichkeit des Auftretens, kann daraus die Zuverlässigkeit des Systems (»reliability«) be-
53 3.7 · Zusammenfassung
rechnet werden. Die Zuverlässigkeit wird numerisch angegeben als Reliability = 1–Human error probability.
Letztere ist der Anteil der fehlerhaft durchgeführten Aufgaben eines Typs an allen Aufgaben dieses Typs. Je nach akzeptablem Risiko müssen aus der Analyse erkannte Möglichkeiten der Fehlerreduktion genutzt werden – so lange, bis man das System für ausreichend zuverlässig hält (Kirwan, 1994). Für die Analyse der Fehlerwahrscheinlichkeiten werden je nach Branche unterschiedliche qualitative und quantitative Analysetools verwendet. Es wird gefragt, welche Fehler bei welchem Prozessschritt auftreten können und wie wahrscheinlich diese sind. Zuverlässigkeitsanalysen beinhalten einen klassifizierenden Teil und einen Bewertungsteil. Fehlerwahrscheinlichkeiten zu berechnen erfordert die Möglichkeit, viele Male dieselbe Handlung zu beobachten und ihre Richtigkeit zu diagnostizieren. Deshalb beziehen sich quantitative Fehleranalysen auf einfache, häufig wiederholbare Handlungen. Fehlerwahrscheinlichkeiten bei komplexeren kognitiven Aufgaben sind schwer zu berechnen. Hinzu kommt, dass die Messungen mit einzelnen Personen durchgeführt werden – positive und negative Teameffekte werden nicht mit einberechnet (z. B. gegenseitige Kontrolle oder auch Verantwortungsdiffusion; 7 Kap. 7).
3
Es gibt etliche Methoden der Zuverlässigkeitsanalyse; ein aktueller Überblick findet sich in Stanton, Salmon, Walker, Barber & Jenkins (2005). Beispiele bekannter Tools sind: 4 FMEA (Failure Mode and Effects Analysis; Willis, 1992) 4 THERP (Technique for Human Error Rate Prediction; Swain & Guttman, 1983) 4 Human Error Identification in Systems Tool (Kirwan, 1994) Zuverlässigkeitsanalysen werden v. a. in Kernkraftanlagen und beim Militär verwendet (in Kernkraftanlagen sind Zuverlässigkeitsanalysen Voraussetzung für die Erlangung der Betriebserlaubnis). Wichtig ist, dass das Ziel nicht »absolute« Sicherheit ist, sondern genügend hohe Zuverlässigkeit, d. h. ein akzeptables Risiko. Die Festlegung der nötigen Zuverlässigkeit ist eine Frage der Bewertung und nicht dem beurteilten System inhärent. Über die Fehlerwahrscheinlichkeiten einzelner Systemelemente wird so die Sicherheit des Systems abgeschätzt. Dabei werden allerdings komplexe Interaktionen in Systemen außer Acht gelassen. Deshalb zeigt die Erfahrung, dass »hohe technische und hohe menschliche Zuverlässigkeit nicht zwangsläufig zu einem verlässlichen Gesamtsystem« führen (Giesa & Timpe, 2002, S. 65). Aus diesem Grunde wird das Konzept der Resilienz immer wichtiger: Systeme müssen so gestaltet sein, das sie trotz menschlicher Fehler keine Unfälle produzieren (7 Kap. 2).
Beispiel Die folgenden Beispiele für Fehlerwahrscheinlichkeiten wurden von Swain & Guttman (1983) in Kernkraftwerken gemessen. Angegeben sind die Fehlerwahrscheinlichkeiten: 4 Einen Graphen falsch ablesen: p~0,01 4 Eine Analoganzeige falsch ablesen: p~0,03 4 Ein Stellteil bei hohem Stress in die falsche Richtung bewegen: p~0,5 Generell gilt, dass die Fehlerwahrscheinlichkeit bei einfachen, häufig geübten Aufgaben sehr gering ist (im Bereich von 0,001). Für komplexe, selten durchgeführte Aufgaben wurden unter Stress Fehlerraten von nahe 1 gemessen.
3.7
Zusammenfassung
4 Ein Fehler liegt vor, wenn eine beabsichtigte Handlung, zu der es eine Alternative gab, nicht das intendierte Ergebnis erbrachte (Zielverfehlung). Fehler können auf allen Ebenen der Handlungskontrolle begangen werden (Automatismen, Regelanwendung, Wissensanwendung, Problemlösen). 4 Was ein Fehler ist, wird von dem Zielkriterium aus entschieden. 4 Klassische Fehlerforschung fragt, was genau falsch gemacht wird und warum. Die erste Frage führt zur Klassifikation von Fehlern, die zweite Frage zur Suche nach Ursachen.
54
3
Kapitel 3 · Fehler und Unfälle
4 Sicherheitsorientierte Fehlerforschung geht vom Unfall oder anderen Ereignissen aus und fragt nach deren Verursachung, u. a. durch Fehler. Nach der Systemperspektive entstehen Unfälle, wenn Fehlentscheidungen auf vielen Ebenen eines Arbeitssystems zusammenwirken und die Sicherheitsbarrieren versagen. Fehler sind unvermeidbarer Teil menschlichen Handelns. Unfälle sind vermeidbar. 4 Fehler können als Chance zum Lernen genutzt werden; hierfür sind besonders Zwischenfälle und minimale Ereignisse wertvoll. 4 Fehler können in der Planung oder in der Ausführung von Handlungen liegen. 4 Nicht jede unsichere Handlung ist ein Fehler; Regelverstöße werden von der handelnden Person als richtig für ihre handlungsleitenden Ziele angesehen. 4 Problemlösefehler sind schwerer zu beurteilen, da sie für die interne Regulation funktional sein können, z. B. der Aufrecherhaltung des Kompetenzgefühls dienen. Zwei Punkte sollen hier noch angesprochen werden, die bei der Beschäftigung mit Fehlern auffallen: 1. Die Fehlerforschung befasst sich fast ausschließlich mit dem Individuum – Fehler, theoretische Ableitungen oder Klassifikationen von Fehlern, z. B. bezüglich der Veränderung durch die Anwesenheit anderer Menschen oder die Arbeit in Teams, haben in diesen Ansätzen wenig Platz. Wissen darüber ist in der Sozialpsychologie vorhanden, allerdings steht auch hier eine Klassifikation von Teamfehlern, z. B. Phänomene wie Führungs- und Verantwortungsdiffusion, unklare Kommunikation, Verschiebung der Risikobereitschaft, Konflikte, noch aus. Ebenso fehlt ein Modell der Fehlerentstehung in Gruppen analog den Modellen von Norman, Rasmussen und Reason für Einzelpersonen. 2. Obwohl es in der Fehlerforschung um den einzelnen Menschen geht, wird dieser reduziert: Die Fehlerforschung ist (abgesehen von den psychoanalytischen Ansätzen) kognitivistisch. Emotionen und Motivationen kommen nicht vor, die Modelle beginnen mit einer vorhandenen Intention. Emotionen tauchen allenfalls in Form von »Stress« auf, der Fehler provoziert. Emotionale
Konsequenzen von Fehlern werden nicht beschrieben, ebenso wenig wie andere Emotionen. Als Ausblick für die Fehlerforschung ist deshalb zu wünschen, dass nach der Wiederentdeckung der Kognition auch Emotion und Motivation sowie die soziale Einbindung des Menschen Eingang in die Fehlerforschung findet.
3.8
Literatur
Amalberti, R. (2001). The paradoxes of almost totally safe transportation systems. Safety Science 37 (2–3), 109–126. Chapanis, A. (1951). Theory and method for analyzing errors in man-machine systems. Annals of the New York Academy of Science, 51, 1179–1203. CIRS (2001). Critical Incident Reporting System [online document]. URL: https://www.cirsmedical.ch/demo/cirs/cirshelp.phpxx (gelesen 20.08.2007). Dekker, S. (2005). Ten questions about human error. A new view of human factors and system safety. London: Lawrence Erlbaum. Dekker, S. (2002). The field guide to human error investigations. Aldershot: Ashgate. Dörner, D. (1989). Die Logik des Misslingens. Reinbek bei Hamburg: Rowohlt. Dörner, D., Kreuzig, H. W., Reither, F. & Stäudel, T. (Hrsg.) (1983). Lohhausen. Vom Umgang mit Unbestimmtheit und Komplexität. Bern: Huber. Dörner, D. & Schaub, H. (1995). Handeln in Unbestimmtheit und Komplexität. Organisationsentwicklung, 14, 34–47. Dörner, D. (1999). Bauplan für eine Seele. Reinbek bei Hamburg: Rowohlt. Egger, M. (2001). Arbeitswissenschaft im Kontext sich wandelnder Rahmenbedingungen. Mering: Hampp. Fischhoff, B. (1975). Hindsight is not foresight: The effect of outcome knowledge on judgement under uncertainty. Journal of Experimental Psychology: Human Perception and Performance, 1, 288–299. Fiske, S. T. & Taylor, S. E. (1984). Social cognition. Reading, Mas: Addison-Wesley. Freud, S. (1901). Psychopathologie des Alltagslebens. Reprint 1948. Frankfurt a. M.: Fischer. Gauss, C. F. (1823). Theoria combinationis observationum erroribus minimis obnoxiae. Commentationes societ. reg. Scient. Götting. rec. Vol. V. Hrsg. 1880 von der Königlichen Gesellschaft der Wissenschaften. Leipzig: Teubner. Giesa, H. G. & Timpe, K.-P. (2002). Technisches Versagen und menschliche Zuverlässigkeit: Bewertung der Zuverlässigkeit in Mensch-Maschine-Systemen. In K.-P. Timpe, T. Jürgensohn & H. Kolrep (Hrsg.), Mensch-Maschine-Systemtechnik (S. 63–106). Berlin: Symposion. Goethe, J. W. v. (1820). Hör-, Schreib- und Druckfehler. Kunst und Altertum, II, 177–185.
55 3.8 · Literatur
Hacker, W. (1998). Allgemeine Arbeitspsychologie. Psychische Regulation von Arbeitstätigkeiten. Bern: Huber. Hagen, E. & Mays, G. (1981). Human Factors Engineering in the U.S. Nuclear Arena. Nuclear Safety, 17 (3), 315–326. Hofinger, G. (2003). Fehler und Fallen beim Entscheiden in kritischen Situationen. In S. Strohschneider (Hrsg.), Entscheiden in kritischen Situationen. Herausgegeben im Auftrag der Plattform »Menschen in komplexen Arbeitswelten« e. V. (S. 115–136). Frankfurt a. M.: Verlag für Polizeiwissenschaften. Hollnagel, E. (1993). Human reliability analysis: Context and control. London: Academic Press. Hollnagel, E., Woods, D. & Leveson, N. (2006). Resilience engineering. Concepts and precepts. Aldershot: Ashgate. Kahneman, D., Slovic, P. & Tversky, A. (1982). Judgement under uncertainty: Heuristics and biases. Cambridge UK: Cambridge University Press. Kirwan, B. (1994). A guide to practical human reliability assessment. London: Taylor & Francis. Klumb, P. L. (1995). Attention, action, absent-minded aberrations. A behaviour-economic approach. Frankfurt a. M.: Lang. Mach, E. (1905). Erkenntnis und Irrtum, Skizzen zur Psychologie der Forschung. Dordrecht: D. Reidel. Meister, D. (1971). Human factors: Theory and practice. Hoboken: Wiley. Metzger, W. (1936). Gesetze des Sehens. Frankfurt a. M.: Kramer. Miller, M. W. & Turnbull, W. (1990). The counterfactual fallacy. Confusing what might have been with what ought to have been. Social Justice Research, 4, 1–9. Necker, l. A. (1832). Ueber einige merkwürdige optische Phänomene. Annalen der Physik, 103 (3), 497–504. Norman, D. A. (1981). Categorization of action slips. Psychological Review, 88 (1), 1–15. Perrow, C. (1999). Normal accidents. Living with high-risk technologies. Princeton NJ: Princeton University Press. Rasmussen, J. (1983). Skills, rules, knowledge – signals, signs and symbols and other distinctions in human performance models. IEEE transactions on systems, Man and cybernetics, Vol. SMC-13, No. 3, 257–267. Rasmussen, J. (1982). Human errors – A taxonomy for describing human malfunction in industrial installations. Journal of Occupational Accidents, 4/1982, 311–333. Reason, J. (1990). Human error. Cambridge UK: Cambridge University Press. Reason, J. (1997). Managing the risk of organisational accidents. Aldershot: Ashgate. Reason, J. (2001). Foreword. In B. Strauch (Ed.), Investigating human error: incidents, accidents, and complex systems (XII– XVII). Aldershot: Ashgate.
3
Rigby, L. (1970). The nature of human error, 24 th Annual Technical Conference Transactions of the ASQC, pp. 457–466. Milwaukee: American Society for Quality Control. Senders, J. W. & Moray, N. P. (1991). Human error: Cause, prediction, and reduction. Hillsdale, N. J.: Erlbaum. Sharit, J. (2006). Human Error. In G. Salvendy (Ed.), Handbook of human factors and ergonomics, 3rd Edition (pp. 708–760). Hoboken, New Jersey: Wiley & Sons. St. Pierre, M., Hofinger, G. & Buerschaper, C. (2007). Crisis management in acute care settings: Human factors and team psychology in a high stakes environment. New York u. a.: Springer. Stanton, N. A., Salmon, P. M., Walker, G. H., Barber, C. & Jenkins, D. P. (2005). Human factors methods. A practical guide for engineering and design. Aldershot: Asghate. Strauch, B. (2001). Investigating human error: incidents, accidents, and complex systems. Aldershot: Ashgate. Swain, A. D. & Guttman, H. E. (1983). Handbook of human reliability analysis with emphasis on nuclear power plant applications NUREG/CR-1278. Albuquerque: Sandia Laboratories. Sully, J. (1881). illusions. A psychological study. London: Kegan. Turner, B. A. (1978). Man-made disasters. London: Wykeham. Vaughan, D. (1997). The Challenger launch decision: Risky technology, culture, and deviance at NASA. Chicago: University of Chicago Press. Wallace, B. & Ross, A. (2006). Beyond human error. Taxonomies and safety sciences. Boca Raton, London, New York: Taylor & Francis. Wason, P. C. (1960). On the failure to eliminate hypotheses in a conceptual task. Quarterly Journal of Experimental Psychology, 12, 129–140. Wehner, T. (1992). Sicherheit als Fehlerfreundlichkeit. Opladen: Westdeutscher Verlag. Wehner, T. (1984). Im Schatten des Fehlers – Einige methodisch bedeutsame Arbeiten zur Fehlerforschung. Bremer Beiträge zur Psychologie, 34. Bremen: Universität Bremen. Wehner, T., Mehl, K. & Dieckmann, P. (im Druck). Handlungsfehler und Fehlerprävention. In U. Kleinbeck & K.-H. Schmidt (Hrsg.), Enzyklopädie der Psychologie – Band Arbeitspsychologie. Göttingen: Hogrefe. Weick, K. & Sutcliffe, R. (2001). Managing the unexpected. Assuring high performance in an age of complexity. San Francisco, CA: Jossey-Bass. Weimer, H. (1925). Psychologie der Fehler. Leipzig: Klinkhardt. Willis, G. (1992). Failure modes and effects analysis in clinical engineering. Journal of Clinical Engineering, 17 (1), 59–63.
II Individuelle und teambezogene Faktoren 4 Wahrnehmung, Aufmerksamkeit und »Situation Awareness« (SA) – 59 5 Denken – Entscheiden – Handeln – 77 6 Emotion und Handeln – 94 7 Handeln in Gruppen 8 Kommunikation
– 113
– 131
4 Wahrnehmung, Aufmerksamkeit und »Situation Awareness« (SA) Harald Schaub
4.1
Einführung
– 60
4.2
Wahrnehmung: »Wara Neman«
– 61
4.2.1 Die Welt im Kopf: Physiologie der Wahrnehmung – 61 4.2.2 Erwartungen und Hypothesen: Wahrnehmung als aktiver Informationsverarbeitungsprozess
4.3
Aufmerksamkeit
– 64
4.4
»Situation Awareness« (SA)
– 67
4.4.1 SA-Modell von Endsley – 67 4.4.2 »Shared Situation Awareness« – 69
4.5
Störungen der Wahrnehmung – 71
4.6
Zusammenfassung
4.7
Literatur
– 74
– 73
– 62
4
60
Kapitel 4 · Wahrnehmung, Aufmerksamkeit und »Situation Awareness« (SA)
4.1
Einführung
Eine wesentliche Voraussetzung für sicheres Handeln ist, dass Planerinnen, Entscheider oder Operateure verschiedene Aspekte einer Situation korrekt wahrnehmen, zutreffend interpretieren und daraus adäquate Handlungen generieren. Diese Situationsaspekte können Personen, technische Einrichtungen, Nachrichten oder generell Informationen und Merkmale von soziotechnischen Systemen sein. All diese Merkmale muss der Handelnde nicht nur wahrnehmen, sondern er oder sie muss auch ihre Bedeutung verstehen und dann für das eigene Handeln und die eigenen Ziele umsetzen. Dies beinhaltet nicht nur den aktuellen Zustand, sondern auch die möglichen Veränderungen und damit Prognosen über die Entwicklung der Situation und die zukünftigen Zustände der Elemente des soziotechnischen Systems. Eine Vielzahl menschlicher Tätigkeiten, v. a. in der Prozess- und Fahrzeugführung, erfordern die Wahrnehmung, die Interpretation und Prognose von Systemzuständen.
Diese Trias von Fähigkeiten wird als Situationsbewusstsein (»situation awareness«, z. B. Endsley, 1995b; Endsley, Bolté & Jones, 2003) bezeichnet. Dabei kann »situation awareness« (SA) wie folgt charakterisiert werden: SA ist »what you need to know not to be surprised« (Jeannot, Kelly & Thompson, 2003, S. 22). Viele Ereignisse menschlichen Versagens können auf mangelndes Situationsbewusstsein zurückgeführt werden (Stewart, 1986; Endsley, 1995a). Dementsprechend werden als Reaktion auf menschliche Fehler technische, organisatorische, ergonomische und pädagogische Maßnahmen entwickelt, die das Situationsbewusstsein unterstützen und verbessern sollen, um damit die Sicherheit in soziotechnischen Systemen (häufig Mensch-Maschine-Systeme) zu erhöhen (7 Kap. 2, 3). Konzeptionell integriert das aus dem militärischen Bereich (7 Kap. 15) stammende Konzept der SA verschiedene psychologische Prozesse der Wahrnehmung, des Denkens und Planens des aktuellen und zukünftigen Verhaltens in komplexen, dynamischen Situationen (vgl. auch Hofinger, 2005).
Beispiel Die Explosion der Europa-Rakete Ariane 5 am 04.06.1996 war kein Konstruktionsproblem, sondern ein Softwarefehler, so zumindest das Ergebnis der Untersuchungskommission von Prof. Jacques-Louis Lions von der französischen Akademie der Wissenschaft (1996). Das Trägheitsnavigationssystem der Vorgängerrakete Ariane 4 hatte 10 Jahre lang problemlos funktioniert und wurde deshalb in die Neukonstruktion der Ariane 5 unverändert übernommen. Bestandteil dieser Software war ein spezielles Software-Teilsystem, welches bei der Ariane 4 dafür verantwortlich war, dass im Falle eines Count-down-Abbruchs das Trägheitsnavigationssystem möglichst schnell wieder zurückgesetzt werden konnte, um einen raschen neuen Count-down zu ermöglichen. Diese Software wurde bei Ariane 4 nur für die Phase kurz vor dem Start benötigt, sie lief aber nach dem Start noch ca. 40 s weiter, ohne dabei eine Funktion zu erfüllen (dieses Nachlaufen störte nicht). In dieser Zeit lieferte die Software sinnlose Werte, die aber bei Ariane 4 nie kritische Größen erreichten. Bei Ariane 5 wurde das Problem des raschen Rücksetzens des Trägheitsnavigationssystems gänz-
lich anders gelöst, sodass dieses Unterprogramm bei der Ariane 5 nun auch vor dem Start überflüssig war. Um das Funktionieren des gesamten Systems nicht zu gefährden, beließ man aber diesen Programmteil einfach, wie er war (nach dem Motto »never touch a running system«). Da dieses Teilsystem schon immer funktioniert hatte, wurde es für Ariane 5 nicht neuerlich überprüft – wie es eigentlich vorgeschrieben war. Nach dem Start der Ariane 5 erzeugte dieses Programmteil wie bei Ariane 4 auch sinnlose Werte, nur dass diese Werte nun wegen der größeren Beschleunigung der wesentlich stärkeren Ariane 5 numerisch so groß wurden, dass in diesem Programmteil ein Programmfehler, ein sog. Ausnahmefehler (»exception error«) entstand. Daraufhin stellte das gesamte Trägheitsnavigationssystem die Arbeit ein (ca. 30 s nach dem Abheben). Über weitere Zwischenschritte führte dies zu einer erheblichen Kursabweichung, die schließlich zur Einleitung der Selbstzerstörungssequenz führte. Die ungeprüfte Übernahme des in der Ariane 4 funktionierenden Programmteils in die Ariane 5 mit der Annahme, die Situation im Nachfolgemodell sei mit der Situation der Vorgängerin identisch, führte zu diesem viele 100 Mio. ECU teuren Fehler.
61 4.2 · Wahrnehmung: »Wara Neman«
An diesem Beispiel fällt auf, dass Expertise nicht vor Fehlern schützt, sondern im Gegenteil einen maßgeblichen Beitrag der Fehlerursache darstellt.
4
(7 Kap. 4.5) können häufig die Basis für Probleme und Fehler beim Handeln sein.
4.2
Wahrnehmung: »Wara Neman«
Für das Ariane-Beispiel ist zu konstatieren 4 Für den Fehler waren Experten verantwortlich. 4 Ein Befolgen der Vorschriften hätte den Fehler frühzeitig aufgedeckt. 4 Die kritische Überprüfung wurde durch eine Expertenmeinung ersetzt. 4 Die Verantwortlichen hatten ein gemeinsames (aber in Teilen) falsches Bild der Situation. 4 Weniger erfahrenen Akteuren wäre der Fehler vermutlich nicht passiert, da sie die Vorschriften befolgt und so ein anderes Lagebild als die Experten aufgebaut hätten.
Die Ariane-Experten hatten eine spezifische Erwartung aufgebaut, nämlich dass das überflüssige Teil der Navigationssoftware in der neuen Rakete unter gleichen Bedingungen ebenfalls überflüssig wäre. Dabei haben sie aus der Korrektheit des einen Teils der Annahmen (Softwaremodul ist überflüssig) auf die Korrektheit des anderen Teils der Annahme (gleiche Bedingungen) geschlossen und damit eine kritische Wahrnehmung der Situation subjektiv überflüssig gemacht. Zusammenfassend kann man festhalten, dass Expertise nicht notwendigerweise vor Wahrnehmungsfehlern schützt, sondern selbst zur Bedingung für den Aufbau eines fehlerhaften Situationsbildes werden kann, da Expertise die Art und Weise der Wahrnehmung und Interpretation von Ereignissen verändert. Dieses Kapitel behandelt den Prozess der menschlichen Wahrnehmung in Hinblick auf sicheres und unsicheres Handeln. Dabei wird Wahrnehmung (7 Kap. 4.2) und Aufmerksamkeit (7 Kap. 4.3) als Teil eines Informationsverarbeitungsprozesses verstanden. »Situation awareness« (7 Kap. 4.4) ist ein integratives Konzept, das Erkenntnisse zu basalen psychologischen Prozessen in einen Anwendungskontext stellt. Wahrnehmungsstörungen
Das Wort »Wahrnehmung« stammt von dem althochdeutschen Wort »wara neman«, was bedeutet, einer Sache Aufmerksamkeit zu schenken (von Heyse, 1856, S. 84). Wahrnehmung ist die psychische Funktion, die es dem Organismus ermöglicht, mithilfe seiner Sinnesorgane Informationen aus der Innen- und Außenwelt aufzunehmen und zu verarbeiten. Die Wahrnehmung steht dabei unter dem Einfluss von Gedächtnis, Gefühlen, Erwartungen, Motivationen und Denken.
4.2.1 Die Welt im Kopf:
Physiologie der Wahrnehmung Wahrnehmung besteht aus mehreren Phasen, die an den physiologischen Prozessen und Strukturen der Sinnesrezeptoren beginnen (vgl. Schmidt & Schaible, 2006) und über mehrere Stufen der unbewussten psychologischen Verarbeitung der Daten zu einer Anreicherung des Bedeutungsgehalts der Information führen, die schließlich Teil des Wissens des Wahrnehmenden wird. Dabei nutzt die Wahrnehmung parallel mehrere Sinnesmodalitäten: 4 Visuelles System: Sehen 4 Auditives System: Hören 4 Taktiles System: Oberflächensensibilität 4 Vestibuläres System: Lagewahrnehmung 4 Kinästhetisches System: Tiefensensibilität 4 Chemische Systeme: Riechen und Schmecken ! Wahrnehmung ist die Transformation physikalischer oder chemischer Reize (Daten) in psychisch verarbeitbare Information, also der Übergang vom physikalischen über das physiologische zum psychologischen Medium, um die Information als Wissen für die Handlungssteuerung zu nutzen.
Der Übertritt vom physikalischen (oder chemischen) Medium in elektrische Innervationen ist Thema der Sinnes- bzw. Wahrnehmungsphysiologie. Dabei werden sowohl die Signaltransduktionsvor-
Definition
62
4
Kapitel 4 · Wahrnehmung, Aufmerksamkeit und »Situation Awareness« (SA)
gänge in den Sinnesrezeptoren als auch die darauf aufbauenden weiteren Verarbeitungsschritte dieser Reizinformationen im Zentralnervensystem betrachtet. Signaltransduktion (Signalübertragung) sind diejenigen Prozesse, mittels derer Sinneszellen äußere Reize umwandeln und in das Zellinnere weiterleiten (vgl. Alberts, Bray & Hopkin, 2001). An diesen Umwandlungsprozessen ist eine Vielzahl von enzymatischen chemischen Prozessen beteiligt. Die Aufgabe der Signaltransduktion ist die Weiterleitung der von einem Rezeptor aufgenommenen externen Signale zu Effektorproteinen der Zelle. Beispiel Ein einzelnes Lichtphoton kann ein einzelnes Rhodopsinmolekül aktivieren (Rhodopsin ist der Photorezeptor der Netzhaut), dieses wiederum aktiviert bis zu 2000 Transducinmoleküle, was zu einer Amplifikation (Verstärkung) des ursprünglichen Signals führt, z. B. zur Kontrastverstärkung bei der visuellen Wahrnehmung.
An den Signaltransduktionswegen als Zwischenstationen der chemischen Umwandlung sind eine Vielzahl von Stoffen, sog. second messengers beteiligt (z. B. cAMP: zyklisches Adenosinmonophosphat, cGMP: zyklisches Guanosinmonophosphat). Die konkreten chemischen Prozesse unterscheiden sich dabei von Sinnesmodalität zu Sinnesmodalität. Die Information aus den Sinnesrezeptoren wird in den sensorischen Zentren der Großhirnrinde weiterverarbeitet. Die wichtigsten funktionellen, primären sensorischen Zentren sind der primäre somatosensible Kortex im Gyrus postcentralis, der primäre visuelle Kortex im okzipitalen Lappen und der primäre akustische Kortex in den Gyri temporales transversi. Neben den primären Arealen gibt es eine ganze Reihe sekundärer Areale, die ebenfalls Informationen verschiedener Sinnesmodalitäten verarbeiten. Obwohl definierte Kortex-Zentren wichtige Funktionen bei der Verarbeitung sensorischer Impulse haben, wird aufgrund der hohen Vernetzung der gesamte Kortex mit den assoziativen Regionen genutzt, um die multimodale, sensorische und motorische Information zu verarbeiten und letztlich in motorische Steuerungen umzusetzen (vgl. Karnath & Thier, 2006).
. Abb. 4.1. Wahrnehmungskette: Vom Reiz zur Handlung (Bottom-up-Prozess)
In . Abb. 4.1 ist der Weg vom physikalischen Reiz über die verschiedenen Verarbeitungsstufen bis zur Handlung skizziert. Dabei wird deutlich, dass die physiologische Betrachtung von Wahrnehmungsvorgängen die Perspektive v. a. auf Bottom-up-Prozesse (vom Reiz zum Gehirn) legt: Anreicherung, Verstärkung und Kombination von basalen Reizen führt zum Erkennen und zur Umsetzung in ausführbare Handlungen. Diese Perspektive weist dem Wahrnehmenden eine weitgehend passive Rolle zu. Unstrittig ist, dass Wahrnehmung eine reizgetriebene Bottom-up-Komponente hat, aber damit lässt sich eine Vielzahl von sicherheitskritischen Phänomenen aus dem Human-Factors-Kontext nicht erklären (. Abb. 4.2) und die Erklärung der Wahrnehmung muss deshalb durch eine Top-down-Komponente ergänzt werden.
4.2.2 Erwartungen und Hypothesen:
Wahrnehmung als aktiver Informationsverarbeitungsprozess Wahrnehmung ist ein aktiver, informationsverarbeitender Prozess; somit ist das Ergebnis der Wahrnehmung grundsätzlich keine Eins-zu-eins-Kopie der Wirklichkeit, was zu der Frage führt: Was ist eigentlich wirklich? Was ist Wahr-nehmen? Diese Diskussion wurde in der Philosophie schon von den alten Griechen geführt, z. B. von Demokrit (460
63 4.2 · Wahrnehmung: »Wara Neman«
v. Chr.; Ibscher, 1996), Parmenides (5. Jh. v. Chr., Hölscher, 1969) oder Platon (427 v. Chr.; Neumann, 2001). Beispiel Im radikalen Konstruktivismus wurde die Subjektivität der Wahrnehmung zur Kernaussage: Wahrnehmung ist immer eine Konstruktion aus Sinnesreizen und Gedächtnisleistung eines Individuums, weshalb es Objektivität als Übereinstimmung von wahrgenommenem (konstruiertem) Bild und Realität nicht gibt (von Glasersfeld, 1985).
Gedankenspiele mit der Subjektivität der Wahrnehmung sind deshalb auch beliebter Gegenstand in der Science-Fiction-Literatur, z. B. in vielen Geschichten von Stanislav Lem, und in Science-Fiction-Filmen z. B. von Fassbinder (»Welt am Draht«) oder den Brüdern Wachowski (»Matrix«). Beispiel Mit dem Mars Climate Orbiter (MCO) schickte die NASA eine Sonde im Rahmen des DiscoveryProgramms zum Mars. Die Sonde ging 1999 wegen eines Einheitenfehlers im Navigationssystem verloren. Die NASA rechnete im international gebräuchlichen SI-System (Einheit: Newton mal Sekunde), jedoch wurde für die Navigationssoftware des MCO vom Hersteller Lockheed Martin das imperiale System (Einheit: Pfund mal Sekunde) verwendet, sodass sich Abweichungen zwischen den verschiedenen Systemen um den Faktor 4,45 ergaben, da gleiche Zahlen, z. B. Höhenangaben, durch den Computer vor dem Hintergrund des jeweiligen Messsystems, interpretiert wurden. Auf den Fehler wurden die Beteiligten erst nach dem Absturz durch den Bericht der Untersuchungskommission aufmerksam. Die Kommission konstatierte, dass mangelnde Erfahrung, Überbelastung und mangelhafte Zusammenarbeit der Teams die nicht entdeckte Fehlinterpretation unterstützt hatten (Mars Climate Orbiter Investigation Board, 1999).
4
Die Wissenschaftler des Mars Climate Orbiter wurden Opfer der Subjektivität von Wahrnehmung, die immer interpretativ in einem gegebenen Kontext (hier physikalische Einheiten) ist. Bereits in den 1940er Jahren erkannte die Forschung, dass nicht nur die objektiven Reizattribute für die Wahrnehmung eine Rolle spielen, sondern v. a. die subjektive Erwartung eines Reizes einen wesentlichen Einfluss auf die Wahrnehmung nimmt. Dabei spielt das Modell der Psyche als Informationsverarbeitungssystem eine zentrale Rolle (Bruner & Postman, 1949). Top-down-Prozesse, d. h. der Einfluss höherer (kognitiver) Prozesse auf basale (Wahrnehmungs-)Prozesse in Form von Erwartungen und Hypothesen, bestimmen, was wie wahrgenommen wird. Die konstruktive und interpretierende Eigenschaft der Wahrnehmung folgt v. a. dem Bedürfnis des informationsverarbeitenden Menschen nach Unbestimmtheitsreduktion und Konsistenz (Neisser, 1967). In unbestimmten Situationen werden Kontextinformationen genutzt, um die Ambiguität zu reduzieren und zu einer subjektiv konsistenten Interpretation der Situation zu gelangen. Dabei bezieht sich die Konsistenz auf das individuelle mentale Modell des Wahrnehmenden (7 Kap. 8; vgl. auch Badke-Schaub, Neumann, Lauche & Mohammed, 2007; Schaub, 2007), objektiv kann die damit erzeugte Konsistenz falsch sein. Dies ist in . Abb. 4.2 verdeutlicht, da hier die objektiven physikalischen Eigenschaften des Buchstabens B und der Zahl 13 identisch sind, aber die Zeichen im jeweiligen Kontext (Buchstaben, Zahlen) subjektiv eindeutig der Erwartung folgend als B bzw. als 13 wahrgenommen und verarbeitet werden.
. Abb. 4.2. Erwartungsabhängige Wahrnehmung von Symbolen
64
Kapitel 4 · Wahrnehmung, Aufmerksamkeit und »Situation Awareness« (SA)
Beispiel NASA-Vertreter erklärten, dass dem Bericht einer unabhängigen Kommission zufolge in mehreren Fällen US-Astronauten alkoholisiert mit einem Space Shuttle in den Weltraum gestartet seien. Die NASA-Führung habe, nach Aussage der stellvertretenden NASA-Verwaltungschefin Shana Dale, von möglichen Alkoholproblemen nichts gewusst. Die NASA hatte offensichtlich auch keine solchen Probleme erwartet, da die medizinischen Voruntersuchungen von Astronauten nicht darauf ausgelegt sind, Alkoholkonsum zu entdecken (DPA, 2007).
4
Führen Hypothesen und Erwartungen unter bestimmten Umständen dazu, dass Dinge wahrgenommen werden, die so nicht vorhanden sind, kann das Fehlen von Erwartungen dazu führen, dass man sich der Fähigkeit, überhaupt etwas wahrzunehmen, beraubt. Wenn keine entsprechenden Vorkehrungen getroffen werden (z. B. Alkoholtests), sagen fehlende Erkenntnisse (scheinbar keine alkoholisierten Astronauten) weniger über die Situation als über die mangelnde Fähigkeit des Wahrnehmenden aus.
4.3
Aufmerksamkeit
Die Kapazität der menschlichen Informationsverarbeitung ist beschränkt. Es können nicht beliebig viele Reize gleichzeitig verarbeitet werden. Dies trifft v. a. für die bewusste Informationsverarbeitung zu. Obwohl die unbewusste Informationsverarbeitung ungleich viel mehr Reize verarbeiten kann, ist auch sie letztlich in ihren Ressourcen beschränkt (Spieß, 2002). ! Aufmerksamkeit ist ein psychischer Zustand gesteigerter Wachheit und Aufnahmebereitschaft, bei dem das Bewusstsein auf bestimmte Objekte, Vorgänge, Gedanken ausgerichtet ist. Die Aufmerksamkeit kann willkürlich (z. B. durch Interessen) gelenkt oder unwillkürlich (passiv) durch Reize erregt werden (vgl. Davies, Matthews, Stammers & Westerman, 2000).
Um die beschränkte Verarbeitungskapazität der menschlichen Informationsverarbeitung im Allge-
meinen und die der menschlichen Wahrnehmung im Besonderen sinnvoll zu nutzen, steuert der Prozess der Aufmerksamkeit die Ressourcen der Informationsverarbeitung auf (subjektiv) wichtige Aspekte. Dabei kann die Aufmerksamkeit die Ressourcen auf die Wahrnehmung 4 der Umwelt, 4 das Verhalten anderer Personen, 4 eigener Gedanken und Gefühle sowie 4 eigenen Verhaltens und Handelns legen. Daher selektiert der Prozess der Aufmerksamkeit die Informationen, die für den Organismus von Bedeutung sind und mit Informationsverarbeitungsressourcen versorgt werden müssen. Damit wird aber auch entschieden, welche Informationen, da nicht relevant, ausgeblendet werden (Broadbent, 1958; Davies, Matthews, Stammers & Westerman, 2000). Die Aufmerksamkeit besteht aus 2 Subprozessen: Orientierung (Hinwendung) und Selektion (Auswahl) der Teile einer Situation, die als (potenziell) bedeutsam eingeschätzt wurden. Erhöhte Wachheit und Aktivierung charakterisieren die Hinwendung, wohingegen die Auswahl als Filter wichtige von unwichtigen Informationen trennt. Die Bedeutsamkeit (Relevanz) der jeweiligen Reize wird insbesondere durch die individuellen Motivationen und Emotionen sowie die Kriterien Komplexität, Unbestimmtheit und Dynamik determiniert. Ebenso werden neuartige Reize mit einer Orientierungsreaktion bedacht (Anderson, 1996). Um die beschränkte Kapazität der Wahrnehmung zu unterstützen, priorisieren technische Hilfssysteme zwischen wichtigen und nicht wichtigen Faktoren und führen damit eine A-priori-Steuerung der Aufmerksamkeit durch. Beispiel Am 12.07.2000 um 10.59 Uhr startet der Airbus A 310-304 mit 8 Besatzungsmitgliedern und 142 Passagieren von Kreta mit dem Ziel Hannover. Nach dem Start wird angezeigt, dass sich das rechte Fahrwerk nicht einfahren lässt. Der Flugkapitän entscheidet weiterzufliegen, aber aufgrund des erhöhten Luftwiderstands nicht bis Hannover, sondern bis zum Ausweichflugha6
65 4.3 · Aufmerksamkeit
fen München. Mithilfe des »flight management system« (FMS) wird festgestellt, dass der Treibstoff selbst bei erhöhtem Luftwiderstand, verursacht durch das nicht einfahrbare Fahrwerk, bis München reicht. Während des Fluges nehmen jedoch die Treibstoffvorräte schneller ab als vom FMS kalkuliert, deshalb wählen die Piloten den etwas näheren Ausweichflughafen Wien. Auch hierfür gibt das FMS an, dass der Treibstoff reicht, sodass andere Optionen von der Crew verworfen werden. Während des Landeanflugs auf Wien-Schwechat zeigt das FMS überraschend an, dass der Treibstoff nicht bis zum Aufsetzen reichen wird, also wird von der Crew eine Notlandung vorbereitet. Die letzten Kilometer bis zum Aufsetzpunkt segelt die Maschine mit ausgeschalteten Triebwerken. Die Notlandung gelingt, niemand wird ernstlich verletzt. Eine Überschlagsrechnung, zu der jeder Pilot in der Lage ist, hätte gezeigt (ohne FMS und Tankanzeigen), dass bei ausgefahrenen Fahrwerken der Treibstoffverbrauch rund doppelt so hoch ist und damit Wien oder gar München nicht zu erreichen wäre. Die Aufmerksamkeit der Piloten war aber fokussiert auf das offensichtlich fehlerhafte FMS, sodass es ihnen gar nicht in den Sinn kam, die Priorisierung und die Abarbeitung ihrer Aufgaben ohne technische Unterstützung durchzuführen (nach Bundesanstalt für Flugunfalluntersuchung, 2000; 7 Kap. 5).
Die Fokussierung der Wahrnehmung auf einzelne Objekte wird durch Ereignisse mit spezifischen Merkmalen verursacht. Insbesondere wenn kein Automatismus, kein eindeutiges Reaktionsmuster für
4
einen Reiz existiert, wird eine bewusste Informationsverarbeitung notwendig, und damit erfolgt eine Aufmerksamkeitsfokussierung. Bestimmte Reizmerkmale (z. B. Komplexität, Neuartigkeit) führen zu einem Aufmerksamkeitswechsel und zu einer Orientierungsreaktion (Broadbent, 1971; Hobfoll & Buchwald, 2004) mit Einhergehen von Reaktionen zur Verbesserung der Reizaufnahme (Erweitern der Pupillen, Heben der Augenbrauen, Drehen des Kopfes) wie auch zu einer allgemeinen Erhöhung der Reaktionsbereitschaft (Aktivitätserhöhung, erhöhter Herzschlag, erhöhtes Herzvolumen, erhöhter HGR, erhöhter Muskeltonus). Aufmerksamkeitsbestimmende Reizmerkmale, die zu einer Aufmerksamkeitsfokussierung sowie zum Wechsel der Aufmerksamkeit führen können, sind in . Tab. 4.1 dargestellt. Die Menge der Objekte, die mit einem Blick, d. h. in etwa 200 ms wahrgenommen werden kann, wird als Umfang der Aufmerksamkeit definiert. Beim Erwachsenen sind das 6–12, im Mittel 7 Objekte, bei Kindern weniger. In diesem Kontext wird häufig die sog. »magical number seven« (Miller, 1956) genannt: Es können nur ca. 7±2 Elemente gleichzeitig bewusst verarbeitet werden. Hierbei scheint es eine kulturell überformbare Komponente zu geben, so zeigen Lass, Yunqiu, Guopeng, Becker & Lüer (1999) beispielsweise, dass die Gedächtnisspanne von Chinesen höher ist als die von Deutschen. Dabei hängt der Aufmerksamkeitsumfang ab von folgenden Kriterien: 4 Art der wahrzunehmenden Gegenstände 4 Bekanntheit der Gegenstände 4 Beleuchtungsintensität auf den Gegenständen 4 Kontrast, unter dem die Gegenstände erkennbar sind 4 Subjektive, emotionale Bewertung der Objekte durch den Betrachter
. Tab. 4.1. Reizmerkmale, die zu einer Aufmerksamkeitsfokussierung sowie zum Wechsel der Aufmerksamkeit führen
Aufmerksamkeitsfokussierung
Aufmerksamkeitswechsel
Veränderung physikalischer Reizmerkmale: Helligkeit, Bewegung, Wiederholung, Kontrast, Intensität
Keine Veränderung physikalischer Reizmerkmale (Sättigung)
Veränderung/Unklarheiten in der Semantik: Inkongruenz, Neuheit, Komplexität
Abtasten einer Konfiguration, eines Objekts, einer Situation
Starke Veränderungen in der Motivationslage (bzw. deren Antizipation): z. B. Gefahr
Bewusstes Verarbeiten von mehreren gleichzeitigen Tätigkeiten (Timesharing; Springen der Aufmerksamkeit)
66
4
Kapitel 4 · Wahrnehmung, Aufmerksamkeit und »Situation Awareness« (SA)
Aktuelle Theorien der Aufmerksamkeit nehmen Filter und Selektionsprozesse im Wahrnehmungssystem an, die die Aufmerksamkeit fokussieren. Dabei können 2 theoretische Erklärungsansätze unterschieden werden: Filtertheorien und Theorien der begrenzten Ressourcen. 4 Filtertheorien (Flaschenhals) gehen davon aus, dass das Informationsverarbeitungssystem begrenzende Strukturen hat: Frühe Selektion: Die Entscheidung über relevant und irrelevant wird vor einer Bedeutungserkennung getroffen (Broadbent, 1958). Späte Selektion: Die Informationen werden vorverarbeitet und erst nach der Bedeutungserkennung in relevant/irrelevant gefiltert (Norman, 1968). 4 Theorien der begrenzten Ressourcen nehmen an, dass die Aufmerksamkeit durch die verfügbaren kognitiven Ressourcen eingeschränkt wird. »Single pool«: Es gibt nur einen einzigen Pool (Vorrat) für Ressourcen für Aufmerksamkeit. Wenn dieser Pool erschöpft ist, bricht die Aufmerksamkeitsleistung zusammen (Kahneman, 1973). Multiple Ressource: Die Aufmerksamkeit nutzt verschiedene kognitive Ressourcen für verschiedene Aufgaben gleichzeitig. Störungen treten nur dann auf, wenn die gleiche Ressource von 2 Aufmerksamkeitsteilprozessen gleichzeitig angesprochen wird (Navon & Gopher, 1979). Beispiel Bekannt in diesem Zusammenhang ist das Cocktailparty-Phänomen (Cherry, 1953): Wird auf einer Party der eigene Name während einer Unterhaltung, an der man nicht beteiligt ist, genannt, zieht dieses Gespräch automatisch die Aufmerksamkeit auf sich.
Offensichtlich werden auch vordergründig gefilterte Reize unbewusst wahrgenommen und verarbeitet. Bei Erkennen von Relevanz (z. B. eigener Name) wird der Reiz bewusst, eben dadurch, dass die Aufmerksamkeit darauf ausgerichtet wird. Filtertheorien nehmen hier eine Anpassung der Filterkriterien an; Theorien der begrenzten Ressourcen gehen von einer Repriorisierung der Ressourcenzuteilung aus.
Während das Cocktailparty-Phänomen auf semantischer Ebene funktioniert, setzt der Pop-outEffekt auf syntaktischer Ebene an (Treisman & Gelade, 1980): Aus einer Gruppe gleichförmiger Objekte (z. B. geometrische Figuren: Dreiecke) fällt ein andersartiges Objekt (z. B. Kreis) sofort auf. Dieser Effekt ist bis zu einer gewissen Komplexität und Ähnlichkeit der Objekte trainierbar. Je nach Umfeld, Situationsentwicklung, Erwartung oder Motivation können relevante »herausspringende« Objekte, Wörter oder Reize ganz unterschiedlich sein: Schnitzel für den Hungrigen, Feuer für den Feuerwehrmann oder Gewalt für den Polizisten (Friederici, 1999; 7 Kap. 6). Der Prozess der hypothesengeleiteten Wahrnehmung in der Bamberger PSI-Theorie von Dörner und Mitarbeitern (Dörner, 1989, 1999), der sog. HYPERCEPT-Prozess (HYPothesengeleitete PERCEPTion), beschreibt Aufmerksamkeit als das kontinuierliche Erzeugen und Überprüfen von Hypothesen über die Wahrnehmungssituation (Erwartungsbildung). Aufgabe dieses Prozesses ist es, ständig ein Bild der augenblicklichen Umgebungssituation zu erzeugen und das erzeugte Situationsbild in einen Erwartungshorizont einzubauen. Die Erzeugung eines Erwartungshorizonts ist notwendig, um eine Basis für die Kontrolle der Entwicklung der Umgebung zu bieten. Ein Individuum richtet in der Regel nicht seine ganze Aufmerksamkeit auf die aktuell auszuführende Tätigkeit, sondern es betreibt zusätzlich Hintergrundkontrolle. Dazu werden die im Erwartungshorizont eingetragenen möglichen Entwicklungen der Umwelt mit der tatsächlich eingetretenen Situation verglichen. Durch eine Integration von Ereignissen und Objekten hin zu einem konsistenten Bild wird subjektiv Unsicherheit reduziert, mit der Gefahr von Fehlinterpretationen. Die Aufmerksamkeit der Ariane-Experten wurde von einer Vielzahl von Problemen und Anforderungen der neuen Rakete in Anspruch genommen. Das Programmteil Navigationsmodul war niedrig priorisiert, da es (vermeintlich) schon bei dem Vorgängermodell gelöst worden war und für die neue Entwicklung auch gar nicht benötigt wurde. Daraus folgte, dass dieser Aspekt nicht mehr in den Aufmerksamkeitsfokus der Ingenieure gelangte.
67 4.4 · »Situation Awareness« (SA)
4.4
»Situation Awareness« (SA)
James (1890) unterscheidet zwischen Sinnesempfindung und Wahrnehmung, wobei die Wahrnehmung Faktoren der Erfahrung mit der Sinnesempfindung verbindet. Wahrnehmen heißt, so James, dass man nicht nur die Existenz und die basalen Eigenschaften eines Objekts in der Welt erfährt, sondern einen Bezug des Objekts zu dem Selbst, v. a. zu den eigenen Bedürfnissen, herstellt. Dies bildet die Grundlage dafür, was James »personal consciousness« (persönliche Bewusstheit) nennt. Er charakterisiert »personal consciousness« u. a. durch die Fähigkeit zur Auswahl, zur selektiven Aufmerksamkeit und durch »span of consciousness« (Aufmerksamkeitsspanne). James’ kognitiver Zugang geriet durch die Phase des Behaviorismus in der Psychologie Anfang des 20. Jh. in Vergessenheit und wurde erst durch Autoren wie z. B. Cherry (1953) wieder aufgegriffen. In James’ Konzeptionalisierung der Wahrnehmung sind Aufmerksamkeit und Bewusstsein eng verbunden. Die Thematik Aufmerksamkeit und Bewusstsein wird unter den Perspektiven Sicherheit, Konstruktion und Organisation in jüngerer Zeit unter dem Stichwort »situation(al) awareness« (SA) sowohl als theoretischer Hintergrund wie auch als anwendungsorientiertes Konzept im Kontext komplexer Arbeitswelten untersucht. Die ersten Forschungsarbeiten zu SA wurden im militärisch-fliegerischen Kontext durchgeführt, z. B. von Bartlett (1937) oder Craik (1947, 1948) und von einem der Väter der Ergonomie: Alphonse Chapanis (1970, 1996). Obschon der Begriff »situation awareness« relativ jung ist, geht das Konzept zurück auf Ansätze aus dem militärisch-strategischen Denken z. B. von Sun Tzu etwa 500 v. Chr. (1988). Der Begriff wurde in neuerer Zeit geprägt, um das spezifische Denken und Handeln von Piloten der United States Air Force (USAF) in Kampfeinsätzen im Korea- und Vietnamkrieg unter einem Begriff zusammenzufassen (Spick, 1989; Watts, 1996). Die Annahme war, dass man eine bessere SA als der Gegner haben müsse, um dessen Bewegungen und Entscheidungen vorherzusehen. In den 1990er Jahren wurde der Begriff »SA« von der Human-Factors-Gemeinde breit aufgenommen. Besondere Verbreitung hat das SA-Modell von Endsley (1995b) gefunden.
4
4.4.1 SA-Modell von Endsley Endsley (1995b) versteht SA als Teil der Informationsverarbeitung und integriert darin Wahrnehmung, Aufmerksamkeit und Gedächtnis. Die Kernannahmen des Modells sind: 4 SA ist eine durch die Kapazität von Aufmerksamkeit und Arbeitsgedächtnis begrenzte Ressource. 4 Schemata und mentale Modelle des Langzeitgedächtnisses unterstützen die Integration verschiedener Informationen. Diese unterstützen das Verständnis der Informationen als auch die Möglichkeit der Prognose selbst bei lückenhafter und ungewisser Information. 4 SA unterliegt dem Einfluss von Zielen und Erwartungen der Person, die die Aufmerksamkeit, die Wahrnehmung und Interpretation der Information steuern. Endsley (1995b) verwendet SA synonym zu »Situationsmodell« und beschreibt SA als einen Wissenszustand. Ausgehend von ihrer Definition von SA unterscheidet sie 3 Ebenen: 1. Die Objekte in der Umgebung werden wahrgenommen. Diese Ebene beinhaltet die Wahrnehmung des Zustands, der Merkmale und der Dynamik der relevanten Situationselemente. 2. Die Bedeutung der Situationselemente wird verstanden. Diese Ebene beschreibt die Integration der verschiedenen Situationselemente zu einem ganzheitlichen Bild der augenblicklichen Situation. Diese Integration führt zu einem Verstehen der Bedeutung der einzelnen Situationselemente. 3. Die Veränderungen in der Umgebung und der zukünftige Zustand der Objekte werden für eine bestimmte Zeitspanne vorhergesagt. Diese Ebene beinhaltet die Generierung von Annahmen über das zukünftige Verhalten der Situationselemente, das auf der Basis des in der zweiten Ebene erreichten Verstehens der Situation geschieht. »Situation Awareness is the perception of the elements in the environment within a span of time and space, the comprehension of their meaning and the projection of their status in the near future.« (Endsley, 1995b, S. 36)
68
Kapitel 4 · Wahrnehmung, Aufmerksamkeit und »Situation Awareness« (SA)
4
. Abb. 4.3. Modell der »situation awareness« im Vergleich zu anderen Phasenmodellen
In . Abb. 4.3 ist das SA-Modell in Beziehung zu anderen Ansätzen dargestellt, und zwar zum Modell der Absichtsregulation von Dörner (z. B. Dörner, 1989; Schaub, 1997), zum sog. OODA-Loop, das durch Boyd (1996) in den amerikanischen militärischen Führungsprozess eingeführt wurde, und zum »deutschen« Führungsprozess, wie er bei Feuerwehr, THW und Bundeswehr Anwendung findet (vgl. Mitschke, 1997). Alle diese Ansätze beschreiben Phasen komplexer Handlungen, am umfassendsten das Dörner-Modell. Die Phasen der SA (Wahrnehmung–Verständnis– Projektion) beziehen sich im Handlungsprozess v. a. auf die frühen Phasen der Informationsverarbeitung, jedoch führt Endsley (1995b) auch die Beziehung dieser Phasen zu anderen Aspekten psychologischer und sozialer Komponenten einer Situation (Ziele, Entscheidungen, Fähigkeiten u. a.) aus. Endsley greift dabei unterschiedliche Perspektiven aus den Bereichen »Handlungstheorie« (Hacker, 1986), »natural decision making« (Klein, 1997; Orasanu & Salas, 1993) und »Komplexes Problemlösen« (Dörner, 1989; Funke, 2003) auf und integriert diese (7 Kap. 5). In Endsleys Modell der SA steht die Interaktion zwischen Person und Umwelt im Mittelpunkt.
Dargestellt werden die höheren kognitiven Funktionen des Operateurs/Entscheiders als die 3 Ebenen von SA (Wahrnehmung, Verständnis, Projektion), welche als Prozesse der Entscheidung vorausgehen und dann in Handlungen umgesetzt werden. Beeinflusst werden diese zentralen Prozesse aus 2 Richtungen: von Person- und Umweltfaktoren. Basale kognitive Ressourcen wie Mechanismen der Informationsverarbeitung sowie Langzeitgedächtnis und Automatisierung nehmen Einfluss auf komplexere Teilprozesse wie Ziele, Erwartungen und Hypothesen. An 4 Stellen in dem SA-Modell von Endsley kann man potenzielle Quellen für Denk- und Entscheidungsfehler identifizieren: 1. Einfluss von Fähigkeiten, Erfahrung und Training auf die Mechanismen der Informationsverarbeitung 4 Potenzielle Fehler durch falsche Personalauswahl oder unzureichende/falsche Ausbildung 2. Einfluss der Mechanismen der Informationsverarbeitung auf Ziele, Erwartungen und Hypothesen
69 4.4 · »Situation Awareness« (SA)
4 Potenzielle Fehler durch falsche Vorverarbeitung der Information, falsche Rahmenoder Perspektivensetzungen 3. Einfluss der Mechanismen der Informationsverarbeitung auf SA, Entscheidung und Handlung 4 Potenzielle Fehler durch Überlastung, zu hohes »workload«, Komplexitätsreduktion 4. Einfluss der Systemanforderungen auf SA, Entscheidung und Handlung 4 Potenzielle Fehler durch Konstruktions-, Management- und Organisationsdefizite Beispiel Ein Operateur arbeitet in einer Leitwarte. Diese Warte ist Teil der Aufgaben des Operateurs und repräsentiert im Sinne von Endsley den Zustand der Umwelt. Sieht der Operateur den Zustand eines Anzeigeinstruments, hat er ein Element der gegenwärtigen Situation wahrgenommen (Ebene 1). Begreift er die Anzeige als gefährlich, dann hat er die Situation verstanden (Ebene 2). Ist der Operateur darüber hinaus in der Lage abzuschätzen, wie sich der durch das Anzeigeinstrument indizierte Prozess weiter in der Zeit verhalten wird, hat er die zukünftige Entwicklung der Situation projiziert (Ebene 3). Dies führt zu einer Entscheidung unter Berücksichtigung der verschiedenen Systemfaktoren sowie der individuellen Faktoren. Beispielsweise kann der Operateur entscheiden, dass er den Zustand eines Ventils ändert. Er übersetzt diese Entscheidung in eine Handlung (z. B. Drehen an einem Stellrad) und erzeugt daraufhin ein Handlungsresultat, welches den Zustand der Umwelt ändert. Der Zustand des Anzeigeinstruments mag sich daraufhin ebenfalls ändern, der Prozess beginnt von Neuem.
Mit dem SA-Modell von Endsley können die Vorgänge, die bedeutsam für den Ariane-Absturz waren, gut beschrieben werden: Der Wahrnehmung der Situation fehlten wichtige Aspekte (z. B. höhere Beschleunigung der A 5). Es wurden die Beziehungen zwischen verschiedenen Wahrnehmungselementen nicht richtig interpretiert (z. B. Auswirkungen der Beschleunigung auf das Navigationsmodul), und schließlich wurde eine zu einfache Prognose
4
gestellt: Das Modul würde sich in Zukunft genauso verhalten wie in der Vergangenheit.
4.4.2 »Shared Situation Awareness« An vielen Arbeitsplätzen arbeiten mehrere Personen zusammen, entweder »face-to-face« oder medial vermittelt. Zum Beispiel arbeiten an einem Fluglotsenarbeitsplatz der Streckenflugkontrolle 2 Lotsen oder Lotsinnen, der Radarlotse und der Koordinationslotse. Sie müssen ihre Arbeit untereinander abstimmen. In solchen Situationen gemeinsamer Aufgabenbewältigung spielt geteiltes Situationsbewusstsein (»shared situation awareness«) eine zentrale Rolle (7 Kap. 7, 8). Artman & Garbis (1998) definieren »team SA« als »Two or more agents’ active construction of a situation model which is partly shared and partly distributed and from which they can anticipate important future states in the near future«. »Shared SA« hingegen kann definiert werden als »the degree to which team members possess the same SA on shared SA requirements« (Endsley, 1995b). »Shared situation awareness« bezieht sich auf die Fähigkeit eines Teams, seine Handlungen zu koordinieren und sich an neue Situationen anzupassen (s. dazu auch »shared mental models«: Orasanu, 1990; Orasanu & Salas 1993; Badke-Schaub, Neumann, Lauche & Mohammed, 2007). »Shared situation awareness« erlaubt es Teams, einheitlich zu handeln, ohne dies jeweils explizit steuern zu müssen. Informationsaustausch und Aktualisierung gemeinsamer Annahmen werden reduziert und damit (im Normalfall) effizienter. Unterschiedliche Aspekte können unter »shared situation awareness« im Team geteilt werden. Zum einen ist dies der Aspekt des gleichen Situationsbewusstseins. Jedes Teammitglied hat ein gleiches Lagebild: gleiche Wahrnehmung, gleiches Verständnis, gleiche Prognosen. »Shared situation awareness« bezeichnet aber auch die arbeitsteilige Differenzierung des Situationsbewusstseins, d. h., jedes Teammitglied hat nur den für seinen Bereich wichtigen Teil eines Situationsbildes. In der Kombination aller Situationsbilder ergibt sich dann ein Gesamtbild. »Shared« meint bei dieser Sichtweise v. a. verteiltes Situationsbewusstsein. Je komplexer die soziotechnischen
70
4
Kapitel 4 · Wahrnehmung, Aufmerksamkeit und »Situation Awareness« (SA)
Organisationen werden, in denen Menschen entscheiden und handeln, desto schwieriger wird es, »shared situation awareness« herzustellen. Denn eine Vielzahl technischer Daten und Informationen gehen in das Lagebild ein. Betrachtet man beispielsweise das Cockpit eines modernen Verkehrsflugzeuges oder die Leitstelle eines Kraftwerkes, dann liegt eine fast unüberschaubare Menge an Informationen vor, die potenziell bedeutsam sein können und somit Teil der »situation awareness« und v. a. der »shared situation awareness« sein müssen. Hinzu kommen Informationen, die aufgrund geografischer Verteilung von Personen über unterschiedliche Kanäle und mit unterschied-
lichem Fachhintergrund bei den Handelnden ankommen. So muss eine Cockpitbesatzung mit den Fluglotsen unterschiedlicher Nationalitäten, ggf. mit dem Management der eigenen Fluglinie, evtl. mit technischen Experten, mit der Kabinenbesatzung und je nach Fluglage auch mit den Besatzungen anderer Maschinen kommunizieren und daraus ein an die jeweilige Situation angepasstes Situationsbewusstsein entwickeln. Obschon in der Literatur nicht klar definiert und unterschiedlich gebraucht, ist es sinnvoll, »team situation awareness« als Teil von »shared situation awareness« zu verstehen, und zwar dann, wenn sich »sharedness« auf Aspekte des Teams und nicht auf Aspekte der Aufgabe bezieht.
Beispiel Ein mit 4 Fluggästen und 1 Piloten besetztes Flugzeug (NEW PIPER/PA-34-220T) befand sich am 25.01.2001 auf dem Rückflug von Biggin Hill in England nach Augsburg. Geplant war ein nächtlicher Anflug mit dem Instrumentenlandesystem (ILS), da keine visuelle Sicht bestand. Die Kursänderung der Maschine brachte diese aber nicht auf den ILS-Kurs, und das Flugzeug stürzte im hügeligen Gelände neben der Landebahn ab. Dabei kamen 3 Fluggäste und der Pilot ums Leben. Die Untersuchung kam zu dem Ergebnis, dass der Unfall u. a. darauf zurückzuführen ist, dass das Lotsenteam im Center München in dieser nicht alltäglichen Situation die Sachlage (Kursabweichung vom eigentlich angestrebten Instrumentenlande-
Mit »shared situation awareness« kann also das Ausmaß bezeichnet werden, mit dem jedes Teammitglied die »situation awareness« aufweist, die es für die Durchführung seiner Handlungen im Team benötigt, oder die »situation awareness« über Strukturen und Prozesse des Teams selbst. Die notwendige Informationsübertragung, der Prozess, um die erforderliche SA zu erlangen, kann auf unterschiedliche Arten erfolgen. Beispielsweise ist ein verbaler Austausch oder eine separate Aufnahme von Daten aus der Aufgabenumgebung jedes einzelnen Teammitglieds möglich. Die Ebenen 2 und 3 im Modell von Endsley (Verständnis und Antizipation einer Situation) werden in einem Team entweder direkt kommuniziert oder bei Vorliegen gemeinsamer mentaler
kurs) nicht adäquat einschätzte und der Pilot nach einem langen Arbeitstag durch die hohe Arbeitsbelastung während des Anflugs sich nicht auf die veränderte Anflugart (Reiseflug zu ILS-Anflug) eingestellt hatte und deshalb nicht erkannte, dass er vom ILS keine Fluginformationen erhielt. Weder die Lotsen noch der Pilot hatten eine ausreichende »situation awareness«. Die beteiligten Personen und Verkehrskontrollstellen glichen die Kursabweichung untereinander nicht ab, sodass zum einen die unterschiedlichen Einschätzungen (verschiedene SA) nicht auffielen und zum anderen dadurch auch keine gemeinsame Einschätzung (»shared situation awareness«) entstand (Bundesstelle für Flugunfalluntersuchung, 2002).
Modelle auch ohne direkte Kommunikation hergestellt. Methoden und Studien zur Messung von »shared« bzw. »team situation awareness« sind bisher eher selten (vgl. Kaber & Endsley, 1998; Boudes & Cellier, 1998; Eyferth & Jungermann, 1998; Gorman, Cooke & Winner, 2006; Stanton et al., 2006; Bierhals, Schuster, Kohler & Badke-Schaub, 2007). Den Ariane-Experten gelang es zwar, rasch ein gemeinsames Lagebild aufzubauen, aber dieses war in Teilen falsch. Es ist nicht bekannt, ob tatsächlich alle Ingenieure das gleiche (falsche) Lagebild hatten oder ob an dieser Stelle Mechanismen der Selbstzensur, wie man sie z. B. aus dem Kontext Gruppendenken (»groupthink«; Janis, 1972; 7 Kap. 7) kennt, oder organisationelle Verantwortungsdiffusion (vgl. dazu
71 4.5 · Störungen der Wahrnehmung
z. B. die Challengerkatastrophe; Reason, 1990) dazu führten, dass die Abweichungen in den Lagebildern der Beteiligten nicht erkannt wurden.
4.5
Störungen der Wahrnehmung
Ohne funktionierende Wahrnehmung ist ein Erkennen, Erleben und Handeln unmöglich. Sowohl unsere Kenntnisse über die soziale und physikalische Welt als auch unser Wissen über unseren eigenen Körper sind Resultat von Wahrnehmungsvorgängen (Goldstein, 2002). Dies wird bei Handlungen und Arbeitstätigkeiten häufig erst bewusst, wenn die Wahrnehmung gestört ist oder ganz aussetzt (vgl. auch Schaub, 2006). Beispiel Auf der Suche nach einer Jagdtrophäe hatte ein 73-jähriger Jäger einen Soldaten in der Dunkelheit mit einem Fuchs verwechselt und den Soldaten, der aus seiner Stellung in einem Graben kletterte, angeschossen. Der Jäger hat den Soldaten vermutlich deswegen verwechselt, weil er auf der Jagd Wild suchte und der Soldat sich sehr niedrig am Boden kriechend bewegte. Altersbedingte Wahrnehmungseinschränkungen, die Erwartung und die »fuchstypische« Bewegungshöhe führten zu dem Wahrnehmungsfehler (FOCUS Online, 2007).
Die Gründe, warum etwas übersehen oder generell nicht wahrgenommen wird, lassen sich dauerhaften und situativen Ursachen zuordnen. Pathologische (dauerhafte) Wahrnehmungsstörungen finden sich bei allen Sinnesmodalitäten, sowohl peripher (an den Sinnesorganen) als auch zentral (in kortikalen Strukturen). Beispielsweise sind die häufigsten zentralen Sehstörungen homonyme Gesichtsfeldausfälle (Anopsien), die zu beidäugigen Beeinträchtigungen führen, z. B. durch die massive Einschränkung des Gesichtsfelds mit Folgen auf der Verhaltensebene wie z. B. Übersehen von Gegenständen oder Kollision mit Hindernissen. Eine nicht unerhebliche Zahl von Personen (v. a. Männer wegen einer geschlechtsgebundenen genetischen Komponente) sind für bestimmte Farben
4
farbenblind, z. B. Rotblindheit (Protanopie, ca. 2% der Männer), Grünblindheit (Deuteranopie, ca. 5% der Männer, 0,4% der Frauen), Blaublindheit (Tritanopie, ca. 0,003% der Männer und Frauen) oder totale Farbenblindheit (Monochromasie, ca. 0,005% der Männer und Frauen). Studien (z. B. Bosten, Robinson & Mollon, 2005) haben belegt, dass Farbfehlsichtige eine größere Anzahl von Khakitönen unterscheiden können als Normalsichtige. Dieses Phänomen wird z. B. beim Militär genutzt, da Farbfehlsichtige sich nicht so leicht von Tarnfarben täuschen lassen und daher einen getarnten Soldaten im Wald leichter erspähen als Normalsichtige. Dies liegt zum einen am oben genannten Phänomen, zum anderen daran, dass Farbfehlsichtige im Laufe ihres Lebens gelernt haben, sich eher auf Formen und Konturen zu konzentrieren als auf Farben. Im Bereich der pathologischen auditiven Wahrnehmungsstörungen findet sich z. B. der Tinnitus, der zu einer Wahrnehmung von Tönen oder Geräuschen führt, ohne dass tatsächlich entsprechende externe Reize vorliegen. Pathologische Wahrnehmungsstörungen können für den Einzelnen zu massiven Einschränkungen seines privaten und beruflichen Lebens führen. Im Kontext von Risiko- und Sicherheitsüberlegungen sind sie jedoch relativ unproblematisch, da sie aufgrund der habituellen Konstanz gut diagnostizierbar sind. Anders die aktualgenetischen (situativen) Wahrnehmungsstörungen, die in der Regel nur beim Zusammentreffen auslösender situativer Bedingungen, häufig in Kombination mit bestimmten Handlungen, auftreten und damit eine Diagnose bzw. Prognose für Sicherheitsmaßnahmen erschweren. Beispiel Zur Kapazitätserhöhung des Flughafens Sydney (Kingsford Smith) wurden 2 sich kreuzende Landebahnen gebaut. Am 12.08.1991 bemerkt der Pilot beim Aufsetzen seiner DC-10, dass der Umkehrschub inaktiv ist und die automatische Bremse versagt, sodass das Flugzeug nicht vor der Kreuzung der beiden Landebahnen zum Stehen kommen wird. Der Kapitän sieht, dass ein Airbus A320 die Landebahn bereits anfliegt, und versucht deshalb, die DC-10 wieder steigen 6
72
4
Kapitel 4 · Wahrnehmung, Aufmerksamkeit und »Situation Awareness« (SA)
zu lassen, ist aber so auf die andere Maschine fixiert, dass er seine Absicht dem Kopiloten nicht mitteilt. Der Kopilot sieht die andere Maschine nicht und wundert sich deshalb über das plötzliche Steigen der Maschine und drückt dagegen; er ist auf die Landebahn fixiert und sieht nur, was vor ihm passiert, aber nicht, was am Rand des Sehfeldes geschieht. Keiner von beiden betätigt deshalb den Prioritätenschalter, um die Steuerung der Maschine zu übernehmen. Daher heben sich die Wirkungen auf, sodass die Maschine weiter geradeaus fliegt. Die richtige Handlung des Piloten wird nicht umgesetzt, da er in seiner Wahrnehmung der Störung so gefangen ist, dass er seine Absicht nicht kommuniziert. Die DC-10 und der A320 verfehlen sich um knapp 10 m (Australian Bureau of Air Safety, 1991).
So können z. B. Handlungskonflikte, wie im obigen Beispiel, zu Wahrnehmungsverzerrungen hinsichtlich der Bestätigung der eigenen Meinung führen. »Bestätigungstendenz« (»confirmation bias«) bezeichnet die Neigung, einmal getroffene Annahmen durch eine einseitige Informationssuche und Wahrnehmung von verifizierenden Sachverhalten zu bestätigen (Reason, 1990; Evans, 1990; Tversky & Kahneman, 1974). Vor allem durch die Arbeiten von Tversky & Kahneman (2005) wurde auf die Bedeutung von Wahrnehmungs- und Urteilsverzerrungen hingewiesen, die durch die Eigenschaften der menschlichen Informationsverarbeitung bedingt sind (7 Kap. 3). Besonders bedeutsam ist hierbei die fehlerhafte Wahrnehmung der Häufigkeit von Ereignissen und der daraus folgenden Fehleinschätzung von Wahrscheinlichkeiten (z. B. Basisratenvernachlässigung/ »base-rate fallacy«: Kahneman & Tversky, 1973; BarHillel, 1980). 4 Die Basisratenvernachlässigung spielt z. B. eine große Rolle bei der Wahrnehmung und Bewertung von Analyse- und Testergebnissen. Urteilsheuristiken spielen eine wichtige Rolle, um fehlende, nicht wahrnehmbare Informationen zu ergänzen oder zu ersetzen. 4 Die Verfügbarkeitsheuristik wird genutzt, wenn die Wichtigkeit oder Häufigkeit eines Er-
eignisses beurteilt werden muss, aber gleichzeitig keine präzisen Informationen vorhanden sind. Das Urteil wird dann davon beeinflusst, wie (subjektiv) verfügbar dieses Ereignis oder Beispiele ähnlicher Ereignisse im Gedächtnis sind. Ereignisse, die leicht erinnerbar sind, werden als wahrscheinlicher/häufiger bewertet als Ereignisse, die schwer erinnerbar sind. Diese Heuristik wird, wie alle Urteilsheuristiken, in der Regel unbewusst eingesetzt. 4 Durch die Repräsentativitätsheuristik wird ein Ereignis oder Objekt (z. B. eine Person) umso eher einem Typ zu geordnet, je ähnlicher das Ereignis oder Objekt einem typischen Vertreter dieses Typs ist. 4 Bei der illusorischen Korrelation nehmen Personen Zusammenhänge zwischen unabhängigen Ereignissen war, die objektiv nicht vorhanden sind. Die Wahrnehmung illusorischer Zusammenhänge wird häufig durch die Salienz (Sinnfälligkeit) bestimmter Ereignisse erzeugt, die unabhängig von ihrer objektiven Häufigkeit ist. Flugzeugabstürze mit vielen Toten sind salienter (da in der Presse dokumentiert) als normale Flüge, deshalb erscheint Fliegen als gefährlicher, als es tatsächlich ist. 4 Die Anker- und Anpassungsheuristik bezeichnet die Orientierung eines Urteils oder einer Wahrnehmung an einem beliebigen (willkürlichen) Ankerreiz. Die Folge ist eine systematische Verzerrung der Eigenschaften des Objekts in Richtung des Ankers. Wird tagtäglich über Dutzende von Opfern in einer Krisenregion berichtet, erscheint ein Toter wenig, und die Situation wird als Entspannung und Verbesserung der Lage interpretiert. Dabei ist unter den Bedingungen von Unbestimmtheit und Komplexität die Tendenz der Wahrnehmung, Informationslücken durch konsistenzerzeugende Annahmen und Interpretationen zu schließen, besonders ausgeprägt (Tversky & Kahneman, 2005). Verstärkt werden Wahrnehmungsstörungen durch Müdigkeit, Drogen und Stress, die v. a. die Kapazität von Wahrnehmung und Aufmerksamkeit verändern. Obwohl meist eine Reduktion der Kapazität stattfindet, kann unter spezifischen Bedingungen
73 4.6 · Zusammenfassung
auch eine zeitweise Verbesserung der Wahrnehmung bzw. Aufmerksamkeit eintreten. Dies wird beispielsweise von den Bewusstsein erweiternden Eigenschaften von LSD behauptet; aber auch der Konsum von Drogen nach temporärem Drogenentzug führt zu einer relativen Verbesserung der Verarbeitungskapazität. Typische Beispiele sind Nikotin und Koffein, die nach Einnahme subjektiv zu einer verbesserten Aufmerksamkeit führen. Aufmerksamkeitsprozesse unterliegen einer neurochemischen Modulation; stimulierende Faktoren wie Koffein scheinen die Aufmerksamkeit vorübergehend zu erhöhen; Drogen wie LSD vermindern die selektive Aufmerksamkeit, manche Neuropeptide können die Aufmerksamkeitsreaktion ganz unterbinden (Cohen, 1993). Stress ist eine Anpassungsreaktion auf eine Überlastung des physiologischen und/oder psycho-
4
logischen Systems (7 Kap. 6). Die Anpassungsreaktion besteht darin, kurzfristig die Reaktionsfähigkeit des Individuums auf Belastungen zu verbessern bzw. bei langfristigen Belastungen den Einfluss dieser zu kompensieren. Die kurzfristige Verbesserung der Reaktionsfähigkeit besteht u. a. in der Verbesserung und Fokussierung der Wahrnehmung und Aufmerksamkeit, und zwar in einer Weise, die hauptsächlich darin besteht, dass Unwesentliches verstärkt ausgeblendet wird und damit die Kapazität für das aktuell Wichtige besonders erhöht wird. Stress führt also kurzfristig zu einer besonders pointieren Schwerpunktbildung durch fokussierte Aufmerksamkeit (Hobfoll & Buchwald, 2004; Selye, 1953; Dörner & Pfeiffer, 1992). Aber Wahrnehmungsstörungen finden nicht nur auf der individuellen Ebene statt, sondern sind auch (z. T. gewollte) soziale Konstruktionen.
Beispiel Die Panne im Kernkraftwerk Krümmel am 28.06.2007 hat besonders große Beachtung in der Öffentlichkeit gefunden. Laut einem Bericht im Spiegel vom 22.10.2007 habe die Rekonstruktion der Vorgänge gezeigt, dass viele Beteiligte, auch die Aufsichtsbehörden, falsches Spiel getrieben haben. »Was genau am 28. Juni geschah, lässt sich inzwischen präzise rekonstruieren. Tatsächlich ist der Störfall auch ein Lehrstück über die Manipulation von Meinung, über Opportunismus und die Versuchung, mit Ängsten Politik zu machen. Zu besichtigen sind in den Hauptrollen eine für die
Über die unbewussten Wahrnehmungsstörungen der Akteure hinaus versuchte im Interessenschnittfeld zwischen Klimaproblematik, Kraftwerkbetreibern und Umweltschützern jeder der Beteiligten, die Wahrnehmung der Öffentlichkeit in Sinne der jeweiligen Partikularinteressen zu manipulieren.
4.6
Zusammenfassung
Wahrnehmung ist ein komplexer Prozess der Informationsverarbeitung und wird von 2 Arten von Prozessen gesteuert: Zum einen »bottom-up«, von
Atomaufsicht zuständige Landesministerin, ein Bundesumweltminister und ein Unternehmen, das die Öffentlichkeit zu lange als Gegner betrachtet hat.« So wurde beispielsweise von verschiedenen Seiten die Schwere des Störfalls betont und u. a. von Verletzten durch den Brand berichtet. Tatsächlich, so der Spiegel, hatte sich am Morgen des 28. Juni, Stunden vor dem Störfall, ein Schlosser bei Bohrarbeiten einen Finger verletzt. Der zweite Verletzte an diesem Tag war ein Monteur, der über einen Insektenstich klagte (Der Spiegel, 2007).
den verschiedenen Sinnesrezeptoren zu den zentralen Verarbeitungsstationen bis hin zur bewussten Wahrnehmung, zum anderen »top-down«. Zentrale Prozesse wie Motive und Erwartungen bestimmen mit, was wie wahrgenommen wird. Menschen verfügen über eine Vielzahl von Wahrnehmungskanälen: Neben den klassischen 5 Sinnen (Sehen, Hören, Riechen, Schmecken und Tasten) existieren weitere Sensoren für Temperatur, Haltung, Schmerz und das Empfinden von Hunger und Durst. All diese Sinnesrezeptoren haben als Teil des Wahrnehmungssystems nicht die Aufgabe, die physikalische oder soziale Realität zu erfassen und abzubilden, sondern die Handlungsfähigkeit
74
4
Kapitel 4 · Wahrnehmung, Aufmerksamkeit und »Situation Awareness« (SA)
(und damit die Überlebens- und Fortpflanzungsfähigkeit) des Einzelnen sicherzustellen. Dabei setzt sicheres Handeln sichere Wahrnehmung voraus. Wahrnehmung ist eine Dienstleistungsfunktion der Handlung. Die Steuerung menschlicher Handlungen geschieht durch die Antizipation von sensorischen Effekten dieser Handlungen. Dabei ist Wahrnehmung in den Prozess der Handlungsorganisation integriert. Die Konzeption der »situation awareness« greift diesen Aspekt auf und stellt die Prinzipien und Fehler menschlicher Wahrnehmung in den Kontext der Fragen nach den Bedingungen sicheren Handelns. »Situation awareness« umfasst die Vorgänge am Inputrand des menschlichen Informationsverarbeitungssystems. Nur wenn der Weg vom Reizobjekt über die subjektive Wahrnehmung und das subjektive Verständnis im konkreten Fall verstanden ist und nachvollzogen werden kann, können Ableitungen über die Gestaltung von Arbeitsplätzen, über Fehlerreduktion und über die Implementierung soziotechnischer Prozesse zur Erhöhung von Sicherheit gemacht werden.
4.7
Literatur
Alberts, B., Bray, D. & Hopkin, K. (2001). Lehrbuch der Molekularen Zellbiologie. Weinheim: Wiley-VCH. Anderson, J. R. (1996). Kognitive Psychologie. Heidelberg u. a.: Spektrum Akademischer Verlag. Artman, H. & Garbis, C. (1998). Situation awareness as distributed cognition. In T. Green, L. Bannon, C. Warren, Buckley (Eds.), Cognition and cooperation. Proceedings of the European Conference on Cognitive Ergonomics, Cognition and Co-operation (pp. 151–165). Limerick, Ireland: Springer. Australian Bureau of Air Safety (1991). Report B/916/3032. A320 Attitude control input and DC-10 Autobrake System anomalies. Australian Government Department of Transport and Regional Services. Badke-Schaub, P., Neumann, A., Lauche, K. & Mohammed, S. (2007). Mental models in design teams: A valid approach to performance in design collaboration? CoDesign, 3 (1), 5–20. Bar-Hillel, M. (1980). The base-rate fallacy in probability judgments. Acta Psychologica, 44, 211–233. Bartlett, F. C. (1937). Psychology and the Royal Air Force, 1 – A general survey. Royal Air Force Quarterly, 8, 270–276. Bierhals, R., Schuster, I., Kohler, P. & Badke-Schaub, P. (2007). Shared mental models – Linking team cognition and performance. CoDesign, 3 (1), 75–94.
Boudes, N. & Cellier, J.-M. (1998). Étude du champs d’anticipation dans le controle du traffic aérien. Le travail humain, 61 (1), 29–50. Bosten, J. M., Robinson, J. D. & Mollon, J. D. (2005). Multidimensional scaling reveals a color dimension unique to‘colordeficient’ observers. Current Biology, 15, 950–952. Boyd, J. R. (1996). The Essence of Winning and Losing. Unpublished lecture notes. Broadbent, D. (1958). Perception and communication. Oxford u. a.: Pergamon Press. Broadbent, D. (1971). Decision and stress. London u. a.: Academic Press. Bruner, J. S. & Postman, L. (1949). On the perception of incongruity: A Paradigm. The Journal of Personality, 18, 206–223. Bundesstelle für Flugunfalluntersuchung (2000). Untersuchungsbericht CX001-0/0,1 April 2002. Braunschweig: Bundesoberbehörde im Geschäftsbereich des Bundesministeriums für Verkehr, Bau und Stadtentwicklung. Chapanis, A. (1970). Relevance of physiological and psychological critera to man-machine systems. Ergonomics, 13, 337–346. Chapanis, A. (1996). Human factors in engineering design. New York: Wiley. Cherry, E. C. (1953). Some experiments on the recognition of speech, with one and with two ears. Journal of the Acoustical Society of America, 25, 975–979. Cohen, R. A. (1993). The neuropsychology of attention. New York: Plenum. Craik, K. J. W. (1947). Theory of the human operator in control systems: I – The operator as an engineering system. British Journal of Psychology, 38, 56–61. Craik, K. J. W. (1948). Theory of the human operator in control systems: II – Man as an element in a control system. British Journal of Psychology, 38, 142–148. Davies, D. R., Matthews, G., Stammers, R. B. & Westerman, S. J. (2000). Human performance: Cognition, stress and individual differences. Hove, East Sussex: Psychology Press. Der Spiegel (22.10.2007). Nr. 43, S. 48. Dörner, D. & Pfeiffer, E. (1992). Strategisches Denken, strategische Fehler, Stress und Intelligenz. Sprache & Kognition, 11 (2), 75–90. Dörner, D. (1989). Die Logik des Mißlingens. Reinbek: Rowohlt. Dörner, D. (1999). Bauplan für eine Seele. Rowohlt: Reinbek. DPA (27.07.2007). DPA-Meldung 21.05 Uhr. Endsley, M. R. (1995a). A taxonomy of situation awareness errors. In R. Fuller, N. Johnston & N. McDonald (Eds.), Human Factors in Aviation Operations (pp. 287–292). Aldershot: Ashgate. Endsley, M. R. (1995b) Toward a theory of situation awareness in dynamic systems. Human Factors, 37(1), 32–64. Endsley, M. R., Bolté, B., Jones, D. G. (2003). Designing for situation awareness. An approach to user-centered design. London: Taylor & Francis. Evans, B. (1990). Bias in human reasoning: causes and consequences. New York: Psychology Press. Eyferth, K. & Jungermann, H. (1998). Mensch-Maschine-Interaktion in kooperativen Systemen der Flugsicherung und
75 4.7 · Literatur
Flugführung – Einfluß von Automatisierung auf die Repräsentation des Flugverkehrs durch Fluglotsen. Zwischenbericht an die DFG. FOCUS Online (2007). Jäger verwechselt Soldat mit Fuchs. http:// www.focus.de/panorama/welt/unfall_aid_136768.html. Friederici, A. D. (1999). Language comprehension: A biological perspective. Berlin: Springer. Funke, J. (2003). Problemlösendes Denken. Stuttgart: Kohlhammer. Glasersfeld, E. von (1985). Konstruktion der Wirklichkeit und der Begriff der Objektivität. In H. Gum & H. Meier (Hrsg.), Einführung in den Konstruktivismus (S. 9–39). München: Piper. Goldstein, B. (2002). Wahrnehmungspsychologie. Heidelberg: Spektrum Akademischer Verlag. Gorman, J. C., Cooke, N. J. & Winner, J. L. (2006). Measuring team situation awareness in decentralized command and control environments. Ergonomics, 49 (12), 1312–1325. Hacker, W. (1986). Arbeitspsychologie. Berlin: VEB Deutscher Verlag der Wissenschaften. Heyse, K. von (1856). System der Sprachwissenschaft. Berlin: F. Dümmler. Hobfoll, S. E. & Buchwald, P. (2004). Die Theorie der Ressourcenerhaltung und das multiaxiale Copingmodell – eine innovative Stresstheorie. In P. Buchwald, C. Schwarzer & S. E. Hobfoll (Hrsg.), Stress gemeinsam bewältigen – Ressourcenmanagement und multi-axiales Coping (S. 11–26). Göttingen: Hogrefe. Hölscher, U. (1969). Parmenides. Vom Wesen des Seienden. Die Fragmente griechisch und deutsch. Frankfurt a. M.: Suhrkamp. Hofinger, G. (2005). Menschliche Wahrnehmung. In M. St. Pierre, G. Hofinger & C. Buerschaper, Notfallmanagement. Human Factors in der Akutmedizin (S. 48–55). Heidelberg: Springer. Ibscher, G. (1996). Fragmente zur Ethik. Reclam: Stuttgart. James, W. (1890). The principles of psychology. New York, London: Holt and Macmillan. Janis, I. L. (1972). Victims of groupthink. Boston. Houghton Mifflin Company. Jeannot, E., Kelly, C. & Thompson, D. (2003). The development of situation awareness measures in ATM systems. Brussels: Eurocontrol. Kaber, D. A. & Endsley M. R. (1998). Team situation awareness for process control safety and performance. Process Safety Progress, 17 (1), 43–48. Kahneman, D. (1973). Attention and effort. Englewood Cliffs, NJ: Prentice-Hall. Kahneman, D. & Tversky, A. (1973). On the psychology of prediction. Psychological Review, 80, 237–251. Karnath, H.-O. & Thier, P. (Hrsg.) (2006). Neuropsychologie. Heidelberg: Springer. Klein, G. (1997). The current status of the naturalistic decision making framework. In R. Flin, E. Salas, M. Strub & L. Martin (Eds.), Decision making under stress: Emerging themes and applications (pp. 11–28). Aldershot, GB: Ashgate. Lass, U., Yunqiu, F., Guopeng, C., Becker, D. & Lüer, G. (1999). Is memory for shapes subject to language specific effects?
4
An experimental study of memory span in German and Chinese subjects. Sprache und Kognition, 18, 136–145. Lions, J.-L. (1996). ARIANE 5 Flight 501 Failure. Report by the Inquiry Board. Online-Dokument, verfügbar unter http://sunnyday.mit.edu/accidents/Ariane5accidentreport.html. Mars Climate Orbiter Investigation Board (1999). Mars Climate Orbiter mishap investigation board phase I Report. OnlineDokument, verfügbar unter ftp://ftp.hq.nasa.gov/pub/ pao/reports/1999/MCO_report.pdf. Material der Bundesanstalt für Flugunfalluntersuchung (2000). Jahresbulletin 2000, Teil 2: Berichte, Aktenzeichen 2X0030/00. Miller, G. A. (1956). The magical number seven, plus or minus two: some limits on our capacity for processing information. Psychological Review, 63 (2), 81–97. Mitschke, T. (1997). Handbuch für technische Einsatzleitungen. Stuttgart, Berlin, Köln: Kohlhammer. Navon, D. & Gopher, D. (1979). On the economy of the human processing system. Psychological Review, 86, 214–255. Neisser, U. (1967). Cognitive Psychology. New York: AppletonCentury-Crofts. Neumann, U. (2001). Platon. Reinbek: Rowohlt Taschenbuch Verlag. Norman, D. A. (1968). Toward a theory of memory and attention. Psychological Review, 75, 522–536. Orasanu, J. (1990). Shared mental models and crew decision making (Tech. Rep. No.46). Princeton, NJ: Princeton University, Cognitive Sciences Laboratory. Orasanu, J. & Salas, E. (1993). Team decision making in complex environments. In G. Klein, J. Orasanu, R. Calderwood & C. E. Zsambok (Eds.), Decision making in action: Models and methods (pp. 327–346). Norwood, NJ: Ablex. Reason, J. (1990). Human Error. Cambridge: Cambridge University Press. Schaub, H. (1997). Decision making in complex situations: Cognitive and motivational limitations. In: R. Flin, E. Salas, M. E. Strub & L. Martin (Eds.), Decision making under stress. emerging themes and applications (pp. 291–300). Aldershot: Ashgate. Schaub, H. (2006). Störungen und Fehler beim Denken und Problemlösen. In J. Funke (Hrsg.), Enzyklopädie der Psychologie, Band C/II/8 »Denken und Problemlösen« (S. 447–482). Göttingen: Hogrefe. Schaub, H. (2007). The importance of the characteristics of the task to understand team mental models. CoDesign, 3 (1), 37–42. Schmidt, R. F. & Schaible, H.-G. (Hrsg.) (2006). Neuro- und Sinnesphysiologie. Berlin: Springer. Selye, H. (1953). Einführung in die Lehre vom Adaptionssyndrom. Stuttgart: Georg Thieme Verlag. Spick, M. (1989). The ace factor. New York: Avon Books. Spieß, R. (2002). Unbewusste Informationsverarbeitung. Forschungsansätze, Ergebnisse und methodische Probleme. Hamburg: Verlag Dr. Kovač. Stanton, N. A., Stewart, R., Harris, D., Houghton, R. J., Baber, C., McMaster, R., Salmon P., Hoyle, G., Walker, G., Young, M. S., Linsell, M., Dymott, R. & Green, D. (2006). Distributed situa-
76
Kapitel 4 · Wahrnehmung, Aufmerksamkeit und »Situation Awareness« (SA)
tion awareness in dynamic systems: Theoretical development and application of an ergonomics methodology. Ergonomics, 49 (12), 1288–1311. Stewart, S. (1986). Air disasters. London: Arrow. Sun Tzu (1988). The Art of Strategy, translated by R. L. Wing. Seattle, Washington: Main Street Books. Treisman, A. M. & Gelade, G.(1980). A feature-integration theory of attention. Cognitive Psychology, 12, 97–136.
4
Tversky A. & Kahneman, D. (1974). Judgment under uncertainty: Heuristics and biases. Science, 185, 1124–1130. Tversky, A. & Kahneman, D. (2005). Judgment under uncertainty: Heuristics and biases. In M. Bazerman (Ed.), Negotiation, decision making and conflict management, Vol 1–3. (pp. 251–258). Northampton, MA: Edward Elgar. Watts, B. D. (1996). Clausewitzian friction and future war. McNair Paper no. 52. Washington, DC: Institute of National Strategic Studies, National Defense University.
5 Denken – Entscheiden – Handeln Winfried Hacker und Rüdiger von der Weth
5.1
Einleitung und kurze Übersicht – 78
5.2
Verhalten – Handeln – Denken
– 78
5.2.1 Verhalten – Tätigkeit – Handlung – 78 5.2.2 Tätigkeits- und Handlungsregulation durch zielrelevantes Wissen und Denken – 81
5.3
Handeln unter komplexen Bedingungen – 82
5.3.1 5.3.2 5.3.3 5.3.4
Merkmale komplexer Situationen – 83 Anforderungen an menschliches Handeln – 85 Risiken und Fehler – 86 Hilfen für den Umgang mit Komplexität – 87
5.4
Entscheiden als Komponente von Handlungen – 88
5.4.1 Merkmale und Bestandteile von Entscheidungsprozessen – 88 5.4.2 Entscheidungsmodelle und Entscheidungsarten – 89 5.4.3 Besonderheiten des alltäglichen (natürlichen) Entscheidens – 90
5.5
Zusammenfassung und Ausblick
5.6
Literatur
– 92
– 92
78
Kapitel 5 · Denken – Entscheiden – Handeln
Beispiel Eine dramatische Notlandung in Wien beherrschte am 12.07.2000 die Nachrichtensendungen. Einem Piloten eines Airbus A310-304, der Pauschaltouristen aus Kreta nach Hannover zurückbefördern sollte, gelang eine Notlandung, obwohl jegliche Treibstoffzufuhr versiegt war. Dieser Pilot, dessen Können zunächst gefeiert wurde, stand trotz dieses Beweises fliegerischen Könnens noch Jahre später vor Gericht. Er hatte eine krasse Fehlentscheidung gefällt, weil er nicht schon vorher einen anderen Flughafen ansteuerte. Diese Fehlentscheidung wiederum beruhte laut Auswertung der Flugunfall-Untersuchungsstelle Österreich (2006) auf der Wahl einer falschen Informationsquelle oder – diese Aussage ist allerdings spekulativ – möglicherweise auf »Denkfaulheit«. Bereits während des gesamten Fluges war aufgrund eines technischen Defekts das Fahrwerk
5
5.1
Einleitung und kurze Übersicht
Wir wollen an dieser Stelle die Schuldfrage nicht diskutieren. Im Rahmen des vorliegenden Beitrags geht es vielmehr darum, psychologische Gesetzmäßigkeiten beim Denken, Entscheiden und Handeln in Grundzügen darzustellen, die zur Erklärung des Verhaltens in dieser und natürlich auch in anderen sicherheitsrelevanten Situationen beitragen können. Zunächst wird darauf eingegangen, welche Rolle Denken und Problemlösen beim menschlichen Alltagshandeln spielen. Anschließend werden besonders komplexe Anforderungen betrachtet. Diese sind kennzeichnend für alle Praxisbereiche, die in diesem Buch angesprochen werden. 4 Welche Merkmale sind typisch für Komplexität? 4 Welche Anforderungen entstehen daraus für das menschliche Handeln? 4 Welche Risiken können daraus abgeleitet werden? Anschließend werden Hilfsmittel diskutiert, die diese Risiken zu minimieren helfen. Denken und Handeln sind Voraussetzungen für die Qualität derjenigen Entscheidungen, die so häufig im Fokus des öf-
ausgefahren gewesen. Dies ist im Prinzip nicht gefährlich, bewirkt aber einen erheblich höheren Treibstoffbedarf. Dieser Sachverhalt war der Crew bekannt. Was sie in dieser Situation nicht bedachte, war, dass sich der höhere Treibstoffverbrauch nicht in den Berechnungen des automatischen Prognosesystems – Flight Management System (FMS) – niederschlug. Dieses System, das der Crew die Entscheidung erleichtert, wie weit und wie lange die Maschine noch fliegen kann, bevor erneut getankt werden muss, lieferte somit falsche Daten. Die beschriebene Arbeitsweise des Systems war aus der Aus- und Weiterbildung den Piloten bekannt und hätte von ihnen berücksichtigt werden müssen. Hierin lag letztlich die Fahrlässigkeit, die einen der Piloten seine Fluglizenz sowie seinen Arbeitsplatz kostete und ihm im Mai 2004 eine Verurteilung wegen gefährlichen Eingriffs in den Luftverkehr einbrachte.
fentlichen Interesses stehen. Der letzte Teil dieses Beitrags befasst sich daher mit dem menschlichen Entscheiden und dabei v. a. mit den Konsequenzen, die sich aus dem bis dahin Gesagten für den Entscheidungsprozess ergeben. Entscheiden soll hier jedoch nicht als singuläres Wahlereignis verstanden werden, sondern als komplexer psychischer Prozess mit den einem solchen Wahlakt vorausgehenden und folgenden psychischen Aktivitäten. Vertieft soll in diesem Abschnitt auf die Untersuchung sog. naturalistischer Entscheidungen eingegangen werden.
5.2
Verhalten – Handeln – Denken
Der Begriff »Verhalten« wird als Oberbegriff verwendet, der u. a. die Tätigkeiten und Handlungen von Menschen einschließt.
5.2.1 Verhalten – Tätigkeit – Handlung Verhalten Der Verhaltensbegriff ist nicht verbindlich definiert. Im Verständnis der Wissenschaften, die sich mit Lebewesen beschäftigen, bezeichnet Verhalten die Ge-
79 5.2 · Verhalten – Handeln – Denken
5
samtheit der möglichen Lebensäußerungen von Lebewesen. Hier interessiert nur das Verhalten von gesunden erwachsenen Menschen. Das Verhalten dieser Menschengruppe schließt zahlreiche Vorgänge ein, die sie mit anderen Lebewesen teilt, beispielsweise das Atmen, Kauen und Verdauen, das Kratzen juckender Körperpartien, das Blinzeln, Paarungsabläufe oder allgemeine angeborene und erlernte reflektorische sowie instinktive Abläufe. Bei gesunden erwachsenen Menschen, insbesondere solchen, die ihren Lebensunterhalt selbst sichern müssen, sind auf das Erreichen von Zielen gerichtete und möglichst rationell ausgeführte Tätigkeiten die entscheidende Art von Verhaltensvorgängen.
weise Zeitdruck, klimatische Verhältnisse oder erlebten Wettbewerb umfassen können, 4 das selbst als Tätigkeitsanstoß beabsichtigte oder geforderte Tätigkeitsergebnis, dass je nach Einordnung der Tätigkeit irgendwann und ohne Aufwandsbeschränkung oder aber termingerecht, rationell, sicher und forderungsgerecht vorliegen sollte oder vorliegen muss. Je klarer, zwingender und präziser die Vornahmen bzw. Vorgaben bezüglich des Resultats und seiner Erreichungsbedingungen sind, desto unerlässlicher und präziser müssen logischerweise die tätigkeitsregulierenden Vorwegnahmen (Antizipationen) des Ergebnisses und seiner Erzeugungsprozedur sein.
Tätigkeiten
Eine Teilmenge der menschlichen Tätigkeiten sind die zielgerichteten Tätigkeiten, die insbesondere bei Erwerbs- und Eigenarbeit, aber auch bei institutionalisierter und durch Prüfungen kontrollierter Lerntätigkeit vorliegen. Ziele bezeichnen in der wissenschaftlichen Psychologie die Einheit von ideellen Vorwegnahmen (Antizipationen) eines Tätigkeitsergebnisses und der Absicht (Intention), es mit eigener Anstrengung zu erreichen. Der Zielbegriff ist der Kernbegriff der wissenschaftlichen Tätigkeitsanalyse, -bewertung und -gestaltung. Das geht darauf zurück, dass Ziele 5 Merkmale aufweisen:
! Tätigkeit bezeichnet den Vorgang, der ein bestimmtes Verhältnis des Menschen zur Umwelt, zu anderen Menschen und zu den vom Leben gestellten Aufgaben verwirklicht (Rubinstein, 1958). Menschliche Tätigkeiten unterscheiden sich durch das Ausmaß ihrer Bewusstheit, durch ihre Organisation und ihre Kooperativität (Clauß, 1995).
Tätigkeiten sind zu beschreiben durch 4 das Subjekt, d. h. die tätige Person bzw. die tätigen Personen mit ihren tätigkeitsrelevanten Merkmalen, beispielsweise ihren Absichten und ihrem Können, 4 den Tätigkeitsgegenstand, in Arbeitstätigkeiten beispielsweise das Metallstück oder der zu pflegende Patient, 4 die selbstgestellte Aufgabe oder den übernommenen Auftrag, beispielsweise das Fertigen eines Schraubengewindes, das Impfen eines Kindes oder bei der Eigenarbeit das Bügeln eines Hemdes, wobei Rahmenbedingungen wie z. B. Arbeitsrechtsverhältnisse wirksam sein können, 4 die erforderlichen und die genutzten Mittel, in Arbeitstätigkeiten also die Arbeitsmittel (Werkzeuge, Maschinen, Anlagen und Hilfsmittel als Hard- und Software), z. B. die Drehbank oder die Kanüle, 4 die Ausführungsbedingungen u. a. zeitlicher, räumlicher oder sozialer Art, bei Arbeitstätigkeiten also die Arbeitsbedingungen, die beispiels-
Ziele sind 4 die erkenntnisbasierte (kognitive) Vorwegnahme des Tätigkeitsergebnisses mit 4 der antriebsmäßigen (motivationalen) Absicht zum Erreichen dieses Ergebnisses und 4 der gedächtnismäßigen Speicherung als Leitinstanz bis zum endgültigen Erreichen des Zieles, dabei 4 Ansatzstelle von tätigkeitsspezifischen Gefühlen (Emotionen), insbesondere von Erfolgs-, Misserfolgs- oder Flusserleben (Flow), sowie 4 habituell (relativ beständig) eine Komponente des Selbstwerterlebens bzw. als Teil hiervon des Selbstwirksamkeitserlebens in Abhängigkeit vom beständigen Verfehlen oder Erreichen selbstgesetzter Ziele.
80
5
Kapitel 5 · Denken – Entscheiden – Handeln
Bei zielgerichteten Tätigkeiten wird nicht irgendein irgendwie irgendwann mit beliebigen Zeit-, Material-, Geld- und Kraftaufwand erreichtes Ergebnis hingenommen, sondern ein selbstgesetztes oder gefordertes Ergebnis mit rationellem (d. h. nach Aufwand und ggf. auch nach dabei entstandenem Schaden bewertetes) Resultat ist angestrebt. Das ist nur möglich bei zumindest schrittweiser Vorwegnahme und Abwägung der Tätigkeitsschritte und ihrer Zwischenergebnisse, dem Probehandeln im anschaulichen Vorstellen oder im Denken und dem willentlichen (volitiven) Verfolgen ausgewählter Vorgehensweisen. Weil gesunde Erwachsene zu diesem zielgerichteten Tätigsein prinzipiell in der Lage sind, werden sie auch für die Folgen ihres Handelns verantwortlich gemacht, zur Rechenschaft gezogen und ggf. juristisch begründet bestraft. Die eben formulierte Einschränkung »prinzipiell« verweist auf Präzisierungsbedarf: Ziele als ideelle Vorwegnahmen der angestrebten Ergebnisse sind im Alltagshandeln sehr verschieden im Hinblick auf ihre Verankerung in Bedürfnissen, Interessen, in der Motivation, im Hinblick auf den erforderlichen Tätigkeitsumfang und hinsichtlich der Möglichkeiten ihrer Detaillierung und Präzisierung: 4 Zielgerichtete Tätigkeiten können durch Bedürfnisse ausgelöst sein, z. B. ein erfrischendes Bad zu nehmen. Zielgerichtete Tätigkeiten sind häufiger jedoch durch Quasibedürfnisse, d. h. gleichsam wie Bedürfnisse wirkende Ziele, ausgelöst und reguliert. Beispielsweise gibt es kein angeborenes Bedürfnis, arbeitstäglich ab 7 Uhr emsig und zielgerichtet Müll zu räumen. Hier muss ein Ziel statt eines Bedürfnisses einspringen. 4 Zielgerichtete Tätigkeiten können in einem Tätigkeitsschritt das vorweggenommene Tätigkeitsresultat erreichen. In der Regel sind jedoch mehrere oder gar viele Tätigkeitsschritte dazu erforderlich. Dann sind Ketten von Teil- oder Zwischenzielen abzuleiten und zu verfolgen, die geordnet, zurückgestellt, behalten und zeit- sowie sachgerecht aus dem prospektiven Gedächtnis reaktiviert werden müssen. Diese Erfordernisse gelingen keineswegs automatisch und sind daher Quellen verschiedenartiger Handlungsfehler bzw. Fehlhandlungen (vgl. Hacker, 2005). Eine Psychologie der Sicherheit muss deshalb
Maßnahmen zur Absicherung u. a. dieser handlungsinternen Vorgänge angeben. 4 Sofern Tätigkeiten mehrere Tätigkeitsschritte umfassen, ist im Falle des Erfordernisses der rationellen und ergebnissicheren Ausführung ein Planen als Abfolgeplanung (»scheduling«) und ein Mittel-Weg-Erwägen (»planning«) unerlässlich. Es erfolgt teils als Vorplanen (»planning in advance«), teils während des Handelns (»planning in action«). Diese hybride Planung ist wegen der begrenzten Kapazität menschlichen Erwägens (der begrenzten Bewusstheitskapazität, Mentaloder Arbeitsgedächtniskapazität) unerlässlich und zugleich auch hilfreich für flexibles Handeln. Die erwähnten Unterschiede in der Möglichkeit, Ziele bis in ihre Einzelheiten und präzise vorab als komplettes Abbild des künftigen Ergebnisses oder lediglich als vage Umschreibung eines mit eigener Anstrengung zu füllenden Defizits entwickeln zu können, bedingt sehr unterschiedliche Typen der zielgerichteten Tätigkeit. Gemeinsam ist ihnen, dass weder absichtsloses Treibenlassen noch ein Durchwursteln (»muddling through«; Lindblom, 1959), wie und wohin auch immer, vorliegt. Bei den sog. Entwurfstätigkeiten (etwa bei einer Neukonstruktion, dem Entwickeln einer Organisationslösung, dem Komponieren einer Sinfonie oder dem organisierten Aktivieren lustloser Schüler zur Vorbereitung auf die Mathematikprüfung) ist das Ziel nur grob umschrieben, es ist in seinen Einzelheiten erst noch zu entwickeln. Das ist erst beim Handeln, d. h. in Rückkopplungen mit einem anfangs noch kaum gerichteten, auf Vermutungen aus dem Vorwissen gestützten probierenden Vorgehen möglich. In der Regel können abschnittweise bekannte Teilschrittfolgen in dieses Probieren eingebaut werden. Diese Art des Verfolgens erst im Tun zu präzisierender Ziele kann als »opportunistisch mit systematisch organisierten Episoden« bezeichnet werden (Visser, 1994). Die probeweise herangezogenen Gelegenheiten (»opportunities«) sind Erinnerungen (d. h. Wissensaktualisierungen) an anderweit schon einmal nützliche Vorgehensschritte. Sie ermöglichen schrittweise die Zielpräzisierung und dadurch das umfassendere Nutzen zielgerichteter Abschnitte neben dem vermutungsgeleitet-probierenden, intuitiven Vorgehen (vgl. Hacker, 2005).
81 5.2 · Verhalten – Handeln – Denken
Handlungen Die bisher als »Tätigkeitsschritte« bezeichneten Abschnitte in Tätigkeiten werden in der Regel als »Handlungen« bezeichnet. ! Handlungen sind relativ selbstständige Abschnitte zielgerichteter Tätigkeiten, die Teilziele realisieren.
Wie die Tätigkeiten, können ihre nur relativ selbstständigen Abschnitte in mehreren Hinsichten näher beschrieben werden: Menschen kalkulieren den zu erwarteten Nutzen von Tätigkeits- bzw. Handlungsergebnissen und die vermutete Wahrscheinlichkeit, diesen Nutzen auch erreichen zu können, sofern sie Wahlmöglichkeiten besitzen (Theorie überlegten Handelns; Fishbein, 1980; 7 Kap. 5.4). Des Weiteren ist das Vorgehen, z. B. die Teilzielkette und die in ihr eingesetzten Mittel, sowohl bei Tätigkeiten als auch bei Handlungen in der Regel nur teilweise frei wählbar. Es besteht eine in unterschiedlichem Grad begrenzte Durchschaubarkeit, Vorhersehbarkeit und Beeinflussbarkeit (Kontrollierbarkeit, Kontrolle) der Situation. Die auszuführenden Tätigkeiten und Handlungen müssen Bedingungen gehorchen, nämlich personalen oder materialen Hindernissen bzw. Ressourcen, Normen und eigenen oder fremden ethischen und wirtschaftlichen Bewertungen. Die wahrgenommene Beeinflussbarkeit kann in Grenzen erlauben vorherzusagen, welches Vorgehen von einer Person gewählt werden wird (Theorie geplanten Handelns; Ajzen, 1991; Ajzen & Fishbein, 1980; Jonas & Doll, 1996).
5.2.2 Tätigkeits- und
Handlungsregulation durch zielrelevantes Wissen und Denken Wir wissen bisher: Zielgerichtete Tätigkeiten und ihre Komponenten, die teilzielgerichteten Handlungen, werden reguliert durch zielbezogenes Vorwissen in Wechselwirkung mit dem Neuausdenken von Vorgehensmöglichkeiten, sofern das vorhandene Wissen nicht ausreicht, nicht zeitgerecht oder zu mühsam reproduziert werden kann. Gelegentlich kann Wissen ein Neuausdenken erübrigen, und gelegentlich kann Denken das Wis-
5
sen bzw. den Wissensabruf überflüssig machen. Im Alltag sind Wissensabruf und Denken in der Regel kombiniert. Beispiel Wenn man sich nicht einprägen möchte und damit nicht weiß, dass 172=289 ist, so kann man das Ergebnis durch elementare Denkoperationen ermitteln. Dabei handelt es sich um sog. algorithmisches, regelgeleitetes Aufgabenbearbeiten, nicht aber um Problemlösen.
Ebenso ist die Trennung des Denkens vom Handeln, d. h. vom zielgerichteten gegenständlichen Manipulieren, ein Kunstprodukt bzw. eine Fiktion kognitionswissenschaftlicher Laborforschung. Sprechen – auch innerlich und mit sich selbst – als psychomotorische, d. h. Muskelinnervationen einschließende Aktivität, des Weiteren Gestikulieren, Skizzieren, Schreiben, Singen bzw. Summen beim Komponieren sowie auch Modellbasteln sind Aktivitäten, die häufig neben vorstellungsmäßigem oder begrifflich gestütztem inneren Operieren ablaufen. Dieses externe Denkhandeln entlastet nicht nur das unerlässliche Behalten von zu bearbeitender Information, also das Arbeitsgedächtnis, sondern trägt auch zur Informationsverarbeitung bei (für detaillierte Belege dieser Behauptung vgl. Sachse, 2002; Sachse, Hacker & Leinert, 2004). Denken entwickelt sich im Handeln und dient seiner Regulation (Rubinstein, 1958). Für eine Psychologie der Sicherheit sind die daraus resultierenden Unterstützungs- und Absicherungsmöglichkeiten störungsgefährdeten Denkens ausschlaggebend. Denken als besondere, durch Sinneseindrücke, Sprechen und Sprache vermittelte Art von erkenntnisschaffenden (kognitiven) Vorgängen tritt in vielfältigen Formen auf. Es gibt also nicht das Denken.
Formen von Denkleistungen 4 Klassifizieren nach in unterschiedlichen Maße abstrakten Merkmalen, u. a. als Bilden zutreffender Begriffe anhand relevanter 6
82
Kapitel 5 · Denken – Entscheiden – Handeln
5.3
4 4
5 4
4
Merkmale (z. B. Säugetiere, zu denen bekanntlich auch Wale gehören) Regelgeleitetes, algorithmisches Aufgabenbearbeiten (z. B. Dividieren) Schließen oder Schlussfolgern, und zwar als deduktives, induktives oder analoges Schließen, einschließlich von Wahrscheinlichkeitsschlüssen etwa unter Berücksichtigung mathematischer Gesetzmäßigkeiten, dessen zahlreiche Fehlermöglichkeiten häufige Quellen von Sicherheitsverstößen sind Lösen von klar definierten Problemen, wobei im Unterschied zu Aufgaben nicht nur die Lösung, sondern – je nach Kompliziertheitsgrad – unterschiedlich viele Komponenten des Lösungsprozesses (beispielsweise die Mittel, die zulässigen Wege, die Ausgangszustände) erst zu finden sind Lösen bzw. Bearbeiten komplexer, vernetzter, dynamischer Probleme mit schlecht definierten Problemräumen (lösungsrelevanten Bestandteilen) und oftmals der Erfordernis, zunächst überhaupt das zu lösende Problem zu erkennen
Im Alltagshandeln herrschen die komplexen, vernetzten und eigendynamischen, d. h. sich selbst verändernden Probleme vor. Diese schließen die anderen Denkleistungen in unübersehbar verschiedenartigen Kombinationen ein und umfassen sowohl die Diagnose als auch die Maßnahmenableitung. Das Eingangsbeispiel illustriert die Kombination von Wissenseinsatz (Treibstoffverbrauch), Schlussfolgern (Erkennen der Fehlberechnung des für Normalbedingungen programmierten Computersystems) und schlussfolgerungsgestützte Maßnahmenableitung (Ausweichflughäfen vor dem Zielort) im Alltagshandeln, zu dem Erwerbs-, Eigen- und ehrenamtliche Arbeit mit meist weitaus weniger spektakulären Fehllösungen gehören.
Handeln unter komplexen Bedingungen
Die bisher beschriebenen Denk- und Planungsleistungen sind im Alltag ein Bestandteil eines Handlungsstroms, der eine Menge der beschriebenen kognitiven Aktivitäten integriert. Wer eine komplexe Anlage überwacht, wer Warenströme in einer vernetzten Logistikkette steuert oder langfristige Konstruktionsprojekte bearbeitet, der sieht sich einer Fülle von miteinander verzahnten Denk-, Planungsund Entscheidungsanforderungen gegenüber. Aus diesem Grund sind zwar einerseits die bisher beschriebenen Leistungen für erfolgreiches Bewältigen der inhaltlichen Aufgaben auch bei komplexen Anforderungen notwendig, darüber hinaus treten aber andere Leistungen bei der übergreifenden Organisation und Kontrolle dieses Handlungsstroms immer mehr in den Vordergrund: 4 Auswahl angemessener Ziele 4 Richtige Strategie bei der Suche und Integration wichtiger Informationen 4 Auswahl angemessener Planungs- und Entscheidungsverfahren 4 Angemessene Strategie für die Kontrolle des Fortgangs der Aktivitäten All dies kann nur gelingen, wenn die Anforderungen des komplexen Handlungskontextes und auch die eigenen Handlungsvoraussetzungen (wie z. B. Wissen, Können, Motivation) angemessen abgebildet werden (vgl. von der Weth, 2001). Je komplexer Anforderungen sind, umso mehr sind die beschriebenen Prozesssteuerungs- und Selbstorganisationsaktivitäten ihrerseits eine Angelegenheit komplexer Planungsaktivitäten. Diese basieren auf Wissen und Können, das v. a. im Verlauf der beruflichen Sozialisation teilweise explizit vermittelt wird und durch die Auseinandersetzung mit den komplexen Anforderungen durch weiteres Wissen und Können ergänzt wird (vgl. Schön, 1983). Folgendes ist dabei zu beachten: Viele auch komplexe Vollzüge des Alltagshandelns werden durch Routinen gesteuert. Das Vorgehen beim morgendlichen Aufstehen, der Weg zur Arbeit oder die ersten Verrichtungen am Arbeitsplatz sind selten Gegenstand von bewussten Planungsaktivitäten (Man fragt sich z. B. selten oder nie: Ist meine Art,
83 5.3 · Handeln unter komplexen Bedingungen
den Kaffee einzuschenken, effizient?). Dies gilt auch für durchaus anspruchsvolle, aber kurzzyklische Arbeitstätigkeiten (z. B. im Bereich der Arbeit eines praktischen Arztes oder einer Juristin). Auch hier gibt es keine Vorgehensmethodik im engeren Sinne, sondern im Alltagshandeln erworbene, in vielen Bereichen implizite Steuerungsroutinen. Je komplexer und langfristiger Anforderungen sind, umso mehr muss sich der Handelnde (z. B. ein Marketingmanager, eine Bauprojektleiterin, ein Logistiker) bewusst mit der Handlungsorganisation und auch mit dem Wissen und den Regeln, die dazu in dem jeweiligen beruflichen Umfeld herrschen, aus-
5
einandersetzen. Alle Aktivitäten des Planens und Entscheidens sind daher auch nur vor dem Hintergrund und im Kontext der Vorgeschichte und den wahrgenommenen konkreten Rahmenbedingungen nachvollziehbar.
5.3.1 Merkmale komplexer Situationen In der Psychologie gibt es auf den ersten Blick eine relativ übereinstimmende Auffassung über die Merkmale komplexer Situationen; gängig ist etwa die folgende Beschreibung:
Merkmale komplexer Probleme (Schaub, Strohschneider & von der Weth, 1994, S. 252) 4 »Sie sind umfangreich. Die Probleme bestehen aus vielen Variablen, die beachtet werden müssen und deren Zustand der Problemlöser kennen sollte. 4 Sie sind vernetzt. Die Variablen stehen nicht isoliert nebeneinander, sondern sie beeinflussen sich gegenseitig über Verbindungen unterschiedlicher Richtung, Charakteristik und Stärke. Die Vernetztheit hat zur Folge, daß Maßnahmen häufig nicht nur den intendierten Haupteffekt haben, sondern es zu Nebenwirkungen (unbeabsichtigte Veränderung anderer Variablen) und Fernwirkungen (unbeabsichtigte langfristige Auswirkungen) kommt. 4 Sie sind intransparent. Komplexe Probleme sind für den Problemlöser unter den gegebenen Zeitrestriktionen selten vollständig durchschaubar. Es kann unklar bleiben, welche Aspekte überhaupt zum Problem gehören
Mögen diese Kriterien für Komplexität auf den ersten Blick eindeutig und zustimmungsfähig erscheinen, so ergeben sich dennoch Fragen, die in der Psychologie heftig debattiert wurden. So gibt es Bestrebungen nach einer möglichst objektiven Definition von Komplexität (Funke, 1990). Funke unterscheidet: 4 Formale Systemmerkmale 4 Inhaltliche Systemmerkmale 4 Person- und Situationsmerkmale
und welche nicht (Variablenintransparenz), es kann unklar bleiben, wie sich die Variablen gegenseitig beeinflussen (Strukturintransparenz), und es kann unklar bleiben, in welchem Zustand sich diese Variablen zum gegebenen Zeitpunkt befinden (Zustandsintransparenz). Intransparenz führt dazu, daß der Problemlöser kaum alle eigentlich notwendigen Informationen kennt und damit unter Unsicherheit handeln muß. 4 Sie sind dynamisch. Im Gegensatz zu statischen Problemen (wie etwa dem Schachspiel) verändern sich komplexe Probleme auch ohne das Zutun des Problemlösers, sei es, daß bestimmte Variablen nicht konstant bleiben (Zustandsdynamik), sei es, daß sich die Beziehungen zwischen den Variablen über die Zeit verändern (Strukturdynamik). Bei manchen Problemen verschlechtert sich der Zustand über die Zeit, so daß auch von daher Zeitdruck resultiert.«
Formale Systemmerkmale lassen sich aus Variablen ableiten, mit denen sich ein Realitätsbereich formal beschreiben lässt. Je umfangreicher die Menge der Variablen ist, aus denen beispielsweise ein Computerprogramm besteht, umso komplexer ist es. Neben der Menge der Variablen definiert Funke weitere Kennzahlen, die sich aus der formalen Struktur eines Systems ableiten lassen. Die inhaltlichen Systemmerkmale beziehen sich auf die konkreten Aufgabenmerkmale. Übt man z. B. das Entschärfen einer
84
5
Kapitel 5 · Denken – Entscheiden – Handeln
Bombe mit einer Attrappe, die funktional alle Eigenschaften dieser Bombe abbildet, so ergibt sich dennoch ein erheblicher Unterschied in Bezug auf das Verhalten, wenn man weiß, dass eine baugleiche Bombe echt ist und man somit zudem weiß, dass ein Fehlgriff den Tod bedeuten kann. Personmerkmale kennzeichnen Eigenschaften der handelnden Person, Situationsmerkmale kennzeichnen nicht zum Arbeitsauftrag gehörige Rahmenbedingungen. Funke schlägt vor, aus diesen Merkmalen möglichst objektiv die oben genannten Eigenschaften komplexer Probleme (Umfang, Intransparenz etc.) abzuleiten. Ganz ähnliche Konzepte werden bei der Analyse der Komplexität und daraus resultierender Sicherheitserfordernisse bei Kernkraftanlagen verwendet (IAEA, 2006).
Auftragsebene: Objektive Quellen der Komplexität 4 Hier wird in möglichst objektiver Form beschrieben, mit welchen Gegenständen und Prozessen es der oder die Handelnde in einem bestimmten Kontext zu tun hat. Diese Beschreibung ist personunabhängig und somit auch unabhängig von den Eigenschaften des handelnden Individuums. Da Menschen mit unterschiedlichen Voraussetzungen (Wissen, Motivation etc.) an komplexe Anforderungen herangehen, lässt sich auf dieser Ebene zwar möglicherweise feststellen, welche Objekte und Personen zur Komplexität einer Handlungssituation beitragen können, aber noch nicht, welche Anforderungen für die unterschiedlichen Handelnden bestehen. Auf der Auftragsebene haben z. B. alle Gewichtheber eines Wettbewerbs ein Gewicht von 100 kg zu stemmen.
Anforderungsebene: Komplexität in Bezug auf die Leistungsvoraussetzungen 4 Auf dieser Ebene lässt sich bereits abschätzen, wie komplex eine Anforderung für unterschiedlich handelnde Personen ist. Dazu wer-
Für die Bewertung der Sicherheit von Handlungen ist die Beschreibung auf der Auftragsebene dazu geeignet, Übereinkunft über die Sachverhalte zu erzie-
Die Gegenposition zum »objektiven Ansatz« führt als Hauptargument an, dass die Merkmale komplexer Systeme schwerlich ohne Rückgriff auf die Eigenschaften des handelnden Individuums zu erfassen sind. Intransparenz eines Realitätsbereiches hängt natürlich wesentlich vom Wissen ab, denn über je mehr Wissen eine Person verfügt, desto weniger intransparent wird sie den Realitätsbereich erleben. Da vollständiges Wissen über einen Realitätsbereich mit ansteigender Komplexität immer unwahrscheinlicher wird, sind individuelle Unterschiede immer bedeutsamer und werden für die Erklärung des Handelns immer wichtiger. Es ist daher sinnvoll, Komplexität auf 3 verschiedenen Ebenen zu betrachten (detailliert in von der Weth, 2001):
den die individuellen Voraussetzungen analysiert und zu den objektiven Bedingungen in Beziehung gesetzt. Man kann damit Erfolgschancen bestimmter Handlungsalternativen bewerten. Beim Beispiel des Gewichthebens wäre das die Kraft und der Trainingszustand des jeweiligen Gewichthebers, aber auch sein Können, als Verfügbarkeit angemessener Handlungsprogramme, welche den gleichen Auftrag zu einer völlig verschiedenen Anforderung für die individuelle Person macht.
Erlebensebene: Individuelle Repräsentation der Komplexität 4 Die Anforderungen können der handelnden Person in unterschiedlicher Weise bewusst sein. Dies hängt von der aktuellen Repräsentation der Problemsituation, den Handlungsmöglichkeiten, diese zu bewältigen, und der emotionalen Bewertung der Situation ab. Ein wesentliches Merkmal der emotionalen Lageeinschätzung ist das Kontrollempfinden, volkstümlich gesprochen das Gefühl, die »Lage im Griff zu haben«. Beim Gewichtheber wäre dies die subjektive Einschätzung, ob er ein bestimmtes Gewicht in der aktuellen Situation stemmen kann.
len, auf die sich das Handeln bezieht. Man kann auch Risiken aufzeigen, die für alle handelnden Personen in einem bestimmten Kontext bedeutsam sind. Be-
85 5.3 · Handeln unter komplexen Bedingungen
trachtungen auf der Anforderungsebene ermöglichen eine differenzielle Analyse von Leistungsgrenzen. Man kann z. B. folgende »3-W-Frage« stellen: Unter welchen Bedingungen treten welche Risiken bei welchen Personen auf? Die Einbeziehung der Er-
5
lebensebene ermöglicht schließlich entweder retrospektiv (z. B. bei Gutachten) oder prospektiv (z. B. bei der Vorbereitung von Trainingsmaßnahmen) die Analyse von Entscheidungsgrundlagen in kritischen Situationen.
Beispiel In unserem Eingangsbeispiel bedeutet die Analyse auf der Auftragsebene zunächst eine Untersuchung der technischen und ökonomischen Arbeitsbedingungen, unter denen die Crew gearbeitet hat. Dies betrifft die konkreten Arbeitsbedingungen im Cockpit und die technischen Systeme, hier insbesondere die Funktionsweise und Bedienung des Systems zur Prognose des Treibstoffverbrauchs (FMS) und natürlich das Verbrauchsgeschehen selbst. In Erweiterung dessen muss auch untersucht werden, wie die organisatorischen Vorgaben (z. B. Standardprozeduren) für Kommunikationsprozesse mit anderen am Flugprozess beteiligten Gruppen aussehen. Schließlich ist bedeutsam, welche Flugroute befolgt wurde. Auf der Anforderungsebene sind neben der physiologischen auch Vorwissenskomponenten bedeutsam. Wie ist das Wissen hinsichtlich des
Systems zur Prognose des Treibstoffverbrauchs aufgebaut? Welche Kenntnis von Verhaltensregeln besteht tatsächlich? Welche Fertigkeiten bestehen auf dem Gebiet des Managements kritischer Flugsituationen? Auf dieser Basis kann man im letzten Schritt versuchen, die jeweils aktuelle Repräsentation der verschiedenen Entscheidungssituationen bei der Crew in diesem Prozess zu rekonstruieren (Weiterfliegen trotz niedrigen Tankstands? Notlanden?), die Wahrscheinlichkeit für das riskante Verhalten abschätzen und möglicherweise beurteilen, aufgrund welcher psychologischen Voraussetzungen diese kritische Situation entstanden ist: mangelnde Kenntnis des Systems zur Verbrauchsprognose, mangelnde Kenntnis des Effekts eines verfrüht ausgefahrenen Fahrwerks, Übermut, also übersteigertes Kontrollempfinden.
5.3.2 Anforderungen an menschliches
Handeln Ein Modell der Beschreibung komplexer Anforderungen an das menschliche Handeln ist das Modell der Stationen des Planens und Handelns von Dörner (. Abb. 5.1; vgl. Dörner, 1989). In diesem Modell werden Teilanforderungen beschrieben, die beim Umgang mit komplexen Problemen entstehen. Die Darstellung ist nicht als Ablaufmodell individueller psychischer Prozesse zu verstehen. Obwohl die Stationen aufeinander aufbauen, sind Rücksprünge und Vorgriffe in diesem Geschehen möglich. Die in 7 Kap. 5.2 dargestellten Befunde zum opportunistischen Planen machen zudem deutlich, dass eine streng sequenzielle Abarbeitung dieser Prozesse eher unwahrscheinlich ist, in vielen Fällen praktisch unmöglich, weil z. B. wichtige Informationen für diese Vorgehensweise nicht oder zu spät zur Verfügung stehen. Man kann zeigen, dass man sich
. Abb. 5.1. Stationen des Planens und Handelns. (Nach Dörner, 1989, S. 67)
86
Kapitel 5 · Denken – Entscheiden – Handeln
. Abb. 5.2. Handlungsfunktionen beim Umgang mit komplexen Praxisanforderungen. (Nach von der Weth, 2001, S. 112)
5 das Handeln in komplexen Situationen als ein permanentes, paralleles Zusammenwirken von ganz ähnlichen Prozessen vorstellen kann, wie sie im Modell der Stationen des Planens und Handelns beschrieben sind (. Abb. 5.2; vgl. von der Weth, 2001). Die Funktion Handlungsplan umsetzen stellt die Steuerung des aktuellen Verhaltens dar. Diese basiert auf dem Vergleich aktueller Handlungsergebnisse mit erwarteten Effekten. In die Steuerung des aktuellen Verhaltens fließt ebenso das Ergebnis der Handlungsfunktion Lage bewerten und analysieren ein wie das von der Funktion Handlungswissen aktivieren erzeugte Zielsystem. Die Ergebnisse des Handelns werden nach diesem Systemmodell durch die Funktionen Handlungsplan vervollständigen und Handlungswissen modifizieren permanent parallel zu den anderen Funktionen ausgewertet und in verbesserte Strategien zur Komplexitätsbewältigung integriert. Deutlich wird bei dieser Betrachtung, dass das »klassische rationale Entscheiden« (7 Kap. 5.4), das auf vollständigen Informationen und zweckrationalen Entscheidungsregeln beruht, gar nicht der Normalfall des Handelns in komplexen Situationen sein kann. Der Mangel an sicheren Informationen und Stabilität der Entscheidungssituationen macht gerade in sehr komplexen Situationen intelligente und wissensbasierte Formen der Improvisation (wie das opportunistische Planen) notwendig, weil in vielen Fällen keine Alternative besteht. Allerdings birgt eine solche Vorgehensweise auch Risiken in sich, die in komplexen Handlungssituationen zu krassen Fehlentscheidungen mit erheblichen Konsequenzen führen können.
5.3.3 Risiken und Fehler Zu beachten ist, dass es in komplexen Situationen nicht a priori möglich ist, von Fehlern zu sprechen (7 Kap. 3). Ein Fehler erweist sich erst im Ergebnis als solcher. Handelt eine Person z. B. gegen eine Standardprozedur und rettet auf diese Weise ein Flugzeug, ist dieses Verhalten nicht regelkonform, man würde aber nicht von einem Fehler sprechen, sondern von Flexibilität. Umgekehrt gab es schon, wie im Falle des SwissAir-Unglücks, Situationen, in denen sich regelkonformes Verhalten als katastrophal erwies. ! Eine Handlung wird im Allgemeinen erst bei nachträglicher Betrachtung zum Fehler.
Es ist daher sinnvoller, von riskanten Handlungen anstelle von Fehlhandlungen zu sprechen. Diese sind umso negativer zu beurteilen, je mehr das von den Handelnden geschätzte Sicherheitsrisiko vom tatsächlichen Sicherheitsrisiko abweicht. In komplexen Situationen lassen sich Ursachen für solche Abweichungen anhand der oben beschriebenen Handlungsfunktionen klassifizieren. Was erhöht die Wahrscheinlichkeit der Erzeugung riskanter Effekte des eigenen Tuns? 4 Riskante Handlungen bei der Umsetzung von Handlungsplänen sind sog. Ausführungsfehlern zuzuordnen, d. h. die unsachgemäße und fehlerhafte Umsetzung von geplanten Handlungen, z. B. Risiken durch den Transport ungenügend gesicherter Objekte auf einem Gabelstapler oder mangelnde Aufmerksamkeitszuwendung bei der manuellen Bedienung von Anlagen. 4 Unangemessene Effekterwartungen: Handlungsfolgen bzw. durch Eigendynamik entstan-
87 5.3 · Handeln unter komplexen Bedingungen
4
4
4
4
dene Folgen werden in ihren Effekten gar nicht, nicht richtig oder ungenau eingeschätzt. Dies kann auf mangelndem Wissen beruhen oder emotionale Gründe haben. Es ergeben sich negative Auswirkungen auf andere Handlungsfunktionen (Selbstüberschätzung der eigenen Problemlösefähigkeit bzw. Unterschätzung von Risiken durch bisherige Erfolge). Aktivierung falschen Handlungswissens: Risiken werden durch den Abruf falschen Wissens erzeugt. »Falsch« kann dieses Wissen aus verschiedenen Gründen sein, sei es, weil es z. B. nicht situationsangemessen ist, sei es, weil es in sich nicht schlüssig oder etwa veraltet ist. Unangemessene Lagebewertung und Analyse: Hier geht es um die unzureichende Erfassung der Konsequenzen der aktuellen Situation für das eigene Handeln. Dies kann durch Fehler bei der Analyse, aber auch durch Bewertungsfehler bei der Beurteilung der Wahrscheinlichkeit und Bedeutsamkeit von Konsequenzen möglicher Handlungen entstehen. Unangemessene Vervollständigung und Konkretisierung von Handlungsplänen: Planung kann entweder zu ungenau oder unvollständig sein, um der Komplexität von Handlungssituationen gerecht zu werden. Andererseits kann auch genau das Gegenteil der Fall sein: Dörner (1989) beschreibt das Phänomen der »Überplanung«, bei dem angesichts knapper zeitlicher bzw. materieller Ressourcen zu ausufernd geplant wird. Unangemessene Modifikation des Handlungswissens: Dies sind falsche Schlüsse aus bisherigen Erfahrungen und der Erwerb unangemessener Verhaltensmuster. Besonders problematisch ist der Erwerb unangemessener Strategien beim generellen Umgang mit neuen und komplexen Anforderungen. Bestes Beispiel ist der Erwerb sog. Kompetenzschutzmechanismen (7 Kap. 6).
Riskante Verhaltensweisen lassen sich also auf unangemessene Handlungsfunktionen zurückführen. Das Problem liegt dabei im Begriff »unangemessen«: Was unangemessen ist, lässt sich nicht allgemein definieren, sondern hängt von der Situation ab. In einer hochgradig eigendynamischen Situation (z. B. bei der Erstversorgung von Opfern eines schweren Mas-
5
senunfalls auf einer Autobahn) ist ein bestimmtes Muster der Problembewältigung (z. B. breite Analyse von Vorgehensmöglichkeiten, genaues Abwägen von Risiken vor einer Entscheidung, Infragestellen bisheriger Reaktionsmuster) eine unangemessene Überplanung. In anders gelagerten komplexen Entscheidungssituationen, z. B. bei der Analyse und Bewertung der Effekte neuer Technologien, ist genau dieses Verhalten notwendig, um riskante Neben- und Fernwirkungen zu erkennen. Ein adäquater Umgang mit komplexen Anforderungen bedeutet demnach, in der Lage zu sein, solche unterschiedlichen »Komplexitätsprofile« zu erfassen und das eigene Handeln darauf auszurichten.
5.3.4 Hilfen für den Umgang mit
Komplexität Es existieren vielfältige Hilfen, um das Denken, Entscheiden und Handeln von Menschen in komplexen und kritischen Situationen zu unterstützen. Zu deren Klassifikation sind 2 Unterscheidungen bedeutsam. 4 Zum einen kann Verhaltens- von Verhältnisprävention abgegrenzt werden. Dabei meint Verhaltensprävention die Unterstützung des Erwerbs angemessener Verhaltensmuster für spezifische Fälle sowie die Unterstützung beim Erwerb allgemeiner Strategien, um sich in neuartigen und komplexen Situationen besser zurechtfinden zu können. Dagegen wird bei der Verhältnisprävention nicht auf den Menschen selbst eingewirkt, sondern auf die Rahmenbedingungen, unter denen die Person handelt. Dies reicht von der einheitlichen Gestaltung der Passagierkabinen in Flugzeugen, die das schnelle Reagieren in Notfällen erleichtert, bis zur Gestaltung von Krisenstabslagezentren, die eine effiziente interne und externe Kommunikation der Krisenstabsmitglieder unterstützt. Hierzu zählt aber auch die Gestaltung von Geschäftsprozessen oder Organisationsformen. 4 Sowohl bei der Verhaltens- als auch bei der Verhältnisprävention gibt es 2 Zielrichtungen in der Unterstützung. Die eine besteht darin, die Übereinstimmung des menschlichen Handelns mit Standardprozessen zu steigern (7 Kap. 17), um
88
Kapitel 5 · Denken – Entscheiden – Handeln
z. B. in Krisensituationen schnelles und effizientes Reagieren in standardisierter Form zu erreichen. Dem gegenüber stehen Maßnahmen, die die Flexibilität von Einzelpersonen, Gruppen und Organisationen steigern sollen, damit sie mit neuartigen Krisensituationen besser umgehen können.
5
Auch die in diesem Buch beschriebenen Aktivitäten lassen sich in dieses Schema einordnen.
5.4
Entscheiden als Komponente von Handlungen
5.4.1 Merkmale und Bestandteile von
Entscheidungsprozessen Fassen wir das bisher Gesagte zusammen: Beim Handeln bestehen in vielfältiger Weise voneinander abhängige verschiedene Vorgehensvarianten. Über Handlungswege, mögliche Effekte und Stabilität der Rahmenbedingungen kann Unklarheit herrschen. In all diesen Fällen ist entweder eine Auswahl oder eine Entscheidung zu treffen. Eine Auswahl- oder Wenn-Dann-Situation liegt vor, sofern einer Bedingung fest eine bestimmte Handlung (Maßnahme mit bekannten Folgen) und einer anderen Bedingung eine andere Maßnahme zugeordnet ist. Die Bedingungen müssen zutreffend identifiziert und die zugehörigen bekannten Maßnahmen initiiert werden. Beispiel Auswahlsituationen 4 Wenn Rot an der Ampel, dann Anhalten; wenn Grün, dann passieren. Einsichtige Passanten entscheiden nicht über die Handlungsfolge von Rot, sondern befolgen diese wissend. 4 Beim Sortieren von Küken nach dem Geschlecht gilt: wenn weiblich, dann zur Legebatterie; wenn männlich, dann zur Hähnchenmast. Die Sortierer legen nicht fest, d. h. entscheiden nicht, welches Geschlecht ein Küken haben soll, sondern ermitteln dieses und ordnen demgemäß zu.
Beim Entscheiden liegen keine der Person bekannten konventionell gebotenen oder naturgemäß fixierten Zuordnungen von Bedingungen zu Handlungserfordernissen vor, die lediglich zu identifizieren und zu befolgen sind. Vielmehr besteht Tätigkeits- bzw. Entscheidungsspielraum, d. h., es ist herauszufinden, welche Handlungserfordernisse mit welchen Wirkungen (Folgen) und Nebenwirkungen erwünschter bzw. unerwünschter Art die Wahl einer Merkmalskonstellation gegenüber einer anderen erfordern, und danach ist eine dieser Konstellationen zu realisieren. Beispiel Entscheidungssituation Bei der Entscheidung zwischen verschiedenen Steuerungssystemen für eine Produktionsanlage sind Eignung, Anschaffungskosten, Wartungskosten, Trainingsbedarf etc. als entscheidungsrelevante Kriterien zunächst zu identifizieren, sachgerecht einzustufen, bedeutungsgemäß zu gewichten und sodann integrativ abzuwägen.
In Risikotechnologien wird angestrebt, Entscheidungen in sog. ungeregelten Situationen zugunsten von Auswahlen in geregelten Situationen dadurch zurückzudrängen, dass für möglichst alle denkbaren Bedingungen Handlungsregeln in Betriebshandbüchern berücksichtigt werden. Mit diesen als verbindliche Vorschriften festgelegten Handlungsregeln u. a. für Störfälle sollen die Gefahren schlecht durchdachter Entscheidungen unter Zeitdruck, bei Angst oder in mangelhaft koordinierten Gruppenprozessen ausgeschlossen werden. Zu beachten bleiben jedoch mögliche Problemverschiebungen zur mangelnden Findefreundlichkeit, Eindeutigkeit und Handlungskompatibilität der Betriebshandbücher sowie zu Bedingungskonfigurationen, die in den Betriebshandbüchern nicht vorbedacht waren und als seltene Ereignisse auf ungeübte Entscheider treffen. Das Entscheiden und der Entschluss, eine der gegebenen Möglichkeiten zu verwirklichen, heben den Spielraum auf. Dieser Übergang vom bloßen Wünschen eines Ergebnisses zum Wollen wird gelegentlich metaphorisch als das »Überschreiten des Rubikon« bezeichnet (Heckhausen & Gollwit-
89 5.4 · Entscheiden als Komponente von Handlungen
zer, 1987; Straub, 1935). Wegen des Aufgebens der Wahlfreiheit zugunsten einer einzigen zu verwirklichenden Maßnahme mit ihren Folgen zögern Menschen in unterschiedlichem Maße Entscheidungen hinaus. Entscheiden ist unerlässlicher Bestandteil zielgerichteter, willensgeleiteter Tätigkeiten nur dann, wenn Tätigkeitsspielraum gegeben ist. Beispiel Sofern aus technischen Gründen nur ein Steuerungssystem für die vorhandene Produktionsanlage infrage kommt, besteht keine Entscheidungsmöglichkeit.
Entscheiden mit der Folge der Alternativenaufhebung ist grundsätzlich in jeder Handlungsphase erforderlich, also beim Orientieren in der Umwelt und/oder im eigenen Wissen, beim Zielstellen, beim Entwerfen bzw. Aktivieren von Handlungsprogrammen, beim Auswählen eines Programms einschließlich der Mittel und Partner, beim Ausführen sowie beim Kontrollieren des Ausführens und/oder des Resultats als Vergleich mit dem im Gedächtnis gespeicherten Ziel. Die Kognitionsforschung behandelt üblicherweise das Entscheiden vorzugsweise als bewusstes und mehr oder weniger systematisches (rationales) Abwägen sowie Auswählen und Zurückstellen von Alternativen. Sie beachtet dabei persönliche Beziehungen zu entscheidungsrelevanten Inhalten (beispielsweise gewohnheitsbedingte Vorlieben; Ängste vor bestimmten Folgen) erst in zweiter Linie. Das tätigkeitsleitende Entscheiden im Alltagshandeln beschränkt sich nicht auf das rational abwägende, präzis definierte Begriffe und Aussagen nutzende Entscheiden, sondern vermag mit unscharfen Begriffen, aussagen- und erfahrungsgestützten Näherungsprozeduren lebenspraktisch nützliche handlungsleitende Entscheidungen zu treffen (»bounded rationality concept«, »ignorance-based desicionmaking«, »simple heuristics«; Gigerenzer, Todd & The ABC Research Group, 2001). Entscheidungsvorgänge haben folgende prägende Bestandteile: 4 Anzahl der objektiven Verhaltensmöglichkeiten (Alternativen)
5
4 Subjektiver Wert oder die Bedeutsamkeit (Valenz), die Alternativen besitzen und die realisiert bzw. angeeignet werden kann 4 Informationen über Folgen von Alternativen (Handlungsausgänge) mit den Wahrscheinlichkeiten ihres Eintretens Im Alltag fehlen jedoch häufig wesentliche Informationen, d. h., es müssen Entscheidungen unter Unsicherheit getroffen werden.
5.4.2 Entscheidungsmodelle und
Entscheidungsarten Vereinfachend wird davon ausgegangen, dass für Entscheidungen der Wert (die Bedeutung) einer Alternative sowie die Erwartung (die Wahrscheinlichkeit), dass diese auch verwirklicht werden kann, ausschlaggebend sind. Abstrahierend wird die untrennbare Verknüpfung der beiden Bestandteile als multiplikative Verbindung dargestellt (Erwartungmal-Wert-Modelle). Die Multiplikation mit Null führt zum Produkt Null. Einfacher: Bei vollständig fehlender Wahrscheinlichkeit, das erstebte Ergebnis zu erreichen, d. h. bei sicherer Unmöglichkeit, wird der höchste Wert nicht zum Handeln veranlassen. Bei absoluter Wertlosigkeit des Resultats aktiviert die größte Wahrscheinlichkeit, also auch die Sicherheit, das wertlose Produkt wirklich zu erzielen, kaum zum Handeln. Die Unterstellung in diesem Modell ist, dass Menschen danach streben, das Produkt aus Wert oder Nutzen und Realisierungswahrscheinlichkeit zu maximieren. Menschen können aber den Wert einer Handlungsalternative mit ihren Ergebnissen und die Erwartung, sie zu erreichen, in ihren Abwägungen unterschiedlich stark beachten: Bei valenzbedingtem Entscheiden dominiert der Wert (die Bedeutung) einer Alternative, während deren Realisierungschancen zweitrangig bleiben. Bei chancenbedingtem (wahrscheinlichkeitsbedingtem) Entscheiden dominiert die Erreichungswahrscheinlichkeit, während der Wert zweitrangig bleibt. Beim sog. lagebedingten Entscheiden werden Valenzen und Wahrscheinlichkeiten ausgewogen einbezogen. Die praktischen Anwendungsschwierigkeiten dieser Überlegungen betreffen die inhaltliche Defi-
90
5
Kapitel 5 · Denken – Entscheiden – Handeln
nition, was Nutzen bedeutet, und deren Operationalisierung sowie die zahlenmäßige Belegung und schließlich die Ermittlung der Wahrscheinlichkeiten. Bezüglich der Wahrscheinlichkeit bzw. Sicherheit der Handlungsausgänge angesichts häufig vorliegenden Fehlens von ausreichender Information kann man das Entscheiden unterteilen in: 4 Sichere Entscheidungen, bei denen die objektive Wahrscheinlichkeit des Handlungsausganges bekannt ist: sicher (p=1,0) oder als keinesfalls gegeben (p=0,0). Ein Beispiel ist die Wahrscheinlichkeit eines Stromschlags bei ein- bzw. ausgeschaltetem Hauptschalter während einer Reparatur an spannungsführenden Elementen ohne andere Schutzmittel. 4 Risikoentscheidungen, bei denen die tatsächliche (objektive) Wahrscheinlichkeit zwar ebenfalls bekannt ist, aber zwischen Null und Eins liegen (0
Die Entscheidungsforschung stellt mit Unterstützung der Mathematik Arbeitshypothesen über das Zusammenwirken der Komponenten bei den verschiedenen Entscheidungsarten, die sog. Entscheidungsmodelle, bereit. Sie unterscheiden sich u. a. darin, ob Einzelentscheidungen (statische Modelle) oder ganze Entscheidungsfolgen (stochastische Modelle) beschrieben werden sollen. Die Letzteren versuchen dem alltagsrelevanten Verhalten von Menschen Rechnung zu tragen: Menschen verhalten sich nämlich dann, wenn sie mehrere Entscheidungen hintereinander fällen müssen, nicht gleichbleibend (konsistent) und nicht logisch folgerichtig (transitiv). Im Alltag ist ein inkonsistentes und intransitives Entscheiden häufig zu beobachten. Des Weiteren entstehen verschiedene Entscheidungsmodelle je nachdem, ob die (wie auch immer operationalisierte) tatsächliche, objektive Beschaffenheit von Wert und Wahrscheinlichkeit oder der subjektiv eingeschätzte Nutzen und die subjektive Erwartung seines Eintritts beachtet werden. Im Alltag sind in der Regel die objektiven Wahrscheinlichkeiten gar nicht bekannt, sondern es werden eindrucksgestützte Erwartungen wirksam. Auch der tatsächliche Wert einer Alternative ist gleichfalls nicht immer bekannt oder öfters überhaupt nicht prognostisch bestimmbar, sondern es gehen vage geschätzte und schwerlich präzise skalierte Nutzenseindrücke in das Entscheiden ein. Wir verzichten hier auf die eingehende Darstellung der oft zitierten 4 statischen Entscheidungsmodelle nach Edwards (1986), weil sie letztlich die denkbaren Kombinationsmöglichkeiten der bekannten vs. geschätzten beiden Komponenten Wert/ Nutzen und Wahrscheinlichkeiten/Erwartung nur zusammenstellen.
5.4.3 Besonderheiten des alltäglichen
(natürlichen) Entscheidens Vereinfachend ausgedrückt befasste sich die Entscheidungsforschung lange mit künstlich erzeugten Entscheidungssituationen, die dem Alltagsentscheiden keineswegs entsprechen. Inzwischen sind die Illusionen der rationalistischen Entscheidungstheorien erkennbar geworden, und allmählich wird das »unbekannte Land« des Alltagsentscheidens er-
naturalistic decision making
91 5.4 · Entscheiden als Komponente von Handlungen
forscht (Gigerenzer, Todd & ABC Research Group, 2001). Dabei werden die tatsächliche Komplexität tätigkeitsleitenden Entscheidens und damit Ansatzstellen für Sicherheitsanliegen deutlicher. Es werden die Defizite im alltäglichen Entscheiden wie auch die Stärken bei Experten erkennbar.
Defizite Außerhalb der Artefakte des Labors bestehen in der Regel mehrere Handlungsmöglichkeiten, die in ihren Folgen meist nicht säuberlich definiert vorgegeben, sondern selbst erst zu entdecken sind. Die Folgen sind oft nicht evident, sondern mühsam abzuleiten. Ziele, Alternativen, deren Abstufungen (Attribute) und der Nutzen der Zielerreichung sind unscharf und nicht mit einer Zahl auf einer Dimension abbildbar. Die Situationen und damit die Ziele, Bewertungen etc. sind darüber hinaus veränderlich. Die Gesamtheit der zu berücksichtigenden Sachverhalte und ihrer Veränderungen überschreitet die Kapazität des Bewusstseins (Arbeitsgedächtniskapazität), sodass mehr oder weniger begründete Reduktionen, Übersehen und Vergessen naheliegen. Damit ist ein ausschließlich rationales Vorgehen unwahrscheinlich, zumal Entscheidungen nicht aus dem gesamten Verhaltensablauf isolierbar sind (oft gilt es zunächst einmal, überhaupt mit dem Handeln anzufangen), nicht unabhängig von subjektiven Zielen und Wertungen sowie an die potenziell begrenzte Kompetenz des Entscheiders gebunden sind. Darüber hinaus belastet das komplexe kognitive Prozedere und wird daher von allen Menschen gern gemieden. Die Begrenztheit der Arbeitsgedächtniskapazität legt das Nutzen erleichternder, vereinfachender Faust- oder Finderegeln (Heuristiken) nahe, die teilweise Vorzüge mit Nachteilen verbinden. Beispielsweise kann die Auffälligkeit von Sachverhalten die Wahrnehmung ihrer tatsächlichen Häufigkeit verzerren; globale Ähnlichkeiten können Merkmalsunterschiede verdecken; Ersteindrücke können nachfolgende modifizieren. In allen diesen Situationen werden nicht selten vereinfachende Vorgehensweisen eingeschlagen, die Erleichterungen mit Verzerrungen erkaufen. Die Kenntnis der Merkmale des Entscheidens im Alltag ermöglicht mithin, seine Hauptdefizite zu ermitteln (zur Methodik vgl. Hollnagel, 1998) und durch geeignete Hilfsmittel zurückzudrängen sowie
5
gleichzeitig seine Stärken, insbesondere seine hohe Wirklichkeitsnähe zu nutzen. Dabei ist insbesondere Folgendes zu beachten: 4 Das Entwickeln einer möglichst präzisen Zieldefinition; unklare Ziele ermöglichen keine klaren Entscheidungen über zielführende Maßnahmen. 4 Das Erfassen aller Handlungsmöglichkeiten (Alternativen), zwischen denen zu entscheiden ist. Wenn die optimale Alternative überhaupt nicht einbezogen wird, kann sie im Entscheiden auch nicht gewählt werden. 4 Die umfassende Suche und Verarbeitung der erforderlichen Information über die Auswahlmerkmale (Attribute), die Attributausprägungen (Attributstufen), die Bedeutung (Gewichtung) ihres Beitrags zum Ziel (Nutzen) und die Wahrscheinlichkeiten der Zielerreichung unter den verschiedenen Alternativen. Die größten und gefährlichsten Defizite des ungestützten Alltagsentscheidens bestehen bei der Problemdifferenzierung durch die Informationssuche und die Informationsbearbeitung. Mit der objektiv wachsenden Informationsmenge, die hauptsächlich aus der Anzahl möglicher Alternativen multipliziert mit der Anzahl ihrer Attribute (Auswahlmerkmale) resultiert, wächst die Wahrscheinlichkeit der Überforderung des Menschen: Bei nur 4 Alternativen und je 6 Merkmalen dieser Alternativen liegt bereits eine Matrix mit 24 Feldern vor, die ohne externe Unterstützung, beispielsweise ohne Aufschreiben der Alternativen, der Attribute, der Attributabstufungen und ohne Darstellung als Entscheidungsmatrix nicht bearbeitbar ist. Der hochgefährliche Ausweg vieler Menschen ist 4 das unsystematische Beachten wechselnder Attribute pro Alternative, 4 das Auswählen nur der Informationen, die eigene Vermutungen oder Wünsche stützen sowie 4 das Verdrängen widersprechender Information oder auch 4 das Übergehen jener Attribute, deren Ausprägungen nicht für alle Alternativen bekannt oder gegenwärtig erinnerbar sind. Das Aufstellen einer Entscheidungsmatrix ist also eine einfache, fehlerreduzierende Entscheidungsun-
92
Kapitel 5 · Denken – Entscheiden – Handeln
terstützung. Das kann manuell oder unter Nutzung rechnerbasierter Entscheidungshilfensysteme geschehen (Sachse, 1995; Zimolong & Rohrmann, 1988).
Stärken
5
Umgekehrt können Stärken von Entscheidungsexperten aus dem Alltag für ein sicherheitsbezogenes Entscheiden nutzbar gemacht werden: 4 Experten gehen zweistufig vor: Sie fällen zunächst Näherungsentscheidungen und verbessern diese danach anhand der Rückmeldungen weiter. Sie machen damit zwar kleinere, korrigierbare Fehler, aber weniger schwerwiegende. 4 Experten konsultieren häufiger andere Fachleute als unerfahrene Entscheider. 4 Experten korrigieren ihre Anfangsfestlegung und lernen aus früheren Entscheidungen. 4 Experten nutzen externe Hilfen (Notizen, Entscheidungsmatrizen, Bezugswerte). 4 Experten zerlegen große Probleme zunächst, finden Lösungen für die Teilprobleme und integrieren diese abschließend zu einer Gesamtlösung. Schließlich muss eine Psychologie der Sicherheit die Fehlerquellen von Gruppenentscheidungen und die Techniken zu deren Vermeidung nutzen und damit Gruppenvorteile ermöglichen (7 Kap. 7).
5.5
Zusammenfassung und Ausblick
Zielgerichtete und willentlich geführte Tätigkeiten sind die Hauptform menschlichen Verhaltens. Das gilt für Erwerbs-, Eigen- und Ehrenamtsarbeit ebenso wie für einen Teil der Freizeittätigkeiten, beispielsweise Haushalt- oder sportliche Tätigkeiten. Sofern diese zielgerichteten willentlichen Tätigkeiten wenig bekannte Sachverhalte zum Gegenstand haben bzw. unter neuartigen Ausführungsbedingungen abzuwickeln sind, reichen bewährte Routinen oder vorhandenes Wissen zu ihrer Regulation nicht aus. Denkleistungen müssen dann ihre Regulation unterstützen oder übernehmen. Das gilt insbesondere, wenn unter komplexen, vernetzten und dynamischen Umständen zu handeln ist.
In der psychischen Regulation zielgerichteten Handelns sind mehrere fehleranfällige Teilprozesse enthalten, deren fehlende, falsche oder unvollständige Ausführung notwendigerweise zu Fehlhandlungen und Handlungsfehlern führt. Das Wissen um diese Zusammenhänge liefert Möglichkeiten zur Verminderung des Fehlhandlungsrisikos und im günstigsten Fall zu seinem Ausschluss. Ein potenziell risikohaltiger Teilprozess in der Handlungsregulation ist das im Verlaufe der Vorbereitung und Ausführung zielgerichteter Tätigkeiten wiederholt erforderliche Entscheiden. Geeignete Entscheidungsunterstützungen sind daher eine unverzichtbare Möglichkeit der Fehlervermeidung und Risikominderung. In der grundlagenorientierten und der angewandten Forschung stehen trotz weiteren Vertiefungsbedarfs seit Längerem gesicherte Erkenntnisse bereit, die zur Sicherung absichtsgeleiteten Handelns insbesondere im Arbeitsalltag beitragen können (u. a. Dörner, 1989; Gigerenzer, Todd & ABC Research Group, 2001; Hollnagel, 1998; Sachse, 1995; Zimolong & Rohrmann, 1988). Erhebliche Reserven stecken in der systematischen Nutzung dieses Erkenntnisbestands u. a. in risikobehafteten Technologien.
5.6
Literatur
Ajzen, J. (1991). The theory of planned behavior. Special issue: Theories of cognitive self-regulation. Organizational Behavior and Human decision Processes, 50, 179–211. Ajzen, J. & Fishbein, M. (1980). Understanding attitudes and predicting social behavior. Englewood Cliffs, N. J.: Prentice Hall. Clauß, G. V. (Hrsg.) (1995). Fachlexikon abc Psychologie (5. Aufl.). Thun/Frankfurt a. M.: Deutsch-Verlag. Dörner, D. (1989). Die Logik des Misslingens. Reinbek: Rowohlt. Edwards, W. (1986). Entscheidungsanalyse: Eine nichtpsychologische Psychotechnologie. In V. Sarris & A. Parducci (Hrsg.), Die Zukunft der experimentellen Psychologie (S. 325–337). Berlin: VEB Deutscher Verlag der Wissenschaften. Fishbein, M. (1980). A theory of reasoned action. Some applications and implications. In H. E. Howe & M. M. Page (Eds.), Nebraska Symposium on Motivation (pp. 65–116). Licoln/ NE.: University of Nebraska Press. Flugunfall-Untersuchungsstelle Österreich (2006). Untersuchungsbericht. Online-Dokument, verfügbar unter http:// www.bmvit.gv.at/verkehr/luftfahrt/fus [Zugriff am 19.06.2006].
93 5.6 · Literatur
Funke, J. (1990). Systemmerkmale als Determinanten des Umgangs mit dynamischen Systemen. Sprache und Kognition, 9, 143–154. Gigerenzer, G., Todd, P. M. & ABC Research Group (2001). Simple heuristics that make us smart. Oxford: University Press. Hacker, W. (2005). Allgemeine Arbeitspsychologie. Psychologische Regulation von Wissens-, Denk- und körperlicher Arbeit (2. Aufl.). Bern: Huber. Heckhausen, H. & Gollwitzer, P. M. (Hrsg.) (1987). Jenseits des Rubikon. Der Wille in den Humanwissenschaften. Berlin: Springer. Hollnagel, E. (1998). Cognitive reliabilty and error analysis method (CREAM). Oxford u. a.: Elsevier. IAEA (2006). Nuclear Safety Review for the Year 2005. Wien: IAEA. Jonas, K. & Doll, J. (1996). Eine kritische Bewertung der Theorie überlegten Handelns und der Theorie geplanten Verhaltens. Zeitschrift für Sozialpsychologie, 27, 18–31. Lindblom, E. C. (1959). The science of muddling-through. Public Administration Review, 19, 79–88. Rubinstein, S. L. (1958). Grundlagen der Allgemeinen Psychologie. Berlin: Volk & Wissen. Sachse, P. (1995). Entwicklung und Bewertung einer computergestützten Entscheidungshilfe. Frankfurt a. M.: Peter Lang.
5
Sachse, P. (2002). Idea materialis. Entwurfsdenken und Darstellungshandeln: Über die allmähliche Verfertigung der Gedanken beim Skizzieren und Modellieren. Berlin: Logos. Sachse, P., Hacker, W. & Leinert, S. (2004). External thought – Does sketching assist problem analysis? Applied Cognitive Psychology, 18, 415–425. Schaub, H., Strohschneider, S. & von der Weth, R. (1994). Was ist Denken – Neuere Ergebnisse der Denkpsychologie. In G. Schwalfenerg (Hrsg.), Handbuch Weiterbildung (S. 245– 277). Köln: Landesverband der Volkshochschulen in Nordrhein-Westfalen. Schön, D. A. (1983). The reflective practitioner. How professionals think in action. London: Temple Smith. Straub, W. (1935). Leitlinien einer Psychologie der Willensbildung. Bericht des 14. Kongresses der Deutschen Gesellschaft für Psychologie in Jena (S. 282 f.). Jena: Fischer. Visser, W. (1994). Organisation of design activities: opportunistic with hierarchical episodes. Interacting with Computers, 6, 239–274. von der Weth, R. (2001). Management der Komplexität. Bern: Huber. Zimolong, B. & Rohrmann, B. (1988). Entscheidungshilfetechnologie. In D. Frey, C. Graf Hoyos & D. Stahlberg (Hrsg.), Angewandte Psychologie (S. 625–646). München: Psychologie Verlags Union.
6 Emotion und Handeln Dietrich Dörner
6.1
Einleitung: Begriff »Emotion«
– 96
6.2
Psi: Integrierte Theorie von Motivation, Kognition und Emotion – 96
6.2.1 Bestimmtheit und Kompetenz – 97 6.2.2 Kompetenz, Neid und Schuld – 98 6.2.3 Verhaltenstendenzen – 99
6.3
Emotionen und Handeln – 100
6.3.1 6.3.2 6.3.3 6.3.4 6.3.5
Zielelaboration – 101 Situationsanalyse – 102 Prognosen – 106 Planen und Entscheiden – 107 Kontrolliertes Tun – 109
6.4
Zusammenfassung und abschließende Bemerkungen
6.5
Literatur
– 112
– 111
95 6.1 · Einleitung: Begriff »Emotion«
6
Beispiel Am 27.03.1977 stießen auf dem Flughafen von Teneriffa 2 Passagierflugzeuge (KLM Flug 4805 und PanAm Flug 1736) auf der Startbahn zusammen. Dieser Unfall, mit 583 Toten bis heute der schlimmste der zivilen Luftfahrt, war ausschließlich auf menschliche Faktoren zurückzuführen – beide Maschinen waren voll funktionsfähig. Was war passiert? Nach einer Bombenexplosion in Las Palmas diente der Flughafen Teneriffa als Ausweichflughafen für 5 große Maschinen. Die Taxiways und die Startbahnen waren mit wartenden Flugzeugen belegt, die Sichtverhältnisse waren aufgrund von Nebel schlecht und die Lotsen hatten keinen Bodenradar. Die KLM-Maschine erhielt die Anweisung, auf Bahn 12 zur Startposition zu rollen, 180° zu wenden und dort die Startfreigabe abzuwarten (um dann später von dieser Bahn abzuheben). Die PanAm-Maschine erhielt kurz darauf die Anweisung, ebenfalls auf Bahn 12 zu rollen (da der Taxiway voll war), um dann bei der dritten Querverbindung zum Taxiway abzubiegen (um dann später von Bahn 30 abzuheben). Die KLM 4805 erhielt um 17.05 Uhr die erbetene Flugverkehrsfreigabe (die noch keine Startfreigabe ist) für einen Start in Richtung des Papa-Beacons. Die Crew wiederholte die Freigabe mit den Worten »We are now at takeoff« und begann zu rollen. Da die PanAm-Maschine noch auf der Bahn war, wies der Lotse die KLM-Maschine an zu warten – diese Nachricht war aber nicht zu hören, da in dem Moment die PanAm-Besatzung mitteilte, dass sie die Abzweigung im Nebel verpasst hatte
Dieses Missverständnis hatte auch mit unklarer Sprache zu tun, aber natürlich hat »absolute Überzeugung« auch eine motivationale Seite. Es ist plausibel anzunehmen, dass der Kapitän nach stundenlanger Wartezeit endlich starten wollte, sodass weitere Verzögerungen auf starke Unlust und Abwehr stießen. Zudem ergab sich durch kurzzeitiges Auflockern des Nebels ein »window of opportunity«. Dadurch wird die Auswahl einer Absicht wahrscheinlicher, wie noch gezeigt wird. Zudem könnte Kompetenzdemonstration seitens des KLM-
und noch auf der Startbahn war. Im KLM-Cockpit war anstatt der beiden Mitteilungen nur ein schrilles Geräusch zu hören. Danach konnte die KLM-Crew hören, dass die PanAm-Crew sagte: »We will report when it is clear.« Der Flugingenieur der KLM fragte daraufhin 2-mal den Kapitän, ob die Bahn frei sei, was der Kapitän mit einem nachdrücklichen »Oh, Yes!« beantwortete. Die KLM 4805 beschleunigte weiter. Als sie die andere Maschine schließlich auf der Bahn sah, versuchte die KLM-Crew abzuheben, um eine Kollision zu vermeiden. Da sie nicht mehr die nötige Höhe gewann und auch die PanAm nicht schnell genug von der Bahn herunterkam, kollidierten die beiden Flugzeuge. Dieser tragische Unfall führte zu zahlreichen Veränderungen der internationalen Luftfahrtregulationen, u. a. in der Phraseologie (7 Kap. 8). Er war auch einer der Anstöße für die Entwicklung des CRM-Trainings (Crew Resource Management Training; 7 Kap. 9 und 19), da sich in der Unfallanalyse zeigte, dass die Zusammenarbeit der Crew über Hierarchiegrenzen hinweg nicht gut funktioniert hatte. Eine wichtige Rolle spielten bei diesem Unfall neben Kommunikationsproblemen auch Motivation und Emotion, auch wenn diese – wie alle psychischen Prozesse – nicht so eindeutig belegt werden konnten wie sprachliche Missverständnisse oder fliegerische Fehler. Der Unfallbericht (Aviation Safety Network, o. J.) stellt fest: »The KLM aircraft had taken off without take-off clearance, in the absolute conviction that this clearance had been obtained, which was the result of a misunderstanding between the tower and the KLM aircraft.«
Kapitäns eine Rolle gespielt haben: Es war eine bekannte Führungskraft der KLM, Lehrer im neuen Simulator und einer der fähigsten Piloten der KLM. Der Flugingenieur fragte zwar nach, bestand aber nicht auf einer Klärung der Lage. Es ist anzunehmen, dass in der damaligen strikten Hierarchie Emotionen wie Angst oder Sorge um den eigenen Status die Entscheidung, nicht zu widersprechen, mitbestimmten. Der Kopilot war an der Interaktion nicht beteiligt, er sah sich lediglich als Hilfskraft.
6
96
Kapitel 6 · Emotion und Handeln
6.1
Einleitung: Begriff »Emotion«
Jeder weiß, wie sich Angst anfühlt oder Erschrecken, was Erstaunen, Freude oder Glück ist. Ich verstehe, was jemand meint, wenn sie sagt, sie sei glücklich, und ich weiß, was jemand fühlt, wenn er sagt, dass er wütend darüber sei, eine Prüfung nicht bestanden zu haben. Ich weiß, dass er sich ungerecht behandelt fühlt, denn sonst würde er sagen, er sei traurig. Wir haben wenig Schwierigkeiten, uns über Gefühle und Emotionen zu verständigen. Dagegen hat die Psychologie im Laufe des letzten Jahrhunderts mehr Schwierigkeiten zu definieren, was denn genau Emotionen sind. Es ist unbestritten, dass Emotionen mit körperlichen Veränderungen einhergehen, die uns physisch darauf vorbereiten, auf eine Situation angemessen zu reagieren. In der psychologischen Forschung wurde jedoch lange diskutiert, ob die subjektive Empfindung Ursache oder Folge der physiologischen Reaktion ist. James (1884) postulierte, dass zunächst auf einen Reiz ein intuitives Verhalten wie Flucht folgt, das physiologische Reaktionen wie erhöhten Herzschlag hervorruft, den der Mensch dann als Emotion wie Angst interpretiert. Diese Theorie wurde aufgrund experimenteller Befunde kritisiert, die zeigten, dass auch nachdem die physiologische Reaktion chirurgisch unterbunden worden war, noch Emotionen festzustellen waren. Die neuere Emotionsforschung versucht, neurobiologische Befunde mit solchen zur subjektiven Empfindung zu koppeln, wobei die Gefühlsempfindung als sich kontinuierlich wandelnde Wechselwirkung aus physiologischer Situation und deren mentaler Interpretation gesehen wird (Barrett, Mesquita, Ochsner & Gross, 2007). Dieser Interpretationsaspekt ist keinesfalls neu. Lazarus hob schon vor 20 Jahren den Aspekt der individuellen Bewertung der Bedeutsamkeit in seiner Theorie der kognitiven Bewertung hervor (Lazarus, 1987). Demzufolge führt sensorische Erfahrung nur dann zu Emotionen, wenn die Person den Reiz als für sie persönlich bedeutsam einschätzt. Emotionen stehen also nicht unabhängig von kognitiven und motivationalen Prozessen, sondern alle 3 bedingen und beeinflussen sich wechselseitig.
! Emotionen sind ein komplexes Muster von Prozessen, das Motivationen, Erregung, kognitive Prozesse und Verhaltenstendenzen beinhaltet. Oft – nicht immer – werden Emotionen auch erlebt: Man weiß, dass man sich ärgert (s. Zimbardo & Gerrig, 2003).
Evolutionstheoretisch wird die Bedeutung von Emotionen darin gesehen, dass sie einen Organismus vorbereiten, um die Anforderungen seiner Umwelt adaptiv zu bewältigen. Anstatt einer einfachen reflexartigen Antwort bedeutet Emotion eine Koordination der aktuellen Bedürfnisse, Wünsche und Erwartungen. Darauf soll detaillierter eingegangen werden.
6.2
Psi: Integrierte Theorie von Motivation, Kognition und Emotion
Im Folgenden wird eine integrative Theorie der Motivation, Emotion und Kognition vorgestellt (Dörner, 1999), die Emotionen nicht als nebengeordnet zu kognitiven und motivationalen Prozessen betrachtet. Denn beispielsweise gehört zum Ärger das kurzschlüssige Denken, welches Fern- und Nebenwirkungen nicht analysiert, die Bedingungen für Aktionen außer Acht lässt usw. Was gehört noch zum Ärger? Erhöhte Aktivierung (»arousal«), grobe Wahrnehmung, konservatives Erinnern, Aggressionstendenzen, Sturheit (= Unablenkbarkeit). Wenn das die Ingredienzien von Ärger sind, dann besteht also Ärger aus einer Reihe nichtemotionaler Prozesse, u. a. auch aus kognitiven Prozessen. Ärger, das ist: Erregung, in bestimmter Weise modulierte kognitive Prozesse, prädeterminierte Handlungstendenzen. Was bleibt übrig, wenn man das alles wegnimmt? Der reine Ärger? Nein: Einfach gar nichts. Ärger ist Aggressionstendenz, Konservatismus, die Tendenz zur schnellen, unreflektierten Aktion, oberflächliches Wahrnehmen und Erinnern usw. Ärger ist eine bestimmte Organisationsform psychischen Geschehens, enthält also kognitive und motivationale Prozesse. Statt Emotionen neben andere psychische Prozesse zu stellen, sollten Emotionen als übergeordnete Organisationsformen psychischer Prozesse angesehen werden; wenn man so will als emergente Erscheinungen, die sich aus spezifischen Formen der
97 6.2 · Psi: Integrierte Theorie von Motivation, Kognition und Emotion
Interaktion kognitiver und motivationaler Prozesse ergeben. Diese Konzeption löst so ziemlich alle Probleme, die in der Psychologie auftauchen, weil man Emotionen als Sonderformen neben die anderen psychischen Prozesse stellt.
6.2.1 Bestimmtheit und Kompetenz Emotionen als Organisationsformen psychischen Geschehens sind notwendigerweise psychische Makros. Wie sieht eine solche Makroorganisation aus? . Abb. 6.1 zeigt den wesentlichen Teil der Grundorganisation emotionalen Geschehens. Der Input des Ganzen sind die beiden »Tanks« links. Es handelt sich um den Bestimmtheits- und den Kompetenztank. Der Pegel in diesen Tanks indiziert das Ausmaß an Bestimmtheit bzw. das Ausmaß der Kompetenz. Was heißt das? Wir gehen davon aus, dass Menschen (und auch viele Tiere) ein Bedürfnis nach Bestimmtheit haben und ein Bedürfnis nach Kompetenz. Bestimmtheit ist das Ausmaß, in dem man sich imstande fühlt, die Ereignisse und das Geschehen in . Abb. 6.1. Emotionale Regulationen
6
der Welt vorauszusagen bzw. zu erklären. Eine geringe Bestimmtheit, d. h. ein niedriger Pegel im Bestimmtheitstank, bedeutet, dass man das Empfinden hat, nicht imstande zu sein, die »Welt« zu erklären oder vorauszusagen. Der Pegel im Kompetenztank ist das Ausmaß, in dem man sich imstande fühlt, die Probleme seines Alltags zu bewältigen. Kompetenz bedeutet aktive Kontrolle; eine hohe Kompetenz bedeutet, dass man die Dinge im Griff hat. Die Pegel in den Tanks ergeben sich aus Erfahrungen, aus Bestimmtheits- und Unbestimmtheitsereignissen und aus Effizienz- bzw. Ineffizienzereignissen. Ein Bestimmtheitsereignis ist eine bestätigte Prognose, ein Unbestimmtheitsereignis ist eine nicht eingetroffene Prognose. Bei diesen Prognosen muss es sich nicht um bewusste Leistungen handeln. Bei den alltäglichen Verrichtungen macht man ständig Prognosen. Man erwartet bei einer Aktion ein bestimmtes Ergebnis; man erwartet z. B., dass die Tür sich öffnet, wenn man auf die Klinke drückt. Das Eintreffen oder Nichteintreffen dieser Erwartungen bestimmt unser Empfinden der Bestimmtheit, den Pegel im Bestimmtheitstank.
98
6
Kapitel 6 · Emotion und Handeln
Ein Effizienzereignis ist eine erfolgreich durchgeführte Aktion; besonders der Erfolg bei riskanten Aktionen, bei denen man den Erfolg a priori als unsicher einstuft. Und ein Ineffizienzereignis ist der Fall, wenn eine Aktion keinen Erfolg hat. Tatsächlich ist das alles noch etwas komplizierter dadurch, dass Bestimmtheits- und Unbestimmtheitsereignisse, Effizienz- und Ineffizienzereignisse individualspezifisch gewichtet werden. Beispielsweise haben manche Menschen ein fast unerschütterliches Selbstvertrauen, was darauf basiert, dass sie Ineffizienzsignale eben niedrig gewichten. Aber das ist ein anderes Feld, auf das hier nicht weiter eingegangen werden kann. Die Bedürfnisse nach Bestimmtheit und nach Bewältigbarkeit oder Kompetenz sind nach unserer Auffassung menschliche Grundbedürfnisse. Es sind kognitive Bedürfnisse, d. h. Bedürfnisse, die auf eine Vermehrung des Wissens und der Fähigkeiten hinauslaufen; auf eine Vermehrung des Wissens über die Welt und ihre Gesetze und auf eine Vermehrung der Fähigkeiten, der Verhaltensweisen, die für die Befriedigung von Bedürfnissen geeignet sind. ! Das Bedürfnis nach Bestimmtheit ist ein Bedürfnis nach passiver Kontrolle, nach Voraussagbarkeit und die motivationale Basis für Neugier und für die Tendenz, sein Wissen ständig zu erweitern. Das Bedürfnis nach Kompetenz ist die Grundlage für transgressives Verhalten (Kozielecki, 1987) und die motivationale Basis für das Bedürfnis, seine Fähigkeiten ständig zu erweitern
Kompetenz und Bestimmtheit sind nicht nur Bedürfnisse. Vielmehr sind die Pegelstände in den Tanks zugleich Lageberichte. Sie sagen dem Organismus, inwieweit er die Welt voraussagen kann, ob also mit Überraschungen zu rechnen ist oder nicht. Der Pegelstand im Kompetenztank sagt, ob er sich die Bewältigung eines Problems zutrauen kann oder nicht. Die Pegelstände im Kompetenz- und Bestimmtheitstank signalisieren das Ausmaß der Notwendigkeit, neues Wissen und neue Fähigkeiten zu erwerben. Mit diesen Signalen werden Explorationstendenzen gesetzt, zur Erforschung der Um- und auch der Innenwelt. Die Suche nach Bewährung besteht in der Suche nach Möglichkeiten, sich selbst zu zeigen, dass man Probleme bewältigen kann. Das machen
verschiedene Menschen verschieden. Der eine betreibt Kompetenzhygiene durch die Lösung von Kreuzworträtseln oder Sudoku-Aufgaben, der andere dadurch, dass er Bahnbeamte überlistet und Vorortzüge mit Graffitis besprayt. Die Dritte übt sich im Erschießen von Monstern und Bösewichtern in Computerspielen usw. Also: Die primäre Bedeutung der kognitiven Motive liegt in der Verbesserung und Anpassung des Wissens und der Fähigkeiten. Zugleich aber haben die Motive eine Bedeutung für das aktuelle Handeln. Der Pegelstand im Bestimmtheitstank sagt: »Du kannst dich auf deine Prognosen nicht verlassen, sie erweisen sich oft als falsch oder unvollständig. Und deshalb sorge dafür, dass die Basis deiner Prognose verbessert wird. Zugleich aber handele so, dass du die Fehlerhaftigkeit der Prognosen in Rechnung stellst.« Die Pegelstände haben natürlich einen Ursprung. Sie sind abhängig von Effizienz- und Ineffizienzsignalen (Kompetenz) bzw. Bestimmtheits- und Unbestimmtheitssignalen (Bestimmtheit). Jede Bedürfnisbefriedigung – Befriedigung von Hunger oder Durst oder Schmerzvermeidung oder des Affiliationsbedürfnisses (Bedürfnis nach Gruppenzugehörigkeit) – ist ein Effizienzsignal. Und das bedeutet ein Empfinden der Stärke und die Verminderung von Anspannung (»arousal«), da nun keine besondere Anstrengung an die Stelle von Kompetenz treten muss. Wir nennen dieses Empfinden gewöhnlich Lust. Ein Ineffizienzsignal dagegen bedeutet eine Verminderung der Kompetenz, d. h. eine Verringerung der Fähigkeitseinschätzung und dementsprechend – je nach Wichtigkeit der Aufgabe – Stress. Es gibt aber noch andere Effizienz- und Ineffizienzsignale. Die Art dieser Signale bestimmt mit, wie die Art der emotionalen Reaktion aussieht.
6.2.2 Kompetenz, Neid und Schuld Betrachten wir 2 Beispiele: Neid und Schuld. Was ist Neid? Niedrige Kompetenz bzw. die Erwartung einer solchen z. B. dadurch, dass ein neues Gruppenmitglied schöner, charmanter, netter, intelligenter, stärker ist als ich, mich also bei der Gruppe aussticht. Dadurch aber gerate ich in Gefahr, die Unterstützung der Gruppe zu verlieren; das wiederum verringert meine Fähigkeit, Probleme zu bewältigen.
99 6.2 · Psi: Integrierte Theorie von Motivation, Kognition und Emotion
Denn diese ist in hohem Maß von der Erwartung abhängig, dass die Gruppe bei einer Bedrohung oder bei der Bewältigung eines schwierigen Problems hilft. Was ist Schuld? Gleichfalls niedrige Kompetenz bzw. die Erwartung einer solchen, diesmal aber ausgelöst durch einen (absichtlichen, d. h. vorwerfbaren) Normverstoß meinerseits. Der Verstoß gegen die Gruppennormen bedeutet die Gefahr des Verlustes der Gruppenunterstützung, u. U. den Ausschluss aus der Gruppe. Das wäre ein massiver Kompetenzverlust. Beide Gefühle, Schuld und Neid, führen zu einem Kompetenzverlust aufgrund der Gefahr des Verlustes der Gruppenunterstützung. Beide aber führen (gewöhnlich) zu ganz unterschiedlichen Reaktionen. Neid bringt Aggressionen gegen den neuen Wertebringer mit sich und den Versuch, entsprechende Werte des intelligenteren (stärkeren, schöneren) Gruppenmitglieds herabzuwürdigen oder sogar das neue Mitglied aus der Gruppe zu eliminieren, im Extremfall bis zu dessen physischer Vernichtung. Bei Schuld dagegen kommt es zu Versuchen der Reparatur des Normverstoßes (Reue, Buße), aber auch zur Uminterpretation des Verstoßes (»Es war nicht meine Schuld«) oder zu einer Veränderung der Sicht auf das Opfer: »Der gehörte ja gar nicht zu uns; das war nur ein Türke (Jude, Oberbayer, Franke ...)«. Jenseits der Reaktionen, die spezifisch für die Auslösebedingungen sind, gibt es noch die allgemeinen Regulationen. Der Pegelstand im Kompetenztank in . Abb. 6.1 sagt: »Es ist nicht sicher, dass du über die adäquaten Methoden verfügst, um mit den anstehenden Problemen zurechtzukommen.« Beide Pegelstände zusammen sagen: »Die Zukunft liegt in Finsternis, und du bist ziemlich hilflos.« Wem »sagen« die Pegelstände das? Sie sagen es dem Organismus, indem sie Handlungstendenzen setzen und kognitive und motivationale Prozesse modulieren. 4 Beide Tanks messen die Größe der Abweichung Istwert/Sollwert durch die Einheit NI (Need-Indicator). 4 Der Sollwert ist immer =1 (vollständige Füllung der Tanks), der tatsächliche Pegelstand kann davon abweichen. 4 Die Tanks werden durch Bestimmtheitsereignisse bzw. Effizienzsignale gefüllt (dadurch wird die obere Zuleitung geöffnet).
6
4 Die Tanks werden durch Unbestimmtheitsereignisse bzw. Ineffizienzsignale geleert. 4 Die Einheiten Bestimmtheit-NI und Kompetenz-NI aktivieren dann die Modulationen und Verhaltenstendenzen. Auf die verschiedenen Verhaltensregulationen, die sich in Abhängigkeit von den Pegelständen in den Tanks und aus der spezifischen Art der Effizienzund Ineffizienz-, der Bestimmtheits- und Unbestimmtheitssignale ergeben, wird im Folgenden eingegangen.
6.2.3 Verhaltenstendenzen Niedrige Bestimmtheit und niedrige Kompetenz (große Sollwertabweichung der Pegelstände der Tanks) bewirken ein hohes Ausmaß an Sicherungsverhalten. Dies bedeutet eine hohe Frequenz der Auffrischung des Umgebungsbildes. Eine hohe Frequenz der Durchmusterung der Umgebung, der ängstliche Blick seitwärts und zurück ist ein Symptom (besser: ein Bestandteil) der Angst. Niedrige Bestimmtheit und gefährdete (absinkende) Kompetenz bedeuten eine hohe Tendenz zum Angriff oder zur Flucht, je nachdem: Ist die Wahrscheinlichkeit des Erfolgs gegenüber dem bedrohlichen Objekt relativ hoch, so kommt es zum Angriff; sonst aber zur Flucht. Niedrige Bestimmtheit bedingt Explorationstendenzen, d. h. die Tendenz, unbekannte Bereiche zu erforschen, ihre Gesetzmäßigkeiten zu erfahren. Zu diesem Zweck muss man sich natürlich diesen Bereichen zunächst einmal nähern. Das ist gefährlich, denn man weiß ja nicht, welche Gefahren sich im Nebel (des Unwissens) verbergen. Daher setzt die Tendenz zur Exploration eine relativ große Kompetenz voraus. Niedrige Kompetenz führt eher zu Affiliationstendenzen, Tendenzen, sich enger an andere zu binden. Denn Bindung bedeutet Hilfeleistung und ist für ein soziales Wesen vielleicht die wichtigste Quelle der Kompetenz. Auf der anderen Seite engt die soziale Bindung die Vielfalt des Handelns ein. Man sollte nicht gegen die Gruppe handeln, wenn man die Einbindung in die Gruppe nicht gefährden will. Wenn Loyalität das Gebot ist, kann das zulasten der Kreativität gehen.
100
6
Kapitel 6 · Emotion und Handeln
Niedrige Kompetenz bedingt Tendenzen zur Wahrnehmungsabwehr. Indizien für Krisen und Gefahren werden nicht wahrgenommen, da solche Signale die Kompetenz noch weiter absenken würden. Niedrige Kompetenz senkt die Tendenz zur Selbstreflexion. Auch das ist eine Form des Kompetenzschutzes, denn wer sich selbst betrachtet, wird sehr wahrscheinlich auch mit den eigenen Fehlern und Unzulänglichkeiten konfrontiert. Das senkt vorderhand die Kompetenz, bietet aber auf der anderen Seite die Chance, Fehlertendenzen und Unzulänglichkeiten loszuwerden. Aber das ist der lange Weg; zunächst einmal bedeutet Selbstreflexion Selbstkritik, d. h. eine Minderung der Einschätzung der eigenen Kompetenz. Rechts unten in . Abb. 6.1 sind die Modulationen abgebildet, die durch niedrige Kompetenz bzw. Bestimmtheit (große Sollwertabweichungen) ausgelöst werden. Diese Modulationen sind im Wesentlichen Stressreaktionen. Niedrige Kompetenz und niedrige Bestimmtheit setzen zunächst einmal hohes Arousal in Gang. Das bedeutet die körperliche Bereitstellung erhöhter Handlungsbereitschaft; speziell einen erhöhten Muskeltonus, erhöhte Atem- und Herzfrequenz, Umschaltung von parasympathischen auf sympathische Regulationen und eine erhöhte Sensibilität der Sinnesorgane. Angst bedeutet z. B. das AUSS (allgemeines unspezifisches Sympathikussyndrom). Es bedeutet erhöhte Atmung, erhöhter Blutdruck, erhöhte Aufnahmebereitschaft der Sinnesorgane (»gespitzte Ohren«). Insgesamt ist das AUSS, die erhöhte Bereitschaft zum Handeln, sinnvoll in einer Situation, in der man nicht weiß, was auf einen zukommt und die Erfolgschancen des eigenen Handelns nicht groß sind. Die Art des Gefühls ist aber nicht nur von dem Pegelstand im Kompetenz- und Bestimmtheitskessel abhängig, sondern zusätzlich von der Art der Effizienz-, Ineffizienz-, Bestimmtheits- und Unbestimmtheitssignale, die den Pegelstand bestimmen. Nehmen wir Ärger als Beispiel. Ärger bedeutet eine Absenkung der Kompetenz. Es erweist sich, dass man ein Ziel, das man erreichen zu können glaubte und das wichtig ist, nicht oder nur unter Schwierigkeiten erreichen kann. Wie erweist sich das aber? Davon ist der Verlauf des Ärgers weitgehend abhängig. Hat mir ein anderer, womöglich absichtlich, Hindernisse in den Weg gelegt? Dann nennt man den Ärger Wut,
und die Ärgeraggression wird sich gegen diesen anderen richten (wenn er nicht stärker ist als ich). Ist aber die Herabsetzung der Wahrscheinlichkeit der Zielerreichung auf unvorausgesehene Umstände zurückzuführen, so wird sich der Ärger gegen mich selbst richten (»Warum hast du das nicht vorausgesehen?«). Die Art der Regulation wird wesentlich durch die Personen und den Kontext bestimmt, die die oben genannten Signale ausgelöst haben.
6.3
Emotionen und Handeln
Wie wirken Emotionen auf das Handeln? Was ist Handeln? Wie bereits in 7 Kap. 5 diskutiert, lassen sich 5 verschiedene Aufgaben unterscheiden, die beim Handeln relevant werden (. Abb. 5.1; Dörner, 1989): 4 Zielelaboration 4 Situationsanalyse 4 Prognose 4 Planen und Entscheiden 4 Kontrolliertes Handeln und Selbstreflexion Zielelaboration. Man sollte sich zunächst klarma-
chen, welche Ziele man anstrebt. Und man sollte ins Auge fassen, was zu vermeiden ist. Es gibt positive und negative Ziele, Appetenz- und Aversionsziele. Mitunter sind beim Handeln Zielwechsel nötig, wenn sich z. B. erweist, dass bestimmte Ziele nicht erreichbar sind. Situationsanalyse. Als Nächstes sollte man Informationen über die gegebene Situation sammeln. Was ist der Fall? Meist ist die Situationsanalyse nicht durch pures Hingucken zu erledigen, da über der Realität ein – oft schwer durchdringbarer – Nebel liegt. Manche Dinge sieht man, andere, wie die Absichten anderer Akteure, kann man nicht sehen. Es geht aber nicht nur darum festzustellen, was jetzt der Fall ist. Oft ist es sehr nützlich, wenn man darüber hinaus die Geschichte der Situation erkundet und erforscht, warum es so ist, wie es ist. Dadurch erfährt man etwas über die wirksamen Faktoren, die die Geschehnisse vorantreiben. Prognose. Wenn man weiß, was der Fall ist, und
wenn man weiß, welche Wirkfaktoren die Realität
101 6.3 · Emotionen und Handeln
bestimmen, sollte man Prognosen machen. Man sollte ermitteln, wie wohl alles weitergehen wird; zumindest kann man Hypothesen darüber aufstellen und einen Möglichkeitsraum der zu erwartenden Ereignisse konstruieren. Auch das ist sehr wichtig; vielleicht stellen sich ja bestimmte wünschenswerte Entwicklungen von ganz allein ein, und man braucht gar nichts zu tun. Planen und Entscheiden. Zielelaboration, Informa-
tionssammlung, Modellbildung, also die Ermittlung des Wirkungsgefüges, welches den Gang der Ereignisse bestimmt, und die Prognose sind die Voraussetzungen für das Planen. Planen bedeutet, dass man Methoden aus dem Gedächtnis abruft, die geeignet sind, das Ziel zu erreichen. Oftmals sind solche Methoden in den Notfallplanungen großer technischer Systeme, z. B. in Kernkraftwerken, vorgegeben. Ob sie wirklich für den Einzelfall angemessen sind, ist aber durchaus die Frage; oftmals müssen sie durch andere Maßnahmen, die die Planer bei der Aufstellung von Notfallplänen vergessen haben oder nicht berücksichtigen konnten, ergänzt werden. Mitunter ist sogar die Notfallplanung einfach unangemessen. Kontrolliertes Handeln und Selbstreflexion. Nach
dem Planen und nach der Entscheidung für die Durchführung eines Plans kommt dann das Tun, die eigentliche Aktion. Das sollte immer kontrolliert erfolgen. Man sollte wissen, was man tut, man sollte wissen, welche Effekte man erwartet, und man sollte kontrollieren, ob diese Effekte auch tatsächlich auftreten. Treten Misserfolge ein, muss man den Plan ändern. Vielleicht ergibt es sich sogar, dass man die Methoden der Informationssammlung, die Methoden des Planens, die Methoden der Zielelaboration ändern sollte. Zu diesem Zweck ist ständig mitlaufende Selbstreflexion notwendig. Das sind die verschiedenen Aufgaben, die beim Handeln zu bewältigen sind. Wie sie jeweils zu bewältigen sind, kann sehr verschiedenartig sein, und das macht diese Aufgaben schwierig. Natürlich werden die Aufgaben nicht notwendigerweise in dieser Reihenfolge bearbeitet; sehr oft findet man einen eher chaotischen Ablauf. Man beginnt mit dem Handeln, wenn eine Gefahr unmittelbar droht, und macht sich erst hinterher, wenn man vielleicht etwas mehr Zeit hat, klar, dass man vielleicht andere Ziele
6
anstreben sollte und dafür Informationen sammeln und planen sollte. Im Folgenden wird darauf eingegangen, wie Gefühle die Art der Bewältigung dieser Anforderungen beeinflussen.
6.3.1 Zielelaboration Natürlich hat der Mensch immer Ziele – sonst würde er ja nichts tun. Er strebt etwas an oder versucht etwas zu vermeiden. Warum also Zielelaboration? Weil oft die Ziele zu allgemein sind und als Richtungsgeber für das Handeln nichts taugen. Man will den Bankrott der Firma vermeiden – gut, aber wie? Teile der Firma verkaufen? Neue Produkte herstellen? Werben (aber wie?)? Personal entlassen? Wen aber? Neues Personal einstellen? Oder alles das zusammen? Ziele müssen konkretisiert, in Teil- und Zwischenziele zerlegt werden. Das ist nicht einfach. Wie geschieht das in Angst oder im Stress? Hier ist der Auflösungsgrad niedrig, es wird so wenig wie möglich Zeit auf die Zielelaboration verwendet. So ergibt sich z. B. leicht ein Handeln nach dem Reparaturdienstprinzip. Man macht heil, was kaputt ist. Die augenblicklichen Missstände sind oft sinnfällig; es bedarf keines großen Aufwands, sie wahrzunehmen. Diese Maxime ist nicht die schlechteste, aber auch nur die zweitbeste. Denn es ist nicht gesagt, dass die Reparatur der sinnfälligen Missstände wirklich etwas an der eigentlichen Krise ändert. Die Beseitigung der Rostflecke an der Schiffsaußenwand ist vielleicht im Hinblick auf den drohenden Untergang des Schiffes nicht so besonders wichtig. Dennoch findet man Handlungen auf der Ebene »Beseitigen der Rostflecke« nicht selten in Krisensituationen. Man tut doch immerhin etwas und zeigt sich selbst und seiner Umgebung, dass man handlungsfähig ist. Das Handeln nach dem Reparaturdienstprinzip ist kompetenz- und selbstwertdienlich. Aber es hat einen wesentlichen Nachteil: Es ist gegenwarts-, nicht zukunftsbezogen. Sehr oft müssen mehrere Ziele zugleich angestrebt werden. Bei einem Feuerwehreinsatz oder bei einer Polizeiaktion muss zum einen die unmittelbare Gefahr bekämpft werden, zum anderen sollen aber auch die Beanspruchung und die Gefahren für die Einsatzkräfte vertretbar niedrig gehalten werden.
102
6
Kapitel 6 · Emotion und Handeln
Meist lässt sich beides schlecht vereinigen; dann müssen Kompromisse geschlossen werden und die verschiedenen Ziele abgewogen und überlegt werden, was jeweils mehr wert ist. Das sind schwierige Entscheidungen. In Stresssituationen werden Abwägungen der Neben- und Folgewirkungen oftmals unterlassen; Ursache ist wiederum der niedrige Auflösungsgrad. Solche Analysen gefährden das Kompetenzgefühl, da sie fehlerhafte Entwicklungen aufzeigen. Manchmal ist es notwendig, die Ziele zu wechseln. Ein Brand erweist sich als schwer zu bekämpfen; vielleicht ist es vernünftig, nur noch Sicherungsmaßnahmen zu ergreifen, damit der Brand nicht übergreift, den eigentlichen Brand aber laufen zu lassen. Es empfiehlt sich nicht, Zeit und vielleicht Menschenleben zu riskieren, um ein Problem zu lö-
sen, das nicht lösbar ist oder dessen Lösung sich nicht lohnt. Die Anforderung des Schwerpunktwechsels ist oft schwer zu erfüllen, besonders, wenn man schon viel Zeit und Mühe investiert hat. Das fällt auch unter die Rubrik »Kompetenzschutz«. Man gibt ungern zu, dass das Handeln in einer bestimmten Richtung nicht mehr richtig ist, besonders wenn das Handeln bislang erfolgreich war. »Never change a winning team« heißt eine bekannte Maxime für Sport und für Wirtschaft. Man kann sie generalisieren: »Wenn du erfolgreich bist, mach weiter wie bisher«. Und natürlich gilt das auch für die Ziele, die man verfolgt. Aber Selbstüberschätzung und Sorglosigkeit sind die Gefahren des Erfolgs. Man überschätzt sich, sieht nicht mehr, dass der augenblickliche Erfolg auf bestimmten Bedingungen basiert. Diese können sich ändern.
Beispiel Ein schönes Beispiel für die »ausgehängte Kontrolle« bei Erfolg lieferte die Realität im August des Jahres 2007, als die Sachsen LB (Landesbank) in eine extrem gefährliche finanzielle Situation geriet. Ohne einen 17-Mrd.-€-Kredit der Sparkassenorganisation wäre die Sachsen LB bankrott gewesen. Wie kam es dazu? Ganz einfach: Eine irische Tochter der LB machte Finanzgeschäfte, und zwar seit Jahren mit großem Erfolg. Sie galt als »cash cow« des Unternehmens. »Weil das Geld bisher pünktlich floss, fragte keiner der Bürgermeister und Landräte, kein Landtagsabgeordneter und keiner der drei Minister, die im Verwaltungsrat der Sachsen LB sitzen, so genau nach, was es denn mit dem komplexen Finanzsystem auf sich habe.« – »Es blieb ein Sekundärthema, weil die Sache lief«, bestätigte Ronald Weckesser (Vorsitzender des Haushalts- und Finanzausschusses des sächsischen Landtags; FAZ, 21.08.2007, S. 3).
6.3.2 Situationsanalyse Wenn man Ziele hat, weiß man, in welche Richtung die Reise gehen soll. Um aber zu wissen, was man tun soll, sollte man die Bedingungen der augenblicklichen Situation kennen. Man sollte wissen, was der
Da die irische Tochter mit so großem Erfolg arbeitete, kontrollierte man sie kaum und übersah dabei, dass sich die Bank auf höchst gefährliche Finanzgeschäfte mit undurchsichtigen Papieren einließ, die wohl in hohem Maße mit nicht eintreibbaren Hypothekenschulden in den USA »vergiftet« waren. (Zumindest dem normalen Zeitungsleser ist auch das unverständlich, denn die amerikanische Hypothekenkrise ist ihm seit Beginn des Jahres 2007 vertraut.) Allein die enorme Höhe des Verlustes weist auf ein ziemlich undifferenziertes Hauruck-Verhalten hin; an sich gibt es ja eine börsianische Vorsichtsmaxime, gemäß derer man risikobehaftete durch »sichere« Investitionen (z. B. Staatsanleihen) abpuffern sollte. Die Investoren der irischen Tochter der Sachsen LB fuhren offensichtlich ohne Sicherheitsgurt mit hohem Tempo. »Winning teams« werden leicht übermütig und tendieren dazu, die Bedingungen ihres Erfolgs nicht mehr in Rechnung zu stellen: So sehen Gefühle aus, die 17 Mrd. € kosten können.
Fall ist. Außerdem ist es meist angeraten, nicht nur zu wissen, was der Fall ist, sondern zusätzlich zu wissen, wie es kommt, dass gerade das der Fall ist und nicht etwas anderes. Man sollte die Wirkfaktoren kennen, die die Situation bestimmen und vermutlich auch die Zukunft bestimmen werden.
103 6.3 · Emotionen und Handeln
Das sind die Anforderungen der Situationsanalyse. Die Anforderungen sind einfach, aber es ist schwierig, ihnen nachzukommen. Die Situation kann nicht erkannt werden, weil sie komplex ist und so viele Merkmale aufweist, dass die Zeit fehlt, alle Details zu betrachten. Zudem können viele Details gar nicht gesehen werden, weil sie unsichtbar sind, verborgen in der überwältigenden Fülle der Details, oder schlicht unzugänglich, nicht verfügbar oder auch unsichtbar. Zusätzlich muss in komplexen Situationen immer auch davon ausgegangen werden, dass Informationen über die augenblickliche Situation veraltet oder falsch sind; oft vielleicht mit Absicht verfälscht (Clausewitz, 1880).
Affirmative Informationssammlung und Informationsabwehr Wie wirken sich Gefühle auf die Situationsanalyse aus? Aus Angst und Unsicherheit ergibt sich das Bestreben zur affirmativen Informationssammlung und zur Informationsabwehr. Affirmative Informationssammlung bedeutet, dass nur diejenigen Infor-
mationen zur Kenntnis genommen werden, die mit dem eigenen Bild der Welt und den entsprechenden Erwartungen übereinstimmen. Besonders bei grober, unscharfer Wahrnehmung, d. h. unter einem niedrigen Auflösungsgrad, fällt affirmative Informationssammlung leicht. Unpassende Informationen werden übersehen – übrigens keineswegs bewusst. Informationsabwehr bedeutet, dass Informationen, die nicht zum eigenen Bild von der Welt oder den entsprechenden Erwartungen passen, die aber zur Kenntnis genommen werden müssen, aktiv abgewehrt werden, indem ihre Wahrheit geleugnet oder ihre Bedeutung herabgesetzt wird (»nicht typisch«, »nicht repräsentativ«, »einseitig«, »Ausnahme«, »Übertreibung« usw.). Nach einer solchen Kategorisierung brauchen die entsprechenden Informationen nicht mehr berücksichtigt zu werden. Bazermann & Watkins (2005) konnten zeigen, dass das Übersehen von Krisensymptomen, verbunden mit der starken Beachtung von Nachrichten, die besagen, dass »alles in Ordnung« ist, für Manager in Krisensituation typisch ist.
Beispiel Ein aktuelles Beispiel für affirmative Wahrnehmung und Informationsabwehr liefert die regierungsamtliche Behandlung des Störfalls im Atomkraftwerk Krümmel am 28.06.2007. Hier geriet ein Transformator (außerhalb des Reaktorgebäudes) in Brand; vorsichtshalber fuhr man dann den Reaktor herunter, was reibungslos gelang. Dennoch beschäftigte dieser Vorfall die Öffentlichkeit 3 Wochen lang, weil er zu einem Beinahe-Gau hochstilisiert wurde. Von Toten und Verletzten war die Rede; dementsprechend erschien die Kriminalpolizei im Kraftwerk. Wie kam es dazu? 2 Gründe sind zu nennen: 1. Nachdem der Druck im Reaktor während der Abschaltung anstieg, wies der Schichtleiter den Reaktorfahrer an, den Druck von Hand herabzusetzen und nicht auf die automatische Regelung zu warten. Zehn Minuten später bemerkte der Schichtleiter, dass der Füllstand des Reaktors abfiel, stellte fest, dass der Reaktorfahrer den Druck allzu stark gesenkt hatte, 6
6
weil er meinte, den Reaktor auf 15 bar regeln zu sollen. Vom Schichtleiter angestrebt aber waren 60 bar. Eine automatisch anspringende Hochdruckpumpe brachte den Wasserspiegel wieder auf die gewünschte Höhe. Eine Kommunikationspanne, die rechtzeitig bemerkt wurde und deshalb harmlos blieb. 2. Der Schichtleiter ließ, da leichter Brandgeruch zu bemerken war, einige Atemschutzgeräte herbeibringen, vorsichtshalber. Es erwies sich, dass sie nicht nötig waren, da die Klimaanlage mit dem Rauch des Reaktorbrands fertig wurde. Die Rauchbelastung im Reaktorraum erreichte etwa 15% der Grenzwertbelastung. Bei den ersten Besprechungen der Kraftwerkleitung mit der Umweltministerin des Landes SchleswigHolstein war klar, dass kein bedeutsamer Vorfall vorlag. Der Vorfall wurde von der Gesellschaft für Anlagen und Reaktorsicherheit in Köln als »Ereignis ohne oder mit geringer sicherheitstechnischer Bedeutung« eingestuft, und der zuständige Experte des
104
6
Kapitel 6 · Emotion und Handeln
TÜV kam zu dem Urteil, dass die Sicherheitssysteme bestimmungsgemäß funktioniert hätten. Dann aber bekam das Umweltministerium in Berlin Einblick in die Power-Point-Demonstration der Kraftwerkbetreiber, die bei der Besprechung der Kraftwerkbetreiber mit dem Kieler Umweltministerium am 30.06.2007 vorgeführt worden war. Elektrifiziert nahm man den Bericht über den Füllstandsabfall im Reaktor zur Kenntnis, und daraus ergab sich schließlich der Eindruck, einem schwerwiegenden Störfall auf die Spur gekommen zu sein, der von der Betreibergesellschaft herabgespielt worden war. Die Ministerin in Schleswig Holstein schwenkte auf die Berliner Linie ihres Parteikollegen Gabriel (Bundesumweltminister) ein, ver-
Soweit zur Bedeutsamkeit affirmativer Wahrnehmung und der Wahrnehmungsabwehr (vgl. 7 Kap. 4). In einer Welt, in der die meisten Informationen sekundär sind, nicht auf der eigenen Anschauung, sondern auf Berichten beruhen, fällt Informationsabwehr relativ leicht. Mitunter können solche realitätsverfälschenden Wahrnehmungsmodi durchaus funktional sein, sie erhalten die Handlungsbereitschaft. Dieser positive Effekt kann die negativen Wirkungen der Realitätsverfälschung durchaus übersteigen. Emotionale Modulationen kognitiver Prozesse müssen keineswegs irrational in dem Sinne sein, dass sie zu gänzlich unangepasstem Verhalten führen. Meist ist eine Analyse der Geschichte einer Situation notwendig, um die Wirkfaktoren zu ermitteln, die einen bestimmten Zustand erzeugten. Solche Analysen sind aufwendig und fehleranfällig; die Berichte über die Vergangenheit einer Situation sind meist lückenhaft und oft verfälscht (z. B. durch affirmative Wahrnehmung). Viele Geschehnisse erscheinen unentwirrbar komplex, verworren, chaotisch in ihrem Ablauf. Solche Geschehnisse machen Angst; sie erscheinen unbestimmt, daher unkontrollierbar.
Reduktionismus Wie gehen Menschen mit der Anforderung um, die Wirkfaktoren zu ermitteln? Der russische Schriftsteller Leo Tolstoi (1828–1910) gibt uns eine Antwort auf diese Frage:
gaß die ihr bekannten Fakten und teilte späterhin zur Untermauerung der Gefährlichkeit des Störfalls und des Vorwurfs, der Kraftwerksbetreiber hätte Informationen vorenthalten, mit, dass es immerhin »Schnittverletzungen« gegeben habe. »Das ist wahr: Am Morgen des 28. Juni, etwa viereinhalb Stunden vor dem Störfall, hatte sich ein Schlosser bei Bohrarbeiten ... einen Schnitt am Finger zugezogen. Er war zum Sanitäter gegangen, um sich ein Pflaster zu besorgen, dann nahm er die Arbeit wieder auf, so steht es im Verbandsbuch. Es ist an diesem Tag, neben dem Insektenstich eines Monteurs, der einzige Eintrag.« (Der Spiegel, Nr. 43/22.10.2007, S. 48 ff. Aus diesem Artikel stammen auch die anderen Angaben zu dem Störfall.)
»Der menschliche Verstand vermag den Zusammenhang der Ursachen aller Erscheinungen nicht zu begreifen, aber der Trieb, diese Ursachen zu erforschen, schlummert in des Menschen Seele. Und da er in die vielen kunstvoll verworrenen Grundbedingungen aller Erscheinungen nicht eindringen kann, von denen jede einzelne als Ursache gelten könnte, greift er nach der ersten besten, die ihm am verständlichsten ist und am nächsten liegt, und behauptet: das ist die Ursache.« (Tolstoi, 2001, S. 353)
Wir nennen diese Art des Denkens Reduktionismus. Für die Vielfalt der Effekte (er)findet man eine Ursache. In Religionen und anderen Ideologien sind solche Reduktionismen üblich. Religionen sind seit jeher das Mittel, um Komplexität und Chaos in den Griff zu bekommen. Der Glaube an einen allmächtigen, gütigen und allwissenden Gott reduziert die Komplexität auf einen Faktor. Genau so ist es mit dem Glauben an den Grundwiderspruch zwischen Lohnarbeit und Kapital (Engels, 1956) als Kernfaktor wirtschaftlichen und geschichtlichen Geschehens. Je nach dem Standpunkt der Betrachter werden verschiedene Wirkfaktoren identifiziert, auf die ein wirtschaftlicher Auf- oder Abschwung zurückzuführen ist. Es sind jeweils die Unternehmer mit ihrer maßlosen Profitgier oder die Gewerkschaften mit ihren überzogenen Lohnforderungen oder die Regierung
105 6.3 · Emotionen und Handeln
mit den Steuererhöhungen bzw. -senkungen zum falschen Zeitpunkt. Es sind immer einzelne Faktoren, die für bestimmte Effekte verantwortlich gemacht werden, nicht ihr Zusammenspiel, denn das ist schwer zu überschauen. Da aber z. B. Angst mit einer allgemeinen Senkung des Auflösungsgrades einhergeht, wird die Tendenz zu reduktionistischen Hypothesen in einem solchen Zustand noch erhöht. Reduktionistische Hypothesen brauchen nicht falsch zu sein, meist aber sind sie unvollständig. Zum einen handelt es sich bei der Ursache, die man als Wirkfaktor sieht, meist nur um den Endpunkt einer Kette; oft lohnt es sich, die Ursachen für die Ursachen usw. ebenfalls zu ermitteln. Solche Beziehungsgeflechte sind oft schwer zu analysieren, aber es ist notwendig, sie zu erfassen, da man auf diese Art und Weise besser für zukünftige Störfälle gerüstet ist (vgl. 7 Kap. 3). Im Alltag und auch in der Wissenschaft findet man sehr oft, dass die Ermittler zufrieden sind, wenn sie eine Ursache gefunden haben. »Menschliches Versagen« diagnostizierten die Ermittler bei dem Transrapidunglück in Lathen im Emsland am 22.09.2006, und man atmete auf. Es liegt also nicht an der Technologie des Transrapids, und man kann die Entwicklung dieses Verkehrsmittels weiter verfolgen. Dabei wird nicht berücksichtigt, dass menschliches Versagen wiederum von anderen Faktoren abhängig ist und nicht als deus ex machina plötzlich da ist. Warum haben die Menschen versagt? Das könnte durchaus auch technische Hintergründe haben. Eine weitere wichtige, emotionsanfällige Tendenz bei der Situationsanalyse ist die Überbewer-
. Abb. 6.2. Computersimuliertes Planspiel »Feuer«
6
tung des Sinnfälligen. Sie nimmt zu, wenn Angst oder Ärger zunimmt, da man bei solchen Gefühlen stark außengelenkt ist und mehr dazu neigt, leicht zu verarbeitende Informationen aufzugreifen. . Abb. 6.2 zeigt eine Waldbrandsituation in einem Planspiel. Man sieht oben einen sehr großen Brand und unten einen kleinen. Bei oberflächlicher Analyse wird man sich dem großen Brand zuwenden, der gefährlich aussieht. In Wirklichkeit ist der kleine viel gefährlicher, wie man (nicht unmittelbar) sieht, denn der große kann sich nicht weiter ausdehnen, wohingegen der kleine Waldbrand mit der Windrichtung in ein Waldgebiet hineinlaufen kann, in dem sich außerdem ein Dorf befindet. Unter dem Druck der Situation übersehen Menschen diese Unterschiede und entscheiden nach Sinnfälligkeit. Es wurde bereits dargestellt, dass es nicht nur darauf ankommt, zu erkennen, was gerade der Fall ist, sondern oft auch, zu ermitteln, warum etwas der Fall ist. In akuten Krisen hat das vielleicht nachrangige Bedeutung, aber für zukünftige Vorbeugungen und manchmal auch in der Krise direkt ist die Analyse der Faktoren, die die Ereignisse bestimmen, von Bedeutsamkeit. Bei einem Waldbrand ist es natürlich zunächst wichtig festzustellen, wo es überhaupt brennt. Zugleich ist aber auch wichtig festzustellen, warum es brennt. Sind die Brände gelegt worden? Oder hängen die Brände damit zusammen, dass der Wald schlecht durchforstet wurde, zu viel trockenes Unterholz auf dem Waldboden lag? Das ist für den akuten Waldbrand eher nicht bedeutsam, wohl aber für die Zukunft. Unter Zeitdruck fällt die Analyse dieser Wirkfaktoren oft nicht ins Gewicht, obwohl sie sogar in der kritischen Situation selbst bedeutsam sein kann. Wenn beispielsweise, wie es in manchen Ländern oft geschieht, Waldbrände absichtlich gelegt werden, um auf diese Weise Bauland »freizumachen«, dann ist auch während der Waldbrandbekämpfung die Analyse der Wirkfaktoren bedeutsam, da man auf diese Art und Weise das Legen weiterer Brände vielleicht vereiteln kann. Für eine direkte Krisenintervention ist vielleicht ein Schnappschuss der Situation hinreichend; oft ist es aber wichtig, die Zeitgestalt zu erfassen, die zu dem jeweiligen Krisenereignis geführt hat. Bei dieser Erfassung der Zeitgestalt sollte man sich vor einer analogia praecox hüten, vor einer vorfristigen Ana-
Selianz
106
6
Kapitel 6 · Emotion und Handeln
logiebildung. Bei gesenktem Auflösungsgrad und unter dem Gefühl von Zeitdruck nimmt die Tendenz zu solchen Methoden der Informationsgewinnung zu. Jede Situation ist einzigartig und stellt ihre besonderen Anforderungen. Andererseits ist es durchaus vernünftig, eine unbekannte Situation zunächst einmal mit einer bekannten zu analogisieren, um einen Einstieg zu bekommen. Aber man sollte sich davor hüten, Analogien für Wahrheiten zu halten. Analogien sind Leitern. Damit kommt man auf den Turm und hat zunächst einmal den Überblick. Dieser Überblick ist aber nicht das endgültige Bild, sondern sollte als Ausgangspunkt weiterer Exploration betrachtet werden. Wenn man aber ängstlich ist, neigt man zum Dogmatismus und klammert sich an die Gewissheiten, die man erkannt zu haben glaubt.
6.3.3 Prognosen Das Waldbrandbeispiel in . Abb. 6.2 zeigt die Wichtigkeit von Prognosen. Man muss nicht nur wissen, wo etwas brennt, sondern zusätzlich, wie sich die Situation unter dem Einfluss bestimmter Faktoren entwickeln wird. Die Zukunft ist vielleicht wichtiger als die Gegenwart, weil die Gegenwart sehr bald Vergangenheit ist und die Zukunft Gegenwart. Deshalb ist es wichtig, zu ermitteln, wie die Windrichtung ist, ob der Wind vielleicht auffrischt, wie die sonstigen Bedingungen für die Ausbreitung des Feuers in der Windrichtung sind, welche Gefahren bei einer Ausbreitung des Feuers in der Richtung des Windes zu erwarten sind. Es gibt 2 Arten, Prognosen zu entwickeln: 4 Die eine ist die Trendfortschreibung, die Extrapolation der Vergangenheit in die Zukunft. Diese erfolgt nach irgendeinem mathematischen Modell, meist wohl einfach linear: gestern 50, heute 60, morgen 70. 4 Die andere Art von Prognose erfolgt aufgrund der Identifikation der Wirkfaktoren: Der Wind bläst aus dieser Richtung; er wird sich drehen und auffrischen. Es wird ein wenig regnen, und deshalb wird sich der Waldbrand so und so entwickeln. Beide Methoden haben ihre Vor- und Nachteile. Die Extrapolation ist aufwandsarm und eigentlich im-
mer anwendbar. Prognosen aufgrund der Analyse der Wirkfaktoren erfordern einen hohen Aufwand und sind höchst unsicher, da sie auf vielerlei Annahmen basieren, die meist sehr unsicher sind. Deshalb scheinen Menschen bei dem Versuch, die Zukunft zu erfassen, die Standardmethode der Extrapolation anzuwenden: Die Zukunft sieht aus wie die Gegenwart, vielleicht ein wenig größer oder ein wenig kleiner. Die in Deutschland üblichen Prognosen der wirtschaftlichen Entwicklung durch die sog. Wirtschaftsweisen (Leiter der führenden Wirtschaftsinstitute der Bundesrepublik) erfolgen durch Extrapolation. Mit schöner Regelmäßigkeit müssen sie »korrigiert« werden, und das ist ein Euphemismus für die Tatsache, dass sie sich als falsch erweisen. Niemand hat den Wirtschaftsboom im August 2007 prognostiziert und niemand die im Herbst 2007 folgende Finanzkrise. Die Fortschreibungstendenz bewährt sich in unserem Alltag und ist daher sinnfällig richtig. Fortschreibungen über kürzere Distanzen sind meist richtig und kognitiv aufwandsarm. Deshalb sind sie umso beliebter, je schwieriger es ist, kognitiven Aufwand zu leisten, z. B. bei Angst und unter großem Stress. Menschen können sich, wenn sie nicht darüber nachdenken (genau das tun sie umso weniger, je mehr Angst sie haben), schwer vorstellen, wie z. B. eine beschleunigte Entwicklung aussehen wird. Die Intuition lässt uns hier völlig im Stich. Beispiel Niemand im Jahr 1986 ahnte, wie sich die Krankheit Aids entwickeln würde. 771 Aidsfälle hatte man seit dem Jahr 1983 beobachtet: tragisch für die Betroffenen, aber im Hinblick auf die Anzahl der Verkehrstoten, im Hinblick auf die Anzahl von Herz- und Kreislauferkrankungen, im Hinblick auf die Anzahl von Krebserkrankungen doch eine Quantité négligeable. Dass die Zahlen an HIV-Infizierten in den Folgejahren explodieren würde, wussten einige Seuchenexperten des Robert-Koch-Instituts in Berlin sehr wohl (insofern ist »niemand ahnte ...« nicht ganz richtig); es gelang ihnen aber nicht, ihr Wissen den Verantwortlichen zu übermitteln. Das hatte fatale Folgen, z. B. für die Bluter. Denn 6
107 6.3 · Emotionen und Handeln
im Jahre 1986 entschloss sich das Gesundheitsministerium der Bundesrepublik Deutschland, auf ein Screening der Blutkonserven zu verzichten. Die Blutkonserven aber wurden zu einem hohen Maße aus den USA eingeführt. In den USA war man mit Aids schon »weiter«; die dortigen Blutspender (die faktisch ihr Blut verkauften) gehörten in hohem Maße den Aids-Risikogruppen an. Deshalb waren Blutkonserven in manchen Teilen des Landes in hohem Ausmaß verseucht. Auf diese Weise verurteilte das Bundesgesundheitsministerium im Jahre 1986 ca. 2000 Bluter zum Tode, weil man die Entwicklung der Seuche nicht richtig einschätzte.
6.3.4 Planen und Entscheiden Ziele können durch Planen erreicht werden! Wie aber wird das Planen in bestimmten Gefühlslagen verändert? Planen in einer unbestimmten Situation, in einer Situation, in der man kaum über die notwendigen Informationen verfügt, die man eigentlich zum Planen braucht, und in denen man Zweifel hat, ob die Informationen richtig sind, ist ein schwieriges Geschäft. Nicht nur, dass das Planen von der emotionalen Lage abhängig ist; ein schwieriges Problem erzeugt gewöhnlich seinerseits Gefühle, nämlich Ärger und Wut über die vergeblichen Lösungsbemühungen. Die mit solchen Gefühlen verbundenen Empfindungen der Inkompetenz lassen uns nach Vereinfachungen des Planungsprozesses suchen. Diese ergeben sich oft aus der Senkung des Auflösungsgrades und daraus folgenden Verhaltenstendenzen:
Dekonditionalisierung des Planungsprozesses Die Bedingungen, die für bestimmte Aktionen gegeben sein müssen, werden nicht beachtet. Der Alltagsbegriff für Dekonditionalisierung ist Projektemacherei. Man könnte diese Art des Planens auch »Rumpelstilzchen-Denken« nennen: »Heute back’ ich, morgen brau’ ich, übermorgen hol’ ich der Königin ihr Kind.« Das ist dekonditionalisiertes Planen, das z. B. die Bedingungen, die für eine erfolgreiche
6
Brotproduktion gegeben sein müssen, außer Acht lässt. Auf diese Weise wird das Planen leicht. Zugleich geht es aber meist wie bei Rumpelstilzchen: Der Plan funktioniert nicht. Meist ahnen das die Dekonditionalisten und scheuen vor dem Handeln zurück (Dörner, 1989). Planen kann man sich auch dadurch ersparen, dass man an die Stelle von Maßnahmen Ziele setzt. Dies scheint bei Politikern und Politikerinnen eine sehr beliebte Form der Problemlösung zu sein. »Die Hauptaufgabe, der wir uns mit aller Kraft widmen werden, ist die Bekämpfung der Arbeitslosigkeit.« Das klingt gut – und hebt das Gefühl des Redners, sich wirklich für eine wichtige Sache einzusetzen. Dekonditionalisierung und Ziele-statt-Maßnahmen beziehen sich nicht so sehr auf die eigentlichen Probleme, sondern auf die Kompetenz des Akteurs, die durch diese Maßnahmen angehoben wird. Eine weitere, wiederum nur scheinbare Vorbereitung einer Maßnahme ist eine bestimmte Form der Delegation. Man delegiert die Aufgabe an ein zu diesem Zwecke ins Leben gerufenes Komitee. »Wenn ich nicht mehr weiter weiß, gründ ich einen Arbeitskreis.« Statt solcher Scheinaktionen, bei denen doch meist das dumpfe Empfinden zurückbleibt, eigentlich nichts getan zu haben, kann man die Kompetenz auch mit einer großen Aktion reparieren: mit einer Maßnahme, die sehr sinnfällig ist und gewissermaßen laut kracht und knallt. Denn durch das effektvolle Tun zeigt man (sich und anderen), dass man nicht hilflos ist. Deshalb gibt es bei Angst und Furcht eine starke Tendenz zu Bang-Bang-Entscheidungen, d. h. zu Aktionen, die sehr sinnfällige Folgen haben. In Wirtschaftsunternehmen beispielsweise werden unter dem Eindruck einer heraufziehenden Krise oftmals die Organisationsstrukturen geändert. Das macht zunächst großen Eindruck, weil auf diese Weise die gesamte Firma gründlich durcheinandergebracht wird.
Kategoriales Denken Eine weitere Scheinmaßnahme, die ein gutes Heilmittel gegen Angst und Furcht und gut geeignet ist, sich selbst und anderen Überlegenheit und Entschlossenheit zu demonstrieren, ist das kategoriale Denken: Es besteht darin, dass man bestimmte Maßnahmen kategorisiert, ihnen ein Attribut zuordnet, sie in einen Schubkasten einordnet. Das Denken in
108
6
Kapitel 6 · Emotion und Handeln
Kategorien ist meist mit einer moralischen Wertung verbunden. »Das ist undemokratisch.« – »Das ist Sozialabbau und mit uns nicht machbar.« Solche Kategorisierungen haben eine ganze Menge Vorteile: Das Denken in Kategorien ist viel einfacher als das Denken in Funktionen. Bei Funktionen muss man nachdenken darüber, ob die Bedingungen für ein bestimmtes Handeln erfüllt sind, welche Nebenwirkungen und Spätfolgen möglicherweise auftreten werden und ob man über die Möglichkeiten verfügt, die entsprechende Aktion durchzuführen. Daraus ergibt sich ein weiterer Vorteil dieser Art des Denkens, dass nämlich nur eine gewisse Minimalausstattung an Intelligenz notwendig ist, um auf diese Weise Entscheidungen zu akzeptieren oder abzulehnen. Man erspart sich die Argumentation, es reicht das Urteil. Durch die moralische Aufladung erhöht man sich selbst, der Selbstwert steigt. Allerdings kommt man mit dieser Art des Denkens nur in sehr unerfahrenen oder aber ideologisch ausgerichteten Gruppen weiter. Einmal fallen die notwendigen Funktionsbetrachtungen der Maßnahmen heraus und zum anderen ist es auch gar nicht so leicht zu entscheiden, ob etwas wirklich »demokratisch« oder »undemokratisch« oder »sozial« oder »nicht sozial« ist oder vielleicht zunächst einmal unsozial, dann aber sozial usw. Schon Adam Smith war aufgefallen, dass Egoismus und Altruismus nicht unbedingt konträre Kategorien sind, sondern dass ein Wirtschaftssystem durch das Gegeneinanderspiel der Kräfte auf der einen Seite zwar natürlich kapitalistisch agiert, zum anderen aber auch durch »invisible hands« dem Gemeinwohl dient. Inwieweit und unter welchen Umständen das der Fall ist, soll hier nicht diskutiert werden, um nicht allzu weit in den Bereich der Politik zu geraten. Obwohl: Die Politik ist der klassische Ort des kategorialen Denkens – leider.
Einkapselung Eine weitere Methode, in Krisensituationen die Einschätzung der eigenen Kompetenz zu bewahren oder sogar noch zu steigern, ist die Einkapselung in gut beherrschte Tätigkeitsfelder. Man tut das, was man kann, und nicht das, was man eigentlich tun sollte. Auf diese Weise werden die Nebenprobleme gelöst, und die Hauptprobleme bleiben unangetastet. Mit großer Verve widmet sich z. B. das Land Bayern zurzeit dem Verbot von sog. Killerspielen, um auf
diese Weise die ansteigende Gewaltausrichtung bei Jugendlichen zu bekämpfen. Man darf voraussagen, dass derartige Maßnahmen überhaupt nichts nützen (vielleicht sogar eher schaden). Aber hier hat man etwas, was man per Gesetz regulieren kann, und man erspart sich das Nachdenken über die tatsächlichen Gründe und Hintergründe jugendlicher Gewaltbereitschaft. Die Einkapselung in gut beherrschten Bereichen ist nicht immer falsch; oftmals kann ein erfolgreiches Tun in einem bestimmten Bereich, der für sich selbst eigentlich unwichtig ist, doch die Kompetenz und das Selbstvertrauen heben, was sich dann günstig auf die Handlungsbereitschaft in anderen Bereichen auswirken mag. Es gibt also eine therapeutische Wirkung des erfolgreichen Tuns, gleichgültig, ob es einen wichtigen oder unwichtigen Bereich betrifft.
Methodismus Die gefährlichste Tendenz, die Gefühle bei der Planung von Maßnahmen auslösen können, ist Methodismus. Methodismus ist die unreflektierte Anwendung einer Methode, weil sie sich in der Vergangenheit als erfolgreich erwiesen hat. Methodismus basiert auf Erfolg, allerdings auf vergangenem Erfolg. Man tut, was sich bewährt hat. Warum aber soll man das, was sich in der Vergangenheit als erfolgreich erwiesen hat, nicht wieder tun? Doch, man sollte erfolgreiches Handeln wiederholen. Aber nicht unreflektiert. Wenn sich eine Form der Werbung für ein Produkt erfolgreich erweist, sollte sie durchaus weiter verwendet werden. Aber dabei ist zu bedenken, dass sich manchmal, im Laufe der Zeit, die Bedingungen ändern. Dies wird leicht übersehen, gerade wenn man sich in einer Erfolgsserie befindet. So agierte VW, als sich nach dem Krieg der Käfer als großer Erfolg erwies. Also baute VW immer weiter Käfer. Fast bis zum bitteren Ende. Denn irgendwann nach der Mitte der 1950er Jahre änderte sich mit dem Wirtschaftswunder der Publikumsgeschmack. In einem lauten, engen Gefährt, fast ohne Kofferraum, wollte keiner mehr an die Adria fahren. In letzter Minute wechselte VW zur Produktpalette Passat, Golf und Scirocco. »Vergangene Schlachten und tote Generäle halten den militärischen Geist in tödlichem Griff. Und so planen Deutsche – wie andere auch – den vergangenen Krieg«, so Tuchmann (2001, S. 42) über den
109 6.3 · Emotionen und Handeln
Methodismus der Krieg führenden Mächte zu Beginn des 1. Weltkriegs. Das ist die Gefahr, die sich im Erfolg verbirgt: Man verpasst leicht die Stellen, an denen man abbiegen sollte. Interessante Beispiele für politisches Handeln, das seine Maximen aus den Erfolgen der Vergangenheit bezieht, finden sich bei Englund (1993). Methodismus ergibt sich aus Hilflosigkeit; dann wird auf Bewährtes zurückgegriffen. Zugleich aber ergibt sich Methodismus aus allzu großer Selbstsicherheit. Wenn das Patentrezept gefunden wurde, warum dann noch nachdenken? So ergibt sich Methodismus aus 2 gegensätzlichen Gefühlslagen: aus Hilflosigkeit und aus (allzu großer) Sicherheit. »Denke, bevor du handelst« – das ist eine Maxime, die fast jeder für uneingeschränkt richtig halten wird. Sie ist aber nicht immer richtig. In bestimmten Situationen sollte man nicht denken bzw. nicht allzu viel, vielleicht gerade nur so viel, dass man erkennt, dass es hier nicht nützt, sondern eher schadet. Zum Beispiel in chaotischen Situationen, in denen die Bedingungsfaktoren, die sich auf die Situation auswirken, nicht erfasst werden können, ist es besser, auf das Planen ganz zu verzichten und stattdessen lieber etwas zu tun. »On s’engage et puis on voit«, meinte Napoleon – »Man beginnt mal, und dann sieht man zu, was kommt« (fast eleganter formulierte Franz Beckenbauer: »Schau’n mer mal«). Wenn man sich engagiert, dann lernt man so die jeweiligen Bedingungen der Situation kennen und kann dann auch gezielt planen. Versucht man vorher zu planen, fehlen wesentliche Informationen. Deshalb gerät man in die Gefahr, dass der Plan bei der ersten Konfrontation mit der Realität scheitert. Dann hat man nicht nur einen gescheiterten Plan, sondern außerdem – und das ist oft schlimmer – noch ein beschädigtes Selbstvertrauen. Ein beschädigtes Selbstvertrauen bedeutet mehr Angst mit den oben beschriebenen Folgen. Gerade aber der Ängstliche wird in Krisensituationen ungern auf das Denken verzichten. Ihm fehlt der Mut, einfach mal etwas zu tun. In Krisensituationen fehlt leicht der Mut zum Handeln. Aber das ist kein unbedingtes Gesetz. Der Zauderer, der sich im Planen verliert, ohne tatsächlich etwas zu tun, wird durch sein Zaudern immer unsicherer und neigt schließlich zum Ausbruch in die befreiende Tat, die direkte Aktion. Die direkte
6
Aktion ist eine Reaktion auf die sich akkumulierende Hilflosigkeit. Sie befreit, weil sie das Gefühl der Handlungsfähigkeit restituiert. Die direkte Aktion ist ein Kompetenzheilmittel. Leider ist damit fast notwendigerweise der Verlust der Koordination der Aktionen verbunden. In komplexen Situationen hängen die verschiedenen Probleme miteinander zusammen. Daher sollten die Maßnahmen aufeinander abgestimmt werden, man sollte die eine bedenken, wenn man die andere plant. Das setzt Überblick voraus, und den hat man nur dann, wenn man dieser Koordination Zeit widmet. Die direkte Aktion aber ist in charakteristischer Weise unbedacht, sie bedeutet meist reaktives Handeln in unkoordinierten Einzelaktionen. Strohschneider & Schaub (1991) fanden heraus, dass dies einer der wesentlichen Unterschiede zwischen erfahrenen Managern und jungen Studenten war, die ein komplexes Problem (die Simulation »Moro«, Lösung der Probleme eines Halbnomadenstammes in der Sahelzone) zu behandeln hatten. Die erfahrenen Führungskräfte handelten koordiniert, die Studenten in vereinzelten Aktionen. Anscheinend verleiht die Erfahrung die Sicherheit, auf das Kompetenzheilmittel der einen direkten Aktion verzichten zu können.
6.3.5 Kontrolliertes Tun Hat man einen Plan oder eine schon vorher gelernte Verhaltensweise gefunden, um ein Problem zu lösen, so muss man den Plan in Tun umsetzen. Natürlich – das ist eine trivial anmutende Forderung – sollte man sich während der Aktion kontrollieren. Das heißt, dass man prüfen sollte, ob das, was man getan hat, auch die erwünschten Effekte zeigt und nicht überraschende oder sogar unerwünschte Wirkungen.
Ausfall der Kontrolle Die Kontrolle der eigenen Aktionen ist oftmals nicht einfach. In vielen Realitäten treten Totzeiten auf; die Realität reagiert träge, und die Wirkungen zeigen sich erst nach geraumer Zeit. Besonders in ökologischen und politischen Systemen sind lange Totzeiten die Regel. Ob die Erhöhung der Mehrwertssteuer das Wirtschaftswachstum abwürgt (durch die steigenden Preise) oder ankurbelt (durch steigende staatli-
110
6
Kapitel 6 · Emotion und Handeln
che Investitionen aufgrund des gestiegenen Steueraufkommens) oder ob gar nichts geschieht, ist nicht nach 2 Tagen zu sehen. Davon aber ganz unabhängig ist die Forderung, sein Handeln zu kontrollieren, auf jeden Fall richtig, sei sie nun leicht oder schwer zu erfüllen. Denn nur wer sein Handeln kontrolliert, kann ggf. gegensteuern und auch seine Methoden ändern. Man sollte also meinen, dass Handelnde viel daran setzen, das Tun zu kontrollieren. Das ist keineswegs der Fall. Oft wird die Kontrolle unterlassen, und zwar aus gefühlsmäßigen Ursachen. Bei vielen Gefühlen geht es um den Schutz der Kompetenz. Das führt dazu, dass – wie bei anderen Stationen der Handlungsregulation auch – affirmative Informationssammlung und Wahrnehmungsabwehr stattfindet. Denn wenn sich bei der Kontrolle des eigenen Handelns zeigt, dass man falsch geplant hat, Bedingungen nicht kontrolliert, Maßnahmen über- oder unterdosiert hat, so beweist das die eigene Inkompetenz und senkt so das Gefühl, die Dinge im Griff zu haben. Das aber verstärkt die Angst, und so handeln Akteure oft ballistisch, schießen ihre Maßnahmen ab wie die Kanonenkugeln, die man nach dem Abschuss nicht mehr steuern kann.
. Abb. 6.3 stellt Ergebnisse eines Experiments von Reither (1985) dar. Versuchspersonen mussten die Probleme eines (computersimulierten) Halbnomadenstammes in der Sahelzone lösen. Bei dem Moro-Problem konnten die Versuchspersonen z. B. Brunnen bohren, neue Hirsesorten einführen, die Hirsefelder düngen lassen, einen Sanitätsdienst einrichten usw. Die Abszisse in . Abb. 6.3 zeigt die Anzahl der Maßnahmen der Versuchspersonen in 5-Jahres-Abschnitten des Planspiels, die kontrolliert wurden, in denen z. B. nach einer Aktion gefragt wurde: »Um welchen Betrag ist die Hirseernte durch die Düngung gestiegen?« In den ersten 5 (simulierten) Jahren wurden nur 36% der Maßnahmen kontrolliert, die anderen 64% blieben unkontrolliert. In den nächsten 5 Jahren stieg die Anzahl der kontrollierten Aktionen immerhin auf 52%. Dann aber trat nach dem 10. Jahr eine Krise ein. Diese bestand darin, dass ein Nachbarstaat mit einer militärischen Intervention im Grenzbereich drohte. Diese von den Versuchspersonen nicht erwartete Verschärfung der Lage führte zu einer Verringerung der kontrollierten Aktionen auf 8% in den Jahren 11–15 und zu einem fast völligen Verschwinden der Kontrollrate (2%) in den Jahren 16–20. Es kommt hier auf die Zahlen im Einzelnen nicht an. Diese werden unter anderen Bedingungen anders sein, geringer oder größer. Worauf es ankommt, ist, dass Versuchspersonen eine geringe Neigung zur Kontrolle ihres Verhaltens zeigen, und dass diese Neigung sich unter Belastung noch weiter verringert. Offensichtlich fällt das Verhalten der Versuchspersonen unter die Rubrik »Wahrnehmungsabwehr«. Die Versuchspersonen wollten nichts wissen, was sie in ihrer Kompetenzeinschätzung beeinträchtigen könnte, und das war in umso größerem Maße der Fall, je mehr sie das Gefühl hatten, die Dinge nicht kontrollieren zu können.
Immunisierung gegen Kritik
. Abb. 6.3. Kontrolle des Handelns. (Nach Daten von Reither, 1995)
Eine weitere Form der Wahrnehmungsabwehr ist die immunisierende Marginalkonditionalisierung, was bedeutet, dass Gründe für Misserfolge auf Randbedingungen (Marginalien), die nur selten, eigentlich fast nie, auftreten, zurückgeführt werden. Es gibt keinen Grund, das Handeln wegen dieser Marginalien zu ändern.
111 6.4 · Zusammenfassung und abschließende Bemerkungen
Zum Thema »Übersehen unangenehmer Informationen« gehört auch der Ausfall der Hintergrundkontrolle. Gewöhnlich handelt man in einer komplexen Situation mit einem bestimmten Schwerpunkt. Man bemüht sich um die Lösung des augenblicklich wichtigsten oder dringlichsten Problems und schiebt die anderen in den Hintergrund. Es macht das Leben leichter, wenn man den Hintergrund unberücksichtigt lässt, denn da könnten ja unliebsame Informationen auftauchen. Damit macht man sich selbst blind für Nebeninformationen. Wie jede Form der Blindheit kann auch das gefährlich werden. Vordergründig aber schützt es das Gefühl der Kompetenz, das Gefühl, Meister der Situation zu sein. Alle diese Tendenzen sind keineswegs bewusst. Sie infiltrieren das Handeln, ohne dass der Handelnde es selbst merkt. Denn würde er es merken, so hätte er nicht den intendierten Effekt.
Selbstreflexion Wenn Selbstreflexion nicht nur darin besteht, sich selbst auf die Schulter zu klopfen, bedeutet sie auch immer Selbstkritik. Ein vollständiger Akt der Selbstreflexion besteht darin, dass man das eigene Handeln rekapituliert, auf Fehler und Schwachstellen analysiert und sodann versucht, das eigene Tun aufgrund der Analyse zu ändern. Die reduzierte Form der Selbstreflexion besteht aus der Rekapitulation des eigenen Handelns, affirmativ geschönt dadurch, dass man kritische Phasen und Abläufe nicht betrachtet. So wird Selbstkritik vermieden, mitunter geschönt mit der Feststellung der Erhabenheit der eigenen Motive: »Auf alle Fälle haben wir das Beste gewollt.« Wenn man sowieso Angst vor dem Versagen hat, ist Selbstreflexion Gift. Denn Selbstreflexion fördert, wenn man das eigene Verhalten nicht nur rekapituliert, sondern auch kritisiert, fast notwendigerweise Schwachstellen und Fehler zutage und senkt damit das eigene Empfinden, die Dinge im Griff zu haben, die eigene Kompetenz. Damit aber erhöht Reflexion die Angst und produziert vermehrt Handlungsunfähigkeit. Deshalb fällt Selbstreflexion in Krisensituationen so schwer.
6.4
6
Zusammenfassung und abschließende Bemerkungen
Emotionen lassen sich als übergeordnete Organisationsformen psychischer Prozesse ansehen, als emergente Erscheinungen, die sich aus spezifischen Formen der Interaktion kognitiver und motivationaler Prozesse ergeben. Relevant für die Entstehung von Emotionen sind die kognitiven Bedürfnisse nach Bestimmtheit und Kompetenz, deren spezifische Ausprägung durch (Un-)Bestimmtheitssignale und (In-)Effizienzsignale bestimmt wird. Emotionen formen das Handeln: Zielelaboration, Situationsanalyse, Prognose, Planen und Entscheiden, Kontrolle des Handelns laufen je nach Emotion verschieden ab. Aus den emotionalen Grundregulationen und aus der basalen Handlungsorganisation ergeben sich bestimmte Handlungstendenzen. Das jeweils empfundene Ausmaß an Bestimmtheit und Kompetenz ist dabei für die jeweilige Emotion von zentraler Bedeutung. Die geschilderten emotionalen Verhaltenstendenzen wie Wahrnehmungsabwehr oder Aktionismus sind keineswegs als Fehlerliste zu verstehen. Alle Tendenzen können in bestimmten Situationen durchaus zu angemessenem Verhalten führen. Affirmative Informationssammlung führt zwar zu einer verfälschten Weltsicht, andererseits bewahrt sie den Mut und das Selbstvertrauen, und man kann sich Handlungssituationen vorstellen, in denen Letzteres mehr zählt. Aktionismus bedeutet meist ein Handeln um des Handelns willen, das zur Problemlösung nichts beiträgt oder sogar schadet. Andererseits macht die sinnfällige Aktion auch Mut und demonstriert ggf. der Gefolgschaft Handlungsbereitschaft und -fähigkeit. Letzteres kann schwerer wiegen als das Erstgenannte. Wir Menschen sind diesen emotionalen Handlungstendenzen und -modulationen nicht hilflos ausgeliefert. Wenn wir sie kennen, wissen wir, warum es uns zur direkten Aktion, zum Methodismus, zur Reduktion von Komplexität auf einen Faktor drängt. Wir können uns gegen solche Tendenzen entscheiden. Zumindest können wir uns besinnen und darüber nachdenken, ob unsere spontanen Handlungsimpulse wirklich den Umständen angemessen sind. Das ist nicht immer leicht; jeder weiß, dass Gefühle oft genug Zwangsjacken gleichen, die uns oft fast ge-
112
6
Kapitel 6 · Emotion und Handeln
gen unseren Willen in eine bestimmte Richtung lenken. Aber es ist möglich. Als Beispiel aus der Praxis seien dazu die Trainings in der Luftfahrt genannt. Im sog. CRM (Crew Resource Management) üben Piloten gemeinsam, Anzeichen von Stress aneinander zu erkennen und anzusprechen und spontane Handlungsimpulse gegenseitig zu prüfen (7 Kap. 12 und 19). Diese Trainings sollten Piloten helfen, auch eine anerkannte Führungskraft wie den Kapitän der KLM-Maschine, die auf Teneriffa kollidierte, so zu hinterfragen, dass das Bedürfnis nach Unbestimmtheits- und Komplexitätsreduktion nicht zum Todesurteil wird.
6.5
Literatur
Aviation Safety Network (o. J.). Unfallbericht zu Teneriffa. Online-Dokument, verfügbar unter http://aviation-safety. net/database/record.php?id=19770327-0 [Zugriff am 11.01.2008]. Barrett, L. F., Mesquita, B., Ochsner, K. N. & Gross, J. J. (2007). The experience of emotion. Annual Review of Psychology, 58 (1), 373–403.
Bazerman, M. & Watkins, M. (2005): Predictable outcomes. Harvard: Harvard Business School Press. Clausewitz, C. v. (1880). Vom Kriege. Berlin: Dümmler. Dörner, D. (1989). Die Logik des Misslingens. Reinbek bei Hamburg: Rowohlt. Dörner, D. (1999). Bauplan für eine Seele. Reinbek: Rowohlt. Engels, F. (1956). Die Entwicklung des Sozialismus von der Utopie zur Wissenschaft. Marx-Engels-Werke, 19, 177–228. Englund, P. (1993). Die Marx-Brothers in Petrograd. Reisen in die Landschaft der Vergangenheit. Berlin: Basis-Druck. James, W. (1884). What is an emotion? Mind, 9 (34), 188–205. Kozielecki, J. (1987). Transgressive decision making: A study of personal and social change. Warschau: Department of Psychology, University of Warsaw. Lazarus, R. S. (1987). A relational and cognitive theory of emotion. Unveröffentlichtes Manuskript, University of California, Berkley. Reither, F. (1985). Wertorientierung in komplexen Entscheidungssituationen. Sprache & Kognition, 4 (1), 21–27. Strohschneider, S. & Schaub, H. (1991). Können Manager wirklich so gut managen? Über die Effekte unterschiedlichen heuristischen Wissens beim Umgang mit komplexen Problemen. Zeitschrift für Psychologie, Supplement, 11, 325–340. Tolstoi, L. (2001). Krieg und Frieden. Frankfurt a. M.: Insel-Verlag. Tuchman, B. (2001). August 1914. Die dramatischen Ereignisse bei Ausbruch des 1. Weltkrieges. Frankfurt a. M.: Fischer. Zimbardo, P. G. & Gerrig, R. J. (2003). Psychologie (7. Aufl.). Berlin: Springer.
7 Handeln in Gruppen Petra Badke-Schaub
7.1
Gruppen als Systeme
– 115
7.1.1 Gruppe – Team – 116 7.1.2 Strukturen und Prozesse
– 116
7.2
Anforderungen an den Gruppenprozess:Kommunikation, Koordination und Kooperation – 118
7.2.1 Kommunikation – 118 7.2.2 Koordination – 119 7.2.3 Kooperation – 119
7.3
Motivation
– 120
7.3.1 Bedürfnis nach Kompetenz und Handlungsfähigkeit 7.3.2 Bedürfnis nach Affiliation – 121
7.4
Integration: Team Mental Models – 121
7.5
Analyse des Beispiels
– 120
– 122
7.5.1 Koordination – Kooperation – Kommunikation am Mount Everest – 122 7.5.2 Führung in Extremsituationen – 123
7.6
Zentrale Determinanten des Entscheidungsverhaltens in Gruppen – 125
7.6.1 Zielfixierung und Überwertigkeit des aktuellen Motivs: Umkehrzeit 14 Uhr – 125 7.6.2 Reduktionismus und Planungsoptimismus: »... du musst mir versprechen, dass du hier bleibst, bis ich zurück bin.« – 125 7.6.3 Informationsselektion und Tunnelblick: »Nur ein bisschen schlapp heute – hat aber nichts zu sagen.« – 126
7.7
7.8
Zusammenfassung und Zusammenführung: Erfolgsfaktoren sicheren Handelns in Gruppen Literatur
– 129
– 127
114
Kapitel 7 · Handeln in Gruppen
Fokus des folgenden Beispiels sind 2 geführte Expeditionsgruppen im Himalaya. Gruppe 1 mit dem neuseeländischen Expeditionsleiter Rob Hall, 2 Bergführern, 8 Sherpas als Gipfelbegleiter und 8 Kunden sowie Gruppe 2 mit dem US-amerikanischen Expeditionsleiter Scott Fischer, ebenfalls mit 2 Bergführern, 6 Sherpas und 8 Kunden. Ziel dieser kommerziellen Expeditionen war die Besteigung des Mount Everest (8848 m), wobei insgesamt 8 Menschen aufgrund der Verkettung falscher Entscheidungen zu Tode kamen und mehrere Personen schwer verletzt zurückkehrten. Auch wenn es über Details der Tragödie unterschiedliche Darstellungen der Überlebenden gibt,
7
werden die zentralen Handlungsstränge von verschiedenen Teilnehmern in weitgehender Übereinstimmung berichtet (Krakauer, 1998; Boukreev & DeWalt, 1998; Tenzing, 2001; Weathers, 2000). Dabei betrachten wir an dieser Stelle aus dem Gesamtablauf nur Episoden der letzten Phase des gemeinsamen Ziels, den Gipfel des höchsten Berges der Erde zu besteigen. Dieses Ziel gliedert sich in 2 Teilziele, den Gipfelanstieg und den Gipfelabstieg, wobei das zweite Teilziel das weitaus wichtigere darstellt, da nur der erfolgreiche Abstieg das Überleben ermöglicht, wobei die erfolgreiche Bewältigung des ersten Teilziels, die Erreichung des Gipfels, selbst noch keine Aussage über den Gesamterfolg ermöglicht.
Beispiel Gipfelanstieg Der Gipfelanstieg beginnt am 09.05.1996. Die vereinbarte Planung ist, dass beide Gruppen Lager IV (7986 m) um 23.30 bzw. 0.00 Uhr verlassen, die Nacht und den folgenden Tag bis mittags klettern, um bis spätestens 14.00 Uhr den Gipfel zu erreichen und wieder abzusteigen. 14 Uhr Umkehrzeit ist eine fixe Uhrzeit, auch für den Fall, dass der Gipfel nicht erreicht worden ist. Dies war allen Teilnehmern in den vorangegangenen Wochen mehrfach eingeprägt worden. Es sind eine ganze Reihe von Gruppen am Berg, die gemäß Absprache zu unterschiedlichen Zeitpunkten den Gipfelanstieg durchführen wollen. In dieser Nacht steigen aber nicht nur die beiden Gruppen von Scott Fischer und Rob Hall in Richtung Gipfel, sondern 2 weitere Teams halten die vereinbarte Planung nicht ein und starten in derselben Nacht von Lager IV zum Gipfel; insgesamt sind 33 Bergsteiger auf dem Weg zum Gipfel. Die große Anzahl an Personen verursacht am Fuß des sog. Hillary Step, dem Nadelöhr auf dem Weg zum Gipfel, der nur einzeln durchstiegen werden kann, einen Stau. Rob Hall hatte für seine Gruppe die Regel vorgegeben, dass die Bergsteiger nicht mehr als 100 m entfernt voneinander sein dürfen, was angesichts der Leistungsdifferenzen in der Gruppe dazu führt, dass einige Personen bis zu 90 min warten müssen.
Um 7.30 Uhr auf 8400 m Höhe stellt ein Kunde von Rob Hall, Beck Weathers, fest, dass er nichts mehr sehen kann. Er lässt die anderen Bergsteiger passieren, um Rob Hall zu informieren, dass er nachkommen werde, wenn seine Probleme nachlassen, oder aber ins Hochlager zurückkehren werde. Aber Rob Hall ist damit nicht einverstanden und verlangt von Beck Weathers: »Du musst mir versprechen – das meine ich bitterernst, du musst mir versprechen, dass du hier bleibst, bis ich zurück bin.« Beck Weathers antwortet: »Ich schwör dir bei meinem Leben, ich bleib hier kleben« (Weathers, 2000, S. 38). Doug Hansen, ein Mitglied der Rob-Hall-Gruppe, ist beim Anstieg so erschöpft, dass er mehrmals vor dem Gipfel umkehren will, wird aber von Rob Hall zum weiteren Aufstieg überredet. Doug Hansen hatte bereits im Jahr zuvor mit Rob Hall 100 m unterhalb des Gipfels umkehren müssen und hatte geschworen, dass er unter keinen Umständen noch einmal umkehren würde. Um 15.40 Uhr informiert Scott Fischer den Leiter seines Basislagers, dass sein gesamtes Team den Gipfel erreicht habe. Doug Hansen, der letzte nicht umgekehrte Teilnehmer der Gruppe Rob Halls, erreicht den Gipfel kurz nach 16 Uhr. Rob Hall wartet kurz unter dem Gipfel auf ihn.
115 7.1 · Gruppen als Systeme
Offensichtlich entwickelten sich viele Dinge anders als geplant. Es wurden Entscheidungen getroffen oder auch vermieden, die den Abstieg massiv beeinflussten. Obwohl beide Teams bei guten Wetterbedingungen starteten, gab es zunehmend Hinweise
7
darauf, dass das Wetter umschlagen werde; dennoch wurde am Aufstieg festgehalten. Die wichtige 14Uhr-Umkehrregel, die vereinbart worden war, wurde gebrochen – ohne explizite Angaben oder Erläuterungen.
Beispiel Gipfelabstieg Anatoli Boukreev, der erste der beiden Bergführer aus Scott Fischers Team klettert mittags allein voraus, um für sich den Gipfel ohne Sauerstoff zu besteigen; er klettert auch sofort wieder herunter, denn ohne Sauerstoff kann er sich keinesfalls länger im Gipfelbereich aufhalten. John Krakauer erreicht um 13.12 Uhr den Gipfel und steigt sofort wieder zum Lager IV ab, allerdings mit Problemen am Hillary Step, weil er, während ihm der Sauerstoff ausgeht, warten muss, da ihm immer noch Bergsteiger entgegenkommen, die auf dem Weg zum Gipfel sind. Doug Hansen besteigt als Letzter den Gipfel – kurz nach 16 Uhr (!). Um 17 Uhr erreicht das Basislager einen Funkspruch von Rob Hall: »Ich komme den Hillary Step ja hinunter, aber ich weiß nicht, wie ich den Mann hier hinunterbekommen soll. Ich brauche von irgendjemandem eine Sauerstoffflasche, ich bitte euch.« Zu ungefähr derselben Zeit setzt ein Schneesturm ein, der sich zuvor durch schwarze Gewitterwolken angekündigt hatte; die Temperatur sinkt auf -50°C, die Windstärke beträgt mehr als 100 km/h.
An diesem Beispiel soll gezeigt werden, in welchem Ausmaß motivationale und emotionale Verhaltenstendenzen sicheres Handeln in Gruppen in komplexen Situationen beeinträchtigen können. Im Folgenden werden zunächst basale Merkmale von Gruppen als Systeme beschrieben (7 Kap. 7.1), von denen ausgehend theoretische Ansätze vorgestellt werden, die spezifische Anforderungen an Gruppen deutlich machen (7 Kap. 7.2, 7.3). Diese Ansätze dienen in 7 Kap. 7.4 und 7.5 als Grundlage, um ausgewählte Episoden des anfangs präsentierten Beispiels zu analysieren und zu verallgemeinern. Den Abschluss (7 Kap. 7.6) bildet ein Resümee zu Erfolgsfaktoren sicheren Handelns in Gruppen.
Gegen 20 Uhr treffen die ersten, die den Gipfel erreicht hatten, und jene, die am frühen Nachmittag umgekehrt waren, im Lager IV ein. Um 0.45 Uhr kommen weitere 6 völlig erschöpfte Bergsteiger im Lager an und berichten von 5 Personen, die noch auf Hilfe warten. Anatoli Boukreev und eine Rettungstruppe brechen auf, können 3 Personen retten, 2 scheinen tot zu sein, einer von ihnen ist Beck Weathers, der über 10 h auf Rob Hall vergeblich gewartet hatte. Unterdessen reagiert Andy Harris, einer der Bergführer aus Halls Team, der bereits ein Drittel des Weges zum Hochlager hinter sich hatte, auf Rob Halls Notruf, und bringt Sauerstoffflaschen unter den Gipfel. Gemeinsam versuchen sie, Doug Hansen über den Gipfelgrat zu schaffen – ohne Erfolg. Rob Hall und Andy Harris erreichen zwar noch den Südgipfel, aber Andy Harris verschwindet irgendwann im Sturm, Rob Hall verbringt die Nacht und den nächsten Tag völlig entkräftet auf dem Berg, bis er stirbt. Beck Weathers taucht am nächsten Morgen im Lager auf, mit schweren Erfrierungen, aber er lebt. Scott Fischer wird wenig später tot aufgefunden.
7.1
Gruppen als Systeme
Wie Gruppen arbeiten, auf welche Weise Gruppennormen entstehen und den Gruppenprozess und die Gruppenleistung beeinflussen, war schon seit Beginn des 20. Jahrhunderts Thema der Sozialpsychologie und wurde unter dem Blickwinkel von Leistung und Effektivität Gegenstand der Arbeits- und Organisationspsychologie. Der soziale Kontext wurde spätestens in dem Moment für den Bereich Human Factors interessant, als erkannt wurde, dass die Ursache vieler Unfälle auf Probleme in der Kommunikation und Kooperation in Gruppen zurückgeführt werden musste.
116
7
Kapitel 7 · Handeln in Gruppen
Im Militärbereich gab es schon in den 1950er und 60er Jahren Studien zu der Frage, wie Teamprozesse gestaltet werden können, damit sie unter Extrembedingungen wie z. B. hohem Zeitdruck, Stress, fehlender oder unvollständiger Information möglichst effektiv, also fehlerfrei arbeiten. Unter ähnlichem Vorzeichen startete die Luftfahrt als eigentlicher Vorreiter der Integration der Gruppenthematik in den Human-Factors-Bereich (7 Kap. 12.1). Schon 1981 entwickelte United Airlines ein Trainingskonzept unter dem Namen »Cockpit Resource Management«, welches zunächst ausschließlich das Cockpit als Trainingseinheit im Blick hatte, das aber im Laufe der Jahre zu dem sog. »Crew Ressource Management« (CRM) modifiziert wurde, welches unter dem Motto »Vermeidung von Fehlern durch Verbesserung von Kommunikation und Kooperation« die gesamte Besatzung in das Training einbezog. Die neueren Entwicklungen sehen Gruppen zunehmend als Einheit in der Organisation und analysieren den Einfluss der Organisation auf den Gruppenprozess und das Ergebnis (Ilgen, 1999).
7.1.1 Gruppe – Team Neben dem Begriff »Gruppe« wird in der Praxis immer häufiger das Wort »Team« gebraucht. Es gibt einige Autoren, die zwischen Team und Gruppe unterscheiden, allerdings mit unterschiedlichen Begründungen. Eine vielfach genannte Abgrenzung definiert den Unterschied dahingehend, dass sich Teams durch klare Zuweisung von Verantwortlichkeiten an ihre Teammitglieder und damit durch das Vorhandensein unterschiedlicher Teamrollen auszeichnen. Dementsprechend definieren Campbell & Campbell (1988), dass Gruppen dann zu Teams werden, wenn sie autonom sind und eine klare Zuweisung von Verantwortlichkeiten ausüben, die sie von anderen Teams oder Gruppen unterscheiden. Dagegen nennen andere Autoren eine ganze Vielfalt von Merkmalen, die Teams von Gruppen unterscheiden: »Characteristics that distinguish teams from small groups include the following: multiple sources of information, task interdependencies, coordination among members, common and valued goals, spe-
cialized member roles and responsibilities, taskrelevant knowledge, intensive communication, and adaptive strategies to help respond to change (Dyer 1984, Modrick 1986, Morgan et al. 1986, Salas and Cannon-Bowers 1997).« (Paris, Salas & Cannon-Bowers, 2000, S. 1052–1053)
Da diese Voraussetzungen für Teams aber zum einen in der Praxis kaum überprüfbar sind und es zum anderen unklar bleibt, wie die jeweiligen Merkmale zu erfassen und zu bewerten sind (z. B. müssen alle Merkmale zutreffen, gibt es weitere Merkmale etc.), erscheint eine Unterscheidung zwischen Gruppe und Team willkürlich, weshalb in diesem Beitrag die Begriffe »Team« und »Gruppe« synonym gebraucht werden. Ein Blick in die tägliche Praxis macht zudem deutlich: Hinter dem Begriff »Gruppe« kann sich sehr Unterschiedliches verbergen: informelle Gruppen, Projektgruppen, multi-, inter- und transdisziplinäre Gruppen, interkulturelle Gruppen, geografisch verteilte Gruppen, virtuelle Gruppen (7 Kap. 11) – dies sind nur einige Beispiele für Gruppen, die sich durch unterschiedliche Merkmale hinsichtlich der formalen Struktur und der räumlichen Nähe bzw. Distanz auszeichnen.
7.1.2 Strukturen und Prozesse Betrachten wir Gruppen als informationsverarbeitende Systeme aus einer systemtheoretischen Perspektive (. Abb. 7.1), besteht das System Gruppe aus einer Struktur mit bestimmten Merkmalen und aus informationsverarbeitenden Prozessen mit jeweils bestimmten Merkmalen. Der Input (Eingang) in das System Gruppe erfolgt über die durch Sensoren vermittelte Informationen aus der Umwelt des Systems, z. B. über den Zustand einer Aufgabe, die ebenfalls als System, bestehend aus Struktur und Prozessen, beschreibbar ist. Die konkreten Merkmale der Strukturen und Prozesse des Systems Gruppe determinieren die Verarbeitung des Inputs, welche zu Veränderungen innerhalb des Systems (bzgl. der Merkmale der Gruppenstruktur oder -prozesse) und/oder zur Erzeugung eines Outputs führt, der über Effektoren zu einer Veränderung der Umwelt, z. B. der Merkmale einer Aufgabe, führt. Die Veränderung der Umwelt wird dem System über Sensoren als Input wieder
117 7.1 · Gruppen als Systeme
. Abb. 7.1. Einfaches Modell der Gruppe als informationsverarbeitendes System
zugeführt. Grenzfälle sind die Erzeugung eines Outputs ohne einen korrespondierenden Input bzw. die Verarbeitung eines Inputs ohne die Erzeugung eines korrespondierenden Outputs. In einer weiteren Ausdifferenzierung (. Abb. 7.2) können auf der Aufgabenseite einerseits die spezifischen Merkmale der Struktur der (Arbeits-)Aufgabe, wie z. B. der Grad der Komplexität, das Ausmaß an Vernetztheit oder die Verfügbarkeit von Ressourcen, andererseits die spezifischen Merkmale des Prozesses der (Arbeits-)Aufgabenbearbeitung – wie in 7 Kap. 6.3 beschrieben – präzisiert werden: Zielelaboration, Situationsanalyse, Prognose, Planen und Entscheiden, kontrolliertes Handeln und Selbstreflexion. Auf Gruppenseite sind, empirischen Ergebnissen folgend, neben der Gruppenzusammensetzung weitere Merkmale zu nennen, die die Struktur einer
. Abb. 7.2. Interdependenz von Aufgaben- und Gruppenmerkmalen
7
Gruppe ausmachen und den Prozess und das Ergebnis beeinflussen, wie z. B. Führung, Normen und Werte sowie Kohäsion. Natürlich ist der zentrale Input das Individuum, das seine Persönlichkeit, sein Wissen und seine Fähigkeiten in die Gruppe einbringt und in der jeweiligen Gruppenkonstellation den Prozess, also Kommunikation, Koordination und Kooperation determiniert. Die in . Abb. 7.2 präsentierte deskriptive Zusammenschau zentraler Gruppen- und Aufgabencharakteristika ist empirisch in dieser Komplexität nicht erforschbar, obwohl die Frage determinierender Faktoren von Gruppenaktivität seit ca. 100 Jahren eines der wichtigsten Themengebiete der Sozialpsychologie darstellt. Relevant für die Praxis sind beispielsweise Erkenntnisse zur Gruppenentwicklung in Abhängigkeit von homogener oder heterogener Gruppenzusammensetzung. Allerdings gibt es dann bei der Frage, ob eine homogene oder heterogene Gruppenzusammensetzung zu einer effektiveren Gruppenarbeit beiträgt, Vertreter wie auch empirische Bestätigung für jede der beiden Alternativen. Das langfristige Ziel für eine Anwendung der Forschungsergebnisse in der Arbeits- und Organisationspsychologie wäre eine optimale Passung von Aufgabenmerkmalen und Gruppenmerkmalen. Aus der spezifischen Struktur der Aufgabe sollten Kriterien bereitgestellt werden, entsprechend derer eine Gruppe mit optimal auf die Aufgabe abgestimmten Merkmalen zusammengestellt wird.
118
7
Kapitel 7 · Handeln in Gruppen
Angesichts dieser Vielfalt von Merkmalen und deren Verknüpfungen, die sich über die Zeit erstrecken und verändern, drängt sich die Frage auf: Ist es überhaupt möglich, allgemeine Aussagen zur Sicherheit über das Handeln in Gruppen zu machen? Die Antwort lautet: Ja und Nein. Allgemeingültige Aussagen sind insofern möglich, als bezüglich definierter Einflussvariablen Wenn-dann-Konstellationen abgeleitet werden können, die unter den genannten Bedingungen und aufgrund empirischer und theoretischer Erkenntnisse mit hoher Wahrscheinlichkeit eintreten. Die Antwort lautet »nein«, weil immer wieder Bedingungen auftreten werden, die zu anderen als den aufgrund empirischer Daten gewonnenen Ergebnissen führen können und damit zur Modifikation vorhandener Theorien oder zu neuen Hypothesengefügen Anlass geben mögen. Daher ist es wichtig, Gruppenphänomene in einem Gesamtkontext von Anforderungen der Situation, Merkmalen der Individuen, Merkmalen der Gruppe, Prozessmerkmalen und Ergebnisdaten zu betrachten, wobei die Zeitdimension in Form einer Feedback-Schleife mit Auswirkung auf den Input ebenfalls einbezogen werden sollte. ! Gruppenphänomene müssen in einem Gesamtkontext von Anforderungen der Situation, Merkmalen der Individuen, Merkmalen der Gruppe, Prozessmerkmalen und Ergebnisdaten analysiert werden.
7.2
Anforderungen an den Gruppenprozess: Kommunikation, Koordination und Kooperation
Gruppenmitglieder, die ein gemeinsames Ziel verfolgen, werden zunächst Informationen suchen und bewerten. Da diese Prozesse in gewissen Phasen individuell ablaufen und somit auf individuell unterschiedlichen Wissensbeständen basieren, muss ein Informationsaustausch zwischen den Gruppenmitgliedern stattfinden, also Kommunikation. Kommunikation ist notwendig, um Informationen in koordiniertes Handeln umsetzen zu können und ggf. kooperatives Handeln zu initiieren, welches der Zielerreichung dient. Jedoch sollten die Teamziele nicht
. Abb. 7.3. Kommunikation, Koordination und Kooperation als Basis gemeinsamen Handelns
in Konflikt zu Zielen und Bedürfnissen der einzelnen Teammitglieder stehen. Wenn das Ziel ein gemeinsames Ziel ist, sollten die Gruppenmitglieder kooperieren und gemeinsame Ressourcen optimal einsetzen (. Abb. 7.3).
7.2.1 Kommunikation Kommunikationsmodelle und deren Implikationen für den Kommunikationsprozess und damit für sicheres Handeln werden ausführlich in 7 Kap. 8 diskutiert, deshalb sollen an dieser Stelle nur einige relevante Aspekte von Kommunikation im Gruppenkontext dargestellt werden. Die zentrale Bedeutung von Kommunikation für sicheres Handeln ist für jede Arbeitstätigkeit anzunehmen (Badke-Schaub & Frankenberger, 2003). Empirische Untersuchungen zeigen beispielsweise, dass gute Piloten – solche mit weniger operationalen oder prozeduralen Fehlern – vor einer Entscheidung mehr Informationen erfragen und nutzen. Damit steht ihnen eine größere Wissensbasis zur Verfügung. Allerdings verbalisieren sie gleichermaßen eine größere Anzahl an Plänen (Orasanu, 1993), was dazu führt, dass das gemeinsame Wissen im Team erhöht wird und die Gruppe ein gemeinsames mentales Modell der Situation aufbaut (7 Kap. 8.5). Kommunikation ist insbesondere in Extremsituationen in Gefahr (oftmals bedingt durch hohen Zeitdruck und psychischen Stress), nur in eine Richtung – ohne Rückmeldung vom Empfänger – und
119 7.2 · Anforderungen an den Gruppenprozess
reduziert zu erfolgen. Diese Reduktion ist in manchen Situationen erforderlich, um schnelle Handlungen zu ermöglichen. Gleichzeitig wird in extremen Situationen dadurch in der Regel die dominante Reaktion, d. h. die Reaktion mit der stärksten Assoziation, hervorgerufen (»frequency gambling«; Reason, 1990). In der Gruppensituation kann die dominante Reaktion für die individuellen Gruppenmitglieder unterschiedlich sein und damit fatale Folgen haben, wenn 4 keine eindeutigen Anweisungen erfolgen, 4 keine eindeutigen Sicherheitsstandards für die spezifische Situation vorliegen, 4 kein gemeinsames mentales Modell der Situation existiert.
7.2.2 Koordination Sobald mehrere Personen zusammenkommen, um ein Ziel zu erreichen, wird Koordination notwendig. Auch empirische Studien zeigen, dass die Teamleistung umso höher ist, je besser die Teammitglieder die individuellen Beiträge – bezogen auf Inhalt und Prozess – koordinieren (Gurtner, 2003). Beispielsweise ist bei fehlender Koordination der Gruppe ein adäquater Informationstransfer eher unwahrscheinlich, was in der Folge zu fehlerhaften Entscheidungen führen kann. Koordination von Personen und Prozessen, wie z. B. die Zusammenführung des Wissens, der Erfahrung sowie der Kompetenzen, erfolgt zunächst durch explizite Kommunikation zwischen den Teammitgliedern. Die Gruppe muss sicherstellen, dass der Informationsaustausch mit den betreffenden Personen zum richtigen Zeitpunkt stattfindet, dass Entscheidungen adäquat vorbereitet werden und dass der gesamte Prozess im Rahmen eines Zeit- und Projektplans koordiniert wird. Untersuchungen zeigen jedoch, dass Gruppen dazu neigen, entweder überhaupt nicht zu planen (Hackman, Brousseau & Weiss, 1976) oder erst dann, wenn nach einiger Zeit in der Gruppe erkennbar wird, dass das bisherige »Muddlingthrough«-Vorgehen erfolglos war (Gersick, 1988). Teilaspekte der Koordination umfassen beispielsweise die folgenden Aktivitäten: 4 Zuweisung von Verantwortlichkeiten 4 Nutzung vorhandener Ressourcen
7
4 Planung von Worst-case-Situationen 4 Prioritäten setzen und einhalten 4 Kontinuierliche Hintergrundkontrolle etablieren, mit dem Fokus der Antizipation erwartungswidriger Ereignisse Da eine Gruppe aus sich heraus selten den prozessualen Anforderungen ausreichend Aufmerksamkeit widmet, ist eine aktive Führungsrolle für die Initiierung und Kontrolle von Koordinationsprozessen notwendig. Das gilt vornehmlich für risikoreiche und zeitkritische Maßnahmen. Wie Zala-Mezö, Künzle, Wacker & Grote (2004) aufgrund von Interviews mit Anästhesieteams zeigen konnten, wird direktive Führung ausdrücklich in kritischen Situationen gewünscht. In dieselbe Richtung weisen auch Ergebnisse einer Studie von Yun, Faraj & Sims (2005), denn in medizinischen Notfallteams war direktive Führung in komplexen Fällen und bei wenig erfahrenen Teams erfolgreicher, während Empowerment – d. h. weniger direkte Einflussnahme durch die Führung und mehr Selbstbestimmung durch die Gruppe – bei weniger komplexen Fällen und in erfahrenen Teams erfolgreicher war (7 Kap. 10.3). Erfolgreiche Gruppen entwickeln zusätzlich zur expliziten Koordination Mechanismen impliziter Koordination, z. B. wechseln erfolgreiche Cockpit-Crews zwischen impliziter und expliziter Koordination je nach Anforderung durch die Situation (z. B. Entin & Serfaty, 1999; Orasanu, 1993). Implizite Koordination wird besonders dann wichtig, wenn Restriktionen explizite Koordination beeinträchtigen oder gar verhindern, beispielsweise in Situationen, in denen keine verbale Kommunikation möglich ist (7 Kap. 8.7).
7.2.3 Kooperation Der Theorie der Gruppenentwicklung von Tuckman (1965) folgend ist Kooperation erst möglich, wenn die Gruppe zuvor die Phasen Forming (Orientierung) und Storming (Konflikt) durchlaufen hat und in die sog. Norming-Phase (Stabilisierung) eintritt, der dann die effektive Arbeitsphase (Performing) folgt. Diese 4 Phasen haben unterschiedliche Funktionen für die Gruppe und für die Problembearbeitung (Staehle, 1991) und sollten deshalb nicht übersprungen werden, weil die Gruppe ansonsten weit unter
120
7
Kapitel 7 · Handeln in Gruppen
ihren Fähigkeiten zusammen arbeitet. Mit anderen Worten: Erst nachdem die Gruppe in der Konfliktphase die Möglichkeiten und Grenzen ihrer Zusammenarbeit ausgehandelt hat und damit der Grundstein für die folgende Zusammenarbeit gelegt wurde, kann sie sich auf die Aufgabe konzentrieren. Bezogen auf die Aufgabe bzw. Problembearbeitung findet in dieser Phase der wichtigste Teil des Gesamtprozesses statt, denn das oder die gemeinsamen Ziele werden in der Gruppe festgelegt. Empirische Studien konnten nachweisen, dass die Formulierung von Teamzielen einen positiven Einfluss auf die Leistung des Teams hat (Locke & Latham, 1990; O’Leary-Kelly, Martocchio & Frink, 1994). Allerdings stellt sich hier die Frage, wie viel Zeit und Ressourcen Gruppen in unterschiedlichem Umgebungskontext benötigen, um zumindest diese Phase der Stabilisierung zu erreichen. Denn so kann – je nach situativen Anforderungen – die Konfliktphase einen positiven Einfluss auf den Prozess und das Ergebnis haben, z. B. wenn unterschiedliche Sichtweisen der Gruppenmitglieder eingefahrene Lösungswege und Vorgehensweisen aufbrechen. Gleichermaßen sind aber auch negative Auswirkungen zu erwarten, wenn die Gruppe starke Machtkämpfe austrägt und dementsprechend nicht ausreichend problemfokussiert arbeiten kann. Beispielsweise in hoch sicherheitsrelevanten Arbeitsumgebungen sind solche Prozesse sehr gefährlich, da andere als inhaltliche Themen die Kapazitäten der Gruppe beanspruchen. Gute Kooperation schließt Hilfeleistung und gegenseitige Unterstützung ein und setzt gegenseitige Wertschätzung und ein Mindestmaß an Vertrauen voraus. Ein solches Klima erzeugt bei dem einzelnen Gruppenmitglied ein Zugehörigkeitsgefühl, wodurch sich Gruppenkohäsion, definiert als Ausmaß wechselseitiger positiver Gefühle, ausbildet. Damit kommt Motivation als ein zentraler Einflussfaktor des Individuums, der auf den Prozess Einfluss nimmt, hinzu.
7.3
Motivation
Effektivität und Effizienz des Handelns im Team werden nicht allein durch einen optimalen Koordinationsprozess erreicht, denn neben Koordinations-
verlusten (Steiner, 1972) schmälern auch Motivationsverluste die potenzielle Gruppenleistung (Stroebe, Jonas & Hewstone, 2002). Das heißt, zusätzlich zur Koordination ist die individuelle Motivation der einzelnen Gruppenmitglieder Kursgeber für die Qualität der Kooperation. In empirischen Studien finden sich für unterschiedliche Aufgaben (Brainstorming, Überwachungsaufgaben, Kreativitätsprobleme) im Wesentlichen 2 Formen von Motivationsverlusten: 4 Soziales Faulenzen (»social loafing«): geringere Anstrengungsbereitschaft, wenn der eigene Beitrag nicht identifizierbar ist 4 Verantwortungsdiffusion: geringere individuelle Verantwortungsübernahme, wenn viele andere handlungsfähige Personen anwesend sind Dem gegenüber stehen aber auch Motivationsgewinne, denn die Gruppe kann 2 zentrale Motive befriedigen, das Bedürfnis nach Kompetenz und Handlungsfähigkeit sowie das Bedürfnis nach Affiliation (7 Kap. 6).
7.3.1 Bedürfnis nach Kompetenz und
Handlungsfähigkeit Nur wenn das Gruppenmitglied sein(e) Ziel(e) im gemeinsam definierten Ziel wiederfindet, wird es seine Fähigkeiten und sein Wissen in die Gruppe einbringen. Diesem Bestreben liegt die Motivation nach Kompetenz und Kontrolle zugrunde. Die Kompetenzmotivation lässt den Handelnden nach Kompetenzsignalen (Dörner, 1999; 7 Kap. 6) suchen, also Indikatoren in der physikalischen und sozialen Umwelt, die den Erfolg eigener Handlungen signalisieren (s. auch »self efficacy«, Bandura, 1977, 1982). Da Gruppen durch verschiedene Mechanismen die Informationsverarbeitungsprozesse des Einzelnen unterstützen, z. B. durch eine breitere Informationssuche, profitiert der Handelnde in einer Gruppensituation durch diese Unterstützungsleistungen. Er kann damit seine Handlungsziele besser erreichen, seine Handlungsfähigkeit wird positiv bestätigt, und er erzielt damit Kompetenzsignale, das Motiv nach Kompetenz wird befriedigt. Faktisch führt das zu einer Verbesserung der Fähigkeiten des Handelnden, da er durch die Unterstützung der Gruppe schwieri-
121 7.4 · Integration: Team Mental Models
gere Aufgaben bewältigen kann, als wenn er dies allein, ohne die Gruppe, versuchte. In der Folge wird er sich dank des erhöhten Zutrauens in die eigene Handlungsfähigkeit eher mit neuen und schwierigen Aufgaben beschäftigen. Natürlich kann und muss im Sinne einer Ergebnisoptimierung auch der gegenteilige Prozess einsetzen; die Gruppe kann als Korrektiv auch negatives Feedback an das Gruppenmitglied zurückmelden und dessen Ideen, Handlungen, Lösungsvorschläge ablehnen, was abhängig von der Gruppenkultur ein hilfreicher Schritt in der Gesamtproblembearbeitung darstellt oder aber zu einer Entwicklung von Minderheiten in Form von Subgruppen oder zur Positionierung von Personen als Außenseiter führen kann. Die kritische Reflexion in der Gruppe stellt jedoch ein notwendiges Korrektiv dar für das Defizit des Individuums, selbst zu reflektieren (Tisdale, 1998; Wetzstein & Hacker, 2004), und ist darüber hinaus ein Garant gegen Gruppendenken (Janis, 1972, 1982).
7.3.2 Bedürfnis nach Affiliation Jenseits der unmittelbaren Unterstützung in der kognitiven Analyse, Bewertung und Durchführung von Handlungen spielen Gruppen eine wichtige Rolle für die Befriedigung des Affiliationsbedürfnisses des einzelnen Gruppenmitglieds. Das Bedürfnis nach Affiliation ist das Bedürfnis nach sozialen Kontakten oder präziser gesagt nach Legitimitätssignalen (Boulding, 1978). Legitimitätssignale sind Rückmeldungen der Gruppe an das Individuum, dass es »okay« ist, dass es in die Gruppe passt. Ein Legitimitätssignal kann das Lächeln einer anderen Person sein oder direkte soziale Anerkennung (»Ja, wir finden, du machst das sehr gut«). Aber auch das Tragen derselben oder ähnlichen Kleidung oder Symbole in einer Gruppe ist ein Legitimitätssignal, denn es zeigt, dass man zusammengehört. Wenn in einer Gruppe viele positive Legitimitätssignale gesendet werden, werden die Zugehörigkeit zu dieser Gruppe und das Befolgen der Regeln dieser bedeutsam für jedes einzelne Gruppenmitglied; als Folge steigt die Gruppenkohäsion. Zusätzlich verleiht die Gruppe dem Gruppenmitglied ein Gefühl der Stärke (»Ich bin nicht allein!«) und trägt auch hiermit zur Steigerung des Kompetenzgefühls bei.
7
Damit entsteht für die Gruppe eine Win-winSituation, die darauf basiert, dass die Gruppenmitglieder als Informationslieferanten und als Reflexionsorgan das Handeln der Gruppe optimieren und darüber hinaus zur Befriedigung zentraler Bedürfnisse der einzelnen Gruppenmitglieder beitragen.
7.4
Integration: Team Mental Models
In den vorausgegangenen Abschnitten wurden die Prozesse Kommunikation, Koordination und Kooperation in Teams unabhängig voneinander beschrieben. Im konkreten Gruppenprozess verlaufen diese Prozesse allerdings gleichzeitig, wie in . Abb. 7.4 veranschaulicht ist. Voraussetzung für die Etablierung eines gemeinsamen Verständnisses in der Gruppe ist die Herstellung eines geteilten Bezugsrahmens oder »common ground« (Clark, 1994, 1996). Dies geschieht vornehmlich durch Informationsaustausch geteilter und ungeteilter Informationen unter Bezugnahme auf das antizipierte Wissen der jeweils anderen Gruppenmitglieder. Als Resultat entwickelt sich ein »shared understanding«, also ein gemeinsames mentales Modell (Klimoski & Mohammed, 1994; Tschan & Semmer, 2001). ! Unter einem mentalen Modell kann man die Summe aller handlungsleitenden Konzepte verstehen, die sich auf Personen, Situationen und Ereignisse beziehen.
. Abb. 7.4. Mentales Teammodell
122
7
Kapitel 7 · Handeln in Gruppen
In der Gruppe erfolgt die Entwicklung eines gemeinsamen Modells weitgehend über verbale Kommunikation, d. h. über verbalen Informationsaustausch. Ein Mindestmaß an Übereinstimmung der individuellen Modelle im mentalen Teammodell ist Voraussetzung für Koordination. Orasanu (1990) konnte in Untersuchungen nachweisen, dass Gruppen mit einem übereinstimmenden mentalen Modell bessere Leistungen zeigen, weil die Gruppenmitglieder in der Lage sind, Erläuterungen und Prognosen bezüglich der Aufgabe, aber auch hinsichtlich der Aktivitäten der übrigen Gruppenmitglieder abzugeben. Auch Entin & Serfaty (1999) konnten nachweisen, dass diejenigen Gruppen mit stressreichen Situationen besser umgehen können, die durch wiederholte individuelle Einschätzungen der aktuellen Situation ein gemeinsames mentales Modell aufbauen. Ein aktualisiertes gemeinsames Situationsverständnis, welches inhaltliche, gruppenspezifische und Prozesselemente enthalten kann, ermöglicht implizite Koordination. Diese hat den Vorteil, dass die Prozeduren der Koordination sehr flexibel sind, da nicht jede Maßnahme explizit gemacht werden muss – solange diese in Kongruenz mit dem aktivierten mentalen Modell steht. Schwierigkeiten können bei neuen Situationen auftreten. ! Eine wichtige Voraussetzung für adäquaten Informationsaustausch ist die Kommunikation von Abweichungen und Änderungen im Sinne eines Updates, sodass das mentale Modell aller beteiligten Personen und damit das mentale Teammodell möglichst auf dem aktuellsten Stand geteilt ist. Dazu ist eine entsprechende Gruppenstruktur mit der Möglichkeit zu offenen Gesprächen notwendig.
7.5
Analyse des Beispiels
Kehren wir zurück auf den Mount Everest. Welche Erkenntnisse liefern die oben genannten Theorieansätze zur Erklärung zentraler Fehlentscheidungen in beiden Gruppen beim Gipfelanstieg? In der folgenden Analyse geht es nicht darum, das Beispiel im Detail nachzuvollziehen, sondern es sollen anhand des Beispiels wichtige Muster für (un)sicheres Handeln in Gruppen aufgezeigt werden.
7.5.1 Koordination – Kooperation –
Kommunikation am Mount Everest Betrachten wir dazu zunächst die beiden Expeditionsgruppen von Rob Hall und Scott Fischer als typische Vertreter kommerziell geführter Bergsteigergruppen hinsichtlich der oben dargestellten Anforderungen Koordination, Kooperation und Kommunikation. Koordination
4 Die Gruppen setzen sich jeweils aus 3 Teilgruppen zusammen: Sherpas (Helfer), Bergführer und Kunden. 4 Vor allem die Kundengruppen sind Ad-hocGruppen; die meisten Gruppenmitglieder kennen sich nicht; es gibt einige paarweise Bekannte. Ausgewählt werden die Teilnehmer vom Bergführer und Leiter der Expedition nach Können, Bezahlung und/oder anderen Erwartungen hinsichtlich der mit den Personen einhergehenden Publicity (Krakauer, 1998). 4 Es gibt eine klare Rollenverteilung hinsichtlich Führung und Verantwortung: Der Leiter übernimmt die Verantwortung für die gesamte Expedition, organisiert weitere Bergführer, die medizinische Betreuung wie auch die Basislagerbesatzung. Der Leiter ist somit Führungs- und Informationszentrale für Kunden, Bergführer und Sherpas. Kooperation
4 Der Gruppenbildungsprozess läuft über die gemeinsame Zeit (ca. 6 Wochen), und zwar beginnend mit den ersten gemeinsamen Aktivitäten der Akklimatisierungsphase bis zum Gipfelabstieg. Während dieser Zeit bilden sich weitere Teilgruppen v. a. in der Kundengruppe, die ungefähr ähnliche Leistungsstandards haben oder die sich sympathisch sind. 4 »Da ich vor meiner Karriere als Schriftsteller acht Jahre meinen Lebensunterhalt als Schreiner bestritten hatte – und weil unsere Steuerklasse uns auffällig weit von den anderen Kunden entfernte –, fühlte ich mich in Dougs Gegenwart von Anfang an wohl, während ich mit den anderen nicht so recht warm wurde.« (Krakauer, 1998, S. 65)
123 7.5 · Analyse des Beispiels
4 Dadurch, dass kein wirklicher Gruppenbildungsprozess im Sinne von Tuckman (1965) mit den Phasen Forming, Storming, Norming und Performing stattfindet, ist keine Normbildungsphase vorhanden, die letztlich zu einer Kohäsion der Gruppe führen könnte. 4 Gruppenspezifische Normen entwickeln sich im Wesentlichen über die Führung. Zwar existiert rein formal ein Dienstleistungsverhältnis zwischen Kunde und Leitung, aber die Gestaltung des Auftragnehmer-Auftraggeber-Verhältnisses ist stark von der Führungsperson abhängig. Nicht relevant sind in kommerziell geführten Expeditionsteams Normen bergsteigerischer Teamarbeit: So gibt es z. B. keine gegenseitige Seilsicherung, sondern es werden von Sherpas an entsprechenden Stellen im voraus Fixseile gelegt. 4 Alle Gruppenmitglieder haben das gleiche Ziel, aber jeder muss das Ziel für sich allein erreichen, d. h., der Gipfel kann zwar mit Unterstützung, muss aber von jedem Mitglied unabhängig voneinander bestiegen werden. Im Gegensatz zum nichtkommerziellen Bergsteigen, wo gegenseitiges Vertrauen und gegenseitige Unterstützung die Basis für jedes Team sind, da sich das Verhalten eines jeden Teammitglieds massiv auf alle anderen auswirkt, ist in kommerziell geführten Gruppen diese Vertrauensbeziehung auf den Bergführer beschränkt (Krakauer, 1998). Kommunikation
4 Interaktionen in der Gruppe verlaufen primär über den direkten Kontakt Kunde – Leiter, d. h., dass die übliche Kommunikation in der Regel bilateral zwischen Leiter und den einzelnen Gruppenmitgliedern abläuft. 4 Während des Aufstiegs zum Gipfel ist die verbale Kommunikation durch den Wind und die Sauerstoffmasken sehr eingeschränkt. 4 Das typische Kommunikationsmuster ist sternförmig, d. h., die Information kommt zumeist von der Führung und wird auch an die Führung herangetragen.
7
7.5.2 Führung in Extremsituationen Aus der obigen Merkmalsauflistung wird deutlich, dass in der Gruppenstruktur kommerziell geführter Bergsteigerteams die Führungsperson die wichtigste Funktion in der Gruppe wahrnimmt. Neben der gesamten logistischen Planung (Basislager und übrige Lager, Versorgung, Sherpas etc.) wählt der Leiter der Expedition die Teilnehmer aus und bestimmt damit zum einen die Leistungs- und Erfahrungsvariabilität in der Gruppe, aber auch das Ausmaß an Persönlichkeitsunterschieden und den Grad an Exzentrismus der Gruppenmitglieder. »Als der Hubschrauber Richtung Lukla dröhnte, wurde ich den Verdacht nicht los, daß all meine Kameraden genau wie ich inständig hofften, daß [Robert] Hall Leute mit zweifelhaften Können schon von vornherein ausgesiebt hatte und daß er gut genug war, jeden von uns vor den Schwächen des anderen zu schützen.« (Krakauer, 1998, S. 65)
Zentral ist deshalb, inwieweit die Führungsperson in der Lage ist, verschiedene Arten von Informationen zu selektieren, ihrer Wichtigkeit nach zu priorisieren und diese in adäquate Entscheidungen umzusetzen. Diese kognitive Anforderung erfolgt in einer körperlich extrem belastenden Umgebung, in der der Mensch täglich 7 l Wasser verliert, d. h. ständig an Wassermangel leidet. Im gesamten kognitiven System sind Konzentrationsstörungen sowie eine deutliche Verlangsamung kognitiver Prozesse zu beobachten. In seinem Vorwort schreibt Krakauer (1998, S. 10): »Die Unzuverlässigkeit des menschlichen Verstandes in großen Höhen ist geradezu atemberaubend.«
Wie gehen die beiden Führungspersonen mit diesen Anforderungen um? Rob Hall und Scott Fischer, die Leiter der beiden Gruppen, werden als 2 sehr unterschiedliche Führungspersonen sowohl hinsichtlich ihrer Persönlichkeit als auch in Bezug auf ihr Führungsverhalten beschrieben: »Scott und Rob boten vom Stil her einen interessanten Kontrast. Rob war sehr analytisch, präzise und führte sein Geschäft mit eiserner Hand. Für
124
Kapitel 7 · Handeln in Gruppen
ihn waren seine Fähigkeiten, sein Wissen über den Berg der Schlüssel zu seinem Erfolg. Scott war da viel unkonventioneller. Sein Führungsstil zeigte ein tiefes Vertrauen in den menschlichen Geist, als wolle er seiner Kundschaft sagen: Ich werde euch nicht ständig das Händchen halten, ich werde euch nicht alles vorkauen, diese Erfahrung müsst ihr selbst machen. Es lag in Scotts Wesen, nicht alles total zu verplanen.« (Breashears, 1999, S. 317)
Über Rob Hall schreibt Breashears weiter:
7
»Rob vermittelte einem das Gefühl absoluter Sorgfalt und Führungskraft. Seine Kunden standen unter einem strengen Regime, sie mussten keine eigenen Entscheidungen treffen. Man sagte ihnen, wo sie schlafen würden, wie viel sie jeden Tag trinken sollten, wann sie morgens das Lager zu verlassen hatten.« (1999, S. 336)
Will man das Vorgehen beider Personen mit einem Führungsstil beschreiben, so könnte der Führungsstil von Rob Hall am ehesten als direktiv bezeichnet werden, während das Vorgehen von Scott Fischer sich als Empowerment (7 Kap. 10) bezeichnen lässt, da er versucht, direkte Einflussnahme und Kontrolle zu vermeiden; er scheint im Wesentlichen durch sein Charisma und immenses Durchhaltevermögen als Führungsperson zu wirken. Die damit verbundenen Merkmale sind in . Tab. 7.1 aufgeführt. Beide Führer sind als Bergsteiger erfahren, jedoch ist Rob Hall der erfolgreichere und erfahrenere Bergführer, denn er hatte bis zu diesem Zeitpunkt
den Mount Everest bereits 4-mal bestiegen – 1990, 1992, 1994, 1995 – und insgesamt schon 39 Personen auf den Gipfel gebracht. Dagegen war Scott Fischer in diesem Geschäft eher ein Außenseiter und versuchte, zahlungskräftige Kunden anzuwerben. Er hatte erst eine Expedition auf einen Achttausender geführt und selbst erst einmal, 1994, den Mount Everest (ohne Sauerstoff) bestiegen, jedoch nicht in der Funktion als Bergführer. Scott Fischer strebte nach Anerkennung, hatte doch sein Unternehmen »Mountain Madness« längst nicht den Erfolg, den Rob Hall mit seinem Unternehmen »Adventure Consultants« vorweisen konnte. Dabei bewunderte Scott Fischer, ebenso wie viele andere Bergführer und Bergsteiger, Rob Hall, der im Basislager die Position des weisen, erfahrenen Informationsgebers einnahm. »Warum, obwohl absehbar war, daß das Wetter sich zunehmend verschlechterte, schlugen Bergsteiger im Gipfelbereich die Warnzeichen in den Wind? Warum setzten erfahrene Himalaya-Führer den Aufstieg fort und führten einen Trupp relativ unerfahrener Amateure – von denen jeder satte 65.000 Dollar hingeblättert hatte, um sicher auf den Everest geleitet zu werden – in eine offensichtliche Todesfalle?« (Krakauer, 1998, S. 28)
Ausgehend von dieser zentralen Frage sollen im nächsten Abschnitt einige Erklärungsversuche für fehlerhafte Entscheidungen in hochrisikoreichen Umgebungen im sozialen Kontext vorgestellt werden.
. Tab. 7.1. Merkmale direktiver Führung und Empowerment am Beispiel Rob Hall und Scott Fischer
Direktive Führung
Empowerment
Verantwortung
Klare Planung
Wenig Vorausplanung, eher opportunistisches Vorgehen (d. h. sich bietende Gelegenheiten wahrnehmen)
Handeln
Schnell
Langsamere Entscheidungsfindung
Motivationale Lage der Teammitglieder
Gefühl von Sicherheit
Gefühl von Unsicherheit
Vorteile
Entlastung der Geführten
Höhere Aktivität im Team, höhere Selbstverantwortung
Nachteile
Wenig abweichende Meinungen und Kritik Instabiles System, da auf eine Person fokussiert
Höherer Koordinationsaufwand Unsicherheit
125 7.6 · Zentrale Determinanten des Entscheidungsverhaltens in Gruppen
7.6
Zentrale Determinanten des Entscheidungsverhaltens in Gruppen
Im Folgenden werden 3 Entscheidungen des Fallbeispiels analysiert, die von Individuen getroffen wurden, allerdings in der Funktion als Gruppenmitglied. Alle 3 Entscheidungen weisen Merkmale auf, die generell als problematisch für sichere Entscheidungen in Gruppen charakterisiert werden können:
7.6.1 Zielfixierung und Überwertigkeit
des aktuellen Motivs: Umkehrzeit 14 Uhr Rob Hall hatte die unbedingte Anweisung von 14 Uhr als Umkehrzeitpunkt gegeben – für jeden, wo er sich auch befinde. Im Verlauf des Gipfelanstiegs kommuniziert niemand, weder Kunde noch Bergführer, eine Änderung, obwohl alle dagegen verstoßen – mit Ausnahme derer, die schon vorher aus Erschöpfung umkehren oder schon zuvor den Gipfel erreicht haben. Rob Hall selbst wartet bis 16 Uhr direkt unter dem Gipfel, bis sein Kunde Doug Hansen den Gipfel bestiegen hat. Zuvor hatte Rob Hall ihn noch auf dem Weg nach oben mehrfach ermutigt weiterzugehen, obwohl Doug Hansen wegen völliger Erschöpfung umkehren wollte. Rob Hall handelt offensichtlich entgegen besserem Wissen und entscheidet sich, seinen Kunden auf den Gipfel zu führen zu einer Uhrzeit, die jeder rationalen Analyse widerspricht. Er wird Doug Hansen auch später nicht verlassen, wenn er und sein Bergführer Andy Harris vergeblich versuchen, den völlig Entkräfteten vom Südsattel zu bekommen. Dieses Verhalten zeigt eine Zielfixierung von Rob Hall, die sich mit dem Phänomen »escalation of commitment« (Staw & Ross, 1987) erklären lässt, welches die Neigung des Menschen beschreibt, an einer Alternative um so eher festzuhalten, je mehr Ressourcen wie Geld, Zeit oder Arbeit in der Vergangenheit dafür bereits eingesetzt wurden. Dieser Effekt ist umso größer, je weiter eine Handlung schon fortgeschritten ist. Und der Effekt ist umso größer – so kann aus diesem Beispiel abgeleitet werden –, je stärker die Handlung in einen affiliativ relevanten Kontext eingebunden ist.
7
In dieser Extremsituation scheint ein Merkmal die fatalen Entscheidungen zu dominieren, die Überwertigkeit des aktuellen Motivs, den Gipfel zu erreichen; diese Motivationslage reduziert die Neigung zu sicherem Handeln. Diese Fixierung ist verbunden mit einer Ausblendung aller Informationen, die diesem Ziel widersprechen, z. B. wird die Wetterlage spätestens ab 14 Uhr unverkennbar schlechter. Dabei wird auch das Wissen ignoriert, dass der Gipfel nicht das Ziel darstellt, sondern das Ziel erst mit der erfolgreichen Rückkehr erreicht ist. Die Gruppensituation wirkt auf das einzelne Gruppenmitglied eher bestärkend in der Weise, dass im sozialen Vergleich immer noch Gruppenmitglieder schwächer sind und dass offensichtlich auch Regeln gebrochen werden, sogar von dem zuverlässig und präzise arbeitenden Leiter Rob Hall. Während also die kognitive Verankerung dieser Entscheidungen als Zielfixierung beschrieben werden kann, ist die motivationale Ursache die Überwertigkeit des aktuellen Motivs.
7.6.2 Reduktionismus und
Planungsoptimismus: »... du musst mir versprechen, dass du hier bleibst, bis ich zurück bin.« Janis (1972) entwickelte aufgrund der Analysen politischer Fehlentscheidungen das Konzept des Gruppendenkens (»groupthink«). Die zentrale These von »groupthink« besagt, dass Gruppen dann zu fehlerträchtigen Entscheidungen neigen, wenn das Gefühl der Gemeinsamkeit in der Gruppe wichtiger ist als kritisches Hinterfragen. Die Konsequenz sind Entscheidungen, die sich nach Janis (1982, S. 175) durch folgende Merkmale kennzeichnen lassen: 4 Unvollständige Berücksichtigung und unvollständige Überprüfung von Handlungsalternativen 4 Mangelnde Reflexion von Handlungszielen 4 Unterschätzung von Risiken der bevorzugten Entscheidungsalternative 4 Fehlende Neubewertung von bereits verworfenen Alternativen 4 Unzureichende Informationssuche 4 Selektive Informationsverarbeitung 4 Keine Beachtung von möglichen Friktionen
126
7
Kapitel 7 · Handeln in Gruppen
Genau diese Merkmale weist die Entscheidung von Rob Hall auf, als er in der Funktion des Leiters der Expedition Beck Weathers verpflichtet, in 8400 m Höhe mehrere Stunden auf seine Rückkehr zu warten. Selbst unter einer Best-case-Annahme war diese Entscheidung höchst fehlerträchtig, da sie zum einen keine Handlungsalternativen vorsah und zum anderen die Risiken der Entscheidung, d. h. die Folgen des stundenlangen Wartens in dieser Höhe für den Körper des Kunden, nicht berücksichtigte. Allerdings kann in diesem Fall »groupthink« nicht die Ursache dieser Fehlentscheidung gewesen sein, da die Gruppe keine wirklich kohäsive Gruppe war. Nach Janis ist Gruppenkohäsion, also ein hohes Ausmaß an Zusammengehörigkeitsgefühl, eine notwendige Bedingung für Gruppendenken. Als weitere Randbedingungen nennt Janis strukturelle Fehler der Organisation wie Homogenität der Gruppenmitglieder als Ursache für Gruppendenken. Als dritte Kategorie führt Janis einen provokativen situationalen Kontext an, der beispielsweise als psychischer Stress zu Entscheidungsdefiziten führt. Diese Randbedingungen sind aber – wie das Beispiel zeigt – nicht allein relevant für fehlerträchtige Entscheidungsprozesse in Form von Gruppendenken, sondern erfüllen teilweise auch ohne die Wirkvariable Harmoniestreben der Gruppe die Voraussetzung für fehlerträchtige Entscheidungsprozesse. In dieser Situation entscheidet Rob Hall unter dem Gefühl von Zeit- und Handlungsdruck zum vermeintlichen Wohl seines Kunden. Der Erfolg dieser Maßnahme ist von einer zentralen Bedingung abhängig, nämlich von der eigenen Rückkehr. Es waren für diese Gruppe mehrere Bergführer zuständig, die alternativ Beck Weathers zum Hochlager hätten mitnehmen können. Der Gedanke, dass er nicht zurückkommen könnte, kommt Rob Hall offensichtlich nicht in den Sinn. Um Sicherheit zu gewährleisten, ist solcher Planungsoptimismus eine ungünstige motivationale Lage, denn Planungsoptimismus impliziert die Vermeidung des Aufbaus von Worstcase-Szenarien, da ja keine negativen Überraschungen erwartet werden. Der Kunde Beck Weathers wiederum hat uneingeschränktes Vertrauen zu der erfahrenen Führungsperson Rob Hall und wagt weder zur Zeit der Absprache noch in der Zeit des Wartens gegen das Gebot Rob Halls und gegen sein eigenes Verspre-
chen zu verstoßen und den Platz zugunsten seines Überlebens zu verlassen. Aus einer selbstständig denkenden Person ist ein unmündiges Gruppenmitglied geworden, das wider alle Vernunft eine unsinnige Entscheidung befolgt. Eine ausführlichere Kommunikation hätte verschiedene Lösungsmöglichkeiten aufzeigen und eine Reduktion auf nur eine Lösung vermeiden können. Das zeigt die Wichtigkeit, selbst oder gerade in Situationen, in denen Zeitund Handlungsdruck dominiert, dieses subjektive Gefühl der Notwendigkeit des unmittelbaren Handelns zu hinterfragen. Es ist fast immer ausreichend Zeit, Handlungsalternativen zu generieren und mitunter auch Worst-Case-Szenarien zu überprüfen; es ist allerdings schwierig in Situationen, wo verbale Kommunikation nur extrem reduziert möglich ist.
7.6.3 Informationsselektion und
Tunnelblick: »Nur ein bisschen schlapp heute – hat aber nichts zu sagen.« »Nur ein bisschen schlapp heute – hat aber nichts zu sagen«, antwortet Scott Fischer auf die Frage Jon Krakauers, wie es denn so liefe, als dieser auf seinem Weg vom Gipfel den noch aufsteigenden Bergführer trifft. Fischer will den Gipfelerfolg, obwohl seine Kunden längst wieder absteigen. Er handelt nicht mehr in der Funktion als Führer seiner Gruppe, denn sonst würde er umkehren und sich um die absteigenden Kunden kümmern. Aber er weiß, dass Hall schon oben war, und will diesen Erfolg auch für sich erzielen. Außerdem vermittelt die Tatsache, dass der erfahrene Kollege um 16 Uhr noch nicht abgestiegen ist, eine Illusion von Sicherheit. In solchen Situationen neigen Menschen zur selektiven Informationssuche, d. h., es werden solche Informationen bevorzugt gesucht, die die eigene Sichtweise und/oder Entscheidung bestätigen. Die damit erzeugte kognitive und motivationale Situation kann man als informationelle Einkapselung unter dem illusionären Gefühl der Sicherheit beschreiben (7 Kap. 6.3.4). Der kurzfristige Gewinn besteht in einer Vereinfachung der komplexen Umgebung, der mit dem Tunnelblick verbundenen Illusion der eigenen Kompetenz, die Situation bewältigen zu können. Solange die Umwelt weniger feind-
127 7. 7 · Zusammenfassung und Zusammenführung
lich ist als der Mount Everest, gibt es verschiedene Möglichkeiten, die Illusion der Handlungsfähigkeit aufrechtzuerhalten.
7.7
Zusammenfassung und Zusammenführung: Erfolgsfaktoren sicheren Handelns in Gruppen
Es gibt sehr unterschiedliche Typen von Gruppen, die sehr verschiedene Aufgaben und Probleme bearbeiten. Gruppenphänomene müssen deshalb in einem Gesamtkontext von Anforderungen der Situation, Merkmalen der Individuen, Merkmalen der Gruppe, Prozessmerkmalen und Ergebnisdaten analysiert werden. Dennoch kann festgehalten werden, dass Koordination, Kommunikation und Kooperation die 3 zentralen Prozesse sicheren Handelns in Gruppen darstellen. Dabei sind viele Merkmale relevant, die die Art und Weise dieser Prozesse beeinflussen, z. B. die Art der Führung oder die Zusammensetzung der Gruppe. Hinzu kommt, dass die jeweiligen Charakteristika der Aufgabe bzw. des Problems die spezifischen Anforderungen an eine optimale Koordination, Kommunikation und Kooperation determinieren. Bestimmend für Gruppenhandeln sind neben Koordination, Kommunikation und Kooperation auch motivationale Prozesse der Gruppenmitglieder, das Bedürfnis nach Kompetenz und das Bedürfnis nach Anerkennung. Integrierend für Koordination, Kommunikation und Kooperation ist das Konzept des gemeinsamen mentalen Modells der Gruppe über Aufgabe, Prozess und die Gruppe selbst. Problematische Handlungstendenzen in Gruppen sind motivationale Probleme wie »social loafing«, Verantwortungsdiffusion und Überwertigkeit des aktuellen Motivs. Eingeschränkte Informationsverarbeitung in Gruppen zeigt sich z. B. an Reduktionismus, Planungsoptimismus und Einkapselung mit dem illusionären Gefühl der Sicherheit, mit oftmals fatalen Konsequenzen für sicheres Handeln. Das hier aufgegriffene Beispiel ist in mancherlei Hinsicht untypisch für übliches Handeln in Gruppen. Die Gruppen, die normalerweise Gegenstand der Forschung in der Sozialpsychologie sind, sind Ad-hoc-Teams, die in einer Laborsituation Entschei-
7
dungen oder Handlungen ausführen, die keinen Bezug zu ihrer Realität haben; in der Arbeits- und Organisationspsychologie sind es zumeist Arbeitsgruppen, die eingebettet in eine Organisation gemeinsam für ein Produkt, einen Prozess oder eine Dienstleistung verantwortlich sind (Hackman, 1987). Bergsteigen ist eine Aktivität, die höchste Anforderungen an psychische und physische Fähigkeiten der Einzelnen stellt, da fast jede Entscheidung eine Entscheidung über Leben und Tod sein kann, wobei aber in der Regel genügend Zeit bleibt, das Für und Wider einer Entscheidung abzuwägen. Damit bekommt die Gruppensituation eine besondere Qualität, weil eine falsche Entscheidung auf der OutputSeite nicht bloß einen Misserfolg verzeichnet, sondern den eigenen Tod und/oder den der Kameraden bedeuten kann (7 auch Kap. 15). Im kommerziellen Bergsteigen ist die Situation noch etwas problematischer, weil letztlich jedes Gruppenmitglied eigenverantwortlich denken und entscheiden muss, aber gleichermaßen dafür bezahlt, dass Bergführer Entscheidungen für sie übernehmen; die Gruppenmitglieder sind keine Bergkameraden, die in gemeinsamen Bergbesteigerungen ihre Stärken und Schwächen kennengelernt haben. Vielmehr kommen Personen zusammen, die völlig unterschiedlich sein können. Dennoch sind die Anforderungen an diese Gruppen durchaus vergleichbar mit Gruppen in anderen Risikobereichen. Im Folgenden sind daher einige Erfolgsfaktoren sicheren Handelns in Gruppen aufgeführt, die aus den oben erfolgten Analysen abgeleitet werden können: Situationsbewusstsein und gemeinsames mentales Modell
Die Gruppe sollte sicherstellen, dass eine kontinuierliche Diagnose des Umfeldes erfolgt. Das heißt, die Gruppe muss im Sinne eines beständigen Updates die Situation wahrnehmen, bewerten und prognostizieren (z. B. das Wetter). Diese 3 Aktivitäten der Wahrnehmung, Bewertung und Prognose fließen in einem Wissenszustand zusammen, der »Situationsbewusstsein« oder »situation awareness« genannt wird (7 Kap. 4.4). Wichtig ist darüber hinaus, dass v. a. unerwartete Änderungen, also Abweichungen von Erwartungen, nicht nur wahrgenommen, sondern auch kommuniziert werden, damit ein gemein-
128
Kapitel 7 · Handeln in Gruppen
sames mentales Modell entstehen kann. Ein gemeinsames mentales Modell der Situation und der möglicherweise zu erwartenden Restriktionen kann die Koordination erleichtern. Proaktive Planung
7
Studien zeigen, dass Gruppen, die eine komplexe Aufgabe bearbeiten, weniger planen als Gruppen, die eine einfache Aufgabe bearbeiten (Weingart, 1992). Dieses auf den ersten Blick kontra-intuitive Ergebnis kann aber einfach erklärt werden: Detaillierte Planung ist insbesondere bei komplexen Aufgaben nicht notwendigerweise eine erfolgreiche Vorgehensstrategie, denn eine solche Planung lässt keinen Raum zum opportunistischen Handeln. Es können zu viele unvorhersehbare Änderungen eintreten, die zuvor nicht in der Planung berücksichtigt wurden, was dann in der konkreten Situation mitunter zu noch größerer Handlungsunsicherheit führt (7 Kap. 5.3.3). Einen breiteren Handlungsspielraum ermöglicht eine Planung, die Wegmarken vorgibt und ansonsten mithilfe von Wenn-dann-Szenarien Möglichkeitsräume erstellt und diese Situationen auf verschiedene Handlungsoptionen und deren Konsequenzen hin untersucht. Dabei können »best cases« und »worst cases« den Ausgangspunkt der Planung bieten. Insbesondere die eingehende Betrachtung von möglichen »worst cases« mit den dazugehörigen Handlungsoptionen ist ein wichtiger Teil der Planung, der Teil des gemeinsamen mentalen Teammodells sein sollte. Denn zum einen sind in der Gefahrensituation entstehende Ad-hoc-Verhaltensmuster oftmals nicht die bestmöglichen, weil meistens zuerst Routineverhaltensmuster aktiviert werden. Zum anderen muss mit einem solchen mentalen Teammodell der Situationseinordnung in der akuten kritischen Situation nicht mehr in der Gruppe verhandelt und diskutiert werden, was schnelleres Handeln ermöglicht. Weil keine explizite Koordination notwendig ist, können kognitive Ressourcen, aber auch Zeit gespart werden. Adaptivität
Es gibt viele Hinweise darauf, dass Gruppen nicht adaptiv auf Änderungen in der Umwelt reagieren. Hackman & Wageman (2005) konnten zeigen, dass Gruppen Vorgehensstrategien frühzeitig während
des Bearbeitungsprozesses entwickeln und diese später nicht mehr ändern. Diese Tendenz zum Konservatismus wird in bedrohlichen Situationen verstärkt. Staw, Sandelands & Dutton (1981) postulieren, dass Individuen, Gruppen und auch Organisationen auf bedrohliche Situationen bzw. Krisen mit 2 Tendenzen reagieren: 4 Restriktion des Informationsflusses 4 Zentralisierung der Kontrolle und Autorität Demnach löst Bedrohung bei Gruppen bestimmte Tendenzen aus, die man zusammengefasst als Neigung zu rigiden Verhaltensmuster bezeichnen kann. Gladstein & Reilly (1985) konnten zeigen, dass in einer Managementsimulation in Phasen stärkerer Bedrohung der Informationsfluss stärker restringiert und auch stärker zentralisiert wird. Alle diese Ergebnisse machen deutlich, dass Gruppen nicht sehr anpassungsfähig sind und sich damit schwertun, ihr Verhalten an sich ändernde Bedingungen anzupassen. Genau diese Anforderung ist aber in höchstem Ausmaß relevant, wenn es um das Handeln von Gruppen in kritischen Situationen geht, also in Situationen, in denen der weitere Verlauf und das Ereignis entscheidend beeinflusst werden. Führungsfunktionen
Es gibt viele Hinweise in der Weltgeschichte, aber auch in Laborstudien, dass in Situationen hoher Bedrohung ein größeres Bedürfnis nach starken Gruppenführern besteht (z. B. Mulder & Stemerding, 1963). In dieselbe Richtung gehen Ergebnisse von Interviewstudien mit Anästhesieteams (ZalaMesö, Künzle, Wacker & Grote, 2004), welche in kritischen Situationen nach direkter Führung verlangen, in Standardroutinesituationen jedoch mehr Selbstbestimmung wünschen. Diese Ergebnisse wie auch die Analyse des Beispiels zeigen: Menschen wollen in kritischen Situationen Sicherheit, und diese erwarten sich Gruppen über direkte Führung. Wenn wir allerdings die Entscheidungsprozesse der Führungspersonen im Beispiel betrachten, sollten Gruppen doch besser lernen, Unsicherheit in kritischen Situationen aktiv zu bewältigen und der Führung nur unterstützende Funktion zuzuweisen.
129 7.8 · Literatur
Reflexion
Reflexion in Form einer Metabetrachtung oder Analyse des Denk- und Handlungsprozesses erleichtert die Diagnose von erfolglosem Vorgehen wie auch die Modifikation von Strategien und ist damit ein zentrales kognitives Hilfsmittel für adaptives Verhalten. Allerdings reflektieren Gruppen wie auch Individuen nicht spontan. Untersuchungen konnten jedoch zeigen, dass Reflexion instruiert werden kann (Wetzstein & Hacker, 2004). Jedoch profitieren nur Individuen von einer Reflexions-Instruktion – bei Teams profitieren nur jene, die bereits vor der ReflexionsInstruktion eine hohe Teamleistung zeigten (Gurtner, 2003).
7.8
Literatur
Badke-Schaub, P. & Frankenberger, E. (2003). Management kritischer Situationen. Produktentwicklung erfolgreich gestalten. Berlin: Springer. Bandura, A. (1977). Towards a unifying theory of behavior change. Psychological Review, 84, 199–215. Bandura, A. (1982). Self-efficacy mechanism in human agency. American Psychologist, 37, 122–147. Boukreev, A. & DeWalt, G. P. (1998). Der Gipfel. Tragödie am Mount Everest. München: Heyne Verlag. Boulding, K. E. (1978). Ecodynamics. Beverley Hills: Sage. Breashears, D. (1999). Bis zum Äußersten. Der Mount Everest und andere Herausforderungen. München: Diane Verlag. Campbell, J. P. & Campbell, R. J. (1988). Industrial-organizational psychology and productivity: The goodness of fit. In J. P. Campbell, R. J. Campbell & Associates (Eds.), Productivity in organizations (pp. 82–93). San Francisco: Jossey-Bass Publishers. Clark, H. H. (1994). Discourse in production. In M. A. Gernsbacher (Ed.), Handbook of psycholinguistics (pp. 985–1021). San Diego: Academic Press. Clark, H. H. (1996). Using language. Cambridge: Cambridge University Press. Dörner, D. (1999). Bauplan für eine Seele. Reinbek: Rowohlt. Entin, E. & Serfaty, D. (1999). Adaptive team coordination. Human Factors, 41 (2), 312–325. Gersick, C. J. G. (1988). Time and transition in work teams: Toward a new model of group development. Academy of Management Journal, 32, 9–41. Gladstein, D. L. & Reilly, N. P. (1985). Group decision making under threat: the tycoon game. Academy of Management Journal, 28, 613–27. Gurtner, A. (2003). Zweimal musst du es schon sagen. Strategieentwicklung und Kommunikationsmuster in hierarchisch organisierten Teams. Dissertation. Bern: Universität, Inst. für Psychologie.
7
Hackman, J. R. (1987). The design of work teams. In J. Lorsch (Ed.), Handbook of organizational behavior. Englewood Cliffs, NJ: Prentice-Hall. Hackman, R. J., Brousseau, K. R. & Weiss, J. A. (1976). The interaction of task design and group performance strategies in determining group effectiveness. Organizational Behavior and Human Performance, 16, 350–365. Hackman, J. R. & Wageman, R. (2005). When and how team leaders matter. Research in Organizational Behavior, 26, 37–74. Ilgen, D. R. (1999). Teams embedded in organizations: some implications. AmericanPsychologist, 54, 129–139. Janis, I. (1972). Groupthink. Psychological studies of policy decisions and fiascoes. Boston: Houghton Mifflin. Janis, I. (1982). Counteracting the adverse effects of concurrence-seeking in policy-planning groups: Theory and research perspectives. In H. Brandstätter, J. H. Davis & G. Stocker-Kreichgauer (Eds.), Group decision making (pp. 477–502). London: Academic Press. Klimoski, R. & Mohammed, S. (1994). Team mental model: Construct or metaphor? Journal of Management, 20 (2), 403–437. Krakauer, J. (1998). In eisige Höhen. Das Drama am Mount Everest. München: Piper. Locke, E. A. & Latham, G. P. (1990). A theory of goal setting and task performance. Englewood Cliffs, NJ: Prentice-Hall. Mulder, M. & Stemerding, A. (1963). Threat, attraction to group and need for strong leadership. Human Relations, 16, 317– 334. O’Leary-Kelly, A. M., Martocchio, J. J. & Frink, D. D. (1994). A review of the influence of group goals on group performance. The Academy of Management Journal, 37 (5), 1285–1301. Orasanu, J. (1990). Shared mental models and crew performance. Technical Report No. 46. Princeton, NJ: Princeton University, Cognitive Sciences Laboratory. Orasanu, J. (1993). Decision making in the cockpit. In E. L. Wiener, B. G. Kanki & R. L. Helmreich (Eds.), Cockpit Resource Management (pp. 137–172). San Diego, CA: Academic Press. Paris, C. R., Salas, E. & Cannon-Bowers, J. A. (2000). Teamwork in multi-person systems: A review and analysis. Ergonomics, 43 (8), 1052–1075. Reason, J. (1990). Human error. Cambridge UK: Cambridge University Press. Staw, B. M. & Ross, J. (1987). Behavior in escalation situations: Antecedents, prototypes and solutions. In L. L. Cummings & B. M. Staw (Eds.), Research in organization behavior (pp. 39–78). Greenwich, CT: JAI. Staw, B. M., Sandelands L. E. & Dutton, J. E. (1981). Threat-rigidity effects in organizational behavior: A multilevel analysis. Administrative Science Quarterly, 26, 501–524. Staehle, W. H. (Hrsg.) (1991). Handbuch Management. Die 24 Rollen der exzellenten Führungskraft. Wiesbaden: Gabler. Steiner, I. D. (1972). Group process and productivity. New York: Academic Press. Stroebe, W., Jonas, K. & Hewstone, M. (Hrsg.) (2002). Sozialpsychologie – Eine Einführung. Berlin: Springer.
130
Kapitel 7 · Handeln in Gruppen
Tenzing, N. J. (2001). Auf den Spuren meines Vaters. Die Sherpas und der Everest. München/Zürich: Diana Verlag. Tisdale, T. (1998). Selbstreflexion, Bewusstsein und Handlungsregulation. Weinheim: Beltz. Tschan, F. & Semmer, N. (2001). Geteilte mentale Modelle und Leistung in der Teamarbeit. In R. Fisch, D. Beck & B. Englich (Hrsg.), Projektgruppen in Organisationen (S. 217–235). Göttingen: Hogrefe. Tuckman, B. W. (1965). Developmental sequence in small groups. Psychological Bulletin, 63, 384–399. Weathers, B. (2000). Für tot erklärt. Meine Rückkehr vom Mount Everest. München: dtv.
7
Weingart, L. R. (1992). Impact of group goals, task component complexity, effort, and planning on group processes. Research in Organizational Behavior, 19, 189–239. Wetzstein, A. & Hacker, W. (2004). Reflective verbalization improves solutions – The effects of question-based reflection in design problem solving. Applied Cognitive Psychology, 18 (2), 145–156. Yun, S., Faraj, S. & Sims, H. P. (2005). Contingent leadership and effectiveness of trauma resuscitation teams. Journal of Applied Psychology, 90, 1288–1296. Zala-Mezö, E., Künzle, B., Wacker, J. & Grote, G. (2004). Zusammenarbeit in Anästhesieteams aus Sicht der Teammitglieder. Zeitschrift für Arbeitswissenschaft, 58, 199–208.
8 Kommunikation Gesine Hofinger
8.1
Einleitung: Interaktion und Information
– 132
8.2
Kommunikation verstehen
8.2.1 8.2.2 8.2.3 8.2.4 8.2.5
Kommunikation als Informationsübermittlung – 134 Bedeutung, Interpretation und Kontext – 134 Interaktion, Beziehung und Interpretation – 135 Kommunikation in sozialen Systemen – 136 Sprachliche und nichtsprachliche Formen von Kommunikation – 136
8.3
Funktionen von Kommunikation – 137
8.3.1 8.3.2 8.3.3 8.3.4 8.3.5
Strukturierung der Zusammenarbeit – 137 Koordination – 137 Informationsweitergabe und -austausch – 138 Gemeinsame Realitätskonstruktion – 138 Beziehungen schaffen – 139
– 133
8.4
Störungen der Kommunikation – 140
8.4.1 8.4.2 8.4.3 8.4.4
Gestörte Informationsübermittlung – 141 Missverstehen – 142 Störungen der Interaktion – 143 Kommunikation über Hierarchiegrenzen hinweg – 144
8.5
Kommunikation in kritischen Situationen
– 144
8.6
Kommunikation als Sicherheitsressource
– 145
8.6.1 8.6.2 8.6.3 8.6.4
Was ist »gute« Kommunikation? – 145 Das Bindeglied Verstehen – 145 Informationstransfer sichern – 146 Interaktionen gestalten: Wertschätzung, Beharrlichkeit und Konsultation – 148
8.7
Zusammenfassung und Ausblick – 149
8.8
Literatur – 150
132
Kapitel 8 · Kommunikation
Beispiel In einem Krankenhaus gibt es immer wieder Zwischenfälle, über die nicht gesprochen wird. Einmal wird ein Patient am falschen Knie operiert; obwohl eine Pflegekraft und ein Assistenzarzt Zweifel an der Richtigkeit der OP hatten, äußerten sie diese nicht. Auf Initiative eines Chefarztes hin wird daraufhin ein Zwischenfallsberichtssystem eingeführt. Mitarbeiter des OP-Bereichs sollen Fehler und Probleme aller Art berichten. Dazu wird ein Formular entworfen, das im Aufenthaltsraum zusammen mit einer Erklärung ausliegt. Ein Vertrauensgremium wird gewählt, das die Berichte auswertet und mit den zuständigen Bereichsleitungen über Verbesserungen sprechen soll. Das Gremium trifft sich und bespricht, wie die Arbeit strukturiert werden kann und wer wofür zuständig ist, z. B. wer die Dokumentation übernimmt und wer mit den Abteilungsleitungen spricht ... Außerdem lesen die Mitglieder des Gremiums gemeinsam Literatur über Fehlermanagement und besuchen einen Kurs zur Fallanalyse, um eine gemeinsame Sprache zu entwickeln. Die eher zurückhaltende Leiterin des Vertrauensgremiums legt allerdings nach wenigen Wochen ihren Posten nieder, weil sie das Gefühl hat, von den Chefärzten
8
Dieses Beispiel zeigt, wie vielfältig die Kommunikationsprozesse in einer Organisation sein können.
8.1
Einleitung: Interaktion und Information
Kommunikation wird in Analysen von Unfällen und Zwischenfällen fast immer als beitragender oder verursachender Faktor identifiziert. Irgendjemand hat immer irgendetwas nicht oder nicht richtig gesagt oder nicht richtig verstanden. »Kommunikation verbessern« scheint also ein Königsweg zu sein, um Sicherheit zu erhöhen (z. B. für die Befragten in der Studie von Sexton, Thomas & Helmreich, 2000). Sieht man aber genauer hin, zeigt sich, dass Kommunikation (in der Human-Factors-Literatur wie im allgemeinen Sprachgebrauch) so viele verschiedene Bedeutungen hat, dass die Aussage »Es gab ein Kommunikationsproblem« nicht weiterhilft – weder für
nicht ernst genommen zu werden. Es kommt zu einem extern moderierten Treffen des Gremiums mit allen Chefärzten. Hier wird vereinbart und in der Folgezeit als Dienstanweisung festgelegt, dass auf eine Anfrage des Gremiums hin binnen 10 Tagen geantwortet werden muss; dies wird auch im Wesentlichen eingehalten. Da die Analysen in den nächsten Monaten ergeben, dass immer wieder verschiedene Kommunikationsprobleme Zwischenfälle (mit-)verursachen, beschließt die Krankenhausleitung, Workshops zur Kommunikation im OP durchführen zu lassen. In diesen wird u. a. festgelegt, dass und wie das OPTeam sich zu Beginn einer Operation in einem Briefing über den Patienten die gewählten Verfahren und erwartbaren Komplikationen austauschen soll. Außerdem werden Kommunikationsstandards für kritische Situationen definiert und mithilfe des Qualitätsmanagements umgesetzt. In den nächsten Monaten steigt die Anzahl von Berichten über Zwischenfälle deutlich an, was als Zeichen für ein besseres Kommunikationsklima interpretiert wird. Über (Beinahe-)Verwechslungen von OP-Seite oder -Situs wird seit der Einführung des Briefings nicht mehr berichtet.
das Verständnis des Geschehens noch für Ansätze zur Verbesserung: Unter der Kategorie »Kommunikationsproblem« wird 4 das Verschweigen von Information ebenso gefasst wie die Weitergabe falscher Information, 4 das Fehlen von gemeinsamen Gesprächen ebenso wie hierarchisch dominierte Gespräche, 4 das Verhören und Versprechen ebenso wie Missverständnisse aufgrund von irrigen Annahmen; 4 auch rauschende Telefonleitungen oder ausfallende E-Mail-Systeme sind Kommunikationsprobleme. In all diesen Kommunikationsproblemen steckt dennoch ein gemeinsamer Kern, der sich auch im Fallbeispiel zeigt und in den verschiedenen Kommunikationstheorien mit unterschiedlichem Fokus aufgegriffen wird (7 Kap. 8.2): Mehrere Menschen sind beteiligt, und etwas wird mitgeteilt. Es geht also um
133 8.2 · Kommunikation verstehen
Interaktion und um Information. Diese beiden Aspekte sind in menschlicher Kommunikation immer gemeinsam vorhanden. ! Eine erste Annäherung an Kommunikation besagt, dass Kommunikation den Umgang mit Information in Interaktionen zum Gegenstand hat.
Je nach Begriffsverständnis geht es bei Kommunikation um: 4 Technische Fragen der Übermittlung von Information 4 Sprachtheorie 4 Standardisierung von Kommunikation 4 Gestaltung von Prozessen und Beziehungen in Organisationen Je nach Fragestellung und Branche steht die Kommunikation von (2) Einzelpersonen, von Teams oder die Kommunikation innerhalb einer Organisation im Vordergrund. Im Fallbeispiel relevant sind u. a. Kommunikationsformen in einer Organisation (z. B. Formulare, Besprechungen), Strukturierung und Koordination eines Teams (hier des Vertrauensgremiums), Kommunikation in hierarchischen Beziehungen (hier mit den Chefärzten), Standardisierung und gemeinsames Problemverständnis (hier durch die Teambriefings erreicht). In diesem Kapitel werden zunächst einige grundlegende Kommunikationsmodelle vorgestellt (7 Kap. 8.2), dann werden Funktionen von Kommunikation für sicheres Handeln beschrieben (7 Kap. 8.3). Störungen von Kommunikation im Sinne von Hindernissen für sicheres Handeln sind Thema von 7 Kap. 8.4, die besonderen Anforderungen von Kommunikation in kritischen Situationen sind Fokus von 7 Kap. 8.5, und im abschließenden Kapitel (7 Kap. 8.6) wird gefragt, wie Kommunikation zur Sicherheitsressource werden kann. 7 Kap. 7, 9, 10 und 11 in diesem Buch behandeln eng mit Kommunikation verwandte Themen. Einen Überblick zum Thema geben Bateson (1985), Faßler (1997), Frindte (2001), Heath & Bryant (1992), Hofinger (2005), Simon (2007), Watzlawick, Beavin & Jackson (2007).
Definition
8.2
8
Kommunikation verstehen
Der Fokus dieses Kapitels liegt auf beruflicher, sicherheitsrelevanter Kommunikation in komplexen Arbeitsfeldern. Solche Arbeitsfelder sind gekennzeichnet durch eine Vielzahl von Schnittstellen, die besondere Anforderungen an Informationsaustausch stellen. Arbeitsaufgaben können meist nur in Zusammenarbeit erledigt werden, oft interdisziplinär und häufig über Organisationsgrenzen hinweg. Das bedeutet auch, dass Menschen mit verschiedenen Handlungsstilen, unterschiedlichem Wissen, aus verschiedenen Kulturen etc. miteinander kommunizieren. Auch wenn indirekte und asynchrone Kommunikation in solchen Arbeitsfeldern eine wichtige Rolle spielt, beschränkt sich dieses Kapitel weitgehend auf Kommunikationsakte, bei denen die Beteiligten gleichzeitig bzw. kurz hintereinander und miteinander (synchron) agieren, z. B. Gespräche, auch Telefonate oder Chats. Unidirektionale Kommunikation über Handbücher, Formulare, Dienstanweisungen oder auch Vorträge und Artikel ist ebenso wenig Thema wie die Kommunikation Maschine-Mensch, d. h. die Art der Informationsdarstellung, Displayund Icongestaltung etc. Kommunikation beinhaltet, dass jemand einer anderen Person etwas mitteilen möchte, also mindestens 2 Personen beteiligt sind. Das setzt voraus, dass ein Mensch sich in einem bestimmten Ausmaß auf den anderen einstellt. ! Kommunikation heißt, das eigene Denken und Handeln in eine Beziehung zu anderen Personen zu bringen.
»Jemand etwas mitteilen wollen« oder »Von jemandem etwas wissen wollen« ist Anlass für Kommunikation. In der Alltagsvorstellung setzen wir voraus, dass das gelingen kann und dass das Mitgeteilte auch verstanden werden kann. Verstehen wird als der Normalfall angesehen, der mit gutem Willen und Aufmerksamkeit sowie ausreichenden Ressourcen erreichbar ist. Missverständnisse und Störungen sollten somit behebbar sein.
134
Kapitel 8 · Kommunikation
8.2.1 Kommunikation als
Informationsübermittlung Kommunikation wird in dieser Perspektive als Prozess der Übermittlung von Zeichen verstanden (die Wichtigkeit der Übermittlung für die menschliche Kommunikation zeigt sich u. a. darin, dass im Engli-
schen »communications« die Kommunikationsmittel sind). Entsprechend beschäftigen sich Kommunikationsmodelle damit, wie man eine Botschaft vollständig und ohne Informationsverlust von A nach B bringt. Das bekannteste Modell dieser Art ist das nachrichtentechnische Modell von Shannon & Weaver (1949).
Nachrichtentechnisches Modell der Kommunikation (Shannon & Weaver, 1949)
8
Das Modell von Shannon & Weaver beschreibt Kommunikation im Sinne der Übertragung einer Nachricht anhand von Grundprinzipien der Nachrichtentechnik, wie sie z. B. im Morsen von Nachrichten deutlich werden. Jede Nachrichtenübertragung besteht nach dieser Konzeption aus den 3 Komponenten Sender–Übertragungskanal– Empfänger. Eine Voraussetzung hierfür ist, dass Sender und Empfänger über einen gemeinsamen Zeichensatz verfügen und die Kodierungsvorschrift kennen, sodass eine vom Sender verschlüsselte Nachricht vom Empfänger auch wieder entschlüsselt werden kann. Für ihren Austausch bedienen sich beide eines Übertragungskanals, über den die Nachricht vermittelt wird. Die Empfangsqualität der Nachricht wird durch die Art des Kanals (der nicht unbedingt sprachlicher Natur sein muss), durch die Kanalkapazität und durch Störeinflüsse (Rauschen) im Kanal beeinflusst. Das Modell »Sender–Übertragungskanal– Empfänger« ist häufig auf die menschliche Kommunikation übertragen worden, obwohl es zu wenige Komponenten hat und zu wenig komplex ist, um den vielschichtigen Informationsprozessen gerecht zu werden, die in der Kommunikation zwischen Menschen ablaufen (Köck, 1990). Das nachrichtentechnische Modell kann aber bestimmte Kommunikationsprobleme verdeutli-
8.2.2 Bedeutung, Interpretation
und Kontext Die Lasswell-Formel bietet die Möglichkeit einer präzisen Prozessanalyse, bleibt aber im Empfänger-Sender-Modell verhaftet; Prozesse des Verstehens und der Rückkoppelung sind allenfalls als Effekte denkbar.
chen, die mit dem Übertragungskanal zu tun haben, beispielsweise Rauschen im Kanal durch Lärm in der Umgebung. Lärm ist eine typische Störgröße für die Qualität der Nachrichtenübertragung, weil er wichtige Informationen überlagern und maskieren kann. Die Begrenzung der Kanalkapazität ist ebenfalls ein technisches Problem, das auf die menschliche Kommunikation übertragen werden kann. Diese Begrenzung bedeutet, dass jeweils nur eine Nachricht pro Kanal unterwegs sein sollte. Sprechen mehrere Menschen gleichzeitig, ist die Kapazität des Übertragungskanals erschöpft. Die Grundidee dieses Modells wurde schon früher als Lasswell-Formel (Lasswell, 1948) beschrieben. Nach Lasswell wird ein Kommunikationsakt vollständig beschrieben, wenn angegeben wird: 4 Wer 4 sagt was 4 zu wem 4 wodurch (Zeichen, Signal) 4 durch welches Medium/welchen Kanal 4 mit welcher Intention bzw. Motivation 4 mit welchem Effekt? In der Lasswell-Formel sind jedoch 2 psychologische Aspekte berücksichtigt, die bei Shannon & Weaver (1949) (denen es ja um die Übertragung einer Nachricht ging) fehlen: Intention und Effekt.
Andererseits beschäftigen sich Kommunikationsforscher seit Langem damit, dass es für die Verständigung zwischen Menschen nicht ausreicht, Zeichen korrekt zu übertragen. Vertreter des symbolischen Interaktionismus (z. B. Blumer, 1969; Mead, 1968) postulieren, dass Dinge keine inhärente, naturgegebene Bedeutung haben, sondern dass Bedeutung in so-
135 8.2 · Kommunikation verstehen
zial ausgehandelten Zuschreibungsprozessen (immer wieder neu) festgelegt wird. Relevant für das Handeln sind Bedeutungen, nicht Dinge. Dies gilt auch für Sprache: Wörter als Zeichen haben keine Bedeutung an sich – diese Idee kann man im Code der nachrichtentechnischen Modelle finden: Sender und Empfänger müssen sich über die Bedeutung von Zeichen einig sein, damit Botschaften nicht nur technisch übermittelt, sondern auch »gelesen« werden können. ! Da die Bedeutung von Dingen und Wörtern durch kommunikative Akte festgelegt wird, ist Kommunikation die Grundlage allen Handelns.
8.2.3 Interaktion, Beziehung und
Interpretation Die bislang besprochenen Ansätze befassen sich mit der (kontextgebundenen, personabhängigen) Übermittlung von Nachrichten. Explizit psychologische Kommunikationstheorien haben seit Langem darauf verwiesen, dass Kommunikation nicht nur eine Frage von Senden, Übermitteln und Empfangen ist, sondern dass es darauf ankommt, 4 was gesagt wird, 4 wie es gesagt wird und 4 wie der Empfänger oder die Empfängerin das Gesagte versteht (Bühler, 1934; Searl, 1971). In jeder Kommunikation spielen Annahmen und Kontexteinflüsse eine große Rolle. Sender und Empfänger haben Annahmen darüber, was der jeweils andere weiß und denkt, und passen ihre Sprache diesen Annahmen an (z. B. Garrot & Anderson, 1987). Auch der Kontext beeinflusst die Bedeutungszuschreibung durch Erwartungen auf beiden Seiten.
8
So wird die Erklärung eines neuen Computerprogramms viel knapper ausfallen, wenn die Zuhörerin bereits als Expertin für die Vorgängerversion bekannt ist, als wenn sie kein Vorwissen hat. Eine Vorstellung des neuen Programms wird auf einer Sitzung mit dem Vorgesetzten anders ausfallen als im Abteilungstreffen mit den Kollegen. Wenn diese Annahmen über geteiltes Vorwissen falsch sind, wird die Ersparnis u. U. zum Sicherheitsrisiko (z. B. wenn sich jemand nicht traut nachzufragen). Kommunikation findet nicht nur im Kontext einer Situation statt und mit Annahmen über das Wissen und die Erfahrungen einer anderen Person, sondern auch im Kontext einer sozialen Interaktion, also einer Beziehung. Menschen können nicht »rein sachlich« kommunizieren – in jeder Botschaft schwingt auch eine Aussage über die Art und Qualität der Beziehung zwischen Sender und Empfänger mit (Watzlawick, Beavin & Jackson, 2007). Schulz von Thun (Schulz von Thun, 1981; Schulz von Thun, Ruppel & Stratmann, 2000) hat diese Grundannahme über die Gleichzeitigkeit von Beziehung und Sachinhalt eingängig erweitert als die »4 Seiten einer Nachricht« und zwischen 4 Aspekten einer Botschaft unterschieden: Sachinhalt, Selbstkundgabe, Beziehung und Appell (. Tab. 8.1). Diese 4 Aspekte sind für den Sprecher und den Hörer gleichermaßen relevant. Beide arbeiten mit diesen 4 Seiten einer Botschaft. Welche Aspekte der Sender in den Vordergrund der Nachricht rückt, ist durch sein Denken, seine Absichten und Kommunikationsfähigkeiten bestimmt. Für den Empfänger besteht die Möglichkeit, auf jede der 4 Seiten einer empfangenen Nachricht zu reagieren, aber welchen Aspekt der Hörer als besonders wichtig empfindet, ist wiederum seiner eigenen psychischen Verfassung zuzuschreiben. Deshalb sprechen Menschen mit »4 Schnäbeln« und hören mit »4 Ohren« (z. B. Schulz von Thun, 1981).
. Tab. 8.1. 4 Seiten einer Nachricht. (Nach Schulz von Thun, 1981) Sachinhalt
Information über den sachlichen Gegenstand der Kommunikation, über Dinge und Geschehnisse
Beziehungshinweis
Information über die Beziehung zwischen Sender und Empfänger. Durch Formulierung, Tonfall und nichtsprachliche Begleitsignale gibt der Sender zu erkennen, in welcher Beziehung er sich zum Sender sieht
Selbstkundgabe
Information über den Sender als Person. Dies kann in Form einer gewollten Selbstdarstellung oder einer unfreiwilligen Selbstenthüllung geschehen
Appell
Information über eine Aufforderung zum Handeln. Jede Nachricht enthält eine Aufforderung, etwas zu tun (oder zu lassen)
136
Kapitel 8 · Kommunikation
Missverständnisse entstehen, wenn der Hörer andere Aspekte für wichtig hält als die vom Sender intendierten. Insbesondere wenn sprachliche und nichtsprachliche Kommunikation sich widersprechen oder wenn die Beziehung schon konflikthaft ist, wird der oder die Hörende Beziehungsaspekte stärker betonen.
Die folgende . Abb. 8.1 integriert Variablen der Lasswell-Formel bzw. des nachrichtentechnischen Modells mit Kontext, Personvariablen und Interaktion.
ziologischen) Theorien, die sich mit Kommunikation in sozialen Systemen beschäftigen (Habermas, 1981; Luhmann, 1981; Luhmann, 1984; Schoeneborn, 2007). Diesem Ansatz zufolge geschieht Kommunikation in Systemen, z. B. in Organisationen. Menschen haben jeweils Teil an Kommunikation, ohne sie zu verursachen. Der Fokus liegt hier auf den Interaktionsketten – eine Kommunikation wird durch andere Kommunikationen bedingt und bedingt selbst wieder weitere Kommunikationen. Das bedeutet, nicht nur der aktuelle Kontext, sondern auch die Voraussetzungen einer Interaktion sind relevant. In dieser Perspektive wird nicht das Verstehen untersucht, sondern wie Kommunikation in sozialen Systemen funktioniert. Menschen werden als selbstreferentielle Systeme beschrieben – das bedeutet, es gibt keinen direkten Einfluss eines Menschen auf einen anderen durch Kommunikation. Erstaunlich sind also nicht Verständigungsprobleme, sondern dass es überhaupt Schnittstellen zwischen selbstreferenziellen Systemen gibt, die gemeinsames Agieren erlauben. Diese Sicht auf Kommunikation wird in 7 Kap. 9 vertieft.
8.2.4 Kommunikation in sozialen
8.2.5 Sprachliche und nichtsprachliche
Beispiel Der Chefarzt des einleitenden Fallbeispiels sagt zur Leiterin des Vertrauensgremiums: »Dafür habe ich jetzt keine Zeit«. Dabei tippt er an einer E-Mail weiter. Sie interpretiert das Verhalten, das sie so schon öfter erlebt hat, als Desinteresse und Arroganz; ein Vorwurf, den der Chefarzt nicht versteht, da er nichts Unhöfliches gesagt habe und doch nur auf später verwiesen habe.
8
Systemen Nachrichtentechnischen und psychologischen Modellen gemeinsam ist, dass Kommunikation zwischen konkreten Menschen stattfindet (die in soziale Zusammenhänge eingebettet sind). Anders in den (so. Abb. 8.1. Kommunikation im Kontext psychologischer Variablen
Formen von Kommunikation Menschliche Kommunikation nutzt gleichzeitig verschiedene Kanäle für den Austausch von Informationen: Neben der gesprochenen Sprache drücken Menschen sich durch nonverbale (Körpersprache,
137 8.3 · Funktionen von Kommunikation
Haltung, Gestik) und paraverbale Mittel (stimmliche Aspekte der Sprache, Lautstärke, Betonung, Sprechgeschwindigkeit) aus (zu nonverbaler Kommunikation s. Frey, 1984; Gieseke, 2004; Scherer & Walbott, 1984). Menschen lernen von Kindheit an, allen 3 Kanälen die Informationen zu entnehmen, die in der aktuellen Situation für das gemeinsame Handeln relevant sind. Auch wenn Kommunikation in Kontext von Sicherheit zumeist als sprachliche Kommunikation untersucht wird, kommt nonverbalen und paraverbalen Anteilen große Bedeutung zu. Sie helfen dem Empfänger, die Bedeutung einer Nachricht im Gesamtzusammenhang der Situation zu verstehen. Nonverbale Informationen sind wie ein Kommentar oder eine Anleitung zum Verständnis für die gesprochenen Sätze. Die Frage »Wie weit sind Sie mit der Fallanalyse?«, begleitet von einem Stirnrunzeln, könnte ein Mitglied des Vertrauensgremiums als Zweifel an seiner Kompetenz deuten. Die gleichen Worte ruhig und freundlich gesprochen, mit einem interessierten Blick, würden eher als Interesse gedeutet, vielleicht sogar als implizite Aufforderung, darüber zu reden. Solche Deutungen sind in der Regel unbewusst: Der nonverbale und paraverbale Kanal sind stärker durch Einstellungen und Emotionen eingefärbt (7 Kap. 6) und stehen weniger unter der bewussten Kontrolle als die Informationsverarbeitung des verbalen Kanals. Empfindet der Empfänger, dass ihm auf dem verbalen und dem nonverbalen Kanal jeweils etwas anderes mitgeteilt wird, beide Botschaften also inkongruent sind, so wird er unbewusst der nonverbalen Information die größere Bedeutung beimessen (Frey, 1984). Deshalb ist es gerade in kritischen Situationen wichtig, dass die durch Körpersprache übermittelten Botschaften mit den Botschaften der gesprochenen Sprache übereinstimmen (Kongruenz).
8.3
Funktionen von Kommunikation
Kommunikation ist kein Selbstzweck, sondern sie erfüllt bestimmte Funktionen für die Beteiligten. Kommunikation im beruflichen Kontext kann Funktionen für die Person selbst haben (z. B. Demonstra-
8
tion von Status, Einholen von Rat), für das Team (z. B. Koordination) oder die Organisation (z. B. Zugehörigkeit definieren). Einige besonders für Teams relevante Funktionen von Kommunikation werden hier anhand des Fallbeispiels verdeutlicht.
8.3.1 Strukturierung der
Zusammenarbeit Strukturierung der Zusammenarbeit ist eine Voraussetzung für die Erledigung von Arbeitsaufgaben. Ist sie nicht a priori durch Funktionen und Rollen festgelegt oder bereits durch vorherige Zusammenarbeit vorgegeben, muss sie explizit festgelegt werden. Auch Ad-hoc-Teams mit einander unbekannten oder wenig vertrauten Mitgliedern können dann ohne Reibungsverluste zusammenarbeiten. Im Fallbeispiel strukturiert sich das Vertrauensgremium in einer Teamsitzung, in der eine Leitung und andere Rollen im gleichberechtigten Gespräch verteilt werden. In der Besprechung des Gremiums mit den Chefärzten wird die Sitzung durch externe Moderation und die weitere Zusammenarbeit durch eine Dienstanweisung strukturiert. Die Strukturierung sollte immer sorgfältig kommuniziert werden. Besonders wichtig ist dies, wenn gleichrangige und gleich qualifizierte Teammitglieder anwesend sind und daraus Konflikte entstehen können.
8.3.2 Koordination Im geschilderten Fallbeispiel dient Kommunikation auch der Koordination von Arbeitsabläufen, indem Aufgaben verteilt werden und zeitliche Reihenfolgen festgelegt werden. Koordination von Arbeitshandlungen kann explizit, also verbal, geschehen, z. B. durch Erteilen von Arbeitsaufträgen oder durch das Vorlesen einer Checkliste. Eine Sonderform der expliziten Koordination ist Metakoordination, d. h. Kommunikation darüber, wie und wann man sich koordinieren wird (z. B. »Wir treffen uns in 15 min zur nächsten Lagebesprechung«). Koordination kann auch implizit erfolgen, z. B. durch Blicke und Gesten. Wichtig für implizite Koordination ist, dass
138
8
Kapitel 8 · Kommunikation
jedes Teammitglied über die Aufgaben und Handlungen der anderen im Bilde ist. Teams, die sich implizit koordinieren, können effektiver arbeiten, weil sie in der Situation weniger kommunizieren müssen (z. B. Entin & Serfaty, 1999) – das gelingt aber nur, wenn es zuvor ausreichend Gelegenheit gab, sich kennenzulernen und über Arbeitsaufgaben explizit zu sprechen. Problematisch kann der Wechsel zwischen verschiedenen Koordinationsformen sein, z. B. erfordern plötzlich auftretende Probleme oder auch das Hinzukommen neuer Teammitglieder einen Wechsel zu expliziter Koordination. Explizite Kommunikation ist für sicheres Handeln also nötig, aber auch eine zusätzliche Belastung und damit potenziell Fehler verursachend. Deshalb sollten Teams flexibel zwischen verschiedenen Koordinations- und damit Kommunikationsformen wechseln können. Salas, Nichols & Driskell (2007) zeigen, dass die Verbesserung der Koordination zentral für den Teamerfolg ist: »At this time, the most potent contribution to effective team training appears to include a focus on coordination and adaptation. This suggests that the optimal team training intervention appears to be requiring that team members learn how to alter their coordination strategies and to reduce the amount of communication necessary for successful team performance.” (Salas, Nichols & Driskell, 2007, p. 471)
8.3.3 Informationsweitergabe
und -austausch Kommunikation dient dazu, Informationen zwischen Menschen auszutauschen, also Wissen für andere zugänglich zu machen. Ein adäquater Informationsaustausch ist entscheidend dafür, dass eine Situation angemessen bewertet und eine adäquate Handlungsstrategie festgelegt werden kann. Im Fallbeispiel werden Informationen über Zwischenfälle von den OP-Mitarbeitern schriftlich an das Vertrauensgremium kommuniziert. Auch Informationen über Beziehungen werden weitergegeben, z. B. wenn sich die Leiterin des Gremiums bei ihren Kollegen über das Verhalten des Chefarztes beklagt.
Kommunikation als Informationstransfer zu beschreiben, greift aber zu kurz: Information ist nicht etwas, das man von einem Kopf in einen anderen übertragen kann, wie man ein Blatt Papier von einem Schreibtisch auf den anderen legt. Wir haben keinen Zugriff auf das Denken anderer Menschen (Maturana & Varela, 1987). »Information is a difference that makes a difference« (Bateson, 1985), und zwar für den, der sie aufnimmt. Übertragen werden zwischen Menschen nur Zeichen (hier sprachliche Codes). Bedeutung wird dem Gesagten vom Hörer zugeschrieben. Wenn man etwas schon weiß, ist es keine Information mehr (wohl aber eine Bestätigung von Wissen, was Einfluss auf die weitere Kommunikation haben wird). Wenn man etwas nicht versteht, ist es auch keine Information. Beispiel Die Mitteilung des Notfallmanagers »Der Störfall ist als D3 klassifiziert« enthält für jemand, der diese Einteilung nicht kennt, keine Information – ob D2 oder D3, macht für diese Person keinen relevanten Unterschied. Einen »Unterschied, der einen Unterschied macht«, bedeutet diese Einteilung aber z. B. für das Pressereferat des betroffenen Unternehmens, das nun die entsprechenden Pressemeldungen vorbereiten wird.
Wenn Information subjektiv ist, dann kann Verständnis nur erreicht werden, wenn der Sender weiß, was für den Empfänger eine Information ist, wenn er sich also inhaltlich und in der Form der Mitteilung auf die andere Person einstellt.
8.3.4 Gemeinsame
Realitätskonstruktion Kommunikation findet zwischen Menschen statt, die jeder ein subjektives Modell der Situation und der anderen Person im Kopf haben. Solche mentalen Modelle sind Grundlage des Handelns. Da jede Person sich ihre eigene Realität konstruiert, kann kooperatives Handeln nur gelingen, wenn die verschiedenen mentalen Modelle der Einzelnen miteinander abgeglichen werden. Geschieht dies nicht, handelt u. U. jedes Teammitglied auf der Basis unter-
139 8.3 · Funktionen von Kommunikation
schiedlicher Annahmen über die Situation. Eine zentrale Funktion von Kommunikation ist es daher, ein gemeinsames Verständnis der Situation und der Probleme zu entwickeln (7 Kap. 7). Gemeinsame Realitätskonstruktion ist freilich nur möglich für die bewussten, explizierbaren Anteile des Wissens und der Annahmen über die Welt. Zudem gilt: Menschen bilden ihre mentalen Modelle aufgrund ihrer Erfahrungen mit der Welt; da das Muster der Erfahrungen für jeden Menschen einzigartig ist, kann es nie vollständige Übereinstimmung geben. Soweit aber Menschen ihr Wissen und ihre Annahmen über eine Situation teilen können, ist es möglich, eine gemeinsame Realitätskonstruktion zu erreichen, die Handeln in Bezug aufeinander ermöglicht. In der Human-Factors-Literatur wird dieses Phänomen gemeinsamer Bezugrahmen (»common ground«, Clark, 1996), gemeinsames Problemverständnis (»shared understanding«) oder geteiltes mentales Modell (»shared mental model«) genannt (7 Kap. 7 und 16; zu mentalen Modellen siehe z. B. Cannon-Bowers & Salas, 2001; Cannon-Bowers, Salas & Converse, 1993; Tschan & Semmer, 2000). Gemeinsame Realitätskonstruktion bedarf der verbalen Kommunikation. Vor dem Teilen steht das Mitteilen: Nur die Information, die in einer Situation mitgeteilt wird, trägt zum gemeinsamen Situationsbild bei (Leonard, Graham & Bonacum, 2004). Übereinstimmung der mentalen Modelle ist kein einmal zu erringendes Ergebnis, sondern ein fortwährender Prozess, da der Abgleich der Modelle regelmäßig erneuert werden muss, sobald sich die Situation ändert. Gemeinsame Realitätskonstruktion kann sich auf Grundlegendes beziehen, wie z. B. Weltanschauungen und Werte, auf überdauerndes Wissen, z. B. Fachwissen, oder auf eine konkrete Situation. Sie bildet damit eine Basis für die Interpretation von Informationen, für Planen und Entscheiden und für die Vorhersage von Entwicklungen. Der Begriff »gemeinsames mentales Modell« wird meist für Teams in einer konkreten Situation verwendet. Ein gemeinsames mentales Modell kann sich auf eine aktuelle Situation, ein Problem, verfügbare Ressourcen oder Personen (ihre Fähigkeiten, Aufgaben, Rollen) beziehen. Cannon-Bowers, Salas & Converse (1993) unterscheiden Aufgaben-, Interaktions- und Equipmentmodelle. Für erfolgreiche Zusammenarbeit sind gemeinsame Modelle in allen 3 Bereichen nötig.
8
Zur Konstruktion einer gemeinsamen Realität gehört auch die Definition der aktuellen Situation. Insbesondere in Ausnahmesituationen wie Krisen und Notfällen dient Kommunikation dazu, den Übergang von normal zu Ausnahme zu markieren, indem z. B. Probleme als solche benannt werden. Das Teilen von Realitätskonstruktionen ist eine theoretisch schwer zu fassende, praktisch höchst bedeutsame generelle Funktion von Kommunikation, im privaten wie im beruflichen Bereich. Die Entwicklung eines gemeinsamen Modells wird generell als zentraler Erfolgsfaktor für Gruppen angesehen (z. B. Sexton, 2004; Stout, Cannon-Bowers, Salas & Milanovich, 1999). Gelingt es auch in Stresssituationen, sich ausreichend mitzuteilen, verbessert sich die Koordination innerhalb der Gruppe und erhöht sich die Stressresistenz von Teams (Entin & Serfaty, 1999). Auf die Relevanz gemeinsamer Realitätskonstruktion für sicheres Handeln wird in 7 Kap. 8.6 genauer eingegangen.
8.3.5 Beziehungen schaffen Kommunikation erfüllt in Teams noch eine weitere, ständig mitlaufende Funktion: Sie schafft Beziehungen zwischen den Beteiligten und erhält sie aufrecht. Die oben genannten informationsbezogenen Funktionen von Kommunikation (Strukturierung, Koordination, Informationsaustausch) sind nicht ohne das In-Beziehung-Treten denkbar – das Schaffen gemeinsamer mentaler Modelle erst recht nicht. Das »Axiom« von Watzlawick »Man kann nicht nicht kommunizieren« (Watzlawick, Beavin & Jackson, 2007) bezieht sich auf diesen Aspekt der Interaktion: Jedes Verhalten in Anwesenheit anderer Personen kann von diesen als (gewollter) Teil der Interaktionskette und damit als Kommunikation interpretiert werden: Wenn der Vorarbeiter auf der Baustelle keinen Helm trägt, können Mitarbeiter das als Mitteilung interpretieren, dass Helmtragen nicht wichtig ist. Wie berufliche Beziehungen gestaltet sind, hängt im Wesentlichen von 3 Faktoren ab: 4 Welche formalen Berufsrollen und Funktionen bringen die Beteiligten mit? 4 Welches Verhalten zeigen sie? 4 Welche Erwartungen haben sie aneinander und an ihre Kommunikation?
140
8
Kapitel 8 · Kommunikation
Erwartungen prägen Interaktionen, die Erwartungen prägen. So ist der Chefarzt aus dem Fallbeispiel bei den Mitarbeitenden als »arrogant« bekannt. Die Leiterin des Vertrauensgremiums erwartet von ihm entsprechend arrogantes Verhalten. Antwortet er auf eine Anfrage nun schroff, bestätigt er die Erwartung und verstärkt so seinen Ruf. Es kann ein Teufelskreis aus Erwartung, Wahrnehmung, Bewertung und Reaktion entstehen. Würde ein Chefarzt, der als freundlich und kooperativ gilt, die gleiche schroffe Antwort erteilen, würde dieses Verhalten wohl mit »Er hat wohl einen schlechten Tag« oder »Das Thema muss ihn besonders aufregen« entschuldigt werden. Die Zusammenarbeit in Teams bringt häufig stabile und relativ unveränderbare Muster hervor, wie die Teammitglieder miteinander kommunizieren (Watzlawick, Beavin & Jackson, 2007). Solche Kommunikationsmuster bestehen aus gegenseitigen Erwartungen, Annahmen und Verhaltensgewohnheiten. Sie sind für viele Situationen funktional (sonst würden sie verändert werden), können aber auch Veränderungen und Entwicklungen blockieren. Zudem sind Menschen manchmal in dysfunktionalen Mustern gefangen, sodass z. B. konstruktive Kritik nicht mehr möglich ist. Aus dem Zusammenspiel verschiedener Personen kann – trotz guter Absichten bei allen Beteiligten – ein unproduktives und destruktives System entstehen. Ein typisches Denk- und Interpretationsmuster ist es, die Schuld für misslungene Kommunikation eher bei der anderen Person und nicht bei sich selbst zu suchen. Die Verhaltensweisen in einer Interaktion . Abb. 8.2. Funktionen der (beruflichen) Kommunikation
bilden jedoch ein System: Wenn 2 Personen unproduktiv miteinander arbeiten (und kommunizieren), liegt es nicht an schwierigen Personen (beispielsweise dem cholerischen Chirurgen oder der hysterischen Pflegekraft), sondern am schwierigen Kommunikationsmuster. Die hier genannten Funktionen von Kommunikation sind nicht unabhängig voneinander zu sehen. Erfolgreiche Kooperation braucht als Grundlage positive Beziehungen und wirkt zurück auf die Beziehungsqualität. Koordination bedarf der Informationsweitergabe, Informationen werden aber nur bei guten Beziehungen angemessen weitergegeben. Gemeinsame Realitätskonstruktion kann als integrierendes Konzept aufgefasst werden (vgl. auch 7 Kap. 7), als Bindeglied von Interaktion und Information. . Abb. 8.2 fasst die Funktionen von Kommunikation mit einigen ihrer Abhängigkeiten zusammen.
8.4
Störungen der Kommunikation
Kommunikationsprobleme sind im Kontext von Sicherheit als mögliche Unfallursachen relevant. Entsprechend der Bedeutungsvielfalt von Kommunikation können sich auch Probleme eher auf Information oder eher auf Interaktion beziehen. Aus der oben gezeigten Verwobenheit der beiden Aspekte wird klar, dass sich Interaktionsprobleme nicht »nur« emotional auswirken, sondern auch auf die Informationsweitergabe Einfluss haben. Störungen der Kommunikation können
141 8.4 · Störungen der Kommunikation
4 mit den Merkmalen der Information zusammenhängen, 4 in dem Empfangs- und Deutungsprozess liegen oder 4 auf die Beziehungsebene der beiden Gesprächspartner zurückzuführen sein. Im Folgenden werden beispielhaft einige häufig beobachtete Kommunikationsprobleme beschrieben.
8.4.1 Gestörte
Informationsübermittlung Enkodierung Kommunikationsprobleme bei diesem Prozessschritt bedeuten, dass jemand etwas sagen möchte, es aber nicht wie gewünscht sagt – hierzu gehören z. B. Versprecher. In der Luftfahrt haben diese Fehler große Bedeutung; es kommt immer wieder zu Zwischenfällen, weil eine Flugnummer oder Funkfrequenz falsch angesagt wurde (z. B. Zahlendreher wie 4-5 statt 5-4; Reinwarth, 2005). Wenn man sich selbst nicht genau zuhört, können diese Versprecher unentdeckt bleiben. Im interkulturellen Kontext kann ein Enkodierungsproblem sein, dass die Nebenbedeutungen (Konnotation) eines Wortes in einer Fremdsprache nicht bekannt sind und deshalb nicht das ausgedrückt wird, was eigentlich gesagt werden sollte. Aber auch in der eigenen Sprache kann die »Verpackung« einer Nachricht in Sprache so ausfallen, dass es dem Empfänger schwer gemacht wird, sie wie intendiert zu verstehen: Die Verwendung von vagen, mehrdeutigen und von der allgemein akzeptierten Fachsprache abweichenden Begriffen kann für Verwirrung sorgen.
Informationsübermittlung Relativ einfach zu erkennen und zu verstehen sind Störungen der Informationsübermittlung: Etwas, das gesagt wird, kommt beim Empfänger nicht oder nicht richtig an. Dies sind Kanalprobleme, aber auch Sende- und Empfangsprobleme. Ursachen können Umgebungsfaktoren wie Lärm (bzw. Licht bei schriftlicher Kommunikation) sein. Aber auch unklare Sprache (Nuscheln, starker Dialekt) kann Kommunikation erschweren; bei schriftlicher Kom-
8
munikation ist unleserliche Handschrift (oder ein unleserlicher Faxausdruck) ein Problem. Eine Fehlerquelle in der Übertragung ist die immer wieder gefundene starke Bevorzugung mündlicher Kommunikation seitens der Sender (z. B. Coiera & Tombs, 1998). Mündliche Kommunikation ist ungenauer, unterliegt Verzerrungen und unterbricht u. U. andere wichtige Arbeitsschritte. Bevorzugt wird verbale Kommunikation aufgrund höherer Glaubwürdigkeit, weil Bewertungen (nonverbal) mitgeliefert werden und weil Hören einfacher als Lesen ist. Zudem erhält man direkte Rückmeldung – das ist gut für den Sender, aber die durch die Unterbrechung der Tätigkeit hervorgerufene Ablenkung ist eine Fehlerquelle für den Empfänger. Zur Informationsübermittlung gehört ein Empfänger, der auch auf Empfang ist. Vergewissert sich der Sender nicht, dass ihm zugehört wird, ist es nicht verwunderlich, wenn die Botschaft nicht gehört wird. Aber auch der Empfänger ist verantwortlich: Genauso wichtig wie die präzise Sendung ist die sorgfältige Aufnahme einer Botschaft durch den Empfänger. Dazu muss man jedoch zuhören können und wollen – ein abgelenkter oder desinteressierter Empfänger wird einen Teil der Nachricht auf dem Weg vom Ohr zum Bewusstsein verlieren.
Dekodierung Dekodierungsprobleme treten z. B. auf, wenn der Empfänger sich verhört oder verliest, also eine Nachricht nicht so wahrnimmt, wie sie übermittelt wurde. Aber auch wenn der Empfänger Fachwörter nicht kennt, die der Sender verwendet, kann er die Nachricht nicht richtig dekodieren. Dieses Beispiel zeigt aber, dass Kommunikationsprobleme meist nicht eindeutig einem Prozessschritt zuzuordnen sind: Die Verwendung von dem Empfänger unbekannten Fachwörtern kann man auch als Enkodierungsproblem ansehen. Bei der Aufnahme von Nachrichten kann es auch zu motivational bedingten Verzerrungen kommen, z. B. durch die Tendenz, nur das zu hören, was man hören will (»confirmation bias«; 7 Kap. 3.), die bis zu einer vollständigen (unbewussten) Ausblendung von Informationen reichen kann: »Das hast du nie gesagt!«
142
Kapitel 8 · Kommunikation
8.4.2 Missverstehen
8
Auch wenn das, was gesagt wird, so gehört wird, wie es gesagt wurde, folgt daraus noch nicht, dass 2 Personen sich verstehen. Ob man verstanden wurde, kann man am ehesten an den Handlungen der anderen sehen: Reagiert jemand auf eine Nachricht hin mit einer anderen Handlung, als der Sender es gewollt hatte, liegt ein Missverständnis vor (oder der Empfänger handelt aufgrund einer anderen Motivlage). Missverstehen kommt unter vertrauten Alltagsbedingungen und bei Routinehandlungen selten vor, weil die Umgebung und der Sinnzusammenhang einer Handlung sowohl dem Sender als auch dem Empfänger gleichermaßen vertraut sind. Beide haben ein ausreichend ähnliches mentales Modell einer Situation. Hinreichend vertraute Personen wissen, welche Handlung ihr Gegenüber von ihnen erwartet, da sie selbst anstelle des Senders ähnlich handeln würden. Anders verhält es sich in Situationen, die für alle Beteiligten neuartig und unbestimmt sind, in denen also keine gemeinsamen, vertrauten Denkmuster existieren. Unter solchen Bedingungen häufen sich Missverständnisse, die verschiedene Ursachen haben können.
Sprachliche Mehrdeutigkeit Alltagssprache ist mehrdeutig. Was genau gemeint ist, erschließt sich häufig erst aus dem Kontext. Beispielsweise ist der Satz »Die Anzeige für den Druck ist die vor der Temperaturanzeige« mehrdeutig. »Vor« kann bedeuten »vor, also weiter weg vom Sprecher«, oder es kann bedeuten »von mir aus gesehen vor, also näher«. Im Kontext der Situation wird der Satz meist erschließbar, z. B. durch Gesten, wobei Fehler nicht ausgeschlossen sind. Geschieht diese Sinndeutung unter störenden Randbedingungen wie Lärm, Zeitdruck und Ablenkung, kann es geschehen, dass ein mehrdeutiger Satz unangemessen interpretiert wird. Die Mehrdeutigkeit und Reichhaltigkeit unserer Alltagssprache erlaubt die Bildung verschiedener Sprachstile, z. B. geschlechtsspezifisch oder spezifisch für Berufskulturen; diese können zu Missverständnissen führen.
Beispiel Pflegekräfte lernen in ihrer beruflichen Sozialisation, die Geschichte des Patienten zu erzählen. Ärzte lernen, kurz und knapp Fakten abzufragen. So zeigte sich in einer Studie von Cadogan, Franzi, Osterweil & Hill (1999), dass Ärzte eine exakte Beschreibung spezifischer Symptome erwarten, während Pflegende die Beschwerden aus der Sicht der Patienten beschrieben. Das führte dazu, dass die Pflegenden von den Ärzten als weniger kompetent wahrgenommen wurden und die Informationen, die sie beitrugen, für nicht so relevant gehalten wurden – eine Geringschätzung, die die Gesundheit und Patientensicherheit gefährden kann.
Verschiedene Botschaften auf Beziehungsund Sachebene Da jede Nachricht verschiedene Aspekte beinhaltet, ist Klarheit der Kommunikation eine mehrdimensionale Angelegenheit. Missverständnisse können entstehen, weil für den Hörer oder die Hörerin einer Botschaft ein anderer Aspekt im Vordergrund steht als für den Sender, wenn beispielsweise nicht klar ist, ob der positive Wortlaut oder der abwertende Tonfall gültig sind. Hier liegt das Missverständnis darin, welche Bedeutung welcher Anteil der Kommunikation hat. Wird z. B. ein Auftrag in einem beiläufigen Tonfall erteilt, kann es zu einem Missverständnis bezüglich der Dringlichkeit kommen. Selbst wenn »schnell« gesagt wird, kann beim Empfänger »dann mal« ankommen, wenn Tonfall und Gestik dies nahelegen.
Verschiedene mentale Modelle Eine komplexere Stufe des Missverstehens liegt vor, wenn eigene mentale Modelle und die darauf aufbauenden Handlungspläne stark von denen der anderen Teammitglieder abweichen und man fälschlicherweise davon ausgeht, dass alle Beteiligten die gleiche Situationseinschätzung haben. Missverstehen wird begünstigt, wenn Teammitglieder ihre Beobachtungen, Bewertungen und Erwartungen bezüglich des weiteren Verlaufs nicht mitteilen. Damit ist für das einzelne Teammitglied nicht offensichtlich, welches Gesamtbild und welchen Erwartungshorizont die anderen Teammitglieder haben. Je un-
143 8.4 · Störungen der Kommunikation
abhängiger eigene Handlungspläne von verbalen Rückkopplungen mit anderen Personen werden, umso größer ist die Gefahr des Missverstehens. Ein Team ist dann nicht mehr »im selben Boot«. Informationen und Anweisungen werden dann zunehmend durch unpassende Handlungen beantwortet, und die Handlungen der Teammitglieder können auseinanderlaufen.
8.4.3 Störungen der Interaktion Erwartungen Wenn Menschen häufig miteinander zu tun haben, haben sie klare Annahmen über die Person und Erwartungen über das Verhalten der jeweils anderen Person. Treffen 2 Menschen das erste Mal aufeinander, ordnen sie die wahrgenommenen Verhaltensweisen in ein Personenmodell ein und bilden daraus Verhaltenserwartungen für die nachfolgen-
8
den Begegnungen. Daher ist der erste Eindruck (ob negativ oder positiv) so wichtig für die folgende Kommunikation: Hier wird ein Modell des Gegenübers gebildet mit der Konsequenz, dass sich diese Personen von nun an voreingenommen begegnen werden. Aus Verhaltensbeobachtung, Einordnung in ein Modell und Erwartungen entsteht eine positive Rückkoppelung: Aus Erfahrungen folgt die Einordnung und daraus die Ableitung von Erwartungen. Erwartungen leiten die Wahrnehmung und diese wiederum die Reaktion auf die andere Person. Menschen hinterfragen selten kritisch die eigenen Verhaltenserwartungen, sondern schreiben Schwierigkeiten in der Kommunikation den Eigenschaften der anderen Person zu. Vor dem Hintergrund dieser modell- oder erfahrungsbasierten Erwartungshaltung werden Störungen der Kommunikation im Sinne dysfunktionaler Interaktionen verständlich.
Beispiel Ein Beispiel hierfür ist komplementäre Eskalation: Ein solches Kommunikationsmuster beruht auf einander ergänzenden Unterschiedlichkeiten der Partner. Die besondere Qualität dieser Beziehungen besteht jedoch darin, dass beide Partner für das Verhalten des Gegenübers jeweils die auslösende Bedingung herstellen. Die von einem Ingenieur wahrgenommene »Unselbstständigkeit« eines Praktikanten »zwingt« den Ingenieur zu engmaschigen Arbeitsanweisungen und Kontrol-
Vermischung von Beziehungsbotschaft und Sachinhalt Kommunikation wird als gestört wahrgenommen, wenn Beziehungs- und Inhaltsebene miteinander vermischt werden. Beziehungsbotschaften können dabei immer wieder wie »Stecknadeln von unten« in der scheinbar sachorientierten Rede vorkommen. Beiträge in der Art der »Stecknadeln« können prinzipiell von allen Beteiligten, auch den vermeintlich statusniedrigen Personen im Team, angebracht werden (Schulz von Thun, 1981). Solche Nadelstiche treten bevorzugt auf, wenn 4 persönliche Antipathie zwischen Menschen besteht,
len, obwohl der Ingenieur diese Verhaltensweisen nicht gerne einsetzt. Je kontrollierender er sich verhält, desto mehr wird der Praktikant sich auf ausführende Tätigkeiten beschränken und so noch unselbstständiger wirken. Das Verhalten beider Personen wird stärker durch die Interaktion bestimmt und damit auch durch unreflektierte Erwartungen und Annahmen übereinander als durch Personeigenschaften.
4 ein Klima geringer Wertschätzung vorherrscht, 4 persönliche Vorlieben und Gewohnheiten durchgesetzt werden sollen, 4 Intoleranz gegenüber Fehlern verbreitet ist oder 4 Machtkämpfe um den sozialen Status ausgetragen werden. Beziehungsbotschaften, die in Sachaussagen versteckt sind, erzeugen Verwirrung und können ein Team destabilisieren. Es ist schwer, sie offen anzusprechen (da ja »nichts« gesagt wurde) und konstruktiv zu diskutieren.
144
Kapitel 8 · Kommunikation
8.4.4 Kommunikation über
Hierarchiegrenzen hinweg
8
Kommunikation über Hierarchiegrenzen hinweg bedeutet besondere Schwierigkeiten, auch wenn die Beziehung der Beteiligten gut ist: Zusätzlich zu emotionalen und motivationalen Barrieren gibt es eine Tendenz zu Informationsselektion in beide Richtungen (Badke-Schaub, 2005). So werden z. B. Informationen von hierarchieniedrigeren zu hierarchiehöheren Stellen nicht vollständig weitergegeben. Dies kann der Entlastung der Führungsperson dienen, aber es werden auch Informationen absichtlich weggelassen oder verändert, um selbst besser dazustehen. Zudem werden Nachrichten oft so formuliert, wie man glaubt, dass die Führungsperson sie hören möchte. Dies kann dazu führen, dass Führungspersonen von Problemen in ihrem Bereich erst erfahren, wenn sie zu massiv sind, um sie selbst zu lösen. Problematisch sind hierarchische Strukturen auch für die Teamatmosphäre. Dass alle Teammitglieder Informationen zu einem gemeinsamen mentalen Modell beitragen und auch Sicherheitsbedenken äußern können, ist in hierarchischen Strukturen nur schwer zu erreichen. Verzerrungen der Kommunikation über Hierarchien hinweg sind u. a. deshalb so schwer zu beheben, weil sie häufig von Hierarchiehöheren nicht wahrgenommen und von Hierarchieniedrigeren nicht mitgeteilt werden. Studien (z. B. Reader, Flin, Mearns & Cuthbertson, 2007) zeigen, dass die Kommunikation umso besser eingeschätzt wird, je weiter oben der Befragte in der Hierarchie steht. Konkret heißt das, Führungspersonen halten die Kommunikation für offen, genau, ehrlich etc.; Mitarbeiter schätzen dies jedoch z. T. ganz anders ein.
8.5
Kommunikation in kritischen Situationen
Die bisher genannten Kommunikationsprobleme können in jeder Art von Interaktion auftreten. In kritischen Situationen, v. a. unter Zeitdruck und bei hohem Entscheidungsdruck, also unter Stress, wird Kommunikation zusätzlich erschwert: Unter Stress treten allgemeine Einschränkungen des Denkens und der Veränderungen der Emotion und Motivati-
on auf (7 Kap. 6), die sich auf die Kommunikation auswirken. Beobachtbar ist in kritischen Situationen eine generelle Reduktion der Kommunikation, die Tendenz zu schweigen anstatt mehr explizit zu kommunizieren, obwohl kritische Situationen fast immer mehr Austausch erfordern würde. Auch das Kommunikationsverhalten von Führungspersonen kann sich unter Stress dahingehend verändern, dass sie »mehr sagen und weniger fragen«. Beide Tendenzen sind der Aufrechterhaltung gemeinsamer mentaler Modelle und der Koordination nicht förderlich. Wenn Zeitdruck herrscht, muss nicht nur ausreichend kommuniziert werden, auch Klarheit und Eindeutigkeit der Sprache werden noch wichtiger als sonst. Deshalb werden in Organisationen Kommunikationsstandards für zeitkritische Situationen festgelegt. Unter Stress greifen Menschen auf die am meisten vertrauten Handlungsweisen, also auch auf Kommunikationsformen zurück – das bedeutet, dass effektive Kommunikationsmuster, die in kritischen Situation eingesetzt werden sollen, in Routinesituationen eingeübt werden müssen. Beispiel Im Eingangsbeispiel trat eine Seitenverwechslung auf, bei der ein beitragender Faktor war, dass eine Pflegekraft und ein Assistenzarzt ihre Zweifel nicht äußerten. In der entsprechenden Abteilung war es nicht üblich, Hierarchiehöhere auf Fehler hinzuweisen. In der angespannten Situation vor der Operation (und wenn man sich zudem nicht vollkommen sicher ist) wird kaum jemand zum ersten Mal dem Chef widersprechen.
Typische Kommunikationsfehler in kritischen Situationen sind z. B. zu wenig oder zu viel Information und Sprechen mit unklarem Adressaten (Cushing, 1994; Ungerer, 2004):
Informationsmangel und Überlastung mit Informationen In Stresssituationen wird generell eher zu wenig als zu viel gesprochen. Typischerweise werden weniger Erklärungen gegeben, Hintergrundinformationen weggelassen, geschlossene Fragen gestellt und EinWort-Antworten gegeben. Wichtig wäre trotz Stress
145 8.6 · Kommunikation als Sicherheitsressource
und Zeitdruck, die eigenen Intentionen und die Ziele von Maßnahmen zu benennen, um die Aufrechterhaltung eines gemeinsamen mentalen Modells zu ermöglichen. Andererseits wird das, was gesagt wird, häufig mit Information überfrachtet, vor allem, wenn es um Anweisungen geht. Zu hohe Informationsdichte zeigt sich u. a. durch (Ungerer, 2004): 4 Dichte Folge von Anweisungen für Handlungen, die voneinander unabhängig sind 4 Kurze Pausen zwischen Sätzen (<2 s) 4 Lange Listen mit Zahlen- und oder Dosierungsanweisungen 4 Mehrere Fragen in einer Frage Ein solches Kommunikationsmuster erhöht den Druck für alle Teammitglieder und provoziert geradezu Fehler: Das Arbeitsgedächtnis wird überlastet (v. a. wenn jemand bereits stark aktiviert ist), und so werden Informationen nicht vollständig verarbeitet oder behalten. So werden z. B. 5 in einem Satz gegebene Anweisungen mit großer Sicherheit nicht alle ausgeführt.
Unklarer Adressat Gerade in kritischen Situationen sollte klar sein, wer gemeint ist. Fragen und Anordnungen ohne klaren Adressaten (»könnte jemand ...«, »hat irgendeiner ...«, »ich würde gerne ...«, »wir sollten noch«), erzeugen keine Übernahme von Verantwortung: Es ist niemand direkt angesprochen, also muss sich auch niemand verantwortlich fühlen. Die Prüfung, ob man selbst mit einer unklaren Formulierung gemeint war, ist bei hoher Arbeitsbelastung meist zu aufwendig und wird daher eher unterlassen: Man ist froh, wenn man nicht noch mehr zu tun bekommt oder durch einen schwierigen Arbeitsauftrag überfordert wird. Dadurch entsteht Verantwortungsdiffusion.
8.6
Kommunikation als Sicherheitsressource
8.6.1 Was ist »gute« Kommunikation? Dass Kommunikationsprobleme Sicherheit beeinträchtigen, ist unbestritten. Im Umkehrschluss sollte »gute« Kommunikation helfen, Fehler zu vermeiden
Informationsüberflutung
8
und Sicherheit zu erhöhen. Jedoch ist nicht immer genau zu sagen, was »gute« Kommunikation ist – einige Kommunikationsformen, die in der einen Situation gut sind (z. B. eine ausführliche Diskussion über Ziele bei einer Konstruktionsaufgabe), können in einer anderen unangemessen sein (z. B. eine ausführliche Diskussion über Ziele während der Brandbekämpfung). Je nach Aufgabe, Zielen, Arbeitskontext und beteiligten Personen bedeutet gute Kommunikation etwas anderes. Dennoch kann generell festgehalten werden: ! Gelingende Kommunikation bedeutet im Wesentlichen, Informationen ohne Verluste intentions- und situationsgerecht zu übermitteln und adäquat zu interpretieren (Informationskomponente) und dabei vertrauensvoll, respektvoll und offen in Beziehung zueinander zu stehen (Interaktionskomponente).
Im Folgenden werden einige Werkzeuge benannt, die dies ermöglichen.
8.6.2 Das Bindeglied Verstehen Was ist das Bindeglied zwischen den beiden Komponenten, das gute Beziehung und funktionierenden Informationstransfer zu gelingender Kommunikation macht? Zentral ist, dass nicht nur offen und vertrauensvoll miteinander kommuniziert wird, sondern dass sich die Kommunikationspartner auch verstehen (in den Grenzen, die dem Verstehen prinzipiell gesetzt sind). In 7 Kap. 8.3.4 wurde dieses Phänomen als gemeinsame Realitätskonstruktion besprochen (7 Kap. 7). Verstehen ist kein einmal zu erringendes Ergebnis, sondern ein fortwährender Prozess. Zentral für das Verstehen ist die explizite Mitteilung von und das Fragen nach Intentionen und Prognosen. Damit auch neue Teammitglieder in das gemeinsame Verständnis einbezogen werden können, ist es wichtig, Kommunikationsformen zu etablieren, die dies unterstützen, z. B. Teambesprechungen, Briefings etc. Hilfreich ist es, auf eine Balance von Aussagen und Fragen (»advocacy and inquiry«, Argyris & Schön, 1996) zu achten, weil so sichergestellt wird, dass alle zum Gesamtbild beitragen.
146
Kapitel 8 · Kommunikation
! Wichtig ist, dass alle Teammitglieder wissen, welche ihrer Informationen für andere wichtig sind, dass geplante Handlungen angekündigt werden und dass bei Unklarheiten nachgefragt wird, was gemeint war. Je größer die Genauigkeit und Übereinstimmung der geteilten mentalen Modelle, desto besser gelingt Koordination auch unter stressigen Bedingungen (Entin & Serfaty, 1999; Stout, Cannon-Bowers, Salas & Milanovich, 1999).
8.6.3 Informationstransfer sichern
8
Wenn man etwas sagen will, muss man dafür sorgen, dass es auch übertragen wird und »ankommt«. Zuvor allerdings muss man etwas sagen wollen – und das ist nicht selbstverständlich: Gemäß einer Analyse von 28.000 Zwischenfällen von Piloten und Fluglotsen (aus dem Meldesystem der NASA) ist ein Hauptproblem, dass Informationen nicht weitergegeben werden, weil man denkt, die Informationen seien für die anderen im Team nicht wichtig (Billings & Cheaney, 1981). Informationstransfer beginnt demnach mit der Auswahl der zu übermittelnden Information. Die erste Aufgabe bei der Sicherung des Informationstransfers heißt: »Übermittle Information, die für die anderen wichtig sein könnte (ohne sie mit Nebensächlichem zu überschütten)« – eine Aufgabe, die nur auf der Basis eines geteilten Modells über die Arbeitsaufgaben aller Teammitglieder zu leisten ist.
Informationstransfer sichern I: Kanalprobleme vermeiden Gerade in kritischen Situationen, unter Stress und Zeitdruck, ist es wichtig, Kanal- und Mediumprobleme zu vermeiden: laut genug und deutlich sprechen, Adressaten benennen und klären, ob der Empfänger jetzt gerade zuhören kann (z. B. durch Blickkontakt). Informationen sollten strukturiert und mit wenigen Items je Satz vorgebracht werden. Insbesondere sollten nicht mehrere Anweisungen in einer Nachricht aufeinander folgen.
Informationstransfer sichern II: Missverständnisse vermeiden, eindeutig sprechen Alltagssprache ist mehrdeutig, unpräzise und gerade deshalb lebendig und kreativ. Für sicheres Handeln ist diese Uneindeutigkeit nur selten förderlich, etwa bei der Suche nach neuen Problemlösungen (also bei kreativen Prozessen). Meist ist Präzision nötig, vor allem, wenn das Handeln vieler Beteiligter mit unterschiedlichem Hintergrund schnell koordiniert werden soll oder wenn ein Missverständnis gravierende Folgen haben kann. Um Missverständnisse zu vermeiden, kann der Sender für Eindeutigkeit auf der Sachebene sorgen. Eine von allen Teammitgliedern geteilte »Phraseologie«, d. h. eine standardisierte Sprache für bestimmte Situationen (s. nächstes Beispiel), ist dafür hilfreich (Reinwarth, 2005). Beispiel Ein Beispiel für Phraseologie in der Luftfahrt ist die Ankündigung eines Notfalls, indem vor den jeweiligen Funkspruch »mayday, mayday« gesetzt wird. Auf dieses Signal hin stehen den Piloten alle nötigen Ressourcen zur Verfügung, die für ein »normales Problem« nicht unbedingt freigestellt werden. In einem Krankenhaus sollte festgelegt sein, wie sofortige Hilfe angefordert wird und wann man sich noch ein wenig Zeit lassen kann (»Frau Doktor, wir brauchen Sie mal in Zimmer 16« ist uneindeutig).
Darüber hinaus kann man versuchen, kongruent zu kommunizieren. Das bedeutet, die Aussage der gesprochenen Sprache und die nonverbalen Begleitinformationen stimmen überein. Inkongruente Kommunikation ist eine »Einladung« an die Zuhörenden, die Interpretation zu wählen, die ihren eigenen Motiven und Emotionen entspricht. Kongruente Kommunikation erhöht die Glaubwürdigkeit des Sprechers oder der Sprecherin und hilft Missverständnisse zu vermeiden. Sie ist allerdings nicht leicht zu erreichen, da die Körpersprache viel weniger der bewussten Kontrolle unterliegt als die gesprochene Sprache und durch Emotionen und Motivationen beeinflusst wird (z. B. Kompetenzverlust, 7 Kap. 6).
147 8.6 · Kommunikation als Sicherheitsressource
Informationstransfer sichern III: Kommunikationsschleifen schließen, Redundanz schaffen Weil Gesagtes nicht gleich Gehörtes und Gehörtes nicht gleich Verstandenes ist, sollten in definierten Situationen Kommunikationsschleifen geschlossen werden: Der Hörer wiederholt, was der Sprecher mitgeteilt hat (z. B. Anweisungen, Zahlen, Ortsangaben). Mit diesem Zurücklesen (»readback«, z. B. Cushing, 1994) kann der Sprecher kontrollieren, ob der Hörer verstanden hat, was er oder sie sagen wollte; Fehler durch Versprechen und durch Verhören werden so vermieden. Bei besonders kritischen Informationen kann sich noch ein »hearback« anschließen, in dem der ursprüngliche Sprecher bestätigt, das »readback« erhalten zu haben. Auch das Melden einer Aufgabenerfüllung dient dem Schließen der Kommunikationsschleife. Beide Kommunikationsformen sind bei der Einführung zunächst ungewohnt (z. B. Zurück-
8
lesen von Dosierungen im Krankenhaus), fühlen sich vielleicht sogar albern an. Hat man sich aber daran gewöhnt, sind sie ein ebenso einfaches wie wirkungsvolles Mittel, Fehler zu vermeiden. Zurücklesen ist eine Methode, Redundanz zu schaffen. Generell gilt: Redundante Kommunikation, das Doppeln wichtiger Information und auch der technischen Kommunikationsmittel sichert die Informationsübertragung.
Informationstransfer sichern IV: Standardisierte Kommunikation Standardisierung von Kommunikation ist ein Mittel in Organisationen, um Komplexität zu reduzieren und so Sicherheit zu erhöhen (7 Kap. 17). Standardisierung geht über die oben erwähnte Phraseologie hinaus, denn es wird nicht nur festgelegt, wie etwas sprachlich ausgedrückt wird, sondern auch, wer wann wie mit wem spricht:
Standardisierte Kommunikation Standardisierte Kommunikation soll den Informationstransfer durch Einheitlichkeit und Eindeutigkeit sichern. Sie setzt geteilte Codes (Zeichenvorräte) und gemeinsames Wissen über den Standard voraus sowie eindeutige Intentionen. Standardisierung beschränkt die menschliche Ausdrucksfähigkeit in definierten Situationen, um Interpretationsprobleme zu minimieren. Standards beziehen sich auf: 4 Teilnehmer der Kommunikation (z. B. wer eine Checkliste im Cockpit vorliest)
Sinnvoll eingesetzte Standards sichern die Informationsweitergabe und erleichtern ein gemeinsames Problemverständnis. Standards für Kommunikation haben aber auch Nachteile: 4 Durch die Verwendung gleicher Sprache entsteht eine Illusion über geteilte Ziele und geteiltes Wissen; es wird evtl. nur scheinbar ein geteiltes mentales Modell entwickelt.
4 Anlässe und Zeitpunkte (z. B. Vorbesprechung vor einer Operation, »debriefing« in der Luftfahrt) 4 Medien/Kanäle (z. B. nonverbale Signale bei Tauchern, Schriftlichkeit von Anweisungen) 4 Verwendete Codes/Zeichen, Art des Sprechens (z. B. Phraseologie der Luftfahrt; Sprechvorschriften im Funkverkehr, internationales Alphabet für das Buchstabieren) 4 Inhalte (z. B. Notrufmeldung, Readbackverfahren)
4 Standardisierung kann durch Einschränkung der Handlungsfreiheit zu Motivationsverlust führen. 4 Die Ausdrucksfähigkeit wird eingeschränkt (z. B. wenn Piloten auch intern englisch reden sollen). 4 Lernen im Team kann behindert werden, wenn kaum freie Kommunikation möglich ist.
148
Kapitel 8 · Kommunikation
8.6.4 Interaktionen gestalten:
Wertschätzung, Beharrlichkeit und Konsultation Vom Nutzen wertschätzender Kommunikation
8
Eine offene, vertrauensvolle Arbeitsatmosphäre ist wichtig für sicheres Handeln: Nur in einer offenen Atmosphäre ist Kritikbereitschaft und das Ansprechen von unklaren Punkten zu erwarten. Vertrauensvolle Atmosphäre ist nicht nur ein Kommunikationsthema, doch es gibt einige einfache Kommunikationsregeln, die helfen können, sie zu entwickeln und aufrechtzuerhalten: 4 Respektvoll und höflich miteinander sprechen 4 Teammitglieder beim Namen kennen und nennen 4 Lob aussprechen, sich bedanken 4 Um Feedback bitten; bitten, auf Fehler hingewiesen zu werden 4 Fair kritisieren 4 Nicht über Personen sprechen, sondern mit ihnen 4 Aktiv zuhören
Beharrlichkeit: Seine Positionen vertreten Für eine effektive Teamarbeit ist es wichtig, dass die Absichten und Handlungen jedes Teammitglieds, auch die von erfahrenen Kollegen und Führungspersonen, hinterfragt werden können. Eine eigene Position muss solange bestimmt und nachdrücklich vertreten werden können, bis Bedenken und Zweifel bezüglich der Richtigkeit einer Handlung von Teammitgliedern ausgeräumt wurden. Ziel dieser Bestimmtheit (»assertiveness«) ist nicht, sich selbst durchzusetzen, sondern durch Klären von Positionen mögliche Fehler zu vermeiden (Jentsch & Smith-Jentsch, 2001; Lorr & More, 1980). Gerade Berufsanfänger stehen gelegentlich in dem Dilemma, dass insistierendes Nachfragen als unerwünschte Störung, als Zeichen der Inkompetenz oder als Übervorsichtigkeit angesehen wird. Dies hat nicht selten zur Folge, dass der Gefragte beginnt, auf der Beziehungsebene herabsetzende Botschaften zu senden. Das kann zu gefährlichen Situationen beitragen, weil einerseits notwendige Informationen vorenthalten werden und andererseits
eine spannungsgeladene Atmosphäre entsteht. (Nicht nur) Berufsanfänger neigen in solchen Situationen häufig dazu, sich um des Friedens willen mit unvollständiger Information zufriedenzugeben und allein klarzukommen. Deshalb lautet eine der goldenen Regeln für Kommunikation im Team (aus dem Projekt »Group Interaction in High Risk Environments«, z. B. Sexton, 2004): »For juniors, better to be blatant than to imply.« Das funktioniert aber nur, wenn diese Haltung in der Organisation unterstützt wird und auch von Hierarchiehöheren nachdrücklich eingefordert wird.
Konsultation, Fragen und »Debriefing« Nicht nur, wenn Zweifel bestehen, sollte man nachfragen. Eine Frage- und Konsultationskultur ist Aufgabe aller Teammitglieder. Gemeint ist damit einerseits, aktiv Informationen einzuholen – gerade auch von schweigsamen Teammitgliedern und gerade auch Informationen, die den eigenen Plänen widersprechen. Andererseits gehört dazu die Fähigkeit, Feedback zu eigenen Ideen und Plänen zu erbitten. Pullwitt (2008) zeigt bei der Analyse von Sicherheitsgesprächen die Wichtigkeit offener Fragen und gemeinsamer Beratung im Sinne von »was wäre, wenn«. Eine Form des gemeinsamen Beratens, die dem Lernen der Einzelnen und des Teams dient, ist die Nachbesprechung (»debriefing«). In einigen Branchen (z. B. Luftfahrt) und v. a. bei Trainings am Simulator ist es bereits ein Kommunikationsstandard, nach einer Arbeitsaufgabe oder einer Trainingseinheit gemeinsam zu reflektieren (s. dazu z. B. Dismukes & Smith, 2000; Mort & Donahue, 2004). »Debriefings« sind ein wertvolles Lerntool. Sie können jedoch nur erfolgreich sein, wenn sie eingebettet sind in eine Organisationskultur, die Lernen fördert und Erfahrung wertschätzt. . Abb. 8.3 veranschaulicht die Möglichkeiten, Kommunikation als Ressource für sicheres Handeln in den Bereichen Interaktion und Informationsweitergabe zu stärken. Die Trennung der Bereiche dient nur der Anschaulichkeit: Klarheit der Information hängt natürlich auch von der Qualität der Beziehung ab; assertive (bestimmt auftretende) Teammitglieder fragen nach und sorgen für Wissen etc.
149 8.7 · Zusammenfassung und Ausblick
8
. Abb. 8.3. Kommunikation als Ressource für sicheres Handeln stärken
8.7
Zusammenfassung und Ausblick
Kommunikation ist ein zentraler Human Factor, als Unfallursache wie als Sicherheitsressource. Kommunikation umfasst Interaktion und Informationsweitergabe: Immer, wenn Menschen kommunizieren, gehen sie Beziehungen zueinander ein. Kommunikationsprozesse sind eingebettet in Team, Organisation und Aufgabe und abhängig vom situationalen Kontext. Kommunikation ist kein Selbstzweck, sie erfüllt in Teams die Funktionen Strukturierung, Koordination, Informationsverteilung, Schaffen von Beziehungen sowie gemeinsame Realitätskonstruktion. Kommunikationstheorien betonen je nach Ausrichtung den Aspekt der Informationsübermittlung und untersuchen Störungen des Sendens, Übertragens und Empfangens, oder sie fokussieren den Interaktionsaspekt und untersuchen Störungen der Beziehungen. Berufliche Kommunikation ist meist verbal. Aber auch nonverbale und paraverbale Anteile der Kommunikation spielen eine große Rolle, vor allem für die Interaktionsebene (wobei ihr Anteil an der Weitergabe sicherheitsrelevanter Information noch nicht hinreichend untersucht ist). Kommunikation kann zur Sicherheitsressource werden, wenn die Informationsübermittlung sichergestellt wird und wenn Beziehungen vertrauensvoll, respektvoll und offen gestaltet werden. Ein zentrales
Werkzeug der Verständigung ist die Bildung und Aufrechterhaltung gemeinsamer mentaler Modelle. Aktuelle Themen der Kommunikationsforschung sind die Messung guter Kommunikation, die Entwicklung von (Team-)Trainings sowie die Veränderung von Organisationskulturen. Hierfür sind Analysen verschiedener komplexer Arbeitsfelder nötig, um bestimmen zu können, welche Kommunikationsformen in welcher Situation angemessen sind. Solche Analysen werden bislang selten durchgeführt, u. a. weil sie Vor-Ort-Beobachtungen erfordern und nicht als Laborstudien durchführbar sind. Aktuell werden z. B. in der Luftfahrt und in der Medizin Messinstrumente für Kommunikation entwickelt, sog. Verhaltensmarker (»behavioural markers«, z. B. Fletcher, Flin, McGeorge, Glavin, Maran & Patey, 2004; Yule, Flin, Paterson-Brown & Maran, 2006), um Kommunikation beobachtbar und bewertbar zu machen. Diese Ansätze sind stark teambezogen. Herausforderungen für die Zukunft liegen in der Integration von Organisationstheorien und aktuellen konstruktivistischen und organisationalen Kommunikationstheorien mit den verhaltensorientierten Ansätzen zur Erfassung und Verbesserung von Kommunikation in Organisationen. Auf der praktischen Ebene liegt die Herausforderung darin, das Wissen über Möglichkeiten gelingender Kommunikation umzusetzen.
8
150
Kapitel 8 · Kommunikation
8.8
Literatur
Argyris, C. & Schön, D. (1996). Organizational learning II: Theory, method and practice. Reading, Mass: Addison Wesley. Badke-Schaub, P. (2005). Kommunikation in kritischen Situationen. In G. Hofinger (Hrsg.), Kommunikation in kritischen Situationen (S. 3–25). Frankfurt a. M.: Verlag für Polizeiwissenschaft. Bateson, G. (1985). Ökologie des Geistes. Anthropologische, psychologische, biologische und epistemologische Perspektiven. Frankfurt a. M.: Suhrkamp. Billings, C. & Cheaney, E. (1981). The information transfer problem: summary and comments. Information transfer problems in the aviation system. California: NASA. Blumer, H. (1969). Symbolic Interactionism: Perspective and method. Berkeley: University of California Press. Bühler, K. (1934). Sprachtheorie: Die Darstellungsform der Sprache. Jena: Fischer. Cadogan, M. P., Franzi, C., Osterweil, D. & Hill, T. (1999). Barriers to effective communication in skilled nursing facilities: Differences in perception between nurses and physicians. Journal of the American Geriatric Society, 47 (1), 71–75. Cannon-Bowers, J. A. & Salas, E. (2001). Reflections on shared cognition. Journal of Organizational Behavior, 22, 195–202. Cannon-Bowers, J. A., Salas, E. & Converse, S. (1993). Shared mental models in expert team decision making. In N. Castellan (Ed.), Individual and group decision making (pp. 221– 246). Hillsdale: Lawrence Erlbaum. Clark, H. H. (1996). Using language. Cambridge: Cambridge University Press. Coiera, E. & Tombs, V. (1998). Communication behaviors in a hospital setting: an observational study. British Medical Journal, 316, 673–676. Cushing, S. (1994). Fatal words: Communication clashes and aircraft crashes. Chicago: University of Chicago Press. Dismukes, K. R. & Smith, G. M. (Eds.) (2000). Facilitation and debriefing in aviation training and operations. Aldershot: Ashgate. Entin, E. & Serfaty, D. (1999). Adaptive team coordination. Human Factors, 41 (2), 312–325. Faßler, M. (1997). Was ist Kommunikation? München: Fink. Fletcher, G., Flin, R., McGeorge, P., Glavin, R., Maran, N. & Patey, R. (2004). Rating non-technical skills: developing a behavioural marker system for use in anaesthesia. Cognition, Technology, and Work, 6, 165–171. Frey, D. (1984). Die nonverbale Kommunikation. Stuttgart. Frindte, W. (2001). Einführung in die Kommunikationspsychologie. Weinheim: Beltz. Garrot, S. & Anderson, A. (1987). Saying what you mean in dialogue: A study in conceptual and semantic co-ordination. Cognition, 27, 181–218. Gieseke, M. (2004). Nonverbale Kommunikation. Methoden der kommunikativen Sozialforschung. Online-Dokument, verfügbar unter: http://www.michael-giesecke.de/giesecke/ menue/index_h.html [Zugriff am 12.01.2008]. Habermas, J. (1981). Theorie des kommunikativen Handelns. Frankfurt a. M.: Suhrkamp.
Heath, R. & Bryant, J. (1992). Human communication theory and research. Concepts, contexts & challenges. Hillsdale, NJ: LEA. Hofinger, G. (Hrsg.) (2005). Kommunikation in kritischen Situationen. Herausgegeben im Auftrag der »Plattform Menschen in komplexen Arbeitswelten« e. V. Frankfurt a. M.: Verlag für Polizeiwissenschaft. Jentsch, F. & Smith-Jentsch, K. A. (2001). Assertiveness and Team Performance: More Than »Just Say No«. In E. Salas & C. A. Bowers (Eds.), Improving teamwork in organisation. Applications of resource management training (pp. 73–94). New Jersey: Lawrence Erlbaum. Köck, W. (1990). Kognition – Semantik – Kommunikation. In S. J. Schmidt (Hrsg.), Der Diskurs des radikalen Konstruktivismus (S. 340–373). Frankfurt a. M.: Suhrkamp. Lasswell, H. D. (1948). The structure and function of communication. In L. Bryson (Hrsg.), The communication of ideas. A series of addresses (S. 37–51). New York: Harper. Leonard, M., Graham, S. & Bonacum, D. (2004). The human factor: the critical importance of effective teamwork and communication in providing safe care. Quality and Safety in Health Care, 13 Suppl 1, i85–i90. Lorr, M. & More, W. (1980). Four dimensions of assertiveness. Multivariate Behavioural Research, 14, 127–138. Luhmann, N. (1981). Die Unwahrscheinlichkeit der Kommunikation. In N. Luhmann (Hrsg.), Soziologische Aufklärung (S. 25–34). Opladen: Westdeutscher Verlag. Luhmann, N. (1984). Soziale Systeme. Frankfurt a. M.: Suhrkamp. Maturana, H. & Varela, F. (1987). Der Baum der Erkenntnis. Bern u. a.: Scherz. Mead, G. (1968). Geist, Identität und Gesellschaft. Frankfurt a. M.: Suhrkamp. Mort, T. C. & Donahue, S. (2004). Debriefing: The Basics. In W. F. Dunn (Ed.), Simulators in critical care and beyond (pp. 76– 83). Des Plaines: Society of Critical Care Medicine. Pullwitt, T. (2008). Safety Interventions – A Status challenge for managers and supervisors,SPE International Conference on Health, Safety, and Environment in Oil and Gas Exploration and Production. Nice, France: SPE. Reader, T., Flin, R., Mearns, K. & Cuthbertson, B. H. (2007). Interdisciplinary communication in the intensive care unit. British Journal of Anaesthesia, 98 (3), 347–352. Reinwarth, R. (2005). Kommunikation in der Krise – Kommunikationsfallen in der Luftfahrt. In G. Hofinger (Hrsg.), Kommunikation in kritischen Situationen (S. 141–160). Frankfurt a. M.: Verlag für Polizeiwissenschaft. Salas, E., Nichols, D. & Driskell, J. (2007). Testing three team training strategies in intact teams. A meta-analysis. Small Group Research, 38 (4), 471–488 Scherer, K. & Walbott, H. G. (1984). Nonverbale Kommunikation. Empirische Untersuchungen zum Interaktionsverhalten (Beltz Studienbücher). Weinheim/Basel: Beltz. Schoeneborn, D. (2007). Organizations as communications. Examining the value of Luhmann’s social systems theory for organizational communication research. Paper presented at the Annual Meeting of the International Communication Association, Sheraton New York.
151 8.8 · Literatur
Schulz von Thun, F. (1981). Miteinander reden (Bd. 1). Reinbek bei Hamburg: Rowohlt. Schulz von Thun, F., Ruppel, J. & Stratmann, R. (2000). Miteinander reden. Psychologie für Führungskräfte. Reinbek bei Hamburg: Rowohlt. Searl, J. R. (1971). Sprechakte. Ein philosophischer Essay. Reinbek bei Hamburg: Rowohlt. Sexton, J. B. (2004). The better the team, the safer the world. Golden rules of group interaction in high risk environments: Evidence-based suggestions for improving performance. Verfügbar unter: http://www.uth.tmc.edu/schools/med/ imed/patient_safety/Daimler%20Golden%20Rules.pdf [Zugriff am 10.07.2007]. Sexton, J. B., Thomas, E. J. & Helmreich, R. L. (2000). Error, stress, and teamwork in medicine and aviation: cross sectional surveys. British Medical Journal, 320 (7237), 745–749. Shannon, C. E. & Weaver, W. (1949). The mathematical theory of communication. Urbana: University of Illinois Press. Simon, F. B. (2007). Einführung in die systemische Organisationstheorie. Heidelberg: Carl Auer.
8
Stout, R., Cannon-Bowers, J. A., Salas, E. & Milanovich, D. (1999). Planning, shared mental models, and coordinated performance: An empirical link is established. Human Factors, 41, 61–71. Tschan, F. & Semmer, N. (2000). Wenn alle dasselbe denken: Geteilte mentale Modelle und Leistung in der Teamarbeit. In R. Fisch, D. Beck & B. Englich (Hrsg.), Projektgruppen in Organisationen. Praktische Erfahrungen und Erträge der Forschung (S. 217–235). Göttingen: Verlag für Angewandte Psychologie. Ungerer, D. (2004). Simple speech: Improving communication in disaster relief operations. In R. Dietrich & K. Jochum (Eds.), Teaming up: Components of safety under high risk (pp. 81–92). Aldershot: Ashgate. Watzlawick, P., Beavin, J. & Jackson, D. D. (2007). Menschliche Kommunikation (11. unv. Aufl.). Bern u. a.: Huber. Yule, S., Flin, R., Paterson-Brown, S. & Maran, N. (2006). Nontechnical skills for surgeons in the operating room: A review of the literature. Surgery, 139 (2), 140–149.
III Organisationale Einflussfaktoren auf sicheres Handeln 9
Organisationen – Kommunikationssystem und Sicherheit
10
Führung
11
Neue Formen der Zusammenarbeit
– 155
– 176 – 191
9 Organisationen – Kommunikationssystem und Sicherheit Cornelius Buerschaper
9.1
Einleitung
– 156
9.2
Organisationen als soziotechnische Systeme
9.3
Organisieren als Prozess
9.4
Organisationen als Kommunikationssysteme
9.5
Organisationale Interaktionen
9.6
Sicherheit organisieren
9.6.1 9.6.2 9.6.3 9.6.4 9.6.5
Sicherheitskultur – 164 Sicherheit und Zuverlässigkeit – 166 Organisationsentwicklung – 167 Crew Resource Management (CRM) – Ein Beispiel für Sicherheitskultur Barrieren – 170
9.7
Zusammenfassung und Schlussfolgerungen – 172
9.8
Literatur
– 174
– 157
– 158 – 160
– 161
– 164
– 169
156
Kapitel 9 · Organisationen – Kommunikationssystem und Sicherheit
Beispiel In einem Krankenhaus wurde nach umfangreichen Renovierungs- und Umbauarbeiten der neue OPTrakt fertiggestellt. Trotz der noch ausstehenden Betriebsgenehmigung durch eine kommunale Zulassungsstelle wurde ein OP-Saal wegen einer Notoperation in Betrieb genommen. Der ärztliche Direktor hatte diese Entscheidung getroffen, nachdem er sorgfältig zwischen der Übertretung der gesetzlichen Zulassungsauflage und der optimalen Patientenversorgung abgewogen hatte. Im OP-Raum, wo der Patient operiert wurde, wurde tags zuvor die zentrale Gasanlage von einer Installationsfirma eingebaut und geprüft. Diese Firma verlegte auch die Verbindungsschläuche zwischen
9.1
9
Einleitung
Unter dem Begriff »Organisation« untersucht man einerseits das Zusammenwirken von Menschen und Technik in soziotechnischen Systemen, andererseits beschreibt man damit Prozesse des Organisierens als Tätigkeit von Menschen. Ersteres fokussiert auf Anforderungen und Auswirkungen z. B. von Automatisierung auf Arbeitshandlungen, Letzteres auf soziale Interaktionen und Kommunikationen. Organisationen unterliegen Einflüssen ihrer Umgebung (Input), verarbeiten diese Umgebungseinflüsse mittels ihrer internen Strukturen und erzeugen meist mehrere Produkte (Output). Interne Strukturen lassen sich auf den Ebenen Arbeitsplatz/Arbeitsaufgaben, Technikdesign, Prozessorganisation und Management unterscheiden. Das Fallbeispiel zeigt, dass die Organisation Krankenhaus, technische Dienstleister, gesetzgebende und kontrollierende Behörden, die verwendeten technischen Einrichtungen sowie die Mitarbeiter und Mitarbeiterinnen an ihren Arbeitsplätzen in Wechselbeziehungen stehen. Das Beispiel macht sichtbar, dass die internen Strukturen der Organisation Krankenhaus kaskadenartig das Handeln der Mitarbeiter beeinflussen und bestimmte Freiheitsgrade für Entscheidungen determinieren. In einem Krankenhaus – wie in jeder anderen Organisation auch – greifen viele Prozesse ineinander, die z. T. zeitversetzt anlaufen
Gasanlage und einem neuen Beatmungsgerät für die Narkosegase. Das OP-Team nahm unter dem Zeitdruck der anstehenden Notoperation u. a. dieses neue Beatmungsgerät in Betrieb. Dabei wurde das umfangreiche, checklistengestützte Verfahren zur Inbetriebnahme erheblich abgekürzt. Während der Operation kam es zu einem tödlichen Zwischenfall. Im Nachhinein stellte sich heraus, dass der Patient intraoperativ keinen Herzinfarkt hatte, wie angenommen, sondern an Sauerstoffmangel infolge einer Narkosegasverwechslung verstarb. Die Schläuche für Sauerstoff und Lachgas zwischen der zentralen Gasanlage und dem Beatmungsgerät im OP waren vertauscht.
und in unterschiedlichen Substrukturen der Organisation (z. B. im technischen Einkauf) sowie außerhalb der Organisation ihren Ursprung haben (z. B. im technischen Support des Medizingeräteherstellers). Ziel dieses Kapitels ist es, das systemische Verständnis von Organisationen bezüglich der Human Factors zu vertiefen, d. h. nicht nur die Beeinflussung von Menschen durch ihre materielle, technische und informationelle Umgebung zu thematisieren, sondern auch die Interaktionen zwischen den Menschen zu untersuchen und die vielfältigen Wechselwirkungen zwischen »Sozial-System« und »Technik-System« deutlich zu machen. Das soziale (Teil-)System wird durch Interaktionen der Mitglieder dieses Systems hervorgebracht. Das Denken und Handeln der Mitglieder einer Organisation – genauer die Inhalte und die Art und Weise ihrer Kommunikation – determinieren sowohl ihren Umgang mit der materiell-technischen Umgebung als auch ihre anschließenden Handlungen und Kommunikationen. Im Eingangsbeispiel ist nicht nur ein Fehler in der materiellen Struktur zu beobachten, nämlich die Verwendung von verwechselbaren Schlauchverbindungsstücken, sondern auch Kommunikationsanomalien im Prozess des Organisierens bei der Inbetriebnahme eines neuen OP. Die fehlende Betriebsgenehmigung wurde nicht zum Anlass genommen, erhöhte Aufmerksamkeit auf die Inbetriebnahme
157 9.2 · Organisationen als soziotechnische Systeme
des Narkosegeräts zu richten. Wie hätte das geschehen können? Durch Kommunikation, weil Kommunikation 4 die Aufmerksamkeit von Menschen auf bestimmte Gegenstände und (sicherheitsrelevante) Prozesse richtet (7 Kap. 4), 4 einen gemeinsamen gedanklichen Rahmen schafft (7 Kap. 7) und 4 konkrete Arbeitshandlungen für andere Menschen überprüfbar macht (7 Kap. 8). Bestimmte Formen von Kommunikation können somit die Redundanz im gesamten soziotechnischen System erhöhen, was ein Merkmal einer zuverlässigen Organisation und ihrer Sicherheitskultur ist. Das Thema dieses Kapitels hat mit der Frage zu tun, inwiefern Menschen durch fortlaufende Interaktionen und Kommunikationen ein soziales System bilden, wie organisationsspezifische Regelhaftigkeit entstehen und welche Auswirkungen damit verbunden sind für das sichere oder unsichere Handeln einzelner Akteure. Die organisationsspezifischen Regelhaftigkeiten menschlicher Kommunikationen beschreibt der Begriff »Sicherheitskultur«. Für die Sicherheitskultur (7 Kap. 2.4) spielen weitere Faktoren eine Rolle: 4 Wie werden arbeitsteilige Prozesse organisiert? 4 Welche entsprechenden Kommunikationsmuster können (und sollten) Organisationen entwickeln? Arbeitsteilige Prozesse machen fortlaufende Kommunikation notwendig; die Menschen, die in und während der verschiedenen Arbeitsprozesse miteinander reden, erzeugen typische »Muster« menschlicher Kommunikation. Kommunikationsmuster verbinden das Denken und Handeln der beteiligten Akteure in einem arbeitsteiligen Prozess. Insofern determinieren Kommunikationsmuster, wie erfolgreich und zuverlässig Menschen zusammen arbeiten. Ferner befasst sich das Kapitel mit dem Stellenwert von Sicherheitsbarrieren, personalwirtschaftlichen Maßnahmen wie Training und Ausbildung sowie Entscheidungen auf der oberen Managementebene, die u. a. organisationale Lernprogramme auf den Weg bringen.
9.2
9
Organisationen als soziotechnische Systeme
Organisationen sind von ihrer Umwelt unterschiedene Systeme, in denen Menschen, Technik und Prozesse in vielfältigen Interaktionen zusammen wirken. Organisationen kann man analog zu biologischen Organismen betrachten, die in einer InputOutput-Relation zu ihrer Umgebung stehen und dabei ihr Überleben durch permanente interne Operationen sichern (Maturana, 1982). Organisationen verarbeiten Inputs: Informationen, Kapital, Energie sowie materielle Rohstoffe und erzeugen auf der Outputseite wiederum Informationen, Produkte, Dienstleistungen etc. Das »Überleben« von Organisationen hängt u. a. von der Beschaffenheit interner Strukturen, Prozesse und Technologien ab. Dabei besteht eine prinzipielle Offenheit gegenüber der Zukunft: Dass eine Organisation heute erfolgreich operiert, sagt zunächst nur aus, dass sie heute erfolgreich ist. Weitere Schlussfolgerungen über die Fitness für zukünftige Herausforderungen sind nicht ableitbar. In komplexen und dynamischen Umfeldern (z. B. globale Finanzmärkte, politische Reformprozesse) bilden erfolgreiche Organisationen komplexe Strukturen aus; die Antwort auf die gestiegene Umweltkomplexität ist organisationale Komplexitätserhöhung (z. B. durch Unternehmensverbindungen) statt Reduktion und Vereinfachung (Jemison & Sitkin, 1986; 7 Kap. 17). Auch die Tendenzen zur Konzentration auf die »Kernkompetenzen«, das Auslagern sekundärer Dienstleistungsprozesse oder personalwirtschaftliche Modelle wie Leiharbeit dienen nur scheinbar der Komplexitätsreduktion. Zwischen vielen (neuen) Organisationen entstehen wiederum komplexe Strukturen. Diese Komplexität zu managen heißt, Lösungen im Umgang mit vielfältigen und meist neuartigen Problemen zu organisieren, die sowohl aus den Mensch-Technik-Interaktionen als auch aus den Mensch-Mensch-Interaktionen innerhalb und zwischen Organisationen herrühren (Baecker, 1997). Individualpsychologische Betrachtung
Die humanen Akteure und ihre soziale Struktur, die wir als »Organisation« bezeichnen – die Mitarbeiter, Techniker, Managerinnen eines Unternehmens –
Definition
158
Kapitel 9 · Organisationen – Kommunikationssystem und Sicherheit
stehen insofern im Vordergrund der Betrachtung, da sie als handelnde Menschen oftmals als Verursacher von Fehlentscheidungen, Unfällen und Unsicherheiten angesehen werden. Daher liegt der Fokus auf den Akteuren innerhalb soziotechnischer Systeme, d. h. ihre Denk- und Handlungsprozesse werden in Relation zu ihren Arbeitsaufgaben, den dabei verwendeten Werkzeugen und Techniken untersucht. Das ist eine individualpsychologische Betrachtung von Human Factors in Organisationen. Sie ist nützlich, weil man etwas über Denken, Entscheiden und die Motivation von Mitarbeitern einer Organisation aufdeckt, auch wenn eine ausschließlich personenzentrierte Sichtweise zu kurz greift und wenig über die Sicherheitskultur einer Organisation aussagt (Reason, 2000; 7 Kap. 3). Organisationspsychologische Betrachtung
9
Eine organisationspsychologische Betrachtung von Human Factors befasst sich mit dem gesamten System aus Technik, Prozessen und menschlicher Kommunikation. Beispielsweise zeigen Unfallanalysen auf, dass die »Operateure am scharfen Ende des Systems« durch eine Reihe von Beschränkungen, Vorgaben und Entscheidungen aus anderen Subsystemen einer Organisation in ihrem Denken und Handeln beeinflusst werden. Mit dem »scharfen Ende« einer Organisation ist eine Arbeitsausführungsebene gemeint, auf der Operateure direkt eingreifen in hochkomplexe technische und mitunter risikobehaftete Systeme (z. B. Ingenieure im Leitstand eines AKW). Die Kernidee der gekoppelten »soziotechnischen« Systeme kommt darin zum Ausdruck: Operateure bedienen ein Techniksystem, aber innerhalb ihrer gesamten Organisation sind historisch gesehen viele Entscheidungen von anderen Organisationsmitgliedern getroffen worden, die als Bedingungen, Regeln und Restriktionen die aktuelle Arbeitssituation beeinflussen. Dabei ist leicht nachzuvollziehen, dass zeitlich zurückliegende Entscheidungen über Technologien, Werkzeuge, Displays etc. als »harte« Bedingungen wirksam sind. »Weiche« Bedingungen sind meist schwieriger zu operationalisieren: Werthaltungen von Operateuren, Kommunikationsmuster in Teams, ungeschriebene Regeln und Normen in der Zusammenarbeit. Diese weichen Bedingungen entstehen in sozialen Prozes-
sen. Sie unterliegen einer Eigendynamik, haben eine Geschichte und werden täglich in Kommunikationsprozessen reproduziert bzw. verändert. Insofern wird durch Kommunikationen und die individuelle Verarbeitung der kommunizierten Informationen ein einzigartiges Sozialsystem gebildet – das ist der Fokus organisationspsychologischer Untersuchungen. ! Organisationen sind von ihrer Umwelt unterscheidbare Systeme, die in vielfältigen Relationen mit der Organisationsumwelt verknüpft sind. Organisationen als soziotechnische Systeme bilden interne Strukturen, bei denen Menschen und Technik interagieren. Technikund Sozialsystem einer Organisation sind historisch gewachsen, unterliegen Veränderungen und folgen eigenen »Gesetzen«.
9.3
Organisieren als Prozess
Organisieren fasst eine Reihe von Denk- und Kommunikationstätigkeiten zusammen, die auf die eingangs beschriebene Input-Output-Relation und deren Gegenstände angewendet werden. Menschen in Organisationen entwickeln ein gemeinsames Verständnis über angemessene Maßnahmen, angemessene Interpretationen von Ereignissen und über das erfolgreiche Zusammenspiel von individuellen Handlungen, die zur Bewältigung der wahrgenommenen Ereignisse und Probleme in ihrer Technikund ihrer Organisationsumwelt erforderlich sind. Menschen in Organisationen beobachten, was sie miteinander tun (in Bezug auf die inhaltlichen Ergebnisse) und wie sie miteinander interagieren, d. h. wie ihr Kommunikationssystem beschaffen ist. Daher wissen Mitarbeiter und Mitarbeiterinnen einer Organisation um die »Regeln«, die in bestimmten Kommunikationssituationen gelten, z. B. wann man mit welchen Worten eine Führungskraft auf einen Fehler hinweisen kann. Insbesondere Führungskräfte versuchen mit ihrem Wissen um Regeln des Kommunikationssystems, auf Ergebnisse und Prozesse einzuwirken – das zeichnet sie als »Manager« aus. Organisationstheoretisch lässt sich der Ausgangspunkt des Organisierens durch folgende Tätigkeiten zusammenfassen:
159 9.3 · Organisieren als Prozess
»Die wichtigsten Probleme, über die beim Organisieren Konsens erzielt werden muss, betreffen die Regeln für den Aufbau von sozialen Prozessen aus Verhaltensweisen und Interpretationen, welche den verwirrenden Eingaben in diese Prozesse auferlegt werden können.« (Weick, 1995, S. 12)
Organisieren heißt also, Konsens darüber zu erzielen, wie mit Irritationen, Ereignissen oder mehrdeutigen Problemen innerhalb und außerhalb der Grenzen einer Organisation umgegangen wird. Das ist ein kontinuierlicher Prozess, in dem sich individuelle Denk- und Interpretationsmuster und organisationale Kommunikationsmuster synchron entwickeln. Jedes Organisationsmitglied denkt individuell anders über beobachtete Ereignisse, bildet individuelle Gedächtnis- und Wissensstrukturen und zieht im Sinne der Interpretation andere Schlussfolgerungen, die in nachfolgenden Handlungen zutage treten. Organisationale Kommunikationen – die gemeinsame Verständigung darüber, wie Ereignisse interpretiert werden sollten – erzeugen konsensuelle Wissensstrukturen. Man spricht hier auch von »mentalen Landkarten«, die, je ähnlicher sie in den Köpfen der Organisationsmitglieder sind, das gemeinsame »Navigieren« erleichtern. Organisieren basiert auf der Entwicklung einer Art »Grammatik«, die die Organisationsmitglieder auf das Rohmaterial der Ereignisse anwenden. Für die Mitglieder einer Organisation, die die Benutzer und Träger dieser Grammatik sind, folgen daraus mehrere Konsequenzen (Weick, 1995): 4 Sie müssen Interpretationsweisen von- und miteinander erlernen. Je weiter dieser Lernprozess fortgeschritten ist, umso weniger wird die Organisation durch Ereignisse überrascht. Außerdem wird das Erlernen der gemeinsamen Interpretationsweisen in Organisationen zunehmend formalisiert, z. B. in Trainings, Handbüchern, Prozessdokumentationen. Für unerwartete Ereignisse, die etwa die Sicherheit von Organisation und Umwelt betreffen, müssen vorausschauend Wahrnehmungs- und Interpretationsschemata entwickelt und »vorgehalten« werden, z. B. Notfall- und Krisenpläne, Worst-case-Szenarien. 4 Organisationsmitglieder bilden zunehmend differenziertere Erwartungen an die korrekte Verknüpfung von Verhaltensweisen anderer Orga-
9
nisationsmitglieder. Man erwirbt nicht nur für Ereignisse gemeinsame Schemata, sondern auch für die angemessene Benutzung der kommunikativen »Spielregeln«. Diese Erwartungen an Verhaltensweisen von anderen Organisationsmitgliedern stabilisieren das soziale System und bilden die individuellen Grundlagen wiederkehrender und als »regelhaft« wahrgenommener Kommunikations- und Interaktionsmuster. Menschen sind erwartungsgesteuerte Wesen, die stabile Wahrnehmungs- und Interpretationsmuster bevorzugen. Diese Erwartungsstabilität bekommen Führungskräfte u. a. bei der Einführung neuer Verhaltensmuster, Regeln oder Vorschriften als »Widerstand« zu spüren. 4 Organisationsmitglieder profitieren individuell von der zunehmenden Sicherheit, mit der mehrdeutige Informationen innerhalb einer Organisation in angemessene Eindeutigkeit umgewandelt werden. Das gelingt Organisationsmitgliedern, indem sie einen Teil ihrer Arbeitszeit darauf verwenden, einander zu erklären, was passiert ist und wie darauf reagiert wurde. 4 Organisationen formalisieren die kollektiven Diskurse z. B. in Form von Meetings, Zirkeln, Konferenzen und verstärken infolge der eingeführten Diskursordnungen bestimmte Wahrnehmungen, Denkweisen, Verhaltensweisen und Verhaltenserwartungen. Sie stabilisieren so ihr Kommunikationssystem. Als Kehrseite zunehmend stabiler und regelhafter Diskurse wächst die Gefahr, für neuartige Ereignisse und Prozesse keine angemessene gemeinsame Sprache und Diskursform zur Verfügung zu haben. Mit anderen Worten: Organisationen, die nicht gelernt haben, Sicherheitsdiskurse zu führen, haben Schwierigkeiten mit der Wahrnehmung und kollektiven Diskussion neuartiger, sicherheitsrelevanter Ereignisse. ! Durch die Prozesse des Organisierens werden die »mentalen Landkarten« der Organisationsmitglieder aufeinander abgestimmt. Infolge der gemeinsamen organisationalen Lerngeschichte gelingt es Organisationsmitgliedern, zunehmend Unsicherheit über ihre Handlungen zu absorbieren, ihre Handlungen zu koordinieren und schließlich formale Muster der Kommunikation zu entwickeln.
160
Kapitel 9 · Organisationen – Kommunikationssystem und Sicherheit
Die aus theoretischen Überlegungen zum Prozess des Organisierens abgeleiteten Erkenntnisse über soziotechnische Systeme werden in den folgenden Abschnitten spezifiziert und anschließend auf organisationale Sicherheitsthemen bezogen.
9.4
9
Organisationen als Kommunikationssysteme
Organisationen erschaffen und erhalten ihre Strukturen in der Auseinandersetzung mit der Systemumwelt selbst. Dabei treffen wir auf die paradoxe Situation, dass Organisationen nur durch Aktivitäten so bleiben, wie sie sind, d. h. ihre strukturelle Identität, ihre Unverwechselbarkeit in Bezug auf andere Organisationen und ihre Leistungen sind das Ergebnis permanenter Prozesse, die Energie, Kapital, Wissen und andere Ressourcen in Bewegung halten. Organisationen verändern über die Zeit ihre Strukturen als Produkt ihrer eigenen Aktivitäten, was einem Lernprozess gleichkommt. Dieses »Lernen der Organisation« findet statt, weil die Mitglieder einer Organisation ständig kommunizieren. Das soziale System Organisation wird daher auch als Kommunikationssystem konzipiert (z. B. Luhmann, 1984), d. h. es wird aus Kommunikationen gebildet, die von den Mitgliedern hervorgebracht und zu. Abb. 9.1. Organisationen als Kommunikationssysteme
gleich beobachtet werden (. Abb. 9.1). In diesem Sinn sind die Mitglieder eines sozialen Systems Beobachter und damit Umwelten ihres eigenen Kommunikationssystems. Das, was an jeder Organisation beobachtbar ist, wie z. B. gemeinsame Regeln, wiederkehrende Kommunikationsmuster, koordiniertes Verhalten von Mitarbeitern und Organisationseinheiten, wird konzeptionell von den Personen und ihren psychischen Prozessen getrennt (Simon, 2006). Das Kommunikationssystem wird gebildet aus 4 Informationen, 4 dem Prozess des Mitteilens oder Übermittelns der Information und 4 dem Verstehensprozess des Empfängers (Rezipienten). Jede Interaktion zwischen Mitgliedern einer Organisation bildet ein solches Kommunikationssystem, d. h. Kommunikationssysteme existieren solange, wie es genügend Akteure gibt, die daran teilhaben, indem sie Informationen zwischen Mitteilen und Rezipieren »bewegen«. Kommunikation ist das gemeinsame »Spiel«, das die »Spielerinnen« und »Spieler« (Beobachter) miteinander spielen. Wie sie das tun und wie erfolgreich sie dabei sind, hängt nicht nur von ihren individuellen Fähigkeiten, Kompetenzen oder fachlichem Wissen ab, sondern auch von bestehenden Kommunikationsmustern innerhalb
161 9.5 · Organisationale Interaktionen
des sozialen Systems. So könnten beispielsweise fachlich hochqualifizierte Mitarbeiter über nützliches Fachwissen verfügen; sollten sie aber durch die Regeln im Kommunikationssystem nicht »angespielt« werden, d. h. nicht in Kommunikationssysteme involviert sein, kann ihr Wissen in der Organisation nicht genutzt werden. Untersuchungen von Störfällen in Energieunternehmen haben gezeigt, dass die versammelte Expertise in der Leitwarte nicht gleichbedeutend mit guten Problemlösungen ist. Alle Experten müssen durch Kommunikationsregeln »angespielt« werden können. Kommunikationssysteme mit dysfunktionalen Regeln wie z. B. »Ein-Weg-Kommunikation« statt »Drei-Wege-Kommmunikation« führen dazu, dass das Wissen bestimmter Personen nicht in den laufenden Entscheidungsprozess integriert wird. Sicherheit stiftende Kommunikationsregeln, die z. B. auf Redundanzprinzipien zur Absicherung korrekter Mitteilungs- und Verstehensprozesse (7 Kap. 8) beruhen, sind u. a. in der Luftfahrt weit entwickelt und werden von anderen Organisationen rezipiert (Tsang & Vidulich, 2002; Davies, 2005; Awad et al., 2005). Prinzipiell sind in sozialen Systemen sehr viele Möglichkeiten vorhanden, Kommunikationssysteme zu bilden und die potenzielle Variationsbreite zu nutzen. Da aber Kommunikationssysteme menschlichen psychischen Prozessen unterworfen sind (Vergessen, Ergänzen von Informationen, Missverstehen), findet in Organisationen eine Selektion und Verstärkung für bestimmte Kommunikationssysteme statt. Auffällige, häufig wiederholte oder unmittelbar einsichtige Informationen bekommen eine höhere Wahrscheinlichkeit, in anschließenden Kommunikationssystemen wieder verwendet zu werden. Charakteristisch für eine Phase der Stabilisierung sind 2 Aspekte: 1. Wer häufig in Kommunikationssystemen »angespielt« wird und »weiterspielt«, bleibt erfolgreich im System und kann die Spielregeln zunehmend besser erlernen. 2. Informationen, die in Kommunikationssystemen weitergegeben werden, beschäftigen als »Themen«, Probleme oder Lösungen viele Mitglieder einer Organisation. Die Verknüpfung zwischen den Menschen, aus denen eine Organisation besteht, und dem Kommuni-
9
kationssystem wird aus der Vielzahl von gemeinsam beobachteten Handlungen gebildet. Die individuellen Denk- und Entscheidungsprozesse von Organisationsmitgliedern werden durch Kommunikationen angestoßen, d. h. durch Information – Mitteilung – Verstehen, und führen zu wiederum beobachtbaren Handlungen. Erfolgreiche Handlungen erzeugen in der Regel weitere Kommunikationen, sodass ein stabiles System entsteht. Was als erfolgreiche Handlung bewertet wird – beispielsweise regelkonformes Sicherheitsverhalten – ist abhängig von den Selektions- und Verstärkungsprozessen des Kommunikationssystems, und davon, ob solche Handlungen viele Nachahmer finden. ! Es ist eine wichtige Führungsaufgabe, Kommunikationssysteme zu etablieren, die erfolgreiche Handlungen der einzelnen Mitarbeiter ermöglichen, d. h. individuell »richtige« Denkund Entscheidungsprozesse anregen, die wiederum durch Kommunikationen mit anderen Mitarbeitern verstärkt werden. Die Kopplung individueller psychischer Prozesse (Denken, Entscheiden, Handeln) mit dem jeweiligen Kommunikationssystem führt zu dem, was Organisationen unverwechselbar macht: gemeinsam geteilte Werte, regelkonformes Verhalten, sprachliche Standards, Konfliktkultur und ähnliche beobachtbare Muster des gemeinsamen Handelns.
9.5
Organisationale Interaktionen
Ebene der Arbeitsaufgaben und -anforderungen
Die für die Systemsicherheit relevanten Interaktionen in einer Organisation lassen sich auf verschiedenen Ebenen beschreiben (Leveson, 2002). Die Ebene der Arbeitsaufgaben und der mit ihnen verbundenen Arbeitsanforderungen beschreibt Art und Umfang, Werkzeuge und Randbedingungen der Ausführung von Arbeitstätigkeiten. Hier steht der materielle und informationelle Gegenstand der Arbeit im Fokus. Das ist die Ebene, auf der Mitarbeiter direkt mit dem Techniksystem interagieren. Wichtige Konzepte stammen aus der kognitiven Ergonomie und Arbeitspsychologie. Relevante Begriffe dieser Ebene sind »Arbeitsplatzgestaltung«, »Mensch-Maschine-
162
Kapitel 9 · Organisationen – Kommunikationssystem und Sicherheit
Interfacedesign«, »Tätigkeitsspielraum«, »Über-« bzw. »Unterforderung«, »workload« und »aktive Fehler«. Ebene der Maintenanceaufgaben
Die zweite Ebene betrifft die Maintenanceaufgaben (Instandhaltung; auch 7 Kap. 14). Technik wird durch Wartung und Instandhaltung permanent verändert. Folglich greifen Maintenanceaktivitäten im Sinne latenter Bedingungen in die Organisation ein und werden auf der Ebene der Aufgabenerfüllung wirksam. Im geschilderten Eingangsbeispiel ist im Maintenancebereich eine Verwechslung von Gasleitungen passiert, die das operierende Ärzteteam ihrer erwarteten Handlungsoptionen beraubt und zum unbeabsichtigten Tod eines Patienten geführt hat. Designebene
9
Drittens grenzen wir die Designebene ab, auf der Entscheidungen über Prozeduren und technische Interfaces getroffen werden. Somit knüpft die Gestaltung von Mensch-Technik-Interfaces und die Festlegung von Prozeduren unmittelbar an die Arbeitsaufgaben an (auch für Maintenancearbeitsaufgaben) und legt durch Designentscheidungen fest, wie Arbeitstätigkeiten ausgeführt und erlebt werden und welche menschlichen Ressourcen dabei beansprucht werden. Designentscheidungen schaffen ebenso die latenten Bedingungen für aktive Fehler (7 Kap. 3), andererseits sind sie eine wichtige Voraussetzung für Fehlervermeidung und für die Minimierung der Folgen eingetretener Fehler. Hier wird auch die Automatisierung wirksam (7 Kap. 19), die paradoxerweise zu einem größeren Umfang der nun notwendigen Prozeduren für die Menschen in hochautomatisierten Techniksystemen führt (Sträter, 2005). Wichtige Konzepte auf der Designebene sind mit den Begriffen »Barrieregestaltung«, »defence in depth«, »partizipative Designentwicklung« verbunden. Management- bzw. Organisationsebene
Viertens fasst man die Arbeitsanforderungen des Planens für den Einsatz von Ressourcen (Energie, Menschen, Finanzen etc.) auf der Managementoder Organisationsebene zusammen. Typische Managemententscheidungen mit Auswirkung auf das erfolgreiche Operieren einer Organisation sind Per-
sonalentscheidungen, Investitionsentscheidungen und die Strukturierung der formalen »Architektur« einer Organisation, die sich in der funktionalen Gliederung und Hierarchisierung einer Organisation niederschlägt, z. B. im Führungssystem; außerdem Berichtspflichten, Kontrollfunktionen, Kooperation mit externen Firmen. Ebenfalls dem Management einer Organisation zugeordnet sind die Anforderungen der regulatorischen Ebene, d. h. an der Schnittstelle zur legislativen Organisationsumwelt sind rechtliche Bestimmungen, Auflagen und Vorgaben organisationsintern in Maßnahmen umzusetzen. Das betrifft sowohl Material (z. B. Brandbekämpfungstechnik) als auch informationelle Prozesse (z. B. Räumungsübung mit Mitarbeitern) bis hin zu personellen Maßnahmen (z. B. Qualifikationsnachweis für Mitarbeiter). Die Verarbeitung von Entscheidungen, die außerhalb der Organisation auf der Regulationsebene (Gesetzgeber, Verbandsorganisationen, Kontrollinstanzen) getroffen werden, greift das obere Management einer Organisation auf und setzt diese Entscheidungen organisationsintern um. Die regulatorische Ebene ist somit z. T. in eine Organisation inkorporiert und kann bis auf die erste Ebene der direkten Bewältigung von Arbeitsaufgaben durchgreifen. Schließlich ist die Managementebene auch mit der Einführung von Programmen befasst, die zu Lern- und Veränderungsprozessen in der Organisation führen. Damit greift das Management mit mächtigen Instrumenten in die Entwicklung des Kommunikationssystems ein und kann das Kommunikationssystem der Mitarbeiter u. U. zu einer exzellenten Sicherheitskultur anregen. Die bewusste Initialisierung und Steuerung von Veränderungsund Entwicklungsprozessen in Organisationen beruht auf Konzepten der Organisationsentwicklung: Organisationales Lernen, Teamlernen, Achtsamkeit, Sicherheitskultur, Sicherheits- und Organisationsklima (Senge, 1990; Kayes, Kayes & Kolb, 2005; Weick & Sutcliffe, 2003; Pidgeon, 1991; Zohar, 2000). Die Komplexität der Beeinflussung von organisationalen Ebenen, die zu materiellen, personellen und prozeduralen Veränderungen in Organisationen führen, wird vereinfacht in . Abb. 9.2 dargestellt. Die Vielfalt des individuellen Handelns von Mitarbeitern wird durch Kommunikationen an die verschiedenen Arbeitsebenen angekoppelt.
163 9.5 · Organisationale Interaktionen
9
. Abb. 9.2. Zusammenhang von Arbeitsebenen, Kommunikationen und individuellen Denkprozessen
Interaktionen zwischen den einzelnen Arbeitsebenen
Auf jeder Arbeitsebene begegnen Menschen spezifischen Anforderungen und sind in kognitiver, motivationaler und emotionaler Hinsicht spezifischen Beanspruchungen ausgesetzt. Die Besonderheit einer Organisation besteht zunächst darin, dass die individuell wirksamen Entscheidungskonflikte der Mitarbeiter (wie tut man etwas »richtig«) zeitgleich und parallel existieren können, ohne zwingend das erfolgreiche Zusammenspiel aller Handlungen in der Organisation zu gefährden. Eine einzelne Fehlentscheidung löst noch keine Katastrophe aus, dennoch sind Entscheidungen der Mitarbeiter einer Organisation auf vielfältige Weise miteinander gekoppelt. Die Lösungen von Ziel- und Entscheidungskonflikten auf den unterschiedlichen Arbeitsebenen einer Organisation stellen latente und sichtbare Bedingungen für das Handeln von Menschen in Organisationen dar. Deutlich werden solche Interaktionen zwischen Arbeitsebenen z. B. bei Designentscheidungen und den dadurch ausgelösten Denk- und Handlungsprozessen der Mitarbeiter. Eine neue Generation von Narkosegeräten mit integrierten Funktionen u. a. für Dokumentation und Verlaufskontrolle verlangt am Arbeitsplatz des Arztes umfangreiche Eingaben in verschiedene Menüstrukturen der Soft-
ware. Solche Prozesse benötigen Zeit und Aufmerksamkeit, die für andere Narkoseaufgaben nicht mehr (wie gelernt, wie gewohnt) zur Verfügung stehen. Der gesamte Prozess der Narkoseführung muss nun vom Arzt reorganisiert werden; mit welchen Auswirkungen für die Patientensicherheit oder die Teamkommunikation ist unklar und kann in vollem Umfang gar nicht bedacht werden von den Personen im Management, die die Entscheidung über die Einführung technischer Geräte getroffen haben. Für das erfolgreiche koordinierte Handeln in Organisationen ist daher die Kommunikation von Entscheidungen (z. B. über Personaleinsatz, Technik- und Designentscheidungen, Barrieren, Organisationsentwicklungsprogramme) wichtig, insbesondere an den Schnittstellen zwischen verschiedenen Arbeitsebenen. Beispiel Organisationale Interaktionen im Fallbeispiel Gasanlagen haben normalerweise eine farbliche Kennzeichnung, die Anschlüsse sind genormt und durch unterschiedliche Größen für jede Gasart unverwechselbar. Da aber Krankenhäuser aufgrund baulicher Besonderheiten unterschiedliche hauseigene Gasversorgungen in6
164
Kapitel 9 · Organisationen – Kommunikationssystem und Sicherheit
9.6
9
stallieren, können auch spezifische Anpassungen des allgemeinen Standards für Gasanschlüsse vorgenommen werden, z. B. durch die Verwendung von Reduzierventilen und flexiblen Gasschläuchen, die eine Verbindung zwischen zentraler Gasanlage und den im OP verwendete Narkosegeräten herstellen. Interaktionen bestehen im Fallbeispiel zwischen der kommunalen Kontrollbehörde, der beauftragten externen Installationsfirma, dem OP-Personal, welches das Narkosegerät anschließt, und dem OP-Team, welches das Gerät in Betrieb nimmt und unter Zeitdruck wegen der Notoperation steht. Um die Ausweitung von möglichen Fehlern innerhalb dieser interagierenden Subsysteme zu verhindern, sind materielle, symbolische und prozedurale Barrieren integriert. Werden durch unsichere Handlungen z. B. materielle Barrieren wie die genormten Anschlüsse unwirksam, sollten prozedurale Barrieren wie die Kontrolle und Abnahme des OP durch eine Kontrollinstanz oder die Überprüfung des Narkosegeräts vor Inbetriebnahme zur Fehlerentdeckung beitragen. Jede Arbeitsebene trägt durch unsichere Handlungen und inadäquate Denkprozesse zum tragischen Ausgang der Operation bei.
Im Folgenden werden die Erfahrungen aus dem Fallbeispiel noch einmal unter der Perspektive der dargestellten Arbeitsebenen (. Abb. 9.2) zusammengefasst (. Tab. 9.1): . Tab. 9.1. Betrachtung des Fallbeispiels unter der Perspektive der dargestellten Arbeitsebenen Maintenance
Montagefehler
Management
Freigabe des OP, ohne die gesetzliche Zulassungsauflage zu erfüllen
OP-Team
Produktionsdruck – Notoperation
Narkoseteam
Mängel in der Routineüberprüfung vor Inbetriebnahme
OP-Team
Herzinfarkt therapiert – Suchraum für weitere Ursachen eingeschränkt
Sicherheit organisieren
9.6.1 Sicherheitskultur Komplexe soziotechnische Systeme gewährleisten Sicherheit durch permanente Korrekturen minimaler Abweichungen. Sicherheit wird deshalb auch als »dynamisches Nichtereignis« bezeichnet (Reason, 1997). Unfälle gelten als »strukturelles Nebenprodukt« normal funktionierender Systeme, wobei sehr viele Ereignisse gemeinsam auftreten müssen, bis es zu einem Unfall kommt (Perrow, 1999). Die Erkenntnisse zahlreicher Unfalluntersuchungen zeigen, dass »human errors« nur in loser Beziehung zu Unfällen stehen, d. h. nicht einzelne individuelle Fehlhandlungen lösen schwerwiegende Ereignisse aus, sondern eine Vielzahl »normaler« Operationen wirken gemeinsam am Unfallgeschehen mit (Hollnagel, 2004; 7 Kap. 3). Diese Erkenntnis wiederum rückt die gesamte Organisation in den Mittelpunkt der Sicherheitsdebatte: die verwendeten Technologien, die Informations- und Entscheidungsprozesse, die Sicherheits- und Barrierensysteme sowie die Kommunikationsmuster (Meshkati, 2002). Vor diesem Hintergrund wurde der Begriff »Sicherheitskultur« Ende der 1990er Jahre verstärkt in die Diskussion um »nichttechnische« Sicherheitsaspekte von Organisationen eingebracht. Für die Energie- und Atomindustrie war der Reaktorunfall von Tschernobyl 1986 ausschlaggebend für das wachsende Interesse an Wertvorstellungen, Normen, Fähigkeiten und Verhaltensmustern, die aus der Perspektive einer Sicherheitskultur untersucht wurden. Bei den Unfalluntersuchungen zur Reaktorkatastrophe von Tschernobyl wurde gezielt nach solchen kulturellen Faktoren gefragt (Cox & Flin, 1998). Auch in den Unfallreports des US-amerikanischen National Transportation and Safety Board wurde mit Beginn der 1990er Jahre auf Managementfehler in Luftfahrtunternehmen hingewiesen, insbesondere wurden Versäumnisse bei der Etablierung einer auf Sicherheit ausgerichteten Organisationskultur aufgezeigt (NTSB/AAR-92/04, 1992, zit. in Meshkati, 1997; Rochlin & von Meier, 1994). Dabei ging es vorrangig um die Umsetzung und Anwendung bereits verfügbarer Sicherheitsinstrumente des Qualitätsmanagements, die im Maintenancebereich ungenügend in Arbeitspro-
165 9.6 · Sicherheit organisieren
zesse der Mitarbeiterinnen und Mitarbeiter integriert waren. Sicherheitskultur kann man als Ergebnis der Wechselwirkungen individueller Werte, Einstellungen und Verhaltensweisen charakterisieren (Reason, 1997; 7 Kap. 2). Sie ist zugleich der Prozess, der die individuellen und kollektiven Wertvorstellungen, Glaubenssätze und die gemeinsamen mentalen Modelle im Vollzug von Arbeitshandlungen stabilisiert (Caroll, 1998). »Safety culture is the product of individual and group values, attitudes, perceptions, competencies and patterns of behaviour that determine the commitment to, and the style and proficiency of an organisation’s safety management.” (IAEA, 1991)
Den unter 7 Kap. 9.5 beschriebenen Arbeitsebenen lassen sich unterschiedliche beobachtbare Handlungen zuordnen, die mehr oder weniger zur organisationalen Sicherheitskultur beitragen. Während das Management einer Organisation primär Kommunikationsleistungen zu erbringen hat (d. h., die Führungskräfte haben dafür zu sorgen, dass Wertvorstellungen bezüglich Sicherheit deutlich und konsequent kommuniziert werden), stehen Akteure auf der direkten Ausführungsebene überwiegend vor Denkanforderungen, um die operativen Tätigkeiten an den Mensch-Technik-Schnittstellen zu regulieren. Sie müssen beständig prüfen, inwieweit Arbeitshandlungen den Sicherheitsnormen genügen. Die verfügbaren Instrumente (z. B. IncidentReporting-System, Fehlerauditierung) sind geeignet, um die operativen Arbeitshandlungen zu verbessern.
Rahmenbedingungen erfolgreicher Sicherheitskultur Wesentlich für eine Sicherheitskultur ist aber, dass vielfältige Kommunikationen über sicherheitsrelevante Fragen angestoßen und ermöglicht werden, d. h., eine Organisation benötigt viele Diskurse über Sicherheitsthemen, um gemeinsame Werte, Normen, Sicherheitsregeln und Verhaltensweisen zu entwickeln und zu stabilisieren. Dass die formalen Instrumente wie z. B. ein Fehleraudit Sicherheitsprobleme sichtbar machen oder dass externe Kontrollen z. B. durch Behörden Regelverstöße aufdecken, heißt
9
noch nicht, dass in einer Organisation eine sicherheitsbezogene Kommunikation stattfindet. Erfolgreiche Sicherheitskommunikation hängt von den Fähigkeiten der Führungskräfte und Teammitglieder jeder Ebene ab, die Kommunikationsmuster in den Subsystemen der Organisation so zu verändern, dass permanent »Sicherheit« in der arbeitsbezogenen Kommunikation vorkommt. Die Möglichkeiten sind vielfältig, es können eigens etablierte Sicherheitsmeetings sein, aber auch »im Kleinen« sind Feedbacks, geschlossene Kommunikationsschleifen, antizipierte und ausgesprochene Bedenken typische Kommunikationsmuster einer reifen Sicherheitskultur. Definitorische Ansätze zur Spezifizierung des Begriffs »Sicherheitskultur« heben verschiedene Kernaussagen hervor (Zhang, Wiegmann, v.Thaden, Sharma & Mitchell, 2002; 7 Kap. 2): 4 Sicherheitskultur setzt an Teams und übergeordneten Organisationseinheiten an und betont die geteilten Werte innerhalb und zwischen Teams. 4 Sicherheitskultur steht in Verbindung mit den institutionalisierten Sicherheitskonzepten, ist aber nicht auf Managementkontrollfunktionen oder Ausführungskontrollen der mittleren Führungsebene beschränkt. 4 Jedes Organisationsmitglied wirkt an der Sicherheitskultur mit. 4 Sicherheitskultur reflektiert den Stand der Bemühungen einer Organisation, aus Fehlern, Unfällen und abweichenden Ereignissen zu lernen. 4 Sicherheitskultur macht Zusammenhänge sichtbar zwischen sicheren Operationen und sozialer Anerkennung (Gratifikation, Entlohnung, Beförderung). Die definitorischen Divergenzen und zahlreichen Interpretationen des Begriffs »Sicherheitskultur« reflektieren den aktuellen Stand in Wissenschaft und Praxis. Prinzipielle Unterschiede sind in der unterstellten Kausalität auszumachen. Einerseits wird die Position vertreten, dass die Sicherheitskultur aus der Summe aller Denk- und Kommunikationsprozesse hervorgeht und somit jedes Organisationsmitglied durch sein Handeln eben diese unverwechselbare Kultur erschafft, reproduziert und je nach dem Grad der Beherrschung der Kommunikationsregeln auch bewusst variieren kann. Diese Sichtweise kommt ei-
166
Kapitel 9 · Organisationen – Kommunikationssystem und Sicherheit
nem konstruktivistischen Kulturbegriff nahe (Morin, 2002) und wird auch in Organisationstheorien vertreten (Schein, 1997). Unter »Kultur« werden die verbindlichen Denk- und Handlungsmuster einer Gruppe bei der Lösung von Problemen verstanden. In den Prämissen oder geteilten Werten einer Gruppe sind ihre Annahmen, ihre Erfahrungen mit früheren Problemlösungen zu einem Set von Grundüberzeugungen vereint, aus denen wiederum die angemessenen Methoden und Handlungsweisen hergeleitet werden, mit denen die operativen Anforderungen jeder Organisationseinheit zu bewältigen sind.
Sicherheitsklima
9
Auf der anderen Seite fasst man unter Sicherheitskultur Zustandsvariablen eines Systems zusammen, wobei man davon ausgeht, dass diese Variablen menschliches Handeln und die Gesamtleistung des Systems beeinflussen. In den 1990er Jahren wurde der Begriff »Sicherheitsklima« etabliert. Hier werden Operationalisierungen des Begriffs »Sicherheitskultur« vollzogen, man versucht den aktuell wahrgenommenen Zustand einer Sicherheitskultur messbar zu machen (Zohar, 2000; genauer in 7 Kap. 2). Die psychometrischen Gütekriterien solcher Messinstrumente fallen unterschiedlich aus (Flin, Burns, Mearns, Yule & Robertson, 2006; Colla, Bracken, Kinney & Weeks, 2005). Beide Begriffe (»Kultur«, »Klima«) sowie die entwickelten Messinstrumente (meist Fragebögen, »self-assessments«, »self-audits«) entfalten jedoch ihren pragmatischen Nutzen erst in der Rückkopplung zu den Mitarbeitern in Organisationseinheiten. Aus Messergebnissen abgeleitete Interventionen sind unterschiedlich stark in Industrie- und Dienstleistungsbranchen implementiert. Existierende Organisationsentwicklungsansätze zur systematischen Umsetzung und Entwicklung von Interventionen, wie z. B. 4 Teamtrainings, 4 Teambesprechungen (Briefings), 4 Diskussion von Messergebnissen im Team sind hilfreich für die Verbesserung der Sicherheitskultur (Pronovost et al., 2005).
! Die Konzepte »Sicherheitskultur« und »Sicherheitsklima« stellen jeweils einen spezifischen Beschreibungs- und Beobachtungsrahmen her, um sicherheitswirksame Human Factors wie Einstellungen, gemeinsame »Landkarten«, kollektive Wertesysteme sichtbar – und damit der Kommunikation und systematischen Intervention zugänglich – zu machen.
Jenseits der divergenten Positionen in Theorie und Praxis tragen die theoretische Auseinandersetzung und die erfolgten Operationalisierungen des Konstrukts »Sicherheitskultur« dazu bei, dass zumindest die relevanten Dimensionen des Konstrukts Sicherheitskultur in den aktuellen Kanon eingehen. Sicherheitskultur bezieht die in . Tab. 9.2 dargestellten Dimensionen ein.
9.6.2 Sicherheit und Zuverlässigkeit Umfassende Untersuchungen an Organisationen, die zuverlässige Hochleistungssysteme in Hochrisikobranchen repräsentieren, haben das Verständnis für hoch zuverlässige Organisationen (»high reliability organizations«, HRO) vertieft (Weick & Roberts, 1993). Weick & Sutcliffe (2003) haben Grundannahmen, Prozesse und Handlungen in zuverlässigen Organisationen identifiziert, die die Sicherheitskul. Tab. 9.2. Dimensionen der Sicherheitskultur. (Nach Pronovost & Sexton, 2005; Flin, Burns, Mearns Yule & Robertson, 2006) Management
4 Engagement für Sicherheit und Verbindlichkeit von Sicherheitszielen 4 Führungsverhalten 4 Personalauswahl und -entwicklung
Führungsebenen
4 4 4 4 4
Einhaltung von Regeln und Prozeduren Arbeitsanforderungen Produktionsdruck (»workload«) Beachtung von Stressoren Stressmanagement
Teams
4 4 4 4
Teamarbeit Teamarbeitsklima Kommunikation Kompetenzen/Lernen
Instrumente
4 Berichtssysteme 4 Risikowahrnehmung und -bewertung 4 Sicherheitssysteme
167 9.6 · Sicherheit organisieren
tur solcher Unternehmen ausmachen (. Tab. 9.3). Sie beschreiben 5 stabile Kommunikationsmuster, die es den Mitarbeitern zuverlässiger Organisationen ermöglichen, ihre konkreten Arbeitshandlungen sicher, zuverlässig und reflektiert auszuführen. Sind im Kommunikationsmuster einer Organisation Kommunikationen über minimale Fehler, vereinfachende Annahmen, betriebliche Abläufe, Entscheidungsprozesse und flexible Entscheidungswege erst einmal zulässig, können sie sich durch regelmäßige Wiederholung stabilisieren. Der positive Effekt für die Sicherheitskultur besteht darin, dass diese Kommunikationsmuster die Aufmerksamkeit der Mitarbeiter vor, während und nach ihren Arbeitshandlungen fokussieren – d. h., ein Kommunikationsmuster beeinflusst die individuellen Denkprozesse. Beispiel Techniker führen eine Wartungsprozedur durch und bereiten diese selten durchgeführten Handlungen nach. Ist die Frage nach »beobachteten minimalen Abweichungen« zulässig und wird von der Führungskraft gestellt, laufen die individuellen Erinnerungsprozesse mit hohem Genauigkeitsgrad an und fördern solche Beobachtungen zutage. Ist die Frage während der Nachbereitung nicht zulässig, erinnern sich die Mitarbeiter eher grob an die gemeinsam bearbeiteten Wartungsprobleme und ihr Diskurs fördert kaum sicherheitsrelevante Themen zutage.
9
Diese Beobachtungen an zuverlässigen Organisationen bilden einen produktiven Rahmen für Organisationsentwicklung, personalwirtschaftliche Aspekte (Personalauswahl, Personalentwicklung), Sicherheitssysteme und die empirische Überprüfung der Sicherheitskultur. Der wichtigste Beitrag besteht in der Anregung für Führungskräfte und Mitarbeiter, entsprechende Kommunikationsmuster bezüglich der genannten Dimensionen der Achtsamkeit zu entwickeln. Welche Kommunikationsmuster sind für sichere Handlungen nützlich (. Tab. 9.4)?
9.6.3 Organisationsentwicklung Reason (1997) stellt mit dem Konzept der informierten Kultur 4 organisationale Prozesse zur Diskussion, um die sicherheitsrelevante Annahmen, Werte und Instrumente gruppiert werden (könnten). Auch das Konzept der informierten Kultur ist eine kommunikative Anregung, eine Möglichkeit für Organisationen, ihre Sicherheitskommunikation zu entwickeln und zu stabilisieren. Berichtskultur
Organisationen und insbesondere das Management benötigen Informationen über minimale Ereignisse, Fehler und Beinahe-Unfälle. Um an diese »kostenlosen Lektionen« heranzukommen, benötigt man nicht nur ein funktionierendes Berichtswesen, sondern auch ein gemeinsames Verständnis über den
. Tab. 9.3. Grundmuster zuverlässiger Organisationen. (Nach Weick & Sutcliffe, 2003)
Dimensionen der Zuverlässigkeit
Beschreibung des Grundmusters
Auseinandersetzung mit Fehlern
Auseinandersetzung mit Fehlern und Konzentration auf kleine Abweichungen. Kritische Haltung gegenüber den Gefahren anhaltender Erfolgsphasen wie Selbstzufriedenheit, Nachlässigkeit
SkepsisbeiKomplexitätsreduktion
Skepsis gegenüber vereinfachenden Annahmen und Ereignisinterpretationen. Bevorzugt werden differenzierte, komplexe Modelle und Vorstellungen über interne und externe Ereignisse
Sensibilität für betriebliche Abläufe
Sensibilität und hohe Aufmerksamkeit für betriebliche Abläufe. Normale Arbeitsroutinen werden auf Fehlerpotenzial untersucht. Wichtig sind die vielen, situativ vollzogenen Fehlerkorrekturen und die Kommunikation darüber
Wer trifft Entscheidungen
Respekt vor fachlicher Expertise. Entscheidungen werden an den Ort verlagert, wo die höchste fachliche Expertise für das Problem liegt. Tendenziell werden sachliche Entscheidungen von formaler Hierarchie getrennt
Flexibilität ist Programm
Streben nach Flexibilität, das ist eine Mischung aus der Fähigkeit, Fehler frühzeitig zu entdecken, und der Fähigkeit, das System durch improvisierte Methoden am Laufen zu halten
168
Kapitel 9 · Organisationen – Kommunikationssystem und Sicherheit
. Tab. 9.4. Nützliche Kommunikationsmuster für sichere Handlungen
9
Kommunikationsmuster
Beispiele
(Re-)Fokussierung
Arbeitssicherheit
Risikodiskussion
Risikoanalyse, Risikobewertung, Handlungsoptionen, »Exit-Kriterien«
Teambesprechung (Briefing)
Anstehende Arbeitsprozesse, Zwischenziele, Teamanforderungen, Führung, Kommandos
Nachbesprechung (»debriefing«)
Positive Lösungen, unerwartete Ereignisse, kritische Teaminteraktionen
Meldungen
Meldewege und -verfahren für Abweichungen, minimale Ereignisse und Zwischenfälle
Zwischenfalls-Auswertung
Fallbesprechung, Einsatz von Verfahren zur Ereignisanalyse
Sicherheitsgespräch
Repetition von Sicherheitsregeln, Dependenz-Konsequenz-Analyse möglicher sicherheitsrelevanter Verhaltensweisen
Sinn solcher Informationen. Die Etablierung einer Berichtskultur ist primär eine kommunikative Führungsaufgabe. Durch wiederholte Kommunikation zwischen den Mitarbeitern verändert sich in den mentalen Modellen der Organisationsmitglieder der Stellenwert von Informationen über abweichende Ereignisse und beobachtete (Fehl-)Handlungen. Nur durch »Fehlerkommunikation« ist das Ziel zu erreichen, dass Fehler wahrgenommen, angesprochen, diskutiert und letztlich gegenüber dem Management berichtet werden. Die Glaubwürdigkeit des Managements im Umgang mit berichteten Ereignissen zeigt sich dann am Umgang mit solchen Informationen. In jedem Falle verstärken Manager durch ihr Verhalten die Berichts- und Fehlerkultur: positiv z. B. durch Nachforschungen und systematische Aufklärung, negativ z. B. durch Ignorieren, Umdeuten, Fehler normalisieren, Schuldzuweisungen.
haltensweisen trennt, bei denen eine Bestrafung nicht angemessen ist und die ein erhebliches Lernpotential enthalten.« (Weick & Sutcliffe, 2003, S. 148). Flexible Kultur
Drittens schließt eine informierte Kultur den flexiblen Umgang mit festgelegten Informations- und Entscheidungswegen ein, d. h., Organisationsmitglieder sind in der Lage, sobald die Anforderungen an ihr gemeinsames Handeln durch Zeitdruck oder unerwartete Ereignisse verändert sind, abweichende Entscheidungsstrukturen aufzubauen, den arbeitsbezogenen Informationsfluss zu verändern und die Expertise von Mitarbeitern schnell für eine Problemlösung zu bündeln. Hier gilt »Expertise oder Eignung vor Hierarchie« als flexibles Organisationsprinzip. Lernkultur
Gerechtigkeitskultur
Eine informierte Kultur muss eine gerechte Kultur sein. Will das Management vertrauenswürdige und präzise Informationen über sicherheitsrelevante Ereignisse erhalten, muss vorab die Grenze zwischen akzeptierten Verhaltensweisen, die eine Sicherheitsgefährdung nach sich ziehen, und den nicht akzeptierten Verhaltensweisen sehr deutlich markiert sein. Dazu gehört auch die Definition von Ereignisbegriffen wie »Fehler«, »Beinahe-Unfall« oder »minimale Abweichung« (7 Kap. 3). »Diese Grenze ist entscheidend, weil sie unakzeptable Verhaltensweisen, die disziplinarische Maßnahmen erfordern, von akzeptablen Ver-
Eine Sicherheitskultur benötigt Informationen über permanent stattfindende Lernprozesse, d. h. die ständige Beobachtung und Reflexion von organisationalen Diskussionen, aufgetretenen Diskrepanzen, von Methoden und Problemlösungen. Eine Lernkultur setzt voraus, dass Informationen über beobachtete Ereignisse vorliegen und den Organisationsmitgliedern in geeigneter Weise zur Verfügung gestellt werden. Unter Lernkultur wird hier weniger die klassische Personalentwicklung verstanden, die durch gezielte Interventionen den Wissens- und Fähigkeitserwerb von einzelnen Menschen unterstützt, sondern die Kommunikation über sicherheitsrelevante Themen, sodass die Wahrnehmungs- und Denkprozesse der Organisationsmitglieder für Si-
169 9.6 · Sicherheit organisieren
cherheitsthemen ausdifferenziert werden. Eine Lernkultur stellt Informationen über Arbeitsinhalte, Prozesse und die damit verknüpften Sicherheitsthemen bereit. Der Fokus der Aufmerksamkeit liegt auf der Verbindung von »Sicherheit« und »Arbeitsgegenstand«. Man nutzt dabei das sog. inzidentelle (d. h. beiläufige) Lernen: Neben dem Wissenserwerb über Arbeitsprozesse wird beiläufig und ohne explizite Lerninstruktion sicheres Handeln erlernt.
9.6.4 Crew Resource Management
(CRM) – Ein Beispiel für Sicherheitskultur An der Evolution des Crew-Resource-ManagementKonzepts in der zivilen Luftfahrt lässt sich nachvollziehen, wie Human-Factors-Forschung, organisationale Sicherheitskommunikation und Interventionen in die Sicherheitssysteme miteinander vernetzt sind. Forschung, Personalentwicklung und Beobachtungen in der Praxis werden kontinuierlich dazu eingesetzt, sicherheitsrelevante Einstellungen, Fähigkeiten und Fertigkeiten im Umgang mit Technik und Team parallel zu entwickeln. Wichtige Etappen der Entwicklung von CRM-Trainings reflektieren zum einen die Veränderungen in den maßgeblichen Human-Factors-Paradigmen, zum anderen auch die Dynamik organisationaler Sicherheitskultur in der Luftfahrt. Was in den Kanon der CRM-Trainingsthemen aufgenommen wurde, hängt u. a. von der Reflexion nationaler Kulturen, professioneller Berufskulturen
9
und organisationsspezifischer Sicherheits- und Trainingsziele ab. Außerdem spielen die Evaluation und die Entwicklung angepasster Mess- und Evaluationsverfahren eine große Rolle bei der Etablierung von CRM-Trainings in verschiedenen Unternehmen (Salas, Fowlkes, Stout, Milanovich & Prince, 1999; Flin, 2001). Die erste Generation von CRM-Trainings in der 1980er Jahren bedurfte intensiver Überzeugungsarbeit, wobei der Einfluss internationaler Regulationsgremien der zivilen Luftfahrt erheblich dazu beigetragen hat, Widerstände in Organisationen aufzulösen (Merritt & Helmreich, 1997). Die Veränderungen am CRM-Konzept zeigen den Übergang von einem Trainings- zu einem Organisationsentwicklungsparadigma; die Übergangsphasen sind in . Tab. 9.5 dargestellt. Parallel zur Entwicklung des CRM in der Luftfahrt erfolgte in anderen Hochrisikobranchen die Umsetzung ähnlicher Sicherheitsprogramme, häufig mit einer starken Fokussierung auf einzelne Bausteine wie z. B. Team-Trainingskonzepte. Die Grenzen eines einfachen »Methoden-Transfers« traten schnell zutage; die Enttäuschung und Skepsis, dass aeronautische CRM-Konzepte beispielweise in der Medizin keine vergleichbaren positiven Impulse erzeugt haben, sind daher wenig überraschend (Thomas & Helmreich, 2002). Generell geht es um die Frage, warum die gleichen »Sozialtechniken« zur Verbesserung von Sicherheit in Organisationen keine vergleichbaren Effekte hervorbringen. Daran schließt die Frage an, wie und ob Organisationen überhaupt voneinander lernen können. Noch einmal: Organisationen sind selbstreferenzielle Systeme, die durch
. Tab. 9.5. Entwicklungsphasen des CRM-Konzepts. (Nach Helmreich, Merritt & Wilhelm, 1999)
Phase
Schwerpunkte
Cockpit Resource Management
Individuelle Verhaltensstile, Dominanz, Bestimmtheit in Interaktionen, Fokus: individuelle Pilotenfehler
Crew Resource Management
Teambildung, Briefing, situative Aufmerksamkeit, Stressmanagement, Entscheidungsfindung, Unterbrechen von Fehlerketten, Fokus: Fehler im Team vermeiden
Company Resource Management
Zusammenarbeit mit Kabinen-Crew, Maintenance, Air Trafic Control, Einfluss der Firmenkultur, Automatisierug, Fokus: Kooperation mit anderen Teams
Advanced Qualification Program
Angepasste Trainings entsprechend Organisationszielen, Fokus: Firmenphilosophie
Umfassendes Fehlermanagement
Fehlervermeidung durch sichere Handlungen, Fehlereingrenzung und Korrektur, Teamperformance, Fokus: Teamarbeit auf Organisationsebene: nonpunitive Fehlererfassung, Meldesysteme, Rückkopplung der erfassten Incidents an Subsysteme, Fokus: Lernkultur
170
9
Kapitel 9 · Organisationen – Kommunikationssystem und Sicherheit
interne Kommunikationsprozesse selektieren und verstärken, welche Ereignisse (hier: Trainingsinhalte, Methoden, Ziele) für sie relevant, nützlich und erfolgversprechend sind. Zweitens sei hervorgehoben, dass Organisationen qua Historie ihre »mentalen Landkarten« über lange Zeit entwickelt und zwischen den Organisationsmitgliedern angepasst haben. Somit ist der organisationsinterne Konsens über angemessene Ziele, Inhalte und Methoden auf dem Weg zu einer Sicherheitskultur eine mentale »Tiefenstruktur«, die Organisationen stark voneinander unterscheidet. Diese Dimensionen der Unterschiedlichkeit werden in der Regel erst aufgedeckt, wenn Organisationen voneinander lernen wollen – wie im Beispiel CRM-Trainingstransfer Luftfahrt/Medizin – oder voneinander lernen müssen – wie in zahlreichen Beispielen von Übernahmen und Fusionen (Krystek, 1992). Die Entwicklung des medizinischen Anesthesia Crisis Resource Management (ACRM) macht auch deutlich, wie wichtig die Konvergenz verschiedener organisationaler Aktivitäten für eine erfolgreiche Lerngeschichte zur Übernahme von Trainingszielen und -methoden ist. Auch in der Medizin wurden Handlungsfehler beobachtet, Arbeitsanforderungen analysiert, Arbeitsabläufe untersucht, trainingstheoretische Modelle entwickelt etc. Aber erst die Integration der Forschungsergebnisse in den medizinischen Sicherheitsdiskurs erzeugte den heutigen Konsens zum Thema »Patientensicherheit« und die daraus abgeleiteten (eigensinnigen) Trainingsinhalte, Methoden und Evaluationsansätze für ACRMTrainings (Manser, 2003; Ford, Kozlowski, Kraiger, Salas & Teachout, 1997; Xiao, Hunter, Mackenzie, Jeffries, Horst & the LOTAS Group, 1996; Howard, Gaba, Fish, Yang & Sarnquist, 1992).
9.6.5 Barrieren »Defence in Depth« (DID) Um die Sicherheit in Organisationen a priori zu gewährleisten, werden Organisationen bereits formal so strukturiert, dass vielfältige Barrieren wirksam werden. Hier nutzt man Prinzipien institutionalisierter Defence-in-depth-Sicherheitskonzepte, die an jedes Subsystem bestimmte Sicherheitsanforderungen stellen. »Defence in depth« (DID, Verteidi-
gung in die Tiefe, gestaffelte Barrieren) ist ein Organisationskonzept, das fundamentale Prinzipien des Schutzes von Umwelt, Organisation und Menschen umfasst. Umsetzungen von Defence-in-depth-Strategien findet man in der IT-Sicherheit, in der Energiebranche, im Finanzwesen (IAEA, 2005). Grundsätzlich beschreibt eine DID-Strategie alle Sicherheitsaktivitäten: organisationale, behaviorale und physikalisch-technische. Angefangen bei der Standortwahl eines Unternehmens, über Architektur, Design, Hersteller- und Lieferantenauswahl bis hin zu personalen Qualifikationen werden alle Elemente in einer Sicherheitsphilosophie zusammengefasst. Umgesetzt wird diese komplexe Barrierenidee u. a. durch die Zusammenfassung technischer und humaner Prozesse zu Sicherheitsstufen (»levels of defence«), die zuverlässige und hinreichende Kompensationsmargen für mögliche Fehler bilden.
Organisationale Sicherheitsstufen Organisationale Sicherheitsstufen schaffen eine Entkopplung von Subsystemen und eine Verlagerung von Sicherheitsanforderungen in autonome Organisationseinheiten. Jede übergeordnete Sicherheitsstufe hat zugleich eine Pufferungs- und eine supervisorische Kontrollfunktion gegenüber untergeordneten Stufen. Auf jeder Organisationsebene werden autonome Prozesse installiert, die der Prävention und dem Schutz im Falle eines eingetretenen Fehlers dienen. Damit versucht man, die Ausweitung eines Fehlers zunächst auf die jeweilige Organisationsebene zu begrenzen (»error containment«). Gelingt das nicht, greifen die Schutzmechanismen der nächst höheren Ebene, sodass die Fehlerausweitung in vertikaler Richtung unterbunden wird. »Defence-in-depth«-Prinzipien erstrecken sich auf architektonische Konstruktion von Gebäuden und Anlagen, physikalische Schutzeinrichtungen zur Vermeidung von Schädigungen der Umwelt, geprüfte technologische Zuverlässigkeit, Tests und Kontrollen, klare Verantwortlichkeiten in der Organisation, qualifiziertes Personal (Training). Ergänzt wird die formale Sicherheitsorganisation durch lebendige Sicherheitspolitik im Unternehmen, die sich auf Kompetenzen des Managements, Richtlinien, Prozeduren, Arbeitsanweisungen, interne Sicherheitsuntersuchungen und das Qualitätsmanagement beziehen.
171 9.6 · Sicherheit organisieren
Barrierefunktionen Solche Prinzipien des Organisationsaufbaus sind Barrieren, wobei 2 Grundfunktionen zu unterscheiden sind: 4 Barrieren, die das Eintreten eines spezifischen Ereignisses verhindern, dienen der Prävention. 4 Barrieren, die Folgen eines eingetretenen Ereignisses minimieren, dienen der Protektion, d. h. dem Schutz von Menschen, Umwelt und materiellen Gütern. Typische Barrierenfunktionen, die durch technische und humane Systemelemente realisiert werden, sind (Reason, 1993): 4 Schutz potenziell betroffener Menschen 4 Früherkennung von anormalen Zuständen 4 Warnung über ein eingetretenes Ereignis 4 Stabilisierung des Systems auf einem MinimumSicherheitsniveau 4 Fehlerfolgenbegrenzung 4 Evakuierung Barrierensysteme fassen also verschiedene Barrierenfunktionen zusammen, so z. B. die Person des Akteurs, Arbeitsinstruktionen, Alarm- und Notfallsysteme, physikalische und organisationale Mechanismen.
9
»…a barrier function can be defined as the specific manner by which the barrier achieves its purpose, whereas a barrier system can be defined as the foundation of the barrier function, i.e., the organisational and/or physical structure without which the barrier function could nor be accomplished.« (Hollnagel, 2004, p. 82)
Hollnagel (2004) schlägt eine Klassifikation von Barrieren vor und unterscheidet zwischen physikalischen, funktionalen, symbolischen und inkorporierten Barrieren (. Tab. 9.6). Um den Stellenwert von Human Factors in Bezug auf diese 4 Barrierenarten zu verdeutlichen, ist hervorzuheben, dass die meisten modernen Barrierensysteme ihre volle Wirksamkeit nur unter der Bedingung entfalten bzw. einhalten können, dass die Interaktionen zwischen technischen und humanen Systemkomponenten nicht gestört sind. Insbesondere symbolische und inkorporierte Barrieren erfordern aktive Mitwirkung von Akteuren und Akteurinnen, z. B. durch Interpretation, bestätigende Rückmeldung, Gedächtnis- und Problemlöseprozesse, Auswahl von Handlungen. Mit Blick auf das Fallbeispiel am Anfang des Kapitels ist z. B. der Check vor Inbetriebnahme eines Geräts eine symbolische Barriere, wobei nicht der Arzt als solcher die Barriere darstellt, sondern seine Rolle beim Verifizieren einer Vorbedingung für die (korrekte) Benutzung des Narkosegeräts.
. Tab. 9.6. Barrieren und Human Factors. (Nach Hollnagel, 2004)
Barrierenklasse und Funktionen
Realisierungsbeispiele
Potenzielle Konflikte
(1) Physikalische Barriere: abgrenzen, verhindern, schützen, blockieren
Zaun, Mauer, Poller, Tank, Ventil, Sicherheitsgurt, Sicherheitsglas, Einschränkung der physikalischen Bewegbarkeit von Objekten
Menschen vermeiden »Umwege« (Mauer, Zaun), bevorzugen Komfort (Gurt) Produktionseffizienz
(2) Funktionale Barriere: verhüten, abhalten verhindern, behindern
Airbag, Schlüssel, Steckverbindungen, Passwörter, biometrische Zugangskontrolle, zeitverzögerte Eingaben, Zwei-Hand-Bedienung
Vergessen (Passwort), Vereinfachen (Eingangscode = Geburtsdatum), Ausschalten, Überbrücken (mit unzulässigen Mitteln)
(3) Symbolische Barriere: entgegenwirken, vereiteln von Aktionen, Aktionen regulieren, Systemstatus anzeigen, erlauben, autorisieren, kommunizieren
Kodierung von Funktionen (Farbe, Form, räumliche Anordnung), Warnfunktionen, Instruktion, Prozedur, Schutzmaßnahme, Bedingungen, Zeichen (z. B. Verkehrszeichen), Signale, Alarme, Arbeitsanweisung, Erlaubnis (z. B. Startfreigabe)
Populationsstereotype, Alarm ausschalten, Gedächtnisfehler bei Prozeduren, Unkenntnis, Erwartungsbias
(4) Inkorporierte Barrieren: bieten Richtlinien des Handelns, schreiben vor, verbieten
Ethisch-moralische Normen, Gruppennormen, Unternehmensleitbild, Regeln, Vorgaben, Gesetze, Handbücher
Ignorieren, bewusste Regelverletzung, Unkenntnis, gruppendynamische Prozesse,
172
Kapitel 9 · Organisationen – Kommunikationssystem und Sicherheit
Symbolische Barrieren wie Hinweisschilder, Gebots- und Verbotssymbole müssen von jemandem verstanden und in Handeln umgesetzt werden. Ebenso inkorporierte Barrieren, die zwar auch in physikalischer Form vorliegen können, aber erst beim Gebrauch in Kombination mit dem Wissen der Akteure wirksam werden (Handbücher, Regeln, Leitlinien, Verbote, Gesetze). Hier greifen dann andere Maßnahmen, die in 7 Kap. 9.6.1 unter dem Stichwort »Sicherheitskultur« beschrieben sind, direkt auf die Barrierenwirksamkeit durch: Sorgt eine Organisation durch Trainings, Unterweisungen, Briefings etc. dafür, dass dieses Wissen bei den jeweiligen Akteuren aktualisiert wird, ist die Wahrscheinlichkeit für Fehlhandlungen wie z. B. das Auslassen einer vorgeschriebenen Checkliste geringer (Svenson, 2001).
Zielkonflikte
9
Da jedoch Barrieren weit in den täglichen Arbeitsprozess hineinreichen, bestehen häufig Konflikte zwischen Sicherheitszielen und anderen arbeitsbezogenen Zielen. Der Zweck einer Barriere (Sicherheitsziel) könnte zu Produktionszielen (Kosten- und Zeiteffizienz) im Widerspruch stehen. Systemimmanente Arbeitsbedingungen wie z. B. Zeitdruck bei medizinischen Noteingriffen rufen typische Barrierenverletzungen hervor: Sicherheitschecks werden ausgelassen, kontrollierende Verfahrensschritte abgekürzt, Redundanzprinzipien in der Teamkommunikation werden weggelassen. Aber auch individuelle Human Factors wie z. B. Vergessen, Vereinfachen, Verwechseln können dazu führen, dass Barrierenfunktionen bewusst oder unbewusst außer Kraft gesetzt werden. Hier spielt auch die Routinisierung von Arbeitsprozessen eine zentrale Rolle. Fliegt eine Crew 5-mal am Tag von München nach Hamburg, kann es passieren, dass beim Landeanflug auf Hamburg noch immer die Anflugkarte von München auf dem Klemmbrett des Piloten steckt. Die vorgesehene Barriere, um solche Fehler zu vermeiden, liegt im Prozess der Flugvorbereitung. Herrscht hier Zeitdruck, versuchen Piloten die Schritte der Flugvorbereitung zu beschleunigen und »professionell« aufgrund ihrer Routiniertheit zu reorganisieren, d. h. beispielsweise die Kartenunterlagen erst während des Fluges zu aktualisieren. In diesen Handlungen treten typische Zielkonflikte des gesamten Systems zutage.
Wie diese Zielkonflikte gelöst werden, welche Verletzungen von Barrierenfunktionen übersehen, toleriert oder in der Sicherheitsdebatte thematisiert werden, hängt hauptsächlich von der Kommunikation im relevanten Arbeitsumfeld zwischen Mitarbeitern und Führungskräften ab. Dabei spielen festgelegte Zielprioritäten seitens des Managements, Erwartungen an die »richtige« Zielbalancierung durch die Führungskräfte im mittleren Management und ein stilles Einvernehmen zwischen Mitarbeitern und Führungskraft durchaus die Rolle latenter Fehlerbedingungen. Kritische Kommunikationsmuster zwischen Organisationsmitgliedern erkennt man u. a. 4 am Verschweigen von Fehlern, 4 an der Tendenz, Abweichungen zu normalisieren, 4 Fehlverhalten zu bagatellisieren und 4 Kritik an Verhaltensweisen insbesondere von Führungskräften nicht zu äußern. Organisationale Kommunikation ist ein wesentliches Element, Barrieren wirksamer zu machen oder ihre Funktion ins Gegenteil zu verkehren. Jeder denkt: Wir haben ja wirksame Barrieren – niemand realisiert, dass sie durch dysfunktionale Kommunikationsmuster unwirksam oder geschwächt sind. Die Verantwortung jedes Organisationsmitglieds, so wie das im Konzept der Sicherheitskultur formuliert ist, bezieht sich nicht nur auf das eigene Handeln, sondern auch auf die kritische Beobachtung der Kommunikation in der Organisation.
9.7
Zusammenfassung und Schlussfolgerungen
Organisationen sind komplexe soziotechnische Systeme, die durch materielle, informationelle und sozial-kommunikative Prozesse gebildet werden. Für die Human-Factors-Perspektive sind nicht nur die Mensch-Technik-Interaktionen zentraler Forschungsgegenstand, sondern auch die zwischenmenschlichen Interaktionen, die als soziales Teilsystem – oder vereinfachend auch als Organisation – beschrieben werden. Wichtig für das Verständnis von Organisationen sind die Kommunikationsprozesse der beteiligten Menschen, weil hier eine Kopplung der indivi-
173 9.7 · Zusammenfassung und Schlussfolgerungen
duellen psychischen Systeme an die vielfältigen Organisationsprozesse stattfindet. Das, was innerhalb einer Organisation gesagt, verstanden und getan werden kann, unterliegt mehrfachen Determinationen. Einerseits sind es die Menschen selbst, die durch individuelle psychische Eigenschaften Informationen selektieren, kategorisieren, in Wissensstrukturen integrieren und in Aktionen umsetzen. Diese Human Factors erzeugen eine potenzielle Variationsbreite, wie mit Ereignissen, Problemen und täglichen Anforderungen umgegangen werden könnte. Andererseits entwickeln Organisationen im Laufe ihrer Geschichte Kommunikationsmuster, die nur noch bestimmte, in der Regel erfolgreiche, Interaktionen zulassen – sowohl zwischen Mensch und Technik als auch zwischen Mensch und Mensch. Betrachtet man Prozesse des Organisierens, also wie Menschen ihre Arbeits- und Sozialumwelt wahrnehmen und darin handeln, werden die Mechanismen der organisationalen Musterbildung in Abhängigkeit von individuellen psychischen Fähigkeiten und Bedürfnissen sichtbar. Stabile Muster in organisationalen Abläufen erscheinen dem Beobachter regelhaft, normativ und nur noch minimal veränderbar. Die Konzepte Organisations- und Sicherheitskultur fokussieren bestimmte Regelhaftigkeiten der Mensch-Technik- und der zwischenmenschlichen Interaktionen. Sie machen transparent, welche Regeln für die Erreichung von (Sicherheits-)Zielen nützlich und welche dysfunktional sind. Gleichzeitig verweist die Idee der gemeinsamen Verantwortung aller Organisationsmitglieder für ihre Kulturmerkmale auf den Umstand, dass menschliche Kommunikationssysteme durch alle »Mitspieler« aufrechterhalten werden und somit auch von allen verändert werden können. Dazu müssen Organisationsmitglieder die Regeln ihres Kommunikationssystems kennen und beherrschen, was meist Führungskräften besser gelingt. Sie stehen folglich stärker in der Verantwortung, solche Prozesse und Regeln des sozial-kommunikativen Systems zu stabilisieren, die es den Mitarbeitern ermöglichen, sicher und zuverlässig zu arbeiten. Das Organisieren einer auf Sicherheit ausgerichteten Organisationskultur ist ein kontinuierlicher
9
Prozess in kollektiver Verantwortung. Die kollektive Verantwortung lässt sich durch die Spezifika einer Organisation begründen, weil a) die komplexen Mensch-Technik-Interaktionen nicht mehr nur von wenigen Experten beherrscht werden können und b) die in einer Organisation etablierten Kommunikationsmuster von allen beteiligten »Spielern« aufrechterhalten und verändert werden können. Darüber hinaus stehen Führungskräfte in der Pflicht, permanent auf Sicherheitsthemen hinzuweisen und Kommunikationsmuster zu etablieren, die einerseits kollektive Diskurse über Sicherheitsthemen zulassen und andererseits für die beteiligten Organisationsmitglieder jeweils individuelle Orientierungen auf sichere Handlungen herbeiführen. Organisationsmitglieder benötigen zur Entwicklung eines gemeinsamen Verständnisses ihrer Organisation, insbesondere für beobachtete Ereignisse, Probleme und deren Lösungen, verschiedene Gelegenheiten, um sowohl ihre Denk- und Entscheidungsprozesse miteinander zu diskutieren als auch die Konsequenzen für die Herausbildung von Kommunikationssystemen auszusprechen. Solche Gelegenheiten sollten sicherheitsbewusste Führungskräfte und Teams organisieren, z. B. Sicherheitskurzgespräche, »briefings« und »debriefings« u. Ä. – Teaminteraktionen, die zur Korrektur und gemeinsamen Abstimmung der »mentalen Landkarten« beitragen. Beobachtungen an erfolgreichen Teams zeigen, dass gemeinsame Diskussionen auf 2 Kernprozesse im Team ausgerichtet sind: Informationsaustausch über a) Aufgaben/fachliche Probleme und b) Teaminteraktionen und Kommunikationsmuster. Das heißt, das Wissen über die Funktionsweisen und Kommunikationsregeln des Sozialsystems »Team« ist ebenso erfolgsrelevant wie das aufgabenbezogene, fachliche Wissen. Informationen über fachliche und soziale Prozesse helfen den Organisationsmitgliedern, ein gemeinsames Verständnis ihrer Umwelt, ihrer Arbeitsprobleme und ihrer Organisation zu entwickeln (Salas & CannonBowers, 2001).
9
174
Kapitel 9 · Organisationen – Kommunikationssystem und Sicherheit
9.8
Literatur
Awad, S. S., Fagan, S. P., Bellows, C., Albo, D., Green-Rashad, B., De La Garza, M., Berger, D. H. (2005). Bridging the communication gap in the operating room with medical team training. The American Journal of Surgery, 190 (5), 770–774. Baecker, D. (1997). Einfache Komplexität. In H. W. Ahlemeyer & R. Königswieser (Hg.), Komplexität managen. Strategien, Konzepte und Fallbeispiele, S. 21–50. Wiesbaden: Gabler. Caroll, J. S. (1998). Safety culture as an ongoing process: Culture surveys as opportunities for enquiry and change. Work & Stress, 12, 272–284. Colla, J. B., Bracken, A. C., Kinney, L. M. & Weeks, W. B. (2005). Measuring patient safety climate: a review of surveys. Quality and Safety in Health Care, 14 (5), 364–366. Cox, S. & Flin, R. (1998). Safety Culture: Philosopher’s stone or man of straw? Work and Stress, 12 (3), 93–106. Davies, J. M. (2005). Team communication in the operating room. Acta Anaest. Scan., 49 (7), 898–901. Flin, R. (2001). Behavioral markers for crew resource management: A review of the current practice. International Journal of Aviation Psychology, 11 (1), 95–118. Flin, R., Burns, C., Mearns, K., Yule, S. & Robertson, E. M. (2006). Measuring safety in health care. Quality and Safety in Health Care, 15 (2), 109–115. Ford, J. K., Kozlowski, S., Kraiger, K., Salas, E. & Teachout, M. (Eds.) (1997). Improving training effectiveness in work organizations. Mahwah: Erlbaum. Helmreich, R. L., Merritt, A. C. & Wilhelm, J. A. (1999). The evolution of crew resource management training in commercial aviation. International Journal of Aviation Psychology, 9 (1), 19–32. Hollnagel, E. (2004). Barriers and accident prevention. Aldershot: Ashgate. Howard, S. K., Gaba, D. M., Fish, K. J., Yang, G. & Sarnquist, F. H. (1992). Anesthesia crisis resource management: teaching anesthesiologists to handle critical incidents. Aviation Space Environmental Medicine, 63, 763–770. IAEA, International Atomic Energy Agency (1991). Safety culture. International Safety Advisory Group, Safety Series 75-INSAG-4. Vienna: IAEA. IAEA, International Atomic Energy Agency (2005). Assessment of defence in depth for nuclear power plants (Safety Reports). Vienna: IAEA. Jemison, D. B. & Sitkin, S. B. (1986). Acquisitions: The process can be a problem. Harvard Business Review, 1986 March-April, 106–116. Kayes, A. B., Kayes, D. C., Kolb, D. A. (2005). Developing teams using the Kolb Team Learning Experience. Simulation & Gaming, 36, 355–363. Krystek, U. (1992). Unternehmenskultur und Acquisition. Zeitschrift für Betriebswirtschaft, 5, 539–565. Leveson, N. (2002). A new approach to system safety engineering. MIT: Boston. Luhmann, N. (1984). Soziale Systeme. Frankfurt a. M.: Suhrkamp. Manser, T. (Hrsg.) (2003). Komplexes Handeln in der Anästhesie. Lengerich: Pabst.
Maturana, H. (1982). Erkennen: Die Organisation und Verkörperung von Wirklichkeit. Braunschweig: Vieweg. Merritt, A. C. & Helmreich, R. L. (1997). CRM: I hate it, what is it? (Error, stress, and culture). Proceedings of the Orient Airlines Association Air Safety Seminar (p. 123–134). Manila: Metro. Meshkati, N. (2002). Macroergonomics and aviation safety: The importance of cultural factors in technology transfer. In H. W. Hendrick & B. M. Kleiner (Eds.), Macroergonomics: Theory, methods and applications (p. 23–330). Mahwah: Lawrence Erlbaum. Meshkati, N. (1997). Human performance, organizational factors and safety culture. Paper presented on National Summit by NTSB on transportation safety, Washington, D.C. Morin, E. (2002). Kultur – Erkenntnis. In P. Krieg & P. Watzlawick (Hrsg.), Das Auge des Betrachters. Beiträge zum Konstruktivismus (S. 75–84). Heidelberg: Auer. Perrow, C. (1999). Normal accidents: Living with high-risk technologies. Princeton, NJ: Princeton Univ. Press. Pidgeon, N. F. (1991). Safety culture and risk management in organizations. Journal of Cross-Cultural Psychology, 22, 129–141. Pronovost, P. J. & Sexton, B. (2005). Assessing safety culture: guidelines and recommendations. Quality and Safety in Health Care, 14 (4), 231–233. Pronovost, P. J., Weast, B., Rosenstein, B. et al. (2005). Implementing and validating a comprehensive unit-based safety program. Journal of Patient Safety, 1, 33–40. Reason, J. (2000). Human error: Models and management. BMJ, 18 (320), 768–770. Reason, J. (1997). Managing the risks of organizational accidents. Aldershot: Aldershot. Reason, J. (1993). The Identification of latent organizational failures in complex systems. In J. A. Wiese, V. D. Hopkin & P. Stager (Esd.), Verification and identification of complex systems: Human factor issues (p. 223–237). New York: Springer. Rochlin, G. I. & von Meier, A. (1994). Nuclear power operations: A cross-cultural perspective. Annual Review of Energy Environment, 19, 153–187. Salas, E. & Cannon-Bowers, J. A. (2001). The science of training: A decade of progress. Annual Review of Psychology, 52, 471–499. Salas, E., Fowlkes, J. E., Stout, R. J., Milanovich, D. M. & Prince, C. (1999). Does CRM training improve teamwork skills in the cockpit? Two evaluation studies. Human Factors, 41, 326–343. Schein, E. H. (1997). Organizational culture and leadership. Chichester: Jossey-Bass Wiley. Senge, P. M. (1990). The fifth discipline. The art and practice of the learning organization. New York: Dubleday. Simon, F. B. (2006). Gemeinsam sind wir blöd!? Die Intelligenz von Unternehmen, Managern und Märkten. Heidelberg: Auer. Sträter, O. (2005). Cognition and safety. An Integrated approach to system design und assessment. Aldershot: Ashgate. Svenson, O. (2001). Accident and Incident analysis based on the Accident Evolution and Barrier function (AEB) model. Cognition, Technology & Work, 3 (1), 42–52.
175 9.8 · Literatur
Thomas, E. J. & Helmreich R. L. (2002). Will airline safety models work in medicine? In M. M. Rosenthal & K. M. Sutcliffe (Eds.), Medical error. What do we know? What do we do? (p. 217–234). San Francisco: Jossey-Bass. Tsang, P. S. & Vidulich, M. A. (2002). Principles and practice of aviation psychology. Human Factors in Transportation. Mahwah: Lawrence Erlbaum. Weick, K. E. (1995). Der Prozess des Organisierens. Frankfurt a. M.: Suhrkamp. Weick, K. E. & Sutcliffe, K. M. (2003) Das unerwartete Managen. Wie Unternehmen aus Extremsituationen lernen. Stuttgart: Klett-Cotta. Weick, K. E. & Roberts, K. H. (1993). Collecitve mind in organizations: Heedful interrelating on flight decks. Administrative Science Quarterly, 38, 357–381.
9
Xiao, Y., Hunter, W. A., Mackenzie, C. F., Jeffries, N. J., Horst, R. L. & the LOTAS Group (1996). Task complexity in emergency medical care and its implications for team coordination. Human Factors, 38, 636–645. Zhang, H., Wiegmann, D. A., von Thaden, T. L., Sharma, G. & Mitchell, A. A. (2002). Safety culture: A concept in chaos? Proceedings of the 46th annual Meeting of the Human Factors and Ergonomics Society. Santa Monica: Human Factors and Ergonomics Society. Zohar, D. (2000). A group-level model of safety climate: Testing the effect of group climate on micro-accidents in manufacturing jobs. Journal of Applied Psychology, 85, 587–596.
10 Führung Gudela Grote
10.1 Die Bedeutung von Führung für die Förderung von Sicherheit 10.2 Management von Unsicherheit – 180 10.3 Anforderungen an normative Führung – 182 10.4 Anforderungen an strategische Führung – 183 10.5 Anforderungen an operative Führung – 185 10.6 Führung bei organisationalen Veränderungen 10.7 Zusammenfassung 10.8 Literatur
– 189
– 187
– 186
– 178
177 10.1 · Die Bedeutung von Führung für die Förderung von Sicherheit
10
Beispiel Ein Operateur im Kontrollraum einer petrochemischen Produktionsanlage überwacht kritische Kenngrößen des Produktionsprozesses auf einer Reihe von Bildschirmen und Prozessschreibern. Mit Blick auf einen der Prozessschreiber erläutert einer seiner Schichtkollegen: »Wenn diese beiden Kurven nicht mehr parallel laufen, ist Vorsicht geboten – wenn sie sich kreuzen, muss sofort der Prozess gestoppt werden.« Neben den Prozessschreibern sind auf einem Blatt Papier die kritischen Werte für diese beiden Parameter – Druck in einem Reaktor und Energieverbrauch bei einer Gruppe von Pumpen – vermerkt, unterschieden nach dem Wert, bei dem der Vorgesetzte zu unterrichten ist, und dem Wert, bei dem der Prozess abgestellt werden muss, was sofortiges Leeren des Reaktors und Spülen mit Wasser sowie eine mehrstündige Produktionsunterbrechung bedeutet. Eine Stunde später beginnen sich die beiden Kurven tatsächlich aufeinander zu zu bewegen. Der sehr erfahrene Operateur bemerkt dies sofort und verändert nach Überprüfung einiger anderer Werte die Sollwerte für einen Produktionsstoff – er hat sich zusätzlich über die Sollwerte dieses Stoffes in den Prozessvorschriften vergewissert –, wodurch das automatische Prozessleitsystem den Zufluss
Dieser Ausschnitt aus dem Arbeitsalltag in einer Chemieanlage bietet Anlass zu vielerlei Fragen. Wie konnte es zu dieser Störung kommen: Hat die technische Prozessüberwachung versagt? Hat der Operateur durch vorheriges (Nicht-)Eingreifen zur Störung beigetragen oder sie sogar verursacht? Wieso hat der Operateur während der Störung kompetent und eigenständig, aber gleichzeitig auch gegen die empfohlene Vorgehensweise handeln können? Wie sind Kompetenzen und Verantwortung zwischen Operateur und Schichtführer abgegrenzt? Welche Rolle hat die Unterstützung des Schichtführers gespielt? Welchen Stellenwert hatte die Vorschrift? Welche besondere Motivation und Fähigkeit zeichnen den Operateur gegenüber dem zweiten Operateur in der Anlage aus, dessen Kommentar war: »Ich hätte den Prozess ganz sicher gestoppt«?
des Stoffes reduziert und der Reaktor entlastet wird. Gleichzeitig hat der Operateur auch den Schichtführer informiert, der wenige Minuten später aus einer Sitzung heraus zu ihm kommt und während des weiteren Verlaufs der Störung hinter ihm an der Leitwarte steht. Die ersten Aktionen des Operateurs haben den Trend der Messgrößen noch nicht umgekehrt, erst weitere Reduktionen des Produktionsstoffes und schnelleres Entleeren des Kessels führen nach mehr als einer Viertelstunde wieder zu einer Normalisierung der Werte. Im Verlauf dieser Störung haben sich die beiden Kurven auf dem Prozessschreiber kurzfristig gekreuzt. Im Vertrauen auf seine Fähigkeiten und ermutigt durch den Schichtführer hat sich der Operateur aber dagegen entschieden, den Prozess gänzlich zu stoppen. Statt einen größeren Produktionsausfall zu verursachen, hat er innerhalb einer halben Stunde den Prozess wieder weitgehend normalisiert, auch die Resultate der Qualitätskontrolle sind bald wieder positiv. Der weniger erfahrene Schichtkollege kommentiert: »Ich hätte den Prozess ganz sicher gestoppt!« – dabei ist aber Bewunderung für die Kompetenz des anderen zu spüren.
Diese Fragen lassen unterschiedliche Blickwinkel auf die optimale Gestaltung des Zusammenspiels zwischen Mensch, Technik und Organisation erkennen. Ist das Optimum dann erreicht, wenn keinerlei Störungen in den Abläufen auftreten oder wenn mit auftretenden Störungen kompetent umgegangen werden kann? Wie viel menschliche und wie viel technische Kontrolle wird benötigt, um komplexe Produktionsprozesse effizient und sicher planen und steuern zu können? Welches ist das richtige Verhältnis zwischen hierarchiegebundener Koordination einerseits und dezentralen Eingriffsmöglichkeiten andererseits? Und schließlich die Frage, die im Folgenden im Zentrum stehen wird: Welche Art der Führung ist nötig, um den sicheren Umgang mit risikoreichen Arbeitsprozessen zu gewährleisten?
178
Kapitel 10 · Führung
10.1
Die Bedeutung von Führung für die Förderung von Sicherheit
Förderung von Sicherheit in risikoreichen Arbeitssystemen wird im Allgemeinen als zentrale Führungsaufgabe angesehen, denn die Sicherheit des operativen menschlichen Handelns und die sichere Gestaltung von Organisationen (7 Kap. 9) sind über die Entscheidungen und Handlungen der Führenden in diesen Organisationen eng miteinander verknüpft. ! Alle Beschreibungen von Merkmalen sicherer Organisationen, von Sicherheitsmanagement oder Sicherheitskultur sind somit immer auch eine Handlungsanweisung an die Führenden, genau diese Merkmale in ihren Organisationen zu schaffen oder zu erhalten (Rundmo & Hale, 2003; Thompson, Hilton & Witt, 1998).
10
Dies ist eine entsprechend gängigen Managementmodellen (z. B. Bleicher, 1992) sowohl normative wie strategische Aufgabe. Hinsichtlich der strategischen Aufgabe wird vielfach auf die allgemeine Führungsliteratur verwiesen in der Annahme, dass Sicherheit letztlich genauso »gemanagt« werden kann wie andere strategische Zielsetzungen auch (z. B. Hale, Heming, Carthey & Kirwan, 1997). Bezüglich der normativen Aufgabe, die vielfach mit der Schaffung und Erhaltung einer Sicherheitskultur gleichgesetzt wird, besteht eher Ratlosigkeit angesichts der generellen Schwierigkeit, Kultur gezielt zu beeinflussen (z. B. Grote, 2007b; Guldenmund, 2000; Schein, 1992). Einigkeit besteht zumindest darin, dass »management commitment to safety« eine wesentliche Einflussgröße ist (z. B. Rundmo & Hale, 2003). Die Förderung und Erhaltung einer sicheren Organisation ist aber auch eine operative Aufgabe, die das tägliche Handeln der Führenden in den laufenden Arbeitsprozessen betrifft. Eine häufig zu findende Handlungsanweisung ist, dass Führende sich möglichst häufig in der Werkstatt, dem Kontrollraum, auf der Baustelle, oder wo auch immer operativ gearbeitet wird, blicken lassen sollten. Welches konkrete Führungsverhalten in risikoreichen Arbeitssystemen gefordert ist, ist bisher aber wenig erforscht (Flin, 2003).
In der Führungsforschung gibt es seit jeher 2 Tendenzen, die teilweise konkurrieren und sich teilweise ergänzen: 4 Suche nach Merkmalen der Führenden, sei es Persönlichkeitsdispositionen oder Verhaltensstile, die situationsunabhängig als Voraussetzung für Führungserfolg angesehen werden (vgl. Zaccaro, 2007) 4 Bestimmung von Situationsmerkmalen – z. B. der Aufgabe, der Organisation, der Geführten –, aus denen unterschiedliche Anforderungen an Führung abgeleitet werden, verbunden mit der grundsätzlichen Annahme, dass Führungsverhalten situativ angepasst werden muss (z. B. Zaccaro, Rittman & Marks, 2001) In diesem Beitrag wird im Wesentlichen dem zweiten Ansatz gefolgt und versucht, die Besonderheiten der Führung in risikoreichen Arbeitssystemen herauszuarbeiten. Ein grundlegendes, für die Führung sehr relevantes Situationsmerkmal ist die Art der Risiken bzw. die Art des anzustrebenden sicheren Zustands in einer Arbeitsorganisation (Grote, 2007a): Arbeitssicherheit. Zum einen geht es um die Ver-
meidung gesundheitsschädigender Wirkungen auf die Arbeitenden, wozu der Schutz vor Unfallgefahren und Berufskrankheiten gehört. Dies kann durch Beseitigung oder Unschädlichmachen der Gefahr, durch Trennung zwischen Mensch und Gefahrenquelle, durch Schutz vor den Wirkungen der Gefahr oder durch möglichst sichere Interaktion zwischen Mensch und Gefahr erfolgen. Diese Art der Sicherheit, hier Arbeitssicherheit genannt, ist somit eine sekundäre Aufgabe, die erfüllt werden muss, um die eigentliche oder primäre Arbeitsaufgabe ohne Gefahr für die eigene Gesundheit und möglicherweise für die Gesundheit anderer ausführen zu können. Den Helm zieht die Bauarbeiterin nicht an, um ein Haus besser bauen zu können, sondern um sich vor den Gefahren, die beim Bauen des Hauses vorhanden sind, zu schützen. Prozesssicherheit. Zum anderen kann der Produk-
tionsprozess Risiken beinhalten, die nicht oder nicht nur den arbeitenden Menschen, sondern den Arbeitsprozess selbst und seine unmittelbaren Ergeb-
179 10.1 · Die Bedeutung von Führung für die Förderung von Sicherheit
nisse betreffen – hier Prozesssicherheit genannt. Die Bauarbeiterin muss Eisenverstärkungen so anbringen, dass der anschließend gegossene Beton seine statische Funktion bestmöglich erfüllen kann. Dazu benötigt sie keinen Helm, sondern v. a. viel Fachkenntnisse, gute Kooperation mit ihren Kollegen auf der Baustelle, gutes Material etc. Hier betrifft die Sicherheit die primäre Arbeitsaufgabe. ! Drei gerade auch aus Perspektive der Führung relevante Gründe (s. folgende Aufzählung) sprechen für die konzeptionelle Trennung von Arbeits- und Prozesssicherheit (Grote, 2007a).
1. Da Arbeitssicherheit für den betroffenen Arbeitenden meist Sekundär-, Prozesssicherheit hingehend Teil der Primäraufgabe ist, sind andere motivationale Prozesse anzunehmen (Semmer & Regenass, 1996). Dies ist insbesondere bei der Konzeption und Durchführung personbezogener Maßnahmen für die Sicherheitsförderung zu berücksichtigen. Wenn Prozesssicherheit untrennbarer Bestandteil der Primäraufgabe ist, kann die Motivierung unmittelbar durch motivationsfördernde Aufgabengestaltung erfolgen. Motivation für arbeitssicherheitsbezogenes Handeln als Sekundäraufgabe – obwohl eigentlich im ureigensten Interesse der Arbeitenden – muss meist stärker durch zusätzliche Maßnahmen wie Belohnung und/oder Überwachung gestützt werden, insbesondere wenn Sicherheitsanforderungen effizientes Arbeiten sogar behindern (z. B. das Tragen von Handschuhen, die das Bedienen einer Tastatur erschweren). 2. Indikatoren für Arbeits- und Prozesssicherheit unterscheiden sich. Dies ist im Führungsprozess zu berücksichtigen, wenn es beispielsweise darum geht, sicherheitsbezogene Ziele für die Mitarbeitenden festzulegen und ihre Erreichung zu evaluieren. Im ersten Fall geht es vielfach um Arbeitsunfälle, die den arbeitenden Menschen, nicht aber notwendigerweise die Arbeitsprozesse betreffen (z. B. Wegeunfälle durch Stolpern und Ausrutschen). Im zweiten Fall werden betriebliche Störfälle betrachtet, die den Arbeitsprozess, nicht unbedingt aber den arbeitenden Menschen tangieren (z. B. falsche Medikamentierung eines Patienten). Nicht selten wird als
10
Beleg für die (Nicht-)Wirksamkeit einer Maßnahme, die die Prozesssicherheit betrifft, die Zahl der Arbeitsunfälle herangezogen, da die größere Häufigkeit von Arbeitsunfällen im Vergleich zu betrieblichen Störfällen eher statistische Auswertungen zulässt. Konzeptionell ist das fragwürdig, wenn nicht belegt werden kann, dass Arbeits- und Prozesssicherheit denselben Wirkzusammenhängen unterliegen. Die meisten Eisenbahnunternehmen sind interessante Beispiele dafür, dass tatsächlich wohl eher unterschiedliche Wirkzusammenhänge anzunehmen sind, da sie sich durch eine im Vergleich mit anderen Industrien sehr hohe Prozesssicherheit und eher niedrige Arbeitssicherheit auszeichnen (Hale & Heijer, 2006). 3. Die konzeptionelle Trennung zwischen Arbeitsund Prozesssicherheit unterstützt auch die Identifikation möglicherweise gegenläufiger Wirkungen einer Sicherheitsmaßnahme. Ein einfaches Beispiel ist die physische Abschirmung von technischen Anlagen, um die Verletzungsgefahr zu reduzieren. Dadurch wird gleichzeitig die Prozesstransparenz reduziert, was sich nachteilig auf die Prozesssicherheit auswirken kann. Eine komplexere, noch nicht abschließend geklärte Frage betrifft die Auswirkung von operativen Freiheitsgraden auf die Sicherheit (Grote, 1997, 2007b). Aufgrund ihres Befunds von höheren Arbeitsunfallzahlen bei Arbeitenden mit vielfältigeren Aufgaben kommen beispielsweise Hoyos, Gockeln & Palecek (1981, S. 149) zu dem Schluss: »Handlungsspielraum bringt Gefährdung mit sich.« Andere Forschungen zeigen eher die Vorteile von mehr Autonomie durch erhöhtes eigenverantwortliches und flexibles Handeln, wobei dort oft eher proaktives, auf die Prozesssicherheit bezogenes Verhalten als Indikator verwendet wurde (Shannon, Mayr & Haines, 1997). Ein weiteres wichtiges Merkmal von Arbeitssituationen ist der Grad der Routine oder Neuheit der Anforderungen sowie auch der spezielle Fall organisationaler Veränderungen. Für diese Unterscheidung sprechen viele Erkenntnisse aus der allgemeinen Führungs- und Organisationsforschung (vgl. den Überblick von Wall, Cordery & Clegg, 2002).
180
Kapitel 10 · Führung
! In risikoreichen Arbeitssystemen ist zusätzlich zu berücksichtigen, dass viele Grundprinzipien des Sicherheitsmanagements eher für Routineprozesse geeignet sind und bei höheren Graden von Neuheit oder Veränderungen schlecht greifen. Gleichzeitig gibt es aber auch in risikoreichen Arbeitssystemen die Notwendigkeit für Innovation und Veränderung. Daraus entstehen komplexe und teilweise widersprüchliche Anforderungen an die Gestaltung und Führung dieser Systeme (Perrow, 1984).
10
Im Folgenden wird zunächst die Unterscheidung zwischen Routine- und neuartigen Prozessen mit ihren unterschiedlichen Anforderungen an Führung aus der Perspektive des Managements von Unsicherheiten ausführlicher betrachtet. Anschließend werden Führungsaufgaben auf normativer, strategischer und operativer Ebene formuliert. Zum Schluss wird auf Anforderungen bei der sicheren Gestaltung organisationaler Veränderung eingegangen.
10.2
Management von Unsicherheit
Ein Kernproblem von Arbeitssystemen ist der Umgang mit Unsicherheit (vgl. z. B. Perrow, 1967; Thompson, 1967). Als offene und komplexe Systeme sind sie mit einer Vielzahl interner und externer Störungen konfrontiert, die die Erreichung der Systemziele behindern können. Auch wenn man der Argumentation von Selbstorganisationstheorien folgt, dass soziale Systeme ähnlich wie biologische Systeme durch operationale Geschlossenheit gekennzeichnet sind, bleibt die Problematik des Umgangs mit Unsicherheit – wenn auch unter etwas anderen Prämissen – bestehen (Grote, 1997). Wie Marris (1996) beschreibt, drückt sich Macht in Organisationen wie auch in sozialen Systemen generell gerade dadurch aus, wie mit Unsicherheit umgegangen wird. Wesentliches Kennzeichen von Macht ist in seiner Argumentation die Möglichkeit, Unsicherheit an andere, weniger Mächtige weitergeben zu können.
! Sehr vereinfacht können 2 Arten des Umgangs mit Unsicherheit in Arbeitssystemen unterschieden werden (Grote, 1997, 2004), die Minimierung und die Bewältigung, die sich besonders in Bezug auf die Art der Planungsprozesse, die gewählten Koordinationsmechanismen für die Kopplung zwischen Planung und Umsetzung und die operative Zusammenarbeit sowie den Umgang mit Störungen unterscheiden (. Abb. 10.1). Minimierung und Bewältigung von Unsicherheit
Der Versuch der Minimierung von Unsicherheit – besonders ausgeprägt in risikoreichen Arbeitssystemen – setzt komplexe, zentrale Planungssysteme und eine Reduktion operativer Handlungsspielräume durch Reglementierung und Automatisierung voraus, um einerseits Unsicherheit »wegzuplanen« und andererseits eine hohe Kopplung zwischen zentraler Planung und dezentraler Umsetzung zu erreichen. Koordination erfolgt v. a. via Standardisierung und durch Programme (7 Kap. 17.2) sowie persönliche Weisungen. Mit der Strategie der Bewältigung von Unsicherheit wird vom Mythos der zentralen Kontrollierbarkeit komplexer Systeme Abschied genommen, wodurch gleichzeitig ein konstruktiveres Umgehen mit der Begrenztheit der Planung und Steuerung und eine gezielte Förderung dezentraler Autonomie möglich werden. Planung wird als Ressource für situatives Handeln verstanden (vgl. Suchman, 1987) und damit die Kopplung zwischen Planung und Umsetzung durch eine Anpassung der Planung an die Erfordernisse der Umsetzung erreicht, anstatt die Umsetzung der Planung unterzuordnen. Koordination erfolgt zusätzlich über gegenseitige Absprachen lateral vernetzter Akteure und nicht zuletzt über geteilte Normen und Werte. Störungen werden nicht mehr automatisch und unhinterfragt als Zeichen schlechter Planung und mangelnder Effizienz gedeutet, sondern zumindest auch als mögliche Chance für individuelles Lernen wie auch für systemische Weiterentwicklung verstanden. Dies kann so weit gehen, dass Störungen und – nach einem engen Verständnis – Ineffizienz bewusst in Kauf genommen werden, um auf einer übergeordneten Ebene Effizienz durch Lernprozesse und neue Lösungen zu steigern in der Annahme, dass eine
181 10.2 · Management von Unsicherheit
wirkliche Weiterentwicklung nur in der Auseinandersetzung mit dem »Nicht-Normalfall« passieren kann (z. B. Staehle, 1991). Schon in früheren organisationswissenschaftlichen Studien und neuerdings in einem Überblicksartikel von Wall, Cordery & Clegg (2002) ist aufgezeigt worden, dass die Minimierung von Unsicherheit (z. B. in mechanistischen Organisationen nach Burns & Stalker, 1961) dann erfolgreich sein kann, wenn die Organisation insgesamt mit wenigen Unsicherheiten konfrontiert ist, also z. B. in einer stabilen Umwelt Routineprozesse sicherzustellen hat. Wenn ein höheres Ausmaß an Unsicherheiten, z. B. bei innovativen Arbeitsprozessen in dynamischen Umwelten, vorliegt, dann führt nur die Bewältigung von Unsicherheiten (z. B. in organismischen Organisationen nach Burns & Stalker, 1961) zum Erfolg. ! Die Bewältigung von Unsicherheit muss jedoch ohne Verlust der Bindung zwischen Subsystemen des Arbeitssystems erfolgen, was dezentrale Planung und Umsetzung im Rahmen koordinierter arbeitsteiliger Prozesse erfordert. Weick (1976; Orton & Weick, 1990) hat den Begriff der »losen Kopplung« (»loose coupling«) verwendet, um die dafür nötige Gleichzeitigkeit von Autonomie und Bindung auszudrücken.
10
Dabei bezieht sich Weick auf Thompson (1967) und die von ihm beschriebene Gleichzeitigkeit von Unsicherheit und rationaler Planung auf den verschiedenen Ebenen von Verantwortung und Kontrolle in Organisationen (7 Kap. 2 und 17). Das Konzept der losen Kopplung ist zu unterscheiden von der häufig verwendeten eindimensionalen Definition von Kopplung, die durch die beiden Pole Unabhängigkeit und Abhängigkeit der Systemkomponenten gekennzeichnet ist (z. B. Perrow, 1984; Staehle, 1991; vgl. auch Orton & Weick, 1990, für eine detaillierte Behandlung der diversen Missverständnisse bzgl. ihres Konzepts der losen Kopplung). Eine Reihe von Gestaltungsempfehlungen der Arbeits- und Organisationsforschung stellen letztlich Versuche der Umsetzung der Idee der losen Kopplung dar (. Abb. 10.1), z. B.: 4 Förderung von Motivation durch Aufgabenorientierung (Emery, 1959) auf der Grundlage individuell oder kollektiv vollständiger Aufgaben, wodurch autonomes Handeln auf ein überindividuelles, der Aufgabe inhärentes Ziel gerichtet werden soll 4 Förderung von Autonomie höherer Ordnung (Grote, 1997; Klein, 1991), d. h. die selbstbestimmte Beschränkung operativer Autonomie z. B. in technisch eng gekoppelten und risikorei-
. Abb. 10.1. Management von Unsicherheit in Organisationen. (Nach Grote, 2004)
182
Kapitel 10 · Führung
chen Systemen, in denen ein besonders hoher Grad an kontinuierlicher Koordination gewährleistet werden muss 4 Flexibler Wechsel zwischen Organisationsformen mit unterschiedlichen Graden an (De-)Zentralität, um auf unterschiedliche Anforderungen an die Bewältigung von Unsicherheit reagieren zu können (z. B. LaPorte & Consolini, 1991) 4 Schaffung gemeinsamer Normen im Sinne einer starken Organisationskultur, durch die autonomes Handeln überindividuell koordiniert und integriert werden kann (z. B. Schein, 1992; Weick, 1987)
10
Diesen Konzepten ist gemeinsam, dass sie ausgehend von der Forderung nach hoher dezentraler Autonomie im operativen Bereich Koordinationsmechanismen beschreiben, die die Nutzung der Autonomie im Sinne eines übergeordneten gemeinsamen Ziels fördern. Im Folgenden werden Anforderungen an Führung auf normativer, strategischer und operativer Ebene mit Blick auf die beiden Arten des Managements von Unsicherheiten und die Erfordernis der losen Kopplung diskutiert.
10.3
Anforderungen an normative Führung
! Eine grundlegende Herausforderung für die Führung risikoreicher Arbeitssysteme ist es, die richtige Mischung von Minimierung und Bewältigung von Unsicherheiten zu finden. Generell gilt, dass je höher das Ausmaß der Unsicherheiten, mit denen das System durch seine eigenen Transformationsprozesse und durch seine Umwelt konfrontiert ist, desto eher sollte eine Bewältigungsstrategie verfolgt werden.
Da das Ausmaß der Unsicherheiten für verschiedene Teile einer Organisation bzw. für verschiedene Arbeitsprozesse in einer Organisation unterschiedlich sein kann, können auch verschiedene Koordinationsformen nebeneinander existieren, was allerdings das zusätzliche Problem der Gewährleistung der Durchgängigkeit schafft. Dies ist einerseits eine stra-
tegische Führungsaufgabe, die in 7 Kap. 10.4 noch ausführlicher behandelt wird. Es ist aber auch eine wesentliche Aufgabe normativer Führung, da bei diesen Entscheidungen basale Werte der Organisation betroffen sind. 4 Wird der Mensch in der Organisation eher als Risiko- oder als Sicherheitsfaktor gesehen? 4 Welches Gewicht hat Überwachung versus Vertrauen? 4 Wird Technik eher als Unterstützung oder Ersatz von Menschen verstanden? Die Antworten auf diese Fragen drücken Grundannahmen im Sinne der Definition von Organisationskultur durch Schein (1992) aus, die nur begrenzt oder wenig systematisch beeinflusst werden können, die aber für das Grundverständnis der Erfordernisse einer sicheren Organisationsgestaltung von fundamentaler Bedeutung sind. Führungsaufgabe ist es, die Reflexion dieser Grundannahmen anzuregen und soweit möglich die Herausbildung und den Erhalt solcher Grundannahmen zu fördern, die das sichere Funktionieren der Organisation unterstützen. Welches die »richtigen« Grundannahmen sind, hängt von vielen Bedingungen ab, nicht zuletzt von den bereits diskutierten externen und internen Unsicherheiten. Quinn & Rohrbaugh (1983) haben aus der Perspektive der Effektivität von Unternehmen heraus vorgeschlagen, dass die Grundwerte der Organisation auf den 3 Dimensionen 4 Flexibilität vs. Kontrolle, 4 internaler vs. externaler Fokus und 4 Mittel vs. Ziele analysiert und reflektiert werden sollten, woraus auch verschiedene Führungsrollen abgeleitet werden. Wählt beispielsweise eine Organisation eine externale und auf Flexibilität gerichtete Orientierung, erwachsen daraus die Führungsrollen »Innovator« (Förderung von Kreativität und Veränderung) und »Broker« (Beschaffung von Ressourcen und Förderung der Vernetzung und Legitimität nach außen; Denison, Hooijberg & Quinn, 1995). Im Anfangsfallbeispiel dieses Kapitels handelt der Operator entsprechend dem Ansatz der Bewältigung von Unsicherheiten. Er nutzt sein Wissen und seine Kompetenz im Umgang mit dem Prozess und sichert seine Handlungsweise auch mithilfe
183 10.4 · Anforderungen an strategische Führung
der vorhandenen Prozessbeschreibungen und dem herbeigerufenen Schichtführer ab. Gleichzeitig besteht offensichtlich aber bei einem Schichtkollegen ein anderes Grundverständnis, das eher in der Minimierung von Unsicherheit verortet werden kann und dem auch die vorhandene schriftliche Vorschrift hinsichtlich der Vorgehensweise bei verschiedenen kritischen Parameterwerten zu entsprechen scheint. Die zentrale normative Führungsaufgabe, das gewünschte Grundverständnis zu definieren und Maßnahmen zu ergreifen, dass dies auch angemessen kommuniziert und umgesetzt wird, ist in diesem Unternehmen offensichtlich unzureichend erfüllt. Dazu würde in diesem konkreten Beispiel auch gehören, den Stellenwert von Vorschriften zu klären. Sind die schriftlich notierten Handlungsanweisungen in diesem Fall eher als Orientierung zu verstehen, die den weniger kompetenten Operateuren vermitteln sollen, dass es in Ordnung bzw. sogar gewünscht ist, den Prozess in bestimmten kritischen Zuständen abzustellen (eine technische Notabschaltung gibt es dann ja auch noch) oder doch als für alle verpflichtende Vorgabe? ! Grundsätzlich kann angenommen werden, dass starke kulturelle Normen und Werte v. a. dann sehr wichtig sind, wenn mit relativ großer Autonomie im Sinne der Bewältigung von Unsicherheiten gearbeitet wird. Dann dienen diese Normen als weicher Koordinationsmechanismus und fördern die lose Kopplung der autonomen Akteure an die Ziele der Gesamtorganisation. »(Culture) creates a homogeneous set of assumptions and decision premises which, when they are invoked on a local and decentralized basis, preserve coordination and centralization.” (Weick, 1987, p. 124)
Unter Bedingungen der Minimierung von Unsicherheit ist anzunehmen, dass Kultur als Koordinationsmechanismus eine eher untergeordnete Bedeutung hat, da Standardisierung, Programmierung und persönliche Weisungen die Koordination der Akteure gewährleisten (Grote, 2007b; Van de Ven, Delbecq & Koenig, 1976).
10.4
10
Anforderungen an strategische Führung
Die meisten führungsbezogenen Erfordernisse, die aus Sicht der Förderung von Sicherheit formuliert werden, betreffen die Ebene der strategischen Führung. ! Kernaussage ist, dass es Managementaufgabe ist, der Sicherheit die angemessene Priorität gegenüber anderen unternehmerischen Zielsetzungen, insbesondere Produktivität und Effizienz, zu verschaffen (z. B. Reason, 1990).
Aus dieser grundlegenden Aufgabe erwachsen dann weitere, wie z. B. die Bereitstellung ausreichender Ressourcen für die Sicherheit, die Erarbeitung von Sicherheitsleitbildern und die Schaffung von organisationalen Strukturen und Prozessen, die auf der operativen Ebene sicheres Handeln ermöglichen und unterstützen (z. B. INSAG, 1999).
Strategische Führungsaufgabe Eine wesentliche strategische Führungsaufgabe ist auch, angesichts von Art und Menge vorhandener Unsicherheiten in den Prozessen und in der Systemumwelt Koordinationsmechanismen so zu bestimmen, dass die Akteure für den angemessenen Umgang mit diesen Unsicherheiten befähigt werden (Grote, 2007b). Grundsätzlich können die folgenden Koordinationsmechanismen genutzt werden (vgl. Kieser & Kubicek, 1992): 4 Algorithmisierung von Arbeitsprozessen durch Technik 4 Vorschriften 4 Persönliche Weisungen 4 Wechselseitige persönliche Absprachen 4 Kulturelle Normen
Innerhalb jeder Koordinationsart ist zusätzlich zu entscheiden, wie viel Handlungsspielraum die verschiedenen Akteure haben sollen. Bei technisch determinierten Prozessen heißt das, dass grundlegend die Aufgabenverteilung zwischen Mensch und Technik sowie das Ausmaß menschlicher Eingriffsmöglichkeiten zu definieren sind (Grote, Ryser, Wäfler,
184
Kapitel 10 · Führung
Windischer & Weik, 2000). Bei der Koordination durch Regeln und Vorschriften ist die Art der Regel Beispiel Fallbeispiel (aus Grote, 2007c) In einem Eisenbahnunternehmen wurde eine Regelanalyse mithilfe von 6 Kategorien durchgeführt (Hale & Swuste, 1998): 1. Ebene der Handlungsregulation a) Ziel (Regel definiert nur das Ziel, ohne Aussagen dazu, wie das Ziel zu erreichen ist) b) Prozess (Regel beschreibt nötige Prozesse, um korrekte Handlungen zu definieren) c) Handlung (Regel schreibt konkrete operative Handlungsweise vor) 2. Verbindlichkeit (ja/nein) 3. Handlungsspielraum (ja/nein) 4. Verantwortungszuteilung (verantwortliche Person/en – nicht – erwähnt) 5. Ausnahmen der Regelanwendung (ja/nein) 6. Begründung (ja/nein)
10
Interessant waren besonders 2 Ergebnisse: 4 Es fanden sich bei Rangierprozessen weit mehr Regeln mit Spielraum als bei Prozessen, die Zugfahrten betreffen. Angesichts der weit
Standards und Regeln sind ein wesentlicher Koordinationsmechanismus in Organisationen. Sie erlauben koordiniertes Handeln einer Vielzahl von Akteuren ohne Notwendigkeit einer direkten Absprache, d. h. ohne explizite Koordination zwischen den Akteuren. Besonders in sicherheitsrelevanten Arbeitsprozessen besteht zudem die Annahme, dass Regeln die Sicherheit erhöhen, da die persönliche Koordination zwischen Akteuren fehleranfällig ist. Lokal handelnde Personen können nicht alle Konsequenzen ihrer Handlungen in komplexen, stark vernetzten Systemen überblicken. Dies kann weit besser durch ein unter Einbezug dieser komplexen Interaktionen entwickeltes Regelsystem gewährleistet werden. Gleichzeitig ist aber zu bedenken, dass persönliche Koordination durch Anweisungen eines Vorgesetzten oder Absprachen im Team weit flexibler ist als unpersönliche, durch Regeln definierte Koordination. Nicht alle Besonderheiten aller möglichen Zustände und Kontextbedingungen können für kom-
und das Ausmaß des Ermessensspielraums zu bestimmen (s. Fallbeispiel).
geringeren Qualifikation von Rangierern im Vergleich zu Fahrdienstleitern und Lokführern wäre genau die umgekehrte Verteilung zu empfehlen, d. h., die besser qualifizierten Mitarbeitenden erhalten durch offenere Regeln mehr Eigenverantwortung. 4 Es fand sich ein höherer Anteil an Regelungen mit Verantwortungszuteilung bei den gerade neu erstellten Regeln zu Zugfahrten, was dem expliziten Ziel der Revision entsprach. Damit wird einerseits Verantwortungsdiffusion vermieden, gleichzeitig stellte sich aber auch die Frage, ob nicht bisher bestehende Redundanzen zwischen verschiedenen Akteuren übermäßig reduziert werden. Es wurde kritisiert, dass die Logik der Regeln nicht mehr den Arbeitsprozessen, sondern der Arbeitsteilung zwischen Infrastruktur und Verkehr folgt. Derzeit werden diese Ergebnisse in einem unternehmensinternen Projekt zur Erstellung von Richtlinien für das Regelmanagement weiterbearbeitet.
plexe Systeme vorausgedacht und in das Regelsystem mit aufgenommen werden. Anpassungen und Konkretisierungen der Handlungsvorgaben müssen von den Akteuren lokal unter Berücksichtigung der Situation vorgenommen werden. Das bedeutet auch, dass die Akteure bewusst zwischen impliziter Koordination auf Basis von Vorschriften und dem damit verbundenen geteilten Grundverständnis der Situation und expliziter Koordination, die aktiv ein geteiltes Verständnis der aktuellen Besonderheiten der Situation herstellt (7 Kap. 8), wechseln können müssen. ! Die strategische Führung definiert durch die Wahl und Ausgestaltung der Koordinationsmechanismen die Rahmenbedingungen für die operative Führung. In stark standardisierten Prozessen beispielsweise kommt der operativen Führung eine weit kleinere Bedeutung zu, da die Standards als Substitut für persönliche Führung wirken (Kerr & Jermier, 1978).
185 10.5 · Anforderungen an operative Führung
10.5
Anforderungen an operative Führung
Ausgehend von der allgemeinen Definition operativer Führung als zielorientierte, wechselseitige Einflussnahme auf das Verhalten von Mitgliedern einer Gruppe (z. B. Neuberger, 2002) werden üblicherweise verschiedene Managementaufgaben oder Funktionen beschrieben. Bei Yukl (2006) beispielsweise findet sich die folgende sehr differenzierte Auflistung: 4 Planen und organisieren 4 Informieren 4 Überwachen 4 Probleme lösen 4 Klären 4 Belohnen 4 Delegieren 4 Motivieren 4 Anerkennen 4 Beraten 4 Unterstützen 4 Entwickeln und Mentorrolle übernehmen 4 Konflikte bewältigen und Teambildung 4 Vernetzung fördern 4 Repräsentieren ! Kernelemente operativer Führung sind mitarbeiterbezogene Funktionen, die die Kohäsion in der Gruppe unterstützen, und aufgabenbezogene Funktionen, die die Lokomotion in Richtung auf Ziele betreffen (z. B. Rosenstiel, 2003; Burke, Stagl, Klein, Goodwin, Salas & Halpin, 2006) sowie, v. a. in soziotechnischen Ansätzen der Führung betont, die Grenzregulation zu umgebenden Gruppen in der Organisation oder nach außen (z. B. Susman, 1976).
Der Betrachtung einzelner Managementaufgaben übergeordnet werden umfassendere Führungskonzepte diskutiert, die die Gewichtung der verschiedenen Aufgaben wie auch die Art ihrer Ausführung beeinflussen. Viel diskutiert sind derzeit v. a. die Gegenüberstellung von transaktionaler und transformationaler Führung, d. h. Führung verstanden als Austauschbeziehung versus als »Wandlung« der Geführten durch Visionen und Charisma, sowie das Konzept des Empowerment (Burke, Stagl, Klein, Goodwin, Salas & Halpin, 2006). Unter Empowerment wird verstanden, dass Führungsfunk-
10
tionen der direkten Einflussnahme und Kontrolle reduziert werden, während Bereitstellung von Information und Ressourcen sowie Teamunterstützung an Bedeutung gewinnen. ! Daneben gibt es alternative Führungsansätze, die nicht in erster Linie anstreben, bestimmte, möglichst effektive Verhaltensweisen von Vorgesetzten zu identifizieren, sondern ein Verständnis für die Komplexität der zu führenden Systeme und der Rolle der Führenden in diesen Systemen zu entwickeln.
Solche systemischen Theorien von Führung (z. B. Senge, 1990; Probst & Naujoks, 1995) betonen die Selbstorganisationsfähigkeit sozialer Systeme und die dadurch begrenzten Möglichkeiten einer direkten Steuerung und Kontrolle durch die Führungskräfte. Führung bedeutet aus dieser Sicht nicht mehr die Sicherstellung eines gewünschten Verhaltens durch den Einsatz entsprechender Instrumente, sondern das Schaffen eines Rahmens, in dem die Akteure eigenverantwortlich und selbstorganisierend handeln können. Die Fähigkeit zum Management ist über das ganze System verteilt und kann potenziell von jedem Systemmitglied wahrgenommen werden. Der Komplexität des zu führenden Systems entsprechend wird auch angenommen, dass das Führungsverhalten komplex sein muss in dem Sinne, dass sehr verschiedene und u. U. sogar widersprüchliche Rollen und Verhaltensweisen gefordert sind (Denison, Hooijberg & Quinn, 1995). Hinsichtlich der Anforderungen an operative Führung in risikoreichen Arbeitssystemen besteht bisher wenig Wissen. Flin (2003) beschreibt einige Beispiele aus Praktikerrichtlinien, in denen grundsätzlich davon ausgegangen wird, dass effektive Führung in risikoreichen Arbeitssystemen die gleiche ist wie in allen anderen Organisationen. Erwähnt wird auch, dass Führung speziell auf Motivierung ausgerichtet sein sollte, da Arbeitssicherheit eher nicht im Fokus des intrinsischen Interesses der Mitarbeitenden steht. ! Neuere Metaanalysen unterstützen die Annahme, dass effektive Führung generell eher mitarbeiterbezogen, transformational und »empowering« ist (z. B. Burke, Stagl, Klein, Goodwin, Salas & Halpin, 2006).
186
10
Kapitel 10 · Führung
Barling, Loughlin und Kelloway (2002) fanden im Hinblick auf sicherheitsbezogene Führung eine negative Beziehung zwischen transformationaler Führung und Anzahl von Arbeitsunfällen. In einer Untersuchung von Yule & Flin (2002, zit. in Flin, 2003) zeigte sich allerdings, dass Elemente von transformationaler und transaktionaler Führung mit weniger Arbeitsunfällen in Verbindung standen. In einer Untersuchung von Rundmo & Hale (2003) wurden Einstellungen von höheren Vorgesetzten im Hinblick auf Verhaltensabsichten und tatsächliches sicherheitsförderliches Verhalten erhoben und nochmals bestätigt, dass Commitment und hohe Priorität von Sicherheit neben geringem Fatalismus und hohem Risikobewusstsein wichtig sind. Einige Untersuchungen haben sich spezifisch mit der Erfordernis adaptiver Koordination und Führung auseinandergesetzt. Ausgehend von Studien in der Luftfahrt, die insbesondere die Notwendigkeit des Wechsels zwischen impliziter und expliziter Koordination in Cockpit-Crews deutlich gemacht haben (z. B. Entin & Serfaty, 1999; Orasanu, 1993), wurden diese beiden Koordinationsarten sowie Führung und laterale Teaminteraktion (im Verständnis der Achtsamkeit, »heedful interrelating« von Weick & Roberts, 1993) in Cockpit-Crews und Anästhesieteams untersucht (Grote, Zala-Mezö & Grommes, 2004). Dabei wurden auch Arbeitsphasen mit unterschiedlichen Graden an Standardisierung unterschieden. Es zeigte sich unter anderem, dass die besseren Cockpit-Crews in hoch standardisierten Phasen weniger und in wenig standardisierten Phasen mehr Führung nutzten. Dies deckt sich mit den theoretischen Überlegungen von Kerr & Jermier (1978), in denen postuliert wird, dass Standardisierung ein Substitut für persönliche Führung ist. In den Anästhesieteams wurde im Vergleich zu den Cockpit-Crews generell mehr implizite Koordination, aber auch mehr Führung gefunden. Hinsichtlich der Führung wurde aus Interviews mit den beobachteten Anästhesieteams (Zala-Mezö, Künzle, Wacker & Grote, 2004) zusätzlich deutlich, dass in Abhängigkeit von Situationserfordernissen (Routinesituation mit wenig Unsicherheiten versus kritische Situationen mit viel Unsicherheiten) die Führung zwischen Empowerment und direktivem Verhalten wechseln sollte, wobei allerdings entgegen des Ansatzes der Bewältigung von
Unsicherheiten gerade in kritischen Situationen direktive Führung gewünscht wurde. Auch wurde in Einklang mit Ansätzen der funktionalen und geteilten Führung (Pearce & Sims, 2002; Zaccaro, Rittmann & Marks, 2001) argumentiert, dass Führung je nach Situation, Erfahrungsgrad der Teammitglieder etc. von verschiedenen Personen übernommen werden sollte und damit nicht notwendigerweise immer von der formal führungsverantwortlichen Person. Yun, Faraj & Sims (2005) konnten die Effektivität situativer Führung in medizinischen Notfallteams empirisch bestätigen. Direktive Führung war in komplexen Fällen und bei wenig erfahrenen Teams erfolgreicher, während Empowerment bei weniger komplexen Fällen und in erfahrenen Teams wirkungsvoller war. Wiederum für medizinische Notfallteams sind auch verschiedene Formen und Bedingungen dynamischer Delegation von Führungsaufgaben zwischen erfahrenen und weniger erfahrenen Teammitgliedern detailliert untersucht worden (Klein, Ziegert, Knight & Xiao, im Druck). ! Diese Ergebnisse weisen auf die Wichtigkeit von in der Führungsliteratur bisher wenig untersuchten dynamischen und flexiblen Formen von Führung hin.
Inwieweit sich diese Ergebnisse über die spezifischen medizinischen Kontexte hinaus verallgemeinern lassen, müssen weitere Untersuchungen allerdings erst noch zeigen.
10.6
Führung bei organisationalen Veränderungen
In einigen Führungsmodellen werden neben mitarbeiter- und aufgabenorientierten Funktionen ausdrücklich auch veränderungsbezogene Funktionen eingeschlossen (z. B. Yukl, 2006). Dies kann die Unterstützung eher inkrementeller Veränderungen im Sinne des organisationalen Lernens betreffen wie auch das Management geplanter, umfassenderer Veränderungsprozesse bis hin zu Fusionen, Personalabbau oder Reorganisationen des gesamten Unternehmens (vgl. Weick & Quinn, 1999). Während organisationales Lernen aus Perspektive der Sicherheitsförderung durchgängig positiv bewertet und beispielsweise durch Incident-Reporting-Systeme
187 10.7 · Zusammenfassung
unterstützt wird (7 Kap. 13.6.2), werden umfassende Organisationsveränderungen kritisch diskutiert. Besonders Reorganisationsmaßnahmen, die massive Reduktionen oder Zusammenführung von Personal und starke Verunsicherung der im Unternehmen verbleibenden Beschäftigten zur Folge haben, können – zumindest in Einzelfällen nachweislich – beeinträchtigend auf die Prozess- und Arbeitssicherheit wirken (Perron & Friedlander, 1996; Rousseau & Libuser, 1997). Ob Organisationsveränderungen tatsächlich die Sicherheit tangieren, hängt einerseits von der Art der Veränderung ab – fusionieren beispielsweise 2 Unternehmen unter der Führung des Unternehmens mit dem besseren oder dem schlechteren Sicherheitsausweis –, anderseits aber auch von der Durchführung des Veränderungsprozesses. Dieses Veränderungsmanagement ist unmittelbar durch die Führenden beeinflussbar und bietet die Chance, auch sehr fundamentale Veränderungen ohne Einbußen für das sichere Funktionieren der Organisation umzusetzen. Grote (2008) hat eine Reihe von Merkmalen vorgeschlagen, die sicherheitsförderliches Veränderungsmanagement kennzeichnen. Aus diesen Indikatoren wurde ein Fragebogen für Mitarbeiterbefragungen entwickelt und in 7 Versicherungsaudits bei Unternehmen der petrochemischen Industrie getestet. Es konnten 4 stabile Skalen identifiziert werden: 4 Vorgaben für Changemanagement mit Items zu Themen wie angemessene Geschwindigkeit von Veränderungen, Evaluation möglicher sicherheitsrelevanter Auswirkungen und Wissenserhalt 4 Wertschätzung mit Items zu Themen wie persönliche Unterstützung im Veränderungsprozess, mitarbeiterbezogene Investitionen und Partizipation bei Entscheidungen 4 Transparenz mit Items zu Themen wie Geschwindigkeit von Entscheidungsprozessen und Kommunikation von Entscheidungen 4 Vision mit Items zu Themen wie Langfristigkeit von Zielen und persönliches Engagement der Schlüsselpersonen Die Skalen differenzierten gut zwischen im formalen Versicherungsaudit kritisch versus positiv eingestuf-
10
ten Unternehmen, was ihre Validität unterstützt. Ein sehr wichtiges Ergebnis war auch, dass das Ausmaß der durch die Mitarbeitenden erlebten Wertschätzung bei weitem die meiste Varianz in den Fragebogenantworten aufklärte. Wertschätzung der Mitarbeitenden
Diese Untersuchung unterstützt die andernorts eher theoretisch formulierten Anforderungen an sicherheitsförderliches Veränderungsmanagement: Wertschätzung der Mitarbeitenden ist zentral, z. B. durch: 4 Investitionen in Ausbildung und Arbeitsbedingungen 4 Unterstützung im persönlichen Umgang mit der Veränderung 4 Einbezug in Entscheidungsprozesse Daneben sind angemessene Vorgehensweisen in der Definition und Umsetzung der Veränderung selbst wichtig, z. B. durch: 4 Vermeidung unnötiger Verunsicherung der Mitarbeitenden 4 Kontinuierliche Überwachung der Auswirkungen auf die Sicherheit Schließlich muss Transparenz durch möglichst schnelle, sofort kommunizierte und nachvollziehbare Entscheidungen gewährleistet sein und eine von den Entscheidungsträgern geteilte Vision bestehen, die kurzsichtige Entscheidungen verhindert. Diese Anforderungen können auch den in diesem Beitrag diskutierten verschiedenen Führungsebenen zugeordnet werden. Vision und Wertschätzung sind am ehesten als normative Führungsaufgabe zu verstehen, die Transparenz der grundlegenden Entscheidungen als strategische Führungsaufgabe und die konkreten Vorgehensweisen im Veränderungsprozess als operative Führungsaufgabe.
10.7
Zusammenfassung
Die Sicherheit des operativen menschlichen Handelns und die sichere Gestaltung von Organisationen sind über die Entscheidungen und Handlungen der Führenden in diesen Organisationen miteinander verknüpft. Führende legen durch das gewählte
188
10
Kapitel 10 · Führung
Sicherheitsmanagement die Randbedingungen für operatives Handeln fest. Bei diesen grundlegenden Entscheidungen ist zwischen der Förderung von Arbeitssicherheit, d. h. Schutz des Menschen vor Gefahren am Arbeitsplatz, und Prozesssicherheit, d. h. sichere Durchführung der primären Arbeitsprozesse, zu unterscheiden. Diese beiden Arten der Sicherheit betreffen unterschiedliche Motivationsmechanismen, da im einen Fall eine sekundäre, im anderen die primäre Arbeitsaufgabe betroffen ist. Sie sind auch durch unterschiedliche Indikatoren zu messen, z. B. Arbeitsausfall versus kritische Ereignisse, und Maßnahmen zur Förderung der einen Art der Sicherheit können gegenläufige Wirkungen auf die andere Art der Sicherheit haben, z. B. Abschottung von Arbeitsprozessen, die gleichzeitig deren Transparenz verringert. Außerdem müssen Arten und Ausmaß der Unsicherheiten berücksichtigt werden, die den geplanten Ablauf von Arbeitsprozessen beeinflussen. Zwei Formen des Umgangs mit Unsicherheit in Organisationen werden in diesem Beitrag dargestellt, Minimierung versus Bewältigung. Die normative Führungsaufgabe ist es, die grundlegende Ausrichtung der Organisation im Hinblick auf den Umgang mit Unsicherheiten festzulegen und Werte und Führungsrollen entsprechend zu definieren. Die strategische Führungsaufgabe besteht darin, angesichts von Art und Menge vorhandener Unsicherheiten in den Prozessen und in der Systemumwelt die Akteure für einen angemessenen Umgang mit diesen Unsicherheiten zu befähigen. Eine grund-
legende Fragestellung ist dabei die Festlegung angemessener Koordinationsmechanismen, d. h. Koordination durch Technik, durch Standardisierungen und Programme, durch persönliche Weisungen und gegenseitige laterale Absprachen und/oder durch Kultur. (Sicherheits-)Kultur als »weicher« Koordinationsmechanismus muss v. a. dann zum Tragen kommen, wenn den Akteuren und Akteurinnen im System hohe Autonomie im Umgang mit Unsicherheiten zugebilligt wird. Um Standardisierung systematisch zu gestalten, muss auch das Regelmanagement als strategische Führungsaufgabe verstanden werden. Entscheidungen zu Menge und Art von Regeln, insbesondere auch zu dem dadurch definierten Handlungsspielraum der Akteure, müssen im Einklang mit dem gewählten Umgang mit Unsicherheit erfolgen. Auf der Ebene der operativen Führung ist sicherzustellen, dass die grundlegenden Funktionen der Mitarbeiterführung gruppenintern (Kohäsion und Lokomotion) und gruppenübergreifend (Grenzregulation) wahrgenommen werden. Selbst wenn man den Ergebnissen neuerer Metaanalysen Glauben schenkt, dass effektive Führung generell eher mitarbeiterbezogen, transformational und »empowering« ist, greifen angesichts der zunehmenden Komplexität von Arbeitsorganisationen einfache Vorgaben »richtigen« Führungsverhaltens zu kurz. Stattdessen muss auch das Führungsverhalten entsprechend komplex sein in dem Sinne, dass sehr verschiedene und u. U. sogar widersprüchliche Rollen und Verhaltensweisen gefordert sind. Dazu gehört auch, dass Führung an situative Erforder-
. Abb. 10.2. Rahmenmodell für Führung in risikoreichen Arbeitssystemen
189 10.8 · Literatur
nisse angepasst wird, z. B. Führung in stark standardisierten Arbeitsprozessen zurückgenommen wird, und auch von verschiedenen Personen wahrgenommen werden kann, nicht nur durch den formal Führenden. Um bei einschneidenden organisationalen Veränderungen, wie beispielsweise Fusionen oder Personalabbau, die Sicherheit der Arbeitsprozesse zu gewährleisten, ist schließlich auch eine wesentliche Führungsaufgabe, ein sicherheitsförderliches Veränderungsmanagement umzusetzen. Dazu gehört ganz zentral die Wertschätzung der Mitarbeitenden, angemessene Vorgehensweisen in der Definition und Umsetzung der Veränderung selbst, die Transparenz durch möglichst schnelle, sofort kommunizierte und nachvollziehbare Entscheidungen und eine von den Entscheidungsträgern geteilte Vision bestehen, die kurzsichtige Entscheidungen verhindert. In . Abb. 10.2 werden die zentralen Aussagen dieses Beitrags zur Führung in risikoreichen Arbeitssystemen nochmals verdichtet dargestellt.
10.8
Literatur
Barling, J., Loughlin, C. & Kelloway, E. K. (2002). Development and test of a model linking safety-specific transformational leadership and occupational safety. Journal of Applied Psychology, 87, 488–496. Bleicher, K. (1992). Das Konzept Integriertes Management. Frankfurt a. M.: Campus. Burke, C. S., Stagl, K. C., Klein, C., Goodwin, G. F., Salas, E. & Halpin, S. M. (2006). What type of leadership behaviors are functional in teams? A meta-analysis. The Leadership Quarterly, 17, 3, 288–307. Burns, T. & Stalker, G. M. (1961). The management of innovation. London: Tavistock. Denison, D. R., Hooijberg, R. & Quinn, R. E. (1995). Paradox and performance: Toward a theory of behavioral complexity in managerial leaderhip. Organization Science, 6, 524–540. Emery, F. E. (1959). Characteristics of socio-technical systems. London: Tavistock Document No. 527. Entin, E. E. & Serfaty, D. (1999). Adaptive team coordination. Human Factors, 41, 312–325. Flin, R. (2003). »Danger – Men at work«: Management influence on safety. Human Factors and Ergonomics in Manufacturing, 13, 261–268. Grote, G. (1997). Autonomie und Kontrolle – Zur Gestaltung automatisierter und risikoreicher Systeme. Zürich: vdf Hochschulverlag. Grote, G. (2004). Uncertainty management at the core of system design. Annual Reviews in Control, 28, 267–274.
10
Grote, G. (2007a). Arbeits- und Prozesssicherheit. In H. Schuler & K.-H. Sonntag (Hrsg.), Handbuch der Arbeits- und Organisationspsychologie (S. 155–162). Göttingen: Hogrefe. Grote, G. (2007b). Understanding and assessing safety culture through the lens of organizational management of uncertainty. Safety Science, 45, 637–652. Grote, G. (2007c). Rules management: How to achieve flexible guidance for safe railway operations. In J. R. Wilson, B. J. Norris, T. Clarke & A. Mills (Eds.), People and rail systems: Human factors at the heart of the railway (pp. 591–599). Abingdon, UK: Ashgate. Grote, G. (2008). Diagnosis of safety culture: A replication and extension towards assessing »safe« organizational change processes. Safety Science, 46, 3, 450–460. Grote, G., Ryser, C., Wäfler, T., Windischer, A. & Weik, S. (2000). KOMPASS: A method for complementary function allocation in automated work systems. International Journal of Human-Computer Studies, 52, 267–287. Grote, G., Zala-Mezö, E. & Grommes, P. (2004). The effects of different forms of co-ordination on coping with workload. In R. Dietrich & T. Childress (Eds.), Group interaction in high risk environments (pp. 39–55). Aldershot, UK: Ashgate. Guldenmund, F. (2000). The nature of safety culture: A review of theory and research. Safety Science, 34, 215–257. Hale, A. R. & Heijer, T. (2006). Is resilience really necessary? The case of railways. In E. Hollnagel, D. D. Woods & N. G. Levenson (Eds.), Resilience engineering – Concepts and precepts (pp. 115–137). London: Ashgate. Hale, A. R., Heming, B. H. J., Carthey, J. & Kirwan, B. (1997). Modelling of safety management systems. Safety Science, 26, 121–140. Hale, A. R. & Swuste, P. (1998). Safety rules: procedural freedom or action constraint? Safety Science, 29, 163–177. Hoyos, C. Graf, Gockeln, R. & Palecek, H. (1981). Handlungsorientierte Gefährdungsanalysen an Unfallschwerpunkten der Stahlindustrie. Zeitschrift für Arbeitswissenschaft, 35, 146–149. INSAG (1999). Management of operational safety in nuclear power plants. A report by the International Nuclear Safety Advisory Group (No. 13). Vienna: IAEA. Kerr, S. & Jermier, J.M. (1978). Substitutes for leadership: Their meaning and measurement. Organizational Behavior and Human performance, 22, 375–403. Kieser, A. & Kubicek, H. (1992). Organisation. Berlin: de Gruyter. Klein, J. A. (1991). A reexamination of autonomy in the light of new manufacturing practices. Human Relations, 44, 21–38. Klein, K., Ziegert, J. C., Knight, A. P. & Xiao, Y. (in press). Dynamic delegation: Shared, hierarchical, and deindividualized leadersip in extreme action teams. Administrative Science Quarterly. LaPorte, T. R. & Consolini, P. M. (1991). Working in practice but not in theory: Theoretical challenges of »high-reliability organizations«. Journal of Public Administration Research and Theory, 1, 19–47. Marris, P. (1996). The politics of uncertainty. London: Routledge. Neuberger, O. (2002). Führen und führen lassen. Ansätze, Ergebnisse und Kritik der Führungsforschung (6. überarbeitete Aufl.). Stuttgart: Lucius und Lucius.
190
10
Kapitel 10 · Führung
Orasanu, J. M. (1993). Decision-making in the cockpit. In E. L. Wiener, B. G. Kanki & R. L. Helmreich (Eds.), Cockpit resource management (pp. 137–172). San Diego, California: Academic Press. Orton, J. D. & Weick, K. E., 1990. Loosely coupled systems: A reconceptualization. Academy of Management Review, 15, 203–223. Pearce, C. L. & Sims, H. P. (2002). Vertical versus shared leadership as predictors of the effectiveness of change management teams: An examination of aversive, directive, transactional, transformational, and empowering leader behaviors. Group Dynamics: Theory, Research, and Practice, 6, 172–197. Perron, M. J. & Friedlander, R. H. (1996). The effects of downsizing in safety in the CPI/HPI. Process Safety Progress, 15, 18–25. Perrow, C. (1967). A framework for the comparative analysis of organizations. American Sociological Review, 32, 194–208. Perrow, C. (1984). Normal accidents. Living with high-risk technologies. New York: Basic Books. Probst, G. & Naujoks, H. (1995). Führungstheorien – Evolutionstheorien der Führung. In A. Kieser, G. Reber & R. Wunderer (Hrsg.). Handwörterbuch der Führung (2. Aufl.) (S. 915–926). Stuttgart: Schäffer Poeschel. Quinn, R. E. & Rohrbaugh, J. (1983). A spatial model of effectiveness criteria: Towards a competing values approach to organizational analysis. Management Science, 29, 363–377. Reason, J. (1990). Human error. Cambridge: Cambridge University Press. Rosenstiel, L. v. (2003). Grundlagen der Organisationspsychologie (5. Aufl.). Stuttgart: Schäffer-Poeschel. Rousseau, D. M. & Libuser, C. (1997). Contingent workers in high risk environments. California Management Review, 39, 103–123. Rundmo, T. & Hale, A. R. (2003). Managers’ attitudes towards safety and accident prevention. Safety Science, 41, 557– 574. Schein, E. H. (1992). Organizational culture and leadership (2nd edn.). San Francisco: Jossey-Bass. Semmer, N. & Regenass, A. (1996). Der menschliche Faktor in der Arbeitssicherheit – Mechanismen, Verhütung und Korrektur von menschlichen Fehlhandlungen. In G. Grote & C. Künzler (Hrsg.), Theorie und Praxis der Sicherheitskultur (S. 53–81). Zürich: vdf Hochschulverlag. Senge, P. M. (1990). The fifth discipline: the art and practice of the learning organisation. Doubleday: New York.
Shannon, H. S., Mayr, J. & Haines, T. (1997). Overview of the relationship between organizational and workplace factors and injury rates. Safety Science, 26, 201–217. Staehle, W. H. (1991). Redundanz, Slack und lose Kopplung in Organisationen: Eine Verschwendung von Ressourcen? In W. H. Staehle & J. Sydow (Hrsg.), Managementforschung 1 (S. 313–345). Berlin: De Gruyter. Suchman, L. A. (1987). Plans and situated actions: The problem of human-machine communication. Cambridge: Cambridge University Press. Susman, G. I. (1976). The impact of automation on work group autonomy and task spezialization. Human Relations, 23, 568–577. Thompson, J. D. (1967). Organizations in action. McGraw-Hill, New York. Thompson, R. C., Hilton, T. F. & Witt, L. A. (1998). Where the safety rubber meets the shop floor: A confirmatory model of management influence on workplace safety. Journal of Safety Research, 29, 15–24. Van de Ven, A. H., Delbecq, A. L. & Koenig, R. (1976). Determinants of coordination modes within organizations. American Sociological Review, 41, 322–338. Wall, T. D., Cordery, J. & Clegg, C. W. (2002). Empowerment, performance, and operational uncertainty: A theoretical integration. Applied Psychology: An International Review, 51, 146– 169. Weick, K. E. (1976). Educational organizations as loosely coupled systems. Administrative Science Quarterly, 21, 1–19. Weick, K. E. (1987). Organizational culture as a source of high reliability. California Management Review, 29, 112–127. Weick, K. E. & Roberts, K. H. (1993). Collective mind in organizations. Heedful interrelating on flight decks. Administrative Science Quarterly, 38, 357–381. Weick, K. E. & Quinn, R. E. (1999). Organizational change and development. Annual Review of Psychology, 50, 361–386. Yukl, G. A. (2006). Leadership in organizations (6. Aufl.). Upper Saddle River: Pearson Prentice-Hall. Yun, S., Faraj, S. & Sims, H. P. (2005). Contingent leadership and effectiveness of trauma resuscitation teams. Journal of Applied Psychology, 90, 1288–1296. Zaccaro, S. J. (2007). Trait-based perspectives of leadership. American Psychologist, 62, 6–16. Zaccaro, S. J., Rittman, A. L. & Marks, M. A. (2001). Team leadership. The Leadership Quarterly, 12, 451–483. Zala-Mezö, E., Künzle, B., Wacker, J. & Grote, G. (2004). Zusammenarbeit in Anästhesieteams aus Sicht der Teammitglieder. Zeitschrift für Arbeitswissenschaft, 58, 199–208.
11
Neue Formen der Zusammenarbeit Kristina Lauche
11.1
Wie verändert sich Zusammenarbeit und warum?
11.2
Implikationen einer veränderten Arbeitswelt für Sicherheit – 195
11.2.1 11.2.2 11.2.3
Verteilte Zusammenarbeit – 195 Verteilte Arbeitsaufgabe – 197 Organisationsübergreifende Zusammenarbeit
11.3
Anforderungen für Technik- und Organisationsgestaltung
11.4
Zusammenfassung
11.5
Literatur
– 202
– 202
– 193
– 199
– 200
192
Kapitel 11 · Neue Formen der Zusammenarbeit
Neue Formen der Zusammenarbeit umfassen Raum und Zeit übergreifende, in der Regel computerunterstützte Kooperation und Koordination zwischen Disziplinen, Organisationen und Kulturen (Holman, Wall, Clegg, Sparrow & Howard, 2003). In den letzten 10 Jahren sind dazu eigenständige Forschungsbereiche entstanden, in denen Effekte von computervermittelter Kommunikation, Videokonferenzen, Telearbeit und virtuellen Teams eingehend im Labor und in der Praxis untersucht worden sind. Meist geht es dabei
um Systemgestaltung, Zufriedenheit und Effektivität der Beteiligten, nur sehr selten wird Sicherheit thematisiert. Neue Formen der Zusammenarbeit können Sicherheit unterstützen, indem sie Unterstützung und Koordination an schwer zugänglichen Orten ermöglichen. Doch sie lösen nicht alle Probleme, die beim Arbeiten in Gruppen auftreten können (7 Kap. 7), und schaffen bisweilen auch neue Probleme, wenn die Technologie nicht die Aufgabe angemessen unterstützt oder zu Unklarheiten in der Organisation führt.
Beispiel
11
Sogar der Fußboden musste aus Blech sein, damit man beim Übergang von den normalen Büroräumen zum Onshore Operations Centre sofort spürt, dass man sich eigentlich »offshore«, auf der Bohrinsel befindet. Die Ingenieure, die bis vor einigen Monaten noch auf der Bohrinsel Prozesswerte und geologische Daten analysiert haben, überwachen nun von hier aus exakt dieselben Daten – in Echtzeit. Sie sitzen lediglich mit ihren Rechnern an einem längeren Kabel und sehen die Bohrinsel und ihre Kollegen über Videokameras. Beide Seiten haben sich schnell daran gewöhnt, dass sie immer auf Sendung sind, und nutzen die Videoverbindung regelmäßig für Besprechungen. Nur der Ton ist normalerweise leise gestellt, um sich nicht mit Klappergeräuschen gegenseitig zu stören. Praktisch ist auch die Verbindung zu den normalen Büroräumen: Eine Glastür trennt den Überwachungsraum vom Sitzungszimmer der planenden Ingenieure und Manager. Wenn Probleme auftreten, kann man schnell Hilfe holen, doch bei längeren Sitzungen wird die Tür geschlossen, damit man sich bei der Überwachung konzentrieren kann. Dadurch, dass die Tür aus Glas ist, können die Sitzungsteilnehmer darüber im Bilde bleiben, was gerade auf der Plattform passiert. Eine gelungene Form verteilter Zusammenarbeit: Wenn »onshore« und »offshore« auf die gleichen Daten zugreifen, können 4 Augen mehr sehen als 2, ohne dass sich dafür alle an einem risikoreichen Arbeitsort befinden müssen. Es war gründliche soziotechnische Systemgestaltung, an der die verschiedenen Benutzergruppen über Mo-
nate mitgewirkt haben. Doch die neue Form der verteilten Zusammenarbeit bringt auch neue Fragen mit sich: Wenn an beiden Orten jemand Handlungsbedarf identifiziert, wer genau ist dann zuständig, wer sollte die Initiative ergreifen, wer auf Anweisung warten? Für den Normalfall gibt es Regeln und Aufgabenbeschreibungen. Doch als plötzlich unerwartet hohe Gasdrucke auftreten, höher als sie je zuvor gemessen wurden und als der Berechnung für die Bohrvorrichtungen zugrunde gelegt worden waren, wird der Plan zur Seite gelegt und alle zusammengerufen, die hoffentlich helfen können. Im Büro wird eine Einsatzgruppe gebildet, die bis tief in die Nacht mögliche Erklärungen und Gegenmaßnahmen erwägt. Als man sich zwischendurch mit dem Team auf der Bohrinsel in Verbindung setzt, stellt sich heraus, dass dort ebenfalls an einer Lösung gearbeitet wird. Nun muss man erst entscheiden, welche Diagnose gelten und welche Maßnahmen umgesetzt werden sollen. Man einigt sich, und es gelingt, den Gasdruck einzudämmen, ohne dass es zu einer Explosion kommt und Menschen oder Material in Gefahr geraten. Einige der Beteiligten erklären später, dass es allein der engen Zusammenarbeit zwischen Büro und Bohrinsel zu danken gewesen sei, dass sie derartige Schwierigkeiten meistern konnten, die zuvor als unüberwindlich galten. Andere weisen darauf hin, dass die Angewohnheit, bei Problemen immer das gesamte Team zusammenzurufen, zu sehr ineffektivem Arbeiten geführt habe: Viele sitzen abwartend dabei, anstatt dass 1 oder 2 Personen das Problem anpacken und lösen.
193 11.1 · Wie verändert sich Zusammenarbeit und warum?
Das Beispiel zeigt, dass verteilte, computerunterstützte Zusammenarbeit durchaus funktionieren kann, jedoch darauf angewiesen ist, dass die Technologieunterstützung allen Beteiligten ein angemessenes Bild der Situation vermittelt, und die organisatorische Verankerung Motivationsverluste, Unklarheiten über Rollen und Zuständigkeiten sowie die Diffusion von Verantwortung verhindert. Im weiteren Verlauf des Kapitels wird eine Übersicht zu Einflussfaktoren und Phänomenen neuer Formen von Zusammenarbeit gegeben, die Implikationen für sicheres Handeln anhand einschlägiger Forschung zusammenfasst und Handlungs- und Interventionsmöglichkeiten diskutiert.
11.1
Wie verändert sich Zusammenarbeit und warum?
Die Arbeitsverhältnisse haben sich in den vergangenen Jahrzehnten durch das Internet, Fortschritte in der Informations- und Kommunikationstechnologie und durch die zunehmend globalisierte Wirtschaft einschneidend geändert. Die psychologische Forschung und Theoriebildung hält mit diesen Entwicklungen nur mit Mühe Schritt. Eine kleine Gruppe von Forschenden beschäftigt sich explizit mit InternetPsychologie (Batinic, 2000), doch die Entwicklungen in der Technik und in den Nutzungsgewohnheiten vollziehen sich in der Praxis schneller, als die akademische Welt dies beforschen, verstehen und publizieren kann. Doch es soll auch nicht der Anschein er-
11
weckt werden, als stellten die Veränderungen alles infrage, was je in der allgemeinen sowie in der Arbeits- und Organisationspsychologie gedacht und geschrieben wurde. Wie also lassen sich die Veränderungen sinnvoll arbeitspsychologisch konzeptualisieren, welche Effekte zeigen sich und welche Implikationen ergeben sich für sicheres Handeln? . Abb. 11.1 zeigt eine Übersicht der Einflussfaktoren und Auswirkungen von neuen Formen der Zusammenarbeit, die im Folgenden näher beleuchtet werden sollen. Die Abbildung führt als ersten Einflussfaktor die globalisierte Wirtschaft auf. Unter Globalisierung versteht man den Prozess der Transformation einer Gesellschaftsformation, bei der als Konsequenz der grenzüberschreitenden ökonomischen Beziehungen, der Ausweitung des Welthandels und der Zunahme von Migrationsbewegungen ein ökonomischer Raum entsteht, der nicht durch nationalstaatliche Grenzen und die in ihnen geltenden Gesetze umschrieben wird (Altvater & Mahnkopf, 2004, S. 31). Transportkosten spielen darin heutzutage eine geringere Rolle, und viele Produkte und Dienstleistungen können an mehreren Orten auf der Welt gleichermaßen hergestellt werden, wodurch diese Orte zueinander im globalen Wettbewerb stehen. Unternehmen verlieren ihre örtliche und territoriale Bindung, der Arbeits»platz« ist nicht mehr an einem bestimmten Ort. Altvater & Mahnkopf (2004) problematisieren die Auswirkungen dieser wirtschaftspolitischen Bestrebungen, Arbeit überall und jederzeit flexibel verfügbar zu machen, die eine Verzerrung der menschlichen Maßstäbe mit sich bringt.
. Abb. 11.1. Ursachen und Auswirkungen von neuen Formen der Zusammenarbeit
194
Kapitel 11 · Neue Formen der Zusammenarbeit
»Menschen, die in der Regel zwischen eineinhalb und zwei Metern groß sind, bewegen sich in einer Welt, die einen Umfang von mehr als vierzigtausend Kilometern hat. Kein Lebewesen in der Erdgeschichte hat dies je vermocht. [...] die Erfahrung, dass die Geschwindigkeit den Raum‚auffrisst’ und sich die Welt schon bald als‚zu klein’ erweisen könnte, [ist] eine neue Erfahrung. [...] Pathologisierend wirkt die Beschleunigung des Wandels aber auch deshalb, weil sie Synchronisationsprobleme der Gesellschaft vergrößert. Die hohen Geschwindigkeiten der Veränderung stoßen auf Rezeptionsprobleme. Sie provozieren Abwehrreaktionen, [...] weil damit keinerlei Sicherheit der Lebensplanung und des Arbeitsplatzes gewonnen werden kann. Die hohe Innovationsgeschwindigkeit von technischen Neuerungen hat auch allzu viele negative Folge- und Begleiteffekte.« (Altvater & Mahnkopf, 2004, S. 275)
11
Als weiterer Einflussfaktor sei hier die zunehmende technische Vernetztheit genannt, die die Ortsungebundenheit der wirtschaftlichen Beziehungen oft erst ermöglicht. Informations- und Kommunikationstechnologien sind schneller und leistungsfähiger geworden, mehr Personen und Orte können erreicht werden, und zunehmende Bandbreite ermöglicht es nun auch, komplexere Datensätze wie Videos zu versenden oder verteilt anzusehen. Diese Entwicklung ist nicht per se positiv oder negativ zu beurteilen. So können beispielsweise sicherheitsrelevante Informationen wie aktualisierte Anweisungen für Piloten schnell und effizient an alle Betroffenen gleichzeitig verteilt werden. Das höhere Maß an Unmittelbarkeit bringt nicht nur verteilt arbeitende Teams enger zusammen, sondern bietet auch neue Möglichkeiten, z. B. zu Ferndiagnosen und medizinischer Beratung am Unfallort oder in entlegenen Gegenden. Doch wenn diese Möglichkeiten nicht arbeitsangemessen eingesetzt werden, kann es leicht auf der Empfängerseite zur Informationsüberflutung kommen. Die Annahme, dass neue Medien zu einer mehr netzwerk- als hierarchiebasierten Organisation führen, setzt voraus, dass sich mit elektronischer Kommunikation alles Relevante übermitteln lässt, sich alle freiwillig darauf einlassen und so auch tatsächlich mehr Autonomie gewährt wird – das
hat sich in der Praxis so nicht immer als zutreffend erwiesen (Symon, 2000). Erst wenn zwischen Management, IT-Fachkräften und Anwendern Einigkeit zu Sinn und Nutzen der neuen Technologie herrscht, kann es gelingen, aus der zunehmenden technischen Vernetzung wirklich Vorteile zu ziehen (Klein, 2004). Der dritte Einflussfaktor, der hier betrachtet werden soll, ist die sich verändernde Natur der Arbeit, bei der zunehmend komplexere Problemstellungen unter immer größeren »Sparzwängen« behandelt werden müssen. In manchen Fällen haben die oben geschilderten wirtschaftlich und technischen Veränderungen dazu geführt, dass Probleme, die früher in einer Abteilung vor Ort geregelt wurden, nun die Abstimmung zwischen mehreren Standorten unter Berücksichtung verschiedener nationaler Gesetze erfordern und damit eine neue Komplexität gewonnen haben. In der Abwehr von Terrorismus und organisierter Kriminalität und beim Katastrophenschutz hat sich eine organisations- und länderübergreifende Zusammenarbeit als unabdingbar herausgestellt, da sich die abzuwehrende Gefahr auch nicht an nationalstaatliche Grenzen hält. In anderen Fällen hat sich nicht das Phänomen geändert, sondern unser Umgang damit: Menschen mit multiplen Krankheiten wurden traditionell vom medizinischen System arbeitsteilig und damit unzusammenhängend behandelt. Hier wächst die Einsicht, dass es neue Formen der Zusammenarbeit braucht, um mehr Patientensicherheit zu erreichen. ! Durch ökonomische, technische und politische Änderungen haben sich neue Formen der Zusammenarbeit ergeben, bei denen computervermittelte Kommunikation eine große Rolle spielt. Mit Blick auf die Sicherheit solcher Arbeitssysteme ist v. a. darauf zu achten, dass die Informations- und Kommunikationsmittel tatsächlich aufgabenangemessen gestaltet sind und die neuen Arbeitsformen so eingeführt werden, dass Mitarbeiter eine angemessene Erweiterung ihres Aufgabenfeldes und nicht eine Überforderung erfahren.
195 11.2 · Implikationen einer veränderten Arbeitswelt für Sicherheit
11.2
Implikationen einer veränderten Arbeitswelt für Sicherheit
Die geschilderten Veränderungen der Arbeitswelt haben sowohl positive als auch negative Auswirkungen auf Sicherheit. Viele Aufgaben können erst durch computerunterstützte, verteilte Zusammenarbeit in einem größeren Kontext sicher und effizient erledigt werden. So wird Information schnell allen Beteiligten verfügbar gemacht, ohne diese dem direkten Risiko am Einsatzort auszusetzen. Experten können einen besseren Einblick gewinnen, was vor Ort vor sich geht, ohne erst anreisen zu müssen. Mit computergestützter Koordination lassen sich außerdem Ressourcen besser über mehrere parallele Einsätze verteilen. Allerdings hat die Forschung zu Telearbeit gezeigt, dass verteilte Zusammenarbeit auch eine Reihe spezifischer Probleme mit sich bringt. Beides soll im Folgenden anhand von 3 Szenarien für verteilte Zusammenarbeit diskutiert werden (. Abb. 11.2). Bei Szenario 1 (verteilte Zusammenarbeit) arbeiten Teammitglieder an mehreren Standorten und/oder in Telearbeit an derselben Aufgabe – sie müssen sich »nur« computervermittelt koordinieren. Bei Szenario 2 (verteilte Arbeitsaufgabe) erfordert die Arbeitsaufgabe den Einsatz vor Ort, und neue Informations- und Kommunikationstechnologien werden v. a. darauf verwandt, an zentraler Stelle Ereignisse und Ressourcen zu koordinieren. Hier kommt zum Problem der Koordinierung auf Distanz noch die Frage, wie es gelingen kann, dass die
. Abb. 11.2. Szenarien für verteilte Zusammenarbeit
11
dem Geschehen enthobenen Mitarbeiter in der Zentrale genügend Situationsbewusstsein entwickeln, ohne dabei die Übersicht zu verlieren. Bei Szenario 3 wird organisationsübergreifend zusammengearbeitet, z. B. im Gesundheitswesen oder in der Terrorismusbekämpfung. Damit müssen der Gegenstand der Arbeit, die Rollen und Zuständigkeiten neu ausgehandelt und geeignete Formen der informationstechnischen Unterstützung gefunden werden. Im Folgenden werden Besonderheiten der 3 Szenarien besprochen.
11.2.1
Verteilte Zusammenarbeit
In der Industrie ist Szenario 1 (. Abb. 11.2), also räumlich verteiltes Arbeiten an derselben Arbeitsaufgabe, in zunehmendem Maße anzutreffen. Insbesondere in multinationalen Firmen wird so über verschiedene Standorte hinweg an einem Projekt gearbeitet, teilweise unter Ausnutzung von Zeitzonendifferenzen: Während die Europäer noch schlafen, kann in Indien schon programmiert werden, und die Früchte der gemeinsamen Arbeit landen am europäischen Abend auf dem virtuellen Schreibtisch des Projektleiters in den USA – so das Idealbild, das Managern gerne vorgegeben wird. Allerdings überwinden nur die Daten (und auch die nicht immer) schnell und mühelos die großen Entfernungen. Für die beteiligten Menschen führt dieses verteilte Arbeiten zu einer psychischen Entfernung, die in der Teamarbeit nicht immer einfach zu überbrücken ist. O’Leary & Cummings (2007) entwickelten dazu ein
196
Kapitel 11 · Neue Formen der Zusammenarbeit
Maß der psychischen Entfernung, das verschiedene Aspekte von Verteiltheit beschreibt: 4 Räumliche Entfernung: weniger Face-to-faceKontakte, weniger spontane Kommunikation 4 Zeitzonendifferenz: weniger synchrone Interaktion, weniger gleichzeitiges Problemlösen 4 Mehrere Arbeitsorte: erhöht Komplexität der Koordination 4 Isolation: einzelne Teammitglieder arbeiten alleine, weniger gegenseitiges Bewusstsein 4 Fehlende Balance: unterschiedliche Gruppengröße an verschiedenen Orten, Gruppenkonflikte werden wahrscheinlicher
11
Bei Arbeitsaufgaben, die wenig wissensintensiv sind und bei denen nicht (wie z. B. im Vertrieb) Kommunikation Teil der Arbeit ist, kann es zur sozialen Vereinzelung kommen. Monotonie-Effekte der Arbeit schlagen sich stärker als sonst auf das psychische und körperliche Wohlbefinden nieder. Bei wissensintensiven Tätigkeiten, die in Außenstellen, in Heimarbeit oder nomadisierend ausgeübt werden, wie Gemeindepflege, Software-Entwicklung oder Inbetriebnahme von Kraftwerken, ist die Herausforderung vor allem, Mitarbeiterinnen und Mitarbeiter in die Organisation einzubinden. Der Wissensstand, die Arbeitspraktiken und die Ziele dieser nomadisierenden Mitarbeiterinnen und Mitarbeiter sollten hinreichend ähnlich sein, damit nicht plötzlich ein Medikament verabreicht wird, von dem man schon längst wusste, dass es aus dem Verkehr gezogen wurde, oder nur auf den Färöer-Inseln bekannt ist, wie ein bestimmter Fehler im Programm zu beheben ist, wenn dieses Wissen in Aserbaidschan benötigt wird. Daraus ergeben sich auch neue Herausforderungen für die Führung in virtuellen Teams (Manchen Spörri, Springall & Grote, 2003). Lammond, Daniels & Standen (2003) weisen darauf hin, dass Telearbeiter häufig Autonomie höher bewerten als ihre Kollegen im Büro. Das bedeutet auch, dass Telearbeit ihren Bedürfnissen entsprechen kann und nicht notwendigerweise zu Motivationsproblemen führen muss. Die psychische Entfernung kann z. T. durch geeignete Kommunikationstechnologien und Gestaltungsmaßnahmen, wie im einleitenden Beispiel dieses Kapitels gezeigt, verringert werden. Videoverbin-
dungen ermöglichen ein hohes Maß an sog. Präsenz (»presence«), dem Gefühl, »beinahe wirklich dort« zu sein, sich beinahe »richtig« begegnet zu sein. Zwei Welten, die der Bohrinsel »offshore« und der Büros »onshore«, kommen sich viel näher, als sie es je zuvor gewesen sind, und können sich gleichzeitig über dieselben Daten beugen. Interviews mit den Beteiligten und Beobachtungen vor Ort zeigten allerdings auch, dass für die Ingenieure, die mit der Überwachung der Bohrvorgänge betraut waren, ein Teil der für sie interessanten und körperlich abwechslungsreichen Arbeit wegfiel (Lauche, 2008). Für sie bedeutete die Einführung von Onshore Operation Centres den Umzug von der Plattform ins Büro. Sie erlebten dies nicht wie vom Management angenommen als Zugewinn an Sicherheit und »work-life-balance«, sondern eher als Verlust der Autonomie, die sie vorher auf der Bohrinsel gehabt hatten, was sich aus den oben beschriebenen Differenzen in der Motivation von Telearbeitern verstehen lässt. ! Die psychische Entfernung zwischen Mitgliedern setzt sich aus mehreren Faktoren zusammen, die mit der Unmittelbarkeit der Interaktion und dem sozialen Gleichgewicht im Team zu tun haben. Teilweise lässt sich die physische Distanz durch geeignete Kommunikationstechnologien verringern, die das Gefühl der Präsenz (»presence«) steigern.
Das einführende Beispiel zeigt auch, dass die Omnipräsenz von Informationen und die Möglichkeit, mal eben schnell noch jemanden einzubeziehen, dazu führen kann, dass v. a. der Kreis der Beteiligten vergrößert wird, ohne dass dadurch ein echter Mehrwert entsteht. Aus der Gruppenforschung ist bekannt, dass zu große Gruppen dazu neigen, durch Verantwortungsdiffusion nicht oder verzögert zu handeln (Latané, 1981). Diese Tendenz zum Abwarten und Zurückhalten verstärkt sich im virtuellen Kontext noch, weil der Einzelne unsichtbarer bleibt und sich damit leichter zurückhalten kann. Es empfiehlt sich daher, klare Rollenabsprachen zu treffen und bei Zwischenfällen vermehrt explizit zu kommunizieren (7 Kap. 8). Hätten die beiden Teams des Eingangsbeispiels zwischendurch Kontakt zueinander aufgenommen und ihre Ziele und den gegenwärtigen, noch unvollständigen Zustand ihre Diagnose besprochen, hätte sich die Mehrfacharbeit verhin-
197 11.2 · Implikationen einer veränderten Arbeitswelt für Sicherheit
dern und schneller ein gemeinsames Vorgehen vereinbaren lassen. Ein weiteres Problem bei verteiltem Arbeiten ist die Kommunikation und konsequente Umsetzung sicherheitsrelevanter Information. Zwar lässt sich die Information schnell und einfach elektronisch ver-
11
senden. Doch wenn diese eine Verhaltensänderung nach sich ziehen soll, muss sie in der allgemeinen Informationsüberflutung wahrgenommen und verstanden werden und schließlich motivational handlungsrelevant sein. Dass dies nicht immer gelingt, zeigt das folgende Beispiel.
Beispiel Am 11.09.2003 starben 2 Mitarbeiter bei Reparaturarbeiten auf der Ölplattform Brent Bravo durch Gas. Sie konnten zwar ihren Messgeräten entnehmen, dass sie sich in einer Gaswolke von Kohlenwasserstoff befanden, doch war ihnen nicht bewusst, warum das gefährlich sein sollte. Der entsprechende Warnhinweis zu den narkotisierenden und letztlich tödlichen Effekten von Kohlenwasserstoffen war einige Zeit vorher per E-Mail durch das Unternehmen gegangen, aber nicht bis zu diesen Mitarbeitern vorgedrungen, die überfällige Wartungsarbeiten auszuführen hatten. Eine Analyse der Kommunikation von sicherheitsrelevanten Mitteilungen zeigte, dass es diverse Kommunikationskanäle gab sowie eine Fülle an Informationen, die nach dem Gießkannenprinzip statt als zielgruppenadäquate Kampagnen verbreitet wurden. Die Plattform-Manager kamen wegen hoher Arbeitsbelastung gerade noch dazu, zu
11.2.2
Verteilte Arbeitsaufgabe
Das zweite Szenario (. Abb. 11.2) für neue Formen der Zusammenarbeit ist die virtuelle Koordination zwischen Außenstellen oder Akteuren vor Ort und einer Koordinationsstelle, die Übersicht über diverse Aktivitäten wahrnimmt und Ressourcen zuweist. Suchman beschrieb diese Koordinationszentren (»centres of coordination«, Suchman, 1997) als besondere Form computerunterstützter Zusammenarbeit, in denen mit ständiger Orientierung auf örtliche und zeitliche Rahmenbedingungen Probleme gelöst werden, die sich außerhalb des Koordinationszentrums ereignen. Die Zuordnung personeller und materieller Ressourcen an die Einsatzorte geschieht entweder nach einem vorgesehenen Zeitplan (wie im öffentlichen Verkehr) oder entsprechend der sich ergebenden Anforde-
entscheiden, an wen die E-Mail weitergeschickt werden sollte, und einen Eintrag in ihrem Planerfüllungssystem zu tätigen. Viele der Meldungen enthielten zu wenig Information über Ursachen, oder es war unklar, was vom Empfänger erwartet wurde. Die Umsetzung blieb den direkten Vorgesetzten überlassen, die nicht wussten, was sie hätten tun sollen oder woher sie die Zeit nehmen sollten. Die in der Folge eingerichtete Arbeitsgruppe entwickelte daraufhin einen spezifischen Kommunikationskanal für sicherheitsrelevante Mitteilungen. Derartige Meldungen müssen einer klaren Struktur zu Betreff und Begründung entsprechen und eindeutige Anweisungen zu erforderlichen Maßnahmen enthalten. Außerdem wurde ein Monitoringsystem eingeführt, in das die Sender solcher Mitteilungen aktiv eingebunden werden und das die Umsetzung im direkten Kontakt mit dazu benannten Schlüsselpersonen kontrolliert.
rungen aus einer zeitkritischen Lage (wie bei einer Einsatzleitung). Klassische Untersuchungen stammen aus der Verkehrsüberwachung im Flugbereich (Hughes, Randall & Shapiro, 1992) und dem öffentlichen Verkehr am Beispiel der London Underground (Heath & Luff, 1992). Diese Untersuchungen zeigten, dass sicheres Arbeiten und die gegenseitige Aufmerksamkeit in diesen Zentralen nicht auf einen bestimmten Faktor zurückzuführen ist, sondern auf eine Kultur, die »gesättigt« ist mit Instrumenten, Vorschriften und Dokumenten, die dazu eingesetzt werden, die zunächst unvollständige oder inakkurate Information zu validieren. Dazu gehören spezifische Formen der Ambiguitätsreduktion wie das laute Wiederholen der Meldung eines Anrufenden in einer Leitstelle (Artman & Waern, 1999; Petterson, Randall & Helgeson, 2004). Damit kann geklärt werden, wo ge-
198
Kapitel 11 · Neue Formen der Zusammenarbeit
nau der Vorfall stattfindet und wie dringend und schwerwiegend er ist. Außerdem ermöglicht diese Praxis das Mithören für andere Operateure (»listening in«), die so bei parallelen Anrufen feststellen können, ob es sich um einen oder mehrere Fälle handelt, und bereits Maßnahmen einleiten können. Sowohl die Technikgestaltung als auch die Arbeitsorganisation sollten solche Formen der Ambiguitätsreduktion unterstützen. In komplexen Systemen wie der Interaktion zwischen Astronauten und Kontrollzentrum gibt es verschiedene Sprachkanäle mit unterschiedlichen Funktionen: Auf einem »support loop« können Controller Hilfe aus dem Hinterzimmer anfragen; der Konferenzkanal wird von allen beobachtet, aber nur im Bedarfsfall benutzt. Für die Kommunikation mit den Astronauten gibt es hingegen nur einen dezidierten Kanal, da hier eindeutige Botschaften wichtiger sind als mithören zu können (Watts et al., 1996).
11
! Eine wesentliche Funktion bei computerunterstützter Koordination von verteiltem Arbeiten besteht darin, andere Anteil haben zu lassen an eingehenden Informationen und dem sich allmählich verfertigendem Bild der Lage. Derartige Formen des Mithörens und Wiederholens dienen der Ambiguitätsreduktion und dem Aufbau gemeinsamer mentaler Modelle. Allerdings sollte man darauf achten, dass diejenigen, die vor Ort handeln müssen, nicht mit Irrelevantem überlastet werden.
Zu den besonderen Herausforderungen, die sich aus den Ökonomisierungstendenzen der letzten Jahre ergeben, gehört der Versuch, immer mehr Überwachungssysteme mit immer weniger Personal zu betreuen, sowie Versuche, Zentren zusammenzulegen und Arbeitspraktiken zu standardisieren. Das Risiko dabei ist, dass die Standardisierungsversuche die Feinheiten übersehen, die derzeit Ambiguitätsreduktion und gegenseitige Unterstützung ermöglichen. So beschreiben Pettersen, Randall & Helgeson (2004), wie große Wandkarten zur Hilfe genommen werden und Mitarbeiter sich den gerade diskutierten Vorgang am Bildschirm der anderen ansehen und dann am eigenen Bildschirm im Menü aufrufen. Müsste dasselbe Team nun Anrufe aus ganz Schweden entgegennehmen, wäre es deutlich schwieriger, gemeinsam zu klären, wo genau der Unfallort ist und wie lange die
Ambulanz noch unterwegs sein wird. Außerdem überschätzen die Pläne zur Zusammenlegung von Einsatzzentralen die Belastbarkeit von Menschen. Ein tragischer Fall, in dem die Koordination zwischen Akteuren und technischen Systemen in der Zentrale und vor Ort aus genau solchen Gründen scheiterte, ist der Mid-air-Zusammenstoß am 01.07.2002 über Überlingen (Bennett, 2004; BFU, 2004). Beispiel Am 01.07.2002 um 21:35:32 Uhr kam es nördlich der Stadt Überlingen am Bodensee zu einem Zusammenstoß einer Tupolew TU154M, die sich auf dem Flug von Moskau nach Barcelona befand, mit einer Boeing B757-200, die von Bergamo nach Brüssel flog. Beide Flugzeuge flogen nach Instrumentenflugregeln und wurden von Air Traffic Control Zürich geführt. Der Fluglotse, der zu diesem Zeitpunkt alleine 2 Sektoren an unterschiedlichen Arbeitsplätzen betreute, hatte zunächst den drohenden Konflikt der Flugbahnen übersehen, da er mit der Landung eines anderen Fliegers beschäftigt war. Als er die Instruktion zum Ausweichmanöver gab, hatte die automatische Warnanlage TCAS (Traffic Collision Alert System) bereits Alarm in beiden Flugzeugen ausgelöst und automatische Anweisungen erteilt. Die Piloten der Tupolew hatten damit 2 gegensätzliche Anweisungen: eine technische Apparatur, die sie zum Steigflug aufforderte, und ein Fluglotse, der Sinken angeordnet hatte. Sie entschieden sich für die menschliche Instruktion, was den Anweisungen in ihrem Handbuch für Gegenden mit Air Traffic Control entsprach, jedoch nicht den internationalen Regeln für den Luftverkehr. Die beiden Flugzeuge kollidierten und stürzten beide in ein Gebiet nördlich der Stadt Überlingen. An Bord beider Flugzeuge befanden sich insgesamt 71 Menschen, darunter viele Kinder, von denen niemand überlebte.
Der Unfall weist auf ein grundsätzliches Designproblem hin, ein technisches Warnsystem wie TCAS nachzurüsten, von dessen Alarmen die Flugüberwachung keine Kenntnis hat (Ladkin, 2004; Lauche, Busby & Bennett, 2004). Wie bereits in 7 Kap. 2.1.1 diskutiert, führen derartige Redundanzen nicht
199 11.2 · Implikationen einer veränderten Arbeitswelt für Sicherheit
zwingend zu mehr Sicherheit. Außerdem wurde der Unfall mitverursacht durch die Situation in der Flugüberwachung in Zürich, bei der die fragwürdige Praxis, in ruhigen Stunden einen Controller in einen entfernten Ruheraum zu entlassen, zusätzlich kompromittiert wurde durch technische Probleme. Für die Nacht zum 02.07.2002 war ein Systemupdate geplant, um den zunehmenden Flugbetrieb weiterhin sicher abwickeln zu können. Dadurch war vorübergehend ein Teil des automatischen Warnsystems nicht einsatzfähig und aufgrund eines nicht entdeckten Programmierfehlers auch das Telefonsystem nicht verfügbar. So verbrachte der verbliebene Controller viel Zeit damit, telefonisch Kontakt mit Friedrichshafen zur Landung des anderen Flugzeugs herzustellen und merkte dabei nicht, wie der BFU-Bericht es formuliert, dass er sich in einer fehlerträchtigen Lage befand und Unterstützung hätte anfragen müssen. Für die Flugsicherung Zürich begann nach dem Unfall ein schmerzvoller Lernprozess zu Human Factors (Nunes & Laursen, 2004; persönliche Mitteilung Laursen). Die Grenzen menschlicher Belastbarkeit hatte man bis dahin wenig beachtet und sich auf einem hohen Sicherheitsstandard gewähnt, wie auch das Review der niederländischen Kollegen anmahnt (Geest et al., 2003). Der Schrecken unter den Controllern wurde noch größer, als der diensthabende Controller von einem der Angehörigen der Opfer ermordet wurde. Mittlerweile wurde in einem Ge-
11
richtsverfahren festgehalten, dass die Verantwortung für die sicheren Arbeitspraktiken beim Managements lag und sich diese Personen zu verantworten haben (Pressemitteilung Deutsches Radio Schweiz, 07.09.2007).
11.2.3
Organisationsübergreifende Zusammenarbeit
Szenario 3 (. Abb. 11.2) bezieht sich auf neue Zusammenarbeit zwischen Organisationen, insbesondere Behörden, die bisher jeweils für einen Aspekt der Sicherheit der Bevölkerung zuständig waren. Gerade die professionellen Sicherheitsfachkräfte in Polizei, Feuerwehr und medizinischer Versorgung haben zunehmend erkannt, dass sowohl Prävention als auch Krisenmanagement nur organisationsübergreifend erfolgen kann. Allerdings handelt es sich um kein einfaches Unterfangen, da historisch gewachsene Unterschiede in der Fachsprache, der Regelung von Verantwortlichkeiten und in »standard operating procedures« zu überwinden sind. Diese Unterschiede sind dann sicherheitsrelevant, wenn die Beteiligten über unterschiedliche mentale Modelle verfügen, was in welcher Situation zu tun ist, oder die Situation anders interpretieren (7 Kap. 7.2 und 8.3). Meist sind es spektakuläre Fälle, die auf die unzureichende Zusammenarbeit der Behörden hinweisen, wie das folgende Beispiel aus Großbritannien zeigt.
Beispiel Die 8-jährige Victoria Climbie wurde von ihren Pflegeeltern über Monate auf grausamste Art misshandelt. Diverse Behörden wie die Polizei, das Sozialamt, das Gesundheitsamt und kirchliche Stellen wussten von dem Fall und hatten Anzeichen von Missbrauch bemerkt, doch keine der Stellen untersuchte den Fall und traf irgendwelche Maßnahmen. Als Victoria im Februar 2000 ins Krankenhaus eingeliefert wurde und dort innerhalb weniger Tage starb, war das Entsetzen über das Ausmaß der Misshandlung und die Untätigkeit der Behörden groß. Der in der Folge eingesetzte Untersuchungsausschuss empfahl u. a. gemeinsame Schulungen. Dafür entwickelte das National Centre for Applied Learning Technologies (http://www.ncalt.com) der
Metropolitan Police London computergestützte Szenarien. Teilnehmergruppen bearbeiten einen Fall mit immer neu hereinströmenden Meldungen, Anfragen, Videoaufzeichnungen vor Ort etc., treffen Entscheidungen und müssen sich vor einem Gremium verantworten (Crego & Harris, 2002). Die Trainingsmethode hat sich als sehr effektiv erwiesen, um unter realitätsnahen Bedingungen analysieren, entscheiden und kommunizieren zu üben und zumindest das Bewusstsein für einen differenzierten Umgang mit sog. Problemgruppen der Bevölkerung zu schärfen. Nach Aussagen der beteiligten Mitarbeiter gibt es jedoch auch immer noch heftige Auseinandersetzungen zwischen den Behörden im Training.
200
Kapitel 11 · Neue Formen der Zusammenarbeit
Dass eine Zusammenarbeit zwischen Organisationen auch substanzielle strukturelle Hürden zu überwinden hat, zeigt die Diskussion zu Integrierten Leitstellen in Deutschland über die Regelung von Weisungsbefugnissen und einander widersprechenden Aufgaben von Personenschutz und Verbrechensaufklärung: »Die Zusammenfassung von Integrierten Leitstellen mit Polizeistellen zu‚kombinierten’ oder gar ‚gleichgeschalteten’ Leistellen birgt erhebliche politische Risiken und ist aus fachlichen, organisatorischen und politischen Gründen abzulehnen. Aufgrund der sehr differenzierten Wahrnehmung der (polizeilichen) Eingriffsverwaltung und der (nichtpolizeilichen) Fürsorge des Staates durch organisierte Hilfe in der Bevölkerung kann eine Vermischung beider Bereiche in Krisensituationen zur Destabilisierung der öffentlichen Sicherheit und Ordnung führen. Auch Belange des Datenschutzes sprechen gegen eine Zusammenlegung.« (AGBF, 2004, S. 2)
11
Organisationsübergreifende Zusammenarbeit bedeutet auch, dass der Gegenstand der Arbeit erst ausgehandelt und gemeinsam konstruiert werden muss. Allgemein wird argumentiert, die eingangs angeführten Bedingungen der globalisierten Wirtschaft und leistungsstärkeren Technologie führten zu einer Komprimierung von Zeit und Raum. Dagegen argumentieren Engeström, Puonti & Seppänen (2003), es sei sinnvoller, den Gegenstand der Arbeit zu betrachten, und dieser weite sich eher aus. Sie zeigen anhand von Beispielen aus der Verbrechensbekämpfung im Bereich Finanzbetrug und Steuerhinterziehung, aus dem biologischen Landbau und aus der medizinischen Versorgung, wie sich die gemeinsame Arbeitsaufgabe verändert. Aus der Analyse des einzelnen Betrugsfalls wurde die Identifizierung von kriminellen Netzwerken, die an diversen Orten und mit zahlreichen Personen und Identitäten operieren und nun parallel verfolgt werden. In der landwirtschaftlichen Genossenschaft setzte ein Umdenken ein von der Vermarktung des gegenwärtigen Ertrags zur Mehrjahresplanung und Fruchtfolge. Bei der Behandlung von Patienten mit Mehrfachdiagnosen kam ein Pflegeplan zum Einsatz, der von den beteiligten Instanzen gemeinsam entwickelt und weiter-
geführt wurde. In allen 3 Beispielen trug die langjährige Zusammenarbeit von Forschenden und Praktikern dazu bei, die Schnittstellenprobleme zu identifizieren und eine neue Arbeitspraxis zu etablieren. Ist auf diesem Wege eine solide Basis für eine organisationsübergreifende Zusammenarbeit gelegt, kann sie sinnvoll elektronisch unterstützt werden. Problematisch ist dies allerdings, wenn erst die Technologie entwickelt wird, ohne die Einzelheiten der Grenzregulation an den Schnittstellen zu kennen, wie dies bezüglich der elektronischen Gesundheitskarte in Großbritannien und Deutschland kritisiert wurde (Hartswood, Proctor, Rouncefield & Slack, 2003; Krüger-Brand, 2007). ! Zusammenarbeit zwischen Organisationen zum Wohl der Betroffenen ist grundsätzlich anzustreben, aber keine leichte Aufgabe, da die Strukturen historisch gewachsen sind und erst ein gemeinsames Verständnis der Arbeit entwickelt werden muss. Rein technische Lösungen greifen hier zu kurz.
11.3
Anforderungen für Technikund Organisationsgestaltung
Aus den hier vorgestellten Forschungsergebnissen und Praxisbeispielen lassen sich einige Kriterien für die Technik- und Organisationsgestaltung für neue Formen der Zusammenarbeit ableiten, die auf unterschiedlichen Gestaltungsebenen Anwendung finden (. Abb. 11.3). Zur Unterstützung von verteilter Zusammenarbeit werden im Folgenden 3 Kriterien genannt:
Handlungskompetenz vor Ort unterstützen Das Gesamtsystem muss so ausgerichtet sein, dass die Einsatzkräfte am Unfallort, die Geologen auf der Bohrinsel und die Astronauten im All soweit wie irgend möglich selbst mit Schwankungen und Störungen umgehen können. Instruktionen müssen so erfolgen, dass sie die Arbeit weder unterbrechen noch behindern oder verzögern. Der Primärprozess wie die Patientenversorgung oder das Feuerlöschen muss durch die Führungskräfte und Stabsmitarbeiter unterstützt werden, nicht diese den Anforderungen des Sekundärprozesses gehorchen.
201 11.3 · Anforderungen für Technik- und Organisationsgestaltung
11
. Abb. 11.3. Kriterien für Technikund Organisationsgestaltung
Eines der grundsätzlichen Gestaltungsprinzipien für soziotechnische Systeme, das hier Anwendung findet, ist das Gesetz der erforderlichen Wahlmöglichkeiten (»law of requisite variety«) von Ashby (1956). Es besagt, dass die steuernde Instanz die Komplexität des zu steuernden Systems angemessen repräsentieren können muss und umso besser Schwankungen und Störungen kompensieren kann, je mehr Handlungsalternativen sie hat. Eine automatisierte Steuerung sollte also so programmiert sein, dass sie Abweichungen registriert und auf das entsprechende Alternativprogramm umschaltet. Menschliche Bediener vor Ort sollten sich vorstellen können, welche Systemzustände es geben kann und wie damit umzugehen ist, und sollten befugt und in der Lage sein, angemessene Wartungsarbeiten, abweichende Behandlungen oder Einleiten eines sicheren Systemzustands selbstständig vornehmen zu können.
Situierte Handlungsverschränkung ermöglichen Die zahlreichen Akteure müssen voneinander wissen und sich nach Bedarf schnell und einfach koordinieren können, um so gemeinsame Umsicht walten lassen zu können (»heedful interrelating«; Weick & Roberts, 1993). Auch bei dem Konzept der Handlungsverschränkung (Zölch, 2001) geht es darum, durch Grenzregulation zwischen mehreren Gruppen flexible Koordination vor Ort zu ermöglichen. Bei verteiltem Arbeiten kann dies nicht »auf Zuruf« geschehen, sondern muss technisch unterstützt werden. Nur so wird gewährleistet, dass die mentalen Modelle der Teammitglieder hinreichend ähnlich und auf dem laufenden Stand der jeweiligen Situation sind.
Soziale Identität fördern Wie bereits erläutert, kann es bei verteiltem Arbeiten zur Ausbildung von Subkulturen kommen. Damit verteilte Teams dennoch das Gefühl haben, auf dasselbe übergeordnete Ziel hinzuarbeiten, sollten technische Mittel genutzt werden, um die psychologische Entfernung zu verringern, wie im Eingangsbeispiel dieses Kapitels die ständige Videoverbindung und die Möglichkeit des elektronischen Mithörens. Ein derartig gestärktes Zugehörigkeitsgefühl erhöht auch die Motivation, Anweisungen von zentraler Stelle, wie die zur narkotisierenden Wirkung von Kohlenwasserstoffen, eingehend zu lesen und die Sicherheitshinweise zu befolgen. Diese 3 beschriebenen Kriterien finden auf verschiedenen Ebenen Anwendung. Auf der Ebene der soziotechnischen Systemgestaltung finden sich Leitlinien zur Stärkung der Handlungskompetenz vor Ort unter dem Konzept der »resilience« (Belastbarkeit; z. B. Hollnagel, Woods & Leveson, 2006). Zwischen mehreren kompetent agierenden Akteuren gilt es dann, Verantwortlichkeiten zu klären und Vernetzung herzustellen. Auf der Ebene der Arbeitsgestaltung entsprechen die vorgestellten Kriterien der Maxime von Autonomie und Kontrolle (Grote, 1997). Operateure sollten bei Schwankungen und Störungen eingreifen und das technische System steuern können sowie in die übergeordnete Diskussion der Funktionszuweisung Mensch-Maschine einbezogen sein (7 Kap. 19.4). Bei verteiltem Arbeiten können sich Teammitglieder gegenseitig unterstützen und Fehler kompensieren, wie im Eingangsbeispiel dieses Kapitels geschildert. Mark, Kobsa & Gonzalez (2002) fan-
202
Kapitel 11 · Neue Formen der Zusammenarbeit
den beim Vergleich zweier Visualisierungssysteme, dass Gruppen akkuratere Entscheidungen trafen, wenn das System mehr Transparenz schuf. Vier Augen können mehr sehen als zwei, aber nur, wenn dies geeignet technisch unterstützt wird. Für die Technikgestaltung gilt grundsätzlich das Prinzip der Aufgabenangemessenheit: Beim Entwickeln neuer Technologie sollte man die Aufgabe zunächst eingehend analysieren. Die Beispiele aus der Forschung zu computerunterstützter Zusammenarbeit (CSCW) zeigen allerdings auch, dass dieses Verstehen von Arbeitsbezügen noch nicht direkt zu Systemanforderungen führt, sondern immer noch eines Übersetzungsprozesses bedarf (Lauche, 2005; McCarthy, 2000). Für verteilte Zusammenarbeit gilt außerdem, dass die Technik die wahrgenommene Präsenz der anderen Teammitglieder erhöhen sollte, um so die Koordinierung zu vereinfachen und die Teamidentität zu stärken. Dazu gibt es einige Einflussfaktoren wie die Übertragungsrate von Videobildern, die beeinflussen, ob die Interaktion als realistisch wahrgenommen wird (Witmer & Singer, 1998).
11
11.4
Zusammenfassung
Die Hintergründe für neue Formen der Zusammenarbeit liegen in der Globalisierung der Wirtschaft, der zunehmenden technischen Vernetztheit und den komplexeren Problemstellungen bei knapper zugeteilten Ressourcen. Als Folge davon findet arbeitsbezogene Kommunikation vermehrt computervermittelt statt, was zu Informationsüberflutung, Motivationsverlusten, Unklarheiten und Verantwortungsdiffusion führen kann. Neue Formen der Zusammenarbeit können jedoch auch eine bessere Basis für mehr Sicherheit bieten, sofern die Technik und Organisation arbeitsangemessen gestaltet sind. Aus der bisherigen Forschung lassen sich 3 idealtypische Szenarien unterscheiden: 4 Verteilte Zusammenarbeit an derselben Aufgabe 4 Verteilte Arbeitsaufgabe mit zentraler Koordination 4 Organisationsübergreifende Zusammenarbeit an noch gemeinsam zu definierenden Arbeitsaufgaben
Für die Gestaltung von Arbeitssystemen, Aufgaben und Technik lassen sich Richtlinien ableiten, die dazu dienen, die Handlungskompetenz vor Ort zu stärken und die Koordination und den Zusammenhalt innerhalb des Teams zu fördern.
11.5
Literatur
AGBF (2004). Zukunft der Leitstellen der nichtpolizeilichen Gefahrenabwehr. Karlsruhe: Arbeitsgemeinschaft der Leiter der Berufsfeuerwehren. Altvater, E. & Mahnkopf, B. (2004). Grenzen der Globalisierung. Ökonomie, Ökologie und Politik in der Weltgesellschaft (6 ed.). Münster: Westfälisches Dampfboot. Artman, H. & Waern, Y. (1999). Distributed Cognition in an Emergency Co-ordination Centre. Cognition, Technology & Work, 1 (4), 237–246. Ashby, W. R. (1956). An Introduction to cybernetics. London: Chapman and Hall. Batinic, B. (Hrsg.) (2000). Internet für Psychologen (2 ed.). Göttingen: Hogrefe. Bennett, S. A. (2004). The 1 July, 2002 mid-air collision over Überlingen, Germany. A holistic analysis. Risk Management: An International Journal, (1), 31–49. BFU (2004). Investigation Report (No. AX001-1-2/02). Braunschweig: German Federal Bureau of Aircraft Accidents Investigation. Crego, J. & Harris, C. (2002). Training decision-making by team based simulation. In R. Flin & K. Arbuthnot (Eds.), Incident command: tales from the hot seat (pp. 258–269). Hants: Ashgate. Engeström, Y., Puonti, A. & Seppänen, L. (2003). Spatial and temporal expansion of the object as a challenge for reorganizing work. In D. Nicolini, S. Gherardi & D.Yanow (Eds.), Knowing in organizations: A practice-based approach (pp. 151– 186). Armonk: M. E. Sharpe. Geest, P. J. v. d., Piers, M. A., Jong, H. H. d., Finger, M., Slater, D. H., Es, G. W. H. v. et al. (2003). Aviation safety management in Switzerland. Recovering from the myth of perfection (No. NLR-CR-2003-316). Amsterdam: National Aerospace Laboratory NLR. Grote, G. (1997). Autonomie und Kontrolle. Zur Gestaltung automatisierter und risikoreicher Systeme. Zürich: vdf Hochschulverlag. Hartswood, M., Proctor, R., Rouncefield, M. & Slack, R. (2003). Making a case in medical work: Implications for the electronic medical record. Computer Supported Cooperative Work, 12 (3), 241–266. Heath, C. & Luff, P. (1992). Collaboration and control: Crisis management and multimedia technology in London Underground control rooms. Computer Supported Cooperative Work, 1 (1-2), 69–94. Hollnagel, E., Woods, D. D. & Leveson, N. (2006). Resilience engineering. Concepts and precepts. Aldershot: Ashgate.
203 11.5 · Literatur
Holman, D., Wall, T. D., Clegg, C., Sparrow, P. & Howard, A. (Eds.) (2003). The new workplace. A guide to the human impact of modern working practices. Chichester: John Wiley. Hughes, J. A., Randall, D. & Shapiro, D. (1992). Faltering from Ethnography to Design. In J. Turner & R. Kraut (Eds.), Proceedings of the Conference on Computer-Supported Cooperative Work, Toronto, Canada, 31 Oct – 4 Nov 1992 (pp. 115–122). New York: ACM Press. Klein, K. J. (2004). Creating a strong, positive climate for technology implementation: Organsations should, but often don’t ... Why? In M. Erez, U. Kleinbeck & H. Thierry (Eds.), Work motivation in the context of a globalizing economy (pp. 261-278). Mahwah, NJ: Lawrence Erlbaum Associates. Krüger-Brand, H. (2007). Warnung vor Schnittstellenchaos. Deutsches Ärzteblatt, 104 (19), 1296. Ladkin, P. B. (2004). Causal analysis of the ACAS/TCAS Sociotechnical System. Paper presented at the 9th Australian Workshop on Safety Related Programmable Systems, Brisbane. Lammond, D., Daniels, K. & Standen, P. (2003). Teleworking and virtual organisations: The human impact. In D. Holman, T. D. Wall, C. Clegg, P. Sparrow & A. Howard (Eds.), The new workplace. A guide to the human Impact of modern working practices (pp. 197–218). Chichester: John Wiley. Latané, B. (1981). The psychology of social impact. American Psychologist, 36 (4), 343–356. Lauche, K. (2005). Collaboration among designers: Analysing an activity for system development. Computer Supported Cooperative Work, 14, 253–282. Lauche, K. (2008). Overcoming remoteness: Human factors assessment of real-time monitoring and support in drilling operations. International Journal of Technology and Human Interaction, 4 (1), 94–112. Lauche, K., Busby, J. S. & Bennett, S. A. (2004). Integrating operational complexity in design processes and improving design risk identification. In D. Marjanovic (Ed.), Proceedings of the 8th International Design Conference (pp. 349– 354). Dubrovnik: Design Society. Manchen Spörri, S., Springall, L. & Grote, G. (2003). Führung virtueller Teams in der IT-Branche: Neue Herausforderungen an Führung und Kommunikation. Wirtschaftspsychologie, 1/2003.
11
Mark, G., Kobsa, A. & Gonzalez, V. (2002, 10–12 July 2002). Do four eyes see better than two? Collaborative versus individual discovery in data visualization systems. Paper presented at the 6th International Conference on Information Visualisation, London. McCarthy, J. (2000). The paradox of understanding work for design. International Journal of Human Computer Studies, 53, 197–219. Nunes, A. & Laursen, T. (2004, September 20–24). Identifying the factors that led to the Ueberlingen mid-air collision: Implications for overall system safety. Paper presented at the 48th Annual Chapter Meeting of the Human Factors and Ergonomics Society, New Orleans, LA. O’Leary, M. B. & Cummings, J. (2007). The spatial, temporal and configurational characteristics of geographic dispersion in teams. Management of Information Systems Quarterly, 31 (3), 433–452. Petterson, M., Randall, D. & Helgeson, B. (2004). Ambiguities, awareness and economy: A study of emergency service work. Computer Supported Cooperative Work, 13, 125–154. Suchman, L. (1997). Centers of coordination: A case study and some themes. In L. B. Resnick, R. Säljö, C. Pontecorvo & B. Burge (Eds.), Discourse, tools and reasoning: Essays on situated cognition (pp. 41–62). Berlin: Springer. Symon, G. (2000). Information and communication technologies and the network organization: A critical analysis. Journal of Occupational and Organizational Psychology, 73 (4), 389–414. Watts, J. C., Woods, D. D., Corban, J., M., Patterson, E. S., Kerr, R. L. & Hicks, L. C. (1996). Voice loops as coordination aids in space shuttle mission control. Paper presented at the CSCW ’96, Boston, MA. Weick, K. E. & Roberts, K. (1993). Collective mind in organizations: heedful interrelating on flight decks. Administrative Science Quarterly, 38, 357–381. Witmer, B. G. & Singer, M. J. (1998). Measuring presence in virtual environments: A presence questionnaire. Presence, 7, 225–240. Zölch, M. (2001). Zeitliche Koordination in der Produktion. Aktivitäten der Handlungsverschränkung. Bern: Huber.
IV Aktuelle Human-FactorsHerausforderungen und Anforderungen für die Zukunft in verschiedenen Risikofeldern 12
Aktuelle Themen und zukünftige Entwicklungen in der Luftfahrt – 207
13
Patientensicherheit und Human Factors – Vom Heute in die Zukunft gesehen – 220
14
Lernen aus Störfällen und Präventionsansätze in der Prozessindustrie –231
15
Militär: Handeln in komplexen Problemlagen – 244
16
Stabsarbeit und »Ständige Stäbe« bei der Polizei: Sicherheit durch Professionalisierung – 256
12
Aktuelle Themen und zukünftige Entwicklungen in der Luftfahrt Rolf Wiedemann und Petra Badke-Schaub
12.1
Einleitung
12.2
Anforderungen für die Zukunft – 211
12.2.1
Ein Babylon der Lüfte? Anforderungen durch die Europäisierung der Luftfahrt – 211 Flugzeugführer oder Panel-Operator? Anforderungen bei der Auswahl und Ausbildung von zukünftigen Piloten – 214 Zum Wachstum verdammt? Anforderungen durch neue Entwicklungen in der Luftfahrttechnik – 217
12.2.2 12.2.3
– 208
12.3
Zusammenfassung
12.4
Literatur
– 219
– 218
12
208
Kapitel 12 · Aktuelle Themen und zukünftige Entwicklungen in der Luftfahrt
12.1
Einleitung
Die Luftfahrt und das von ihr entwickelte Crew Resource Management (CRM) als Werkzeug für sicheres Handeln des Einzelnen, von Teams und der Luftfahrtindustrie als Ganzes werden gerne als Beispiel für die erfolgreiche Anwendung von Konzepten zur Risikosteuerung verwendet. Tatsächlich aber fußt die relativ hohe Sicherheit dieser Industrie auf dem Ineinandergreifen einer ganzen Reihe unterschiedlicher Werkzeuge, die in den letzten 25 Jahren entwickelt, erprobt und immer wieder angepasst wurden (NTSB, 2007). Ausgehend von der Betrachtung der Zusammenarbeit im Cockpit eines Verkehrsflugzeuges (Cockpit Resource Management) wurden die Schnittstellen zum Cockpit einbezogen (Crew Resource Management) und letztendlich auf alle Arbeitsbereiche, die zum System Luftfahrt gehören, ausgedehnt (Company und Culture Resource Management; siehe z. B. Helmreich, Merritt & Wilhelm, 1999). Die Qualität dieser Werkzeuge verdankt die Luftfahrt der im Vergleich zu anderen Industriezweigen frühen Erkenntnis der Bedeutung des Faktors Mensch und der industrie-immanenten Internationalität. Bereits Mitte der 1980er Jahre wurden die ersten Trainingsprogramme, zunächst beschränkt auf den Bereich Cockpit, erprobt. Ursächlich war die in den Vereinigten Staaten übliche Praxis, Verkehrsflugzeugführer aus dem großen Angebot an ehemaligen Militärpiloten zu rekrutieren. Diese auf ganz andere Anforderungen selektierten und ausgebildeten Piloten verursachten im zunehmend teamorientierten Cockpit der neuen Generation von Verkehrsflugzeugen Auffälligkeiten, die von Wissenschaftlern analysiert wurden, welche wiederum durch eine Serie spektakulärer Industrieunfälle auf Human Factors aufmerksam geworden waren (. Tab. 12.1). . Tab. 12.1. Große Industrieunfälle der 1980er Jahre 1979
Atomreaktor Three-Miles-Island (USA)
1984
Chemiefabrik Bhopal (Indien)
1986
Tschernobyl (UdSSR)
1987
Herold of Free Enterprise (Belgien)
1988
Ölplattform Piper Alpha (Nordsee)
1988
Space Shuttle Columbia (USA)
Forscher wie Reason (1990), Wiener, Nagel, (Wiener, Nagel, Carterette & Friedman, 1988), Hawkins (Hawkins & Orlady, 1987), Faber (1977) und Helmreich (Helmreich & Foushee, 1993), um nur einige zu nennen, haben sich mit der Aufarbeitung der Ursachen dieser Katastrophen und der Umsetzung der gewonnenen Erkenntnisse in der Luftfahrt beschäftigt (zur Analyse und Theoriebildung zu Katastrophen s. auch 7 Kap. 2.2, 7 Kap. 3.2 und 7 Kap. 7.6). Warum aber hat gerade die Luftfahrt eine Schlüsselposition in der Entwicklung Human-Factors-orientierter Sicherheitskonzepte eingenommen? Der Luftverkehr erlebte in den 1980er Jahren ein enormes Wachstum. Gleichzeitig entwickelte die Öffentlichkeit eine Sensibilität in Bezug auf Vorfälle und Unfälle im Zusammenhang mit Verkehrsflugzeugen. Eine Studie der Firma Boeing Ende der 1980er Jahren ergab, dass es bei gleichbleibendem Risiko, nur aufgrund der wachsenden Verkehrszahlen, im Jahr 2000 jede Woche einen schweren und damit medienwirksamen Vorfall in der Zivilluftfahrt geben werde. Eine zumindest das Verkehrwachstum ausgleichende Erhöhung der Flugsicherheit ist also notwendig. Potenzielle Kunden, die beispielsweise im Jahre 1988 im Individualverkehr 8213 Verkehrstote (Quelle: http://www.destatis. de/basis/d/verk/verktab6.php) allein in Westdeutschland akzeptierten, reagierten in Bezug auf die Luftfahrt deutlich sensibler. Der dazu mögliche Aufwand ist nicht zuletzt von der Größe einer Fluggesellschaft abhängig. Um die absolute Zahl der medienwirksamen Vorfälle in einem von den Kunden akzeptierten Rahmen zu halten, darf die Fehlerrate bei einem Flugbetrieb mit 600.000 Flügen pro Jahr nur etwa halb so groß sein wie bei einem Flugbetrieb mit nur 300.000 Flügen pro Jahr. Das wird besonders deutlich bei einem Vergleich anderer, gesellschaftlich akzeptierter Risiken in . Tab. 12.2. Um als großer Flugbetrieb wirtschaftlich bestehen zu können, muss das Unfallrisiko daher auf einen Wert von weniger als 10–7 gesenkt werden. Das sich daraus rechnerisch ergebende tolerierbare Risiko entspricht einem Zeitabstand von mehr als 10 Jahren zwischen 2 Unfällen. Mit diesen Zielwerten bewegt sich die Luftfahrt im Bereich der Vorschriften für die Atomindustrie. Dieser kontinuierliche Zwang, insbesondere aus wirtschaftlichen Erwägungen immer mehr Sicherheit garantieren zu müssen, ist der eigent-
209 12.1 · Einleitung
12
. Tab. 12.2. Akzeptable Risiken
Risikoart
Tödliche Fehlerrate
Anzahl der Totalverluste bei gleichem Risiko in einem großen Flugbetrieb (600.000 Flüge pro Jahr)
NASA Space Shuttle
4,0%
Täglich 68 Unfälle
Großer chirurgischer Eingriff
1,0%
Täglich 17 Unfälle
Intensivmedizin
0,1%
Täglich 2 Unfälle
Quelle: CF-Information 3/2005
liche Grund für den Zeitvorsprung, den die Luftfahrt in Bezug auf funktionierende Arbeitskonzepte zur Risikosteuerung heute noch hat. Es geht hier bewusst um das probabilistische Unfallrisiko. Aufgrund der hohen Zuverlässigkeit des Systems Luftfahrt lässt sich die Flugsicherheit einzelner Unternehmen nicht ohne Weiteres durch deren Unfallereignisse messen, da die Ereignisse zu selten sind, um sie statistisch bedeutsam bearbeiten zu können. Im Folgenden werden wir diskutieren, in welcher Weise zukünftige Entwicklungen die Sicherheit der Beispiel Helios-Flug 522, Larnaca – Athen, 14.08.2005 Die Boeing 737-500 der Fluglinie Helios wurde vor dem Abflug von der Technik gewartet. Dabei wurde auch das System überprüft, das im Fluge den atmosphärischen Druck in der Kabine regelt. Nach der Wartung wurde vergessen, den Schalter für die automatische Steuerung der Anlage wieder einzuschalten. Dadurch blieben die Ventile für die Druckregelung geöffnet, womit eine Druckbeaufschlagung der Kabine nach einem Start nur über einen manuellen Schalter zum Öffnen und Schließen dieser Ventile möglich ist. Die falsche Stellung des Schalters wird durch ein grünes Licht angezeigt. Es befindet sich hinter dem Kopf der Piloten am sog. »overhead panel«. Bei der Flugvorbereitung wurde dieser Fehler nicht bemerkt, obwohl die richtige Stellung des Schalters in einer Checkliste abgefragt wird. Die Maschine startete um 9.07 Uhr in Larnaca auf dem Weg nach Prag mit einer geplanten Zwischenlandung in Athen. Aufgrund der geöffneten Druckregelventile stieg der atmosphärische Druck in der Kabine, der im Normalfall auf maximal 8000 Fuß (ca. 6
zivilen Luftfahrt beeinflussen. Damit wird dieses Kapitel keinen Überblick über Human Factors in der Luftfahrt geben; vielmehr werden ausgehend von einem Fallbeispiel zentrale Probleme aufgezeigt, die als Herausforderungen für die Zukunft in der zivilen Luftfahrt von besonderer Bedeutung sind. Dazu gehören die politische Entwicklung im europäischen Rahmen, angestrebte Veränderungen im Bereich der Pilotenausbildung sowie die Frage nach den Auswirkungen der technischen Entwicklung von Flugzeugen und Infrastruktur.
2450 m) begrenzt wird, etwa im gleichen Verhältnis wie die Flughöhe. Bei Erreichen einer Flug- und Kabinenhöhe von mehr als 12.000 Fuß (ca. 4000 m) ertönte ein Warnhorn, um die Cockpitbesatzung darauf aufmerksam zu machen. Das Warnhorn wurde von den Piloten offensichtlich falsch interpretiert, da der gleiche Warnton am Boden eine andere Bedeutung hat, nämlich die Warnung vor einer unsicheren Startkonfiguration in Bezug auf Landeklappen, Bremsklappen und Bremsen. Die Cockpitbesatzung nahm an, es handele sich um eine Fehlwarnung dieses Startkonfigurationssystems. Deshalb wurde wahrscheinlich auch nicht versucht, das Warnhorn auszuschalten, wie es für die Kabinendruckwarnung möglich gewesen wäre. Gleichzeitig wurde die Besatzung durch eine weitere Warnung (Überhitzung im FlugelektronikLaderaum aufgrund zu geringen Kühlluftdurchsatzes) abgelenkt, die ursächlich mit dem geringen Luftdruck im Flugzeug zusammenhing. Die Warnung für das Auslösen der Kabinensauerstoffanlage (Kabinenhöhe größer 14.000 Fuß (ca. 4250 m)) wurde nicht wahrgenommen, weil die allgemeine Warnanzeige (»master caution«) nach der Anzeige des
210
12
Kapitel 12 · Aktuelle Themen und zukünftige Entwicklungen in der Luftfahrt
Kühlproblems nicht gelöscht worden war und deshalb nicht erneut aufleuchten konnte. Die Lösung des Problems wurde durch die Tatsache verzögert, dass der englische Techniker am Boden den mit starkem deutschen Akzent sprechenden Kapitän nicht richtig verstand. Zwischendurch wurde vorgeschlagen, dass der zypriotische Erste Offizier das Problem mit einem zypriotischen Techniker auf Griechisch besprechen solle. Da die Cockpitbesatzung immer noch der Meinung war, es handele sich um eine fehlerhafte Konfigurationswarnung, trug sie zu diesem Zeitpunkt keine Sauerstoffmasken. Wahrscheinlich erreichte sie auch keine Information von den Flugbegleitern aus der Kabine, die nach dem Auslösen der Sauerstoffmasken durch die Maske an ihre jeweilige Position gebunden waren. Der Autopilot setzte den programmierten Steigflug fort, und der Luftdruck in der Kabine nahm stetig ab. Die Cockpitbesatzung war dadurch einem zunehmenden Sauerstoffmangel (Hypoxie) ausgesetzt. Dieser Sauerstoffmangel verläuft schleichend und führt, ähnlich wie Alkohol, zunächst zu einer stark fallenden geistigen Leistungsfähigkeit, ohne dass dies bewusst wahrgenommen wird. Wahrscheinlich wurde der Flugkapitän auf der Suche nach einer elektrischen Sicherung (für
. Abb. 12.1. Skizze der Flugroute der Boeing 737–500
die Belüftung der Flugelektronik), die sich hinter seinem Sitz befindet, bewusstlos. Der Erste Offizier verlor das Bewusstsein auf seinem Sitz. Wie programmiert, steuerte der Autopilot das Flugzeug auf die eingestellte Reiseflughöhe von 34.000 Fuß (ca. 10.370 m) und erreichte diese Höhe etwa 19 min nach dem Start in Larnaca (. Abb. 12.1). Die Flugsicherungsleitstelle in Athen konnte keinen Kontakt zu dem Flugzeug herstellen, dessen Autopilot um 10.20 Uhr in die Warteschleife über dem Funkfeuer KEA (etwa 50 km südlich von Athen) eindrehte. Gegen 11.30 Uhr erreichten 2 zu Hilfe gerufene F-16-Kampfflugzeuge der griechischen Luftwaffe das Flugzeug. Sie konnten den bewusstlosen Ersten Offizier sehen, nicht aber den Kapitän. Außerdem entdeckten sie 1 oder 2 Personen mit Sauerstoffmasken im Cockpit, wahrscheinlich bei dem Versuch, das Flugzeug zu kontrollieren. Der Flugbegleiter, von dem angenommen wird, dass er diesen Versuch unternommen hat, hatte erst vor kurzem mit seinem Flugunterricht begonnen. Das Flugzeug begann nun, sich Richtung Athen zu bewegen und leitete einen Sinkflug ein. In einer Flughöhe von etwa 7000 Fuß (ca. 2100 m) versagten die Triebwerke aufgrund von Treibstoffmangel, und das Flugzeug stürzte in hügeliges Gelände, etwa 40 km nördlich von Athen. Alle 121 Menschen an Bord fanden den Tod.
211 12.2 · Anforderungen für die Zukunft
12
. Abb. 12.2. Modell wichtiger Einflussfaktoren zur Erklärung des Fallbeispiels
. Abb. 12.2 stellt die ursächlichen Faktoren im Fallbeispiel in ihrem Zusammenhang dar. Im Text werden die relevanten Faktoren an entsprechender Stelle mit den zukünftigen Anforderungen an die Luftfahrt im Human-Factors-Bereich in Verbindung gebracht.
12.2
Anforderungen für die Zukunft
»Die wiederkehrende Schulung zu effektivem Arbeiten als Besatzung«, so die offizielle Übersetzung des Begriffs »Crew Resource Management«, ist seit der Einführung der europäischen Richtlinien 1998 verbindlicher Bestandteil der Ausbildung und regelmäßigen Schulung von Cockpit- und Kabinenpersonal. So hilflos die Industrie zu Beginn vor den geforderten Schulungsinhalten stand, so wirkungsvoll hat sich die Ausbildung in Human-Factors-Themen in der Zwischenzeit erwiesen. Sie ist zum anerkannten Standard geworden (für eine detaillierte Beschreibung von Inhalten siehe z. B. Flin, O’Connor & Crichton, 2007). Unfälle wie im beschriebenen Fall-
beispiel lassen aber immer wieder die Vermutung aufkommen, dass die europaweite Umsetzung der Forderungen noch nicht vollständig erfolgt ist. Die Zulassung von Schulungsmaßnahmen unterliegt den nationalen Luftfahrtbehörden ebenso wie die Überprüfung der Fluggesellschaften in Bezug auf die Einhaltung der Vorschriften. Daraus lassen sich die Anforderungen für die Zukunft recht einfach ableiten. Sie beziehen sich nicht auf die Schulung als solche, sondern eher auf eine Anpassung der Inhalte an erkannte Schwachstellen und die einheitliche Umsetzung und Kontrolle im Bereich der Gültigkeit dieser Vorschriften.
12.2.1
Ein Babylon der Lüfte? Anforderungen durch die Europäisierung der Luftfahrt
Seit 1998 wird die europäische Luftfahrt zunehmend grenzübergreifenden europäischen Richtlinien unterworfen. Der zunächst sehr schleppende Prozess gewinnt mehr und mehr an Tempo. Am 07.09.2002 trat die Verordnung (EG) Nr. 1592/2002 zur Fest-
212
12
Kapitel 12 · Aktuelle Themen und zukünftige Entwicklungen in der Luftfahrt
legung gemeinsamer Vorschriften für die Zivilluftfahrt und zur Errichtung einer Europäischen Agentur für Flugsicherheit (EASA) in Kraft (http:// europa.eu/agencies/community_agencies/easa/ index_de.htm). Die Europäische Union legte damit den Grundstein für ein neues Zeitalter im Bereich der Harmonisierung europäischer Flugsicherheitsvorschriften, die bisher im Rahmen der Joint Aviation Authorities (JAA) erfolgte. Die EASA, die ihren Sitz in Köln hat, ist eine unabhängige europäische Sicherheits- und Aufsichtsbehörde, die nicht nur einen einheitlichen und hohen Sicherheitsstandard für die Zivilluftfahrt garantieren soll, sondern ebenfalls die Harmonisierung technischer Standards zum Schutz der Umwelt zum Ziel hat und einen echten Binnenmarkt für Luftfahrterzeugnisse und -dienstleistungen herbeiführen soll. Seit dem 28.09.2003 nimmt die EASA Aufgaben im Bereich der Zulassung von Luftfahrterzeugnissen (Flugzeuge, Triebwerke, Fluginstrumente usw.) und der Lufttüchtigkeit (»airworthiness«) wahr, die bis dahin in die alleinige Zuständigkeit der nationalen Luftfahrtbehörden fielen (zu Standardisierung als Strategie im Sicherheitsmanagement 7 Kap. 17.2.3). Im Folgenden werden 3 Bereiche ausführlicher betrachtet, die im Verantwortungsbereich dieser Behörde liegen und besondere Bedeutung in Bezug auf Human Factors in der Luftfahrt haben: 4 Kenntnisse einer gemeinsamen Sprache im Cockpit 4 Durchsetzung von einheitlichen europäischen Arbeitszeitregelungen 4 Festlegung einheitlicher und verbindlicher Betriebsstandards für die Sicherheit von Fluggesellschaften
Eine gemeinsame Sprache Im nordamerikanischen Luftraum herrscht große Einigkeit in Bezug auf die zu benutzende Sprache. Auch wenn in einigen Teilen Kanadas Französisch gesprochen wird, ist Englisch doch die universelle Grundlage jeder Kommunikation. Mit gewissen Einschränkungen gilt dies auch für den südamerikanischen Bereich. Hier kommen die Sprachen Spanisch und Portugiesisch hinzu, zumindest für die Kommunikation innerhalb des Cockpits ist damit meist eine gemeinsame Sprachbasis gegeben. Auch im asiatischen Luftraum ist Englisch, zumindest bei
den ehemaligen Kolonialstaaten, weit verbreitet. Probleme bereiten hier eher kulturelle Unterschiede bezüglich Themen wie Hierarchie, Teamwork und Unterordnung. Mit der Bildung eines einheitlichen Europas verbindet sich jedoch eine große Zahl von Staaten mit z. T. sehr unterschiedlichen Sprachen. Englisch ist zwar auch hier in der Luftfahrt die Vorgabe, einheitliche Voraussetzungen in Bezug auf die Qualität der Sprachkenntnisse beim Cockpitpersonal existieren aber nicht. Selbst bei der Flugsicherung, für die weltweit Englisch als Standardsprache im internationalen Verkehr vorgeschrieben ist, reichen die Kenntnisse von Flugzeugführern und Flugsicherungspersonal in einigen Ländern Europas nicht aus, um eine Kommunikation über die normalen Umstände hinaus zu ermöglichen. In Deutschland werden englische Sprachkenntnisse im Zusammenhang mit der Erlangung eines allgemeingültigen Funksprechzeugnisses überprüft. Diese Überprüfung bezieht sich aber lediglich auf die im normalen Sprechfunk notwendigen Formulierungen. Die Analyse eines komplexen Sachverhaltes in Englisch ist nicht Bestandteil der Ausbildung. Erst seit kurzem gibt es seitens der internationalen Luftfahrtorganisation ICAO Bemühungen, regelmäßige englische Sprachprüfungen zu fordern. In unserem Fallbeispiel führte die mangelhafte Beherrschung der englischen Sprache des Ersten Offiziers dazu, dass Kapitän, Erster Offizier und das Bodenpersonal der Fluggesellschaft über keine ausreichende gemeinsame Sprachbasis verfügten. Die notwendige Diskussion des Sachverhaltes erforderte somit einen erhöhten Zeit- und Koordinierungsaufwand – jedoch ohne eine Reflexion des mentalen Modells. Eine Initiierung von Reflexion durch den Ersten Offizier, um den Kapitän auf eine möglicherweise falsche Interpretation hinzuweisen, traf somit auf 2 unterschiedliche Hemmschwellen: das Autoritätsgefälle und die ungenügende Sprachbasis. Die Unfalluntersuchung ergab auch, dass der deutsche Kapitän aufgrund seines »typisch« deutschen Verhaltens von den zypriotischen Ersten Offizieren allgemein als autoritär, dominant und unfreundlich eingeschätzt wurde. Eine Einschätzung, die von Ersten Offizieren nichtmediterraner Abstammung der gleichen Fluggesellschaft nicht geteilt wurde – ein eindeutig interkulturelles Problem.
213 12.2 · Anforderungen für die Zukunft
Einheitliche europäische Dienstund Ruhezeiten für Piloten Seit vielen Jahren arbeiten Cockpit- und Kabinenbesatzungen weltweit nach den Vorschriften der nationalen Luftfahrtbehörden ihres Landes. Selbst in Europa sind diese Vorschriften sehr unterschiedlich. Am 01.06.2006 beschloss der Verkehrsausschuss des Europäischen Parlaments die Vorgaben für eine einheitliche europäische Dienst- und Ruhezeitregelung für Piloten. Die neue Regelung, die am 12.12.2006 vom Parlament bestätigt wurde, begrenzt, stark vereinfacht, Flugzeiten auf maximal 13 h, sieht danach ebenso lange Pausenzeiten vor und stellt eine wissenschaftliche Evaluation dieser Regelung durch die EASA in Aussicht. Diese Entwicklung benötigte mehrere Jahre und stand im Spannungsfeld der unterschiedlichen Interessen von Industrie und Arbeitnehmern. Das Ergebnis ist zumindest eine einheitliche Regelung für ganz Europa – und somit als Erfolg zu sehen. In diesem Zusammenhang gibt es ausreichend wissenschaftliche Erkenntnisse über die Zusammenhänge von Müdigkeit und Fehlerhäufigkeit am Arbeitsplatz (Åkerstedt, 1995; Dinges, 1995). Insbesondere die flugdienstspezifischen Probleme des zeitzonenüberschreitenden Einsatzes (Jetlag) spielen dabei eine wichtige Rolle. Die bisherigen Regelungen in diesem Bereich stammen noch aus den Zeiten der Propeller-Luftfahrt, und auch die neuen Regeln berücksichtigen aus Sicht beteiligter Experten die neuesten Erkenntnisse der steigenden Fehleranfälligkeit der Arbeit im Cockpit durch Ermüdung nicht ausreichend. Als Kompromiss einigte man sich auf eine wissenschaftliche Überprüfung der neuen Richtlinie in Bezug auf die Ermüdungsproblematik. Über den Beginn dieser Überprüfung wird noch gestritten. Erstaunlich ist die Entwicklung im Bereich der sog. Billigfluglinien. Hier lief über 2 Jahre eine Studie in Zusammenarbeit mit der britischen Luftfahrtbehörde. Für das intensive, hochfrequente Einsatzspektrum im Kurzstreckenverkehr wurde dadurch eine Sondergenehmigung für Umlaufstrukturen der Cockpitbesatzungen erwirkt, die durch die bestehende Flugdienstzeitregelung in Großbritannien nicht abgedeckt ist. Die Studie wies nach, dass diese neue Einsatzstruktur (»roster«) nicht nur eine höhere Produktivität erzielen kann, sondern gleichzeitig die Fehler- und Ereignisrate durch z. B.
12
vorzeitige Ermüdung der Besatzungen deutlich gesenkt wurde (http://www.flightglobal.com/articles/ 2006/06/06/207092/airlines-get-smart-over-pilotrostering.html). Ein Blick in die Unfalluntersuchungsberichte der letzten 2 Jahre zeigt, dass immer häufiger Erschöpfung (»fatigue«) der Besatzung als beitragender Faktor genannt wird. Der Unfallbericht des Fallbeispiels erwähnt jedoch nur, dass die Flugdienstzeiten anhand der Unterlagen sehr schwer zu ermitteln gewesen wären, dann aber den gesetzlichen Vorschriften entsprachen. Der Bericht erwähnt aber auch Aussagen über die Praxis, Flüge mit unrealistisch kurzen Flugzeiten zu planen, um die gesetzlichen Grenzen einzuhalten. Diese Grenzen werden dann bei der aktuellen Flugdurchführung regelmäßig überschritten, ohne darüber Buch zu führen und zu berichten. Inwieweit sich die technische Weiterwicklung in der Luftfahrt auf die zukünftig notwendigen Regelungen auswirken könnten, wird in 7 Kap. 12.2.3 behandelt.
Einheitliche Standards für die Bewertung der Sicherheit von Fluggesellschaften Seit Dezember 2005 existiert eine europaweit gültige schwarze Liste von Fluggesellschaften, die aufgrund von Sicherheitsbedenken keine Flughäfen innerhalb der EU anfliegen dürfen. Diese Liste umfasst mit Stand September 2007 bereits 154 Fluggesellschaften. Die Diskussion um eine schwarze Liste begann im Januar 2004 nach dem Unfall einer ägyptischen B737 nach dem Start in Sharm el Sheik. Dabei starben 148 Menschen, überwiegend französische Urlauber. Weiteren Auftrieb erhielt diese Diskussion durch eine Häufung von Unfällen im August 2005 (Air France A340 in Toronto, Tuninter ATR-72 vor Palermo, West Caribbean Airway MD-82 in Venezuela und Fallbeispiel dieses Kapitels). Die Sinnhaftigkeit einer solchen Liste mag bezweifelt werden, ebenso die hinterlegten Kriterien und deren EUweit einheitliche Anwendung. Unbestreitbar handelt es sich dabei um eine öffentlichkeitswirksame Maßnahme. Die internationale Luftfahrtorganisation ICAO veröffentlicht mit ihren Standards genaue Richtlinien, wie eine nationale Luftfahrtbehörde organi-
214
Kapitel 12 · Aktuelle Themen und zukünftige Entwicklungen in der Luftfahrt
siert sein sollte. Um die darin festgelegten Aufgaben zu erfüllen, ist auch eine entsprechende personelle Ausstattung notwendig. Bis zur vollständigen Übernahme durch die EASA sind es die nationalen Luftfahrtbehörden, die die Einhaltung der gesetzlichen Mindeststandards kontrollieren und dabei aufgrund ihrer personellen Ausstattung bereits seit Langem an ihren Kapazitätsgrenzen arbeiten. Wenn die Reise mit einem Verkehrsflugzeug von A nach B regelmäßig weniger kostet als die Fahrt mit dem Taxi zum Flughafen, dann sollte das zu denken geben.
Anforderungen an Standardisierung im europäischen Luftraum
12
4 In einem einheitlichen europäischen Luftraum mit einheitlichen Vorschriften in Bezug auf Luftfahrtpersonal müssen eine 5 einheitliche Sprache und 5 einheitliche Ausbildungsvorschriften sowie 5 eine einheitliche Qualifikation gewährleistet sein. 4 Arbeitszeiten am Boden und im Cockpit sollten den wissenschaftlichen Erkenntnissen über den Zusammenhang von Ermüdung (»fatigue«) und Fehlerhäufigkeit Rechnung tragen. 4 Der Kostendruck in der internationalen Luftfahrt darf sich nicht auf die Sicherheit auswirken. Die Öffentlichkeit macht den Gesetzgeber für die Durchsetzung eines einheitlichen Sicherheitsniveaus verantwortlich.
12.2.2
Flugzeugführer oder PanelOperator? Anforderungen bei der Auswahl und Ausbildung von zukünftigen Piloten
Allein für den US-amerikanischen Markt wird bis zum Jahr 2017 ein Bedarf von 120.000 Verkehrspiloten erwartet. Diese Zahl setzt sich zusammen aus dem zusätzlichen Bedarf durch ein geschätztes Wachstum im Bereich Luftfahrt und der Anzahl an nachzuschulenden Flugzeugführern für Altersab-
gänge. Der Nachwuchs an ehemaligen Militärpiloten, in den 1970er Jahren mehr als 5000 Piloten pro Jahr, wird bis zum Jahr 2017 auf insgesamt nur noch ca. 8000 Piloten geschätzt. Ein entsprechend hoher Schulungsbedarf kommt auf die Industrie zu. Die europäische Luftfahrt sieht sich in einer ähnlichen Lage. Jedoch spielte der Karrierewechsel von Militär- in die Zivilluftfahrt in Europa schon immer nur eine untergeordnete Rolle. Ein hoher Anteil der europäischen Verkehrspiloten schulen entweder auf eigene Kosten an privaten Flugschulen oder werden im Rahmen eines sog. Ab-initio-Trainingsprogramms von Fluggesellschaften ausgewählt und ausgebildet. Die Kapazität dieser Schulen ist begrenzt, und aus wirtschaftlichen Überlegungen heraus werden Verkehrspiloten nicht »auf Halde« produziert. Aus heutiger Planungssicht wird sich auch in Europa in den nächsten 5 Jahren ein Mangel an qualifizierten Verkehrsflugzeugführern einstellen. Noch viel dramatischer stellt sich die Lage im gesamten arabischen und asiatischen Raum dar. Insbesondere in den Schwellenländern China und Indien unterliegt die Luftfahrt einem ungebremsten Wachstum. Schon heute decken diese Länder einen Teil ihres Bedarfs an Flugzeugführern auf dem internationalen Markt. Der Bedarf übersteigt in beiden Ländern das Angebot an qualifizierten Bewerbern und die Kapazität der vorhandenen Flugschulen. Vor diesem Hintergrund wird in den Gremien der ICAO (International Civil Aviation Organisation) seit Längerem an einem neuen Modell der Ausbildung von Verkehrspiloten gearbeitet. Die ICAO erarbeitet als internationale Organisation Standards und Richtlinien für fast alle Bereiche der internationalen Luftfahrt. Diese Richtlinien sind in sog. Anhänge (Annex) gegliedert. Annex 1 befasst sich mit der Ausbildung von Verkehrsflugzeugführern und wird zurzeit überarbeitet. Die erarbeiteten Vorschläge werden den Mitgliedsstaaten zur Konsultation und Kommentierung übergeben, erneut beraten und müssen dann durch die Mitgliederversammlung beschlossen werden, um in Kraft zu treten. Wo aber zeichnen sich Veränderungen ab?
Ausbildung von Flugzeugführern Die heutige Ausbildung ist v. a. ausgerichtet an den Anforderungen zum Erwerb einer Lizenz, die zum
215 12.2 · Anforderungen für die Zukunft
gewerblichen Führen eines Flugzeuges berechtigt. Die Prüfung zur Erlangung dieser Lizenz umfasst theoretische und praktische Fähigkeiten. Die gesamte Ausbildung dauert etwa 2 Jahre. Die praktische Ausbildung erfolgt meist auf kleinen, einmotorigen Flugzeugen, der Übergang auf die gängigen Verkehrsflugzeuge findet erst nach Erlangung der Lizenz im Rahmen einer Musterberechtigung statt. Die eigentliche Aufgabe des jungen Flugzeugführers, nämlich die effektive Zusammenarbeit im Cockpit eines großen Verkehrsflugzeugs, ist zwar bereits Bestandteil der Ausbildung, die Inhalte werden aber vorwiegend theoretisch vermittelt. In einem schrittweisen Prozess soll diese Ausbildung jetzt mehr an der Praxis ausgerichtet werden. Dazu erhalten entsprechend qualifizierte Flugschulen die Möglichkeit, neue Ausbildungskonzepte vorzustellen und, nach Zustimmung durch die Behörden, ihr Konzept zu evaluieren. Nach einer positiven Evaluation können unter Aufsicht der Behörde weitere Anpassungen vorgenommen werden. Das Ergebnis ist die Multi-Crew-Pilot-Lizenz (MPL), der Inhaber ist somit ein speziell für die kommerzielle Luftfahrt ausgebildeter Flugzeugführer. Die Flugschule der Deutschen Lufthansa stellt ab 01.01.2008 mit dem Ausbildungskonzept »progresso« ihre Ausbildung gemäß den ICAO-Richtlinien auf die Multi-Crew-Pilot-Lizenz (MPL) um. Die Industrie verspricht sich davon kürzere Ausbildungszeiten, geringere Kosten und eine stärkere Airline-Orientierung der Ausbildung durch die Möglichkeit, die praktische Ausbildung zu einem großen Teil in Simulatoren durchzuführen und theoretische Inhalte zu optimieren. Inwieweit dies möglich ist, welche Simulatoren dazu geeignet sind und welche Inhalte minimal vermittelt werden sollen, wird kontrovers diskutiert. Bewährte Ausbildungskonzepte einfach über Bord zu werfen, ohne ein ausreichend untersuchtes Anforderungsprofil erstellt zu haben, stößt hauptsächlich bei den Interessenvertretungen der Flugzeugführer auf Unverständnis. Hier wird der Schritt von der 2-Personen-Cockpitbesatzung hin zur 1,5Personenbesatzung unterstellt. Während das manuelle Fliegen im Normalfall gegenüber den Teamund Flugmanagementfähigkeiten der Besatzung zurücktritt, darf die Fähigkeit, das Flugzeug im Notfall unter dann erschwerten Bedingungen sicher
12
von Hand zu landen, so lange nicht vernachlässigt werden, solange der Flugzeughersteller sich bei der Entwicklung seines Flugzeugs darauf verlässt (s. hierzu auch die Diskussion zu Automatisierungskonzepten 7 Kap. 19). Aufwendigere Ausbildungskonzepte, die z. B. in Deutschland seit einiger Zeit existieren und die reine Lizenzerlangung mit einem Studium an den technischen Universitäten Darmstadt und Bremen verbinden, werden nicht berücksichtigt.
Anforderungen an Flugzeugführer und Auswahl geeigneter Bewerber In den Ausbildungsrichtlinien wird die Frage der Auswahl geeigneter Bewerber völlig außer Acht gelassen. Aufgrund der im Allgemeinen sehr hohen Ausbildungskosten führen die meisten von Fluggesellschaften betriebenen Flugschulen bereits heute Eignungsuntersuchungen durch. Nach welchen Kriterien die Eignung festgestellt wird, ist dabei durchaus unterschiedlich. Bis heute existiert kein Anforderungsprofil für den Beruf des Verkehrsflugzeugführers. Nur anhand eines solchen Anforderungsprofils wäre eine angemessene Auswahl möglich. Was bleibt, ist die Bestenauslese nach den sog. »basic cognitive abilities« (grundlegende geistige Fähigkeiten) und einer gewissen motorischen Begabung. Unterdessen haben sich die Anforderungen in diesem Beruf in den letzten Jahrzehnten mit jeder neuen Flugzeuggeneration wie in kaum einem anderen Arbeitsbereich geändert. Vom 5-Personen-Cockpit (Kapitän, Erster Offizier, Funker, Navigator, Bordingenieur) gab es aufgrund der Fortschritte im Bereich der Automatisierung eine kontinuierliche Entwicklung hin zum heutigen 2-Personen-Cockpit (Kapitän, Erster Offizier). Dabei ist das gesamte Umfeld durch das ungeheure Wachstum der Verkehrsströme schwieriger und komplexer geworden. Der Untersuchungsbericht des beschriebenen Fallbeispiels stellt diesbezüglich u. a. fest: Die Anmerkungen und Beobachtungen der Ausbildungskapitäne in Bezug auf die Leistung des Ersten Offiziers erklären [teilweise, d. V.] die Versäumnisse der Besatzung während der Flugvorbereitung und dem Lesen der Checklisten sowie die Missinterpretation der Warnungen im Steig- und Reiseflug.
216
Kapitel 12 · Aktuelle Themen und zukünftige Entwicklungen in der Luftfahrt
Fruchtbarer ist hier jedoch eine andere Fragestellung: Was hätte diesen Unfall u. U. verhindert? Grundvoraussetzungen für die adäquate Ausübung der Funktion eines 2-Mann-Cockpits aus HumanFactors-Sicht sind 3 wesentliche Aspekte: 4 Etwa gleich große technische und soziale Kompetenz der beiden Piloten 4 Ein zwar vorhandenes, aber nicht zu steiles Autoritätsgefälle zwischen Kapitän und Erstem Offizier 4 Qualifikation beider Besatzungsmitglieder in Bezug auf Human-Factors-Themen wie z. B. Kommunikation, Stress und Steuerung der Arbeitsbelastung (hierzu s. auch 7 Kap. 7 und 8).
12
Die Ausbildung in diesen Themenbereichen ist nach den Vorschriften der Europäischen Union Bestandteil der Grundausbildung und jeder wiederkehrenden Schulung. Da es sich dabei aber in weiten Teilen um eine Verhaltensschulung handelt, muss bei entsprechenden Defiziten eine Verhaltensänderung bewirkt werden. Dies setzt zumindest den Willen und die Einsicht desjenigen voraus, dessen Verhalten sich ändern soll. Deshalb sollte bereits bei der Auswahl auf entsprechende Verhaltensmuster geachtet werden. Eine wiederkehrende Schulung im Bereich der Entscheidungsfindung, ggf. mittels modellhafter Entscheidungsstrategien, hilft subjektiven Zeitdruck und die damit verbundene erhöhte Fehleranfälligkeit der Arbeit frühzeitig wahrzunehmen und diesen Zeitdruck nicht die Entscheidungsfindung dominieren zu lassen. Das Erkennen von Stresssymptomen und ihre Bekämpfung durch aktives Workload-Management sind weitere Themen dieser Schulung. Nicht zuletzt spielt auch die technische Kompetenz der Flugbesatzung eine wichtige Rolle. Der Betrieb moderner technischer Systeme setzt bereits im Stadium des Designs eine sorgfältige Analyse aller denkbaren Umstände beim Betrieb voraus. Diese Analyse ist die Grundlage für die Betriebsvorschriften und Betriebsverfahren. Neue Erkenntnisse aus dem Betrieb des Systems (z. B. aufgrund von Unfalluntersuchungen) führen selten zu einem komplett neuen Design, sondern werden meist über eine Änderung der Betriebsverfahren aufgefangen (sog. Procedure-Fix). Kehren wir noch einmal zurück zum Fallbeispiel: Die Firma Boeing ging beim Design des Flug-
zeugs davon aus, dass der gleiche Warnton, einmal nur am Boden, einmal nur in der Luft auftretend, mit unterschiedlichem Inhalt versehen werden könne. Jedem frisch aus der Umschulung kommenden Piloten ist dieser Unterschied klar. In der Konstruktion wurde jedoch nicht berücksichtigt, dass Piloten diesen beiden Warnungen extrem selten ausgesetzt sind. Dabei ist die Wahrscheinlichkeit für die Konfigurationswarnung am Boden deutlich höher. Die dominante Regel des »frequency gambling« bei der menschlichen Informationsaufnahme (Reason, 1990; 7 Kap. 3.5.1), dass nämlich Informationen in ihrer Bedeutsamkeit nach ihrer Auftretenshäufigkeit wahrgenommen werden, und die daraus resultierende Fehlinterpretation wurden nicht bedacht. Dass die folgende Überhitzungswarnung u. U. einen Folgefehler darstellt, wurde aufgrund der falschen Interpretation der ersten Warnung nicht in Erwägung gezogen. Diese Art der nicht offensichtlichen Verknüpfung von anscheinend unabhängigen Systemfehlern wird auch »ramification« genannt und steigt mit der Komplexität moderner technischer Systeme. Sie fordert die grundlegende Bereitschaft, einmal getroffene Entscheidungen beim Auftauchen neuer Fakten immer wieder infrage zu stellen und das jeweilige System quasi aus der Metaebene heraus neu zu betrachten und zu analysieren. Dieser Prozess wurde im Fallbeispiel durch den zunehmenden Sauerstoffmangel unterbrochen. Schleichender Sauerstoffmangel beeinträchtigt genau diese Fähigkeit zur strukturierten Analyse. Dies führt uns zur nächsten Frage: Welche Anforderungen lassen sich aus den bisherigen Erkenntnissen für die zukünftige Entwicklung und das Design von technischen Systemen und deren Betrieb, insbesondere in der Luftfahrt, ableiten?
Anforderungen an Auswahl von Bewerbern und Ausbildung 4 Mit zunehmender Automatisierung stellt sich für den Flugzeugführer das Problem, in kritischen Situationen über Fähigkeiten (»skills«) zu verfügen, zu deren Erlangung und Erhalt immer weniger Zeit und Geld zur Verfügung stehen. 6
217 12.2 · Anforderungen für die Zukunft
4 Stressmanangement und Entscheidungsfindung in zeitkritischen Situationen stellen zentrale Anforderungen an den Flugzeugführer. Diese Aspekte müssen bei zukünftigen Ausbildungskonzepten berücksichtigt werden. 4 Für eine effektive Auswahl und Ausbildung muss ein Anforderungsprofil für den Beruf der heutigen und zukünftigen Verkehrsflugzeugführer erstellt werden.
12.2.3
Zum Wachstum verdammt? Anforderungen durch neue Entwicklungen in der Luftfahrttechnik
Ist der Airbus A380 eine neue Titanic der Luftfahrt? Diese zugegebenermaßen übertriebene Frage darf nicht darüber hinwegtäuschen, dass die technische Entwicklung in der Luftfahrt immer noch von einer hohen Dynamik geprägt ist. Neue Erkenntnisse im Bereich der Materialforschung sowie leistungsfähigere Computer zur Berechnung aerodynamischer Grenzbereiche erlauben dabei immer komplexere Konstruktionen. Unterschiedliche Einschätzungen der zukünftigen Verkehrsanforderungen führen bei den beiden großen Flugzeugherstellern Airbus und Boeing zu unterschiedlichen Zielrichtungen: Auf der einen Seite wird die Passagierkapazität erhöht, sodass immer größere Flugzeuge bei gleichem Verkehrsaufkommen immer mehr Passagiere zwischen den etablierten Verkehrsknotenpunkten transportieren können, auf der anderen Seite wird angestrebt, mit kleinerem Fluggerät den Punkt-zu-Punkt-Verkehr außerhalb der großen, überlasteten Verkehrsknotenpunkte anzukurbeln. Die Luftfahrt ist, der Wirtschaft folgend, zum Wachstum verdammt.
Neue Technologien erhöhen die Anfälligkeit für menschliche Fehler Das Vertrauen der Öffentlichkeit in neue Technologien ist ungebrochen. Der Gesetzgeber regelt die Zulassung neuer Flugzeuge, damit ist die Sicherheit der Flugzeuge garantiert. Davon unbenommen bleibt die grundlegende Erkenntnis aus der Einlei-
12
tung, dass mit dem Verkehrsaufkommen auch die Sicherheit steigen muss, um dieses Vertrauen zu erhalten. Jedoch wird die Erhaltung dieses Grundsatzes mit steigendem Verkehrsaufkommen und immer dichter gefülltem Luftraum immer aufwendiger. Auch hier werden u. a. neue technologische Lösungen entwickelt und umgesetzt. Diese reichen von einer reduzierten vertikalen und horizontalen Staffelung bis hin zu einem Ersatz der Radarerfassung von Flugzeugen durch die automatische, dreidimensionale Positionsmeldung des Flugzeugs über Satellitennavigation (GPS) und Datenfunk. In diesem System nimmt der Grad an Automatisierung ständig zu, der Mensch rückt immer mehr in den Hintergrund. Gleichzeitig steigt mit der Komplexität eines Systems seine Anfälligkeit für menschliche Fehler. Prinzipien menschlicher Informationsverarbeitung bereits bei der Entwicklung von Flugzeugen zu berücksichtigen, gehört ins Aufgabenrepertoire der Designingenieure. Im Fallbeispiel spielte diese Nichtberücksichtigung von Prinzipien menschlicher Informationsverarbeitung zumindest als ein Einflussfaktor eine wichtige Rolle: Die Verwendung des gleichen akustischen Signals für 2 unterschiedliche Störungen ist schlicht ein Designmangel.
Neue Technologien erhöhen die Beanspruchung der Besatzung Die Einigung auf einheitliche europäische Flugdienst- und Ruhezeiten hat so lange Zeit in Anspruch genommen, dass der mühsam gefundene Kompromiss bei seiner Einführung 2006 von der technischen Entwicklung schon fast überholt wurde. Die neue Generation der Verkehrsflugzeuge ist in der Lage, 20 und mehr Stunden in der Luft zu bleiben und damit Strecken wie London–Sydney ohne Zwischenlandung zurückzulegen. Die dazu notwendige Besatzungsverstärkung im Cockpit und in der Kabine ist eine neue Herausforderung, die von den Fluggesellschaften natürlich auch unter Kostengesichtspunkten betrachtet wird. Arbeitszeitmodelle mit Schichtdiensten wie in der Seefahrt wurden dabei von einem Vertreter des Herstellers Airbus angedacht (»shiplike rosters«). Bei diesem Modell wird die Flugdienstzeit unter mehreren Besatzungen in Schichten von z. B. 4 h abgeleistet. Dabei werden allerdings die Auswirkungen von räumlicher Enge, geringer Luftfeuchtigkeit, Luftdruck,
218
Kapitel 12 · Aktuelle Themen und zukünftige Entwicklungen in der Luftfahrt
Lärm und Vibrationen auf eine wirksame Erholung in den Freischichten nicht thematisiert.
Neue Technologien ersetzen den Flugzeugführer Eine weitere technologische Herausforderung stellen die aus überwiegend militärischen Anwendungen heraus entwickelten unbemannten Flugkörper (UAV = »unmanned aerial vehicle«) dar. Was als meist kleines, ferngesteuertes Fluggerät begann, entwickelte sich in kurzer Zeit zu immer autonomeren und größeren Fluggeräten. Dabei ist schon heute die Grenze zwischen Flugmodell und UAV oder Kleinflugzeug verschwommen. So gibt es in den USA ein strahlgetriebenes A380-Modellflugzeug mit den Abmessungen eines Kleinflugzeugs. Allerdings sind auch bei den sog. unbemannten Flugkörpern menschliche Operateure aktiv (für eine ausführliche Diskussion s. Cooke, Pringle, Pedersen & Connor, 2006).
Regelungsbedarf ergibt sich insbesondere dort, wo bemannte und unbemannte Luftfahrzeuge den gleichen Luftraum benutzen wollen. An den Regelungen für einen solchen Mischverkehr wird bereits auf beiden Seiten des Atlantiks intensiv gearbeitet. Es drängt sich die berechtigte Frage auf, inwieweit der Mensch in der Luftfahrt überhaupt ersetzbar ist. Welche Zuverlässigkeit muss ein autonomes, vom direkten menschlichen Zugriff unabhängiges Fluggerät besitzen, um von der Öffentlichkeit als Transportmittel akzeptiert zu werden? Der zunehmende Einsatz unbemannter Schienenfahrzeuge im Kurzstreckenverkehr ist ein erster Hinweis auf mögliche Entwicklungen in der Zukunft. Die Luftfahrt macht diesbezüglich mit der Weiterentwicklung der UAVs ihre ersten Schritte. Die neueste Generation von Verkehrflugzeugen wird allerdings immer noch von mindestens 2 Piloten überwacht.
Anforderungen durch technische Entwicklungen
12
4 Die Frage der Entwicklung des Luftverkehrs in Richtung Großflugzeuge mit wenigen zentralen Flughäfen oder in Richtung kleinerer Flugzeuge im Punkt-zu-Punkt-Verkehr ist noch nicht entschieden. 4 Die gerade erst europäisierten Flugdienst- und Ruhezeitregelungen berücksichtigen noch nicht die absehbare Entwicklung von Super-
12.3
Zusammenfassung
Die Luftfahrt als krisenanfälliger Industriezweig unterliegt einem immer stärker werdenden Kostendruck. Bei der Ausschöpfung von Einsparpotenzialen werden zunehmend Grenzbereiche erreicht, deren Überschreitung sorgfältig auf unerwünschte Nebenund Fernwirkungen analysiert werden sollte, um die notwendige Systemsicherheit nicht auszuhöhlen. Hier liegen die besonderen Herausforderungen der nahen Zukunft auch im Bereich des Faktors Mensch. Das Fallbeispiel zeigt die Notwendigkeit zur Vereinheitlichung und Steuerung der Rahmenbedingun-
Langstreckenflügen und die daraus resultierenden Anforderungen. 4 Das Miteinander von bemannten und unbemannten Flugzeugen (UAV) in demselben Luftraum muss im Hinblick auf die Flugsicherheit zufriedenstellend gelöst werden. 4 Die Entwicklung neuer Flugzeuge muss Erkenntnisse aus dem Bereich der Human-FactorsForschung noch bewusster berücksichtigen.
gen, denen sich ein freier und sicherer Wettbewerb unterwerfen muss. Für die Schaffung und Überwachung dieser Rahmenbedingungen ist die neue europäische Behörde EASA geschaffen worden. Ohne die funktionierenden Werkzeuge im Human-Factors-Bereich wäre das heutige Sicherheitsniveau in der Luftfahrt weder zu erreichen noch zu halten. Die größte Herausforderung liegt darin, das Sicherheitsniveau kontinuierlich weiter zu steigern, ohne sich den politischen und technischen Entwicklungen zu verschließen.
219 12.4 · Literatur
12.4
Literatur
Åkerstedt, T. (1995). Work hours, sleepiness and accidents. Introduction and summary. Journal of Sleep Research, 4, 1–3. Cooke, N. J., Pringle, M. H., Pedersen, H. & Connor, O. (Eds.) (2006). Human factors of remotely operated vehicles. Oxford: JAI Press. Dinges, D. (1995). An overview of sleepiness and accidents. Journal of Sleep Research, 4, 4–14. Faber, G. (1977). Untersuchungen zur didaktisch-methodischen Struktur von Pilotenausbildungs-Systemen. Stuttgart: Holland & Josenhans. Flin, R., O’Connor, P. & Crichton, M. (2007). Safety at the sharp end. Training non-technical skills. Aldershot: Ashgate. Hawkins, F. H. & Orlady, H. W. (Eds.) (1987). Human factors in flight. Aldershot: Ashgate. Helmreich, R. L. & Foushee, H. C. (1993). Why Crew Resource Management? Empirical and theoretical bases of human
12
factors training in aviation. In E. Wiener, B. Kanki & R. Helmreich (Eds.), Cockpit Resource Management (pp. 3–45). San Diego, CA: Academic Press. Helmreich, R. L., Merritt, A. C. & Wilhelm, J. A. (1999). The evolution of Crew Resource Management training in commercial aviation. International Journal of Aviation Psychology, 9 (1), 19–32. National Transportation Safety Board (2007). We are all safer: Lessons learned and lives saved, 5th Edn. Safety Report/SR07/01. Washington D. C. Reason, J. (1990). Human error. Cambridge: Cambridge University Press. SR 0.748.0 (2006). Übereinkommen über die internationale Zivilluftfahrt. Stand 24.01.2006. http://www.admin.ch/ch/d/ sr/i7/0.748.0.de.pdf [Zugriff am 18.01.2008]. Wiener E. L., Nagel, D. C., Carterette, E. C. & Friedman, M. P. (1988). Human factors in aviation. Cognition and perception. San Diego, CA: Academic Press.
13
Patientensicherheit und Human Factors – Vom Heute in die Zukunft gesehen Peter Dieckmann und Marcus Rall
13.1
Einführung
– 221
13.2
Analytische Betrachtung des Fallbeispiels – 222
13.3
Patientensicherheit in Deutschland im Jahr 2007 – 222
13.4
Entwicklungslinien – 223
13.5
Diagnostische Ansätze zur Erfassung der Lage der Patientensicherheit – 225
13.6
Ansatzpunkte zur Erhöhung der Patientensicherheit – 225
13.6.1 13.6.2 13.6.3
Simulation – 226 »Incident Reporting« und Analyse – 227 Human-Factors-orientierte Forschung – 227
13.7
Zusammenfassung und Schlussbetrachtung – 228
13.8
Literatur
– 229
221 13.1 · Einführung
13
Beispiel [Der Text des folgenden Fallbeispiels (hier orthografisch verbessert) stammt aus dem Patienten-Sicherheits-Optimierungs-System (PaSOS), im Internet zu finden unter http:/www.pasos-ains.de.] Mit PCA-(Patient Controled Analgesia-)Pumpen können Patienten sich selbst Schmerzmedikamente nach ihrem Bedarf verabreichen. Wird zu viel von den jeweiligen Medikamenten verabreicht, kann es zu einem ungewollten Atemstillstand bei den Patienten kommen. Dies kann z. B. dann geschehen, wenn ein sog. Bolus, also eine größere Menge eines Medikaments, auf einmal verabreicht wird. »Nach meiner Erinnerung berichtete vor Monaten ein Kollege in der Morgenbesprechung, dass eine PCA-Pumpe die halbe Spritze in den Patienten eingespritzt hätte, man habe die Pumpe zur Kontrolle gegeben. Vor wenigen Tagen berichtete ein Kollege, ein Patient hätte am Vortag durch eine PCA-Pumpe einen Initialbolus erhalten, weswegen er atemdepressiv und verlegt wurde. Ein weiterer Kollege habe den Initialbolus aber aus dem Programm entfernt! Ich wurde im Dienst angerufen, eine PCA-Pumpe sei leer. Da alle Diensthabenden gebunden waren, gab ich direkt am Telefon Anweisungen zum Wiedereinschalten – die Pflegekraft
13.1
Einführung
Bei der Betrachtung der Human Factors ist es notwendig, deutlich zu machen, was unter diesem schillernden Begriff verstanden wird. Es gibt eine Vielzahl von formalen Definitionen, die unterschiedliche Aspekte in den Vordergrund stellen: Beschreibung des Allzumenschlichen, Benennung einer wissenschaftlichen Disziplin und Sammelbegriff für Forschungsgegenstände und -methoden. Wir verzichten hier auf eine formale Definition und schließen uns dem in diesem Buch gebrauchten Sinne an. Danach werden mit dem bewusst im Plural gebrauchten Begriff »Human Factors« psychologisch beschriebene Aspekte des Handelns von Menschen in soziotechnischen Systemen bezeichnet
sagte mir: Jetzt sind 4 ml, 5 ml, 6 ml [eine zu hohe Dosis, d. V.]. Ich veranlasste ihn [den Pfleger] sofort, die Pumpe vom Patienten mechanisch zu trennen und‚DEFEKT’ mit großem Aufkleber zu vermerken, erinnerte mich an den Initialbolus-Bericht der vergangenen Tage, kam aber nicht dazu, die Pumpe zu überprüfen (nachts im OP). Zwei Tage später bekomme ich eben jene‚Defekt’-Pumpe fertig zum Anschluss an den nächsten Patienten – ohne dass irgendwer vom Aufkleber Notiz genommen hätte. Zum dauerhaften Entfernen des Initialbolus wird der Elektronikschlüssel benötigt. Das mehrfache Entfernen des Bolus durch Kollegen war lediglich temporär, beim nächsten Einschaltvorgang war er wieder da. Keiner der beteiligten Kollegen hatte wohl davon gewusst, keiner hat die Umstellung dauerhaft eingerichtet. Die Höhe des Initialbolus betrug 7,5 mg Dipi [ein Schmerzmedikament, das in zu hoher Dosierung auch zur Atemdepression führt, d. V.], deshalb fiel es vielfach nicht auf (adäquate Dosis für viele Patienten), aber bei 2-mal Einschalten der Pumpe [zu viel Medikament würde verabreicht, da 2-mal der Initialbolus gegeben würde, d. V.] oder alten Menschen [die weniger von diesem Medikament brauchen und somit schneller atemdepressiv würden, d. V.] ...«
(7 Kap. 1). Wir konzentrieren uns auf die Patientensicherheit, die unsere Arbeitsgruppe seit ca. 10 Jahren beschäftigt. Zunächst wird das einführende Beispiel auf einer abstrakten Ebene betrachtet und dann der Hintergrund skizziert, vor dem sich das darin dargestellte Zusammenspiel von Mensch, Technik und Organisation abspielt. Im Dreieck Mensch–Technik–Organisation steht »Mensch« dabei immer auch für die Interaktionen zwischen mehreren beteiligten Personen. Danach werden der Stand der Patientensicherheit skizziert, mögliche Entwicklungslinien in der Medizin aufgezeigt und abschließend benannt, wie die multiprofessionelle Zusammenarbeit zwischen Medizin und Psychologie in Zukunft dazu beitragen kann (und soll), diese zu erhöhen.
13
222
Kapitel 13 · Patientensicherheit und Human Factors – Vom Heute in die Zukunft gesehen
13.2
Analytische Betrachtung des Fallbeispiels
Das Beispiel verdeutlicht, dass Patientensicherheit mit dem Zusammenspiel von Mensch, Technik und Organisation steht und fällt (. Abb. 13.1). Auf der menschlichen Seite greifen die Beteiligten zu schnellen Lösungen, die keine systematische Beseitigung von Problemursachen darstellen. Eine als defekt angesehene Pumpe wird zwar zur Überprüfung gegeben, es wird aber nicht deutlich, ob sich jemand nach dem Ergebnis der Prüfung erkundigt hat. In Kooperation mit der medizintechnischen Abteilung hätte auffallen können, dass die Pumpe einwandfrei funktioniert, aber das ihr eigene konzeptionelle Modell den Nutzern nicht klar war (ein Einfluss der Organisation in Bezug auf die Geräteeinweisung des Personals). Auf der technischen Seite verstärken Schwächen in der Gebrauchstauglichkeit (»usability«) die auftretenden Probleme: Es bleibt unklar, ob die Option »Initialbolus« ein- oder ausgeschaltet ist. Damit verstößt die Pumpe gegen eine Usability-Heuristik: »Sichtbarkeit des Systemstatus« (vgl. Nielsen, 1993). Als Problemlösung wird die Pumpe mit einem Aufkleber versehen, der in der Folge allerdings übersehen wird. Solche »quick fixes« (Tucker, Edmondson & Spear, 2002) funktionieren oftmals nicht nur nicht wie geplant, sondern verhindern teilweise sogar eine grundsätzlichere, systematische Lösung, weil sie Schwachstellen überdecken, indem sie das Problem fälschlicherweise als gelöst erscheinen lassen. Weiter lässt sich fragen, wie angemessen die unterschiedlichen Optionen überhaupt für eine solche Pumpe sind und . Abb. 13.1. Mensch–Technik–Organisation als Einflussfaktoren für Patientensicherheit
wie deutlich Nutzer erkennen können (müssen), in welchem Modus sie mit der Pumpe arbeiten. Auf der organisationalen Seite wäre näher zu untersuchen, welche Prozesse es in der Organisation gibt, um defekte Geräte zu reparieren, und wie Ärzte und Pflegekräfte dabei mit Medizintechnikern zusammenarbeiten. Weiter wird an diesem Beispiel auch deutlich, dass es sich bei Problemen der Patientensicherheit meist nicht darum handelt, dass einzelne Elemente oder Subsysteme gravierend versagen. Ansätze, die unter dem Stichwort »resilience« (Widerstandskraft) diskutiert werden, betonen, dass Fehler und Zwischenfälle auch aus der ungünstigen Kombination von an sich nicht gravierend fehlerhaften oder gar einwandfreien Elementen (Geräte, Handlungen etc.) entstehen können (Hollnagel, Woods & Leveson, 2006). Eine Verminderung der Patientensicherheit kann sich demnach schon aus der problematischen Verbindung von an sich unproblematischen Elementen ergeben. Ganz im gestalttheoretischen Sinne kann die Konsequenz etwas anderes sein, als es die Summe der Teile hätte erwarten lassen. Nun könnte man vermuten oder auch hoffen, dass ein solches Beispiel einen Einzelfall darstellt. Die Literatur deutet allerdings ein anderes Bild an.
13.3
Patientensicherheit in Deutschland im Jahr 2007
In Deutschland setzt sich die Erkenntnis durch, dass die Patientensicherheit zwar hoch, aber nicht hoch genug ist. Bisher gibt es keine verlässlichen Zahlen,
223 13.4 · Entwicklungslinien
sondern nur Schätzungen, die an sich wieder zu hinterfragen wären, im Moment aber die einzige Datenquelle darstellen. 1999 wurde für die USA geschätzt, dass zwischen 44.000 und 98.000 Personen im Jahr an medizinischen Behandlungsfehlern im Krankenhaus versterben (Kohn, Corrigan & Donaldson, 2000). Im Jahr 2003 wurden diese Schätzungen auf Deutschland übertragen. Demnach sterben in Deutschland 30.000–80.000 Personen an medizinischen Behandlungsfehlern in Krankenhäusern (Sachverständigenrat für die Konzertierte Aktion im Gesundheitswesen, 2003; vgl. auch http://www.aktionsbuendnis-patientensicherheit.de). Damit findet sich die Diagnose »Behandlungsfehler« unter den häufigsten Todesursachen in Deutschland. Es lässt sich argumentieren, dass diese groben Angaben das Ausmaß des Problems evtl. überschätzen (oder auch unterschätzen). Solange allerdings nicht geklärt ist, ob diese Zahlen tatsächlich zu hoch gegriffen sind, sind wir der Meinung, dass sie ernst genommen werden sollten (dies gilt erst recht, wenn die Schätzungen zu niedrig angesetzt sind). Dies ist ein Fall, bei dem man im Zweifelsfall lieber zu vorsichtig sein sollte. Die Zahlen zu Todesfällen gelten als »Spitze eines Eisbergs«. Den Todesfällen steht eine vielfach höhere Zahl von schweren, mittleren oder leichten Patientenschäden gegenüber. Zudem entdecken Menschen viele der Fehler, die ihnen selbst oder anderen unterlaufen, und korrigieren diese, bevor irgendwelcher Schaden entsteht. Demnach führt nicht jeder Fehler zu einem Behandlungsschaden (Zwischenfall), aber auch nicht jeder Zwischenfall ist durch Fehler bedingt (7 Kap. 3). Grob zwei Drittel der Zwischenfälle in der Medizin werden auf menschliche Fehlleistungen (oft unglücklich als »menschliches Versagen« bezeichnet) zurückgeführt und galten schon früh als vermeidbar (Cooper, Newborner, Long & Philip, 1978). Die übliche Trennung in »menschliches« und »technisches« Versagen ist jedoch angesichts der prominenten Rolle von Menschen bei Konstruktion, Bau, Wartung und Instandhaltung von (Medizin-)Geräten zu hinterfragen. Ursachenanalysen für Zwischenfälle bewegen sich oftmals auf einem zu allgemeinen Niveau, um tragfähig zu sein. Welche tiefer liegende Psycho-Logiken (Dörner, 1989; Wehner, Mehl & Dieckmann, im Druck; 7 Kap. 3 und 6) haben menschliche Fehler? Was ließ beispielsweise eine Handlung, die sich
13
im Nachhinein als falsch herausstellt, zum Handlungszeitpunkt als richtig erscheinen? Welche latenten Fehler (Rall & Gaba, 2005a; Reason, 1990) gibt es im System Patientensicherheit, und wann und wie wirken sie sich aus? All diese und weitere Aspekte sind bisher kaum beschrieben und werden, sofern bekannt, nicht ausreichend bei Arbeitsanalyse und -gestaltung berücksichtigt. Allerdings nimmt die arbeitswissenschaftliche Forschung innerhalb der Medizin zu (s. Manser, 2003). Ein erschwerender Faktor ist dabei eine traditionell verankerte »culture of blame« (Vorwurfskultur; Kohn, Corrigan & Donaldson, 2000). Die Suche nach Schuldigen und der Versuch, über Sanktionen das Wiederauftreten von Problemfällen zu vermeiden, sind weit verbreitet. »Als Antwort auf das unerwünschte Ereignis folgen Training und Sanktionen, also Disziplinierung, Überwachung, Tadel, Ansehensverlust und/oder Bestrafung der Person(en). Aber Fehler und das daraus folgende Patientenleid belasten auch ohnedies den unmittelbaren Verursacher zumeist erheblich.« (Sachverständigenrat für die Konzertierte Aktion im Gesundheitswesen, 2003, S. 154)
Im Folgenden wird, ausgehend vom heutigen Stand, skizziert, welche Entwicklungslinien sich für eine Kooperation der Medizin mit Human-Factors-orientierter, multidisziplinärer Forschung in Zukunft ergeben könnten.
13.4
Entwicklungslinien
Die Entwicklungen in der Medizin werden weiterhin stark technologisch geprägt sein, sowohl in Diagnostik als auch Intervention. Grundsätzlich ist davon auszugehen, dass medizinische Verfahren potenter werden. Als zukünftige Anforderung für HumanFactors-orientierte Forschung und Medizin ergibt sich hieraus, mit der dabei abnehmenden Fehlerfreundlichkeit (Wehner, 1992) umzugehen. Potentere Behandlungen »enttrivialisieren« Fehler (vgl. Wehner, Nowack & Mehl, 1992), die Behandelnden dürfen sich weniger Fehler »erlauben«. Bei der Behandlung setzen sich minimal-invasive Verfahren durch, beispielsweise in der Chirurgie
224
Kapitel 13 · Patientensicherheit und Human Factors – Vom Heute in die Zukunft gesehen
und bei Medikamenten, die teilweise auf molekularer oder genetischer Ebene ansetzen. Insgesamt wird die Zahl der manuellen Eingriffe durch verbesserte Prävention und Früherkennung abnehmen und zusätzlich weniger invasiven Therapieverfahren (Biodrugs, Gendrugs, selbststeuernde Minisonden etc.) weichen. Damit entfernen sich die behandelnden Personen weiter vom Patienten und dem eigentlichen Behandlungsprozess, die Anforderungen werden abstrakter. Die Orientierung erfolgt weniger direkt visuell, sondern mehr vermittelt über optische Systeme, oft unter Nutzung multifunktionaler Instrumente (Matern, Koneczny, Tedeus, Dietz & Buess, 2005). Diese Instrumente erfordern ganz neue sensumotorische Fertigkeiten, für deren Erwerb Studierende – und auch praktizierende Mediziner und Medizinerinnen, von denen u. U. ein Umlernen gefordert wird – lange üben müssen und die oftmals gleichsam widernatürliche Elemente enthalten (s. etwa Johnson, 2004). Reduzierte leibliche Erfahrung der Konsequenzen des eigenen Tuns am Patienten und der steigende Abstraktheitsgrad erschweren es u. U., Fertigkeiten zu erlernen und zu erhalten.
13
! Die Aufgabe der multiprofessionellen Forschung wird es sein zu verstehen, welche Stärken und Schwächen diese Verfahren und Denkweisen für die Patientensicherheit haben. Wie können sich Menschen auf den Umgang mit der zunehmenden Komplexität vorbereiten und kontinuierlich kompetent halten? Wann und wie wissen wir, wenn wir die Grenzen des »Denkbaren« und »Verstehbaren« erreicht haben?
Es zeichnen sich unterschiedliche Ansätze ab, mit der Komplexität umzugehen: Automatisierung/ Technisierung, Spezialisierung und ein Trend zu integrierten Displays (Sanderson, 2006). Grundsätzlich wäre auch eine Ausweitung bereits bestehender Arbeitsteilung denkbar, bei der Tätigkeiten von nichtärztlichen Spezialisten übernommen werden. Als Beispiel können hier sog. Kardiotechniker (meist Fachpflegekräfte mit einer Zusatzausbildung) benannt werden, die in Operationssälen die Arbeit an Herz-Lungen-Maschinen übernehmen. Automatisierung. Bei der Automatisierung von Be-
handlungsschritten werden z. B. in der Chirurgie
zunehmend Roboter eingesetzt. Diese übertragen die Bewegungen des Chirurgen auf die Instrumente oder führen auch vorprogrammierte Schritte selbstständig durch (Davies, 1996). In Anästhesie und Intensivmedizin werden zunehmend Medikamentenpumpen eingesetzt, die nach Eingabe deskriptiver Patientendaten automatisch die Dosierung des Medikamentes errechnen und dieses dann auch, automatisch rückgekoppelt mit Vitalparametern des Patienten, verabreichen. Es tauchen dabei erneut Fragen auf, die aus den Debatten um Automatisierung in anderen Bereichen bekannt sind (Bainbridge, 1983; 7 Kap. 19): 4 Welche Aufgaben sollen Menschen noch übernehmen, welche sollen von Maschinen durchgeführt werden? 4 Wann sollen Menschen Automatiken außer Kraft setzen und den Prozess wieder »in die Hand nehmen«? 4 Wie können Menschen sensumotorische und kognitive Fertigkeiten erwerben und erhalten, die spätestens dann in besonders großem Maße gefordert sind, wenn die Automatismen versagen oder die Situation so schwierig wird, dass sie nicht von Maschinen allein bewältigt werden kann oder soll? Über die Kompetenzfrage hinaus geht es hierbei auch um das notwendige Selbstvertrauen, schwierige Prozeduren durchzuführen. Konkret: Wie gut können Beteiligte z. B. Dosierungen noch von Hand ausrechnen, wenn die automatisierte Medikamentenpumpe ausfällt? Standardisierung. Die Standardisierung (7 Kap. 17)
wird bei Prozeduren, Handlungen oder der Kommunikation diskutiert. Nachdem Patienten als biologische Systeme nicht auf Übereinstimmung mit einer technischen Spezifikation geprüft werden können und auch nicht standardisiert (oftmals kaum ähnlich) auf Behandlungen reagieren, ist die Frage nach der Anwendbarkeit und der Umsetzung von Standardisierung in der Medizin notwendig. Algorithmen müssten sehr verzweigt oder auf heuristischer Basis angelegt sein, um der Individualität von Menschen Rechnung zu tragen. Damit eng verknüpft ist auch die Frage nach der Akzeptanz von Checklisten etc. in einem Umfeld, das weithin noch von »ärztli-
225 13.6 · Ansatzpunkte zur Erhöhung der Patientensicherheit
cher Kunst« und »ärztlicher Therapiefreiheit« geprägt ist (in diesem Zusammenhang sei provokant gefragt, wie sich Passagierzahlen entwickeln würden, hätten Piloten auch in der Routine, nicht nur im Notfall, »Flugfreiheit«). Hier stellt sich insbesondere für die psychologische Forschung die Frage, welche Faktoren dazu führen, dass Menschen in Gesundheitsberufen Standardisierungen folgen oder auch nicht. Redundanzabbau. Schließlich ergeben sich Entwick-
lungen aus dem wachsenden Kostendruck innerhalb der Medizin. So werden möglichst viele Redundanzen aus dem System entfernt, die oftmals die Sicherheit erhöhen, aber auch Ressourcen erfordern. Eine solche Effizienzsteigerung bedingt, dass in manchen Fällen nicht genügend Ressourcen vorhanden sind. Der Kostendruck wirkt sich auch in der Aus- und Weiterbildung aus. Wo erfahrene Mediziner maximal effizient in der Patientenbehandlung eingesetzt werden (müssen), da bleibt weniger Zeit, Studierende und junge Kollegen einzuweisen, zu unterrichten und zu supervidieren. Auch externe Weiterbildungen lassen sich unter diesen Umständen schwieriger finanzieren, abgesehen von den Problemen, Teilnehmer für die Weiterbildung freizustellen. Mitarbeitende, die im Seminar sind, verdienen kein Geld.
13.5
Diagnostische Ansätze zur Erfassung der Lage der Patientensicherheit
Entsprechend des rudimentären Wissens über Ursachen von Problemen der Patientensicherheit gibt es schon lange diagnostische Bemühungen, Stärken und Schwächen des Systems Patientensicherheit zu verstehen und zu beschreiben (Cooper, Newborner, Long & Philip, 1978). Es wird versucht, die Variationsbreite der normalen medizinischen Prozesse zu erfassen. Auf Systemebene wurden z. B. Studien durchgeführt, mittels derer Störungen und Schwankungen in den Prozessabläufen im Operationssaal (Manser, Thiele & Wehner, 2003) oder in einer Notaufnahme (Chisholm, Collison, Nelson & Cordell, 2000) untersucht wurden. Auf einer individuellen Ebene wurde versucht, die Arbeitsbelastung (»workload«) bei medizinischen Behandlungen zu messen (z. B. Gaba &
13
Lee, 1990) bzw. auch die Leistung von Medizinern zu bewerten, wobei viele der Studien sich auf Simulatoren stützen (Byrne & Greaves, 2001). Aufgabenanalytische Verfahren wurden für die Anästhesie auf individueller Ebene entwickelt und eingesetzt (Manser, 2003) und werden mittlerweile auf die Teamebene erweitert (Grote, Helmreich, Sträter, Häusler, Zala-Mezö & Sexton, 2004; Manser, Howard & Gaba, 2005). Auch kognitive Anforderungen an Anästhesisten wurden beschrieben (Buerschaper, Harms, Hofinger & Rall, 2003) Zunehmend gewinnen in der Medizin sog. Incident-Reporting-Systeme (Berichtssysteme für Zwischenfälle und gute Lösungen) an Bedeutung (Leape, 2002; Rall et al., 2006). Dabei berichten Personen aus der klinischen Praxis kritische Ereignisse (Beinahe-Zwischenfälle, Zwischenfälle und idealerweise auch ungewöhnlich positive Ereignisse), an denen sie beteiligt waren oder die sie beobachtet haben. Viele Forschungsgruppen bemühen sich um ein erhöhtes Verständnis, für Barrieren und förderliche Faktoren für ein funktionierendes Meldewesen für Zwischenfälle (Leape, 2002). Schließlich werden Studien mittels Simulatoren durchgeführt, die sich mit fehlerträchtigen Situationen auseinandersetzen, z. B. Müdigkeit (z. B. Howard et al., 2003), oder einzelne Fehlleistungen in den Mittelpunkt stellen, wie das Vergessen von vorgenommenen Handlungen (Dieckmann, Reddersen, Wehner & Rall, 2006). Für die Zukunft ergeben sich hierbei Fragestellungen, wie die bisher bestehenden diagnostischen Verfahren vor dem oben skizzierten Hintergrund in der Medizin optimiert eingesetzt und weiterentwickelt werden können. Diese Ergebnisse können dann die Basis für Interventionsansätze sein, mittels derer Probleme gelöst werden können.
13.6
Ansatzpunkte zur Erhöhung der Patientensicherheit
Es lassen sich Ansatzpunkte herausarbeiten, in der multiprofessionelle Kooperationen zwischen Experten für Human Factors und den im Gesundheitswesen tätigen Personen in Zukunft dazu beitragen können, die Patientensicherheit zu erhöhen (. Abb. 13.2).
226
Kapitel 13 · Patientensicherheit und Human Factors – Vom Heute in die Zukunft gesehen
. Abb. 13.2. Ansatzpunkte zur Erhöhung der Patientensicherheit
13.6.1
13
Simulation
In verschiedenen Bereichen hat sich das Training mit Simulationen in der Medizin etabliert (Rall & Gaba, 2005b), wenn auch der Einsatz noch nicht flächendeckend ist – sowohl im Verlauf der Aus- und Weiterbildung, geografisch gesehen als auch zwischen den einzelnen Disziplinen oder Themen. Die Technologie ist nicht neu, der erste Patientensimulator wurde Ende der 1960er Jahre gebaut (Abrahamson, Denson & Wolf, 1969). Warum es dann bis in die 1980er Jahre dauerte, bis diese Geräte in der Medizin wiederentdeckt wurden, wäre eine eigene Studie wert. Aus Sicht einer Optimierung des Simulatoreinsatzes zur Erhöhung der Patientensicherheit wäre eine stärkere curriculare Verankerung des Simulatortrainings in die Aus- und Weiterbildung wünschenswert. Damit ließen sich viele der immer noch anzutreffenden Erstversuche an Patienten vermeiden. An verschiedenen Universitäten und Ausbildungsstätten werden Simulatoren in der studentischen Lehre eingesetzt (vgl. z. B. Timmermann et al., 2005). Aspekte menschlicher Wahrnehmung, menschlichen Denkens und Handelns werden dabei oftmals aber nur angerissen und nicht systematisch vermittelt, obwohl diese für bis zu 2 Drittel von Zwischenfällen als ursächlich oder moderierend beteiligt gesehen werden. Einige Kurse integrieren diese Aspekte (Flanagan, Nestel & Joseph, 2004; Müller et al., 2007). Teilweise
werden die Studierenden auch mit Elementen des Zwischenfallsmangements (Howard, Gaba, Fish, Yang & Sarnquist, 1992) vertraut gemacht. Das Training in einem Simulator vermittelt per se jedoch nicht systematisch Kompetenzen in den »nichttechnischen« Fertigkeiten (»non-technical skills«). Dennoch bieten Simulatorsettings sichere Handlungsräume für unsichere Handlungen und ermöglichen so die lernförderliche »Re-trivialisierung von Fehlern« (Dieckmann, 2005; Dieckmann, Gaba & Rall, 2007). ! Die Simulationsteilnehmer können das eigene Handeln in bestimmten, oftmals schwierigen Situationen hinterfragen, ohne dass dabei Patienten gefährdet werden.
Wichtig für die Gestaltung von Simulatortrainings ist es dabei auch, über die Phase der »TanzbärenSimulation« hinauszukommen (vgl. Cooper, 1999). Das Besondere an Tanzbären ist, dass sie überhaupt tanzen, nicht dass sie gut tanzen. Ähnlich verhält es sich oftmals mit dem Simulationstraining. Die Teilnehmenden (und Anbieter) sind oftmals noch so begeistert von den technischen Möglichkeiten, die moderne Simulatoren bieten, dass sie nicht genauer auf die Konzepte achten, mit denen die Simulatoren genutzt werden. In der Freude um das technisch Machbare geht das kritische Hinterfragen der konzeptionellen Grundlagen leicht verloren. Aus dieser
227 13.6 · Ansatzpunkte zur Erhöhung der Patientensicherheit
Begeisterung heraus werden die »Abbildungstreue« und der Reichtum an Features bei Simulatoren zum Verkaufsargument, und die Hersteller von Simulatoren bemühen sich dementsprechend um technisch immer bessere Lösungen. Zudem gibt es kaum Teilnehmende, die an mehr als einem Kurs teilnehmen oder Kurse in verschiedenen Zentren besuchen. So wird es schwierig, Konzepte zu vergleichen und zu erfahren, wie unterschiedlich sich der gleiche Simulator einsetzen lässt. Für die nähere und weitere Zukunft ergeben sich hier Anforderungen für eine weitere Professionalisierung des Simulatoreinsatzes in der Medizin. Um im Bild zu bleiben: wenn Teilnehmer und Anbieter sich (nur dann) freuen, wenn ein Bär schön tanzt – oder übertragen: ein guter Simulator zielführend genutzt wird. Ein wichtiger Schritt in diese Richtung wird die intensive Schulung von Simulatorinstruktoren darstellen (Dieckmann & Rall, 2008). Im Bereich der Forschung mit Simulatoren gibt es vielversprechende Ansätze, aber multiprofessionelle Kooperationen unter psychologischer oder pädagogischer Beteiligung sind kaum verbreitet. Weltweit gibt es nur sehr wenige Psychologen oder Spezialisten für Human Factors und Didaktik, die näher und intensiver mit Simulationen in der Medizin arbeiten. Dies ist erstaunlich, weil Simulationen es besser als viele andere Forschungssettings ermöglichen, experimentelle Kontrolle und ökologische Validität miteinander zu verbinden und mit Studienteilnehmern zu arbeiten, die im Berufsleben stehen.
wendigen Analysetiefe andererseits abzuwägen gilt. Werden Incident-Reporting-Systeme stark genutzt und eine Vielzahl von Fällen eingegeben, kann nicht mehr jeder einzelne Fall einer eingehenden RootCause-Analyse (Suche nach den grundlegenden Ursachen) unterzogen werden, sodass eine Auswahl der zu analysierenden Fälle stattfinden muss. Hierzu ist es notwendig, entsprechende Klassifikationen zu entwickeln. Incident-Reporting-Systeme befinden sich in einer Grauzone, in der es schwierig ist, ihre Rolle klar zu definieren. Die enthaltenen Informationen können Ansatzpunkte und Analysebedarfe aufzeigen. Was die einzelnen Organisationen jedoch aus diesen Ansatzpunkten machen, wie sie die Daten aus den Systemen in ihr Risikomanagement überführen, müssen die in der Organisation verantwortlichen Personen klären und umsetzen. Beteiligte Organisationen setzen teilweise große (manchmal zu große) Erwartungen in die Systeme. Mittels des »incident reporting« und der Incident-Analyse können Informationen generiert werden, die Entscheidungsträgern helfen können, das eigentliche Risikomanagement in Gang zu setzen, erkannte Schwächen zu verringern sowie Stärken im System zu stärken. Dieses Risikomanagement geht aber über das Sammeln und Analysieren von Fällen hinaus. Die Arbeits- und Organisationspsychologie hat hier viele Konzepte beizutragen und kann diese Rollenklärung unterstützen.
13.6.3 13.6.2
»Incident Reporting« und Analyse
In Bezug auf das »incident reporting« ist es eine Aufgabe für zukünftige Entwicklungen, die Systeme zu verankern – organisational und in der Medizin als Fach – und die enthaltenen Daten rechtlich zu schützen. Zudem ist es notwendig, das methodische Instrumentarium zu schärfen, um die beteiligten Bedingungsgefüge zu untersuchen, darzustellen und rückzumelden. Diese Aufgabe wird hohe Anforderungen an multiprofessionelle Teams unter Beteiligung von Human-Factors-Experten stellen, bei der es zwischen den ökonomischen und organisationalen Rahmenbedingungen einerseits und der not-
13
Human-Factors-orientierte Forschung
Gerade aus der Verbindung von Simulation und »incident reporting« ergeben sich große Potenziale für Forschung in Bezug auf Human Factors. Die Verbindung ist aus 2 Blickwinkeln heraus relevant für die Erhöhung der Patientensicherheit. Erstens können »incident reports« eine Grundlage für die Auswahl relevanter Fälle darstellen – sowohl für das Training als auch für die Forschung. Zweitens können Simulationen genutzt werden, um im Sinne der synthetisierenden Fehleranalyse (Mehl & Schuette, 1999) zu untersuchen, wie es zu einem solchen Fall kommen konnte. Durch die systematische (quasi-experimentelle) Bedingungsvariation könnte z. B. erprobt werden, unter welchen Umständen Warnaufkleber auf
228
13
Kapitel 13 · Patientensicherheit und Human Factors – Vom Heute in die Zukunft gesehen
Medikationspumpen übersehen oder zwar gesehen, aber nicht beachtet werden. Darüber hinaus könnten Trainingsteilnehmende im Sinne der »prospektiven Simulation« (Dieckmann, Wehner, Rall & Manser, 2005) zu Koforschern werden, indem sie an der Konstruktion ihrer eigenen Szenarien mitwirken. Ausgehend von groben Skizzen über Fälle könnten Forscherinnen und Forscher gemeinsam mit Simulationsteilnehmern Szenarien entwerfen und erproben, die es erlauben, mehr über das Funktionieren oder Nichtfunktionieren des Zusammenspiels von Mensch, Technik und Organisation zu erfahren. Simulationen könnten so helfen, Failure-Mode-and-EffectsAnalysen (Analyse möglicher Fehler und ihrer Effekte; Spath, 2003) stärker zu vergegenständlichen, als es in diesen eher kognitiv angelegten Verfahren gedacht ist. So könnte überdacht werden, welche Probleme bei einem bestimmten Prozess auftreten könnten, wie diese zu erkennen wären und wie man mit ihnen umgehen sollte. Insgesamt scheint es notwendig, Forschungen zu Problemen im Zusammenspiel zwischen Mensch, Technik und Organisation genauer zu fassen. Die Begriffe »Human Factors« wie auch »Human Error« umfassen beide eine Vielzahl von Bedeutungen. Valide und reliable Forschung ist angesichts dieser Begriffsvielfalt erschwert. Um eine Analogie zu gebrauchen: Würde man in der Medizin sagen, jemand sei krank, so wäre die erste Frage sicherlich, was genau dem Patienten fehle. Sagt man dagegen, etwas sei auf menschliche Fehler zurückzuführen, so hört man allzu leicht auf zu fragen, welcher Fehlermechanismus es genau gewesen ist, der zum Fehler geführt hat. Hier sollte die Fehler- und Human-Factors-orientierte Forschung weiter und tiefer fragen (Wehner, Mehl & Dieckmann, im Druck). Die Aufgabe zukünftiger Kooperationen zwischen Medizin und Human-Factors-orientierter Forschung wird es sein, hier noch mehr »Forschergeist« zu entwickeln und den Dingen weiter auf den Grund zu gehen. Auch wenn Menschen nicht so »zuverlässig versagen« wie Maschinen mit Sollbruchstellen, Wartungsintervallen etc., so können wir sicher noch viel mehr Wissen über Gesetzmäßigkeiten oder wenigstens Wahrscheinlichkeiten für Fehler (und auch gute Ideen) erarbeiten und schon vorhandenes Wissen besser nutzen.
FMEA
13.7
Zusammenfassung und Schlussbetrachtung
Patientensicherheit ist durch Fehlhandlungen auf allen Ebenen soziotechnischer Systeme gefährdet; Behandlungsfehler gehören zu den häufigsten Todesursachen; die Mehrzahl von Zwischenfällen geht auf menschliches Handeln zurück. Bemühungen um Patientensicherheit finden in einem zunehmend technologisch geprägten medizinischen Umfeld statt, in dem Komplexitätsreduktion durch Automatisierung, Spezialisierung und Standardisierung angestrebt wird. Zugleich ist das Gesundheitssystem von zunehmender Ressourcenknappheit und damit verbundenem Abbau von Redundanzen geprägt. Um Wissen über den Zustand des Systems Patientensicherheit zu gewinnen, werden medizinische Prozesse arbeitswissenschaftlich (Belastungsmessung, Aufgabenanalyse) erfasst; Zwischenfälle werden mit Berichtssystemen erfasst und analysiert und fehlerträchtige Situationen im Simulator untersucht. Als Ansatzpunkte zur Erhöhung der Patientensicherheit werden Trainings mit Simulatoren, »incident reporting« und Human-Factors-orientierte Forschung beschrieben. Die »negative Fehlerkultur« in der Medizin ist Ausdruck einer allgemeinen gesellschaftlichen Tendenz, in der das Negative mehr beachtet wird als das Positive: 4 Erziehen von anderen 4 Traum vom Fehlerlosen 4 Forderung nach mehr Anstrengung 4 Wunsch nach Bestrafung der Schuldigen Die Medizin und die darin tätigen Personen bieten sich hier als Projektionsfläche an, geprägt vom Nimbus der »Herrgötter in Weiß«. Schon das Ungleichgewicht, das entsteht, wenn gesunde Experten sich kranker Laien annehmen und dabei Verfahren und komplizierte Geräte verwenden, welche die meisten Patienten und Patientinnen auch nicht ansatzweise verstehen, unterstreicht dieses Bild. Leicht werden dabei fehlerträchtige Bedingungen übersehen, die den medizinischen Arbeitsalltag prägen. Auch hier greift es sicherlich zu kurz, mit dem Hinweis auf ein Versagen des Managements die »culture of blame« einfach umzudeuten.
229 13.8 · Literatur
Die Optimierung des Zusammenspiels von Mensch, Technik und Organisation, zu dem die systematische Human-Factors-orientierte Forschung beitragen kann, wird auch davon abhängen, wie wir als Gesellschaft das Gesundheitswesen (neu) organisieren, um systembedingte Schwachstellen zu minimieren bzw. ihre negativen Folgen einzugrenzen, und was wir bereit sind, dafür zu investieren. Die wissenschaftliche Beschäftigung mit Human Factors in der Medizin kann und sollte dazu beitragen, indem sie hilft, Probleme und Stärken zu verstehen und entsprechende Maßnahmen einzuleiten und umzusetzen, die Positives fördern und Probleme oder mindestens ihre Auswirkungen minimieren.
13.8
Literatur
Abrahamson, S., Denson, J. S. & Wolf, R. M. (1969). Effectiveness of a simulator in training anesthesiology residents. Journal of Medical Education, 44, 515–519. Bainbridge, L. (1983). Ironies of automation. Automatica, 19 (6), 775–779. Buerschaper, C., Harms, H., Hofinger, G. & Rall, M. (2003). Problemlösefähigkeiten in der Anästhesie. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 4 (3). [Online: http://www.qualitative-research. net/fqs-texte/303/3-03buerschaperetal-d.htm, Zugriff am 12.03.2004]. Byrne, A. J. & Greaves, J. D. (2001). Assessment instruments used during anaesthetic simulation: Review of published studies. British Journal of Anesthesia, 86 (3), 445–450. Chisholm, C. D., Collison, E. K., Nelson, D. R. & Cordell, W. H. (2000). Emergency department workplace interruptions: are emergency physicians »interrupt-driven« and »multitasking«? Academic Emergency Medicine, 7 (11), 1239– 1243. Cooper, A. (1999). The inmates are running the asylum. Why hightech products drive us crazy and how to restore the sanity. Indianapolis: Sams. Cooper, J. B., Newborner, R. S., Long, C. D. & Philip, J. H. (1978). Preventable anesthesia mishaps: A Study of human factors. Anesthesiology, 49, 399–406. Davies, B. (1996). Robots in medicine and surgery. Trans Med Soc Lond, 113, 6–10. Dieckmann, P. (2005). »Ein bisschen wirkliche Echtheit simulieren«: Über Simulatorsettings in der Anästhesiologie. [Online: http://docserver.bis.uni-oldenburg.de/publikationen/dissertation/2005/diebis05/diebis05.html]. Oldenburg: Universität, Dissertation. Dieckmann, P. & Rall, M. (2008). Becoming a simulator instructor and learning to facilitate: The Instructor and Facilitation Training (InFacT). In R. Kyle & B. W. Murray (Eds.), Clinical simulation: Operations, engineering, and management (pp. 647–652). Burlington: Elsevier.
13
Dieckmann, P., Gaba, D. & Rall, M. (2007). Deepening the theoretical foundations of patient simulation as social practice. Simulation in Health Care, 2 (3), 183–193. Dieckmann, P., Reddersen, S., Wehner, T. & Rall, M. (2006). Prospective memory failures as an unexplored threat to patient safety: results from a pilot study using patient simulators to investigate the missed execution of intentions. Ergonomics, 49 (5–6), 526–543. Dieckmann, P., Wehner, T., Rall, M. & Manser, T. (2005). Prospektive Simulation: Ein Konzept zur methodischen Ergänzung von medizinischen Simulatorsettings. Zeitschrift für Arbeitswissenschaft, 59 (2), 172–180. Dörner, D. (1989). Die Logik des Mißlingens. Strategisches Denken in komplexen Situationen. Reinbek: Rowohlt. Flanagan, B., Nestel, D. & Joseph, M. (2004). Making patient safety the focus: crisis resource management in the undergraduate curriculum. Medical Education, 38 (1), 56–66. Gaba, D. M. & Lee, T. (1990). Measuring the workload of the anesthesiologist. Anesthesia & Analgesia, 71, 354–361. Grote, G., Helmreich, R. L., Sträter, O., Häusler, R., Zala-Mezö, E. & Sexton, B. (2004). Setting the stage: Characteristics of organizations, teams and tasks influencing team processes. In R. Dietrich & M. Childress (Eds.), Group interaction in high risk environments (pp. 111–141). Ashgate: Aldershot. Hollnagel, E., Woods, D. D. & Leveson, N. (2006). Resilience engineering. Concepts and precepts. Aldershot: Ashgate. Howard, S. K, Gaba, D., Fish, K. J., Yang, G. C. B. & Sarnquist, F. H. (1992). Anesthesia crisis resource management training: Teaching anesthesiologists to handle critical incidents. Aviation, Space & Environmental Medicine, 63 (9), 763–770. Howard, S. K., Gaba, D. M., Smith, B. E., Weinger, M. B., Herndon, C., Keshavacharya, S. & Rosekind, M. R. (2003). Simulation study of rested versus sleep-deprived anesthesiologists. Anesthesiology, 98 (6), 1345–1355; discussion 1345A. Johnson, E. (2004). Situating simulators: The integration of simulations in medical practice. Lund: Arkiv. Kohn, L. T., Corrigan, J. M. & Donaldson, M. S. (Eds.) (2000). To err is human. Building a safer health system. [Online: http:// www.nap.edu/books/0309068371/html/]. Washington: National Academy of Science. Leape, L. (2002). Reporting of adverse events. New England Journal of Medicine, 347 (20), 1633–1638. Manser, T. (Hrsg.) (2003). Komplexes Handeln in der Anästhesie. Lengerich: Pabst. Manser, T., Howard, S. K. & Gaba, D. (2005). An observation method to assess coordination processes in anesthesia. [Online: http://www.anestech.org/media/Publications/IMMS_ 2005/Manser.pdf ]. Manser, T., Thiele, K. & Wehner, T. (2003). Soziotechnische Systemanalyse im Krankenhaus – Eine Arbeispsychologische Fallstudie in der Anästhesiologie. In E. Ulich (Hrsg.), Arbeitspsychologie in Krankenhaus und Arztpraxis. Arbeitsbedingungen, Belastungen, Ressourcen (S. 361–380). Bern: Huber. Matern, U., Koneczny, S., Tedeus, M., Dietz, K. & Buess, G. (2005). Ergonomic testing of two different types of handles via virtual reality simulation. Surg Endosc, 19 (8), 1147–1150.
230
Kapitel 13 · Patientensicherheit und Human Factors – Vom Heute in die Zukunft gesehen
Mehl, K. & Schuette, M. (1999). Simulators – A perspective on what to train and what to analyse regarding human reliability. In G. I. Scheller & P. Kaffka (Eds.), Safety and reliability (pp. 675–680). Rotterdam, Brookfiel: A. A. Balkema. Müller, M. P., Hänsel, M., Stehr, S. N., Fichtner, A., Weber, S., Hardt, F., Bergmann, B. & Koch, T. (2007). Six steps from head to hand: A simulator based transfer oriented psychological training to improve patient safety. Resuscitation, doi:10.1016/j.resuscitation.2006.08.011. Nielsen, J. (1993). Usability engineering. Boston: Academic Press. Rall, M. & Gaba, D. M. (2005a). Human performance and patient safety. In R. D. Miller (Ed.), Miller’s Anaesthesia (pp. 3021– 3072). Philadelphia: Elsevier Churchill Livingston. Rall, M. & Gaba, D. M. (2005b). Patient simulators. In R. D. Miller (Ed.), Anaesthesia (pp. 3073–3103). New York: Elsevier. Rall, M., Martin, J., Geldner, G., Schleppers, A., Gabriel, H., Dieckmann, P., Krier, C., Volk, T., Schreiner-Hecheltjen, J. & Möllemann, A. (2006). Charakteristika effektiver Incident-Reporting-Systeme zur Erhöhung der Patientensicherheit. Anästhesiologie und Intensivmedizin (47), S9–S19. Reason, J. (1990). Human Error. Cambridge: Cambridge University Press. Sachverständigenrat für die Konzertierte Aktion im Gesundheitswesen (2003). Gutachten 2003. Drucksache des Deutschen Bundestages 15/530. [Online: http://dip.bundestag. de/btd/15/005/1500530.pdf, Zugriff am 02.04. 2005].
13
Sanderson, P. (2006). The multimodal world of medical monitoring displays. Applied Ergonomics, 37, 501–512. Spath, P. L. (2003). Using failure mode and effects analysis to improve patient safety. AORN Journal, 78, 16–37. Timmermann, A., Roessler, M., Barwing, J., Blaschke, S., Brauer, A., Eich, C., Hirn, A., Klockgether-Radke, A., Nickel, E., Russo, S., Kettler, D. & Sauer, P. (2005). Neue Wege der studentischen Lehre – Erste Erfahrungen im Querschnittsbereich Notfall- und Intensivmedizin. Anästhesiologie Intensivmedizin Notfallmedizin Schmerztherapie, 40, 536–543. Tucker, A. L., Edmondson, A. C. & Spear, S. (2002). When problem solving prevents organizational learning. Journal of Organizational Change Management, 15 (2), 122–137. Wehner, T. (1992). Sicherheit als Fehlerfreundlichkeit. Arbeits- und sozialpsychologische Befunde für eine kritische Technikbewertung. Opladen: Westdeutscher Verlag. Wehner, T., Mehl, K. & Dieckmann, P. (im Druck). Fehlhandlungen und Prävention. In U. Kleinbeck (Hrsg.), Enzyklopädie der Psychologie. Band Ingenieurpsychologie. Wehner, T., Nowack, J. & Mehl, K. (1992). Über die Enttrivialisierung von Fehlern: Automation und ihre Auswirkungen als Gefährdungspotentiale. In T. Wehner (Hrsg.), Sicherheit als Fehlerfreundlichkeit (S. 36–56). Opladen: Westdeutscher Verlag.
14
Lernen aus Störfällen und Präventionsansätze in der Prozessindustrie Günter Horn und Kristina Lauche
14.1
Einleitung: Kennzeichen der Branche
– 232
14.2
Lernen aus Störfällen – 235
14.2.1 14.2.2 14.2.3
Modellbildung anhand von tragischen Einzelfällen – 235 Trendanalyse mithilfe von »Leading Indicators« – 235 Risiken von Instandhaltungsarbeiten – 237
14.3
Einflussfaktoren und Interventionsmöglichkeiten – 237
14.3.1 14.3.2 14.3.3
Risikowahrnehmung und Schulungen zu Gefahrenpotenzial Führungskräftetraining und Krisenmanagement – 238 Diagnose der Sicherheitskultur – 239
14.4
Herausforderungen für die Zukunft
14.5
Zusammenfassung
14.6
Literatur
– 243
– 242
– 241
– 237
14
232
Kapitel 14 · Lernen aus Störfällen und Präventionsansätze in der Prozessindustrie
14.1
Einleitung: Kennzeichen der Branche
Die chemische Industrie sowie der Energiesektor (Atomenergie, Öl- und Gasindustrie) unterscheiden sich v. a. durch ihren Prozesscharakter von anderen Branchen: Eine Reaktion wird angestoßen, die sich ohne weiteres menschliches Zutun weiter fortsetzt und deren Verlauf lediglich überwacht wird. Dabei kann es verzögerte Effekte geben, die für Menschen schlecht einzuschätzen sind und die zu Übersteuerungen führen können, wie dies Dörner et al. anhand von Simulationen wie »Lohhausen« darstellen konnten (Dörner et al., 1983). Die Prozessindustrien sind außerdem relativ stark automatisiert, hauptsächlich aus Effizienzgründen, aber auch um Menschen nicht unmittelbar gefährlichen Substanzen auszusetzen. Nur selten steht dabei eine menschengerechte Arbeitsgestaltung im Vordergrund, und so bleiben meist »Restarbeitstätigkeiten« mit Überwachungsfunktion für den menschlichen »Bediener«, der dann retten soll, was vorher nicht oder nur fehlerhaft programmiert werden konnte (Bainbridge, 1983). Das bedeutet, dass der Systemzustand nicht immer einfach einzuschätzen ist, sondern aus einer Vielzahl von Sensoren-Messwerten und Alarmsignalen ermittelt werden muss. Damit finden alle in den bisherigen Kapiteln diskutierten Human-Factors-Aspekte Anwendung (insbesondere 7 Kap. 2 zu Sicherheit; 7 Kap. 4 zu Wahrnehmung, 7 Kap. 19 zu Automation und Systemgestaltung). Eine weiteres Kennzeichen von Prozessindustrien ist, dass ihr Gefahrenpotenzial nicht nur die eigenen Mitarbeiterinnen und Mitarbeiter und auch nicht nur aktive Nutzerinnen und Nutzer betrifft, wie z. B. in der Flugbranche, sondern auch Anwohnerinnen und Anwohner und im Falle von Katastrophen wie dem Reaktorunglück in Tschernobyl auch Nachbarstaaten. Viele Bereiche in diesen Industrien sind durch Risiken mit geringer Auftretenswahrscheinlichkeit, aber hohem Schadenspotenzial gekennzeichnet. Ein einziger Funke, ein falsch eingesetztes Ventil, eine unsachgemäße Übergangslösung können bei enger Kopplung von Systemelementen (Perrow, 1984) Kettenreaktionen auslösen, die im Extremfall ganze Landstriche verwüsten können. Das Auftreten und Ausmaß solcher Katastrophen
durch ein geeignetes Sicherheitsmanagement zu verringern, ist daher nicht nur im ökonomischen Interesse des Betriebes, sondern auch eine Verpflichtung gegenüber den Angestellten und Anwohnerinnen und Anwohnern. Dazu gehört auch Öffentlichkeitsarbeit, um eine Vertrauensbasis für die getroffenen Vorkehrungen zu etablieren und im Krisenfall die Kommunikation mit Anrainern und der Presse proaktiv zu managen. ! In den Prozessindustrien finden alle in diesem Buch diskutierten Human-Factors-Aspekte wie das Denken und Handeln der Mitarbeitenden in technischen Anlagen und die Systemgestaltung Anwendung. Außerdem müssen für den Krisenfall die Anrainer mitbedacht werden. Obwohl die meisten der klassischen Unfallbeispiele aus den Prozessindustrien stammen, sind die Lehren daraus zunächst in anderen Branchen gezogen worden. Eine systematische Berücksichtigung von Human Factors ist noch im Aufbau.
Die meisten Unternehmen in der chemischen und Öl- und Gasindustrie sind außerdem privat geführt und operieren nach den Gesetzen der Marktwirtschaft. Die öffentliche Kontrolle und Zugänglichkeit von Unfallanalysen hat sich erst in den letzten Jahren gebessert. Während Perrow (1984) noch den Mangel an Berichten und die Unzugänglichkeit von Betrieben in der Prozessindustrie kritisierte, geben mittlerweile z. B. das Bundesamt für Strahlenschutz oder die europäische Datenbank MARS (Major Accident Reporting System) Auskunft über Vorfälle. Beide geben jedoch nur summarische Informationen und wenig Anhaltspunkte zu Human Factors – außer dass »Fehler des Personals« oder »irrtümliches Betätigen eines Steuerventils« zum Ereignis beigetragen haben oder dass von 603 Unfällen in MARS 246 u. a. auf menschliche Ursachen zurückzuführen sind, erfährt man wenig. Eine Ausnahme bilden die Berichte des US Chemical Safety and Hazards Investigation Boards, die ähnlich detailliert und hintergründig wie in der Luftfahrt Unfallhergang und -ursachen aufschlüsseln und die in ihrer gesamten Länge öffentlich zugänglich sind. Die Erfahrung der Autoren ist jedoch, dass Hintergründe zu Human-Factors-Problemen oft nur im Vertrauen und nur an Insider weitergegeben werden.
233 14.1 · Einleitung: Kennzeichen der Branche
Dieses Kapitel bündelt arbeitspsychologische Forschungsergebnisse aus der Prozessindustrie sowie persönliche Erfahrungen der Autoren und versucht, Herausforderungen für die Zukunft zu formulieren. Der Schwerpunkt liegt dabei nicht auf technischen Sicherheitsvorkehrungen oder ergonomischer Gestaltung (s. dazu z. B. Salvendy, 2006), sondern auf
14
psychologischen und organisatorischen Aspekten. Bei der Auswahl des Materials ging es uns insbesondere um die Verantwortung des Managements, Arbeitsbedingungen zu schaffen, die es den Mitarbeitenden ermöglichen, sicher und kompetent zu handeln. Dazu sollen Beispiele gegeben und Interventionsmöglichkeiten herausgestellt werden.
Beispiel In einem Chemiepark kam es zum Austritt einer größeren Menge Natronlauge, die in den angrenzenden Fluss gelangte. Im Betrieb wurde ein pHAlarm ausgelöst, wobei es dank der großen Wasserführung zu keinen Umweltschäden kam. Ein Mitarbeiter hatte die Befüllung des Tanks eingeleitet und dazu das Befüllventil sowie den nur für Wartungsarbeiten vorgesehenen Umgang (Bypass) geöffnet. Dies war zwar per Betriebsanweisung nicht erlaubt, aber im Betrieb gängige Praxis. Der Durchgangskoeffizient des Ventils war so klein, dass der Befüllvorgang sehr lange dauerte. Deshalb hatte es sich eingebürgert, zu Beginn des morgendlichen Rundgangs den Umgang zusätzlich zu öffnen und am Ende des Rundgangs nach ca. 20 min manuell zu schließen. Das Befüllventil schloss sich dann nach Erreichen des Hochstands automatisch (. Abb. 14.1). Dieser bewusste Verstoß wurde als kalkulierbares Risiko gesehen, da der Betriebsführer nicht von der Notwendigkeit überzeugt werden konnte, 6
das Befüllventil gegen ein solches mit größerem Durchgangskoeffizienten auszutauschen. Außerdem wäre ein Ventilwechsel mit einem komplizierten Verwaltungsvorgang mit allen Betrieben im Chemiepark verbunden, die an derselben Natronlauge-Ringleitung angeschlossen sind. Der Mitarbeiter, der den Befüllungsvorgang eingeleitet hatte, musste unerwartet einem Kollegen bei der Behebung einer Verstopfung helfen und wurde so längere Zeit aufgehalten. Dadurch wurde beim Erreichen des Hochstands das Befüllventil über die Automatik zwar geschlossen, der Umgang blieb aber weiterhin geöffnet, und es lief weiterhin Natronlauge unkontrolliert in den Tank. Der Hochstandsalarm lief bald darauf in der Messwarte ein, diese war aber zu dieser Zeit nicht besetzt. Beim Überlaufen des Natronlaugetanks über die Entlüftungsleitung lief die Natronlauge über die Tanktasse in den Kanal für Kühl- und Regenwasser. Hier kam es sofort zum pH-Alarm, der im gesamten Betrieb angezeigt wurde.
. Abb. 14.1. Ereignishergang im Fallbeispiel zu Natronlauge
234
Kapitel 14 · Lernen aus Störfällen und Präventionsansätze in der Prozessindustrie
Der Mitarbeiter, der durch seine Hilfestellung beim Kollegen seinen Rundgang in der normal üblichen Zeit von 20 min nicht beenden konnte, begab sich sofort in die Messwarte. In diesem Betrieb gab es für viele nicht bestimmungsgemäße Betriebszustände detaillierte Checklisten, deren Benutzung und Abarbeitung der Betriebsführer mit allem Nachdruck aus Misstrauen gegenüber seiner Betriebsmannschaft einforderte. Der Mitarbeiter beeilte sich also, die vorgegebene Checkliste für den Fall »pH-Alarm« zu holen, um sie schnellstmöglich abzuarbeiten. Dabei vergaß er ganz und
14
Das Beispiel zeigt einige typische Probleme in der Prozessindustrie, auf die im Folgenden näher eingegangen wird: 1. Die Mitarbeiter im Beispiel führen Überwachungstätigkeiten in einem teilautomatisierten System aus, was bedeutet, dass sie sich stets bewusst sein müssen, in welchem Systemzustand sich die Anlage befindet. Wird eine Handlung unterbrochen – wie hier durch die nicht vorhergesehene Hilfestellung – kann es passieren, dass eine Routinehandlung nicht wie gewohnt abgeschlossen wird und die Erinnerung an die Absicht »Umgang schließen« nicht im Absichtsgedächtnis überdauert. Ein solches soziotechnisches System setzt perfekte Menschen und keinerlei Schwankungen und Störungen voraus – beides ist unrealistisch. 2. Checklisten und Standardprozeduren können helfen, ersetzen aber das Denken nicht: Der Mitarbeiter hatte sich beim pH-Alarm um die Ursachenfindung gemäß Checkliste bemüht. Auf dieser Checkliste stand der Natronlaugetank jedoch ganz unten, da die Wahrscheinlichkeit für eine Überfüllung als sehr gering erachtet wurde. Hätte er selbst nachgedacht, wäre ihm die unterbrochene Handlung möglicherweise früher wieder eingefallen. Hätte der Betriebsführer beim Erstellen der Checkliste von der Betriebspraxis des zusätzlich geöffneten Umgangs gewusst, hätte er diesem Fall mehr Bedeutung beimessen können. 3. Auslöser für diesen Vorfall war das unzulässige Öffnen des Umgangs. Meistens sind solche bewussten Übertretungen (»violations«, 7 Kap.3.4.4)
gar, dass er den Umgang noch nicht geschlossen hatte. Erst als er auf der Checkliste den Punkt »Natronlaugetank« las, erinnerte er sich an den noch offenen Umgang. Zu diesem Zeitpunkt war jedoch schon eine unkontrollierte Menge Natronlauge abgeflossen und hatte den pH-Alarm ausgelöst. Der Vorfall führte zu einer Stilllegung des Produktionsbetriebes sowie einer Ermittlung der Staatsanwaltschaft gegen den Betriebsführer wegen Wasserverschmutzung. Die Produktion durfte erst nach Umsetzung eines Maßnahmenkatalogs wieder aufgenommen werden.
nicht böswillige Sabotageakte, sondern entstehen wie hier aus dem Versuch der Mitarbeiter, effizienter zu arbeiten und ein umständliches Verfahren abzukürzen, um so dem wahrgenommenen Produktionsdruck nachzukommen. 4. Aus dem Verstoß gegen Sicherheitsregeln, dem wenig geeigneten Ventil und der verzögerten Reaktion auf den Alarm zeigt sich, dass es dem Management nicht gelungen ist, eine Arbeitsatmosphäre herzustellen, in der Sicherheit vorgeht und kompetente Mitwirkung geschätzt wird. In diesem Fall war der Betriebsführer für seinen patriarchalischen Führungsstil bekannt: Er traute seinen Mitarbeitern keine eigenständigen kompetenten Handlungen zu und versuchte stattdessen, für alle Eventualitäten eine Vorschrift zu bedenken. Das Management sah aber wegen der bevorstehenden Pensionierung des Betriebsführers keinen Handlungsbedarf. Diese latenten Faktoren werden hier als Führungsaufgaben und unter dem Begriff Sicherheitskultur (7 Kap. 2.4) thematisiert. In den letzten Jahrzehnten hat sich die Sicherheit in chemischen Anlagen deutlich verbessert. Dies geschah durch konsequente Aufrüstung der Technik, sowohl auf der verfahrenstechnischen Seite als auch bei der Prozesstechnik, wo mit Mess- und Regelungstechnik sog. intelligente Systeme konzipiert und aufgebaut wurden. Weitere technische Verbesserungen erhöhen die Zuverlässigkeit des Systems nur geringfügig, da der technische Grenznutzen erreicht ist. Analysiert man heutzutage Betriebsstörungen, Chemieunfälle und Störfälle, findet man viele Hin-
235 14.2 · Lernen aus Störfällen
weise auf menschliche Einflüsse auf der ausführenden und planenden Ebene. Dieses Kapitel diskutiert mögliche Zugänge zu Human Factors in der Prozessindustrie. Zunächst wird die Rolle von tragischen Störfällen für die Modellbildung und das Lernen aus Fehlern erörtert. Davon ausgehend werden im zweiten Abschnitt exemplarisch einige Einflussfaktoren und Interventionsmöglichkeiten diskutiert: die individuelle Risikound Situationswahrnehmung, Trainings für Führungskräfte und zu Krisenmanagement sowie Sicherheitskultur. Abschließend werden Perspektiven für die weitere Entwicklung aufgezeigt.
14.2
Lernen aus Störfällen
Wie in den meisten Industrien waren es größere Betriebsstörungen, die das Bewusstsein für den Beitrag von menschlichem Verhalten zur Systemsicherheit schärften. Zu den großen Katastrophen, die auch für andere Branchen zu Meilensteinen wurden, gehören der Chemieunfall in Bhopal 1984, bei dem 2500 Menschen durch giftiges Gas umkamen, und der Reaktorunfall in Tschernobyl 1986, der je nach Schätzung zwischen 56 und 7000 Menschen das Leben kostete und in einer ganzen Region auf unabsehbare Zeit die Krebserkrankungen steigen ließ. Da Betroffenheit viel mit der Nähe zum Ereignis zu tun hat, sind es oft nationale Ereignisse, die den Beginn einer Diskussion über Human Factors einläuten: So beziehen sich in der Ölindustrie die Norweger auf die 1980 umgestürzte Plattform Alexander Kielland (123 Tote) und die Briten auf die Explosion der Plattform Piper Alpha 1988 (167 Tote). Das Unglück rüttelte die ganze Industrie auf, die sich bis dahin v. a. an höherer Produktivität orientiert hatte. Sowohl Firmen als auch Gewerkschaften und Behörden starteten Initiativen, um Sicherheit zum Thema Nr. 1 zu machen. In der chemischen Industrie in Deutschland waren es v. a. die Störfälle in den Werken Griesheim und Höchst in den 1990er Jahren, die ein Umdenken einleiteten. Der Fokus liegt jedoch meist auf sicherem Verhalten des Einzelnen am Arbeitsplatz, d. h., es werden Trainings und Interventionen eingesetzt, die auf Kenntnis der Risiken und Konsequenzen sowie auf Motivation abzielen. Erst in den letzten Jahren beginnt man verstärkt, die mehr
14
systemischen und organisatorischen Faktoren zu untersuchen und anzugehen.
14.2.1
Modellbildung anhand von tragischen Einzelfällen
Große Katastrophen sind glücklicherweise selten. Für die Forschung bedeutet dies allerdings, dass sich wenig Aussagen mit statistischen Mitteln treffen lassen: Das Zusammentreffen aller Faktoren, die den Unfall mit verursacht haben, ist immer sehr unwahrscheinlich, und die meisten Arbeitsstunden werden ohne Schaden für Mensch und Umwelt absolviert. Wesentliche Ansätze für das Verständnis von Sicherheit lieferten daher die retrospektiven Analysen von tragischen Einzelfällen, aus denen dann allgemeine Modelle postuliert wurden wie Perrows Theorie der normalen Unfälle (Perrow, 1984, 1999) und Reasons Modell der latenten Versagensfaktoren (Reason, 1987; Reason, 1997). Perrows Beitrag für die Prozessindustrie liegt in der Einsicht, dass Störungen und Schwankungen unvermeidlich sind und es in komplexen und eng gekoppelten Systemen immer wieder zu Unfällen kommen wird, weil diese Störungen und Schwankungen nicht anders abgefangen werden können. Daher gilt es, Industrieanlagen so zu gestalten, dass Interventionen und Entkopplung möglich sind. Reason (1997) wies auf latente Unfallursachen wie Personalführung, Vorschriften und Organisationskultur hin (zu beiden Theorien 7 Kap. 2.1).
14.2.2
Trendanalyse mithilfe von »Leading Indicators«
Der zweite Ansatz, trotz der seltenen Ereignisse aus den Fehlern der Vergangenheit zu lernen, besteht darin, auch Beinahe-Ereignisse und schwache Anzeichen (»weak signals«, »leading indicators«) zu erfassen, die auf Schwachstellen hinweisen können, bevor es zum Unfall kommt. Dieser Ansatz wurde u. a. von der Chemiefirma DuPont propagiert und wird heute auch als Safety Training Observation Program (STOP) für andere Firmen angeboten. Mithilfe von einfachen Checklisten (sog. STOP-Karten) werden Beobachtungen zur Arbeitssicherheit erfasst, an die beteiligten Personen rückgemeldet und zusätzlich
236
Kapitel 14 · Lernen aus Störfällen und Präventionsansätze in der Prozessindustrie
systematisch ausgewertet. Neben dem Tragen von Schutzkleidung oder Kennzeichnung von Gefahrenbereichen können auch unangemessene Vorschriften gemeldet werden. Allerdings erlauben diese STOPKarten noch keine echte Ursachenanalyse. Diese und ähnliche betriebsinternen Systeme haben zu uneinheitlichen Klassifikationen von Human Factors geführt, die systematische Forschung eher erschweren (Gordon, Flin, Mearns & Fleming, 1996). Dazu wurden eine Reihe von Verfahren entwickelt, die es Anwendern erleichtern sollen, Unfälle und Beinahe-Ereignisse zu erfassen und dabei auch
die zugrunde liegenden individuellen und organisationalen Faktoren zu identifizieren, wie z. B. das Human-Factor-Investigation-Verfahren HFIT (Gordon, Flin & Mearns, 2005). In der Atomindustrie in Deutschland und der Schweiz wird SOL (Sicherheit durch organisationales Lernen) (Wilpert, Miller & Fahlbruch, 1997) als Standardverfahren verwendet, falls es Hinweise auf eine MTO-Interaktion gibt. Dass man auch aus Beinahe-Ereignissen viel lernen kann, zeigt das folgende Beispiel, bei dem ein Anlagenfahrer kompetent und schnell handelt und damit die Eskalation eines Beinahe-Unfalls verhindert.
Beispiel
14
In einer Nachtschicht am Wochenende öffnet sich gegen 2 Uhr morgens während der Reaktionszeit unerwartet das Bodenventil eines Reaktors einer Druck-Dispersionsanlage. In der Anlage werden unter bis zu 90 bar hohem Druck Kunststoffdispersionen hergestellt. Nur im Reaktionsteil sind Drücke von über 25 bar zugelassen, sämtliche nachfolgenden Anlagenteile sind mit Sicherheitseinrichtungen abgesichert, die einen unzulässigen Überdruck über Abblase-Vorrichtungen ableiten können. Als sich das Bodenventil plötzlich öffnet, beginnt sich der Reaktorinhalt über das Entspannungsgefäß zu entleeren, das aber nur auf 25 bar ausgelegt ist. Es kommt zu einer Druckerhöhung in den nachfolgenden Gefäßen, was eine Vielzahl von Alarmen in der Leitwarte auslöst. Die Sicherheitseinrichtung droht anzusprechen, was dazu führen würde, dass die unvollständig reagierte Dispersions-Gas-Mischung über das Dach abgeblasen wird. Der Anlagenfahrer fährt jedoch manuell das Bodenventil des Polymerkessels so schnell wieder zu, dass eine unzulässige Druckerhöhung in dem nachfolgenden System verhindert wird. In bemerkenswert kurzer Zeit gelingt
In diesem Fall konnte dank dem Eingriff des Anlagenführers verhindert werden, dass der gesamte Reaktorinhalt über das Dach abgeblasen wurde. Es gab keine Aufsehen erregende Sirenenwarnung der benachbarten Wohngebiete, und nach kurzer Fehlersuche und Ausmerzen des Programmierfehlers ging man wieder zur Tagesordnung über. Die Erkenntnis, dass Menschen mit ihren Fähigkeiten, Probleme zu
ihm die richtige Diagnose – Alarme können unterschiedliche Ursachen haben, und nur eine davon ist das nichtbestimmungsgemäße Öffnen des Bodenventils. Er weiß auch, wie er das Ventil über ein spezielles Menü anwählen und den Befehl zum Zufahren manuell eingeben kann. Die Ursache für das unerwartete Öffnen des Bodenventils war der Ausfall einer Steuerungseinheit des Prozessleitsystems. Aus Sicherheitsgründen war das Prozessleitsystem mit 2 redundanten Prozessoren ausgestattet. Als das Prozessleitsystem einige Jahre früher erneuert wurde, verwendete man aus Kostengründen das Steuermodul einer alten Prozesssteuerung von einem anderen Hersteller weiter. Die speziell programmierte Schnittstelle zwischen den beiden Systemen wies einen versteckten Programmierfehler auf, der genau beim Übergang von einem Prozessor auf den anderen einen Schritt auslöste, der zum Öffnen des Bodenventils führte, obwohl u. a. das Kriterium »Druck unter 25 bar« noch nicht erfüllt war. Der Ausfall einer Steuerungseinheit war noch nie simuliert oder getestet worden, da er als sehr unwahrscheinlicher Fall angesehen wurde.
lösen, oft die entscheidende Sicherheitsressource darstellen, spielt in der Prozessindustrie bisher noch keine große Rolle. Denn je besser diese Ressource genutzt wird, desto unsichtbarer bleibt sie: Eskalationen von Situationen werden verhindert, und so werden diese Fälle in der Regel nicht öffentlichkeitswirksam herausgestellt oder nicht einmal intern bekannt.
14
237 14.3 · Einflussfaktoren und Interventionsmöglichkeiten
14.2.3
Risiken von Instandhaltungsarbeiten
Das Beispiel verweist auch noch auf ein allgemeines Problem beim Eingriff in komplexe technische Systeme. Wartungsarbeiten und Veränderungen können ungeahnte Effekte haben. Hier ist es die Ersatzsteuerung, ein sog. redundantes System, das im Normalfall nicht benötigt wird und nur für den Bedarfsfall bereitsteht, in der sich ein latenter Fehler verbirgt. Der Ersatz eines Prozessleitsystems stellt zudem einen direkten Eingriff des Menschen in ein hoch automatisiertes System dar. Reason (1997) argumentiert, dass insbesondere solche Instandhaltungsarbeiten immer kritisch sind. Bei normaler Bedienung wird selten direkt in die Kernfunktionalität des Systems eingegriffen, und Notfallbedienung ist eine seltene Ausnahme. Bei Instandhaltungsarbeiten wird hingegen regelmäßig an kritischen Prozessteilen direkt Hand angelegt (. Tab. 14.1). Werden hierbei Fehler übersehen, wie im Beispiel der Programmierfehler in der Software der Ersatzsteuerung, können diese die latenten Bedingungen (7 Kap. 3.2.1) für einen Unfall schaffen. ! Lehren für die Verbesserung von Sicherheit lassen sich sowohl aus den eher seltenen Unfällen ziehen wie auch aus der Analyse von schwachen Indikatoren, die auf latente Bedingungen für Sicherheitsprobleme verweisen. In beiden Fällen ist eine systematische Analyse von den zugrunde liegenden Ursachen und Handlungsbedingungen erforderlich.
14.3
Einflussfaktoren und Interventionsmöglichkeiten
Der folgende Abschnitt geht auf Einflussfaktoren ein, die sich aus der Analyse von Störfällen als relevant erwiesen haben und für die Prävention genutzt werden können. Dabei geht es zunächst um die Wahrnehmung von Gefahren auf der individuellen Ebene, dann um Führungskräftetraining zur Intervention am Arbeitsplatz und in Krisen und schließlich um die Sicherheitskultur der Organisation.
. Tab. 14.1. Auftretenswahrscheinlichkeiten von durch Menschen verursachten Problemen nach Art der Tätigkeit. (Nach Reason, 1997, S. 92)
»Hands-on«
Kritikalität
Häufigkeit
Normale Bedienung
Gering
Mittel
Hoch
Notfallbedienung
Mittel
Hoch
Gering
Instandhaltungsarbeiten
Hoch
Hoch
Hoch
14.3.1
Risikowahrnehmung und Schulungen zu Gefahrenpotenzial
Sowohl beim Beispiel der ausgelaufenen Natronlauge als auch beim Eingriff zur Schließung des Bodenventils war einer der entscheidenden Faktoren, inwieweit den Mitarbeitern klar war, welcher Vorgang gerade in der Anlage ablief, welche Risiken damit verbunden waren und wie sich die Situation weiter entwickeln könnte. In der HumanFactors-Forschung wurde dafür der Begriff »Situationsbewusstsein« (»situation awareness«) geprägt: das Erfassen, Verstehen und Weiterdenken der Situation (Endsley, 1995) (7 Kap. 4). Dazu gehört sowohl das Verhalten des technischen Systems (chemischer Prozess, automatische Überwachungsanlagen) als auch das Verhalten anderer Akteure. Die wesentliche Aufgabe für das Management besteht hier darin, geeignete Schulungen und Möglichkeiten zu internem Erfahrungsaustausch anzubieten, sodass Mitarbeiter über ein gutes Verständnis der chemischen Prozesse und Anlagen verfügen. Eine Analyse von Vorfällen in Bohrteams mit ergänzenden Interviews hat gezeigt, dass die meisten Probleme im Zusammenhang mit Situationsbewusstsein bereits auf der Ebene der Wahrnehmung lagen (Sneddon, Mearns & Flin, 2006). Die Ursachen waren hier also weniger eine Frage von Verständnis und damit Schulung, sondern wurden mit der Schichtarbeit auf den Plattformen, Ermüdung und Stress in Zusammenhang gebracht, die zu Aufmerksamkeitslücken führen können. Auch gegen diese Grenzen menschlicher Belastbarkeit kann man vor-
238
Kapitel 14 · Lernen aus Störfällen und Präventionsansätze in der Prozessindustrie
beugende Maßnahmen ergreifen, wie z. B. Pausenregelungen, um der Ermüdung entgegenzuwirken, oder ergonomische Gestaltung der Arbeitssysteme, sodass Informationen so dargeboten werden, dass für die Aufgabe Relevantes hervorgehoben und eine Interpretation erleichtert wird (Endsley, Bolté & Jones, 2003).
14.3.2
Führungskräftetraining und Krisenmanagement
Neben der Intervention am Arbeitsplatz müssen Führungskräfte in der Prozessindustrie im Notfall auch die Rolle eines Krisenmanagers übernehmen können und unter Stress schnell angemessene Entscheidungen treffen. Die Explosion auf der Plattform Piper Alpha hat gezeigt, dass eine derartige Krise ganz andere Anforderungen stellt als die normale Managementrolle und dass die Fertigkeiten als Krisenmanager geübt werden müssen (Flin, 1996; 7 Kap. 16 und 18). Beispiel
14
Wie die vorangegangenen Beispiele bereits zeigten, kann das Verhalten von Führungskräften wesentlich zum Erhalt von Sicherheit und zum angemessenen Umgang mit potenziellen Katastrophen beitragen (7 Kap. 10). Dazu gehört zum einen, dass Führungskräfte durch eigenes Vorbild und Instruktionen ihre Mitarbeitenden anleiten, auf Sicherheit zu achten und auf Missstände hinzuweisen sowie sich um den sicherheitstechnischen Zustand des Betriebes zu kümmern. Dazu werden u. a. Führungskräftetrainings zu Interventionen am Arbeitsplatz angeboten, die mit einem ganzheitlichen Konzept auf die Führungsaufgaben vorbereiten und mit Rollenspielen Intervenieren einüben. Die Evaluation eines solchen Kurses zeigte allerdings, dass die Teilnehmer zwar nach dem Kurs ihre Einstellung änderten, aber einige Monate später nicht häufiger und besser intervenierten. Ein Vergleich von Training und Anwendungssituation zeigte, dass die Teilnehmer die Gesprächsführungsstrategien zwar im Kurs erprobten, doch später am Arbeitsplatz nur noch in geringem Maße anwenden konnten (Pullwitt, Mearns, Schönherr & Lauche, 2007). Die Befunde verweisen auf zweierlei: 1. Interventionen am Arbeitsplatz sind kognitiv anspruchsvoll und sozial unbequem. 2. Was im Training gelernt wurde, muss auch nachher am Arbeitsplatz unterstützt und weiter gepflegt werden (7 Kap. 18). Aus der Perspektive der Lernforschung überrascht dieser Befund nicht, doch für Unternehmen bedeutet dies, dass in mehr als nur das 2-tägige Training investiert werden muss.
Im Juli 1988 gab es auf der Ölplattform Piper Alpha in der Nordsee eine Explosion. Das daraus resultierende Feuer setzte auch die Gaspipeline, die Piper Alpha mit den benachbarten Plattformen verband, in Brand, und heftige Feuersbrünste sowie weitere Explosionen zerstörten die gesamte Bausubstanz. Von 226 Menschen an Bord überlebten nur 61, die sich größtenteils durch einen Sprung ins Meer gerettet hatten – ein Verhalten, von dem normalerweise in Sicherheitstrainings abgeraten wird, da das eiskalte Nordseewasser schnell zum Tod durch Unterkühlung führen kann. Der Bericht der Untersuchungskommission (Cullen, 1990) zeigte eindeutig auf, dass Fehlentscheidungen und verzögerte Entscheidungen zum Ausmaß des Unglücks beitrugen. Das Warten auf übergeordnete Anweisungen verhinderte, dass Menschen in Sicherheit gebracht wurden, und führte dazu, dass die benachbarten Plattformen weiterhin Öl in die brennende Plattform pumpten. Der Plattform-Manager stand anscheinend unter Schock und war außer Stande, Entscheidungen zu treffen, Hilfe anzufordern oder seinen Mitarbeiten Anweisungen zu geben, wo und wie sie sich in Sicherheit bringen sollten.
Als Folge des Piper-Alpha-Unglücks entwickelte eine Gruppe von Trainern und Industrievertretern ein mehrtägiges Simulationstraining, das PlattformManager durchlaufen haben müssen, bevor sie ihren Posten antreten können. In einem nachgebauten Kontrollraum wird der Umgang mit einem simulierten Notfall (Feuer, Explosion etc.) geübt. Jeder der Teilnehmenden kommt dabei in die Rolle des Platt-
239 14.3 · Einflussfaktoren und Interventionsmöglichkeiten
form-Managers, der die Lage erfassen und den Überblick behalten sollte, aber insbesondere auch klare Anweisungen geben muss und nicht aus dem eigenen Stress heraus in Tatenlosigkeit versinken darf. Die Trainingsinhalte sind von der britischen Offshore Petroleum Industry Training Organization (OPITO) festgelegt, und der Kurs wird firmenübergreifend anerkannt. Das Verhalten der Teilnehmenden wird anhand von Kriterien beurteilt, die aus Interviews mit störfallerprobten Plattform-Managern und Führungskräften aus anderen Branchen definiert wurden.
Verhaltenskriterien für Krisenmanager (Flin, Slaven & Stewart, 1996) 4 Situation bewerten und Bedürfnisse antizipieren: Informationen sammeln und prüfen, Entscheidungen treffen, angemessene Handlungsaufträge geben, mögliche Szenarien und ihre Konsequenzen und Wahrscheinlichkeit überprüfen, effektives Koordinieren der Einsatzkräfte 4 Kommunikation aufrechterhalten: sofort alle relevanten Personen und Organisationen informieren, Entwicklung der Situation berichten und Kommunikation aufrechterhalten, Verlauf und wichtige Mitteilungen dokumentieren, bei Bedarf alternative Kommunikationsmedien einsetzen 4 Delegieren: klare Entscheidungen treffen, welche Aufgaben in der gegebenen Situation an wen delegiert werden sollen, Aufgaben zuweisen gemäß Fähigkeiten und Vorgaben des Krisenmanagements, Rollen geklärt für die Ausführenden 4 Umgang mit Stress bei sich und anderen: Symptome erkennen, angemessene Schritte zur Stressreduktion einleiten
Doch wie gut bereitet ein Training auf die echte Krise vor? Das folgende Beispiel zeigt, dass die gegenwärtige Trainingspraxis v. a. dazu dient, Vorschriften und Prozeduren einzuüben. Aus dem Vergleich mit einem tatsächlichen Zwischenfall lassen sich wichtige Lehren für die Entwicklung von Schulungen ziehen (Crichton, Lauche & Flin, 2005).
14
Beispiel Mitten in der Nacht löste sich ein Teil einer Bohrvorrichtung unter Wasser, was zu Austritt von Öl und Bohrflüssigkeit führen kann. Ein Krisenstab wurde einberufen, um die Ursache zu diagnostizieren und geeignete Maßnahmen einzuleiten. Das Problem konnte schnell und ohne Ölaustritt behoben werden, doch es dauerte 68 Tage, bis die Bohrinsel wieder einsatzbereit war (was bei Kosten von 100.000 US-$ pro Tag erheblichen finanziellen Schaden bedeutet). Teammitglieder nannten als wesentliche Fertigkeiten: Situationsdiagnose bei unvollständiger Information, Entscheidungen treffen unter Unsicherheit, Zusammenarbeit im Team, klare Verantwortlichkeiten und Anweisungen sowie konsistenten Informationsfluss zwischen dem Stabsraum an Land, der Bohrinsel und weiteren Mitgliedern des Krisenstabs. Ein Vergleich mit einem Simulationstraining zu einem ähnlichen Vorfall, das dasselbe Team kurz vorher durchlaufen hatte, zeigte, dass das Training zwar geholfen hatte, die »standard operating procedures« einzuüben und die Interaktion im Team zu verbessern. Doch die Strategien im Umgang mit Unsicherheit und Stress waren im Training zu wenig berücksichtigt worden, und insbesondere auf die lange Phase der Wiederinbetriebnahme hatte das Training zu wenig vorbereitet (Crichton, Lauche & Flin, 2008).
14.3.3
Diagnose der Sicherheitskultur
Wie in einem Unternehmen mit Sicherheit umgegangen wird, lässt sich unter dem Begriff »Sicherheitskultur« zusammenfassen. Dieses übergreifende Konzept bezeichnet das Human-Factors-Bewusstsein im Unternehmen, die (oft impliziten) Werte, Ziele und Normen zu Sicherheit und deren »Spuren« in Dokumenten, Artefakten und Geschichten im organisationalen Gedächtnis (7 Kap. 2). Der Begriff stammt aus der Organisationstheorie (7 Kap. 9.6.1) und wurde von der Expertengruppe zu Tschernobyl zum ersten Mal auf Sicherheit übertragen. Das Konzept soll helfen, Probleme zu verstehen und im Vor-
240
Kapitel 14 · Lernen aus Störfällen und Präventionsansätze in der Prozessindustrie
feld auf Indikatoren zu achten, die alle darauf hindeuten, dass Sicherheit nur unzureichend ernst genommen wird. Der folgende Vorfall wurde zu Lernzwecken in der betroffenen Firma diskutiert. Beispiel Bei einer Explosion starben 2 Mitarbeiter bei Schweißarbeiten an einem Tank, der noch Reste an Kondensat (und damit brennbare Kohlenwasserstoffe) enthalten hatte. Die Arbeiter, die wie in der Branche üblich von einer Unterauftragsfirma angestellt waren, hatten sich unter »Kondensat« lediglich ungefährliche Wasserrückstände vorgestellt. Sie wagten auch nicht, zeitraubende Fragen zu stellen, aus Angst, ihre Firma werde solche Störenfriede entlassen. Die eingehende Unfallanalyse deutet auf ein zugrunde liegendes Problem hin: eine Organisationskultur, in der Sicherheit zwar in Worten betont, aber nicht vor Ort bedacht und umgesetzt wird. Das Beispiel wurde im übergeordneten Konzern dazu verwendet, auf den indirekten Beitrag der Planer und Vorgesetzten hinzuweisen: zu viele Personen waren für die präventive Planung zuständig gewesen, die allesamt ungeprüfte Annahmen über den tatsächlichen Systemzustand getroffen hatten. Die Sicherheitskultur des Konzerns, die Unterbrechungen und Nachfragen zum Schutz menschlichen Lebens vorangestellt hätte, wurde von den Unterlieferanten offenbar nicht mehr geteilt.
14 In der Literatur finden sich die Begriffe »Sicherheitskultur« und »Sicherheitsklima« oft gleichbedeutend nebeneinander, obwohl Sicherheitsklima nur ein Teilbereich von Sicherheitskultur ist. Sicherheitsklima bezieht sich auf die geteilten handlungsrelevanten Einstellungen zu Sicherheit (Zohar, 1980; Zohar & Luria, 2005) und hat sich zumindest in der petrochemischen Industrie als das praktisch relevantere und leichter zu operationalisierende Konzept durchgesetzt (Cox & Flin, 1998). Durch die Anwendung von standardisierten Fragebögen kann so zumindest dieser Teilaspekt von Sicherheitskultur quantifiziert erfasst werden. Das Manko dieses Ansatzes ist allerdings, dass es eine Vielzahl von Fragebogenverfahren gibt, die alle induktiv und entspre-
chend der Bedürfnisse der Auftraggeber entwickelt wurden und damit einer theoretischen Basis entbehren (Flin et al., 2000; Guldenmund, 2000). Die Ergebnisse mögen so in jedem Einzelfall Hinweise auf latente Probleme in einer Organisation geben, lassen sich aber schlecht zwischen einzelnen Untersuchungen vergleichen. Stärker soziotechnisch orientierte Ansätze betonen die strukturellen Aspekte der Organisationsgestaltung, den Mitarbeitenden Handlungsmöglichkeiten und Entscheidungshoheit für Sicherheit einzuräumen und damit zu einer »kompetenzförderlichen Sicherheitskultur« beizutragen (Grote & Künzler, 2000; Künzler, 2002). Aus dieser Perspektive werden Gestaltungsrichtlinien wie die lokale Selbstregulation im Umgang mit Schwankungen und Störungen postuliert, um das von Perrow (1984) illustrierte Katastrophenpotenzial von risikoreichen Systemen mit starrer Kopplung zu reduzieren. Die Diagnose der Sicherheitskultur besteht in diesem Ansatz aus einer Kombination an Methoden wie Dokumentenanalyse, Interviews und einem Fragebogen, der Sicherheitsmanagement, Gestaltungsstrategien und Bedürfnisse der Arbeitenden umfasst (s. auch Grote & Künzler, 2000). In der Praxis werden daneben auch sog. Reifemodelle zur Sicherheitskultur wie das der britischen Sicherheitsbehörde (HSE) (Fleming, 2000) und das für das Hearts&Minds-Programm von Shell entwickelte Modell (Parker, Lawrie & Hudson, 2006, . Abb. 2.1) eingesetzt. Beide Modelle nehmen eine Entwicklung der Sicherheitskultur vom pathologischen Ignorieren zur proaktiven Integration von Sicherheit in das Kerngeschäft der Organisation an. Als Positivbeispiel für eine integrierende Sicherheitskultur sei das Projekt »Britannia Topside« genannt, bei dem es durch frühen Einbezug von Plattform-Mitarbeitern in der Konstruktions- und Planungsphase gelang, nicht nur Kosten zu senken, sondern auch Sicherheitsvorkehrungen und die Gestaltung von Kontrollräumen vorher anhand virtueller Begehungen zu testen und geeignet anzupassen (Croft-Bednarski & Johnston, 1999). Die beiden genannten Modelle sehen unterschiedliche Stufen vor, und die Definitionen für die einzelnen Stufen sind nicht immer über alle psychometrischen Zweifel erhaben. Doch nach Aussagen von Praktikern erweisen sich die Modelle als eine
241 14.4 · Herausforderungen für die Zukunft
gute Diskussionsgrundlage, um innerhalb von Arbeitsgruppen spezifische Stärken und Handlungsbedarf zu identifizieren. Die größte Herausforderung für die Praxis liegt darin, auch ohne die nächste Katastrophe das Bemühen um noch mehr Sicherheit und ernsthafte Wertschätzung menschlichen Lebens wachzuhalten, auch wenn die dazu notwendigen Schritte nicht im Einklang mit den kurzfristigeren Profitkriterien zu stehen scheinen. ! Interventionen zur Verbesserung von Sicherheit müssen nach einem ganzheitlichen Ansatz erfolgen. Sie sollten alle Hierarchieebenen von Mitarbeitern auf der ausführenden Ebene zu Planern und Führungskräften und der Sicherheitskultur der gesamten Organisation umfassen.
14.4
Herausforderungen für die Zukunft
Sowohl für die chemische und Ölindustrie als auch für die Atomindustrie lässt sich konstatieren, dass ein beachtlicher technischer Sicherheitsstandard erreicht wurde und durch die Störfälle der Vergangenheit ein gewisses Maß an Verständnis für Human Factors geschaffen wurde. Es wurden Managementsysteme etabliert, die latente Fehler in Anlagen und Organisationen aufdecken können und zur Beseitigung beitragen sollen. Einige Gerichtsurteile, bei denen Firmen für unzureichende Sicherheitsvorkehrungen zur Rechenschaft gezogen wurden – Shell wurde für die auf Brent Bravo erstickten Mitarbeiter zu einer Strafe von 900.000 GBP verurteilt –, trugen zusätzlich dazu bei, Vorstände und Geschäftsführungen vom Konzept des »Organisationsverschuldens« und von auditierbaren Sicherheitsmanagementsystemen zu überzeugen. Die Herausforderung für die Zukunft liegt v. a. in 3 Bereichen:
14
Cox, 2005), identifizierte eine Reihe von Faktoren wie Deregulierung, Globalisierung und Kostendruck, aber auch die Kombination von alter und neuer Technologie, Generationenwechsel in der Belegschaft und Stilllegungen alter Anlagen sowie exzessive, ineffiziente und schwierige Vorschriften als Herausforderung für die Zukunft. Die meisten dieser Faktoren sind auch für andere Bereiche in der Prozessindustrie relevant. Für die Praxis bedeutet dies, dass zusätzliche Anstrengungen nötig sind, um allein den Status quo an Sicherheit zu erhalten. Sicherheitsmanagement motivierend und kompetenzförderlich gestalten
Gerade unter den genannten Bedingungen gilt es, das Sicherheitsmanagement motivierend und kompetenzförderlich zu gestalten, anstatt nur blinden Gehorsam und bürokratische Planerfüllung zu fordern. Zu den Ansätzen des kompetenten Umgangs mit Unsicherheit gehört das Konzept des »resilience engineering« (Hollnagel, Woods & Leveson, 2006), bei dem es darum geht, wie Menschen mit Komplexität und Stress erfolgreich umgehen können und ein vorausschauender, proaktiver Umgang mit Risiken und Ausfällen gefunden werden soll (7 Kap. 2.2). Der Ansatz bemüht sich um eine Systemperspektive, bei der Schwankungen und Störungen als normaler Bestandteil von Mensch-Maschine-Systemen angesehen werden und die Anpassungsfähigkeit und Flexibilität von Menschen als Stärke begriffen wird. Einen in vielem ähnlichen, wenn auch theoretisch anders begründeten Ansatz verfolgt Norros mit ihrer arbeitspsychologischen und ergonomischen Evaluation von Systemen in der Planungsphase, z. B. einem neuen finnischen Kernkraftwerk (Norros, 2004). Die Analyse bezieht den Aufforderungscharakter und die Begrenzungen der Situation sowie die gewohnheitsmäßigen Handlungen der Mitarbeiter und deren Motive mit ein (. Abb. 14.2). Als Organisation aus Fehlern lernen
Neue Anforderungen durch Veränderungen im sozioökonomischen Umfeld
Veränderungen im sozioökonomischen Umfeld stellen neue Anforderungen an Sicherheit. Eine europäische Arbeitsgruppe zur Atomenergie, »Learnsafe« (Wahlström, Kettunen, Wilpert, Maimer, Jung &
Die dritte Herausforderung besteht darin, als Organisation aus Fehlern zu lernen, ohne dass es erst wieder eine Katastrophe geben muss. Wilpert & Fahlbruch (2002) stellen fest, dass es bedeutend mehr Analysen von Störfällen gibt als Literatur zu erfolgreichen Interventionen – offenbar seien Ana-
242
Kapitel 14 · Lernen aus Störfällen und Präventionsansätze in der Prozessindustrie
. Abb. 14.2. Modell zur ganzheitlichen Arbeitsanalyse. (Nach Norros, 2004, S. 85)
14
lysen einfacher durchzuführen als Veränderungen in Organisationen zu bewirken. Zu den von ihnen angeführten Schwierigkeiten gehören unterschiedliche Rollen sowohl im Unternehmen zwischen HFSpezialisten und Ingenieuren als auch zwischen Betreiber und Behörden, wo mangelndes Vertrauen und Schutz der eigenen Position oft eine sinnvolle Zusammenarbeit erschweren. Auch die rationale Annahme, die Erkenntnisse aus Unfällen würden schon eine Veränderung einleiten, wenn sie allen bekannt gegeben werden, erwies sich als zu einfach. Wie auch im hier angeführten Beispiel der narkotisierenden Wirkung von Kohlenwasserstoffen muss die Information eingebunden werden in die täglichen Handlungsabläufe und dort als sinnvoll erkannt werden. Es bleibt also noch viel zu tun. Durch den voranschreitenden Kostendruck und die damit verbundenen Rationalisierungen und Arbeitsplatzabbau ist zu befürchten, dass Sicherheitsprävention auf das Allernotwendigste beschränkt bleibt. Die bisherigen Ansätze, die versuchen, den Menschen in den Mittelpunkt zu stellen, werden meist nur von einzelnen Personen vorangetrieben und sind selten vom Management unterstützt. Es gibt einzelne Initiativen, die versuchen, firmenübergreifende Ansätze zu Training und Sicherheitsmanagement voranzutreiben, wie z. B. »Step Change« in der Ölindustrie (http:// stepchangeinsafety.net). Auch in der Kommission für Anlagensicherheit, die das deutsche Bundesumweltministerium berät, wurde ein Arbeitskreis zu menschlichen Faktoren eingerichtet. Auf der jüngsten OECD-Konferenz zu Human Factors in der chemischen Industrie wurde festgehalten, dass analog zur Flugbranche Human-Factors-Trainings einge-
führt werden sollten, um ein allgemeines Bewusstsein und spezifische Kenntnisse wie Wissen über menschliche Fehler und Belastungsgrenzen oder Krisenmanagement zu vermitteln (Fahlbruch, Dubiel, Neumann & Raupach, 2007). Es bleibt zu hoffen, dass die bisherige Arbeit von Einzelnen in Zukunft eine breitere Unterstützung erfährt und damit auch in der chemischen und pharmazeutischen Industrie ein einheitlicher Ansatz zu Human Factors umgesetzt werden kann.
14.5
Zusammenfassung
Obwohl alle Aspekte von Human Factors in den Prozessindustrien hochgradig relevant sind, findet das Wissen um menschliche Fertigkeiten und Schwächen im Vergleich zu anderen Branchen immer noch unzureichend Beachtung. Im Alltag dominiert oft der Ruf nach mehr Produktivität, und den einzelnen Mitarbeiterinnen und Mitarbeitern wird nicht viel Kompetenz zugesprochen. Nach Ansicht der Autoren gibt es jedoch Möglichkeiten, seitens des Managements diese Situation zu verbessern. Dazu wurden in diesem Kapitel exemplarisch einige Aspekte anhand von Forschungsergebnissen und Beispielen erläutert: 4 Mitarbeiterinnen und Mitarbeiter können durch Schulungen ein besseres Prozessverständnis und angemessenes Risikobewusstsein entwickeln. 4 Führungskräfte sollten auf Krisensituationen und Interventionen am Arbeitsplatz vorbereitet werden. 4 Die regelmäßige Diagnose der Sicherheitskultur kann als »Frühwarnsystem« dienen.
243 14.6 · Literatur
Trotz des zunehmenden ökonomischen Drucks und der technischen Komplexität können Verantwortliche in ihrem Bereich einen motivierenden und kompetenzförderlichen Umgang mit Sicherheit fördern. Darüber hinaus wäre breitere, firmenübergreifende Zusammenarbeit zum Thema Human Factors und Sicherheit wünschenswert, um aus Zwischenfällen und von erfolgreichen Interventionen zu lernen.
14.6
Literatur
Bainbridge, L. (1983). Ironies of automation. Automatica, 19, 775–779. Cox, S. & Flin, R. (1998). Safety culture: Philosopher’s stone or man of straw? Work and Stress, 12 (3), 189–201. Crichton, M., Lauche, K. & Flin, R. (2005). Incident command skills in the management of an oil industry drilling incident: A case study. Journal of Contingencies and Crisis Management, 13 (3), 116–128. Crichton, M., Lauche, K. & Flin, R. (2008). Learning from experience: Incident management team leader training. In J. M. Schraagen (Ed.), Naturalistic Decision Making and Macrocognition. Aldershot: Ashgate. Croft-Bednarski, S. & Johnston, K. (1999). Britannia topsides; A low cost, safe and productive North Sea facility. Paper presented at the Offshore Technology Conference, Houston, Texas, 3.–6. May 1999. Cullen, T. H. L. (1990). The public inquiry into the Piper Alpha disaster. London: HMSO. Dörner, D., Kreuzig, H. W., Reither, F. & Stäudel, T. (1983). Lohhausen: Vom Umgang mit Unbestimmtheit und Komplexität. Bern: Huber. Endsley, M. R. (1995). Toward a theory of situation awareness in dynamic systems. Human Factors, 37, 85–104. Endsley, M. R., Bolté, B. & Jones, D. G. (2003). Designing for situation awareness. An approach to user-centered design. Boca Raton, FL: Taylor & Francis. Fahlbruch, B., Dubiel, J., Neumann, L. & Raupach, O. (2007). Discussion document for OECD-CCA Workshop on Human Factors in Chemical Accidents and Incidents, Potsdam 8–9 May 2007. Fleming, M.T. (2000). Safety culture maturity model (No. 2000/049 Offshore Technology Report). Edinburgh: Health & Safety Executive / The Keil Centre. Flin, R. (1996). Sitting in the hot seat: Leaders and teams for critical incidents. Chichester: Wiley. Flin, R., Mearns, K., O’Connor, P. & Bryden, R. (2000). Safety climate: Identifying the common features. Safety Science, 34, 177–192. Flin, R., Slaven, G. & Stewart, K. (1996). Emergency decision making in the offshore oil and gas industry. Human Factors, 38 (2), 262–277. Gordon, R., Flin, R. & Mearns, K. (2005). Designing and evaluating a human factors investigation tool (HFIT) to improve incident investigation. Safety Science, 43, 147–171.
14
Gordon, R., Flin, R., Mearns, K. & Fleming, M. T. (1996). Assessing the human factors causes of accidents in the offshore oil industry. Paper presented at the International Conference on Health, Safety and Environment of the Society of Petroleum Engineers, New Orleans, 9.–12. June 1996. Grote, G. & Künzler, C. (2000). Diagnosis of safety culture in safety management audits. Safety Science, 34, 131–150. Guldenmund, F. W. (2000). The nature of safety culture: A review of theory and research. Safety Science, 34, 215–257. Hollnagel, E., Woods, D. D. & Leveson, N. (Eds.) (2006). Resilience engineering. Concepts and precepts. Aldershot: Ashgate. Künzler, C. (2002). Kompetenzförderliche Sicherheitskultur. Ganzheitliche Gestaltung risikoreicher Arbeitssysteme. Zürich: vdf Hochschulverlag. Norros, L. (2004). Acting under uncertainty. The core-task analysis in ecological study of work. Helsinki: VTT Press. Parker, D., Lawrie, M. & Hudson, P. (2006). A framework of understanding the development of organisational safety culture. Safety Science, 44 (6), 551–562. Perrow, C. (1984). Normal accidents. Living with high-risk technologies. New York: Basic Books. Perrow, C. (1999). Normal accidents. Living with high-risk technologies (2nd edn.). Princeton, NJ: Princeton University Press. Pullwitt, T., Mearns, K., Schönherr, S. & Lauche, K. (2007). On manager and supervisor skills to perform safety interventions. Paper presented at the ESREL Safety and Reliability Conference, Stavanger, Norway, 25.–27. June 2007. Reason, J. (1987). Generic error-modelling system (GEMS): A cognitive framework for locating common human error forms. In J. Rasumssen, K. Duncan & J. Leplat (Eds.), New technology and human error (pp.63–83). Chichester, UK: John Wiley & Sons. Reason, J. (1997). Managing the risks of organizational accidents. Aldershot: Ashgate. Salvendy, G. (2006). Handbook of human factors (3rd edn.). New York: Wiley. Sneddon, A., Mearns, K. & Flin, R. (2006). Safety and situation awareness in offshore crews. Cognition, Technology & Work, 8, 255–267. Wahlström, B., Kettunen, J., Wilpert, B., Maimer, H., Jung, J., Cox, S. et al. (2005). LearnSafe. Learning organisations for nuclear safety (No. 2287). Espoo: VTT. Wilpert, B. & Fahlbruch, B. (Eds.) (2002). System safety. Challenges and pitfalls of Intervention. Amsterdam: Elsevier. Wilpert, B., Miller, R. & Fahlbruch, B. (1997). SOL: Sicherheit durch Organisationales Lernen. Ein neues Konzept für das Lernen aus Betriebserfahrung. Technische Überwachung, 38 (4), 40–43. Zohar, D. (1980). Safety climate in industrial organizations: Theoretical and applied implications. Journal of Applied Psychology, 65, 96–102. Zohar, D. & Luria, G. (2005). A multilevel model of safety climate: Cross-level relationships between organization and grouplevel climates. Journal of Applied Psychology, 90 (4), 616– 628.
15 Militär: Handeln in komplexen Problemlagen Markus Bresinsky, Frank Detje und Martin Littschwager
15.1 Einleitung
– 245
15.2 Der Soldat in neuen Konfliktszenarien – Kämpfer oder Bürger in Uniform? – 246 15.3 Human Factors – Von der Ergonomie zum Handeln in komplexen Problemlagen – 248 15.4 Human-Factors-Forschung im Bereich des Militärs 15.5 Zusammenfassung und Ausblick 15.6 Literatur
– 255
– 254
– 253
245 15.1 · Einleitung
15.1
15
Einleitung
Beispiel Interessante Human-Factors-Fallbeispiele aus dem Bereich der Streitkräfte sind oftmals klassifiziert und können daher nicht veröffentlicht werden. Zitierbare Fallbeispiele finden sich jedoch im jährlichen Bericht des Wehrbeauftragten der Bundeswehr, der damit einen guten Einstiegspunkt für Human-Factors-Themen in der Bundeswehr darstellt. So schreibt der Wehrbeauftragte (2007, S. 10) in seinem öffentlichen Bericht über das Jahr 2006 über die Veröffentlichung von Fotos, auf denen Bundeswehrsoldaten in Afghanistan mit Knochen und Totenschädel zu sehen sind: »Das Posieren mit menschlichen Skelettteilen ist mit der Werteordnung unseres Grundgesetzes nicht zu vereinbaren. […] So hat es in der öffentlichen Diskussion Stimmen gegeben, die darauf hingewiesen haben, bei der Bewertung der Vorgänge die besondere Situation des Einsatzes nicht aus dem Auge zu verlieren. […] Die Umstände sind bei der Bewertung persönlichen Fehlverhaltens zu berücksichtigen. Sie geben aber keinen Anlass, die Grundsätze der Inneren Führung unter Hinweis auf die Einsatzrealität zu relativieren oder grundsätzlich in Frage zu stellen. Bei der Aufstellung der Bundeswehr hat der Gesetzgeber den Primat der Politik, die parlamentarische Kontrolle und die Bindung der Streitkräfte an Recht und Gesetz festgeschrieben. Diese Entscheidung steht nicht zur Disposition. Darüber hinaus wurde mit
Human Factors im Militär ist ein als notwendig anerkanntes Thema und Problemfeld, da sich im militärischen Denken die Beschäftigung mit dem Menschen seit jeher um dessen effizienten und effektiven Einsatz im Konfliktfall dreht. Antike und mittelalterliche Sagen und Überlieferungen berichten zwar von dem heroischen Kämpfer und Krieger, der als tadelloser und moralisch gefestigter Mensch für den Sieg des Guten in den Krieg zieht und hierzu strengen Auswahl-, Ausbildungs- und Trainingsmethoden unterworfen wurde. Jedoch galt der Mensch in frühen Kriegen eher als Faktor, der durch Masse Wirksamkeit erlangte. Das Töten und Zerstören anderer
dem Leitbild vom Staatsbürger in Uniform ein neues Verständnis von militärischer Führung entwickelt, das auf den mitdenkenden, aus eigener Verantwortung und Überzeugung handelnden Soldaten setzt und Vorgesetzte zu zeitgemäßer Menschenführung verpflichtet. Dieses Konzept hat sich nicht nur bewährt, es ist aktueller denn je, denn die Erfahrung der jüngsten Vergangenheit zeigt, dass nur der mitdenkende, innerlich gefestigte und auf dem Boden des Rechtsstaats stehende Soldat in der Lage ist, den vielschichtigen Anforderungen internationaler Einsätze gerecht zu werden. Vor diesem Hintergrund muss der Frage nachgegangen werden, warum die in die Fotoaffäre verwickelten Soldaten diesem Anspruch nicht gerecht geworden sind. Welche jungen Männer und Frauen finden überhaupt den Weg in die Streitkräfte und nach welchen Kriterien werden sie ausgewählt? Welches Wertebewusstsein bringen sie mit? Wie können sie mit den Grundsätzen der Inneren Führung intensiver vertraut gemacht werden? Welche Defizite gibt es in diesem Bereich und wie können sie ausgeglichen werden? Kommen die Vorgesetzten ihrer Pflicht zur Fürsorge und Dienstaufsicht konsequent nach?« Diese Fragestellungen sind insbesondere im Kontext der Komplexität der Einsätze und der zunehmenden Fokussierung auf die Leistung einzelner Entscheidungsträger aus Human-Factors-Sicht zu analysieren.
Krieger, Heere und Staaten stand im Vordergrund der früheren Überlegungen. Die Kriegsführung hat sich über die Jahrhunderte hinweg grundlegend gewandelt und damit auch die Bedeutung des Menschen im Militär. War bis zum 19. Jahrhundert die Entwicklung der Kolonnentaktik der Standard und damit der massive Einsatz von Soldaten das Ziel jeder Schlacht, so wurde mit der Einführung des Zündnadelgewehrs und leistungsfähiger Artilleriegeschütze die Feuerkraft zum bestimmenden Element einer zunehmend von Mobilität geprägten Taktik. Mit der Entwicklung der Luftfahrt, motorisierter und gepanzerter Einheiten wurden Ge-
246
Kapitel 15 · Militär: Handeln in komplexen Problemlagen
schwindigkeit und Manöver noch entscheidender und in Taktikkonzepten detailliert ausgearbeitet. Parallel zu diesen Entwicklungen begann sich aber auch eine Art von Kriegsführung zu entwickeln, die den technologisch überlegenen Gegner durch Taktiken der Guerilla und des Terrorismus zu besiegen versuchte. Grundsätzlich hat sich über alle Entwicklungen hinweg gesehen die Bedeutung des menschlichen Faktors auf den unterschiedlichen militärischen Führungsebenen gewandelt und die strategischen und taktischen Überlegungen zunehmend beeinflusst. Grundlegend für diese Entwicklung waren Erkenntnisse aus den Natur- und Geisteswissenschaften, die das Menschenbild und das Wissen über den Menschen prägten und im militärischen Denken verankert wurden. Dies zeigt sich z. B. an der Entwicklung vom einfachen Kämpfer und Söldner über die »Auftragstaktik« hin zum Soldaten als Bürger oder Bürgerin in Uniform. Deutlicher noch wird dies bei der Einbettung des Menschen in technisch stetig komplexer werdende Waffentechnologien. Über die gesamte Spannbreite militärischen Handelns, von der Aufklärung, der Entscheidung und Führung bis hin zum Einsatz von Waffen bildet der Mensch immer einen bestimmenden Faktor.
15
! Die zentrale Bedeutung des Menschen erfährt gegenwärtig neue Aufmerksamkeit, da militärische Streitkräfte zunehmend in Friedensmissionen eingesetzt werden und dort überwiegend Maßnahmen des zivilen Wiederaufbaus sowie der Sicherheitsvorsorge leisten. In derartigen Szenarien kommt dem militärisch Handelnden eine wichtige Schlüsselrolle zu, da nicht der physische Kampf, sondern das Überzeugen und Unterstützen im Vordergrund steht. Derartige Aufgaben werden nicht mit der Waffe in der Hand, sondern durch das Lösen komplexer Probleme in kritischen Situationen gemeistert.
Begleitet wird dieser militärpolitische Wandel durch eine Innovationswelle im Bereich der Informationsund Kommunikationstechnologien, die das Denken, Planen, Entscheiden und Handeln im zivilen und unternehmerischen Bereich grundlegend verändert hat. Diese Entwicklungen werden nun auch vom Militär aufgenommen und führen dazu, dass sich das militärische Denken in den klassischen Dimensio-
nen von Raum, Kräfte und Zeit um den Faktor Information erweitert. Beide Entwicklungen – die neuen sicherheitspolitischen Herausforderungen sowie die technologischen Entwicklungen im Bereich der Informationsund Kommunikationstechnologien – wurden mit Beginn des 21. Jahrhunderts militärpolitisch durch den Prozess der Transformation der Streitkräfte aufgenommen. Ziel dieses Transformationsprozesses ist es, das Militär kontinuierlich an die neuen sicherheitspolitischen Aufgaben und technologischen Entwicklungen anzupassen (Bundesminister der Verteidigung, 2003). Vorgedacht wurde dieser Ansatz von dem US Department of Defense, das mit dem Office of Force Transformation für die Umsetzung der Transformation sogar eine eigene Institution geschaffen hat. Auch die Bundeswehr ist diesem Weg gefolgt und hat zum einen die grundlegenden Dokumente sowie Konzeptionen neu verfasst und zum anderen mit dem Zentrum für Transformation der Bundeswehr eine institutionelle Verankerung geschaffen (Generalinspekteur der Bundeswehr, 2004). Für die folgenden Betrachtungen der Human Factors im militärischen Bereich wird daher der Mensch in unterschiedlichen Handlungskontexten dargestellt und die Bedeutung der Human Factors diesbezüglich untersucht. Zu den Kontexten gehört zum einen der Mensch als Soldat und Führer im Einsatz in modernen Konfliktszenarien, zum anderen der Mensch als Element einer komplexen und technologisch komplizierten Handlungskette im militärischen Prozess aus Aufklärung, Führung und Wirkung – letztlich der Mensch als Meinungsträger und Meinungsbilder im sicherheitspolitischen Kontext.
15.2
Der Soldat in neuen Konfliktszenarien – Kämpfer oder Bürger in Uniform?
Im April 2007 befanden sich rund 8000 Soldatinnen und Soldaten der Deutschen Bundeswehr auf 3 Kontinenten (Europa, Asien und Afrika) in 8 Einsätzen (EUFOR, KFOR, UNOMIG, UNIFIL, ISAF, UNMIS, UNMEE, OEF; vgl. http://www.einsatz.bundeswehr. de). Diese Politik einer Armee im Einsatz war vor dem Zusammenbruch des Ostblocks noch undenkbar, hat sich jedoch mit den politischen Ereignissen
247 15.2 · Der Soldat in neuen Konfliktszenarien – Kämpfer oder Bürger in Uniform?
innerhalb eines Jahrzehnts dramatisch gewandelt. Beginnend mit den Einsätzen in Somalia, Bosnien Herzegowina und schließlich mit dem Engagement im Kosovo zeigte sich deutlich der politische Wille, schrittweise deutsche Soldaten intensiver und umfangreicher in internationale Friedensmissionen einzubinden. Mit den terroristischen Anschlägen vom 11.09.2001 und dem darauffolgenden Einsatz in Afghanistan erreichte diese Entwicklung einen weiteren Höhepunkt. Das größte Problem dieser Entwicklung war die sich stetig vergrößernde Fähigkeitslücke, die sich aus der nicht angepassten Ausbildung und Ausrüstung der Soldaten ergab. Konnten die USA, Frankreich und Großbritannien seit dem 2. Weltkrieg auf unterschiedliche Erfahrungen im Umgang mit fremden Kulturen, Guerilla und Terror gegen Zivilbevölkerung in Einsatzländern wie z. B. Indochina, Vietnam, Algerien und Malaya verweisen, wurde die deutsche Bundeswehr vor bis dahin unbekannte Herausforderungen gestellt. Das Selbstverständnis einer Verteidigungsarmee musste sich langsam zum Konzept einer Einsatzarmee wandeln. Die Verteidigung eines Bündnisgebietes und der damit im Ernstfall verbundene Kampf gegen eine konventionell wie nuklear hochgerüstete Armee hatten andere Notwendigkeiten. Die neuen Einsätze benötigen keine großen Panzerdivisionen und umfangreiche Feuerkraft für die Abnutzung und Zerschlagung eines ebenbürtig gerüsteten Gegners. Die neuen Gegner sind Milizen, marodierende Banden oder Terroristen – sog. irreguläre Kräfte. Die damit einhergehenden Herausforderungen beziehen sich auf das Handeln in einem kulturell und politisch sensiblen wie andersartigen Umfeld. Die Versorgung von Vertriebenen, der Schutz von durch ethnische Verfolgung bedrohten Menschen, der Wiederaufbau und die Sicherstellung öffentlicher Ordnung sowie Ruhe sind Aufgaben, die sich nicht allein mit Panzern, Artillerie und Luftwaffe lösen lassen. Durch die Globalisierung der Medien wird die Öffentlichkeit umfassend und zeitnah informiert mit der Folge, dass die Entscheidung eines einzelnen Soldaten oder Führers innerhalb kurzer Zeit weltweite Bedeutung erlangen kann. Dieser Herausforderung müssen sich Einsatzkräfte und Führer zunehmend stellen. Handlungen und Entscheidungen sind sichtbarer und werden entsprechend der medi-
15
alen Verwertbarkeit global verbreitet. Doch dass die Wahrheit das erste Opfer des Krieges ist, diese Aussage hat auch in einer von Medien bestimmten Welt nicht an Gültigkeit eingebüßt. Aus dieser Entwicklung folgt für die Soldaten und die Offiziere, sich zum einen stärker mit den Fern- und Nebenwirkungen des eigenen Handelns auseinanderzusetzen und zum anderen sich dem Thema der Medien umfassender zu widmen. Der Versuch, über eingebettete Journalisten (»embedded journalists«) und eigene Informationsoperationen dem Problem nicht nur Herr zu werden, sondern es im Gegenteil sogar für die eigenen Zwecke besser einsetzen zu können, führte nur teilweise zum Erfolg. Die zur Problembewältigung notwendige und wichtigere Ausbildung in dem Bereich interkultureller Handlungskompetenz gehört jedoch bis heute zu den Herausforderungen für alle Streitkräfte. Das Spektrum der neuen Konflikte und die Erfahrungen aus den aktuellen Einsätzen hat erneut zu Diskussionen geführt, welcher Typ Soldat in Zukunft für das Militär gebraucht wird. Die deutsche Vorstellung eines Bürgers in Uniform, der sein Land verteidigt, sieht sich aufgrund der Entwicklung der Bundeswehr zu einer Einsatzarmee grundlegender Kritik ausgesetzt. Andere Meinungen sprechen in diesem Zusammenhang von der Notwendigkeit eines spezialisierten Kämpfers, der sich seiner moralischen und ethischen Werte bewusst ist und trotz der Komplexität moderner Konfliktlagen stets adäquat und handlungssicher zu agieren vermag. ! Die Vorstellung eines Soldaten, der zivilen Wiederaufbau leistet, Flüchtlinge versorgt und im nächsten Moment mit der Waffe in der Hand gegen Aufständische vorgeht, stellt das Einsatzpersonal vor eine widersprüchliche Rollenvielfalt und eine teilweise inkonsistente Aufgabenvielfalt. Die daraus resultierende Unsicherheit kann somit leicht zur Überforderung des Soldaten führen und damit eher neue Fehlerquellen schaffen, als zur Beseitigung existierender beitragen.
So lässt sich das Handeln der »Totenkopf-Schänder« vielleicht am ehesten mit einem komplizierten Konglomerat verschiedener Motivlagen in diesem Spannungsfeld von unterschiedlichen Anforderungen erklären, darunter:
248
Kapitel 15 · Militär: Handeln in komplexen Problemlagen
4 Wunsch nach individuellen Erinnerungen innerhalb einer medialen Globalisierung 4 Marginalisierung der eigenen Taten angesichts der Brutalität der vorausgegangenen Erlebnisse 4 Verzerrung der nationalen rechtlichen Grundlagen im entfernten Einsatzland 4 Körperliche und psychische Stressfaktoren durch die Aufgabenwahrnehmung im Einsatz 4 Mangelnde Kompetenzsignale im eigentlich klassischen Tätigkeitsfeld (Kampfführung) 4 Unbestimmtheit in der Zielsetzung und Zeitdauer des nationalen Auftrags 4 Unbestimmtheit hinsichtlich des Gefahrenpotenzials und der Lageentwicklung vor Ort
15.3
Human Factors – Von der Ergonomie zum Handeln in komplexen Problemlagen
»Der Krieg ist der Vater aller Dinge!« (Heraklit um 500 v. Chr.) – dieser Satz gilt auch für die Einführung der Human-Factors-Analyse, die durch die Notwendigkeiten der Rüstungs- und Verteidigungs-
strategien nachhaltig beeinflusst wurde (s. Exkurs). Das Militär als exekutives Element einer Staatsmacht setzt im traditionellen Verständnis militärische Kräfte (Menschen, Waffen und andere Ressourcen) in einem gegebenen Raum (Einsatzgebiet) über einen zeitlichen Kontext so ein, dass die durch die strategische Entscheidungsebene (Politik und Militärführung) definierten Ziele erreicht werden. Dies ist allgemein gesprochen ein Priorisierungs- und Allokationsproblem über die genannten Faktoren. Insbesondere die Optimierung des Faktors »Kräfte« führte zur Entwicklung der Human-Factors-Analyse. Dabei handelte es sich zuerst um den Ansatz, den Menschen als Bediener technischer Systeme v. a. aus ergonomischer Sicht besser zu verstehen. Mit der Zeit wurde das Erkenntnisinteresse erweitert und der Mensch als Teil eines kybernetischen Systems begriffen, d. h., es wurde nicht nur die Ausbildung stetig an die Bedienung und Randbedingungen (neuer) Waffensysteme und anderer Technologien angepasst, sondern das Gesamtsystem Mensch–Technik–Organisation–Prozesse zu optimieren versucht.
Exkurs – Human Factors als Produkt des Militärs
15
Human-Factors- (HF-)Analysen gehören seit rund 100 Jahren zu den Kernthemen der militärischen Forschung (7 Kap. 1). Die Anfänge der HF-Arbeiten liegen nach Hunter (1997), Christensen (1958) oder Driskell (1989) im 1. Weltkrieg, wobei in dieser Zeit Methoden zur Auswahl und zum Training geeigneter Soldaten im Vordergrund der HF-Analysen standen (s. dazu auch Yerkes, 1918, 1919). Durch psychologische Auswahlverfahren sollten Soldaten rekrutiert werden, die sich schnell und problemlos in ihr Aufgabengebiet einfinden konnten. Außerdem sollte deren Lernphase durch verbesserte Trainingsmethoden beschleunigt und optimiert werden. Die U.S. Armee beauftragte im Jahr 1917 Psychologen (darunter bekannte Namen wie Thorndike, Woodworth, Watson oder Thurstone), um zu diesem Zweck Tests und Trainingsmethoden zu erstellen, wobei dieser Auftrag jedoch nach 1918 endete (Hunter, 1997). 6
In Frankreich, England und Italien wurde nach dem 1. Weltkrieg wissenschaftliche Forschung auf Gebieten wie Emotion und Wille, aber auch zu physiologischen Reaktionen während des Fliegens betrieben. Die Auswahlverfahren für Piloten sollten verbessert werden, da während des Krieges offensichtlich wurde, dass viele Verluste nicht auf Fehler der Technik, sondern auf sog. menschliches Versagen zurückzuführen waren. Angesichts der Erfahrungen aus dem 1. Weltkrieg und den Entwicklungen im Vorfeld des 2. Weltkriegs forcierte die AAAP (American Association of Applied Psychology) die Einbindung der angewandten Psychologie in die Forschungs- und Entwicklungsbereiche des US Rüstungs- und Verteidigungssektors. Hauptaugenmerk lag hier zunächst auf der Luftfahrt. In England wurden zur selben Zeit an der Abteilung für angewandte Psychologie der Universität von Cambridge die ersten HF-Experimente zur
249 15.3 · Human Factors – Von der Ergonomie zum Handeln in komplexen Problemlagen
Verbesserung von Ausrüstungsdesigns durchgeführt (Kraft, 1961; Christensen, 1958; Roscoe, 1997). Während des Krieges wurden diese Anstrengungen allerseits forciert und auch auf Fragestellungen der Marine und des Heeres ausgeweitet. Errungenschaften dieser Forschungen sind bis heute als Standard akzeptiert, z. B. die rote Nachtbeleuchtung in Führungszentralen und Gefechtsständen, die die Dunkeladaptation nicht stören.
Human Factors – Erweiterung des Bedeutungsgehalts Human-Factors-Forschung hat in der heutigen Anwendung für das Militär eine Erweiterung ihres Bedeutungsgehalts erfahren. Human Factors und Human-Factors-Analysen beinhalten mittlerweile die umfassende human- und sozialwissenschaftliche Betrachtung und Analyse des Führens, Entscheidens und Handelns in einem soziotechnischen System inklusive entsprechender Auswahl- und Ausbildungsmethoden. Mehrere Gründe sprechen für diese Erweiterung. Jedes Entscheiden, Handeln und Kommunizieren wird in diesen Systemen durch die verfügbare Technik ermöglicht, beeinflusst und verändert. Der Mensch als Akteur sieht sich dabei nicht nur der Bediener- und Nutzerproblematik (7 Kap. 19) ausgesetzt, sondern erweitert auch seinen Handlungsspielraum und damit die Komplexität seiner Interaktionsmöglichkeiten mit den Systemen im System und den daran teilhabenden oder davon betroffenen Menschen, Teams und Organisationseinheiten. Aktuell können im Militärbereich 3 wichtige Human-Factors-Themenfelder unterschieden werden: 1. Human Factors im Informationszeitalter 2. Human Factors im militärischen Einsatz 3. Human Factors in der militärischen Transformation Human Factors im Informationszeitalter beschäftigen sich in der Hauptsache mit den Rand- und Rahmenbedingungen moderner Operationsführung, die durch die modernen Informations- und Kommunikationstechnologien neue Prozesse und Verfahren erlauben, die sog. vernetzte Operations-
15
Nach dem Krieg wurden Programme zur psychologischen HF-Forschung v. a. auf die zivile Luftfahrt ausgeweitet, welche zu Beginn von der US Armee finanziert wurden. Bis in die 1970er Jahre war das Gebiet der Human Factors durch das Militär, die Luftfahrt und die Seefahrt dominiert. Kommerzielle Unternehmen interessierten sich noch wenig für HFForschung.
führung. Ziel der vernetzten Operationsführung ist die Schaffung eines Verbundes von Führungs-, Aufklärungs- und Wirksystemen mit den entsprechenden Auswirkungen auf Prozesse und Organisationsstrukturen. Das Thema Human Factors im militärischen Einsatz befasst sich insbesondere mit dem Entscheiden und Handeln in hoch komplexen, risikoreichen und unbestimmten Situationen. Human Factors in der militärischen Transformation beziehen sich auf Prozesse der Veränderung, Anpassung, aber auch Beharrungstendenzen von Menschen und Organisationsformen in einem System, das sich ständig an veränderte gesellschaftliche, sicherheits- und verteidigungspolitische sowie technische Rahmenbedingungen anpassen muss. Der für die militärische Zielerreichung notwendige Kräfte-, Raum- und Zeiteinsatz kann als komplexes Problemlösen verstanden werden, da sowohl Dynamik als auch Unbestimmtheit das Anwendungsgebiet kennzeichnen. Für den Prozess der Problemlösung hat sich daher im Laufe der militärhistorischen Entwicklung ein Führungsprozess etabliert, der beginnend mit der Aufklärung die notwendigen Informationen über die Lage zusammenträgt und eine Lagebewertung herstellt (Lagefeststellung). Aus dieser Informationsbasis werden Handlungsoptionen und Pläne entwickelt (Planung), die der Führung zur Entscheidung vorgelegt werden. Aus der Entschlussfassung folgt der Einsatz der Kräfte nach Maßgabe der Operationspläne, um die intendierte Wirkung zu erzielen (Befehlsgebung). Eine Effektkontrolle schließt den Kreis (Kontrolle). Dieser Prozess wird zyklisch durchlaufen und ist in einem hohen Maße durch Verfahren und Vorschriften standardisiert. In der Mitte der Abbildung (. Abb. 15.1)
250
Kapitel 15 · Militär: Handeln in komplexen Problemlagen
. Abb. 15.1. Stationen der Handlungsorganisation (nach Dörner, 1989) und militärische Führungsprozesse
15
ist das amerikanische Pendant des Führungsprozesses (das sog. OODA-Loop) eingezeichnet. Es wird ersichtlich, dass die Stationen der Handlungsorganisation nach Dörner (1989) (7 Kap. 5 und 6) den militärischen Führungsprozessen recht ähnlich sind, dabei aber wesentlich differenzierter die Problemlöseprozesse abbilden. Ein wesentliches Element für die Effektivität des militärischen Führungsprozesses ist die Bereitstellung aktueller, umfangreicher, konsistenter und widerspruchsfreier Informationen, die durch die Aufklärung gewonnen und in der Führung verarbeitet werden. Innovationen im Bereich der Informationsund Kommunikationstechnologien haben dazu geführt, dass nicht nur die Quellen der Aufklärung wie z. B. technische Sensoren in Bezug auf Qualität und Zuverlässigkeit verbessert wurden, sondern dass sich neue Formen der Zusammenarbeit und der Kommunikation innerhalb der Führung entwickelt haben. Das Internet als eine auf militärischer Forschung basierende Basistechnologie wirkt sich mittlerweile nachhaltig auch auf den militärischen Führungsprozess selbst aus.
Human Factors – Bedeutung der Methodologie Die neuen Konfliktszenarien lassen Informationen nicht nur für die Lagebewertung und Entschlussfassung wichtig werden, sondern auch als Wirkmittel, um den Einsatz von militärischer Gewalt durch die Beeinflussung von Entscheidungsträgern und meinungsbildenden Öffentlichkeit möglichst im Vorfeld noch zu vermeiden (sog. Informationsoperationen). Den Streitkräften stellte sich jedoch das Problem, mit ihren gewohnten Führungsverfahren und Einsatzkonzeptionen dieser neuen Bedeutung von Information nicht gerecht werden zu können. Das U.S. Department of Defense (2003) hat daher begonnen, einen umfassenden Transformationsprozess zu implementieren, der mittels Concept Development and Experimentation (CD&E; Konzeptentwicklung und dessen experimentelle Erprobung) auch mit einem methodologischen Rüstzeug ausgestattet werden soll.
251 15.3 · Human Factors – Von der Ergonomie zum Handeln in komplexen Problemlagen
15
Exkurs – Concept Development and Experimentation (CD&E) Technischen und nichttechnischen Analyseprozessen dient u. a. das Tool Concept Development and Experimentation (CD&E). Ziel hierbei ist die experimentelle Erprobung neuer oder bestehender Konzepte (Ideen), Strukturen und Prozesse im Rahmen unterschiedlich skalierter Versuchsanordnungen mithilfe einer großen Bandbreite unterschiedlicher Methoden. Realexperimente im Sinne von Planübungen oder Demonstratoren spielen dabei eine entscheidende Rolle. Sie werden in der Praxis, wo nötig und möglich, durch wissenschaftlich fundierte Simulation unterstützt. Das Wesensmerkmal von CD&E-Experimenten liegt nicht in der fachlichen Beurteilung der Teilnehmenden, sodass auch das Risiko gegeben, ja sogar erwünscht ist, anhand neuer Szenarien neue Verhaltensmuster und neuartige Praktiken einzuüben. Die von Human-Factors-Analysten ausgewerteten Daten, die während eines CD&E-Vorhabens gesammelt werden, dienen zu jedem Zeitpunkt einer detaillierten handlungsleitenden Empfehlung. Das bedeutet, dass die von HumanFactors-Analysten gezogenen Schlüsse im Bereich der Ausbildung und Einsatzplanung entsprechend berücksichtigt werden. In der Bundeswehr gibt es eine Vielzahl von CD&E-Initiativen und -Vorhaben. Ein bedeutendes Programm in dieser Reihe stellt die ExperimentSerie COMMON ENHANCEMENT dar. Dieses Programm setzt sich mit dem bislang durchgeführten Experimenten COMMON ARRANGEMENT und COMMON UMBRELLA (CU) zum Ziel, bis zum Jahre 2010 die Fähigkeit der Bundeswehr zur Erstellung
Innerhalb des Transformationsprozesses wird die besondere Bedeutung des Menschen in dem System Militär ausdrücklich anerkannt. So wird die gleichrangige Bedeutung der physikalischen, kognitiven und sozialen Domäne sowie der Informationsdomäne postuliert (. Abb. 15.2). Durch die technische Vernetzung auf der Basis neuer Technologien sollen sich sowohl die Verfahren der Führung und Zusammenarbeit als auch die Organisation in Aufbau und Ablauf grundlegend verändern. Das Ziel ist die konsequente Nutzung der
eines »Gemeinsamen rollenbasierten EinsatzLagebildes« (GREL) im Rahmen der vernetzten Operationsführung unter Beweis zu stellen. Die experimentelle Unterstützung und Begleitung soll dabei helfen, konkrete Fähigkeitslücken der Bundeswehr in diesem Bereich zu identifizieren und zu schließen. Der CD&E-Prozess unterscheidet sich dabei grundlegend von früheren Verbesserungsprogrammen der Bundeswehr. Die sog. BundeswehrReformen hatten jeweils ein definiertes Endziel, spezifizierte Meilensteine und einen festen Zeitrahmen (der jedoch selten eingehalten wurde). Die Reformen waren zumeist plattformzentriert, d. h., es handelte sich überwiegend um gezielte Beschaffungsvorhaben von Sensoren, Führungsunterstützung oder Effektoren in einem Zeithorizont von 10 bis 30 Jahren. Ganz im Sinne des Transformationsprozesses als kontinuierliche Anpassung an sich stetig verändernde Rahmenbedingungen und der geringer werdenden Finanzmittel im Haushalt kann eine solche Reform-Philosophie nicht mehr zielführend sein. Zudem ist die Eigenschaft der Multinationalen Zusammenarbeit deutscher Streitkräfte an die Notwendigkeit der Interoperabilität (technisch, prozessual und organisatorisch) gekoppelt. Das heißt, das System Bundeswehr muss sich als Ganzes ändern, und dies möglichst zügig. Wegweisende Entwicklungen sollten schnell aufgegriffen und wenig aussichtsreiche Entwicklungen sollten möglichst schnell ausgeschlossen werden. Hierin wird die Kernaufgabe der Methode CD&E gesehen.
. Abb. 15.2. 4-Domänen-Modell
252
Kapitel 15 · Militär: Handeln in komplexen Problemlagen
Information mit der Absicht der Schaffung von Mehrwerten im Wissen der beteiligten Menschen, aus dem sich dann ein Wirkungsvorteil ergeben soll. Die deutsche Verteidigungspolitik hat mit der Formulierung und Implementierung der Konzeption der Bundeswehr einen vergleichbaren Weg eingeschlagen. Dort wird ausdrücklich der Mensch in den Mittelpunkt aller Transformationsbemühungen gestellt und seine Verankerung in der vernetzten Operationsführung als Ziel bis 2010 definiert. Auch in Deutschland soll mit der Methode der Konzeptentwicklung und experimentellen Erprobung ein methodisch abgesicherter Prozess in Gang gesetzt werden. Auf diesem Weg stellte sich jedoch bereits nach den ersten Experimenten heraus, dass die technologische Vernetzung sicherlich eine notwendige, aber keine hinreichende Bedingung für die Verbesserung von Aufklärung, Führung und Wirkung darstellt. Notwendig ist neben der Schaffung der technologischen Grundvoraussetzungen eine gleichzeitige Betrachtung des Menschen innerhalb dieses komplexen Systems. Dies erfordert eine Erweiterung der klassischen Human-Factors-Analysen über die ausschließlich ergonomischen Fragestellungen hinaus. So stellen sich Fragen, die nur durch einen interdisziplinären Ansatz beantwortet werden können: 4 Welches sind die Rahmen- und Randbedingungen einer komplexen kritischen militärischen Situation in den modernen Konfliktszenarien?
. Abb. 15.3. Analyse-Vorgehen bei CD&E-Vorhaben am Beispiel Common Umbrella (CU)
15
4 Welche kritischen Elemente zeichnen eine derartige Situation aus? 4 Welche Informationen können über diese Situationen mit den gegenwärtigen Mitteln gewonnen werden? 4 Wie werden diese Informationen zur Verfügung gestellt, wahrgenommen und verarbeitet? 4 Über welche Prozesse und Verfahren der Zusammenarbeit werden diese Informationen in Führungsstäben ausgewertet? 4 Wann und wie finden welche Planungsprozesse statt? 4 Wie werden die Entscheidungen kommuniziert und die Effekte einer Handlung kontrolliert? 4 Wie sehen Anpassungsprozesse aus? Alle diese Fragen sind mittlerweile Gegenstand von Human-Factors-Analysen geworden. Die HumanFactors-Analyse nutzt dabei ein breites Spektrum an unterschiedlichen sozialwissenschaftlichen Fachwissenschaften und Methoden. Die verschiedenen Disziplinen der Psychologie, Politikwissenschaft, Ergonomie bis hin zu den Ingenieurwissenschaften finden ihre Anwendung in den Analysen. Diese werden mittels Dokumentenanalysen, Fragebogen, Experteninterviews, Videoaufnahmen und nichtteilnehmender Beobachtungen im Sinne der klassischen Feldforschung methodisch unterstützt (. Abb. 15.3).
253 15.4 · Human-Factors-Forschung im Bereich des Militärs
15.4
Human-Factors-Forschung im Bereich des Militärs
Die Human-Factors-Forschung basiert auf den empirischen Sozialwissenschaften. Hier stellt sich zum einen die Frage nach der handlungspraktischen Verantwortung und zum anderen nach der Weiterentwicklung der Analyse. Mit der Loslösung von den rein ergonomischen Fragestellungen und der Hinwendung zu umfassenden Arbeitsplatz-, Handlungs-, Organisations-, Kommunikations- und Interaktionsanalysen hat die Human-Factors-Forschung wesentlich dazu beigetragen, das Militär als ganzheitliches System zu begreifen. Im Sinne der Forschungsarbeiten zum komplexen Problemlösen in kritischen Situationen (BadkeSchaub & Frankenberger, 2003) hat die Human-Factors-Forschung den Zugang zur Analyse auf die Ursachen von systemischen Fehlerprozessen in militärischen Führungsprozessen ermöglicht. Die Aufgaben der Streitkräfte lassen sich am besten mit einer Erweiterung der klassischen Charakteristika des komplexen Problemlösens beschreiben: Komplexität, Eigendynamik, Bedrohung, Zielpluralität, Unbestimmtheit, Irreversibilität, interkulturelles Umfeld und Deprivation. Sie finden sich wieder auf allen Betrachtungsebenen: Individuum, Gruppe/Team, Organisation. Der Mensch wird dabei multidimensional verstanden (. Abb. 15.4). . Abb. 15.4. Human-Factors-Aspekte
15
Deshalb ist es (auch) für das Militär nötig, ein umfassendes Begriffsverständnis von Human Factors zugrunde zu legen. Eine Eingrenzung auf Teilaspekte wie kognitive Ergonomie greift zu kurz. Deshalb hat der Begriff eine Erweiterung erfahren, die folgende Themenbereiche betreffen: 1. Belastung und Stress vor, während und nach dem Einsatz (siehe z. B. Publikationen des Zentrums für Innere Führung, ZInFü, http://www. innerefuehrung.bundeswehr.de) 2. Belastung und Beanspruchung durch die Ausrüstung, die Ausstattung und das Material (z. B. Flugpsychologie) 3. Anforderungen an die Qualität des Führungspersonals und damit verbunden die Steigerung von Vertrauen in das Führungspersonal (teilweise erforscht vom Sozialwissenschaftlichen Institut der Bundeswehr, SoWiBw, http://www.sowi. bundeswehr.de) 4. Kognitive Ergonomie der Nutzung und Bedienung von technischen Systemen 5. Interaktions- und Kommunikationsprozessanalysen in Führungseinrichtungen, v. a. bei geteilten Gefechtsständen durch die Nutzung moderner Informations- und Kommunikationsmedien (z. B. Computer Mediated Communication, CMC) 6. Stimmigkeit von Führungsprozessen, Führungsverfahren, Führungsorganisation und individueller Führungsleistung
254
Kapitel 15 · Militär: Handeln in komplexen Problemlagen
7. Personalauswahl, -beurteilung und -entwicklung 8. Organisationsentwicklung, Optimierung von Organisationsprozessen 9. Veränderungsprozesse durch die notwendige Anpassung an ein sich veränderndes Umfeld (Transformation) 10. Methodisches Rüstzeug bei Übungen und Experimenten, insbesondere bei Analysen im Rahmen von Einsatzvorbereitung, CD&E und NetOpFü 11. Wechselwirkungen der Elemente von DIME (»diplomacy«, »infrastructure«, »military«, »economy«) oder PMESII (»policy«, »military«, »economy«, »social«, »infrastructure«, »information«) 12. Planungsprozesse bei effektbasierten Operationen (Effect-Based Approach to Operations, EBAO)
15
Eine derartige Erweiterung des Begriffsfeldes birgt natürlich die Gefahr einer Überfrachtung. Daher gilt es insbesondere, die charakteristischen Restriktionen des Militärs zu berücksichtigen. Hierzu zählen die hierarchisch und bürokratisch organisierte Aufbau- und Ablauforganisation, die politischen Vorgaben, wie sie z. B. für die Bundeswehr als Parlamentsarmee von zentraler Bedeutung sind, und natürlich die mikropolitischen Vorgänge in einer Großinstitution mit besonderer Tradition und Geschichte. Der Wandel von einer Verteidigungsarmee hin zu einer Einsatzarmee verlangt darüber hinaus eine strikte Ausrichtung der Ergebnisse auf die Einsatzbedingungen. Die Multinationalität und Internationalität der Einsätze erlauben keine Analyse vom grünen Tisch einer ministeriellen Institution, sondern bedürfen einer einsatznahen Begleitung und Beratung. Die neuen Einsatzbedingungen, gekoppelt mit der Einführung neuer Technologien, erfordern ein neues Denken in der Sicherheits- und Verteidigungspolitik. Für das Militär ergibt sich daraus zwangsläufig die Notwendigkeit, überkommene Denkmuster traditioneller Waffengattungen und Einsatzführung zu überwinden und sich als ein systemisches Element einer integrierten Sicherheitsund Verteidigungspolitik zu begreifen. Die ersten Schritte zur Erreichung dieser Vision wurden mit
dem Beginn der Transformation unternommen. Die erarbeiteten politischen Dokumente wie das Weißbuch der Sicherheits- und Verteidigungspolitik (Bundesministerium der Verteidigung, 2006) beschreiben die weiteren Schritte auf diesem Weg. Ohne die umfassende Einbeziehung der Human-Factors-Expertise werden jedoch weder mögliche Synergien noch drohende Friktionen im Prozess der Transformation der Bundeswehr erkannt, ja werden sogar oftmals übersehen. Damit schwindet aber auch die Einsicht, dass der Mensch im Mittelpunkt steht und damit gleichermaßen Träger und Adressat einer weitreichenden Neuausrichtung und Gestaltung der Bundeswehr ist.
15.5
Zusammenfassung und Ausblick
Fortschreitende Veränderungen im Aufgabenspektrum der Verteidigungs- und Sicherheitspolitik erfordern eine Umstrukturierung des Militärs und ein Umdenken bei den Streitkräften. Zentrale Veränderungen werden dabei sowohl durch veränderte Bedrohungsszenarien als auch aufgrund des Wandels in der Informations- und Kommunikationstechnik getrieben. Wesentlich, und noch erst in Anfängen anerkannt, muss dabei die ganze Bandbreite der Human Factors bei der Transformation der Bundeswehr Berücksichtigung finden. Es ist der Mensch, der dabei im Mittelpunkt steht oder doch zumindest stehen sollte. Konzeptionell müssen in nächster Zeit in der kognitiven und sozialen Domäne Fortschritte im Bereich der vernetzten Operationsführung gemacht werden, v. a. im Hinblick auf die Herstellung und Aufrechterhaltung eines gemeinsamen Lagebewusstseins und Lageverständnisses (»situational awareness«). Methodologisch müssen die sozial- und humanwissenschaftlichen Methoden in den Prozess CD&E verankert werden. Vor allem ist eine ganzheitliche Betrachtung des Systems Militär mit den Subsystemen Organisation, Prozess, Technik und Mensch – und hier v. a. der Mensch als Problemlöser – notwendig. Eine HumanFactors-Perspektive ist notwendiger integraler Bestandteil der anstehenden Veränderungsprozesse.
255 15.6 · Literatur
15.6
Literatur
Badke-Schaub, P. & Frankenberger, E. (2003). Management kritischer Situationen. Produktentwicklung erfolgreich gestalten. Berlin: Springer. Bundesminister der Verteidigung (2003). Verteidigungspolitische Richtlinien. http://www.bundeswehr.de [Zugriff am 24.01.2008]. Bundesministerium der Verteidigung (2006). Weißbuch zur Sicherheitspolitik Deutschlands und zur Zukunft der Bundeswehr. http://www.bmvg.de [Zugriff am 24.01.2008]. Christensen, J. M. (1958). Trends in human factors. Human Factors, 1, 2–7. Dörner, D. (1989). Die Logik des Mißlingens. Reinbek: Rowohlt. Driskell, J. E. (1989). Psychology and the military. American Psychologist, 44, 43–54. Generalinspekteur der Bundeswehr (2004). Grundzüge der Konzeption der Bundeswehr. http://www.bmvg.de. Hobbs, A. (2004). Human factors: the last frontier of aviation safety? The International Journal of Aviation Psychology, 14, 334–341.
15
Hunter, W. S. (1997). Psychology in the war. In J. M. Notterman (Ed.), The evolution of psychology – Fifty years of the American Psychologist (pp. 269–291). Washington, DC: American Psychological Association. Kraft, J. A. (1961). Compilation and brief history of human factors research in business and industry. Human Factors, 3, 253–283. Roscoe, S. N. (1997). The adolescence of engineering psychology. Human Factors History Monograph Series, 1, 1–9. U.S. Department of Defense (2003). Transformation planning guidance. http://www.oft.osd.mil/library/library.cfm? libcol=6 [Zugriff am 24.01.2008]. Wehrbeauftragter des Deutschen Bundestages (2007). Jahresbericht 2006. Drucksache 16/4700 vom 20.03.2007. Yerkes, R. M. (1918). Psychology in relation to the war. The Psychological Review, 25, 85–115. Yerkes, R. M. (1919). Report of the psychology committee of the national research council. The Psychological Review, 26, 83–149.
16
Stabsarbeit und »Ständige Stäbe« bei der Polizei: Sicherheit durch Professionalisierung Uwe Thieme und Gesine Hofinger
16.1
Einleitung
– 257
16.1.1 16.1.2
Anforderungen an Polizeiarbeit: Sicherheit trotz komplexer Lagen Krisenstäbe und »Ständige Stäbe« – 258
16.2
Wie wirklich ist die Wirklichkeit in Stäben der Polizei? – 259
16.2.1 16.2.2 16.2.3 16.2.4
Entscheidungen aufgrund mittelbar gewonnener Information Selektive Information im Lageraum – 260 Gemeinsame mentale Modelle im Stab sicherstellen – 261 Eingeengte und unrealistische mentale Modelle – 263
16.3
Teamkommunikation im Stab – 264
16.3.1 16.3.2
Rahmenbedingungen – 264 Hindernisse für die Kommunikation im Stab
16.4
Fehlerprävention im Rahmen der Stabsarbeit: Planentscheidungen – 265
16.4.1 16.4.2 16.4.3
Planentscheidung: Beschreibung und Begründung – 265 Planentscheidungen und menschliches Denken – 267 Weiterentwicklung von Planentscheidungen – 268
16.5
Zusammenfassung
16.6
Literatur
– 269
– 268
– 265
– 258
– 259
257 16.1 · Einleitung
16.1
Einleitung
Ein Stab ist ein Beratungsgremium, das Entscheidungen eines Funktionsträgers vorbereitet und unterstützt. Stabsarbeit ist bei der Bewältigung komplexer Ereignisse durch staatliche Institutionen wie der Polizei ebenso wie in der Industrie zunehmend häufiger anzutreffen, sowohl auf taktisch-operativer wie auf strategischer Ebene. Der praktischen Relevanz steht der Mangel an Forschung gegenüber. Zur Einrichtung von Stabsräumen und zur Arbeitsweise von Stäben gibt es Vorschriften (in Deutschland für die Polizei: PDV 100) und Vorschläge (z. B. Davies 1999 zu »command center«), allerdings sind diese erfahrungsbasiert und nicht durch empirische Forschung gestützt. Trotz einer guten Literaturlage zu Entscheidungen in Zwischenfällen bzw. kritischen Situationen (z. B. Flin, 1996; Flin & Arbuthnot, 2002; Klein, 2003; Martin,
16
Flin & Skriver, 1997; Strohschneider, 2003) und zu Teams in komplexen Arbeitsbereichen (z. B. Orasanu & Salas, 1993; Flin, Salas, Strub & Martin, 1997) haben zivile Krisenstäbe erst vereinzelt Forschungsinteresse geweckt (Fink, 1986; von Prondzinsky, 1995; t’Haart, 2001), wobei Human Factors selten berücksichtigt werden (aber z. B. Horn & Strohschneider, 2005; Rasker & Schraagen, 1999; Starke, 2005). Polizeiliche Stabsarbeit weist Besonderheiten v. a. bei der Informationsverarbeitung oder auch Modellbildung auf, die sicheres Handeln fördern und beeinträchtigen können. Im Folgenden werden die Funktionsweise von (professionellen, eher strategischen) Stäben und die darin liegenden HumanFactors-Probleme anhand von Erfahrungen skizziert. Das folgende Beispiel illustriert die Rolle von Planentscheidungen, auf die in 7 Kap. 16.4 näher eingegangen wird.
Beispiel Seit dem Jahr 2000 war bekannt, dass Deutschland im Jahre 2006 Austragungsort der Fußball-Weltmeisterschaft sein würde. Nach dem Ende der Fußball-WM in Japan/Südkorea 2002 überlegte man mindestens in den Polizeibehörden, in deren Zuständigkeitsbereich Spiele ausgetragen werden sollten, auf welche Szenarien sie sich einstellen müssten, aber auch einstellen wollten. Zur Veranschaulichung dieses Prozesses wird hier ein bearbeitetes Szenario kursorisch dargestellt. Nicht nur in den 12 Spielstandorten, sondern in vielen Städten Deutschlands war für die WM etwas vorgesehen, wozu es in dieser Breite und dem vorgesehenen Ausmaß nur punktuell Erfahrungen gab, nämlich »public viewing«. Im Jahr 2004 waren viele Fragen noch nicht eindeutig beantwortbar. Zum Beispiel befindet sich in Dortmund unmittelbar neben dem vorgesehenen Platz für »public viewing«, der eine Kapazität von ca. 15.000 Menschen hat, eine große U-Bahn-Station. Diese spielte bei den Überlegungen von denkbaren Abläufen bei »public viewing« eine wichtige Rolle. Neben dem An- und Abtransport der Zuschauer stellte sich die Frage, welche Abläufe bei einem Szenario
wie z. B. sommerlichem Gewitter und den sich daraus entwickelnden Verhaltensweisen der großen Zahl von Zuschauern ergeben. In der Zusammenarbeit zwischen dem Betreiber der U-Bahn, der Feuerwehr und dem Stab der Polizei bestand Einigkeit in der Einschätzung, dass eine große Zahl von Menschen diese U-Bahn-Station zum Schutz aufsuchen wird. Aufgrund der baulichen Gegebenheiten (kleine ebenerdige Fläche, breite Treppen) gingen alle Organisationen einvernehmlich davon aus, dass bei Flucht vor einem Gewitter und damit hohem Personendruck die Gefahr von Treppenstürzen sehr hoch sein würde. Die Beteiligten kamen in einem längeren Entscheidungsprozess zum Ergebnis, dass zum Schutz aller Zuschauer die U-Bahn-Station im Falle eines Gewitters oder ähnlicher Ereignisse auf ein Signal der Polizei hin geschlossen wird. Dazu gab es eine schriftliche Festlegung des Ablaufs, die allen Handelnden zu jeder Zeit zur Verfügung stand. Im Rahmen der WM 2006 war das Wetter so sommerlich, dass diese Planentscheidung nicht zur Umsetzung kam.
258
16.1.1
Kapitel 16 · Stabsarbeit und »Ständige Stäbe« bei der Polizei: Sicherheit durch Professionalisierung
Anforderungen an Polizeiarbeit: Sicherheit trotz komplexer Lagen
Polizeiliches Handeln findet auf vielen Ebenen und Themenfeldern statt – von der Verkehrskontrolle bis zum Management einer Entführung. Herausragende polizeiliche Einsätze wie z. B. anlässlich der Geisel-
nahme in Gladbeck 1988, des Amoklaufs in Erfurt 2002, der Fußball-WM 2006 und des Weltwirtschaftsgipfels 2007 in Deutschland zeigen, welche Anforderungen an Polizei als Organisation und jeden einzelnen Mitarbeiter gestellt werden. Dabei ist von erheblicher Bedeutung, dass im Unterschied zu anderen öffentlichen Verwaltungen polizeiliches Handeln zwar nicht täglich, aber regelmäßig Bedeutung für Leib und Leben anderer hat. Hinzu kommt, dass die Polizei durchweg im Lichte der Öffentlichkeit agiert. Daraus resultiert, dass polizeiliches Handeln in jeder denkbaren Phase, in Planung, Entscheidung und Umsetzung, hoch reliabel und damit sicher ablaufen muss (7 Kap. 2 und 5). Die Anforderung heißt »Null Fehler« bzw. »Null fehlerhafte Einsätze« – damit müssen akzentuierte Maßnahmen der Fehlerprävention unverzichtbarer Bestandteil polizeilicher Arbeit sein. Im Folgenden werden Human Factors als Fehlerquellen und Möglichkeiten der Fehlerprävention anhand dreier Beispiele aus dem Bereich der Krisenstabsarbeit beleuchtet: 4 Realitätswahrnehmung und gemeinsame mentale Modelle in Stäben (7 Kap. 16.2) 4 Teamkommunikation im Stab (7 Kap. 16.3) 4 Planentscheidungen (Planung in Szenarien) als Instrument der Fehlerprävention (7 Kap. 16.4)
16
Die hier vorgestellten Themen und Beispiele stammen aus dem Erfahrungsbereich des Erstautors, der Polizei. Sie sind aber auch für die Krisenstabsarbeit in anderen Branchen wie Prozessindustrie oder Rettungswesen relevant.
16.1.2
Krisenstäbe und »Ständige Stäbe«
Aus der parlamentarischen Aufarbeitung der Schleyer-Entführung (1977) resultiert die Erkenntnis, dass »außerordentlich komplexe Einsatzstrukturen nicht
mehr durch einsame Führung und unsystematische Planungs- und Entscheidungsvorbehalte beherrscht werden« können, denn »jede Organisation im Sicherheitsbereich ist soviel wert, wie sie aus dem Stand heraus zu leisten vermag« (Höcherl, 1978). Außergewöhnliche Einsätze bedürfen also systematischer und teamgestützter Planung. Die Polizei unterscheidet im Wesentlichen 2 Arten von besonderen Einsätzen. Zum einen planbare Einsätze bei bekannten Anlässen, z. B. Fußballweltmeisterschaft, Demonstrationen, Weltwirtschaftsgipfel. Anlass und Zeitrahmen sind bekannt, erfolgskritische Faktoren können vorab identifiziert und berücksichtigt werden, das Personal kann zielgerichtet vorbereitet werden; es handelt sich um klassische Planungsprozesse. Zum anderen gibt es sog. Ad-hocEinsätze, z. B. Amoklagen, Entführungen und Anschläge. Hier ist zwar jeweils der Rahmen des jeweiligen Anlasses vorstellbar, aber weder Datum, genaue Umstände noch Einflussfaktoren sind bekannt. Wenn man die Ereignisse des 11.09.2001 reflektiert, kann es sich sogar um bis dahin »undenkbare« Abläufe handeln (7 Kap. 2.5, Resilienz). Natürlich können sich auch geplante Lagen ungewöhnlich entwickeln und dadurch in Ad-hoc-Lagen übergehen. Die Vorbereitung bedeutsamer polizeilicher Einsätze findet deshalb grundsätzlich mit Stäben statt; häufig mit eigens dafür ausgebildeten Mitarbeitern und unter Berücksichtigung wissenschaftlicher Methoden. Die Umsetzung von Entscheidungen (unmittelbare Einsatzbewältigung) läuft, weitgehend geplant, mit Stäben auf der Grundlage hoch geübter Handlungsroutinen in baulich und technisch besonders vorbereiteten Stabsräumen ab. Ein polizeilicher Führungsstab ist in Vorbereitung und Umsetzung polizeilicher Einsätze ein unterstützendes Gremium: Er ist »Hand und Kopf« des Polizeiführers, der selbst nicht Teil des Stabes ist. Der Stab soll die Umstände der Einsatzlage abbilden, alternative Vorschläge zur Lösung erarbeiten, Risikoabwägungen vornehmen und die Kommunikation in der Organisation sicherstellen. Die Umsetzung strategischer Entscheidungen des Polizeiführers erfolgt jedoch vor Ort (. Abb. 16.1). Hier kommt der Polizei das Vorhandensein ausgeprägter hierarchischer Strukturen zugute, weil man sich darauf verlassen kann, dass Entscheidungen so wie getroffen umgesetzt werden.
259 16.2 · Wie wirklich ist die Wirklichkeit in Stäben der Polizei?
16
ist, kann dies zu Erwartungs- und Beurteilungsdifferenzen und Entscheidungsmängeln führen. Darüber hinaus ist die Gefahr gegeben, dass in einem professionellen Stab das Phänomen des »groupthink« (Janis, 1972) auftritt. »Groupthink« ist ein Denkmuster, in das insbesondere hoch kohäsive, gut und eingespielte Gruppen verfallen können, wenn das Bestreben der Gruppe nach Einmütigkeit das nach realistischer Alternativenbewertung übertönt (7 Kap. 7). Aus den daraus entstehenden Fehleinschätzungen der Wirklichkeit und Entscheidungsfehlern resultiert eine suboptimale Beratung zum Schutz der Gruppenstruktur. . Abb. 16.1. Aufbau und Verteilung der Rollen im Stab
Derzeit wird in nahezu allen Polizeien die Einrichtung professioneller Einsatzstäbe diskutiert. Dies sind Dienststellen, die sich im Hauptamt mit der Vorbereitung, Durchführung und Nachbereitung besonderer Einsatzlagen befassen. Wesentliche Vorteile professioneller Stäbe sind: 4 Professionelle Stäbe können sich mit nur geringem Zeitverzug einer Einsatzlage widmen. Sie sind durch Vorbereitung von Planentscheidungen (7 Kap. 16.4), Entwicklung von Technik, Handhabung der einschlägigen PC-Anwendungen, Durchführung von Übungen und der Nachbereitung bewältigter Einsätze in der Lage, ad hoc auf hohem Niveau Beratung und Unterstützung sicherzustellen. 4 Alle Beteiligten kennen die Strukturen von Delegation, die Notwendigkeiten eines gemeinsamen mentalen Modells (7 Kap.16.2.3) und die Regeln der Kommunikation im Führungsstab. 4 Probleme in Bezug auf gruppendynamische Prozesse können bereits im Alltag geklärt werden. 4 Mitarbeiter, die im Einsatz aus einer anderen Funktion zum Führungsstab treten, können sich leichter orientieren und integrieren, wenn das Kernteam bereits funktioniert. Nachteilig ist neben dem personellen und finanziellen Aufwand zu bemerken, dass es schnell zu Erfahrungsdiskrepanzen innerhalb des Führungsstabes, auch zum Polizeiführer, kommen kann. Wenn ein Kernteam über einen großen Erfahrungsschatz verfügt, der Entscheider jedoch deutlich unerfahrener
16.2
Wie wirklich ist die Wirklichkeit in Stäben der Polizei?
16.2.1
Entscheidungen aufgrund mittelbar gewonnener Information
Um Probleme der Realitätswahrnehmung in polizeilichen Stäben nachvollziehen zu können, ist ein kleiner Exkurs zur Entscheidungsfindung in polizeilichen Stäben erforderlich. Anders als die Feuerwehr, bei der sich der Einsatzleiter unmittelbar am Schadensort aufhält, befindet sich in den meisten Bundesländern der oder die Verantwortliche der Polizei (Polizeiführer) bei herausragenden Einsatzlagen meist in vorbereiteten Räumen beim Führungsstab (. Abb. 16.2). So kann er oder sie relativ unbeeinflusst von der Hektik des Augenblicks entscheiden. Diese Aufteilung in taktisch-operative Führung vor Ort und strategische Führung im Führungsraum ist auch in anderen Ländern üblich, z. B. als »bronce/silver level« (vor Ort) vs. »gold level« (für die strategische Führung) in Großbritannien (siehe z. B. Pearce & Fortune, 1995). Andererseits kann der Entscheider sich so kein unmittelbares eigenes Bild der Lage machen – damit aber auch nicht eigenen Wahrnehmungstendenzen (7 Kap. 4) in die Falle gehen, wie z. B. dem aktuell Wahrgenommenen größere Wichtigkeit zuzugestehen als vorher erlangter Informationen. Im Rahmen der festzulegenden Delegation streben gut vorbereitete polizeiliche Stäbe eine quantita-
260
Kapitel 16 · Stabsarbeit und »Ständige Stäbe« bei der Polizei: Sicherheit durch Professionalisierung
. Abb. 16.2. Führungsraum im Polizeipräsidium Dortmund »in Aktion«. (Foto: Peter Bandermann)
16
tive Verteilung der Entscheidungen von »80–10–10« an. Dies bedeutet, dass 80% aller Entscheidungen selbstständig durch die Sachbearbeiter des Stabes, der bis zu 50 Personen stark sein kann, getroffen werden. 20% aller erforderlichen Entscheidungen laufen auf den Leiter oder die Leiterin des Führungsstabes zu, der oder die die Hälfte davon selbst trifft und die andere Hälfte (die kritischen Entscheidungen) an den Polizeiführer weiterleitet. Der Polizeiführer ist in dynamischen Lagen mit großem Umfang an Entscheidungen gerade noch in der Lage, sich ausreichend diesen erfolgskritischen Entscheidungen zu widmen. Eine durchschnittliche Entscheidungsdichte von 1,0–1,5/min über viele Stunden ist nicht außergewöhnlich. Dies bedeutet, dass der Polizeiführer und der Leiter des Führungsstabes bei einer 10 h andauernden Einsatzlage jeweils ca. 50–60 themenbezogen heterogene Entscheidungen von erheblicher Tragweite treffen müssen. Dies kann eine extrem hohe psychische und physische Belastung darstellen. Damit ist klar, dass keine Einzelperson alle für die Lage relevanten Informationen aufnehmen und verarbeiten kann. Das Bild der Lage »im Kopf« der Stabsmitglieder ist also immer ein bruchstückhaftes, das nur durch Teamkommunikation vervollständigt werden kann (7 Kap. 16.3 sowie 7 Kap. 7 und 8). Jedoch besteht in der Informationsweitergabe durch die Teamkommunikation die Gefahr, dass Informationen verfälscht werden (»stille Post«).
16.2.2
Selektive Information im Lageraum
Die polizeiliche Stabsarbeit wird in Standardformularen (Mehrfachvordrucke oder via PC) dokumentiert und nach einem festgelegten Verfahren an die Entscheider im Stab weitergeleitet. Außerdem findet eine für alle Stabsmitglieder sichtbare handschriftliche Darstellung der entscheidungsrelevanten Informationen auf sog. Lagewänden (. Abb. 16.3.) statt. Dokumentation und Lagedarstellung/-fortschreibung nehmen erfahrene Stabsmitarbeiter als ausschließliche Aufgabe wahr. Informationen an der Lagewand, die sich als überholt oder falsch erweisen, werden sofort aktualisiert.
. Abb. 16.3. Lagewand im Führungsraum Polizeipräsidium Dortmund
261 16.2 · Wie wirklich ist die Wirklichkeit in Stäben der Polizei?
Dokumentation und die Informationen der Lagewand konstruieren eine »Wirklichkeit« (Watzlawick & Krieg, 1991), welche die ausschließliche Grundlage für die Entscheidungen des Polizeiführers darstellt. ! Diese Komplexitätsreduktion ist Voraussetzung für die Handlungsfähigkeit des Stabes und zugleich eine mögliche Fehlerquelle.
Stabsarbeit ist im Wesentlichen auf Informationen von außen angewiesen. Es gehen zwar quantitativ regelmäßig die meisten Informationen zum Geschehen mündlich (Telefon oder Funk), per Fax oder EMail in den Führungsstab ein (zur Rolle der Sprache für die Kommunikation 7 Kap. 8), Lageräume mit stark technikunterstützten Systemen bieten aber die Möglichkeit, auch bei deutlicher Entfernung zu Ereignisorten eine Vielzahl visueller und akustischer Eindrücke zu vermitteln (7 Kap. 11). Kamerabilder von Hubschraubern können ebenso zum Führungsstab übermittelt werden, wie aus dem Bereich von Einsatzorten, z. B. Fußballstadien. Auch kann man ggf. Gespräche zwischen Geiselnehmer und den Verhandlungskräften der Polizei mithören. Darüber hinaus unterstützt moderne Technik, wie mehrere Projektoren und interaktive Leinwände, individuelle kabellose Übertragung von Tonsignalen sowie eine zielgerichtet auf Kommunikation abgestellte Tischform, das Arbeiten in dynamischen Einsatzlagen (. Abb. 16.2). Dieser Technikeinsatz scheint auf den ersten Blick von großem Nutzen zu sein. Doch es bedarf großer Erfahrung, mit derartig präsentierter Information umzugehen. Die Gefahr, die gesehenen Bilder für die »ganze Realität« zu halten, ist nach Erfahrung der Autoren gerade bei visueller Information sehr groß. Der Realitätsausschnitt, den z. B. die Bilder des Hubschraubers zeigen, wirkt so echt und unmittelbar, dass subjektiv das Gesehene kaum angezweifelt werden kann. Dass die Bilder nur einen kleinen Ausschnitt der Realität vermitteln, wird von unerfahrenen Betrachtern insbesondere in Situationen mit hoher emotionaler und Arbeitsbelastung nicht immer erkannt. Daneben darf der Aspekt der emotionalen Beeinflussung nicht verkannt werden. Wer klagende und weinende Geiseln unmittelbar gehört hat, wird dies bei seinen Entscheidungen berücksichtigen. Auch die gehetzte Stimme eines erschöpften Kolle-
16
gen über das Telefon kann zur »Emotionsansteckung« (Bandura, 1986) führen und so Entscheidungen beeinflussen. Beispiel Anlässlich der Bewältigung einer Geiselnahmelage in NRW erweckte eine Geisel in Telefonaten mit der Polizei überzeugend den Eindruck, sie sei durch einen Schuss schwer verletzt worden. Dies führte zu erheblichem zeitlichen und emotionalen Druck beim Entscheider der Polizei, der diese Telefonate auch gehört hatte, und löste früher als geplant operative Maßnahmen der Polizei aus. Tatsächlich war die Geisel unverletzt und hatte aus nachvollziehbaren Gründen eine »falsche Realität« produziert, die zwar in der Konsequenz nicht zu Nachteilen führte, aber dies sehr leicht hätte tun können, z. B. durch einen vorzeitigen und ggf. unvollständig vorbereiteten polizeilichen Zugriff bei hohem Risiko für die Geiseln und Einsatzkräfte.
! Ob im Stabsraum oder »vor Ort« – Entscheidungen müssen in kritischen Situationen immer aufgrund begrenzter Informationen getroffen werden. Es ist unseres Erachtens vorteilhaft, Entscheidungen fern vom Geschehen aufgrund gefilterter Information mit wenig emotionalem Gehalt zu treffen, wenn diese Filterung bewusst reflektiert wird und man seine Konstruktion der Wirklichkeit nicht für die »Realität« hält.
16.2.3
Gemeinsame mentale Modelle im Stab sicherstellen
Das in 7 Kap. 16.2.1 angesprochene abgestufte Entscheidungsmodell »80–10–10« ist nur dann tragfähig, wenn innerhalb des Stabes bei der Einsatzbewältigung ein gemeinsames Bild vorliegt. In der Gruppe muss weitgehender Konsens nicht nur über die relevanten Geschehnisse, sondern auch zu den Einflussgrößen der Problembewältigung herrschen, d. h., es muss ein sog. gemeinsames mentales Modell bestehen (»shared mental model«, s. auch 7 Kap. 7 und 8
262
Kapitel 16 · Stabsarbeit und »Ständige Stäbe« bei der Polizei: Sicherheit durch Professionalisierung
sowie zu Krisenstab Horn & Strohschneider, 2005; zu mentalen Modellen z. B. Cannon-Bowers & Salas, 2001; Cannon-Bowers, Salas & Converse, 1993; Tschan & Semmer, 2000). Aufgaben-, Interaktions- und Equipmentmodell.
Ein gemeinsames mentales Model bedeutet, dass allen an der Entscheidung Beteiligten neben den Umständen der Situation (»situation awareness«, 7 Kap. 4) jederzeit gleichermaßen klar sein muss: 4 Welches Problem ist zu bewältigen? 4 Welches Ziel soll erreicht werden? 4 Welches Risiko ist der Polizeiführer bereit einzugehen? 4 Welche externen und internen Einflussfaktoren sind bekannt und welche sollen berücksichtigt werden? 4 Welche Rolle nehme ich bei der Problemlösung wahr? 4 Welche Rolle nehmen andere (und damit nicht ich) dabei wahr? Diese Fragen entsprechen dem Aufgaben- und Interaktionsmodell in der Unterteilung von Cannon-Bowers, Salas & Converse (1993). Auch über verwendete Technologie und Sprache muss ein gemeinsames mentales Modell bestehen (Equipment-Modell). Dies ist bei professionellen Stäben durch häufiges gemeinsames Arbeiten problemlos zu erreichen, kann aber bei Ad-hoc-Stäben ohne ausreichende Übungen nicht vorausgesetzt werden. Das gilt auch für das notwendige mentale Modell über die anderen Teammitglieder – nur über wiederholte gemeinsame Arbeit ist ein gemeinsames Modell der Fähigkeiten und Eigenheiten der einzelnen Stabsmitglieder erreichbar.
16
Gemeinsames Modell als Erfolgsfaktor. Fehlen diese
gemeinsamen mentalen Modelle, kommt es zwangsläufig zu Friktionen, z. B. laufen Entscheidungen nicht mehr auf die gleichen Ziele zu. Auch geteiltes, aber sachlich falsches Wissen führt zu Fehlentscheidungen. Die positive Entwicklung eines gemeinsamen Modells ist dagegen ein wichtiger Erfolgsfaktor bei der Bewältigung komplexer zeitkritischer Einsatzlagen mit Stäben (vgl. auch Stout, Cannon-Bowers, Salas & Milanovich, 1999). Diese Entwicklung vollzieht sich erfahrungsgemäß nicht von allein. In Situationen ohne Zeitdruck kann ein Team durch Informations-
austausch ein gemeinsames Situationsbild gewinnen. Doch bei Zeitknappheit und in hierarchischen Strukturen bedarf es eines Verantwortlichen für die Gestaltung des gemeinsamen mentalen Modells; es ist eine der wichtigsten Aufgaben des Leiters eines Stabes und bedarf umfassender Vorbereitung. Aus diesem Grund sind bei der Polizei Nordrhein-Westfalen lediglich 6 von 44.000 Beamten für diese Funktion bei der Bewältigung von Geiselnahmen, Entführungen, Großschadens- und Amoklagen vorgesehen. Rahmenbedingungen. Die Entwicklung und Auf-
rechterhaltung von gemeinsamen mentalen Modellen gelingt in der Praxis nur dann, wenn nicht erst bei der Krisenbewältigung selbst Einfluss genommen wird, sondern vorbereitende Maßnahmen viel früher ansetzen. So sind zur Erzeugung eines gemeinsamen mentalen Modells optimale räumliche und strukturelle Rahmenbedingungen erforderlich. In Übereinstimmung mit Schneider, Graham, Bauer, Bessiere & Gonzalez (2004) sind bei der Bewältigung dynamischer Lagen ohne Möglichkeit zum ruhigen Austausch unverzichtbar: 4 Gelegenheit zur gegenseitigen Beobachtung 4 Uneingeschränkte Kommunikationsmöglichkeit mit allen an der Entscheidung Beteiligten 4 Festgelegte Arbeitsteilung und -abläufe Diese Bedingungen können aus Sicht der Verfasser nur erreicht werden, wenn der Stab in einem Raum arbeitet. Idealerweise sitzen die Mitarbeiter so, dass sie den Polizeiführer sehen und hören können. Die Sitzordnung scheint ein Nebenaspekt, doch ungünstige Raumgestaltung kann effektiven Austausch verhindern. Neben den handwerklichen Vorbereitungen, wie Sitzordnung, müssen Stabsmitarbeiter weit vor Einsätzen aktiv für das Thema gemeinsamer mentaler Modelle sensibilisiert werden. Nur dann können sie eine positive Entwicklung mitgestalten. Verfahren zur Aufrechterhaltung des gemeinsamen Modells. Auch im Einsatz sind aktive Maßnah-
men zur Bildung und Aufrecherhaltung eines gemeinsamen mentalen Modells wichtig. Als erfolgreich praktikabel hat sich das folgende Verfahren erwiesen: Der Leiter des Führungsstabes fasst, nachdem sich alle Mitarbeiter für ihren Bereich einen kurzen Überblick verschafft haben – in der Regel
263 16.2 · Wie wirklich ist die Wirklichkeit in Stäben der Polizei?
nach ca. 10 min – die bekannten Umstände der zu bewältigenden Einsatzlage (z. B. Informationen zu Opfern, Tätern, eigenen Kräften, Einsatzmitteln, Medienverhalten, Schaulustigen, Verkehrssituation) zusammen. Jeder Mitarbeiter im Stab sowie der Polizeiführer werden angesprochen, und es wird eine kurze Bestätigung, Änderung oder Ergänzung eingefordert. Danach fasst der Leiter des Führungsstabes kurz zusammen und stellt damit die Grundlage für die folgende Arbeit vor. Dieses Verfahren dauert mit geübtem und sensibilisiertem Personal auch bei komplexen Sachverhalten maximal ca. 10–15 min. Es wird regelmäßig wiederholt, und zwar in Abhängigkeit von der Dynamik der Einsatzbewältigung (je dynamischer, desto häufiger). Hierbei hat sich bei hochdynamischen Lagen ein Rhythmus von ca. 90 min als vertretbar herausgestellt. Bei weniger dynamischen Lagen ist eine Zeitspanne von 3–4 h akzeptabel. Zum Vergleich: Bei einer Schadenslage in der chemischen Industrie werden z. T. alle 15–20 min die relevanten Informationen ausgetauscht (G. Horn, mündl. Mitteilung 2005). Was auf den ersten Blick wie eine zusätzliche Belastung erscheint, ist eine unverzichtbare »Kurskorrektur«, die durch die Sicherung des gemeinsamen Verständnisses maximale Sicherheit für die Organisation, aber auch jeden Einzelnen bringt. Erst durch das regelmäßige Update des Situationsbildes wird ein arbeitsteiliges selbstständiges Agieren, gleichwohl im Team, möglich. Nutzen oder Belastung? Obwohl viele Untersu-
chungen gemeinsame mentale Modelle als Einflussfaktor auf die Teamleistung untersucht haben und als unverzichtbare Größe bestätigen (Orasanu & Salas 1993, Rasker & Schraagen 1999, Rouse, CannonBowers & Salas 1992), bleiben Fragen. Wie kann ausbalanciert werden, dass alle gemeinsam denken sollen, aber jeder trotzdem für sich denken muss? Fraglich ist nicht, ob ein gemeinsames Bild gut für den Stab ist, sondern in welchem Rhythmus, welcher Intensität und in welchen Grenzen ein Austausch individueller Situationsmodelle stattfindet. Es gibt unseres Wissens keine Untersuchungen aus Krisenstäben zu der Frage, ab welchem Umfang Bemühungen um ein tragfähiges gemeinsames mentales Modell ins Negative (Belastung für die Mitarbeiter) umschlagen oder wie sich der »grüne Be-
16
reich« zwischen Unter- und Überversorgung gestaltet (auch zu anderen Branchen liegen hier keine übertragbaren Erkenntnisse vor). Hier spielt sicherlich das jeweilige Einsatzthema, aber auch die Vertrautheit des Teams untereinander (»blindes Verstehen«) eine Rolle. Anzunehmen ist nach Tschan & Semmer (2000), dass das Interaktionsmodell und das Teammodell hoch übereinstimmen sollten. Es ist v. a. wichtig, dass jeder weiß, wer welche Informationen hat; es muss nicht jedes Teammitglied den Überblick über die Situation behalten (vgl. Flin, 1996). »Ständige Stäbe«. Die Verbesserung gemeinsamer
mentaler Modelle im Team durch Reflexion in der Nachbereitung von Einsätzen kann nur gelingen, wenn die Stabsmitarbeiter mit einer gewissen Wahrscheinlichkeit wieder gemeinsame Einsätze leisten werden. Dies ist aber weder bei der Polizei noch bei anderen Krisenstäben durchgängig sichergestellt. Polizeiliche Führungsstäbe sind, wie andere Krisenstäbe auch, regelmäßig Aufrufstäbe. Das heißt, es ist bei Alarmierung zu einem Ad-hoc-Einsatz (7 Kap. 16.1.2), v. a. außerhalb der üblichen Bürodienstzeiten, von Zufällen und Erreichbarkeiten abhängig, wie sich der Stab personell zusammensetzt. Zwar ist den Mitarbeitenden ihre Aufgabe bekannt, doch wer mit wem am Tisch sitzt, ist erst klar, wenn alle eingetroffen sind. Einige Bundesländer (z. B. Brandenburg, Nordrhein-Westfalen, Schleswig-Holstein) versuchen diesem Problem durch besondere Dienststellen (»Ständige Stäbe«) entgegenzutreten. Diese befassen sich zum einen mit der Vorbereitung von Stabsarbeit in kritischen Situationen, andererseits bilden ihre Mitarbeiter im Einsatzfall das »professionelle Gerüst« eines Führungsstabes. Ständige Stäbe können über wiederholte gemeinsame Einsätze und Reflexion kontinuierlich lernen, in Einsatzsituationen schnell und effektiv gemeinsame mentale Modelle zu bilden.
16.2.4
Eingeengte und unrealistische mentale Modelle
Trotz aller Bemühungen um eine möglichst geteilte Realitätsabbildung im Stab kommt es durch unterschiedliche Information und Interpretation zu auseinanderdriftenden Wirklichkeiten.
264
Kapitel 16 · Stabsarbeit und »Ständige Stäbe« bei der Polizei: Sicherheit durch Professionalisierung
Beispiel Anlässlich einer Demonstration mit teilweise gewalttätigem Verlauf forderte der Polizeiführer eine Situationsbeschreibung ein und erhielt sie telefonisch von einem vor Ort befindlichen Mitarbeiter. Dieses Gespräch konnte der Leiter des Führungsstabes anhand der Äußerungen des links von ihm sitzenden Polizeiführers mithören. Es handelte sich offensichtlich um einen sehr kritischen Zustand mit erheblichen Gefahren für die eingesetzten Polizeibeamten und den Verlauf der Versammlung. Zeitgleich ging eine Situationsschilderung bei einem anderen Mitarbeiter ein, der rechts vom Führungsstabsleiter saß, die sich offenkundig als sehr entspannt ohne Gefahren und Probleme darstellte. Erst nach dem Vergleich der jeweiligen Äußerungen des Stabsmitarbeiters und des Polizeiführers war klar, dass es sich um dieselbe Situation handelte. Im Rahmen der Nachbereitung konnte ermittelt werden, dass der erstgenannte Berichterstatter erstmalig an einem vergleichbaren Einsatz teilnahm, während der andere Berichterstatter ausgeprägte Erfahrung hatte, was zu den erheblichen Beurteilungsdifferenzen führte.
16
In diesem Fall war es möglich, die eklatanten Unterschiede wahrzunehmen und auszugleichen. Man stelle sich aber vor, beide Berichte hätten jeweils isoliert Maßnahmen ausgelöst. So wären aufgrund des ersten Situationsberichts zusätzliche Polizeikräfte mit dem Auftrag der Beendigung der Versammlung eingesetzt worden. Dies hätte sowohl taktische als auch politische Folgen gehabt. Solche Probleme sind nicht zu verhindern. Deshalb werden sensibilisierte Mitarbeiter regelmäßig den Abgleich mit der Lageeinschätzung der anderen Gruppenmitglieder suchen. Dies verlangt die Bereitschaft, den eigenen ersten Annahmen widersprechende Informationen zu suchen, also entgegen dem »confirmation bias« zu handeln (z. B. Tversky & Kahneman, 1974; 7 Kap. 4.5).
16.3
Teamkommunikation im Stab
Mit Teamkommunikation im Allgemeinen befasst sich 7 Kap. 8. Hier werden nur einige spezielle Faktoren, die zum Gelingen oder Misslingen der Kommunikation im Stab beitragen können, erläutert.
16.3.1
Rahmenbedingungen
Raum. Die Kommunikation in einem Führungsstab
wird in ausgeprägter Form beeinflusst von der Art, wie Mitarbeiter mit ihren Arbeitsplätzen räumlich angeordnet sind. Stäbe, die in unterschiedlichen Räumen arbeiten, können in zeitkritischen Einsatzlagen zwar miteinander telefonieren, die zeitgleiche Übermittlung anderer Informationen oder nonverbaler Zeichen ist jedoch nicht möglich. In diesen Fällen wird sich regelmäßig kein gemeinsames Bild über die Situation ergeben. Eine situationsangemessene Beratung durch den Stab kann dann schwerlich erfolgen. Der Stab wandelt sich in solchen Situationen von einem Beratungs- und Unterstützungsgremium in das »Sprachrohr« eines nahezu allein entscheidenden Polizeiführers. Damit nun nicht alle dem Stab zugehörigen Mitarbeiter in einen gerade zur Verfügung stehenden Raum gezwängt werden müssen, ist die Frage der Raumkapazität bei der Planung ein wichtiges Kriterium. Anwesenheit des Polizeiführers. Die Frage, ob sich der Entscheider unmittelbar am Ort des Geschehens aufhalten muss oder beim Führungsstab arbeiten, sich dort beraten und unterstützen lassen soll, wird kontrovers diskutiert. Vor Ort könnte er ungefiltert authentische Eindrücke erhalten, dies wäre aber nur ohne Begleitung seines Stabes sinnvoll möglich. Dass ein Polizeiführer vor Ort kein gemeinsames mentales Modell mit dem Führungsstab aufbauen kann, da sich seine Wahrnehmungen und Bewertungen aus anderen Quellen speisen, spricht unseres Erachtens deutlich dafür, beim Stab zu arbeiten. Zudem ist fraglich, ob die durch Anwesenheit gewünschte direkte Kommunikation und unmittelbare Wahrnehmung an einem Ort bei hoher Belastung überhaupt möglich ist. Moderation. Der Polizeiführer kann als Entscheider nicht die Moderation für den Führungsstab leisten.
265 16.4 · Fehlerprävention im Rahmen der Stabsarbeit: Planentscheidungen
Deshalb ist innerhalb der Polizei eindeutig geklärt, dass ein Führungsstab von einem anderen Mitarbeiter geleitet wird, um den Polizeiführer zu entlasten und weil dieser Aufgabe eine hohe Bedeutung beigemessen wird. Dies entspricht dem Vorgehen in der Industrie (z. B. Notfallmanager; vgl. Horn & Strohschneider, 2005) und bei der Feuerwehr (zur Doppelspitze bei zivilen Stäben s. Gahlen, Kranaster & Arbeiter, 2008). Technik. Eine weitere Rahmenbedingung für Kommunikation in Stäben ist die eingesetzte Technik. Außenstehende und Vorgesetzte halten gern den Einsatz neuester Technik für einen Ausweis von Leistungsfähigkeit. Dies ist aber nicht unbedingt so: Telefone mit unbekannter Handhabung, um mit dem Trivialsten zu beginnen, stellen in Situationen hoher Belastung einen erheblichen Stressfaktor dar. PC-Anwendungen, die Stabsarbeit unterstützen können, müssen vorher bekannt und geübt sein, sonst binden sie die Arbeitskapazität des Nutzers.
16.3.2
Hindernisse für die Kommunikation im Stab
Im Rahmen polizeilicher Stabsarbeit nehmen viele Faktoren auf Teamkommunikation Einfluss (vgl. Hofinger, 2005); einige wenige davon sollen hier angesprochen werden. Störungen. Da wo Menschen miteinander arbeiten und sprechen, ist jede externe akustische Beeinträchtigung eine Belastung. Telefone mit lauten Signalen, Lautsprecher, die zum Mithören eingeschaltet sind, Fax-Geräte und Projektoren, die dauerhaft unangenehme Geräusche verursachen, schlagende Türen, Raucher – das alles stört ungemein und verringert die kognitiven Kapazitäten der Stabsmitarbeiter (Ungerer, Hesel & Morgenroth, 1993). Solche Störungen sind vermeidbar, ebenso wie Andrang von Besuchern und Beobachtern. Neben der emotionalen Behinderung der Arbeit durch das Gefühl des Beobachtetseins, insbesondere wenn Vorgesetzte anwesend sind, verursachen Besucher unnötigen Lärm und verschlechtern das Raumklima. So waren z. B. im Verlauf des Einsatzes bei der Geiselnahme Gladbeck zeitweise etwa 27 Personen im Lagezentrum
16
anwesend, von denen aber nur etwa 16 Personen unmittelbar mit der Einsatzbewältigung befasst waren (Bremische Bürgschaft, 1988, S. 143). Hierarchien. Kommunikation aus ausgeprägten unterschiedlichen Hierarchieebenen kann eine offene Beratung verhindern. Der Erstautor hat in seinen ersten Einsätzen als Leiter eines Führungsstabes in guter Absicht Lösungsideen zur offenen Diskussion gestellt, die jedoch überraschend durchweg Zustimmung erhalten haben. Erst nachdem bewusst wurde, dass die Zustimmung nicht aus dem intellektuellen Gehalt, sondern überwiegend aus der Position des Vorschlagenden entstanden war, konnte Abhilfe geschaffen werden, indem nunmehr lediglich die Probleme beschrieben und Lösungsvorschläge erbeten wurden. Die vorgeschlagenen Lösungen waren ohne »Präjudiz« eines Vorgesetzten offen gestaltet (vgl. Baron, Kerr & Miller, 1992, s. auch 7 Kap. 8.4). Vertrauen. In kritischen Situationen müssen alle Betei-
ligten bereit sein und einander genug vertrauen, um Risiken und individuelle Bedenken angemessen offen auszusprechen. Nur ausgeprägtes Vertrauen bildet eine Basis für eine umfassende Risikobewertung; wer in Sorge arbeitet, nach dem Einsatz heftig kritisiert zu werden, kann nicht frei diskutieren. Ansonsten ergeben sich Situationen, dass kritische Aspekte regelmäßig in kleinem Kreis außerhalb des Raumes besprochen werden, dies behindert Stabsarbeit aber stark. Darum gehört eine intensive Personalauswahl, vertrauensbildendes Verhalten der Führungskräfte und das Erarbeiten klarer Regeln zu unverzichtbarer Vorbereitung.
16.4
Fehlerprävention im Rahmen der Stabsarbeit: Planentscheidungen
16.4.1
Planentscheidung: Beschreibung und Begründung
Auch bei optimaler Kommunikation und aktiver Bildung gemeinsamer mentaler Modelle sind Einsätze mit hohem Stress verbunden, und Entscheiden unter Stress ist immer auch fehleranfällig (Flin & Steward, 1996; 7 Kap. 5 und 6). Daher ist ein Weg der
266
Kapitel 16 · Stabsarbeit und »Ständige Stäbe« bei der Polizei: Sicherheit durch Professionalisierung
Fehlerprävention in kognitiv und emotional hoch belasteten Situationen wie außergewöhnlichen Einsätzen, nicht auch noch zusätzlich denken und planen zu müssen. Ein Instrument hierfür sind Planentscheidungen für außergewöhnlich kritische Einsatzanlässe (wie Amoklagen, Geiselnahmen etc.), die ähnlich »emergency operation procedures« in der Luftfahrt (Reinwarth, 2003) bei Eintritt definierter Szenarien anzuwenden sind. Derartige Planentscheidungen werden u. a. von den »Ständigen Stäben« der Polizei in NRW verwendet. Die grundlegende Polizeidienstvorschrift, PDV 100, definiert »Planentscheidung« als »vorbereitete Entscheidungshilfe für mögliche Ereignisse und Entwicklungen«. Es geht also um Rahmenpläne nach dem Muster »Wenn Situation X, dann Handlung/Zuständigkeit Y«. Vorteile von Planentscheidungen
4 Verkürzung von Entscheidungsprozessen 4 Antizipationsmöglichkeit für Ausführende, dadurch Handlungssicherheit 4 Gleichheit der Entscheidungen bei gleichen Sachverhalten 4 Fürsorge für die Mitarbeiter durch vorweggenommene Übernahme der Verantwortung Planentscheidungen, die nur für Ad-hoc-Lagen denkbar sind, müssen trotz konkreter Regelungen immer Entscheidungsspielraum offen lassen, um der Bandbreite denkbarer Situationsentwicklungen gerecht zu werden (. Abb. 16.4). Nur ein Entscheidungsträger hat die Aufgabe zu klassifizieren, wie ein bestimmter Lebenssachverhalt zu bewerten ist (»Ist dies Situation X?«). Erst danach
16
. Abb. 16.4. Funktion und Einsatz von Planentscheidungen
beginnen die in der Planentscheidung festgelegten Entscheidungs- und Handlungsketten in definierten Ebenen. Wird z. B. in einer Polizeibehörde jemand von einer anderen Person festgehalten und mit einer Waffe bedroht, so darf die Klärung, ob es sich hier nach polizeilicher Definition um eine Geiselnahme handelt und damit umfangreiche personelle, technische und taktische Maßnahmen eingeleitet werden, keine Zufallsentscheidung mit wechselndem Niveau sein. Deswegen ist festgelegt, dass nur der Leiter oder die Leiterin der Einsatzleitstelle diese Entscheidung trifft.
Antizipativ zu treffende Entscheidungen für die Anfangsphase des polizeilichen Einsatzes auf der Grundlage der definierten Szenarien (z. B. einer Entführung) 4 Ziel des Einsatzes 4 Leitlinien für den Einsatz (Beschränkungen, Entscheidungsvorbehalte) 4 Struktur der einschlägigen Einsatzorganisation 4 Wer führt den Einsatz (Polizeiführer)? 4 Mit welchem Personal (wer, wie viel?) 4 Wo befindet sich der Platz des Polizeiführers (vor Ort, in vorbereiteten Räumen?) 4 Alarmierungsverfahren 4 Zu verwendende Technik 4 Aufträge 4 Berichte (vorbereitete Textbausteine) Diese Punkte können im Voraus für Ereignisklassen festgelegt werden, ohne das konkrete Ereignis schon zu kennen.
267 16.4 · Fehlerprävention im Rahmen der Stabsarbeit: Planentscheidungen
Der optimale Umfang solcher Planentscheidungen wird kontrovers diskutiert. Sie sollen jedoch die hoch belasteten Einsatzkräfte vor Ort entlasten und Gleichförmigkeit polizeilichen Handelns sicherstellen. Gleichförmigkeit des Handelns verlangt Detailliertheit der Vorentscheidungen. Wenn die Planentscheidung entlasten soll, dürfen die Unterlagen aber auch nicht zu ausführlich sein, da sonst die gewollte Entlastung durch Vorwegnahme von Entscheidungen durch die kognitive und emotionale Belastung konterkariert würde. Mehrseitige Verfahrensangaben werden u. U. im Einsatz schlicht nicht gelesen. Es hat sich bewährt, allen denkbaren Führungskräften vor Ort eine sog. Ein-Blatt-Lösung zur Verfügung zu stellen. Eine solche (wetterfeste) Unterlage, im Layout identisch für alle vorbereiteten Szenarien, gleichwohl durch deutliche Zeichen klar zuzuordnen, wird dann genutzt, wenn darin die Einsatzorganisation mit Erreichbarkeiten und durchzuführende Aufträge verfügbar sind. Duplikate dieser Unterlagen mit deutlich weitergehenden Ausführungen liegen dem Polizeiführer vor. So wird sichergestellt, dass alle Beteiligten trotz Entfernung voneinander auf gleicher Grundlage arbeiten. Planentscheidungen finden dort ihre Grenzen, wo sich das »richtige Leben« nicht mehr mit dem angenommenen Szenario in Einklang bringen lässt oder aber die Situation sich so weit entwickelt hat, dass die zwangsläufig relativ abstrakten Überlegungen nicht mehr sinnvoll sind. Diesen Punkt der Lösung von Planentscheidungen und des Übergangs zu eigenen neu entwickelten Entscheidungen im Einsatz zu bestimmen, bedarf der Erfahrung aus Übungen und realen Einsätzen. Das Handeln in und mit Planentscheidungen erfordert generell eine umfassende Aus- und Fortbildung und regelmäßige Übungen (7 Kap. 18). Eine gediegene und vorausschauende Vorsorge ist nur sichergestellt, wenn die Arbeitsweise aller beteiligten Organisationseinheiten vorgeplant und in ihrer Durchführung eingeübt ist. Hierfür sind Planspiele und Rahmenübungen erforderlich (Höcherl, 1978).
16.4.2
16
Planentscheidungen und menschliches Denken
Im Umgang mit detaillierten Planentscheidungen stellt sich natürlich die Frage, ob sie beim Nutzer als Hilfe oder Behinderung ankommen. Zudem: Fördern Planentscheidungen eigene kreative Lösungen, oder blockieren sie diese? Planentscheide können nur Fehler vermeidend wirken, wenn sie angewendet werden. Dazu müssen sie anwendbar sein und akzeptiert werden, was durch übersichtlich gestaltete Ein-Blatt-Lösungen, aber auch durch Eindeutigkeit der Begriffe und Vorstellbarkeit der Szenarien sichergestellt werden kann. Akzeptiert werden Vorgaben umso eher, je weniger sie das Kompetenzgefühl einschränken. Die wahrgenommene Einschränkung hängt vom aktuellen Kompetenzgefühl der Mitarbeiter ab (7 Kap. 6.2). Für hoch belastete Einsatzkräfte wird das Moment der Entlastung im Vordergrund stehen – durch vorweggenommene Entscheidungen werden Ressourcen frei und ein Gefühl der Handlungssicherheit gegeben. In weniger krisenhaften Einsatzphasen können Vorgaben v. a. bei Führungskräften, die selbstständiges Entscheiden gewohnt sind, zu Reaktanz führen (Brehm, 1966). ! Planentscheide können helfen, Fehler zu vermeiden, indem Handelnde durch die Vorwegnahme von Entscheidungen entlastet werden. Dies gelingt nur, wenn die Anwendung durch Akzeptanz und Training sichergestellt werden kann.
Die Erfahrung zeigt, dass Führungskräfte, die in Fortbildungsmaßnahmen und Übungen mit Planentscheidungen eingebunden waren, diese durchgängig als eine stabile Hilfe sehen. So sind Aussagen wie »Ich konnte die Pflichtaufgaben nachlesen und hatte den Kopf frei für eigene Überlegungen« nur möglich, wenn Planentscheidungen im Vorfeld bekannt sind. Grenzen werden den Mitarbeitern jedoch dann gesetzt, wenn Vorgesetzte Planentscheidungen kleinteilig zu ihrer eigenen Entlastung einsetzen (»Es war aber vorgesehen, ...«, »Warum haben Sie nicht ...?«).
268
16.4.3
16
Kapitel 16 · Stabsarbeit und »Ständige Stäbe« bei der Polizei: Sicherheit durch Professionalisierung
Weiterentwicklung von Planentscheidungen
Wie erwähnt, ist der Einsatz von Planentscheidungen nur sinnvoll, wenn sie schon vor dem Ereignis bekannt und akzeptiert sind. Dies kann nur durch regelmäßige Fortbildung und Übungen mit den betreffenden Führungskräften erreicht werden. Die Vorbereitung und Durchführung solcher Übungen und Fortbildungen sowie die Entwicklung und Pflege von Planentscheidungen erfordert neben der Fähigkeit zu planendem Denken ausreichend Erfahrung, um sich in die Situation der Führungskraft vor Ort hineinzudenken und ihre Bedürfnisse sowie die der Gesamtorganisation zu berücksichtigen. Die (Weiter-)Entwicklung, Erstellung und Verbreitung von Planentscheidungen ist keine einmalige Aktion, sondern vielmehr ein dauerhafter Prozess in ständiger Auseinandersetzung mit realen Fällen. Auf jede Übung und jeden Einsatz sollte eine strukturierte Nachbereitung folgen. Deren Ergebnisse werden kritisch mit den vorhandenen Planentscheidungen verglichen, was zur Überarbeitung führen kann. Darüber hinaus zwingt jede Änderung von Erreichbarkeiten oder Strukturen zur Bearbeitung, mit der Folge, dass die geänderte Version flächendeckend an eine große Zahl potenzieller Führungskräfte verteilt werden muss (dezentrale Verfahren in diesem Zusammenhang haben sich im Vergleich zu zentralen Maßnahmen nicht bewährt, weil Änderungen nicht oder nicht gleichförmig angepasst werden und Layouts sich im Laufe der Zeit unterschiedlich entwickeln, was die Kompatibilität im Gebrauch und den Austausch der Führungskräfte deutlich erschwert). Der Aufwand, der für Planentscheidungen geleistet werden muss, ist unseres Erachtens gerade unter Human-Factors-Aspekten gerechtfertigt. Wir halten sie für ein wertvolles Hilfsmittel bei der Bewältigung von Ad-hoc-Einsätzen. Sie können helfen, Denk- und Entscheidungsfehler durch Überlastung zu vermeiden. Unterstützt wird diese Position durch Erfahrungen anderer Branchen mit standardisierten Abläufen, z. B. den »emergency operation procedures« der Luftfahrt (Reinwarth, 2003). Wünschenswert wären aber empirische Untersuchungen über Nutzen und Grenzen der Planentscheidungen in realen Lagen.
16.5
Zusammenfassung
Stabsarbeit ist von vielfältigen Anforderungen und Fehlermöglichkeiten inhaltlicher und psychologischer Art geprägt. Trotz der Relevanz für sicheres Handeln gibt es kaum Literatur, die sich direkt auf Stäbe bezieht. Stabsarbeit ist – nicht nur bei der Polizei – nötig, um komplexe Lagen zu bewältigen. Doch die isolierte Situation des Stabs birgt auch Fehlermöglichkeiten. Als Fehlerquellen wurden die Gefahr eingeschränkter und verzerrter Realitätswahrnehmung, das Fehlen gemeinsamer mentaler Modelle und Probleme der Teamkommunikation aufgezeigt. Eine Möglichkeit, präventiv Fehler zu verhindern, ist der Einsatz von Planentscheidungen. Diese sind Vorwegnahmen von Entscheidungen anhand von Szenarien, die in kritischen Situationen entlastend wirken und so in Stresssituationen Fehler verhindern können. Aktuelle Ausbildung zur Stabsarbeit in Deutschland behandelt die Stabsaufgaben, den Stabsaufbau und -einsatz, aber Human-Factors-Themen wie gemeinsame Modellbildung, Informationsverzerrung etc. werden in der Ausbildung bislang nicht berücksichtigt. Da zu erwarten ist, dass Stabsarbeit in Zukunft angesichts immer komplexerer Lagen zunehmen wird (auch in anderen Branchen und Institutionen), wird der Aus- und Weiterbildung für die Stabsarbeit größere Bedeutung zukommen müssen. Eine gute Möglichkeit, um technische sowie nichttechnische Fertigkeiten zu trainieren, sind Stabsübungen und Trainings mit simulierten Krisen (7 Kap. 18; Strohschneider & Gerdes, 2004; Crego & Spinks, 1997; Salas, Cannon-Bowers & Weaver, 2002).
Fazit 4 Stäbe sind ein wichtiges Werkzeug für das Management komplexer Lagen. 4 Professionelle Stabsarbeit verlangt gut ausgebildete Stabsmitarbeiter. Erfolgreiche Stabsarbeit braucht Moderatoren. Erfolgsbegründend für die Teamarbeit ist die Bildung und Aufrechterhaltung gemeinsamer mentaler Modelle und eine gute Teamkommunikation. 6
269 16.6 · Literatur
4 Für viele kritische Situationen kann man im Voraus Entscheidungen treffen und Regeln aufstellen. Dies entlastet in der akuten Situation. 4 Intensivere Forschung zu Human Factors in Stäben wäre hilfreich für die Weiterentwicklung der Stabsarbeit.
16.6
Literatur
Bandura, A. (1986). Social foundations of thought and action: a social-cognitive theory. Englewood Cliffs, NJ: Prentice Hall. Baron, R. S., Kerr, N. L. & Miller, N. (1992). Group process, group decision, group action. Buckingham: Open University Press. Bremische Bürgerschaft (1988). Untersuchungsausschuss Geiseldrama-Abschlußbericht (Bürgerschaftsdrucksache 12/667). Unveröffentlichter Bericht. Brehm, J. W. (1966). A theory of psychological reactance. New York: Academic Press. Cannon-Bowers, J. A. & Salas, E. (2001). Reflections on shared cognition. Journal of Organizational Behavior, 22, 195–202. Cannon-Bowers, J. A., Salas, E. & Converse, S. (1993). Shared mental models in expert team decision making. In N. Castellan (ed.), Individual and group decision making (pp. 221– 246). Hillsdale, NJ: Lawrence Erlbaum. Crego, J. & Spinks, T. (1997). Critical incident management simulation. In R. Flin, E. Salas, M. Strub & L. Martin (Eds.), Decision making under stress: Emerging themes and applications (pp. 85–94). Aldershot: Ashgate. Davies, M. (1999). Making your command center a success. Online-Dokument: http://www.davislogic.com/command. htm#Incident%20Command%20System [Zugriff am 02.07.2007]. Fink, S. (1986). Crisis management. Planning for the inevitable. New York: Amacom. Flin, R. (1996). Sitting in the hot seat: Leaders and teams for critical incident management. Chichester: John Wiley & Sons. Flin, R. & Stewart, E. (1996) Taking action. Police incident commanders decision making. Policing Today, 2 (4), 14–17. Flin, R., Salas, E., Strub, M. & Martin, L. (1997). Decision making under stress: Emerging themes and applications. Aldershot: Ashgate. Flin, R. & Arbuthnot, K. (Eds.) (2002). Incident command: Tales from the hot seat. Aldershot: Ashgate Gahlen, M., Kranaster, M. & Arbeiter, K. (2008). Krisenmanagement. Planung und Organisation von Krisenstäben. Stuttgart: Kohlhammer/Deutscher Gemeindeverlag. ’t Haart, P. (2001). Krisenstäbe und Krisenmanagement. In R. Fisch, D. Beck & B. Englich (Hrsg.), Projektgruppen in Organisationen. Praktische Erfahrungen und Erträge der For-
16
schung (S. 199–213). Göttingen: Verlag für Angewandte Psychologie. Höcherl, H. (1978). Bundestagsdrucksache 08/1881–1978 (»Höcherl-Bericht«). Bonn: Deutscher Bundestag. Hofinger, G. (Hrsg.) (2005). Kommunikation in kritischen Situationen. Herausgegeben im Auftrag der Plattform »Menschen in komplexen Arbeitswelten« e. V. Frankfurt a. M.: Verlag für Polizeiwissenschaft. Horn, G. & Strohschneider, S. (2005). Kommunikation im Krisenstab. In G. Hofinger (Hrsg.), Kommunikation in kritischen Situationen. Herausgegeben im Auftrag der Plattform »Menschen in komplexen Arbeitswelten« e. V. (S.101–120). Frankfurt a. M.: Verlag für Polizeiwissenschaft. Janis, I. (1972). Groupthink. Psychological studies of policy decisons and fiascoes. Boston: Houghton Mifflin. Klein, G. (2003). Natürliche Entscheidungsprozesse. Über die »Quellen der Macht«, die unsere Entscheidungen lenken. Paderborn: Jungermann. Martin, L., Flin, R. & Skriver, J. (1997). Emergency decision making – A wider decision framework. In R. Flin, E. Salas, M. Strub & L. Martin (Eds.), Decision making under stress: Emerging themes and applications (pp. 280–290). Aldershot: Ashgate. Orasanu, J. & Salas, E. (1993). Team decision-making in complex environment. In G. A. Klein & J. Orasanu (Eds.), Decision making in action. Models and methods (pp. 158–171). Norwood: Ablex. Pearce, T. & Fortune, J. (1995). Command and control in policing: A systems assessment of the gold, silver and bronze structure. Journal of Contingencies and Crisis Management, 3 (3), 181. Prondzinsky, P. von (1995). Polizei-Führungsstäbe und -Führungsgruppen. Deutsches Polizeiblatt für Aus- und Fortbildung, 13, 6–9. Rasker, P. R. & Schraagen, J. M. (1999). The role of communication in teams performing command & control tasks in unexpected situations. TNO-TM 99-C018. Soesterberg: TNO Human Factors Research Institute. Reinwarth, R. (2003). Standard Operating Procedures als Entscheidungsgrundlage in der Luftfahrt. In S. Strohschneider (Hrsg.), Entscheiden in kritischen Situationen. Herausgegeben im Auftrag der Plattform »Menschen in komplexen Arbeitswelten« e. V. (S. 13–23). Frankfurt a. M.: Verlag für Polizeiwissenschaft. Rouse, W. B., Cannon-Bowers, J. A. & Salas, E. (1992). The role of mental models in team performance in complex systems, IEEE transactions on systems, man, and cybernetics, 22, 1296–1308. Salas, E., Cannon-Bowers J. A. & Weaver, J. (2002). Command and control teams: principles for training and assessment. In R. Flin & K. Arbuthnot (Eds.), Incident command: tales from the hot seat (pp. 239–257) Aldershot: Ashgate. Schneider, M., Graham, J., Bauer, A., Bessiere, K. & Gonzalez, C. (2004). Shared mental models in military command and control organizations: Effect of social network distance. Paper presented at the Human Factors and Ergonomics Society 48th Annual Meeting, New Orleans.
270
Kapitel 16 · Stabsarbeit und »Ständige Stäbe« bei der Polizei: Sicherheit durch Professionalisierung
Starke, S. (2005). Kreuzfahrt in die Krise. Wie sich kritische Situationen im Planspiel trainieren lassen. Frankfurt a. M.: Verlag für Polizeiwissenschaft. Stout, R., Cannon-Bowers, J., Salas, E. & Milanovich, D. (1999). Planning, shared mental models, and coordinated performance: An empirical link is established. Human Factors, 41, 61–71. Strohschneider, S. (Hrsg.) (2003). Entscheiden in kritischen Situationen. Im Auftrag der Plattform »Menschen in komplexen Arbeitswelten« e. V. Frankfurt a. M.: Polizei und Wissenschaft. Strohschneider, S. & Gerdes, J. (2004). MS Antwerpen: Emergency management training for low risk environments. Gaming & Simulation, 35, 394–413.
16
Tschan, F. & Semmer, N. (2000). Wenn alle dasselbe denken: Geteilte mentale Modelle und Leistung in der Teamarbeit. In R. Fisch, D. Beck & B. Englich, Projektgruppen in Organisationen. Praktische Erfahrungen und Erträge der Forschung (S. 217–235). Göttingen: Verlag für Angewandte Psychologie. Tversky, A. & Kahneman, D. (1974). Judgment under uncertainty: Heuristics and biases. Science, 185, 1124–1131. Ungerer, D., Hesel, H. & Morgenroth, U. (1993). Risikoprofile und Belastungen im Feuerwehreinsatz in VFDB. Forschung und Technik im Brandschutz, 2, 44–61. Watzlawick, P. & Krieg, P. (Eds.) (1991). Das Auge des Betrachters. Beiträge zum Konstruktivismus. München: Piper.
V Prozesse gestalten im Dienst der Sicherheit 17
Komplexität handhaben – Handeln vereinheitlichen – Organisationen sicher gestalten – 273
18
Human-Factors-Training
19
Systemgestaltung und Automatisierung
– 289 –307
17
Komplexität handhaben – Handeln vereinheitlichen – Organisationen sicher gestalten Tanja Manser
17.1
Fallbeispiel: Standardisierung in der Hämotherapie – 274
17.2
Umgang mit Komplexität auf der Ebene der Organisation
17.2.1 17.2.2 17.2.3
Was ist ein System? – 276 Merkmale komplexer Arbeitssysteme – 276 Komplexitätsmanagement: Von der Minimierung von Unsicherheit zu einem kompetenten Umgang mit Unsicherheit – 277
17.3
Organisationen sicher gestalten
17.3.1 17.3.2
Lose Kopplung – 285 Sicherheitskultur – 286
17.4
Zusammenfassung
17.5
Literatur
– 287
– 286
– 285
– 275
274
Kapitel 17 · Komplexität handhaben – Handeln vereinheitlichen – Organisationen sicher gestalten
17.1
Fallbeispiel: Standardisierung in der Hämotherapie
Beispiel
17
Ein wichtiger, weltweit durch Gesetze geregelter und daher in hohem Maße standardisierter Bereich der medizinischen Patientenversorgung ist die Hämotherapie – der Umgang mit Blut oder Blutprodukten. Dennoch ereignen sich immer wieder schwerwiegende Komplikationen bei der Transfusion, was zu einem nicht unerheblichen Teil auf Regelverletzungen rückführbar ist (vgl. z. B. Linden, Wagner, Voytovich & Sheehan, 2000; Whitsett & Robichaux, 2001). In der Transfusionsmedizin gibt es qualitativ verhältnismäßig gute Zwischenfallsberichte, deren Auswertung in der Vergangenheit zu Anpassungen des Regelsystems und zur Integration zusätzlicher Sicherheitsvorkehrungen (z. B. von Barcodesystemen) geführt hat. Im Folgenden werden zunächst die verschiedenen Ebenen des Regelsystems skizziert, bevor an einem Ausschnitt beispielhaft diskutiert wird, welche Arten von Regeln hier zur Anwendung kommen. Im Transfusionsgesetz sowie in darauf aufbauenden Richtlinien zur Gewinnung und Anwendung von Blut, Blutbestandteilen oder Blutprodukten wird teilweise sehr detailliert festgelegt, wie die einzelnen Handlungsschritte von der Auswahl des Spenders bis zur Überwachung des Empfängers zu erfolgen haben, z. B. für Deutschland in den Richtlinien und Leitlinien zur Hämotherapie der Bundesärztekammer, Stand: 05.11.2005 (online verfügbar unter http://www.bundesaerztekammer.de/page. asp?his=0.7.45.3242; letzter Zugriff am 29.01.2008). Unter anderem ist das Vorhandensein eines Qualitätssicherungssystems einschließlich eines Handbuchs gefordert, in dem die wesentlichen Abläufe beim Umgang mit Blutprodukten für die jeweilige Organisation beschrieben sind. Die Ausarbeitung eines solchen, für die gesamte Organisation verbindlichen Transfusionshandbuchs erfolgt in der jeweiligen Organisation meist zentral in der Abteilung für Transfusionsmedizin. Sowohl für die Abteilungen, die Blut oder Blutprodukte gewinnen und für die Patientenversorgung bereitstellen, als auch für die Anwender von Blut-
produkten sind die Abläufe im Umgang mit Blut oder Blutprodukten somit standardisiert. Grundsätzlich bedarf jede Bluttransfusion nicht nur der ärztlichen Indikation, sondern auch der Einwilligung des Patienten nach entsprechender Aufklärung, wovon nur in begründeten Notfällen abgewichen werden kann. Vor Beginn der Transfusion hat der transfundierende Arzt am Patienten persönlich zu überprüfen, ob das Präparat für den betreffenden Empfänger bestimmt ist, die Blutgruppe des Präparats (Präparate-Etikett) dem Blutgruppenbefund des Empfängers entspricht bzw. mit diesem kompatibel ist und die Präparatenummer mit den Angaben im Begleitschein übereinstimmt. Darüber hinaus müssen das Verfallsdatum, die Unversehrtheit des Blutbehältnisses und die Gültigkeit der Verträglichkeitsprobe überprüft werden. Viele Organisationen haben bezüglich dieses Prüfschritts zusätzliche Regeln definiert, die z. B. die Kontrolle durch 2 unabhängige Personen oder eine gemeinsame Durchführung der Kontrolle fordern, wobei teilweise eine Standardisierung der Kommunikation angestrebt wird, wie sie in der Luftfahrt etabliert ist. Damit dieser Prüfschritt greifen kann, sind im Vorfeld der Bluttransfusion neben der transfusionsserologischen Untersuchung v. a. die Standards zur eindeutigen Beschriftung von Verträglichkeitsproben, Blutprodukten und deren Begleitschein zentral für die Identitätssicherung, also die verwechslungsfreie Zuordnung von Blutspender und Blutprodukt. Zum Abschluss dieses Fallbeispiels wird der AB0-Identitätstest für eine vertiefte Betrachtung herausgegriffen (. Tab. 17.1), da schwerwiegende Transfusionsreaktionen oft auf AB0-inkompatiblen Fehltransfusionen beruhen. Als zentrale Ursache für derartige Fehltransfusionen sind in zahlreichen Studien Verwechslungen an verschiedenen Punkten im Prozess von der Gewinnung bis zur Gabe von Blutprodukten identifiziert worden. Entsprechend ist der AB0-Identitätstest der letzte einer ganzen Serie von Prüf- und Dokumentationsschritten, die gemeinsam sicherstellen sollen, dass es nicht zu einer lebensbedrohlichen immunologischen Reaktion auf das verabreichte Blutprodukt kommt.
275 17.2 · Umgang mit Komplexität auf der Ebene der Organisation
17
. Tab. 17.1. Kommentierter Auszug aus den Richtlinien und Leitlinien zur Hämotherapie der deutschen Bundesärztekammer (Stand: 05.11.2005)
Vorgaben zur Durchführung von AB0-Identitätstest
Kommentar
Unmittelbar vor der Transfusion von Blutkomponenten ist vom transfundierenden Arzt oder unter seiner direkten Aufsicht der AB0-Identitätstest (auch »Bedside-Test« genannt) am Empfänger vorzunehmen (z. B. auf Testkarten). Er dient der Bestätigung der zuvor bestimmten AB0-Blutgruppenmerkmale des Empfängers
Dieses Element der Richtlinie nimmt Bezug auf das professionelle Wissen der im System tätigen Personen hinsichtlich der Durchführung des Bedside-Tests und der zu verwendenden Arbeitsmittel. Es wird jedoch nicht nur ein Ziel definiert, sondern auch eine Aussage getroffen, wann im Prozess dieser Test zu erfolgen hat
Der AB0-Identitätstest kann auch zusätzlich aus dem zu transfundierenden Erythrozytenkonzentrat (Erythrozyten = rote Blutkörperchen) durchgeführt werden
Diese Formulierung hat keinen imperativen Charakter. Es handelt sich um eine rein fakultative Vorgehensweise, die in vielen Einrichtungen eine bewährte Praxis darstellt
Das Ergebnis ist schriftlich zu dokumentieren
Hier wird lediglich ein Ziel vorgegeben. Fragen der Aufgabenverteilung können in der Autonomie der Mitarbeitenden oder durch zusätzliche organisationsinterne Richtlinien geregelt sein. Viele Organisationen verfügen zusätzlich über Checklisten zur Unterstützung bei der Interpretation des Testergebnisses
Bei Unstimmigkeiten ist das Laboratorium bzw. die transfusionsmedizinische Einrichtung umgehend zu benachrichtigen
Hier wird sowohl definiert, unter welchen Rahmenbedingungen dieser Handlungsschritt zu erfolgen hat, als auch mit welcher Dringlichkeit. Prozesstransparenz hinsichtlich der an anderer Stelle daraufhin veranlassten Maßnahmen zu schaffen und damit eine adäquate Einschätzung der Bedeutung dieser Benachrichtigung zu unterstützen, ist eine organisationsinterne Aufgabe
Für die Eigenbluttransfusion (autologe Hämotherapie) sind zusätzliche Vorschriften zu beachten. Bei Anwendung erythrozytenhaltiger Eigenblutpräparate ist der Bedside-Test beim Empfänger und beim Produkt, bei allogenen Bluttransfusionen nur beim Empfänger zwingend vorgeschrieben
Hier wird für eine Variante spezifiziert, in welchem Fall welche Regel zur Anwendung kommen soll
Dieses Beispiel veranschaulicht, wie Standardisierung auf unterschiedlichen Ebenen stattfindet (z. B. gesetzliche Vorgaben auf nationaler Ebene und Richtlinien zur Qualitätssicherung innerhalb einer Organisation) und wie eine Verzahnung der Regelwerke relativ lose gekoppelter Subsysteme (z. B. Blutbank, Labor, transfundierender Arzt) zur Koordination innerhalb einer Organisation beitragen kann. Gleichzeitig werden jedoch auch gewisse Ermessensund Handlungsspielräume deutlich, die auf die Kompetenzen der im System tätigen Personen vertrauen.
17.2
Umgang mit Komplexität auf der Ebene der Organisation
Komplexität gehört seit vielen Jahren zu den zentralen Konzepten in der wissenschaftlichen und praxisorientierten Literatur zu sicherem Arbeitshandeln
und sicherheitsförderlicher Organisationsgestaltung. Es ist von komplexen Systemen, komplexen Zusammenhängen, komplexem Problemlösen usw. die Rede. Die Charakterisierung von Organisationen und Arbeitssystemen als komplexe Systeme nimmt Bezug auf 2 Aspekte: Zum einen darauf, dass es sich um eine von ihrer Umwelt unterscheidbare, geordnete Ganzheit von Elementen handelt (Systemaspekt, 7 Kap. 17.2.1). Zum anderen darauf, dass die Systemelemente zueinander in einer spezifischen, dynamischen Beziehung stehen und in vielfältiger Weise interagieren (Komplexitätsaspekt, 7 Kap. 17.2.2). Der vorliegende Beitrag veranschaulicht, weshalb aus der Perspektive sicherheitsförderlicher Organisationsgestaltung dem kompetenten Umgang einer Organisation und der darin tätigen Individuen mit dieser Komplexität eine zentrale Bedeutung zukommt.
276
17.2.1
Kapitel 17 · Komplexität handhaben – Handeln vereinheitlichen – Organisationen sicher gestalten
Was ist ein System?
Systeme sind dynamische Ganzheiten, deren Komponenten miteinander vernetzt sind und wechselseitig aufeinander einwirken (für eine Einführung vgl. Ninck, Bürki, Hungerbühler & Mühlemann, 1998). Systeme werden als offen bezeichnet, wenn sie mit ihrer Umwelt in Wechselbeziehung stehen. Die Grenzen eines Systems gegenüber seiner Umwelt, d. h. gegenüber einem umgebenden System, sind nicht absolut gegeben, sondern in Abhängigkeit von der jeweiligen Perspektive und Fragestellung einer Systembetrachtung zu definieren. So ist z. B. eine bestimmte Abteilung eines Betriebes aus Organisationsperspektive ein Subsystem, während die Organisation aus Sicht der Abteilung als Teil der Systemumwelt anzusehen ist.
17.2.2
17
Merkmale komplexer Arbeitssysteme
Die Komplexität eines Systems lässt sich zunächst mittels dreier sehr allgemeiner Kriterien und deren Bedeutsamkeit im Handlungskontext beschreiben (7 Kap. 5.3). Es sind die Anzahl (Simon, 1962), die Vielfalt oder Unterschiedlichkeit (Schröder, Driver & Streufert, 1967) und die Vernetztheit, d. h. die wechselseitige Abhängigkeit und Verflochtenheit der für den Akteur bedeutsamen Komponenten eines Systems (Dörner, 1976). Im Laufe der psychologischen Auseinandersetzung mit dem Umgang mit Komplexität hat sich das wissenschaftliche Verständnis komplexer Systeme zunehmend von einer rein an objektiven Systemmerkmalen orientierten Sichtweise (kybernetischer Komplexitätsbegriff) hin zu einer Auffassung von Komplexität als Zusammenspiel von System- und Akteursmerkmalen verlagert. Entsprechend stellen systemtheoretische Organisationskonzepte die Anforderungen im Umgang mit komplexen Systemen in den Vordergrund. Aus den Charakteristika komplexer Systeme erwachsen spezifische (kognitive) Anforderungen für die in diesen Systemen tätigen Personen (s. folgende Übersicht). Die Akteure und Akteurinnen begegnen diesen Anforderungen mit bestimmten (kognitiven) Strategien wie z. B. Komplexitätsreduktion durch vereinfachende Annahmen
(z. B. Dörner, 1989; Fuhrer, 1984; Kluwe, 1997). Komplexität ist aus dieser Perspektive keine objektive Größe, sondern eine subjektive.
Merkmale komplexer Systeme (vgl. Dörner, 1981; Dörner, Kreuzig, Reither & Stäudel, 1983; Kluwe, 1997) Aufgrund der Vielzahl und Vielfalt ihrer untereinander vernetzten Komponenten konfrontieren komplexe Systeme die darin tätigen Personen mit großen Informationsmengen und sind weitgehend intransparent; d. h., einzelne Komponenten sowie deren materielle, funktionale und informationelle Verknüpfungen sind den darin tätigen Personen u. U. nur vage oder gar nicht bekannt. Die Vorhersehbarkeit des Systemverhaltens und damit auch die Steuerbarkeit komplexer Systeme werden weiterhin dadurch erschwert, dass die Komponenten des Systems auf vielfältige Weise miteinander interagieren (Vernetztheit). Eingriffe in das System beeinflussen nicht nur die Zustände einzelner Komponenten, sondern deren Effekte breiten sich im System aus und bedingen eine Vielzahl von Veränderungen. Kleine Abweichungen bleiben nicht lokal begrenzt, sondern können sich auf schwer prognostizierbare Weise im System ausbreiten. Zudem verändert sich der Zustand eines komplexen Systems in der Zeit, d. h. auch ohne Eingriffe von außen (Dynamik komplexer Systeme). Entsprechend interagieren Eingriffe in das System stets mit den Effekten der Eigendynamik des Systems, wodurch sich die Auswirkungen dieser Eingriffe in unvorhergesehener Weise verstärken können (Nichtlinearität).
Fasst man die Merkmale komplexer Systeme zusammen und betrachtet deren Auswirkungen auf die Handlungsanforderungen der in diesen Systemen tätigen Personen (z. B. die Intransparenz von Zusammenhängen zwischen Systemeingriffen der Akteure und deren Auswirkungen im System oder der trotz unvollständiger Informationen bestehende Entscheidungsdruck), kristallisiert sich der Umgang mit Unsicherheit als eine zentrale Anforderung auf
277 17.2 · Umgang mit Komplexität auf der Ebene der Organisation
17
. Abb. 17.1. Grundlegende Strategien des Umgangs mit Unsicherheit in Organisationen
verschiedenen Ebenen der Organisation heraus (7 Kap. 10.2). Entsprechend haben sich verschiedene Forschungsrichtungen innerhalb der Arbeits- und Organisationspsychologie – unter Verwendung unterschiedlicher Begriffe und mit unterschiedlichen Schwerpunktsetzungen – mit diesem Thema befasst. Im Folgenden werden 2 grundlegende Tendenzen im Komplexitätsmanagement skizziert: der Versuch, Unsicherheit zu minimieren, und der Versuch, einen kompetenten Umgang mit Unsicherheit zu finden (. Abb. 17.1).
17.2.3
Komplexitätsmanagement: Von der Minimierung von Unsicherheit zu einem kompetenten Umgang mit Unsicherheit
In der organisationswissenschaftlichen Auseinandersetzung mit komplexen Arbeitssystemen sind 2 wesentliche Quellen von Unsicherheit identifiziert worden: zum einen die in einem System durchgeführten Arbeitsprozesse selbst (z. B. die Landung eines Passagierjets) und zum anderen die Umwelt, in der dies stattfindet (z. B. die Wetterverhältnisse am Zielort). Viele Organisationen – allen voran solche, die in hohem Maße Sicherheitsrisiken bergen – versuchen, durch Maßnahmen der Arbeits- und Orga-
nisationsgestaltung Komplexität zu reduzieren und die damit verbundene Unsicherheit zu minimieren (z. B. durch Standardisierung, Technisierung bis hin zur Automatisierung oder durch Verbesserung der Prognosemodelle). In der klassischen Managementtheorie wurden Organisationen als »geschlossene Systeme« konzeptualisiert, in denen Zielerreichung vorwiegend über eine Reduktion der aus der Interdependenz der Systemkomponenten resultierenden Unsicherheit gewährleistet werden kann (vgl. Hayes, 1980). Taylors Prinzipien der wissenschaftlichen Betriebsführung (Taylor, 1911) sind ein Beispiel für eine Strategie der Arbeits- und Organisationsgestaltung, in deren Zentrum die Reduktion von Unsicherheit im Arbeitsprozess – die als vorwiegend auf den Menschen als »Störfaktor« in einem ansonsten vollständig planund vorhersehbaren und damit zentral steuerbaren System zurückgeführt werden – steht. Solch ein Versuch der Minimierung von Unsicherheit setzt eine enge Kopplung zwischen zentraler Planung und dezentraler Umsetzung voraus. Angestrebt wird diese enge Kopplung meist über komplexe, zentrale Planungssysteme und eine Reduktion operativer Handlungsspielräume durch Reglementierung und Automatisierung. Erfolgreich sind solche Strategien der Organisationsgestaltung vor allem, wenn die Umweltbedingungen und der Produktionsprozess selbst (z. B. kon-
278
Kapitel 17 · Komplexität handhaben – Handeln vereinheitlichen – Organisationen sicher gestalten
stante Qualität der zu verarbeitenden Rohstoffe, seltene Aus- und Störfälle der technischen Produktionsmittel) relativ konstant sind und die Vorgehensweisen zur Korrektur eventueller Schwankungen und Störungen algorithmisierbar sind (vgl. Perrow, 1967). Im Folgenden wird der Fokus zunächst auf Standardisierung gelegt, bevor alternative Ansätze der Organisationsgestaltung vorgestellt werden.
Standardisierung Standardisierung ist, neben 4 Spezialisierung (Grad der Differenzierung und Arbeitsteilung einer Organisation), 4 Zentralisierung (Grad der Konzentration der Entscheidungsmacht an der Spitze der Organisation) und 4 Formalisierung (Aktenmäßigkeit bzw. Schriftlichkeit verschiedener Prozesse und Vorgehensweisen),
17
eine zentrale Strategie der Organisationsgestaltung, die auf die Minimierung von Unsicherheit ausgerichtet ist (Gebert, 1995). Ursprünglich geht der Begriff des Standards zurück auf die Standarte, also das Königszeichen, das sowohl den Sammelpunkt der Soldaten festlegte als auch die im Namen des Königs definierten Normen als verbindlich erklärte und damit vereinheitlichend wirkte. Auch im heutigen Sprachgebrauch bedeutet Standardisierung Vereinheitlichung und kann sich auf Produkte, Geräte, Verfahrensweisen etc. beziehen. Generell bieten etablierte Standards Orientierung und haben damit eine wichtige handlungsleitende, z. T. auch eine Unsicherheit reduzierende Funktion in komplexen Arbeitssystemen, aber auch im Alltag. Im technischen Bereich existiert z. B. eine Vielzahl von Standards und Normen (z. B. DIN), die es über die Spezifikation von Maßen, Typen etc. erst ermöglichen, unterschiedliche Komponenten unabhängig voneinander zu entwickeln und dennoch deren problemlose Integrationsfähigkeit in ein komplexes technisches System sicherzustellen. Geht es hingegen um die Standardisierung dynamischer Prozesse, wird eine Vereinheitlichung vorwiegend durch Regeln (aus lat. regula: Maßstab, Richtschnur) oder Programme angestrebt (s. folgende Übersicht). March, Schulz & Zhou (2000) bezeichnen Regeln als das prototypische Instrument des Organisierens:
»Rules are ubiquitous in human behavior, but they are particularly conspicuous in formal organizations and are often seen as the prototypical instruments of organizing. Modern formal organizations are characterized by their structured and stable patterns of collective behavior, sustained by and reflected in routines, procedures, regulations, conventions, and other forms of organizational rules. Rules routinize organizational activities and define authority relations, connections among subunits, and decision making structures.« (March, Schulz & Zhou, 2000, S. 8 f.)
In der Praxis greifen Standardisierungsbestrebungen auf unterschiedlichen Ebenen des Tätigkeitszusammenhangs ineinander und nehmen aufeinander Bezug. Zum Beispiel existiert für den Straßenverkehr ein Regelwerk, das nicht nur Vorgehensweisen in unterschiedlichen Verkehrssituationen spezifiziert, sondern auch Rahmenbedingungen und Voraussetzungen festlegt. So ist z. B. definiert, dass die Qualifikation der Verkehrsteilnehmer gewissen Mindeststandards genügen muss, dass die Fahrzeuge sicherheitstechnischen Standards entsprechen müssen und dass bestimmte Zeichensysteme gelten, die die Kommunikation und Koordination der Verkehrsteilnehmer weitgehend standardisieren. Vorteile von Standardisierung im Kontext komplexer Arbeitssysteme
4 Orientierungsfunktion für alle am Systemgeschehen beteiligten Akteure und damit verbunden eine Erhöhung der Antizipationsweite bezogen auf den Produktionsprozess und die Handlungen der anderen Akteure 4 Koordinationsfunktion und die damit einhergehende Vereinfachung des Informationsaustausches (z. B. durch Standardisierung von Form, Inhalt, Zeitpunkt, zu nutzenden Kommunikationsmedien) und der Zusammenarbeit auch bei einem geringen Maß an gemeinsamer Arbeitserfahrung 4 Vereinheitlichung von technologischen und organisationalen Schnittstellen und damit sowohl eine verbesserte Austauschbarkeit technischer Komponenten als auch eine höhere Integration verschiedener Bearbeitungsschritte im Produktionsprozess
279 17.2 · Umgang mit Komplexität auf der Ebene der Organisation
17
Handeln vereinheitlichen Programme bzw. Regeln, die auf eine Vereinheitlichung des Arbeitshandelns auf operativer Ebene zielen, sind ein zentrales Element des Komplexitätsmanagements. In den Organisationswissenschaften sind verschiedene Ansätze zur Kategorisierung dieser Programme bzw. Regeln vorgeschlagen worden, von denen 2 hier kurz skizziert werden: a) Cyert & March (1963) unterscheiden zwischen Ausführungsprogrammen und Zweckprogrammen. 4 Ausführungsprogramme schreiben für bestimmte Situationen bestimmte Entscheidungen und Handlungen vor. Sie entbinden damit die Akteure, die das Programm ausführen, davon, in häufig wiederkehrenden Situationen jeweils neu zu reflektieren, worin eine angebrachte Lösung bestehen könnte. Zum Beispiel muss ein Techniker nicht immer wieder von Neuem darüber nachdenken, wann er bestimmte Wartungsarbeiten an einer komplexen Anlage ausführen muss, wenn er von Programmen angewiesen wird, in denen dies festgelegt wurde. Das notwendige Erfahrungs- und Spezialistenwissen wurde in dem Programm hinterlegt und soll damit dazu beitragen, eine gleichbleibende Qualität bestimmter Prozesse unabhängig von Wissensunterschieden zwischen Akteuren zu gewährleisten. 4 Zweckprogramme geben lediglich Ziele vor, der Weg zu diesen Zielen bleibt dabei weitgehend offen bzw. den ausführenden Akteuren überlassen. Sie kommen typischerweise dann zum Einsatz, wenn eine genaue Spezifizierung der Vorgehensweise zur Zielerreichung nicht sinnvoll oder schlichtweg unmöglich wäre (z. B. bei der Entwicklung eines neuen Produkts). Je komplexer die durch das Programm beschriebene Situation ist und je schwieriger es ist, die Entwicklung der bedeutsamen Parameter in der Organisationsumwelt zu 6
antizipieren, desto eher wird deshalb der betreffende Arbeitsprozess durch ein Zweckprogramm und nicht durch ein Ausführungsprogramm abgebildet und gesteuert werden. b) Hale (1990) sowie Hale & Swuste (1998) haben auf der Grundlage handlungstheoretischer Konzepte und der Unterscheidung von fähigkeits-, regel- oder wissensbasiertem Handeln von Rasmussen (1983) einen weiteren Kategorisierungsansatz für Regeln ausgearbeitet. 4 Zieldefinierende Regeln legen lediglich das zu erreichende Ziel fest (z. B. den maximalen Druck in einem Tank zur Lagerung toxischer Substanzen), spezifizieren aber nicht, wie dieses Ziel erreicht werden soll. Die Effektivität solcher Regeln und die Überprüfbarkeit der Regelbefolgung werden maßgeblich von der Messbarkeit der zu erreichenden Ziele beeinflusst. 4 Prozedurale Regeln oder Problemlöseregeln legen die Art und Weise fest, wie und von wem Entscheidungen über das weitere Vorgehen in einer gegebenen Situation zu treffen sind. Hierbei können die Personen, die in eine solche Entscheidung einbezogen werden müssen, bestimmt werden, sowie die Methoden zur Entscheidungsfindung, die zu berücksichtigenden Systemparameter usw. Wie der Problemlöse- und Handlungsweg im Detail gestaltet wird, ist durch diesen Typ von Regeln nicht festgelegt. In der Beurteilung, ob die entsprechende Regel befolgt wurde, muss der Problemlöseprozess nachvollzogen und die Angemessenheit der jeweiligen Entscheidungen beurteilt werden. 4 Ausführungsregeln legen demgegenüber im Detail fest, welche Handlungsschritte in welcher Reihenfolge durchzuführen sind und welche Systemzustände es jeweils zu erreichen gilt. Wenn es nicht möglich ist, Operateure in solchen Prozessen durch Automatisierung zu ersetzen, wird zumindest angestrebt, ihre Handlungen möglichst vollstän-
280
Kapitel 17 · Komplexität handhaben – Handeln vereinheitlichen – Organisationen sicher gestalten
dig zu vereinheitlichen und so in »sichere Bahnen« zu lenken. Damit sind die Handlungsspielräume für die im System tätigen Personen auf ein Minimum reduziert. Die Regelbefolgung kann durch Beobachtung der Arbeitsausführung sowie das Messen von Systemzuständen beurteilt werden.
Betrachtet man die in . Tab. 17.2 aufgeführten Vorund Nachteile von Regeln, wird deutlich, dass Ausführungsregeln – im Gegensatz zu zieldefinierenden Regeln – sowohl die Vorteile als auch die Nachteile maximieren.
. Tab. 17.2. Vor- und Nachteile von Regeln. (Hale & Swuste, 1998)
17
Für die Regeln erlassende Instanz
Für die Regeln befolgende Person
Vorteile
4 Erhöht die Vorhersehbarkeit über Personenhinweg 4 Definiert Aufgaben und Verantwortlichkeiten klar 4 Liefert eine Grundlage für die Bewertung und Durchsetzung bestimmter Handlungsweisen
4 Spart Zeit und Aufwand, in bekannten Situationen »das Rad stets neu zu erfinden« 4 Schafft Klarheit über Aufgaben und Verantwortlichkeiten 4 Liefert eine Grundlage für die Einschätzung der eigenen Handlungsweise (z. B. als regelkonform)
Nachteile
4 4 4 4
4 Erschwert das Erkennen neuartiger Situationen, die durch das existierende Regelsystem nicht abgedeckt sind 4 Erlebte Einschränkung der Handlungsfreiheit kann Unzufriedenheit auslösen und die Wahrscheinlichkeit bewusster Regelverletzungen erhöhen
Unterdrückt Innovation der lokalen Akteure Erschwert organisationales Lernen Stellt hohe Anforderungen an das Management Regelgenerierung, -verbreitung und Überwachung der Regeleinhaltung ist ressourcenaufwendig
In den meisten Hochrisiko-Industrien haben sich standardisierte Vorgehensweisen etabliert und werden als zentrales Element zur Gewährleistung eines hohen Maßes von Sicherheit angesehen. Die Frage, wie es zu dieser Standardisierung kommt, wer die Notwendigkeit hierfür definiert, wie Standards, Regeln und Programme erarbeitet, implementiert und kommuniziert werden und auf welchem Spezifikationsniveau dies geschieht (s. Übersicht »Handeln vereinheitlichen«), lässt sich nicht industrieübergreifend beantworten. Für die Effektivität von Standardisierung in der betrieblichen Praxis ist dieser Aspekt jedoch von entscheidender Bedeutung.
chenden Ziele fest und überlassen die Entwicklung technischer Standards und detaillierter Vorgehensweisen zur Erreichung dieser Ziele den jeweiligen Organisationen (Zweckprogramme bzw. zieldefinierende Regeln, s. Übersicht »Handeln vereinheitlichen«). Beispiele hierfür sind die Standardisierung des Umgangs mit Blut und Blutprodukten in der Hämotherapie (s. Fallbeispiel, 7 Kap. 17.1) oder auch die »Seveso II Directive 96/82/EC«, die auf die Vermeidung von Unfällen in Industrien, in denen eine große Menge gefährlicher Substanzen verwendet wird, und die Begrenzung der Schädigung von Menschen und Umwelt durch solche Unfälle ausgerichtet ist.
Gesetzliche Rahmenvorgaben. Organisationsinterne Standardisierungsbemühungen basieren meist auf gesetzlichen Rahmenvorgaben, die den einheitlichen Betrieb über verschiedene Organisationen innerhalb regionaler Grenzen oder auch international innerhalb eines industriellen Sektors sicherstellen sollen. Die gesetzlichen Rahmenvorgaben auf nationaler oder internationaler Ebene legen meist nur die zu errei-
Lokale Standardisierungsbemühungen. Die lokal
definierten, standardisierten Verfahren zur Erreichung dieser Vorgaben können sich je nach kulturellen und ökonomischen Rahmenbedingungen deutlich unterscheiden, was eine zentrale Überwachung beinahe unmöglich macht (vgl. Wettig, 2002). Wie Leplat (1998) ausführlich dargelegt, ist es für die organisationsweite Umsetzung dieser Regeln
281 17.2 · Umgang mit Komplexität auf der Ebene der Organisation
entscheidend, wie diese eingeführt wurden. Unter anderem ist hierbei zu beachten ob die einzuführenden Regeln mit den bisherigen Vorgaben konsistent sind, ob sie für die im System tätigen Personen akzeptabel sind (z. B. in Bezug auf bestehende Qualifikationen und Rahmenbedingen des Handelns) und inwiefern Regeln und deren Dokumentation jederzeit zugänglich sind. Checklisten. In der betrieblichen Praxis findet sich zur Umsetzung von Standards bezüglich technischen Anlagen, Prozessen und Arbeitshandeln eine Vielzahl von Vorgaben, Richtlinien, Regelwerken, Handbüchern, Weisungen, Standard Operating Procedures (SOP), Checklisten etc. Insbesondere die Befolgung von Problemlöse- und Ausführungsregeln wird in der betrieblichen Praxis verschiedener Industriebereiche durch Checklisten unterstützt. Checklisten sollen die Akteure und Akteurinnen entlasten, indem die Auswahl von Handlungsalternativen und die Entscheidungen über die korrekte Vorgehensweise entfallen und zugleich die Ausführung aller erforderlichen Arbeitsschritte in der korrekten Reihenfolge gewährleisten. Beispiele hierfür sind »pre-flight checklists« in der Luftfahrt, Checklisten zur Anlagenwartung in der Prozessindustrie oder auch die im einführenden Fallbeispiel erwähnten Checklisten zur Unterstützung des AB0-Identitätstests. Für verschiedene Industriebereiche konnte gezeigt werden, dass die Anwendung von Checklisten geschult werden muss und auch in der Sicherheitskultur einer Organisation verankert sein muss, damit Checklisten tatsächlich zur Anwendung kommen (vgl. z. B. Piotrowski & Hinshaw, 2002). Dass die Nutzung von Checklisten sicherheitsförderlich ist, belegen verschiedene Studien (vgl. z. B. Harrison, Manser, Howard & Gaba, 2006). Auch hierbei gilt allerdings, dass situationsflexibel entschieden werden muss, wann es von einer Checkliste abzuweichen gilt. Idealerweise sollte eine Checkliste daher spezifizieren, unter welchen Voraussetzungen sie zur Anwendung kommen sollte und wann zu anderen Vorgehensweisen, die ggf. ebenfalls durch Checklisten unterstützt sind, überzugehen ist. Sind keine Rahmenbedingungen definiert, unter denen das Nichtbefolgen von Vorgaben akzeptabel ist, und wird dennoch vom definierten Vorgehen abgewichen, handelt es sich um eine Regelverletzung.
17
Regelverletzungen Bei Regelverletzungen handelt es sich um bewusste Abweichungen von Vorgaben, ohne dass dabei die potenziell negativen Konsequenzen dieser Regelverletzung beabsichtigt wären (7 Kap. 3.4.4 und 7 Kap. 14.1). In der betrieblichen Praxis nehmen Regelverletzungen ihren Ursprung meist in dem Bestreben, die geforderten Arbeitsergebnisse trotz gewisser Hindernisse zu gewährleisten. Je nach Häufigkeit bestimmter Abweichungen im Arbeitsprozess kann dies dazu führen, dass bestimmte Regeln nicht nur in Ausnahmefällen übertreten werden, sondern dass die Regelverletzung Bestandteil des routinisierten Arbeitshandelns wird (vgl. Lawton, 1998). Häufig wird hierbei das mit einer Regelverletzung verbundene Risiko unterschätzt. Eine mögliche Ursache hierfür ist, dass der Sinn gewisser Regeln für die operativ tätigen Personen aufgrund mangelnder Prozesstransparenz nicht nachvollziehbar ist. Aus Organisationsperspektive geht durch routinemäßige Regelverletzungen – und dies ist zunächst einmal unabhängig davon, ob sich dadurch Sicherheitseinschränkungen ergeben oder nicht – die beabsichtigte Koordinationswirkung von Regeln verloren. Die lokale betriebliche Praxis weicht von den zentral vorausgeplanten Abläufen ab; in der Regel ohne dass die für die Planung verantwortlichen Organisationseinheiten hiervon Kenntnis haben. Makro- und mikro-organisationale Faktoren. Ver-
schiedene Studien belegen, dass zur Vermeidung von Regelverletzungen sowohl makro-organisationale als auch mikro-organisationale Faktoren zu berücksichtigen sind (vgl. z. B. Battmann & Klumb, 1993; Lawton, 1998; Simard & Marchand, 1995). Beispiele für makro-organisationale Faktoren sind in diesem Zusammenhang: 4 Haltung des höheren Managements gegenüber Sicherheitsfragen 4 Vorhandensein eines konsistenten Sicherheitsmanagementsystems 4 Stabilität des ökonomischen Umfelds Relevante mikro-organisationale Faktoren sind z. B.: 4 Häufigkeit von Abweichungen im Arbeitsprozess und die damit verbundenen Risiken 4 Kohäsion innerhalb der Arbeitsgruppe 4 Sicherheitsbezogenes Verhalten des unmittelbaren Vorgesetzten
282
Kapitel 17 · Komplexität handhaben – Handeln vereinheitlichen – Organisationen sicher gestalten
Wie Rundmo (2000) zeigen konnte, stellt das Ausmaß, in dem Regelverletzungen in einer Organisation akzeptiert und damit ein Bestandteil der Sicherheitskultur sind, den besten Prädiktor für die Häufigkeit von Regelverletzungen dar (s. zur zentralen Bedeutung der Sicherheitskultur auch 7 Kap. 2.4 und 7 Kap. 9.6.1). Strikte Regelbefolgung notwendig? Im Zusammenhang mit Regelverletzungen stellt sich die Frage, inwiefern es insbesondere in Hochrisiko-Industrien als sicherheitsförderlich anzusehen ist, strikte Regelbefolgung unter allen Umständen zu fordern. 4 Welche möglichen Risiken erwachsen aus einer solchen Forderung? 4 Sind Regeln und standardisierte Vorgehensweisen darauf ausgerichtet, den Operateur in der Überwachung und Steuerung eines komplexen Systems zu unterstützen, oder sollen sie den Operateur kontrollieren? 4 Welche Anforderungen stellt die Forderung nach einer situationsflexiblen Anpassung der Regelanwendung an die Arbeitenden und das Arbeitssystem?
17
Je komplexer ein System ist und je häufiger Prozessschwankungen auftreten, desto schwieriger wird es, für alle möglichen Systemzustände eine passende Regel zu definieren. Es können also Lücken entstehen zwischen den vorhandenen Verfahrensanweisungen und der gegebenen Situation (vgl. Dien, 1998). Die vermeintliche Lösung besteht oft in der Erzeugung von noch mehr und noch umfassenderen Regeln. Wenn als Konsequenz neue Richtlinien erlassen oder vorhandene um Vorgaben für das neu aufgetretene Problem ergänzt werden, nimmt die Regeldichte zu. Eine erhöhte Regeldichte erschwert es den Arbeitenden oft, den Überblick zu wahren und in jeder Situation die richtige Regel zur Anwendung zu bringen. Entsprechend gilt es, Regeldichte und lokale Handlungsspielräume zu balancieren. Bevor auf alternative Ansätze der Organisationsgestaltung eingegangen wird, die konzeptionell an die hier aufgeworfenen Fragen anknüpfen, soll an einem Beispiel aus der Medizin auf Handlungsstile als einem (subjektiv) bedeutsamen Aspekt des Handelns in komplexen Systemen eingegangen werden. Dieser Aspekt, der die Bedeutung der Balance zwi-
schen Vereinheitlichung und Flexibilität hervorhebt, findet in der Diskussion um Standardisierungsbestrebungen bislang wenig Beachtung.
Handlungsstile versus Vereinheitlichung des Handelns? Grundannahme psychologischer Konzepte zu Handlungsstilen bzw. persönlichen Arbeitsweisen oder Arbeitsstrategien ist, dass in der Auseinandersetzung mit der Arbeitstätigkeit – wie auch im Hinblick auf andere Tätigkeiten des Menschen – relativ stabile individuelle Vorgehensweisen ausgebildet werden. So definiert z. B. Triebe (1977, S. 224) Handlungsstrategien als »[...] Formen einer weitgehend bewußtseinsfähigen, wenngleich nicht durchgängig bewußtseinspflichtigen Auseinandersetzung mit den Arbeitsaufgaben und ihren Durchführungsbedingungen, in deren Verlauf es zu einer Herausbildung übergeordneter (unter Umständen jedoch unscharfer, einander vielfältig überlappender und nur zum Teil expliziter)‚Kriterien‘ kommt, an denen sich das Vorgehen orientiert.«
Hacker (1976) betont, dass bei komplexen Tätigkeiten die erfolgreicheren Arbeitenden gerade dadurch zu charakterisieren sind, dass sie selbstständig, ggf. schöpferisch, effiziente und individuelle Strategien entwickeln, die ein Resultat gründlicher gedanklicher Analysen sind. Auf dieser Grundlage ist dann auch ein flexibler Umgang mit Regeln und Standards möglich. Ein komplexes Arbeitssystem, in dem persönliche Arbeitsweisen und Handlungsstile ein zentrales Element des Professionalitätsverständnisses darstellen, ist die Medizin. Dennoch hat die Standardisierungsdiskussion inzwischen auch in die Medizin Einzug gehalten, wobei v. a. ein Mangel an Standardisierung beklagt wird (vgl. z. B. Carayon & Friesdorf, 2006). Woods & Cook (2001) betonen demgegenüber die Grenzen der Standardisierbarkeit in der Medizin und die Notwendigkeit eines angemessenen Umgangs mit Komplexität. Erste empirische Studien belegen, dass die Möglichkeit zur individuellen Anpassung medizintechnischer Geräte (z. B. das Setzen von Alarmen in der Anästhesie) zu Leistungsverbesserungen führen kann, die die Kosten der dafür auf-
283 17.2 · Umgang mit Komplexität auf der Ebene der Organisation
gewendeten Zeit aufwiegen (Watson, Sanderson & Russell, 2004). Um die Bedeutsamkeit von Spielräumen für individuelle Handlungsstile in der Anästhesie aus Sicht der in diesem System tätigen Personen zu erfassen, wurde eine schriftliche Befragung durchgeführt, deren Ergebnisse in der folgenden Übersicht dargestellt sind. Zusammenfassend zeigt sich, dass Handlungsstile von den befragten Ärzten und Pflegekräften als bedeutsam angesehen werden und dass ihnen Relevanz in Bezug auf die Sicherheit der Narkoseführung zugeschrieben wird. Explizit nach
17
einer möglichen Standardisierung gefragt, wird diese zwar von ca. der Hälfte der Befragten als möglich angesehen, eine Harmonisierung der persönlichen Handlungsstile im Sinne eines innerhalb der Abteilung ausgehandelten Konsenses wird jedoch eher als sinnvoll eingeschätzt. Die von Organisationsseite mittels Standardisierung und damit mittels einer Reduzierung der individuellen Entscheidungsspielräume angestrebte Reduktion von Komplexität und der damit verbundenen Unsicherheit wird also von den in der Anästhesie tätigen Personen eher zurückgewiesen.
Harmonisierung statt Standardisierung In die schriftliche Befragung zu Handlungsstilen von Anästhesistinnen und Anästhesisten in der Narkoseführung – verstanden als die individuelle Färbung oder Prägung des Handlungsvollzugs – wurden alle Ärzte und Pflegekräfte einer Klinik für Anästhesiologie einbezogen (Intensivpflegestation und OP-Bereich) (Manser, Leins & Wehner, 1998). Der Rücklauf betrug für die Ärzte 64% (n=56) und für die Pflegekräfte 33% (n=59). Die Fragebogenversion für Ärzte erfragte Selbsteinschätzungen bezüglich des eigenen Handlungsstils, wohingegen die Pflegekräfte um Fremdeinschätzungen bezüglich des Handlungsstils der anderen Berufsgruppe gebeten wurden. Im Folgenden sind die Ergebnisse daher für beide Berufsgruppen getrennt dargestellt. Die angegebenen Prozentwerte beziehen sich bei Fragen mit mehreren Antwortmöglichkeiten darauf, wie viel Prozent aller Antworten zu einem Themenbereich auf diese Alternativen entfallen.
! Nahezu alle Befragten geben an, dass es persönliche Handlungsstile in der Narkoseführung gibt (93% der Pflegekräfte) bzw. dass sie selbst über einen persönlichen Handlungsstil verfügen (100% der Ärzte). 4 Die Vorteile von persönlichen Handlungsstilen liegen nach Einschätzung der Ärzte vorrangig in einer höheren Handlungssicherheit (71%), einer höheren subjektiven Zufriedenheit (67%) und einer höheren Patientensi6
cherheit (51%). Pflegekräfte führen neben der höheren subjektiven Zufriedenheit der narkoseführenden Person (65%) insbesondere eine höhere Flexibilität (65%) als Vorteil an. 4 Nachteile von persönlichen Handlungsstilen werden hauptsächlich auf der Ebene der Zusammenarbeit und dort in einer geringeren Berechenbarkeit für das Team gesehen (50% Ärzte; 61% Pflegekräfte), aber auch in einer mangelnden Austauschbarkeit (39% Ärzte) sowie einer reduzierten Kontrollierbarkeit (42% Pflege). 4 Unterschiede in den persönlichen Handlungsstilen werden v. a. hinsichtlich Sicherheit, Zusammenarbeit und Problemlösung gesehen. Bezüglich Sicherheit werden Unterschiede hinsichtlich vorausschauenden Handelns (48% Ärzte; 60% Pflegekräfte) und der Sicherheit im Umgang mit unerwarteten Ereignissen hervorgehoben (32% Ärzte; 65% Pflegekräfte). Zudem führen Pflegekräfte mit 40% deutlicher Unterschiede in der Nachvollziehbarkeit des Handelns an als Ärzte (20%). 4 Auswirkungen der Unterschiede in den Handlungsstilen werden vorwiegend im Hinblick auf die Arbeitsatmosphäre (beide Personengruppen 84%) und die Interaktion im Team (80% Ärzte; 60% Pflegekräfte), aber auch auf die Patientensicherheit (73% Ärzte; 72% Pflegekräfte) und den Verlauf der Anästhesie (59% Ärzte; 56% Pflegekräfte) gesehen.
284
Kapitel 17 · Komplexität handhaben – Handeln vereinheitlichen – Organisationen sicher gestalten
4 Deutlich über die Hälfte der Befragten (88% Ärzte; 58% Pflegekräfte) gehen davon aus, dass es möglich ist, Handlungsstile zu wechseln. Als möglicher Auslöser für einen Wechsel des Handlungsstils wurden der Erhalt neuer Informationen (63% Ärzte; 54% Pflegekräfte) sowie das Auftreten eines Zwischenfalls (52% Ärzte; 77% Pflegekräfte) und die Zusammensetzung des Teams (67% Ärzte; 47% Pflegekräfte) genannt. 4 Über die Hälfte der Befragten halten sowohl eine für alle Anästhesistinnen und Anästhesisten verbindliche Festlegung der Handlungsverläufe in der Narkoseführung (Standardisierung) als auch einen innerhalb der Abtei-
Grenzen der Standardisierbarkeit und alternative Ansätze der Organisationsgestaltung Die im vorangegangenen Abschnitt dargestellten Ansätze zur Standardisierung veranschaulichen, dass eine auf die Minimierung von Unsicherheit ausgerichtete Organisationsgestaltung enorme Ressourcen für die zentrale Planung und Steuerung sowie die kontinuierliche Überwachung der regelkonformen Ausführung der vorgegebenen Arbeitshandlungen aufwenden muss. Kritiker dieses Ansatzes der Organisationsgestaltung heben v. a. hervor, dass Standardisierung an ihre Grenzen stößt, sobald das Ausmaß der mit der Komplexität des Systems und seiner Umwelt verbundene Unsicherheit ein gewisses Niveau übersteigt, da damit die Fähigkeit des Systems zu situationsflexiblem Verhalten drastisch eingeschränkt wird (vgl. z. B. Amalberti, 1999; Grote, 1997, 2004; Perrow, 1967, 1984; Weick & Sutcliffe, 2001).
17
»Pläne und Programme sind Instrumente der Vorauskoordination. Ihre Koordinationswirkung hängt davon ab, daß zukünftige Entwicklungen vollständig erfasst und korrekt prognostiziert werden.« (Kieser & Kubicek, 1992, S. 117)
So weisen z. B. Ashmos, Duchon, McDaniel und Huonker (2002, S. 196) darauf hin, dass Regelwerke die Anpassung von Organisationen an ihre Umwelt behindern:
lung ausgehandelten Konsens (Harmonisierung der persönlichen Handlungsstile) für möglich. Eine Harmonisierung wird (von 66% der Ärzte und 64% der Pflegekräfte) eher als sinnvoll eingeschätzt als eine Standardisierung (16% der Ärzte und 32% der Pflegekräfte). Positive Auswirkungen einer Harmonisierung beziehungsweise Standardisierung werden insbesondere hinsichtlich der Sicherheit im Umgang mit unerwarteten Ereignissen (71% Ärzte; 53% Pflegekräfte) und der Sicherheit für den Patienten (63% Ärzte; 53% Pflegekräfte) sowie im Hinblick auf die Zusammenarbeit im Team (61% Ärzte; 67% Pflegekräfte) angenommen.
»Complex and timely adaptive behaviors can best be achieved from organizational processes that are free of elaborate, restrictive rules and control features, because elaborate rules and control systems restrict both creative thinking and action.«
Regeln können sich also in verschiedener Hinsicht als Hindernisse für Lernprozesse in Organisationen erweisen. Zum einen engen Regeln – mit dem Ziel der Komplexitätsreduktion – den Handlungsund Entscheidungsspielraum von Akteuren und Akteurinnen ein. Aus Organisationssicht kann eine strikte Regeleinhaltung zwar die Koordination im Sinne der in diesen Regeln gespeicherten Erfahrung gewährleisten, indem das Verhalten der Mitarbeitenden gewissermaßen vorprogrammiert wird. Eine mögliche Konsequenz besteht aber auch in unangemessenen Reaktionen auf (neue) Stimuli aus der Organisationsumwelt oder Schwankungen und Störungen im Arbeitsprozess. ! Seitens der Organisations- und Arbeitswissenschaften wurden alternative Ansätze der Organisationsgestaltung vorgeschlagen, die eine Balance zwischen der Vorhersehbarkeit und Steuerbarkeit eines Systems und dessen Flexibilität anstreben und entsprechend den kompetenten Umgang der in einem komplexen System tätigen Personen mit den Auswirkungen von Unsicherheit ins Zentrum rücken.
285 17.3 · Organisationen sicher gestalten
Regeln und Programme werden in diesem Zusammenhang als Ressource für situatives Handeln verstanden, wobei die Pläne an die situativen Erfordernisse flexibel angepasst werden müssen. Den lokalen Akteuren werden somit Handlungsspielräume übertragen, indem ihnen vollständige Aufgaben delegiert werden. Diese Gedanken finden sich bereits früh in der organisationswissenschaftlichen Literatur und sind u. a. in das zentrale Gestaltungsprinzip des soziotechnischen Systemansatzes (vgl. Emery, 1959) – die lokale Regulation von Schwankungen und Störungen am Ort ihres Entstehens – eingeflossen. Denkt man die Forderung nach einem dezentralen, kompetenten Umgang mit Unsicherheit konsequent weiter und betrachtet Unsicherheit, die damit verbundenen Prozessschwankungen oder allgemeiner gefasst unerwartete Ereignisse nicht primär als Störungen im Arbeitsprozess, die zu eliminieren sind, ist deren zentrale Bedeutung für die Entwicklungsfähigkeit komplexer Systeme, für Veränderung und Innovation einschließlich des Lernens der darin handelnden Personen hervorzuheben (vgl. z. B. Hukki & Norros, 1993; Norros, 1996; Wehner, 1992; Wehner & Stadler, 1994). Entsprechend haben verschiedene Autoren darauf hingewiesen, dass Sicherheitsmanagementsysteme zunächst zu einer Reduktion sog. »incidents« (Beinahe-Unfälle, unplanmäßige Produktionsausfälle, sicherheitsgefährdende Vorkommnisse etc.) führen mögen, dass jedoch die Abwesenheit von »incidents« die Sicherheit eines Systems paradoxerweise wieder reduzieren kann (vgl. Amalberti, 2001; Marais, Saleh & Leveson, 2006). Zum einem reduziert sich hierdurch die Möglichkeit zum Kompetenzerwerb und -erhalt. Zum anderen birgt die (einseitige) Optimierung bestimmter Sicherheitsmaßnahmen in vielen Fällen die Gefahr, wichtige Eigenschaften des Systems zu blockieren und somit dessen Anpassungsfähigkeit zu reduzieren. Werden geringfügige Systemschwankungen überdeckt, reduziert sich die Aufmerksamkeit im System für mögliche »incidents«, da die von den Akteuren auf unterschiedlichen hierarchischen Ebenen wahrgenommene Sicherheit auch die Zufriedenheit mit der eigenen Leistung (»complacency«) steigert (7 Kap. 19). Dies kann dazu führen, dass Sicherheitsziele mit der Zeit verwässert und Investitionen in der Folge von Sicherheitsprogrammen weg
17
und hin zu Maßnahmen zur Produktivitätssteigerung gelenkt werden (Rasmussen, 1997). Nach und nach kann ein System so an den Rand des sicheren Betriebs driften (Rasmussen & Svedung, 2000). Fasst man diese Überlegungen zusammen, so ist es für den Erhalt und eine eventuelle Erhöhung der Sicherheit erforderlich, ein Mindestmaß an Fehlern, Prozessschwankungen, »incidents« etc. zu tolerieren. Nur so kann das Systemwissen der Mitarbeitenden erhalten und die Organisation und die darin tätigen Individuen und Teams auf die kompetente Bewältigung von Zwischenfällen vorbereitet werden. ! Eine grundlegende Anforderung an Organisationen in Hochrisiko-Industrien besteht im Management von Unsicherheit, d. h. darin, eine Balance zu finden zwischen der Minimierung von Unsicherheit durch zentrale Planung und Steuerung und dem Erhalt von Kompetenzen zum dezentralen Umgang mit dieser Unsicherheit (vgl. Grote, 1997, 2004; Weick & Sutcliffe, 2001).
17.3
Organisationen sicher gestalten
Der dezentrale, kompetente Umgang mit Komplexität und der hieraus erwachsenden Unsicherheit nimmt eine zentrale Stellung in der sicherheitsförderlichen Organisationsgestaltung ein. Durch die Dezentralisierung besteht jedoch die Gefahr des Verlusts von Bindung innerhalb einer Organisation. Grote (2004) nimmt in der Diskussion der Frage, wie Organisationen mit Unsicherheit umgehen und eine den jeweiligen Rahmenbedingungen möglichst angemessene Balance zwischen zentraler und dezentralisierter Verteilung von Autonomie und Kontrolle schaffen können, auf das Konzept der »losen Kopplung« Bezug.
17.3.1
Lose Kopplung
Mit der »losen Kopplung« hat Weick ein Konzept in die Organisationswissenschaften eingeführt, das die Gleichzeitigkeit von Autonomie und Bindung in Or-
286
Kapitel 17 · Komplexität handhaben – Handeln vereinheitlichen – Organisationen sicher gestalten
ganisationen bzw. von Zentralisierung und Dezentralisierung betont (Orton & Weick, 1990; Weick, 1976; 7 Kap. 10). Unter »loose coupling« versteht Weick »a situation in which elements are responsive, but retain evidence of separateness and identity« (Orton & Weick, 1990, S. 203). In Anlehnung an Thompson (1967) wird im Konzept der »losen Kopplung« davon ausgegangen, dass Systeme gleichzeitig sowohl offen als auch geschlossen sein können. Geschlossene Systeme suchen nach Sicherheit und Stabilität, wohingegen offene Systeme Unsicherheit erwarten. Treten Geschlossenheit und Offenheit gleichzeitig auf, kann man von einer »losen Kopplung« sprechen: »The resulting image is a system that is simultaneously open and closed, indeterminate and rational, spontaneous and deliberate. [...] Thus, the concept of loose coupling allows theorists to posit that any system, in any organizational location, can act on both a technical level, which is closed to outside forces (coupling produces stability), and an institutional level, which is open to outside forces (looseness produces flexibility).« (Orton & Weick, 1990, S. 204 f.)
17
Nach Orton & Weick (1990) kann »lose Kopplung« dazu beitragen, dass 4 Schwankungen und Störungen in ihren Auswirkungen lokal begrenzt bleiben bzw. sich weniger schnell im System fortpflanzen, 4 das System schneller in der Lage ist, sich an Veränderungen in seiner Umwelt anzupassen, 4 durch mehr Möglichkeiten zur Selbstbestimmung, weniger Konflikte und mehr Interaktionen die Zufriedenheit der Mitarbeitenden erhöht wird und dass 4 eine höhere Leistung erzielt wird, sofern die Kopplungsform den Charakteristika des Systems selbst, der erforderlichen Prozesse und der Umwelt angemessen ist. Gleichzeitig muss jedoch eine ausreichende Integration und Koordination der ansonsten weitgehend autonomen Subsysteme sichergestellt sein, wobei Führung und Organisationskultur eine wichtige Rolle zukommt (Weick, 1987).
17.3.2
Sicherheitskultur
Der Begriff »Sicherheitskultur« (7 Kap. 2.4, Kap. 9.6.1) findet sich in den Sicherheitskonzeptionen beinahe aller Organisationen, die in hohem Maße mit Risiken konfrontiert sind. Allgemein wird unter Sicherheitskultur die Gesamtheit der von der Mehrheit der Mitglieder einer Organisation geteilten sicherheitsbezogenen Grundannahmen und Normen verstanden, die ihren Ausdruck im konkreten Umgang mit Sicherheit in allen Bereichen der Organisation finden (INSAG, 2002). Damit bildet Sicherheitskultur die Grundlage für den Aufbau und die Umsetzung eines effektiven Sicherheitsmanagements. Im Zusammenhang mit den zuvor diskutierten Aspekten sicherheitsförderlicher Organisationsgestaltung kommt der Sicherheitskultur jedoch zusätzlich auch eine Koordinations- und Integrationsfunktion zu (vgl. Weick, 1987). Sicherheitskultur nimmt insofern eine Koordinationsfunktion wahr, als sie einen gemeinsamen Kern von sicherheitsbezogenen Normen und Werten liefert, auf den die Mitarbeitenden jederzeit Bezug nehmen können. Dadurch wird auch in unvorhergesehenen Situationen, für die innerhalb der Organisation keine strukturellen Koordinationsmechanismen etabliert wurden, zielgerichtetes Arbeitshandeln unterstützt. Sicherheitskultur fördert also sowohl zielkonformes Verhalten als auch das Ausschöpfen von Handlungsspielräumen im Zuge der Zielerreichung. Die Autonomie unterschiedlicher Subsysteme fördert die Entstehung von Subkulturen (z. B. zwischen Unternehmensstandorten, Abteilungen, Berufsgruppen). Entsprechend ist die Integrationsfunktion einer übergeordneten Sicherheitskultur insbesondere bei dezentralisierten Strukturen von großer Bedeutung.
17.4
Zusammenfassung
Der Umgang mit Unsicherheit ist eine zentrale Anforderung in komplexen Arbeitssystemen. Entsprechend stellt die adäquate Unterstützung von Organisationen und den darin tätigen Personen ein wichtiges Forschungs- und Gestaltungsfeld der Arbeitsund Organisationswissenschaften dar. Die auf die
287 17.5 · Literatur
sichere Gestaltung von Organisationen ausgerichteten Ansätze zusammenfassend können 2 grundlegende Tendenzen identifiziert werden: 4 Tendenz, Unsicherheit durch Standardisierung zu minimieren 4 Tendenz, den kompetenten Umgang mit Unsicherheit durch »lose Kopplung« und lokale Kontrolle zu fördern Die richtige Balance zwischen diesen beiden Tendenzen zu finden und diese dann durch die Etablierung geeigneter Strukturen und Prozesse sowie die Förderung einer entsprechenden Sicherheitskultur zu erhalten, wird auch in Zukunft der Fokus sicherheitsförderlicher Organisationsgestaltung bleiben.
17.5
Literatur
Amalberti, R. (1999). Automation in aviation: A human factors perspective. In D. Garland, J. Wise & V. Hopkin (Eds.), Handbook of aviation human factors (pp. 173–192). Mahwah, NJ: Lawrence Erlbaum. Amalberti, R. (2001). The paradoxes of almost totally safe transportation systems. Safety Science, 37, 109–126. Ashmos, D., Duchon, D., McDaniel Jr, R. & Huonker, J. (2002). What a mess! Participation as a simple managerial rule to ‚complexify’organizations. Journal of Management Studies, 39 (2), 189–206. Battmann, W. & Klumb, P. (1993). Behavioural economics and compliance with safety regulations. Safety Science, 16, 35–46. Carayon, P. & Friesdorf, W. (2006). Human factors and ergonomics in medicine. In G. Salvendy (Ed.), Handbook of human factors and ergonomics (pp. 1517–1537). Hoboken: Wiley. Cyert, R. M. & March, J. G. (1963). A behavioral theory of the firm (2nd edn.). Malden: Blackwell Publishers. Dien, Y. (1998). Safety and application of procedures, or‚how do »they« have to use operating procedures in nuclear power plants?’ Safety Science, 29 (3), 179–187. Dörner, D. (1976). Problemlösen als Informationsverarbeitung. Stuttgart: Kohlhammer. Dörner, D. (1981). Über die Schwierigkeiten menschlichen Umgangs mit Komplexität. Psychologische Rundschau, 32, 163–179. Dörner, D. (1989). Die Logik des Mißlingens. Reinbek: Rowohlt. Dörner, D., Kreuzig, H. W., Reither, F. & Stäudel, T. (1983). Lohhausen – Vom Umgang mit Unbestimmtheit und Komplexität. Bern: Huber. Emery, F. E. (1959). Characteristics of socio-technical systems. London: Tavistock. Fuhrer, U. (1984). Mehrfachhandeln in dynamischen Umfeldern. Vorschläge zu einer systematischen Erweiterung psychologisch-handlungstheoretischer Modelle. Göttingen: Hogrefe.
17
Gebert, D. (1995). Organisationsstruktur. In W. Sarges (Ed.), Managementdiagnostik (S.156–162). Göttingen: Hogrefe. Grote, G. (1997). Autonomie und Kontrolle. Zur Gestaltung automatisierter und risikoreicher Systeme (Vol. 16). Zürich: vdf Hochschulverlag. Grote, G. (2004). Uncertainty management at the core of system design. Annual Reviews in Control, 28, 267–274. Hacker, W. (1976). Psychische Regulation von Arbeitstätigkeiten. Berlin: Deutscher Verlag der Wissenschaften. Hale, A. R. (1990). Safety rules OK? Possibilities and limitations in behavioural safety strategies. Journal of Occupational Accidents, 12, 3–20. Hale, A. R. & Swuste, P. (1998). Safety rules: procedural freedom or action constraint? Safety Science, 29, 163–177. Harrison, T. K., Manser, T., Howard, S. K. & Gaba, D. M. (2006). Use of cognitive aids in a simulated anesthetic crisis. Anesthesia and Analgesia, 103 (3), 551–556. Hayes, D. C. (1980). An organizational perspective on psychotechnical system perspective. Accounting, Organizations and Society, 5 (1), 43–47. Hukki, K. & Norros, L. (1993). Diagnostic orientation in control of disturbance situations. Ergonomics, 36 (11), 1317–1327. INSAG. (2002). Key practical issues in strengthening safety culture (Safety Series No.75-INSAG-15). Vienna: IAEA. Kieser, A. & Kubicek, H. (1992). Organisation (3 ed.). Berlin: de Gruyter. Kluwe, R. (1997). Informationsverarbeitung, Wissen und mentale Modelle beim Umgang mit komplexen Systemen. In K. Sonntag & N. Schaper (Hrsg.), Störungsmanagement und Diagnosekompetenz (S. 13–37). Zürich: vdf Hochschulverlag. Lawton, R. (1998). Not working to rule: understanding procedural violations at work. Safety Science, 28 (2), 77–95. Leplat, J. (1998). About the implementation of safety rules. Safety Science, 29, 189–204. Linden, J. V., Wagner, K., Voytovich, A. E. & Sheehan, J. (2000). Transfusion errors in NewYork State: an analysis of 10 years’ experience. Transfusion, 40 (10), 1207–1213. Manser, T., Leins, A. & Wehner, T. (1998). Rahmenbedingungen des Handelns und Handlungsstile in der Anästhesie (Forschungsbericht HAVANA). Zürich: Institut für Arbeitspsychologie. Marais, K., Saleh, J. H. & Leveson, N. G. (2006). Archetypes for organizational safety. Safety Science, 44, 565–582. March, J. G., Schulz, M. & Zhou, X. (2000). The dynamics of rules. Stanford, CA: Stanford University Press. Ninck, A., Bürki, L., Hungerbühler, R. & Mühlemann, H. (1998). Systemik, integrales Denken, Konzipieren und Realisieren. Zürich: Verlag Industrielle Organisation. Norros, L. (1996). System disturbances as springboard for development of operators’ expertise. In Y. Engeström & D. A. Middelton (Eds.), Communication and Cognition at Work (pp. 159–177). Cambridge: University Press. Orton, J. D. & Weick, K. E. (1990). Loosely coupled sytsems: A reconceptualization. Academy of Management Review, 15, 203–223. Perrow, C. (1967). A framework for the comparative analysis of organizations. American Sociological Review, 32, 194–208.
288
Kapitel 17 · Komplexität handhaben – Handeln vereinheitlichen – Organisationen sicher gestalten
Perrow, C. (1984). Normal Accidents. New York: Basic Books. Piotrowski, M. M. & Hinshaw, D. B. (2002). The safety checklist program: Creating a culture of safety in intensive care units. Jt Comm J Qual Improv, 28 (6), 306–315. Rasmussen, J. (1983). Skills, rules, and knowledge: Signals, signs, and symbols, and other distinctions in human performance models. IEEE transactions on systems, man, and cybernetics, SMC 13, 257–266. Rasmussen, J. (1997). Risk management in a dynamic society: a modelling problem. Safety Science, 27, 183–213. Rasmussen, J. & Svedung, I. (2000). Proactive risk management in a dynamic society. Karlstad: Swedish Rescue Services Agency. Reason, J. T. (1990). Human error. Cambridge: Cambridge University Press. Rundmo, T. (2000). Safety climate, attitudes and risk perception in Norsk Hydro. Safety Science, 34, 47–59. Schröder, H. M., Driver, M. J. & Streufert, S. (1967). Human Information Processing. New York: Holt. Simard, M. & Marchand, A. (1995). A multilevel analysis of organisational factors related to the taking of safety initiatives by work groups. Safety Science, 21 (2), 113. Simon, H. (1962). The architecture of complexity. Proceedings of the American Philosophical Society, 106 (6), 1962, 467–482. Taylor, F. W. (1911). The principles of scientific management. New York: Harper and Brothers Publishers. Thompson, J. D. (1967). Organizations in action. New York: McGraw-Hill.
17
Triebe, J. K. (1977). Entwicklung von Handlungsstrategien in der Arbeit. Zeitschrift für Arbeitswissenschaft, 31 (3), 221–228. Watson, M., Sanderson, P. & Russell, W. J. (2004). Tailoring reveals information requirements: The case of anaesthesia alarms. Interacting with computers, 16, 271–293. Wehner, T. (1992). Fehlerfreie Sicherheit – weniger als ein günstiger Störfall. In T. Wehner (Hrsg.), Sicherheit als Fehlerfreundlichkeit (S. 14–33). Opladen: Westdeutscher Verlag. Wehner, T. & Stadler, M. (1994). The cognitive organisation of human errors: A Gestalt theory perspective. Applied Psychology: An Intenational Review, 43 (4), 565–584. Weick, K. & Sutcliffe, K. (2001). Managing the unexpected: assuring high performance in an age of complexity. San Francisco: Jossey-Bass. Weick, K. E. (1976). Educational organizations as loosely coupled systems. Administrative Science Quarterly, 21, 1–19. Weick, K. E. (1987). Organizational culture as a source of high reliability. California Management Review, 29 (2), 112–127. Wettig, J. (2002). New developments in standardisation in the past 15 years – product versus process related standards. Safety Science, 40, 51–56. Whitsett, C. F. & Robichaux, M. G. (2001). Assessment of blood administration procedures: problems identified by direct observation and administrative incident reporting. Transfusion, 41 (5), 581–586. Woods, D. D. & Cook, R. I. (2001). From counting failures to anticipating risks: Possible futures for patient safety. In L. Zipperer & S. Cushman (Eds.), Lessons in patient safety. A primer (pp. 89–97). Chicago: National Patient Safety Foundation.
18
Human-Factors-Training Stefan Strohschneider
18.1
Einleitung
– 290
18.2
HF-Training: Rahmenbe dingungenund Trainingsziele – 291
18.3
Ebenen der Intervention – 293
18.4
Trainingsmethoden in Human-Factors-Trainings
18.5
Trainingsformen
18.5.1 18.5.2 18.5.3 18.5.4 18.5.5 18.5.6
Drill – 297 Schulung – 297 Stabsübung, Stabsrahmenübung, Manöver – 298 Crew Resource Management (CRM) – 299 Allgemeines Krisenstabstraining – 300 Allgemeines Problemlösetraining – 301
18.6
Trainerkompetenzen
18.7
Evaluation und Transfer
18.8
Zusammenfassung und abschließende Bemerkungen
18.9
Literatur
– 305
– 295
– 297
– 302 – 303 – 304
290
Kapitel 18 · Human-Factors-Training
Beispiel Die 7 Personen rund um den großen Tisch werden zunehmend lauter. Seit gut 1 h agieren sie nun schon im Rahmen eines Human-Factors-Trainings als Führungscrew der MS Antwerpen – eines alten, von allerlei Problemen geplagten Kreuzfahrtschiffes. Auch wenn es sich dabei »nur« um eine Computersimulation handelt, haben sie sich mittlerweile mit ihrer jeweiligen Rolle (Kapitän, Erster Ingenieur, Chefsteward, Erster Offizier usw.) identifiziert und in ihre Aufgabenfelder eingearbeitet. Langsam nimmt die Anspannung zu. Das Wetter verschlechtert sich immer weiter, und der Wind hat fast Sturmstärke erreicht. Der Seegang am Rande der Grand Banks mitten im Nordatlantik ist unangenehm ruppig, und einige Maschinen, besonders der Backbord-Hilfsdiesel machen Ärger und benötigen konstante Aufmerksamkeit. Außerdem muss man sich um einen randalierenden Passagier kümmern, das Radar wegen der vielen Fischerboote besonders gründlich im Auge behalten, und nun schlägt auch noch ein Rauchmelder in einer Passagierkabine im weit unten liegenden C-Deck an. Der Kapitän versucht, schnell und entschlossen zu handeln. Seine Befehle sind jedoch so allgemein gehalten, dass niemand weiß, wer eigentlich was tun soll. Aber offenbar hält er die Situation für gefährlich, denn sein Ton gegenüber den anderen Gruppenmitgliedern verschärft sich deutlich. In
18.1
18
Einleitung
Die Einsicht in die Notwendigkeit des Trainings von Human Factors (HF) ist erstaunlicherweise noch gar nicht so alt. Sie markiert den Übergang zwischen 2 Sichtweisen des arbeitenden Menschen: 4 auf der einen Seite das traditionelle Bild vom zuverlässigen und gehorsamen Ausführer präziser Anweisungen, Vorschriften und Routinen, 4 auf der anderen Seite der moderne Manager, der, gemeinsam mit anderen, komplexe, neuartige, nur in Ansätzen durch Regeln beherrschbare Herausforderungen zu bewältigen hat. Das einleitende Beispiel gibt einen Eindruck von diesen Herausforderungen und von den – keines-
diesem Moment trifft ein Funkspruch von einem in der Nähe befindlichen Trawler ein. Dieser meldet eine Störung seiner Radaranlage und bittet um Positionsund Kursangaben. Diese Anfrage lenkt die Aufmerksamkeit der Gruppe vom Feuer weg, und erst einige Minuten später erinnert der Erste Offizier die Gruppe wieder daran. Daraufhin wird entdeckt, dass niemand Besatzungsmitglieder zu der betreffenden Kabine geschickt hat, um nachzusehen, was los ist und den Brand ggf. zu löschen, weil völlig unklar geblieben war, wer dafür verantwortlich gewesen wäre. Bevor der Kapitän schließlich die entsprechenden Befehle gibt, verteidigt er sich ausführlich gegenüber der Gruppe. Er wirkt in dieser Phase stark gestresst, und niemand denkt daran, die Passagiere zu informieren, Verletzte zu bergen oder benachbarte Kabinen auf eine eventuelle Feuerausbreitung hin zu kontrollieren. Eine weitere Meldung (eine unerhebliche Passagierbeschwerde) lenkt die Gruppe erneut ab. Nur der Kapitän scheint sich noch mit dem Feuer zu beschäftigen, aber da es von allen anderen Teilnehmern ignoriert wird, gibt er keine weiteren Befehle. Nachdem einige Minuten später der Rauchmelder auf »aus« springt, werden dem Passagier, der den Brand verursacht hat, ein paar kostenlose Drinks in einer der Bars angeboten. Ein Glück nur, dass das Feuer von der automatischen Sprinkleranlage gelöscht worden war (nach Schindewolf, 2002).
wegs untypischen – Schwierigkeiten, die Menschen dabei haben. Die Schlussfolgerungen daraus sind (noch) sehr unterschiedlich. In einigen sicherheitssensiblen Branchen (z. B. Luftfahrt, Kernenergie) hat man Vorstellungen darüber entwickelt, welche Kompetenzen erweitert werden müssen, sowie systematische HF-Trainings entwickelt und verbindlich vorgeschrieben. In anderen Branchen (z. B. in der Medizin oder im Business Continuity Management) versucht man, diese Konzepte zu adaptieren, ist aber noch weit von jeder Verbindlichkeit entfernt. In wieder anderen Branchen folgt man eher eigenen Ausbildungstraditionen, in einigen Bereichen gibt es überhaupt keine HF-Trainings. Das Kapitel versucht einen systematischen Überblick über das Thema, in dem Überblicksliteratur noch
291 18.2 · HF-Training: Rahmenbe dingungenund Trainingsziele
rar ist. Einige vertiefende Arbeiten sind in dem Band von Tobias & Fletcher (2000) versammelt, speziell über Planspiele siehe Blötz (2005). Dieser Überblick folgt einem sehr weit gefassten Verständnis von HF und ihrer Trainierbarkeit und möchte auch solchen Leserinnen und Lesern eine Orientierung bieten, die (noch) keine ausgesprochenen HF-Spezialisten sind. Erste Überlegungen gelten daher den Problemen der Definition von Trainingszielen und der Auswahl der Trainingsteilnehmer (»Ebenen der Intervention«). Daran anschließend werden verschiedene Trainingsmethoden vorgestellt und diese zu den möglichen Trainingszielen in Beziehung gesetzt. Die meisten Trainings bestehen allerdings aus einer Kombination verschiedener Methoden. Deshalb werden im folgenden Abschnitt 5 typische Grundformen von HF-Trainings vorgestellt und diskutiert. Die abschließenden Abschnitte beschäftigen sich mit den Trainerkompetenzen und mit den Problemen von Evaluation und Transfer.
18.2
18
HF-Training: Rahmenbedingungen und Trainingsziele
Jeder Personalentwickler, jeder Krisenmanager, jeder für die sichere und effiziente Steuerung komplexer Prozesse Verantwortliche wird (wenn nicht die Rechtslage vorschreibt, was zu tun ist) damit beginnen, Theorien über die Schwachstellen und Defizite in seinem Verantwortungsbereich aufzustellen und diese in positive Trainingsziele umzuformulieren. Es ist in diesem Zusammenhang sinnvoll, von den Anforderungen auszugehen, die der Umgang mit komplexen soziotechnischen Systemen an den Menschen stellt. Aus der Literatur (z. B. Prince & Salas, 1993; Cannon-Bowers, Tannenbaum, Salas & Volpe, 1995) lässt sich zusammenfassend die in der folgenden Übersicht dargestellte Liste aufstellen.
Anforderungen komplexer soziotechnischer Systeme 4 Technisches Wissen: Vertieftes technisches Verständnis der zu bedienenden Geräte und strukturelles Wissen über ihre Interaktion und Zuverlässigkeit 4 Operative Kompetenz: Sicheres Beherrschen von vielfältigen Routinen und Prozeduren, auch unter erschwerten Bedingungen 4 Werte: Sicherheitsbewusstsein und »Verinnerlichung« weiterer organisationstypischer Werte wie Zuverlässigkeit, partnerschaftlicher Umgang miteinander, Risikobewusstsein 4 Belastbarkeit: Psychische Belastbarkeit (Stressresistenz) und physische Belastbarkeit gegenüber unangenehmen Umweltbedingungen, Schlafmangel, Hunger usw. (in der älteren Literatur zusammenfassend als »hardiness« bezeichnet) 4 Lageerfassung: Schnelle und sichere Auffassungsgabe, Fähigkeit zur Erfassung komplexer Situationen und Datenmuster, Fähigkeit zur Entwicklung gedanklicher Vorstellungen über die Weiterentwicklung der Lage (Szenariobildung) 6
4 Übersicht: Konstruktiver Umgang mit Informationsüberflutung und Fähigkeit zur Bewahrung des Überblicks sowohl in Bezug auf die »Lage« als auch in Bezug auf die Kollegen (»situational awareness«, Situationsbewusstsein) 4 Kommunikationskompetenz: Fähigkeit, situativ adäquate Kommunikationsregeln aufzustellen und einzuhalten 4 Teamfähigkeit: Fähigkeit zur Prozesssteuerung, konstruktiver Umgang mit Meinungsvielfalt, Fähigkeit zur Entwicklung von gemeinsamen mentalen Modellen 4 HF-Wissen: Kenntnis der psychologischen Grundlagen in Bereichen wie Wahrnehmung und Aufmerksamkeit, Denken und Entscheiden, Kommunikation u. a. (häufig unter dem Schlagwort »human performance and limitations« zusammengefasst) 4 Sachorientierung und Rationalität, auch in bedrohlichen Situationen 4 Problemlösekompetenz: Fähigkeit zur sinnvollen Komplexitätsreduktion (z. B. durch Visualisierungstechniken), zur Entscheidungsfähigkeit
292
Kapitel 18 · Human-Factors-Training
auch unter Unsicherheit, Fähigkeit, die wesentlichen Fallgruben beim Umgang mit Komplexität zu vermeiden, strategische Kenntnisse 4 Profunde Erfahrungsvielfalt, verbunden mit strategischer Flexibilität
Das ist eine beeindruckende Liste von Anforderungen. Aber natürlich muss nicht jeder alles können. Die relative Bedeutung der Kompetenzen hängt von einer Vielzahl von Rahmenbedingungen ab (. Abb. 18.1). Art der Aufgabe. Ein erster wichtiger Faktor ist si-
cherlich die Art der Aufgabe: Man geht im Allgemeinen davon aus, dass Menschen, die operative Aufgaben zu erledigen haben (Einsatzkräfte, Anlagenfahrer, Bedienpersonal), v. a. hinsichtlich der erstgenannten Anforderungen zu trainieren sind (bisweilen mit dem Ausdruck »technical skills« – technische Fertigkeiten – zusammengefasst). Entsprechende Trainingskonzepte müssen deshalb bereichsspezifisch aufgebaut sein – die Notfallprozeduren bei einem Maschinenschaden eines ICE lassen sich nicht ohne Weiteres auf eine Passagierfähre auf der Ostsee übertragen. Als »non-technical skills« (nichttechnische Fertigkeiten) bezeichnet man demgegenüber Fertig. Abb. 18.1. Rahmenbedingungen für die Zielentwicklung für Human-Factors-Trainings
18
4 Führung: Grundlagen des Führungshandelns, Fähigkeit zur Anpassung des Führungsverhaltens an situative Erfordernisse 4 Selbsteinschätzung: Realistische Einschätzung der eigenen Stärken und Schwächen 4 Zunehmend auch interkulturelle Kompetenz
keiten und Fähigkeiten, die v. a. mit den psychologischen Bedingungen individueller Leistungsfähigkeit sowie der Gestaltung von Gruppenprozessen zu tun haben. Hier geht man von einer stärkeren Generalisierbarkeit aus: Die zentralen Aspekte einer erfolgreichen Gruppenbildung (»team formation«) und ständiger Gruppenpflege (»team maintenance«) dürften sich zwischen einem Flugzeugcockpit, einer Schiffsbrücke und einem Maschinenkontrollraum nicht wesentlich unterscheiden. Das Gleiche gilt für die Auswirkungen von Ermüdung auf Entscheidungsprozesse oder die menschliche Neigung zur Suche nach bestätigender Information. Kommunikationsregeln dagegen müssen angepasst werden: »Gutes« Kommunikationsverhalten in einem kleinen Team von Brandursachenuntersuchern sieht anders aus als das in einem großen polizeilichen Führungsstab. Von den »non-technical skills« sollte man eine dritte Gruppe von Anforderungen unterscheiden,
293 18.3 · Ebenen der Intervention
die mit übergeordneten Führungsaufgaben, der Integration verschiedener organisatorischer (Teil-) Systeme und dem Treffen bzw. Verantworten von Entscheidungen außergewöhnlicher Bedeutsamkeit zu tun haben. Man kann diese Kompetenzen mit dem Schlagwort organisatorisch-strategische Fähigkeiten zusammenfassen. Denn im Wesentlichen geht es – unabhängig von der konkreten Situation – immer darum, Informationsverarbeitung und -integration, Definition von Handlungsschwerpunkten, Strukturen und Mechanismen der Zusammenarbeit, Methoden der Entscheidungsfindung und strategische Grundausrichtung flexibel an sich ständig ändernde Umstände anzupassen. Systemgröße. Eine weitere wichtige Komponente
bei der Beurteilung der Bedeutung der genannten Anforderungen ist die Systemgröße bzw. das Ausmaß an funktionaler Differenzierung. Der einsame Überwacher eines Maschinenkontrollraums sollte hinsichtlich anderer Kompetenzen trainiert werden als die Besatzung eines Rettungshubschraubers oder ein OP-Team mit jeweils klar umrissenen Aufgabenfeldern. Bei größeren Gruppen ohne klare funktionale Differenzierung oder bei solchen Gruppen, die sich mit unklar offenen oder dynamischen Problemen auseinandersetzen müssen (Planungsgruppen, Krisenstäbe), bekommen die »weichen« Kompetenzen eine zunehmend größere Bedeutung. Organisationskontext. Anforderungen an menschliches Handeln dürfen darüber hinaus nicht unabhängig vom organisatorischen Kontext definiert und analysiert werden. Manche Organisationen haben im Laufe ihrer Geschichte sehr präzise, manchmal sogar rigide (und oft sehr erfolgreiche) Vorschriften dafür entwickelt, wie man operative Aufgaben löst, wie man miteinander kommuniziert, wie geführt wird. Man denke in diesem Zusammenhang etwa an die Polizei oder an die Feuerwehr. Der Erfolg solcher Organisationen hängt in nicht unwesentlichem Maße davon ab, dass sämtliche Mitglieder die entsprechenden Regeln und Routinen sicher beherrschen. HF-Training muss diese gemeinsame Basis sicherstellen, alles andere würde den Erfolg der Organisation gefährden sowie Verwirrung und Widerstand hervorrufen. Erst darauf aufbauend können dann kommunikative Fähigkeiten, Gruppenproze-
18
duren und flexible Führungsmuster entwickelt werden, die den Umgang mit »außergewöhnlichen Betriebszuständen« verbessern. So wäre es beispielsweise verfehlt, die Besatzung eines Schiffes mit seiner historisch gewachsenen straffen Kommandostruktur im Hinblick auf den Abbau des Hierarchiegefälles zu trainieren (weil sich das in bestimmten Notfällen als hilfreich erweist), ohne dafür zu sorgen, dass die Alltagsarbeit weiterhin effizient und sicher erledigt wird. Kultureller Kontext. Schließlich spielt der (national-)
kulturelle Kontext eine entscheidende Rolle bei der Beurteilung der Bedeutung von möglichen Trainingszielen. Eine in diesem Zusammenhang relevante Dimension ist die Unterscheidung von »highcontext cultures« (HCC, hochkontextualisierte Kulturen) und »low-context cultures« (LCC, kontextarme Kulturen) (Hall & Hall, 1990). In hochkontextualisierten Kulturen basiert die zwischenmenschliche Kommunikation auf der Annahme, dass die Kommunikationsmitglieder sehr viel an Hintergrund- und Kontextwissen teilen. Die Kommunikation ist eher indirekt, arbeitet viel mit Andeutungen, Metaphern und nonverbalen Hinweisen. Klare Anweisungen und Befehle gelten als unhöflich und beschädigen die Bereitschaft zur Zusammenarbeit. In kontextarmen Kulturen dagegen basiert die Kommunikation auf der Annahme, dass relevante Informationen ausgesprochen und Verhaltenserwartungen klar formuliert werden. Anspielungen und dergleichen erzeugen hier nur Verwirrung und Unsicherheit. Das Training von »non-technical skills« muss, um erfolgreich zu sein, sehr genau an derartige kulturelle Unterschiede angepasst werden. ! Bei der Erstellung von Trainingszielen müssen die Art der Aufgabe, der Organisationskontext und (national-)kulturelle Faktoren berücksichtigt werden.
18.3
Ebenen der Intervention
Trainings basieren auf der Annahme, dass es irgendwo im betrachteten soziotechnischen System Defizite gibt, die nicht rein technischer Natur sind, und dass sich diese durch geeignete Interventionen behe-
294
Kapitel 18 · Human-Factors-Training
. Abb. 18.2. Ebenen der Intervention für Human-FactorsTrainings
18
ben lassen. Damit diese Interventionen Erfolg haben können, ist es wichtig, verschiedene Ebenen der Intervention zu unterscheiden und sich dann auf die in der diagnostischen Phase (s. dazu Buerschaper, Harms, Hofinger & Rall, 2003) erkannte defizitäre Ebene zu konzentrieren – was im Einzelfall auch heißen kann, auf ein spezifisches HF-Training zu verzichten. Ferner ist auf jeder Ebene zu überlegen, wo jeweils die Grenzen der Veränderbarkeit liegen. . Abb. 18.2 macht den Grundgedanken deutlich: Der arbeitende Mensch ist gleichzeitig ein Individuum mit Stärken und Schwächen und Mitglied eines Teams (einer Besatzung, einer Arbeitsoder Einsatzgruppe). Dieses Team wiederum ist Bestandteil einer größeren Organisation mit ihren spezifischen Eigenarten. Die Organisation wiederum ist in den größeren Kontext einer ganzen Branche mit ihrer spezifischen Geschichte und Kultur eingebettet und ihrerseits Teil eines übergeordneten nationalen oder übernationalen Kulturraums (Wilpert & Fahlbruch, 2004). Diese Einsicht ist zwar weder besonders neu noch besonders originell, doch wirft sie gravierende Fragen nach dem richtigen Adressaten eines Trainings auf. Beispielsweise zeigt Dekker (2005) anhand der Analyse des Absturzes einer MD 80 der Alaska Airlines im Jahre 2000 im Ozean vor Kalifornien, wie das ganze System Luftfahrtindustrie mit seinen verschiedenen Teilsystemen (Hersteller, Wartungsteams, Luftfahrtbehörden, Flottenmanagement) über Jahre und Jahrzehnte hin Schritt für Schritt in Richtung zunehmender Unsicherheit rutschen konnte, bis schließlich eine simple Gewindewelle brach und das Flugzeug zum Absturz brachte. Wäre
es zur Verhinderung der Wiederholung eines derartigen Unglücks richtig, die Flugzeugmechaniker in Human Factors zu trainieren? Oder die Konstrukteure? Oder das Management? Oder alle zusammen? Oder, um ein anderes Beispiel zu wählen, wenn Lorei (2001) zeigt, dass polizeiliche Einsatzkräfte häufig ein sehr unterentwickeltes Bewusstsein für die Bedeutung der Eigensicherung haben und es deshalb immer wieder zu schweren Verletzungen und sogar Todesfällen bei der Polizei kommt – wäre es dann richtig, die einzelnen Beamten besser zu instruieren und zu trainieren, oder wäre hier die Ebene der Gesamtorganisation (eine Länderpolizei) die, auf der eine Veränderung angestrebt werden sollte? In einigen sicherheitssensiblen Branchen sind Trainingsinhalte und Trainingsteilnehmer rechtsverbindlich festgeschrieben (z. B. in der zivilen Luftfahrt durch die international gültigen JAROPS, 7 Kap. 12.1 und 7 Kap. 9.6.4), wobei hier eine Entwicklung zum Einbezug immer größerer sozialer Einheiten festzustellen ist (s. auch IAEA, 2001). In vielen anderen Branchen setzt HF-Training traditioneller Weise v. a. auf der Ebene des Individuums und auf der Ebene des Teams an. Trainings für größere organisatorische Einheiten (Manöver, Stabsrahmenübungen, 7 Kap. 18.5.3) sind schon vergleichsweise selten, und für darüber hinausgreifende Systeme ist das Konzept des Trainings nicht mehr anwendbar und muss durch übergeordnete Personalentwicklungssysteme ergänzt werden. Dies hat verschiedene Konsequenzen: 4 Eine davon ist, dass man von einem Training, das für eine bestimmte Gruppe durchgeführt wird, nicht erwarten darf, dass es Missstände mildert, die tiefergehende Ursachen im größeren Kontext haben. 4 Eine zweite ist, dass man bei der Formulierung von Trainingszielen die Veränderungsbereitschaft des entsprechenden Systemelements beachten muss und dass man ebenfalls beachten muss, dass das »System Mensch« bestimmte Grenzen aufweist – sowohl im individuellen Funktionieren als auch im sozialen Umgang – die auch durch das beste Training nicht überwunden werden können. 7 Kap. 4–8 dieses Buches informieren über diese Systemgrenzen.
295 18.4 · Trainingsmethoden in Human-Factors-Trainings
! Trainings können Verhalten und Einstellungen von Einzelnen und Gruppen verändern. Sie können nicht das Gesamtsystem verändern oder grundsätzliche menschliche Beschränkungen aufheben.
18.4
4
Trainingsmethoden in HumanFactors-Trainings
HF-Trainings nutzen eine Vielzahl unterschiedlicher Trainingsmethoden. Falls man nicht durch rechtliche Vorschriften gebunden ist, sollte die Entscheidung, wie man trainieren will, von den im Vordergrund stehenden Zielen und der jeweiligen Interventionsebene abhängig sein. Die Menge an didaktischen Elementen, die man in ein Training einbauen kann, ist umfangreich (Wilson, 2000). Sie enthält (ohne Anspruch auf Vollständigkeit) die folgenden Elemente: 4 Vorlesung, Vortrag, mündliche Instruktion, Unterweisung 4 Materialien für selbstgesteuertes Lernen: Arbeitshefte, Lernprogramme, Handbücher 4 Vorführungen, Übungen an (mehr oder weniger realistischen) Modellen, Übungen mit »echten« Ausrüstungsgegenständen, Training an Übungsanlagen 4 Arbeit mit Beispielen und Fallstudien (in angeleiteter und offener Form), narrative Formen, Erfahrungsaustausch zwischen den Teilnehmern 4 Diskussionsgruppen (z. B. über die Vor- und Nachteile bestimmter Regelungen), Reflexionsrunden (selbstgesteuertes Aufarbeiten der Lernerfahrungen nach einer Übung), »Debriefing«und Feedback-Sitzungen (Rückmeldung zu Übungsergebnissen durch Trainer, gemeinsame Diskussion von Ursachen für Erfolge und Misserfolge), ggf. Videounterstützung 4 Gruppenübungen in der Tradition von Gruppendynamik und Selbsterfahrung, z. B. Rollenspiele und Kommunikationsübungen; Indoorund Outdoorübungen zur Teambildung 4 Planspiele und Szenariotraining: Bei Planspielen sind schriftlich vorgegebene »Lagen« zu bearbeiten, die u. U. durch Rückmeldungen der Planspielleitung auch einen dynamischen Charakter bekommen. Beim Szenariotraining geht es darum, eine vorgegebene Lage zu interpretieren und
4
4
4
18
Hypothesen über ihre Weiterentwicklung und die Effekte möglicher Entscheidungen aufzustellen Interaktive Computersimulationen in unterschiedlicher Komplexität und Realitätsnähe: Eine Computersimulation bildet einen komplexen und dynamischen Realitätsbereich (einen Flughafen, ein Unternehmen, ein Schiff) in seinen wesentlichen Aspekten nach. Die Teilnehmenden können Informationen über den Zustand des Realitätsbereiches erhalten und treffen Entscheidungen, die den weiteren Gang der Simulation beeinflussen. Ähnlich wie bei den Planspielen existieren hier viele Varianten, z. B. hinsichtlich der Definition von Spielerrollen, der Zeittaktung oder Programmsteuerung. Außerdem unterscheidet man »Low-fidelity-Simulation« (holzschnittartige Nachbildungen der Realität mit klarem didaktischem Zweck) von »Midfidelity-Simulation« (stark an die Realität angenäherte Simulationen, allerdings ohne realitätsgetreue Interfaces) »High-fidelity-Simulatoren«: Möglichst naturgetreue Nachbildungen eines Arbeitsplatzes (Flugzeugcockpit, Schiffsbrücke, LKW-Kabine) mit realistischen Anzeigen und Bedienelementen (im Falle eines Anästhesiesimulators also auch einer realistischen Patientenpuppe) und möglichst naturgetreuer Umweltnachbildung (Geräusche, Temperaturen, Bewegung im Raum) Körperbasierte Trainings, besonders in Form von Stressreduktionstrainings (z. B. progressive Muskelrelaxation, Atemkontrolle) und vorstellungsbasierte Trainings, v. a. zur Angstbewältigung und Erregungskontrolle (z. B. Gedankenreisen, Selbstverbalisationstechniken) Angeleitete Teilnahme (»guided participation«): Allmähliches Hineinwachsen in eine komplexe Aufgabe unter Anleitung eines Meisters, Mentoring, Coaching
! Es ist zu betonen, dass das sog. »debriefing« (die theoretisch fundierte Auseinandersetzung mit dem Prozessgeschehen während einer Übung) nicht nur ein Trainingselement unter vielen ist. Die Wirksamkeit aller verhaltensbasierten Trainingsformen hängt ganz wesentlich von der Qualität dieses Reflexionsprozesses ab (Peters & Vissers, 2004).
296
Kapitel 18 · Human-Factors-Training
Ansonsten gilt, dass die verschiedenen Trainingselemente unterschiedlich gut zur Erreichung der in 7 Kap. 18.2 beschriebenen Trainingsziele geeignet sind; sie funktionieren mit unterschiedlichen Teilnehmerzahlen und Teilnehmerkreisen. Mit . Tab. 18.1 wird eine grobe Zuordnung angegeben. Auch wenn diese Zuordnung mit einer Reihe von Unschärfen behaftet ist, wird doch zumindest zweierlei schnell deutlich: 4 Organisatorisch-strategische Fähigkeiten verlangen nach relativ zeitintensiven und teuren Trainingselementen wie Planspielen, Simulationen und Simulatoren. 4 Nur wenige Trainingselemente sind für große Teilnehmergruppen geeignet. Der Einsatzbereich von Vorlesungen und anderen Formen des Frontalunterrichts ist begrenzt, und das Design von Planspielen für größere, möglicherweise interorganisationell zusammengesetzte große Gruppen ist extrem aufwendig.
Mittlerweile besteht der »state of the art« bei HFTrainings darin, mindestens 2 oder mehr dieser Elemente miteinander zu kombinieren. Einer der Gründe dafür liegt darin, dass es unterschiedliche Lernertypen gibt, die jeweils von unterschiedlichen Lehrangeboten am meisten profitieren. Relativ bekannt geworden ist die Lernertypologie von Honey & Mumford (1982), die »Tuer« und »Denker« als Grundtypen unterscheiden. Die Gruppe der »Tuer« wiederum zerfällt in 4 die »Aktivisten« (Menschen, die sich voller Begeisterung auf jede Aktivität stürzen, deren Enthusiasmus aber auch schnell wieder zerfällt und die kaum das »Sitzfleisch« für lange theoretische Debatten aufbringen) und 4 die »Pragmatiker« (die jede neue Idee aufgreifen, sie am besten sofort ausprobieren wollen und v. a. an der praktischen Umsetzbarkeit von Lerninhalten interessiert sind).
. Tab. 18.1. Zuordnung von Trainingsmethoden, Trainingszielen und Teilnehmerzahl in Human-Factors-Trainings
18
Trainingsmethode
Trainingsziele
Teilnehmer
Vorlesung/Instruktion
Wissen, Werte sowie allgemeine theoretische Grundlagen von Human Factors
Kleingruppen, Großgruppen
Arbeitshefte, Lernprogramme, Handbücher
Wissen, Grundlagen der operativen Kompetenz, theoretische Grundlagen
Alle
Vorführungen, Übungen
Operative Kompetenz, Erfahrungsvielfalt
Individuen, Kleingruppen
Beispiele, Fallstudien, Narrationen, Erfahrungsaustausch
Theoretische Grundlagen, Erfahrungsvielfalt, Selbsteinschätzung, Werte, ggf. auch operative Kompetenz
Kleingruppen
Diskussion, Reflexion, Feedback
Selbsteinschätzung, Erfahrungsvielfalt, ggf. Wissen
Kleingruppen
Gruppenübungen
Teamfähigkeit, Kommunikationskompetenz, Führung, ggf. interkulturelle Kommunikation
Kleingruppen, u. U. auch Großgruppen
Planspiele
Lageerfassung, Übersicht, Führung, ggf. auch Problemlösekompetenz, Teamfähigkeit und Kommunikationskompetenz
Kleingruppen, ggf. mehrere Teams
Computersimulationen
Lageerfassung, Übersicht, Problemlösekompetenz, Kommunikationsfähigkeit, Teamfähigkeit, Sachorientierung, Führung, Erfahrungsvielfalt
Kleingruppen
»High-fidelity-Simulatoren«
Operative Kompetenz, ggf. Belastbarkeit, Lageerfassung, Übersicht, Problemlösekompetenz, Kommunikationsfähigkeit, Teamfähigkeit, Führung, Erfahrungsvielfalt
Individuen, Kleingruppen
Körper- und vorstellungsbasierte Übungen
Belastbarkeit, Selbsteinschätzung
Individuen, ggf. Kleingruppen
Angeleitete Teilnahme
Operative Kompetenz, Erfahrungsvielfalt, Belastbarkeit, Selbsteinschätzung
Individuen
297 18.5 · Trainingsformen
Bei den »Denkern« unterscheiden die Autoren 4 die »Reflexiven« (Menschen, die Erkenntnisse erst dann akzeptieren, wenn sie sie von allen Seiten durchdacht haben, und die große Scheu davor haben, Dinge »einfach so« auszuprobieren) und 4 die »Theoretiker« (deren Interesse v. a. darin besteht, die theoretischen Hintergründe jeder Erkenntnis systematisch durchzuarbeiten und die Logik eines Systems zu verstehen). Es ist einleuchtend, dass ein didaktisches Element, wie z. B. eine komplexe Computersimulation, einen »Aktivisten« begeistert, jedoch von einem »Reflexiven« möglicherweise für oberflächliche Zeitverschwendung gehalten wird, und dass eine konzeptuelle Debatte, die einen »Theoretiker« fasziniert, einen »Pragmatiker« zur Weißglut treibt, weil er den praktischen Nutzen nicht sieht. Jeder HF-Trainer oder jede HF-Trainerin weiß, dass es zu den schwierigsten Anforderungen einer Neukonzeption gehört, Trainingselemente so zu mischen, dass jeder Lernertyp davon profitieren kann.
18.5
Trainingsformen
Im Folgenden werden einige kombinierte Trainingsformen besprochen, die im Human-Factors-Bereich eine gewisse Tradition haben bzw. für den aktuellen Zustand der Trainingslandschaft kennzeichnend sind: der Drill, die klassische Schulung, die Stabsübung, das Crew Resource Management, das Krisenstabstraining und das allgemeine Problemlösetraining.
chere Beherrschung auch unter erschwerten Bedingungen (Dunkelheit, Lärm, Übermüdung, objektive Gefährdung) angestrebt. Die Anwendungsgebiete des Drills liegen traditionellerweise am »operativen Ende« komplexer soziotechnischer Systeme, bei Einsatz- und Rettungskräften. Beispiele wären etwa das Anflanschen von Löschwasserschläuchen, das Anlegen von Schutzbekleidung, das Fixieren einer Krankentrage in einem Rettungsfahrzeug. Gedrillt werden aber auch umfangreichere Abläufe wie z. B. das Durchführen der Notabschaltung einer Anlage oder die Abarbeitung einer Notfallcheckliste in einem Flugzeugcockpit. Schließlich wäre zu überlegen, ob nicht auch die Einhaltung bestimmter Regeln der Teamarbeit wie z. B. das sog. Zurücklesen von Anweisungen und Informationen (»readback«, 7 Kap. 8.6.3), oder auch Unterbrechungsverbote, Redezeitbeschränkungen, die Pflicht zur Visualisierung u. a. m. regelrecht gedrillt werden sollte. Dieser Forderung liegt die Überlegung zugrunde, dass das »Gesetz der Übung« nicht nur für einfache Feuerwehrleute oder Polizisten gilt. Einsicht und Verständnis führen auch bei erfahrenen Menschen mit Führungsverantwortung nicht notwendigerweise dazu, dass die entsprechenden Verhaltensweisen auch unter Stress oder bei Übermüdung sicher zur Verfügung stehen. Der Drill macht die Menschen gleich. Deswegen hat er in manchen Kreisen einen schlechten Ruf. Wo aber diese Gleichheit notwendig ist, um Sicherheit und effektive Interaktion zu gewährleisten, kann auf den Drill nicht verzichtet werden.
18.5.2 18.5.1
Drill
Der Drill ist vermutlich die Urform aller HF-Trainings. Im Zentrum des Drills steht die wiederholte Übung eines motorischen Ablaufs bis hin zu seiner vollständigen Automatisierung. Es empfiehlt sich, die zu lernenden Abläufe zunächst per Unterweisung in mündlicher und grafisch-bildlicher Form zu erklären, sie dann vorzuführen und in vereinfachter und verlangsamter Form durch die Lernenden nachmachen zu lassen. Durch eine lange Reihe von Wiederholungen wird die vollständige, schnelle und si-
18
Schulung
Die Schulung ist eine weitere elementare und selbstverständliche Form des HF-Trainings. Das zentrale Merkmal von Schulungen ist die kognitive Vermittlung von Wissen durch Experten an Laien. Schulungen erfolgen meist als Frontalunterricht. Schulungsinhalte sind grundlegende Verhaltensrichtlinien und Werte (z. B. Sicherheitsvorschriften), daneben v. a. die Bedienung technischer Geräte, die Vermittlung von Wissen über ihre technische Funktionsweise, Fehlerdiagnose und Behebung von Fehlfunktionen sowie Informationen über Geräteinteraktionen und Zuverlässigkeiten. Geschult werden alle, vom Azubi über
298
Kapitel 18 · Human-Factors-Training
den Anlagenfahrer und den Schiffsoffizier bis hin zur Dr. med., die zur Transfusionsbeauftragten ihrer Abteilung ernannt worden ist. Damit eine gewöhnliche Schulung zum Bestandteil eines HF-Trainings wird, müssen entsprechende HF-relevante Themen (z. B. »human performance and limitations«, 7 Kap. 18.2, »Anforderungen«) integriert werden. Vor allem aber sollten nach obigen Überlegungen Vortrag und Instruktion unbedingt durch übende und handlungsbasierte Elemente ergänzt werden. In der zivilen Luftfahrt z. B. ist diese Forderung seit einigen Jahren gesetzlich vorgeschriebener Standard, in anderen Anwendungsbereichen ist man noch weit davon entfernt. Nicht akzeptiert werden sollte der in der Praxis leider nicht seltene Fall, dass ein neues Gerät, eine neue Verfahrensvorschrift oder Sicherheitsrichtlinie implementiert wird und den Menschen, die damit oder danach arbeiten sollen, nach einer kurzen, oberflächlichen Einweisung mit der Bemerkung »Wenn Sie weitere Fragen haben – da steht alles drin« ein dickes Handbuch überreicht wird.
18.5.3
18
Stabsübung, Stabsrahmenübung, Manöver
Stabs- und Stabsrahmenübung. Die Stabsübung hat einen ursprünglich militärischen Hintergrund, wird seit geraumer Zeit aber auch in zivilen Kontexten verwendet. Die Zielgruppe sind Mitarbeiter, die bei komplexen Operationen, in kritischen Situationen oder bei Notfällen Stabsfunktionen, d. h. vor allem Planungs-, Steuerungs-, und Entscheidungsfunktionen wahrnehmen sollen. Ziel der Stabsübung ist es, die Teilnehmenden mit dem Ablauf derartiger Situationen vertraut zu machen. Themen sind v. a. die verschiedenen Stabsfunktionen, Aufgabenverteilung, Informationssammlung, -strukturierung und -weitergabe, Entscheidungsfindung und Entscheidungsdurchführung sowie schließlich die Führung (Wein, Willems & Quanjel, 2000). Falls nicht nur der Stab im engeren Sinne an der Übung beteiligt ist, sondern auch nach- oder nebengeordnete Arbeitsgruppen (wie z. B. eine Pressestelle oder ein medizinischer Dienst), spricht man von einer Stabsrahmenübung. In diesem Fall sowie natürlich auch bei Übungen, bei denen mehrere Organi-
sationen (z. B. Feuerwehr, Technisches Hilfswerk, Rotes Kreuz) beteiligt sind, ist die Koordination und Interaktion dieser verschiedenen Gruppen ein zentrales Thema (7 Kap. 11). Derartige Übungen werden beispielsweise regelmäßig auf der Ebene von Städten und Landkreisen durchgeführt, um diese für die Beherrschung von Notfällen wie Natur- und Umweltkatastrophen, Großunfälle oder auch medizinische Notsituationen vorzubereiten (weiterführende Informationen hierzu beim Bundesamt für Bevölkerungsschutz und Katastrophenhilfe: http://www. bbk.bund.de). Stabsübungen bestehen im Kern aus den in der folgenden Übersicht dargestellten Elementen.
Elemente von Stabsübungen 1. Einweisung in die Funktionen, Strukturen und die Arbeitsweise von Stäben sowie in die relevanten rechtlichen Bestimmungen. 2. Umfangreiches mehrstündiges bis mehrtägiges Planspiel, das von den Teilnehmern als Stab bearbeitet werden muss. Thema des Planspiels ist oft ein typisches Szenario eines umfangreichen zivilen Notfalls wie beispielsweise ein Zugunglück auf dem Rangierbahnhof einer Kleinstadt, bei dem auch mehrere Kesselwaggons mit zunächst unbekannten, aber mutmaßlich gesundheits- bzw. umweltgefährdenden chemischen Substanzen betroffen sind. 3. Auswertung des Planspiels, wobei sich diese auf HF-Aspekte konzentrieren sollte und nicht nur darauf, wie gut die vorgegebenen Funktionen, Strukturen und Abläufe eingehalten worden sind.
Natürlich sind innerhalb dieses Grundgerüstes unterschiedliche Schwerpunktsetzungen möglich und verschiedene Varianten realisierbar. Im Allgemeinen gilt jedoch, dass die Übungsteilnehmer im Planspiel die Funktionen übernehmen, die sie auch bei einem realen Einsatz wahrnehmen müssen. Kennzeichnend für Stabs- und Stabsrahmenübungen ist ferner, dass die operative Seite bei der Bearbeitung des angenommenen Notfalls nicht beteiligt ist. Sie wird vielmehr von der Übungsleitung simuliert – sei es in
299 18.5 · Trainingsformen
Form vorher festgelegter Meldungen (»Dem Bergungszug der Regionaldirektion der Deutschen Bahn ist es gelungen, die nicht beschädigten Waggons des Güterzugs von der Unglücksstelle abzuziehen«) oder Friktionen (»Drei Krankenwagen des Malteser Hilfsdienstes stecken im Stau fest und verspäten sich auf unbestimmte Zeit«), sei es in Form von ad hoc generierten Reaktionen auf falsche oder im Moment sinnlose Entscheidungen des Stabes. Manöver. Die Simulation der operativen Aspekte der Übung ist der wesentliche Unterschied zur großmaßstäblichen Übung, zum Manöver. Bei dieser Übungsform sind auch die Kräfte, die den operativen Arm des Stabes darstellen, beteiligt. Beim Manöver wird also nicht nur – auf eine entsprechende Anordnung hin – durch die Übungsleitung mitgeteilt, dass 13 Verletzte von X nach Y transportiert worden sind, sondern hier müssen die Übungsteilnehmer im Stab dafür sorgen, 4 dass die entsprechenden Einsatzkräfte auch in Wirklichkeit am Ort des Geschehens zur Verfügung stehen, 4 dass sie der Befehl zur Bergung und zum Abtransport der Verletzten tatsächlich erreicht, 4 dass er durchführbar ist und durchgeführt wird und 4 dass die entsprechenden Rückmeldungen auch wieder im Stab einlaufen.
Offensichtlich ist, dass derartige Übungen einen enormen Zeit- und Personalaufwand erfordern. Die Verwendung des Ausdrucks »Manöver« soll im Übrigen nicht darüber hinwegtäuschen, dass diese Trainingsform mittlerweile auch in verschiedenen zivilen Bereichen, z. B. in der chemischen Industrie, im Business Continuity Management von Banken sowie auch im Bereich öffentlicher Verwaltungen durchgeführt werden. Allerdings bleibt mangels entsprechender Publikationen offen, inwieweit die Nachbereitung derartiger Übungen nicht nur die operative, sondern auch die menschliche Seite behandelt. Erfahrungsberichte von Teilnehmern legen die Vermutung nahe, dass sich oft der Human Factor als kritischer Faktor erweist, aber in den vorhandenen Übungsstrukturen nur unzureichend thematisiert werden kann.
18.5.4
18
Crew Resource Management (CRM)
Die Abkürzung »CRM« stand ursprünglich für »Cockpit Resource Management«, später für »Crew Resource Management«, heute steht sie für »Company Resource Management«. Das CRM wurde in der und für die kommerzielle Luftfahrt entwickelt, seine regelmäßige Durchführung ist mittlerweile durch die Joint Aviation Authorities (JAR-OPS in der Fassung vom April 2006, s. http://www.luftrecht-online.de) rechtsverbindlich vorgeschrieben. Das CRM stellt ohne Zweifel den bedeutendsten Meilenstein in der Entwicklung der HF-Trainings dar (Helmreich, Merritt & Wilhelm, 1999). Der Grund dafür ist, dass hier – anders als bei den bisher besprochenen Trainingsformen – der Mensch mit seinen psychischen Funktionen und in seiner Zusammenarbeit mit anderen Menschen in den Mittelpunkt eines Trainingskonzeptes gerückt wurde. Diese Ausrichtung ist durch die Erkenntnis begründet, dass psychologische Faktoren bei der Genese und Bewältigung von kritischen Situationen in der Luftfahrt die zentrale Rolle spielen. Ziele des CRM sind die Vermeidung von kritischen Situationen und die Verbesserung der Krisenbewältigungskompetenzen von kompletten Arbeitsgruppen in riskanten, stresshaften Umgebungen, für die koordinierte Aktivitäten notwendig sind. Das CRM-Training verläuft in seiner standardisierten Form in 3 Phasen (s. folgende Übersicht).
Phasen standardisierter CRM-Trainings 1. Initial-Awareness-Training: Formale Einführung (Sensibilisierungstraining) in die wesentlichen Human-Factors-Konzepte, die für das Krisenmanagement als wesentlich erachtet werden (s. oben). Diese erste Phase des Trainings besteht aus einer Kombination von theoretischer Wissensvermittlung mit erfahrungsbasiertem Lernen in Teams. 2. Übung und Feedback in realistischen Settings in »Echtzeit«: In der Luftfahrtindustrie hat sich hierfür mittlerweile das sog. LOFT-Konzept durchgesetzt (Line-OrientedFlight-Training): Es besteht aus kompletten 6
300
Kapitel 18 · Human-Factors-Training
Flugaufgaben, teilweise im Flugsimulator. Im Laufe des Fluges werden verschiedenartige routinemäßige und ungewöhnliche Situationen durchgespielt. Das Verhalten der Crews wird per Video aufgezeichnet und gleichzeitig von Experten beobachtet. An den Flug schließen sich ausführliche gemeinsame Auswertungsbesprechungen an. Wichtig ist, dass die Ergebnisse des LOFT nicht für berufliche Beurteilungen verwendet werden, sodass die Besatzungen auch das Risiko der Erprobung neuer Verhaltensmuster eingehen können. 3. Auffrischungstraining (»recurrent«) in wiederkehrenden Intervallen mit verschiedenen Methoden, d. h. klassischen Seminaren, aber auch weiteren Simulatorflügen.
18
Mittlerweile wurde dieses Trainingskonzept auch für andere Industriezweige angepasst (Medizin, Militär, Atomindustrie, Hochsee-Ölförderung, Seefahrt) und hat heute weitergehende Verbreitung erlangt. Es ist noch darauf hinzuweisen, dass das CRM eine »individualisierte« Trainingsform ist. Das Trainingsformat ist zwar standardisiert, die Rückmeldung an die Teilnehmer, die Diskussion von Stärken, Schwächen und alternativen Handlungsweisen ist es nicht. Das schafft Lerngelegenheiten, kann aber auch problematisch sein, z. B. wenn Trainingsteilnehmer an diese individuellen Rückmeldungen nicht gewöhnt sind und sich aus Angst vor einer Blamage verweigern, oder wenn es der Trainer an der notwendigen Balance zwischen Offenheit und Deutlichkeit einerseits, Rücksichtnahme und Schutz andererseits fehlen lässt. Die bisher besprochenen Trainingsformen sind branchenspezifisch angelegt, d. h., die Inhalte der Unterweisung, die Themen der Übungen, die konkreten Handlungsrichtlinien und -empfehlungen sind an das jeweilige berufliche Umfeld angepasst. In jüngerer Zeit haben sich daneben Trainingsformen entwickelt, die davon ausgehen, dass wesentliche Kompetenzen aus den Bereichen »non-technical skills« und organisatorisch-strategische Fähigkeiten bereichsübergreifend wichtig sind und dass es nicht unbedingt notwendig ist, im Training mit berufsna-
hen Inhalten zu arbeiten (Borodzicz, 2004). Manche Erkenntnis stellt sich vielleicht sogar leichter ein, wenn man mit völlig neuartigem Übungsmaterial umzugehen hat. Zwei dieser Trainingsformen werden im Folgenden besprochen.
18.5.5
Allgemeines Krisenstabstraining
Das CRM und seine verschiedenen Varianten und Derivate sind sowohl von den Trainingsinhalten als auch von den Simulatorübungen her jeweils auf eine bestimmte Branche zugeschnitten. Dies impliziert, dass die Entwicklung einer neuen CRM-Variante – z. B. als Bridge Resource Management für die Handelsmarine (s. Adams, 2006) – ein recht aufwendiger Prozess ist, der sich nur dann lohnt, wenn große Teilnehmerzahlen damit trainiert werden können. Diese Voraussetzung ist nicht überall gegeben. Dies gilt insbesondere für Branchen, die man als »low risk environments« bezeichnen könnte (Branchen mit geringem inhärenten Risiko, z. B. Krankenhäuser, Hotels, Banken, große Geschäftskomplexe, Flughäfen und Bahnhöfe). Zwar gibt es in diesen Institutionen Notfallpläne, Hausfeuerwehren, Sicherheitspersonal usw., auf der Leitungsebene aber in der Regel keinerlei Erfahrungen mit dem Management von größeren Stör- oder Notfällen, die von Umfang und Gefährdungspotenzial her einen Krisenstab als außergewöhnliche Organisationsform erfordern. Mittlerweile wurden auch für diese Zielgruppe HF-Trainings entwickelt, die darauf verzichten, mit branchenspezifischen Simulatoren oder Übungen zu arbeiten (Strohschneider, 2003; Strohschneider & Gerdes, 2004 – das einleitende Fallbeispiel entstammt einem solchen Training). Dieses Konzept beruht auf der Idee, dass die Anforderungen, die von einem Stab in einer kritischen Situation zu bewältigen sind, über verschiedene Branchen hinweg ähnliche Elemente aufweisen und daher ähnliche Kompetenzen erfordern. Die Teilnehmer sollen daher befähigt werden, effektive Stabsarbeit zu organisieren und durchzuführen – unabhängig von der inhaltlichen Charakteristik der anstehenden Krise. Die konkreten Trainingsthemen fokussieren daher neben den »non-technical skills« v. a. die situative und strategische Flexibilität.
301 18.5 · Trainingsformen
Auch das allgemeine Krisenstabstraining gehört zu den kombinierten Trainingsformaten und mischt Elemente des erfahrungsbasierten Lernens mit reflektierenden Elementen und konkreter Wissensvermittlung (sog. Erfahrungslernen, »experiental learning« nach Kolb; s. Kolb, Boyatzis & Mainemelis, 2001; s. folgende Übersicht). Ein solches Training dauert (abhängig vom Zeitaufwand, der in die Simulationsübungen investiert wird) etwa 2–3 Tage. Dies dürfte auch die Mindestdauer sein, die ein Training benötigt, um bei Teilnehmern, die bisher mit dieser Materie noch nicht beschäftigt waren, nachhaltige Lernergebnisse zu erzielen.
18
seit etwa 20 Jahren und richten sich v. a. an mittlere und höhere Führungskräfte, die es häufig mit der Bewältigung hochkomplexer, dynamischer und intransparenter Problemstellungen zu tun haben (Buerschaper, Hofinger & von der Weth, 2005). Das generelle Ziel eines solchen Problemlösetrainings besteht darin, bei den Teilnehmern die Sensibilität für die Charakteristika unterschiedlicher Probleme zu entwickeln, ihnen bereichsübergreifend anwendbare Lösungskompetenzen zu vermitteln und die organisationskulturell determinierten strategischen Präferenzen (»Problemlösen nach Schema F«) aufzubrechen und strategische Flexibilität zu fördern (Hofinger, 2003). Mögliche Themen dieser Trainingsform
Struktur des allgemeinen Krisenstabstrainings (Strohschneider, 2003) 4 Kurzvorlesung über die Eigenschaften von kritischen Situationen und ihre spezifischen Schwierigkeiten und Anforderung 4 »Learning by doing«: Erprobung der Schwierigkeiten der Stabsarbeit anhand einer geeigneten Low- oder Mid-fidelitySimulation (z. B. MS Antwerpen) 4 Ausführliche, angeleitete Reflexion, Diskussion, Stärken- und Fehleranalyse 4 Informationen über die Ursachen für die aufgetretenen Probleme, theoretische Fundierung der Human-Factors-Perspektive 4 Handlungsanweisungen für die Stabsarbeit (»Do’s and Dont’s«) 4 Umsetzung der theoretischen Einsichten und Handlungsempfehlungen in konkrete Vornahmen durch die Gruppe selbst 4 Umsetzung der Erkenntnisse in einer weiteren Stabsübung anhand einer Computersimulation 4 Reflexion und Abschlussfeedback
18.5.6
Allgemeines Problemlösetraining
Als »allgemeine Problemlösetrainings« kann man eine Trainingsform bezeichnen, die die Trainingsziele und Trainingsinhalte noch stärker von konkreten Anwendungskontexten löst. Derartige Trainings existieren
4 Merkmale und Eigenschaften von Problemen, Problemtypen 4 Kognitive Anforderungen und strategische Optionen bei verschiedenen Problemtypen 4 Typische Fallgruben und Fehler beim Umgang mit verschiedenartigen Problemen 4 Techniken der Systemanalyse, der Informationsstrukturierung, der Informationsdarstellung, der Entscheidungsfindung unter Unsicherheit und Zeitdruck 4 Problemlösen in Teams 4 Psychologische Ursachen für die Schwierigkeiten beim Umgang mit komplexen Problemen Die in einem solchen 2- bis 4-tägigen Training eingesetzten Methoden können sehr vielfältig sein. Üblicherweise wird das erfahrungsbasierte Lernen durch ein- oder mehrere Computersimulationen komplexer Probleme stimuliert, die ausführlich nachbereitet werden (»debriefing«). Ansonsten lassen sich verschiedene Formen der Instruktion sehr gut mit Fallstudien zu realen Problemen, erfahrungsbasierten Diskussionen, Kleingruppenarbeiten und narrativen Elementen (»Geschichten von Helden und Versagern«) kombinieren. Anders als die bisher besprochenen Trainingsformen kann dieses Training sowohl mit homogenen (Teilnehmende kommen aus einem Unternehmen oder zumindest einer Branche) als auch mit heterogenen Teilnehmerkreisen durchgeführt werden. Beides hat Vor- und Nachteile. Eine homogene Teilnehmergruppe ermöglicht es, Trainingsinhalte und Diskussionen sehr eng am beruflichen Umfeld
302
Kapitel 18 · Human-Factors-Training
der Teilnehmer entlangzuführen. Dies verbessert mutmaßlich den Transfer der Trainingsergebnisse in den Alltag. Andererseits ist es für eine Trainingsgruppe aus einem Unternehmen oft schwer, sich gedanklich aus dem Alltagsgeschäft zu lösen und zu versuchen, eine distanzierte Perspektive zum eigenen problemlösenden Handeln einzunehmen. In gemischten Gruppen können die Teilnehmenden sehr von den Erfahrungen und Erlebnissen der anderen Gruppenmitglieder profitieren, die Diskussionen sind oft sehr intensiv und lebhaft. Allerdings braucht es manchmal mehr Zeit, um ein konstruktives Trainingsklima aufzubauen, und die Teilnehmer stehen, zurück in ihrer eigenen Organisation, mit ihren Erkenntnissen allein da. Diese Aspekte sind bei der Indikationsentscheidung zu bedenken.
18.6
Trainerkompetenzen
Es gibt im deutschsprachigen Raum keine verbindlichen Standards für HF-Trainer und HF-Trainerinnen, und auch international steht die Diskussion um die Einführung von Standards noch am Anfang (Alexander, 2003). HF-Trainer können ganz unterschiedliche Entwicklungen durchlaufen haben: Manche sind aus der Praxis ihres jeweiligen Berufsfeldes herausgewachsen und geben jetzt ihr Wissen und ihre Erfahrungen weiter, manche haben einen akademisch-psychologischen Hintergrund, wieder andere haben als Techniker oder Chemiker angefangen und irgendwann ihre Leidenschaft für das Thema Human Factors entdeckt. Bei aller Vielfalt wird man aber doch bestimmte grundlegende Kompetenzen als notwendig für eine erfolgreiche Trainingsdurchführung voraussetzen müssen (s. dazu auch Dismukes & Smith, 2000; Salas, Burke & Cannon-Bowers, 2002): Solides und vertieftes Verständnis der HF-Thematik: Diese Forderung umfasst sowohl das notwendi-
18
ge individual- und sozialpsychologische Wissen als auch das Wissen um die Bedeutung von Human Factors für Sicherheit und Effizienz komplexer soziotechnischer Systeme. Fähigkeit zur Beobachtung, Analyse und sicheren Steuerung von Gruppenprozessen: In modernen
HF-Trainings mit ihren Simulatoraufgaben, Plan-
spielen und Gruppenübungen entstehen oft intensive gruppendynamische Prozesse, die im Extremfall durchaus zum Auseinanderbrechen einer Trainingsgruppe oder auch zur Bildung einer Fronde gegen den Trainer führen können. Ein Trainer muss in der Lage sein, derartige Entwicklungen zu erkennen, aufzufangen und in eine produktive Richtung zu lenken, sodass der Trainingsertrag über alle Teilnehmer hinweg maximal wird. Kommunikationsfähigkeit: Ein HF-Trainer muss
nicht nur gut erklären können, er oder sie muss v. a. auch gut zuhören und erzählen können und in der Lage sein, sich in seinem Sprachverhalten auf die Voraussetzungen und Bedürfnisse der jeweiligen Trainingsgruppe einzustellen. Fairness: Es wurde bereits betont, dass das »debrie-
fing« von Übungen sowie Reflexion und Feedback eine wichtige Rolle in HF-Trainings einnehmen. Fairness bedeutet in diesem Zusammenhang die Bereitschaft und die Befähigung, den Teilnehmern offen gegenüberzutreten, auch kritische Einschätzungen und Beurteilungen klar zu kommunizieren, aber ohne dabei das Prinzip der grundsätzlichen Wertschätzung der Teilnehmer zu verletzen und ohne sich dabei selbst in den Vordergrund zu spielen. Zurückhaltung: Dieser Aspekt ist noch in einem weiteren Zusammenhang wichtig: Es ist auf der Basis der Beobachtungen in einem 2- oder auch 4-tägigen Training generell nicht möglich, den Charakter und die persönlichen Schwächen und Stärken eines einzelnen Teilnehmers zuverlässig einzuschätzen. Zwar besteht bei einzelnen Teilnehmern immer wieder der Wunsch nach einem individuellen »Generalfeedback« durch den Trainer, aber zumindest dann, wenn man nicht in ständigem Kontakt mit dem betreffenden Teilnehmer steht, begeht man einen Kunstfehler, wenn man dieser Bitte nachgibt. »Persönlichkeit«, Überzeugungsfähigkeit: Auch die
Persönlichkeit des Trainers oder der Trainerin nimmt wesentlichen Einfluss auf die Qualität eines Seminars. Nun ist »Persönlichkeit« schwer zu definieren. Der wesentliche Aspekt ist vielleicht, dass der Trainer in der Lage sein muss, Human Factors mit Überzeugung und Begeisterung zu vertreten – und
303 18.7 · Evaluation und Transfer
dabei gleichzeitig die Souveränität besitzt, kritische Bemerkungen ernst zu nehmen und sein Thema nicht zu ideologisieren und zu dogmatisieren. Fachkenntnisse: Die Bedeutung von Fachkenntnissen ist davon abhängig, ob die Trainingsinhalte bereichsspezifisch sind oder nicht. Jemand, der Schulungen durchführt, Stabsrahmenübungen vorbereitet oder ein CRM mit Flugzeugbesatzungen durchführt, braucht differenzierte Kenntnisse und Erfahrungen im jeweiligen Gegenstandsbereich. Bereichsübergreifende Trainings verlangen vom Trainer dagegen keine Spezialkenntnisse, wohl aber einen sehr guten Überblick über die Anwendbarkeit der jeweiligen Trainingsinhalte in verschiedenen Bereichen. Der bereichsspezifische HF-Trainer braucht »Tiefe statt Breite«, der bereichsübergreifende HFTrainer braucht »Breite statt Tiefe«. Ein sich in der Praxis bewährendes Modell besteht darin, zwei Trainer – einen Fachmann des Gebiets und einen HFGlobalisten – zusammenarbeiten zu lassen.
18.7
Evaluation und Transfer
Trainings sollen effektiv sein – das fordert der Auftraggeber, das erwarten die Teilnehmer, das erhoffen sich die Trainer. Allerdings stellt die Prüfung der Effektivität von verhaltens- und einstellungsorientierten Trainingsmaßnahmen ein sehr kompliziertes Problem dar (vgl. dazu grundlegend Kirkpatrick, 1998). Dies wird deutlich, wenn man überlegt, was »effektiv« im Zusammenhang mit HF-Trainings überhaupt heißt. Diese Frage muss nämlich in Abhängigkeit von den spezifischen Trainingszielen differenziert beantwortet werden: 4 Wo es in einem Training um das Erlernen und Einüben von einfachen und sicheren Prozeduren und Operationen geht, lässt sich zumindest der kurzfristige Lernerfolg relativ leicht messen (z. B. über Ausführungsdauer oder Fehlerquoten). 4 Theoretisches oder konzeptuelles Wissen ist in kaum einem HF-Training eigenständiges Ziel, derartiges Hintergrundwissen gilt eher als begründende Voraussetzung für Verhaltensänderungen. Das Gleiche gilt für Einstellungen und Werte (z. B. Sicherheitsbewusstein). Immerhin
18
können dafür Messinstrumente konzipiert werden (7 Kap. 2.4.1). 4 Problematischer wird es dort, wo sich das Training um die nichttechnischen Fähigkeiten dreht. Abgesehen von wohldefinierten Simulatorszenarios ist es schwierig, die Qualität der Entscheidungen in einer außergewöhnlichen Situation zu messen (vgl. zur Diskussion um die sog. Verhaltensmarker, »behavioral markers«, z. B. Flin & Martin, 2001). Das Gleiche gilt für die Sicherheit und Effizienz von Teamarbeit bei der Krisenbekämpfung, die Fehleranalyse eines Störfallteams unter Zeitdruck oder die Zusammenarbeit zwischen 2 konkurrierenden Institutionen. Natürlich sollen durch die Förderung von HF-Kompetenzen Handlungen und Entscheidungen besser und sicherer gemacht werden, und ein geschulter Beobachter wird auch im Einzelfall nachweisen können, dass das der Fall ist. Da aber die meisten Sondersituationen untereinander nicht vergleichbar sind, kann man keine allgemeingültigen Indikatoren für gutes oder schlechtes Kommunizieren oder Entscheiden festlegen: Wenn es im einen Fall richtig ist, alle Stabsmitglieder zu Wort kommen zu lassen (»gleichmäßige Redezeitverteilung«), kann genau das im anderen Fall zur Katastrophe führen. Verallgemeinerbare statistische Aussagen sind daher schwer möglich. Für das Thema »Sicherheit und Fehlervermeidung« gilt Ähnliches: Zumindest in den Anwendungsbereichen, in denen Fehler sehr seltene Ereignisse sind, ist es aus logischen Gründen schwer möglich, stringent nachzuweisen, dass durch ein Training Fehler verhindert wurden, die sonst gemacht worden wären (Helmreich, Chidester, Foushee, Gregorich & Wilhelm, 1990). Diese Anmerkungen können erklären, warum es in der Trainingsliteratur einen (oft beklagten) Mangel an brauchbaren empirischen Studien gibt. Zumindest die zeitlich kurzfristigen Effekte von HF-Trainings allerdings gelten mittlerweile als gut gesichert. Für CRM-Trainings z. B. konnte wiederholt nachgewiesen werden, dass das Training im Urteil der Teilnehmer hochgradig effektiv ist (Salas, Burke, Bowers & Wilson, 2001; Salas, Wilson, Burke & Wightman, 2006). Allerdings muss man hier vorsichtig
304
18
Kapitel 18 · Human-Factors-Training
sein. Zum einen ist es relativ einfach, mit einem gut aufgebauten, engagiert durchgeführten Training die Teilnehmer zu begeistern. Damit erhält man in der Nachbefragung gute Noten, aber man weiß noch nicht, was die Teilnehmer wirklich verstanden haben oder welche Aspekte ihres Handelns sie in ihrem beruflichen Alltag tatsächlich verändern. Mittlerweile sprechen jedoch auch einige »harte« empirische Prüfungen für diese Trainingsform. Hier kann man exemplarisch eine Studie von Salas, Fowlkes, Stout, Milanovich & Prince (1999) anführen, bei der militärische Hubschrauberbesatzungen CRM-trainiert wurden. Kernstück der Evaluation war ein Simulatorflug, der aus verschiedenen Phasen mit unterschiedlicher Arbeitsbelastung bestand. Die Autoren hatten für jeden Flugabschnitt bestimmte »Targets« definiert, Entscheidungen und operative Prozeduren, die unter Nutzung der trainierten TeamSkills zu bewältigen waren. Dabei ergab sich, dass die trainierte Gruppe nach dem Training deutlich mehr »richtige« Verhaltensmuster zeigte als eine Kontrollgruppe. Wenn man sich vor Augen hält, dass es sich bei beiden Gruppen um sehr gut ausgebildete Besatzungen handelte, ist dieser Zuwachs erstaunlich. Ferner, und das ist fast noch interessanter, zeigt das Ergebnis, dass das CRM-Training dazu beitragen kann, die sonst üblicherweise zu beobachtende Verschlechterung der Teamarbeit in High-workload-Situationen zu konterkarieren. Ähnliche Verbesserungen konnten mit einer Vorher-nachher-Untersuchung für das allgemeine Krisenstabstraining mit der MS Antwerpen nachgewiesen werden (Schindewolf, 2002; Starke, 2005; Dahlström, Huber, Langer & Strohschneider, in Vorbereitung). Allerdings sind auch diese Befunde mit Einschränkungen versehen: HF-Trainings sollen die Teilnehmenden auf Krisen und Notfälle vorbereiten. Krisen und Notfälle kann man aber nicht wirklich simulieren. Auch im besten High-fidelity-Flugsimulator weiß man, dass man nicht wirklich abstürzt. Angst, Denkblockaden, Fluchttendenzen mögen in mehr oder weniger großem Ausmaß spürbar sein (Menschen unterscheiden sich danach, inwieweit sie durch simulierte Gefahren erregbar sind), aber sie werden nie an das Erleben realer Gefahr heranreichen (vgl. dazu Manser, Dieckmann, Wehner & Rall, 2007). Um zu wirklich überzeugenden Ergebnissen zu kommen, müssen Simulatorstudien daher durch
langfristige Feldforschung in den betroffenen Institutionen selbst ergänzt werden. Ein letzter Punkt: Selbst wenn im Training Veränderungsbereitschaft erzeugt und wichtige Kompetenzen erworben wurden, ist unklar, wie lange die Effekte vorhalten. Wie häufig trainiert werden muss, ist deshalb eine weitere interessante und noch nicht gut untersuchte Frage. Vermutlich sind in der Realität v. a. ökonomische und rechtliche Zwänge entscheidend. Es gibt stehende Krisenstäbe, die praktisch ständig üben, die Feuerwehr übt alle 4 Wochen, CRM-Auffrischungstrainings gibt es in jährlichen Intervallen, im Bereich der öffentlichen Verwaltung kommt man vielleicht alle 10 Jahre mal »dran«.
18.8
Zusammenfassung und abschließende Bemerkungen
Die Kompetenzen, die in HF-Trainings vermittelt werden sollen, sind vielfältig – sie reichen von psychologischem Grundwissen und dem sicheren Beherrschen von Notfallprozeduren über effiziente Teamkommunikation bis hin zur Gestaltung interorganisationaler Zusammenarbeit und strategischer Flexibilität. Entsprechend vielfältig sind auch die Trainingselemente, die für diesen Zweck kombiniert werden. Während in einigen sicherheitsrelevanten Branchen sämtliche Trainingsaspekte (Teilnehmer, Inhalte, Methoden, Trainerqualifikationen) gesetzlich reglementiert sind, gibt es in anderen Branchen nur diesbezügliche Empfehlungen oder gar völligen Gestaltungsfreiraum. Besonders in diesen Fällen ist eine kritische Anforderungsanalyse Voraussetzung für eine erfolgreiche Trainingskonzeption. Dabei sind nicht nur die konkreten Arbeitstätigkeiten, sondern auch ihr organisationaler und kultureller Kontext zu beachten. Wenn man in größeren zeitlichen Zusammenhängen denkt, sind HF-Trainings eine sehr junge Entwicklung, die in den letzten Jahren – bedingt u. a. durch die als prekär wahrgenommene Sicherheitslage und das zunehmende HF-Interesse in der Medizin – eine erhebliche Dynamik entfaltet hat. Das wesentliche Moment dieser Entwicklung scheint zu sein, dass sich die Trainingsschwerpunkte verschieben: Neben die technische Systembeherrschung tritt die Gestaltung der Interaktion von Menschen unter-
305 18.9 · Literatur
einander und mit der Technik als zunehmend bedeutsames Ziel. Dieser Trend wird durch den zunehmenden Einsatz interaktiver Trainingselemente unterstützt. Generell scheint außerdem die Nachfrage nach Trainingsformen zu steigen, deren Inhalte sich zumindest teilweise von konkreten Anwendungsbereichen lösen und die allgemein anwendbaren Kompetenzen zum Umgang mit kritischen, dynamischen und komplexen Situationen im Team in den Vordergrund rücken. Trainingskonzepte, Trainingsmethoden und inhaltliche Curricula haben sich gewandelt und werden sich weiter wandeln. Es darf vermutet werden, dass die klassischen Planspiele mehr und mehr durch interaktive und dynamische Computersimulationen (im Low- und Mid-fidelity-Bereich) ergänzt oder sogar ersetzt werden. Es ist abzusehen, dass die Entwicklung von High-fidelity-Simulatoren weitergeht und die Simulation von Ernstfällen durch Virtualreality-Methoden in eine neue Dimension gehoben wird (Bente, Krämer & Peterson, 2002). Vielleicht sollte man aber auch diese technischen Entwicklungen nicht überbewerten. Übungen sind immer nur so gut wie der Kontext, in dem sie durchgeführt und für den sie gedacht sind (Dieckmann, 2005). Damit wird auch weiterhin die Person des Trainers eine entscheidende Rolle spielen. Was den organisationalen Rahmen betrifft, so wird seine Angemessenheit und Aufnahmenbereitschaft für HFThemen in Zukunft wesentlich stärker beachtet werden müssen, als dies heute der Fall ist. Vermutlich wird man in diesem Zusammenhang auch der Frage der Evaluation von Trainings neue Aufmerksamkeit zuwenden müssen.
18.9
Literatur
Adams, M. R. (2006). Shipboard bridge resource management. Eastport, MA: Nor’Easter Press. Alexander, D. (2003). Towards the development of standards in emergency management training and education. Disaster Prevention and Management, 12, 113–123. Bente, G., Krämer, N. C. & Peterson (Hrsg.) (2002). Virtuelle Realitäten. Göttingen: Hogrefe. Blötz, U. (Hrsg.) (2005). Planspiele in der beruflichen Bildung: Auswahl, Konzepte, Lernarrangements, Erfahrungen. Bonn: Bundesinstitut für Berufsbildung. Borodzicz, E. (2004). The missing ingredient is the value of flexibility. Simulation & Gaming, 35, 414–426.
18
Buerschaper, C., Harms, H., Hofinger, G. & Rall, M. (2003). Problemlösefähigkeiten in der Anästhesie. Forum Qualitative Sozialforschung, 4 (3), Art. 11. [http:// www.qualitative-research.net/fqs-texte/3-03/3-03buerschaperetal-d.pdf ] Buerschaper, C., Hofinger, G. & von der Weth, R. (2005). Strategisches Denken aus dem Computer? Über den Nutzen eines Trainings allgemeiner Problemlösestrategien. In U. Blötz (Hrsg.), Planspiele in der beruflichen Bildung: Auswahl, Konzepte, Lernarrangements, Erfahrungen, Begleit CD-Rom. Bonn: Bundesinstitut für Berufsbildung. Cannon-Bowers, J. A., Tannenbaum, S. I., Salas, E. & Volpe, C. E. (1995). Defining team competencies and establishing team training requirements. In R. Guzzo & E. Salas (Eds.), Team effectiveness and decision making in organizations (pp. 333–380). San Francisco, CA: Jossey-Bass. Dahlström, N. Huber, S., Langer, H. & Strohschneider, S. (in Vorb.). Mid-fidelity simulations in multi-crew-cooperation courses for pilots: An evaluation study. Dekker, S. W. (2005). Ten questions about human error: A new view of human factors and system safety. Mahwah, NJ: Erlbaum. Dieckmann, P. (2005). »Ein bisschen wirkliche Echtheit simulieren«: Über Simulatorsettings in der Anästhesiologie. Dissertation an der Universität Oldenburg. Dismukes, R. K. & Smith, G. M. (Eds.) (2000). Facilitation in aviation training and operations. Aldershot, UK: Ashgate. Flin, R. & Martin, L. (2001). Behavioural markers for crew resource management: A survey of current practice. International Journal of Aviation Psychology, 11, 95–118. Hall, E. T. & Hall, M. R. (1990). Understanding cultural differences. Beverly Hills, CA: Intercultural Press. Helmreich, R. L., Chidester, T. R., Foushee, H. C., Gregorich, S. E. & Wilhelm, J. A. (1990). How effective is cockpit resource management training? Issues in evaluating the impact of programs to enhance crew co-ordination. Flight Safety Digest, 9, 1–17. Helmreich, R. L. & Wilhelm, J. A. (1991). Outcomes of crew resource management training. International Journal of Aviation Psychology, 1, 287–290. Helmreich, R. L., Merritt, A. C. & Wilhelm, J. A. (1999). The evolution of crew resource management training in commercial aviation. International Journal of Aviation Psychology, 9, 19–32. Hofinger, G. (2003). Fehler und Fallen beim Entscheiden in kritischen Situationen. In S. Strohschneider (Hrsg.), Entscheiden in kritischen Situationen (S. 115–136). Frankfurt a. M.: Verlag für Polizeiwissenschaft. Honey, P. & Mumford, A. (1982). The manual of learning styles. Maidenhead, GB: Honey. IAEA (2001). The operating organization for nuclear power plants: Safety guide. Vienna: International Atomic Energy Agency (IAEA). Kirkpatrick, D. L. (1998). Evaluating training programs: The four levels. San Francisco, CA: Jossey-Bass. Kolb, D. A., Boyatzis, R. E. & Mainemelis, C. (2001). Experiental learning theory: Previous research and new directions. In R. J. Sternberg & L.-F. Zhang (Eds.), Perspectives on thinking,
306
Kapitel 18 · Human-Factors-Training
learning and Cognitive Styles (pp. 227–247). Mahwah, NJ: Erlbaum. Lorei, C. (2001). Bewertung von Eigensicherungs- und Kontrollmaßnahmen durch Bürger. Polizei und Wissenschaft, 2, 48–60. Manser, T., Dieckmann, P., Wehner, T. & Rall, M. (2007). Comparison of anaesthetists’ activity patterns in the operating room and during emergencies. Ergonomics, 50, 246–260. Peters, V. A. M. & Vissers, G. A. N. (2004). A simple classification model for debriefing simulation games. Simulation & Gaming, 35, 70–84. Prince, C. & Salas, E. (1993). Training research for teamwork in the military aircrew. In E. L. Wiener, B. G. Kanki & R. L. Helmreich (Eds.), Cockpit resource management (pp. 337–366). Orlando, FL: Academic Press. Salas, E., Burke, C. S., Bowers, C. A. & Wilson, K. A. (2001). Team training in the skies: Does crew resource management (CRM) training work? Human Factors, 43, 641–674. Salas, E., Burke, C. S. & Cannon-Bowers, J. A. (2002). What we know about designing and delivering team training: Tips and guidelines. In K. Kraiger (Ed.), Creating, implementing and managing effective training and development: State-ofthe-art lessons for practice (pp. 234–262). San Francisco, CA: Jossey-Bass. Salas, E., Fowlkes, J. E., Stout, R. J., Milanovich, D. M. & Prince, C. (1999). Does CRM training improve teamwork skills in the cockpit? Two evaluation studies. Human Factors, 41, 326– 343. Salas, E., Wilson, K. A., Burke, C. S. & Wightman, D. C. (2006). Does crew resource management training work? An Update, an extension, and some critical needs. Human Factors, 48, 392–412.
18
Schindewolf, P. (2002). MS Antwerpen: Darstellung und Evaluation eines computergestützten Trainings zum Krisenmanagement. Bamberg: Diplomarbeit im Studiengang Psychologie. Starke, S. (2005). Kreuzfahrt in die Krise. Wie sich kritische Situationen im Planspiel trainieren lassen. Frankfurt a. M.: Verlag für Polizeiwissenschaft. Strohschneider, S. (2003). Krisenstabstraining: Das Nicht-Planbare vorbereiten. In S. Strohschneider (Hrsg.), Entscheiden in kritischen Situationen (S. 97–112). Frankfurt a. M.: Polizei und Wissenschaft. Strohschneider, S. & Gerdes, J. (2004). MS ANTWERPEN: Emergency management training for low risk environments. Simulation & Gaming, 35, 394–413. Tobias, S. & Fletcher, J. D. (Eds.) (2000). Training and retraining: A handbook for business, industry, government, and the military. New York: Macmillan. Wein, B., Willems, R. & Quanjel, M. (2000). Planspielsimulationen: Ein Konzept für eine integrierte (Re-) Strukturierung von Organisationen. In A. Blätte & D. Herz (Hrsg.), Simulation und Planspiel in den Sozialwissenschaften: Eine Bestandsaufnahme der internationalen Diskussion (S. 275–299). Münster: Lit. Wilpert, B. & Fahlbruch, B. (2004). Safety culture: Analysis and intervention. In C. Spitzer, U. Schmocker & V. N. Dang (Eds.), Probabilistic safety assessment and management, Vol. 2 (pp. 843–849). London: Springer. Wilson, H. (2000). Emergency response preparedness: Small group training. Part 2: Training methods compared with learning styles. Disaster Prevention and Management, 9, 180–213.
19
Systemgestaltung und Automatisierung Dietrich Manzey
19.1
Einleitung
– 308
19.2
Automatisierung und Auto mation:Begriffsbestimmung
19.3
Rolle des Menschen in automatisierten Systemen
19.4
Probleme der Nutzung automatisierter Systeme durch den Menschen – 312
19.4.1 19.4.2 19.4.3
Vertrauen in Automation – 312 Aufrechterhaltung des Situationsbewusstseins – 316 Verlust manueller Fertigkeiten – 318
19.5
Konzepte einer menschzentrierten Systemgestaltung – 318
19.5.1 19.5.2
Von technikzentrierten zu menschzentrierten Automatisierungsstrategien – 319 Adaptierbare und adaptive Automation – 322
19.6
Zusammenfassung
19.7
Literatur
– 323
– 322
– 309
– 311
308
Kapitel 19 · Systemgestaltung und Automatisierung
19.1
Einleitung
Beispiel Cali, Kolumbien, 20.12.1995. Flug AA965 befindet sich, aus Miami kommend, im Anflug auf Cali in Kolumbien. Das Cockpit dieser Boeing 757 ist mit zahlreichen automatisierten Systemen ausgestattet, die die Piloten bei ihren Flugführungsaufgaben unterstützen und so zu einer hohen Flugsicherheit beitragen sollen. Herzstück der Automation ist das sog. Flight Management System (FMS), das in Kombination mit dem Autopiloten zentrale Aufgaben der Navigation, Flugzeugführung und Systemüberwachung übernimmt. Die Aufgabe der Piloten besteht dabei nur noch darin, die jeweilige Flugroute bzw. die anzufliegenden Funkfeuer in das System einzugeben. Das eigentliche Abfliegen der Route müssen die Piloten dann nur noch anhand der Informationen auf einem Navigationsbildschirm überwachen. Darüber hinaus verfügt das Flugzeug auch über zahlreiche automatisierte Warn- und Alarmsysteme, wie z. B. das sog. Ground Proximity Warning System (GPWS), das die Cockpit-Crew warnt, sobald das Flugzeug sich zu stark dem Boden nähert. Obwohl alle diese Systeme funktionsgemäß arbeiten und auch die Piloten erfahren, gesund und voll leistungsfähig sind, erreicht Flug AA965 sein Ziel nicht. Um 21.42 Uhr Ortszeit zerschellt des Flugzeug 33 Meilen nordöstlich von Cali entfernt in den Bergen. Die gesamte Besatzung und 151 der 155 Passagiere sterben. Die nachfolgende Unfallanalyse dieses »controlled flight into terrain« zeigt, dass viele der zum Unglück beitragenden Faktoren mit Problemen des Zusammenspiels zwischen Piloten und Automation zusammenhängen. So passiert ein fataler Fehler bei der Umprogrammierung des FMS auf ein neu anzufliegendes Funkfeuer. Um im FMS den Anflug auf das Funkfeuer »Rozo« zu programmieren, geben die Piloten
19
Moderne Arbeitssysteme zeichnen sich dadurch aus, dass es sich in der Regel um mehr oder weniger komplexe Mensch-Maschine-Systeme handelt, in denen mehrere Menschen im Zusammenwirken mit technischen Systemen vorgegebene Aufgabenstellungen erfüllen. Ein sehr spezielles Beispiel dieser Art liefert
entsprechend der Abkürzungskonvention in ihrer Anflugkarte ein »R« ein. Ohne dass es für sie unmittelbar sichtbar oder nachvollziehbar wäre, ergänzt das FMS dieses »R« aber aufgrund seiner eigenen internen Logik nicht – wie von den Piloten erwartet – zu »Rozo«, sondern zu »Romeo«. Dieses Funkfeuer ist etwa 132 Meilen von Cali entfernt und führt das Flugzeug von seiner derzeitigen Position direkt auf einen Kurs in die Berge. Da die Piloten der Automation aber vertrauen und unter Zeitdruck sind, überprüfen sie die Auswirkungen ihrer Programmierung nicht anhand anderer verfügbarer Navigationsinformationen (z. B. andere Anzeigen), sondern setzen ihre Landevorbereitungen fort. Auch als sie nicht mehr sicher über ihre Position sind, vertrauen sie weiterhin der Automation und versuchen, mit dem FMS ihre Position zu ermitteln. Da die von dem FMS generierte Darstellung auf dem Navigationsbildschirm aber nicht alle der dafür notwendigen Informationen enthält und alternativ verfügbare Informationen (Anflugkarten) nicht genutzt werden, bleiben sie im Unklaren darüber, wo genau sie sich befinden. Erst als das GPWS anspringt, merken sie, dass sie sich in einer gefährlichen Lage befinden. Ein daraufhin sofort eingeleiteter Steigflug kommt zu spät. In dem offiziellen Unfallbericht werden als wahrscheinliche Ursachen dieses Unglücks und dazu beitragende Faktoren u. a. eine unangemessene Nutzung der Automation (»inadequate use of automation«), ein fehlendes Situationsbewusstsein der Piloten für die Position des Flugzeugs (»lack of situational awareness«), eine nicht hinreichend transparente Automationslogik und Informationsdarstellung sowie ein zu starkes Vertrauen der Piloten in die Automation angeführt (Aeronautica Civil of the Republic of Columbia, 1996).
der Arbeitsplatz von Piloten im Cockpit moderner Verkehrsflugzeuge. Im Zuge der rapiden technologischen Entwicklung sind vergleichbare Arbeitssysteme inzwischen aber auch in vielen anderen Bereichen entstanden, v. a. dem Bahn- und Schiffsverkehr, der Fertigungs- und Prozesstechnik und der Medi-
309 19.2 · Automatisierung und Auto mation:Begriffsbestimmung
zin. Damit einhergehend haben Fragen nach einer bestmöglichen Gestaltung derartiger Arbeitssysteme sehr an Bedeutung gewonnen. Ein wichtiges Gestaltungsproblem kommt dabei der Frage zu, wie die verschiedenen Funktionen und Aufgaben, die von einem solchen Arbeitssystem erfüllt werden sollen, innerhalb des Systems verteilt werden. Dabei lassen sich 2 Aspekte unterscheiden: 4 Der erste Aspekt bezieht sich auf die Verteilung der Funktionen und Aufgaben auf die verschiedenen Menschen, die in einem bestimmten Arbeitssystem arbeiten. Dabei reicht die Bandbreite von sehr spezifischen Fragestellungen, wie etwa der optimalen Aufgabenverteilung zwischen Kapitän und Kopilot in einem Flugzeugcockpit, bis hin zu modernen Gruppenarbeitskonzepten für die Bereiche Fertigung und Produktion. 4 Der zweite, hier besonders interessierende Aspekt betrifft die Verteilung von Aufgaben zwischen Mensch(en) und Maschine (zu grundlegenden Konzepten der Systemgestaltung 7 Kap. 1). Dieses Problem hat insbesondere vor dem Hintergrund der rapide gewachsenen Möglichkeiten der Automatisierung in den letzten Jahrzehnten zunehmend an Bedeutung gewonnen. Ähnlich wie man es in der Luftfahrt seit mehreren Jahrzehnten beobachten kann, werden in modernen Arbeitssystemen zunehmend Funktionen automatisiert, um so Menschen bei der Erfüllung ihrer Aufgaben zu unterstützen bzw. in einem gewissen Maße auch zu ersetzen. Das Leitmotiv der Automatisierung liegt dabei neben den offensichtlichen ökonomischen Vorteilen nicht zuletzt auch in einer angestrebten Erhöhung der Sicherheit und Zuverlässigkeit. Und in der Tat zeigen z. B. Statistiken aus der Luftfahrt, dass die Unfallrate moderner, hoch automatisierter Flugzeuge deutlich geringer ist als die der weitgehend manuell geflogenen Flugzeugtypen früherer Jahre (Boeing Commercial Airline Group, 2005). Auf der anderen Seite entstehen durch die Einführung automatisierter Systeme aber oft auch neue Risiken, die mit fatalen Folgen verbunden sein können, wie das eingangs dargestellte Beispiel anschaulich illustriert. Diese zeigen sich v. a. dann, wenn die
function allocation
19
Automation nicht wie erwartet arbeitet, Fehler macht oder sogar ganz ausfällt. In diesen, oft besonders kritischen Situationen ist in der Regel dann wieder der Mensch gefordert, einzuspringen und die eigentlich automatisierten Funktionen selbst zu übernehmen. Unabhängig von ihrer Komplexität bleiben auch weitgehend automatisierte Arbeitssysteme damit im Kern immer soziotechnische Systeme, deren Verlässlichkeit maßgeblich von der Qualität der Interaktion zwischen Mensch und Automation abhängt. Eine sicherheitsorientierte Gestaltung derartiger Systeme kann sich somit nicht allein auf eine Optimierung der Zuverlässigkeit seiner technischen Komponenten (Hard- und Software) beschränken, sondern muss auch immer auf eine Optimierung im Hinblick auf die Interaktion zwischen Mensch und Automation ausgerichtet sein. Dieses Kapitel beschäftigt sich speziell mit Problemen der Nutzung automatisierter technischer Systeme durch den Menschen und den daraus resultierenden allgemeinen Prinzipien für die Gestaltung von Arbeitssystemen, in denen die Interaktion von Mensch und Automation eine zentrale Rolle spielt. Dazu werden zunächst die Begriffe »Automatisierung« bzw. »Automation« näher bestimmt und verschiedene Arten und Stufen der Automation unterschieden. Danach wird auf die Rolle des Menschen in automatisierten Systemen eingegangen, und es werden die wichtigsten Probleme, die bei der Interaktion von Mensch und Automation auftreten können, näher dargestellt. Im letzten Abschnitt werden darauf aufbauend verschiedene Überlegungen zu möglichen Automatisierungsstrategien und Konzepten einer menschzentrierten Systemgestaltung vorgestellt und diskutiert, die unabhängig von dem jeweils spezifischen Anwendungsbereich (z. B. Luftfahrt, Prozessindustrie, Medizin) gültig sind.
19.2
Automatisierung und Automation: Begriffsbestimmung
! Von Automatisierung oder Automation wird allgemein dann gesprochen, wenn einzelne Funktionen oder ganze Tätigkeiten vom Menschen auf eine Maschine übertragen werden. Im vorliegenden Beitrag soll mit dem Begriff 6
310
Kapitel 19 · Systemgestaltung und Automatisierung
der Automatisierung der Prozess und dem Begriff der Automation das Resultat einer solchen Übertragung verstanden werden (Hauß & Timpe, 2000).
Beispiele für Automatisierung sind: 4 Verlagerungen manueller Steuerungs- und Regelungstätigkeiten auf technische Systeme, wie sie etwa in der Luftfahrt oder bei der Prozesssteuerung in der chemischen und Strom erzeugenden Industrie eine Rolle spielen 4 Verlagerung manueller Tätigkeiten an Roboter in der Automobilindustrie oder Medizin 4 Verlagerung kognitiver Funktionen der Urteilsund Entscheidungsfindung an wissensbasierte Assistenzsysteme in unterschiedlichen Anwendungsdomänen Eine vergleichsweise einfache Systematik zur klassifizierenden Beschreibung automatisierter Systeme haben Parasuraman, Sheridan & Wickens (2000) vorgelegt (. Abb. 19.1). Sie macht deutlich, dass 2 Aspekte automatisierter Systeme unterschieden werden können: Der erste Aspekt bezieht sich darauf, was genau automatisiert wird. Hier unterscheiden Parasuraman, Sheridan & Wickens 4 verschiedene Klassen von Funktionen (s. folgende Übersicht), die sie in Anlehnung an die Unterscheidung verschiedener Stufen menschlicher Informationsverarbeitung als Informationsaufnahme (»information acquisition«), Informationsanalyse (»information analysis«), Entscheidungsfindung/Handlungsauswahl (»decisionmaking and action selection«) sowie Handlungsausführung (»action implementation«) bezeichnen.
oder einer Situation abzuleiten. Hier kann Automation dazu eingesetzt werden, Menschen bei der Integration, Verrechnung und Auswertung verschiedener Daten zu unterstützen. Typische Beispiele dafür wären etwa Alarmsysteme, die auf der Basis ausgewerteter Daten vor dem Eintreten bestimmter Systemzustände oder Situationen warnen. Entscheidungsfindung/Handlungsauswahl. Funk-
tionen der dritten Gruppe umfassen die Entscheidungsfindung und Handlungsauswahl. Aus den aufgenommenen und analysierten Informationen gilt es Entscheidungen über weitere Handlungsschritte abzuleiten, wobei »intelligente« Assistenzsysteme als Unterstützung dienen können (z. B. wenn Alarmsysteme auf der Basis der ausgewerteten Daten bereits konkrete Handlungsschritte vorschlagen). Handlungsausführung. Schließlich umfasst die letz-
te Gruppe der Funktionen alle Arten automatisierter Unterstützung der Handlungsausführung. Ein Beispiel wäre eine programmierbare Werkzeugmaschine, die bestimmte Bohrungen an bestimmten Positionen autonom ausführt.
Klassifizierung von Automation (nach Parasuraman, Sheridan & Wickens, 2000) 1. Was wird automatisiert? 4 Informationsaufnahme 4 Informationsanalyse 4 Entscheidungsfindung/Handlungsauswahl 4 Handlungsausführung 2. Ausmaß der Automation: rein manuell bis voll automatisch
Informationsaufnahme. Mit Informationsaufnah-
me sind dabei alle möglichen sensorischen Funktionen gemeint, mit denen Daten aus der Umwelt vom Menschen aufgenommen werden. Eine Automatisierung dieser Funktionen kann z. B. über den Einsatz technischer Sensoren, Kameras oder spezieller Messsysteme erfolgen.
19 Informationsanalyse. Die zweite Klasse von Funktionen betrifft die Verarbeitung dieser aufgenommenen Daten, d. h. ihre analysierende Auswertung mit dem Ziel, daraus eine Bewertung des Systemzustands
Der zweite Aspekt, der bei der Betrachtung automatisierter Systeme relevant ist, betrifft das Ausmaß der jeweiligen Automation. Damit wird der Tatsache Rechnung getragen, dass sich verschiedene Systeme danach unterscheiden lassen, wie stark Mensch und Maschine in die Ausführung bestimmter Funktionen jeweils eingebunden sind, d. h. in welchem Umfang die jeweiligen Funktionen an die Maschine übertragen werden. Parasuraman, Sheridan & Wickens (2000) legen hier für jeden Funktionsbereich
311 19.3 · Rolle des Menschen in automatisierten Systemen
ein Kontinuum zugrunde, das von rein manueller bis zu vollautomatischer Ausführung reicht. Der in . Abb. 19.1 beispielhaft eingetragene Profilverlauf für System A könnte dabei für ein Navigationssystem im Auto oder das GPWS (s. einleitendes Fallbeispiel) in einem Flugzeug stehen. Bei diesen Systemen werden automatisch Informationen aus der Umwelt (z. B. Satelliteninformationen) aufgenommen, ausgewertet und daraus Handlungsempfehlungen abgeleitet (z. B. rechts abzubiegen oder einen Steigflug einzuleiten), die dann aber manuell umgesetzt werden müssen. Das zweite System (B) könnte eine Planungshilfe für Fluglotsen symbolisieren, bei denen auf Basis automatisch aufgenommener und ausgewerteter Informationen automatisch generierte Handlungsvorschläge unterbreitet werden, von denen der Fluglotse aktiv auswählt, welche dann wiederum automatisch umgesetzt werden.
19.3
Rolle des Menschen in automatisierten Systemen
Indem im Zuge von Automatisierung Funktionen und Aufgaben, die der Mensch ursprünglich selbst ausgeführt hat, an eine Maschine verlagert werden, verändert sich natürlich auch die Rolle, die dem Menschen als Bediener und Nutzer eines derartigen Systems zukommt. Betrachten wir dazu die Piloten im Eingangsbeispiel. Früher waren sie selbst dafür verantwortlich, die jeweilige Lage und Positi-
19
on ihres Flugzeugs zu bestimmen und es manuell zu steuern. Sie wurden dabei nur durch ihre Anzeigeninstrumente, die Außensicht und Karten unterstützt. In einem modernen Glascockpit hingegen werden viele dieser Funktionen inzwischen vom Computer (Flight Management System, FMS) übernommen. Die aktiven Aufgaben der Piloten reduzieren sich dabei auf die Programmierung dieses Systems. Danach bleibt ihre Rolle auf die Überwachung des Systems beschränkt, und sie greifen nur dann aktiv ein, wenn das System nicht zuverlässig arbeitet.
Rolle des Menschen in automatisierten Systemen Die Rolle des Menschen in automatisierten Systemen wird auch als »leitende Kontrolle« (»supervisory contol«; Sheridan, 1997) bezeichnet. Dabei bestehen die Aufgaben des Menschen darin, 4 zu planen, was die Automation machen soll, 4 dies der Automation mitzuteilen, 4 anschließend die Ausführung zu überwachen und 4 immer dann einzugreifen, wenn die Automation die vorgegebenen Direktiven nicht erwartungsgemäß umsetzt.
Für die Sicherheit bei der Nutzung automatisierter Systeme sind v. a. die letzten beiden Teilaufgaben
. Abb. 19.1. Systematik zur Beschreibung verschiedener Arten der Automation. (In Anlehnung an Parasuraman, Sheridan & Wickens, 2000)
312
19
Kapitel 19 · Systemgestaltung und Automatisierung
Probleme der Nutzung automatisierter Systeme durch den Menschen
von besonderer Bedeutung. Auch das macht das eingangs zitierte Beispiel deutlich. Die bei der Programmierung des FMS aufgetretenen Fehler (Verwechslung des Funkfeuers) hätten vermutlich entdeckt und kompensiert werden können, wenn die Piloten nach der Eingabe die Aktivitäten der Automation angemessen überwacht und sich rechtzeitig dafür entschieden hätten, das FMS abzuschalten und die Navigation und Steuerung des Flugzeugs wieder selbst zu übernehmen. Die Überwachungsfunktion setzt dabei voraus, dass der Bediener oder die Bedienerin einem automatisierten System nicht »blind vertraut«, sondern auch in der passiven Rolle aufmerksam bleibt und die Aktivitäten der Automation mit anderen verfügbaren Informationen abgleicht. Eine wesentliche kognitive Anforderung, die damit für die Bediener verbunden ist, besteht in der Entwicklung angemessener Strategien der Informationssammlung und Kontrolle. Die Intervention in das System im Falle von Automationsfehlern bedeutet in der Regel, dass die Automation abgeschaltet und die eigentlich automatisierten Funktionen wieder selbst übernommen werden. Da diese Situationen in der Regel nicht vorhersehbar sind, wird vorausgesetzt, dass der Bediener zu jedem Zeitpunkt dazu in der Lage ist und die dafür notwendigen Wissensvoraussetzungen und Fertigkeiten besitzt.
19.4
! Bainbridge (1983) wies in diesem Zusammenhang als Erste auf die Widersprüchlichkeiten der Automatisierung (»ironies of automation«) hin. Einerseits soll der Mensch durch eine Automation unterstützt, entlastet und in vielen Fällen auch ersetzt werden; oft nicht zuletzt deshalb, weil man sich davon eine Erhöhung der Sicherheit und Verlässlichkeit des Gesamtsystems erhofft. Andererseits wird aber gleichzeitig der Mensch benötigt, um das System zu überwachen und als Redundanz zur Verfügung zu stehen.
Der Umgang mit einem automatisierten System wird immer wesentlich von dem Vertrauen bestimmt, das der Mensch einer Automation entgegenbringt (Lee & See, 2004; Manzey & Bahner, 2005). Insbesondere hängt davon ab, inwieweit eine Automation in geeigneter Weise genutzt wird und so die durch eine Automatisierung angestrebten Effekte einer Beanspruchungsreduktion bei gleichzeitiger Erhöhung der Systemverlässlichkeit und -sicherheit auch tatsächlich erreicht werden können. Zu den wichtigsten Faktoren, die das Vertrauen in automatisierte technische Systeme beeinflussen, gehört die Zuverlässigkeit, mit der diese Systeme arbeiten. Daneben spielen aber auch noch weitere Systemeigenschaften (z. B. Nachvollziehbarkeit und wahrgenommene Nützlichkeit automatisierter Funktionen) und interindividuelle Unterschiede in der allgemeinen Einstellung gegenüber Technik sowie dem Vertrauen in die eigene Leistungsfähigkeit eine Rolle.
Im Folgenden soll auf einige der daraus resultierenden Probleme näher eingegangen werden.
Insbesondere 3 Problemfelder, die bei der Interaktion von Mensch und Automation eine Rolle spielen, sollen im Folgenden betrachtet werden. Diese beziehen sich 1. auf Probleme, die sich aus einem mangelnden bzw. übersteigerten Vertrauen in Automation ergeben, 2. auf die Aufrechterhaltung eines angemessenen Situationsbewusstseins und 3. auf das Auftreten möglicher Fertigkeitsverluste als Folge einer Nutzung automatisierter Systeme. Viele dieser Probleme wurden erstmals im Zusammenhang mit der Cockpitautomatisierung in der Luftfahrt thematisiert und untersucht und spielen auch beim Eingangsbeispiel eine Rolle. Sie lassen sich in ähnlicher Weise aber auch auf alle anderen relevanten Anwendungsbereiche übertragen (z. B. Prozessindustrie, Kraftfahrzeugbereich, Bahn- und Schifffahrt, Medizin).
19.4.1
Vertrauen in Automation
313 19.4 · Probleme der Nutzung automatisierter Systeme durch den Menschen
19
. Abb. 19.2. Unterschiedliche Ausprägungen des Vertrauens in Automation und mögliche Verhaltenskonsequenzen
Im Idealfall sollte das Vertrauen in ein automatisiertes System dessen wesentlichen Leistungsmerkmalen (z. B. Zuverlässigkeit, Verständlichkeit, Nützlichkeit) möglichst gut entsprechen. Lee & See (2004) sprechen in diesem Fall von einem angemessenen Vertrauen (»appropriate trust«) in die Automation und sehen darin eine wichtige Voraussetzung für ein den jeweiligen Systemeigenschaften angepasstes Nutzungs- und Überwachungsverhalten des Menschen. Probleme bei der Nutzung und Überwachung automatisierter Systeme ergeben sich immer dann, wenn die Bediener der Automation zu wenig oder aber zu viel Vertrauen entgegenbringen (. Abb. 19.2). Parasuraman & Riley (1997) unterscheiden in diesem Zusammenhang eine mangelnde Nutzung (»disuse«) und eine fehlerhafte Nutzung (»misuse«) von Automation. Eine mangelnde Nutzung liegt dann vor, wenn einer im Grunde zuverlässig arbeitenden Automation ein zu geringes Vertrauen entgegengebracht und sie daher nicht ihren Möglichkeiten entsprechend genutzt wird. Der umgekehrte Fall liegt bei einer fehlerhaften Nutzung der Automation vor, wie sie etwa auch im Eingangsbeispiel eine Rolle spielt. Diese ist gegeben, wenn die »Entscheidungen« und Aktionen einer Automation vom Bediener oder der Bedienerin aufgrund eines übersteigerten Vertrauens in ihre Funktionsfähigkeit und Zuverlässigkeit unkritisch akzeptiert und entsprechend nur unzureichend überwacht und kontrolliert werden.
Mangelndes Vertrauen in Automation Probleme eines zu geringen Vertrauens in Automation und einer daraus resultierenden mangelnden Nutzung sind v. a. im Zusammenhang mit Systemen von Bedeutung, bei denen der Mensch selbst darüber entscheiden kann, ob und inwieweit sie genutzt werden. Typische Beispiele dafür liefern Assistenzsysteme, die den Menschen bei der Erfüllung einer Aufgabe entlasten sollen (z. B. Autopilot, Navigationssysteme), aber auch automatisierte Alarm- und Warnsysteme, die entsprechend beachtet und befolgt oder aber ignoriert werden können. Bei derartigen Systemen kann es dazu kommen, dass sie trotz einer hinreichend hohen Zuverlässigkeit nicht oder nur unzureichend genutzt werden und der Mensch eher seinen eigenen Wahrnehmungen und Fähigkeiten vertraut als sich auf die Automation zu verlassen. Ein wesentlicher Faktor, der dabei eine Rolle zu spielen scheint, betrifft die Unterschätzung der »wahren« Zuverlässigkeit einer Automation aufgrund einzelner auftretender Automationsfehler. Verschiedene Untersuchungen zeigen, dass das Vertrauen, das einer Automation entgegengebracht wird, sehr schnell zusammenbricht, wenn es zu offensichtlichen Fehlern der Automation kommt. Dieser Effekt ist dann besonders ausgeprägt, wenn die Risiken, die sich aus derartigen Fehlern ergeben, als groß wahrgenommen werden oder die Automationsfehler bei vergleichsweise leichten Aufgaben auf-
314
19
Kapitel 19 · Systemgestaltung und Automatisierung
treten (Madhavan, Diegmann & Lacson, 2006). Dabei spielt aber auch die Nachvollziehbarkeit und Vorhersehbarkeit der Fehler eine maßgebliche Rolle. Je besser die Nutzer die Funktionen automatisierter Systeme nachvollziehen können und damit auch Fehler der Automation erklärbar und vorhersehbar werden, desto geringer wirken sich wahrgenommene Fehler auf das Vertrauen und die Nutzung der Systeme aus (Dzindolet, Peterson, Pomranky, Pierce & Beck, 2003). Besonders häufig treten Probleme eines zu geringen Vertrauens in Automation im Zusammenhang mit automatisierten Warn- und Alarmsystemen auf, die den Bediener komplexer technischer Anlagen auf technische Fehler oder kritische Zustände aufmerksam machen sollen. Derartige Systeme werden in der Regel dort implementiert, wo ein fehlendes oder zu spätes Eingreifen durch die Bediener mit hohen Kosten und Gefährdungen verbunden ist (z. B. GPWS in Flugzeugen oder automatische Alarme in einem Kernkraftwerk). Entsprechend viel Wert wird dabei auf eine hohe Sensitivität der Systeme gelegt, sodass sichergestellt ist, dass auch wirklich alle auftretenden Fehler entdeckt und angezeigt werden. Die Kehrseite dieser hohen Sensitivität ist in der Regel aber eine mehr oder weniger hohe Rate falscher Alarme, d. h. ein Ansprechen des Alarm- oder Warnsystems, ohne dass tatsächlich ein Fehler oder kritischer Zustand vorliegt. Die wiederholte Erfahrung mit derartigen falschen Alarmen führt schnell dazu, dass die Nutzer das Vertrauen in die diagnostische Validität des Warnsystems verlieren und die automatisch generierten Warnungen oder Alarme in der Folge nur noch mit nachrangiger Priorität behandeln oder sogar gänzlich ignorieren. Ein naheliegender Ansatz, dieses Problem zu minimieren, besteht darin, Alarm- und Warnsysteme zu entwickeln, die eine hinreichend gute Entdeckungswahrscheinlichkeit für Fehler und kritische Zustände bei gleichzeitiger Minimierung falscher Alarme gewährleisten. Allerdings sind die technischen Möglichkeiten in dieser Hinsicht oft nur sehr begrenzt und können die Ausbildung mangelnden Vertrauens in automatische Warn- und Alarmsysteme kaum wirklich verhindern. Wichtiger erscheint es daher, den Nutzern ein angemessenes Verständnis von der Funktionsweise der jeweiligen Alarm- und Warnsysteme zu vermit-
teln und sie für die Problematik falscher Alarme hinreichend zu sensibilisieren.
Übersteigertes Vertrauen in Automation Während ein zu geringes Vertrauen in ein automatisiertes System und eine daraus resultierende mangelnde Nutzung v. a. dazu führen, dass die angestrebten Effekte der Beanspruchungsreduktion und Unterstützung des Nutzers nicht erzielt werden, ist ein zu hohes Vertrauen in Automation oft sehr viel unmittelbarer mit erheblichen Risiken für die Sicherheit von Mensch-Maschine-Systemen verbunden. Dies ist immer dann der Fall, wenn sich die Nutzer eines automatischen Systems zu sehr auf dessen technische Zuverlässigkeit verlassen und dabei ihre Überwachungs- und Kontrollfunktion vernachlässigen. ! Das übermäßige Vertrauen in die Automation und daraus resultierende Probleme werden in der englischsprachigen Literatur als »automation complacency« bezeichnet (Parasuraman, Molloy & Singh, 1993; Moray & Inagaki, 2000). Dazu gehören unzureichendes Überwachungs- und Kontrollverhalten und in der Folge daraus der Verlust des Situationsbewusstseins (7 Kap. 19.4.2.) und das potenzielle Übersehen von Automationsfehlern (Manzey & Bahner, 2005).
Ein solcher Effekt hat offenbar auch bei der Entstehung des Flugzeugunglücks aus dem Eingangsbeispiel eine wichtige Rolle gespielt. Nach der Eingabe des neuen Funkfeuers in das FMS verzichteten die Piloten darauf, die damit verbundenen Konsequenzen (Kursänderung des Flugzeugs) auf ihre Plausibilität hin zu überprüfen. Das führte dazu, dass sie die bei der Eingabe entstandene Verwechslung der Funkfeuer bis zum Schluss nicht bemerkten und so die Orientierung über ihre genaue Position verloren. Fatalerweise vertrauten sie dem FMS selbst dann noch weiter, als sie schon die Orientierung verloren hatten, und versäumten es dabei, rechtzeitig wieder auf eine manuelle Kontrolle des Flugzeugs umzuschalten. Vergleichbare Effekte sind auch für den Umgang mit automatisierten Assistenzsystemen beschrieben worden, die die Operateure komplexer technischer Anlagen bei der Entdeckung und Diagnose von Fehlern oder kritischen Systemzuständen unterstützen
315 19.4 · Probleme der Nutzung automatisierter Systeme durch den Menschen
(Mosier & Skitka, 1996). Hier kann es zu 2 Arten von Fehlern kommen: 4 Zum einen vernachlässigen Operateure im Vertrauen auf die Alarmfunktion dieser Systeme ihre eigene Überwachung der Anlagen, was in der Folge zu einem zu späten Entdecken von kritischen Systemzuständen führen kann, die von dem Assistenzsystem nicht gemeldet werden. 4 Zum anderen werden automatisch generierte Anweisungen und Diagnosen dieser Systeme von den Operateuren oft auch dann noch akzeptiert, wenn sie fehlerhaft sind, weil andere zugängliche Informationen, die eigentlich dagegensprechen, nicht hinreichend geprüft und gewürdigt werden. Entstehungsbedingungen. Welche Faktoren tragen
zu der Entstehung eines übersteigerten Vertrauens in Automation und einem damit verbundenen Complacency-Effekt bei? Zunächst liegt es nahe anzunehmen, dass v. a. diejenigen Eigenschaften einer Automation, von denen bekannt ist, dass sie besonders »vertrauensfördernd« wirken, gleichzeitig auch das Risiko eines übersteigerten Vertrauens in sich bergen. Dazu gehören v. a. die technische Zuverlässigkeit, aber auch die Nachvollziehbarkeit der Funktionsweise und die wahrgenommene Nützlichkeit. Insbesondere der Zusammenhang zwischen der wahrgenommenen Zuverlässigkeit automatisierter Systeme und dem möglichen Auftreten des Complacency-Effekts ist dabei inzwischen durch mehrere Laborexperimente gut belegt (Parasuraman, Molloy & Singh, 1993; Manzey, Bahner & Hüper, 2006). Hierin offenbart sich eine der Ironien der Automatisierung, wie sie von Bainbridge (1983) beschrieben wurden. Je leistungsfähiger, zuverlässiger und »besser« die Automation gestaltet ist, desto eher kann es auch zu unerwünschten Folgen wie einem übersteigerten Vertrauen in die Automation und den damit verbundenen Überwachungsdefiziten kommen. Die Entwicklung von Complacency-Effekten wird bei solchen Systemen gerade dadurch begünstigt, dass die Risiken, die sich aus einem nachlässigen Überwachungs- und Kontrollverhalten nur in den Fällen sichtbar werden, in denen die Automation ausfällt oder fehlerhaft arbeitet. Das aber ist umso seltener der Fall, je zuverlässiger und
19
besser das System arbeitet. In der Regel werden die Bediener und Bedienerinnen derartiger Systeme daher überwiegend die Erfahrung machen, dass ein nachlässiges Überwachungs- und Kontrollverhalten ohne jede Konsequenz bleibt. Das kann dann im Sinne einer positiven Rückkopplung einen kognitiven Lernprozess auslösen, der die Tendenz zu einem übersteigerten Vertrauen in die Automation und zu einem entsprechenden Verhalten noch weiter verstärkt. Allerdings scheint eine hohe Zuverlässigkeit allein noch keinesfalls hinreichend für die Induzierung von »complacency« zu sein. Vielmehr müssen dabei zusätzlich Bedingungen gegeben sein, die zu besonderen Beanspruchungen des Bedieners/Nutzers automatisierter Systeme führen. So konnten in den bislang vorliegenden Arbeiten ComplacencyEffekte nur unter Mehrfachaufgabenbedingungen nachgewiesen werden, d. h. wenn neben der eigentlichen Überwachungsaufgabe zusätzlich noch andere Aufgaben zu bearbeiten waren (Parasuraman, Molloy & Singh, 1993). Möglicherweise spiegelt sich darin eine allgemeine Bearbeitungsstrategie im Umgang mit komplexen Aufgabenanforderungen wider, bei der die Überwachung als zuverlässig wahrgenommener automatisierter Funktionen reduziert wird, um so kompensatorisch genügend Ressourcen für die Bearbeitung der konkurrierenden Aufgaben zur Verfügung stellen zu können. Lee & See (2004) und Parasuraman, Molloy & Singh (1993) nehmen an, dass in ähnlicher Weise auch eine hohe mentale Beanspruchung oder Müdigkeit von Operateuren das Auftreten von »complacency« fördern könnten. Darüber hinaus scheinen auch besondere individuelle Merkmale des Nutzers das Auftreten von Complacency-Effekten zu begünstigen. So lassen erste empirische Arbeiten vermuten, dass Complacency-Effekte besonders bei solchen Personen auftreten, die sich durch eine besonders positive allgemeine Einstellung gegenüber Technik (»Technikgläubigkeit«) auszeichnen (Singh, Molloy & Parasuraman, 1993). Fazit. Zusammenfassend resultiert das Problem eines übersteigerten Vertrauens in Automation bzw. eines nachlässigen Überwachungsverhaltens damit aus einer komplexen Interaktion zwischen Merkmalen des jeweiligen automatisierten Systems, des
316
Kapitel 19 · Systemgestaltung und Automatisierung
Nutzers und der Situation, in der das System genutzt wird (Manzey & Bahner, 2005). Dabei wurde bei der bisherigen Diskussion dieses Phänomens zumindest implizit vorausgesetzt, dass es für den Nutzer prinzipiell immer auch die Möglichkeit gäbe, sich anders – d. h. weniger »complacent« – zu verhalten. Das aber muss nicht immer der Fall sein. Der oben beschriebene Zusammenhang zwischen der Beanspruchung des Nutzers und dem Complacency-Effekt macht bereits deutlich, dass es Situationen geben kann, in denen der Nutzer quasi gezwungen ist, sich auf eine Automation zu verlassen – etwa weil es konkurrierende Aufgabenziele gibt oder einfach die Zeit fehlt, die automatisierten Prozesse zu überwachen und zu kontrollieren. Dies ist in einem noch viel stärkeren Maße der Fall, wenn der Nutzer einer Automation gar nicht mehr versteht oder nachvollziehen kann, was die Automation gerade macht. In diesem Fall bleibt ihm gar nichts anderes übrig, als sich auf die Automation zu verlassen. Das führt uns weg von dem Problem eines übersteigerten Vertrauens in Automation hin zu dem allgemeineren Problem der Aufrechterhaltung des Situationsbewusstseins im Umgang mit automatisierten Systemen.
19.4.2
19
Aufrechterhaltung des Situationsbewusstseins
Allgemein ausgedrückt liegt ein angemessenes Situationsbewusstsein (»situation awareness«) immer dann vor, wenn der Mensch bei der Aufgabenerfüllung zu jedem Zeitpunkt darüber im Bilde ist, was gerade passiert, warum es passiert und wie sich die Situation weiter entwickeln wird (vgl. dazu auch 7 Kap. 4). Nach Endsley (1995) lassen sich entsprechend 3 verschiedene Ebenen des Situationsbewusstseins unterscheiden: Ebene 1 des Situationsbewusstseins ist dann gegeben, wenn alle Informationen, die für eine Beurteilung des gegenwärtigen Zustands benötigt werden, auch tatsächlich verfügbar sind und wahrgenommen werden. Dabei kann es sich um technisch vermittelte Informationen handeln oder auch um Informationen, die über die verschiedenen Sinneskanäle direkt aus der Umwelt aufgenommen werden. Für eine Autofahrerin, die sich im Straßenverkehr be-
wegt, wären das alle Informationen, die sie den Anzeigen des Armaturenbretts entnehmen kann (z. B. Geschwindigkeits- und Drehzahlanzeige), aber auch Informationen aus der Außensicht (z. B. andere Verkehrsteilnehmer, Verkehrsschilder) und Informationen, die auditiv (z. B. Motorengeräusche) oder taktil (z. B. Andruck des Gaspedals) vermittelt werden. Die höheren Ebenen des Situationsbewusstseins setzen dann voraus, dass die wahrgenommenen Informationen korrekt interpretiert und zu einem angemessenen Gesamtbild der Situation zusammengeführt werden (Ebene 2), und daraus der weitere Verlauf der Situation richtig vorhergesagt werden kann (Ebene 3). Eine wichtige Voraussetzung dafür ist, dass der Mensch über eine entsprechende Wissensbasis und ein zutreffendes »mentales Modell« der Aufgabe sowie des dabei zu bedienenden technischen Systems verfügt. Wie das Eingangsbeispiel belegt, kann es bei der Nutzung automatisierter Systeme leicht zu einem Verlust des Situationsbewusstseins kommen. Dieser erweist sich so lange als unkritisch, wie das System zuverlässig funktioniert. Er kann aber fatale Folgen haben, wenn die Automation ausfällt oder nicht erwartungsgemäß arbeitet und ein manuelles Eingreifen nötig wird, der Nutzer oder die Nutzerin dann aber nicht mehr weiß, in welchem Zustand sich das System befindet. Vier verschiedene Probleme im Umgang mit Automation können zu einem derartigen Verlust des Situationsbewusstseins beitragen (Endsley, Bolté & Jones, 2003): 1. Mangelnde Überwachung
Defizite bei der Überwachung und Kontrolle automatisierter Systeme führen dazu, dass Informationen des Systems, die über Anzeigen oder andere Rückmeldekanäle vermittelt werden und für die Aufrechterhaltung des Situationsbewusstseins genutzt werden könnten, nicht entsprechend wahrgenommen und gewürdigt werden. Das führt zu einem Verlust des Situationsbewusstseins bereits auf unterster Ebene. Gründe dafür können zum einen in einem übersteigerten Vertrauen in die Automation und den damit verbundenen Complacency-Effekten (s. oben) liegen. Sie können zum anderen aber auch mit den bekannten allgemeinen Vigilanzproblemen bei Überwachungsaufgaben zusammenhängen (Endsley, Bolté & Jones, 2003).
317 19.4 · Probleme der Nutzung automatisierter Systeme durch den Menschen
2. Veränderte Rückmeldekanäle
Bei der Nutzung automatisierter Systeme übernimmt der Mensch die Rolle des passiven Überwachers und ist damit nicht mehr aktiv in den Regelkreis der Systemsteuerung eingebunden. Damit verbunden kommt es häufig zu einer Veränderung oder sogar einem kompletten Wegfall von Rückmeldekanälen, die bei manueller Ausführung für die Aufrechterhaltung des Situationsbewusstseins von Bedeutung sind. So fehlen einem Autofahrer, der einen Tempomat für die Geschwindigkeitsregelung benutzt, z. B. alle taktilen Rückmeldungen vom Andruck des Gaspedals, die normalerweise beim Versuch, die Geschwindigkeit konstant zu halten, sehr direkte Informationen über Steigungen oder Gefälle im Straßenverlauf vermitteln. Dies kann dazu führen, dass wichtige dynamische Veränderungen der Situation oder der Systemeigenschaften nicht oder deutlich später erkannt und diagnostiziert werden, als wenn die Bediener nach wie vor aktiv in die Regelungsprozesse eingebunden sind (Kessel & Wickens, 1982). 3. Mangelnde Transparenz der Automation
Diese liegt vor, wenn dem Nutzer keine oder nur unzureichende Informationen zur Verfügung stehen, anhand derer nachvollzogen werden kann, was die Automation gerade macht. Ein solches Problem hat auch im Eingangsbeispiel eine Rolle gespielt. Dort wurden auf dem FMS-Display nicht alle Funkfeuer angezeigt, die für ein Nachvollziehen der vom FMS geflogenen Route und einer eindeutigen Beurteilung der gegenwärtigen Position notwendig gewesen wären. Auch dann, wenn die Nutzer um eine möglichst gute Überwachung und die Aufrechterhaltung eines angemessenen Situationsbewusstseins bemüht sind, wird es ihnen durch die unzureichende Rückmeldung des Systems und die damit einhergehende Intransparenz der Systemfunktionen unmöglich gemacht. Auch dieser Effekt führt dazu, dass das Situationsbewusstsein bereits auf unterster Ebene nicht aufgebaut wird oder nach kurzer Zeit verloren geht. 4. Komplexität und mangelndes Systemverständnis
Selbst dann, wenn die Nutzer automatisierter Systeme sich um eine angemessene Überwachung bemühen und die dafür notwendigen Informationen alle verfügbar sind, kann es zu Problemen des Situations-
Systemgestaltung
19
bewusstseins kommen. Das ist immer dann der Fall, wenn die Nutzer aufgrund mangelnden Wissens oder aufgrund der Komplexität der Automation kein korrektes mentales Modell der Funktionsweise der Automation besitzen bzw. aufbauen können. Sie sind in diesem Fall nicht in der Lage, die wahrgenommenen Informationen richtig zu interpretieren und daraus Vorhersagen über die weiteren Prozesse abzuleiten (Ebenen 2 und 3 des Situationsbewusstseins). Ein sehr einfaches Beispiel findet sich wiederum im beschriebenen Eingangsbeispiel: Hier gehen die Piloten davon aus, dass die Eingabe eines einzelnen Buchstabens (hier: »R«) als Abkürzung für ein Funkfeuer von der Automation so ergänzt wird, wie es aus ihrer Sicht und der gegenwärtigen Position sinnvoll wäre. Ihr mentales Modell der Funktionsweise der Automation (»Die Automation wird das Funkfeuer auswählen, das zu der gegenwärtigen Position am nächsten liegt«) passt nicht zu der tatsächlichen Funktionalität (»Die Automation wählt das Funkfeuer aus, das zu dem größten Flughafen in der Region gehört und damit am häufigsten bei Anflügen genutzt wird«). Andere Probleme hängen mit der Komplexität automatisierter Funktionen und der dahinterstehenden Logik zusammen, die eine Automation für den Nutzer immer weniger durchschaubar macht, oder auch damit, dass automatisierte Systeme oft in verschiedenen Modi arbeiten, bei denen identische Systemeingaben zu unterschiedlichen Konsequenzen führen. Unmittelbare Indikatoren eines damit einhergehenden Verlustes des Situationsbewusstseins sind überraschte Äußerungen der Nutzer (»Was passiert denn jetzt?«, »Ich frage mich, warum er das jetzt nicht macht«). Probleme der Aufrechterhaltung des Situationsbewusstseins aufgrund von mangelnder Transparenz eines automatisierten Systems oder auch eines mangelnden Systemverständnisses lassen sich durch eine Verbesserung des Automationsdesigns, v. a. der Schnittstelle zwischen Mensch und Automation, oder auch durch ein Training der Nutzer verringern und im besten Fall sogar vermeiden. Das gilt zumindest in dem Maße, in dem die Komplexität einer Automation die kognitiven Fähigkeiten des Menschen nicht übersteigt und sie prinzipiell für ihn durchschaubar bleibt. Dagegen hängt der Verlust des Situationsbewusstseins aufgrund mangelnder Überwa-
318
Kapitel 19 · Systemgestaltung und Automatisierung
chung oder veränderter Rückmeldekanäle direkt damit zusammen, dass der Nutzer einer Automation von den aktiven Regelungsprozessen ausgeschlossen ist (er bleibt »out-of-the-loop«) und weitgehend passive Überwachungsfunktionen wahrnehmen muss. Entsprechend wird in der englischsprachigen Literatur auch von einer »out-of-the-loop unfamiliarity« (OOTLUF) gesprochen (Endsley & Kiris, 1995). Diese kann sich nicht nur in dem beschriebenen Verlust des Situationsbewusstseins widerspiegeln, sondern geht oft auch mit einem Verlust manueller Fertigkeiten einher.
19.4.3
19
Verlust manueller Fertigkeiten
Die Automatisierung bestimmter Funktionen und die damit verbundene Veränderung der Rolle des Menschen vom aktiv Ausführenden zum passiv Beobachtenden bedeutet immer auch einen Verlust des kontinuierlichen Trainings der entsprechenden motorischen und/oder kognitiven Fertigkeiten aufseiten des Nutzers (»deskilling«). Dies kann dazu führen, dass diese Fertigkeiten nach und nach schlechter werden oder sogar ganz verloren gehen. Gleichzeitig wird aber vorausgesetzt, dass die Nutzer zu jeder Zeit in der Lage sind, die eigentlich automatisierten Funktionen im Falle von Automationsfehlern wieder selbst zu übernehmen, d. h. die dazu benötigten Fertigkeiten in vollem Umfang beherrschen. Bainbridge (1983) sieht in diesem Widerspruch eine der wichtigsten Ironien der Automatisierung. Die wenigen Arbeiten zu Auswirkungen von Automatisierung auf den Fertigkeitserhalt haben bisher allerdings nur wenig konsistente Befunde erbracht. Während manche Arbeiten zeigen, dass der Fertigkeitsverlust umso geringer ist, je stärker der Mensch in die (dann nur teil-) automatisierten Funktionen involviert bleibt (Endsley & Kiris, 1995), zeigen andere, dass ein Fertigkeitserhalt auch bei hohen Automationsstufen gewährleistet werden kann, zumindest dann, wenn sich die Nutzer jeweils aktiv darum bemühen, die automatisiert ablaufenden Prozesse mental nachzuvollziehen (Lorenz, DiNocera, Röttger & Parasuraman, 2002). Allerdings handelt es sich dabei in der Regel um laborexperimentelle Arbeiten, sodass zu
langfristigen Auswirkungen von Automatisierung auf den Fertigkeitserhalt auf dieser Basis zunächst wenig ausgesagt werden kann. Relevant in diesen Zusammenhang sind Befunde zum Fertigkeitserhalt aus der psychologischen Trainingsforschung. Sie zeigen, dass ein Erhalt motorischer Fertigkeiten auch ohne Training sehr viel besser gelingt als etwa der Erhalt kognitiver (prozeduraler) Fertigkeiten (Patrick, 1992). Entsprechend kann vermutet werden, dass Fertigkeitsverluste insbesondere dann ein Risiko darstellen, wenn durch Automatisierung kognitive Funktionen vom Mensch zur Maschine verlagert werden, wie es etwa bei Systemen der Fall ist, die Entscheidungs-, Diagnose- oder Planungsprozesse unterstützen. Eine Möglichkeit, derartigen Fertigkeitsverlusten entgegenzuwirken, besteht darin, dass die automatisierten Funktionen in zeitlichen Abständen immer wieder auch manuell ausgeführt werden müssen. Dies kann im Rahmen adaptiver Systeme realisiert werden (7 Kap. 19.5.2) oder aber auch in Form von Simulatortrainings, wie sie etwa für Piloten oder Operateure von Kernkraftwerken obligatorisch sind (zu Trainingskonzepten 7 Kap. 18). 19.5
Konzepte einer menschzentrierten Systemgestaltung
Ein zentrales Problem bei der Gestaltung moderner Arbeitssysteme betrifft die Art der Funktions(auf)teilung (»function allocation«) zwischen Mensch und Maschine, d. h. die Frage, welche Funktionen die Maschine und welche die in einem System arbeitenden Menschen übernehmen sollen. Dazu ist es zunächst einmal notwendig, die Gesamtheit aller Aufgaben und damit verknüpften Funktionen zu beschreiben, die von einem bestimmten System erbracht werden sollen. Dies erfolgt in der Regel im Rahmen einer detaillierten Analyse und Beschreibung der verschiedenen Arbeitsaufgaben. Die dazu entwickelten methodischen Ansätze sind sehr vielfältig und reichen von theoretisch-rationalen Ansätzen der Aufgabenzerlegung bis hin zu strukturierten Beobachtungs- und Befragungsmethoden (Annett & Stanton, 2000; Vicente, 1999). Das Ziel besteht jeweils darin, eine möglichst strukturierte Beschrei-
319 19.5 · Konzepte einer menschzentrierten Systemgestaltung
bung aller für die Erreichung eines Aufgabenziels notwendigen Funktionen und ihrer inhaltlichen und zeitlichen Abhängigkeiten zu bekommen. Eine Entscheidung darüber, wie diese verschiedenen Funktionen dann innerhalb des Arbeitssystems aufgeteilt werden, setzt geeignete Entscheidungskriterien voraus. Grote, Ryser, Wäfler, Windischer & Weik (2000) unterscheiden dabei zwischen 3 verschiedenen Gestaltungsebenen: 4 Ebene des soziotechnischen Systems 4 Ebene der individuellen Arbeitstätigkeit 4 Ebene des Mensch-Maschine-Systems Die ersten beiden Ebenen beziehen sich auf übergeordnete Aspekte der Gestaltung soziotechnischer Arbeitssysteme und das dabei verfolgte Ziel einer möglichst ganzheitlichen und persönlichkeitsför-
19
derlichen Arbeitsgestaltung. Sie schließen alle Merkmale ein, die die Arbeitstätigkeit und Arbeitsbedingungen eines Menschen im Rahmen seines individuellen Arbeitsplatzes und der Einbindung dieses Arbeitsplatzes in den organisationalen Kontext betreffen. Wichtige Leitprinzipien für die Systemgestaltung auf diesen Ebenen lassen sich aus den allgemein akzeptierten Konzepten einer »menschengerechten« Arbeitsgestaltung ableiten, wie sie etwa von Hackman & Oldham (1980) oder Hacker (1989) formuliert wurden (s. folgende Übersicht). Die dritte Ebene bezieht sich spezifischer auf die im Rahmen der Systemgestaltung verfolgten Automatisierungsstrategien und ihre Auswirkungen auf die Qualität der Mensch-Maschine-Interaktion. Diese Ebene soll im Folgenden genauer betrachtet werden.
Arbeitspsychologische Leitprinzipien für die Gestaltung von Arbeitstätigkeiten (Hacker, 1989) Ganzheitlichkeit der Arbeitsaufgaben
Lern- und Entwicklungsmöglichkeiten
Nicht nur ausführende, sondern auch planende, vorbereitende, kontrollierende und nachbereitende Aufgabenanteile als Bestandteil der Arbeitstätigkeit
Möglichkeiten zur Nutzung und Erweiterung vorhandener fachlicher und überfachlicher Kompetenzen
Anforderungsvielfalt der Arbeitsaufgaben
Freiheitsgrade für eigene Entscheidungen (Autonomie)
Vermeidung von Monotonie und einer zu hohen Gleichförmigkeit der Arbeitsaufgaben
Möglichkeiten zur Beeinflussung der eigenen Arbeitsweisen und -bedingungen
Denk- und Planungserfordernisse Möglichkeit zu eigenen Denk- und Planungsprozessen bei der Arbeitstätigkeit
Kommunikationserfordernisse
Transparenz und Rückmeldung Durchschaubarkeit der Einbettung eigener Arbeitsaufgaben in den Gesamtzusammenhang und Rückmeldung über die Qualität der eigenen Arbeit
Möglichkeiten zu sozialer Interaktion und Kooperation bei der Arbeitstätigkeit
19.5.1
Von technikzentrierten zu menschzentrierten Automatisierungsstrategien
Entscheidungen darüber, welche Funktionen automatisiert werden und welche beim Menschen verbleiben sollen, werden häufig unter einer rein technik- bzw. kostenzentrierten Sichtweise getroffen. Danach werden alle die Funktionen automatisiert,
die sich technisch gut und kostengünstig automatisieren lassen, und nur diejenigen, bei denen das nicht geht, werden dem Menschen zugeordnet. Die primären Ziele dieser Automatisierungsstrategie liegen in einer Effizienzsteigerung im Hinblick auf Zuverlässigkeit und Kosten. Überlegungen zu den Auswirkungen der Automatisierung auf Menschen als Nutzer dieser Systeme spielen dabei keine oder allenfalls eine geringe Rolle.
320
19
Kapitel 19 · Systemgestaltung und Automatisierung
Eine zweite Automatisierungsstrategie, die bereits früh als Alternative zu diesen rein technikzentrierten Ansätzen vorgeschlagen wurde, stellt einen Vergleich der jeweiligen Leistungsvorteile von Mensch und Maschine in den Mittelpunkt der Betrachtung (Fitts, 1951). Entsprechend dieses fähigkeitszentrierten Ansatzes sollten alle diejenigen Funktionen automatisiert werden, die sich von einer Maschine besser und effizienter ausführen lassen, und diejenigen Funktionen beim Menschen verbleiben, für die der Mensch aufgrund seiner spezifischen Fähigkeiten besser geeignet ist. Zur Unterstützung dieser Art des Vorgehens wurden sog. MABAMABA-Listen aufgestellt, die die jeweiligen relativen Leistungsvorteile von Mensch (»man is better at«) und Maschine (»machine is better at«) gegenüberstellen und den Designern automatisierter Systeme Hinweise für eine bestmögliche Funktionsallokation liefern sollten (Fitts, 1951). Obwohl eine derartige Betrachtungsweise zunächst plausibel erscheinen mag, weist auch sie wesentliche Schwächen auf und erweist sich bei näherer Betrachtung als zu einfach. Zum einen setzt sie voraus, dass sich eindeutig bestimmen lässt, wo die jeweiligen Leistungsvorteile liegen. War das in früheren Jahren aufgrund der begrenzten Leistungsfähigkeit der Computertechnologie noch einigermaßen gut entscheidbar, lässt sich eine derartige Grenzziehung aufgrund der rasanten technologischen Entwicklung heute kaum noch aufrechterhalten, sodass die Gefahr besteht, dass die Unterschiede zwischen einer fähigkeits- und einer technikzentrierten Perspektive zunehmend verschwinden. Noch schwerer wiegt allerdings ein zweiter Aspekt. Ähnlich wie die technikzentrierte Perspektive geht auch der fähigkeitszentrierte Ansatz davon aus, dass Mensch und Maschine im Kontext von Automatisierungsstrategien als voneinander unabhängige Einheiten betrachtet werden können. Diese Art der Betrachtung wird der Komplexität der mit einer Automatisierung verbundenen Probleme und Auswirkungen nicht gerecht. Wie die Erörterung der zentralen psychologischen Probleme bei der Nutzung einer Automation und auch das Eingangsbeispiel deutlich gemacht haben, lassen sich die Probleme bei der Nutzung automatisierter Systeme durch den Menschen gerade nicht den Stärken oder Schwächen der einzelnen Systemkomponenten zuordnen,
sondern ergeben sich aus der Interaktion von Mensch und Automation und spiegeln damit ein Merkmal des Gesamtsystems wider. Angemessener erscheint es daher, im Rahmen von Überlegungen zur Funktionsallokation den Menschen und die Maschine als einander wechselseitig ergänzende Systemkomponenten zu betrachten, deren »Zusammenarbeit« und »Koordination« im Hinblick auf die Erreichung des Gesamtziels und unter Berücksichtigung der Rolle, die dem Menschen dabei zukommt, optimiert werden muss (Grote, Ryser, Wäfler, Windischer & Weik, 2000). ! Bei der Funktionsaufteilung zwischen Mensch und Maschine (»function allocation«) verwendete man früher Listen mit spezifischen menschlichen Stärken (»Fitts lists«). Heute werden beide als Teil eines sich ergänzenden Systems betrachtet, das als Ganzes menschzentriert gestaltet werden sollte.
Menschzentrierte Automatisierung und das Primat der Kontrollierbarkeit von Technik Dieser Aspekt wird in Konzepten einer menschzentrierten Automatisierung (»human-centered automation«; Billings, 1997) berücksichtigt. Leitend für die Ableitung von Gestaltungsprinzipien wird dabei zunächst die Überlegung, dass es der Mensch ist, der beim Betrieb und der Nutzung automatisierter Systeme – unabhängig von ihrem Automationsgrad – immer auch die letztendliche Verantwortung für das Gesamtsystem, d. h. die Erreichung der Aufgabenziele und die dabei auftretenden Probleme und Folgen trägt. Damit rückt die spezifische Rolle, die dem Menschen bei Betrieb und Nutzung automatisierter Systeme zukommt und als »leitende Kontrolle« (7 Kap. 19.3, Übersicht »Die Rolle des Menschen in automatisierten Systemen«) beschrieben wurde, in den Mittelpunkt der Betrachtung. Für die Gestaltung automatisierter Systeme bedeutet das, dass die Perspektive nicht allein auf die bestmögliche Erfüllung bestimmter Teilfunktionen bei der Durchführung einer Aufgabe verengt werden kann, sondern immer auch gefragt werden muss, wie gewährleistet werden kann, dass die Technik für den Menschen überwachbar und kontrollierbar bleibt.
321 19.5 · Konzepte einer menschzentrierten Systemgestaltung
Wichtige allgemeine Gestaltungsprinzipien, die aus diesem Primat der Kontrollierbarkeit der Technik durch den Menschen folgen, hat erstmals Billings (1997) für den Bereich der Cockpitautomation formuliert und damit ein erstes Konzept menschzentrierter Automation beschrieben. Insbesondere betont wird dabei 4 die Notwendigkeit einer aktiven Involviertheit des Menschen in die jeweiligen Prozesse, um eine innere Abkopplung und mögliche OOTLUF-Probleme (»out of the loop unfamiliarity«) zu vermeiden, 4 die Notwendigkeit, dass der Mensch jederzeit über die Aktionen der Automation informiert ist, 4 die Verfügbarkeit von Informationen, anhand derer der Mensch die Automation überwachen und kontrollieren kann (und umgekehrt) sowie 4 die allgemeine Forderung, bei der Systemgestaltung davon auszugehen, dass Mensch und Automation 2 intelligente Agenten eines gemeinsamen Systems repräsentieren, die wechselseitig über ihre jeweiligen Absichten und Ziele informiert sein müssen.
Automation als Teampartner Eine wichtige Leitmetapher, die in diesem Zusammenhang oft herangezogen wird, betrachtet die Automation als einen dem Menschen zugeordneten »Teampartner« und leitet aus dieser Metapher zentrale Ziele für die Gestaltung automatisierter Systeme ab (Christoffersen & Woods, 2002). Dabei werden vor allem 3 Aspekte betont: Der erste betrifft die Überlegung, dass effektive Teamarbeit nur dann gelingen kann, wenn beide Teampartner über ein gemeinsames Verständnis darüber verfügen, wie eine bestimmte Aufgabe gelöst werden kann, wie man sich dafür am besten untereinander koordiniert und über welche Stärken und Schwächen die beteiligten Teampartner im Hinblick auf die Aufgabenerfüllung verfügen. Übertragen auf die Interaktion zwischen Mensch und Automation werden damit – ähnlich wie bei Billings (1997) – die Aspekte der 4 Transparenz (wissen, warum die Automation so arbeitet, wie sie arbeitet), 4 Information (wissen, was die Automation gerade macht) sowie
19
4 die Notwendigkeit einer gemeinsamen Sprache (»common ground«) für die Kommunikation zwischen Mensch und Maschine zu wichtigen Leitprinzipien für eine sinnvolle Systemgestaltung. Die Betrachtung des Eingangsbeispiels macht deutlich, dass keine dieser Prinzipien im vorliegenden Fall erfüllt war und somit eine effektive Zusammenarbeit zwischen Piloten und Automation durch die Art der Systemgestaltung nicht ausreichend unterstützt wurde. Zwei weitere Aspekte, die die TeampartnerMetapher nahelegt, betreffen direkt die Art der Funktionsallokation. Dabei geht es zum einen darum, dass es bei menschlicher Teamarbeit selten darum geht, einzelne Aufgaben ausschließlich entweder dem einen oder dem anderen Teampartner zuzuordnen, sondern es alle möglichen Varianten einer gemeinsamen Wahrnehmung von Aufgaben/ Funktionen gibt. Dabei bemühen sich Mitglieder effektiver operationeller Teams (z. B. Piloten in einem Cockpit) immer auch um eine wechselseitige Unterstützung und Kontrolle bei ihren Aktivitäten. In ähnlicher Weise, wie es Forschungsarbeiten zu Auswirkungen unterschiedlicher Automationsstufen im Hinblick auf den Erhalt des Situationsbewusstseins und Vermeidung von Fertigkeitsverlusten nahelegen, unterstützt die Metapher damit die Forderung, automatisierte Systeme so zu gestalten, dass der Mensch in die automatisierten Prozesse involviert bleibt und eine kognitive Abkopplung vermieden wird. Zum anderen zeichnen sich gerade sehr effektive menschliche Teams in der Regel dadurch aus, dass die Aufgabenverteilung nicht statisch festgelegt ist, sondern durch explizite und implizite Koordinationsprozesse sehr flexibel wechselnden Anforderungen angepasst werden kann. Übertragen auf die Funktionsallokation in Mensch-Maschine-Systemen legt dies nahe, auf eine statische Zuweisung von Funktionen zu verzichten und stattdessen Systeme zu konzipieren, bei denen die jeweilige Funktionsverteilung zwischen Mensch und Maschine dynamisch verändert und so den jeweiligen situativen Erfordernissen bestmöglich angepasst werden kann. Dieser Gedanke führt uns direkt zu modernen Konzepten adaptierbarer und adaptiver Automation.
322
19.5.2
Kapitel 19 · Systemgestaltung und Automatisierung
Adaptierbare und adaptive Automation
Adaptierbare Automation. Von adaptierbaren Sys-
temen spricht man immer dann, wenn es dem Menschen überlassen bleibt zu entscheiden, ob und für welchen Zeitraum bestimmte Funktionen an eine Automation delegiert werden sollen. Typische Beispiele dafür liefern moderne Assistenzsysteme, wie etwa der Autopilot im Flugzeug oder das Navigationssystem im Auto. Hier trifft der Nutzer jeweils eine Entscheidung darüber, ob er eine Automation in einer bestimmten Situation nutzen möchte oder nicht. Adaptive Automation. Anspruchsvoller, in ihrer
19
Konsequenz aber auch problematischer, sind Konzepte adaptiver Automation (Scerbo, 1996). Bei diesen Ansätzen erfolgt die Funktionsallokation jeweils kontextabhängig, wobei die Kontrolle über die Funktionsverteilung primär bei der Maschine liegt. In der einfachsten Variante dieses Ansatzes werden die eigentlich automatisierten Funktionen für bestimmte Zeitintervalle immer wieder an den Menschen »zurückgegeben«, um so Vigilanzeinbußen und andere OOTLUF-Probleme bei der Überwachung automatisierter Systeme zu vermeiden (Parasuraman, Mouloua & Molloy, 1996). Allerdings ist ein solches Vorgehen natürlich noch nicht im engeren Sinne adaptiv. Das leisten erst Systeme, bei denen die Entscheidung über die Funktionsallokation in Abhängigkeit vom situativen Kontext oder dem Zustand des jeweiligen Nutzers gefällt wird. Ansätze einer situationsabhängigen Funktionsallokation delegieren bestimmte Funktionen immer dann an die Maschine, wenn die situativen Anforderungen komplexer werden und es sinnvoll erscheint, den Menschen bei der Erfüllung seiner Aufgaben zu entlasten (Scallen & Hancock, 2001). Noch komplexer und anspruchsvoller sind Systeme, bei denen die Entscheidungen über die jeweilige Funktionsallokation von der Leistung oder dem Zustand des Nutzers abhängig gemacht wird. Besonders intensiv wird dabei an Systemen gearbeitet, die auf der Basis von Verhaltensmaßen oder physiologischen Indikatoren laufend den jeweiligen Beanspruchungs- oder Müdigkeitsgrad
eines Operateurs oder einer Operateurin (z. B. Pilot, Fluglotse, Autofahrer) bestimmen und in Abhängigkeit davon eine Funktionsverteilung vornehmen, um so eine Beanspruchungsoptimierung zu erreichen (Byrne & Parasuraman, 1996; Kaber & Riley, 1999). Vorteile und Probleme der adaptiven Automation.
Obwohl erste Laboruntersuchungen die möglichen Vorteile einer adaptiven Automation v. a. im Hinblick auf den Erhalt des Situationsbewusstseins sowie eine gleichmäßige Beanspruchung belegen, sind damit auch zahlreiche neue Probleme verbunden. Diese umfassen zum einen Probleme bei der praktischen Umsetzung, die sich v. a. auf die Transparenz der Systeme (wer ist gerade für eine bestimmte Funktion zuständig?) sowie die Gestaltung geeigneter Mensch-Maschine-Schnittstellen zur Unterstützung der verschiedenen Automationsmodi beziehen und von denen viele noch nicht befriedigend gelöst sind (Kaber, Riley, Tan & Endsley, 2001). Deutlich schwerer wiegt aber noch, dass bei adaptiven Systemen das Primat der Kontrollierbarkeit der Automation durch den Menschen im Grunde weitgehend aufgegeben wird. Indem die Autorität der Funktionsallokation vom Menschen an die Maschine verlagert wird, verliert der Mensch einen ganz wesentlichen Teil seiner Kontrolle über die Situation. Das bringt nicht nur vordergründige Probleme der Akzeptanz durch die Nutzer mit sich, sondern wirft auch grundsätzlich neue Fragen der Verantwortlichkeit in derartigen Mensch-Maschine-Systemen auf. 19.6
Zusammenfassung
Automatisierung bezeichnet den Prozess der Übernahme von Funktionen durch Maschinen; Automation bezeichnet das Ergebnis dieses Prozesses. Dabei liegt die wichtigste Aufgabe der Systemgestaltung darin zu entscheiden, wie verschiedene Funktionen und Kontrollaufgaben zwischen Mensch und Maschine verteilt werden (Funktions- und Kontrollallokation). Automatisierte Systeme bringen besondere Probleme mit sich, die die Gesamtzuverlässigkeit des
323 19.7 · Literatur
Mensch-Maschine-Systems beeinträchtigen können. Dazu gehören: 4 Zu geringes oder übersteigertes Vertrauen (»complacency«) 4 Verlust von Fertigkeiten 4 Verlust des Situationsbewusstseins Daraus wird deutlich, dass sich Überlegungen zur Automatisierung im Rahmen der Gestaltung von Mensch-Maschine-Systemen nicht allein auf das technisch Machbare oder ökonomisch Wünschenswerte beschränken dürfen. Vielmehr muss es darum gehen, bei der Systemgestaltung das Wissen und die Erkenntnisse der Human-Factors-Forschung in diesem Bereich zu berücksichtigen. Von zentraler Bedeutung dabei ist die Erkenntnis, dass Mensch und Maschine keine isolierten Einheiten darstellen, die getrennt voneinander betrachtet werden können, sondern sich eine sinnvolle Systemgestaltung immer darauf beziehen muss, die Interaktion zwischen Mensch und Automation zu optimieren. Allgemeine Leitprinzipien dafür lassen sich aus den dargestellten Konzepten einer menschzentrierten Automatisierung ableiten. Eine wichtige Zukunftsaufgabe wird darin bestehen, diese oft noch sehr abstrakt beschriebenen Prinzipien in konkrete Ansätze der Systemgestaltung umzusetzen. Das setzt u. a. voraus, dass systematische Verfahren und Methoden entwickelt werden, die den Designprozess und die damit verbundenen Entscheidungen über mögliche Gestaltungsalternativen in diesem Sinne unterstützen. Erste Anregungen und konkrete Ansätze dazu findet man bei Dearden, Harrison & Wright (2000) oder Grote, Ryser, Wäfler, Windischer & Weik (2000).
19.7
Literatur
Aeronautica Civil of the Republic of Columbia (1996). AA965 Cali accident report. Prepared for the WWW by Peter Ladkin, University of Bielefeld, Germany. [verfügbar unter http:// www.rvs.uni-bielefeld.de/publications/Incidents/DOCS/ ComAndRep/Cali/calirep.html; Zugriff am 31.08.2006] Annett, J. & Stanton, N. (Eds.) (2000). Task analysis. London: Taylor & Francis. Bainbridge, L. (1983). Ironies of automation. Automatica, 19, 775–770. Billings, C. E. (1997). Aviation automation. The search for a human-centered approach. Mahwah: Lawrence Erlbaum.
19
Boeing Commercial Airline Group (2005). Statistical summary of commercial jet aircraft accidents: Worldwide operations 1959–2005. [verfügbar unter: http://www.boeing.com/ news/techissues/pdf/statsum.pdf; Zugriff am 22.09.2006]. Byrne, E. A. & Parasuraman, R. (1996). Psychophysiology and adaptive automation. Biological Psychology, 42, 249–268. Christoffersen, K. & Woods, D. D. (20 02). How to make automated systems team players. In E. Salas (Ed.), Advances in human performance and cognitive engineering research. Vol. 2. Automation (pp. 1–12). Burlington: Elsevier. Dearden, A., Harrison, M. & Wright, P. (2000). Allocation of function: Scenarios, context and the economics of effort. International Journal of Human-Computer Studies, 52, 289–318. Dzindolet, M. T., Peterson, S. A., Pomranky, R. A., Pierce, L. G. & Beck, H. P. (2003). The role of trust in automation reliance. International Journal of Human-Computer Studies, 58, 697– 718. Endsley, M. R. (1995). Toward a theory of situation awareness in dynamic systems. Human Factors, 37, 85–104. Endsley, M. R., Bolté, B. & Jones, D. B. (2003). Designing for situation awareness. An approach to user-centered design. London: Taylor & Francis. Endsley, M. R. & Kiris, E .O. (1995). The out-of-the-loop performance problem and level of control in automation. Human Factors, 37, 381–394. Fitts, P. M. (Ed.) (1951). Human engineering for an effective air navigation and traffic-control system. Columbus, OH: Ohio State University Research Foundation. Grote, G., Ryser, C., Wäfler, T., Windischer, A. & Weik, S. (2000). KOMPASS: A method for complementary function allocation in automated work systems. International Journal of Human-Computer Studies, 52, 267–287. Hacker, W. (1989). Vollständige vs. unvollständige Arbeitstätigkeiten. In S. Greif, H. Holling & N. Nicholson (Hrsg.), Arbeitsund Organisationspsychologie. Internationales Handbuch in Schlüsselbegriffen (S. 463–466). München: Psychologie Verlags Union. Hackman, J. R. & Oldham, G. R. (1980). Work redesign. Reading: Addison-Wesley. Hauß, Y & Timpe, K.-P. (2000). Automatisierung und Unterstützung im Mensch-Maschine-System. In K.-P. Timpe, T. Jürgensohn & H. Kolrep (Hrsg.), Mensch-Maschine-Systemtechnik. Konzepte, Modellierung, Gestaltung, Evaluation (S. 41– 62). Düsseldorf: Symposion. Kaber, D. B. & Riley, J. M. (1999). Adaptive automation of a dynamic control task based on secondary-task workload measurement. International Journal of Cognitive Ergonomics, 3, 169–187. Kaber, D. B., Riley, J. M., Tan, K.-W. & Endsley, M. R. (2001). On the design of adaptive automation for complex systems. International Journal of Cognitive Ergonomics, 5, 37–57. Kessel, C. J. & Wickens, C. D. (1982). The transfer of failure-detection skills between monitoring and controlling dynamic sytems. Human Factors, 24, 49–60. Lee, J. D. & See, K. A. (2004). Trust in automation: Designing for appropriate reliance. Human Factors, 46, 50–80.
324
Kapitel 19 · Systemgestaltung und Automatisierung
Lorenz, B., Di Nocera, F., Röttger, S. & Parasuraman, R. (2002). Automated fault-management in a simulated spaceflight micro-world. Aviation, Space, and Environmental Medicine, 73, 886–897. Madhavan, P., Diegmann, D. A. & Lacson, F. C. (2006). Automation failures on tasks easily performed by operators undermine trust in automated aids. Human Factors, 48, 241–256. Manzey, D. & Bahner, J. E. (2005). Vertrauen in Automation als Aspekt der Verlässlichkeit von Mensch-Maschine-Systemen. In K. Karrer, B. Gauss & C. Steffens (Hrsg.), Beiträge zur Mensch-Maschine-Systemtechnik aus Forschung und Praxis. Festschrift für Klaus-Peter Timpe (S. 93–109). Düssledorf: Symposion. Manzey, D., Bahner, J. E. & Hüper, A.-D. (2006). Misuse of automated decision aids: Complacency, automation bias and possible training interventions. Proceedings of the Human Factors and Ergonomics Society 50th Annual Meeting. Santa Monica: Human Factors and Ergonomics Society. Moray, N. & Inagaki, T. (2000). Attention and complacency. Theoretical Issues of Ergonomics Science, 1, 354–365. Mosier, K. L. & Skitka, L. J. (1996). Human decision-makers and automated decision aids: made for each other? In R. Parasuraman & M. Mouloua (Eds.), Automation and human performance: Theory and applications (pp. 201–220). Mawah: Lawrence Erlbaum. Parasuraman, R., Molloy, R. & Singh, I. L. (1993). Performance consequences of automation induced »complacency«. The International Journal of Aviation Psychology, 2, 1–23.
19
Parasuraman, R., Mouloua, M. & Molloy, R. (1996). Effects of adaptive task allocation on monitoring of automated systems. Human Factors, 38, 665–679. Parasuraman, R. & Riley, V. (1997). Humans and automation: Use, misuse, disuse, abuse. Human Factors, 39, 230–253. Parasuraman, R., Sheridan, T. B. & Wickens, C. D. (2000). A model for types and levels of human interaction with automation. IEEE Transactions on Systems Man and Cybernetics – Part A: Systems and Humans, 30, 286–297. Patrick, J. (1992). Training. Research and practice. London: Academic Press. Scallen, S. F. & Hancock, P. A. (2001). Implementing adaptive functional allocation. The International Journal of Aviation Psychology, 11, 197–221. Scerbo, M. W. (1996). Theoretical perspectives on adaptive automation. In R. Parasuraman & M. Mouloua (Eds.), Automation and human performance: Theory and applications (pp. 37–63). Mawah: Lawrence Erlbaum. Sheridan, T. B. (1997). Supervisory control. In G. Salvendy (Ed.), Handbook of human factors (pp. 1295–1327). New York: Wiley. Singh, I. L., Molloy, R. & Parasuraman, R. (1993). Automationinduced »complacency«: Development of the complacency rating scale. The International Journal of Aviation Psychology, 3, 111–122. Vicente, K. (1999). Cognitive work analysis. Mahwah: Lawrence Erlbaum.
Anhang Autorenportraits
– 327
Quellenverzeichnis Sachverzeichnis
– 334
–335
327 Anhang · Autorenportraits
Autorenportraits Herausgeberinnen Badke-Schaub, Petra, Prof. Dr.
Professor of Design Theory and Methodology. Studium Dipl.-Psychologie, Forschungsmitarbeiterin in der Max-Planck-Projektgruppe »Kognitive Anthropologie«, Berlin, 1992 Promotion am Lehrstuhl für Allgemeine Psychologie und Methodenlehre an der Universität Bamberg, Promotionsschrift »Gruppen und komplexe Probleme«, Projektleitung in Forschungskooperationsprojekten mit TU Darmstadt, Hochschulassistentin am Institut für Theoretische Psychologie der Universität Bamberg. Seit 2004 Inhaber des Lehrstuhls Design Theory and Methodology an der TU Delft. Interessensschwerpunkte: Denk- und Handlungsprozesse in komplexen Realitätsbereichen, insbesondere im Bereich der Produktentwicklung; Erkennen und Bewältigen kritischer Situationen; Analyse von Teamprozessen, z. B. hinsichtlich der Entwicklung gemeinsamer Modelle in Teams; Analyse und Unterstützung von Designprozessen. Kontakt: Faculty of Industrial Design Engineering, Dept. Product Innovation Management, Landbergstraat 15, TU Delft, 2628 CE Delft, The Netherlands, Tel.: ++31-15-2781403, E-Mail:
[email protected] Hofinger, Gesine, Dr.
Dipl.-Psychologin, Wissenschaftlerin und Beraterin. 2000 Promotion an der Universität Bamberg, 2002‒2003 Fellow am Wissenschaftskolleg zu Berlin, 2003‒2004 Vertretungsprofessur Universität Regensburg, Forschungsprojekte zu Trainings des Komplexitätsmanagements und zu Krisenmanagement/ Stabsarbeit. Seit 1999 Erste Vorsitzende der »Plattform Menschen in komplexen Arbeitswelten« e. V. Schwerpunkte: Human Factors, Sicherheit und Fehlermanagement, Handeln in Krisensituationen, Kommunikation und Teamentwicklung beim Umgang mit komplexen technischen Systemen, Nutzung von Simulatoren für die Sicherheitsarbeit. Kontakt: Netzwerk Krisenmanagement, Hohenheimerstr. 104, 71686 Remseck, Tel.: 07146-287393, E-Mail:
[email protected] Lauche, Kristina, Dr.
Associate Professor im Bereich Product Innovation Management an der Technischen Universität Delft. Studium der Psychologie und Linguistik in Kiel, Dublin und Berlin, Promotion zu Arbeitsbedingungen von Produktentwicklern an der ETH Zürich, Lecturer an der University of Aberdeen. Hauptforschungsgebiete: Teamkoordination, Systementwicklung und organisationale Aspekte von Innovationsprozessen. Kontakt: Department of Product Innovation Management, Faculty for Industrial Design Engineering, Delft University of Technology, Landbergstraat 15, 2628 CE Delft, The Netherlands, E-Mail:
[email protected]
328
Anhang · Autorenportraits
Autorinnen und Autoren Bresinsky, Markus, Dr.
Politikwissenschaftler, seit 1997 als Berater in sicherheitspolitischen Fragestellungen, wissenschaftliche Arbeit als assoziierter Forscher am Wissenschaftszentrum Berlin. Seit 2004 als Lehrbeauftragter der Universität Münster. Hauptberuflich Programm-Manager im Human-Factors-Team der Industrieanlagen Betriebsgesellschaft mbH. Schwerpunkte: Sicherheit und Verteidigung in modernen asymmetrischen Konflikten. Kontakt: Waldstr. 46, 93161 Sinzing
Buerschaper, Cornelius, Dipl.-Psychologe
Organisationsberater und Trainer. Arbeitsschwerpunkte: strategisches Denken in komplexen Handlungszusammenhängen, Stabsarbeit, Krisen- und Notfallmanagement, Fehlerforschung und Fehlermanagement u. a. in der Medizin, Einsatz von E-Learning und computersimulierten Szenarien in der Personalentwicklung und Potenzialbeurteilung, Teamentwicklung und Teamtrainings. Kontakt: Dolziger Str. 42, 10247 Berlin, E-Mail:
[email protected]
Detje, Frank, Dr.
Promovierter Psychologe, bis 2003 als wissenschaftlicher Angestellter am Institut für Theoretische Psychologie (Prof. Dr. Dietrich Dörner) der Universität Bamberg, seit 2004 im Human-Factors-Team der IABG im Geschäftsbereich Verteidigung und Sicherheit. Inhaltliche Schwerpunkte: Human Factors, menschliche Handlungsorganisation (Handeln als komplexes Problemlösen), kognitive Modellierung, vernetzte Operationsführung (NetOpFü) und Begleitung von CD&E-Vorhaben (Experimentmethoden und Human-FactorsAnalyse). Kontakt: VG63-IABG mbH, Einsteinstr. 20, 85521 Ottobrunn
Dieckmann, Peter, Dr. phil.
1999 Diplom in Psychologie, 2003 Promotion mit einer Arbeit zum Einsatz von Simulatoren in Aus-, Fort- und Weiterbildung in der Anästhesie. Themenschwerpunkte: Simulation, Sicherheit, Fehler, Lernen, Train-the-Trainer und kreative Methoden (Psychodrama). Wissenschaftlicher Mitarbeiter in 2 medizinischen Simulationszentren (DIMS, TuPASS Tübingen). Aktuell Vizepresident der Society in Europe for Simulation Applied to Medicine (SESAM) und Vorsitz im Forschungskomitee der Society for Simulation in Health Care (SSH). Kontakt: Danish Institute for Medical Simulation, Herlev Hospital, Herlev Ringvej 75, 2730 Herlev, Denmark, E-Mail:
[email protected]
329 Anhang · Autorenportraits
Domeinski, Juliane
Dipl.-Psychologin (1998‒2000 Studium an der Leopold-Franzens-Universität Innsbruck/Österreich und 2000‒2004 Studium an der Technischen Universität Berlin) und derzeit wissenschaftliche Mitarbeiterin im Fachgebiet Arbeits-, Ingenieur- und Organisationspsychologie an der TU Berlin. Arbeitsschwerpunkte und Forschungsinteressen: soziale Kognition, geteiltes und verteiltes Wissen, Organizational behaviour, Sicherheitsforschung Kontakt: Technische Universität Berlin, Institut für Psychologie und Arbeitswissenschaft, Fachgebiet für Arbeits-, Ingenieur- und Organisationspsychologie, Marchstr. 12, Sekr. F7, 10587 Berlin, Tel.: 30314-26885, E-Mail: juliane.
[email protected]
Dörner, Dietrich, Prof. Dr.
Professor (em.) am Institut für Theoretische Psychologie der Universität Bamberg. Forschungstätigkeit im Bereich »Handeln in komplexen Realitäten« und im Bereich »Theoretische Psychologie«. Hier v. a. zahlreiche Versuche der Theoriebildung durch Computersimulation psychischer Prozesse als Ansatz, »Seele« zu verstehen. Getreu der Feynman‘schen Forderung »What I cannot create I do not understand« wird versucht, Denken, Gedächtnisprozesse, Gefühle und Bewusstsein als Prozesse der Informationsverarbeitung in neuronalen Netzen zu verstehen. Kontakt: Otto-Friedrich-Universität Bamberg, Institut für Theoretische Psychologie, Markusplatz 3, 96047 Bamberg, Tel.: 0951-8631861, E-Mail:
[email protected]
Fahlbruch, Babette, Dr.
Sachverständige und Fachkoordinatorin für MTO (Mensch‒Technik‒Organisation) bei der TÜV NORD SysTec GmbH & Co.KG, Abteilung Sicherheitskonzepte, Gruppe Sicherheitsmanagement und Zuverlässigkeitsanalyse. Arbeitsschwerpunkte: Systemsicherheit, Sicherheitsmanagement und Sicherheitskultur. 1994 Dipl.-Psychologin (TU Berlin) und 1999 Dr. phil. (TU Berlin), 1994‒2006 wissenschaftliche Mitarbeiterin und wissenschaftliche Assistentin an der TU Berlin, Institut für Psychologie und Arbeitswissenschaft. Kontakt: TÜV NORD SysTec GmbH & Co.KG, Große Bahnstr. 31, 22525 Hamburg, E-Mail:
[email protected]
Grote, Gudela, Prof.
Ordentliche Professorin für Arbeits- und Organisationspsychologie an der ETH Zürich. Studium der Psychologie an der Universität Marburg und der TU Berlin, 1987 Promotion am Georgia Institute of Technology, Atlanta, USA. Kernthema ihrer Forschungstätigkeit: zunehmende Virtualisierung und Flexibilisierung von Arbeit und deren Konsequenzen für das individuelle und organisationale Management von Unsicherheit. Kontakt: ETH Zürich, Kreuzplatz 5, 8032 Zürich, Schweiz, E-Mail: ggrote@ ethz.ch
330
Anhang · Autorenportraits
Hacker, Winfrid, Prof. Dr. Dr. h.c
Studium der Psychologie an der Technischen Hochschule Dresden, externes Studium der Pädagogik an der Pädagogischen Hochschule Dresden. Danach Tätigkeiten in der Wirtschaft als Leiter einer Abteilung für Arbeitspsychologie/-hygiene, eine Professur für Arbeits- und Organisationspsychologie, Allgemeine Psychologie am Fachbereich Psychologie der Technischen Universität Dresden, eine Vertretungsprofessur für Arbeits- und Organisationspsychologie an der Universität Gießen sowie die kommissarische Leitung des Instituts für Psychologie der Technischen Universität München. Zurzeit Leitung der Arbeitsgruppe »Wissen–Denken–Handeln« des Fachbereichs Psychologie der TU Dresden. 2003 Auszeichnung mit dem Outstanding Contribution Prize der European Association of Work and Organizational Psychology, 2005 mit der Ehrendoktorwürde (Dr. h. c.) der Universität Bern. Interessen: Grenzgebiet Arbeits-/Organisations- und Allgemeine Psychologie. Kontakt: TU Dresden, Fachrichtung Psychologie, Arbeitsgruppe »Wissen– Denken–Handeln«, 01062 Dresden, E-Mail:
[email protected]
Horn, Günter, Dr.
Dr.-Ing. Maschinenbau/Verfahrenstechnik, seit 2004 freier Ingenieur mit dem Beratungsschwerpunkt Instandhaltung, in den Bereichen Prozessindustrie, Entsorgungswirtschaft, Schmiede, Stadtwerke. 1987‒2000 in verschiedenen Positionen bei der Hoechst AG tätig. 1996‒2000 Notfallmanager im Stammwerk Höchst, u. a. mit dem Aufbau des Lagezentrums betraut. 2000‒ 2004 als Projekt- und Betriebsleiter bei den Hoechster Nachfolgeorganisationen Clariant und Celanese in Deutschland und Schweden tätig. Gründungs- und Vorstandsmitglied des Vereins »Menschen in komplexen Arbeitsumwelten« e. V. Autor verschiedener technischer Fachaufsätze, diverse Publikationen schwerpunktmäßig in den Bereichen Sicherheitsfaktor Mensch und Notfallmanagement. Kontakt: Ingenieurbüro Dr. Horn, Textorstr. 55, 60594 Frankfurt, Tel.: 017623133346, E-Mail:
[email protected]
Martin Littschwager
Seit 1971 als Berufsoffizier bei der Luftwaffe, Teilbereich Luftverteidigung, davon 5 Jahre als Ausbilder an der Waffenschule in Texas, USA. Verwendungen bis hin zum Kommandeur in Verbänden. Seit 2001 in Köln im Luftwaffenamt und seit 2004 Beauftragter für den Bereich »Konzeptentwicklung und deren experimentelle Überprüfung«; im Rahmen der Transformation der Streitkräfte: mit Schwerpunkt »Human Factors«. Kontakt: Postweg 12, 53773 Hennef, Tel.: 02242-8748826, E-Mail: LOCKON49 @netcologne.de
331 Anhang · Autorenportraits
Manser, Tanja, Dr.
Oberassistentin am Zentrum für Organisations- und Arbeitswissenschaften, ETH Zürich (Prof. Theo Wehner), Leiterin einer Gruppe im Forschungsschwerpunkt »Sicherheit in komplexen Systemen«. 1998‒2003 wissenschaftliche Assistentin am Institut für Arbeitspsychologie der ETH Zürich (2002 Promotion in Psychologie an der Universität Zürich), 2003‒2005 Post-Doc am Patient Safety Center of Innovation, VA Palo Alto HCS/Stanford University. Kontakt: ETH Zürich, Zentrum für Organisations- und Arbeitswissenschaften, Kreuzplatz 5, 8032 Zürich, Schweiz, E-Mail:
[email protected]
Manzey, Dietrich, Prof. Dr.
Professor für Arbeits-, Ingenieur- und Organisationspsychologie an der Technischen Universität Berlin. 1976‒1982 Studium der Psychologie an der Universität Kiel, 1988 Promotion zum Dr. phil. an der Universität Kiel, 1999 Habilitation an der Universität Marburg. 1987‒2001 wissenschaftlicher Mitarbeiter beim Deutschen Zentrum für Luft- und Raumfahrt, Hamburg. 2001‒2003 Professor für Arbeits- und Ingenieurpsychologie an der FH Nordostniedersachsen in Lüneburg. Seit 2003 Professor an der TU Berlin. Arbeitsschwerpunkte und Forschungsinteressen: Mensch-Maschine-Interaktion, Automation in der Medizin, Luft- und Raumfahrtpsychologie, Systemsicherheit in Organisationen mit hohem Gefährdungspotenzial. Kontakt: TU Berlin, Institut für Psychologie und Arbeitswissenschaft, FG Arbeits-, Ingenieur- und Organisationspsychologie, Marchstr. 12, Sekr. F7, 10587 Berlin, E-Mail:
[email protected]
Rall, Marcus, Dr.
Seit 1995 Anästhesist und Notarzt an der Universitätsklinik Tübingen, seit 1999 Leiter des von ihm initiierten Patientensicherheits- und Simulationszentrums TüPASS. Schwerpunkte: Optimierung der Patientensicherheit durch innovative Ausbildungskonzepte (Simulatortraining mit Videodebriefing) und Crisis Resource Management (CRM) inklusive internationaler Instruktorenkurse für CRM-basierte Simulationstrainer. Seit 2002 Aufbau und Betrieb der beiden bundesweiten Incident-Reporting-Systeme (http://www. pasis.de und http://www.pasos-ains.de). Kontakt: Tübinger Patienten-Sicherheits- und Simulationszentrum (TüPASS), Universitätsklinik für Anästhesiologie und Intensivmedizin Universitätsklinikum Tübingen, Silcherstr. 7, 72076 Tübingen, Tel.: 07071-29 8 6733, Fax: 07071-294943, E-Mail:
[email protected], Web: http://www.tupass.de, http://www.pasis.de, http://www.pasos-ains.de
332
Anhang · Autorenportraits
Schaub, Harald, Prof. Dr.
Studium der Biologie, Informatik und Psychologie. Apl. Professor an der Otto-Friedrich-Universität Bamberg und Leiter der Abteilung Human Factors bei der Industrieanlagenbetriebsgesellschaft (IABG), Ottobrunn. Arbeitsschwerpunkte: Analyse und Training des Planens, Entscheidens und Handelns von Menschen in komplexen, kritischen und risikoreichen Situationen; Modellierung und Simulation menschlichen Verhaltens. Kontakt: IABG mbH-VG63, Einsteinstr. 20, 85521 Ottobrunn, Tel.: 0896088-3178, E-Mail:
[email protected]
Schöbel, Markus
Wissenschaftlicher Assistent im Fachgebiet Arbeits-, Ingenieur- und Organisationspsychologie an der TU Berlin. 1998 Dipl.-Psychologe und 2005 Dr. phil. (TU Berlin), 1998‒2004 wissenschaftlicher Mitarbeiter an der TU Berlin, seit 2005 Beratungstätigkeit bei der MTO Mensch‒Technik‒Organisation GmbH & Co. Consulting KG, seit 2006 wissenschaftlicher Assistent an der TU Berlin in Forschung und Lehre. Arbeitsschwerpunkte und Forschungsinteressen: betriebliches Sicherheitsmanagement und Sicherheitskultur, Vertrauen und verteilte Entscheidungsprozesse in Organisationen mit hohem Gefährdungspotenzial. Kontakt: TU Berlin, Institut für Psychologie und Arbeitswissenschaft, Fachgebiet Arbeits-, Ingenieur- und Organisationspsychologie, Sekr. F7, Marchstr. 12, 10587 Berlin, E-Mail:
[email protected]
Strohschneider, Stefan, PD Dr.
1985 Diplom in Psychologie an der Otto-Friedrich-Universität Bamberg, 1989 Promotion an der Universität Bamberg, 2000 Habilitation und Erteilung der Lehrbefähigung für das Fach Psychologie. 1985‒1989 wissenschaftlicher Mitarbeiter im DFG-Projekt »Systemdenken« an der Universität Bamberg, 1990‒1991 wissenschaftlicher Mitarbeiter der Max-Planck-Projektgruppe »Kognitive Anthropologie« in Berlin, 1992‒2005 wissenschaftlicher Angestellter am Institut für Theoretische Psychologie der Universität Bamberg. Seit Oktober 2005 Vertretung der Professur für Interkulturelle Kommunikation an der Friedrich-Schiller-Universität Jena, Ernennung im März 2007. Forschungsschwerpunkte in den Bereichen Kommunikation und Entscheiden in kritischen Situationen, Trainingskonzepte, kulturvergleichende Problemlöseforschung. Forschungsprojekte in Indien, Schweden u. a., internationale Kooperationen. Kontakt: Professur für Interkulturelle Kommunikation, Fachgebiet Interkulturelle Wirtschaftskommunikation, Friedrich-Schiller-Universität Jena, Ernst-Abbe-Platz 8, 07743 Jena, Tel.: 3641-944-376, Sekr.: 3641-944-370, Fax: 3641-944-372, Web: http://www.iwk-jena.de
333 Anhang · Autorenportraits
Thieme, Uwe, PD
Polizeidirektor. 1998‒2007 Leiter des Ständigen Stabes beim PP Dortmund und in dieser Funktion bei ca. 180 Einsätzen (Geiselnahmen, Entführungen, Erpressungen, Demonstrationen, Fußball-WM u. a.) Leiter des Führungsstabes oder Polizeiführer. Seit Juni 2007 Leiter des Leitungsstabes beim Polizeipräsidenten Dortmund und einer der bestimmten Polizeiführer. Kontakt: Polizeipräsidium Dortmund, Leitungsstab, Markgrafenstr. 102, 44139 Dortmund, E-Mail:
[email protected]
Von der Weth, Rüdiger, Prof. Dr.
Professor für Betriebswirtschaftslehre/Arbeitswissenschaft und Personalwirtschaft. 1985 Dipl.-Psychologe (TU Berlin), 1990 Promotion an der Universität Bamberg, seit 1995 Tätigkeit als Managementtrainer, 1999 Habilitation an der TU Dresden, 2000–2003 Professur für Angewandte Psychologie an der HfT Stuttgart, seit 2003 Professor für Betriebswirtschaftslehre/Arbeitswissenschaft und Personalwirtschaft an der HTW Dresden. Interessenschwerpunkte: Komplexitätsmanagement, integrierte Veränderungsstrategien bei technischen Innovationen, Arbeitsgestaltung und Wissensmanagement, Sicherheit in komplexen Arbeitssystemen. Kontakt: Arbeitswissenschaft und Personalwirtschaft, Fachbereich Wirtschaftswissenschaft, HTW Dresden, Friedrich-List-Platz 1, 01069 Dresden, E-Mail:
[email protected]
Wiedemann, Rolf, Cpt.
Flug- und Ausbildungskapitän B747-400. Ausbildung zum Flugzeugführer, Mitglied und zeitweise Leiter der Arbeitsgruppe Flugsicherheit der Vereinigung Cockpit e. V., Weiterbildung im Bereich Human Perfomance und Limitations, Aviation Safety Certificate der University of Southern California. Schwerpunkte: Ausbildung, Human Factors, Unfalluntersuchung. Kontakt: Goethestr. 10, 65719 Hofheim, E-Mail:
[email protected]
334
Anhang · Quellenverzeichnis
Quellenverzeichnis Abbildungen Seite
Abb.
Quelle
30
2.1
41 44
3.1 3.2
46
3.3
47 48
3.5
49 85
3.6 5.1
86 181
5.2 10.1
242
14.2
260 260 311
16.2 16.3 19.1
Reprinted from Safety Science, 45 (6), Hudson, P, Implementing a safety culture in a major multi-national, 697–722, Copyright (2007), with permission from Elsevier © Reason, J. (1990). Human error. Cambridge UK: Cambridge University Press. © St. Pierre, M., Hofinger, G. & Buerschaper, C. (2007). Crisis management in acute care settings: Human factors and team psychology in a high stakes environment. New York u. a.: Springer. © Chapanis, A. (1951). Theory and method for analyzing errors in man-machine systems. Annals of the New York Academy of Science, 51, 1179–1203, Blackwell Publishing Nach Rasmussen 1983 Reprinted from Journal of Occupational Accidents, 4/1982, Rasmussen, J., Human errors – A taxonomy for describing human malfunction in industrial installations, 311–333, Copyright (1982), with permission from Elsevier © Reason, J. (1990). Human error. Cambridge UK: Cambridge University Press. Dietrich Dörner, »Die Logik des Misslingens. Strategisches Denken in komplexen Situationen« Copyright © 1989 by Rowohlt Verlag GmbH , Reinbek bei Hamburg © Weth, R. von der (2001). Management der Komplexität. Bern: Huber. Reprinted from Group interaction in high risk environments, R. Dietrich & T. Childress (Eds.), Grote, G., Zala-Mezö, E. & Grommes, P., The effects of different forms of coordination on coping with workload, 39–55, Copyright (2004), with permission from Elsevier © Norros, L. (2004). Acting under uncertainty. The core-task analysis in ecological study of work. Helsinki: VTT Press. © Peter Bandemann © Uwe Thieme, Polizeipräsidium Dortmund © Parasuraman, R., Sheridan, T. B. & Wickens, C. D. (2000). A model for types and levels of human interaction with automation. IEEE Transactions on Systems Man and Cybernetics – Part A: Systems and Humans, 30, 286–297.
3.4
Tabellen Seite
Tabelle
Quelle
171 209
9.6 12.2
237
14.1
280
17.2
© Barriers and accident prevention, Hollnagel, E., 2004, Aldershot: Ashgate. © Manfred Müller & Robert Schröder. Subjektive Risikoeinschätzung und evidenzbasiertes Risikomanagement. CF-Information 3/2005 © »Managing the risks of organizational accidents« by James Reason, 1997, Ashgate, (ISBN 978-1-84014-104-7). Reprinted from Safety Science, 29, Hale, A. R. & Swuste, P., Safety rules: procedural freedom or action constraint?, 163–177, Copyright (1998), with permission from Elsevier
335
A–E
Sachverzeichnis A Achtsamkeit 24 Activation-Trigger-Theorie 46 Ad-hoc-Einsatz 258 adaptive Führung 186 Affiliation 99, 121 affirmative Informationssammlung 103 aktiver Fehler 40 Ambiguitätsreduktion 198 Anforderung 291 Anforderungsprofil 215 Anker- und Anpassungsheuristik 72 Arbeits- und Organisationspsychologie 10 Arbeitsebene 161 Arbeitsgestaltung 9, 319 Arbeitssicherheit 178 Arbeitswissenschaft 8 Arbeitszeitmodell 217 Armee 247 – Einsatzarmee 247 – Verteidigungsarmee 247 assertiveness 148 ASSET (Assessment of Safety Significant Event Teams) 27 Attributionsfehler 42 Aufgabe 117 Aufgabenangemessenheit 202 Aufmerksamkeit 64 – Cocktailparty-Phänomen 66 – Selektion 66 Ausführungsprogramm 279 Ausführungsregel 279 Auswahl geeigneter Bewerber 215 Automation 310 – adaptierbare 322 – adaptive 322 – automation complacency 314 – deskilling 318
– – – – –
ironies of automation 312 leitende Kontrolle 320 mangelndes Vertrauen 313 menschzentrierte 320 Primat der Kontrollierbarkeit der Technik 321 – übersteigertes Vertrauen in 314 – Verlust manueller Fertigkeit 318 – Widersprüchlichkeiten der Automatisierung 312 automation complacency 314 Automatisierung 224, 232, 309 Automatisierungsstrategie 319 Autonomie und Kontrolle 201
B Barriere 171 Basisratenvernachlässigung 72 Bedeutung 134 Bediener 248 Behandlungsfehler 223 Beinahe-Ereignis 27, 235 Belastbarkeit 201 Bestimmtheit 98 Bewerberauswahl 215 Bottom-up-Prozess 62
C centres of coordination 197 Chapanis 6, 45 Checkliste 281 Cocktailparty-Phänomen 66 cognitive walk-through 16 Company Resource Management 299 complacency 285 computerunterstützte Zusammenarbeit 192–202
confirmation bias 72, 264 Crew Resource Management 208, 299 culture of blame 223
D debriefing 148, 295 defence in depth 22, 170 Denken 81 deskilling 318 didaktisches Element 295 Dörner 50, 51, 66, 85, 96 Drift-to-danger-Modell 33 Drill 297 dynamisches Nicht-Ereignis 20
E Einführung 281 Eingriffsverwechslung 6 Einsatz 258 – ad hoc 258 – planbarer 258 Einsatzarmee 247 Emotion 96 – Definition 96 Emotionsansteckung 261 Endsley 67 enge Kopplung 23, 232 Entscheiden 88 Ereignisanalyse 27 Ergonomie 8 Erschöpfung 213 Erwartung-mal-Wert-Modell 89 escalation of commitment 125 Evaluation 303 Experte 92 Exploration 99
336
Anhang · Sachverzeichnis
F fail safe 22 Failure-Mode-and-Effects-Analyse 53, 228 Fallstudie 295 falscher Alarm 314 fatigue 213 Fehler 6, 37, 43, 86 – aktiver 40 – als Lerngelegenheit 43 – Definition 37 – Eingriffsverwechslung 6 – latente Bedingung 40 – latenter 223 – Personansatz 40 – systemischer Ansatz 40 – Ursache 39 – wrong side surgery 6 Fehleranalyse 227 – synthetisierende 227 Fehlerart 44 Fehlerforschung 38 Fehlerfreundlichkeit 52, 223 Fehlerkette 41 Fehlerprävention 265 fehlerträchtige Situation 225 Fehlleistung 223, 225 Fern- und Nebenwirkung 247 Fertigkeit 292 – nichttechnische 292 – organisatorisch-strategische 293 – technische 292 Fitts’ Liste 320 Flexibilität 284 FMEA 228 Forschungsmethode 14, 15 – cognitive walk-through 16 – Fragebogen 15 – Interview 15 – mock-up 16 – Organisationsanalyse 15 – root cause analysis 15 – Simulation 15 – Unfallanalyse 15 – Verhaltensbeobachtung 15
– Wirkungsabschätzung 16 Fortbildung 268 Fragebogen 15 frequency gambling 216 Friktion 44 Führung 178, 259 – adaptive 186 – operative 178 – situative 186 – strategische 178, 183, 259 – taktische 259 – transformationale 186 Führungskräftetraining 238 Führungsprozess 249 – militärischer 249 Führungsstab 264 – Moderation von Führungsstäben 264 function allocation 309, 318 Funktion 137 Funktionsverteilung MenschMaschine 201, 309, 318
G Gebrauchstauglichkeit 222 Gefährdungspotenzial 21 Gegenstand der Arbeit 200 gemeinsames mentales Modell 139, 261 Gerechtigkeitskultur 168 Gestaltungsempfehlung 181 Gestaltungsprinzipien 5 geteiltes Situationsbewusstsein 69 Gigerenzer 91 Globalisierung 193 Grenzregulation 200 groupthink 125, 259 Gruppe 116 – als informationsverarbeitendes System 116 – Definition 116 Gruppendenken 125 Gruppenentwicklung 119 Gruppenkohäsion 120
H Hacker 47 Handlung 81 – unsichere 48 Handlungskompetenz 200 Handlungsmodell nach Dörner 100 Handlungsspielraum 277, 285 Handlungsstil 282–284 Handlungsstrategie 282 Handlungsverschränkung 201 Harmonisierung 212, 283 Hawthorne-Studie 12 heedful interrelating 201 heedfulness 24 HERA-JANUS (Human Error in Air Traffic Management Technique) 27 Heuristik 91 HF-Training 295 – debriefing 295 – didaktisches Element 295 – Fallstudie 295 – Planspiel 295 – Simulation 295 HFIT (Human-Factor-InvestigationVerfahren) 236 high reliability organization 166 high reliability theory 24 hindsight bias 42 hochkontextualisierte Kultur 293 Hollnagel 171 HPES (Human Performance Enhancement System) 27 Human-Factors-Analyse 6, 248 Human-Relation 12 Human Error Identification in Systems Tool 53 Human Factor 4 – Definition 4 Human Reliability Analysis 26 hypothesengeleitete Wahrnehmung 66
337 Anhang · Sachverzeichnis
I illusorische Korrelation 72 Incident-Reporting-System 225 Incident Reporting 227 Informations- und Kommunikationstechnologie 193 Informationsabwehr 103 Informationsaufnahme 216 Informationsdichte 145 Informationsselektion 126, 144 Informationsüberflutung 145, 194 informationsverarbeitendes System 116 informed culture 32 Ingenieurpsychologie 10 Instandhaltungsarbeit 237 Integrierte Leitstelle 200 Interaktion – dysfunktionale 143 interkulturelle Handlungskompetenz 247 International Civil Aviation Organisation 214 Intervention 294 Interview 15 Ironien der Automatisierung 5, 312 ironies of automation 5, 312 Irrtum 38 ISO 13407 5 ISO 6385 5
J Janis 125 just culture 32
K Käsescheibenmodell 41 kognitive Ergonomie 13 Kommunikation 118, 133, 265
– – – – –
4 Seiten einer Nachricht 135 Definition 133 Funktion von 137 im Stab 265 nachrichtentechnisches Modell der 134 – Störung 140 Kommunikation – im Stab 265 – nachrichtentechnisches Modell der 134 – Störung 140 Kommunikationssystem 160 Kompetenz 98, 120 – technische 216 komplexe Probleme 83 Komplexität 83, 275 Komplexitätsreduktion 261, 276 kontextarme Kultur 293 Koordination 119 Krisenmanagement 238 Krisenstabstraining 300 Kultur – flexible 168 kultureller Kontext 293 – hochkontextualisierte Kultur 293 – kontextarme Kultur 293
L Lasswell-Formel 134 latente Bedingung 40 latenter Fehler 223 latenter Versagensfaktor 235 leading indicator 235 leitende Kontrolle 311, 320 Lernertyp 296 Lerngelegenheit 43 Lernkultur 168 listening in 198 lose Kopplung 23, 181, 285
F–O
M MABA-MABA-Liste 320 man-made disaster 22 Management von Unsicherheit 180 Mayo 12 Meister 45 mentales Modell 121, 138, 212, 317 mentales Teammodell 121 Methode 14 minimales Ereignis 44 mock-up 16 Moderation 264 MORT (Management Oversight and Risk Tree) 27 Münsterberg 11
N naturalistic decision making 14, 90 natürliches Entscheiden 90 Nichtlinearität 276 nichttechnische Fertigkeit 226, 292 no-blame culture 32 non-technical skills 226, 292, 300 nonverbale Kommunikation 136 normal accident 23 normale Unfälle, Theorie der 235 Norman 46 normative Führung 182
O operative Führung 178, 185 Organisation 157 – Definition 157 organisationale Veränderung 186 Organisationsanalyse 15 organisationsübergreifende Zusammenarbeit 199
338
Anhang · Sachverzeichnis
organisatorisch-strategische Fähigkeit 293 Organisieren 159
P Patientensicherheit 225 Perrow 23 Personansatz 40 planbarer Einsatz 258 Planen 80 Planentscheidung 265 Planspiel 295 Präsenz 196 Prinzip des beschränkten Versagens 22 Prinzip des tief gestaffelten Sicherheitssystems 22 probabilistisches Unfallrisiko 209 Problemlösen – komplexes 253 – Training 301 Procedure-Fix 216 Prozesssicherheit 178 psychische Entfernung 196 Psychotechnik 11
Q quick fix 222
R ramifications 216 Rasmussen 47 readback 147 Reason 40, 48 Reduktionismus 104, 125 Redundanz 225 Redundanzabbau 225 Reflexion 111, 129 Regel 279
– Ausführungsprogramm 279 – Ausführungsregel 279 – Einführung von 281 – prozedurale 279 – -dichte 282 – -verletzung 281 – zieldefinierende 279 – Zweckprogramm 279 Regeldichte 282 Regelverletzung 281 Regelverstoß 49 Reifegradmodell 29 Reifemodell 240 reporting culture 32 Repräsentativitätsheuristik 72 requisite variety 201 Resilienz 33, 42, 201, 222, 241 Risikoabschätzung 26 riskante Handlung 86 Roethlisberger 12 root cause analysis 15, 227
S Salienz 72, 105 Schulung 211, 297 Schulz von Thun 135 Schwankung und Störung 200, 284 scientific management 10 4 Seiten einer Nachricht 135 Selbstreflexion 111 Selektion 66 Self-efficacy 120 Salienz 105 Sicherheit 20 – als dynamisches Nicht-Ereignis 20 – Definition 20 – Gefährdungspotenzial 21 – TOP-Modell 21 Sicherheitsklima 31, 166, 240 Sicherheitskultur 29, 164, 234, 239, 286 – Definition 165 – flexible Kultur 168
– Gerechtigkeitskultur 168 – informed culture 32 – just culture 32 – Lernkultur 168 – no-blame culture 32 – Reifegradmodell 29 – Reifemodell 240 – reporting culture 32 Sicherheitsmanagement 25, 232 – Step Change 242 Sicherheitsressource 236 Simulation 15, 226, 295 – prospektive Simulation 228 – Tanzbären-Simulation 226 situation awareness 60, 67, 237, 316 Situationsbewusstsein 60, 237, 316 – geteiltes 69 – verteiltes 69 social loafing 120 SOL (Sicherheit durch organisationales Lernen) 236 SOL-Analyse 27 soziotechnische Systemgestaltung 12 Stab 258 Stabsarbeit 257 Stabsübung 298 Standardisierung 198, 224, 275 Standard Operating Procedure 281 Step Change 242 Steuerbarkeit 284 Störfall 235 Störungen und Schwankung 225 supervisory contol 311 symbolischer Interaktionismus 134 System 276 – Anforderung von 291 – geschlossenes 277 – komplexes 275–277, 291 – systemischer Ansatz 40 Systemgestaltung 317 – Transparenz 317
339 Anhang · Sachverzeichnis
T taktische Führung 259 Tätigkeit 79 Taylor 10 Team 116 – Definition 116 – virtuelles 192 THERP (Technique for Human Error Rate Prediction) 53 Telearbeit 195 Theorie der fehlerhaften Informationsverarbeitung 22 Theorie der normalen Unfälle 23, 235 Theorie der Organisationen mit hoher Zuverlässigkeit 24 Top-down-Komponente 62 TOP-Modell 21 Trainerkompetenz 302 Trainingsevaluation 303 Transparenz 317 Tuckman 119 Turner 22
U Überlingen 198 Übertretung
– bewusste 234 Überwachungstätigkeit 234 Unbestimmtheitsreduktion 63 Unfallanalyse 15, 232 unsichere Handlung 48 Ursache 39 usability 222
V Valenz 89 Verantwortungsdiffusion 120, 196 Verfügbarkeitsheuristik 72 Verhaltensbeobachtung 15 Verlust manueller Fertigkeit 318 Vernetztheit 276 Verteidigungsarmee 247 verteiltes Arbeiten 195 violation 49, 234 virtuelles Team 192 Vorhersehbarkeit 284 Vorwurfskultur 223
W Wahrnehmung 61 – Bottom-up-Prozess 62 – Definition 61
O–Z
– hypothesengeleitet 66 – Top-down-Komponente 62 Wahrnehmungsstörung 71 Wahrnehmungsverzerrung 72 – Anker- und Anpassungsheuristik 72 – Basisratenvernachlässigung 72 – illusorische Korrelation 72 – Repräsentativitätsheuristik 72 – Verfügbarkeitsheuristik 72 Watzlawick 135 Weick 24, 159 Widerstandsfähigkeit 222 Wirkungsabschätzung 16 wissenschaftliche Betriebsführung 10 work-life-balance 196 Workload-Management 216
Z Ziel 79 Zielfixierung 125 Zuverlässigkeit 52, 166 Zweckprogramme 279 Zwischenfall 44 Zwischenfallsmangement 226