Swen Günther Design for Six Sigma
GABLER RESEARCH Forum Marketing Herausgegeben von Professor Dr. Reinhard Hünerberg,...
322 downloads
1506 Views
5MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Swen Günther Design for Six Sigma
GABLER RESEARCH Forum Marketing Herausgegeben von Professor Dr. Reinhard Hünerberg, Universität Kassel, Professor Dr. Andreas Mann, Universität Kassel, Professor Dr. Stefan Müller, Technische Universität Dresden und Professor Dr. Armin Töpfer, Technische Universität Dresden
Die zunehmende Globalisierung führt zu einem verschärften Wettbewerb, vor allem in den Bereichen Qualität, Zeit und Kosten. Vor diesem Hintergrund werden in der Schriftenreihe aktuelle Forschungsergebnisse sowohl zu strategischen Fragen der marktorientierten Unternehmensführung als auch zur operativen Unsetzung durch konsequente Kundenorientierung präsentiert. Dazu werden innovative Konzeptionen entwickelt, theoretische Ursache-Wirkungs-Beziehungen analysiert und pragmatische Gestaltungsempfehlungen gegeben.
Swen Günther
Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer Algorithmen Mit einem Geleitwort von Prof. Dr. Armin Töpfer
RESEARCH
Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar.
Dissertation Technische Universität Dresden, 2010
1. Auflage 2010 Alle Rechte vorbehalten © Gabler Verlag | Springer Fachmedien Wiesbaden GmbH 2010 Lektorat: Ute Wrasmann | Nicole Schweitzer Gabler Verlag ist eine Marke von Springer Fachmedien. Springer Fachmedien ist Teil der Fachverlagsgruppe Springer Science+Business Media. www.gabler.de Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlags unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Umschlaggestaltung: KünkelLopka Medienentwicklung, Heidelberg Gedruckt auf säurefreiem und chlorfrei gebleichtem Papier Printed in Germany ISBN 978-3-8349-2507-7
Geleitwort Das Managementkonzept „Six Sigma“ hat in den vergangenen Jahren sowohl in der betriebswirtschaftlichen Praxis als auch in der wirtschaftswissenschaftlichen Forschung erheblich an Bedeutung gewonnen. Der aus der Statistik entlehnte Begriff 6σ steht für „praktikable Null-Fehler-Qualität“. Er tangiert heute alle Wertschöpfungsprozesse/ -bereiche des Unternehmens, also auch Forschung und Entwicklung. Hier liegt nach einschlägigen Erfahrungen der Six Sigma-Anwender der größte Hebel, um fehlerfreie Produkte/ Dienstleistungen zu erzeugen. Aus diesem Grund nimmt der Stellenwert von Design for Six Sigma (DFSS) als gezielte Adaption des Six Sigma-Konzeptes für F&E immer mehr zu. Die Erfolge, die mit der Anwendung von DFSS bis dato erzielt wurden, können bestenfalls als „durchwachsen“ bezeichnet werden. Als Schwachpunkt gelten u.a. die eingesetzten Vorgehensmodelle, anhand derer die Six Sigma-Pojekte durchgeführt werden. Sie zeichnen sich durch ein systematisch-analytisches Vorgehen aus, welches die Generierung von Innovationen häufig behindert. Aus diesem Grund haben sich in der Vergangenheit eine Reihe von praxisorientierten Publikationen diesem Thema gewidmet – ein wirklicher Durchbruch, der dem Konzept zu nachhaltiger Akzeptanz verholfen hätte, blieb jedoch aus. Swen Günther hat in seiner Dissertation diesen Sachverhalt erstmals wissenschaftlich analysiert. Dabei geht er insbesondere der Frage nach, wie aus theoriebasierter Sicht der DFSS-Problemlösungszyklus zu gestalten und/ oder zu verändern ist, um einer kundenorientierten Produktentwicklung gerecht zu werden. Ganz im Sinne der „Pragmatic Science“ verbindet er methodische Stringenz mit praktischer Relevanz. Dem vorliegenden Buch ist daher nicht nur eine gute Aufnahme in die Scientific Community, sondern auch in die Six Sigma Community zu wünschen. Eine besondere Note erhält die Arbeit durch die Berücksichtigung von evolutionären Algorithmen bei der Ableitung konkreter Gestaltungsempfehlungen. Sie sind das Ergebnis einer innovativen Theorieexploration, bei der im Analogieschlussverfahren Erkenntnisse aus dem Bereich der mathematischen Optimierung auf den Design for Six Sigma-Zyklus übertragen werden. Swen Günther zeigt dabei neben den theoretischen Grundlagen auch die praxisbezogene Anwendung anhand von zwei Beispielen auf. Hier werden unmittelbar die Vorzüge eines an evolutionären Prinzipien ausgerichteten Produktentstehungsprozesses deutlich. Die Ergebnisse dieses interdisziplinären Forschungsansatzes mögen durch die Aufnahme in unsere Schriftenreihe herausragender Forschungsarbeiten einer breiteren Fachöffentlichkeit zugänglich werden und auch andere Forschungszweige im Bereich Marketing/ Unternehmensführung befruchten. Prof. Dr. Armin Töpfer
Vorwort Mit dem Six Sigma-Konzept bin ich erstmalig nach meinem Studium des Wirtschaftsingenieurwesens in Berührung gekommen. Dabei näherte ich mich dem Thema nicht nur als angehender Wissenschaftler und Doktorand; in mehreren praxisbezogenen Weiterbildungsmaßnahmen habe ich den Grad des „Black Belts“ – einem unter Six Sigma-Anwendern anerkannten Qualifizierungsgrad – erreicht. Aufgrund der integrierten Projekttätigkeit(en) konnte ich die Stärken und Schwächen von Six Sigma respektive Design for Six Sigma (DFSS) unmittelbar „am eigenen Leib“ erfahren. Dies war eine wichtige Hilfestellung bei der Ausarbeitung des exploratorisch-instrumentellen Forschungsdesigns. Der vorliegende Band wurde im Wintersemester 2007/ 08 als Dissertationsschrift an der Fakultät Wirtschaftswissenschaften der TU Dresden mit dem Titel „Kundenorientierte Produktentwicklung mit evolutionären Algorithmen im Rahmen des Design for Six Sigma-Zyklus“ angenommen. Während der Bearbeitung des Themas am Lehrstuhl für Marktorientierte Unternehmensführung habe ich von verschiedenen Personen vielfältige Unterstützung und wertvolle Hinweise erhalten. Bei allen möchte ich mich an dieser Stelle recht herzlich bedanken. Zu besonderem Dank bin ich meinem Doktorvater, Prof. Dr. Armin Töpfer, der mir als Ideengeber und konstruktiver Diskussionspartner in allen Phasen meines Promotionsvorhabens zur Verfügung stand. Weiterhin möchte ich mich bei Prof. Dr. Bernhard Schipp und Prof. Dr. Reinhard Hünerberg für Ihr Interesse an der Arbeit und die Übernahme der beiden Gutachten bedanken. Bei der Durchführung des empirischen Teils der Arbeit war ich teilweise auf die Mitwirkung von Studenten der Fakultät angewiesen. Ihnen allen sei ein herzlicher Dank gesagt. Zudem möchte ich mich beim Unternehmen Michael Jäckel Erzgebirgische Bürstenfabrik GmbH für die aktive Unterstützung bei der Umsetzung des Pilotprojektes bedanken. Insbesondere hat der zuständige Vertriebsleiter und langjährige Freund, Alexander Jäckel, die Konzeption und Erstellung der benötigten Prototypen nachhaltig vorangetrieben. Die Aussagekraft der Modelle sowie Validität der Forschungsergebnisse wurde hierdurch deutlich erhöht. Eine Vielzahl von praxisbezogenen Anregungen konnte ich zudem im Rahmen meiner Black Belt-Tätigkeit bei der M+M Consulting GmbH, Kassel, sammeln. Zu großem Dank bin ich auch meinen Kollegen am Lehrstuhl für Marktorientierte Unternehmensführung verpflichtet, allen voran Jörn Großekatthöfer für die vielen Gespräche und inhaltlichen Anregungen. Außerdem möchte ich mich an dieser Stelle ganz herzlich bei meinem Vater bedanken, der das gesamte Manuskript mit viel Ausdauer und Akribie gelesen und redigiert hat. Für verbliebene, nicht korrigierte Fehler trage ich als Autor allein die Verantwortung.
VIII
Vorwort
Ein ausdrücklicher Dank geht auch an Aileen Pohl, die mich bei der Durchsicht und Optimierung des Quellenverzeichnisses tatkräftig unterstützt hat, sowie an Martina Voss, die mir als „gute Seele des Lehrstuhls“ stets bei der Klärung von organisatorischen Dingen und Fragen zur Seite stand. Last but not least, möchte ich mich bei meinen Eltern bedanken, die mich in meiner wissenschaftlichen Laufbahn stets liebevoll unterstützt haben, sowie bei meiner Frau, Nadine-Madeleine, für die ich während der mehrjährigen Bearbeitungszeit des Öfteren nur sehr eingeschränkt zur Verfügung stand, vor allem wenn ich bei kniffligen Problemen stundenlang über meinem Laptop brütete. Ihr und meinem in dieser Zeit geborenen Sohn, Terence, sei dieses Buch gewidmet. Swen Günther
Inhaltsverzeichnis Geleitwort ............................................................................................................... V Vorwort................................................................................................................ VII Inhaltsverzeichnis ..................................................................................................IX Abbildungsverzeichnis........................................................................................ XIII Abkürzungsverzeichnis......................................................................................XVII 1
Möglichkeiten und Grenzen des Einsatzes von Design for Six Sigma im Produktentstehungsprozess (PEP) ......................................... 1 1.1 Problemstellung und Zielsetzung ........................................................... 1 1.1.1 Der wissenschaftliche Anspruch von Six Sigma und Design for Six Sigma ...................................................................... 1 1.1.2 Empirische Befunde zum Einsatz und zur Verbreitung von Six Sigma................................................................................. 6 1.1.3 Theoriegeleitete Verbesserung des DFSS-Problemlösungszyklus als Ziel ............................................................................... 12 1.2 Untersuchungs- und Forschungsdesign ............................................... 17 1.2.1 Forschen im „mode 2“ – Verbindung von rigour und relevance .......................................................................................... 17 1.2.2 Konzeptionelle Grundlagen und inhaltliche Vernetzung .............. 21 1.2.3 Aggregatbezogene Differenzierung auf vier Ebenen .................... 36
2
Six Sigma – Zeitgemäßes Managementkonzept zur Erzielung von Null-Fehler-Qualität im Wertschöpfungsprozess ...................................... 49 2.1 Bedeutungsinhalte und Dimensionen des Begriffs Managementkonzept ........................................................................................... 49 2.1.1 Theoretische Begriffsdeutung nach Wortstamm........................... 49 2.1.2 Praktische Differenzierung nach Strategiepotenzial ..................... 53 2.2 Managementkonzepte zur Verbesserung der Prozess- und Produktqualität...................................................................................... 58 2.2.1 Kontinuierlicher Verbesserungsprozess (KVP) ............................ 58 2.2.2 Business Process Reengineering (BPR)........................................ 61 2.2.3 Six Sigma und Design for Six Sigma (DFSS) .............................. 64
X
Inhaltsverzeichnis
2.2.4 Kritische Bewertung der Konzepte auf der Basis eines multidimensionalen Vergleichs..................................................... 67 2.3 „Weiche Hülle“ und „Harter Kern“ von Managementkonzepten am Beispiel von Six Sigma .................................................. 75 2.3.1 These: Six Sigma als Mode........................................................... 75 2.3.2 Antithese: Six Sigma als Technologie .......................................... 81 2.3.3 Synthese: Six Sigma als Mode & Technologie............................. 85 3
Praxis-Theorie-Transformation als induktive Vorgehensweise: Vom konkreten zum abstrakten Vorgehensmodell ................................... 92 3.1 Qualität und Innovation als wichtige Effektivitätskriterien – Begriffsdefinitionen ............................................................................... 92 3.1.1 Fünf Dimensionen der Qualität als Ausgangspunkt für Six Sigma...................................................................................... 92 3.1.2 Drei Dimensionen der Innovation als Anforderung an DFSS....... 97 3.2 Vorgehensmodelle zur Generierung von Innovationen und Erreichung von Null-Fehler-Qualität ................................................ 102 3.2.1 Vorgehensmodelle zur kreativen Problemlösung ....................... 102 3.2.2 Innovationsprozess als selbstregulierender Prozess.................... 108 3.2.3 Vorgehensmodelle zur kontinuierlichen Verbesserung .............. 113 3.2.4 Qualitätsmanagement als selbstregulierender Prozess................ 118 3.3 Konzeption und Inhalte der Six Sigma-Verbesserungszyklen......... 129 3.3.1 DMAIC-Zyklus zur Prozessoptimierung .................................... 129 3.3.2 DMADV-Zyklus zur Neuproduktentwicklung ........................... 137 3.4 Formal-analytische Beschreibung und Analyse der Six SigmaVerbesserungszyklen ........................................................................... 147 3.4.1 DMAIC-Zyklus als abstraktes Vorgehensmodell ....................... 147 3.4.2 DMADV-Zyklus als abstraktes Vorgehensmodell ..................... 152
4
Mathematische Vorgehensmodelle zur funktionellen Optimierung und Lösung schwieriger Probleme ................................................... 158 4.1 Anwendung von Algorithmen/ Heuristiken zum Auffinden des Optimums einer Zielfunktion – Begriffsdefinitionen ................. 158 4.1.1 Mathematische Optimierung und Optimierungsrechnung .......... 158 4.1.2 Algorithmen und Heuristiken zum Auffinden des Optimums .... 160
Inhaltsverzeichnis
XI
4.2 Klassische Algorithmen....................................................................... 163 4.2.1 Extremwertberechnung bei bekanntem/ unbekanntem Funktionsverlauf ......................................................................... 163 4.2.2 Analytische vs. statistische Verfahren zur Extremwertberechnung.................................................................................. 173 4.2.3 Exakte vs. heuristische Lösungsverfahren für Optimierungsprobleme ............................................................................ 189 4.3 Evolutionäre Algorithmen .................................................................. 194 4.3.1 Die natürliche Evolution als Vorbild zur Lösung komplexer Probleme ............................................................................ 195 4.3.2 Evolutionäre Ökonomik – Übertragung evolutionärer Prinzipien auf die Organisations-/ Managementwissenschaften ....... 200 4.3.3 Evolutionary Design – Anwendung evolutionärer Algorithmen in der Forschung & Entwicklung................................... 207 4.3.4 Grundkonzeption und Programmierung von Genetischen Algorithmen am Beispiel ............................................................ 212 5
Theorie-Praxis-Transformation als deduktive Vorgehensweise: Vom abstrakten zum konkreten Vorgehensmodell ................................. 229 5.1 Abgeleitetes Vorgehensmodell 1: DMAIDV-Zyklus als erweiterter DFSS-Problemlösungszyklus.............................................. 229 5.1.1 Vorgehensmodell mit 5+1 Phasen .............................................. 229 5.1.2 Vorgehen und Methoden der Innovate-Phase ............................. 230 5.2 Abgeleitetes Vorgehensmodell 2: IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen ................................. 237 5.2.1 Vorgehensmodell mit 5 Phasen .................................................. 237 5.2.2 Phasenbezogener Methodeneinsatz............................................. 246 5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle an Beispielen ........................................................ 269 5.3.1 Optimierung der Flugzeit eines Papier-Rotors (Laborexperiment) ................................................................................. 269 5.3.2 Optimierung der Kehreigenschaften eines Straßenbesens (Fallstudie) .................................................................................. 305
6
Zusammenfassung, Schlussfolgerungen und Ausblick............................ 333
Literaturverzeichnis ............................................................................................. 349
Abbildungsverzeichnis Abb. 1–1:
Der Problemlösungsfluss in Six Sigma-Projekten.............................. 5
Abb. 1–2:
Phasen der DFSS-Vorgehensmodelle im Überblick........................... 7
Abb. 1–3:
Six Sigma-Projekte und Handlungsbedarfe für Verbesserungen........ 9
Abb. 1–4:
Von der Primären Praxis zur Theoriegeleiteten Verbesserung des DFSS-Problemlösungszyklus..................................................... 16
Abb. 1–5:
Einordnung der Dissertationsschrift in die Forschungstypologie nach Anderson/ Herriot/ Hodgkinson (2001) ................................... 18
Abb. 1–6:
Struktur der Arbeit............................................................................ 23
Abb. 1–7:
Vorgehen der Untersuchung (Untersuchungsdesign) ....................... 30
Abb. 1–8: Vernetzung der Inhalte (Forschungsdesign) ......................................... 38 Abb. 1–9: Überprüfung der Hypothesen (Prüfungsdesign) ................................... 48 Abb. 2–1:
Inhalte/ Wirkungsbereiche von Managementkonzepten................... 52
Abb. 2–2:
Strategie-Potenzial-Portfolio ausgewählter Managementkonzepte .. 57
Abb. 2–3:
Das Führungsmodell Total Quality Management............................. 60
Abb. 2–4:
Das Reorganisationsmodell Business Process Reengineering.......... 63
Abb. 2–5:
Die Six Sigma Umsetzungstreiber.................................................... 66
Abb. 2–6:
10-Punkte-Kriterienraster zum Vergleich von KVP, Six Sigma und BPR ........................................................................................... 70
Abb. 2–7:
Diffusionskurve eines neuen Managementkonzeptes....................... 77
Abb. 2–8:
Kennzeichen von Managementmoden am Beispiel von Six Sigma . 80
Abb. 2–9:
Gegenüberstellung von Daten- und Konzeptwissen......................... 82
Abb. 2–10: DMAIC-Zyklus als Technologie zur Problemlösung bei Six Sigma................................................................................................ 86 Abb. 2–11: DMAIC-Zyklus als „harter Kern“ im Six Sigma-Rahmenkonzept .. 89 Abb. 3–1:
Die prozessuale Vernetzung der fünf Qualitätsdimensionen nach Garvin (1984)........................................................................... 95
Abb. 3–2:
Basisinnovationen als Grundlage für Technologiesprünge ............ 100
Abb. 3–3:
Kriterienbasierte Bewertung der Vorgehensmodelle...................... 105
Abb. 3–4:
Problemlösungsprozess nach dem OPM-Modell (Schema) ........... 108
XIV
Abbildungsverzeichnis
Abb. 3–5:
Innovationsprozess als kybernetischer Prozess .............................. 111
Abb. 3–6:
Modell der Qualitätsregelung nach DIN EN ISO 9001:2000......... 114
Abb. 3–7:
Kontinuierliche Verbesserung mit dem PDCA-Zyklus .................. 117
Abb. 3–8:
Qualitätsmanagement als kybernetischer Prozess .......................... 121
Abb. 3–9:
Die fünf Phasen des DMAIC-Zyklus ............................................. 135
Abb. 3–10: Die fünf Phasen des DMADV-Zyklus............................................ 141 Abb. 3–11: Rekonstruktion des DMAIC-Zyklus als analytisches Optimierungsmodell .................................................................................... 148 Abb. 3–12: Rekonstruktion des DMADV-Zyklus als analytisches Optimierungsmodell .................................................................................... 153 Abb. 4–1:
Schematische Darstellung des Sekantenverfahrens ........................ 164
Abb. 4–2:
Schematische Darstellung des Tangentenverfahrens...................... 166
Abb. 4–3:
Graphische Lösung eines linearen Optimierungsproblems ............ 175
Abb. 4–4: . 3D-Oberflächen-Plots für empirische und geschätzte y-Werte auf Basis eines Polynoms 2. Grades mit einem lokalen Maximum...... 183 Abb. 4–5:
Herleitung der Versuchsanordnung für Central-Composite-Design (CCD) bei zwei unabhängigen Faktoren ........................................ 185
Abb. 4–6:
Sequentielles Vorgehen nach der Methode des steilsten Anstiegs . 187
Abb. 4–7:
Sequentielles Vorgehen nach dem Simplex-Verfahren .................. 188
Abb. 4–8:
Terminologie von Evolutionären Algorithmen .............................. 199
Abb. 4–9:
Vergleich von Evolutorischer und Klassischer Ökonomik............. 202
Abb. 4–10: Das Forschungsprogramm der Evolutorischen Ökonomik............. 203 Abb. 4–11: Die vier Felder des Evolutionary Design (ED)............................... 208 Abb. 4–12: Grundkonzeption eines Genetischen Algorithmus (GA)................ 213 Abb. 4–13: Schema für die binäre Lösungscodierung bei einem GA ............... 215 Abb. 4–14: Funktionelle Abhängigkeiten bei der Ermittlung der Fitness ......... 216 Abb. 4–15: Schematischer Zusammenhang zwischen Codier- und Suchraum . 218 Abb. 4–16: Morphologischer Kasten zur Einordnung von GAs ....................... 222 Abb. 4–17: Fitnessfunktion fit(y) mit zwei lokalen Maxima ............................ 224 Abb. 4–18: Initialisierung und Evaluierung der Ausgangspopulation .............. 225 Abb. 4–19: Programmiercode für die Erzeugung von Mutationen ................... 226
Abbildungsverzeichnis
XV
Abb. 4–20: Entwicklung der durchschnittlichen Fitness über die Zeit.............. 227 Abb. 5–1:
Der erweiterte DMADV-Zyklus..................................................... 231
Abb. 5–2:
Konzeption und Inhalte der 4 TRIZ-Säulen ................................... 233
Abb. 5–3:
Kontinuierliche Verbesserung mit IESRM-Zyklus ........................ 238
Abb. 5–4:
Das „magische Dreieck“ der evolutionären Produktentwicklung .. 240
Abb. 5–5:
Die fünf Phasen des IESRM-Zyklus .............................................. 247
Abb. 5–6:
Morphologischer Kasten am Beispiel Kugelschreiber ................... 252
Abb. 5–7:
Codier-Tableau am Beispiel Kugelschreiber (Ausschnitt) ............. 253
Abb. 5–8:
Nutzwertanalyse am Beispiel Kugelschreiber ................................ 257
Abb. 5–9:
Entwicklung der durchschnittlichen Fitness der Population........... 259
Abb. 5–10: Vorgehen bei proportionaler Selektion am Beispiel....................... 263 Abb. 5–11: Vorgehen bei rangbasierter Selektion am Beispiel......................... 264 Abb. 5–12: 1-Point-Crossover mit Flipmutation am Beispiel ........................... 266 Abb. 5–13: Abmessungen des Papier-Rotors .................................................... 270 Abb. 5–14: Projektcharter für die Optimierung des Papier-Rotors ................... 272 Abb. 5–15: Gage R&R-Ergebnisse mit Minitab für Papier-Rotor .................... 274 Abb. 5–16: Ishikawa-Diagramm für Papier-Rotor ............................................ 276 Abb. 5–17: Vollfaktorieller 23-Versuchsplan für Papier-Rotor ........................ 278 Abb. 5–18: Pareto-Chart der standardisierten Effekte beim Papier-Rotor ........ 280 Abb. 5–19: Cube Plot mit mittleren Flugzeiten der Papier-Rotoren ................. 281 Abb. 5–20: Altschuller´sche Konflikte-Matrix (Auszug).................................. 285 Abb. 5–21: Definierter Suchraum zum Auffinden des optimalen Rotors ......... 289 Abb. 5–22: Zufällig erzeugte Ausgangspopulation mit 10 Rotoren und dekadischer Darstellung der Merkmalsausprägungen .................... 290 Abb. 5–23: Zufällig erzeugte Ausgangspopulation mit 10 Rotoren und binärer Darstellung der Merkmalsausprägungen............................ 291 Abb. 5–24: Bewertungsschema zur Ermittlung der Fitness der Rotoren in der Ausgangspopulation ................................................................. 293 Abb. 5–25: Fitnessproportionale Selektion der Rotoren mit Angabe der Häufigkeitsverteilung zur Bildung der Intermediärpopulation....... 294 Abb. 5–26: Vorgehen zur Erzeugung der Kindergeneration am Beispiel
.... 296
XVI
Abbildungsverzeichnis
Abb. 5–27: 1-Point-Crossover-Verfahren am Beispiel Papier-Rotor ................ 296 Abb. 5–28: Population nach 1. Optimierungsrunde mit binärer Darstellung der Merkmalsausprägungen und zufälliger Flip-Mutation ............. 297 Abb. 5–29: Entwicklung der Fitness der Rotoren-Population in 10 Runden .... 298 Abb. 5–30: Wesentliche Designtypen in der Endpopulation der RotorOptimierung ................................................................................... 300 Abb. 5–31: Definierter Suchraum zum Auffinden des optimalen „robusten“ Papier-Rotors (2. Verbesserungszyklus) ........................................ 301 Abb. 5–32: Entwicklung der Fitness der Rotoren-Population innerhalb von 10 Runden (2. Verbesserungszyklus) ............................................. 302 Abb. 5–33: Projektcharter für die Optimierung von Straßenbesen ................... 306 Abb. 5–34: Kennlinie für die Kehreigenschaften eines Besens (Beispiel) ........ 311 Abb. 5–35: Ablaufschema zur Reinigung der normierten Kehrfläche .............. 313 Abb. 5–36: Ishikawa-Diagramm zur Beeinflussung der Kehrwirkung ............. 316 Abb. 5–37: Skizze zur Dimensionierung eines Straßenbesens.......................... 317 Abb. 5–38: Pareto-Chart der standardisierten Effekte beim Besen ................... 319 Abb. 5–39: Morphologischer Kasten zur Bestimmung der Ausgangspopulation....................................................................................... 320 Abb. 5–40: Codier-Tableau zur Lösungsrepräsentation auf der Genotypebene (Ausschnitt) .......................................................................... 321 Abb. 5–41: Daten zur Ermittlung der Fitnesswerte für die Besen der Ausgangspopulation.............................................................................. 322 Abb. 5–42: Selektion der Besen nach dem Roulette-Wheel-Verfahren ............ 324 Abb. 5–43: Rekombination der Besen der 1. Elterngeneration per Zufalls....... 324 Abb. 5–44: Population für 2. Optimierungsrunde in dekadischer und binärer Darstellung ......................................................................... 325 Abb. 5–45: Entwicklung der Fitness der Besen-Population .............................. 327 Abb. 5–46: Morphologischer Kasten mit Profillinien für beste Besen.............. 328 Abb. 5–47: Gegenüberstellung von DMADV, DMAIDV und IESRM ............ 331 Abb. 6–1:
Übersicht der Hypothesen und empirische Belege ......................... 336
Abkürzungsverzeichnis 6σ
Six Sigma als statistische Messgröße
7M
Mensch, Maschine, Messung, Material, Methode, Mitwelt, Management
Abb.
Abbildung
ACO
Ant Colony Optimization (Ameisenalgorithmus)
A-E
Arenga-Elaston
AFE
Antizipierende Fehlererkennung
AL
Artificial Life (Künstliche Lebensformen)
ANOVA
Analysis of Variances (Varianzanalyse)
ARIZ
Algoritm Reshenije Izobretatjelskich Zadacz (russ. Akronym)
Aufl.
Auflage
α-Fehler
Fehler 1. Art bei Statistischem Test
β-Fehler
Fehler 1. Art bei Statistischem Test
BB
Black Belt
BBD
Box-Behnken-Design
BE
Business Excellence
BFGS
Broyden-Fletcher-Goldfarb-Shanno
BPM/ BPR
Business Process Management/ Business Process Reengineering
BSC
Balanced Scorecard, Balanced Score Card
BSH
Bosch Siemens Hausgeräte
bspw.
beispielsweise
BVW
Betriebliches Vorschlagwesen
BWL
Betriebswirtschaftslehre
bzgl.
bezüglich
bzw.
beziehungsweise
ca.
circa
CAD
Computer Aided Design
CAM
Computer Aided Manufacturing
CCD
Central-Composite-Design
CCM
Core Competence Management
C/D
Confirmation/ Disconfirmation
XVIII
Abkürzungsverzeichnis
CDF
Cumulative Density Function (Kumulierte Häufigkeitsverteilung)
CED
Creative Evolutionary Design
CEO
Chief Executive Officer
CI
Confidence Interval (Konfidenzintervall)
CIP
Contineous Improvement Process, auch KVP
cm
Zentimeter
CM
Conjoint Measurement, auch Conjoint Analyse
CNC
Computerized Numerical Control
COPQ
Cost of Poor Quality (Fehlerkosten)
CP
Wahrgenommenes Kostenführerschaftspotenzial
c.p.
ceteris paribus
Cp
Prozessfähigkeitsindex (Streuungsindex)
Cpk
Prozessfähigkeitsindex (Lageindex)
CPS
Creative Problem Solving
CRM
Customer Relationship Management
CSI
Customer Satisfaction Index
CTB
Critical to Business
CTC
Critical to Customer
CTP
Critical to Process
CTQ
Critical to Quality (Characteristic)
CTQs χ2
Chi-Quadrat
Δ
Granularität (Genauigkeit)
d.b.
das bedeutet
DCCDI
Define, Customer, Concept, Design, Implementation
df
Anzahl der Freiheitsgrade
Critical to Qualities
d.h.
das heißt
DFMA
Design for Manufacturing and Assembly
DFSS
Design for Six Sigma
DIN
Deutsche Industrie Norm
DLZ
Durchlaufzeit
DMADV
Define, Measure, Analyse, Design, Verify
DMAIDV
Define, Measure, Analyse, Innovate, Design, Verify
DMAIC
Define, Measure, Analyse, Improve, Control
Akürzungsverzeichnis
XIX
DMEDI
Define, Measure, Explore, Develop, Implement
DNS
Desoxyribonucleinsäure
DOE
Design of Experiments (Statistische Versuchsplanung)
DP
Wahrgenommenes Differenzierungspotenzial
DPMO
Defects Per Million Opportunities (Fehler pro 1 Mio. Fehlermöglichkeiten)
DPU
Defects Per Unit (Fehler pro Einheit)
ε bzw. e
Residuum
EA
Evolutionärer Algorithmus
EAL
Evolutionary Artificial Life-Forms
EArt
Evolutionary Art
EBF
Erzgebirgische Bürstenfabrik
EC
Evolutionary Computation
ED
Evolutionary Design
EDO
Evolutionary Design Optimisation
EDV
Elektronische Datenverarbeitung
EFQM
European Foundation for Quality Management
ehem.
ehemalig
EN
Europäische Norm
EP
Evolutionäre Programmierung
ES
Evolutionsstrategien
ESRM
Evaluierung, Selektion, Rekombination, Mutation
et al.
et alii (lat. und andere)
etc.
et cetera
EVA
Economic Value Added
EVOP
Evolutionary Operations
F&E
Forschung und Entwicklung
f.
folgende
ff.
fortfolgende
fit
Fitness
FMEA
Fehler-Möglichkeits und Einfluss-Analyse
FTY
First Time Yield (Ausbeute ohne Nacharbeit)
FWW
Faktorwechselwirkung
g
Gramm
XX
GA
Abkürzungsverzeichnis
Genetischer Algorithmus
Gage R&R
Messsystemanalyse (Reliability & Reproducibility)
% R&R
Messfähigkeitsindex
GB
Green Belt
GE
General Electric
GEMS
GE Medical Systems
GG
Grundgesamtheit
ggf.
gegebenenfalls
GmbH
Gesellschaft mit beschränkter Haftung
GP
Genetische Programmierung
GPM
Geschäftsprozessmanagement
GRR
Messsystemfehler
GS
Growth Strategies
h
Stunde
H0
Nullhypothese bei Statistischem Test
H1
Alternativhypothese bei Statistischem Test
HoQ
House of Quality
Hrsg.
Herausgeber
i.A.
im Allgemeinen
i.d.R.
in der Regel
IESRM
Initialisierung, Evaluierung, Selektion, Rekombination, Mutation
i.e.S.
im engeren Sinn
i.H.v.
in Höhe von
i.O.
in Ordnung
i.w.S.
im weiteren Sinn
IM
Innovationsmanagement
inkl.
inklusive
insb.
insbesondere
IPO
Input, Process, Output
ISO
International Organization for Standardization
i.S.v.
im Sinne von
IT
Informationstechnologie
Jg.
Jahrgang
JIT
Just in Time
Akürzungsverzeichnis
KBI
Kundenbindungsindex
KKT
Karush-Kuhn-Tucker
KM
Knowledge Management
KNN
Künstlich Neuronale Netze
kg
Kilogramm
KPI
Key Performance Indicator (Steuerungsgröße)
XXI
KTQ
Kooperation für Transparenz und Qualität im Gesundheitswesen
KVP
Kontinuierlicher Verbesserungsprozess
L
Lern-/ Degressionsrate
LCL bzw. UEG Lower Control Limit (Untere Eingriffsgrenze) LDS
Lightspeed Diagnostic Scanner
lg
Dekadischer Logarithmus
LM
Lean Management
LMS
Learning Management System
ln
Natürlicher Logarithmus
LP
Linear Programming (Lineare Optimierung)
LSA
Local Search Approaches (Lokale Suchverfahren)
LSM
Least Squares Method (Methode der kleinsten Quadrate)
LSL bzw. USG Lower Specification Limit (Untere Spezifikationsgrenze) LSS
Lean Six Sigma
μ bzw. E
Mu – Erwartungswert der Grundgesamtheit
m
Meter
M
Merkmal
MA
Mitarbeiter
M&A
Mergers & Acqusisitions
MAIC
Measure, Analyse, Improve, Control
max
Maximiere
MBB
Master Black Belt
MBNQA
Malcolm Baldrige National Quality Award
MbO
Management by Objectives
m.E.
mit Einschränkung
MGP
Multi Generation Plan
Mio.
Million
min
Minimiere
XXII
Abkürzungsverzeichnis
min.
minimal
mind.
mindestens
mm
Millimeter
MPI
Milestone Perfomance Index
MPSP
Management-Planungs-Steuerungs-Programm
Mrd.
Milliarde
MSE
Mean Square Error (Mittlerer quadratischer Fehler)
MT n
Manntage Stichprobengröße
N(µ; σ) o. NV
Normalverteilung
NB
Nebenbedingung
n.i.O.
nicht in Ordnung
NIST
National Institute of Standards and Technology
NLP
Non-linear Programming (Nicht-lineare Optimierung)
NNB
Nichtnegativitätsbedingung
NW
Nutzwert
NY
Normalized Yield (Normierte durchschnittliche Ausbeute)
OE
Organisationsentwicklung
OEM
Original Equipment Manufacturer
OFAT
One Factor At Time
OFD
Opportunities For Defects (Fehlermöglichkeiten)
o.g.
oben genannt
OPM
Offenes Problemlösungsmodell
OT
Organisationstransformation
p
Wahrscheinlichkeit
PBR
Projekt Business Review
PDCA
Plan, Do, Check, Act
PEP
Produktentstehungsprozess
PERT
Project Evaluation and Review Technique
Pop
Population
PPM
Parts Per Million (Fehler pro 1 Mio. gefertigte Teile)
PPS
Produktionsplanung und -steuerung
PR
Public Relation
P-Regelkarte
Prozess-Regelkarte
Akürzungsverzeichnis
p-Wert
Signifikanzwert bei Statistischem Test
QC
Quality Circle
QFD
Quality Function Deployment
QL
Quality Leader
QM
Qualitätsmanagement
QMS
Qualitätsmanagement-System
Q-Regelkarte
Qualitätsregelkarte
QS
Quality System
QVS
Qualitätsverbesserungssystem
R
Spannweite
r
Korrelationskoeffizient
R-sq bzw. R2
Bestimmtheitsmaß
RPZ
Risikoprioritätszahl
RSM
Response Surface Methodology
RTY
Rolled Throughput Yield (Durchschnittliche Ausbeute)
σ
Sigma – Standardabweichung der Grundgesamtheit
σ2
Varianz der Grundgesamtheit
S bzw. StDev
Standardabweichung der Stichprobe
2
s bzw. Var
Varianz der Stichprobe
s
Sekunden
s.
siehe
SA
Simulated Annealing
s.o.
siehe oben
S/N
Signal to Noise
SS
Sum of Squares (Summe der quadrierten Abweichungen)
Sample
Stichprobe
SIPOC
Supplier Input Process Output Costumer
SIS
System Installation Status
sog.
sogenannte
SPC
Statistical Process Control / Statistische Prozesskontrolle
SQP
Sequential Quadratic Program
SRM
Selektion, Rekombination, Mutation
SRP
Saving Realisation Plan
SSCI
Social Science Citation Index
XXIII
XXIV
Abkürzungsverzeichnis
SVM
Shareholder Value Management
SVP
Senior Vice President
SWOT
Strengths Weaknesses Opportunities Threats
TIPS
Theory of Inventive Problem Solving
T
Toleranz
TPM
Total Productive Maintenance
TQM
Total Quality Management
TRIZ
Theorija Reshenija Izobretatjelskich Zadacz (russ. Akronym)
TSP
Traveling Salesman-Problem
u.a.
unter anderem
u.ä.
und ähnliche
UCVP
Unique Customer Value Proposition
u.U.
unter Umständen
UCL bzw. OEG Upper Control Limit (Obere Eingriffsgrenze) USL bzw. OSG Upper Specification Limit (Obere Spezifikationsgrenze) USP
Unique Selling Proposition
usw.
und so weiter
VA
Verfahrensanweisung
VC
Virtual Corporations
VDA
Verband der Automobilindustrie
vgl.
vergleiche
VOC
Voice of the Customer
vs.
versus
WS
Wertschöpfung
w.z.b.i.
was zu beweisen ist
X-bar bzw.⎯x
Mittelwert der Stichprobe
Xs
Input-/ Prozessmessgrößen
Ys
Outputmessgrößen
z.B.
zum Beispiel
z.T.
zum Teil
ZDF
Zahlen, Daten, Fakten
ZI
Zielkostenindex
ZP
Zielplanung
ZV
Zielvereinbarung
1
Möglichkeiten und Grenzen des Einsatzes von Design for Six Sigma im Produktentstehungsprozess (PEP)
Der Einsatz von Six Sigma im Produktentstehungsprozess (PEP) wird bereits seit geraumer Zeit unter dem Schlagwort „Design for Six Sigma“ (DFSS) diskutiert. Es existieren verschiedene Ansätze, wie die von Six Sigma geforderte NullFehler-Qualität am besten in den PEP zu integrieren sei. Als vorläufige Best practice gilt ein auf die Anforderungen des F&E-Bereichs abgestimmter Six SigmaProblemlösungszyklus. Dieser wurde in der Vergangenheit jedoch nur von wenigen Unternehmen mit nachweisbarem Erfolg eingesetzt. Die Gründe hierfür sind vielfältig und bis dato nur wenig erforscht. Nach Expertenmeinung liegt das Scheitern von DFSS-Projekten vor allem in der bestehenden Austauschbeziehung (Trade-off) zwischen hoher Produktqualität auf der einen Seite und der Forderung nach einem hohen Innovationsgrad auf der anderen Seite begründet. Ob und wie dieser Trade-off aus wissenschaftlicher Sicht gelöst werden kann, ist Gegenstand der vorliegenden Dissertationsschrift. In diesem Zusammenhang wird sowohl auf die praktische Relevanz (relevance) der Forschungsergebnisse als auch auf die methodische Stringenz (rigour) des Bearbeitungsprozesses geachtet.
1.1 1.1.1
Problemstellung und Zielsetzung Der wissenschaftliche Anspruch von (Design for) Six Sigma
Durch die Globalisierung der Märkte wird der Wettbewerbsdruck, der auf den Unternehmen lastet, immer stärker. Dieser Druck resultiert aus einer drastischen Verkürzung der Produktlebenszyklen, inkl. der Entwicklungszeiten, einem kontinuierlich anwachsenden Preiskampf mit einhergehenden Kostenreduzierungen sowie einem ständig steigenden Qualitätsanspruch der Kunden. Die Beherrschung des magischen Dreiecks Kosten-Zeit-Qualität stellt heute in vielen Wirtschaftsbereichen eine wesentliche Anforderung an den Fortbestand der Unternehmen dar. Darüber hinaus ist in vielen Branchen ein ständig steigender Innovationsdruck zu beobachten (vgl. z.B. BCG Innovationsstudie 2006). Unternehmen, die insb. auf technologieorientierten Feldern tätig sind, haben erkannt, dass sich die Zukunft nur mit neuen, innovativen Produkten und Prozessen nachhaltig sichern lässt. Aus diesem Grund besteht ein starkes Interesse daran, Produktentstehungsprozesse zu definieren und zu implementieren, die diesen Anforderungen gerecht werden. Um wettbewerbsfähige Produkte zu entwickeln, sind neben klar definierten Vorgehensmodellen Methoden notwendig, welche die Suche nach neuartigen Problemlösungen unterstützen. Die Ausnutzung von biologischen Phänomenen und Erkenntnissen (Bionik) ist dabei nur eine von vielen Ansätzen, um die allgemein einsetzbaren technischen Entwicklungs- und Konstruktionswerkzeuge, z.B. nach VDI 2221ff., wirkungsvoll zu ergänzen (vgl. Günther 2004, S. 1).
2
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
Zu einer umfassenderen Sicht der Qualitätssicherung in Unternehmen hat maßgeblich der japanische Statistiker und Qualitätsexperte GENICHI TAGUCHI (1989) beigetragen. Den Hauptansatzpunkt zur Erhöhung der Produktqualität sieht er in der Verringerung der Streuung der zugrundeliegenden Leistungserstellungsprozesse. Diesem Aspekt der Qualitätssicherung trägt insbesondere die Six Sigma-Philosophie Rechnung. JACK WELCH, ehem. CEO von General Electric (GE) und maßgeblicher Förderer und Gestalter von Six Sigma im Unternehmen1, machte hierzu die treffende Bemerkung: „Abweichung ist der Teufel in allen Kundenkontakten!“ (vgl. Garthe 2002, S. 343ff.). Damit unterstrich er die Auffassung, dass den Kunden die Verbesserung der internen Prozesse nicht interessiert, sondern nur, ob seine Anforderungen und Erwartungen durch das Produkt/ die Dienstleistung vollständig erfüllt werden. Deshalb sind alle Geschäftsprozesse unmittelbar auf die Bedürfnisse/ Anforderungen des Kunden auszurichten. Nur wenn dies gegeben ist, kann von einer wertorientierten Unternehmenstätigkeit gesprochen werden, die – bei wirtschaftlicher Umsetzung der Kundenanforderungen im Unternehmen – finanziellen Erfolg nach sich zieht (vgl. Töpfer 2006, S. 424ff.). Welche Erkenntnis lässt sich im Hinblick auf die Gestaltung und den Einsatz von Managementkonzepten daraus ziehen? Konzepte, die eine höhere Effizienz (Wirtschaftlichkeit) der Prozessabläufe bewirken, müssen noch lange nicht die Effektivität (Zielerreichungsgrad) des Unternehmens verbessern; „Die Dinge richtig tun“ ist nicht gleich „Die richtigen Dinge tun“ (vgl. Töpfer 2007a, S. 75). In Bezug auf Six Sigma hat PRADEEP B. DESHPANDE2 (2004) den Sachverhalt wie folgt auf den Punkt gebracht: „We need to remember, all Six Sigma does is to enable us to operate our work processes in the best possible manner. Nothing more, nothing less. It is quite possible you are operating all your work processes the Six Sigma way, but your competition has come up with a better business model or better technology which could cost you marketshare. [...] it is quite possible for a company to be six sigma compliant and yet go bankrupt. Six Sigma does not make us better innovators, but since it shows how to work smarter and not harder, there is more time available for innovation.” Die Erzeugung von Innovationen steht also nicht im Mittelpunkt von Six Sigma; diese Aufgabe fällt dem in der Wertschöpfungskette vorgelagerten Ansatz des Design for Six Sigma (DFSS) zu (vgl. hierzu und im Folgenden Töpfer/ Günther 2007b, S. 106). Das Six Sigma-Konzept wurde bei Motorola entwickelt und im Jahr 1987 offiziell eingeführt (vgl. Baetke/ Hammer/ Zalesky 2002, S. 2ff.). Der Name „Six Sigma“ geht auf den damals federführenden Qualitätsingenieur, BILL SMITH, am Standort
1
2
Unter JEFFREY R. IMMELT, dem neuen CEO von GE seit 2001 und ausgebildeten Black Belt, wird die Six Sigma Initiative mit der gleichen hohen Priorität weitergeführt (vgl. Effinger/ Layne 2002, S. 2f.). President and CEO of Six Sigma & Advanced Controls, Inc. and Professor of Chemical Engineering at the University of Louisville
1.1 Problemstellung und Zielsetzung
3
Schaumburg, Illinois, USA zurück. Sein Ansatz bestand darin, die z.T. mangelnde Kundenorientierung im Rahmen von existierenden ganzheitlichen QM-Konzepten zu beseitigen. Oftmals führte zwar die Umsetzung von Total Quality Management zu einem hohen Qualitätsniveau, jedoch blieb die Kundenzufriedenheit weiterhin auf einem relativ niedrigen Niveau. Für sein Vorhaben, eine kundenorientierte Null-Fehler-Strategie im Unternehmen zu implementieren, formulierte er deshalb die folgenden zwei „forschungsleitenden“ Fragen: •
Was heißt Kundenorientierung im Technologieunternehmen Motorola?
•
Wie wird Kundenorientierung im Unternehmen wirkungsvoll umgesetzt?
Obwohl es, insb. im Bereich der Psychologie, eine Reihe von Ansätzen und Theorien zum Themengebiet gibt, wählte Bill Smith einen eher pragmatischen Ansatz, der unter dem Slogan „Customer focused Quality“ weltweit Bekanntheit erlangte. Im Kern geht es darum, eine stringente Projektmanagementmethode zu implementieren, welche die Erfüllung der wesentlichen Kundenanforderungen (CTQs – Critical to Quality Characteristics) erlaubt und gleichzeitig zu optimierten, d.h. fehlerfreien Prozessen führt (vgl. Töpfer/ Günther 2007a, S. 18). Die projektorientierte Ausrichtung von Six Sigma konkretisiert sich heute in zwei standardisierten Vorgehensweisen, nämlich dem DMAIC-Zyklus mit den fünf Phasen Define, Measure, Analyse, Improve und Control sowie dem DMADVZyklus mit den fünf Phasen Define, Measure, Analyse, Design und Verify. Beide Projektzyklen basieren auf dem klassischen DEMING-Zyklus PDCA (Plan, Do, Check, Act) und setzen bei der Messung und Analyse von wesentlichen Kundenanforderungen an. Die unterschiedliche Phasenabfolge resultiert in erster Linie aus dem problemspezifischen Anwendungsbereich3: Während der DMAIC-Zyklus bei der Verbesserung von bestehenden Prozessen im Unternehmen zum Einsatz kommt, richtet sich die Anwendung des DMADV-Zyklus auf die Neuproduktplanung und -entwicklung (vgl. Töpfer/ Günther 2007b, S. 107ff.). Die Philosophie von Six Sigma beruht im Wesentlichen darauf, durch eine zielgerichtete Übersetzung der „Stimme des Kunden“ (VOC – Voice of the Customer) in die „Sprache des Prozesses“ (VOP – Voice of the Process) Produkte und Dienstleistungen mit hoher Qualität zu erzeugen und so Wirtschaftlichkeit, also Effizienz, mit Kundenzufriedenheit, also Effektivität, zu verbinden. Richtet sich die Kundenstimme auf ein am Markt eingeführtes Produkt bzw. einen bestehenden
3
Bildlich gesprochen stellt dieses entwicklungsbezogene Six Sigma einen „Blick durch die Frontscheibe“ dar, da hier zukünftig wichtige Kundenanforderungen ermittelt und erfüllt werden. Demgegenüber ermöglicht das prozessbezogene Six Sigma auf der Basis des DMAIC-Zyklus einen „Blick durch den Rückspiegel“. Ziel ist es, den aktuellen Wertschöpfungsprozess im Hinblick auf eine höhere Kundenzufriedenheit/ -bindung sowie eine effizientere Aufbau-/ Ablauforganisation in kurzer Zeit signifikant zu verbessern (vgl. Töpfer/ Günther 2007a, S. 10).
4
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
Prozess im Unternehmen, dann stehen bei der Bearbeitung des Verbesserungsprojektes anhand des DMAIC-Zyklus die folgenden fünf Fragen im Mittelpunkt: •
Define: Was ist das Problem?/ Was ist das Projektziel?
•
Measure: Wie lassen sich die Auswirkungen messen?
•
Analyse: Was sind die Hauptursachen für das Problem?
•
Improve: Wie lässt sich das Problem dauerhaft beseitigen?
•
Control: Wie wird die Problemlösung praktisch umgesetzt?
Analog hierzu lässt sich für den DMADV-Zyklus ein Fragenkatalog konzipieren, der die speziellen Anforderungen im F&E-Bereich berücksichtigt. In den fünf Phasen werden dabei die folgenden Fragen schwerpunktmäßig behandelt: •
Define: Welche Produktlösung ist veraltet/ nicht mehr wettbewerbsfähig?
•
Measure: Was sind die wesentlichen zukünftigen Kundenanforderungen?
•
Analyse: Wie lassen sich die Kundenanforderungen bestmöglich erfüllen?
•
Design: Was sind die konkreten Gestaltungsmerkmale des Produktes?
•
Verify: Wie gut erfüllt das Produkt die Kundenanforderungen in praxi?
Unabhängig von der Art des gewählten Problemlösungszyklus beruht die Entscheidungsfindung im Rahmen von Six Sigma bzw. Design for Six Sigma auf dem Prinzip „ZDF – Zahlen, Daten und Fakten“. Intuition der Projektbeteiligten und/ oder Trial-and-Error-Verfahren sind bewusst ausgeschlossen und in keiner Phase des DMAIC-Zyklus explizit vorgesehen. Die Problemlösung erfolgt systematisch und zeichnet sich über weite Strecken durch eine analytische Vorgehensweise aus. Dabei werden zwei Ebenen der Problemlösung unterschieden (vgl. hierzu und im Folgenden Töpfer/ Günther/ Garzinsky 2007, S. 262ff.): Realitätsebene und Abstraktionsebene. Durch diese Trennung ist es möglich, auch schwierige praktische Probleme zu lösen. Unter Berücksichtigung der zwei Ebenen vollzieht sich die Lösungsfindung in fünf Schritten (siehe Abb. 1-1): (1) Auf der Realitätsebene wird das reale Problem definiert und – in der DefinePhase – zu einem 3- bis 6-monatigen Verbesserungsprojekt nominiert; dieses ist von drei bis fünf Akteuren in dem vorgesehenen Zeitraum zu bearbeiten. (2) Das reale Problem wird in ein abstraktes Problem transformiert, d.h. aus dem realen Problem wird – in der Measure-Phase – ein statistisches Problem, welches mithilfe von Variablen und Messgrößen beschrieben werden kann. (3) Auf der Abstraktionsebene wird unter Nutzung mathematisch-statistischer Modelle eine abstrakte Lösung gesucht. Mittels Regression et al. werden – in der Analyse-Phase – die Hauptursachen des Problems identifiziert.
1.1 Problemstellung und Zielsetzung
5
(4) In der anschließenden Improve-/ Design-Phase besteht das Ziel darin, die gefundene abstrakte Lösung durch Outputsimulationen abzusichern. Des Weiteren werden Optionen für die konkrete Umsetzung eruiert. (5) Die abstrakte Lösung wird in eine reale Lösung zurücktransformiert. Nach der Implementierung im Prozess wird die gefundene Lösung – in der Control-/ Verify-Phase – kontinuierlich überwacht und verbessert. 3 2 Abstraktes
Problem
Modellbildung
4 Abstrakte
Lösung
Abstraktionsebene
Realitätsebene 1
Reales Problem
Trial & Error
5
Reale Lösung
Abb. 1-1: Der Problemlösungsfluss in Six Sigma-Projekten
Die Denkweise von Six Sigma unterscheidet sich damit deutlich von bisherigen Ansätzen des Qualitätsmanagements, wie z.B. TQM. Dies liegt vor allem daran, dass die Implementierung einer Lösung in der Realität erst dann vorgenommen wird, wenn eine zufriedenstellende Lösung auf der Abstraktionsebene gefunden worden ist. In diesem Fall haben die Mittelwert- und Streuungsmaße der wesentlichen Outputgrößen des Prozesses das anvisierte Zielniveau erreicht. Andernfalls werden die Measure- und Analyse-Phase so lange durchlaufen, bis die Abhängigkeiten in Form von Ursachen-Wirkungsbeziehungen offengelegt und die geplanten Verbesserungen über Outputsimulationen hinreichend abgesichert sind. Die Anforderungen, die an den Problemlösungsprozess gestellt werden, decken sich im großen und ganzen mit denen des wissenschaftlichen Arbeitens (vgl. Kromrey 2002, S. 88): Problem definieren, Wissen generieren, Modell formulieren, Aussagen ableiten und überprüfen sowie ggf. Maßnahmen umsetzen. Vor diesem Hintergrund richtet sich das Erkenntnisinteresse bei Six Sigma nicht nur auf die zu verbessernde Sache, also was verbessert wird, sondern auch auf die zugrunde gelegte Vorgehensweise, also wie etwas verbessert wird. Obwohl DMAIC- und DMADV-Zyklus auf dem gleichen Problemlösungsprinzip basieren, unterscheiden sie sich in ihren generellen Erfolgaussichten z.T. signifikant. Wäh-
6
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
rend sich der DMAIC-Zyklus als prozessbezogener Verbesserungsansatz in der Praxis recht gut bewährt hat, stehen entsprechende Erfahrungsberichte für den DMADV-Zyklus und ggf. andere DFSS-Vorgehensmodelle noch aus. 1.1.2
Empirische Befunde zum Einsatz und zur Verbreitung von Six Sigma
Durch Berücksichtigung der Six Sigma-Philosophie in der Neuproduktentwicklung respektive dem grundlegenden Re-Design von Produkten und Prozessen soll bereits von Produktionsstart an 6σ-Qualität, d.h. 99,99966% Fehlerfreiheit, erreicht werden. Um F&E-Projekte möglichst ergebnisorientiert steuern und durchführen zu können, wurden in der Vergangenheit eine Reihe von phasenorientierten Vorgehensmodellen entwickelt, z.B. DMADV, DMEDI und DCCDI.4 Die Mehrheit der Six Sigma-Unternehmen hat sich für den DMADV-Zyklus entschieden, da er u.a. von den Six Sigma-Vorreiterunternehmen Motorola und General Electric5 angewendet wird. Nach Bulk/ Faulhaber (2007, S. 406ff.) ist das Design von neuen Produkten und Prozessen einer von drei Eckpfeilern im Rahmen des ganzheitlich ausgerichteten Six Sigma-Projektmanagements. In Abb. 1-2 sind die Phasen von 10 Vorgehensmodellen aufgeführt, die im Zusammenhang mit DFSS seit geraumer Zeit diskutiert werden. Die Reihenfolge ergibt sich nach der Anzahl von Suchergebnissen (weltweit) für das entsprechende Akronym in Verbindung mit „Design for Six Sigma“ im Internet über die Suchmaschine www.google.de (Stand: 25.06.2007).
4
5
DMEDI steht für Define, Measure, Explore, Develop and Implement und wird insb. von der Beratungsgesellschaft PricewaterhouseCoopers propagiert (vgl. Simon 2002, S. 1f.). Das Akronym DCCDI beschreibt den 5-phasigen Zyklus Define, Customer, Concept, Design und Implementation. Von einigen Unternehmen wurde der DMADVZyklus in der Weise modifiziert, dass sie eine zusätzliche Phase „I“ für Implementation oder „L“ für Leverage eingeführt haben. Den einen Unternehmen ging es darum, die Wichtigkeit der Implementierung gefundener Lösungen hervorzuheben, während die anderen die Übertragung gefundener Lösungen auf die gesamte Organisation mit dem Ziel Hebelwirkungen zu erzielen als besonders wichtig ansahen. Nach Deutsch (2000, S. C1) ist das radiologische Diagnosegerät Lightspeed Diagnostic Scanner (LDS) von GE Medical Systems (GEMS) das erste Produkt, welches nach dem DFSS-Ansatz entwickelt und konzipiert worden ist. An der Entwicklung waren Mitte der 1990er Jahre ca. 200 Mitarbeiter beteiligt bei einem F&E-Budget von 50 Mio. US$. Über einen Zeitraum von 3 Jahren wurden insgesamt 250 DMADV-Projekte rund um das LDS durchgeführt. Im Ergebnis konnte die Fehlerrate in der Fertigung um 40% reduziert werden; die Anzahl der Reklamationen sank signifikant. Aus technologischer Sicht wurde ein deutlicher Sprung nach vorne gemacht. Wie Antony/ Bañuelas (2002, S. 335) berichten, reduzierte sich die Scanzeit für eine Ganzkörperuntersuchung von 3 Minuten auf 20 Sekunden ohne zusätzliche Kühlungszeit.
1.1 Problemstellung und Zielsetzung
7
Für den Einsatz und die Verbreitung verschiedener Management-Zyklen im Rahmen des Design for Six Sigma mit z.T. geringem Standardisierungsgrad lassen sich zwei Gründe anführen: Zum einen sind die branchen- und unternehmensspezifischen Bedingungen nicht gleich, so dass von den Unternehmen Vorgehensweisen gewählt werden, die aus ihrer Sicht den Anforderungen im Entwicklungsprozess am nächsten kommen. Z.B. wird der DMEDI-Zyklus verstärkt in Serviceund Dienstleistungs-Unternehmen eingesetzt, während der IDOV-Zyklus vor allem bei produzierenden Unternehmen im technischen Bereich zur Anwendung kommt (vgl. ProcessTeam 2006). Zum anderen besteht die Vermutung, dass bisher noch kein geeignetes Vorgehensmodell für den Entwicklungsprozess gefunden worden ist, welches die Hauptanforderungen im PEP, nämlich qualitativ hochwertige Produkte mit innovativen Funktionen zu entwerfen, erfüllt. Vorgehensmodell
Treffer in Google*
DMADV
40.500
IDOV
2.030
Phasen Define
Measure
Analyse
Design
Identify
Verify
Design
Optimise
Verify Verify
DMADOV
646
Define
Measure
Analyse
Design
Optimise
DMEDI
644
Define
Measure
Explore
Develop
Implement
CDOV
548
Concept
Design
Optimise
DCCDI
351
Define
Customer
Concept
Design
Implement
DCOV
233
Define
DIDOV
45
Define
Identify
DMADIC
9
Define
Measure
DMCDOV
8
Define
Measure
Characterise
* Abruf (weltweit) am 25.06.07 unter www.google.de mit Zusatz „Design for Six Sigma“
Verify
Optimise
Verify
Design
Optimise
Verify
Analyse
Design
Implement
Control
Characterise
Design
Optimise
Verify
Legende: Phase ist inhaltlich vergleichbar mit DMADV
Abb. 1-2: Phasen der DFSS-Vorgehensmodelle im Überblick
Diese These wird u.a. von verschiedenen Experten6 auf diesem Gebiet gestützt, die das Realisationsverhältnis von DMAIC- zu DMADV-Projekten auf bis zu 20 zu 1 schätzen, d.h. auf 1 erfolgreich durchgeführtes DFSS-Projekt kommen ca. 20 „klassische“ Six Sigma-Verbesserungsprojekte. Obwohl viele Unternehmen die Bedeutung von Null-Fehler-Qualität im Entwicklungsbereich erkannt haben, läuft 6
Ergebnisse auf der Basis einer mündlichen Befragung von ausgewählten QM- und Six Sigma-Experten im Jahr 2006: Gebhard Mayer, MUTC; Gerd Streckfuss, IQM; Andreas Riese und Dieter Wessel, TQC; Bernd Garzinsky, M+M. Magnusson et al. (2004, S. 208) führen bei der Frage nach dem Reifegrad von Six Sigma aus, dass das Konzept im Bereich der Prozessentwicklung ein „ausgereiftes und erprobtes Verbesserungskonzept“ ist. In den Bereichen Designverbesserung, Projektmanagement und Neuentwicklung von Produkten/ Technologien ist Six Sigma hingegen noch in der Entwicklung – weiterführende Anstrengungen sind hier notwendig.
8
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
die konkrete Umsetzung von DFSS häufig ins Leere (vgl. Hammer 2002, S. 32). Bei Durchsicht der einschlägigen Literatur lassen sich nur wenige Hinweise auf erfolgreich abgeschlossene DMADV-Projekte finden (vgl. zu DFSS-Fallstudien u.a. Dorff/ Töpfer 2007; Islam 2003; Role 2002; Gavin 1999). Die Ergebnisse einer empirischen STUDIE VON SCHMIEDER (2005) zum Thema „Six Sigma in Deutschland“ bestätigen die Expertenmeinung: Die meisten der befragten Unternehmen wenden Six Sigma vorzugsweise in den direkten Wertschöpfungsprozessen an; im Produktionsbereich können bereits mehr als 80% der Unternehmen auf Six Sigma-Projekterfahrungen verweisen. Im Vergleich hierzu haben jeweils „nur“ ca. ein Drittel der Befragten Six Sigma-Projekte in den Bereichen Konstruktion/ Entwicklung sowie Service/ Vertrieb durchgeführt. In Abb. 1-3 sind die Bereiche, in denen bereits Six Sigma-Projekte durchgeführt wurden, den Bereichen, in denen der größte Handlungsbedarf für Verbesserungen besteht, gegenübergestellt. Wie leicht ersichtlich, besteht vor allem im Bereich Produktion/ Fertigung eine deutliche Lücke zwischen der Intensität und der Notwendigkeit von Six Sigma-Verbesserungsmaßnahmen. Die Six Sigma-Methodik wird hier häufiger eingesetzt als eigentlich notwendig. Demgegenüber ergibt sich für die Bereiche Konstruktion/ Entwicklung sowie Service/ Vertrieb tendenziell ein Defizit in der Anwendung von Six Sigma respektive Design for Six Sigma. In einem viel beachteten Aufsatz leitete MICHAEL HAMMER7 (2002, S. 26ff.) die Gemeinsamkeiten und Unterschiede von Six Sigma und Prozessmanagement her. Unter letzterem subsumiert er sowohl die Verbesserung von Prozessen als auch das Re-Design. Im Ergebnis seiner Untersuchung kommt er zu dem Schluss, dass Six Sigma ein integraler Bestandteil des Prozessmanagements von Unternehmen ist und nicht umgekehrt. In einer prozessorientierten Organisation werden Six Sigma-Projekte aufgesetzt, um die strategischen Ziele, auf die ein Geschäftsprozess ausgerichtet ist, in Zukunft besser zu erreichen. Dabei ist Six Sigma unmittelbar mit dem DMAIC-Zyklus als strukturiertem Projektmanagementzyklus zur Verbesserung von bestehenden Prozessen verbunden.8 Jeder Versuch, den Six Sigma-Ansatz auf das Prozess-Re-Design als Teil des Prozessmanagements zu erweitern, ist nach der Auffassung von Hammer (2002, S. 32) zum Scheitern verurteilt: „Stretching the definition of Six Sigma to encompass process redesign and process management is like stretching the definition of bas-
7 8
President of Hammer & Company und Protagonist des Business Process Reengineering-Ansatzes (BPR) zu Beginn der 1990er Jahre. Hierfür gibt es eine Reihe von empirischen Belegen. So stellen z.B. amerikanische Unternehmen wie Bombardier, American Express, Merck und Motorola ihre Six Sigma-Aktivitäten unabhängig davon, in welchem Bereich der Wertschöpfungskette sie zum Einsatz kommen, auf den DMAIC-Zyklus ab. Die Grenzen der Vorgehensweise von Six Sigma liegen für diese Unternehmen beim Design von neuen Prozessen respektive Produkten (vgl. Hammer 2002, S. 30).
1.1 Problemstellung und Zielsetzung
9
ketball to include baseball. It is also likely to create confusion, because to most of the business world, Six Sigma is synonymous with DMAIC. Moreover, process design is not the same as product design, and DMADV's effectiveness as a tool for process design is still open to debate. Six Sigma should be part of process management, not the other way around”. Nach dieser Aussage ist und bleibt Six Sigma die konzeptionelle Grundlage für die „Reparatur von bestehenden Prozessen“. Die Übertragung des Konzeptes auf das „Neu-/ Re-Design von Prozessen und Produkten“ wird grundlegend skeptisch beurteilt.
100% 82%
80% 60% 41%
40%
47% 36%
38%
33%
20% 0% Produktion/ Fertigung
Entwicklung/ Konstruktion
Service/ Vertrieb
Bereiche, in denen Six Sigma Projekte bereits durchgeführt worden sind Bereiche, in denen der größte Handlungsbedarf für Verbesserungen besteht Basis: Schmieder 2005
Abb. 1-3: Six Sigma-Projekte und Handlungsbedarfe für Verbesserungen
Die Debatte, um den Aufwand und Nutzen von Design for Six Sigma, hat sich in den vergangenen Jahren deutlich zugespitzt. In einem Aufsatz bei Reuters kommt MICHAEL FLAHERTY (2004) zu dem Schluss, dass Six Sigma nicht länger ausreicht, um die hohen Erwartungen der Anleger und Investoren zu erfüllen. Diese beziehen sich vor allem auf die zu erwartenden Wachstumsraten eines Unternehmens. Eine kontinuierliche Gewinnzunahme über mehrere Jahre, die aus systematischen Prozessverbesserungen resultiert, ist häufig nicht genug. Wird der Fokus von DFSS allein auf die Erzeugung und Auslieferung von Produkten/ Dienstleistungen mit Null-Fehler-Qualität gelegt, dann gilt die langfristige Wettbewerbsfähigkeit von Unternehmen heute keineswegs mehr als gesichert. Für ein überdurchschnittliches Wachstum sind sowohl Kosteneinsparungen als auch Umsatzsteigerungen notwendig. Diese Anforderungen werden durch die
10
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
Anwendung von Six Sigma nur zum Teil erfüllt, so die Kritiker des Konzeptes. Unternehmen, die seit Anfang/ Mitte der 1990er Jahre den „Six Sigma Weg“ gegangen sind9, z.B. Motorola, Dow Chemical und General Electric, haben den Turnaround ihrer Profitabilität insbesondere dadurch geschafft, dass sie durch Six Sigma die Kostenseite besser in den Griff bekamen; die Umsatzseite wurde allenfalls indirekt durch die Six Sigma-Aktivitäten positiv berührt. Um Umsatzsteigerungen zu erzielen, sind neue Produkte erforderlich, die in immer kürzeren Zeitabständen auf den Markt gebracht werden und die Bedürfnisse/ Anforderungen der Kunden bestmöglich erfüllen (vgl. Töpfer/ Günther 2007a, S. 17). Nach JAY DESAI10 (2004) besitzt Six Sigma genau aus diesem Grund den Status einer „Durchbruchstrategie“ heute nicht mehr. Wie er an verschiedenen Unternehmensbeispielen zeigt, lassen sich mit Six Sigma keine wirklichen Innovationen generieren, da die Methodik die Kreativität im Unternehmen sprichwörtlich erstickt. Außerdem hält das „klassische“ Six Sigma keine effektiven Lösungen für die Entwicklung neuer Produkte bereit. Die Aktivitäten, die derzeit unter dem Schlagwort „Design for Six Sigma“ diskutiert werden, sind nach seiner Auffassung in vielen Fällen noch unausgereift. Deshalb laufen Unternehmen, die auf die Anwendung von prozessbezogenem Six Sigma schwören, langfristig Gefahr, Effizienz auf Kosten der Effektivität zu steigern. Spätestens wenn Kundenunzufriedenheit nicht die Folge von einzelnen Fehlern im Leistungserstellungsprozess ist, sondern aus einem mangelhaften Produktdesign resultiert, ist der Zeitpunkt für die Einleitung produktbezogener Verbesserungen gekommen. Im Schumpeter´schen Sinne handelt es sich bei Innovationen um die schöpferische Zerstörung bisheriger Problemlösungen. Die Überführung eines Subjekts/ Objekts vom Zustand t0 in den Zustand t1 bezeichnet den Innovationsprozess, der – in Abhängigkeit von der Situation – mehr oder weniger bewusst gesteuert werden kann. Dass Six Sigma und Innovationen „Hand in Hand“ gehen, wird – trotz der vorstehend genannten Bedenken – von einer Reihe von Unternehmensführern in Amerika eindeutig positiv beurteilt (vgl. u.a. Gupta 2005; Lee 2004). Durch einen effektiven DFSS-Ansatz sollte es möglich sein, Produkte und Dienstleistungen von Grund auf so zu konzipieren, dass sie die Anforderungen der Kunden auf einem 6σ-Niveau bei Markteinführung erfüllen. Voraussetzung hierfür ist ein ausgewogenes Verhältnis von effizienten Prozessen und innovativen Produkten, oder wie MICHAEL CYGER11 (2004) es zusammenfasst: „What we need are individuals at all key points in a company who can exhibit both ‚A’ thinking and ‚B’
9
10 11
In den USA wurde die Anzahl der Unternehmen, die Six Sigma nachhaltig anwenden, im Jahr 2004 auf ca. 1.500 geschätzt; in Deutschland optimierten zur gleichen Zeit ca. 150 Unternehmen ihre Prozesse mit Six Sigma (vgl. Göggelmann 2004, S. 97). Leiter des Instituts für Global Competitiveness und vormals langjähriger Berater bei General Electric; Quelle: Flaherty 2004, S. 1. Gründer des weltweit führenden Six Sigma Internetportals www.isixsigma.com; Quelle: Lee 2004, S. 1.
1.1 Problemstellung und Zielsetzung
11
thinking, according to time and need. We cannot make money just by innovating, and we cannot make money just by having efficient processes. We need both.” Die Dringlichkeit von diskontinuierlichen Verbesserungen (Innovationen) auf der Produkt- und Prozessseite wird u.a. von der ACCENTURE INNOVATIONSSTUDIE (2004) bestätigt. Nach dieser Studie messen deutsche Unternehmen der Optimierung des „magischen Dreiecks“ Kosten – Zeit – Qualität die größte Bedeutung bei. Über die gezielte Durchführung von Innovations-/ Verbesserungsprojekten sollen in erster Linie die unternehmensinternen Kosten gesenkt, die Reaktionsfähigkeit beschleunigt (Zeit) und die Fehlerquote verringert werden (Qualität). Dabei ist eine ausgewogene Aufteilung der Ressourcen auf Produkt- und Prozessverbesserungen notwendig, um eine überdurchschnittliche Rendite zu erzielen. Unternehmen, die Produkt- und Prozessinnovationen ausgewogen vorantreiben, folgen dem Grundsatz „Die richtigen Dinge richtig tun“. Durch die simultane Optimierung von Effizienz und Effektivität verzeichnen sie gegenüber Unternehmen mit nur einer Stoßrichtung den höchsten Return on Investment. Als Gründe, warum Unternehmen nicht zu den erfolgreichen Innovatoren gehören, werden genannt: Strategische Schwächen, unklare Verantwortlichkeiten, unzureichendes ProzessKnow-how und mangelnde interne Ressourcen.12 In der o.g. Studie ist eindeutig ersichtlich, dass auch bei „High Performance Innovators“ Innovationen häufig nicht einer bestimmten Strategie folgen, sondern eher einem kreativen Entwicklungsgang entspringen: Wenn eine gute Idee geboren ist, dann konkurriert sie zunächst mit anderen guten Ideen um die Aufmerksamkeit und Ressourcen auf der Ebene des verantwortlichen Managements. Im Fall, dass sie sich durchsetzen kann, wird sie weiterverfolgt; andernfalls gerät sie auf nicht absehbare Zeit in Vergessenheit. Vor diesem Hintergrund stellt sich die Frage, wie sich kreative Prozesse in Unternehmen wirkungsvoll in vorgegebene Bahnen lenken lassen. Das Management hat dabei die Aufgabe, über organisatorische Strukturen und administrative Systeme den generellen Rahmen für eine erfolgreiche Innovationstätigkeit zu setzen. Nach Prisching (2005, S. 239) ist dies äußerst schwierig, denn „Der Prozess, in dem etwas Neues auftritt, ähnelt in Wahrheit mehr einem evolutionären als einem geplanten Prozess.“13
12
13
Nach den Studienergebnissen sind nur 39% der befragten Unternehmen in der Lage, die oben genannten Hürden im Innovationsprozess erfolgreich zu meistern. Bei der Gruppe der „Low Performance Innovators“ fällt auf, dass sie zwar konkrete Ziele für Verbesserungsaktivitäten formulieren, diese aber aufgrund einer fehlenden bzw. ungeeigneten Strategie zum überwiegenden Teil nicht realisieren können. Über 50% der Befragten sehen in der Kombination von mangelhafter Strategie und unklaren Verantwortlichkeiten die Hauptursache für das Scheitern von Innovationsprojekten. Wie Prisching (2005, S. 239) weiter ausführt, tritt an die Stelle der technokratischen „Maschinensprache“ in den 1990er Jahren ein neues Vokabular, welches aus der Biologie, der Systemtheorie, der Neurologie und der Informatik entlehnt ist, z.B. System, Entropie, Evolution, Netzwerk, Selbstorganisation, flexible Spezialisierung, Outsourcing, autonome Einheiten, Synapsen und Neuronen. Für die Betriebswirtschaftslehre
12
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
1.1.3
Theoriegeleitete Verbesserung des DFSS-Problemlösungszyklus
Ziel der vorliegenden Arbeit ist es, einen DFSS-Problemlösungszyklus zu entwickeln, der den Anforderungen im F&E-Prozess besser gerecht wird. Ausgangspunkt der Betrachtung bildet der DMADV-Zyklus, der von vielen Six Sigma-Anwendern bei der Neuproduktplanung/ -entwicklung genutzt wird. Die strukturellen und prozessualen Veränderungen, die durch den Einsatz des DMADV-Zyklus erzielt werden sollen, sind in Ausmaß und Reichweite i.d.R. deutlich größer als beim DMAIC-Zyklus. Konkret geht die Zielstellung dahin, durch die systematische Planung und Kontrolle aller beteiligten Wertschöpfungsprozesse neue Produkte/ Dienstleistungen auf einem 6σ-Niveau zu entwickeln. Infolgedessen kann bereits zum Serienstart Null-Fehler-Qualität ausgeliefert werden; das Ausmerzen von „Kinderkrankheiten“ zu Beginn des Produktlebenszyklus gehört somit der Vergangenheit an. Voraussetzung hierfür ist die fehlerfreie Umsetzung der Kundenanforderungen in Produkt- und Prozessmerkmale. Dies geschieht durch stringentes Abarbeiten der fünf Phasen des DMADV-Zyklus unter Nutzung der darin vorgesehenen QM-Methoden. Obwohl das Vorgehen nicht immer zum gewünschten Ergebnis führt (vgl. Abschnitt 1.1.2), stellt der DMADV-Zyklus zurzeit „Best practice“ im Bereich der DFSS-Produktentwicklung dar. Dass die Kundenanforderungen oftmals verfehlt werden, liegt vor allem darin begründet, dass das Entwicklungsteam sowohl risikofreudiges als auch risikoaverses Verhalten an den Tag legen muss. Durch risikofreudiges Verhalten sollen auf der einen Seite möglichst innovative Produkte entstehen, die den Kunden begeistern. Mögliche Mängel in der Ausführung der neuen, einzigartigen Merkmale werden vom Kunden weniger stark wahrgenommen als bei einem „Standardprodukt“, das diese Merkmale nicht besitzt. Gleichzeitig steigt nach dem KanoModell (Berger et al. 1993) die Kundenzufriedenheit überproportional, sofern die Ausprägung der entsprechenden Produktmerkmale (sehr) gut ist. Risikoaverses Verhalten soll auf der anderen Seite bewirken, dass an Produkten und Prozessen, die sich in der Vergangenheit gut bewährt haben, festgehalten wird. Zu erwartende Qualitätseinbußen in der Produktion und daraus folgende Reklamationen der Kunden werden dadurch vermieden. Bei zu starkem Festhalten an alten Strukturen besteht jedoch die Gefahr, dass das neu entwickelte Produkt im Vergleich zum Wettbewerb als „wenig innovativ“ gilt und die Nachfrage hinter den Erwartungen der Unternehmensleitung zurück bleibt. Unter diesen Voraussetzungen ist die Forderung nach Null-Fehler-Qualität eher fraglich. Produktentstehungsprozesse umfassen im Zeitablauf sowohl kreative als auch analytische Phasen. Während kreative Phasen dazu dienen, das Bestehende in Frage zu stellen und nach neuen Lösungswegen zu suchen, sind die analytischen Phasen darauf ausgerichtet, die gefundenen Ideen/ Lösungsansätze zu konkretisie-
bedeutet dies der Weg zu einer „unternehmerischen Managementlehre“, anstelle einer herkömmlichen Ansammlung von Definitionen, Kästchen und Pfeilen.
1.1 Problemstellung und Zielsetzung
13
ren und im Hinblick auf die Umsetzbarkeit zu überprüfen. Entscheidend für eine erfolgreiche Produktentwicklung ist die „richtige Mischung“ der beiden Phasentypen. Effektive Vorgehensmodelle der Produktentwicklung zeichnen sich dadurch aus, dass sie Kreativität und Systematik optimal verbinden (vgl. z.B. Günther 2004, S. 1). Im Fall des DMADV-Zyklus ist diese Optimalität noch nicht gefunden; die einzelnen Phasen sind – bis auf die Design-Phase – durch ein stark analytisches Vorgehen geprägt. Dieses wird i.d.R. durch einen gezielten Methodeneinsatz14 gefördert, z.B. unterstützt der Einsatz der Fehler-Möglichkeits- und Einfluss-Analyse (FMEA) das systematische Aufdecken von Fehlern im Prozess und/ oder am Produkt. Die phasenspezifische Anwendung von Instrumenten und Methoden entscheidet letztendlich darüber, wie effizient der PEP abläuft. Im Fall des DMADV-Zyklus sind einschlägig bekannte QM-Methoden den einzelnen Phasen fest zugeordnet, z.B. statistische Testverfahren in der Analyse-Phase, so dass zunächst von einer relativ hohen Effizienz ausgegangen werden kann. Um die „richtige Mischung“ von Phasen und Methoden zu finden, wird in der Praxis üblicherweise inkremental vorgegangen. Die Methode des Inkrementalismus15 beschreibt ein schrittweises Fortbewegen von vertrauten Lösungen, also z.B. das Auffinden eines verbesserten Problemlösungszyklus im F&E-Bereich ausgehend vom DMADV-Zyklus. Abwertend sprechen Forscher häufig von der „Methode des Durchwurstelns“ (vgl. Lindblom 1975, S. 161ff.), was aber keineswegs als ineffizient hingestellt werden muss. Denn besonders in Situationen, die sich durch eine hohe Unsicherheit/ Unübersichtlichkeit auszeichnen, besitzt das inkrementale (schrittweise) Vorgehen eine Überlegenheit gegenüber dem synoptischen (ganzheitlichen) Vorgehen. Der Nachteil ist insbesondere darin zu sehen, dass durch geringfügige Änderungen keine innovativen, umfassenden Lösungen zum Vorschein kommen, selbst wenn sie erforderlich wären. Obwohl die Ziele nicht explizit definiert werden, verläuft der Entscheidungsprozess verfahrensrational, d.h. die Schritte zur Entscheidungsfindung sind im großen und ganzen gut nachvollziehbar (vgl. Berger/ Bernhard-Mehlich 2002, S. 140ff.): •
Der Entscheider sucht (nur) nach vertrauten Mittel-Zweck-Relationen.
•
Die Modifikation des Bestehenden erfolgt in kleinen, marginalen Schritten.
•
Es findet keine endgültige Problemlösung statt, sondern ein fortwährendes Suchen nach Weiterentwicklungen der bestehenden Lösung.
14 15
Unter einer „Methode“ wird eine strukturierte Handlungsvorschrift zur Erlangung eines vorgegebenen Ziels verstanden (vgl. Fähnrich/ Opitz 2006, S. 98). Das Modell des Inkrementalismus in der Organisationstheorie geht von einem begrenzten Suchverhalten der Akteure nach einer befriedigenden Lösung aus. Dabei werden lokale anstelle von globalen Optima angestrebt. Der Entscheider vergleicht nacheinander alternative Handlungsweisen, bis er eine zufriedenstellende gefunden hat. Zielbestimmung sowie umfassende Analysen von Alternativen und Konsequenzen werden hierdurch überflüssig (vgl. Simon 1976, S. 80ff.).
14
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
Gegenüber dem Modell des Inkrementalismus handelt der Entscheidungsträger nach dem Modell der (vollkommen) rationalen Wahl unbeeinflusst von persönlichen Werten und Gruppennormen. Die Grundlage für seine Entscheidung bildet die Nutzenmaximierung für das Unternehmen. Voraussetzung hierfür ist, dass es nur einen Entscheider gibt, der ein bestimmtes Ziel verfolgt. Als Einzelperson besitzt der Entscheidungsträger vollständige Informationen über die Ziele der Organisation, die Entscheidungsprobleme, die potenziellen Handlungsalternativen mit den jeweiligen Konsequenzen und dem daraus resultierenden Nutzen/ Wert für das Unternehmen. Durch sein synoptisches, d.h. ganzheitliches und planvolles Vorgehen ist es ihm möglich, die nutzenmaximale Lösung unter den gegebenen Alternativen zu finden und dann auch zu implementieren. Nach dem TheoriePraxis-Verständnis des Methodischen Konstruktivismus16 vollzieht sich der Problemlösungsprozess auf insgesamt drei Ebenen (siehe Abb. 1-4). Durch Einfügen der Theoriegeleiteten Praxis als Bindeglied zwischen Primärer und Theoretischer Praxis wird erklärt, warum Menschen ihre Handlungsweisen lernend verändern (können) und damit eine Dynamik des Erkenntnisfortschritts in Gang setzen (vgl. hierzu und im Folgenden Scherer 2002, S. 24ff.): 1.
Auf der Ebene der Primären Praxis bewältigen Menschen ihr Leben ohne bewusste und reflektierte Anwendung von Theorien. Es wird angenommen, dass der Mensch in der Lage ist, Know-how (unbewusst) zu aktivieren, um damit soziale, technische und/ oder politische Probleme zu lösen. In diesem Zusammenhang wird offen gelassen, ob das Handeln zum Erfolg/ Misserfolg bei der Bewältigung der jeweiligen Lebens-/ Tätigkeitssituation beiträgt.17 Die Verbesserung des DMADV-Zyklus auf der Ebene der Primären Praxis erfordert vor allem „alltagsweltliches Können“ der Akteure. Dieses ergibt sich durch Sammeln von Erfahrungen im Umgang mit unterschiedlichen Methoden und Vorgehensweisen im Entwicklungsprozess. In Bezug auf Six Sigma führt alltagsweltliches Können dazu, dass von den Verantwortlichen der Me-
16
17
Das Verhältnis von Theorie und Praxis, wie es insb. im Kritischen Rationalismus zugrunde gelegt wird, gilt als konventionelle Betrachtungsweise. Sie basiert auf der Annahme, dass die Geltung empirischer und/ oder analytischer Sätze auf Erfahrung beruht. Das Ziel der Wissenschaft besteht dabei nicht in der Verifikation wissenschaftlicher Aussagen, sondern in der Falsifikation und damit im Herausstellen von bewährtem Wissen (vgl. Popper 1969, S. 18). Infolgedessen geht im Begründungsprogramm des Kritischen Rationalismus die Theorie der Praxis voraus. Nach Scherer/ Dowling (1995, S. 220f.) erfüllt die Primäre Praxis zwei Funktionen: Zum einen gibt sie Anlass, systematisch und methodisch über gegenwärtiges und zukünftiges Handeln nachzudenken. Da Menschen nach Erfolg und nicht nach Misserfolg ihres Tuns trachten, entsteht nach missglückten Handlungen überhaupt erst die Notwendigkeit systematisch-methodisch vorzugehen. Zum anderen stellt sie die Voraussetzung dar, um mit methodischem Denken zu beginnen. Denn ohne Vorhandensein von – zumindest ansatzweise gelungenem – praktischem Können ist kein Fortschreiten in methodischer Hinsicht möglich.
1.1 Problemstellung und Zielsetzung
15
thodeneinsatz und die Phasenabfolge des DMADV-Zyklus gezielt verändert werden kann, um die Erfolgsaussichten von DFSS zu erhöhen. 2.
Auf der Ebene der Theoretischen Praxis realisieren Menschen bei verschiedenen Gelegenheiten, dass ihr Tun/ Handeln nicht ohne Weiteres gelingt. I.d.R. unternehmen sie dann besondere Anstrengungen, um sich über die Situation und die spezifischen Bedingungen des Erfolgs im Klaren zu werden. In diesem Zusammenhang analysieren sie systematisch die UrsachenWirkungs-Beziehungen, um auf dieser Grundlage Mittel-Zweck-Relationen abzuleiten. Im Gegensatz zur Primären Praxis bringen sich die Beteiligten hier „in Distanz zu dem, was vorher selbstverständlich war, um ‚objektiv’ zu bestimmen, was der Fall ist, bzw. was sein soll“.18 Indem der Akteur die situativen Einflüsse des Erfolgs/ Misserfolgs von DFSS-Aktivitäten analysiert, betreibt er ein „vorbereitendes Nachdenken“ über mögliche Verbesserungen. Durch implizites und/ oder explizites Aufstellen von Ursachen-Wirkungsbeziehungen werden zunächst die Stärken und Schwächen des DMADV-Zyklus herausgearbeitet. Anschließend können auf dieser Basis Veränderungen theoretisch „durchgespielt“ werden. Gegenüber betrieblicher Verbesserungsarbeit zeichnet sich der wissenschaftliche Analyseprozess durch die Bildung abstrakter Modelle aus, die Aussagen mit einem relativ hohen Verallgemeinerungsgrad erlauben.
3.
Auf der Ebene der Theoriegeleiteten Praxis erörtern Menschen Geltungsansprüche, um Wissen zu bilden, mit dem sie soziale, technische und/ oder politische Probleme lösen können. Wird das akkumulierte Wissen zur Problemlösung verwendet, vollzieht sich der Übergang von der theoretischen zur theoriegeleiteten Praxis. Dabei ist es irrelevant, ob das Wissen nur zur empirischen Absicherung oder zur tatsächlichen Problemlösung eingesetzt wird. Die Rückkopplung zur Primären Praxis erfolgt genau dann, wenn sich die Problemlösungshandlungen bewähren und in (unproblematisch funktionierende) Routinen überführen lassen. In diesem Fall tritt der Aspekt der kritischen Erörterung/ Auseinandersetzung mit verschiedenen Geltungsansprüchen wieder in den Hintergrund. Solange keine (neuen) Probleme auftreten, haben die Akteure keine Veranlassung, sich in Distanz zu ihren Handlungen zu bringen – Sie tun die Dinge einfach!
18
Dazu werden (aus der Distanz) Geltungsansprüche zwischen Beobachter und Akteur in jedem Lebensbereich erörtert, und zwar in Bezug auf (a) Verständlichkeit der sprachlich vermittelten Aussagen des Akteurs, (b) Wahrheit der unterstellten Zweck-MittelRelationen des Akteurs, (c) Wahrhaftigkeit der Aussagen, d.h. der Akteur meint tatsächlich, was er sagt, und (d) Richtigkeit der Aussagen, d.h. die vom Akteur anvisierten Ziele sind legitim. Theoretische Praxis ist nicht mit Wissenschaft gleichzusetzen, da auch ein Wissenschaftler über (unreflektierte) Routinen verfügt; sie stellt eine institutionalisierte Form der theoretischen Praxis dar (vgl. Habermas 1973).
16
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
Am Beispiel des DMAIC-Zyklus, der im Rahmen von Six Sigma branchenübergreifend genutzt wird, lässt sich die geschilderte Situation gut nachvollziehen. Aufgrund der vielfach dokumentierten Erfolgsbeispiele und dem nachgewiesenen Wirkungsgrad wird der Problemlösungszyklus als institutionalisiertes Element von vielen Unternehmen unreflektiert übernommen. Zur Diskussion steht allenfalls der Einsatz bestimmter Methoden, welche die Projektarbeit (noch) effizienter gestalten sollen. Die unternehmensspezifischen Abweichungen im Methodeneinsatz tragen jedoch eher marginalen Charakter. Sie stellen das Gesamtkonzept Six Sigma zur prozessbezogenen Verbesserung nicht in Frage.
Theoriegeleitete TheoriegeleitetePraxis Praxis
„Wissensbasiertes Handeln“ des Akteurs zur Problemlösung bzw. zur Überprüfung der aufgestellten Theorie DFSS: Verbessern des DMADV-Zyklus auf der Basis analysierter + erkannter Ursachen-Wirkungsketten
Theoretische TheoretischePraxis Praxis
„Vorbereitendes Nachdenken“ d. Akteurs über situative Einflüsse des Erfolgs + abgeleiteter U-W-Beziehungen DFSS: Analysieren von DFSS-Projekten mit dem Ziel, Gründe für den Erfolg/ Misserfolg zu identifizieren
Primäre PrimärePraxis Praxis
„Alltagsweltliches Können“ des Akteurs führt zum Handeln/ Verhalten ohne theoretische Einsicht DFSS: Durchführen von DFSS-Projekten anhand des DMADV-Zyklus als „State of the art“-Vorgehensmodell
Basis: Scherer 2002, S. 26
Abb. 1-4:
Von der Primären Praxis zur Theoriegeleiteten Verbesserung des DFSSProblemlösungszyklus
Anders bei Design for Six Sigma: Hier kann der DMADV-Zyklus nicht ohne Weiteres als „unproblematisch funktionierende Routine“ bezeichnet werden. Unabhängig davon, von wo die Optimierungsanstrengungen ausgehen – Wissenschaft oder Praxis, ist ein „wissensbasiertes Handeln“ der Akteure zur Problemlösung notwendig, um zu einem verbesserten Vorgehensmodell zu gelangen. Ziel ist es, den DMADV-Zyklus theoriegeleitet so zu verändern, dass er aus Sicht der Betroffenen eine deutliche Verbesserung gegenüber dem bisherigen Vorgehen darstellt. Dies erhöht die Wahrscheinlichkeit, dass der überarbeitete DFSS-Zyklus als institutionalisiertes Element in die Primäre Praxis übernommen wird. Durch die Berücksichtigung der Ebene der Theoretischen Praxis soll darüber hinaus ein generischer Modellrahmen entwickelt werden, der es ermöglicht, praxisbezogene Problemlösungszyklen – auch außerhalb von DFSS – im Hinblick auf ihre Problemlösungsfähigkeit zu analysieren und ggf. theoriegeleitet zu verbessern.
1.2 Untersuchungs- und Forschungsdesign
1.2
17
Untersuchungs- und Forschungsdesign
1.2.1
Forschen im „mode 2“ – Verbindung von rigour und relevance
Nach Whitley (1985, S. 7) ist die praktische Relevanz von Wissenschaft kein vordergründiges, sondern eher ein nachgeordnetes, technisches Problem. Denn Wissenschaft und Praxis finden in erster Linie dadurch zueinander, dass eine geeignete soziale Infrastruktur als vermittelnde „Brücke“ zwischen wissenschaftlicher und praktischer Ebene vorliegt. Er und andere Forscher vertreten deshalb die These, dass wissenschaftliche Akzeptanz („rigour“) und praktische Relevanz („relevance“) sich nicht ausschließen müssen, sondern grundsätzlich miteinander vereinbar sind. Im Bereich Six Sigma ist dieser Brückenschlag nur z.T. gegeben. Wissenschaft bezog sich hier in der Vergangenheit in erster Linie auf die Beschreibung der Anwendung und Umsetzung des Managementkonzeptes. Auf der Basis von Unternehmensbefragungen und der Auswertung von Fallstudien wurde versucht, die Anwendungsvoraussetzungen für eine erfolgreiche Six Sigma-Implementierung zu eruieren (vgl. z.B. die Befragungsergebnisse von Schmieder 2003/ 05 sowie die Benchmarking-Resultate von DynCorp 2003). Verbesserungen und Weiterentwicklungen des Konzeptes gehen maßgeblich von beratenden Gesellschaften und/ oder den Six Sigma-Anwendern selbst aus. Beispielhaft ist zum einen der von der GEORGE GROUP (2003) entwickelte Lean Six Sigma-Ansatz19 zu nennen. Zum anderen gibt es Bestrebungen, Six Sigma mit bestehenden Betriebssoftware-Systemen, z.B. SAP R/3, zu kombinieren (vgl. Burton/ Sams 2005, S. 48ff.). Die Orientierung an praktischen Problemlösungen, inkl. der Weitergabe von mehr oder weniger wissenschaftlich fundierten Handlungsempfehlungen, stehen dabei naturgemäß im Vordergrund. Die praktische Relevanz von Managementwissenschaften, in der die vorliegende Arbeit verankert ist, wird seit einigen Jahren, vor allem in den USA, intensiv diskutiert (vgl. z.B. Huff 2000; Rynes et al. 2001). Viele Diskurse zum TheoriePraxis-Verhältnis gehen dabei auf die Arbeit von Gibbons et al. (1994) zurück. Die Kernforderungen des von ihnen vertretenen „mode 2“-Konzeptes sind •
die Auflösung der Grenzen zwischen wissenschaftlicher und unternehmensbezogener Kommunikation sowie
•
die simultane Orientierung an praktischer Problemlösung und wissenschaftlicher Analysegenauigkeit.
19
In jüngster Zeit gibt es eine verstärkte Tendenz zu „Lean Six Sigma“. Dabei geht es in erster Linie um eine konsequente Kombination der Philosophie des Lean Production im Sinne des Toyota-Produktions-Systems (TPS) mit dem von Motorola, General Electric, Siemens et al. erfolgreich eingeführten und angewandten Six Sigma-Projektmanagements (vgl. Töpfer/ Günther 2007a, S. 26). Ziel ist es, die Wirtschaftlichkeit des gesamten Verbesserungswesens im Unternehmen zu erhöhen.
18
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
Ziel ist es, von einem theorieorientierten, auf wissenschaftlichen Kommunikationsgewohnheiten basierenden „mode 1“ der Wissensproduktion zu einem praxisorientierten, auf Probleme der Praktiker ausgerichteten „mode 2“ zu gelangen. In Abb. 1-5 ist das dominierende Schema zur Klassifizierung unterschiedlicher Forschungstypen in den Sozial- und Wirtschaftswissenschaften dargestellt. Es basiert auf einen viel zitierten Artikel der drei Forscher Anderson/ Herriot/ Hodgkinson (2001, S. 395) und hilft bei der Einordnung der vorliegenden Arbeit.
Hoch
Quadrant 1: „Popularist Science“
Quadrant 2: „Pragmatic Science“ Mode 2: Analyse von „Six Sigma“ mit methodischer Stringenz und praktischer Relevanz
Praktische/ wirtschaftliche Relevanz
Quadrant 4: „Puerile Science“
Quadrant 3: „Pedantic Science“
Niedrig Niedrig
Theoretische/ methodische Exaktheit
Hoch
Basis: Anderson/ Herriot/ Hodgkinson 2001, S. 395
Abb. 1-5:
Einordnung der Dissertationsschrift in die Forschungstypologie nach Anderson/ Herriot/ Hodgkinson (2001)
Die Einteilung unterschiedlicher Wissenschaftsströmungen erfolgt nach den zwei Dimensionen „Theoretische/ methodische Exaktheit“ sowie „Praktische/ wirtschaftliche Relevanz“. Durch Zuordnung der Merkmalsausprägungen „Niedrig“ und „Hoch“ zu jeder Dimension ergibt sich ein Vier-Quadranten-Schema, anhand dessen wissenschaftliche Arbeiten und Aufsätze auf dem Gebiet der Sozial- und Wirtschaftswissenschaften verankert werden können: •
Quadrant 1: „Popularist Science“: Das populärwissenschaftliche Feld umfasst u.a. Beiträge von Unternehmensberatern, die sich um die Verbreitung von bestimmten Konzepten, auch als Managementmoden bezeichnet, bemü-
1.2 Untersuchungs- und Forschungsdesign
19
hen. Besonderer Wert wird auf die praktische Relevanz, Aktualität und Popularität gelegt; das wissenschaftliche Vorgehen steht im Hintergrund. •
Quadrant 2: „Pragmatic Science“: Zur pragmatischen Wissenschaft gehören alle anwendungsorientierten Forschungsarbeiten auf dem Gebiet der Managementwissenschaften. Das Ziel einer „guten Wissenschaft“ besteht darin, sowohl „streng/ exakt“ in Bezug auf die theoretischen und methodischen Grundlagen als auch „relevant/ verwertbar“ in Bezug auf die anvisierten Stakeholder, z.B. Manager, Mitarbeiter und Kunden, zu sein. Im Vordergrund steht ein direkter Theorie-Praxis-Bezug, wie er auch in dieser Arbeit unmittelbar verfolgt wird (vgl. Hodgkinson et al. 2001, S. S46).
•
Quadrant 3: „Pedantic Science“: Zum Feld der exakten Wissenschaft gehören in erster Linie akademische Disziplinen, die heute als feste Institutionen im Wissenschaftsbetrieb gelten, z.B. Arbeits- und Organisationspsychologie. Die vormals zumeist praxisorientierten Disziplinen wurden im Zuge der Akademisierung immer technischer, eigendynamischer und für die Allgemeinheit unverständlicher. Die Wissenschaft wird dann „pedantisch“.
•
Quadrant 4: „Puerile Science“: Als nutzlose Wissenschaft bezeichnet man jene Forschungsbemühungen, die primär den Anschein des „kindlichen, verspielten“ tragen. Sie werden oftmals nur aufgrund von Begutachtungsprozessen in Fachzeitschriften legitimiert. Weder die „Praktische Relevanz“ noch der „Theoretische Anspruch“ spielen hierbei eine herausragende Rolle.
Die abgeleiteten Forderungen aus dem viel beachteten „mode 2“-Konzept von Gibbons et al. (1994) sind in den Managementwissenschaften bislang wenig erfolgreich geblieben. Insbesondere gibt es Hinweise darauf, dass die Managementwissenschaften der gestellten Anforderung eines Ausgleichs zwischen Theorie und Praxis nicht gerecht wird und es stattdessen zu einem Trade-off zwischen „rigour“ und „relevance“ kommt (vgl. hierzu und im Folgenden Nicolai 2004, S. 103ff.). Wie empirische Studien nahe legen, geht die wissenschaftliche Akzeptanz i.d.R. auf Kosten der praktischen Relevanz und umgekehrt. Es wird immer nur einer Richtung nachgegangen/ entsprochen, also entweder methodischer „Strenge“ oder praktischer Relevanz, aber nicht beiden zugleich (vgl. Shrivastava 1987). Infolgedessen sind wissenschaftliche Artikel, die von Wissenschaftlern in renommierten Journalen veröffentlicht werden, nach wie vor nur schwer von Praktikern „konsumierbar“. Als Grund für diese Entwicklung lassen sich system- und problemtheoretische Erklärungsansätze angeben (vgl. Gopinath/ Hofman 1995). Bei der Bewertung von Managementkonzepten, wie z.B. Six Sigma, fallen Theorie- und Praxissicht häufig auseinander, da es kein einheitliches Effizienzkriterium gibt. In der Praxis existiert die Vorstellung eines „Marktes von Problemlösungstechniken“, die in unmittelbarer Konkurrenz zueinander stehen. Eine hohe Verbreitung von bestimmten Techniken wird als Indiz für eine hohe wissenschaftliche Validität angesehen. Hier liegt die Annahme zugrunde, dass sich das beste auf dem Markt verfügbare Konzept im Wettbewerb durchsetzt (vgl. Marcus et al.
20
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
1995). In der Wissenschaft existiert demgegenüber eine klare Vorstellung über die Definition von Effizienz und Effektivität zur Messung des Erfolgs von Problemlösungstechniken. Diese erfolgt auf theoretischer Grundlage und in enger Rückbindung an das bestehende Publikationsnetzwerk.20 Nach dem bekannten Philosophen und Wissenschaftstheoretiker KARL R. POPPER (1902-1994), auf den die Methodenlehre des Kritischen Rationalismus zurückgeht, kann die Wissenschaft jedoch keine endgültigen wahren Theorien/ Aussagen hervorbringen (vgl. Popper 1935, 1969). Vielmehr kann sie lediglich Vorschläge zur Problemlösung machen, die auf theoretischen Konzepten basieren. Diese sind aber jeweils als vorläufig anzusehen. Entsprechend dem Prinzip von Versuch und Irrtum steht nicht die Bestätigung (Verifizierung), sondern die Widerlegung (Falsifizierung) der aus den Theorien abgeleiteten Hypothesen im Vordergrund. Unter dieser Sichtweise ist die Wissenschaft dazu angehalten, über die Zeit immer neuere und bessere Problemlösungsvorschläge zu entwickeln (Prinzip der schöpferischen Zerstörung). Dies bezieht sich nicht nur auf die naturwissenschaftliche Forschung, sondern auch auf den hier betrachteten Untersuchungsgegenstand „Managementkonzepte für Unternehmen“ (vgl. Töpfer 2007a, S. 18ff.). Um zu neuen wissenschaftlichen Erkenntnissen über den Untersuchungsgegenstand zu gelangen, existieren aus wissenschaftstheoretischer Sicht genau genommen zwei Ansätze. Der erste Ansatz geht von der Annahme aus, dass ein grundsätzlich Theorie-geleiteter Wissenschaftszugang möglich ist, bei dem die „Handlungspraxis der Menschen“ durch die explizite und/ oder implizite Anwendung von Theorien geleitet wird. Beispiele für theorieabhängige wissenschaftstheoretische Ansätze/ Positionen sind der o.g. „Falsifikationismus“ nach Popper und die „Forschungsprogramme“ nach IMRE LAKATOS (1922-1974). Der zweite Ansatz geht demgegenüber von einem Praxis-geleiteten Wissenschaftszugang aus, bei dem – auf erster Stufe – ein theorieunabhängiges Handeln und Verhalten der Akteure (Forscher) unterstellt wird (vgl. Scherer 2002, S. 26). Auf „alltagsweltliches Können“ als Basis für strukturiertes, methodisches Denken stellt z.B. der „(Neue) Experimentalismus“ nach DEBORAH G. MAYO (1996) ab. Nach dieser sind für wissenschaftliche Revolutionen, d.h. die Entdeckung grundlegend neuer wissenschaftlicher Zusammenhänge, keine großangelegten Änderungen in den theoretischen Annahmen/ Bezugspunkten notwendig. Vielmehr ist wissenschaftlicher Fortschritt mit dem kontinuierlichen Zuwachs an experimentellem Wissen gleichzusetzen. Unabhängig vom zugrunde liegenden Wissenschaftsverständnis gilt der bekannte Ausspruch von Popper (1969, S. 71).: „Die Erkenntnis beginnt nicht mit der Wahrnehmung, Beobachtung oder Sammlung von Daten 20
Probleme ergeben sich insoweit, als dass (a) beim Messvorgang nicht alle unabhängigen Variablen erfasst werden (können) und (b) die Performance als abhängige Variable nur im Zusammenhang mit einer bestimmten Auswahl unabhängiger Variablen, die aus dem zugrunde gelegten theoretischen Modell abgeleitet sind, gemessen wird (vgl. March/ Sutton 1997; Nicolai/ Kieser 2002).
1.2 Untersuchungs- und Forschungsdesign
21
oder Tatsachen, sondern sie beginnt mit Problemen [...] und ihren Lösungsversuchen durch Hypothesenbildung, Theorien und/ oder Vermutungen.“ Die Probleme, welche in unserem Fall als Ausgangspunkt der Forschungsbemühungen dienen, ergeben sich aus der Übertragung des Managementkonzeptes Six Sigma auf den F&E-Bereich von Unternehmen (vgl. Abschnitt 1.2.2). Folgt man dem Praxis-geleiteten Wissenschaftszugang, dann stellen sowohl persönliche Erfahrungen des Forschers als auch empirische Fakten, die durch (sorgfältige und unvoreingenommene) Beobachtungen und/ oder Experimente gewonnen werden, die Grundlage des wissenschaftlichen Erkenntnisprozesses dar.21 Nach induktivistischem Prinzip werden diese direkt zur Ermittlung von (universellen) Gesetzmäßigkeiten und Theorien herangezogen, wobei das Prinzip der logischen (validen) Induktion angewendet wird (vgl. hierzu und im Folgenden Chalmers 1999, S. 41ff.). Aus den so gewonnenen, allgemeingültigen Aussagensystemen werden anschließend Erklärungen und Vorhersagen deduziert sowie Gestaltungsempfehlungen für die Praxis abgeleitet. Im Ergebnis liegt eine „Theoriegeleitete Praxis“ vor, auf die im vorliegenden Fall systematisch hingearbeitet wird. Dem deduktivistischen Prinzip, bei dem die Theorie als allgemeines Aussagensystem den Ausgangspunkt bildet, um wissenschaftliche Aussagen (Fakten) logisch und systematisch herzuleiten, wird nicht an erster Stelle gefolgt. Dies wird im Zusammenhang mit der Struktur der Arbeit und dem Untersuchungsdesign, auf das im Folgenden näher eingegangen wird, unmittelbar deutlich. 1.2.2
Konzeptionelle Grundlagen und inhaltliche Vernetzung
Nach der Vorstellung von Anderson et al. (2001) hat die Wissenschaft zuallererst eine aufklärende Funktion. Dabei sollte es möglich sein, durch den Übergang von Quadrant 1 („Popularist Science“) in Quadrant 2 („Pragmatic Science“), Managementmoden, wie z.B. Lean Six Sigma, die in der Praxis einen starken Zuspruch erfahren, auf wissenschaftlicher Basis zu überprüfen und ggf. durch bessere Konzepte zu ersetzen. Nach obigen Ausführungen besteht hier jedoch die Gefahr, dass es beim Versuch, von Quadrant 1 in Quadrant 2 zu wechseln, unweigerlich zu einem Sprung in Quadrant 3 („Pedantic Science“) kommt. Aus einer praxisorientierten Forschung wird unmittelbar eine theoretische, die im wissenschaftlichen Publikationsnetzwerk fest verankert ist (vgl. Nicolai 2004, S. 107). Die Vertreter dieses Trade-off-Gedankens begründen ihre These damit, dass sich die Wissenschaft von den Erfolgskriterien der Praxis zunächst lösen muss, bevor ein wissenschaftlicher Analyseprozess einsetzen kann. Durch die Festlegung eigener, theoriebasierter Effizienz-/ Effektivitätskriterien besteht jedoch unmittelbar die Gefahr, dass der Praxisbezug schrittweise verloren geht. 21
Neben einer möglichst großen Anzahl von Beobachtungen/ Experimenten in unterschiedlichen Situation basiert die Ableitung von Theorien/ Gesetzmäßigkeiten auf dem explizit und/ oder implizit vorhandenen Erfahrungswissen des Forschers. Dieses entstammt zu einem großen Teil der „Primären Praxis“ (vgl. Abschnitt 1.2.1).
22
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
In vielen Fällen kommt es zu einem immer stärker werdenden Auseinandertriften der beiden Kommunikationssysteme. Aufgrund der selbstreferentiellen Eigendynamik wissenschaftlicher Kommunikation nimmt die Verzahnung von Erklärungsund Gestaltungsfunktion eher ab als zu. Ist das Thema „Six Sigma“ erst einmal im Wissenschaftsbetrieb angekommen, dann ist fortan mit einem ansteigenden Verlust an praktischer Relevanz zu rechnen. Während praxisorientierte Berater dazu tendieren, Probleme von Klienten in der Weise zu definieren, dass sie möglichst gut auf die ihnen zur Verfügung stehenden Lösungskonzepte passen (vgl. Bloomfield/ Danieli 1995), also z.B. Einsatz von Six Sigma zur Verbesserung der Prozess- und Produktqualität in Richtung Null-Fehler-Qualität, ergründen wissenschaftliche Beobachter zunächst den Wahrheitsgehalt der Probleme, die sie von Praktikern präsentiert bekommen, und zwar unter Rückgriff auf ein bestimmtes Wissenschaftsnetzwerk. Dies führt dazu, dass das Ausgangsproblem im Zuge der Publikationstätigkeit und dem einsetzenden Prozess der Problemevolution nach und nach aus dem Blickfeld gerät (vgl. Nicolai/ Kieser 2002). Als Kompromisslösung wird deshalb die relative Autonomie von „mode 1“ und „mode 3“ anstelle der Verschmelzung von Theorie und Praxis im „mode 2“ gefordert.22 Dieser Ansatz soll in der vorliegenden Arbeit insoweit Berücksichtigung finden, dass bei der Analyse der beiden Vorgehensmodelle – DMAIC- und DMADV-Zyklus – zwischen zwei Untersuchungsebenen, nämlich Theorie- und Praxisebene bzw. Realitäts- und Abstraktionsebene, unterschieden wird. Wie an der Struktur der Arbeit in Abb. 1-6 ersichtlich ist, wird der Übergang zwischen den beiden Ebenen einerseits durch das Prinzip der Induktion (Praxis-TheorieTransformation) sowie andererseits durch das Prinzip der Deduktion (TheoriePraxis-Transformation) erreicht. Die Untersuchung erfolgt im Rahmen von 6 Kapiteln, deren Inhalte im Folgenden kurz skizziert sind. Im einleitenden 1. Kapitel wurde zunächst die Bedeutung und Relevanz des Themas sowie die Vorgehensweise erläutert. Nach Vorstellung des Forschungsdesigns und Ableitung der Hypothesen erfolgt im 2. Kapitel eine Einordnung von Six Sigma als Managementkonzept zur Erzielung von Null-Fehler-Qualität. In diesem Zusammenhang wird ein relativer Vergleich mit anderen bekannten QM-Konzepten zur Erhöhung der Prozess- und Produktqualität vorgenommen. Anschließend wird der Frage nachgegangen, ob es sich bei Six Sigma respektive Design for Six Sigma um ein nachhaltiges Konzept zur Steigerung der Unternehmensperformance handelt, oder doch eher um eine Modeerscheinung, die von Unternehmen aufgrund von Legitimationsaspekten eingesetzt wird. 22
Die Vorteile, die aus einer Beibehaltung der Grenzen zwischen kritisch beobachtendem und analysierendem Wissenschaftler und aktiv beteiligtem und handelndem Praktiker folgen, sind vielschichtig. Zum einen mündet das Engagement des Wissenschaftlers nicht in eine „Verwissenschaftlichung“ von Praxis. Die Wissenschaft läuft im Hintergrund ab, so dass der Forscher nicht vom sozialen System der Praxis „absorbiert“ wird. Zum anderen ist die managementwissenschaftliche Betrachtung unabhängig von vordefinierten Problemen und Lösungen der Praxis (vgl. Luhmann 1994, S. 645).
1.2 Untersuchungs- und Forschungsdesign
1 1
23
Möglichkeiten und Grenzen des Einsatzes von DFSS im Produktentstehungsprozess 1.1 Problemstellung und Zielsetzung 1.2 Untersuchungs- und Forschungsdesign
2
Six Sigma – Zeitgemäßes Managementkonzept für Null-Fehler-Qualität
3
2.1 Dimensionen des Begriffs Managementkonzept
3.1 Qualität und Innovation – Begriffe 3.2 Vorgehensmodelle für Innovationen und Null-Fehler-Qualität
2.2 Managementkonzepte zur Verbesserung der Prozess-/ Produktqualität 2.3 „Weiche Hülle“ und „Harter Kern“ von Managementkonzepten
5
Theorie-Praxis-Transformation als deduktive Vorgehensweise: Vom abstrakten zum konkreten Vorgehensmodell 5.1 DMAIDV-Zyklus als erweiterter DFSSProblemlösungszyklus 5.2 IESRM-Zyklus als Anwendung Evolutionärer Algorithmen
Praxis-Theorie-Transformation als induktive Vorgehensweise: Vom konkreten zum abstrakten Vorgehensmodell
3.3 Six Sigma Verbesserungszyklen: DMAIC & DMADV 3.4 Formal-analytische Beschreibung der Verbesserungszyklen
4
Mathematische Vorgehensmodelle zur funktionellen Optimierung und Lösung schwieriger ökonomischer Probleme 4.1 Algorithmen/ Heuristiken – Begriffe 4.2 Klassische Algorithmen 4.3 Evolutionäre Algorithmen
5.3 Empirische Überprüfung an Beispielen
6
Zusammenfassung, Schlussfolgerungen und Ausblick
Quelle: Eigene Darstellung
Abb. 1-6: Struktur der Arbeit
Das 3. Kapitel gibt zunächst einen generellen Überblick über wesentliche Effektivitätskriterien (Erfolgsfaktoren) von F&E-Projekten: Generierung von Innovationen und Erreichung von Null-Fehler-Qualität. Im Anschluss wird analysiert, wie diese Kriterien im Unternehmen mithilfe von Vorgehensmodellen aus dem Gebiet des Innovations- und Qualitätsmanagements dauerhaft und nachhaltig erfüllt werden können. Die Analyse findet ihre Fortsetzung am Beispiel der Verbesserungszyklen von Six Sigma; die Inhalts- und Vorgehensbeschreibung erfolgt sowohl am realen als auch am abstrakten Modell. Letzteres orientiert sich am Vorgehen bei der Optimierung einer zweigipfligen Funktion der Form y = f(x). Auf dieser Grundlage werden im 4. Kapitel verschiedene mathematische Vorgehensmodelle zur funktionellen Optimierung und Lösung schwieriger, d.h. schlecht strukturierter Probleme vorgestellt und diskutiert. Sie bilden den Ausgangspunkt für die Suche nach einem neuen, verbesserten DFSS-Problemlösungszyklus. Die eingehende Beschäftigung mit klassischen mathematischen Optimierungsalgorithmen führt zu der Erkenntnis, dass der DMADV-Zyklus um die Phase Innovate
24
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
nach Analyse zu erweitern ist. Über die Untersuchung der Lösungsprinzipien von evolutionären Algorithmen gelangt man im zweiten Schritt zu einem gänzlich neuen Vorgehensmodell, dem IESRM-Zyklus. Beide Vorgehensmodelle werden im 5. Kapitel operationalisiert. Analog der Beschreibung des DMAIC-/ DMADVZyklus in Kapitel 3 werden die Ziele und Inhalte der einzelnen Phasen sowie die zur Zielerreichung vorzugsweise einzusetzenden (QM-)Methoden erläutert. Im Rahmen einer Wirtschaftlichkeitsbetrachtung wird anschließend gezeigt, dass die abgeleiteten Vorgehensmodelle dem bisherigen DMADV-Zyklus überlegen sind, und zwar sowohl in Bezug auf die Effizienz der Lösungssuche als auch in Bezug auf die Effektivität der Eingrenzung des Optimums. Die empirische Überprüfung erfolgt explorativ anhand von zwei Beispielen: (1) Optimierung der Flugzeit eines Papier-Rotors (Laborexperiment) und (2) Optimierung der Kehreigenschaften eines Straßenbesens (Unternehmens-Fallstudie). Im abschließenden 6. Kapitel werden die Untersuchungsergebnisse kurz zusammengefasst und kritisch bewertet. Außerdem wird ein Ausblick auf sinnvolle Weiterentwicklungen auf dem Gebiet von Design for Six Sigma gegeben. Dringliche Forschungsbedarfe, die sich aus der Analyse der aktuell verwendeten Vorgehensmodelle im F&E-Bereich ergeben, werden aufgezeigt. In Abb. 1-7 sind die Konzeption sowie die inhaltlichen Schwerpunkte der Dissertationsschrift im Detail dargestellt (Untersuchungsdesign). Das Vorgehen der Untersuchung orientiert sich am eingangs vorgestellten Problemlösungsfluss bei Six Sigma-Projekten (siehe Abb. 1-1). Dieser ähnelt dem allgemeinen Lösungsmuster widerspruchsorientierter Problemlösungstechniken, wie z.B. TRIZ23, die darauf ausgerichtet sind, aus technisch-naturwissenschaftlichen Phänomenen/ Erkenntnissen synergetische Effekte für innovative (Produkt-)Lösungen abzuleiten (vgl. Günther 2004, S. 1). Durch (mehrmaliges) Durchlaufen der fünf Schritte: (1) Definition des realen Problems, (2) Abstraktion des realen Problems, (3) Suchen der abstrakten Lösung, (4) Beschreiben der abstrakten Lösung und (5) Spezifikation der realen Lösung soll ein strukturierter Denkprozess in Gang gesetzt werden, der beim Auffinden neuartiger Lösungen hilft (vgl. auch Abschnitt 5.1.2). Im Untersuchungsdesign werden die fünf Schritte ebenenübergreifend vernetzt, und zwar zum einen bezogen auf den Problemlösungsprozess (horizontal) und zum anderen bezogen auf das Abstraktionsniveau (vertikal). Die Abstraktion und Spezifikation der Vorgehensmodelle ist durch entsprechende Pfeile gekennzeich23
Russ. Akronym für „Theorija Reshenija Izobretatjelskich Zadacz“
1.2 Untersuchungs- und Forschungsdesign
25
net; die inhaltliche Vernetzung der einzelnen Untersuchungsbereiche wird durch Verbindungslinien markiert. Der Problemlösungsfluss erstreckt sich – unabhängig von der Betrachtungsebene – über die fünf Schritte. Die Inhaltsbereiche der einzelnen Schritte stehen in einem sachlogischen Zusammenhang, der im Folgenden – jeweils getrennt nach Realitäts- und Abstraktionsebene – analysiert wird; die Verknüpfung der zwei Ebenen erfolgt über einen Analogieschluss. (1) Definition des realen Problems Die Definition des Problems bildet den Ausgangspunkt des wissenschaftlichen Analyseprozesses. Die Problemstellung, die hier zugrunde gelegt wird, ist die Bereitstellung effektiver, d.h. wirksamer Vorgehensmodelle zur Verbesserung von Produkten/ Prozessen. Unter Berücksichtigung der unterschiedlichen Anforderungen in den einzelnen Wertschöpfungsbereichen des Unternehmens sollen jeweils adäquate Problemlösungszyklen bereitgestellt werden. Nach Pleschak/ Sabisch (1996, S. 28) sollte die Problemformulierung als Mindestangaben den Ist-Zustand, den Soll-Zustand, die (langfristige) Zielsetzung sowie den zwischen Ist- und SollZustand bestehenden Widerspruch bzw. Konflikt enthalten. Bei (Design for) Six Sigma ist der Ist-Zustand dadurch gekennzeichnet, dass – in Abhängigkeit von der Aufgabenstellung im Unternehmen – zwei Problemlösungszyklen zur Verfügung stehen (siehe Abb. 1–7 (Teil 1/1)). Wie oben bereits ausgeführt, unterscheiden sich DMAIC- und DMADV-Zyklus im Hinblick auf die Effektivität der Lösungssuche z.T. signifikant. In vielen Fällen ist die Ergebnisqualität, die mit dem DMADV-Zyklus erreicht werden kann, deutlich schlechter als die bei Anwendung des DMAIC-Zyklus. Vor diesem Hintergrund ist der Soll-Zustand dadurch gekennzeichnet, dass ein Problemlösungszyklus vorliegt, der einen höheren Zielerreichungsgrad besitzt als der jetzige DMADV-Zyklus und folglich dem Anspruch des „Design for Six Sigma“ eher gerecht wird. Die langfristige Zielsetzung besteht darin, den Six Sigma-Anwendern einen effektiven Verbesserungszyklus für den F&E-Bereich zu präsentieren, der eine mit der Anwendung des DMAIC-Zyklus in der Produktion vergleichbare Erfolgsrate und Ergebnisqualität besitzt. Zwischen Ist-Zustand und angestrebtem Soll-Zustand besteht ein Widerspruch, der aus dem in der betrieblichen Praxis häufig zu beobachtenden Trade-off zwischen Wirtschaftlichkeit (Effizienz) und Zielerreichungsgrad (Effektivität) resultiert. Bei der Suche nach einem verbesserten DFSSProblemlösungszyklus ist infolgedessen darauf zu achten, dass die Erhöhung der Effektivität nicht zu Lasten der Effizienz geht.24
24
Ein Six Sigma-Projekt gilt als effizient, wenn sich die Netto-Einsparungen (Net Benefit) innerhalb eines Jahres nach Projektende auf ca. 125.000 € summieren. Der Zeitraum für die Durchführung des Projektes sollte dabei nicht mehr als 6 Monate betragen und das Team, inkl. Projektleiter, nicht mehr als fünf Personen umfassen (vgl. Töpfer 2007b, S. 236). Entsprechende Zahlen für die Durchführung von DFSS-Projekten liegen bis dato nicht vor. Erfahrungsberichte aus der Praxis legen aber nahe, dass der
26
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
Im Weiteren ist zu klären, welche (realen) Aufgaben im Unternehmen mit der Problemstellung in Zusammenhang stehen respektive diese im Einzelnen betreffen. Bei der Bearbeitung von wissenschaftlich-technischen Problemen, zu denen auch die Entwicklung neuer Methoden/ Verfahren zählt, hat sich das Prinzip der verbindlichen Aufgabenstellung bewährt (vgl. Pleschak/ Sabisch 1996, S. 28). Die Erarbeitung der Aufgabenstellung zur Problemlösung umfasst üblicherweise die vier Schritte Aufgabenfindung, -bewertung, -formulierung und -bestätigung. Ausgehend von der genannten Problemstellung lassen sich im Wesentlichen zwei Arten von Optimierungsaufgaben in Unternehmen differenzieren. (1a) Zum einen streben Unternehmen danach, durch die Entwicklung neuer Produkte und Verfahren ihren Fortbestand in der Zukunft zu sichern. Nur durch die regelmäßige Einführung von Produkt- und Prozessinnovationen können Unternehmen langfristig am Markt bestehen (vgl. u.a. Schlicksupp 2004, S. 9ff.). Diese Aufgabenstellung wird im Rahmen der Dissertation vordergründig behandelt, und zwar bezogen auf die Anforderungen von Design for Six Sigma. (1b) Zum anderen sind Unternehmen darum bemüht, am Markt eingeführte, bereits bestehende Produkte und Prozesse kontinuierlich zu verbessern. Im Rahmen der Produktpflege soll nach und nach ein höheres Qualitäts-/ Nutzenniveau erreicht werden, um so die Wettbewerbsfähigkeit zu sichern respektive zu steigern. Diese Aufgabe ist im Vergleich zu (1a) deutlich einfacher zu meistern, da jeweils nur Teilbereiche analysiert und optimiert werden. Managementkonzepte, die in der Unternehmenspraxis beliebt sind und dort eine starke Verbreitung gefunden haben, zeichnen sich durch effektive Problemlösungszyklen aus, die auf eine breite Palette von Problemstellungen im Unternehmen anwendbar sind. So ist z.B. der DMAIC-Zyklus im Rahmen von Six Sigma nicht auf die Behebung von Qualitätsproblemen in der Produktion beschränkt. Vielmehr bezieht sich sein Anwendungsgebiet auf eine ganze Reihe von Problemstellungen im Unternehmen, z.B. Durchlaufzeiten-Minimierung in der Fertigung, Kosten-Minimierung in der Administration/ Verwaltung, Maximierung der Zuverlässigkeit im IT-Support. Was der DMAIC-Zyklus für Six Sigma bedeutet, ist – im übertragenen Sinn – der PDCA-Zyklus für KVP und der DMADV-Zyklus für Design for Six Sigma. Sie sind der „harte Kern“ eines nach außen hin legitimierten Managementkonzeptes. Für Führungskräfte und/ oder Mitarbeiter stellen sie eine Art „Kochrezept“ dar, anhand dessen sie Probleme schnell und nachhaltig lösen können. Im Fall des DMADV-Zyklus wird dieser Anspruch nur teilweise erfüllt, was dazu führt, dass seit geraumer Zeit alternative Vorgehensmodelle diskutiert und umgesetzt werden (vgl. Abschnitt 1.1.2): •
Um sich gegenüber den maßgeblichen Wettbewerbern im Markt zu behaupten, sind von Seiten des Unternehmens kontinuierlich Verbesserungsmaßoben genannte Projektumfang/ -aufwand auch für DMADV-Pojekte im großen und ganzen zutrifft (vgl. z.B. Dorff/ Töpfer 2007, S. 526ff.).
1.2 Untersuchungs- und Forschungsdesign
27
nahmen einzuleiten. Dadurch wird verhindert, dass das Unternehmen in seiner Entwicklung auf einem bestimmten Kosten- und/ oder Qualitätsniveau stehen bleibt und so Gefahr läuft, den Anschluss an den Wettbewerb zu verpassen. In Abhängigkeit von der Philosophie und der strategischen Ausrichtung des Unternehmens kann die konkrete Zielsetzung einerseits darin bestehen, kontinuierlich besser zu werden. Dabei erfolgt die Weiterentwicklung von Prozessen und Produkten in kleinen, marginalen Schritten. Als institutionalisiertes Element25 kommt der Kontinuierliche Verbesserungsprozess (KVP) zum Einsatz (vgl. Masing 1999, S. 9ff.). Auf der Abstraktionsebene entspricht diese Form der Verbesserung der ständigen Suche nach einer verbesserten Lösung für das o.g. mathematische Optimierungsproblem. In der Unternehmensrealität geht es um die Optimierung des „Magischen Dreiecks“. •
Im Gegensatz zu Unternehmen, die sich der jap. Kaizen-Philosophie verschrieben haben und an KVP festhalten, streben Unternehmen, die Six Sigma praktizieren, nach signifikanten Verbesserungen in relativ kurzen Zeiträumen. Durch die Anwendung des DMAIC-Zyklus sollen projektbezogen „Verbesserungen in Quantensprüngen“ innerhalb von 3 bis 6 Monaten erreicht werden (vgl. Töpfer/ Günther 2007a, S. 18). Umfassende und weitreichende Veränderungen von Organisationsstrukturen und -abläufen in wenigen Monaten stehen auch bei Business Process Reengineering (BPR) im Vordergrund (vgl. Abschnitt 2.2.2). Die Verbesserungsaktivitäten konzentrieren sich bei beiden Ansätzen auf die Erhöhung des Qualitätsniveaus unter Berücksichtigung des Wirtschaftlichkeitsprinzips. Betrachtet man das Vorgehen aus der Sicht der mathematischen Optimierung, dann besteht die abstrakte Zielsetzung in der Suche nach dem nächstliegenden, lokalen Optimum bei einer – bekannten oder unbekannten – Zielfunktion der Form y = f(x1, x2, ..., xn).
•
Bei der Entwicklung eines neuen Produktes/ Prozesses besteht das Ziel vordergründig darin, einen „großen Sprung nach vorn“ zu machen bzw. eine radikale Verbesserung zu erreichen. Um Produkt- und/ oder Prozessinnovationen zu generieren, sollen in relativ kurzer Zeit möglichst große Veränderungen an Produkten/ Prozessen vorgenommen werden, die zu einer besseren Erfüllung der (zukünftigen) Kundenanforderungen führen. Das „klassische Vorgehen“, um dieses Ziel zu erreichen, besteht darin, einen Produktentstehungsprozess (PEP) zu definieren, nach dem neue Produkte/ Prozesse systematisch zu entwickeln sind. Dazu werden die zu durchlaufenden Phasen und anzuwendenden Methoden verbindlich festgelegt. In Six Sigma-Unternehmen wird diese Form des F&E-Projektmanagements durch den DFSS-Ansatz er-
25
Walgenbach/ Beck (2003) präsentieren umfangreiche empirische Befunde zur Übernahme der ISO 9000 als institutionalisiertes Element in erwerbswirtschaftliche Organisationen aufgrund von internen Effizienzüberlegungen und/ oder externem Anpassungsdruck. Ihre Hauptthese geht dabei dahin, dass die Ausgestaltung der formalen Organisationsstruktur aufgrund institutionalisierter Erwartungen in der Organisationsumwelt erfolgt; Effizienzüberlegungen bei der Einführung der ISO 9000 in Unternehmen spielen in vielen Fällen eine untergeordnete Rolle.
28
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
gänzt (siehe z.B. Unternehmen wie Daimler, Bosch und Siemens).26 Als Grundlage für die Planung und Steuerung von Aktivitäten im Entwicklungsprozess dienen spezifische Vorgehensmodelle, z.B. DMADV-Zyklus. (2) Abstraktion des realen Problems Nach dem oben beschriebenen Prozess der Problemlösung ist das reale Problem im zweiten Schritt zu abstrahieren. In unserem Fall findet sich eine vergleichbare Problemstellung auf dem Gebiet der mathematischen Optimierung. Hier geht es um die Bereitstellung mathematischer Algorithmen/ Heuristiken zur Lösung komplexer Probleme. Bei letzteren handelt es sich i.A. um schlecht strukturierte bzw. strukturierbare mathematische Probleme, die somit gar nicht oder nur schwer auf analytischem Weg lösbar sind. Selbst komplizierte Rechenverfahren reichen häufig nicht aus, um die Optimallösung einer beliebigen, nicht-linearen Optimierungsfunktion y = f(x1, x2, ..., xn) zu bestimmen. Um zumindest eine annähernd „gute Lösung“ zu finden, werden Heuristiken eingesetzt, die nach einem plausiblen Algorithmus (Rechenschema) die Optimallösung suchen. Die Anforderungen an den zu programmierenden Algorithmus richten sich in erster Linie nach der Art der Darstellbarkeit der funktionellen Abhängigkeit. (2a) Sind die Input- und Outputgröße(n) bekannt und liegen Erkenntnisse zu den kausalen Abhängigkeiten vor, dann lässt sich der zu untersuchende Sachverhalt in Form einer mathematischen Zielfunktion beschreiben. Im Fall von Optimierungsproblemen mit einer unimodalen Zielfunktion lautet die abstrakte Aufgabenstellung: max y = f(x1, x2, ..., xn) oder min y = f(x1, x2, ..., xn). (2b) Liegen keine Erkenntnisse zu den abhängigen und unabhängigen Variablen und deren kausalen Abhängigkeiten vor, dann wird das Maximum/ Minimum simultan zur Bestimmung des funktionellen Zusammenhanges gesucht. Die Optimierung der Zielgröße Y gestaltet sich in diesem Fall deutlich schwieriger. In beiden Fällen wird der Suchraum i.d.R. durch die Formulierung von Nebenbedingungen eingegrenzt. Die Optimierungsrechnung läuft dann auf die Lösung
26
Z.B. unterteilt sich beim Unternehmen Bosch Siemens Hausgeräte (BSH) der PEP in die vier Phasen Produktidee, Produktdefinition, Produkt-/ Prozessentwicklung und Produktbetreuung; zwischen den einzelnen Phasen sind sog. Quality Gates definiert. Jede der genannten Phasen enthält wiederum mehrere Unterphasen, zwischen denen Entscheidungspunkte für den Projektfortgang festgelegt sind. Ein Katalog von Mussund Kann-Methoden gibt zusätzlich an, welche Qualitätsinstrumente/ -methoden im Rahmen des PEP auf jeden Fall anzuwenden sind. So ist z.B. der Einsatz von Failure Mode and Effect Analysis (FMEA) fest vorgeschrieben, während die Anwendung von Quality Function Development (QFD) optional ist (vgl. Leifeld 2002, S. 7). BSH wurde im Jahr 2003 von der Zeitschrift „Wirtschaftswoche“ und dem Beratungsunternehmen „A.T. Kearney“ zum Unternehmen mit dem besten Innovationsmanagement (Best Innovator) in Deutschland gekürt. Wie die Jury feststellt, resultiert die Innovationsfähigkeit/ -kraft vor allem aus dem weltweit standardisierten PEP mit „strikten Deadlines“ (vgl. Katzensteiner/ Leendertse 2003, S. 63).
1.2 Untersuchungs- und Forschungsdesign
29
eines (komplexen) Gleichungssystems hinaus. In der weiteren Betrachtung wird auf der Abstraktionsebene der Aufgabenstellung (2b) gefolgt, da sie den Anforderungen/ Bedingungen der „realen Welt“ besser entspricht. Die betrieblichen Abläufe zur Erstellung eines Produktes oder einer Dienstleistung sind in vielen Unternehmen außerordentlich komplex; die Ursachen-Wirkungsbeziehungen sind häufig nur zu einem bestimmten Grad offen gelegt. Die Definition eines konkreten Ziels ist Bestandteil der Aufgabenformulierung und hilft den Verantwortlichen/ Beteiligten, die Lösung der Aufgabe kontrollfähig zu machen und damit den Zielerreichungsgrad „richtig“ zu bestimmen. So variiert die (strategische) Zielsetzung nicht nur von Unternehmen zu Unternehmen, sondern auch – unternehmensintern – von Prozess zu Prozess. In Abhängigkeit von den unter (1) spezifizierten generellen Aufgabenstellungen lassen sich insgesamt drei Zielsetzungen bei der Optimierung von Produkten und Prozessen differenzieren. Dabei wird das Erreichen der Ziele durch einschlägig bekannte Managementkonzepte, z.B. Six Sigma und Design for Six Sigma, unterstützt, die in Unternehmen – einzeln oder kombiniert – zum Einsatz kommen. (3) Suchen der abstrakten Lösung Auf abstrakter Ebene ist das Erreichen eines „vollkommenen“ Produkt-/ Dienstleistungsangebotes vergleichbar mit der Suche nach dem globalen Optimum bei einer Zielfunktion y = f(x1, x2, ..., xn). Die mathematische Optimierung hält hier eine Reihe von Rechenverfahren in Form von Algorithmen bereit, um das globale Maximum bzw. Minimum einer beliebigen Funktion zu finden. Die Klassifizierung der Verfahren richtet sich in erster Linie nach der Art des zu lösenden Problems (vgl. u.a. Jarre/ Stoer 2004). Wie eingangs erwähnt, kann es sich um gut oder weniger gut strukturierte Probleme handeln, die es zu lösen gilt. Aus übergeordneter Sicht lassen sich dabei insgesamt drei Gruppen von mathematischen Lösungsverfahren/ -ansätzen unterscheiden (vgl. Unterkapitel 4.2). In zweiter Linie ist es möglich, eine Klassifizierung nach der Art der gewählten Lösungsstrategie vorzunehmen. Für das Finden einer Problemlösung i.e.S. lassen sich hier im großen und ganzen zwei Verfahrensgruppen ausmachen. (3a) Unter Klassischen Verfahren sollen alle mathematischen Algorithmen verstanden werden, die am Ende der Optimierung eine Lösung präsentieren, welche die Zielfunktion maximiert bzw. minimiert. Ein häufig verwendetes Verfahren ist das auf Newton zurückgehende Gradientenverfahren, bei dem der Lösungsvektor nach dem Kriterium des steilsten Anstiegs in Richtung Optimum „verschoben“ wird. Bei schlecht strukturierten Problemen mit unbekanntem Funktionsverlauf kommen zudem Lokale Suchverfahren zum Einsatz, die sich bei der Lösungssuche ebenfalls in kleinen Schritten vorantasten (vgl. Wäscher 1998). (3b) Eine gänzlich andere Strategie zur Lösung komplexer Probleme verfolgen Evolutionäre Algorithmen (EA). Sie gehören zur Gruppe der Naturadaptiven Verfahren. Anstelle der Verbesserung einer einzelnen Lösung sind sie darauf ausge-
30
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
Abstrakte Problemstellung
Abstrakte Aufgabenstellung (Modell)
Abstrakte Zielsetzung
2a
Abstraktion
2 Bereitstellung mathematischer Algorithmen/ Heuristiken zur Lösung komplexer Probleme
Optimierung der Zielgröße Y, wenn y = f(x) bekannt 2b
Optimierung der Zielgröße Y, wenn y = f(x) unbekannt
3 Suchen des globalen Optimums Suchen des lokalen Optimums Suchen einer verbesserten Lösung
Abstraktionsebene ProblemProblemstellung stellung
Realitätsebene Problemstellung i.e.S.
1 Bereitstellung effektiver Vorgehensmodelle zur Verbesserung von Produkten/ Prozessen
Legende:
1a
Entwicklung eines neuen Produkt-/ Prozessdesigns
1b
Optimierung eines bestehenden Produktes/ Prozesses
Ableitungszusammenhang Inhaltliche Untergliederung
Reale Problemstellung
Reale Aufgabenstellung
Erreichen einer radikalen Verbesserung
Erreichen einer signifikanten Verbesserung Erreichen einer marginalen Verbesserung Konkrete Zielsetzung
Quelle: Eigene Darstellung
Abb. 1-7 (Teil 1/2): Vorgehen der Untersuchung (Untersuchungsdesign)
1.2 Untersuchungs- und Forschungsdesign
Mathematischer Lösungsansatz
31
Mathematischer Algorithmus
Effektivität der Lösungssuche
3b
4c
Evolutionäre Verfahren
Genetischer Algorithmus
4
Hoch
4b
Lokale Suchverfahren
3a
Klassische Verfahren
4a
NewtonProblem: Verfahren
ProblemProblemlösung lösung
PEP Klassischer F&E-Prozess
Six Sigma
Gering
Spezifikation
Festlegen eines geeigneten Startpunktes für die Lösungssuche
DFSS
Mittel
Lösung: Simultane Optimierung v. mehreren Lösungskandidaten 5c
IESRMZyklus
5b
Hoch
DMAIDVZyklus
w.z.b.i.
5 5a DMADVZyklus DMAICZyklus
Problemlösung i.e.S.
Gering Erkenntnis 1: DMADV führt zu keinen innovativen Lösungen
Hoch
KVP
Managementkonzept
PDCAZyklus Realer Problemlösungszyklus
Erkenntnis 2: DMAIC u. PDCA erfüllen i.d.R. die Zielsetzung(en)
Effektivität der Lösungssuche
Abb. 1-7 (Teil 2/2): Vorgehen der Untersuchung (Untersuchungsdesign)
32
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
richtet, eine Population mit n Lösungskandidaten zu optimieren. Der Algorithmus ist beendet, wenn gleichzeitig mehrere Lösungen gefunden worden sind, welche die Zielfunktion maximieren bzw. minimieren. Dabei handelt es sich in der Mehrzahl der Fälle um heuristische Lösungsverfahren, bei denen das Auffinden des globalen Optimums der Zielfunktion nicht garantiert wird. (4) Beschreiben der abstrakten Lösung Die Entwicklung von neuen Vorgehensmodellen, z.B. DMAIC-Zyklus, basiert typischerweise auf vorhandenem Erfahrungswissen in der Praxis (vgl. Simon 1976, S. 26ff.). Häufig werden nach dem Trial-and-Error-Prinzip Veränderungen an bestehenden Problemlösungszyklen vorgenommen. Diese werden anschließend an konkreten Produkt-/ Prozessbeispielen getestet und im Hinblick auf ihre Problemlösungsfähigkeit bewertet. Stellt sich der veränderte Optimierungsansatz als geeignet heraus, dann wird dieser als (vorläufige) Best practise in die institutionalisierten Strukturen und Abläufe des Unternehmens aufgenommen. Für die Entscheidungsträger ist dabei vor allem eins wichtig: Der „neue“ Problemlösungszyklus muss möglichst einfach, plausibel und in seinen Mittel-Zweck-Relationen nachvollziehbar sein (vgl. u.a. Zucker 1987, S. 443ff.). Diese Anforderung wird von wissenschaftlichen Konzepten/ Theorien häufig nicht erfüllt, was eine direkte Übernahme in die Primäre Praxis deutlich erschwert und den o.g. Trade-off zwischen Theorie und Praxis bestärkt (vgl. Abschnitt 1.2.1). Aus diesem Grund ist es notwendig, die auf wissenschaftlichem Weg gewonnenen Erkenntnisse zur Verbesserung von Unternehmensabläufen in die „Sprache des Managements“ zu transformieren. Um eine gute Anwendbarkeit in der Praxis zu gewährleisten, sind die auf der Abstraktionsebene gefundenen Lösungsmuster zu spezifizieren, z.B. in Form von Handlungsanweisungen und Vorgehensmodellen. Wie in Abb. 1-7 (Teil 2/2) nachvollziehbar ist, können aus den drei mathematischen Vorgehensmodellen (4a), (4b) und (4c) jeweils reale Vorgehensmodelle abgeleitet bzw. spezifiziert werden. In Bezug auf die gewählte Optimierungsstrategie lassen sich dabei die folgenden drei Analogien feststellen. (4a) Die Strategie, die bei klassischen Six Sigma-Projekten zur Anwendung kommt, ist – auf abstrakter Ebene – vergleichbar mit dem auf Newton zurück gehenden Sekantenverfahren. Dabei wird die Nullstelle einer mathematischen Funktion linear interpoliert, was zu einem schrittweisen Eingrenzen des Optimums führt. Ein alternatives Vorgehen, um das Optimum einer Funktion y = f(x1, x2, ..., xn) zu bestimmen, ist das Newton´sche Tangentenverfahren (vgl. Göhler 1996, S. 95). Die Annäherung an das Optimum erfolgt hier ebenfalls allmählich; jedoch ist aufgrund der relativ kleinen Schrittweite eine größere Anzahl von Iterationen notwendig, um das Optimum einzugrenzen. Im Gegensatz zum Sekantenverfahren basiert der Suchprozess auf der Anwendung der Infinitesimalrechnung. Das Vorgehen findet sich – auf realer Ebene – bei KVP wieder.
1.2 Untersuchungs- und Forschungsdesign
33
(4b) Die Forderung nach der Überwindung von lokalen Optima, die kein globales Optimum darstellen, ist mit der Generierung von Innovationen bei realen Produkten/ Prozessen vergleichbar. Dabei sind u.U. temporäre Verschlechterungen des Produkt-/ Prozessdesigns in Kauf zu nehmen. Die diskontinuierliche Veränderung von kritischen Qualitätsmerkmalen führt häufig erst mittel-/ langfristig zu einem Wiederanstieg der Produkt-Performance. Aus diesem Grund setzen sich Innovationen in der Praxis nur relativ langsam durch; gerade im Anfangsstadium können sie mit der Leistungsfähigkeit von bestehenden Lösungen nicht mithalten. In der Sprache der mathematischen Optimierung bedeutet dies, dass sich der Zielfunktionswert beim Übergang von einem lokalen Optimum zum nächsten kurzfristig verschlechtert, sofern die Funktion glatt und stetig verläuft. Zu den klassischen Verfahren, die diese Eigenschaft des Zielfunktionsverlaufs bei der Optimierung berücksichtigen, gehören u.a. die Lokalen Suchverfahren (vgl. Wäscher 1998, S. 1302). Sie basieren auf dem Prinzip der Nachbarschaftssuche, welches besagt, dass neue, akzeptable Lösungen ausschließlich lokal, d.h. in der Nachbarschaft der aktuellen Lösung, zu suchen sind. (4c) Ein ähnliches Prinzip, d.h. bestehende Lösungen in kleinen Schritten verändern und dadurch den Suchraum sukzessive nach besseren Lösungen „abtasten“, machen sich auch Genetische Algorithmen (GA) zu nutze. Sie stellen eine wichtige Untergruppe der o.g. Evolutionären Algorithmen (EA) dar. In den Ingenieur- und Naturwissenschaften hat sich die Genetische Programmierung vor allem bei der Lösung komplizierter Aufgaben mit einer Vielzahl von unabhängigen Einflussgrößen und z.T. unbekannten Funktionszusammenhängen bewährt (vgl. Sprave 1999). Im Rahmen der Dissertation wird gezeigt, dass sich diese Vorgehensweise durch eine entsprechende Operationalisierung auch für die Problemlösung in der Unternehmenspraxis nutzbar machen lässt. Analog zum DMADV-Zyklus wird ein Problemlösungszyklus konstruiert, der als Handlungsleitfaden bei F&E-Projekten dient; er beruht zum überwiegenden Teil auf bekannten Methoden und Instrumenten des Qualitäts- und Innovationsmanagements. (5) Spezifikation der realen Lösung Die Anwendung von entsprechenden Vorgehensmodellen im F&E-Bereich hat zum Ziel, ein optimales Design in möglichst kurzer Zeit, mit wenigen Arbeitsschritten (Iterationen) zu finden. Dabei liegt der Fokus auf diskontinuierlichen Verbesserungen, die über einen projektorientierten Ansatz realisiert werden sollen (vgl. von Regius 2006, S. 142ff.). Die Zielsetzung lässt sich auf abstrakter Ebene mit dem Auffinden des globalen Optimums einer komplexen Funktion mit möglichst wenig Rechenschritten vergleichen. In diesem Zusammenhang gilt es lokale Optima zu überwinden, die beim Lösungsprozess häufig „im Weg stehen“. (5a) Um das vorstehend genannte Ziel zu erreichen, ist bei klassischen Verfahren darauf zu achten, einen geeigneten Startpunkt für die Lösungssuche zu finden. Bei der Anwendung des Newton-Verfahrens, mit dem u.a. das Vorgehen im Rahmen des DMADV-Zyklus erklärt werden kann, besteht die unmittelbare Gefahr, bei
34
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
Vorhandensein mehrerer lokaler Optima das globale Optimum zu verfehlen. In der Realität bedeutet dies, dass die bestmögliche Lösung im Zuge der Verbesserungsaktivitäten verfehlt wird, weil sie nicht die nächstliegende Lösung bezogen auf die Ausgangssituation darstellt. Anstelle dessen wird eine sog. Second best-Lösung realisiert, die in praxi häufig einen deutlich geringeren Suchaufwand erfordert, jedoch nicht zum optimalen Outcome führt. (5b) Das Prinzip von Lokalen Suchverfahren lässt sich relativ problemlos auf die Gestaltung von realen Problemlösungszyklen übertragen. Nach der Analyse der wesentlichen Ursachen-Wirkungszusammenhänge sind alternative Startpunkte, sprich Lösungskonzepte, für die Produktoptimierung zu suchen. Im Fall von Design for Six Sigma ist hierzu eine Erweiterung des DMADV-Zyklus vorzunehmen. Im Ergebnis liegt dann ein 6-phasiger Problemlösungszyklus – DMAIDV – vor, der die Phase Innovate (I) als zusätzliche Phase vor der Design-Phase enthält. Dadurch wird die Bedeutung von Prozess- und Produktinnovationen im Rahmen von F&E-Vorhaben stärker in den Vordergrund gestellt. Gleichzeitig wird die Forderung nach Null-Fehler-Qualität, welches die bisherigen Aktivitäten von DFSS dominiert(e), relativiert; Qualitätssicherungs- und Innovationsstreben stehen fortan in einem ausgewogeneren Verhältnis zueinander.27 (5c) Neben der inkrementalen Weiterentwicklung des DMADV-Zyklus ergibt sich mit dem IESRM-Zyklus ein gänzlich neuer Ansatz für das (Re-)Design von Produkten und Prozessen. Er leitet sich aus den unter (4c) benannten Genetischen Algorithmen ab und beinhaltet die fünf Phasen Initialisierung (I), Evaluierung (E), Selektion (S), Rekombination (R) und Mutation (M). Die letztgenannten vier Phasen werden zu einer Iterationsschleife zusammengefasst und solange durchlaufen, bis eine zufriedenstellende, i.d.R. nutzenmaximale Lösung gefunden worden ist. Analog zur Programmierung von Genetischen Algorithmen basiert das Lösungsprinzip auf der simultanen Optimierung von n Lösungskandidaten, die in der Initialisierungs-Phase zu einer Ausgangspopulation zusammengefasst werden (vgl. Goldberg 1989). Ziel ist es, die Fitness der Population schrittweise zu erhöhen und dabei möglichst herausragende Individuen „zu züchten“. Nachdem die neuen Problemlösungszyklen DMAIDV und IESRM spezifiziert worden sind, stellt sich die Frage, wie effektiv die Lösungssuche im Vergleich zu DMAIC- und DMADV-Zyklus ist. Die Effektivität der Lösungssuche der übergeordneten Verfahren, aus denen die beiden Vorgehensmodelle abgeleitet werden, ist mittel bis hoch. Das vorgegebene Ziel, ein globales Optimum bei einer komplexen, mehrdimensionalen Funktion zu finden, wird sowohl von den Lokalen 27
Aus Methodensicht ist diese Harmonisierung bereits voll im Gange. So fordern eine Reihe von Autoren, die analytisch-systematischen Methoden aus dem Qualitätsmanagement, z.B. DOE, um kreativ-intuitive Methoden aus dem Innovationsmanagement, z.B. TRIZ, zu ergänzen (vgl. z.B. Töpfer/ Günther 2007b, S. 152; Averboukh 2004, S. 1f.; Yang/ El-Haik 2003, S. 235ff.). Letztere sind dann vorzugsweise innerhalb bzw. unmittelbar nach der Analyse-Phase des DMADV-Zyklus einzusetzen.
1.2 Untersuchungs- und Forschungsdesign
35
Suchverfahren als auch den Genetischen Algorithmen sehr gut unterstützt. Insbesondere im Vergleich zu den Klassischen Verfahren ist ihr Zielerreichungsgrad deutlich größer. Bei gegebener Problemstellung werden die optimalen InputWerte Xs für einen maximalen bzw. minimalen Output Y nicht nur genauer detektiert, sondern auch i.d.R. schneller, d.h. mit weniger Iterationen, gefunden (vgl. z.B. Michalewicz/ Fogel 2000; Gen/ Cheng 1997). Auf der Realitätsebene steht die Bestätigung des Effektivitäts- und Effizienzvorteils noch aus. Ausgehend von den abstrakten Vorgehensmodellen, wie sie bei der Lösung schwieriger Aufgaben in der Mathematik angewendet werden, liegt die Vermutung nahe, dass sowohl der DMAIDV- als auch der IESRM-Zyklus zu einer Verbesserung der Qualität der Lösungssuche führen. Unter dieser Voraussetzung stellen sie eine interessante Alternative zu dem in der Praxis vorherrschenden DMADV-Zyklus dar. Letzterer weist vor allem in Sachen „innovativer Lösungsfindung“ Defizite auf und ist deshalb – aus Praxissicht – verbesserungsbedürftig. Wie in Abschnitt 1.2.1 ausgeführt wurde, geht die Anforderung des „mode 2“Konzeptes dahin, auf der Grundlage von wissenschaftlichem Arbeiten direkt anwendbares, instrumentelles Wissen zu produzieren. Um insbesondere den Tradeoff zwischen methodischer Stringenz und praktischer Relevanz zu überwinden, ist die Forschungstätigkeit so auszurichten, dass sie die „Praktikersprache“ unmittelbar bei der Problemkonstruktion und -lösung aufgreift. Zwischen Realitäts- und Abstraktionsebene sind deshalb Anknüpfungspunkte zu definieren, welche eine bessere Kommunikation/ Interaktion zwischen Theorie und Praxis erlauben (vgl. Nicolai 2004). Zudem sind die theoretischen Überlegungen, die zur Weiterentwicklung des „harten Kerns“ von DFSS führen, durch entsprechende empirische Untersuchungen und/ oder problemorientierte Fallstudien zu bestätigen oder ggf. wieder zu verwerfen. Dabei stellt die Kommunikation von erfolgreich durchgeführten Projekten ein probates Mittel dar, um die Diffusion von managementwissenschaftlichem Methodenwissen in die Unternehmenspraxis zu beschleunigen. Im Rahmen der Dissertation werden zum einen die Anwendungsvoraussetzungen für den Einsatz von DMAIDV- und IESRM-Zyklus in Unternehmen geprüft. Zum anderen werden – wie in Abschnitt 1.2.2 benannt – auf der Basis von Fallstudien Handlungsempfehlungen für die systematische Weiterentwicklung des DFSS-Ansatzes gegeben. Darüber hinaus wird anhand eines umfangreichen Laborexperiments gezeigt, welche Chancen und Risiken die Anwendung des IESRM-Zyklus im Produktentstehungsprozess beinhaltet. Unter Berücksichtigung zeitlicher und finanzieller Restriktionen setzt auf dieser Grundlage eine explorative Untersuchung im Unternehmensumfeld an. Diese soll vor allem das Anwendungspotenzial und den Effektivitätsvorteil der auf wissenschaftlichem Weg generierten, optimierten DFSS-Vorgehensmodelle bzw. Teile von selbigen verdeutlichen.
36
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
1.2.3
Aggregatbezogene Differenzierung auf vier Ebenen
Nach Kromrey (2002, S. 82) ist neben dem Untersuchungsdesign (siehe Abb. 1-7) für jedes Forschungsvorhaben ein zur jeweiligen Thematik „maßgeschneiderter“ Forschungsplan zu entwerfen. In diesem sind die jeweiligen Forschungsfragen zu operationalisieren und – sofern es sich um eine empirische Forschungsarbeit handelt – ein geeignetes Erhebungsinstrument zu entwickeln und zu testen. Dabei stehen für bestimmte Gruppen von Fragstellungen spezifische Designtypen mit jeweils spezifischer Forschungslogik zur Auswahl.28 Sie sind der Ausgangspunkt für die individuelle Ausgestaltung des Forschungsdesigns. Im Rahmen der empirischen Sozial- und Wirtschaftswissenschaften spiegelt es die Erkenntnis- und Handlungsorientierung der Arbeit auf einem Blick wider.29 Das Forschungsdesign, welches in Abb. 1-8 – analog zum Untersuchungsdesign – zweigeteilt auf den Seiten 38 und 39 dargestellt ist, erstreckt sich über die vier Ebenen: Einfluss-, Strategie-, Gestaltungs- und Auswirkungsebene. Sie bilden den theoretischen Bezugsrahmen von managementwissenschaftlichen Untersuchungen, die insb. am erweiterten situativen Ansatz ausgerichtet sind (vgl. Töpfer 2007a, S. 813ff.; Kieser/ Walgenbach 2003, S. 43ff.). Dabei kommt dem Forschungsdesign unmittelbar eine „Scharnierfunktion“ zu, indem es die im Untersuchungsdesign festgelegten Aggregate inhaltlich vernetzt und konzeptualisiert. Gleichzeitig wird der konzeptionelle Rahmen für die eigenen theoretischen Analysen und empirischen Befunde gelegt (vgl. Töpfer 2009, S. 120f.). Die Pfeile, die in Abb. 1-8 zwischen den einzelnen inhaltlichen Analysefeldern/ Aggregaten eingezeichnet sind, symbolisieren – in weiten Teilen – die vermuteten Ursachen-Wirkungsbeziehungen. Sie bilden die Basis für die anschließende Formulierung von aussagefähigen Hypothesen. Während Verbindungslinien mit einem Pfeil an einem Ende auf gerichtete Ursachen-Wirkungsbeziehungen hindeuten (Wirkungshypothesen), stehen Verbindungslinien mit zwei Pfeilen an den Enden für vermutete Zusammenhänge ohne eindeutige Ursache (Zusammenhangshypothesen). Die acht Hypothesen (H1-H8), die aus erkenntnistheoretischer Sicht das Fundament der Arbeit bilden, sind in Abb. 1-8 mit Kreis gekennzeichnet und werden im Zuge der Erläuterungen zu den vier Ebenen des Forschungsdesigns 28
29
Als Grundlage dient häufig eines der folgenden vier Designtypen: (1) Theorie- oder hypothesentestende Untersuchung, (2) Experiment sowie quasi-experimentelle Ansätze, (3) Standardmodell der Programm-Evaluation und (4) Deskriptives Surveymodell. Die verschiedenen Verfahren/ Instrumente aus dem Baukasten der Methodenlehre können in Abhängigkeit von der Nützlichkeit der Erfüllung des Untersuchungszwecks in vielfältiger Weise miteinander kombiniert werden (vgl. Kromrey 2002, S. 83). Weil die Arbeit empirischer Natur ist und damit eine theoretische und eine praktische Seite bzw. Ebene besitzt, kann sie sowohl Erkenntnis- als auch Handlungsziele verfolgen. Grundsätzlich lässt sich jedes empirische/ praktische Problem erkenntnis- und/ oder handlungsorientiert erforschen. Im Rahmen der Aktionsforschung mit klarer Erkenntnis- und Handlungsdimension ist jedoch eine Oszillation zwischen den zwei Ebenen üblich (vgl. Frerichs 2002, S. 89; Eberhard 1999, S. 16).
1.2 Untersuchungs- und Forschungsdesign
37
ausgeführt. Während die Hypothesen H1, H2 und H6 deskriptiv-erklärenden Charakter besitzen, sind die restlichen Hypothesen vorhersagend-wertender Natur. Die grau unterlegten Felder kennzeichnen im Weiteren die konkreten Gestaltungsund Handlungsempfehlungen in Form von Instrumenten/ Methoden. Sie geben eine direkte Hilfestellung bei der Umsetzung der gewonnenen Erkenntnisse zur Problemlösung und Zielerreichung in der Unternehmenspraxis. Im Sinne des wissenschaftlichen Forschungs-/ Analyseprozesses handelt es sich dabei um Elemente des sog. Gestaltungsdesigns, welches – im Anschluss an Untersuchungs-, Forschungs- und ggf. Prüfungsdesign – das Spektrum an geeigneten Maßnahmen zur Erreichung der formulierten Ziele aufzeigt (vgl. Töpfer 2009, S. 122). Alles in allem lässt sich das hier vorliegende Forschungsdesign als exploratorischinstrumentelles Design30 (EI-Design) klassifizieren (vgl. Fritz 1995, S. 60). Bei diesem steht die Anwendung der nach wissenschaftlichen Maßstäben gewonnenen Erkenntnisse auf konkrete betriebliche Sachverhalte generell im Vordergrund. Des Weiteren geht es um die Entwicklung neuer instrumenteller Konzepte und Methoden, die bei der Lösung unternehmensspezifischer Probleme zum Einsatz kommen und dabei bisherigen Instrumenten/ Methoden überlegen sind. Bevor auf die vier Ebenen mit den untersuchten Aggregaten und ihren Beziehungen im Einzelnen eingegangen wird, sind als „Vorstufe“ fünf forschungsleitende Fragen aufgelistet (vgl. Töpfer 2009, S. 129). Sie begleiten im Weiteren den gesamten Detaillierungs-, Analyse- und Erkenntnisprozess und bilden die Grundlage für eine zielgerichtete Forschungsarbeit und Hypothesenbildung. (1) Warum wird der bei DFSS standardmäßig eingesetzte Problemlösungszyklus (DMADV) den F&E-spezifischen Anforderungen nicht gerecht? (2) Welche Änderungen sind am bestehenden Problemlösungszyklus (DMADV) vorzunehmen, um die Effizienz und Effektivität von DFSS zu erhöhen? (3) Welche Handlungsempfehlungen ergeben sich aus theoriebasierter Sicht, um zu einem verbesserten DFSS-Problemlösungszyklus zu gelangen? (4) Was sind die Inhalte und konzeptionellen Bausteine eines alternativen, auf evolutionären Algorithmen basierenden DFSS-Problemlösungszyklus? (5) Welche ökonomischen Wirkungen werden durch Problemlösungszyklen erreicht, die sich am Vorbild evolutionärer Algorithmen orientieren?
30
Fritz (1995, S. 59ff.) schlägt eine zweidimensionale Klassifizierung von empirischen Forschungsdesigns vor. Die beiden Dimensionen sind einserseits das generelle „Untersuchungsziel“ und andererseits die angestrebte „Aussagenart“. Beim Untersuchungsziel unterscheidet er zwischen exploratorisch und konfirmatorisch. Bei der Aussagenart differenziert er zwischen drei Ausprägungen, nämlich deskriptiv, explikativ und instrumentell. In Kombination der einzelnen Ausprägungen der zwei Dimensionen ergeben sich damit sechs grundlegende empirische Forschungsdesigns.
38
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
Einflussebene
Kostendruck durch Globalisierung
Vollständige Erfüllung wesentlicher Kundenanforderungen (CTQs)
Strategieebene
Differenzierung ggb. Wettbewerbern
Praktizierte Null-Fehler-Qualität in allen Wertschöpfungsproze ssen
Bestehende Produkte/ Prozesse verbessern auf der Basis heutiger Kundenanforderungen
Neue Produkte/ Prozesse entwickeln auf der Basi s zukünftiger Kundenanforderungen
Managementkonzept mittlerer Reichweite - Projektorientiert -
Produktentstehungsprozess (PEP) in Forschung und Entwicklung (F&E)
H1
Six Sigma
A
H2 Einsatz von speziell auf F&E-Anforderungen ausgerichtetem Konzept Design for Six Sigma (DFSS)
Gestaltungsebene
Institutionalisierte s Rahmenkonzept - Weiche Hülle -
Vorgehensmodell/ Problemlösungszyklus - Harter Kern -
A Projektorganisation
Planung & Steuerung
Zyklus für bestehende Produkte/ Prozesse
Zyklus für neue Produkte/ Prozesse in F&E
DMAI C Schutz des harten Kerns vor „Falsifizierung“
Auswirkungsebene
Prozesse mit 6σ σ-Qualität
Robuste s Design
Nachhaltige Anwendung
Geringe(re) Abweichungskosten
Adoption durch andere Unternehmen
Kosteneinsparung/ Net Benefit
B
Legitimitätssteigerung Effizienz & Effektivität
Legende: Vermuteter einseitig gerichteter Zusammenhang Vermuteter zweiseitig gerichteter Zusammenhang Hx
DMADV
Hypothese (H1-H8) Instrument/ Methode
Quelle: Eigene Darstellung
Abb. 1-8 (Teil 1/2): Vernetzung der Inhalte (Forschungsdesign)
1.2 Untersuchungs- und Forschungsdesign
39
Einflussebene
Widersprüchliche/ konfliktäre Kundenanforderungen
Erwartungen der (externen) Umwelt/ Stakeholder
Widerspruchsorientierte Innovationsstrategie
Adoption einschlägig bekannter Managementkonzepte
ManagementModen
Produkt-/ Prozessinnovationen generieren
Systematischer Innovationsprozess mit alternierenden Phasen
Konzept kurzer Reichweite - Inkrementell -
Technologische Konzepte
Konzept großer Reichweite - Synopti sch -
KVP
Ideengenerierung: Intuitiv-kreative Prozesse
B
Ideenbewertung: Systematisch-analytische Prozesse
Vorbild: Kybernetischer Prozess in Regelungstechnik
BPR
Optimierung technischer Systeme
Optimierung biologischer Systeme
Um setzung in VWL: Evolutionäre Ökonomik
Um setzung in BWL: Evolutionäres Management
Gestaltungsebene
Suche nach alternativen Vorgehensmodellen/ Problemlösungszyklen
Analogiebildung & Transformation
H5
H3
Inkrementelle Weiterentwicklung - Praxi sorientiert -
Radikale Neuerung ggb. Ursprungsmodell - Theoriebasiert Evolutionäre Algorithmen
H6 Integration widerspruchsorientierter InnovationsMethode (TRI Z)
Ableitung eines Problemlösungszyklus auf der Basi s Evolutionärer Algorithmen
DMAI DV
Kundennutzen + Kundenzufriedenheit
Strategieebene
IESRM
H4
H7
Robuste s + innovatives De sign
Maximaler „Fit“ zwischen Kundenanforderungen und Produkt-/ Prozessmerkmalen H8 Überlebenssicherung des Unternehmens
Abb. 1-8 (Teil 1/2): Vernetzung der Inhalte (Forschungsdesign)
Auswirkungsebene Populationsdenken
S-KurvenKonzept
40
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
Einflussebene Auf der Einflussebene sind zunächst wesentliche interne, unternehmensbezogene und externe, marktbezogene Einflüsse im Hinblick auf den effektiven und effizienten Einsatz von Managementkonzepten in Unternehmen aufgeführt. Sie wurden bereits im Zusammenhang mit der Problemstellung und Zielsetzung in Unterkapitel 1.1 benannt und im Hinblick auf (mögliche) Ursachen-Wirkungsbeziehungen analysiert. Die Kernaussage besteht darin, dass sich verschärfende Markt- und Wettbewerbsbedingungen aufgrund Globalisierung sowie steigender Kundenanforderungen bzgl. Kosten, Zeit, Qualität und Innovation unmittelbar in den Anforderungen an den Produktentstehungsprozess (PEP) in Unternehmen niederschlagen. Bei letztgenanntem geht es vor allem um das Generieren von innovativen, d.h. neuartigen, und robusten, d.h. fehlerfreien, Produkt-/ Prozessdesigns, welche eine nachhaltige Differenzierung vom Wettbewerb erlauben. Dem Erreichen dieses Ziels stehen u.a. der sinkende eigene Wertschöpfungsanteil und damit die steigende Planungs-/ Steuerungskomplexität der Wertschöpfungsprozesse entgegen sowie die widersprüchlichen, z.T. konfliktären Kundenanforderungen bezogen auf neue Produkte und Prozesse. Hinzu kommt die Tatsache, dass die wesentlichen zukünftigen Kundenanforderungen (CTQs), die als Ausgangspunkt für die gezielte Ableitung von Produkt-/ Prozessmerkmalen dienen, häufig nicht eindeutig vom Kunden kommuniziert und damit für das Unternehmen nur ungenau bzw. vage bestimmbar sind. Dies stellt eine wichtige Voraussetzung für den weiteren Forschungsprozess dar und ist in Hypothese H1 als Wenn-dannAussage mit eindeutiger Ursachen-Wirkungsbeziehung präzisiert.31 H1: Wenn bei der Entwicklung von neuen Produkten/ Prozessen neben der Erzeugung von Null-Fehler-Qualität i.S.v. „robusten Produkten“ die Generierung von Innovation als weitere Zielgröße hinzukommt, dann sind durch Unternehmen die wesentlichen zukünftigen Kundenanforderungen (CTQs), die als Ausgangspunkt für die gezielte Ableitung von Produkt-/ Prozessmerkmalen dienen, überhaupt nicht oder nur unvollständig zu ermitteln. Als weitere Einflussgröße sind im Forschungsdesign in Abb. 1-8 (Teil 2/2) die Erwartungen der (externen) Umwelt, personalisiert in Form der Stakeholder, explizit benannt. Den Hintergrund bildet die Frage, warum bestimmte Managementkonzepte, z.B. Six Sigma, von Unternehmen eingesetzt bzw. nicht eingesetzt werden, und diese Frage häufig nicht allein aus dem Vorliegen „ökonomischer Zwänge“ heraus zu beantworten ist. So liegen nach dem Institutionalistischen Ansatz Veränderungen in der formalen Organisationsstruktur weniger im Wettbewerbsdruck und den daraus folgenden Effizienzanforderungen begründet, sondern insb. 31
Unter einer Hypothese wird nach allg. Auffassung nicht mehr als eine Vermutung über einen Tatbestand verstanden. Im Fall von empirischen Theorien wird der Begriff stärker eingegrenzt. Hier wird unter einer Hypothese eine Vermutung über einen Zusammenhang zwischen zwei Sachverhalten verstanden (vgl. Kromrey 2002, S. 48).
1.2 Untersuchungs- und Forschungsdesign
41
in Vorschriften, Regeln, Erwartungen und Anforderungen der institutionellen Umwelt (vgl. Walgenbach 2002, S. 319ff.). Unternehmen erhöhen ihre Legitimität dadurch, dass sie institutionalisierte Elemente, wie z.B. den DMADV-Zyklus im Rahmen von Design for Six Sigma, in ihre Organisationsstruktur aufnehmen. Die Entwicklung, dass Managementkonzepte vor allem aufgrund ihrer legitimitätssteigernden Wirkung adoptiert werden, führt dazu, dass das Rationalisierungskalkül als Treiber für den organisationalen Wandel von Unternehmen immer mehr in den Hintergrund tritt. Infolgedessen „passt“ das übernommene Managementkonzept als Lösungskonzept häufig nicht zu den wirtschaftlichen Problemen/ Herausforderungen, denen das Unternehmen in der konkreten Situation gegenüber steht. Wie in Abschnitt 1.1.2 ausgeführt, geht auch die Erfahrung beim Einsatz des DMADV-Zyklus im Rahmen von DFSS dahin, dass der Problemlösungszyklus nicht immer zum gewünschten Erfolg führt. Bringt man dies in Zusammenhang mit der in Hypothese H1 formulierten Ausgangssituation bzgl. der schwierigen Bestimmung von CTQs im F&E-Prozess, dann ergibt sich die Hypothese H2 als weitere wichtige empirische Ursachen-Wirkungsbeziehung. H2: Wenn die wesentlichen zukünftigen Kundenanforderungen als Zielwerte der Optimierung im Produktentstehungsprozesses (PEP) (a) nicht oder nur teilweise bekannt und/ oder (b) widersprüchlicher/ konfliktärer Natur sind, dann führen die in praxi bisher verwendeten Vorgehensmodelle/ Problemlösungszyklen zur Generierung von Null-Fehler-Qualität, z.B. DMADVZyklus von Design for Six Sigma (DFSS), nicht zum gewünschten Erfolg, nämlich robuste und innovative Produkte/ Prozesse hervorzubringen. Strategieebene Das langfristige Ziel von Six Sigma besteht darin, praktizierte Null-Fehler-Qualität in allen Wertschöpfungsbereichen zu erreichen, d.h. beginnend vom Produktentstehungsprozess (PEP) in Forschung und Entwicklung (F&E) über Beschaffung/ Herstellung bis zu Marketing/ Vertrieb. Wie in Abschnitt 2.2.3 ausgeführt, erfolgt die Qualitätssteigerung dabei inkrementell-synoptisch und wird über einen projektorientierten Verbesserungsansatz (DMAIC, DMADV) erreicht. Damit unterscheidet sich das Six Sigma-Konzept von anderen, auf das gleiche Ziel fokussierten Konzepten in der Reichweite der angestrebten Veränderungen. So sind die mit der Einführung von Six Sigma verbundenen unternehmensbezogenen Veränderungen der Aufbau- und Ablauforganisation im Vergleich zum Kontinuierlichen Verbesserungsprozess (KVP) von größerer, im Vergleich zu Business Process Reengineering (BPR) von kleinerer Reichweite. Die generellen Wirkungs- und Gestaltungsansätze, die sich aus dem Verfolgen einer Null-Fehler-Strategie in allen Wertschöpfungsprozessen ergeben, ist im linken Teil 1/2 des Forschungsdesigns in Abb. 1-8 verdeutlicht.
42
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
Design for Six Sigma (DFSS) wird im Weiteren als ein Derivat des Six SigmaKonzeptes angesehen mit spezieller Ausrichtung auf den F&E-Bereich; das konkrete Anwendungsfeld bezieht sich hier auf die Sicherstellung von Null-FehlerQualität im Produktentstehungsprozesses (PEP). In Abgrenzung zu Six Sigma besitzt Design for Six Sigma zwar das gleiche institutionalisierte Rahmenkonzept (weiche Hülle), aber einen unterschiedlichen Problemlösungszyklus (harter Kern). Durch den Übergang von DMAIC- auf DMADV-Zyklus soll den spezifischen Anforderungen im Entwicklungsprozess besser Rechnung getragen werden, insb. bei der vollständigen Erfüllung aller wesentlichen zukünftigen Kundenanforderungen (CTQs). In diesem Zusammenhang spielt das Erzeugen von Produkt-/ Prozessinnovationen eine wichtige Rolle, welche jedoch die in Hypothese H1 postulierten Schwierigkeiten bei der Bestimmung der CTQs nach sich ziehen. Wie unter der Einflussebene erläutert, gibt es in F&E nicht nur generelle Ermittlungsschwierigkeiten bei den CTQs. Häufig kommt hinzu, dass die Kundenanforderungen – explizit oder implizit – widersprüchlicher bzw. konfliktärer Natur sind. Unter dieser Voraussetzung sehen sich Unternehmen i.A. außer Stande, Produkte/ Prozesse so zu entwickeln, dass alle wesentlichen Kundenanforderungen vollständig erfüllt werden. Abhilfe kann hier eine Widerspruchsorientierte Innovationsstrategie schaffen, bei der Widersprüche/ Konflikte nicht als Risiko, sondern als Chance für den Produktentstehungsprozess (PEP) gesehen werden. Die Grundidee besteht darin, dass durch die Auflösung der Widersprüche/ Konflikte unmittelbar Innovationen generiert werden. Zu diesem Zweck ist ein systematischer Innovationsprozess aufzusetzen, bei dem sich intuitiv-kreative Phasen zur Ideengenerierung und systematisch-analytische Phasen zur Ideenbewertung abwechseln und damit im Rahmen des PEP ergänzen. Wie im mittleren Teil des Forschungsdesigns in Abb. 1-8 (Teil 2/2) dargestellt, ergibt sich aus der vorstehend genannten Forderung nach alternierenden Phasen im Innovationsprozess ein konkreter Ansatzpunkt für die Erhöhung der Wirksamkeit von einschlägig bekannten Vorgehensmodellen/ Problemlösungszyklen, die zur Generierung von Null-Fehler-Qualität im PEP eingesetzt werden. Indem auf ein ausgewogenes Verhältnis von systematisch-analytischen und intuitiv-kreativen Prozessen/ Arbeitsschritten32 in der Ausgestaltung des jeweiligen Problemlösungszyklus geachtet wird, lässt sich der weiter oben geschilderte Trade-off zwischen Qualitäts- und Innovationsstreben minimieren. Diese Vermutung ist als zielorientierte Wenn-dann-Aussage in Hypothese H3 festgehalten und wird exemplarisch am Beispiel des DMAIDV-Zyklus in Abschnitt 5.3.1 überprüft. 32
Nach Töpfer (2009, S. 131) wird die Qualität eines Forschungsdesigns zum einen dadurch bestimmt, welche Beziehungen zwischen den einzelnen Aggregaten auf einer Ebene und zwischen den verschiedenen Ebenen, also horizontal und vertikal herausgearbeitet werden. Zum anderen ist für die Qualität eines Forschungsdesigns entscheidend, ob wesentliche „Treibergrößen“ erkannt und vernetzt werden. Im vorliegenden Fall ist das Verhältnis von systematisch-analytischen und intuitiv-kreativen Prozessen/ Arbeitsschritten als „treibend“ bzw. bedeutsam einzustufen.
1.2 Untersuchungs- und Forschungsdesign
43
H3: Wenn Problemlösungszyklen, die im Rahmen des Produktentstehungsprozesses (PEP) zum Einsatz kommen, in der Weise modifiziert werden, dass sie ein ausgewogenes Verhältnis von systematisch-analytischen und intuitiv-kreativen Prozessen/ Arbeitsschritten besitzen, dann führt ihre strukturierte Anwendung zu robusten und innovativen Produkt-/ Prozessdesigns. Im rechten Teil 2/2 des Forschungsdesigns in Abb. 1-8 ist – entsprechend dem institutionalisitischen Organisationsansatz – die Adoption einschlägig bekannter Managementkonzepte visualisiert. Dabei wird davon ausgegangen, dass sich Managementkonzepte in zwei Gruppen einteilen lassen: Management-Moden und Technologische Konzepte. Wie in Unterkapitel 2.3 argumentiert wird, unterscheiden sich letztgenannte von Modekonzepten i.e.S. dahingehend, dass sie Vorgehensmodelle beinhalten, welche den Lösungsweg in Form eines Algorithmus beschreiben, der mehrere, aufeinander abgestimmte Phasen enthält. Dabei handelt es sich um den „harten Kern“ des Managementkonzeptes, der – idealerweise – durch ein institutionalisiertes Rahmenkonzept als „weiche Hülle“ ergänzt wird (siehe linken Teil 1/2 des Forschungsdesigns in Abb. 1-8). Der Aufbau und die Struktur der Vorgehensmodelle/ Problemlösungszyklen orientieren sich häufig am Vorbild selbstregulierender (kybernetischer) Prozesse, wie sie in der Regelungstechnik Anwendung finden. Dabei geht es in erster Linie um die Regelung und Optimierung von technischen Systemen, und zwar auf der Basis systematisch-analytischer Prozesse. Neben technischen Systemen besteht die Möglichkeit, neuerdings biologische Systeme als Vorbild für den generellen Aufbau von Vorgehensmodellen/ Problemlösungszyklen zu wählen. Hierzu finden sich in der betrieblichen Praxis aber bisher erst wenig konkrete Ansätze. In den Managementwissenschaften wird die Regelung und Optimierung von biologischen Systemen im Zusammenhang mit Forschungsfeldern „Evolutionäre Ökonomik“ und „Evolutionäres Management“ thematisiert (vgl. Abschnitt 4.3.1). Gestaltungsebene Auf der Gestaltungsebene werden zum einen die Bedingungen für den wirkungsvollen Einsatz von Managementkonzepten in Unternehmen analysiert (siehe Mitte links in Abb. 1-8 (Teil 1/2)). Die Grundthese besteht darin, dass sich effektive von weniger effektiven Managementkonzepten dahingehend unterscheiden, dass sie – wie oben angesprochen – aus einem Problemlösungszyklus als „harten Kern“ sowie einem Rahmenkonzept als „weiche Hülle“ bestehen. Beides zusammen stellt eine nachhaltige Anwendung und hohe Adoptionsrate des Konzeptes sicher. Wie im Falle von Six Sigma gezeigt werden kann, bilden eine klar strukturierte Projektorganisation sowie eine effiziente Projektplanung/ -steuerung die unmittelbare Voraussetzung für eine hohe Wirksamkeit des standardmäßig eingesetzten Problemlösungszyklus (DMAIC). Gleichzeitig wird im Zusammenhang mit Design for Six Sigma die einseitige Ausrichtung auf die Generierung von NullFehler-Qualität i.S.v. „robusten Produkten“ offensichtlich.
44
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
Um das Ziel bzw. die Wirkung „robuste und innovative Produkt-/ Prozessdesigns“ zu erreichen, ist – wie in Hypothese H3 postuliert – ein stärkeres Augenmerk auf die Ausgewogenheit der zugrunde liegenden Prozesse/ Arbeitsschritte zu legen. Für die in Six Sigma bzw. Design for Six Sigma verankerten Problemlösungszyklen bedeutet dies, die überwiegend systematisch-analytischen Prozesse/ Arbeitsschritte durch intuitiv-kreative zu ergänzen. Gleichzeitig bietet die Integration von Widerspruchsorientierten Innovationsmethoden, z.B. TRIZ, die Möglichkeit, Widersprüche/ Konflikte in den ermittelten Kundenanforderungen zu identifizieren und mittels innovativer Prinzipien aufzulösen. Der (vermutete) positive Zusammenhang zwischen der Erweiterung des DFSS-Problemlösungszyklus um widerspruchsorientierte Innovations-Methoden und dem Erreichen von robusten und innovativen Produkt-/ Prozessdesigns ist in Hypothese H4 formuliert. H4: Wenn Unternehmen, welche Design for Six Sigma im Produktenstehungsprozess anwenden, widerspruchsorientierte Innovations-Methoden in den Standard-Problemlösungszyklus integrieren, dann wird hierdurch (a) eine höhere Ausgewogenheit von systematisch-analytischen und intuitivkreativen Prozessen/ Arbeitsschritten und (b) ein höherer Zielerreichungsgrad von Projekten aufgrund der Erzeugung robuster und innovativer Produkt-/ Prozessdesigns erreicht. Die Umsetzung der in Hypothese H4 geforderte Integration von widerspruchsorientierten Innovationsmethoden führt im Fall des DMADV-Zyklus zu einer Erweiterung des Phasenablaufs um die Innovate-Phase (vgl. Abschnitt 1.2.2). Der erweiterte DMAIDV-Zyklus stellt bei näherer Betrachtung eine inkrementelle Weiterentwicklung des Standard-Problemlösungszyklus dar. Ziele und Inhalte orientieren sich relativ stark an den Vorgaben der Unternehmenspraxis und sind von Unternehmen, die DFSS anwenden, leicht zu übernehmen. Die Änderung von Bestehendem in kleinen Schritten, wie es in der Praxis üblich ist, um Besseres hervorzubringen, eignet sich i.A. nicht, um radikale Neuerungen in kurzer Zeit zu erzielen (siehe Mitte rechts in Abb. 1-8 (Teil 2/2)). Zu diesem Zweck sind theoretische (Vor-)Überlegungen anzustellen, bei denen die zu ändernden Strukturen und Prozesse auf abstrakter Ebene rekonstruiert und analysiert werden (vgl. Abschnitt 1.1.3). Wenn die angestrebten Mittel-Zweck-Relationen auf der Realitätsebene erkannt und in vermutete Ursachen-Wirkungsbeziehungen auf der Abstraktionsebene überführt werden, ist zudem eine Beurteilung der Effizienz/ Effektivität des Realobjektes nach wissenschaftlichen Kriterien möglich (vgl. Graumann 2004, S. 282ff.). In Hypothese H5 ist dieser Zusammenhang, bezogen auf den hier interessierenden Untersuchungsgegenstand, in eine empirisch überprüfbare Wenn-dann-Aussage gebracht.
1.2 Untersuchungs- und Forschungsdesign
45
H5: Wenn Vorgehensmodelle/ Problemlösungszyklen als Realobjekte von Managementkonzepten – ausgehend von ihren Teilaufgaben/ -zielen – auf abstrakter Ebene als Denkobjekte rekonstruiert werden, dann führt die theoriebasierte Suche nach Modellverbesserungen zu radikalen Neuerungen (Basisinnovationen), die wissenschaftlichen Effizienzkriterien genügen. Die praxisorientierte Suche und Weiterentwicklung von bestehenden Managementkonzepten und -modellen basiert also auf inkrementellen Veränderungen (Veränderungsinnovationen) nach dem Trial-and-Error-Prinzip, während die theoriebasierte Suche zu radikalen Neuerungen (Basisinnovationen) nach wissenschaftlichen Maßstäben führt. Auf den generellen Unterschied zwischen Veränderungs- und Basisinnovationen wird in Abschnitt 3.2.2 eingegangen. Die Herleitung des wissenschaftlichen Effizienzkriteriums, wie es in Hypothese H5 benannt ist, erfolgt im Zusammenhang mit der Abstraktion der realen Vorgehensmodelle/ Problemlösungszyklen. Wie bei der Vorstellung des Untersuchungsdesigns ausführlich dargelegt (vgl. Abschnitt 1.2.2), besteht die Abstraktionsleistung im vorliegenden Fall darin, dass die Vorgehensmodelle von Managementkonzepten auf eine Ebene transformiert werden, auf der sie mit Algorithmen, die bei der mathematischen Optimierungsrechnung angewendet werden, vergleichbar sind. Unter dieser Voraussetzung lässt sich das folgende, wissenschaftlich exakte Effizienzkriterium spezifizieren. Effiziente Vorgehensmodelle/ Problemlösungszyklen, welche im Rahmen von F&E zur kundenorientierten Produktentwicklung eingesetzt werden, unterscheiden sich von weniger effizienten dadurch aus, dass sie im Problemlösungsprozess nicht bei einer einmal gefundenen, suboptimalen Lösung (lokales Optimum) verharren, sondern diese von sich aus „überspringen“, um die optimale Lösung aus Kundensicht zu finden (globales Optimum). Im übertragenen Sinn bedeutet dies, dass die Vorgehensmodelle/ Problemlösungszyklen möglichst so zu gestalten sind, dass sie für bestehende Kundenprobleme jeweils ohne äußeres Zutun, d.h. endogen, neue Lösungswege/ -ansätze finden. Gleichzeitig ist damit die Forderung verbunden, dass sie nicht vorzeitig, aufgrund prozessbedingter Vorgaben, die Suche nach dem aus Kundensicht optimalen Produkt-/ Prozessdesign abbrechen. In diesem Fall wird nämlich die Chance, Innovationen im Entwicklungsprozess zu generieren, minimiert. Die Transformation und der Vergleich mit mathematischen Algorithmen nimmt eine zentrale Rolle in dieser Dissertation ein. Über einen Analogieschluss sollen Defizite bei Vorgehensmodellen/ Problemlösungszyklen, die bei einschlägig bekannten Managementkonzepten eingesetzt werden, erkannt und nach Möglichkeit behoben werden. Nach dem Prinzip der Synektik wird dabei Wissen aus einem fachfremden Bereichen (Mathematik) mit dem Ausgangsproblem (BWL) verknüpft und daraus kreative Lösungsmöglichkeiten abgeleitet (vgl. Backerra et al. 2002, S. 90ff.). Dieser konzeptionelle Ansatz ist als synthetische Aussage in Hypothese H6 enthalten. Die empirische Überprüfung der Hypothese erfolgt in Unterkapitel 3.4 am Beispiel des DMAIC- und DMADV-Zyklus.
46
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
H6: Wenn reale Vorgehensmodelle/ Problemlösungszyklen nach wissenschaftlichen Effizienzkriterien zu beurteilen und – entsprechend der Aufgabenstellung – zu verbessern sind, dann sind die Transformation (Analogieschluss) und der Vergleich mit mathematischen Algorithmen zur Optimierung einer einfachen Zielfunktion ein probates Mittel zur Erkenntnisgewinnung. Auswirkungsebene Durch die Transformation und Analogiebildung werden, wie vorstehend beschrieben, nicht nur Defizite bei bestehenden Vorgehensmodellen/ Problemlösungszyklen aufgedeckt und (wissenschaftlich) erklärt. Vielmehr ist es hiermit möglich, gänzlich neue Gestaltungsansätze i.S.v. Basisinnovationen zu finden und anschließend deren Wirkungen in der Praxis zu prognostizieren.33 In der vorliegenden Untersuchung werden – durch den Vergleich mit der mathematischen Optimierungsrechnung – Evolutionäre Algorithmen (EA) respektive Genetische Algorithmen (GA) als neue, innovative Gestaltungsansätze für reale Vorgehensmodelle/ Problemlösungszyklen in der Unternehmenspraxis identifiziert. Wie im Forschungsdesign in Abb. 1-8 (Teil 2/2) nachvollziehbar, kommen die Evolutionären Algorithmen bei der theoriebasierten Suche nach alternativen Vorgehensmodellen/ Problemlösungszyklen als moderierende Variable bzw. Einflussgröße in den Analysefokus. Sie bilden die Grundlage für die Ableitung eines alternativen Problemlösungszyklus (IESRM) im Rahmen von Design for Six Sigma. Aus der mathematischen Optimierungsrechnung ist bekannt (vgl. Abschnitt 4.1.1), dass Evolutionäre Algorithmen, die auf der simultanen Optimierung von mehreren Lösungen (Population) basieren, konventionellen Algorithmen, welche die inkrementelle Verbesserung einer einmal gefundenen (Näherungs-)Lösung zum Gegenstand haben, in punkto Effektivität und Effizienz überlegen sind. Diese Erkenntnis bildet die Grundlage für die vermuteten Ursachen-Wirkungsbeziehungen auf der Auswirkungsebene.34 In Hypothese H7 wird zunächst der folgende Analogieschluss manifestiert: Wenn sich EA´s bzw. GA´s bei der Lösung schwieriger mathematischer Probleme bewährt haben, dann ist es naheliegend, sie auch bei der Lösung unternehmensbezogener Problemstellungen einzusetzen, z.B. in F&E bei der Suche nach innovativen und robusten (Neu-) Produkten. Zu diesem Zweck ist der GA-Basisalgorithmus in Form eines konkreten Problemlösungszyklus mit eindeutigem Phasenablauf und strukturiertem Methodenein33
34
Die betriebswirtschaftliche Forschung, die sich mit dem Erfahrungsobjekt „Management von Unternehmen“ befasst, enthält ein zweigeteiltes Erkenntnisziel, im Rahmen dessen Erklärungs- und Prognosemuster für empirisch festgestellte Zielsetzungen in der Unternehmenspraxis herausgearbeitet werden (vgl. Töpfer 2007a, S. 40f.). Die wesentlichen Ziele und Ergebnisse der wissenschaftlichen Untersuchung finden sich auf der Auswirkungsebene wieder. Dabei kommt es darauf an, dass die inhaltlichen Bausteine/ Aggregate der Strategie- und Gestaltungsebene in wesentliche Wirkungskategorien – direkt oder indirekt – einmünden (vgl. Töpfer 2009, S. 131).
1.2 Untersuchungs- und Forschungsdesign
47
satz zu spezifizieren. Erst dann lässt er sich als alternativer DFSS-Zyklus einsetzen, der dem Standard-Problemlösungszyklus (DMADV) überlegen ist. H7: Wenn der bei der mathematischen Optimierungsrechnung verwendete Evolutionäre Algorithmus (EA) in Form eines konkreten Problemlösungszyklus mit eindeutigem Phasenablauf und strukturiertem Methodeneinsatz operationalisiert wird, dann führt dessen Anwendung im Rahmen von Design for Six Sigma zu Produkten respektive Prozessen, die (a) eine maximale Übereinstimmung (Fit) mit den – explizit oder implizit – formulierten Kundenanforderungen aufweisen und (b) den mit dem Standard-Problemlösungszyklus (DMADV) gewonnenen Produkt-/ Prozessergebnissen klar überlegen sind. Das vordergründige Ziel von EA´s bzw. GA´s besteht darin, die Leistungsfähigkeit als mittlere Fitness einer Population zu maximieren. Dabei steigt – bei gerichteter Selektion (Auslese) der in einer Population zusammengefassten Lösungen – die geometrische mittlere Fitness in Form eine S-Kurve über die Zeit bzw. die kumulierte Anzahl von Generationen (vgl. Abschnitt 4.3.4). Dieser Zusammenhang lässt sich mittelbar auf den Einsatz alternativer, EA-basierter Vorgehensmodelle (IESRM-Zyklus) in der Unternehmenspraxis übertragen. Wie in Hypothese H8 postuliert, entwickelt sich bei der Anwendung vorstehend genannter Vorgehensmodelle die Leistungsfähigkeit (Fitness) entsprechend der aus dem Technologiemanagement bekannten „S-Kurve“ (vgl. Abschnitt 3.2.1). Wenn sich die Hypothese bewährt, dann werden Unternehmen zukünftig in die Lage versetzt, die Leistungsfähigkeit ihrer Neuprodukte/ -prozesse – vor Markteinführung – zu maximieren. Gleichzeitig ist es ihnen möglich, systemimmanente (Technologie-)Sprünge zu simulieren und damit Innovationen proaktiv zu generieren. In Unterkapitel 5.3 werden diese Wirkungen auf der Basis des IESRM-Zyklus explorativ untersucht und schematisch nachvollzogen. H8: Wenn Unternehmen die Leistungsfähigkeit (Fitness) ihrer Produkte/ Prozesse mithilfe von Vorgehensmodellen, die sich am Vorbild Evolutionärer Algorithmen orientieren, optimieren, dann entwickelt sich die Zielgröße (a) endogen entsprechend der aus dem Technologiemanagement bekannten „S-Kurve“, also erst steigende und dann fallende Innovationserträge, und (b) zufällig aufgrund des Auftretens von Mutationen auf der Merkmalsebene, was systemimmanente (Technologie-)Sprünge nach sich zieht. Die acht Hypothesen, welche die „Leitplanken“ des weiteren Forschungsprozesses bilden, sind abschließend in Abb. 1-9 im Überblick dargestellt. Hier wird zum einen noch einmal der Ableitungszusammenhang und folglich der wesentliche Gedankengang des Forschers auf einem Blick ersichtlich. Zum anderen werden die Hypothesen hinsichtlich ihrer empirischen Überprüfung eingeordnet/ strukturiert. Die Abbildung gibt damit das Prüfungsdesign wider, welches nach Töpfer
Art der Belege
Abb. 1-9: Überprüfung der Hypothesen (Prüfungsdesign)
Quelle: Eigene Darstellung
Indirekter Ableitungszusammenhang
Direkter Ableitungszusammenhang
Legende:
Exploration anhand von zwei Fallstudien
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen
5.1 DMAIDV-Zyklus als erweiterter DFSSProblemlösungszyklus
Kapitel 5:
Meta-Analyse von DMAIC u. DMADV
3.4 Formal-analytische Beschreibung und Analyse der Six Sigma-Zyklen
Kapitel 3:
Kriterienbasierte Modelluntersuchung
3.2 Vorgehensmodelle zur Generierung von Innovationen u. Null-Fehler-Qualität
Kapitel 3:
Empirische Studie von Graumann (2004)
2.3.2 Six Sigma als Technologie mit theoretisch fundiertem Vorgehensmodell
Kapitel 2:
Empirische Studie von Fink (2003)
2.1.2 Differenzierung von Managementkonzepten nach Strategiepotenzial –
Kapitel 2:
Empirische Studie von Schmieder (2005)
1.1.2 Emp. Befunde zum Einsatz und zur Verbreitung von Six Sigma und DFSS
Kapitel 1:
Bezug im Text Implikationen der zwei Zielgrößen „Null-Fehler-Qualität“ und „Innovation“ auf die effektive Ermittlung der Kundenanforderungen (CTQs)
Rekonstruktion von realen Vorgehensmodellen/ Problemlösungszyklen auf der Abstraktionsebene für theoriebasierte Verbesserungen
H5
Fehlende und/ oder widersprüchliche Kundenanforderungen (CTQs) als maßgebliche Gründe für das Scheitern von DFSS-Projekten
H2
H1
Fremduntersuchungen - Sekundärquellen -
H6
H3
Transformation (Analogieschluss) und Vergleich mit mathematischen Algorithmen als probates Mittel zur Erkenntnisgewinnung bzgl. DFSS
Ausgewogenes Verhältnis von systematisch-analytischen und intuitiv-kreativen Prozessen/ Arbeitsschritten als Erfolgsfaktor
Inhaltsanalysen/ Verdichtung von Expertenwissen
Ökonomische Wirkungen von einem um widerspruchsorientierte Innovationsmethoden erweitertem DFSSProblemlösungszyklus (DMAIDV)
Konzeptionelle Vorteile von einem alternativen, am Vorbild Evolutionärer Algorithmen orientierten DFSSProblemlösungszyklus (IESRM)
H8
H7 Ökonomische Wirkungen von einem alternativen, am Vorbild Evolutionärer Algorithmen orientierten DFSSProblemlösungszyklus (IESRM)
H4
Eigene Untersuchungen - Primärquellen -
48 1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
(2009, S. 122) den dritten Designbaustein von empirischen Forschungsarbeiten darstellt. Im Kern geht es um die Beantwortung der Frage, wie die aufgestellten Hypothesen in der Realität überprüft und getestet werden (sollen).
2
Six Sigma – Zeitgemäßes Managementkonzept zur Erzielung von Null-Fehler-Qualität im Wertschöpfungsprozess
Six Sigma kennzeichnet im Grunde genommen eine Strategie, die alle erfolgreichen Unternehmen mit einer hohen Qualitätsorientierung seit Jahren auszeichnet (vgl. Masing 2004): Der Kunde steht im Mittelpunkt, Unternehmensprozesse sind der Ausgangspunkt für Verbesserungen, Umsatzsteigerungen und Kosteneinsparungen resultieren aus fehlerfreien Prozessleistungen. Vor diesem Hintergrund erscheint das häufig angeführte Argument „Six Sigma ist alter Wein in neuen Schläuchen“ berechtigt. Andererseits basiert Six Sigma – gegenüber vielen anderen Konzepten, z.B. TQM – auf konkreten, umsetzungsorientierten Verbesserungsprojekten mit einem eindeutigen Ablaufschema und einem strukturierten Methodeneinsatz, der vor allem durch seine wissenschaftliche Stringenz besticht. Unter dieser Voraussetzung stellt Six Sigma eine echte Weiterentwicklung zu bekannten QM-Konzepten dar. Verwendet man die Metapher von oben, dann ist es zutreffend zu sagen: „Six Sigma ist besserer Wein in alten Schläuchen!“
2.1
Bedeutungsinhalte und Dimensionen des Begriffs Managementkonzept
In der Managementliteratur werden die Begriffe Managementkonzept, -modell, -prinzip, -philosophie, -instrument und -theorie größtenteils synonym verwendet. Einheitliche und durchgängige Begriffsdefinitionen sind eher die Ausnahme als die Regel. Dabei kann den einzelnen Begriffen zweifelsohne eine unterschiedliche semantische Bedeutung zugeordnet werden. In den meisten Fällen ist die Verwendung der Begriffe – intuitiv – dem jeweiligen Kontext angepasst und entspricht – bewusst oder unbewusst – dem Vorverständnis des Forschers. Im Folgenden soll auf den Begriff „Managementkonzept“ abgestellt werden, da dieser aus Sicht des Autors den umfassendsten empirischen Bezugsbereich beschreibt.1 2.1.1
Theoretische Begriffsdeutung nach Wortstamm
In diesem Abschnitt soll zunächst deutlich gemacht werden, welchen Gegenstand das Wort „Managementkonzept“ genau bezeichnet. Da der Ausdruck aus den 1
Nach Seghezzi (1996, S. 198) ist der Begriff des Managementkonzepts von dem des Managementsystems und des Managementmodells abzugrenzen. Während ein Managementkonzept den theoretischen, gedanklichen Rahmen eines geplanten Managementsystems darstellt und allgemeingültige Vorstellungen und Leitgedanken beinhaltet, wird in einem Managementmodell die Wirklichkeit in abstrakter Form widergespiegelt (z.B. Normen und Regelwerke wie die ISO 9000:2000). Ein Managementsystem baut direkt auf dem Managementkonzept auf, ergänzt dieses um konkrete inhaltliche Angaben zum organisatorischen Ablauf und bietet Unterstützung bei der unternehmensbezogenen Umsetzung. Managementmodelle bilden das Bindeglied zwischen Managementsystem und Managementkonzept.
50
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
beiden Einzelwörtern „Management“ und „Konzept“ besteht, gibt es aus terminologischer Sicht grundsätzlich zwei Herangehensweisen, um den Begriff Managementkonzept zu spezifizieren. Der Weg über den ersten Term erscheint dabei insofern von Vorteil, da sich die Definitionen und Erklärungsansätze für Management in der Vergangenheit relativ stark angenähert haben. So lassen sich heute in der angloamerikanischen Literatur – auf übergeordneter Ebene – zwei Bedeutungsvarianten ausmachen (vgl. Staehle 1999, S. 71): •
Zum einen wird Management im funktionalen Sinn verwendet (Managerial functions approach): Management ist der Prozess des Planens, Organisierens, Führens und Steuerns von Aktivitäten der Organisationsmitglieder, wobei alle vorhandenen Ressourcen zur Erreichung der vorgegebenen Ziele einbezogen werden (vgl. Stoner/ Freeman 1989, S. 4).2
•
Zum anderen wird Management im institutionalen Sinn gebraucht (Managerial roles approach): Management ist die Tätigkeit der Manager, welche die Organisations-/ Unternehmensziele durch die Allokation vorhandener Mittel/ Ressourcen zu erreichen versuchen (vgl. Hellriegel/ Slocum 1996, S. 5f.).3
Folgt man zweitgenannter Bedeutungsvariante und betrachtet „Managen“ als dispositive Leistung des Managements, dann kann dessen Ergebnisqualität anhand folgender drei Kriterien beurteilt werden (vgl. Drucker 1974, S. 40f.): (a) Zielerreichungsgrad (Effektivität) der geplanten Handlung(en) auf ökonomischer Ebene unter Angabe monetärer und nicht-monetärer Zielgrößen, (b) Produktivität bzw. Wirtschaftlichkeit (Effizienz) des Ressourceneinsatzes auf ökonomischtechnischer Ebene bezogen auf o.g. Zielgrößen sowie (c) Soziale Kompetenz/ Verantwortung der Manager bei der Maßnahmenumsetzung zur Verbesserung von Effektivität und Effizienz im Unternehmen. Das letztgenannte Kriterium bezieht sich vor allem auf die Mitarbeiterführung und damit auf die soziale Ebene; seine Erfüllung gilt als wichtige Nebenbedingung „guten Managements“. Während hinsichtlich der Bedeutung des Wortes „Management“ weitestgehend Konsens herrscht, ist für den Term „Konzept“ lediglich unstrittig, dass es sich bei einem Konzept um Wissen handelt. Genauer gesagt, ist der Gegenstand „Konzept“ eine Art der Gattung „Wissen“ (vgl. Graumann 2004, S. 286). Dabei bezeichnet bzw. repräsentiert Wissen Gegenstände eines empirischen Bezugsbereichs, welcher ein diskursbasiertes Prüfverfahren durchlaufen hat (vgl. Schreyögg/ Geiger 2003, S. 12f.). Das Trägermedium für dieses gegenstandsbezogene Wissen ist in diesem Fall das menschliche Gehirn; der empirische Bezugsbereich ist das aufga-
2
3
Der analytisch-funktionsorientierte Ansatz geht auf HENRI FAYOL (1916) zurück und ist damit deutlich älter als der empirisch-handlungsorientierte Ansatz, der seinen Ursprung bei SUNE CARLSON (1951) hat. In die gleiche Richtung argumentiert auch PETER F. DRUCKER (1974). Er versteht unter Management die Fähigkeit (von Managern), die vorhandenen Ressourcen planvoll und gezielt einzusetzen, um die gesetzten Unternehmensziele bestmöglich zu erreichen.
2.1 Bedeutungsinhalte und Dimensionen des Begriffs Managementkonzept
51
benbezogene Management von/ in einem Unternehmen.4 Wenn das Konzept als eine klar umrissene Grundvorstellung über die inhaltliche Ausgestaltung eines realen Objekts interpretiert wird, dann kann ein „Managementkonzept als eine klar umrissene Grundvorstellung über die Ausgestaltung der [strategischen] Führungsaufgaben verstanden werden“ (Hahn et al. 1999, S. 5). Vor diesem Hintergrund sind nach vorstehend genannten Forschern Managementkonzepte das Wissen bzw. die klar umrissene Grundvorstellung von Führungskräften/ Managern über die Ziele & Strategie, die Struktur & Kultur sowie die Instrumente & Methoden, die im Rahmen einer effizienten und effektiven Unternehmensführung einzusetzen sind. Anhand der drei Dimensionen in Abb. 2-1 lassen sich die Gegenstände strategischer Unternehmensführung und damit die Inhalte/ Wirkungsbereiche von Managementkonzepten eindeutig klassifizieren: •
Ziele und Strategie: Ausgangspunkt für die Umsetzung von Managementkonzepten bildet die generelle Zielstruktur des Unternehmens. Managementkonzepte sind infolgedessen zum einen dahingehend zu untersuchen, inwieweit sie die Festlegung und die Ausgestaltung der generellen Unternehmensziele, z.B. Erfolgs- und Liquiditätsziel, beeinflussen. Zum anderen ist zu analysieren, wie sie die Ausrichtung der Geschäftsfeldstrategie, der Funktionsbereichs- und Regionalstrategien sowie die Gestaltung der Querschnittsfunktionen durch das Management determinieren. Die grundlegenden, strategischen Führungsaufgaben bestimmen dabei zwingend die operativen Führungs- und Umsetzungsaufgaben, die wiederum durch die spezifische Ausrichtung eines Managementkonzepts, z.B. Six Sigma, beeinflusst werden.
•
Struktur und Kultur: Ein weiterer wichtiger Bestandteil eines Managementkonzepts ist sein Einfluss auf die Aufbau- und Ablauforganisation von Unternehmen. Dabei enthält die auf Dauer angelegte Aufbau- bzw. Potenzialstruktur zwingend den Faktor Mensch als Potenzialelement. Zusammen mit der Ablauf- bzw. Aktionsstruktur regelt sie die Aufgaben-, Verantwortungs- und Kompetenzbereiche sowie die Arbeitsbeziehungen zwischen den einzelnen Unternehmenseinheiten. Parallel dazu ergibt sich die Frage, in welchem Ausmaß Managementkonzepte die Denk-, Verhaltens- und Entscheidungsmuster von Mitarbeitern und Führungskräften beeinflussen und damit insgesamt die Unternehmenskultur prägen. Um die unternehmensweite Akzeptanz und Umsetzung der Konzepte zu sichern, kommt den Führungskräften jeweils eine kulturprägende/ -vermittelnde Rolle zu.
•
Instrumente und Methoden: Managementkonzepte beinhalten i.d.R. spezifische Instrumente und Methoden, die auf operativer und strategischer Ebene
4
Während Graumann (2004, S. 288ff.) zwischen „praktischen“ und „wissenschaftlichen“ Managementkonzepten unterscheidet, nehmen Teichert/ Talaulicar (2002, S. 416) eine Typenbildung anhand von bibliometrischen Daten vor. Auf der Basis bibliometrischer Daten des Social Science Citation Index (SSCI) wird eine Klassifizierung bekannter Managementkonzepte vorgenommen und überprüft.
52
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
zum Tragen kommen. So werden auf strategischer Ebene unter Instrumenten konzeptspezifische Informations- und Anreizsysteme verstanden, welche zielorientierte Informationen zur Verfügung stellen sowie Stimuli bei den Akteuren schaffen, um ein zielgerechtes Entscheiden und Handeln zu ermöglichen. Methoden beziehen sich auf strategischer Ebene u.a. auf allgemeine Vorgehensmodelle zur Einführung und Umsetzung des Konzeptes im gesamten Unternehmen. In gleicher Weise existieren konzeptspezifische Führungsund Durchführungsmethoden auf operativer Ebene, welche z.B. die Abwicklung von Verbesserungsprojekten5 determinieren. Ziele & Strategie
Struktur & Kultur
Instrumente & Methoden
Basis: Hahn et al. 1999, S. 5
Abb. 2-1: Inhalte/ Wirkungsbereiche von Managementkonzepten
Der 3-dimensionale Ansatz von Hahn et al. (1999) ermöglicht die Klassifizierung von Managementkonzepten auf „hoher Ebene“ und wird bei der Einordnung der Konzepte zur Verbesserung der Prozess- und Produktqualität in den Abschnitten 2.2.1-2.2.3 zugrunde gelegt. Die einzelnen Dimensionen des Ansatzes sind durch Angabe von Entscheidungskriterien (weiter) zu operationalisieren. Eine detailliertere Untersuchung und Abgrenzung von Managementkonzepten ist z.B. mithilfe des mehrdimensionalen Ansatzes von Davenport (1993) möglich.6 Auf der Basis eines 7-Punkte-Kritierenrasters stellt er die zentralen Unterschiede zwischen den beiden Prozessverbesserungskonzepten CIP – Contineous Improvement Process und BPR – Business Process Reengineering heraus. In Abschnitt 2.2.4 wird auf dieser Grundlage ein Vergleich mit dem Six Sigma-Konzept
5
6
Als Hilfsmittel zur Planung, Steuerung und Kontrolle dieser Aktivitäten kommen Instrumente, z.B. Qualitätsmanagement-Instrumente, zum Einsatz. Letztere sind eher auf die Erreichung von Sachzielen gerichtet, während z.B. Controlling-Instrumente primär zur Erfüllung von Ergebniszielen eingesetzt werden. Ein nicht kriterienbasierter Vergleich der drei Managementkonzepte ISO 9001:2000, MBNQA-Excellence Model und Six Sigma findet sich u.a. in Grupta (2004, S. 12).
2.1 Bedeutungsinhalte und Dimensionen des Begriffs Managementkonzept
53
vorgenommen. Dabei wird das ursprüngliche Raster von Davenport auf insgesamt 10 Kriterien erweitert, um die in Abb. 2-1 aufgeführten Inhalte/ Wirkungsbereiche in einem ausgewogenen Verhältnis zu berücksichtigen. 2.1.2
Praktische Differenzierung nach Strategiepotenzial
Die Relevanz bestimmter Managementkonzepte in der Unternehmenspraxis richtet sich vor allem danach, in welcher Wettbewerbssituation sich das Unternehmen gerade befindet und welche Ziele/ Strategien konkret verfolgt werden. Beide Fragen, die vor allem die inhaltliche Konzeption und Ausgestaltung von Managementkonzepten betreffen, können mit den oben genannten Kriterienraster(n) objektiv beantwortet werden. Darüber hinaus spielt für den potenziellen Anwender das wahrnehmbare strategische Potenzial eines Managementkonzeptes sowie die aktuelle und zukünftig erwartbare Anwendungs- bzw. Adoptionsrate eine wichtige Rolle in seinem Entscheidungskalkül (vgl. Fink 2003, S. 53): •
Die Adoptionsrate kennzeichnet den Anteil von Unternehmen in einer relevanten Population (z.B. Branche oder Region), welche die Standards, Normen, Methoden, Verhaltensweisen, Organisationsanforderungen etc. eines bestimmten Konzeptes einsetzen und verfolgen.
•
Das Strategiepotenzial stellt einen geeigneten (qualitativen) Vergleichsmaßstab dar, der in komplexen Entscheidungssituationen als Effizienzkriterium zur Bewertung von Managementkonzepten herangezogen werden kann. Der Maßstab orientiert sich vorzugsweise an den ökonomischen Zielen eines Unternehmens und basiert auf Ursachen-Wirkungsüberlegungen.
In einer neueren empirischen STUDIE VON FINK (2003) zur Verknüpfung von Managementkonzepten und Wettbewerbsstrategien von Unternehmen werden für den deutschsprachigen Raum insgesamt 10 Konzepte identifiziert (siehe Abb. 2-2). Auf der Basis des Lebenszyklusansatzes entwickelt der Forscher ein Modell, um die Managemententscheidungen hinsichtlich der Einführung von Managementkonzepten zu erklären. Mit dem Ziel, die Effektivität und das strategische Potenzial von Six Sigma, inkl. Design for Six Sigma, zu prognostizieren, werden die Grundzüge dieses dynamischen Analysemodells kurz refferiert. Ausgangspunkt der Untersuchung bildet die Tatsache, dass es i.d.R. nicht möglich ist, den ökonomischen Wert von Managementkonzepten – weder im vorhinein noch im nachhinein – für ein Unternehmen exakt zu bestimmen. Wie der Forscher feststellt, ist die Quantifizierung des (monetären) Nutzens und die eindeutige Zurechnung zu bestimmten Managementkonzepten praktisch unmöglich. Trotzdem gibt es aus Sicht der Entscheider, d.h. Manager, „gute Gründe“, warum gerade dieses und nicht jenes Konzept eingeführt und umgesetzt wird. Unter der Voraussetzung, dass Manager ein fundamentales Interesse daran haben, die Wettbewerbssituation ihres Unternehmens zu sichern und, wenn möglich, zu verbessern, werden sie ein Konzept in ihrem Unternehmen genau dann einführen, wenn sie von seinem strategischen Potenzial/ Wert überzeugt sind.
54
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
In der Unternehmenspraxis sehen sich die Manager mit einer zunehmend komplexeren und dynamischeren Umwelt konfrontiert. Durch die Übernahme von Managementkonzepten, die sich i.d.R. durch eine einfache und klare Struktur auszeichnen, reduzieren sie die Komplexität ihrer Entscheidungssituation. Durch mehr oder weniger präzise Handlungsanweisungen wird der (komplexe) Entscheidungsraum (stark) eingeschränkt, so dass sich gleichzeitig die Unsicherheit in Bezug auf das, was eine starke Wettbewerbsposition in Zukunft auszeichnet, reduziert. In diesem Zusammenhang ist es in der Praxis oftmals nicht notwendig, den genauen Erfolgsbeitrag zu spezifizieren, der aus der Anwendung eines bestimmten Konzeptes resultiert. Solange ein Managementkonzept als „Best practice“ gilt und die Unternehmensleitung sowie verantwortlichen Führungskräfte allgemeine Anerkennung für seine Anwendung finden, wird es nicht weiter hinterfragt. Obwohl der Legitimitäts- den Wirtschaftlichkeitsaspekt in vielen Fällen überwiegt (vgl. z.B. Walgenbach/ Beck 2003, S. 499), ist die Durchführung einer KostenNutzen-Analyse prinzipiell wünschenswert, um – zumindest langfristig – einen positiven Effekt des Managementkonzepts auf die Profitabilität/ Effizienz des Unternehmens nachweisen zu können. Die Probleme bei der Messung der ökonomischen Effizienz von Managementkonzepten ergeben sich – aus wissenschaftlicher Sicht – insbesondere aus den zu quantifizierenden Einzahlungs- und Auszahlungsströmen im Rahmen der Kapitalwertmethode. Die Entscheidung der Unternehmensleitung für oder gegen die Einführung eines bestimmten Managementkonzepts ist nämlich vergleichbar mit einer Investitionsentscheidung in die wesentlichen Ideen und Prinzipien, die das Konzept kennzeichnen bzw. beinhalten. Aus Wirtschaftlichkeitsüberlegungen ist die Implementierung eines Konzeptes genau dann sinnvoll, wenn die im Rahmen der „Managementkonzept-Investition“ erwarteten zukünftigen Zahlungsüberschüsse die Auszahlungen in der Anfangs-/ Implementierungsphase (über)kompensieren.7 Um die Wirkung von Umwelteinflüssen als nicht konzeptbedingten Zahlungsüberschüssen herauszurechnen, ist immer eine Analyse der Rahmenbedingungen, also der unternehmensspezifischen Wettbewerbssituation sowie der situativen Umwelteinflüsse auf das Unternehmen, notwendig. Das Effizienzkriterium stellt mehrere Dimensionen eines existierenden ökonomischen Potenzials dar, die im direkten Zusammenhang mit der spezifischen Situation des Unternehmens sowie den ihm umgebenden Netzwerk stehen. Entsprechend der drei generischen Wettbewerbsstrategien nach MICHAEL E. PORTER (1988, S. 62ff.) umfasst der Entscheidungsspielraum genau zwei Dimensio-
7
Ermittlungs- und Abgrenzungsprobleme ergeben sich sowohl im Hinblick auf die Prognose der zukünftigen Investitionsrückflüsse bzgl. des Gesamtunternehmens als auch im Hinblick auf die Abgrenzung des finanziellen Überschusses (Net Benefit), der allein aus der Implemen-tierung des Managementkonzeptes resultiert.
2.1 Bedeutungsinhalte und Dimensionen des Begriffs Managementkonzept
55
nen8, die für das strategische Wettbewerbspotenzial eines Managementkonzepts kennzeichnend sind. Dabei ist die Existenz von mindestens einem Potenzial eine notwendige, aber keine hinreichende Bedingung, um die Wettbewerbsposition des Unternehmens zu verbessern: •
Wahrgenommenes Differenzierungspotenzial (DP) und
•
Wahrgenommenes Kostenführerschaftspotenzial (CP).
Auf der Basis der zwei Dimensionen lässt sich ein Strategie-Potenzial-Portfolio konstruieren, mit dessen Hilfe die untersuchten Managementkonzepte (eindeutig) klassifiziert werden können.9 Wie in Abb. 2-2 ersichtlich, ergibt sich durch das Bilden und Einzeichnen der arithmetischen Mittelwerte für jede Dimension ein Vier-Quadranten-Schema. Dabei steht jeder Quadrant für eine andere Gewichtung und/ oder ein anderes Niveau der Dimensionen DP und CP; er kennzeichnet damit eine bestimmte Klasse von Managementkonzepten: (1) Hybride Konzepte: besitzen sowohl ein hohes Differenzierungs- als auch ein hohes Kostenführerschaftspotenzial. Damit kann ihnen insgesamt ein hohes Strategiepotenzial für das Unternehmen zugesprochen werden. Die Gruppe umfasst die drei Konzepte E-Commerce/ E-Business (EC), Total Quality Management (TQM) und Core Competence Management (CCM). (2) Kostenführerschaftskonzepte: sind im Gegensatz zu (4) durch ein relativ hohes Kostenführerschaftspotenzial, aber ein nur geringes Differenzierungspotenzial gekennzeichnet. Neben Business Process Reengineering (BPR) gehört insb. Lean Management (LM) zu dieser Gruppe, dem mit einem Wert von 465 das höchste Kostenführerschaftspotenzial zugesprochen wird. (3) Neutrale Konzepte: zeichnen sich durch ein insgesamt geringes strategisches Potenzial aus, da sie weder ein Differenzierungs- noch ein Kostenführerschaftspotenzial deutlich erkennen lassen. Zu dieser Gruppe gehören u.a. die Konzepte Shareholder Value Management (SVM), Growth Strategies (GS) und Virtual Corporations/ Network Organisations (VC). (4) Differenzierungskonzepte: weisen ein relativ hohes Differenzierungspotenzial auf, aber ein nur geringes Kostenführerschaftspotenzial. Nach Auskunft der Befragten gelten Customer Relationship Management (CRM) und Knowledge
8
9
Neben diesen Kriterien 1. Grades, deren Veränderung einen direkten Einfluss auf die aktuelle Wettbewerbssituation haben, gibt es auf untergeordneten Ebenen Effizienzkriterien 2. bis n. Grades. Zu ihnen gehören bspw. die Stärkung der Innovationskraft und die Erhöhung der Kundenzufriedenheit. Die beiden Dimensionen des Strategie-Potenzial-Portfolios werden auf der Basis einer 5-stufigen Likert-Skala mit den Extrempunkten „niedrig“ (Wert = 100) und „hoch“ (Wert = 500) erfasst. Obwohl es sich bei der Befragung von Fink (2003) im Prinzip um eine ordinale Skalierung der Merkmalsausprägungen handelt, wird zur (besseren) Interpretation und Darstellung der Ergebnisse eine quasi-metrische Skalierung angenommen (vgl. Benninghaus 2005, S. 53ff.).
56
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
Management/ Learning Organisation (KM) mit einem Wert von je 433 als die Konzepte mit dem höchsten Differenzierungspotenzial. Die Werte für die beiden Dimensionen DP und CP werden für jedes Managementkonzept getrennt voneinander erfasst. Durch die Berechnung des arithmetischen Mittelwertes aus den zwei Werten lässt sich ein aggregierter Effizienzwert als „Wahrgenommenes Strategiepotenzial“ (SP) bestimmen. Hierbei wird implizit die Annahme unterstellt, dass beide Dimensionen DP und CP gleichbedeutend für die strategische Effizienz eines Managementkonzeptes sind. Je höher das wahrgenommene Differenzierungs- und Kostenführerschaftspotenzial eines Managementkonzeptes ist, desto höher ist das wahrgenommene Strategiepotenzial. Entsprechend Abb. 2-2 befinden sich also die Konzepte mit dem höchsten SP-Wert im 2., die mit dem geringsten SP-Wert im 4. Quadranten. Dabei weist in der o.g. Studie10 E-Commerce/ E-Business (EC) aus der Gruppe der Hybriden Konzepte im Jahr 2003 das (absolut) höchste Strategiepotenzial auf. Nach der einschlägigen Literatur kann Six Sigma – ohne explizite empirische Überprüfung – ebenfalls als hybrides Konzept in den 2. Quadranten eingeordnet werden. Als Bezugsrahmen dienen die drei Konzepte CRM, BPR und TQM. Wie im folgenden Abschnitt erörtert, geht die Zielsetzung von Six Sigma dahin, über eine enge Beziehung zum Kunden (CRM) die wesentlichen Produktanforderungen zu erkennen und diese mit praktizierter Null-Fehler-Qualität (TQM) zu realisieren; die Erfüllung dieser Zielsetzung wird durch operative Exzellenz mit fehlerfreien Prozessen (BPR) ermöglicht (vgl. Töpfer/ Günther 2007a, S. 9). Legt man die oben angesprochenen generischen Wettbewerbsstrategien zugrunde, dann unterstützt Six Sigma das Unternehmen bei der Realisierung von verschiedenen Positionierungsstrategien im Wettbewerb, und zwar (a) Differenzierungsstrategie, insb. Qualitätsführerschaft, (b) Preis- und Kostenführerschaftsstrategie und (c) Hybride Strategie in Form von Outpacing. Gleichzeitig lässt sich mithilfe der Studie kein – direkter oder indirekter – empirischer Beleg für die Unterstützung einer Innovationsstrategie finden, was das in Hypothese H2 benannte Defizit von (Design for) Six Sigma bzgl. der proaktiven Generierung von Innovationen unterstreicht. Konkret bedeutet dies, dass Six Sigma, wie es zum gegenwärtigen Zeitpunkt praktiziert wird, nicht für Unternehmen geeignet ist, die eine Differenzierungsstrategie mit dem Ziel der Innovationsführerschaft verfolgen. Hier ist auf Konzepte und Methoden des Innovationsmanagements zurückzugreifen, wie sie in Abschnitt 3.2.2 überblicksartig vorgestellt werden.
10
Die Stichprobe für die emp. Studie von Fink umfasste 49,2% mittelständische und 27,4% große Unternehmen. 13,4% der befragten Unternehmen rangieren unter den 100 umsatzstärksten Unternehmen in Deutschland. Die Auswahl war zufällig, d.h. die Unternehmen kamen aus ganz unterschiedlichen Bereichen, z.B. Banken und Versicherungen, Konsumgüterindustrie, Chemie und Medizin, Telekommunikation und IT.
2.1 Bedeutungsinhalte und Dimensionen des Begriffs Managementkonzept
Wahrgenommenes Differenzierungspotenzial
Hoch (500)
Differenzierungskonzepte
4
57
Hybride Konzepte
CRM
EC
KM
Si x CCM
Si
gm
1
TQM
a
Mittel (300)
SVM
BPR
VC GS
LM
3 Niedrig (100)
2 Kostenführerschaftskonzepte
Neutrale Konzepte Niedrig (100)
Mittel (300)
Hoch (500)
Wahrgenommenes Kostenführerschaftspotenzial Legende: BPR = Business Process Reengineering/ Business Process Management TQM = Total Quality Management KM = Knowledge Management/ Learning Organisation CRM = Customer Relationship Management LM = Lean Management/ Lean Production
CCM = Core Competence Management SVM = Shareholder Value Management GS = Growth Strategies EC = E-Commerce/ E-Business VC = Virtual Corporations/ Network Organisations
Basis: Fink 2003, S. 52
Abb. 2-2: Strategie-Potenzial-Portfolio ausgewählter Managementkonzepte
58
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
2.2
Managementkonzepte zur Verbesserung der Prozess- und Produktqualität
Ein wesentliches Ziel von Managementkonzepten ist die nachhaltige Verbesserung der Prozess- und Produktqualität. Sie gilt als Ausgangspunkt, um bestimmte finanzielle Wirkungen zu erzielen. So kommen verschiedene empirische Studien zu dem Schluss, dass sich Business Excellence nach einigen Jahren deutlich im Unternehmenserfolg widerspiegelt (vgl. insb. Haller 2004, S. 6). Nach den Entwicklungsstufen der Qualitätssteuerung nach Töpfer (2006, S. 415) liegt der Fokus heute auf der Sicherstellung von Null-Fehler-Qualität. Diese kann auf verschiedenen Wegen erreicht werden, z.B. in Form von kontinuierlicher Verbesserung (Kaizen), wie es vom weltgrößten Automobilhersteller Toyota praktiziert wird, oder mithilfe von prozessorientierten Verbesserungsprojekten (Six Sigma), wie sie vom US-amerikanischen Mischkonzern General Electric durchgeführt werden. In seltenen Fällen gelingt es, ein hohes Qualitätsniveau über eine radikale Veränderung/ Anpassung der Unternehmensstruktur und -abläufe (BPR) zu erreichen. 2.2.1
Kontinuierlicher Verbesserungsprozess (KVP)
Die Entwicklung und Umsetzung von qualitätsorientierter Unternehmensführung im Sinne von Kaizen/ Kontinuierlicher Verbesserung sind unmittelbar verbunden mit der Person TAIICHI OHNO (1912-1990). Er war der Begründer des legendären Toyota Production System (TPS), welches die Erhöhung der Wirtschaftlichkeit der Produktion durch konsequente Beseitigung von Verschwendung (jap. Muda) zum Ziel hat. Neben der systematischen Einführung von KVP und QC (Quality Circle) in den 1950er Jahren, förderte Ohno als Qualitätsmanager die Implementierung von Kanban, Just-In-Time- und Lean Production-Konzepten im japanischen Automobilkonzern Toyota: Dieser gilt bis heute als Vorreiter auf dem Gebiet des Prozess- und Qualitätsmanagements. Sowohl das Konzept nach Ohno (1993) als auch die nachfolgend beschriebenen Verbesserungskonzepte legen ein prozessorientiertes Qualitätsverständnis zu Grunde. Danach ist die Qualität der Geschäftsprozesse entscheidend für eine hohe Kundenzufriedenheit und den finanziellen Erfolg des Unternehmens (vgl. Töpfer 2002, S. 27ff.). Nicht nur in Deutschland wird die Idee vom Ganzheitlichen Produktionssystem (GPS) als zukunftsweisendes Konzept zur Erreichung von Wettbewerbsfähigkeit gehandelt. In der einschlägigen Managementliteratur (vgl. u.a. Töpfer 2006; Liker 2003; Takeda 1995; Ohno 1993; Imai 1986) gilt das „Japan-Modell der Qualitätssicherung“ nach wie vor als Vorbild für westliche Produktionskonzepte.11 Dabei
11
Nach einer neueren Studie von Fraunhofer ISI kommt KVP deutlich mehr bei (deutschen) Großunternehmen mit über 250 Mitarbeitern als bei KMUs mit einer geringeren MA-Anzahl zum Einsatz. Branchenunabhängig nutzen fast 90% der Großunternehmen des verarbeitenden Gewerbes KVP, gegenüber einer Verbreitungsrate von lediglich 68% bei kleinen und mittleren Unternehmen (vgl. Kirner et al. 2007, S. 26).
2.2 Managementkonzepte zur Verbesserung der Prozess- und Produktqualität
59
kann die Implementierung von KVP als besondere Herausforderung für das Management angesehen werden, denn der Erfolg steht und fällt mit der Einstellung sowie Akzeptanz durch die Mitarbeiter. Diese muss sich nach Expertenmeinung in den meisten Fällen grundlegend ändern, um das zentrale Ziel, kundenorientiert und wirtschaftlich zu produzieren, nachhaltig zu erreichen. Für die Umsetzung von KVP können Workshops und Formblätter deshalb lediglich Denkanstöße und Strukturierungshilfen sein. Die eigentliche Herausforderung besteht in der schrittweisen Modifikation der Denkhaltung und Arbeitsweise einer Organisation. Ziele & Strategie Nach einschlägigen Definitionen12 steht bei KVP weniger die Führungsphilosophie einer ganzheitlichen Qualitätsorientierung im Vordergrund, als vielmehr die konkrete Verbesserung des qualitätsbezogenen Handelns und Verhaltens der Akteure im gesamten Unternehmen. Wesentliche inhaltlich-methodische Elemente von KVP sind die Implementierung und Förderung des Betrieblichen Vorschlagswesens (BVW) sowie die Einrichtung von Qualitätszirkeln (QC) als abteilungsübergreifende Gesprächsgruppen. Unter Anleitung eines geschulten Moderators und mit Hilfe spezieller Problemlösungstechniken sollen in ihnen Lösungsvorschläge erarbeitet und Verbesserungsideen initiiert werden. Die Abgrenzung zu „Kaizen“ als japanische Führungsphilosophie geht dahin, dass Kaizen eine kontinuierliche Weiterentwicklung des gesamten Unternehmens anstrebt. Neben einer expliziten Ausrichtung auf den Kunden und (ständige) Produktverbesserungen geht es hier um eine grundsätzliche Änderung im Denken und Handeln aller in die Wertschöpfungsprozesse eingebundenen Mitarbeiter (vgl. Zollondz 2001, S. 402). Aus dem japanischen Wort Kaizen, das im Deutschen so viel bedeutet wie „Ersatz des Guten durch das Bessere“, werden i.d.R. konkrete Handlungsempfehlung auf operativer Ebene abgeleitet. Struktur & Kultur Eine wesentliche Anforderung ist in diesem Zusammenhang die inkrementelle, kontinuierliche Verbesserung von Produkten, Prozessen und Arbeitshandgriffen, um langfristig Wettbewerbsvorteile zu erzielen (vgl. Kirner/ Armbruster/ Kinkel 2007, S. 25). Sie erfolgt jedoch in kleinen bzw. kleinsten Schritten und geht von den Mitarbeitern im Unternehmen selbst aus. Zur Begriffsabgrenzung im deutschsprachigen Raum lässt sich festhalten: Während Kaizen für die übergeordnete Qualitätsphilosophie nach japanischer Prägung steht, wird KVP als zentraler Be-
12
Nach der Qualitätsnorm ISO 9000:2000 wird KVP im Sinne von „Qualitätsverbesserung“ wie folgt definiert: KVP ist der „Teil des Qualitätsmanagements, der auf die Erhöhung der Wirksamkeit und Effizienz gerichtet ist.“ In diesem Zusammenhang wird der Begriff „Ständige Qualitätsverbesserung“ in der Weise verwendet, dass „Qualitätsverbesserung fortschreitet und die Organisation aktiv nach Verbesserungsmöglichkeiten sucht und diese umsetzt.“
60
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
standteil und konstitutives Element von Total Quality Management (TQM) gesehen (vgl. u.a. Töpfer 2002; Pfeifer 2002; Kamiske 2000; Malorny 1999). Die Leitidee der TQM-Philosophie ist es, Qualität in allen Phasen der Wertschöpfungskette zu produzieren und dabei interne wie externe Kunden als Maßstab aller Bemühungen zu betrachten (vgl. Pfeifer 1996, S. 509). Nach der ISO-Definition13 lassen sich insgesamt fünf Grundcharakteristika von TQM herausstreichen: die Ausrichtung auf den Kunden, das Prinzip der Prozess- und Mitarbeiterorientierung, die allgemeine Umfeldorientierung und das ständige Streben nach Verbesserung. Im Ergebnis führt TQM zu einer eigenständigen Unternehmenskultur, die durch kontinuierliche Verbesserung aller Prozesse die zukünftige Qualitäts- und Wettbewerbsfähigkeit von Organisationen sichert (vgl. Kamiske/ Malorny 1997, S. 42). Die Hauptpfeiler des Führungsmodells, nämlich „Total“, „Quality“ und „Management“, sind in Abb. 2-3 in einem Kreismodell dargestellt.
Qualität von Orientierung auf Gesellschaft
Arbeit Prozess
Kunden Mitarbeiter
Produkt Unternehmen
T
KVP
Führungsqualität Vorbildfunktion
M
Q Teamfähigkeit Lernfähigkeit
Basis: Pfeifer 1996, S. 509
Abb. 2-3: Das Führungsmodell Total Quality Management (TQM)
13
Die Definition nach DIN EN ISO 8402 lautet: „Total Quality Management ist eine auf der Mitwirkung aller ihrer Mitglieder basierende Führungsmethode einer Organisation, die Qualität in den Mittelpunkt stellt und durch Zufriedenstellung der Kunden auf langfristigen Geschäftserfolg, sowie auf den Nutzen für die Mitglieder der Organisation und für die Gesellschaft zielt.“
2.2 Managementkonzepte zur Verbesserung der Prozess- und Produktqualität
61
Instrumente & Methoden Das Vorgehen im Rahmen von TQM und Kontinuierlicher Verbesserung beruht auf dem PDCA-Zyklus. Dieser geht auf den bekannten Wissenschaftler und Qualitätsexperten EDWARD W. DEMING (1900-1993) zurück und umfasst die vier Phasen: P = Plan (Planen) – D = Do (Ausführen) – C = Check (Überprüfen) – A = Act (Verbessern). Das schrittweise Durchlaufen der vier Phasen ist dabei als nie endender Prozess zu verstehen und bildet die Grundlage für die kontinuierliche Verbesserung von Geschäftsprozessen und Abläufen in/ von Unternehmen. Eine vertiefende Analse des PDCA-Zyklus erfolgt im Zusammenhang mit den Vorgehensmodellen zur kontinuierlichen Verbesserung in Abschnitt 3.2.3. 2.2.2
Business Process Reengineering (BPR)
Business Process Reengineering (BPR) kann als die Antwort der amerikanischen und europäischen Automobilhersteller auf die Übermacht der Japaner Ende der 1980er Jahre aufgefasst werden. Verschiedene Studien dokumentierten eindrucksvoll den Kosten-, Zeit- und Qualitätsvorsprung von japanischen Automobilherstellern nicht nur im Produktions-, sondern auch im Entwicklungsbereich. Sowohl in den USA als auch in Europa war und ist dringender Handlungsbedarf angezeigt, um die Übermacht von Toyota14 et al. zu brechen (vgl. u.a. Liker 2003; Womack 2003; Rommel et al. 1995; Womack et al. 1994; Shingo 1993). Das Zauberwort „Reengineering“ kam Anfang der 1990er Jahre im anglo-amerikanischen Raum auf und wurde durch den Bestseller „Reengineering the Corporation“ von MICHAEL HAMMER und JAMES CHAMPY (1994) weltweit bekannt gemacht. Die Definition des Konzeptes enthält vier konzeptionelle Merkmale bzw. Schlüsselworte15, die in Abb. 2-4 als vier Ecken eines Diamanten dargestellt sind und auf die im Folgenden kurz eingegangen werden soll:
14
15
Das Automobilunternehmen Toyota löst in 2008 General Motors als Weltmarktführer nach der Stückzahl verkaufter Autos ab. Dabei scheint es, dass das Qualitätssicherungssystem mit dem enormen Wachstum des Konzerns in den vergangenen Jahren nicht Schritt halten konnte. So sind nach der ADAC-Statistik für das Jahr 2007 Autos von deutschen Herstellern, insb. BMW, (wieder) zuverlässiger als die von japanischen, insb. Toyota (vgl. Wüst 2008, S. 116f.; Freitag 2004, S. 72ff.). Die Standard-Definition von BPR nach Hammer/ Champy (1994, S. 48) lautet wie folgt: „Business Reengineering ist [...] fundamentales Überdenken und radikales Redesign von Unternehmen oder wesentlichen Unternehmensprozessen. Das Resultat sind Verbesserungen um Größenordnungen in entscheidenden, heute wichtigen und meßbaren Leistungsgrößen in den Bereichen Kosten, Qualität, Service und Zeit.“ Töpfer (1996, S. 10f.) unterscheidet im Zusammenhang mit der Geschäftprozessoptimierung drei Entwicklungsstufen als graduelles Ausmaß des Veränderungsprozesses: (a) Re-Engineering, (b) Restrukturierung und (c) Prozesskettenoptimierung. Während beim Re-Engineering das Ausmaß der Veränderung sehr groß ist und unweigerlich zu einer „Revolution“ im Unternehmen führt, kann die bloße Neurodnung bzw. Restrukturierung der Geschäftsprozesse mit einer „Evolution“ gleichgesetzt werden. Die Prozess-
62
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
Ziele & Strategie •
Fundamentales Überdenken: Nach Hammer/ Champy (1994, S. 48f.) müssen sich die Manager die elementarsten Fragen zu ihren Unternehmen und ihren betrieblichen Abläufen stellen: „Warum machen wir gerade diese Dinge? Und weshalb machen wir sie auf diese Art und Weise?“ Damit konzentriert man sich bei BPR auf das, was sein sollte und ignoriert das, was ist. Infolgedessen geht BPR von keinerlei Annahmen oder Vorgaben aus. Auch sollten sich die Beteiligten davor hüten, Dinge, d.h. Abläufe und Strukturen, für selbstverständlich zu erachten. Dadurch werden die Betroffenen angehalten, ihr Augenmerk auf Regeln und Annahmen zu lenken, die ihrer Geschäftstätigkeit zugrunde liegen. Diese stellen sich in vielen Fällen bei genauerem Hinsehen als veraltet, falsch oder ungeeignet heraus.
•
Verbesserungen um Größenordnungen: BPR hat nicht geringfügige bzw. inkrementelle Leistungsverbesserungen zum Gegenstand, sondern Quantensprünge, d.h. es werden herausfordernde Ziele angestrebt, z.B. die Halbierung der Durchlaufzeit. Die Verminderung der Kosten um 10% oder die Erhöhung der Qualität um 10% können durchaus mit konventionellen Methoden erreicht werden, z.B. über Einführung stufenweiser Qualitätsprogramme oder über die Verbesserung der Feinsteuerung im Unternehmen. Verbesserungen um Größenordnungen hingegen verlangen die Zerstörung des Alten und den Aufbau von etwas Neuem. In diesem Zusammenhang identifizieren die Forscher drei Arten von Unternehmen, für die BPR besonders in Frage kommt.
Instrumente & Methoden •
Radikales Redesign: Unter radikalem Redesign wird im Rahmen des BPR verstanden, dass man den Dingen auf den Grund geht und dass man einen klaren Trennstrich zur Vergangenheit zieht. Es sind keine oberflächlichen Änderungen vorzunehmen, sondern völlig neue Wege bei der Ausführung der Arbeit zu beschreiten. Die Prozesse und Abläufe sind gegebenenfalls unter Missachtung aller bestehenden Strukturen neu zu definieren. Es geht nach Hammer/ Champy (1994, S. 49) um die völlige Neugestaltung des Unternehmens und nicht um die Verbesserung, Erweiterung und/ oder Modifizierung von Geschäftsabläufen in kleinen Schritten. In den meisten Fällen bezieht sich das Redesign auf das gesamte Unternehmen; Ganzheitlichkeit steht also bei BPR im Vordergrund (vgl. Schmelzer/ Sesselmann 2004, S. 338ff.).
•
Optimierung von Prozessen: Die Optimierung von Unternehmensprozessen kann auch bei BPR als die Grundidee schlechthin aufgefasst werden. Dabei wird vor allem die Bedeutung der Prozessorientierung von allen Managern und Mitarbeitern im Unternehmen herausgestellt. Denn die meisten von ihnen verhalten sich alles andere als prozessorientiert; sie konzentrieren sich auf
kettenoptimierung betrifft jeweils nur einen Teil des Unternehmens und lässt sich vor diesem Hintergrund als räumlich beschränkte Revolution kennzeichnen.
2.2 Managementkonzepte zur Verbesserung der Prozess- und Produktqualität
63
Aufgaben, Positionen, Menschen und Strukturen statt auf Prozesse. Die größte Herausforderung von Unternehmen besteht vor diesem Hintergrund nicht selten darin, sich nicht mehr vertikal nach Funktionen, sondern horizontal nach Prozessen zu gliedern. Der Fokus von BPR liegt folgerichtig auf der Strukturierung und Optimierung von Kernprozessen, in denen die eigentliche Wertschöpfung des Unternehmens stattfindet. Fundamentales Überdenken
Optimierung von Prozessen
Radikales Redesign
Verbesserungen um Größenordnungen Basis: Hammer/ Champy 1994, S. 110
Abb. 2-4: Das Reorganisationsmodell Business Process Reengineering (BPR)
Struktur & Kultur Der gemeinsame Fokus von BPR-Ansätzen16 liegt zum einen auf der Veränderung der Unternehmenskultur und zum anderen auf der Verbesserung des Qualitätsund Prozessmanagements unter explizitem Einsatz von Informationstechnologie (IT). Auf der Grundlage eines IT-getragenen Organisationswandels (Business Transformation) begannen Mitte der 1980er Jahre einzelne Unternehmen mit radikalen, diskontinuierlichen Veränderungen zu „experimentieren“. Das Ziel bestand darin, das Gestaltungs- und Automatisierungspotenzial der IT, z.B. die Betriebssoftware SAP/R3, für die grundsätzliche Neugestaltung von Geschäftsprozessen zu erkennen und zu nutzen (vgl. auch Metzen 1994, S. 279ff.).
16
In der praxisbezogenen und wissenschaftlichen Literatur wird BPR unter zahlreichen synonymen Bezeichnungen verwendet, z.B. Business Reengineering, Process Innovation und Business Process Redesign (vgl. Schmelzer/ Sesselmann 2004; Harmon 2003; Hunt 1996; Töpfer 1996; Davenport 1993).
64
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
Wie verschiedene empirische Studien belegen, konnte BPR als eigenständiges und zukunftweisendes Managementkonzept die hohen Erwartungen, die Manager mit einem ganzheitlichen Konzept der Organisationsgestaltung verknüpfen, weitestgehend nicht erfüllen. Heute konstatieren selbst die o.g. Protagonisten von BPR, dass die meisten BPR-Projekte in der Praxis nicht erfolgreich verlaufen; nach einer Studie von Straub/ Forchhamer (1995, S. 9) ist davon auszugehen, dass ca. 70 bis 80% aller Projekte in Unternehmen, die unter dem Zeichen einer radikalen Restrukturierung/ Reengineering stehen, regelmäßig scheitern. Dies ist nach Töpfer (1996, S. 10) dem „uneingeschränkten Darwinismus“ geschuldet, der zu einem Bruch mit allem Vorhandenen und damit auch Bewährtem führt. Bei erfolgreichen BPR-Projekten konnten die erwarteten Leistungsverbesserungen langfristig nur erreicht werden, wenn die Umsetzung sowohl radikal als auch ganzheitlich verfolgt wurde (vgl. z.B. Studie von Hall/ Rosenthal/ Wade 1994, S. 85). Bereits zu Beginn des BPR-Aufschwungs stellten deshalb Osterloh/ Frost (1994) die Frage, ob es sich bei BPR um eine „Modeerscheinung“ oder ein „nachhaltiges Konzept der Prozessgestaltung“ handelt (vgl. auch Abschnitt 2.3.1). Mit dem Niedergang von BPR begann der weltweite Aufstieg von Six Sigma. 2.2.3
Six Sigma und Design for Six Sigma (DFSS)
Auf einzelne Aspekte des Six Sigma-Konzeptes wurde bereits im einleitenden Kapitel eingegangen. Für eine umfassende Darstellung sei auf die einschlägige Literatur verwiesen (vgl. u.a. Töpfer 2007; Harry/ Schroeder 2005; Magnusson et al. 2004; Breyfogle 2003; Pande et al. 2000). Um die Grundkonzeption des Managementkonzeptes zu verstehen, bietet es sich an, Six Sigma respektive Design for Six Sigma unter den folgenden zwei Gesichtspunkten zu analysieren. Ziele & Strategie •
Six Sigma-Messkonzept: Die (statistische) Forderung des Six Sigma-Konzepts besteht darin, dass bezogen auf ein Produktionsvolumen von 1 Mio. Einheiten nur 3,4 fehlerhafte Prozessoutputs auftreten dürfen. Dies entspricht einem geforderten Qualitätsniveau bzw. einer angestrebten Ausbeute von 99,99966%. Als Referenzmodell für die Darstellung dieses Wahrscheinlichkeitswertes wird das Verteilungsmodell der Standardnormalverteilung genutzt. Danach dürfen bei einer Streuung der Merkmalswerte von 6σ um den Mittelwert die Spezifikationsgrenzen (langfristig) nur in maximal 0,00034% der Fälle verletzt werden. Um unter den Bedingungen eines verschärften Wettbewerbs zu überleben, wird in diesem Zusammenhang häufig auch von dem Ziel „praktizierter Null-Fehler-Qualität“ gesprochen (vgl. Töpfer/ Günther 2007a, S. 7). Im Vergleich zum 6σ-Standard liegt das durchschnittliche Qualitätsniveau in der deutschen Industrie bei einem Sigma-Wert von 3,8, was einer Ausbeute von ca. 99% bzw. einer Fehlerrate von ca. 10.000 PPM (Parts Per Million)
2.2 Managementkonzepte zur Verbesserung der Prozess- und Produktqualität
65
entspricht.17 Alternativ wird zur Berechnung des Sigma-Wertes die Fehlerquote18 (DPMO – Defects Per Million Opportunities) herangezogen. •
Six Sigma-Projektmanagement: Neben der Interpretation von Six Sigma als statistisches Messkonzept mit dem auf der Standardnormalverteilung basierenden Qualitätsanspruch von 6σ = 3,4 DPMO steht Six Sigma für stringentes Projektmanagement auf fundierter statistischer Basis unter Einsatz bekannter und wirksamer QM-Instrumente, z.B. FMEA und Ishikawa-Diagramm. Die projektorientierte Ausrichtung von Six Sigma konkretisiert sich in zwei standardisierten Vorgehensweisen, nämlich dem DMAIC-Zyklus mit den fünf Phasen Define, Measure, Analyse, Improve und Control sowie dem DMADV-Zyklus mit den fünf Phasen Define, Measure, Analyse, Design und Verify. Die Anwendung der Zyklen richtet sich nach dem Zeitpunkt der Verbesserungsaktivität im Leistungserstellungsprozess: •
Der DMAIC-Zyklus bezieht sich auf die Optimierung von bestehenden Prozessen in Unternehmen (vgl. Abschnitt 3.3.1). Im Rahmen eines 3- bis 6-monatigen Six Sigma-Verbesserungsprojektes soll die Frage beantwortet werden, wie die aktuelle Prozessleistung im Hinblick auf eine höhere Kundenzufriedenheit/ -bindung verbessert werden kann.
•
Der DMADV-Zyklus kommt – im Sinne eines Design for Six Sigma (DFSS) – bei der Neuproduktplanung und -entwicklung zum Einsatz, wobei zukünftig wichtige Kundenanforderungen ermittelt und erfüllt werden sollen (vgl. Abschnitt 3.3.2). Ziel ist es hier, die Fehlerrate bzw. Fehlerquote bei Neuprodukten/ -prozessen von vornherein, d.h. ab Serienstart, niedrig zu halten (vgl. Töpfer/ Günter 2007b, S. 100ff.).
Instrumente & Methoden Neben einer präzisierten Projektlaufzeit konkretisiert sich die stringente Umsetzung in einer klaren Zielstruktur, bei der die finanziellen Ergebnisse jeweils im Vordergrund stehen. So wird in großen Unternehmen, wie bereits erwähnt, die durchschnittliche Nettoersparnis (Net Benefit) pro Projekt auf mind. 125.000 € beziffert, während sie in kleinen und mittleren Unternehmen bei nicht unter 50.000 € liegen sollte (vgl. Töpfer 2007b, S. 236). Um dieser Anforderung gerecht zu werden, ist in jedem Projekt eine detaillierte Analyse der drei Umsetzungstreiber von Six Sigma – Kunde, Prozess und Qualität – vorzunehmen. 17
18
Auf die Tatsache, dass dieses Ergebnis unter Kosten- und Umsatzgesichtspunkten sowie sinkenden Gewinnmargen in vielen Branchen nicht (mehr) wettbewerbsfähig ist, weisen insbesondere die beiden Autoren und Gründer der Six Sigma Academy® von Motorola MIKEL HARRY und RICHARD SCHROEDER (2005, S. 17) hin. Nach ihren Erfahrungen betragen bei einem „Weltklasse-Unternehmen“ auf 6σ-Niveau die qualitätsbezogenen Kosten im Durchschnitt weniger als 1% des Gesamtumsatzes p.a. Zur Berechnung der Fehlerquote wird im Nenner der PPM-Formel die Anzahl der Fehlermöglichkeiten als Maß für die Komplexität der Produkte/ Prozesse berücksichtigt (vgl. Günther 2003, S. 1).
66
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
Kunde
Prozess
Qualität
Veränderung
Ergebnisverbesserung durch o Kosteneinsparung o Umsatz-/Ertragssteigerung Quelle: Töpfer 2007, S. 372
Abb. 2-5: Die Six Sigma Umsetzungstreiber
Wie in Abb. 2-5 nachvollziehbar, sollen über eine enge Beziehung zum Kunden die aus seiner Sicht kritischen Qualitätsmerkmale (CTQs) nicht nur erkannt, sondern durch optimierte Prozesse mit praktizierter Null-Fehler-Qualität auch realisiert werden. Durch zufriedene Kunden und wirtschaftliche Prozesse werden i.A. Kosteneinsparungen und Umsatzsteigerungen generiert, die dann zu nachhaltigen Ertragsverbesserungen führen. Bei General Electric lag z.B. das Kosten-NutzenVerhältnis im Jahr 2000 bei 1 zu 6, was einer durchschnittlichen Kapitalverzinsung von 600% für die Investition in Six Sigma-Aktivitäten entspricht. Insgesamt belief sich der monetäre Nutzen (Net Benefit) durch Six Sigma-Projekte bei GE im Zeitraum von 1995 bis 2000 auf über 6 Mrd. US-$.19 Struktur & Kultur Die Erfahrungen in der Unternehmenspraxis zeigen, dass die Zeitdauer für die vollständige Einführung eines effektiven Six Sigma-Projektmanagements ca. 24 Monate beträgt. Darin enthalten sind die Durchführung eines Pilotprojektes von 46 Monaten, um die Eignung der Six Sigma-Methodik zu testen, eine ca. 5monatige Trainingsphase für Green und Black Belts als Projektmitarbeiter/ -leiter sowie die damit verbundene strategische Analyse und Durchführung von Trainingsprojekten (1. Welle). Die anschließende Ausfächerung von Six Sigma im
19
Heute arbeitet das Unternehmen intensiv daran, das Six Sigma-Konzept in der gesamten mehrstufigen Wertschöpfungskette, also auch bei den Kunden- und LieferantenUnternehmen, zu etablieren (vgl. Brady 2003, S. 60ff.).
2.2 Managementkonzepte zur Verbesserung der Prozess- und Produktqualität
67
gesamten Unternehmen nimmt dann erfahrungsgemäß weitere 12 bis 14 Monate in Anspruch (2. und 3. Welle). Je nach organisatorischen Voraussetzungen werden entsprechend der Unternehmenshierarchie mind. vier Gruppen von Six SigmaAkteuren unterschieden (vgl. Töpfer/ Günther/ Garzinsky 2007, S. 254): •
Champions als Führungskräfte und Machtpromotoren mit operativer Ergebnisverantwortung für einen bestimmten Wertschöpfungsbereich
•
Master Black Belts als Systempromotoren und durch eine größere Anzahl von durchgeführten Projekten sehr erfahrene Six Sigma Experten
•
Black Belts als Projektleiter und Fachpromotoren für die Durchführung umfassender Six Sigma und Design for Six Sigma-Projekte
•
Green Belts als Projektmitglieder oder als Leiter kleinerer Six SigmaProjekte, die sich z.B. auf die Verbesserung von Teilprozessen beziehen.
Die Trainingsdauer reicht je nach Position und Qualifikationsgrad von 2 bis 20 Tagen. Es erfolgt bei Green und Black Belts jeweils an einem konkreten Projekt. In vielen Unternehmen20 wird die Six Sigma-Qualifizierung als ein konkretes Führungskräftenachwuchstraining gesehen, d.h. durch die Ausbildung zum Green und/ oder Black Belt sowie durch die „Bewährung“ in konkreten Projekteinsätzen werden die Voraussetzungen für eine Karriere auf eine attraktive Führungsposition im Unternehmen geschaffen. Erfahrungswerte belegen, dass die Anzahl von in Six Sigma-Methoden geschulten Mitarbeitern21 insgesamt ca. 10% der Belegschaft eines Unternehmens betragen sollte (vgl. Q-DAS 2002, S. 1). 2.2.4
Kritische Bewertung der Konzepte auf der Basis eines multidimensionalen Vergleichs
In diesem Abschnitt werden die vorstehend beschriebenen Managementkonzepte insbesondere dahingehend untersucht, welche umweltbezogene Anpassungsstrategie zugrunde liegt und auf welche Art und Weise die organisationale Veränderung vonstatten geht. Dazu wird ein 10-Punkte-Kriterienraster verwendet, anhand dessen sich die drei Konzepte eindeutig positionieren und hinsichtlich Zielsetzung und Konzeption systematisch abgrenzen lassen. Die Festlegung der einzelnen Merkmale bzw. Merkmalsausprägungen erfolgt zum einen auf der Grundlage von management-/ organisationstheoretischen Konzepten. Zum anderen wird auf einschlägige Klassifizierungsansätze in der Managementliteratur zurückgegriffen, die z.B. im Zusammenhang mit der Abgrenzung von BPR und KVP entwickelt worden sind (vgl. Davenport 1993, S. 11).
20
21
So wurden z.B. beim US-amerikanischen Mischkonzern General Electric in einem kurzen Zeitraum 70.000 der weltweit agierenden 300.000 Beschäftigten in Six SigmaLehrgängen und Qualitätsseminaren geschult (vgl. Garthe 2002, S. 345). Die „kritische Masse“ für die Gruppe der Black Belts wird bei großen Unternehmen mit ca. 2% der Belegschaft beziffert (vgl. Töpfer 2007b, S. 212).
68
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
In Abb. 2-6 sind die Ergebnisse der Gegenüberstellung von KVP, Six Sigma und BPR im Überblick dargestellt. Wie ersichtlich ist, beziehen sich die aufgeführten Kriterien sowohl auf die strategische Ausrichtung der Managementkonzepte als auch auf ihre operative Umsetzung. Auf die einzelnen Punkte sowie konzeptbezogene Einordnung wird nachfolgend kurz eingegangen. Zu (1): Art des Organisationswandels Mit Organisationsentwicklung (OE) und Organisationstransformation (OT) werden in der betriebswirtschaftlichen Literatur üblicherweise zwei Arten des Organisationswandels unterschieden (vgl. z.B. Staehle 1998, S. 922ff.): •
Organisationsentwicklung (Organizational Development) ist eine Form des geplanten Wandels. Unter Verwendung verhaltenswissenschaftlicher Erkenntnisse wird ein evolutionärer, organisationsweiter Veränderungsprozess eingeleitet und unterstützt. OE hat ihren Ursprung in der Aktionsforschung und der Untersuchung von Gruppendynamiken. Auf der Grundlage der Mitwirkung aller Organisationsmitglieder sollen individuelle Verhaltensmuster, Organisationskultur sowie Kommunikations- und Organisationsstrukturen zweckmäßig verändert und weiterentwickelt werden.22 Die Zuordnung des Konzeptes KVP zu OE lässt sich vor allem an der Art von verwendeten Interventionstechniken festmachen. So werden im Rahmen von OE bevorzugt personenbezogene (z.B. Sensibilisierung von Mitarbeitern für Qualität), gruppenbezogene (z.B. Förderung von Qualitätszirkeln) und organisationsbezogene (z.B. Implementierung eines BVW) Interventionstechniken eingesetzt. Bei der nachstehenden OT kommen zusätzlich situationsbedingt, z.T. drastische, strukturbezogene (z.B. Neustrukturierung der Organisation), personenbezogene (z.B. Austausch des Top-Managements) und/ oder kapitalbezogene (z.B. Verkauf von Betriebsteilen) Maßnahmen zum Einsatz.
•
Organisationstransformation (Organizational Transformation) impliziert einen revolutionären strategischen Veränderungsprozess von Organisationen, der auf einen Wandel 2. Ordnung ausgerichtet ist. Ausgangspunkt für die Veränderungsbemühungen ist zum einen die Unzufriedenheit mit alten Managementphilosophien/ -techniken und der Glaube an die Existenz neuer Lösungen im Management. Zum anderen macht ein erkennbarer misfit zwischen der gegenwärtigen Organisationssituation und den gegenwärtigen und/ oder zukünftigen Umweltkonstellationen einen radikalen strategischen Wandel notwendig (vgl. Staehle 1998, S. 930). Gegenüber OE ist OT immer mit einem Philosophiewechsel verbunden, bei dem Personen und Systeme an einer neuen Mission ausgerichtet werden (sollen). Während OE gegenwartsorientiert die Kontinuität mit der Vergangenheit
22
Organisationsentwicklung (OE) wird von WOLFGANG H. STAEHLE (1998, S. 930) auch als Wandel 1. Ordnung bezeichnet, bei dem als Ziele die „Humanisierung der Arbeit“ und die „Erhöhung der Leistungsfähigkeit“ im Vordergrund stehen.
2.2 Managementkonzepte zur Verbesserung der Prozess- und Produktqualität
69
anstrebt, geht OT explizit vom Beginn einer neuen Zukunft, d.h. einer neuen Entwicklungsstufe, aus.23 Dies trifft uneingeschränkt für das Managementkonzept BPR zu. Die Zuordnung von Six Sigma24 zu OT liegt vor allem darin begründet, dass mit dem Aufbau einer eigenständigen Six Sigma-Organisation i.d.R. drastische strukturbezogene Veränderungen im gesamten Unternehmen einhergehen (vgl. z.B. Wessel 2002a, S. 8). Im Hinblick auf die gewählte Anpassungsstrategie zur effizienten Gestaltung von Organisationen/ Unternehmen kommen mit der Kontingenz- und Konsistenztheorie zwei konkurrierende theoretische Ansätze in Frage. Bei den situativen bzw. kontingenztheoretischen Ansätzen wird in erster Linie von der KongruenzEffizienz-Hypothese ausgegangen. Sie besagt, dass eine Strukturierung effektiv ist, „wenn sich Kontingenzfaktoren und Gestaltungsparameter genau entsprechen (close fit)“ (Mintzberg 1979, S. 219ff.), wenn also ein maximaler Grad an Übereinstimmung (fit) zwischen Organisation und Umwelt vorliegt. Zu diesem Zweck werden in der einschlägigen Literatur häufig Checklisten mit Anwendungsvoraussetzungen für den effektiven Einsatz eines bestimmten Konzeptes präsentiert. Ein Selbsttest für die Notwendigkeit und Zweckmäßigkeit der Einführung von Six Sigma in Unternehmen findet sich z.B. bei Töpfer/ Günther (2007a, S. 27). Bei den konsistenztheoretischen Ansätzen wird hingegen von der KonsistenzEffizienz-Hypothese ausgegangen, welche im Kern postuliert, dass eine Strukturierung dann effektiv ist, „wenn eine interne logische Konsistenz zwischen den Gestaltungsparametern besteht“. In diesem Fall lassen sich die Charakteristika von Organisationen/ Unternehmen in verschiedene Cluster bzw. Konfigurationen einordnen, die eine natürliche Harmonie aufweisen und bei denen sich gleich mehrere Strukturvariablen in Übereinstimmung befinden. Die Integration beider Hypothesen führt nach HENRY MINTZBERG (1984) zu folgender übergeordneten Aussage: „Effektive Strukturierung erfordert Konsistenz zwischen den Gestaltungsparametern und den Kontingenzfaktoren“ (Staehle 1998, S. 60). So setzen z.B. Unternehmen, die Six Sigma praktizieren, häufig die Balanced Scorecard25 (BSC) als Unternehmenssteuerungsinstrument ein. Sie hilft unmittelbar bei der Projektauswahl und -steuerung. Darüber hinaus bewerten sie regelmä-
23
24
25
Im Sinne eines qualitativen Wandels 2. Ordnung umfasst OT alle Organisationsebenen und fokussiert dabei gleichzeitig auf mehrere Dimensionen; statt Wandel des Inhalts steht hier der Wandel im Kontext im Mittelpunkt (vgl. u.a. Levy/ Merry 1986, S. 33). Nach Wessel (2002a, S. 8) war der Weg von Motorola zu Six Sigma in den 1980er Jahren durch eine Reihe von geplanten inkrementellen Veränderungen geprägt, die in Summe zu einer Organisationstransformation führten. Diese manifestierte sich mit der bewussten Ausrichtigung auf 6σ-/ Null-Fehler-Qualität im Jahr 1987. Die BSC ist der zweite Baustein im strategischen Wirkungsverbund der drei QMKonzepte: Six Sigma, BSC und EFQM. Das Steuerungsinstrument verstärkt die Fokussierung auf Werttreiber und Erfolgsfaktoren, und zwar in einer völlig unternehmensspezifischen Ausrichtung (vgl. Messer/ Töpfer 2002, S. 1268).
70
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
Operative Umsetzung
Strategische Ausrichtung
ßig ihr Excellence-Niveau anhand einschlägiger Modelle, z.B. European Foundation for Quality Management26 (EFQM). Dadurch sollen konkrete Ansatzpunkte für Verbesserungen aufgedeckt werden, um langfristig eine hohe Unternehmensqualität sicherzustellen (vgl. Messer/ Töpfer 2002, S. 1268ff.).
Kriterium
KVP
Six Sigma
BPR
(1) Art des Organisationswandels
Organisationsentwicklung (OE)
Eher Organisationstransformation
Organisationstransformation (OT)
(2) Art der Anpassungsstrategie
Konfigurationsbeibehaltung
Konfigurationswechsel als Ziel
Konfigurationswechsel
(3) Veränderungsstärke
Klein, inkrementell
Inkrementell-synoptisch
Radikal, ganzheitlich
(4) Veränderungshäufigkeit
Kontinuierlich
Kontinuierlich in Sprüngen
Diskontinuierlich
(5) Veränderungssicht
Eng, funktionsbezogen
Weit, funktionsübergreifend
Sehr weit, funktionsübergreifend
(6) Ausgangspunkt für Verbesserungen
Bestehende Prozesse
Bestehende und neue Prozesse
Immer neue Prozesse
(7) Partizipation der Mitarbeiter
Bottom-up
Top-down
Gegenstromprinzip
(8) Definition von Rollen/ Strukturen
Nein
Ja, stark differenziert
Ja, schwach differenziert
(9) Routinen bei Umsetzung
Ja, schwach ausgeprägt
Ja, stark ausgeprägt
Nein
(10) Zeitbedarf für Umsetzung
Mehrere Wochen
1-2 Jahre
2-5 Jahre
Quelle: Eigene Darstellung
Abb. 2-6: 10-Punkte-Kriterienraster zum Vergleich von KVP, Six Sigma und BPR
Zu (2): Art der Anpassungsstrategie Wie in Abb. 2-6 nachvollziehbar ist, kommt es bei der (erfolgreichen) Umsetzung von BPR zu einem Konfigurationswechsel. Aus Sicht der Gesamtorganisation besteht das Ziel darin, aufgrund sich ändernder Umweltbedingungen relativ kurzfristig von einer konsistenten, harmonischen Organisationsstruktur/ -kultur in eine andere zu wechseln. Im Gegensatz dazu wird bei KVP die ursprüngliche Konfiguration der Organisation beibehalten; im Laufe der Zeit erfolgt lediglich eine Anpassung bestimmter Struktur-/ Gestaltungsvariablen, ohne dass dabei die bestehende Konfiguration nennenswert verändert wird. In Abgrenzung zu KVP und BPR hat das Six Sigma-Konzept „nur“ langfristig das Ziel eines Konfigurationswechsels; kurzfristig soll die Organisationsstruktur bestehen bleiben und durch
26
Das EFQM-Modell konzentriert sich mit seiner Unterscheidung in Befähiger- und Ergebniskriterien auf die Leistungsbewertung im Vergleich zu einem Idealunternehmen. Der differenzierte und standardisierte Kriterienkatalog liefert dabei ein einheitliches Raster, welches ein umfassendes Verständnis der Stärken und Schwächen des Unternehmens auf der Prozessebene vermittelt (vgl. Wigand/ Schnopp 2000, S. 266ff.).
2.2 Managementkonzepte zur Verbesserung der Prozess- und Produktqualität
71
eine Six Sig-ma-Projektorganisation (lediglich) ergänzt werden. Die Reichweite der angestrebten Veränderungen ist damit von mittlerer Größe. Gegenüber biologischen Systemen, die der Wirkung Darwinistischer Selektionsprozesse unterliegen und sich im Laufe mehrerer Generationen wandeln, zeichnen sich soziale Systeme, z.B. Unternehmen, durch eine relativ kurzfristige Veränderungs-/ Anpassungsfähigkeit aus. In diesem Zusammenhang unterscheiden Miller/ Friesen (1984) zwischen einem Quantum change (Ganzheitliche Anpassung) und einem Piecemeal change (Teilweise Anpassung).27 Der Änderungsprozess kann bei beiden Ansätzen dramatisch-revolutionär oder inkrementell-evolutionär erfolgen (vgl. Müller-Stewens/ Lechner 2003, S. 560f.); im Regelfall ist jedoch das Vorgehen bei der ganzheitlichen Anpassung revolutionär (Revolutionary change) und bei einer teilweisen Anpassung evolutionär (Evolutionary change). Konkret empfehlen die beiden Autoren einen Quantum change, wobei die Veränderung solange hinauszuzögern bzw. die harmonische, konsistente Konfiguration solange beizubehalten ist, bis der misfit zwischen gegenwärtiger Konfiguration und gegebener Umweltsituation eine radikale Veränderung vieler Strukturvariablen verlangt. Beispielhaft zu nennen sind hier die unternehmensweiten Six SigmaEinführungen bei Motorola, General Electric et al. Demgegenüber stellt der Piecemeal change die bevorzugte Strategie der Kontingenztheoretiker dar; bei ihr erfolgt die Anpassung evolutionär und inkrementell, d.h. einzelne Strukturelemente werden unverzüglich verändert, sobald sich ein misfit zwischen Struktur und Umwelt ergibt. Dies kennzeichnet z.B. die Strategie von Toyota zum Erreichen von Null-Fehler-Qualität (vgl. Freitag 2004, S. 82); entdeckte Fehler in Produkten und Prozessen werden hier unmittelbar ausgemerzt. Wann letztendlich eine evolutionäre statt einer revolutionären Anpassungsstrategie zum Einsatz kommen sollte, ist von den jeweiligen situativen Anforderungen abhängig. So sind nach Miller (1982, S. 131f.) insbesondere der Umweltzustand und die Umweltunsicherheit in das Entscheidungskalkül einzubeziehen. Zu (3)-(5): Veränderungsstärke, -häufigkeit und -sicht Hinsichtlich Veränderungsstärke, -häufigkeit und -sicht können die Anpassungsstrategien/ -philosophien, die den drei Managementkonzepten zugrunde liegen, wie folgt präzisiert werden (vgl. u.a. Gupta 2004, S. 12ff.): •
27
Da bei BPR viele Gestaltungsvariablen konsistent und kontrolliert in einem oder mehreren Unternehmensbereichen gleichzeitig verändert werden, ist hier von einem Quantum change zu sprechen (vgl. Engelmann 1995, S. 17). In diesem Zusammenhang kommt es zu einer radikalen und ganzheitlichen Neu-
Während bei einem Quantum change viele der Strukturvariablen simultan und koordiniert verändert werden, beschränkt sich ein Piecemeal change auf die gleichzeitige Veränderung von wenigen Strukturvariablen.
72
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
gestaltung von Geschäftsprozessen, wobei eine sehr weite, funktionsübergreifende Veränderungssicht eingenommen wird. •
Während bei BPR die Veränderungen diskontinuierlich erfolgen, steht bei KVP – wie der Name bereits sagt – die kontinuierliche Verbesserung von Prozessen in kleinen, inkrementellen Schritten im Vordergrund. Der Analysebereich und damit die Veränderungssicht sind relativ eng und zudem stark auf den Funktionsbereich der involvierten Mitarbeiter bezogen.
•
Unter den Gesichtspunkten der Veränderungsstärke, -häufigkeit und -sicht nimmt Six Sigma eine Zwischenstellung ein: Zum einen handelt es sich aufgrund der kontinuierlichen Durchführung von vielen, relativ kleinen Verbesserungsprojekten um einen inkrementellen Ansatz, bei dem Prozesse in einer funktionsübergreifenden Sicht analysiert und optimiert werden; die Veränderungen erfolgen projektbezogen. Zum anderen ist von einem synoptischen Ansatz zu sprechen, wenn die Projekte nicht isoliert in einzelnen Bereichen durchgeführt werden, sondern im gesamten Unternehmen auf der Basis einer übergeordneten Projektsteuerung, z.B. Six Sigma Balanced Scorecard.
Zu (6): Ausgangspunkt für Verbesserungen Im Hinblick auf die operative Umsetzung von KVP, Six Sigma und BPR lassen sich vor allem die folgenden Unterschiede festhalten. Ausgangspunkt für die Suche nach Verbesserungsmöglichkeiten bilden bei allen drei Managementkonzepten Prozesse im Unternehmen. Während KVP und Six Sigma in erster Linie die Verbesserung von bestehenden Prozessen zum Ziel haben, steht bei BPR die Entwicklung ganz neuer Prozesse im Vordergrund. Der Umgang mit dem Bestehenden entspricht dem Tabula-rasa-Prinzip, d.h. es wird immer von neuem „auf einem weißen Blatt“ (White paper) begonnen, ohne das Vorhandene von vornherein in die Überlegungen einzubeziehen (vgl. Gonzalez et al. 1999, S. 345ff.). Bei Six Sigma werden sowohl bestehende Prozesse analysiert und verbessert als auch neue Prozesse/ Produkte entwickelt und gestaltet. Wie bereits erwähnt, gestalten sich Verbesserungsprojekte, die auf bestehende Prozesse im Unternehmen aufsetzen, nach dem DMAIC-Zyklus. F&E-Projekte, mit dem Ziel des Design for Six Sigma (DFSS), werden nach dem DMADV-Zyklus abgearbeitet. Wesentliche Problemlösungstechniken, die im Rahmen von KVP/ Kaizen zum Einsatz kommen, sind u.a. QC und BVW. Ziel ist es, eine möglichst simultane Optimierung von Effizienz und Qualität der (bestehenden) Prozesse zu erreichen. Zu (7): Partizipation der Mitarbeiter Aufgrund der organisationsweiten Bildung von Qualitätszirkeln bei KVP erfolgt ein Großteil der Veränderungen auf operativer Ebene; die Partizipation der Mitarbeiter erfolgt entsprechend von unten nach oben (bottom-up). In entgegengesetzter Richtung, also von oben nach unten (top-down), gestaltet sich der Einführungsprozess und Roll-out einer Six Sigma-Initiative. Sie geht von der Unternehmens-
2.2 Managementkonzepte zur Verbesserung der Prozess- und Produktqualität
73
leitung aus und mündet relativ schnell in Pilotprojekte, die i.d.R. in direktem Zusammenhang mit den ersten Green und Black Belt Trainings stehen. Die Einbindung des Managements und der Mitarbeiter geschieht im Rahmen einer Reorganisation (BPR) vorzugsweise im Gegenstromprinzip. Dies bedeutet, dass ausgehend von einer neuen Vision/ Mission im Top-Management die Denk- und Verhaltensweisen in der Organisation grundsätzlich reformiert werden. Gleichzeitig setzen konkrete Gestaltungsmaßnahmen bei den Kernprozessen auf mittlerer Ebene, d.h. auf Hauptprozessebene, an. Simon/ Piroh (2002, S. 15) kommen zu der Erkenntnis, dass sich alle modernen Managementansätze und -konzepte, die seit den 1970er Jahren angewendet werden, hinsichtlich ihres Implementierungsablaufs stark ähneln. Üblicherweise werden die folgenden fünf Schritte durchlaufen: 1) Vision entwickeln, (2) Ziele setzen, (3) Mitarbeiter begeistern, (4) Projektgruppe einrichten und (5) Konzept umsetzen. Die Unterschiede der einzelnen Konzepte liegen vor allem in der Schwerpunktsetzung der Verbesserungen, den Anwendungsbereichen im Unternehmen und in der konzeptionellen Vorgehensweise bei ihrer Umsetzung. Dies zeigt sich unmittelbar auch bei den hier behandelten Konzepten. Zu (8): Definition von Rollen/ Strukturen Um das Konzept einer prozessorientierten OT zu erreichen, werden sowohl bei Six Sigma als auch bei BPR Rollen/ Verantwortlichkeiten definiert.28 Im Fall von BPR sind im Basiskonzept häufig die folgenden fünf Rollen vertreten (vgl. Hammer/ Champy 1994, S. 134f.): •
Leiter (Leader) als Manager und Machtpromotor aus dem oberen Führungskreis zur Motivation des Reengineering-Teams
•
Lenkungsausschuss (Quality Council) als Gremium bestehend aus oberen Führungskräften, das Richtlinienentscheidungen trifft und die ReengineeringStrategie bezogen auf das Unternehmen festlegt
•
Prozesseigner (Process Owner) als Prozesspromotor, der die Verantwortung für den Prozess und die daran ansetzenden Reengineering-Aktivitäten trägt
•
Projektteam (Reengineering-Team) als Personen, die das Reengineering eines bestimmten Unternehmensprozesses aktiv vorantreiben und gestalten und
•
System-/ Fachpromotor (Reengineering-Czar) als übergeordneter Mitarbeiter, welcher die Synergiepotenziale von Projekten erkennt und die zur Durchführung notwendigen Techniken/ Werkzeuge bereitstellt und weiterentwickelt.
28
Ein anschauliches Beispiel für den Einführungsprozess und den systematischen Aufbau einer Six Sigma-Organisation gibt die Deutsche Bahn AG, Unternehmensbereich Personenfernverkehr, die Anfang 2001 mit der Implementierung eines umfassenden Qualitätsprogramms startete (vgl. Lang/ Reemtsema 2003, S. 12ff.).
74
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
Die definierten Rollen/ Verantwortlichkeiten bei Six Sigma stimmen mit denen bei BPR im großen und ganzen überein. Jedoch werden – wie bereits oben ausgeführt – weitere Rollen im Rahmen des Six Sigma-Projektteams definiert. Entsprechend des absolvierten Trainingsumfangs und dem gegenwärtigen Erfahrungsstand wird zwischen Mitarbeitern auf White, Yellow, Green und Black Belt Niveau differenziert (vgl. Töpfer/ Günther 2007a, S. 208). BPR kann folglich in organisatorischer Hinsicht als Vorstufe von Six Sigma betrachtet werden. Zu (9): Routinen bei Umsetzung Vorgehensschemata bzw. Routinen bei der operativen Umsetzung von Verbesserungsmaßnahmen/ -Projekten sind vor allem bei KVP (PDCA-Zyklus) und Six Sigma (DMAIC-/ DMADV-Zyklus) zu verzeichnen. Dabei stellen der DMAIC-/ DMADV-Zyklus in gewisser Weise eine Weiterentwicklung des klassischen PDCA-Zyklus dar (vgl. Wessel 2002b, S. 9f.). Das stringente Vorgehen im Rahmen von vier bzw. fünf Projektphasen zur Prozessoptimierung wird in der Praxis als zentraler Erfolgsfaktor gewertet. Bei Six Sigma ist darüber hinaus die in sich geschlossene Systematik und Logik bei der Anwendung von QM-Methoden und mathematisch-statistischen Verfahren positiv hervorzuheben. Die operative Umsetzung von BPR sieht kein solches explizites Verfahren vor. Jedoch werden hier, wie auch bei den anderen beiden Konzepten, eine Reihe von „praktischen Handlungsempfehlungen“ gegeben. Im Hinblick auf die Gestaltung des Einführungsprozesses sind in der Literatur gleich mehrere Phasenmodelle zur adaptiven Anwendung zu finden. Als Standards für das strategische Vorgehen bei BPR werden u.a. ein 6- und ein 10-Phasen-Modell (vgl. hierzu u.a. Thom/ Etienne 2001, S. 79) propagiert; für Six Sigma ist in entsprechender Weise ein 7-PhasenModell definiert (vgl. Töpfer/ Günther 2007a, S. 24). Zu (10): Zeitbedarf für Umsetzung Der Zeitbedarf für die nachhaltige Umsetzung von BPR wird mit 2-5 Jahren angegeben (vgl. Davenport 1993, S. 11). Demgegenüber ist bei der Implementierung von KVP-Maßnahmen von einer relativ kurzen Zeitdauer auszugehen. Dies liegt u.a. darin begründet, dass für die Einrichtung von QC und BVW keine aufwendigen Schulungsmaßnahmen erforderlich sind, so dass bereits nach einigen Wochen von einem effektiven Verbesserungsprozess ausgegangen werden kann. Anders bei Six Sigma: Hier gilt der Grundsatz, dass mindestens 1, besser 2% der Mitarbeiter als aktive Black Belts bzw. Master Black Belts tätig sind, ergänzt durch etwa 10% geschulter Six Sigma-Akteure auf Green Belt Niveau oder darunter. Für das praxisbezogene Training eines Black Belts inkl. Projekt sind i.d.R. vier Monate einzuplanen, für das Training eines Green Belts sind 10 Tage zzgl. Projekt vorzusehen. Der Aufbau einer Six Sigma-Organisation mit einer „kritischen Masse“ von geschulten Akteuren dauert mind. 1-2 Jahre.
2.3 „Weiche Hülle“ und „Harter Kern“ von Managementkonzepten
2.3
75
„Weiche Hülle“ und „Harter Kern“ von Managementkonzepten am Beispiel von Six Sigma
Die Vorstellungen über das, was Managementkonzepte sind und nicht sind, gehen nicht nur in der Praxis z.T. sehr weit auseinander (vgl. Unterkapitel 2.1). Kritiker bemängeln auf der einen Seite, dass es sich bei Managementkonzepten um Modeerscheinungen handelt, die – genau wie in der Bekleidungsindustrie – von Zeit zu Zeit kommen und wieder gehen. Die Methoden und Vorgehensmodelle, die hinter der Fassade von Schlagwörtern stehen (weiche Hülle), können in Beratungssituationen kaum helfen, neue Problemlösungen zu finden. Auf der anderen Seite wird von den Befürwortern von Managementkonzepten angeführt, dass die Wissenschaft aufgrund ihrer selbstentwickelten Perspektive nicht zwangsläufig in der Lage ist, den Alltagstheorien der Praxis alternative Deutungen gegenüber zu stellen. Managementkonzepte beinhalten nämlich Technologien (harter Kern), die den Entscheidungsträgern dabei helfen, komplexe Umweltsituationen zu analysieren und zu strukturieren sowie auf dieser Basis Maßnahmenpakete abzuleiten. 2.3.1
These: Six Sigma als Mode
Ähnlich wie in der Modebranche kommen auch im Rahmen der Unternehmenssteuerung und -führung regelmäßig neue Trends/ Konzepte auf, die in den meisten Fällen aber nur eine zeitlang populär sind und dann wieder vom „Markt“ verschwinden. Dabei ist die Wirkung auf das einzelne Unternehmen nicht von vornherein klar. So können Managementkonzepte als Modeerscheinungen den Unternehmen einerseits „nur“ wichtige Ideen/ neue Einblicke liefern und es andererseits auch grundlegend verändern – sowohl zum Besseren als auch zum Schlechteren. Der Philosoph und Ästhet BORIS GROYS (1999, S. 46) argumentiert, dass – selbst wenn sich die zur Debatte stehenden Objekte nur geringfügig unterscheiden – ein (kleines) Unterscheidungsmerkmal genügt, um daran das Besondere und Wertvolle des „Gesamtkunstwerks“ festzumachen. In dieser Weise werden auch bestimmte Aspekte von Managementkonzepten als das „grundlegend Neue“ herausgestellt, obwohl sie sich im Großen und Ganzen doch stark ähneln (vgl. Kieser 1996a, S. 23). Z.B. sind die Fokussierung auf Kernkompetenzen (= Core Competence Management) und die Verschlankung des Unternehmens (= Lean Management) zwei Seiten einer Medaille (vgl. Abschnitt 2.1.2). Geht es nach den Befürwortern von Managementkonzepten, dann gehören sie – trotz dieser Tatsache – zur Gruppe der modernen Managementkonzepte mit hoher Akzeptanz in der Praxis. Einige der frühen Managementkonzepte besitzen noch heute eine herausragende Stellung in den Managementwissenschaften und der betrieblichen Praxis; sie können deshalb durchaus als „klassisch“ bezeichnet werden. In Abhängigkeit von der Denkschule und des Wissenschaftsverständnis des Forschers ergeben sich unterschiedliche Ansätze zur Klassifizierung. So ordnen z.B. die Forscher Stoner/ Freeman (1989), Bateman/ Zeithaml (1990) und Huczynski (1993b) die folgenden fünf Konzepte der Gruppe der klassischen Managementkonzepte zu:
76
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
•
Administratives Management (Henry Fayol, 1841-1925)
•
Bureaucracy/ Bürokratiemodell (Max Weber, 1864-1920)
•
Scientific Management/ Taylorismus (Frederick W. Taylor, 1856-1915)
•
Human-Relations-Ansatz (Elton Mayo, 1880-1949)
•
Operations Research/ Management Science (W. W. Leontief, 1905-1999).
In den vergangenen Jahrzehnten wurden die klassischen Konzepte z.T. weiterentwickelt bzw. gingen ganz oder teilweise in neuen Managementkonzepten auf.29 Letztere entstanden vor allem seit den 1950er Jahren im Zuge der Verbreitung populärwissenschaftlicher Managementliteratur. Nicht selten trug dabei ihre (schnelle) Entwicklung und Verbreitung den Charakter von Modewellen bzw. -erscheinungen, wie sie typischerweise in der Bekleidungsindustrie vorkommen. Gerade im Hinblick auf kurzlebige Managementempfehlungen spricht deshalb eine Reihe von Autoren auch von „Managementmoden“, „Gurutheorien“ und/ oder „Managementfolklore“ (vgl. u.a. Armstrong 1996; Kieser 1996a/ b; Watson 1994; Huczynski 1993a). Wie bei den klassischen Managementkonzepten, gibt es in der Wissenschaft recht unterschiedliche Auffassungen darüber, was unter modernen Managementkonzepten bzw. -moden zu verstehen ist. Das Diffusionsmuster von Managementkonzepten in/ über Unternehmen und Branchen ist vergleichbar mit dem Verbreitungszyklus von Moden in der Bekleidungsindustrie. Wird ein Konzept von einem Unternehmen bzw. einer (kleinen) Gruppe von Unternehmen erfolgreich praktiziert, zieht dies die Aufmerksamkeit der Wettbewerber an.30 Sie suchen nach den Ursachen des Erfolgs ihrer Konkurrenten. Nach der Identifikation der neuen strukturellen Lösung, z.B. Six SigmaOrganisation, oder der neuen Managementpraxis, z.B. DMAIC-Zyklus, beginnen sie diese zu kopieren (vgl. Walgenbach 2002, S. 319ff.). Legen wir das Diffusionsmodell zugrunde, dann sind bei einer Längsschnittbetrachtung folgende drei Phänomene relevant: •
Managementkonzepte kommen und gehen wie Moden,
•
Berater präsentieren alle paar Jahre ihre „neue Kollektion“ und
•
Kleine Änderungen des (alten) Konzeptes werden als Innovation gefeiert.
29
30
Eine weltweite Befragung von Bain & Company (2003) ergab, dass sich im Jahr 2002 in jedem Unternehmen im Durchschnitt 16 Managementtools und -konzepte im Einsatz befanden (vgl. Rigby 2003, S. 2ff.). Eine vom Gallup-Institut durchgeführte Umfrage mit dem Titel „Competition 2000“ bei 500 Unternehmensführern zeigte auf, dass sich die Strategien von Unternehmen stark ähneln. Diese Strategiekonformität wird u.a. dadurch erklärt, dass Unternehmen bestrebt sind, die Erfolgsrezepte von anderen (schnellstmöglich) zu imitieren. Infolgedessen verbreiten sich die zugrunde liegenden Managementkonzepte – über alle Branchen hinweg – mit hoher Geschwindigkeit (vgl. Hamel 2000, S. 363).
2.3 „Weiche Hülle“ und „Harter Kern“ von Managementkonzepten
77
Die Dichtefunktion der Verbreitung von Managementkonzepten über die Zeit entspricht einer Gauß´schen Glockenkurve; die sich daraus ergebende Verteilungsfunktion entspricht dem „klassischen“ S-Kurven-Verlauf einer Normalverteilung (vgl. Bamberg et al. 2007, S. 108f.). Die Gründe hierfür sind zum einen die normalverteilte Verbreitung von Informationen und Lerneffekten in einer Gesellschaft sowie zum anderen die damit einhergehende normalverteilte Reduktion der Unsicherheit im Verlauf des Diffusionsprozesses (vgl. Durth 2001, S. 1625). In Abb. 2-7 ist der Verlauf eines solchen Diffusionsprozesses über die Zeit exemplarisch dargestellt. Die Häufigkeitsdichte wird als Indikator für die Präsenz/ Aufmerksamkeit des Konzeptes in der Fachöffentlichkeit herangezogen. In der Managementliteratur existieren unterschiedliche Ansätze, um die einzelnen Phasen des Diffusions-/ Verbreitungsprozesses zu untergliedern. Entsprechend der Produkt- und Technologielebenszyklusansätze, wie sie z.B. bei der strategischen Analyse von Geschäftsfeldern angewendet werden, lassen sich die folgenden vier Phasen unterscheiden (vgl. Fink 2003, S. 54f.).
Adoptionsrate
„Spitze der Euphorie“
Six Sigma in 2005
„Auf dem Boden der Tatsachen“ ?
„Vor dem Hype“
(1) Themati- (2) Expan- (3) Domisierungssionsnanzphase phase phase
„Licht am Ende des Tunnels“ ?
„Desillusionierung“
(4) De-Thematisierungsphase
Zeit
Basis: China 2003, S. 44
Abb. 2-7: Diffusionskurve eines neuen Managementkonzeptes
•
Thematisierungsphase: Das neue Konzept wird erstmals von einer kleinen Gruppe von Autoren, Beratern und weiteren Promotoren, z.B. obere Führungskräfte, aufgegriffen und thematisiert. Die Übernahme- bzw. Adoptionsrate von Unternehmen ist zu diesem Zeitpunkt sehr gering und steigt nur langsam an. Erste Umsetzungserfahrungen werden dokumentiert.
78
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
•
Expansionsphase: Die propagierten Ideen und Prinzipien des neuen Konzeptes erfahren eine größere Akzeptanz. Mehr und mehr Unternehmen beginnen damit, das Managementkonzept zu implementieren. Gleichzeitig wird das Konzept von einem größeren Kreis von Promotoren in den Markt „gedrückt“.
•
Dominanzphase: Das Konzept erfährt in dieser Phase die höchste Akzeptanz, d.h. in einem relativ kurzen Zeitraum führen relativ viele Unternehmen das Managementkonzept ein. Methoden und Inhalte gelten in der Branche als allgemein anerkannter Standard. Die Adoptionsrate erreicht ihr Maximum. Nach einschlägigen empirischen Studien in Deutschland und den USA befindet sich das Six Sigma-Konzept seit spätestens Mitte dieses Jahrzehnts in der zweiten Hälfte der Dominanzphase (siehe Abb. 2-7). So ist im US-amerikanischen Raum die Adoptionsrate bzw. der Durchdringungsgrad (stark) abnehmend. Die SIX SIGMA-UMFRAGE VON QUALITY DIGEST ergab bereits im Jahr 2003, dass der Anteil der Unternehmen, die Six Sigma weniger als 2 Jahre nutzen, deutlich rückläufig ist. Dies wird als wichtiger Indikator für das Abschwächen des Modetrends gewertet. Insbesondere Unternehmen, die Six Sigma als reines Kostensenkungsprogramm sehen und für die positiven langfristigen Wirkungen „keine Geduld“ haben, treten den Rückzug an. In den USA wird die Anzahl der Six Sigma-Anwender im Jahr 2005 auf ca. 1.200, in Deutschland auf ca. 200 geschätzt (vgl. Schmieder 2005, S. 2).
•
De-Thematisierungsphase: Nachdem die ersten Misserfolge gemeldet werden, beginnt ein Umdenken der Beteiligten. Das Managementkonzept gilt nach und nach als nicht mehr innovativ und neu sowie fehlerbehaftet. Immer mehr Berater verlassen „das sinkende Schiff“ und wenden sich einem neuen, vielversprechenderen Konzept zu. Die neue Modewelle nimmt ihren Lauf.
Es sei darauf hingewiesen, dass der in Abb. 2-7 vorgestellte Lebenszyklus einem idealisierten Verlauf entspricht. In praxi wird nicht jedes Managementkonzept jede Phase exakt nach Modellbeschreibung durchlaufen. So kann es zum einen der Fall sein, dass ein Konzept bereits in der Thematisierungsphase wieder verworfen wird, da sein wahrgenommenes Strategiepotenzial allgemein, also absolut, oder relativ, also gegenüber rivalisierenden Konzepten, zu gering ist. Das Konzept ist keine echte Alternative. Zum anderen besteht die Möglichkeit, dass ein Konzept nie ganz vom Markt verschwindet, weil es für eine Reihe von Unternehmen eine interessante und effektive Lösung darstellt. In diesem Fall kann es u.U. dazu kommen, dass ab einem bestimmten Zeitpunkt die Präsenz/ Aufmerksamkeit wieder zunimmt. Wir sehen also „Licht am Ende des Tunnels“. Dies trifft z.B. aktuell für das Lean-Konzept zu, welches als „ideale Ergänzung“ zum Six Sigma-Konzept gesehen wird (vgl. insb. George 2003, S. 19ff.).31 31
Während Six Sigma vor allem auf das Ausmerzen von Produktfehlern und die Steigerung der Prozessqualität im Zuge von Verbesserungsprojekten abzielt, fokussiert Lean bzw. Lean Management auf die Beschleunigung der Prozesse und die ganzheitliche Optimierung der Wertschöpfungskette (vgl. auch Abschnitt 2.3.3).
2.3 „Weiche Hülle“ und „Harter Kern“ von Managementkonzepten
79
Der Lebenslauf von Managementkonzepten kann auf verschiedene Weise gemessen werden. Neben einer direkten Befragung von Unternehmen, die in vielen Fällen sehr zeit- und kostenintensiv ist, besteht die Möglichkeit einer indirekten Erhebung durch Datenbankabfragen. Diese beziehen sich i.d.R. auf Veröffentlichungen und Zeitschriften zum Themengebiet (z.B. TQM). Als Indikatoren für die Ermittlung von Zeitreihen werden dabei u.a. folgende Größen recherchiert und ausgewertet (vgl. z.B. von Lanzenauer/ Huesmann 2004, S. 254ff.): •
Alle Veröffentlichungen zu einem Konzept in einem bestimmten Zeitraum
•
Quotient aus Trefferzahl und Datensätzen als normierte Größe
•
Anzahl von aktuellen, themenbezogenen Zeitschriften und
•
Anzahl der Bibliotheken, die Zeitschriften zum betreffenden Thema/ Konzept abonniert haben.
In empirischen Studien konnte gezeigt werden, dass die Zyklen von Managementmoden tendenziell kürzer werden. Gleichzeitig erreicht die Spitze der Präsenz/ Aufmerksamkeit, insb. gemessen in Veröffentlichungszahlen zum jeweiligen Themengebiet, von mal zu mal einen neuen Höchstpunkt, d.h. die Glockenkurven werden schmaler und steiler (vgl. Kieser 1996a, S. 22). Die Tatsache, dass einige Konzepte eine überdurchschnittlich hohe Popularität, z.T. über einen längeren Zeitraum, erlangen, während anderen überhaupt keine Aufmerksamkeit zuteil wird, begründen die Kritiker Kieser et al. damit, dass Managementkonzepte bestimmte Voraussetzungen erfüllen müssen, damit sie bekannt, berühmt und in gewisser Weise „unsterblich“ werden.32 Miller/ Hartwick (2003, S. 18f.) gehen noch einen Schritt weiter und entwickeln eine Checkliste mit 8 Kriterien, auf deren Basis kurz- von langlebigen Managementmoden/ -trends unterschieden werden können. In einer empirischen Studie über einen Zeitraum von 17 Jahren analysierten sie dazu insgesamt 1.700 wissenschaftliche Veröffentlichungen in Fachblättern und Wirtschaftspublikationen, welche sich auf die verschiedenen Managementmoden/ -konzepte der vergangenen 40 Jahre beziehen. Dabei legten sie die folgenden zwei Fragen zugrunde: (1) Was macht Managementmoden für Unternehmen so attraktiv? (2) Wie lassen sich kurzfristige, wenig substanzielle Moden von langfristigen, nachhaltigen Konzepten unterscheiden? Die Ergebnisse einer Untersuchung hinsichtlich des Einsatzes von Six Sigma sind in Abb. 2-8 zusammengefasst dargestellt. Jedem der 8 Kriterien ist in der zweiten Spalte ein typisches Anwendungsproblem aus der Unternehmenspraxis zugeord32
„It has to be timely, it has to be brought to the attention of its potential audience, it has to address organizational requirements in a way that meets the individual and concerns of the managers, it has to possess the essential ingredients which allow potential users to perceive it as relevant to meeting their needs, it has to be verbally presentable in an engaging way.” Huczynski (1993b, S. 1).
80
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
net. In der dritten und vierten Spalte wird analysiert, was vor diesem Hintergrund für bzw. gegen Six Sigma als (kurzfristige) Managementmode spricht. Kriterium
Problem
Was spricht für Six Sigma als Managementmode?
Was spricht gegen Six Sigma als Managementmode?
(1) Managementmoden umfassen Konzepte/ Methoden, die (relativ) leicht zu verstehen und zu vermitteln sind
Die Suggerierung einer „vereinfachten Welt“ führen in der Praxis häufig zu einer begrenzten Umsetzbarkeit und dadurch zu einem begrenzten Nutzen
Die Kernaussagen des Konzeptes basieren auf wenigen Schlagwörtern/ Schlüsselbegriffen, z.B. Six Sigma für praktizierte Null-FehlerQualität im Unternehmen
Das Verstehen und das Umsetzen von Six Sigma verlangt einen relativ hohen Trainingsaufwand, insb. in mathematisch-statistischen Methoden und Verfahren
(2) Managementmoden beinhalten (einschlägige) Vorschriften und Rezepte zur Problemlösung für Führungskräfte/ Manager
Die gemachten Vorschriften sind als Optimierungsregel entweder zu allgemein formuliert, oder sie beziehen sich auf ganz bestimmte Unternehmenstypen/ -kulturen
Praktizierte Null-Fehler-Qualität stellt einen (vernünftigen) Grundgedanken als zentrale Anforderung für eine effiziente und effektive Unternehmensführung dar
DMAIC- bzw. DMADV als Projektmanagementzyklen besitzen einen hohen Standardisierungs- und gleichzeitig Verbindlichkeitsgrad bei der Problemlösung
(3) Managementmoden und ihre Vertreter wecken eher Hoffnungen, als dass sie (nachvollziehbare) Resultate/ Ergebnisse liefern
Es fehlen i.A. klare Kriterien, anhand derer die „unterstellten“ Verbesserungen/ Implementierungserfolge objektiv gemessen und bewertet werden können
Six Sigma verspricht eine bessere Zielerreichung, motiviertere produktivere Mitarbeiter, effizientere Abläufe und Prozesse sowie zufriedenere/ loyalere Kunden
Der Nachweis des Erfolgs von Six Sigma-Projekten basiert auf der Sigma-WertBerechnung (nicht-monetär) und/ oder der Net Benefit Ermittlung (monetär)
(4) Managementmoden passen (angeblich) auf jedes Problem in Unternehmen und beanspruchen für sich Allgemeingültigkeit
Die Erfahrung zeigt, dass die wenigsten Konzepte universell anwendbar sind und in bestimmten Situationen sogar mehr Schaden als Nutzen verursachen
Die Befürworter von Six Sigma argumentieren, dass das Managementkonzept für nahezu alle Industriezweige, Unternehmenstypen und -kulturen geeignet ist
Der Six Sigma-Projektmanagementansatz kommt überall dort zum Einsatz, wo Prozesse vorhanden sind und diese grundlegend optimiert werden sollen
(5) Managementmoden erscheinen (auf den ersten Blick) leicht einführbar und in jedem Unternehmen problemlos anwendbar
Die verschiedenen Konzepte werden in Unternehmen – obwohl sie bei „richtiger“ Anwendung tatsächlich effizienzsteigernd wirken – nur oberflächlich, d.h. symptomatisch, implementiert und angewendet
Das Six Sigma-Konzept kann in der Weise missinterpretiert werden, dass allein die Vorgehensweise auf Basis des DMAIC- bzw. DMADVZyklus zu nachhaltigen Prozess- und Ergebnisverbesserungen führt
Die Implementierungszeit (mehr als 2 Jahre) und -kosten (mehr als 10.000 € pro Black Belt Ausbildung) von Six Sigma werden in der Managementliteratur explizit benannt und als wesentliche Herausforderung deklariert
(6) Managementmoden gefallen dem Zeitgeist und greifen die dringlichsten Probleme unternehmerischer Tätigkeit auf
Managementmoden gehen meistens auf aktuelle (lokale) Probleme ein, so dass fundamentale Schwächen oder Stärken des Gesamtunternehmens eher in den Hintergrund geraten
Six Sigma gewinnt an Popularität, da die Unternehmen unter einem zunehmenden Kosten- und damit Wettbewerbsdruck stehen und nach effektiven Prozessverbesserungen streben
Six Sigma hilft bei der Optimierung bestehender Prozesse und beim (Re-)Design neuer Produkte/ Prozesse; Six Sigma unterstützt aber nicht die Innovationsfähigkeit des Unternehmens
(7) Managementmoden und ihre Ideen wirken neu, obwohl sie grundlegende unternehmerische Werte nicht in Frage stellen
Managementmoden gewinnen nur dadurch ihre Aufmerksamkeit, dass sie einen – scheinbaren, aber nicht wirklichen – Neuartigkeitswert besitzen
Im Rahmen des Six SigmaKonzeptes wird die „alte Idee“ des PDCA-Zyklus zur Prozessverbesserung in Form des DMAIC-Zyklus aufgegriffen und erweitert
Qualität-Zeit-Kosten als magisches Dreieck der BWL werden durch Six Sigma operationalisiert und stehen im Fokus aller Verbesserungsaktivitäten
(8) Managementmoden benötigen Gurus, d.h. angesehene Fürsprecher, welche die Glaubwürdigkeit des Konzepts belegen
Durch die Geschichten/ Anekdoten von „Heldentaten großer Manager“ wird der Eindruck vermittelt, dass alle, die das Konzept einsetzen, Erfolg haben
Das Unternehmen GE und sein ehem. CEO, die Managerlegende Jack Welch, sind untrennbar mit der Philosophie und dem Erfolg von Six Sigma verbunden
Six Sigma stößt bei Experten deshalb auf breite Zustimmung, weil der DMAIC-Zyklus eine statistische und wissenschaftl.-abgesicherte Vorgehensweise beinhaltet
Quelle: Eigene Darstellung
Abb. 2-8: Kennzeichen von Managementmoden am Beispiel von Six Sigma
Nach Abwägung der einzelnen Argumente lässt sich folgendes Fazit ziehen: In Bezug auf Frage (1) besitzt Six Sigma gute Chancen von Unternehmen aufgegriffen zu werden und als Managementmode eine entsprechende Verbreitung zu finden. Dies ist wenig verwunderlich, da sich anhand der Kriterien nahezu alle modernen Managementkonzepte auch als Managementmoden klassifizieren lassen. Wie oben genannte Forscher zeigen, führen paradoxerweise genau die Kriterien, die zur Entstehung und Verbreitung von Managementmoden beitragen, auch zu
2.3 „Weiche Hülle“ und „Harter Kern“ von Managementkonzepten
81
ihrem Untergang. Denn ihr Anspruch – einfach, allgemeingültig und erfolgreich zu sein – kann auf Dauer nicht erfüllt werden und enttäuscht somit die (zu hohen) Erwartungen der Manager. Es gilt der Spruch: Success breeds failure. D.h., obwohl Six Sigma für viele Unternehmen zurzeit hoch attraktiv ist, wird es über kurz oder lang von einem „besseren“ Konzept abgelöst. Die Frage (2) ist deutlich schwieriger zu beantworten. Im Einklang mit den Praxiserfahrungen beziehen sich die Kennzeichen von nachhaltigen Managementkonzepten („Klassikern“) vor allem auf die Kriterien (3) bis (5), d.h. (a) wirkliche organisatorische Veränderungen mit relativ hohen Implementierungs- und Durchführungskosten, (b) langfristige Auswirkungen auf den Unternehmenserfolg, aber ohne Erfolgsgarantie und (c) hoher Facettenreichtum für die Anwendung in unterschiedlichen Unternehmen. Das wichtigste Merkmal ist jedoch, dass langfristige Konzepte mit hoher Nachhaltigkeit nicht am Schreibtisch von Akademikern oder Beratern entstehen, sondern in erster Linie von Praktikern entwickelt und gestaltet werden, und zwar als Reaktion auf neue ökonomische, technische und/ oder soziale Herausforderungen des Unternehmens.33 2.3.2
Antithese: Six Sigma als Technologie
Es gibt grundsätzlich zwei Ansätze, das Phänomen „Managementkonzept“ zu interpretieren und damit zu analysieren. Zum einen kann ein Managementkonzept als konkreter Gegenstand (Managementkonzept = Realobjekt) aufgefasst werden; zum anderen besteht die Möglichkeit, es – entsprechend Wissenschaftstheorie – als abstrakten Gegenstand zu betrachten (Managementkonzept = Denkobjekt). Um zu einem solchen abstrakten, auf theoretischen Überlegungen basierenden Konzeptbegriff zu gelangen, gibt zwei Vorgehensweisen: Deduktivisums und Induktivismus. Auf dem induktivistischen Vorgehen basieren u.a. die Klassifizierungsansätze von Hahn et al. (1999) und Davenport (1993) (vgl. Unterkapitel 2.1). Sie leiten allgemeine Beurteilungskriterien aus der Analyse einzelner, in der Praxis eingesetzter Konzepte her. Daneben existiert eine wissensbasierte Interpretation von Managementkonzepten, welche dem deduktivistischen Vorgehen bei der Analyse empirischer Sachverhalte entspricht. Das Vorgehen knüpft, wie bereits zu Beginn dieses Kapitels erwähnt, an dem Faktum an, dass ein Konzept eine Art der Gattung Wissen ist und sich aus diesem Grund signifikant von anderen Arten, z.B. Ereignis- und Prozesswissen, unterscheidet (vgl. Neumann 2000, S. 62ff.). Entscheidend für den Vergleich unterschiedlicher Wissensarten ist ihre Negationsgrundlage, d.h. die Dimensionen,
33
Vor diesem Hintergrund hat Six Sigma gute Chancen, zu einem wirklichen „Managementklassiker“ zu werden. Geht es nach dem Urteil deutscher Führungskräfte, dann sind die Zukunftsaussichten von Six Sigma „blendend“. Im Jahr 2004 waren 75% der befragten Akteure der Meinung, dass Six Sigma in Zukunft eher an Bedeutung gewinnt als verliert (vgl. Schmieder 2005, S. 31).
82
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
anhand derer die Klassifikation vorgenommen wird. Wie Graumann (2004, S. 286) hierzu ausführt, darf nur unter der Voraussetzung gleicher Dimensionen Konzeptwissen mit anderen Wissensarten kontrastiert werden. Wenn man diesem Gedankengang folgt und den Gegenstand „Wissen“ als Gattung klassifiziert, dann lassen sich verschiedene Arten von Wissen dadurch ableiten, dass die spezifische Ausprägung von einer oder mehrerer Eigenschaftsvariablen ermittelt wird. Infolgedessen lässt sich jede einzelne Art von Wissen als Kombination der Ausprägung von definierten Eigenschaftsvariablen darstellen. Im einfachsten Fall werden die Variablen dichotom konstruiert. In Abb. 2-9 sind auf dieser Basis zwei Arten von Wissen, Daten- und Konzeptwissen, gegenübergestellt. Sie befinden sich auf gleicher gattungslogischer Stufe, da sie anhand derselben Eigenschaftsvariablen selektiert worden sind (vgl. Hartmann 1964, S. 214). Eigenschaftsvariable
Datenwissen
Konzeptwissen
Art des repräsentierten Gegenstandes (konkret vs. abstrakt)
Konkrete Gegenstände eines empirischen Bezugsbereichs
Abstrakte Gegenstände eines empirischen Bezugsbereichs
Bezugszeitraum der Repräsentation
Mit Bezug auf die Vergangenheit
Mit Bezug auf die Vergangenheit als auch auf die Gegenwart und/ oder die Zukunft
Ohne Angabe von Relationen
Mit zwingender Angabe von Relationen
(vergangenheits- vs. vergangenheits-/ gegenwarts- und/ oder zukunftsbezogen)
Notwendigkeit der Repräsentation von Relationen (nicht notwendig vs. notwendig) Quelle: Graumann 2004, S. 286
Abb. 2-9: Gegenüberstellung von Daten- und Konzeptwissen
Entsprechend der Klassifikation von Konzeptwissen nach obiger Abbildung kann aus wissenschaftlicher Sicht die Bedeutung des Wortes Managementkonzept eindeutig spezifiziert werden. Ein „Managementkonzept“ bezeichnet (a) einen Gegenstand der Art der Gattung „Wissen“, ist (b) eine Repräsentation des empirischen Bezugsbereichs „Management“ und besitzt (c) alle drei Eigenschaften von „Konzeptwissen“, d.h. ein Managementkonzept ist eine Repräsentation abstrakter Gegenstände des Managements von Unternehmen, wobei Klassen gleichartiger konkreter Gegenstände des Managements im Tagesgeschäft von Unternehmen hierunter subsumiert werden können. Vor diesem Hintergrund lassen sich die folgenden drei Thesen zum Einsatz von Managementkonzepten formulieren: •
Konzeptwissen bildet Voraussetzung für die Problemlösung in Unternehmen
•
Konzeptwissen ermöglicht das zukunftsgerichtete Entscheiden von Managern
•
Konzeptwissen abstrahiert von konkreten Gegenständen des Bezugsbereichs.
2.3 „Weiche Hülle“ und „Harter Kern“ von Managementkonzepten
83
Der zentrale Unterschied zwischen praxisorientierter und wissenschaftlicher Interpretation von Managementkonzepten besteht darin, dass im ersten Fall von konkreten Gegenständen ausgegangen wird. D.h., Konzepte, wie z.B. Six Sigma, sind eindeutig abgrenzbare Objekte, die in einem empirischen Bezugsbereich zu bestimmten Zeiten und an bestimmten Orten existieren. Im zweiten Fall handelt es sich um abstrakte Managementkonzepte, unter welche die konkreten, praxisrelevanten Konzepte subsumiert werden. Dabei wird ein Managementkonzept nicht schon deshalb zu einem wissenschaftlichen Konzept, weil es abstrakt formuliert ist, sondern weil es auf fundierten wissenschaftlichen Überlegungen basiert. Weiterhin ist darauf hinzuweisen, dass Managementkonzepte – unabhängig von der Sichtweise – immer Repräsentationen abstrakter Gegenstände enthalten. Dies steht in Einklang mit den oben aufgeführten Eigenschaften von Konzeptwissen. Aus wissenschaftlicher Sicht lässt sich dann ein Managementkonzept als Technologie interpretieren, welche dem Entscheider und Gestalter dabei hilft, Mittel/ Maßnahmen in der Organisation zweckrational einzusetzen, um angestrebte Ziele zu erreichen. Unter dieser Voraussetzung ist die Hauptaufgabe von Managementkonzepten darin zu sehen, Entscheidungsträger von Unternehmen bei ihrer Aufgabe zu unterstützen, knappe Ressourcen effizient und effektiv zu verwenden/ zu verwalten, um die übergeordneten Unternehmensziele bestmöglich zu erreichen. Nach dem oben benannten Managerial functions approach lassen sich den Managementkonzepten dabei die folgenden drei Teilaufgaben bzw. -ziele zuordnen: •
Verwirklichung effizienter Wettbewerbsstrategien,
•
Implementierung effizienter Organisationsstrukturen und
•
Umsetzung effizienter Planungs-/ Kontrollsysteme.
Auf dieser Grundlage hat Graumann (2004, S. 289ff.) exemplarisch die Managementkonzepte von FERDINAND PIËCH (Volkswagen) und JACK WELCH (General Electric) rekonstruiert. Die Mittel-Zweck-Relationen, die als Bestandteile der praktischen Managementkonzepte der beiden ehemaligen Unternehmenslenker rekonstruiert werden, beziehen sich dabei auf die o.g. Teilaufgaben/ -ziele. Im Ergebnis fördert die Studie „bemerkenswerte Unterschiede“ zwischen den zwei Managementkonzepten zu Tage. Diese basieren auf wissenschaftlichen Effizienzkriterien und ermöglichen damit eine intersubjektive Nachvollziehbarkeit. Im Zuge der Generalisierung erscheint außerdem eine Übertragbarkeit auf andere Sachverhalte/ Untersuchungsobjekte generell möglich, wie es in Hypothese H5 bezogen auf die Abstraktion von realen Vorgehensmodellen/ Problemlösungszyklen sinngemäß übertragen worden ist (vgl. Abschnitt 1.2.3). Als wesentliche Gemeinsamkeit der Managementkonzepte von Piëch/ Welch gilt der Theoriebezug. Wie Kramer et al. (1975, S. 47) hierzu feststellen, sind zur Wahrnehmung der Gestaltungsaufgabe in Unternehmen Theorien notwendig, auf deren Basis die Manager die zugrundeliegenden Ursachen-Wirkungsketten in einer Geschäftssituation erkennen, verstehen und analysieren (können). Denn nur auf der Grundlage betriebswirtschaftlicher Theorien ist eine Führungskraft in der
84
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
Lage, unterschiedliche Ergebnisse alternativer Steuerungs- und Handlungsmöglichkeiten möglichst genau vorherzusagen.34 In die gleiche Richtung argumentieren auch Stoner/ Freeman, (1989, S. 33), nach deren Auffassung Managementtheorien den Entscheidungsträgern dabei helfen, ablaufende Prozesse in- und außerhalb des Unternehmens zu verstehen und zu strukturieren. Kombiniert mit einem guten Vorverständnis bzw. einer guten Wissensbasis sind die Manager in der Lage, Dinge/ Aktivitäten mit einem hohen Zielerreichungsgrad und einer hohen Wirtschaftlichkeit zu planen und zu steuern. Ist dies nicht der Fall, dann bleibt den Führungskräften – insb. in Organisationen mit ständig steigender Komplexität der Entscheidungsprozesse – nur ihre Intuition bzw. ihr Bauchgefühl bei der Maßnahmenplanung und -umsetzung. Die vordergründige Aufgabe der Managementwissenschaft besteht also darin, Theorien über das „Management von Unternehmen“ zu formulieren, die anschließend mit Technologien in praxisrelevante Handlungsempfehlungen überführt werden können.35 Hierbei findet eine Übertragung bzw. Transformation der im Rahmen von betriebswirtschaftlichen Theorien herausgearbeiteten Kausalzusammenhänge auf praktische Probleme statt. Auf dem gleichen Ansatz basiert – im übertragenen Sinn – auch die Anwendung von Six Sigma. Unter wissenschaftlichen Gesichtspunkten kann das Konzept als „Familie von Technologien“ verstanden werden, das auf deduktiv-analytisch abgeleiteten Aussagensystemen (Theorien) basiert bzw. auf solche zurückführbar ist (siehe Abb. 2-10): •
34
35
Technologie als „Therapie“: Das Konzeptwissen konkretisiert sich bei Six Sigma im Wissen über den phasenspezifischen Ablauf und den vernetzten Methodeneinsatz bei den konzeptspezifischen Problemlösungszyklen DMAIC und DMADV. Sie stellen sozusagen die Technologien von Six Sigma dar, auf deren Basis die Verbesserung bestehender Prozesse (DMAIC-Zylus) und/ oder die Entwicklung neuer Produkte/ Prozesse (DMADV-Zyklus) erfolgt. Den praktischen Handlungsempfehlungen, die im Rahmen der Projekte gegeben werden, liegt jeweils eine tautologische Transformation von theoretisch gewonnenen und empirisch bestätigten Aussagen zugrunde.
Im Rahmen des wissenschaftlichen Analyseprozesses sind drei Ziele relevant (vgl. Töpfer 2007a, S. 3): (a) Deskriptives Ziel (Begriffsbildung, Klassifikation und Beschreibung), (b) Theoretisches Ziel (Erkenntnisgewinnung, Erklärung und Vorhersage) und (c) Pragmatisches Ziel (Praktische Gestaltung auf Basis von (b)). Wie bei der Anwendung von Erkenntnissen der Naturwissenschaften in den Ingenieurwissenschaften wird auch im wissenschaftstheoretischen Zusammenhang der Betriebswirtschaftslehre/ Unternehmensführung von Technologie gesprochen. Die Theorie gilt allgemeinhin als Voraussetzung bzw. „Unterbau“ der Technologie. Dabei ist es nach Chmielewicz (1979, S. 182f.) offen, ob die Theorie zeitlich vor, simultan mit oder nach der Technologie entsteht. Als Gründe für eine theoriefreie Technologie, auch Praxeologie genannt, werden vom Autor angeführt: (a) temporär fehlendes theoretisches Wissen, (b) praktischer Problemlösungszwang in der Unternehmenspraxis und (c) Theoriefreiheit als programmatisches Postulat, z.B. im Rahmen von Operations Research.
2.3 „Weiche Hülle“ und „Harter Kern“ von Managementkonzepten
•
85
Theorie als „Diagnose“: Bei der Anwendung des DMAIC- und/ oder DMADV-Zyklus im Rahmen von Six Sigma liegt die Theorie zugrunde, dass schwierige Probleme nicht auf direktem Weg zu lösen sind, sondern einer Transformation auf eine „höhere Ebene“ bedürfen. Die realen Probleme werden in statistische Probleme transformiert und durch die Anwendung von mathematisch-statistischen Verfahren auf der Meta-Ebene gelöst (vgl. hierzu auch Abschnitt 1.1.1). Das Erkenntnisziel ist dabei zweigeteilt und beinhaltet sowohl Erklärungs- als auch Prognosemuster für empirisch festgestellte Zielsetzungen in der Unternehmenspraxis (praktische Normen).36
2.3.3
Synthese: Six Sigma als Mode & Technologie
In den vorangegangenen Abschnitten wurde deutlich, dass bei der Analyse und Rekonstruktion von Managementkonzepten grundsätzlich zwei Ebenen zu berücksichtigen sind. Auf übergeordneter Ebene, der Theorieebene, werden zum einen die managementrelevanten Fragestellungen in abstrakter Art und Weise erörtert. Durch das Auffinden von universellen und/ oder statistischen Gesetzmäßigkeiten, die unter den bestimmten, unternehmensspezifischen Gegebenheiten gelten, können beobachtete Phänomene im Zusammenhang mit dem „Management von Unternehmen“ (vergangenheitsbezogen) erklärt und (zukunftsbezogen) prognostiziert werden. Zum anderen besteht bei praktisch-normativen Wissenschaften das Ziel immer darin, auf der Basis der gewonnenen, theoretischen Erkenntnisse Gestaltungsempfehlungen auf der Praxisebene zu geben (vgl. Töpfer 2007a, S. 3f.). In Analogie zu den Naturwissenschaften spricht man hier von der Entwicklung einer neuen Technologie (vgl. Abschnitt 2.3.2). Im Fall von Six Sigma handelt es sich um in der Praxis bewährte Problemlösungstechniken, mit denen das Produktangebot sowie die Prozessleistung signifikant verbessert werden können. Vor diesem Hintergrund geben also Managementkonzepte der Unternehmensführung grundlegende Anhaltspunkte dafür, was zu tun ist und wie etwas zu tun ist, um die vorgegebenen Organisations-/ Unternehmensziele zu erreichen. Dabei ist die genannte Selektivität Chance und Risiko zugleich: •
Die Chance liegt auf der einen Seite darin, dass der Manager Zeit und Kosten spart, indem er sich auf das (vermeintlich) Wesentliche konzentriert, also das, was der Filter „Managementkonzept“ durchlässt. So gibt z.B. das Six SigmaKonzept die Empfehlung, sich vor allem auf die drei Umsetzungstreiber „Kunde“, „Prozess“ und „Qualität“ bei der Unternehmenssteuerung zu konzentrieren. Denn nur wenn das Management alle drei Treiber gut im Griff hat, wird es langfristig erfolgreich sein (vgl. Abschnitt 2.2.3).
36
Zwischen Erklärung und Prognose besteht strukturelle Identität, d.h. die aufgestellten Hypothesen (Wenn-dann-Aussagen) können an der Erfahrung scheitern und sind sodann zu verwerfen bzw. zu falsifizieren (vgl. Töpfer 2007a, S. 40f.).
86
•
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
Neben der Chance, unter Zeit- und Kostendruck, tragfähige und nachvollziehbare Entscheidungen zu treffen, besteht das potenzielle Risiko von Managementkonzepten darin, dass zu viel Daten- und Konzeptwissen herausgefiltert wird.37 Für die Entscheidung steht dann nur noch bruchstückhaftes, für die Problemlösung unzureichendes Wissen zur Verfügung. Außerdem bleibt ein großer Teil von Mittel-Zweck-Beziehungen unbeachtet, d.h. unrelationiert. Genau aus diesem Grund werden Managementkonzepte auch als Modeerscheinungen bezeichnet (vgl. Abschnitt 2.3.1).
Theorie als „Diagnose“
Reales Problem
Prognose: Wie wird etwas sein?
Statistisches Problem
Statistische Lösung
Charakterisierung des Prozesses in Bezug auf - Lage- & - Streuverhalten
Beschreibung von Größe und Auswirkung
Reale Lösung
Ableitung der wesentlichen Faktoren mit Einfluss auf - Lage- & - Streuverhalten
Erarbeitung und Umsetzung von Verbesserungsmaßnahmen
Gestaltung:
Technologie als „Therapie“
Define
Erklärung: Warum ist etwas so?
Wie kann etwas erreicht werden?
Measure
Analyse
Improve
Control
Quelle: Eigene Darstellung
Abb. 2-10: DMAIC-Zyklus als Technologie zur Problemlösung bei Six Sigma
Aus wissenschaftlicher Sicht werden durch den Vergleich von Managementkonzepten mit „Moden“ auf der einen Seite sowie mit „Technologien“ auf der anderen die unterschiedlichen Facetten des Forschungsobjektes reflektiert. Nach dem Wissenschaftstheoretiker THOMAS S. KUHN (1962) handelt es sich dabei um zwei Paradigmen, auf denen die Forscher mit ihrer Arbeit aufsetzen (vgl. Chalmers 1999, S. 104ff.). Im einen Fall wird davon ausgegangen, dass Six Sigma vor allem aus Legitimitätsgründen praktiziert wird; im anderen Fall wird der Einsatz von Six 37
Wie u.a. McCaskey (1982, S. 195ff.) in einer Studie eindeutig belegt, war vor allem die Selektivität der gängigen Managementkonzepte der US-amerikanischen Automobilindustrie Ursache dafür, warum die Automobilmanager zu Beginn der 1980er Jahre die schwachen Signale (weak signals) bzgl. der grundlegenden Änderungen im Käuferverhalten auf ihrem Heimatmarkt übersahen. Die z.T. gravierenden Folgen dieser Nichtbeachtung sind allgemein bekannt.
2.3 „Weiche Hülle“ und „Harter Kern“ von Managementkonzepten
87
Sigma als rational begründet erachtet. Beide Erklärungsansätze sind auf den ersten Blick plausibel und nachvollziehbar, so dass sich die Frage nach einer zweckmäßigen Vereinigung (Synthese) stellt. Diese ist aber nach dem derzeitigen Erkenntnisstand nicht in Sicht (vgl. Burell/ Morgan 1979, S. 397f.). Alternativ besteht die Möglichkeit der Einnahme einer Multiparadigmenperspektive, bei der beide Ansätze/ Sichtweisen gleichberechtigt nebeneinander stehen (vgl. Gioia/ Pitre 1990, 584ff.; Evered/ Louis 1981, 385ff.). Dieser Weg ist insb. dann reizvoll, wenn die theoretischen Aussagensysteme und die darauf basierenden Handlungsempfehlungen für die Praxis komplementär sind, d.h. sich ergänzen und schrittweise zu einem besseren Gesamtbild über die Realität führen. Dies ist im vorliegenden Fall nicht gegeben. Vielmehr stehen die Aussagen, die aus den zwei Sichtweisen resultieren, teilweise im Widerspruch zueinander. Infolgedessen ergibt sich ein eher diffuses Bild über die Realität von Managementkonzepten. Hinzu kommt, dass es nach der Inkommensurabilitätsthese (vgl. Steinmann/ Scherer 1994, S. 265) nicht möglich ist, auf übergeordneter Ebene zwischen den konkurrierenden Theorien/ Aussagen objektiv zu entscheiden bzw. zu beurteilen. Die „wahre Natur“ von Managementkonzepten i.A. sowie Six Sigma i.S. bleibt folglich auch weiterhin im Verborgenen. Die Arbeit in den beiden Paradigmen wird solange erfolgreich fortschreiten und zu Wissenszuwachs führen, solange keine wesentlichen Diskrepanzen zwischen Theorie und Praxis auftreten. Erst eine „erwachsene Wissenschaft“ wird von einem einzigen Paradigma geleitet, dass sich nach mehreren sog. Paradigmenwechseln herauskristallisiert hat. Neben KUHN´S PARADIGMENWECHSEL (1962) zur Erklärung wissenschaftlichen Fortschritts stellen die FORSCHUNGSPROGRAMME nach IMRE LAKATOS (1970) einen bekannten wissenschaftstheoretischen Ansatz dar. In Analogie hierzu können folgende Kernthesen für die Entstehung und Entwicklung von Managementkonzepten formuliert werden (vgl. Chalmers 1999, S. 104ff.): •
Nicht alle Bereiche/ Annahmen eines Managementkonzeptes stehen auf der gleichen (Entwicklungs-)Stufe und sind – für das Überleben des Konzeptes – als gleich „kritisch“ zu betrachten, d.h. einige Bereiche/ Annahmen eines Konzeptes haben stärkeren fundamentalen Charakter als andere. Aus diesem Grund beinhaltet ein Managementkonzept immer fundamentale sowie periphere Handlungsempfehlungen, wobei erstgenannte zu keinem Zeitpunkt der Konzeptentwicklung infrage gestellt werden.
•
Ein Managementkonzept ist die programmatische Entwicklung der Implikationen einiger (weniger) fundamentaler Aussagen. Sie bilden nach Lakatos den „harten Kern“ eines Forschungsprogramms38 bzw., in unserem Fall, eines
38
Bei der Erfolgsfaktorenforschung, die seit Jahren im betriebswirtschaftlichen Diskurs steht, wird ebenfalls das Kern-Hülle-Problem offensichtlich. Bauer/ Sauer (2004, S. 623) legen die Ursachen für die vermeintliche Erfolglosigkeit des Forschungskonzeptes wie folgt offen: „Die empirische Sozialforschung neigt dazu, ihre Theorien gleichsam
88
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
Managementkonzeptes. Die Akteure in einem bestimmten Unternehmensbereich, z.B. Qualitätsmanagement, begegnen eventuellen (Konzept-)Problemen damit, dass sie die peripheren Annahmen verändern. Diese kennzeichnen nach Lakatos die „weiche Hülle“ eines Forschungsprogramms. Bei Managementkonzepten stehen die persönlichen Auffassungen/ subjektiven Theorien von einzelnen Führungskräften über das „Management von Unternehmen“ am Anfang der Entwicklung. So verfolgen die frühen Anwender organisationaler Innovationen, z.B. Six Sigma bei Motorola Ende der 1980er Jahre, das Ziel, ihre Leistungs- und Wettbewerbsfähigkeit zu verbessern. In der Anfangsphase erfolgt der Wandel bzw. die Entwicklung zunächst auf technisch-rationaler Basis und steht mit den spezifischen Charakteristika/ Anforderungen einer Organisation direkt in Verbindung (vgl. DiMaggio/ Powell 1991, S. 147ff.). Werden in dieser Phase die (subjektiven) Erwartungen der Beteiligten erfüllt, dann führt dies dazu, dass dem neuen Konzept bzw. der neuen Technik ein Wert beigemessen wird, der meist über die ursprünglich beabsichtigten Erfordernisse der zu erfüllenden Aufgabe hinausgeht. So wurde bspw. Six Sigma bei GE in der Mitte der 1990er Jahre zu einem unternehmensweiten Führungs- und Steuerungskonzept ausgebaut. Während GE maßgeblich am Aufbau der „weichen Hülle“ von Six Sigma beteiligt war, geht der „harte Kern“ des Konzeptes auf das Technologieunternehmen Motorola zurück. Um zu einer effizienteren Gestaltung des Verbesserungsprozesses zu gelangen, wurde hier der DMAIC-Zyklus als organisationale Innovation erstmals eingeführt. Nach Abb. 2-11 stellt er den technisch-rational begründeten Kern von Six Sigma dar (vgl. Abschnitt 3.3.1). Daneben wurde unter der Bezeichnung „Design for Six Sigma“ der DMADV-Zyklus als Projektmanagement-Zyklus für den Entwicklungsbereich konzipiert und eingeführt (vgl. Abschnitt 3.3.2). Obwohl er ebenfalls auf rationalen Überlegungen basiert, hat er sich gegenüber dem DMAIC-Zyklus bis dato weniger bewährt (vgl. Abschnitt 1.1.2). Wie Walgenbach/ Beck (2003, S. 498f.) feststellen, werden am Anfang des Institutionalisierungsprozesses neue Strukturen respektive Technologien gezielt entwickelt, um die internen Probleme schnell und kostengünstig zu lösen. Der Wert und die Effizienz eines institutionalisierten Strukturelements wird dabei in erster Linie nach internen Bewertungskriterien bestimmt (vgl. Zucker 1987, S. 443ff.). Die neuen Praktiken, Techniken und/ oder Verfahren werden unternehmensübergreifend eingeführt und weiterentwickelt, wenn die beteiligten Akteure davon überzeugt sind, dass damit Effizienzsteigerungen möglich sind. Bei wachsender Verbreitung und Anerkennung (Legitimation) tritt der Punkt der Rationalität jedoch sukzessive in den Hintergrund. Im Zuge der Verbreitung einer organisationalen Innovation kommt es immer mehr zu einer „schablonenhaften“ Übernahme, so dass ab einem bestimmten Zeitpunkt – statt der Verbesserung der Leistungs- und wie Supernovas solange aufzublähen bis der gesamte Wissenschaftsbetrieb den Überblick verliert und die Theorie quasi implodiert und stirbt. Im Kosmos bleiben dann bekanntlich schwarze Löcher zurück. Ein Etwas, in dem nichts Erhellendes mehr ist.“
2.3 „Weiche Hülle“ und „Harter Kern“ von Managementkonzepten
89
Wettbewerbsfähigkeit – die Legitimation und Anerkennung durch die Umwelt, insb. der Stakeholder, im Vordergrund stehen. Einbindung der Unternehmensleitung und Commitment der Führungskräfte Auswahl und Qualifizierung von Akteuren/ Aufbau einer Six Sigma-Organisation
Define
Measure Analyse Improve Control
Planung und Steuerung von Six Sigma-Projekten/ Analyse der Ergebniswirkungen (direkt/ indirekt) Konzeption eines Anreizsystems für die Durchführung von Six Sigma-Projekten Basis: Magnusson et al. 2004, S. 19
Abb. 2-11: DMAIC-Zyklus als „harter Kern“ im Six Sigma-Rahmenkonzept
Diese Entwicklung trifft auch für das Six Sigma-Konzept zu. Mit der zunehmenden Verbreitung und dem Einsatz in anderen Branchen geht der anfänglich „rationale Kern“ der Innovation nach und nach verloren – bildlich gesprochen bleibt dann nur noch die Verpackung als „legitimierte Hülle“ übrig. Trotz dieser Einschränkung ist die Adoptionsrate weiterhin hoch, da mit Six Sigma aus gesellschaftlicher Sicht die Anforderungen an eine „rationale“ und „moderne“ Organisationsstruktur erfüllt sind (vgl. Walgenbach 2002, S. 329). Die „weiche Hülle“ von Six Sigma lässt sich in Anlehnung an Lakato´s Forschungsprogramme wie folgt kennzeichnen: Um den Kern des Managementkonzeptes vor der Falsifikation zu schützen, wird ein Set von unterstützenden Annahmen (Rahmenbedingungen) formuliert. Führt der Einsatz von Six Sigma nicht zum gewünschten Erfolg, dann wird nicht der „harte Kern“, also z.B. der Phasenablauf und Instrumenteneinsatz des DMAIC-Zyklus, sondern die Annahmen des schützenden Gürtels infrage gestellt und ggf. für den Misserfolg verantwortlich gemacht (siehe Abb. 2-11).39 Auf der Grundlage einer umfassenden Literaturrecherche konnten vom Autor die folgenden vier Bereiche als legitimierte und
39
Dieser Erklärungsansatz gibt u.a. einen Hinweis darauf, warum der DMADV-Zyklus als harter Kern von Design for Six Sigma – trotz seiner nachgewiesenen Ineffizienz – seit Jahren als „State of the art“-Verbesserungsmethode im Produktentwicklungsprozess gehandelt wird. Analog zum DMAIC-Zyklus wird das institutionalisierte Element durch das Six Sigma-Rahmenkonzept vor der Widerlegung geschützt.
90
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
zugleich schützende Hülle des Six Sigma-Konzeptes identifiziert werden (vgl. u.a. Töpfer 2007; Harry/ Schroeder 2005; Magnusson et al. 2004): •
Einbindung der Unternehmensleitung und Commitment der Führungskräfte: Nach Töpfer (2007, S. 208) ist die zu klärende Frage bei der Implementierung von Six Sigma nicht, ob, sondern welche aktive Rolle die Unternehmensleitung bei der Einführung zu spielen hat. Bei einer unternehmensweiten Initiative muss sie sich an die „Spitze der Bewegung“ für Six Sigma stellen. Dabei ist die Frage zu klären, wann sie sich wo und wie in den Roll-out-Prozess einbringt. Denn auch bei einem fortschrittlichen Qualitätsmanagement-System mit Erfahrungen in bestimmten QM-Initiativen bedeutet Six Sigma immer einen Veränderungsprozess im gesamten Unternehmen. Neben der Rolle als Initiator und Verfechter von Six Sigma tritt die Unternehmensleitung als Sponsor von Six Sigma-Projekten auf. Wenn die Entscheidung für die generelle Einführung von Six Sigma gefallen ist, dann sollte die Unternehmensleitung bereits den ersten Workshop mit Entscheidungsträgern und Prozesseignern zur Klärung konzeptrelevanter Fragen nutzen.
•
Konzeption eines Anreizsystems für die Durchführung von Six Sigma-Projekten: Damit bei den Führungskräften ein derartiges Commitment entsteht, sind u.a. entsprechende Anreize zu schaffen. Ziel ist der Aufbau eines umfassenden Incentive-Konzepts, bei dem die Durchführung respektive Steuerung von Six Sigma-Projekten in den persönlichen Zielvereinbarungen der Führungskräfte und Mitarbeiter verankert ist. Dadurch werden einerseits die Bedeutung und Dauerhaftigkeit des Six Sigma-Programms unterlegt. Andererseits werden die Befürchtungen und Vorbehalte der Mitarbeiter bzw. Manager abgebaut, die Six Sigma als eine „vorrübergehende Initiative“ des Unternehmens sehen. Wie die Erfahrungen bei General Electric zeigen, sichert ein effektives Anreizsystem vor allem im ersten und zweiten Jahr des Six Sigma-Einführungsprozesses die klare Fokussierung und zielgerichtete Weiterentwicklung der Initiative (vgl. Bulk/ Faulhaber 2007, S. 402).
•
Auswahl und Qualifizierung von Akteuren/ Aufbau der Six Sigma-Organisation: Die typische Six Sigma-Organisation beinhaltet eine differenzierte Rollenverteilung mit unterschiedlichen Aufgaben- und Rollenprofilen. Nach diesen richtet sich u.a. der Qualifizierungsbedarf, der in vielen großen Unternehmen, z.B. Motorola, fest vorgegeben ist. Zu den wesentlichen vier Gruppen von Six Sigma-Akteuren gehören Champions, Master Black Belts, Black Belts und Green Belts; sie wurden in Abschnitt 2.2.3 benannt. Weitere Akteure einer typischen Six Sigma-Organisation sind Yellow Belts und White Belts. Als Mitglieder einer Projektgruppe übernehmen sie ebenfalls Fach- und Unterstützungsaufgaben. An der Spitze der Six Sigma-Organisation steht üblicherweise der Quality Leader, der als Mitglied der oberen Führungsebene über eine klare strategische Ausrichtung verfügt.
•
Planung und Steuerung von Six Sigma-Projekten/ Analyse der Ergebniswirkungen: Bei der Planung von Six Sigma-Projekten kommt vor allem dem Pro-
2.3 „Weiche Hülle“ und „Harter Kern“ von Managementkonzepten
91
jektauswahlprozess eine entscheidende Bedeutung zu. In diesem wird festgelegt, wie bei der Auswahl von Six Sigma-Projekten standardmäßig vorzugehen ist.40 Generell ist zu beachten, dass keine Projekte zu Six Sigma-Projekten nominiert werden, die auf der einen Seite vergleichsweise einfach und mit „gesundem Menschenverstand“ bereits zum Erfolg zu führen sind (sog. Tiefhängende Früchte-Projekte). Auf der anderen Seite sind Projekte zu vermeiden, die in ihrem Ausmaß und ihrer Zeitdauer mehr als deutlich über ein „normales“ Six Sigma-Projekt hinausgehen und nur ansatzweise zu bearbeiten sind (sog. Welthungerhilfe-Projekte) (vgl. Töpfer 2007b, S. 216). Im zeitlichen Ablauf werden zunächst Prozesse mit einem relativ schlechten Qualitätsniveau verbessert. Dadurch wird ein positives Kosten-Nutzen-Verhältnis erreicht, was zugleich die Akzeptanz des Gesamtvorhabens fördert. Im Unterschied zu anderen Verbesserungskonzepten, z.B. TQM, werden bei der Projektanalyse sowohl monetäre als auch nicht-monetäre Größen bzgl. der Ergebniswirkung(en) ausgewiesen. Während der Sigma-Wert als dimensionslose nicht-monetäre Größe die technische Sichtweise widerspiegelt (= Sprache des Prozesses), wird über die monetäre Kenngröße Net Benefit41 der wirtschaftliche Erfolg von Six Sigma-Projekten gemessen, der wiederum Einfluss auf die Höhe des Shareholder Value hat (= Sprache des Managements). Neben der Erklärung des Aufbaus von Managementkonzepten gibt der Vergleich mit Lakatos´ Forschungsprogramme Hinweise darauf, wie die Entstehung und Verbreitung zu deuten ist. Zur Beschreibung des wissenschaftlichen Fortschritts unterscheidet Lakatos zwischen progressiven und degenerativen Forschungsprogrammen. Im Zuge einer „wissenschaftlichen Revolution“ kommt es zur Ablösung eines degenerativen Forschungsprogramms durch ein progressives. Dieses Muster trifft m.E. auch für Managementkonzepte zu. So lässt sich z.B. Six Sigma zum gegenwärtigen Zeitpunkt als progressives Managementkonzept einordnen. Es löst das Vorgängermodell TQM ab, das sich bereits im Jahr 2005 im Degenerationsstadium befand (vgl. von Lanzenauer/ Huesmann 2004, S. 253).
40 41
Der eingeführte Projektauswahlprozess bei Johnson & Johnson im Werk Wuppertal beinhaltet z.B. fünf Schritte (vgl. Leyendecker 2004, S. 476). Nach allgemeiner Konvention fließen in die Berechnung des Net Benefit nur liquiditätswirksame Kosteneinsparungen und/ oder Umsatzsteigerungen ein, die nachweislich innerhalb von 12 Monaten nach Beendigung des Six Sigma-Projektes realisiert werden. Dadurch wird vermieden, dass durch indirekte Nutzenkomponenten, z.B. erhöhte Kundenbindung, die Wirkungen von Projekten „schöngerechnet“ werden.
3
Praxis-Theorie-Transformation als induktive Vorgehensweise: Vom konkreten zum abstrakten Vorgehensmodell der Problemlösung in F&E-Projekten
'LH%HUHLWVWHOOXQJYRQHIIHNWLYHQ9RUJHKHQVPRGHOOHQ]XU9HUEHVVHUXQJYRQ3UR GXNWHQ 3UR]HVVHQ ELOGHW GHQ $XVJDQJVSXQNW GHU $QDO\VH DXI DEVWUDNWHU (EHQH VLHKH $EE :LH LQ $EVFKQLWW DXVJHIKUW ZXUGH ULFKWHW VLFK GLH $Q ZHQGXQJ EHVWLPPWHU 9RUJHKHQVPRGHOOH LP 5DKPHQ YRQ 6L[ 6LJPD QDFK GHU EHWULHEOLFKHQ $XIJDEHQVWHOOXQJ 6R ZHUGHQ 3UR]HVVYHUEHVVHUXQJHQ PLW GHP '0$,&=\NOXV DQJHJDQJHQ ZlKUHQG GLH JUXQGOHJHQGH hEHUDUEHLWXQJ GHV /HLV WXQJVDQJHERWHV PLW GHP '0$'9=\NOXV HUIROJW 'LH (IIHNWLYLWlW GHU 3URMHNWDU EHLW ULFKWHW VLFK EHL OHW]WHUHP QLFKW QXU QDFK GHU HU]LHOWHQ )HUWLJXQJVTXDOLWlW XQG GHP HUUHLFKWHQ )LQDQ]HUJHEQLV VRQGHUQ DXFK QDFK GHP ,QQRYDWLRQVJUDG GHU 3URGXNWH XQG JJI GHU QHX NRQ]LSLHUWHQ 3UR]HVVH =XVlW]OLFK ]XP $QVSUXFK GHU SUDNWL]LHUWHQ1XOO)HKOHU4XDOLWlWWULWWEHL')66DOVRGDV=LHOGHUNUHDWLYHQ3URE OHPO|VXQJ$XIEHLGH$VSHNWHZLUGLQGLHVHP.DSLWHOHLQJHJDQJHQ
3.1
Qualität und Innovation als wichtige Effektivitätskriterien – Begriffsdefinitionen
'LH *HQHULHUXQJ YRQ ,QQRYDWLRQHQ XQG GLH 6LFKHUVWHOOXQJ HLQHU KRKHQ 4XDOLWlW VSLHOHQIUYLHOH8QWHUQHKPHQHLQHKHUDXVUDJHQGH5ROOHEHLGHU(QWZLFNOXQJYRQ QHXHQ 3URGXNWHQ XQG RGHU 3UR]HVVHQ YJO XD 9RHOSHO /HLEROG 6 I :LOGHPDQQ 6 I 'LH JOHLFK]HLWLJH (UIOOXQJ EHLGHU =LHOVHW]XQJHQ JHV WDOWHWVLFKGDEHLRIWPDOVVFKZLHULJGDEHLGH*U|HQKlXILJQLFKWLQHLQHPGLUHNWHQ 8UVDFKHQ:LUNXQJV]XVDPPHQKDQJ VWHKHQ (LQ KRKHU ,QQRYDWLRQVJUDG EHGHXWHW QLFKW]ZDQJVOlXILJHLQHKRKH)HUWLJXQJVTXDOLWlWFS7URW]GHPN|QQHQHLQH5HLKH YRQ $QNQSIXQJVSXQNWHQ ]ZLVFKHQ ,QQRYDWLRQ XQG 4XDOLWlW DXVJHPDFKW ZHUGHQ VLHHUJHEHQVLFKYRUDOOHPDXVGHPEUHLWHQ6SHNWUXPYRQ%HJULIIVGHILQLWLRQ 3.1.1
Fünf Dimensionen der Qualität als Ausgangspunkt für Six Sigma
0LWGHP%HJULIIÄ4XDOLWlW³YHUELQGHQVLFKLG5UHFKWXQWHUVFKLHGOLFKH$QVLFKWHQ XQG $XIIDVVXQJHQ -H QDFK 3UlIHUHQ] XQG SHUV|QOLFKHQ ,QWHUHVVHQ GHV $XWRUV ZHUGHQ YHUVFKLHGHQH $N]HQWH EHL GHU %HJULIIVGHILQLWLRQ JHVHW]WYJO ]% 7|SIHU 0DVLQJ-XUDQ7DJXFKL'HPLQJ&URVE\ 'DV :RUW OHLWHW VLFK DXV GHP ODWHLQLVFKHQ %HJULII Ä4XDOLWDV³ DE GLHVHU VWHKW IU %H VFKDIIHQKHLW (LJHQVFKDIW *WH RGHU =XVWDQG YRQ 6WRIIHQ 2EMHNWHQ RGHU=XVWlQ
1DFK GHU ,1129$7,21 (;&(//(1&( 678',( GXUFKJHIKUW YRP %HUDWXQJVXQWHU QHKPHQ $UWKXU ' /LWWOH LVW GLH ,QQRYDWLRQVIlKLJNHLW GHU8QWHUQHKPHQEUDQFKHQEHU JUHLIHQG GHU ZLFKWLJVWH +HEHO ]XU 3URILWDEOLWlV XQG :DFKVWXPVVWHLJHUXQJ 'XUFK HLQ H[]HOOHQWHV ,QQRYDWLRQVPDQDJHPHQW NDQQ HLQH 8PVDW]VWHLJHUXQJ YRQ GXUFKVFKQLWWOLFK EHLEHVRQGHUVLQQRYDWLYHQ8QWHUQHKPHQVRJDUYRQHUUHLFKWZHUGHQ
4XDOLWlWXQG,QQRYDWLRQDOVZLFKWLJH(IIHNWLYLWlWVNULWHULHQ
GHQ YJO :HVVHO 6 II ,P DOOJHPHLQHQ 6SUDFKJHEUDXFK LVW 4XDOLWlW HLQ PLW :HUWXQJHQ YHUEXQGHQHU %HJULII (V ZLUG YRQ JXWHU RGHU VFKOHFKWHU 4XDOLWlW JHVSURFKHQ %HL 9RUOLHJHQ YRQ ÄJXWHU 4XDOLWlW³ ZLUG L$ GHU 1XW]HQ HLQHV 3UR GXNWHV RGHU HLQHU 'LHQVWOHLVWXQJ IU HLQHQ EHVWLPPWHQ =ZHFN ]XP $XVGUXFN JH EUDFKW 1DFK ',1 (1 ,62 LVW 4XDOLWlW HQWVSUHFKHQG ZLH IROJW GHIL QLHUW Ä4XDOLWlW LVW GLH *HVDPWKHLW YRQ 0HUNPDOHQ HLQHU (LQKHLW EH]JOLFK LKUHU (LJQXQJIHVWJHOHJWHRGHUYRUDXVJHVHW]WH(UIRUGHUQLVVH]XHUIOOHQ³ ,Q $XVHLQDQGHUVHW]XQJ PLW GHU )UDJH Ä:DV LVW 4XDOLWlW"³ HUPLWWHOWH GHU +DUYDUG SURIHVVRU'$9,' $*$59,16II LQGHQHU-DKUHQLQVJHVDPWIQI $QVlW]HXP4XDOLWlW]XGHILQLHUHQ6LHVLQGLP)ROJHQGHQQDFKGHU*HVWDOWXQJV ULFKWXQJLQQHUKDOEGHU:HUWVFK|SIXQJVNHWWHJHRUGQHW •
:LUG 4XDOLWlW DXV GHU 6LFKW YRP 8QWHUQHKPHQ EHWUDFKWHW GDQQ HUZHLVW VLFK GHUprozessbezogene AnsatzDOVJHHLJQHWHU0DVWDE]XU%HVWLPPXQJTXDOLWD WLYHU0HUNPDOH0LWGHP0RWWRÄ)LUVWWLPHULJKW³EH]LHKWHUVLFKLQVEHVRQGH UH DXI GHQ :HUWVFK|SIXQJVSUR]HVV LP 8QWHUQHKPHQ (V ZLUG YRP 9RUOLHJHQ VSH]LILVFKHU .XQGHQDQIRUGHUXQJHQ DXVJHJDQJHQ GLH VLFK PLW +LOIH WHFKQL VFKHU 3URGXNWPHUNPDOHHLQGHXWLJHUIOOHQODVVHQ4XDOLWlWLVWGDEHLJOHLFK]X VHW]HQPLWGHU(LQKDOWXQJYRQ6SH]LILNDWLRQHQGLH]%LP=XJHHLQHU92& &74$QDO\VH]X3URMHNWEHJLQQHUPLWWHOWZRUGHQVLQG 'LHVH 9RUJHKHQVZHLVH VRZLH GLH 9RUVWHOOXQJ YRQ GHPZDV4XDOLWlWLVWHQW VSULFKW LP JURHQ XQG JDQ]HQ GHU YRQ Six Sigma YJO $EVFKQLWW ,P 0LWWHOSXQNWVWHKWKLHUGHU3URGXNWLRQVXQGRGHU'LHQVWOHLVWXQJVSUR]HVVGHU JHPHVVHQ DQDO\VLHUW YHUEHVVHUW XQG NRQWUROOLHUW ZLUG =LHO LVW HV GXUFK ÄSUDNWL]LHUWH 1XOO)HKOHU4XDOLWlW³ LP 8QWHUQHKPHQ GLH $EZHLFKXQJVNRVWHQ EHLGHU$EZLFNOXQJYRQ3UR]HVVHQ]XPLQLPLHUHQ
•
'HU produktbezogene Ansatz EHVFKUHLEW 4XDOLWlW DOV HLQGLPHQVLRQDOH *U|H PLWWHOVGHUVLFKSURGXNWUHOHYDQWH(LJHQVFKDIWHQHLQGHXWLJPHVVHQODVVHQ'HU $QVDW] JHKW YRQ GHU 3UlPLVVH DXV GDVV 3URGXNW $ EHVVHU DOV 3URGXNW % VHL IDOOVHLQH=XWDWYRQ$ZHUWYROOHULVWDOVYRQ%'DGXUFKLVWHLQH5DQJRUGQXQJ YRQ YHUVFKLHGHQHQ 3URGXNWHQ GHU JOHLFKHQ .DWHJRULH SULQ]LSLHOO P|JOLFK 7URW]GHUGDPLWJXWHQ(LJQXQJIU|NRQRPLVFKWKHRUHWLVFKH0RGHOOHEHLQKDO
:LH*HLJHU6II LQGLHVHP=XVDPPHQKDQJEHPHUNWJLQJGHPHLQKHLWOLFKHQ 9HUVWlQGQLVYRQ4XDOLWlWHLQHMDKU]HKQWHODQJH6XFKHYRUDXV%HLGHU9HUZHQGXQJGHV 4XDOLWlWVEHJULIIVLP4XDOLWlWVPDQDJHPHQWVWDQGLQVEGLH)UDJHLP9RUGHUJUXQGREHV VLFKEHLÄ4XDOLWlW³XPGHQ:HJGDV=LHORGHUGHQ0DVWDEKDQGHOW ,Q HLQHP ZHLWHUHQ $UWLNHO VFKOlJW *DUYLQ 6 II DFKW 'LPHQVLRQHQ YRU DQKDQGGHUHUGLH3URGXNWTXDOLWlWGLIIHUHQ]LHUWEHXUWHLOWZHUGHQNDQQ'LH'LPHQVLRQHQ GLHQHQDOV*UXQGJHUVWIUHLQHVWUDWHJLVFKH$QDO\VHGHU:HWWEHZHUEVSRVLWLRQ6LHEH ]LHKHQVLFKVRZRKODXIÄKDUWH³3URGXNWXQG/HLVWXQJVPHUNPDOHZLH*HEUDXFKVQXW]HQ 3HUIRUPDQFH $XVVWDWWXQJ)HDWXUHV =XYHUOlVVLJNHLW5HOLDELOLW\ 1RUPJHUHFKWLJNHLW &RQIRUPDQFH XQG +DOWEDUNHLW 'XUDELOLW\ DOV DXFK ÄZHLFKH³ 4XDOLWlWVNULWHULHQ ZLH .XQGHQGLHQVW 6HUYLFHDELOLW\ bVWKHWLN $HVWKHWLFV XQG 4XDOLWlWVLPDJH 3HUFHLYHG 4XDOLW\ $XIVLHZLUGLQ$EVFKQLWW%H]XJJHQRPPHQ
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
WHW HU HLQH 5HLKH YRQ 6FKZlFKHQ 1HEHQ GHU 9HUQDFKOlVVLJXQJ GHV .XQGHQ QXW]HQVGXUFKGHQ*HEUDXFKHLQHV3URGXNWHVEOHLEWDXFKGLH$EJUHQ]XQJGHU 3URGXNWVRUWHZHLWHVWJHKHQGXQJHO|VW •
'HUwertbezogene AnsatzVLHKWGLH4XDOLWlWHLQHV3URGXNWHVHLQHU'LHQVWOHLV WXQJ LQ GLUHNWHU$EKlQJLJNHLWYRQGHQ(UVWHOOXQJVNRVWHQ6RJLOWHLQ(U]HXJ QLV QXU GDQQ DOV 4XDOLWlWVSURGXNW ZHQQ HV GLH .XQGHQDQIRUGHUXQJHQ EHVW P|JOLFK XQG ]X HLQHP DN]HSWDEOHQ 3UHLV HUIOOW 4XDOLWlW LVW GDQDFK VRZRKO IU HLQ]HOQH 6DFK 'LHQVWOHLVWXQJHQ DOV DXFK GDV JHVDPWH 8QWHUQHKPHQ LQ )RUPYRQ.RVWHQ1XW]HQ$QDO\VHQPHVVEDU6RLVW]%HLQ3URGXNW$TXDOL WDWLYK|KHUZHUWLJDOVHLQ3URGXNW%ZHQQHVGLHVHOEHQ6SH]LILNDWLRQHQ]XHL QHP QLHGULJHUHQ 3UHLV HUIOOW 8QWHU GLHVHU 9RUDXVVHW]XQJ VLQG GLH PHLVWHQ 8QWHUQHKPHQ EHVWUHEW LKUHQ .XQGHQ HLQHQ HLQ]LJDUWLJHQ :HUWYRUWHLO ]X YHU VFKDIIHQHLQHVRJ8QLTXH&XVWRPHU9DOXH3URSRVLWLRQ8&93
•
%HLPkundenbezogenen AnsatzOLHJWGHU6FKZHUSXQNWGHU%HWUDFKWXQJDXIGHU 1XW]XQJVSKDVHGHV3URGXNWHV'LH4XDOLWlWEHVWLPPWVLFKKLHUQDFKGHULQGL YLGXHOOHQ(LQVFKlW]XQJGHU9HUZHQGEDUNHLWYRQ3URGXNWHQ(QWVSUHFKHQGGHU PDUNWRULHQWLHUWHQ6LFKWZHLVHJHKHQNXQGHQEH]RJHQH4XDOLWlWVGHILQLWLRQHQDXI GHQ YRQ -XUDQ 6 JHSUlJWHQ Ä)LWQHVV IRU XVH³*HGDQNHQ ]XUFN ,QGHP GLH 3URGXNWTXDOLWlWGXUFKGHQ$QZHQGHUIHVWJHOHJWZLUGXQGZHQLJHU GXUFKGDV3URGXNWVHOEVWHQWVFKHLGHWVLFKKLHUDXFKZDVÄUREXVW³LVWXQGZDV QLFKW:LHOHLFKWQDFKYROO]LHKEDULVWKDEHQYHUVFKLHGHQH3URGXNWEHQXW]HUXQ WHUVFKLHGOLFKH:QVFKH%HGUIQLVVHVRGDVVGLH3URGXNWHGLHGLHVH%HGUI QLVVH DP EHVWHQ EHIULHGLJHQ DOV TXDOLWDWLY KRFKZHUWLJDQJHVHKHQZHUGHQ,Q IROJHGHVVHQZLUGX8HLQHWHFKQLVFKDXIZHQGLJH3URGXNWO|VXQJDXV6LFKWGHU .XQGHQ=LHOJUXSSHGHXWOLFKVFKOHFKWHUEHXUWHLOWDOVHLQHHLQIDFKH ,P 9HUJOHLFK ]XP ÄNODVVLVFKHQ 6L[ 6LJPD³ DXI %DVLV GHV '0$,&=\NOXV QLPPWEHLDFSS-ProjektenGLH(UPLWWOXQJXQG$QDO\VHGHU.XQGHQEHGUIQLV VH HUIDKUXQJVJHPl GHXWOLFK PHKU =HLW LQ $QVSUXFK YJO $EVFKQLWW 'DKHU NRPPW GHU NXQGHQEH]RJHQH $QVDW] KLHU VWlUNHU ]XP 7UDJHQ =LHO LVW HVDOOH]XNQIWLJHQZHVHQWOLFKHQ.XQGHQDQIRUGHUXQJHQ]XHUIOOHQ
•
'HU transzendente Ansatz VLHKW VFKOLHOLFK 4XDOLWlW DOV HLQH ]HLWORVH (LQKHLW YRQ IRUPYROOHQGHWHQ QLFKW ]X EHUWUHIIHQGHU 3URGXNWHLJHQVFKDIWHQ 'LHVH $XIIDVVXQJ VWHKW JOHLFK]HLWLJ IU HLQH VXEMHNWLYH 4XDOLWlWVHLQVFKlW]XQJ YRQ
'DEHL EH]LHKW VLFK GDV 3UHLV/HLVWXQJVYHUKlOWQLV ]XU %HXUWHLOXQJ YRQ 0DUNWOHLVWXQJHQ LQ JHVlWWLJWHQ 0lUNWHQ LPPHU ZHQLJHU DXI GLH 3ULPlUOHLVWXQJHQ ]% $XWRUHSDUDWXU ZDUWXQJ VRQGHUQ YLHOPHKU DXI GLH 6HNXQGlUOHLVWXQJHQ ]% 0RELOLWlWVJDUDQWLH .X ODQ] GLH LQ .RPELQDWLRQ PLW GHQ 3ULPlUOHLVWXQJHQ DQJHERWHQ ZHUGHQ YJO 0HIIHUW 6 %HLP 9HUJOHLFK YRQ ]ZHL 3URGXNWDQJHERWHQ GLH XQWHUVFKLHGOLFK WHXHU VLQG DEHU IU LKQ GHQ JOHLFKHQ 1XW]HQ %DVLVQXW]HQ =XVDW]QXW]HQ HUEULQJHQ XQWHUVWHOOW GHU .RQVXPHQW EHL GHP $QJHERW PLW GHP K|KHUHQ 3UHLV DXFK HLQH K|KHUH 4XDOLWlW ]% 3URGXNWOHEHQVGDXHU 'DGXUFK VWHLJW VHLQH 3UHLVEHUHLWVFKDIW GK EHL DXVUHLFKHQGHP(LQNRPPHQZLUGHUGLHWHXHUH3URGXNWYDULDQWHZHOFKHHUDOVTXDOLWDWLY K|KHUZHUWLJHLQVWXIWGHUELOOLJHUHQYRU]LHKHQYJOXD'LOOHU6II
4XDOLWlWXQG,QQRYDWLRQDOVZLFKWLJH(IIHNWLYLWlWVNULWHULHQ
,QGLYLGXHQ GK 4XDOLWlW OlVVW VLFK ZHGHU DXV .XQGHQ QRFK DXV 8QWHUQHK PHQVVLFKW DOOJHPHLQ GHILQLHUHQ XQG PHVVHQ 9LHOPHKU OlVVW VLH VLFK QXU DXI GHU%DVLVYRQSHUV|QOLFKHQ(UIDKUXQJHQXQGRGHUNRQNUHWHU+DQGKDEXQJGHV 3URGXNWHV EHZHUWHQ 1DFK GHU 0HLQXQJ GHU 9HUWUHWHU GLHVHV $QVDW]HV NDQQ GHU%HJULIIGHU4XDOLWlWJHQDXVRZHQLJLPSOL]LWGHILQLHUWZHUGHQZLHHV]% EHL Ä6FK|QKHLW³ GHU )DOO LVW 'HU WUDQV]HQGHQWH 4XDOLWlWVEHJULII ILQGHW VLFK KlXILJ LQ GHU H[WHUQHQ .RPPXQLNDWLRQVSROLWLN LQVE EHL GHU 3URGXNWZHU EXQJ YRQ 8QWHUQHKPHQ ZLHGHU XQG OlVVW XD 5FNVFKOVVH DXI GLH 8QWHU QHKPHQVSKLORVRSKLHDXVULFKWXQJ]X ,Q =HLWHQ JOREDOLVLHUWHU 0lUNWH XQG ]XQHKPHQGHQ :HWWEHZHUEHV EHVWHKW LPPHU KlXILJHU GDV =LHO GDULQ Null-Fehler-Qualität ]X UHDOLVLHUHQ DOVR SUDNWLVFK NHLQH )HKOHU ]X PDFKHQ E]Z GLHVH ]X ]XODVVHQ :LH 7|SIHU 6 DXVIKUW PXVV]XGLHVHP=ZHFNHLQ.RQ]HSWLPSOHPHQWLHUWZHUGHQPLWGHPVLFKGLH)HK OHU$EZHLFKXQJVNRVWHQHUNHQQHQXQGQDFKKDOWLJEHVHLWLJHQODVVHQRKQHGDVVGDV 8QWHUQHKPHQVHOEVWLQHLQH.RVWHQIDOOHOlXIW*HQDXGLHVH$QIRUGHUXQJHUIOOW6L[ 6LJPD LQGHP HV GDUDXI DE]LHOW DOOH ZHVHQWOLFKHQ $QIRUGHUXQJHQ GHU .XQGHQ &74V YROOVWlQGLJ XQG ZLUWVFKDIWOLFK ]X HUIOOHQ %LV DXI GHQ WUDQV]HQGHQWHQ $QVDW]ZHUGHQDOOH4XDOLWlWVGLPHQVLRQHQEHUFNVLFKWLJW:LHLQ$EEVFKHPD WLVFKGDUJHVWHOOWLVWVLQGKLHU]XGLHHLQ]HOQHQ'LPHQVLRQHQUHWURJUDG]XDQDO\VLH UHQXPVLHDQVFKOLHHQG±LQ)RUPGHV*HJHQVWURPSULQ]LSV±]XJHVWDOWHQ Gestaltungsrichtung Prozessbezogene Qualität
Sind die kritischen Prozessmerkmale innerhalb der Spezifikation?
Produktbezogene Qualität
Liegen die Merkmalsausprägungen im Toleranzbereich?
Wertbezogene Qualität
Ist das PreisLeistungs-Verhältnis wettbewerbsfähig?
Kundenbezogene Qualität
Werden alle wesentlichen Kundenanforderungen erfüllt?
Transzendente Qualität
Nimmt der Kunde die produzierte Qualität wie gewünscht wahr?
Analyserichtung Quelle: Eigene Darstellung
$EE'LHSUR]HVVXDOH9HUQHW]XQJGHUIQI4XDOLWlWVGLPHQVLRQHQQDFK*DUYLQ
,P *HJHQVDW] ]XU 9HUEHVVHUXQJ YRQ EHVWHKHQGHQ 3UR]HVVHQ VLQG GLH CTQs als Zielwerte der OptimierungEHLGHU1HXSURGXNW1HXSUR]HVVSODQXQJZHQLJHUNODU YRP.XQGHQNRPPXQL]LHUWE]ZYRUJHJHEHQ'DUXQWHUOHLGHWKlXILJGLH(IIHNWLYL WlW YRQ HQWZLFNOXQJVEH]RJHQHQ 3UREOHPO|VXQJV]\NOHQ ]% '0$'9=\NOXV *OHLFK]HLWLJ LVW GHU =HLW XQG 5HVVRXUFHQDXIZDQG EHL ')66 ± JHJHQEHU GHP NODVVLVFKHQ 6L[ 6LJPD±YHUJOHLFKVZHLVHKRFKGDGLH$QIRUGHUXQJGDULQEHVWHKW QLFKW QXU GLH KHXWLJHQ VRQGHUQ DXFK GLH ]XNQIWLJHQ &74V ]X HUPLWWHOQ 'LHV EHHLQWUlFKWLJWL$GLH(IIL]LHQ]GHV3URGXNWHQWVWHKXQJVSUR]HVVHV
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
1DFK GHU (LQJUHQ]XQJ GHV4XDOLWlWVEHJULIIVVFKOLHWVLFKGLH)UDJHDQZLHJDQ] KHLWOLFKH 4XDOLWlW ± HQWVSUHFKHQG GHQ YRUVWHKHQG JHQDQQWHQ IQI 'LPHQVLRQHQ ± HU]HXJW UHVSHNWLYH YHUEHVVHUW ZHUGHQ NDQQ ,Q GLHVHP =XVDPPHQKDQJ LVW ]X EH UFNVLFKWLJHQ GDVV VLFK LP 8PIHOG HLQHV Hyperwettbewerbs GLH $NWLYLWlWHQ GHU RSHUDWLYHQXQGVWUDWHJLVFKHQ3ODQXQJHLQHV8QWHUQHKPHQVQLFKWDXVVFKOLHOLFKDXI GHQ 4XDOLWlWVDVSHNW EH]LHKHQ YJO %DXP HW DO 6 9LHOPHKU VLQG ]XU QDFKKDOWLJHQ6LFKHUXQJGHU:HWWEHZHUEVIlKLJNHLWVRZRKOGLH4XDOLWlWDOVDXFKGLH 3DUDPHWHU=HLWXQG.RVWHQDOVVWUDWHJLVFKH=LHOJU|HQ]XRSWLPLHUHQ'LHVSH]LIL VFKH $XVSUlJXQJ &KDUDNWHULVWLND GLHVHU GUHL *U|HQ GLH DXFK DOV Ä0DJLVFKHV 'UHLHFNGHU%:/³EH]HLFKQHWZHUGHQLVWGLH*UXQGODJHIUHLQHEHUOHJHQH3HU IRUPDQFH/HLVWXQJVHUVWHOOXQJYJO.HXSHU%U|VHO6 )U GLH ZHLWHUH %HWUDFKWXQJ ZLUG GDYRQ DXVJHJDQJHQ GDVV GLH 6WHLJHUXQJ GHU 4XDOLWlW ]X .RVWHQHLQVSDUXQJHQ XQG =HLWYHUNU]XQJHQ IKUW 3UDNWL]LHUWH 1XOO )HKOHU4XDOLWlWLVWGHPQDFKGHU+HEHOIUGLH9HUEHVVHUXQJGHU8QWHUQHKPHQVHU JHEQLVVH'DEHLVWHKHQPLW.RQWLQXLHUOLFKHU9HUEHVVHUXQJL6Y.93XQG'LVNRQ WLQXLHUOLFKHU9HUEHVVHUXQJL6Y')66SULQ]LSLHOO]ZHL$QVlW]H]XU$XVZDKOXP GLH3URGXNWXQGRGHU3UR]HVVTXDOLWlW]XVWHLJHUQ •
,PHUVWHQ)DOOZHUGHQ3UR]HVVHXQG3URGXNWHLQNOHLQHQ6FKULWWHQYHUEHVVHUW XQG ]ZDU GXUFK GLH $NWLYLHUXQJ DOOHU 0LWDUEHLWHU GHV 8QWHUQHKPHQV 'LHVH $XIJDEHIlOOWVFKZHUSXQNWPlLJGHPQualitätsmanagement ]X
•
,P ]ZHLWHQ )DOO VWHKHQ KLQJHJHQ SURMHNWEH]RJHQH 9HUEHVVHUXQJHQ LP 9RU GHUJUXQG GLH ± LP JQVWLJHQ )DOO ± ]X HLQHP VSUXQJKDIWHQ $QVWLHJ GHU 3UR GXNW3UR]HVVOHLVWXQJIKUHQ+LHU]XVLQGInnovationenHUIRUGHUOLFK
8QWHU %H]XJQDKPH DXI GDV )RUVFKXQJVJHELHW GHV ,QQRYDWLRQVPDQDJHPHQWV ,0 ZLUG GHVKDOE LP )ROJHQGHQ GHU )UDJH QDFKJHJDQJHQ ZDV VROFKH 6SUQJH E]Z 'LVNRQWLQXLWlWHQ KHUYRUUXIW XQG DXV]HLFKQHW ,Q GLHVHP =XVDPPHQKDQJ LVW KHU YRU]XKHEHQ GDVV GHP 7KHPD Ä,QQRYDWLRQ³ HLQH LPPHU JU|HUH %HGHXWXQJ EHLP (UUHLFKHQ YRQ %XVLQHVV ([FHOOHQFH %( DOV 0HVVODWWH IU JDQ]KHLWOLFKH 8QWHU QHKPHQVTXDOLWlW]XJHVSURFKHQZLUG6RZHLVW]%6HJKH]]L6 9HU IHFKWHU HLQHV ,QWHJULHUWHQ 4XDOLWlWVPDQDJHPHQWV GDUDXI KLQ GDV ,QQRYDWLRQ DOV ÄHUVWUDQJLJHU (UIROJVIDNWRU H[]HOOHQWHU 2UJDQLVDWLRQHQ³ DQ]XVHKHQ LVW 'DEHL LVW HLQH Balance zwischen Qualität und Innovation DQ]XVWUHEHQ 'HQQ YLHOH NOHLQH 6FKULWWH ZLH VLH ]% GXUFK GLH %HZHUWXQJ QDFK GHP ()400RGHOO JHI|UGHUW ZHUGHQXQWHUVWW]HQ]ZDUGDV(QJDJHPHQWGHU0LWDUEHLWHUYHUKLQGHUQMHGRFKGLH /|VXQJ JURHU 3UREOHPH *OHLFK]HLWLJ IKUHQ LP 8QWHUQHKPHQ ]X YLHOH JURH 6FKULWWH GLH ]% YRQ .UHDWLYLWlWVZRUNVKRSV DXVJHO|VW ZHUGHQ ]X 7XUEXOHQ]HQ &KDRVXQGX8LQQHUHU.QGLJXQJGHUEHWURIIHQHQ0LWDUEHLWHU
'LH MlKUOLFKH .RQIHUHQ] GHU ZHOWJU|WHQ 4XDOLWlWVRUJDQLVDWLRQ GLH $PHULFDQ 6RFLHW\ IRU 4XDOLW\ $64 VWDQG LP -DKU XQWHU GHP 0RWWR Ä4XDOLWlW XQG ,QQRYDWLRQ³ 1DFK 2WWR6 JLQJHVKLHUYRUDOOHPXPGLH)UDJHLQZLHZHLW,QQRYDWLRQHQ LP8QWHUQHKPHQGXUFKGDV4XDOLWlWVPDQDJHPHQWJHI|UGHUWZHUGHQN|QQHQ
4XDOLWlWXQG,QQRYDWLRQDOVZLFKWLJH(IIHNWLYLWlWVNULWHULHQ
3.1.2
Drei Dimensionen der Innovation als Anforderung an DFSS
,QQRYDWLRQ KHLW Z|UWOLFK Ä1HXHUXQJ³ RGHU Ä(UQHXHUXQJ³ XQG OHLWHW VLFK DXV GHQ ODWHLQLVFKHQ %HJULIIHQ 1RYXV IU ÄQHX³ XQG ,QQRYDWLR IU ÄHWZDV QHX *HVFKDIIH QHV³ DE ,P GHXWVFKVSUDFKLJHQ 5DXP LVW GHU %HJULII IDVW DXVVFKOLHOLFK SRVLWLY EHVHW]WXQGZLUGIUQHXH,GHHQ(UILQGXQJHQVRZLHGHUHQZLUWVFKDIWOLFKHQ 8P VHW]XQJ YHUZHQGHW YJO 9DKV %XUPHVWHU 6 8QWHUVFKLHGHQ ZLUG ]ZL VFKHQ ,QQRYDWLRQ XQG Invention /HW]WHUHV XPIDVVW QHXH ,GHHQ ELV HLQVFKOLHOLFK 3URWRW\SHQEDXE]ZYRUPDUNWOLFKHU.RQ]HSWHQWZLFNOXQJ'HU%HJULIIZLUGKlXILJ DXFK PLW (UILQGXQJ DOV HUVWH WHFKQLVFKH 5HDOLVLHUXQJ HLQHU QHXHQ 3UREOHPO|VXQJ JOHLFKJHVHW]W Innovationen VWHOOHQ GHPJHJHQEHU GLH HUVWPDOLJH ZLUWVFKDIWOLFKH $QZHQGXQJ HLQHU QHXHQ 3UREOHPO|VXQJ LQ 8QWHUQHKPHQ GDU ,QVEHVRQGHUH DXI WHFKQLVFKHP*HELHWEDXHQ,QQRYDWLRQHQXQPLWWHOEDUDXI,QYHQWLRQHQDXI )U GDV QDFKKDOWLJH :DFKVWXP HLQHV 8QWHUQHKPHQV LVW GLH ,QQRYDWLRQVIlKLJNHLW KHXWH YRQ ]HQWUDOHU VWUDWHJLVFKHU %HGHXWXQJ YJO KLHU]X XQG LP )ROJHQGHQ 6HL ZHUW HW DO 6 1DFK HLQHU ZHOWZHLWHQ 8PIUDJH GHU 8QWHUQHKPHQVEHUD WXQJ %26721 &2168/7,1* *5283 %&* LP -DKU XQWHU 0DQDJHUQ DOOHUJURHQ,QGXVWULH]ZHLJHJHK|UWGDV7KHPDÄ,QQRYDWLRQ³IUNQDSSGUHL9LHU WHODOOHU%HIUDJWHQ]XGHQGUHL3ULRULWlWHQLKUHU8QWHUQHKPHQVVWUDWHJLH)U± 7HQGHQ]VWHLJHQG±KDWGDV7KHPDVRJDU7RS3ULRULWlW Als Gründe werden genannt: &D DOOHU %HIUDJWHQ VLQG PLW GHQ 5HVXOWDWHQ LKUHU ]7 UHFKW KRKHQ $XVJDEHQ IU ) ( XQG ,QQRYDWLRQ XQ]XIULHGHQ 1HEHQ ]X ODQJHQ (QWZLFNOXQJV]HLWHQ GHU 1HQQXQJHQ EHPlQJHOQ VLH YRU DOOHP GDV LQHIIL]LHQWH +HUDXVILOWHUQ GHU ÄULFKWLJHQ³ ,GHHQ GHU 1HQQXQJHQ GLH PDQ JHOKDIWH .RRUGLQDWLRQ GHU ,QQRYDWLRQV XQG ) ($NWLYLWlWHQ GHU 1HQQXQ JHQ VRZLH GLH XQJHQJHQGH .HQQWQLV GHU .XQGHQ .XQGHQDQIRUGHUXQJHQ GHU 1HQQXQJHQ *OHLFK]HLWLJ ZLUG QDFK HLQHU DNWXHOOHQ 6WXGLH YRQ ,%0 GHU 'LIIHUHQ]LHUXQJ GHV 8QWHUQHKPHQV GXUFK GLH JUXQGOHJHQGH ,QQRYDWLRQ GHV *HVFKlIWVPRGHOOVHLQHLPPHUEHGHXWHQGHUH5ROOHEHLJHPHVVHQ 8QWHU 0DQDJHUQ JHKW QDFK HUVWJHQDQQWHU 6WXGLH GHU,QQRYDWLRQVEHJULIIVHKUZHLW HU XPIDVVW QLFKW QXU 3URGXNWH VRQGHUQ DXFK *HVFKlIWVPRGHOOH3UR]HVVHXQGGDV .XQGHQHUOHEQLV EHL .DXI XQG 1XW]XQJ ,P *HJHQVDW] GD]X ZHUGHQ LQ GHU HLQ VFKOlJLJHQEHWULHEVZLUWVFKDIWOLFKHQ/LWHUDWXUKHXWHEHUHLQVWLPPHQGXQWHU,QQRYD WLRQHQTXDOLWDWLYQHXDUWLJH3URGXNWHRGHU3UR]HVVHYHUVWDQGHQÄGLHVLFKJHJHQEHU GHP YRUDQJHKHQGHQ =XVWDQG ÃPHUNOLFK¶ >@ XQWHUVFKHLGHQ³ +DXVFKLOGW 6 'LH 1HXDUWLJNHLW PXVV GHP]XIROJH QLFKW QXU ZHVHQWOLFK VHLQ VRQGHUQ DXFK
'LH 8QWHUVFKHLGXQJ JHKW LQ HUVWHU /LQLH DXI GHQ 9RONVZLUW -26(3+ $ 6&+803(7(5 ]XUFNGHULQÄ7KHRULHGHUZLUWVFKDIWOLFKHQ(QWZLFNOXQJ³6 ,QQRYDWLRQ DOV 'XUFKVHW]XQJ HLQHU WHFKQLVFKHQ RGHU RUJDQLVDWRULVFKHQ 1HXHUXQJ EH VFKUHLEW XQG QLFKW DOOHLQ LKUH (UILQGXQJ 'DEHL YHUZHQGHW HU DEHU EHPHUNHQVZHUWHU ZHLVHQLFKWGHQ%HJULIIGHU,QQRYDWLRQ9LHOPHKUVSULFKWHUYRQÄQHXHQ.RPELQDWLRQHQ YRQ 3URGXNWLRQVPLWWHOQ³ GLH ÄGLVNRQWLQXLHUOLFK³ DXIWUHWHQ (UVW LQ GHQ HU -DKUHQ YHUEUHLWHWHVLFKDXFKLPGHXWVFKVSUDFKLJHQ5DXPGHU,QQRYDWLRQVEHJULII
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
ZDKUJHQRPPHQ ZHUGHQ (UVW QDFKGHP VLFK GLH 9HUNQSIXQJ YRQ =ZHFNHQ XQG 0LWWHOQ±LQHLQHUELVGDWRQLFKWEHNDQQWHQ)RUP±DXIGHP0DUNWRGHULPLQQHU EHWULHEOLFKHQ (LQVDW] EHZlKUW KDEHQ NDQQ YRQ HLQHU ,QQRYDWLRQJHVSURFKHQ ZHU GHQDQGHUQIDOOVKDQGHOWHVVLFKÄQXU³XPHLQH,QYHQWLRQ Dimensionen XQGJOHLFK]HLWLJ Gegenstand von InnovationenVLQGQDFKWUDGLWLRQHO OHU 6LFKWZHLVH 3URGXNWH XQG 3UR]HVVH ZREHL GHU 3UR]HVVDVSHNW VHLW %HJLQQ GHU HU-DKUHLQWHQVLYWKHPDWLVLHUWZLUGYJO+DXVFKLOGW6II •
Prozessinnovation: %HL GLHVHU $UW YRQ ,QQRYDWLRQ JHKW HV XPQHXDUWLJH)DN WRUNRPELQDWLRQHQ PLW GHQHQ GHU /HLVWXQJVHUVWHOOXQJVSUR]HVV NRVWHQJQVWL JHUTXDOLWDWLYEHVVHUVLFKHUHUXQGRGHUVFKQHOOHUHUIROJHQNDQQ'LHEHUJH RUGQHWH =LHOVWHOOXQJ EHVWHKW LQ GHU 6WHLJHUXQJ GHU (IIL]LHQ] UHVSHNWLYH 3UR GXNWLYLWlW :LH 3OHVFKDN 6DELVFK 6 DUJXPHQWLHUHQ ZHUGHQ 3UR ]HVVLQQRYDWLRQHQ YLHOIDFK JHJHQEHU 3URGXNWLQQRYDWLRQHQ YHUQDFKOlVVLJW 'DUDXV UHVXOWLHUWH XD GLH :HWWEHZHUEVVFKZlFKH YLHOHU GHXWVFKHU 8QWHUQHK PHQLQGHQHU-DKUHQ*OHLFK]HLWLJOlVVWVLFKGLH6WlUNHYLHOHUMDSDQLVFKHU 8QWHUQHKPHQ DOOHQ YRUDQ 7R\RWD DXI GLH NRQWLQXLHUOLFKH *HQHULHUXQJ XQG 'XUFKVHW]XQJYRQZLUNVDPHQ3UR]HVVLQQRYDWLRQHQ]XUFNIKUHQ
•
Produktinnovation:%HLGLHVHU$UWYRQ,QQRYDWLRQZLUGQLFKWQXUGHU.RPEL QDWLRQVSUR]HVV VRQGHUQ DXFK GHU 9HUZHUWXQJVSUR]HVV DP 0DUNW EHUFNVLFK WLJW'LHEHUJHRUGQHWH=LHOVWHOOXQJEHVWHKWKLHULQGHU6WHLJHUXQJGHU(IIHNWL YLWlW 'HP 1XW]HU HLQHV 3URGXNWHV .XQGH HUODXEW GLH ,QQRYDWLRQ QHX HQW VWDQGHQH%HGUIQLVVH]XHUIOOHQRGHUYRUKDQGHQH%HGUIQLVVHLQHLQHUY|OOLJ QHXHQ$UWXQG:HLVH]XEHIULHGLJHQ(IIL]LHQ]JHZLQQHEHLP.XQGHQVLQGGD EHL LG5 PLW HLQJHVFKORVVHQ 'LH ZLUWVFKDIWOLFKH %HGHXWXQJ QHXHU 3URGXNWH IUGDV8QWHUQHKPHQOlVVWVLFKGDPLWEHJUQGHQGDVVGLH3URGXNWOHEHQVGDXHU VLQNWXQGGDGXUFKGHU$QWHLOQHXHU3URGXNWHDP*HVDPWXPVDW]VWHLJW
•
Organisatorische Innovationen: $OV GULWWHQ *HJHQVWDQGVEHUHLFK GHV WUDGLWLR QHOOHQ 9HUVWlQGQLVVHV YRQ ,QQRYDWLRQHQ VHKHQ 3OHVFKDN 6DELVFK 6 I 2UJDQLVDWRULVFKH ,QQRYDWLRQHQ 6LH EH]LHKHQ VLFK DXI GLH 9HUEHVVHUXQJ GHU$XIEDXXQG$EODXIRUJDQLVDWLRQGHV8QWHUQHKPHQV,QQRYDWLRQHQZHOFKH GLH 3ODQXQJV 6WHXHUXQJV XQG .RQWUROOSUR]HVVH EHWUHIIHQ VRJ 0DQDJH PHQWLQQRYDWLRQHQN|QQHQGDEHLDOVZLFKWLJH8QWHUJUXSSHEHWUDFKWHWZHUGHQ 'D0DQDJHUDOVÄ/HW]WHQWVFKHLGHU³EHUGHQ(LQVDW]YRQ5HVVRXUFHQEHVWLP PHQ VLQG VLH GHQ 3URGXNW XQG 3UR]HVVLQQRYDWLRQHQ YRUJHVFKDOWHW :LH GHU )DOO *HQHUDO (OHFWULF ]HLJW lQGHUQ VLFK GXUFK 6L[ 6LJPD GLH (QWVFKHLGXQJV XQG$XVZDKOSUR]HVVHLP0DQDJHPHQW]7VLJQLILNDQW'XUFKGLH.RQ]HQWUD WLRQ DXI =DKOHQ 'DWHQ XQG )DNWHQ 0DQDJHPHQW E\ 2EMHFWLYHV YHUEHVVHUW VLFKGDV3UR]HVVYHUVWlQGQLVGHU2UJDQLVDWLRQVPLWJOLHGHU'HU.XQGHSURILWLHUW YRQHLQHUGHXWOLFKJHVWHLJHUWHQ4XDOLWlWGHU3URGXNWH
$OV SURGXNWSROLWLVFKH $OWHUQDWLYHQ NRPPHQ QDFK 3OHVFKDN 6DELVFK 6 XQ PLWWHOEDU LQIUDJH 1HXH 3URGXNWH 3URGXNWYDULDWLRQHQ 3URGXNWGLIIHUHQ]LHUXQJHQ XQG 3URGXNWYHUHLQKHLWOLFKXQJHQ
4XDOLWlWXQG,QQRYDWLRQDOVZLFKWLJH(IIHNWLYLWlWVNULWHULHQ
,P +LQEOLFN DXIGHQ=XVDPPHQKDQJ]ZLVFKHQ3URGXNWXQG3UR]HVVLQQRYDWLRQHQ EHUGLH=HLWODVVHQVLFKzwei VerlaufstypenXQWHUVFKHLGHQ%HLPHUVWHQ7\SZLUG GDYRQ DXVJHJDQJHQ GDVV GLH0DVVHGHU3URGXNWLQQRYDWLRQHQGHQ3UR]HVVLQQRYD WLRQHQ YRUDXVHLOW $XIJUXQG DEQHKPHQGHU +lXILJNHLW YRQ 3URGXNWLQQRYDWLRQHQ HQWVWHKW HLQ ]XQHKPHQGHU 5DWLRQDOLVLHUXQJVGUXFN DXI GLH +HUVWHOOXQJVSUR]HVVH 8P GLH .RVWHQ GHU 3URGXNWLRQ]XVHQNHQZLUGGDQQYHUVWlUNWQDFK3UR]HVVLQQR YDWLRQHQJHVXFKWYJO$EHUQDWK\8WWHUEDFN6II %HLP]ZHLWHQ7\S YHUKlOW HV VLFK JHQDX XPJHNHKUW 'XUFK HLQH 5HLKH YRQ 3UR]HVVLQQRYDWLRQHQ ZHUGHQ ± PLW ]HLWOLFKHP 9HUVDW] ± 3URGXNWLQQRYDWLRQHQ LQXQWHUVFKLHGOLFKHQ$Q ZHQGXQJVEHUHLFKHQLQGX]LHUW]%/DVHUWHFKQRORJLHIU0HWDOOVFKQHLGHJHUlWH 1HEHQ GHU ,QQRYDWLRQVDUW EHL GHU GLH ,QQRYDWLRQ LQKDOWOLFK NODVVLIL]LHUW ZLUG JLOW GHU1HXLJNHLWVJUDGDOVZHLWHUHZLFKWLJH'LPHQVLRQ]XU%HXUWHLOXQJYRQ,QQRYDWL RQHQ(LQGLFKRWRPHU%HXUWHLOXQJVSUR]HVVGHUPLWGHU)HVWVWHOOXQJHQGHWÄLQQRYD WLYRGHUQLFKW³LVWLG5XQEHIULHGLJHQG'HQ9HUZHQGHULQWHUHVVLHUWYLHOPHKUZLH KRFK GHU *UDG HLQHU WHFKQLVFKHQ RGHU DQZHQGXQJVVSH]LILVFKHQ bQGHUXQJ LVW)U GLH %HVWLPPXQJ GHV 1HXLJNHLWVJUDGHV YRQ HLQJHVHW]WHQ 9HUIDKUHQ 7HFKQRORJLHQ ZLUG KlXILJ DXI 2UGLQDOVNDOHQ ]XUFNJHJULIIHQ 'LH RJ $XWRUHQ VFKODJHQ LQ GLHVHP=XVDPPHQKDQJHLQHVWXILJH6NDOD]XU%HZHUWXQJYRU •
Basisinnovationen GLH ]X QHXHQ :LUNSULQ]LSLHQ XQG GDPLW ]X Y|OOLJ QHXHQ 3URGXNWHQ3URGXNWJHQHUDWLRQHQXQG9HUIDKUHQ7HFKQRORJLHQIKUHQ
•
Verbesserungsinnovationen GLH VLFK DXI HLQ]HOQH RGHU PHKUHUH 4XDOLWlWV PHUNPDOHGHV3UR]HVVHVXQGRGHUGHV3URGXNWHVEH]LHKHQ
•
Anpassungsinnovationen GLH XD GLH $QSDVVXQJ YRUKDQGHQHU /|VXQJHQ DQ VSH]LILVFKH.XQGHQZQVFKHDQIRUGHUXQJHQEHLQKDOWHQ
•
Imitationen GLH IU 1DFKHQWZLFNOXQJHQ E]Z .RSLHQ YRQ EHUHLWV LQ DQGHUHQ 8QWHUQHKPHQSUDNWL]LHUWHQ/|VXQJHQVWHKHQ
•
Scheininnovationen GLH DXFK DOV 3VHXGRYHUEHVVHUXQJHQ EH]HLFKQHW ZHUGHQ VLQGRKQHZLUNOLFKHQ1XW]HQIUGHQ.XQGHQ
'LHVHU 9HUODXI ZXUGH HUVWPDOV DQKDQG YRQ 6WXGLHQ LP DPHULNDQLVFKHQ $XWRPRELOEDX EHOHJW HU LVW W\SLVFK IU 3URGXNWH PLW UHJHOPlLJHP *HQHUDWLRQVZHFKVHO YJO XD %RQDQQR+DZRUWK6%LHUIHOGHU6 1DFKGHP'XUFKVHW]XQJVDVSHNWVROOWHGHU]ZHLWH7\SLQGHU3UD[LVKlXILJHUDQ]XWUHIIHQ VHLQ GD 3URGXNWLQQRYDWLRQHQ LP 0DUNW 3UR]HVVLQQRYDWLRQHQ KLQJHJHQ ÄQXU³ LP 8Q WHUQHKPHQGXUFK]XVHW]HQVLQG:LH+DXVFKLOGW6 VFKOXVVIROJHUWVWHOOHQ3UR GXNWLQQRYDWLRQHQUHJHOPlLJJU|HUH'XUFKVHW]XQJVSUREOHPHGDU 'LH 4XDOLWlWVEHZHUWXQJ YRQ ,QQRYDWLRQHQ DXI GHU %DVLV HLQHU PHWULVFKHQ 6NDOD VFKOD JHQ XD :HFNHQPDQQ HW DO 6 I YRU 6LH HQWZLFNHOQKLHU]X HLQ PXOWLNULWH ULHOOHV,QQRYDWLRQVEHZHUWXQJV5DGDU'LH4XDOLWlWHLQHU,QQRYDWLRQZLUGEHUGDV9HU KlOWQLVYRQ,QQRYDWLRQV(UJHEQLV]X5HLIHGHV,QQRYDWLRQV3UR]HVVHVEHVWLPPW ,Q GHU 3UD[LV LVW HKHU HLQH GLFKRWRPH (LQWHLOXQJ YRQ ,QQRYDWLRQHQ JHOlXILJ (V ZLUG ]ZLVFKHQ UDGLNDOHQ XQG LQNUHPHQWHOOHQ ,QQRYDWLRQHQ XQWHUVFKLHGHQ/HW]WHUH]HLFKQHQ VLFK GXUFK HLQH JHULQJHUH 8QVLFKHUKHLW DXV VLH EHUXKHQ DXI GHU NRQWLQXLHUOLFKHQ 9HU EHVVHUXQJYRQEHVWHKHQGHQ3URGXNWHQXQG3UR]HVVHQYJO)XFKV6
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
,Q $EE LVW HLQ HLQVFKOlJLJHV 'LDJUDPP GDUJHVWHOOW ZHOFKH GHQ W\SLVFKHQ 9HUODXIGHU(QWZLFNOXQJGHU/HLVWXQJVIlKLJNHLWE]Z3HUIRUPDQFHYRQUHOHYDQWHQ 7HFKQRORJLHQ LP =HLWDEODXI ZLHGHUJLEW 'LHVHU 9HUODXI ZXUGH LP 5DKPHQ YRQ HPSLULVFKHQ 8QWHUVXFKXQJHQ PHKUIDFK EHVWlWLJW XQG LVW DXFK XQWHU GHP 1DPHQ Ä6.XUYH³ EHNDQQW YJO XD )RVWHU 6 II *HUSRWW 6 II %URFNKRII 6 I 1DFK 5,&+$5' 1 )267(5 DXI GHP GDV SKurvenkonzept ]XUFN JHKW NRPPW HVYRQ=HLW]X=HLW]XTechnologiesprüngen GLH YRQ %DVLVLQQRYDWLRQHQ DXVJHO|VW ZHUGHQ 'LH $XIJDEH HUIROJUHLFKHU 8QWHU QHKPHQVIKUXQJEHVWHKWGDULQGHQ:HFKVHOYRQHLQHUDOWHQDXVJHUHLIWHQDXIHLQH QHXHLQSUD[LZHLWHVWJHKHQGQRFKXQEHNDQQWHQ7HFKQRORJLHUHFKW]HLWLJ]XHUNHQ QHQ XQG LQ JHHLJQHWHU :HLVH ]X UHDJLHUHQ %HVRQGHUH +HUDXVIRUGHUXQJHQ VWHOOHQ GDEHL GLH ,GHQWLILNDWLRQ YRQ $OWHUQDWLYHQ ]XP ELVKHULJHQ 3UREOHPO|VXQJVYHUIDK UHQ VRZLH GDV 0DQDJHPHQW GHV VFKQHOOHQ hEHUJDQJV GDU YJO 7|SIHU 6 II 'DV .RQ]HSW GHU 7HFKQRORJLHNXUYH ELOGHW KLHU HLQH JXWH (QWVFKHLGXQJV JUXQGODJHIUGHQ(LQVDW]YRQEHVWLPPWHQ3UR]HVVHQXQG0HWKRGHQ
Performance/ Fitness f3 Technologiekurve 2 Verbesserungsinnovation
f2 f1
Basisinnovation
Technologiekurve 1 f0
0
t0
t1
t2
t3
Zeit
Basis: Foster 1986, S. 271
$EE%DVLVLQQRYDWLRQHQDOV*UXQGODJHIU7HFKQRORJLHVSUQJH
'LH DOWH 7HFKQRORJLH JHKW YRP 3XQNW W I DXV 'DV VRJ WHFKQRORJLVFKH (QW ZLFNOXQJVSRWHQ]LDO ZLUG GXUFK GLH 'LIIHUHQ] II EHVFKULHEHQ VLH LVW L$ SUR VSHNWLY VFKZLHULJ ]X HUPLWWHOQ ,Q YLHOHQ )lOOHQ LVW GLH QHXH 7HFKQRORJLH QLFKW XQPLWWHOEDU GHU DOWHQ 7HFKQRORJLH EHUOHJHQ ,P =HLWUDXP WW NRPPW HV GHV KDOE ]X HLQHU hEHUODSSXQJ GHU 7HFKQRORJLHNXUYHQ XQG :lKUHQG GLH DOWH 7HFKQRORJLH QDFK XQG QDFK GLH *UHQ]H LKUHU /HLVWXQJVIlKLJNHLW 3HUIRUPDQFH
4XDOLWlWXQG,QQRYDWLRQDOVZLFKWLJH(IIHNWLYLWlWVNULWHULHQ
HUUHLFKWNlPSIWGLHQHXH7HFKQRORJLHQRFK XPGDV(UODQJHQGHU:HWWEHZHUEV IlKLJNHLW UHVSHNWLYH GHU 0DUNWUHLIH 'HU /HEHQV]\NOXV YRQ 7HFKQRORJLH HQGHW ZHQQGLH/HLVWXQJVIlKLJNHLWYRQ7HFKQRORJLH±]%LQIROJHYRQ9HUEHVVHUXQJV LQQRYDWLRQHQ±DXIHLQJOHLFKHVRGHUK|KHUHV1LYHDXJHVWLHJHQLVW'LHVLVWDEGHP 3XQNWWI GHU)DOOVLHKH$EE .RQWLQXLHUOLFKH9HUEHVVHUXQJHQIKUHQ]X HLQHP ZHLWHUHQ $QVWLHJ GHU 3HUIRUPDQFH ELV ]XP =HLWSXQNW W DE GLHVHP NDQQ HV MHGHU]HLW HUQHXW ]X HLQHP 7HFKQRORJLHVSUXQJ DOV GLVNRQWLQXLHUOLFKHU :HLWHU HQWZLFNOXQJGHVWHFKQRORJLVFKHQ.RQ]HSWHVNRPPHQ 'LH)HVWOHJXQJYRQLQWHUVXEMHNWLYQDFKYROO]LHKEDUHQ0HVVZHUWHQ]XU.ODVVLILNDWL RQYRQ,QQRYDWLRQHQJHVWDOWHWVLFKJUXQGVlW]OLFKVFKZLHULJYJO+DXVFKLOGW 6 %HL RUJDQLVDWRULVFKHQ 1HXHUXQJHQ ]% ,QQRYDWLRQHQ LP =XVDPPHQKDQJ PLW0DQDJHPHQWNRQ]HSWHQLVWHLQHREMHNWLYH%HZHUWXQJQDKH]XXQP|JOLFK/HJW PDQ GLH bQGHUXQJ GHV 4XDOLWlWVQLYHDXV DOV 0DVWDE IU GHQ ,QQRYDWLRQVJUDG ]XJUXQGH GDQQ VLQG HQWVSUHFKHQGH 6FKZHOOHQZHUWH ]X GHILQLHUHQ DE GHQHQ HLQH 9HUEHVVHUXQJDOV,QQRYDWLRQJLOW%HLGHU'XUFKIKUXQJYRQ6L[6LJPD3URMHNWHQ NDQQ EVSZ YRQ HLQHU 3UR]HVVLQQRYDWLRQ JHVSURFKHQ ZHUGHQ ZHQQ GLH 3UR]HVV TXDOLWlWLQHLQHPUHODWLYNXU]HQ=HLWUDXPXPL6LJPDJHVWLHJHQLVWXQG]ZDUDXI JUXQGHLQHUVLJQLILNDQWHQ3UR]HVVlQGHUXQJ9RQHLQHU3URGXNWLQQRYDWLRQOlVVWVLFK DXVJHKHQ ZHQQ GLH /HEHQVGDXHU GHV 3URGXNWHV GXUFK SUREOHPVSH]LILVFKH 0HUN PDOVlQGHUXQJHQ XP M -DKUH YHUOlQJHUWZHUGHQNRQQWH'LH.ODVVLILNDWLRQYRQSix Sigma als Managementinnovation LVW ]XWUHIIHQG ZHQQ VLFK GDV %XVLQHVV ([FHO OHQFH1LYHDXGHV8QWHUQHKPHQV]%JHPHVVHQDQKDQGGHQ.ULWHULHQGHV()40 0RGHOOVXPN3XQNWHLQQHUKDOEYRQZHQLJHQ-DKUHQYHUEHVVHUWKDW
,P +LQEOLFN DXI GDV ZHLWHUH )RUVFKXQJVYRUJHKHQ HUVFKHLQW HV RSSRUWXQ DQVWHOOH YRQ Ä3HUIRUPDQFH³YRQÄ)LWQHVV³]XVSUHFKHQ=LHOLVWHVGHQÄ)LW³HLQHU7HFKQRORJLH±EHL JHJHEHQHQ $QZHQGXQJVEHGLQJXQJHQ±LQP|JOLFKVWNXU]HU=HLW]XHUK|KHQ1DFKGHU 3KLORVRSKLH GHV 0DJLVFKHQ 'UHLHFNV GHU %:/ VWHKW =HLWYHUNU]XQJ LQ XQPLWWHOEDUHP =XVDPPHQKDQJPLW.RVWHQHUK|KXQJ$XVGLHVHP*UXQGZLUGDXIRSHUDWLYHU(EHQHLP 5DKPHQ GHU 3URGXNWHQWZLFNOXQJ GLH Ä=HLW³ DXFK GXUFK GLH 'LPHQVLRQ Ä.XPXOLHUWH ) ($XIZHQGXQJHQ³HUVHW]WYJO*HUSRWW6
3.2
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
Vorgehensmodelle zur Generierung von Innovationen und Erreichung von Null-Fehler-Qualität
,P) (%HUHLFKVWHOOHQ,QQRYDWLRQHQHLQHZLFKWLJH9RUDXVVHW]XQJ]XP(UUHLFKHQ YRQ 1XOO)HKOHU4XDOLWlW GDU 1DFKGHP GLH ,QKDOWH XQG 'LPHQVLRQHQ GHU EHLGHQ %HJULIIH GHILQLHUW ZRUGHQ VLQG VWHOOW VLFK LP :HLWHUHQ GLH )UDJH ZLH 8QWHUQHK PHQ LKUHQ 3(3 NRQNUHW JHVWDOWHQVROOWHQXPTXDOLWDWLYKRFKZHUWLJH3URGXNWHPLW HLQHP KRKHQ ,QQRYDWLRQVJUDG KHUYRU]XEULQJHQ 6RZRKO YRQ 6HLWHQ GHV ,QQRYDWL RQVDOVDXFKYRQ6HLWHQGHV4XDOLWlWVPDQDJHPHQWVZHUGHQHQWVSUHFKHQGH9RUJH KHQVPRGHOOH EHUHLWJHVWHOOW GLH VLFK EHL GHU /|VXQJ YHUVFKLHGHQVWHU 3UREOHPVWHO OXQJHQEHZlKUWKDEHQ,P.HUQXQWHUVFKHLGHQVLFKGLH0RGHOOHGHUEHLGHQ0DQD JHPHQWV\VWHPH YRU DOOHP LQ GHU 6WlUNH GHU DQJHVWUHEWHQ :LUNXQJ GLHYRQLQNUH PHQWHOOHU9HUEHVVHUXQJELV]XUDGLNDOHU(UQHXHUXQJUHLFKW 3.2.1
Vorgehensmodelle zur kreativen Problemlösung
,QQRYDWLRQHQ GLH ]X HLQHP GLVNRQWLQXLHUOLFKHQ $QVWLHJ GHV 4XDOLWlWVQLYHDXV IK UHQ VLQG XQPLWWHOEDU PLW 3UREOHPO|VXQJVSUR]HVVHQ LQ 8QWHUQHKPHQ YHUEXQGHQ (LQ 3UREOHP EH]HLFKQHW KLHU ÄHLQH XQJHNOlUWH E]Z ZLGHUVSUXFKVYROOH 6LWXDWLRQ GLH GXUFK HLQH TXDOLWDWLY XQG TXDQWLWDWLY EHVWLPPEDUH 'LIIHUHQ] ]ZLVFKHQ HLQHP YRUKDQGHQHQ ,VW=XVWDQG XQG HLQHP QRWZHQGLJHQ RGHU ZQVFKHQVZHUWHQ 6ROO =XVWDQG=LHO FKDUDNWHULVLHUWZLUG³+H\GHHWDO6 8PGLH'LIIHUHQ] ]X EHUZLQGHQ UHVSHNWLYH ]X YHUNOHLQHUQ UHLFKHQ GDV YRUKDQGHQH :LVVHQ GLH ELVKHULJHQ (UNHQQWQLVVH GLH HLQJHVHW]WHQ 0HWKRGHQ LP 8QWHUQHKPHQ HWF QLFKW DXV=XU/|VXQJGHV3UREOHPVVLQGYLHOPHKUQHXH,GHHQHUIRUGHUOLFKGLHPLW8Q WHUVWW]XQJ YRQ kreativen Problemlösungszyklen JHQHULHUW EHZHUWHW XQG XPJH VHW]W ZHUGHQ N|QQHQ =ZHL =\NOHQ GLH LP 5DKPHQ GHV ,QQRYDWLRQVPDQDJHPHQWV KlXILJUHNXUULHUWZHUGHQVLQG*HJHQVWDQGGHUIROJHQGHQ%HWUDFKWXQJ (a) CPS-Modell nach Osborn/ Parnes 9RQ $/(; 26%251 GHP Ä(UILQGHU³ GHV %UDLQVWRUPLQJ VWDPPW GHU $XV VSUXFK Ä4XDQWLW\ EUHHGV TXDOLW\³ 6HLQHU $XIIDVVXQJ QDFK VLQG LQ GHU HUVWHQ 5XQGH P|JOLFKVW YLHOH /|VXQJVLGHHQ ]XVDPPHQ]XWUDJHQ XP HLQ 3UREOHP PLW HLQHP KRKHQ ,QQRYDWLRQVJUDG ]X O|VHQ $QVFKOLHHQG LVW HLQH VLQQYROOH $XVZDKO GHU /|VXQJVLGHHQ ]X WUHIIHQ GLH GDQQ LQ GHU 7LHIH ZHLWHU ]X YHUIROJHQ VLQGYJO *HVFKND /DQWHOPH 6 *HQDX GLHVHU $QVDW] ELOGHW GLH*UXQGODJHGHV Creative Problem Solving-Modells &36 GDV 2VERUQ JHPHLQVDP PLW 6,'1(< - 3$51(6LQGHQHUXQGHU-DKUHQHQWZLFNHOWKDW'HU3UREOHPO|VXQJVSUR ]HVVZLUGLQVHFKV3KDVHQXQWHUWHLOWYJO0LWFKHOO.RZDOLN6II
'LH$QIDQJVEXFKVWDEHQGHU3KDVHQHUJHEHQ±LQ$QOHKQXQJDQGHQVFKLHIHQ7XUPYRQ 3LVD±GDV$NURQ\PÄ2)3,6$³HVJHKWDXIGHQ6\VWHPLQJHQLHXUEHLGHU86$LU)RUFH %(57'(&.(5]XUFNYJO2VERUQ3DUQHV
9RUJHKHQVPRGHOOHIU,QQRYDWLRQHQXQG1XOO)HKOHU4XDOLWlW
•
Objective Finding-Phase: 'HU $XVJDQJVSXQNW GHV 3UREOHPO|VXQJVSUR]HVVHV LVWNHLQHLQGHXWLJGHILQLHUWHV3UREOHPVRQGHUQHLQHXQEHIULHGLJHQGH6LWXDWLRQ LP (QJO DXFK 0HVV)LQGLQJ JHQDQQW ,Q HLQHU 'LVNXVVLRQVUXQGH LP 7HDP ZLUG GDV 3UREOHP ]XQlFKVW KHUDXVJHDUEHLWHW XQG GLH =LHOH GHV VLFK DQVFKOLH HQGHQ9HUEHVVHUXQJVSUR]HVVHVIHVWJHOHJW$P(QGHGHUHUVWHQ3KDVHEHVWHKW .RQVHQVEHUGLH]XHUUHLFKHQGHQ=LHOH
•
Fact Finding-Phase:,QGLHVHU3KDVHZHUGHQDOOHUHOHYDQWHQ)DNWHQ,QIRUPD WLRQ JHVDPPHOW GLH GLUHNW RGHULQGLUHNWPLWGHP3UREOHPLQ=XVDPPHQKDQJ VWHKHQ 'DEHL LVW GDUDXI ]X DFKWHQ GDVV P|JOLFKVW DOOH $QVLFKWHQ XQG 0HL QXQJHQ GHU 3URMHNWEHWHLOLJWHQ YRUXUWHLOVIUHL HUIDVVW ZHUGHQ 1DFK GHP%UDLQ VWRUPLQJ ZHUGHQ GLH JHVDPPHOWHQ ,QIRUPDWLRQHQ SULRULVLHUW $P (QGH GHU ]ZHLWHQ3KDVHOLHJWHLQH/LVWHPLWDOOHQSUREOHPUHOHYDQWHQ'DWHQYRU
•
Problem Finding-3KDVH(LQEHVRQGHUVZLFKWLJHU$VSHNWYRQ.UHDWLYLWlWVSUR ]HVVHQ LVW ± JHQDX ZLH EHL 6L[ 6LJPD3URMHNWHQ ± GLH $EVWUDNWLRQ GHU 3URE OHPVWHOOXQJ=LHOLVWHVGDVUHDOH3UREOHPP|JOLFKVWJHQDX]XHUIDVVHQRKQH YRQ YRUQKHUHLQ GLH 9LHO]DKO P|JOLFKHU /|VXQJVZHJH HLQ]XVFKUlQNHQ 'D]X LVW HV QRWZHQGLJ GDV 3UREOHP DXI YHUVFKLHGHQH $UW XQG :HLVH ]X EHVFKUHL EHQ 'LH 3UREOHPEHVFKUHLEXQJHQ 3UREOHP 6WDWHPHQWV ZHUGHQ DP(QGHGHU 3UREOHP )LQGLQJ3KDVH EHZHUWHW 'HP VRJ 3UREOHP 2ZQHU REOLHJW HV GDQQ GLH%HVFKUHLEXQJGLHGDV3UREOHPDPEHVWHQHUIDVVWDXV]XZlKOHQ
•
Idea Finding-Phase: 'DV =LHO GLHVHU 3KDVH EHVWHKW GDULQ P|JOLFKVW YLHOH YHUVFKLHGHQH ,GHHQ IU GLH /|VXQJ GHV 3UREOHPV ]X VDPPHOQ'LH,GHHQOLVWH VROOWHGDEHLGXUFKDXVDXHUJHZ|KQOLFKH,GHHQHQWKDOWHQ'HQQVHOEVWGLHGHP HUVWHQ $QVFKHLQ QDFK ÄXQVLQQLJ³ HUVFKHLQHQGHQ ,GHHQ N|QQWHQ GHU 6FKOVVHO IUGLHLQQRYDWLYH3UREOHPO|VXQJVHLQ*UXQGVlW]OLFKJLOW-HJU|HUGLH9DUL DWLRQGHU/|VXQJVYRUVFKOlJHGHVWREHVVHU 6LQG DXVUHLFKHQG ,GHHQ JHVDPPHOW ZRUGHQ ZLUG LQ GLH %HZHUWXQJV E]Z .RQYHUJHQ]SKDVHEHUJHJDQJHQ,QGLHVHUZHUGHQGLH,GHHQPLWGHPJU|WHQ 3UREOHPO|VXQJVSRWHQ]LDOYRQGHQHQPLWNHLQHPRGHUQXUJHULQJHP3RWHQ]LDO VHOHNWLHUW$P(QGHGHU,GHD)LQGLQJ3KDVHOLHJHQP|JOLFKVWYLHOHHUIROJVYHU VSUHFKHQGH/|VXQJVYRUVFKOlJHÄDXIGHP7LVFK³
•
Solution Finding-Phase: +LHU ZHUGHQ DOOH YHUEOLHEHQHQ /|VXQJVYRUVFKOlJH DXVGHUYRUDQJHJDQJHQHQ3KDVHDXIGHU%DVLVHLQHV.ULWHULHQUDVWHUVHYDOXLHUW 'D]X VLQG YHUVFKLHGHQH .ULWHULHQ ZLH ]% .RVWHQ GHU 8PVHW]XQJ 9HUIJ EDUNHLWYRQ5HVVRXUFHQXQG=HLWGHU,PSOHPHQWLHUXQJ]XHQWZLFNHOQXQGLP +LQEOLFNDXILKUH3UREOHPUHOHYDQ]]XJHZLFKWHQ1DFKGHPDOOH,GHHQEHZHU WHWZRUGHQVLQGLVWGLHEHVWH/|VXQJIUGLH8PVHW]XQJDXV]XZlKOHQ
•
Acceptance Finding-Phase: )U GLH ,PSOHPHQWLHUXQJ GHU QHXHQ /|VXQJ LP 8QWHUQHKPHQ LVW IU HLQH DXVUHLFKHQGH $N]HSWDQ] &RPPLWPHQW GHU %HWHL OLJWHQ]XVRUJHQ'D]XLVWHLQ,PSOHPHQWLHUXQJVSODQ]XHQWZHUIHQLQGHPGLH ,QWHUHVVHQ GHU YHUVFKLHGHQHQ 6WDNHKROGHU EHUFNVLFKWLJW ZHUGHQ =LHO LVW HV P|JOLFKH :LGHUVWlQGH 9RUEHKDOWH LP 8QWHUQHKPHQ IUK]HLWLJ ]X HUNHQQHQ XQGGXUFKÄYHUWUDXHQVI|UGHUQGH³0DQDKPHQ]LHOVWUHELJDE]XEDXHQ
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
-HGH 3KDVH GHV &36=\NOXV ZLUG DOV NUHDWLY ]X O|VHQGH $XIJDEH DQJHVHKHQ 6LH VHW]W VLFK MHZHLOV DXV HLQHU GLYHUJHQWHQ ,GHHQILQGXQJ XQG HLQHU NRQYHUJHQWHQ ,GHHQDXVZDKO 3KDVH]XVDPPHQ,P8QWHUVFKLHG]XDQGHUHQ3UREOHPO|VXQJV]\N OHQ EDXW HLQH 3KDVH]ZLQJHQGDXIGHUGHQYRUDQJHJDQJHQHQ3KDVHQ DXI1DFK GHPGDVULFKWLJH3UREOHPLGHQWLIL]LHUWZHUGHQNRQQWHEHVWHKWGLH/|VXQJVVWUDWHJLH LP .HUQ GDULQ YLHOH ,GHHQ ]XVDPPHQ]XWUDJHQ XQG GDQQ GDUDXV HLQLJH JXWH GK SDVVHQGH /|VXQJHQ DXV]XZlKOHQ YJO *HVFKND /DQWHOPH 6 'DEHL KDW VLFK GLH YRQ 2VERUQ YRUJHVFKODJHQH Trennung zwischen Ideenfindungs- und Ideenauswahlphase LP .RQWH[W NUHDWLYHU 3UR]HVVH DOV lXHUVW HUIROJUHLFK HUZLH VHQ ,P /DXIH GHU =HLW LVW GLH 9RUJHKHQVZHLVH GXUFK HLQH 5HLKHYRQ 9DULDWLRQHQ HUJlQ]WZRUGHQYJO6HLIIJH.UHQNH6I 'DV &360RGHOO GLHQW LQ HUVWHU /LQLH DOV $QOHLWXQJ Ä.RFKUH]HSW³ IU *UXSSHQ XQG RGHU ,QGLYLGXHQ XP HLQIDFKH ZLH VFKZLHULJH 3UREOHPH PLW HLQHP +|FKVW PDDQ.UHDWLYLWlW]XO|VHQ'HU:LUNXQJVJUDGLVWGDEHLYRUDOOHPYRQGHU+R PRJHQLWlW GHU ,QWHUHVVHQ 0HLQXQJHQ $QVLFKWHQ HWF LQ GHU *UXSSH DEKlQJLJ 6LQG GLH =LHOH XQG ,QWHUHVVHQODJHQ VWDUN KHWHURJHQ YHUWHLOW GDQQ LVW HV L$ VFKZLHULJ GLH 3UREOHPO|VXQJ HIIHNWLY YRUDQ]XWUHLEHQ YJO 7KH &R&UHDWLYLW\ ,QVWLWXWH6 ,QVROFKHQÄ&RNUHDWLYHQ6LWXDWLRQHQ³LVWHVEHVVHUDXIDOWHU QDWLYH 6WUDWHJLHQ 0HWKRGHQ DXV]XZHLFKHQ ]% ,GHHQDXVWDXVFK $N]HSWDQ]SOD QXQJ XQG .RQVHQVILQGXQJ /HW]WHUHV LVW ± XQDEKlQJLJ YRQ GHU *UXSSHQ]XVDP PHQVHW]XQJ ± LQ MHGHU .RQYHUJHQ]SKDVH GHV &360RGHOOV QRWZHQGLJ XP HLQ KRKHV,QYROYHPHQWXQG(QJDJHPHQWDOOHU%HWHLOLJWHQVLFKHU]XVWHOOHQ (LQH kritische Bewertung GHV &360RGHOOV XQG DOOHU QDFKIROJHQGHQ 9RUJHKHQV PRGHOOH LVW LQ $EE YRUJHQRPPHQ 'LH *UXQGODJH GHU %HZHUWXQJ ELOGHW HLQ HLQIDFKHV XQJHZLFKWHWHV .ULWHULHQUDVWHU PLW ]ZHL %HIlKLJHU XQG ]ZHL (UJHEQLV NULWHULHQ 'LH %HIlKLJHUNULWHULHQ XPIDVVHQ HLQHQ HLQGHXWLJHQ 3KDVHQDEODXI XQG HLQHQ VWUXNWXULHUWHQ 0HWKRGHQHLQVDW]EHLGH]XVDPPHQIKUHQ]XHLQHUZLUNXQJV YROOHQ 3UREOHPO|VXQJ =X GHQ (UJHEQLVNULWHULHQ JHK|UHQ GLH ZLUWVFKDIWOLFKH $Q ZHQGXQJ GHV 9RUJHKHQVPRGHOOV (IIL]LHQ] VRZLH GHVVHQ =LHOHUUHLFKXQJVJUDG (IIHNWLYLWlW (LQ ÄJXWHV³ 9RUJHKHQVPRGHOO ]HLFKQHW VLFK QLFKW QXU GXUFK GDV $XIILQGHQGHURSWLPDOHQ/|VXQJDXVVRQGHUQDXFKGXUFKVHLQH±XQWHU|NRQRPL
$OVEHQ|WLJWH=HLWGDXHUIUGHQ,QQRYDWLRQVSUR]HVVZHUGHQLQGHUHUVWHQ$QZHQGXQJV UXQGHHLQELV]ZHL6WXQGHQYHUDQVFKODJW0LWHLQHPHUIDKUHQHQ0RGHUDWRUN|QQHQHLQ IDFKH3UREOHPHLQQHUKDOEYRQELV0LQXWHQJHO|VWZHUGHQ*HVFKXOWH0LWDUEHLWHU VLQGLQGHU/DJHDOOHVHFKV3KDVHQLQVHFKVELV]HKQ0LQXWHQ]XGXUFKODXIHQ$XV6LFKW GHV&R&UHDWLYLW\,QVWLWXWH HUVFKHLQWGLHVH=HLWGDXHUIUYLHOHXQWHUQHKPHQVEH ]RJHQH3UREOHPHDOVGXUFKDXVDQJHPHVVHQ 'DV 9RUELOG IU GLH %HZHUWXQJ GHU KLHU DQDO\VLHUWHQ 9RUJHKHQVPRGHOOH ELOGHW GDV ()400RGHOO 'DEHL KDQGHOW HV VLFK XP HLQHQ JDQ]KHLWOLFKHQ $QVDW] ]XU %HZHUWXQJ YRQ KHUDXVUDJHQGHU 8QWHUQHKPHQVSHUIRUPDQFH OHLVWXQJVIlKLJNHLW 'DV 4XDOLWlWVPR GHOO IU ([FHOOHQFH GLHQW VHLW DOV *UXQGUDVWHU ]XU %HZHUWXQJ XQG 9HUEHVVHUXQJ YRQ 8QWHUQHKPHQ LQ (XURSD 'DV ()400RGHOO GLIIHUHQ]LHUW JOHLFKJHZLFKWLJ QDFK %HIlKLJHUXQG(UJHEQLV.ULWHULHQYJO()40
9RUJHKHQVPRGHOOHIU,QQRYDWLRQHQXQG1XOO)HKOHU4XDOLWlW
VFKHQ *HVLFKWVSXQNWHQ ± SRVLWLYH .RVWHQ1XW]HQ5HODWLRQ 'HP %HZHUWXQJVSUR ]HVVJHKWMHZHLOVHLQH,QKDOWVDQDO\VHGHU9RUJHKHQVPRGHOOHYRUDXV
- Erfüllungsgrad -
100% 75% 50% 25% 0% f au blen a enas uf a as h
1
Ph P
l ab
zant nse i d oe tz tehn a od ns he t M e ei M
2
- Befähigerkriterien -
tefit hka ch i t l fst c ei hrat k c i h ts i rW lic W
3
4 er el Zi
i- d aed rgr gra s ng
es enlg hiu
icZ re
u ch
- Ergebniskriterien -
Legende: CPS-Modell
OPM-Modell
ISO-Regelkreis
PDCA-Zyklus
DMAIC-Zyklus
DMADV-Zyklus
Quelle: Eigene Darstellung
$EE.ULWHULHQEDVLHUWH%HZHUWXQJGHU9RUJHKHQVPRGHOOH
'LH0HVVXQJGHU$XVSUlJXQJUHVSHNWLYH(UIOOXQJGHUHLQ]HOQHQ.ULWHULHQEDVLHUW DXI HLQHU VWXILJHQ /LNHUW6NDOD VLH UHLFKW YRQ Ä.ULWHULXP LVW EHUKDXSW QLFKWHUIOOW³XQG Ä.ULWHULXPLVWHKHUQLFKWHUIOOW³EHU Ä.ULWHULXP LVWWHLOVWHLOVHUIOOW³XQG Ä.ULWHULXPLVWHKHUHUIOOW³ELV .ULWHULXP LVWYROOVWlQGLJHUIOOW³'XUFKGLH/LQLHQSURILOHZLHVLHLQ$EEHLQJH]HLFKQHW VLQG ZHUGHQ GLH 6WlUNHQ XQG 6FKZlFKHQ GHU 9RUJHKHQVPRGHOOH XQPLWWHOEDU HU VLFKWOLFK 1DFK GHQ YRUVWHKHQGHQ $XVIKUXQJHQ EHVLW]W GDV &360RGHOO HLQHQ HLQGHXWLJHQ 3KDVHQDEODXI GDV HUVWH .ULWHULXP LVW GDPLW ]X HUIOOW *OHLFK
'LH/LNHUW6NDOLHUXQJ]lKOW]XGHQQLFKWNRPSDUDWLYHQ6NDOLHUXQJVYHUIDKUHQXQGGDEHL VSH]LHOO ]X GHQ GLVNUHWHQ 5DWLQJVNDOHQ GHUHQ 6WUXNWXU ELSRODULVW XQG LZ6 HLQHU 2U GLQDOVNDOD HQWVSULFKW ,Q GHU 0DUNWIRUVFKXQJ JLOW VLH DOV VHKU ]XYHUOlVVLJHV 6NDOLH UXQJVYHUIDKUHQPLWEUHLWHP$QZHQGXQJVVSHNWUXPYJO6WDKOEHUJ)UH\6
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
]HLWLJ VLQG GHQ HLQ]HOQHQ 3KDVHQ NHLQH 0HWKRGHQ ]XJHRUGQHW ZDV ]X HLQHP (UIOOXQJVJUDG GHV ]ZHLWHQ .ULWHULXPV IKUW 'LH (UJHEQLVNULWHULHQ VLQG MHZHLOV PLWÄWHLOVWHLOV³EHZHUWHWDOVRPLWHUIOOWGLHVZLUGDXIGHQHLQVHLWLJHQ)RNXV GHU3UREOHPO|VXQJDXILQWXLWLYNUHDWLYH3UR]HVVH]XUFNJHIKUW %HL .ULWHULXP Ä0HWKRGHQHLQVDW]³ WULWW GLH JU|WH 9DULDWLRQ GHU (UIOOXQJVJUDGH ]ZLVFKHQGHQHLQ]HOQHQ9RUJHKHQVPRGHOOHQDXI'LHVOLHJWVRZRKODQGHU4XDQWL WlWDOVDXFKGHU4XDOLWlWGHUHLQJHVHW]WHQ0HWKRGHQEHJUQGHW%HLGHU%HZHUWXQJ GHUQuantitätIOLHWLQHUVWHU/LQLHGLH$Q]DKOGHUIHVWYRUJHJHEHQHQ0HWKRGHQLP 3KDVHQDEODXIÄ0XVV³0HWKRGHQ HLQ%HLGHU%HZHUWXQJGHUQualitätZLUGLQVE DXI GHQÄULFKWLJHQ³0HWKRGHQ0L[JHDFKWHW,PRSWLPDOHQ)DOOOLHJWKLHUHLQDXV JHZRJHQHV 9HUKlOWQLV YRQ LQWXLWLYNUHDWLYHQ XQG V\VWHPDWLVFKDQDO\WLVFKHQ 0H WKRGHQ YRU 8P DXI HLQ (UJHEQLV EHUHLWV YRU]XJUHLIHQ 'HU '0$'9=\NOXV HQW KlOW YLHOH PHWKRGLVFK DQVSUXFKVYROOH 9HUIDKUHQ ]% '2( ZHOFKH SULPlU DXI HLQHU V\VWHPDWLVFKDQDO\WLVFKHQ 9RUJHKHQVZHLVHQ EDVLHUHQ YJO $EVFKQLWW GDPLWLVWNHLQ(UIOOXQJVJUDGLQGLHVHP.ULWHULXPJHJHEHQ :LH GLH VHOHNWLYH $QDO\VH YRQ SUD[LVUHOHYDQWHQ 9RUJHKHQVPRGHOOHQLP:HLWHUHQ ]HLJWEHLQKDOWHQ0RGHOOHGLHLPInnovationsmanagement (IM) HQWZLFNHOWZRUGHQ VLQG XQG GRUW ]ZHFNHQWVSUHFKHQG YHUZHQGHW ZHUGHQ WHQGHQ]LHOO PHKU LQWXLWLY NUHDWLYH 0HWKRGHQ 'HPJHJHQEHU ]HLFKQHQ VLFK 9RUJHKHQVPRGHOOH 3UREOHPO| VXQJV]\NOHQGLHDXVGHP%HUHLFKGHVQualitätsmanagements (QM)HLQVFKOLHOLFK 6L[ 6LJPD VWDPPHQ PHKUKHLWOLFK GXUFK GLH 9HUZHQGXQJ YRQ V\VWHPDWLVFK DQDO\WLVFKHQ 0HWKRGHQ DXV 'HU *UXQG KLHUIU LVWLPXQWHUVFKLHGOLFKHQ=LHOIRNXV ]X VHKHQ QlPOLFK (U]HXJXQJ YRQ 1XOO)HKOHU4XDOLWlW DXI GHU HLQHQ 6HLWH XQG *HQHULHUXQJYRQ,QQRYDWLRQHQDXIGHUDQGHUHQYJO8QWHUNDSLWHO *HUDGH LP +LQEOLFN DXI GLH $QIRUGHUXQJHQ LP 3URGXNWHQWVWHKXQJVSUR]HVV 3(3 HUVFKHLQW GLH 6\QWKHVH YRQ 9RUJHKHQVPRGHOOHQ DXV EHLGHQ 0DQDJHPHQWGLV]LSOL QHQ]LHOIKUHQGXPUREXVWHXQGJOHLFK]HLWLJLQQRYDWLYH3URGXNW3UR]HVVGHVLJQV ]X JHQHULHUHQ 'D]X VLQG SUDNWLVFKHUZHLVH GLH 409RUJHKHQVPRGHOOH PLW LQWXL WLYNUHDWLYHQ 0HWKRGHQ ÄDQ]XUHLFKHUQ³ E]Z ± YLFH YHUVD ± GLH ,09RUJHKHQV PRGHOOH PLW V\VWHPDWLVFKDQDO\WLVFKHQ 0HWKRGHQ:HQQVLFKDXIGLHVH:HLVHHLQ JU|HUHU =LHOHUUHLFKXQJVJUDG LP 3(3 HLQVWHOOW GDQQ OLHJW HLQ LQGLUHNWHU HPSLUL VFKHU%HOHJIUGLHYHUPXWHWH8UVDFKHQ:LUNXQJVEH]LHKXQJLQHypothese H3YRU YJO$EVFKQLWW ,QGHUYRUOLHJHQGHQ$UEHLWHUIROJWGLHLQGLUHNWH hEHUSU IXQJ GHU +\SRWKHVH LP =XJH GHU $QZHQGXQJ GHV HUZHLWHUWHQ ')663UREOHP O|VXQJV]\NOXV '0$,'9 LQ 8QWHUNDSLWHO (QWVSUHFKHQG YRUVWHKHQG JHQDQQ WHU)RUGHUXQJLVWGLHVHUXPGLHZLGHUVSUXFKVRULHQWLHUWH,QQRYDWLRQVPHWKRGH75,= HUZHLWHUWZHOFKHPHKUHUH.UHDWLYLWlWVWHFKQLNHQXPIDVVW (b) OPM-Modell nach Geschka (LQH:HLWHUIKUXQJGHV&360RGHOOVOLHJWLQ)RUPGHVOffenen Problemlösungsmodells 230 YRU GDV YRU DOOHP YRQ +2567 *(6&+.$ YHUWUHWHQ ZLUG 'DV 0RGHOO O|VW VLFK YRQ GHU IHVWHQ 3KDVHQIROJH GHV &36 XQG JHKW YRQ HLQHP HOHPHQWDUHQ3UREOHPO|VXQJV]\NOXVDXVGHU±LQ$EKlQJLJNHLWYRQGHU6FKZLHULJ
9RUJHKHQVPRGHOOHIU,QQRYDWLRQHQXQG1XOO)HKOHU4XDOLWlW
NHLW GHV ]X O|VHQGHQ *HVDPWSUREOHPV ± PHKUPDOV GXUFKODXIHQ ZLUG 6R VLQG EHL HLQHUNRPSOH[HQ$XIJDEHQVWHOOXQJZLH]%HLQHU3URGXNWLQQRYDWLRQYLHOHNOHLQH 3UREOHPO|VXQJV]\NOHQ QDFK HLQHP IHVW YRUJHJHEHQHQ 6FKHPD ]X EHDUEHLWHQ (LQ HOHPHQWDUHU 3UREOHPO|VXQJV]\NOXV LP 3UR]HVV GHU 3URGXNWSODQXQJ XPIDVVW QDFK *HVFKND6 GLHIROJHQGHQYLHU3KDVHQ •
Problemklärungs-Phase:,QGLHVHU3KDVHLVW]XQlFKVWGHU.HUQGHV3UREOHPV ]X LGHQWLIL]LHUHQ -H QDFK 3UREOHPNHQQWQLV XQG XPIDQJ HUIRUGHUW GLHVH $XI JDEH X8 HLQHQ HLJHQHQ 3UREOHPO|VXQJV]\NOXV QDFK GHP 2300RGHOO $P (QGH GHU 3KDVH LVW MHGHP %HWHLOLJWHQ YHUVWlQGOLFK ZDVGDV]XO|VHQGH3URE OHPLVW'D]XHPSILHKOWVLFKHLQH3UREOHPEHVFKUHLEXQJPLW]LHOXQGO|VXQJV RULHQWLHUWHQ)RUPXOLHUXQJHQ]XHUVWHOOHQ
•
Ideenfindungs-Phase: 1DFKGHP GLH *UXSSHQPLWJOLHGHU DOOH UHOHYDQWHQ )DN WHQ,QIRUPDWLRQHQ]XU3UREOHPVWHOOXQJHUKDOWHQKDEHQXQGYRP3UREOHPVWHO OHUHLQH(UJHEQLVYLVLRQJHJHEHQZRUGHQLVWVHW]WGLH3KDVHGHU,GHHQILQGXQJ HLQ ,P 9RUGHUJUXQG VWHKW KLHU HLQ EUHLWHV XQHLQJHVFKUlQNWHV 6DPPHOQ YRQ ,GHHQ 'DEHL VLQG QDFK GHU NODVVLVFKHQ &363KLORVRSKLH P|JOLFKVW YLHOH , GHHQ]XJHQHULHUHQXPGLH/|VXQJVVWUDWHJLHRIIHQ]XJHVWDOWHQ
•
Ideenauswahl-Phase: ,Q GLHVHU 3KDVH ZHUGHQ LQ )RUP HLQHV PHKUVWXILJHQ 3UR]HVVHV GLH JHVDPPHOWHQ /|VXQJVLGHHQ ]XQlFKVW VWUXNWXULHUW XQG DQVFKOLH HQG EHZHUWHW =LHO LVW HV PLWKLOIH YHUVFKLHGHQHU %HZHUWXQJVXQG $XVZDKO PHWKRGHQ ]% .ULWHULHQEDVLHUWH $XVZDKO ZHQLJH DEHU YLHOYHUVSUHFKHQGH ,GHHQ KHUDXV]XILOWHUQ 'LHVH ZHUGHQ LP /DXIH GHV $XVZDKOSUR]HVVHV ZHLWHU SUl]LVLHUWXQGPLW]XVlW]OLFKHQ,QIRUPDWLRQHQKLQWHUOHJW
•
Lösungsumsetzungs-Phase: 'HU NUHDWLYH 3UREOHPO|VXQJV]\NOXV HQGHW GDPLW GDVVHLQ9RUVFKODJHUDUEHLWHWZLUGZHOFKH/|VXQJVNRQ]HSWHZHLWHU]XYHUIRO JHQVLQGXQGZHOFKHQLFKW 'LH(QWVFKHLGXQJZHOFKH.RQ]HSWHOHW]WHQGOLFK XPJHVHW]W ZHUGHQ ZLUG KlXILJ QLFKW YRQ GHU 3UREOHPO|VXQJVJUXSSH VHOEVW VRQGHUQYRQHLQHPEHUJHRUGQHWHQ*UHPLXPJHWURIIHQ6LQGNHLQHDGlTXDWHQ /|VXQJVLGHHQJHIXQGHQZRUGHQEHJLQQWGHU=\NOXVYRQYRUQ
,Q$EELVWGHUNUHDWLYH3UREOHPO|VXQJV]\NOXVQDFKGHP2300RGHOOYLVXD OLVLHUW 'LH Ä=LHKKDUPRQLND³'DUVWHOOXQJ YHUGHXWOLFKW GDV V\VWHPDWLVFKH $EZHFK VHOQ YRQ 'LYHUJHQ] XQG .RQYHUJHQ]SKDVH LP ,QQRYDWLRQVSUR]HVV (LQ]HOQH 3UREOHPO|VXQJV]\NOHQVLQGWKHPDWLVFKJHNRSSHOWGKGDV$XVZDKOHUJHEQLV2XW SXW GHVHLQHQ=\NOXVLVWGLH$XIJDEHQVWHOOXQJ,QSXW GHVIROJHQGHQ
'LH8QWHUVFKHLGXQJ]ZLVFKHQNRQYHUJHQWHPXQGGLYHUJHQWHP'HQNHQJHKWDXI-2+13 *8,/)25' ]XUFN(UYHUVWHKWXQWHUNRQYHUJHQWHP'HQNHQORJLVFKHV9RUJHKHQ GDV DXI HLQHQ JDQ] EHVWLPPWHQ /|VXQJVSXQNW KLQIKUW 'HPJHJHQEHU ]HLFKQHW VLFK GLYHUJHQWHV 'HQNHQ GXUFK XQEOLFKH $VVR]LDWLRQHQ 3HUVSHNWLYHQZHFKVHO XQG (UZHL WHUXQJGHV+RUL]RQWVDXV.UHDWLYH3UREOHPO|VXQJVSUR]HVVHHUIRUGHUQVRZRKOGLYHUJHQ WHVDOVNRQYHUJHQWHV'HQNHQYJO)XQNH6
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
Problemklärung
Ideenfindung Divergentes Denken
Ideenauswahl Konvergentes Denken
Lösungsumsetzung
...
Basis: Geschka/ Lantelme 2005, S. 294
$EE3UREOHPO|VXQJVSUR]HVVQDFKGHP2300RGHOO6FKHPD Kritische Bewertung: $XIJUXQGGHURIIHQHQ3UREOHPO|VXQJVVWUDWHJLHLVWGDV230 0RGHOOlXHUVWIOH[LEHOHLQVHW]EDUZDVMHGRFKJOHLFK]HLWLJ]XHLQHPUHODWLYJHULQ JHUHQ (UIOOXQJVJUDG YRQ .ULWHULXP IKUW VLHKH $EE $QDORJ ]XP &36 0RGHOO OLHJW NHLQ VWUXNWXULHUWHU 0HWKRGHQHLQVDW] YRU GHU (UIOOXQJVJUDG YRQ .ULWHULXP LVW 1XOO 'LH (IIL]LHQ] .ULWHULXP ZLUG PLW ÄPLWWHO³ EHZHUWHW GD GHU 3UREOHPO|VXQJV]\NOXV JJI PHKUPDOV ]X GXUFKODXIHQ LVW %HL GHU (IIHNWLYLWlW .ULWHULXP ZLUGGHU(UIOOXQJVJUDGYRQGDPLWEHJUQGHWGDVVGDV230 0RGHOO DXFK EHL NRPSOH[HQ WHFKQLVFKHQ $XIJDEHQVWHOOXQJHQ DQJHZHQGHW ZHUGHQ NDQQ'HU(LQVDW]EH]LHKWVLFKVRZRKODXIXQEHIULHGLJHQGH6LWXDWLRQHQPLWXQNOD UHU3UREOHPIRUPXOLHUXQJDOVDXFKDXINRQNUHWH$XIJDEHQVWHOOXQJHQPLWGHWDLOOLHU WHU3UREOHPEHVFKUHLEXQJYJO*HVFKND/DQWHOPH6 3.2.2
Innovationsprozess als selbstregulierender Prozess
:LHLQ$EVFKQLWWDXVJHIKUWZXUGHODVVHQVLFK,QQRYDWLRQHQDOVGLH'XUFK VHW]XQJ QHXDUWLJHU 3UREOHPO|VXQJHQ LP 8QWHUQHKPHQ 3UR]HVVLQQRYDWLRQ XQG RGHU LP 0DUNW 3URGXNWLQQRYDWLRQ FKDUDNWHULVLHUHQ ,QQRYDWLRQHQ VHW]HQ VLFK QDFK DOOJHPHLQHP .HQQWQLVVWDQG QLFKW YRQ DOOHLQH GXUFK VRQGHUQ HUIRUGHUQ HLQ zielgerichtetes Management LQ )RUP HLQHV 0DVWHUSUR]HVVHV VLHKH $EE 'LHVHV UHLFKW YRQ GHU 3UREOHPHUNHQQWQLV XQG ,GHHQJHZLQQXQJ IU QHXH 3UREOHP O|VXQJHQ EHU ,GHHQEHZHUWXQJ XQG XPVHW]XQJ LP 5DKPHQ YRQ ) ( ELV ]XU HU
:HLWHUH NUHDWLYH 3UREOHPO|VXQJVSUR]HVVH GLH HEHQIDOOV DXI GHP =LHKKDUPRQLND3ULQ ]LSEDVLHUHQVLQGXDGLH6\QHNWLVFKH3UREOHPO|VXQJYRQ*RUGRQ 3ULFH GLH0RUSKRORJLVFKH/|VXQJVHQWZLFNOXQJYRQ=ZLFN\ XQGGLH-DSDQLVFKH10 0HWKRGHYRQ1DND\DPD )UHLQHDXVIKUOLFKH'DUVWHOOXQJGHU3UR]HVVHVHLDQ GLHVHU 6WHOOH DXI GLH HLQVFKOlJLJH /LWHUDWXU YHUZLHVHQ YJO XD 6FKOLFNVXSS +DXVFKLOGW3OHVFKDN6DELVFKXQG+RUQXQJ
9RUJHKHQVPRGHOOHIU,QQRYDWLRQHQXQG1XOO)HKOHU4XDOLWlW
IROJUHLFKHQ (LQIKUXQJ HLQHU 1HXHUXQJ LP 0DUNW 3HU GHILQLWLRQHP XPIDVVW GDV ,QQRYDWLRQVPDQDJHPHQW GLH V\VWHPDWLVFKH 3ODQXQJ 8PVHW]XQJ XQG .RQWUROOH YRQ ,GHHQ LQ 8QWHUQHKPHQ YJO XD9DKV%XUPHVWHU6 =LHOLVWHVGD EHLGLH8QWHUQHKPHQV]ZHFNHDXIÄJDQ]QHXH:HLVH³]XHUIOOHQ +LHU]X VLQG strukturierte InnovationsprozesseHUIRUGHUOLFKDXIGHUHQ%DVLVHLQHU VHLWV XQEHNDQQWH 3UREOHPH HLQHU WHFKQLVFKHQ XQG ZLUWVFKDIWOLFKHQ /|VXQJ ]XJH IKUW XQG DQGHUHUVHLWV EHNDQQWH 3UREOHPH GXUFK Y|OOLJ QHXH 0HWKRGHQ 9RUJH KHQVZHLVHQJHO|VWZHUGHQN|QQHQYJO3OHVFKDN6DELVFK6 ,P8QWHU VFKLHG ]X .UHDWLYLWlWVSUR]HVVHQYJO$EVFKQLWW GLHVLFKDXVVFKOLHOLFKPLW GHU(QWZLFNOXQJXQG8PVHW]XQJYRQ,GHHQEHVFKlIWLJHQVLQG,QQRYDWLRQVSUR]HV VH]XVlW]OLFKDXIGLH9HUZHUWXQJGHU,GHHQDXVJHULFKWHW'DEHLZLUGLPSOL]LWYRQ GHU $QQDKPH DXVJHJDQJHQGDVV±JHPlGHPTechnokratischen Innovationsmanagement-Paradigma±,QQRYDWLRQHQXQGVSH]LHOO,QQRYDWLRQVSUR]HVVHSULQ]LSLHOO JHVWDOWHWZHUGHQN|QQHQYJO6FKU|GHU6II ,QGHUHLQVFKOlJLJHQ/LWHUDWXUH[LVWLHUWHLQH9LHO]DKOYRQ3UR]HVVPRGHOOHQGLHPLW HLQHU HIIL]LHQWHQ $EODXIRUJDQLVDWLRQ GHV ,QQRYDWLRQVPDQDJHPHQWV LQ 8QWHUQHK PHQ LQ =XVDPPHQKDQJ JHEUDFKW ZHUGHQ 1DFK LKUHU =LHOVHW]XQJ ODVVHQ VLFK QRU PDWLYH 0RGHOOH GLH KlXILJ DXV 6WXGLHQ HUIROJUHLFKHU 3URMHNWH KHUYRUJHKHQ XQG GHVNULSWLYH 0RGHOOH GLH GDV (UJHEQLV HPSLULVFKHU 6WXGLHQ VLQG XQWHUVFKLHGHQ YJO&RRSHU6 =XGHQEHNDQQWHUHQ0RGHOOHQGLHVHLWGHQHU-DKUHQ LPGHXWVFKXQGHQJOLVFKVSUDFKLJHQ5DXPHQWZLFNHOWZRUGHQVLQGJHK|UHQ •
3KDVH5HYLHZ3UR]HVVGHU1$6$HU-DKUH
•
3KDVHQ0RGHOOGHV,QQRYDWLRQVSUR]HVVHVQDFK7KRP6
•
6WDJH*DWH3UR]HVVQDFK&RRSHU.OHLQVFKPLGW6
•
9DOXH3URSRVLWLRQ&\FOHQDFK+XJKHV&KDILQ6
•
3KDVHQ0RGHOOQDFK3OHVFKDN6DELVFK6
'HUSULQ]LSLHOOH$EODXIHLQHV,QQRYDWLRQVSUR]HVVHVOlVVWVLFKLQ)RUPHLQHVVHOEVW UHJXOLHUHQGHQN\EHUQHWLVFKHQ 3UR]HVVHVEHVFKUHLEHQ'LHVHUEDVLHUWLP.HUQDXI
'DV )RUVFKXQJVLQWHUHVVH JLOW VHLW JHUDXPHU =HLW YRU DOOHP GHU ÄKLVWRU\ GHSHQGHQF\³ DOVR GHU 3IDGDEKlQJLJNHLW YRQ ,QQRYDWLRQVSUR]HVVHQ XQG GHUHQ (UJHEQLVVHQ 'LH ]HQ WUDOH $QQDKPH EHVWHKW GDULQ GDVV GLH (QWZLFNOXQJVYHUJDQJHQKHLW HLQHU 2UJDQLVDWLRQ HLQHV 3URGXNWHVHLQHU7HFKQRORJLHHWF]XNQIWLJH(QWZLFNOXQJHQ(QWZLFNOXQJVP|J OLFKNHLWHQ EHHLQIOXVVW E]Z EHJUHQ]W $XIJUXQG GLHVHV ÄKLVWRU\PDWWHUV³ LVW QLFKW MHGHV EHOLHELJJHZQVFKWH,QQRYDWLRQV]LHODXFKHUUHLFKEDUYJO'XUWK6 $XIGLHVHV0RGHOOZLUGLP:HLWHUHQUHNXUULHUWGDHVVLFKDOVEHVRQGHUVXPIDVVHQGXQG DXVVDJHNUlIWLJGDUVWHOOWYJO9DKV%XUPHVWHU6 (V]HLJWLQQHUKDOEGHUHLQ ]HOQHQ 6WXIHQ VRZRKO GLH GDULQ DEODXIHQGHQ $UEHLWVSUR]HVVH DOV DXFK GLH GDUDXV UHVXOWLHUHQGHQ 3UR]HVVHUJHEQLVVH EHL (UUHLFKHQ RGHU 1LFKW(UUHLFKHQ GHU MHZHLOLJHQ =ZLVFKHQ]LHOH 'DUEHU KLQDXV ZHUGHQ GLH ZHVHQWOLFKHQ 5FNNRSSOXQJHQ ]ZLVFKHQ GHQHLQ]HOQHQ3KDVHQGHV*HVDPWSUR]HVVHVEHUFNVLFKWLJW
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
GHP 2IIHQHQ 3UREOHPO|VXQJVPRGHOO 230 QDFK *HVFKND PLW GHQ YLHU 3KDVHQ Ä3UREOHPNOlUXQJ³ Ä,GHHQILQGXQJ³ Ä,GHHQDXVZDKO³ XQG Ä/|VXQJVXPVHW ]XQJ³:LHLQ$EEQDFKYROO]LHKEDULVWEHJLQQWQDFKGHUH[DNWHQXQGXPIDV VHQGHQ 3UREOHPNOlUXQJ GLH 3KDVH GHU ,GHHQILQGXQJ (QWVSUHFKHQG GHV 230 0RGHOOV VROO KLHU GLH 5LFKWXQJ GHU 3UREOHPO|VXQJ EHVWLPPW XQG GLH P|JOLFKHQ 3ULQ]LSLHQGHU/|VXQJDXIJHGHFNWZHUGHQ$OV$XVJDQJVSXQNWIUGDVFinden von Lösungsideen NRPPHQ YHUVFKLHGHQH 4XHOOHQ LQIUDJH YJO 3OHVFKDN 6DELVFK 6 ]%EHNDQQWH/|VXQJHQDXVDQGHUHQ%HUHLFKHQ8QWHUQHKPHQQHXH .RPELQDWLRQHQ DXV EHUHLWV EHNDQQWHQ 7HLO /|VXQJHQ XQG RGHU DQDORJH /| VXQJVZHJHDXVYHUJOHLFKEDUHQDQGHUHQ6LWXDWLRQHQ 6RZRKOGLH,GHHQILQGXQJDOVDXFKGLHVLFKDQVFKOLHHQGH3KDVHGHU,GHHQDXVZDKO VLQG DXHURUGHQWOLFK VFK|SIHULVFKH $UEHLWVSUR]HVVH GLH HLQ XPIDVVHQGHV 3URE OHPYHUVWlQGQLV XQG 0HWKRGHQZLVVHQ GHU %HWHLOLJWHQ YHUODQJW =LHO LVW HV YHU VFKLHGHQH/|VXQJVYDULDQWHQ]XHUPLWWHOQXQG]XEHZHUWHQXPDXIGLHVHU%DVLVGLH EHVWH/|VXQJDXV]XZlKOHQXQG]XUHDOLVLHUHQ'DEHLJHKWHVLQHUVWHU/LQLHXPGLH .RPELQDWLRQYRQYRUKDQGHQHP:LVVHQXQGQHXHQ(UNHQQWQLVVHQLQHLQHPNUHDWL YHQ3UR]HVV'LH6\QWKHVHIKUW±EHLHUIROJUHLFKHU/|VXQJVVXFKH±]XIXQNWLRQV WFKWLJHQ XPVHW]EDUHQ /|VXQJHQ )U GLH NRQNUHWH Umsetzung der Lösung VLQG PHKUHUH $QIRUGHUXQJHQ ]X HUIOOHQ YJO 3OHVFKDN 6DELVFK 6 VLH UHL FKHQ YRQ HLQHU KLQUHLFKHQGHQ 'RNXPHQWDWLRQ GHU /|VXQJ EHU GDV 'XUFKIKUHQ YRQ3LORWSURJUDPPHQELV]XP)HVWVFKUHLEHQHLQHU=LHONRQWUROOH 'DUEHU KLQDXV VLQG ± DQDORJ ]X 6L[ 6LJPD3URMHNWHQ ± YRP 0DQDJHPHQW GLH EHQ|WLJWHQ 5HVVRXUFHQ )LQDQ] XQG 6DFKPLWWHO IU GLH HIIHNWLYH 8PVHW]XQJ GHU /|VXQJHQ EHUHLW]XVWHOOHQ%HL3UR]HVVlQGHUXQJHQVLQGX8VR]LDOH0DQDKPHQ IUGLHGLUHNWXQGLQGLUHNWEHWURIIHQHQ0LWDUEHLWHU]XSODQHQ 1DFK GHU ,PSOHPHQWLHUXQJ GHU /|VXQJ LVW GHU 1XW]HQ ]X HYDOXLHUHQ ]% GXUFK .XQGHQ]XIULHGHQKHLWVDQDO\VHQ 'LH /|VXQJ ZLUG EHUHLFKVEHUJUHLIHQG HLQJHIKUW XQG JHQXW]W VRIHUQ QDFKJHZLHVHQ ZHUGHQ NDQQ GDVV GDV 3UREOHP QDFKKDOWLJ EHVHLWLJW ZRUGHQ LVW ,P DQGHUHQ )DOO LVW HLQH Rückkopplung zur IdeenfindungsPhase QRWZHQGLJ ,Q HLQHU ÄHLQIDFKHQ 6FKOHLIH³ 6LQJOH /RRS ZLUG GDQQ DXVJH KHQG YRQ GHU 3UREOHPNOlUXQJ GHU 3UR]HVV GHU ,GHHQILQGXQJ DXVZDKO XQG XP VHW]XQJVRODQJHZLHGHUKROWELVHLQHSUD[LVWDXJOLFKH/|VXQJJHIXQGHQZRUGHQLVW 'LHVHZLUGGDQQEHUHLQHQEHVWLPPWHQ=HLWUDXPLP8QWHUQHKPHQJHQXW]W
3OHVFKDN6DELVFK6 ZHLVHQLQGLHVHP=XVDPPHQKDQJGDUDXIKLQGDVVHLQ HQWVWDQGHQHVRGHUVLFKDQEDKQHQGHV3UREOHP]XQlFKVWYRQGHQ%HWHLOLJWHQDOVVROFKHV HUNDQQWZHUGHQPXVVXP(QWVFKHLGXQJHQ$XIJDEHQXQG0DQDKPHQDE]XOHLWHQ8P HLQ REMHNWLY JHJHEHQHV 3UREOHP VXEMHNWLY ZDKU]XQHKPHQ EHGDUI HV LG5 HLQHV $Q VWRHV GHU HQWZHGHU YRQ DXHQ H[WHUQ ]% YRQ .XQGHQ NRPPHQ NDQQ RGHU YRQ LQQHQLQWHUQ ]%YRQ0LWDUEHLWHUQDQGLH9HUDQWZRUWOLFKHQKHUDQJHWUDJHQZLUG$XV V\VWHPWKHRUHWLVFKHU6LFKWLVWGLH3UREOHPHUNHQQWQLVJOHLFK]XVHW]HQPLWHLQHUJHIKOWHQ XQG RGHU WDWVlFKOLFK YRUKDQGHQHQ 6ROO,VW$EZHLFKXQJ 'LHVH EH]LHKW VLFK DXI HLQH RGHUPHKUHUH=LHOJU|HQGHV8QWHUQHKPHQV]%(UWUDJVXQG3URGXNW]LHO
9RUJHKHQVPRGHOOHIU,QQRYDWLRQHQXQG1XOO)HKOHU4XDOLWlW
Problemklärung Ist vs. Soll Ideenfindung
Methoden der Informationsverarbeitung • Methoden zur Analyse und Prognose z.B. SWOT-Analyse, Simulation, Szenariotechnik • Methoden zur Ideenfindung/ -systematisierung
Ideenauswahl Single Loop
nein Double Loop
nein
Lösungsumsetzung
Art der Kreativitätsförderung
Ideenauslösendes Prinzip Assoziation
Konfrontation
Intuition-verstärkende Methoden
Methoden der intuitiven Assoziation z.B. Brainstorming
Methoden der intuitiven Konfrontation z.B. Synektik
Systematischanalytische Methoden
Methoden der systematischen Assoziation z.B. Morpholog. Kasten
Methoden der systematischen Konfrontation z.B.TRIZ
Problem gelöst?
• Methoden zur Ideenbewertung/ -auswahl z.B. Paarweiser Vergleich, Nutzwertanalyse
ja Lösungsnutzung
Methoden der Informationsgewinnung
Informationssammlung
• Gewinnung von Sekundärinformationen z.B. Auswertung von Kundenbeschwerden
• Gewinnung von Primärinformationen z.B. Kundenbefragung, Fokusgruppenanalyse
Problem vorhanden? ja
Basis: Pleschak/ Sabisch 1996, S. 29
$EE,QQRYDWLRQVSUR]HVVDOVN\EHUQHWLVFKHU3UR]HVV
:lKUHQG GHU 1XW]XQJVGDXHU LVW GLHEffizienz der Lösung VWlQGLJ ]X EHUZDFKHQ XP$EZHLFKXQJHQYRP6ROO=LHO IUK]HLWLJ]XHUNHQQHQ=XGLHVHP=ZHFNVLQG NRQWLQXLHUOLFK ,QIRUPDWLRQHQ 'DWHQ ]X VDPPHOQ XQG LP +LQEOLFN DXI GLH EHVWH KHQGH 3UREOHPO|VXQJ DXV]XZHUWHQ :HUGHQ LQ GHU 3KDVH GHU ,QIRUPDWLRQVVDPP OXQJ 9HUlQGHUXQJHQ DXI GHU ,QSXW6HLWH ]% QHXH 7HFKQRORJLHQ XQG RGHU DXI GHU 2XWSXW6HLWH ]% QHXH .XQGHQDQIRUGHUXQJHQ IHVWJHVWHOOW EHJLQQW DXV QRUPDWLYHU 6LFKW HLQ QHXHU ,QQRYDWLRQVSUR]HVV GD VLFK GLH SUDNWL]LHUWH /|VXQJ JHJHQEHU GHP :HWWEHZHUE DOV LQHIIL]LHQW HUZHLVW XQG GDPLW HLQ QHXHV 3UREOHP YRUOLHJW GDV HV ]X O|VHQ JLOW 1DFK GHU 6\VWHPWKHRULH ZLUG ± LQ HLQHU ÄGRSSHOWHQ 6FKOHLIH³'RXEOH/RRS ±GDV6\VWHPDXIGHQ$XVJDQJV]XVWDQG]XUFNJHVHW]W 'DV(UJHEQLVYRQ,QQRYDWLRQVSUR]HVVHQVLQGQHXDUWLJH3UREOHPO|VXQJHQGLHL$ HLQJHZLVVHV0DDQ.UHDWLYLWlWHUIRUGHUQYJOXD+H\GHHWDO6
/DQJH=HLWJLQJPDQGDYRQDXVGDVVNUHDWLYH$NWHZLHHLQ*HLVWHV %OLW]EHUGLH3HU VRQ NRPPHQ XQG NHLQH ZHLWHUH (UNOlUXQJ HUODXEHQ (UVW (QGH GHV -DKUKXQGHUWV ZXUGHLP5DKPHQGHUQDWXUZLVVHQVFKDIWOLFKHQ3V\FKRORJLHPLWGHUV\VWHPDWLVFKHQ(U IRUVFKXQJ YRQ .UHDWLYLWlW EHJRQQHQ (LQ VLJQLILNDQWHU =XZDFKV DQ (UNHQQWQLVVHQ HU
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
1DFK6LPRQWRQ6II LVWKreativität HLQHDOOJHJHQZlUWLJH(UVFKHLQXQJ PHQVFKOLFKHU 1DWXU GLH GXUFK GHQ (LQVDW] JHHLJQHWHU 0HWKRGHQ7HFKQLNHQ WUDL QLHUW ZHUGHQ NDQQ +HXWH VLQG ZHLW EHU 7HFKQLNHQ EHNDQQW YJO +LJJLQV GLHGDVNUHDWLYH'HQNHQYRQ0HQVFKHQXQWHUVWW]HQ/HW]WJHQDQQWHVOlXIW± DXV WUDGLWLRQHOOHU SV\FKRORJLVFKHU 6LFKW ± LQ HLQHP SKDVLJHQ 3UR]HVV DE YJO )XQNH 6 I D 9RUEHUHLWXQJ E ,QNXEDWLRQ F (LQVLFKWG %HZHU WXQJXQGH $XVDUEHLWXQJ'LHVH3KDVHQILQGHQEHLGHU*HVWDOWXQJYRQ,QQRYDWL RQVSUR]HVVHQMHZHLOVLPSOL]LW %HUFNVLFKWLJXQJ ,Q $EE VLQG ZHVHQWOLFKH kreativitätsfördernde Methoden DXIJHIKUW ,KUH $QZHQGXQJNRQ]HQWULHUWVLFKLQGHQ3KDVHQ,GHHQILQGXQJXQGDXVZDKOGHV,QQR YDWLRQVSUR]HVVHV (LQH JHQHUHOOH .ODVVLIL]LHUXQJ LVW LQ GHU :HLVH P|JOLFK GDVV HQWVSUHFKHQG GHP LGHHQDXVO|VHQGHQ 3ULQ]LS DVVR]LDWLYH YRQ NRQIURQWDWLYHQ 9RU JHKHQVZHLVHQ XQWHUVFKLHGHQ ZHUGHQ %HL $VVR]LDWLRQHQ ZHUGHQ EHUHLWV EHNDQQWH /|VXQJHQDEJHZDQGHOWGLH0HWKRGHGHU.RQIURQWDWLRQEHUXKWDXIGHU*HJHQEHU VWHOOXQJ PLW DQGHUHQ 6DFKYHUKDOWHQ $OV JHQHULVFKHV 0HUNPDO YRQ .UHDWLYLWlWV WHFKQLNHQ LVW GLH $QZHQGXQJ YRQ KHXULVWLVFKHQ 3ULQ]LSLHQ KHUYRU]XKHEHQ LQVE $VVR]LDWLRQ$EVWUDNWLRQ9DULDWLRQ.RPELQDWLRQXQG6WUXNWXUELOGXQJ 1HEHQGHPLGHHQDXVO|VHQGHQ3ULQ]LSZLUGLP:HLWHUHQQDFKGHUArt der Kreativitätsförderung XQWHUVFKLHGHQ YJO *HVFKND 6 $OV *UXSSHQ N|QQHQ HLQHUVHLWV LQWXLWLYNUHDWLYH 0HWKRGHQ XQG DQGHUHUVHLWV V\VWHPDWLVFKDQDO\WLVFKH 0HWKRGHQ DXVJHPDFKW ZHUGHQ /HW]WJHQDQQWH ]HLFKQHQ VLFK LQVE GXUFK HLQH V\V WHPDWLVFKH3UREOHP]HUOHJXQJ]%)XQNWLRQHQDQDO\VHHLQV\VWHPDWLVFKHV2UGQHQ XQG *OLHGHUQ ]% 8QWHUWHLOXQJ LQ +DXSW XQG 1HEHQIXQNWLRQHQ VRZLH HLQH V\V WHPDWLVFKH .RPELQDWLRQ 9DULDWLRQ ]% 3URGXNWPRGXODULVLHUXQJ DXV 'HPJH JHQEHU XPIDVVHQ 0HWKRGHQ PLW HLQHP LQWXLWLYNUHDWLYHQ =XJDQJ ]XU 3UREOHPO| VXQJ LQ HUVWHU /LQLH ZHFKVHOVHLWLJH $VVR]LDWLRQHQ XQG VHPDQWLVFKH ,QWXLWLRQ DOV /|VXQJVSULQ]LSLHQ ,P:HLWHUHQEDVLHUHQVLHDXI$QDORJLHELOGXQJ9HUJOHLFKV]LH KXQJ VRZLH 6WUXNWXUEHUWUDJXQJ V\QWKHVH YJO 6FKOLFNVXSS 6 I $XI EHLGH $VSHNWH ZLUG LP =XVDPPHQKDQJ PLW GHU .RQ]HSWLRQ HLQHV HIIHNWLYHUHQ ')669RUJHKHQVPRGHOOVLQ.DSLWHO%H]XJJHQRPPHQ
IROJWHLQGHQHUXQGHU-DKUHQQDFKGHP:LVVHQVFKDIWOHUZLH*XLOIRUG IU PHKU.UHDWLYLWlWVIRUVFKXQJSOlGLHUWHQYJO)XQNH6 'LH ,QKDOWH XQG .RQ]HSWLRQ GHU HLQ]HOQHQ 0HWKRGHQ HUVFKOLHW VLFK RIWPDOV LQWXLWLY )U HLQH DXVIKUOLFKH 'DUVWHOOXQJ GHU 0HWKRGHQ ZLUG LQ GLH HLQVFKOlJLJH /LWHUDWXU YHUZLHVHQYJO6FKOLFNVXSS+RUQXQJ*HVFKNDE )UHLQHRSWLPDOH $QZHQGXQJGHU0HWKRGHQLVWHLQH*UXSSHQJU|HYRQELV3HUVRQHQYRU]XVHKHQ,Q GLHVHP8PIDQJIKUHQGLHHLQVFKOlJLJEHNDQQWHQ7HFKQLNHQ]XHLQHUPD[LPDOHQ9HU JU|HUXQJ GHV YHUIJEDUHQ :LVVHQV VRZLH ]X HLQHU JHJHQVHLWLJHQ $QUHJXQJ GHV *H GDQNHQDXVWDXVFKHVGHU*UXSSHQPLWJOLHGHUYJO3OHVFKDN6DELVFK6
9RUJHKHQVPRGHOOHIU,QQRYDWLRQHQXQG1XOO)HKOHU4XDOLWlW
3.2.3
Vorgehensmodelle zur kontinuierlichen Verbesserung
8P GLH 'LIIHUHQ] ]ZLVFKHQ JHJHQZlUWLJHP ,VW=XVWDQG XQG DQJHVWUHEWHP 6ROO =XVWDQG ]X EHUZLQGHQ YHUIROJHQ HLQH 5HLKH YRQ 8QWHUQHKPHQ GHQ :HJ GHU NRQWLQXLHUOLFKHQ 9HUEHVVHUXQJ $QDORJ ]XU GLVNRQWLQXLHUOLFKHQ 9HUEHVVHUXQJ LP 5DKPHQ YRQ ,0 ZHUGHQ 9RUJHKHQVPRGHOOH ]XU 8QWHUVWW]XQJ HLQJHVHW]W 6LH HQWVWDPPHQ JU|WHQWHLOV GHP 40 XQG ZXUGHQ LP /DXIH GHU =HLW LPPHU ZHLWHU YHUIHLQHUW =X QHQQHQ VLQG KLHU GHU 5HJHONUHLV QDFK ,62 VRZLH GHU 3'&$=\NOXVQDFK'HPLQJGLHEHLGHLP)ROJHQGHQDQJHVSURFKHQZHUGHQ (a) Regelkreis nach ISO 9001:2000 'LH 1RUP ',1 (1 ,62 II ZXUGH ]XU 9HUHLQKHLWOLFKXQJ GHU LQWHUQDWLRQDOHQ %HPKXQJHQ LP %HUHLFK GHV 4XDOLWlWVPDQDJHPHQWV JHVFKDIIHQ 6HLW GHU (UVWDXV JDEHLP-DKUHKDEHQ406\VWHPHGLHVLFKDQGLHVHU1RUPDXVULFKWHQHLQH IOlFKHQGHFNHQGH9HUEUHLWXQJZHOWZHLWJHIXQGHQ 'LH(LQIKUXQJHLQHUprozessorientierten Organisationsstruktur QDFK ',1 (1 ,62 IKUW LQVE EHL IXQNWLRQVRULHQWLHUW RUJDQLVLHUWHQ 8QWHUQHKPHQ ]X WLHIJUHLIHQGHQ 9HUlQGHUXQJHQ LQGHU$XIEDXXQG$EODXIRUJDQLVDWLRQYJO(EHO6II 9RP$QVDW]KHU ZHUGHQGLH7lWLJNHLWHQDQGHU:HUWVFK|SIXQJVNHWWHDXVJHULFKWHWXQG]XJDQ]KHLW OLFKHQ YRQ IXQNWLRQDOHQ $XIWHLOXQJHQ ORVJHO|VWHQ 3UR]HVVHQ JHEQGHOW 8P GLH 3UR]HVVH LP 8QWHUQHKPHQ V\VWHPDWLVFK ]X JHVWDOWHQ ZLUG ± JHQDX ZLH EHL 6L[ 6LJPD±YRQGHQ.XQGHQEHGUIQLVVHQDQIRUGHUXQJHQDXVJHJDQJHQ 1DFKGHU',1(1,62PVVHQ8QWHUQHKPHQQLFKWQXUHLQNRQVLVWHQWHV40 6\VWHP DXIEDXHQ XQG EHVFKUHLEHQ VRQGHUQ GLHVHV DXFK NRQWLQXLHUOLFK YHUEHV VHUQ 'DEHL LVW LQ HLQHP Zertifizierungsaudit DXVIKUOLFK GDU]XOHJHQ LQZLHZHLW GLH)RUGHUXQJHQGHU1RUPLPXQWHUQHKPHQVVSH]LILVFKHQ406\VWHPEHUFNVLFK WLJWXQGGDUEHUKLQDXVDXFKUHDOLVLHUWZRUGHQVLQG'LHVH)RUGHUXQJHQJOLHGHUQ
1DFKGHP,626859(< KDEHQIDVW8QWHUQHKPHQLQ'HXWVFKODQGHLQH,62 =HUWLIL]LHUXQJHLQH,6276=HUWLIL]LHUXQJXQGEHUHLQH,62 =HUWLIL]LHUXQJ 'LHVH =DKOHQ XQWHUOHJHQ GLH KRKH %HGHXWXQJ GHU ÄNODVVLVFKHQ³ =HUWLIL]LHUXQJHQ QDFK ,62 'DUEHU KLQDXV H[LVWLHUHQ ± LQ GHXWOLFK JHULQJHUHU $Q]DKO ± EUDQFKHQVSH]LILVFKH =HUWLIL]LHUXQJHQ ZLH ]% IU GLH $XWRPRELOLQGXVWULH 9'$ IU.UDQNHQKlXVHU.74 XQG:HLWHUELOGXQJVRUJDQLVDWLRQHQ 6RZRKO GLH ',1 (1 ,62 DOV DXFK GLH ',1 (1 ,62 VROOHQ ELV (QGH JUXQGOHJHQG EHUDUEHLWHW ZHUGHQ ,P 9RUGHUJUXQG VWHKHQ bQGHUXQJHQ GLH )HKOHU LQ GHUEHVWHKHQGHQ)DVVXQJEHVHLWLJHQXQGHLQ]HOQH$EVFKQLWWHSULQ]LSLHOOYHUEHVVHUQ'LH 5HYLVLRQGHU',1(1,62VROOLQHUVWHU/LQLH]XHLQHU+DUPRQLVLHUXQJPLW%HJULI IHQ DXV GHP 8PZHOWPDQDJHPHQW EHLWUDJHQ XQG HEHQIDOOV LP-DKUDEJHVFKORVVHQ VHLQYJO*UDHELJ6 1DFK GHU ([%D6SH]LDOVWXGLH Ä4XDOLWlWVPDQDJHPHQW LQ 'HXWVFKODQG³ EHVWHKW MHGRFK NHLQH ÄQHQQHQVZHUWH .RUUHODWLRQ ]ZLVFKHQ (UIROJ XQG =HUWLIL]LHUXQJVJUDG³ $XV GHQ %HIUDJXQJHQOlVVWVLFKQXUDEOHLWHQGDVVHUIROJUHLFKH8QWHUQHKPHQLQVWlUNHUHP0DH ,62 XQG JOHLFK]HLWLJ 8PZHOW]HUWLIL]LHUW VLQG VRZLH LQ NU]HUHQ =HLWUlXPHQ
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
VLFK ± DQDORJ ]X GHQ YLHU %DXVWHLQHQ GHV ,623UR]HVVPRGHOOV ± LQ GLH YLHU $E VFKQLWWH Ä9HUDQWZRUWXQJ GHU /HLWXQJ³ Ä0DQDJHPHQW GHU 0LWWHO³ Ä3URGXNWUHDOL VLHUXQJ³ XQG Ä0HVVXQJ $QDO\VH XQG 9HUEHVVHUXQJ³ 'LH GHWDLOOLHUWHQ %HVFKUHL EXQJHQ]XGHQHLQ]HOQHQ$EVFKQLWWHQVLQGGHURJ1RUP]XHQWQHKPHQ ,P5DKPHQGHVISO-ProzessmodellsZHUGHQGLH%HVWDQGWHLOHGHV406\VWHPVLQ HLQHQVWUXNWXUHOOHQ=XVDPPHQKDQJJHEUDFKW:LHLQ$EEGDUJHVWHOOWJHKWGHU äußere RegelkreisEHUGDVHLJHQH8QWHUQHKPHQKLQDXVXQGVFKOLHWGHQ.XQGHQ XQG DOOH ,QWHUHVVHQSDUWQHU 6WDNHKROGHU PLW HLQ GQQH JHVWULFKHOWH 3IHLOH 'DV 0DQDJHPHQW OHJW IHVW ZHOFKHU .XQGHQNUHLV PLW GHP (UJHEQLV GHU 3URGXNWUHDOL VLHUXQJEHGLHQWZHUGHQVROO'LHZHVHQWOLFKHQ9RUJDEHQIUGLHXQWHUQHKPHQVVSH ]LILVFKHQ .HUQ 3UR]HVVH HUJHEHQ VLFK GDEHL DXV GHQ $QIRUGHUXQJHQ GHU =LHO JUXSSHQ 6LHIOLHHQDOV(LQJDEHLQGHQ3URGXNWUHDOLVLHUXQJVSUR]HVVHLQ Ständige Verbesserung des Qualitätsmanagementsystems (KVP)
Verantwortung der Leitung
K U N D E N
A N F O R D E R U N G E N
Ressourcenmanagement
Eingabe = Input
Z U F R I E D E N H E I T
Messung, Analyse, Verbesserung
Produktrealisierung/ Prozessmanagement
Prozess
Ergebnis = Output
Quelle: Ebel 2002, S. 72
K U N D E N
Produkt
$EE0RGHOOGHU4XDOLWlWVUHJHOXQJQDFK',1(1,62
'LH *WH GHU (UIOOXQJ GHU VRJ NULWLVFKHQ 4XDOLWlWVPHUNPDOH EHVWLPPW LQ PD JHEOLFKHU:HLVHGLH=XIULHGHQKHLWGHU.XQGHQ/HW]WHUHZLUGYRQGHQ0HVV$QD O\VHSUR]HVVHQ GHV 406\VWHPV NRQWLQXLHUOLFK XQG V\VWHPDWLVFK HUIDVVW 'DGXUFK N|QQHQ QRWZHQGLJH .RUUHNWXUPDQDKPHQ ]XU 9HUEHVVHUXQJ GHU .XQGHQ]XIULH GHQKHLW XQG ]XU Erhöhung der Wirksamkeit des QM-Systems HUNDQQW ZHUGHQ 'XUFK GDV 0DQDJHPHQW ZHOFKHV UHJHOPlLJ EHU GLH (UJHEQLVVH LQ .HQQWQLV ]X
6HOEVWEHZHUWXQJHQ ]% QDFK GHP ()400RGHOO GXUFKIKUHQ =HUWLIL]LHUXQJHQ VLQG IROJOLFKQLFKWHUIROJVLQGX]LHUHQGYJO6RPPHUKRII.DHUNHV6
9RUJHKHQVPRGHOOHIU,QQRYDWLRQHQXQG1XOO)HKOHU4XDOLWlW
VHW]HQ LVW ZLUG EHL %HGDUI HLQ HUQHXWHU 'XUFKODXI GHV 5HJHONUHLVHV DQJHVWRHQ LQIROJHGHVVHQVLFKHLQHNRQWLQXLHUOLFKH9HUEHVVHUXQJHLQVWHOOW 1HEHQ GHP lXHUHQ 5HJHONUHLV H[LVWLHUW HLQ innerer Regelkreis GHU GHQ =XVDP PHQKDQJ GHU YRQ GHU 1RUPHQUHLKH JHZlKOWHQ 8QWHUWHLOXQJ GHU )RUGHUXQJHQ DQ 406\VWHPH V\PEROLVLHUW JUDXH GLFNH3IHLOH (VZLUGGDYRQDXVJHJDQJHQGDVV 0DQDJHPHQWSUR]HVVH XQWHU )|UGHUXQJ GHU LQWHUQHQ .RPPXQLNDWLRQ GDV JHVDPWH 6\VWHPVWHXHUQ'LH9HUDQWZRUWXQJGHU/HLWXQJEHVWHKWLQVEGDULQDOOHHUIRUGHU OLFKHQ 0LWWHO IU GHQ UHLEXQJVORVHQ $EODXI DOOHU .HUQSUR]HVVH ]XU 9HUIJXQJ ]X VWHOOHQ 'D]X JHK|UHQ XD DXVUHLFKHQG TXDOLIL]LHUWH XQG PRWLYLHUWH 0LWDUEHLWHU 3URGXNWLRQVPLWWHOXQGHLQHDQJHPHVVHQH$UEHLWVXPJHEXQJ 1XU GXUFK HLQ HIIHNWLYHV 5HVVRXUFHQPDQDJHPHQW NDQQ HLQ GHQ $QIRUGHUXQJHQ HQWVSUHFKHQGHU 2XWSXW UHDOLVLHUW ZHUGHQ 'D]X VLQGLP5DKPHQGHU3URGXNWUHDOL VLHUXQJDOOH7HLOSUR]HVVHGXUFKPHVVHQGHXQGEHUZDFKHQGH7lWLJNHLWHQ]XXQWHU VWW]HQ $XV GHU 'DWHQHUIDVVXQJ XQGDQDO\VHOHLWHQVLFKVRZRKO0DQDKPHQ]XU 9HUEHVVHUXQJGHUHLQ]HOQHQ7HLO 3UR]HVVHDEDOVDXFKYHUGLFKWHWH,QIRUPDWLRQHQ IUGDV0DQDJHPHQWXPDXIGLHVHU%DVLVGDV*HVDPWV\VWHP]XOHQNHQ,QGLHVHP =XVDPPHQKDQJLVWHLQWirkungsverbund zwischen der ISO-Normenreihe und dem Six Sigma-ProjektmanagementJUXQGVlW]OLFKVLQQYROOGDVLFKGLHEHLGHQ.RQ]HS WH HLQHUVHLWV KLQVLFKWOLFK LKUHU =LHOH XQG :LUNXQJHQ QLFKW JHJHQVHLWLJ DXVVFKOLH HQ $QGHUHUVHLWV VLQG VLH LQ LKUHU LQKDOWOLFKHQ $XVULFKWXQJ XQG (LQ]HOZLUNXQJ JU|WHQWHLOVXQWHUVFKLHGOLFKYJO0HVVHU7|SIHU6II Kritische Bewertung: 'DV0RGHOOGHU4XDOLWlWVUHJHOXQJQDFK',1(1,62 EH]LHKW VLFK DXI GLH JDQ]KHLWOLFKH 4XDOLWlWVVWHXHUXQJ YRQ LQ 8QWHUQHKPHQ 'LH HLQ]HOQHQ 3KDVHQ GHU 3UR]HVVYHUEHVVHUXQJ VLQG DXI GHU 0HWD(EHQH EHQDQQW VLHKH $EE XQG ZHUGHQ LP 5DKPHQ YRQ ,62'RNXPHQWDWLRQHQ LP 'HWDLO DXVJHIKUW 1LFKWVGHVWRWURW] ZLUG GHU (UIOOXQJVJUDG YRQ .ULWHULXP EHL JHVHKHQ VLHKH $EE GD ± ]% LP 9HUJOHLFK ]XP '0$,&=\NOXV ± DXI GHU %DVLVGHV9RUJHKHQVPRGHOOVNHLQHNRQNUHWHQ3URMHNWDNWLYLWlWHQ]XU6WHLJHUXQJGHU .XQGHQ]XIULHGHQKHLWLQLWLLHUXQGGXUFKIKUEDUVLQGbKQOLFKHVJLOWIUGDV.ULWH ULXP (UIOOXQJVJUDG YRQ HLQ VWUXNWXULHUWHU 0HWKRGHQHLQVDW] LVW QXU IU GLH3KDVHÄ0HVVXQJ$QDO\VHXQG9HUEHVVHUXQJ³LP$QVDW]YRUKDQGHQ'LH.RV WHQ1XW]HQ5HODWLRQIUGLH8PVHW]XQJGHUYLHOHQ )RUGHUXQJHQGHU',1(1,62 IlOOWKlXILJQHJDWLYDXVGLH:LUWVFKDIWOLFKNHLWGHV9RUJHKHQV.ULWHUL XP LVWHQWVSUHFKHQGJHULQJ*OHLFK]HLWLJYHU]HLFKQHQYLHOH8QWHUQHKPHQLQIRO JH GHU ,62=HUWLIL]LHUXQJ HIIL]LHQWHUH XQG TXDOLWDWLY EHVVHUH 3UR]HVVH ZDV ]X HLQHP(UIOOXQJVJUDGYRQEHL.ULWHULXPIKUW
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
(b) PDCA-Zyklus nach Deming 'LH Notwendigkeit eines Vorgehensmodells ]XU 'XUFKIKUXQJ YRQ 4XDOLWlWVYHU EHVVHUXQJVDNWLYLWlWHQLP8QWHUQHKPHQZXUGHYRQ(':$5' :'(0,1*6 II ZLH IROJW EHJUQGHW Ä,Q GHU )lOOH LQ GHQHQ .XQGHQDQIRUGHUXQJHQ nicht HUIOOW ZHUGHQ OLHJHQ GLH )HKOHUXUVDFKHQ LQ GHQ 3UR]HVVHQ XQG 6\VWHPHQ EHJUQGHW >@ XQG ZHQLJHU LQ GHQ 0LWDUEHLWHUQ VHOEVW 'LH 5ROOH GHV 0DQDJH PHQWVPXVVHVGDKHUVHLQGLH3UR]HVVH]XYHUlQGHUQ±DQVWDWWGHPHLQ]HOQHQ0LW DUEHLWHU]XXQWHUVWHOOHQVHLQH6DFKHQLFKWJXWJHQXJ]XPDFKHQ³ 2EZRKOGLHVH$XVVDJHODQJH=HLWEHNDQQWXQGDOOJHPHLQDN]HSWLHUWZDUEHJDQQ± ]XPLQGHVWLQ$PHULNDXQG(XURSD±GLHV\VWHPDWLVFKH$QDO\VHYRQ.XQGHQDQIRU GHUXQJHQ3UR]HVVDEOlXIHQXQG3UR]HVVTXDOLWlWHUVW(QGHGHUHU-DKUHPLWGHU (LQIKUXQJ GHV 0DQDJHPHQWNRQ]HSWV 6L[ 6LJPD 'DV .RQ]HSW GDV EHNDQQWOLFK DXI GDV 7HFKQRORJLHXQWHUQHKPHQ 0RWRUROD ]XUFNJHKW EHLQKDOWHWH XUVSUQJOLFK HLQHQ 9HUEHVVHUXQJV]\NOXV PLW YLHU 3KDVHQ QlPOLFK 0HDVXUH $QDO\VH ,PSURYH XQG &RQWURO 0$,& (UVW]XHLQHPVSlWHUHQ=HLWSXQNWZXUGHGLH 1RWZHQGLJNHLW HUNDQQW GLH 3URMHNWH NODU ]X GHILQLHUHQ XQG GLH HUUHLFKWHQ (UJHEQLVVH ZLUNXQJV YROO XQG QDFKKDOWLJ LQ GHU 2UJDQLVDWLRQ XP]XVHW]HQ ,%0 XQG DQGHUH 8QWHUQHK PHQ WUXJHQ GLHVHU $QIRUGHUXQJ PLW GHU (LQIKUXQJ GHU 'HILQH3KDVH ' 5HFK QXQJ]XP'0$,&=\NOXVLP'HWDLOVLHKH$EVFKQLWW 'DV9RUJHKHQLP5DKPHQYRQ740XQG.93EHUXKWDXIHLQHPDQHUNDQQWHQXQG ZHLW YHUEUHLWHWHQ 9RUJHKHQVPRGHOO GDV XQWHU GHP $NURQ\P PDCA EHNDQQW LVW $OV $QZHQGXQJV XQG (UNOlUXQJVPRGHOO LVW GHU =\NOXV YRQ ]HQWUDOHU %HGHXWXQJ IU GLH V\VWHPDWLVFKH 9HUEHVVHUXQJ YRQ *HVFKlIWVSUR]HVVHQ (LQH KHUDXVUDJHQGH %HGHXWXQJEHVLW]WHUYRUDOOHPIUGLH8QWHUQHKPHQGLHEHUHLQKRKHV3UR]HVV YHUVWlQGQLVYHUIJHQXQGVLFKGHU6WUDWHJLHGHU1XOO)HKOHU4XDOLWlWYHUVFKULHEHQ KDEHQZLH]%7R\RWD'LH=LHOHXQG,QKDOWHGHUHLQ]HOQHQPhasen des PDCAZyklusGHUDOOJHPHLQDOV9RUOlXIHUPRGHOOGHV6L[6LJPD'0$,&=\NOXVDQJHVH KHQZLUGVWHOOHQVLFKZLHIROJWGDUYJO=ROORQG]6I •
Plan-Phase: -HGHU =\NOXV EHJLQQW PLW GHU 3ODQXQJVSKDVH ,Q GLHVHU ZHUGHQ GLH3URMHNW]LHOHGHILQLHUWGHU3URMHNWUDKPHQDEJHVWHFNWXQGGLHQRWZHQGLJHQ 0DQDKPHQ ]XU /|VXQJ GHV 3UREOHPVIHVWJHOHJW8PJHHLJQHWH0DQDKPHQ EHVWLPPHQ ]X N|QQHQ VLQG 8UVDFKHQ:LUNXQJVNHWWHQ DXI]XVWHOOHQ XQG GLHV EH]JOLFK EHQ|WLJWH ,QIRUPDWLRQHQ 'DWHQ ]X VDPPHOQ 'LH $XVZHUWXQJ GHU 'DWHQHUP|JOLFKWGLH)HVWOHJXQJYRQ0DQDKPHQGLHGDV3UREOHPO|VHQXQG VRGHQ3UR]HVVLQVJHVDPWYHUEHVVHUQ
'HU 3'&$=\NOXV ZLUG XQPLWWHOEDU GHP 740$QVDW] ]XJHVFKULHEHQ XQG LVW YRP *UXQGVDW]KHUPLWGHP'0$,&=\NOXVGHV6L[6LJPD.RQ]HSWHVYHUJOHLFKEDU-HGRFK ]HLFKQHW VLFK OHW]WHUHV JHJHQEHU 740 GXUFK HLQH VWULQJHQWHUH 0HWKRGHQDQZHQGXQJ VRZLHHLQVWUDIIHUHV3URMHNWPDQDJHPHQWDXVYJO]%3\]GHNE6 ,P /DXIH GHU =HLW ZXUGH GHU 3'&$=\NOXV VXN]HVVLYH ZHLWHUHQWZLFNHOW XQG DXI YHU VFKLHGHQH :HLVH PRGLIL]LHUW 6R ZLUG ]% LQ HLQHU EHUDUEHLWHWHQ 9HUVLRQ HLQ ]XVlW] OLFKHUNOHLQHU 3'&$=\NOXVLQQHUKDOEGHU'R3KDVHGXUFKODXIHQ
9RUJHKHQVPRGHOOHIU,QQRYDWLRQHQXQG1XOO)HKOHU4XDOLWlW
•
Do-Phase:,QGHUIROJHQGHQ$XVIKUXQJVSKDVHZHUGHQGLHDEJHOHLWHWHQ0D QDKPHQ ]XQlFKVW LQ NOHLQHP 5DKPHQ E]Z LQ H[SHULPHQWHOOHU )RUP XPJH VHW]W XP (UIDKUXQJHQ ]X VDPPHOQ XQG HYHQWXHOO DXIWUHWHQGH 3UREOHPH EHL GHUVSlWHUHQ8PVHW]XQJ]XHUNHQQHQ'DV9RUJHKHQGLH(LQKDOWXQJGHV=HLW SODQVXQGGLH(UJHEQLVVHGHU'R3KDVHZHUGHQGRNXPHQWLHUW
•
Check-Phase: 'LH hEHUSUIXQJVSKDVH GLHQW GD]X GLH LQ GHU 'R3KDVH HU UHLFKWHQ(UJHEQLVVH]XEHZHUWHQXQGDQVFKOLHHQG]XNRQWUROOLHUHQ'DEHLHU IROJWHLQH5FNNRSSOXQJLQGLH3ODQXQJVSKDVHLQGHUGLH=LHOHGHV3URMHNWHV GHILQLHUWZRUGHQVLQG
•
Act-Phase: ,Q GLHVHU 3KDVH ZHUGHQ GLH LQ GHU 3ODQXQJVSKDVH DXIJHVWHOOWHQ 9HUlQGHUXQJVPDQDKPHQ DXI K|KHUHU(EHQHHLQJHIKUWGKLQGLHWlJOLFKHQ $EOlXIHXQG$NWLYLWlWHQLPSOHPHQWLHUW'DEHLVLQGDOOHDP3UR]HVVEHWHLOLJWHQ 3DUWHLHQ ]X LQYROYLHUHQ 6FKOLHOLFK LVW HLQH )HHGEDFN6FKOHLIH YRUJHVHKHQ XP ]X NOlUHQ ZLH DXVJHKHQG YRQ GHQ (UJHEQLVVHQ GHU &KHFN3KDVH GHU QlFKVWH=\NOXVJHSODQWZHUGHQNDQQ'DQDFKEHJLQQWGHU=\NOXVYRQYRUQ
Act
Plan
Check
Do
Basis: Deming 1986
en nahm Maß
Act
Plan
Check
Do
Zeit
$EE.RQWLQXLHUOLFKH9HUEHVVHUXQJPLWGHP3'&$=\NOXV
Verbesserungen
,Q $EE LVW GHU .RQWLQXLHUOLFKH 9HUEHVVHUXQJVSUR]HVV DXI GHU *UXQGODJH GHV 3'&$=\NOXVELOGOLFKYHUDQVFKDXOLFKW'LH8PGUHKXQJGHVPDCA-RadesDXIGHU VFKLHIHQ (EHQH QDFK REHQ V\PEROLVLHUW GHQ 'XUFKODXI JHQDX HLQHV =\NOXV -H ZHLWHU REHQ VLFK GDV 5DG EHILQGHW GHVWR K|KHU LVW GLH GHU]HLWLJH 3UR]HVVTXDOLWlW 'LH $QZHQGXQJ GLHVHU 6\VWHPDWLN EH]LHKW VLFK QLFKW QXU DXI GLH 8QWHUQHKPHQV *HVFKlIWVSUR]HVVHEHQH VRQGHUQ DXFK DXI GLH 3URMHNW $UEHLWVHEHQH 'HU JHVWUL FKHOWH .HLO DP REHUHQ 5DG LQ $EE V\PEROLVLHUW GLH QRWZHQGLJH 6WDELOLVLH UXQJGHVQHXHQ3UR]HVV4XDOLWlWVQLYHDXVLP$QVFKOXVVDQGLH$FW3KDVH
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
Kritische Bewertung: 'LH 3ODQ3KDVH GHV 3'&$=\NOXV EHLQKDOWHW QLFKW QXU GLH 3UREOHPEHVFKUHLEXQJ XQG =LHOGHILQLWLRQ VRQGHUQ DXFK GLH 'DWHQHUIDVVXQJ XQG 8UVDFKHQEHVWLPPXQJVRZLHGLH$EOHLWXQJYRQ0DQDKPHQPLWGHQHQGLHIRUPX OLHUWHQ =LHOVHW]XQJHQ HUUHLFKW ZHUGHQ N|QQHQ ,P 9HUJOHLFK ]XP'0$,&=\NOXV VLQG GLH $NWLYLWlWHQ GLH LP 5DKPHQ GHU 'HILQH 0HDVXUH XQG $QDO\VH3KDVH VHSDUDW GXUFKJHIKUW ZHUGHQ DOVR LQHLQHU3KDVHJHEQGHOW'HU(UIOOXQJVJUDG YRQ .ULWHULXP KLQVLFKWOLFK HLQHV HLQGHXWLJHQ 3KDVHQDEODXIV ZLUG GHVKDOE EHL JHVHKHQVLHKH$EE )UGHQ(LQVDW]YRQEHVWLPPWHQ400HWKRGHQLQ HLQ]HOQHQ 3KDVHQ GHV 3UREOHPO|VXQJV]\NOXV JLEW HV NHLQH IHVWHQ 9RUJDEHQ GLH %HZHUWXQJYRQ.ULWHULXP0HWKRGHQHLQVDW] OLHJWGDKHUEHL 'LH(UJHEQLVVHGHU$FW3KDVHZHUGHQXQPLWWHOEDUIUGLH3ODQXQJXQG8PVHW]XQJ ZHLWHUHU3'&$3URMHNWHYHUZHQGHW+LHUGXUFKZLUGHLQHNRQWLQXLHUOLFKH3UR]HVV YHUEHVVHUXQJLQ*DQJJHVHW]W:HUGHQHQWVSUHFKHQGYLHOH3URMHNWH]XHLQHP3URE OHPVFKZHUSXQNWE]ZWKHPDGXUFKJHIKUWGDQQZLUGQDFKXQGQDFKHLQHRSWLPD OH 3UR]HVVJHVWDOWXQJ PLW PLQLPDOHU 9HUVFKZHQGXQJ MDS 0XGD HUUHLFKW :LH 7R\RWD XQG DQGHUH 8QWHUQHKPHQ EHOHJHQ LVW GDV 9RUJHKHQ ± EHL NRQVHTXHQWHU $QZHQGXQJ±LP+LQEOLFNDXIGDV(UUHLFKHQYRQ1XOO)HKOHU4XDOLWlWVHKUHIIHN WLY$XVGLHVHP*UXQGZLUGGDV.ULWHULXPDOVYROOVWlQGLJHUIOOWDQJHVHKHQ'LH (IIL]LHQ] GHV 9RUJHKHQVPRGHOOV LVWQLFKWLQMHGHP)DOOJHJHEHQ'HQQGHU 1DFKWHLO GHVNRQWLQXLHUOLFKHQ9HUEHVVHUXQJVDQVDW]HVOLHJWP(GDULQGDVVHUQXU IU 3UR]HVVH P|JOLFK LVW GHUHQ $EOlXIH VLFK QLFKW NDXP lQGHUQ ZHLO HLQH 9HU EHVVHUXQJLPPHUQXUDXIGHQVHOEHQ$EODXIDQZHQGEDULVW ,P =XVDPPHQKDQJ PLW GHU 'DUVWHOOXQJ GHV 3'&$=\NOXV ZHUGHQ GLH ZHVHQWOL FKHQ Charakteristika von Qualitätsverbesserungssystemen 496 GHXWOLFK 'LHVH DUEHLWHQLG5PLW5FNNRSSOXQJHQ6FKOHLIHQEHLGHQHQGLHIROJHQGH6\VWHPDWLN ]XJUXQGH OLHJW 1DFKGHP GHU JHJHQZlUWLJH =XVWDQG GHV 6\VWHPV GHV 3UR]HVVHV HUPLWWHOW ZRUGHQ LVW ZHUGHQ DXI GHU %DVLV GLHVHU (UNHQQWQLVVH 9HUEHVVHUXQJHQ YRUJHVFKODJHQXQGGXUFKJHIKUW'HU=\NOXVVWDUWHWQDFKGHU,PSOHPHQWLHUXQJGHU 9HUEHVVHUXQJHQYRQQHXHPMHGRFKYRQHLQHUYHUlQGHUWHQ%DVLV'DV3ULQ]LSGHV VLFK VHOEVW UHJXOLHUHQGHQ 40 ZLUG LP IROJHQGHQ $EVFKQLWW HUOlXWHUW ,Q GLHVHP =XVDPPHQKDQJ HUIROJW HLQH V\VWHPWKHRUHWLVFKH (LQRUGQXQJ GHU ]ZHL 6L[ 6LJPD 3URMHNWPDQDJHPHQW]\NOHQ'0$,&XQG'0$'9 3.2.4
Qualitätsmanagement als selbstregulierender Prozess
4XDOLWlWVPDQDJHPHQW ELOGHW GLH *UXQGODJH IU HLQ ÄRUGQXQJVJHPlHV %HWULHEV PDQDJHPHQW³ YJO *XPSS :DOOLVFK 6 :LHHLQVROFKHV0DQDJHPHQW HUIROJUHLFKJHSODQWXQGXPJHVHW]WZLUGLVWLQGHUHLQVFKOlJLJHQ/LWHUDWXUQDFK]X OHVHQ YJO XD 7|SIHU 3IHLIHU .DPLVNH 0DVLQJ 1DFK
,P:HLWHUHQZLUGGHXWOLFKGDVVGLH,QKDOWHGHU'RXQG&KHFN3KDVHLPZHLWHVWHQ6LQ QH GHQHQ GHU ,PSURYH3KDVH HQWVSUHFKHQ DOVR /|VXQJHQ JHQHULHUHQ DXVZlKOHQ XQG LPSOHPHQWLHUHQ YJO $EVFKQLWW 'LH ,QKDOWH GHU $FW3KDVH GHFNHQ VLFK ZHLWHVW JHKHQGPLWGHQHQGHU&RQWURO3KDVHGHV'0$,&=\NOXV
9RUJHKHQVPRGHOOHIU,QQRYDWLRQHQXQG1XOO)HKOHU4XDOLWlW
',1 (1 ,62 XPIDVVW HLQ LQWHJULHUWHV 40.RQ]HSW ÄDOOH 7lWLJNHLWHQ GHU *HVDPWIKUXQJVDXIJDEH ZHOFKH 4XDOLWlWVSROLWLN =LHOH XQG 9HUDQWZRUWXQJHQ IHVWOHJHQ³ XQG GLHVH GXUFK 4XDOLWlWVVLFKHUXQJ OHQNXQJ SODQXQJ XQG YHUEHVVH UXQJDXFKYHUZLUNOLFKHQ'DEHLJHKWHV]XNQIWLJQLFKWPHKUQXUGDUXPGLH4XD OLWlWGHU3URGXNWHXQG3UR]HVVH]XVLFKHUQXQG]XSODQHQVRQGHUQHLQHSUDNWL]LHUWH 1XOO)HKOHU4XDOLWlW LQ DOOHQ :HUWVFK|SIXQJVEHUHLFKHQ GHV 8QWHUQHKPHQV ]X HUUHLFKHQ YJO 7|SIHU 6 +LHU]X ZHUGHQ LQ GHU 3UD[LV 5HJHONUHLVH LPSOHPHQWLHUW GLH HLQHJH]LHOWH3ODQXQJ6WHXHUXQJXQG.RQWUROOHGHV/HLVWXQJV HUVWHOOXQJVSUR]HVVHVHUP|JOLFKHQYJO3IHLIHU6II $XV SUR]HVVRULHQWLHUWHU 6LFKW NDQQ QM als kybernetischer (selbstregulierender) Prozess DXIJHIDVVW ZHUGHQ 'DEHL ZLUG ± JHQDX ZLH EHLP ,QQRYDWLRQVSUR]HVV ± GDV(UUHLFKHQGHUYRP8QWHUQHKPHQGHILQLHUWHQ4XDOLWlWV =LHOHGXUFKHLQHQVLFK VHOEVW VWHXHUQGHQ 5HJHONUHLV VLFKHUJHVWHOOW ,Q $QOHKQXQJ DQ WHFKQLVFKH 5HJHO NUHLVV\VWHPH ZHUGHQ LQ HLQHP NRQWLQXLHUOLFKHQ 3UR]HVV GLH GUHL 3KDVHQ Ä3OD QXQJ³ Ä8PVHW]XQJ³ XQG Ä.RQWUROOH³ GXUFKODXIHQ YJO *QWKHU 6 'LHV VHW]W HLQ LQVWUXPHQWHOOHV 9HUVWlQGQLV YRQ 4XDOLWlWVPDQDJHPHQW YRUDXV =LHO LVWHVGDV406\VWHPVR]XUHJHOQGDVVHLQHH[WHUQYRUJHJHEHQH6ROO*U|H]% /LHIHU]HLW HLQHV $XWRV VWHWV HLQJHKDOWHQ ZLUG 'D HV VLFK EHL 8QWHUQHKPHQ QLFKW XPUHLQWHFKQLVFKHVRQGHUQXPVR]LRWHFKQLVFKH6\VWHPHKDQGHOWZLUGHLQHNRQ WLQXLHUOLFKH 9HUEHVVHUXQJ XQG :HLWHUHQWZLFNOXQJ GHV *HVDPWV\VWHPV DQJHVWUHEW 8PGLHVHU$QIRUGHUXQJJHUHFKW]XZHUGHQLVWGHU6WDQGDUGSUR]HVVPLWGHQREHQ JHQDQQWHQGUHL3KDVHQXPGLH3KDVHÄ9HUEHVVHUXQJ³]XHUZHLWHUQ :LHLQ$EEQDFKYROO]LHKEDULVWZLUGGXUFKGLHVH(UZHLWHUXQJGDV*UXQGSULQ ]LS GHV 3'&$=\NOXV DQWL]LSLHUW YJO $EVFKQLWW $XI GLH .RQ]HSWLRQ XQG ,QKDOWH GHU YLHU 3KDVHQ ZLUG LP )ROJHQGHQ LP 'HWDLO HLQJHJDQJHQ $QDORJ ]XP VLFK VHOEVWUHJXOLHUHQGHQ ,QQRYDWLRQVSUR]HVV LQ $EVFKQLWW ELOGHQ VLH GHQ NRQ]HSWLRQHOOHQ5DKPHQIUGHQ0DVWHUSUR]HVVLP4XDOLWlWVPDQDJHPHQW (1) Planung $XVQRUPDWLYHU6LFKWELOGHQGLHwesentlichen Anforderungen der Kunden&&5± &ULWLFDOWR&XVWRPHU5HTXLUHPHQWV GHQ$XVJDQJVSXQNWIUGHQGDUJHVWHOOWHQ40 5HJHONUHLV ,P 6LQQH GHU .\EHUQHWLN LVW GLH YROOVWlQGLJH (UIOOXQJ DOOHU &&5V
5HJHONUHLVH VLQG N\EHUQHWLVFKH 0RGHOOH GLH GD]X EHVWLPPW VLQG DXVJHZlKOWH .HQQ JU|HQ HQJO .H\ 3HUIRUPDQFH ,QGLFDWRUV .3,V DXI YRUJHJHEHQHQ 6ROO:HUWHQ ]X KDOWHQ 'DEHL ZLUG GDYRQ DXVJHJDQJHQ GDVV GDV 0RGHOO GHU 5HJHOXQJVWHFKQLN QDFK ',1SULQ]LSLHOODXIGDV406\VWHPEHUWUDJEDULVW8PJH]LHOWH(LQJULIIHLQGHQ 3UR]HVV 5HJHOVWUHFNH DE]XOHLWHQ ZLUG UHJHOPlLJ GLH 'LIIHUHQ] ]ZLVFKHQ ,VW XQG 6ROO:HUWEHVWLPPW$XIGLHVHU%DVLVZHUGHQ±EHL%HGDUI]%7ROHUDQ]EHUVFKUHLWXQJ ±bQGHUXQJHQDQGHQ6WHOOJU|HQYRUJHQRPPHQ .\EHUQHWLNEH]HLFKQHWGLH:LVVHQVFKDIWGHU6WHXHUXQJ5HJHOXQJXQG1DFKULFKWHQEHU WUDJXQJ6LHZXUGHGXUFK125%(57 :,(1(5EHJUQGHW=LHOLVWHVGDV9HUKDOWHQ YRQ WHFKQLVFKHQ VR]LRWHFKQLVFKHQ XQG ELRORJLVFKHQ 6\VWHPHQ ]X DQDO\VLHUHQ ]X
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
GLH 6WHOOJU|H IU GHQ JHVDPWHQ /HLVWXQJVHUVWHOOXQJVSUR]HVV 'LHVH VWUDWHJLVFKH =LHOYRUJDEH ZLUG GXUFK HLQH XQWHUQHKPHQVZHLWH 4XDOLWlWVRIIHQVLYH ]% 6L[ 6LJ PD XQWHUPDXHUW ,Q GHU 3URGXNWSODQXQJ ZHUGHQ DXV GHU Ä6WLPPH GHV .XQGHQ³ 92& ±9RLFHRIWKH&XVWRPHU LQGHUGLH&&5VLPSOL]LWHQWKDOWHQVLQGGLHIU GHQ 8QWHUQHKPHQVHUIROJ UHOHYDQWHQ E]Z NULWLVFKHQ 3URGXNWPHUNPDOH &74 ± &ULWLFDOWR4XDOLW\&KDUDFWHULVWLFV DEJHOHLWHW6RZRKOIUGLH3URGXNWSODQXQJDOV DXFK GLH XQPLWWHOEDU GDUDXI DXIEDXHQGH 3UR]HVVSODQXQJ ELHWHW VLFK GLH 0HWKRGH GHV 4XDOLW\ )XQFWLRQ 'HSOR\PHQW 4)' DQ 'LHVH ZLUG LP =XVDPPHQKDQJ PLW GHQ$XVIKUXQJHQ]XP'0$'9=\NOXVLQ$EVFKQLWWHUOlXWHUW 1HEHQ GHQ &74V VLQG LQ HLQHU JHJHQOlXILJ JHULFKWHWHQ $QDO\VH GLH wesentlichen Anforderungen des Unternehmens&%5V±&ULWLFDOWR%XVLQHVV5HTXLUHPHQWV EHL GHU 3UR]HVVSODQXQJ ]X EHUFNVLFKWLJHQ YJO ,VODP 6 'LH NULWLVFKHQ 3UR]HVVPHUNPDOH &73V ± &ULWLFDO WR 3URFHVV &KDUDFWHULVWLFV ZHUGHQ DXV GHU Ä6WLPPHGHV8QWHUQHKPHQV³92%±9RLFHRIWKH%XVLQHVV JHZRQQHQ'LH2XW SXW,QGLNDWRUHQ &74V XQG &73V VWLPPHQ JHQDX GDQQ EHUHLQ ZHQQ GDV 8QWHU QHKPHQHLQHKRKH.XQGHQXQG3UR]HVVRULHQWLHUXQJEHVLW]W,QGLHVHP)DOOVWHKHQ 0DUNWXQG5HVVRXUFHQRULHQWLHUXQJLQHLQHPDXVJHZRJHQHQ9HUKlOWQLVYJO7|S IHU D 6 I %HL HLQHP SULPlU PDUNWRULHQWLHUWHQ $QVDW]ZHUGHQ GLH &73V YRQGHQ&74VGRPLQLHUWGKGLHXQWHUQHKPHQVEH]RJHQHQ$QIRUGHUXQJHQVWHKHQ EHLGHU3ODQXQJGHU:HUWVFK|SIXQJVSUR]HVVHLP+LQWHUJUXQG,PDQGHUHQ)DOOEHL HLQHPUHVVRXUFHQRULHQWLHUWHQ$QVDW]VLQGGLH&73VGLHHQWVFKHLGHQGHQ0HVVXQG 6WHXHUXQJVJU|HQ]%'XUFKODXI]HLWLQGHU0RQWDJH 'LH (UIOOXQJ GHU &74V ELOGHW DXV PDUNWRULHQWLHUWHU 6LFKW GLH *UXQGODJH IU GHQ 8QWHUQHKPHQVHUIROJ 'DEHL ZLUG GHU =XVDPPHQKDQJ ]ZLVFKHQ GHU(UIOOXQJYRQ .XQGHQDQIRUGHUXQJHQ XQG GHP ILQDQ]LHOOHQ (UIROJ YRQ 8QWHUQHKPHQ L$ EHU GDVK\SRWKHWLVFKHKonstrukt der KundenzufriedenheitKHUJHVWHOOW'DV.RQVWUXNW JHK|UW ]X GHQ EHGHXWHQGVWHQ XQWHUQHKPHULVFKHQ =LHOJU|HQ XQG JLOW QLFKW QXU LP 4XDOLWlWVPDQDJHPHQWDOV6FKOVVHOIDNWRUIUGHQ8QWHUQHKPHQVHUIROJYJO7|SIHU 6II%UXKQ+RPEXUJ6 6RLVWHLQHKRKH.XQGHQ]XIULHGHQ KHLW DXV KHXWLJHU 6LFKW GLH %DVLV IU HLQH ODQJIULVWLJH .XQGHQELQGXQJ DXV GHU ± PLWWHOEDU RGHU XQPLWWHOEDU ± SRVLWLYH |NRQRPLVFKH :LUNXQJHQ UHVXOWLHUHQ ]% 8PVDW]XQG*HZLQQVWHLJHUXQJHQGXUFK&URVV6HOOLQJ$NWLYLWlWHQ PRGHOOLHUHQ XQG ]X SURJQRVWL]LHUHQ *UXQGODJH GHU :LVVHQVFKDIW ELOGHQ YHUVFKLHGHQH 7KHRULHQ]%6\VWHPXQG5HJHOXQJVWKHRULHYJO.HVWOHU6 ,Q GHU SUDNWLVFKHQ 6L[ 6LJPD3URMHNWDUEHLW ZLUG KlXILJ QLFKW H[SOL]LW ]ZLVFKHQ &&5V XQG &74V XQWHUVFKLHGHQ ,P 0LWWHOSXQNW VWHKW KLHU GLH $QDO\VH GHU &74V JHPl GHU 3KLORVRSKLHÄ$OOHVZDVGHP.XQGHQZLFKWLJLVWLVWTXDOLWlWVUHOHYDQW³ 'LH $XIPHUNVDPNHLW GLH GHP 7KHPD Ä.XQGHQ]XIULHGHQKHLW³ XQG VHLQHU .RQ]HSWXDOL VLHUXQJJHZLGPHWZLUGLVWQDFKZLHYRUJUR'LHVOlVVWVLFKXDDQGHU9LHO]DKOYRQ ZLVVHQVFKDIWOLFKHQ $XIVlW]HQ HUNHQQHQ YJO .UDIIW 6 I *OHLFK]HLWLJ EH NHQQHQ VLFK LQ GHU 3UD[LV LPPHU PHKU 8QWHUQHKPHQ ]X ÄXQHLQJHVFKUlQNWHU .XQGHQ RULHQWLHUXQJ³XPGHQ]XNQIWLJHQ0DUNWHUIROJVLFKHU]XVWHOOHQ
9RUJHKHQVPRGHOOHIU,QQRYDWLRQHQXQG1XOO)HKOHU4XDOLWlW
6HLW(QGHGHUHU-DKUHZLUGLQGHU%HWULHEVZLUWVFKDIWVOHKUHXPGDVNRQ]HSWL RQHOOH9HUVWlQGQLVYRQ.XQGHQ]XIULHGHQKHLWXQGELQGXQJJHUXQJHQ(VH[LVWLHUHQ GHVKDOE HLQH 5HLKH YRQ ]7 NRQNXUULHUHQGHQ (UNOlUXQJVNRQ]HSWHQ $XI DEVWUDN WHP1LYHDXKDQGHOWHVVLFKEHL.XQGHQ]XIULHGHQKHLW±DOV9RUDXVVHW]XQJIU.XQ GHQELQGXQJ±XPGDV(UJHEQLVHLQHUH[SRVW%HXUWHLOXQJGHV.XQGHQZHOFKHDXI ]XYRU JHZRQQHQHQ (UIDKUXQJHQ EHUXKW 'K HV ZLUG HLQ YRUKHULJHV NRQNUHW HU IDKUHQHV .RQVXPHUOHEQLV YRUDXVJHVHW]W (LQLJNHLW EHVWHKW LQVRZHLW GDULQ GDVV =XIULHGHQKHLW DXV HLQHP LQGLYLGXHOOHQ 9HUJOHLFK YRQ 6ROO XQG ,VW:HUWHQ KHU YRUJHKWYJO+DQVHQ(PPHULFK6 1 Planung (Plan)
4 Verbesserung (Act)
Wesentliche Kundenanforderungen
Qualitätsplanung Definition der CTQs
2 Umsetzung (Do) Einsatz = Input Messfehler
Steuergrößen im Prozess
Produktrealisierung/ Prozessmanagement
Ergebnis
Prozess
= Output Messfehler
Interne/ externe Störgrößen
3 Kontrolle (Check)
Effizienz Output-InputVergleich
- Intern -
Single Loop
Wertsteigernde Leistung
Wertneutrale Wertmindernde Leistung Leistung
Output > Input
Output = Input Output < Input
Wertschöpfung
ProzessVerbesserung - DMAIC -
Feedforward
Wertvernichtung
Feedback an 2
Erwartetes Ergebnis = Soll-Leistung
- Extern -
Wahrgenommenes Ergebnis = Ist-Leistung
Effektivität Soll-IstVergleich
Positive Disconfirmation Confirmation Ist = Soll Ist > Soll Zufriedenheit
ProduktVerbesserung - DMADV Double Loop
Negative Disconfirmation Ist < Soll Unzufriedenheit
Feedforward
Feedback an 1 Quelle: Eigene Darstellung
$EE4XDOLWlWVPDQDJHPHQWDOVN\EHUQHWLVFKHU3UR]HVV
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
(LQH TXDOLWDWLYH $XVVDJH ZLH GHU Erfüllungsgrad von Kundenanforderungen DXI GLH+|KHGHU.XQGHQ]XIULHGHQKHLWZLUNWLVWPLWKLOIHGHV.DQR0RGHOOVGHU.XQ GHQ]XIULHGHQKHLW P|JOLFK YJO %HUJHU HW DO 6 II (V VWHOOW HLQH GLUHNWH 9HUELQGXQJ ]ZLVFKHQ .XQGHQDQIRUGHUXQJHQ XQG .XQGHQ]XIULHGHQKHLW KHU XQG GLIIHUHQ]LHUW GDEHL ]ZLVFKHQ GUHL $UWHQ YRQ $QIRUGHUXQJHQ GLH YRQ HLQHP 3UR GXNWHLQHU'LHQVWOHLVWXQJHUIOOWZHUGHQPVVHQ •
Basisanforderungen: VWHOOHQ HLQH $UW Ä.R.ULWHULXP³ IU GDV HLJHQH 3UR GXNWGLHHLJHQH'LHQVWOHLVWXQJGDU:HQQVLHQLFKWRGHUQXUXQ]XUHLFKHQGHU IOOWVLQGlXHUWVLFKGLHVLQHLQHUKRKHQ8Q]XIULHGHQKHLWGHV.XQGHQ
•
Leistungsanforderungen: IKUHQ EHL (UK|KXQJ ]X HLQHP SURSRUWLRQDOHQ $Q VWLHJGHU.XQGHQ]XIULHGHQKHLWGKHLQHEHVVHUH(UIOOXQJGLHVHU$QIRUGHUXQ JHQVWHLJHUW±LQOLQHDUHU$EKlQJLJNHLW±GLH.XQGHQ]XIULHGHQKHLW
•
Begeisterungsanforderungen:ZHUGHQYRP.XQGHQZHGHUHUZDUWHWQRFKVLQG VLH YRQ LKP H[SOL]LW IRUPXOLHUW 0LW ]XQHKPHQGHU (UIOOXQJ GHU$QIRUGHUXQ JHQVWHLJWGDV1LYHDXGHU.XQGHQ]XIULHGHQKHLWH[SRQHQWLHOODQ
/HJHQ ZLU GDV .DQR0RGHOO GHU .XQGHQ]XIULHGHQKHLW EHL GHU ZHLWHUHQ %HWUDFK WXQJ ]XJUXQGH GDQQ HUJHEHQ VLFK KLHUDXV HLQH 5HLKH YRQ Konsequenzen für die Spezifikation von (neuen) Produkten/ Dienstleistungen GXUFK HLQ 8QWHUQHKPHQ YJO6DXHUZHLQHWDO6I =XQHQQHQVLQGXDD 9HUVWHKHQ.ODVVLIL ]LHUHQ GHU 3URGXNWDQIRUGHUXQJHQ E )HVWOHJHQ YRQ 3ULRULWlWHQ LQ GHU (QWZLFN OXQJ F .RPELQDWLRQ PLW 4)' XP ]% GLH .XQGHQDQIRUGHUXQJHQ LP +RXVH RI 4XDOLW\ +R4 EHVVHU ]X JHZLFKWHQ G 8PJHKHQ PLW 7UDGHRII6LWXDWLRQHQ ZHQQ ]% WHFKQLVFKH .RQIOLNWH ]ZLVFKHQ ]ZHL RGHU PHKU 3DUDPHWHUQ LP +R4 DXIWUHWHQ H 6HJPHQWLHUHQ YRQ .XQGHQ =LHOJUXSSHQ XQG I *HQHULHUHQ YRQ :HWWEHZHUEVYRUWHLOHQ LQGHP VLFK GLH (QWZLFNOXQJ ]% DXI GLH (UIOOXQJ YRQ /HLVWXQJVXQG%HJHLVWHUXQJVDQIRUGHUXQJHQNRQ]HQWULHUW (2) Umsetzung -HGHV 3URGXNW GDV YRQ HLQHP ,QGLYLGXXP RGHU HLQHU 2UJDQLVDWLRQ NRQVXPLHUW ZLUG LVW GDV (UJHEQLV HLQHU :HUWVFK|SIXQJV 9HUVRUJXQJVNHWWH YJO 7|SIHU D63RUWHU6 'LHVHNDQQVLFKDOV6HULHPHKUHUHU]XVDPPHQ KlQJHQGHU *HVFKlIWVSUR]HVVH EHU PHKUHUH 8QWHUQHKPHQ HUVWUHFNHQ /HW]WHUH VWHKHQ DOV 2EHUEHJULII IU DOOH ZLUWVFKDIWOLFKHQ XQG WHFKQLVFKHQ 3UR]HVVH GLH KLHUDUFKLVFKH2UGQXQJELOGHQ+DXSWSUR]HVVH7HLOSUR]HVVHXQG7lWLJNHLWHQ$NWL YLWlWHQ YJO /LQJVFKHLG 6 :lKUHQG LQ GHU 9HUJDQJHQKHLW YRU DOOHP GLH,GHQWLIL]LHUXQJYRQ3UR]HVVHQ3URFHVV0DSSLQJ LP9RUGHUJUXQGVWDQGNRQ ]HQWULHUHQ VLFK IRUWVFKULWWOLFKH 8QWHUQHKPHQ PLW HLQHP 4XDOLWlWVDQVSUXFK YRQ σ XQGK|KHUDXIGLHAnalyse und Verbesserung ihrer Prozesse'DEHLLVWHLQ3UR]HVV HLQH $NWLYLWlW RGHU HLQH 5HLKH YRQ $NWLYLWlWHQGLHIUHLQHQEHVWLPPWHQ.XQGHQ DXIZLHGHUKROEDUH:HLVH(LQVDW]IDNWRUHQ]X3URGXNWHQYHUZDQGHOW $XVGLHVHU'HILQLWLRQIROJWXQPLWWHOEDUGHUVWDWLVWLVFKH$QVDW]YRQ6L[6LJPDYJO $EVFKQLWW 'DQDFKLVWHLQ3UR]HVVLPPHULP+LQEOLFNDXIGLH/DJH0LWWHO
9RUJHKHQVPRGHOOHIU,QQRYDWLRQHQXQG1XOO)HKOHU4XDOLWlW
ZHUW XQG6WUHXXQJ9DULDQ] VHLQHU3UR]HVVPHUNPDOH&73V ]XXQWHUVXFKHQXQG JJI]XYHUEHVVHUQ'HUOutput von ProzessenVLQG3URGXNWHXQWHUGLH±QDFKGHP JHQHULVFKHQ 3URGXNWEHJULII ± GHU JHVDPWH GHP .XQGHQYRP8QWHUQHKPHQDQJH ERWHQH 1XW]HQ LQ )RUP YRQ 'LHQVW XQG RGHU 6DFKOHLVWXQJHQ VXEVXPLHUW ZLUG 'HU3URGXNWQXW]HQLVWXPVRK|KHUMHVWlUNHUGLHDXVGHQ(LJHQVFKDIWHQGHV3UR GXNWHV UHVXOWLHUHQGH %HGUIQLVEHIULHGLJXQJ GHV .XQGHQ LVW YJO .RWOHU %OLHPHO 6 (LQVDW] ,QSXWIDNWRUHQ VLQG LP *UXQGH JHQRPPHQ DOOH )DNWRUHQ E]Z *U|HQ GLH ]XU 3URGXNWUHDOLVLHUXQJ EHLWUDJHQ LQVE $UEHLW 0DWHULDO 0D VFKLQHQXQG,QIRUPDWLRQHQ,P+LQEOLFNDXILKUH3ODQXQG6WHXHUEDUNHLWOlVVWVLFK IROJHQGH8QWHUVFKHLGXQJWUHIIHQYJO0DJQXVVRQHWDO6 •
Steuergrößen N|QQHQ SK\VLVFK JHVWHXHUW GK DXI HLQHQ EHVWLPPWHQ :HUW HLQJHVWHOOWXQGJHKDOWHQZHUGHQ6LJQDO 'LH(LQVWHOOXQJGHU6WHXHUJU|HQLVW VRYRU]XQHKPHQGDVVGDV5DXVFKHQPLQLPLHUWZLUG
•
Störgrößen VLQG KLQJHJHQ XQNRQWUROOLHUEDU XQGIROJOLFKDXFKQLFKWVWHXHUEDU VLH YHUXUVDFKHQ GDV *UXQGUDXVFKHQ LP 3UR]HVV 1RLVH XQG VROOWHQ LP 5DK PHQYRQ3UR]HVVRSWLPLHUXQJHQP|JOLFKVWDXVJHVFKDOWHQZHUGHQ
*UXQGODJHIU3UR]HVVYHUEHVVHUXQJHQLVWGDV0HVVHQXQGAnalysieren von funktionellen ZusammenhängenGHU)RUP\ I[ HZREHL\GLH(UJHEQLVYDULDEOHQ 0HUNPDO HLQHV 3UR]HVVHV RGHU 3URGXNWHV [ GLH 6WHXHUJU|HQ XQG H GLH 6W|U JU|HQ VLQG %HL PHKUHUHQ [ JLOW HV ]XQlFKVW GLH 6WHXHUJU|HQ ]X ILQGHQ GLH VLJQLILNDQW VLQG XQG ]X YHUEHVVHUWHQ :HUWHQ GHU (UJHEQLVYDULDEOH \ IKUHQ 'LH $Q]DKO YRQ (LQIOXVVIDNWRUHQ GHUHQ RSWLPDOH :HUWH ]X EHVWLPPHQ VLQG LVW LG5 VHKU JUR =XGHP LVW LKU (LQIOXVV DXI GLH 3URGXNW 3UR]HVVTXDOLWlW KlXILJ QLFKW OLQHDU ZDV GLH 2IIHQOHJXQJ GHU IXQNWLRQHOOHQ =XVDPPHQKlQJH HUVFKZHUW 'DU EHU KLQDXV ZLUNHQ GLH 3DUDPHWHU PHLVW QLFKW XQDEKlQJLJ YRQHLQDQGHU GK VLH EHILQGHQVLFKLQHLQHP=XVWDQGJHJHQVHLWLJHU:HFKVHOZLUNXQJ )U HLQH *HVDPWEHZHUWXQJ GHU $XVZLUNXQJHQ DOOHU 3DUDPHWHU 3DUDPHWHUNRPEL QDWLRQHQ DXI GLH 3URGXNW 3UR]HVVSHUIRUPDQFH ZLUG KlXILJ DXI GDV ,QVWUXPHQW 'HVLJQ RI ([SHULPHQWV '2( ]XUFNJHJULIIHQ YJO XD 7|SIHU *QWKHU E 6II%UH\IRJOH6II 'LH$QZHQGXQJYRQ'2(]XU9HUULQJHUXQJ GHU3UR]HVVVWUHXXQJJHKWLQHUVWHU/LQLHDXI7DJXFKL ]XUFN'LHVHVEH]LHKW VLFK VRZRKO DXI GDV 3URGXNW DOV DXFK GDV 3UR]HVVGHVLJQ PLWGHQIROJHQGHQGUHL DXIHLQDQGHU DXIEDXHQGHQ 6WXIHQ D 6\VWHPGHVLJQ E 3DUDPHWHUGHVLJQ XQG F 7ROHUDQ]GHVLJQ ,P $OOJHPHLQHQ KDW GDV Parameterdesign GHQ JU|WHQ (LQIOXVV DXI GLH 9HUEHVVHUXQJ GHU 3URGXNW XQG 3UR]HVVTXDOLWlW ,P 5DKPHQ YRQ 6L[6LJ PD3URMHNWHQ ZLUG GHPHQWVSUHFKHQG YHUVXFKW HLQ RSWLPDOHV 1LYHDX IU GLH NRQ WUROOLHUEDUHQ3UR]HVVSDUDPHWHULQGHU3URGXNWLRQ]XEHVWLPPHQ $XIJUXQGGHU9DULDWLRQGHU(LQVDW]IDNWRUHQNRPPWHVEHLZLHGHUKROWHU'XUFKIK UXQJYRQ3UR]HVVHQ]XU9DULDWLRQLP(UJHEQLVE]Z2XWSXW,Q$QOHKQXQJDQGLH 1DFKULFKWHQWHFKQLNEHVWHKWGLH$QIRUGHUXQJGDULQGDV9HUKlOWQLVYRQ6LJQDO6 ]X 5DXVFKOHLVWXQJ 1 ]X PD[LPLHUHQ 'HU S/N-Wert LVW GDEHL HLQ 0D IU GLH 5REXVWKHLWGHV3UR]HVVHVXQGOlVVWVLFKDOVGDV9HUKlOWQLVYRP(IIHNWGHVHUZQ
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
VFKWHQ(UJHEQLVVHV 6LJQDO ]XP(IIHNWGHVXQHUZQVFKWHQ(UJHEQLVVHV 5DX VFKHQ HUNOlUHQ-HJU|HUGHU:HUWLVWGHVWRXQHPSILQGOLFKHUE]ZUREXVWHULVW GDV 6\VWHP GHU 3UR]HVV JHJHQEHU HLQHU 6W|UJU|H 'LH hEHUVHW]XQJ LQ VWDWLVWL VFKH 0D]DKOHQ HUIROJW LQ GHU :HLVH GDVV GLH 6LJQDOOHLVWXQJ DXI GHQ 0LWWHOZHUW ]XUFNJHIKUW ZLUG GD HU GHQ =LHOZHUW XQG GDPLW GDV HUZQVFKWH (UJHEQLV HLQHV 3UR]HVVHV GDUVWHOOHQ VROO +LQJHJHQ LVW GLH 6WUHXXQJ GHU 0HUNPDOVZHUWH XP GHQ GHILQLHUWHQ0LWWHOZHUWXQHUZQVFKWXQGZLUGGHPHQWVSUHFKHQGDOV5DXVFKHIIHNW ZHOFKHUGXUFK6W|UJU|HQKHUYRUJHUXIHQZLUGLQWHUSUHWLHUW *HQHUHOO LVW ]X EHGHQNHQ GDVV GLH JHPHVVHQHQ :HUWH IU ,QSXW 3UR]HVV XQG 2XWSXWPHUNPDOHLPPHUYDULLHUHQ$XIJUXQGGHVREHQDQJHVSURFKHQHQ3KlQRPHQV GHU 3UR]HVVYDULDWLRQ LVW HV XQP|JOLFK EHL ZLHGHUKROWHP 3UR]HVVGXUFKODXI ]ZHL RGHUPHKULGHQWLVFKH3URGXNWH]XHUKDOWHQ-HQDFKGHPZLHJHQDXGDV0HVVV\V WHP HLQJHVWHOOW LVW NDQQ GLH 9DULDWLRQ DP 3UR]HVVRXWSXW VLFKWEDU JHPDFKW XQG PLWKLOIH YRQ JHHLJQHWHQ 9HUWHLOXQJHQ VWDWLVWLVFK DQDO\VLHUW ZHUGHQ 'DEHL JLEW HV HLQH9LHO]DKOYRQ8UVDFKHQGLHIUGLH9DULDWLRQGHU0HUNPDOHLQIUDJHNRPPHQ %HL QRUPDOYHUWHLOWHQ 9DULDEOHQ XQWHUVFKHLGHW PDQ ]ZLVFKHQ GHQ IROJHQGHQ ]ZHL 8UVDFKHQNODVVHQYJO0DJQXVVRQHWDO6 •
Allgemeine Ursachen IKUHQ ]X 9DULDWLRQ GLH LQ MHGHP 3UR]HVV ÄQDWXUJHJH EHQ³ ]X ILQGHQ LVW XQG VLFK QXU GXUFK WLHIJUHLIHQGH 3UR]HVV XQG RGHU 3UR GXNWGHVLJQlQGHUXQJHQEHVHLWLJHQOlVVW8PGLHVH$UWGHU9DULDWLRQ]XNQIWLJ ]X YHUPHLGHQ PVVHQ bQGHUXQJHQ DP JHVDPWHQ 6\VWHP ]% LQ )RUP YRQ '0$'93URMHNWHQYRUJHQRPPHQZHUGHQ'RXEOH/RRS
•
Spezielle Ursachen IKUHQ KLQJHJHQ ]X 9DULDWLRQ GLH LQ ]HLWOLFKHU +LQVLFKW XQYRUKHUVHKEDU XQG LP +LQEOLFN DXI LKUH :LUNXQJ UHODWLY JUR LVW 'D]X JH K|UHQ ]% 4XDOLWlWVXQWHUVFKLHGH EHL 0DWHULDO YRQ YHUVFKLHGHQHQ /LHIHUDQWHQ XQG8QWHUVFKLHGHLQGHU3URGXNWLRQVDXVVWDWWXQJEHLPHKUHUHQ6WDQGRUWHQ'LH 6WUHXXQJGLHDXVVSH]LHOOHQ8UVDFKHQUHVXOWLHUWNDQQGXUFKSUR]HVVEH]RJHQH 9HUEHVVHUXQJHQ]%'0$,&3URMHNWHUHGX]LHUWZHUGHQ6LQJOH/RRS
1HEHQGHP6LJQDO5DXVFK9HUKlOWQLVZLUGPLWKLOIHGHUStatistischen Prozessregelung 63& GLH /DJH XQG 6WUHXXQJ GHU HLQ]HOQHQ 6WHXHUJU|HQ EHUZDFKW 'DEHL ZLUGGDYRQDXVJHJDQJHQGDVVMHGHV3UR]HVVPHUNPDOHLQHUEHVWLPPWHQ9HUWHLOXQJ XQWHUOLHJW2EZRKOQDFKZHLVOLFKDOOHUJHPHVVHQHQ*U|HQHLQHU0LVFKYHUWHL OXQJIROJHQZLUGLQGHU8QWHUQHKPHQVSUD[LVKlXILJGLH$QQDKPHGHU1RUPDOYHU WHLOXQJ JHWURIIHQ YJO .DLVHU 1RZDFN 6 II 8QWHU GLHVHU 9RUDXVVHW ]XQJ NDQQ GLH 9DULDWLRQGHU3UR]HVVHEHUVRJProzessfähigkeitsindizes EHXUWHLOW
'LH%HUHFKQXQJGHV61:HUWHVHUIROJWDXIGHU*UXQGODJHGHVORJDULWKPLHUWHQ6LJQDO 5DXVFK9HUKlOWQLVVHV'LH/RJDULWKPXVIXQNWLRQKDW]XP9RUWHLOGDVVGLHPXOWLSOLNDWL YHQ bQGHUXQJHQ GHV 0LWWHOZHUW6WUHXXQJV9HUKlOWQLVVHV LQ DGGLWLYH bQGHUXQJHQ NRQ YHUWLHUEDUVLQGYJO5HKEHKQ<XUGDNXO6 'LHVKDW]XU)ROJHGDVVGLH(I IHNWHYRQ6WHXHU6W|UJU|HQPLWKLOIHHLQHVDGGLWLYHQ0RGHOOVEHVFKUHLEEDUVLQG *UDYLHUHQGHV 5DXVFKHQ ZLUG XD GXUFK HLQ XQJHQDXHV GK QLFKW NDOLEULHUWHV 0HVV V\VWHPKHUYRUJHUXIHQVLHKHKLHU]X$EVFKQLWW
9RUJHKHQVPRGHOOHIU,QQRYDWLRQHQXQG1XOO)HKOHU4XDOLWlW
ZHUGHQ0LWGHP6WUHXXQJVLQGH[&SZLUGGLH6WUHXXQJσHLQHV3UR]HVVHVEH]RJHQ DXIGHQYRUJHJHEHQHQ7ROHUDQ]EHUHLFKJHPHVVHQ/HW]WHUHEH]HLFKQHWGHQ%HUHLFK ]ZLVFKHQ REHUHU XQG XQWHUHU 6SH]LILNDWLRQVJUHQ]H 0LW GHP /DJHLQGH[ &SN ZLUG QHEHQ GHU 6WUHXXQJ DXFK GLH /DJH μ GHV 0LWWHOZHUWHVGHU9HUWHLOXQJEHUFNVLFK WLJW 'HU &SN,QGH[ UHDJLHUW DXI HLQH 9HUVFKLHEXQJ GHU PLWWOHUHQ /DJH GHU0HVV ZHUWHJHJHQEHUGHPH[WHUQYRUJHJHEHQHQ=LHOZHUW 'LH)HVWOHJXQJGHU=LHOZHUWHIUGLHHLQ]HOQHQ,QSXW3UR]HVVPHVVJU|HQHUIROJW LP =XJH GHU 4XDOLWlWVSODQXQJ :LH HLQJDQJV EHVFKULHEHQ ZXUGH ZHUGHQ DXVJH KHQG YRQ GHQ ZHVHQWOLFKHQ .XQGHQDQIRUGHUXQJHQ ]XQlFKVW GLH NULWLVFKHQ 3UR GXNWPHUNPDOH &74V XQG DQVFKOLHHQG GLH NULWLVFKHQ 3UR]HVVPHUNPDOH &73V GHILQLHUW 6LH ELOGHQ GLH *UXQGODJH IU GLH 6WHXHUXQJ GHU 8PVHW]XQJ VSULFK GHV Prozessmanagements während der Produktrealisierung 8P GLH 9DULDWLRQ GHU 0HUNPDOH EHVVHU EHXUWHLOHQ ]X N|QQHQZHUGHQYRU]XJVZHLVHVWHWLJH0HVVJU|HQ HUPLWWHOW]%'XUFKODXI]HLWHQ)UGLHVHODVVHQVLFK7ROHUDQ]EHUHLFKHDQJHEHQLQ GHQHQ VLFK GLH 0HUNPDOVZHUWH EHZHJHQ GUIHQ RKQH GDVV ± PLW HLQHU KRKHQ :DKUVFKHLQOLFKNHLW±GLH$QIRUGHUXQJHQGHU.XQGHQYHUOHW]WZHUGHQ 'LHVLFKDQVFKOLHHQGH3KDVHGHU.RQWUROOHEHUQLPPWGDQQHLQHUVHLWVGLH)XQNWL RQ GHV Feedbacks EHL GHP LQ HLQHU 5FNNRSSOXQJVVFKOHLIH HUNOlUW ZLUG RE GDV *HSODQWH HUUHLFKW ZXUGH ZHU HYHQWXHOO IU $EZHLFKXQJHQ YHUDQWZRUWOLFK LVW XQG ZLHGLH3ODQXQJYHUEHVVHUWZHUGHQNDQQ$QGHUHUVHLWVIKUWGLH3KDVHGHU.RQWURO OH]XHLQHPFeedforwardLQGHP0DQDKPHQHLQJHOHLWHWZHUGHQGLHGD]XIKUHQ GDVVGLHDQJHVWUHEWHQ3ODQZHUWH]XNQIWLJQRFK HUUHLFKWZHUGHQ (3) Kontrolle36 'LH 6WHXHUXQJ XQG .RQWUROOH EHWULHEOLFKHU $EOlXIH EDVLHUW DXI GHU 0HVVXQJ YRQ .HQQ]DKOHQGLHHLQH$XVVDJHEHUGLH(IIL]LHQ]XQG(IIHNWLYLWlWGHV3URGXNWUHD OLVLHUXQJVSUR]HVVHV HUODXEHQ Effizienz ELOGHW LPPHU GLH 9RUDXVVHW]XQJ IU (I IHNWLYLWlW GD GLH 2XWSXW,QSXW5HODWLRQ GLUHNW PLW GHP :LUWVFKDIWOLFKNHLWVSULQ]LS DOV JHQHUHOOHU +DQGOXQJVDQZHLVXQJ ]XP SODQYROOHQ 8PJDQJ PLW NQDSSHQ *WHUQ NRUUHVSRQGLHUWYJO7|SIHUD6 'DPLWLVWGLH(IIL]LHQ]HLQ0DIUGLH :HUWVFK|SIXQJ GLH LP 5DKPHQ GHV EHWULHEOLFKHQ /HLVWXQJVHUVWHOOXQJVSUR]HVVHV HU]LHOWZXUGH2EGLH:HUWVFK|SIXQJPLWGHQ(UZDUWXQJHQGHV.XQGHQDOVZLFKWL
1HEHQ &S XQG &SN JLEW HVHLQH5HLKHYRQZHLWHUHQ3UR]HVVIlKLJNHLWVLQGL]HVGLH]% ]XU%HXUWHLOXQJGHUNXU]IULVWLJHQXQGODQJIULVWLJHQ)lKLJNHLWYRQ3UR]HVVHQGLHQHQ)U HLQHDXVIKUOLFKH'DUVWHOOXQJVHLKLHUDXIGLHHLQVFKOlJLJH/LWHUDWXUYHUZLHVHQYJOXD %UH\IRJOH:D[HU.RRQV (LQLJH $XWRUHQ VSUHFKHQ DQVWHOOH YRQ .RQWUROOH DXFK YRQ 9HULILNDWLRQ E]Z 9HULIL NDWLRQVSODQXQJ YJO ]% YRQ 5HJLXV 6 II %HL OHW]WHUHP JHKW HV LQ HUVWHU /LQLH XP GLH 3ODQXQJ XQG GHQ $XIEDX YRQ $EQDKPHWHVWV XQG ]ZDULP$QVFKOXVVDQ GLH4XDOLWlWVSODQXQJXQGXPVHW]XQJLQGHU3URGXNWHQWZLFNOXQJ :lKUHQG GLH (IIL]LHQ] GLH Ä:LUWVFKDIWOLFKNHLW³ NHQQ]HLFKQHW VSLHJHOW GLH (IIHNWLYLWlW GLH Ä=LHOHUUHLFKXQJ³ EHWULHEVZLUWVFKDIWOLFKHU 3ODQXQJV XQG *HVWDOWXQJVPDQDKPHQ ZLGHUYJO7|SIHUD6
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
JHQ 6WDNHKROGHU EHUHLQVWLPPW NDQQ LQ HLQHP ]ZHLWHQ 6FKULWW PLW GHU ,VW6ROO 5HODWLRQ DOV $XVGUXFN GHU Effektivität EHUSUIW ZHUGHQ 0DQDJHPHQWZLVVHQ VFKDIWOHUZLH]%'UXFNHU 6 EHUVHW]HQ(IIL]LHQ]DXFKPLWÄ'LH'LQ JHULFKWLJWXQ³XQG(IIHNWLYLWlWPLWÄ'LHULFKWLJHQ'LQJHWXQ³ ,Q$EELVWGDV3UR]HVVVFKHPD]XU0HVVXQJGHU:LUWVFKDIWOLFKNHLW(IIL]LHQ] XQG =LHOHUUHLFKXQJ (IIHNWLYLWlW XQWHU GHP 3XQNW ZLHGHUJHJHEHQ $XI EHU JHRUGQHWHU (EHQH VWHOOW GLH (IIL]LHQ] HLQHQ ]HLWUDXPEH]RJHQHQ 9HUJOHLFK ]ZL VFKHQGHQJHSODQWHQXQGGXUFKJHIKUWHQ4XDOLWlWV 0DQDKPHQXQGGHQGDGXUFK HUUHLFKWHQ(UJHEQLVVHQGDU,Q8QWHUQHKPHQHQWVSULFKWGLHVGHPeinfachen Regelkreis E]ZGHUHLQIDFKHQ.RUUHNWXUVFKOHLIH6LQJOH/RRS PLWGHUGLH/HLVWXQJVIl KLJNHLW HLQHU HLQ]HOQHQ 2UJDQLVDWLRQVHLQKHLW UHVSHNWLYH GHV JHVDPWHQ 8QWHUQHK PHQV EHVWLPPWZLUGYJO7|SIHUD6 ,P*HJHQVDW]GD]XVWHOOWGLH(I IHNWLYLWlW HLQHQ ]HLWUDXPEH]RJHQHQ 9HUJOHLFK ]ZLVFKHQ GHQ DQJHVWUHEWHQ |NRQR PLVFKHQXQGRGHUDXHU|NRQRPLVFKHQ=LHOHQGHV8QWHUQHKPHQVXQGGHQWDWVlFK OLFK HUUHLFKWHQ (UJHEQLVVHQ GDU 'HU =LHOHUUHLFKXQJVJUDG ZLUG GDEHL EHU HLQHQ erweiterten RegelkreisJHPHVVHQXQGNRQWUROOLHUW'RXEOH/RRS $XV LQWHUQHU 3HUVSHNWLYH VWHKW DOVR GLH )UDJH LP 9RUGHUJUXQG ZLH ZLUWVFKDIWOLFK GLH/HLVWXQJVHUVWHOOXQJLP8QWHUQHKPHQHUIROJW'D]XVLQGLQHLQHPHUVWHQ6FKULWW GLHLP8QWHUQHKPHQDEODXIHQGHQ3UR]HVVHHQWVSUHFKHQGLKUHV/HLVWXQJVFKDUDNWHUV ]X NODVVLIL]LHUHQ 'LH OHLVWXQJVEH]RJHQH $EJUHQ]XQJ DXI +DXSWSUR]HVVHEHQH RULHQWLHUWVLFKL$DPUHDOLVLHUWHQ(UJHEQLV2XWSXW LP9HUKlOWQLV]XGHQIUGLH /HLVWXQJVHUEULQJXQJ EHQ|WLJWHQ 5HVVRXUFHQ ,QSXW 'DEHL N|QQHQ LP HUVWHQ 6FKULWWYLHU/HLVWXQJVDUWHQXQWHUVFKLHGHQZHUGHQYJO/HQWURGW6 •
Nutzleistung LPSOL]LHUW HLQHQ SRVLWLYHQ =XVDPPHQKDQJ ]ZLVFKHQ GHQ DQIDO OHQGHQ 6WFN .RVWHQ XQG GHP UHDOLVLHUWHQ 3URGXNWZHUW 'LH 6XPPH YRQ 1XW]OHLVWXQJHQ HUJLEW VLFK DXV GHU $EIROJH GHU IU GLH 3URGXNWUHDOLVLHUXQJ XQEHGLQJWHUIRUGHUOLFKHQ3UR]HVVHXQGEHWULHEOLFKHQ$EOlXIH
•
Stützleistung ÄNRVWHW³ GHQ (LQVDW] YRQ 5HVVRXUFHQ RKQH GDVV VLFK GHU :HUW GHV 3URGXNWHV YHUlQGHUW 'LHV EHGHXWHW GDVV HLQ .XQGH QLFKW EHUHLW LVW IU GHQ 5HVVRXUFHQYHUEUDXFK HLQHQ HQWVSUHFKHQG K|KHUHQ 3UHLV ]X ]DKOHQ )U GLH(UEULQJXQJYRQ1XW]OHLVWXQJVLQGVLHMHGRFK9RUDXVVHW]XQJ
•
Blindleistung JLOW DOVNRVWHQLQWHQVLYH8QYROONRPPHQKHLWLQQHUKDOEGHU:HUW VFK|SIXQJVNHWWHJHQDXVRZLHEHL6WW]OHLVWXQJHUK|KWVLFKGHU:HUWGHV3UR GXNWHV QLFKW =LHO LVW HV %OLQGOHLVWXQJ DOV XQJHSODQWH /HLVWXQJ YRQ )HUWL JXQJVSUR]HVVHQ]XYHUPHLGHQXPGDGXUFK.RVWHQHLQ]XVSDUHQ
•
Fehlleistung LVW GLH )ROJH YRQ QLFKW IlKLJHQ XQG RGHU QLFKW EHKHUUVFKWHQ 3UR]HVVHQ 1HEHQ GHQ .RVWHQHLQHUIHKOHUKDIWHQ3UR]HVVGXUFKIKUXQJHQWVWH KHQ:HUWPLQGHUXQJHQDP3URGXNW'HU.XQGHLVWQLFKWEHUHLWIUGLHHUVWHOOWH /HLVWXQJHLQHQ3UHLV]X]DKOHQYLHOPHKUIRUGHUWHUHLQHQ3UHLVQDFKODVV
(QWVSUHFKHQGGHU.XUYHQYHUOlXIHLP:HUW.RVWHQ'LDJUDPPODVVHQVLFKLQHLQHP ]ZHLWHQ 6FKULWW GUHL $UWHQ YRQ /HLVWXQJHQ GLIIHUHQ]LHUHQ YJO /XQDX 6
9RUJHKHQVPRGHOOHIU,QQRYDWLRQHQXQG1XOO)HKOHU4XDOLWlW
I Wertsteigernde, wertneutrale und wertmindernde Leistungen(UVWHUHVLQG GDV5HVXOWDWYRQ1XW]OHLVWXQJOHW]WHUHGDVYRQ)HKOOHLVWXQJ6WW]XQG%OLQGOHLV WXQJ IKUHQ ]X ZHUWQHXWUDOHQ /HLVWXQJHQ 'LHVH JHOWHQ XQWHU GHP *HVLFKWVSXQNW GHU *HZLQQHU]LHOXQJ DOV :HUWYHUQLFKWXQJ GD GHU LQ *HOGHLQKHLWHQ EHZHUWHWH 2XWSXW GHQ LQ *HOGHLQKHLWHQ EHZHUWHWHQ ,QSXW QLFKW EHUVWHLJW VSULFK HV ILQGHW NHLQH9HU]LQVXQJGHVHLQJHVHW]WHQ.DSLWDOVVWDWW $XVJHKHQG YRQ GLHVHU $QDO\VH JHODQJW PDQ ± LQ HLQHP GULWWHQ 6FKULWW ± ]X HLQHU dichotomen Bewertung von Effizienz$XV8QWHUQHKPHQVVLFKWLVWGHU3URGXNWUHDOL VLHUXQJVSUR]HVV HQWZHGHU ÄZHUWVFK|SIHQG³ RGHU ÄZHUWYHUQLFKWHQG³ %HL WertschöpfungEHVWHKWNHLQXQPLWWHOEDUHU+DQGOXQJVEHGDUI±HVZLUGHLQ)HHGEDFNDQ GLHEHWHLOLJWHQ:HUWVFK|SIXQJVEHUHLFKHJHJHEHQ/LHJWWertvernichtungYRUGDQQ VLQGEHUHLQH)HHGIRUZDUG6FKOHLIH3UR]HVVYHUEHVVHUXQJHQHLQ]XOHLWHQ hEHUGLH%HZHUWXQJGHU(IIL]LHQ]LVWQRFKNHLQH$XVVDJHEHUGLH/HLVWXQJVZLUN VDPNHLWGHV3UR]HVVHVGHU3URGXNWUHDOLVLHUXQJJHWURIIHQZRUGHQ'D]XLVWLQHLQHU H[WHUQHQ 3HUVSHNWLYH GHU )UDJH QDFK]XJHKHQ ZLH ]XIULHGHQ GHU .XQGH PLW GHU LKP DQJHERWHQHQ /HLVWXQJ LVW =XIULHGHQKHLWVNRQ]HSWH XQWHUVXFKHQ RE HLQ .RQ VXPHQW PLW GHQ 8QWHUQHKPHQVOHLVWXQJHQ ]XIULHGHQ LVW ZDV X8 VHLQH =XIULHGHQ KHLW PLW GHQ /HLVWXQJHQ GHV $QELHWHUVEHHLQWUlFKWLJWKDWXQGZLHVLFK.XQGHQ]X IULHGHQKHLW JHQHUHOO DXI GLH .XQGHQELQGXQJ ]XP 8QWHUQHKPHQ DXVZLUNHQ NDQQ YJO 7KHOHQ HW DO 6 *HQDX ZLH GLH RJ :HUWVFK|SIXQJ VWHOOW GLH .XQGHQ]XIULHGHQKHLWLP6LQQHGHU.\EHUQHWLNHLQH5HJHOJU|HGDU =XU.RQ]HSWXDOLVLHUXQJYRQ.XQGHQ]XIULHGHQKHLWVWHKHQHLQH5HLKHYRQ.RQ]HS WHQ PLW XQWHUVFKLHGOLFKHP $QDO\VHIRNXV ]XU $XVZDKO 6RZRKO LQ ZLVVHQVFKDIWOL FKHQ 8QWHUVXFKXQJHQ DOV DXFK EHL %HIUDJXQJHQ LQ GHU 8QWHUQHKPHQVSUD[LV ZLUG KlXILJ DXI GDV Confirmation/ Disconfirmation-Paradigma &'3DUDGLJPD ]X UFNJHJULIIHQYJOKLHU]XXD+RPEXUJHWDO6II&KXUFKLOO6XUSUH QDQW 6 II 'DV &'3DUDGLJPD EHUXKW DXI HLQHU WUDQVDNWLRQVVSH]LIL VFKHQ *HJHQEHUVWHOOXQJ GHU IDNWLVFKHQ (UIDKUXQJ HLQHV LQWHUQHQ H[WHUQHQ .XQ GHQ EHL GHU 1XW]XQJ HLQHV 3URGXNWV HLQHU 'LHQVWOHLVWXQJ ,VW/HLVWXQJ PLW HLQHP 9HUJOHLFKVVWDQGDUG 6ROO/HLVWXQJ /HW]WHUHU GHILQLHUW VLFK XD EHU LQGLYLGXHOOH (UZDUWXQJHQ :HUWH XQG ,GHDOH VRZLH 1RUPHQYRUVWHOOXQJHQ GHV .XQGHQ(VZHUGHQLQVJHVDPWGUHL)lOOHXQWHUVFKLHGHQVLHKHDXFK$EE •
Ist = Soll: (QWVSULFKW GLH HUOHEWH /HLVWXQJ H[DNW GHP 9HUJOHLFKVVWDQGDUG GDQQ VSULFKW PDQ YRQ &RQILUPDWLRQ ,Q GLHVHP )DOO VWHLJW GLH =XIULHGHQKHLW GHV.XQGHQGDDOOHVHLQH(UZDUWXQJHQYROOVWlQGLJHUIOOWZRUGHQVLQG
$OOHV LQ DOOHP WUDJHQ QXU UHODWLY ZHQLJH $NWLYLWlWHQ LP 8QWHUQHKPHQ ]XU :HUWVFK|S IXQJ EHL 1DFK 7RP\V 6 II VHW]W VLFK GLH *HVDPWOHLVWXQJ HLQHV 8QWHUQHK PHQV EOLFKHUZHLVH ZLH IROJW ]XVDPPHQ 1XW]OHLVWXQJ 6WW]OHLVWXQJ %OLQGOHLVWXQJ XQG)HKOOHLVWXQJ
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
•
Ist > Soll: :HQQ GLH ,VW/HLVWXQJ GLH 6ROO/HLVWXQJ EHUWULIIW GDQQ HUK|KW VLFK HEHQIDOOV GLH .XQGHQ]XIULHGHQKHLW 1DFK GHU WUDQVDNWLRQVVSH]LILVFKHQ .X=X0HVVXQJKDQGHOWHVVLFKKLHUXPHLQHSRVLWLYH'LVFRQILUPDWLRQ
•
Ist < Soll:,PHQWJHJHQJHVHW]WHQ)DOOZHQQDOVRGLH,VW/HLVWXQJJHULQJHUDOV GLH 6ROO/HLVWXQJ HLQJHVWXIW ZLUG OLHJW HLQH QHJDWLYH'LVFRQILUPDWLRQYRU-H K|KHUGLH$EZHLFKXQJLVWGHVWRJU|HULVWGLH.XQGHQXQ]XIULHGHQKHLW
$XV ZLUWVFKDIWOLFKHQ *HVLFKWVSXQNWHQ VWHOOW GLH Confirmation GK GLH 6LFKHUVWHO OXQJ GHU hEHUHLQVWLPPXQJ YRQ 6ROO XQG ,VW/HLVWXQJ GLH EHVWP|JOLFKH +DQG OXQJVDOWHUQDWLYH IU HLQ 8QWHUQHKPHQ GDU 'LH $EZHLFKXQJ QDFK XQWHQ GK GLH negative Disconfimation LVW LPPHU JOHLFK]XVHW]HQ PLW HLQHP $QVWLHJ GHU 8Q]X IULHGHQKHLW GHV .XQGHQ ZlKUHQG GLH $EZHLFKXQJ QDFK REHQ GK GLH positive Disconfirmation LPPHU ]X HLQHP $QVWLHJ GHU .XQGHQ]XIULHGHQKHLW IKUW 'DEHL YHUKLOIWGLHOHW]WJHQDQQWH6LWXDWLRQGHP8QWHUQHKPHQ±DXV(IIL]LHQ]VLFKW±QLFKW ]ZDQJVOlXILJ ]XP (UIROJ :LH YHUVFKLHGHQH HPSLULVFKH 6WXGLHQ EHOHJHQ EHGLQJW GLH HLQPDOLJH =XIULHGHQKHLW PLW GHU /HLVWXQJ HLQHV $QELHWHUV QLFKW DXWRPDWLVFK GLHODQJIULVWLJH%LQGXQJXQG/R\DOLWlWHLQHV.XQGHQ (4) Verbesserung ,Q GLHVHU 3KDVH JHKW HV GDUXP EHL IHVWJHVWHOOWHU :HUWYHUQLFKWXQJ DXIJUXQG PDQ JHOKDIWHU (IIL]LHQ] XQG RGHU EHL .XQGHQXQ]XIULHGHQKHLW DXIJUXQG PDQJHOQGHU (IIHNWLYLWlW 9HUEHVVHUXQJVPDQDKPHQ HLQ]XOHLWHQ ,VW GDV 3URGXNW SULQ]LSLHOO JHHLJQHW GLH ZHVHQWOLFKHQ .XQGHQDQIRUGHUXQJHQ EHGUIQLVVH ]X HUIOOHQ GDQQ EH]LHKHQVLFKGLH9HUEHVVHUXQJHQLG5DXIGLHEHWHLOLJWHQ:HUWVFK|SIXQJVEHUHL FKH XQG SUR]HVVH 'LH SUR]HVVEH]RJHQH 9HUEHVVHUXQJ ZLUG GDQQ LP 5DKPHQ HLQHV Single Loop UHDOLVLHUW VLHKH $EE ZREHL IU HLQHQ JHJHEHQHQ 2XWSXW GLH ZHVHQWOLFKHQ 3UR]HVV XQG ,QSXWPHVVJU|HQ LP +LQEOLFN DXI LKUH %HGHXWXQJ EHUSUIWXQGEHL%HGDUIQHXMXVWLHUWZHUGHQ =LHOLVWHVGLH6WHXHUJU|HQLP3UR]HVVVR]XYHUlQGHUQE]ZDQ]XSDVVHQGDVVGLH *UQGHIU:HUWYHUQLFKWXQJEHVHLWLJWZHUGHQXQGGLH2XWSXW,QSXW5HODWLRQHLQHQ SRVLWLYHQ :HUW DQQLPPW =X GLHVHP =ZHFN ZHUGHQ LQ 6L[ 6LJPD8QWHUQHKPHQ 9HUEHVVHUXQJVSURMHNWH HQWVSUHFKHQG GHV DMAIC-Zyklus GXUFKJHIKUW 9RUJHKHQ XQG0HWKRGHQHLQVDW]ZHUGHQLQ$EVFKQLWWGDUJHVWHOOW ,VW GLH Ä6WLPPH GHV .XQGHQ³ QLFKW ULFKWLJ HUIDVVW XQG QXU XQ]XUHLFKHQG LQ GLH Ä6SUDFKH GHV 3UR]HVVHV³ EHUIKUW ZRUGHQ LVW HLQH 5FNNRSSOXQJ ]XU 4XDOLWlWV SODQXQJ QRWZHQGLJ 'LH 9HUEHVVHUXQJVDNWLYLWlWHQ EHWUHIIHQ LQ GLHVHP )DOO QLFKW
+LHUVSUHFKHQ+RPEXUJHWDO6 YRQGHUÄ.XQGHQ]XIULHGHQKHLWVIDOOH³GLH VLFKGXUFKVWlQGLJVWHLJHQGH$QIRUGHUXQJHQ(UZDUWXQJHQGHV.XQGHQDQGDV3URGXNW GLH'LHQVWOHLVWXQJEHUGLH=HLWHUJLEW(VNRPPW]XHLQHUVRJ$QVSUXFKVLQIODWLRQGHU GDV8QWHUQHKPHQODQJIULVWLJQLFKWPHKUJHUHFKWZHUGHQNDQQGKGLHYROOVWlQGLJHXQG JOHLFK]HLWLJZLUWVFKDIWOLFKH(UIOOXQJGHU.XQGHQDQIRUGHUXQJHQLVWDEHLQHPEHVWLPP WHQ =HLWSXQNW QLFKW PHKU P|JOLFK ,Q GLHVHP )DOO VLHKW VLFK GDV 8QWHUQHKPHQ DEQHK PHQGHU.XQGHQ]XIULHGHQKHLWXQGVWHLJHQGHU.XQGHQIOXNWXDWLRQDXVJHVHW]W
9RUJHKHQVPRGHOOHIU,QQRYDWLRQHQXQG1XOO)HKOHU4XDOLWlW
QXU GLH 8PVHW]XQJV VRQGHUQ DXFK GLH 3ODQXQJVSKDVH 'DV /HLVWXQJVDQJHERW LVW LP +LQEOLFN DXI GLH 'HILQLWLRQ GHU NULWLVFKHQ 3URGXNW XQG 3UR]HVVPHUNPDOH QR FKPDOV]XEHUSUIHQXQG±EHLHUNDQQWHQ'HIL]LWHQ±DQ]XSDVVHQ ,P *HJHQVDW] ]X SUR]HVVEH]RJHQHQ 9HUEHVVHUXQJHQ PVVHQ LQ HLQHP Double Loop JJI GLH DQYLVLHUWH .XQGHQJUXSSH XQG GHUHQ ZHVHQWOLFKHQ $QIRUGHUXQJHQ QHXHUXLHUWZHUGHQ,QGHURSHUDWLYHQ4XDOLWlWVSODQXQJZHUGHQ±JHQDXVRZLHEHL GHU SUR]HVVEH]RJHQHQ 9HUEHVVHUXQJ ± HLQ]HOQH NODU DEJHJUHQ]WH 3URMHNWH GHIL QLHUW XP GLH IHVWJHVWHOOWHQ (QWZLFNOXQJVEHGDUIH EHVVHU ]X VSH]LIL]LHUHQ ,Q 6L[ 6LJPD8QWHUQHKPHQ ZLUG KlXILJ DXI GLH 0HWKRGLN GHV ')66 ]XUFNJHJULIIHQ 'HU DMADV-Zyklus GHU LQ GLHVHP =XVDPPHQKDQJ KlXILJ ]XP (LQVDW] NRPPW ZLUGLQ$EVFKQLWWDXVIKUOLFKHUOlXWHUWXQGDQDO\VLHUW
3.3
Konzeption und Inhalte der Six Sigma-Verbesserungszyklen
1DFK:$/7(5 0$6,1* ORKQHQVLFK,QYHVWLWLRQHQLQGLH9HUEHVVHUXQJYRQ 3URGXNWHQXQG3UR]HVVHQÄGDHVLQMHGHP)DOOZLUWVFKDIWOLFKHULVW)HKOHU]XYHU PHLGHQ VWDWW ]X EHVHLWLJHQ³ 'LHVH (UNHQQWQLV LVW QLFKW QHX XQG ZDU EHUHLWV ODQJH =HLW YRU 6L[ 6LJPD EHNDQQW ,P 5DKPHQ YRQ 740 ZXUGH GDV (UUHLFKHQ HLQHV P|JOLFKVW KRKHQ 4XDOLWlWVQLYHDXV LQ DOOHQ :HUWVFK|SIXQJVSUR]HVVHQ SURSDJLHUW 'HUSRVLWLYH=XVDPPHQKDQJ]ZLVFKHQ4XDOLWlWXQG*HZLQQZXUGHGDEHLDOVÄ1D WXUJHVHW]³ EHWUDFKWHW ,Q GHU )ROJH NDP HV ]X 6LWXDWLRQHQ LQ GHQHQ 4XDOLWlW QXU XP GHU 4XDOLWlW ZLOOHQ RGHU GHV 4XDOLWlWVYHUDQWZRUWOLFKHQ ZLOOHQ SUDNWL]LHUWZRU GHQLVWYJO7|SIHU6 2KQHGLHEHWULHEVZLUWVFKDIWOLFKHQ.RQVHTXHQ ]HQ YRQ 9HUEHVVHUXQJVDNWLYLWlWHQ LP (LQ]HOIDOO ]X EHUSUIHQ YHUORU 740 QDFK XQG QDFK VHLQHQ XPIDVVHQGHQ 4XDOLWlWVVWHXHUXQJVDQVSUXFK %HL 6L[ 6LJPD ZLUG GLHVH )HKOHQWZLFNOXQJ GDGXUFK YHUPLHGHQ GDVV IU MHGH 9HUEHVVHUXQJVDNWLYLWlW HLQH ILQDQ]LHOOH %HZHUWXQJ YRUJHVFKULHEHQ LVW GLH HLQH hEHUSUIXQJ GHU :LUW VFKDIWOLFKNHLWYRQ'0$,&'0$'93URMHNWHQHUODXEW 3.3.1
DMAIC-Zyklus zur Prozessoptimierung
,Q GLHVHP $EVFKQLWW ZHUGHQ GLH IQI 3KDVHQGHV'0$,&=\NOXVDOVVWUXNWXULHUWH 9RUJHKHQVZHLVH]XU%HDUEHLWXQJYRQ6L[6LJPD3URMHNWHQYRUJHVWHOOW'LHHLQ]HO QHQ 3KDVHQ EDXHQ ± LQKDOWOLFK XQG NRQ]HSWLRQHOO ± DXIHLQDQGHU DXI XQG ZHUGHQ GHVKDOELP5DKPHQGHU3URMHNWEHDUEHLWXQJQDFKHLQDQGHUGXUFKODXIHQ,Q$EE LVW GHU W\SLVFKH $EODXI GHV '0$,&=\NOXV ZLH HU LQ NRQNUHWHQ 6L[ 6LJPD 3URMHNWHQ ]XU $QZHQGXQJ NRPPW ZLHGHUJHJHEHQ $OV NRQVWLWXLHUHQGHV0HUNPDO VLQGGHQHLQ]HOQHQPhasenMHZHLOVGLHVorgehensschritteXQGMethoden ]XJHRUG QHW'LH$XVIKUXQJHQEDVLHUHQDXIHLJHQHQ3URMHNWHUIDKUXQJHQGHV$XWRUVVRZLH HLQVFKOlJLJHQ/LWHUDWXUTXHOOHQYJOXD6RERWWND*QWKHU*URHNDWWK|IHU 7|SIHU *QWKHU *DU]LQVN\ /XQDX HW DO +DUU\ 6FKURHGHU 0DJQXVVRQHWDO6HXIIHUOHLQ.DSV%HUJEDXHU
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
Define-Phase =X%HJLQQGHV6L[6LJPD3URMHNWHVLVWHLQHHLQGHXWLJH'HILQLWLRQGHV3URMHNWDXI WUDJV E]Z GLH Projektcharter QRWZHQGLJ 6LH XPIDVVW QHEHQ GHQ EOLFKHQ .HQQ ]HLFKQXQJHQXQG'DWHQHLQHV3URMHNWHVLQVEHVRQGHUH'HWDLOV]X •
Business Case/ Problemhintergrund ZHOFKHU GLH DNWXHOOH *HVFKlIWVVLWXDWLRQ EHVFKUHLEW XQG DQKDQG GHU .ULWHULHQ 4XDOLWlW =HLW XQG .RVWHQ KHUDXVVWHOOW ZDUXPGDV6L[6LJPD3URMHNWJHUDGHÄMHW]WXQGKLHU³QRWZHQGLJLVW
•
Probleme und Ziele/ Nutzen ZHOFKH GLH 3UREOHPDWLN GHWDLOOLHUHQ XQG GLH =LHOYRUVWHOOXQJ GHV &KDPSLRQV ± XQWHU $QJDEH GHV ]X HUUHLFKHQGHQ 6LJPD 1LYHDXVE]ZGHV]XUHDOLVLHUHQGHQ1HW%HQHILW±TXDQWLIL]LHUHQ
•
Projektumfang und Fokus/ RahmenZHOFKH]XPHLQHQGLH)UDJHEHDQWZRUWHW ZDV LP 0LWWHOSXQNW GHU 9HUEHVVHUXQJVDNWLYLWlWHQ VWHKHQ VROO XQG ]XP DQGH UHQZHOFKH9RUJlQJH]XP3URMHNWUDKPHQJHK|UHQXQGZHOFKHQLFKW
•
Rollen/ Verantwortlichkeiten und Meilensteine ZHOFKH GLH $UW XQG $Q]DKO QRWZHQGLJHU SHUVRQHOOHU XQG ILQDQ]LHOOHU 5HVVRXUFHQ DQJHEHQ GLH =XVDP PHQVWHOOXQJGHV3URMHNWWHDPVIHVWOHJHQVRZLHGLH3URMHNWGDXHUXQWHU$QJDEH YRQ6WDUW=ZLVFKHQXQG(QGWHUPLQHQGHWHUPLQLHUHQ
1DFKGHU'HILQLWLRQGHU3URMHNWFKDUWHUXQGGHPÄRIIL]LHOOHQ6WDUW³GHV6L[6LJPD 3URMHNWHVILQGHW]XQlFKVWHLQH(LQ$EJUHQ]XQJGHV]XDQDO\VLHUHQGHQ3UR]HVVHV DXIÄKRKHU(EHQH³VWDWW'D]XZLUGHLQHVRJSIPOC-AnalyseGXUFKJHIKUWEHLGHU GLH ,QSXW2XWSXW%H]LHKXQJHQ YRP /LHIHUDQWHQ ELV ]XP .XQGHQ SUl]LVLHUW ZHU GHQ )U GLH IQI ELV VLHEHQ ZLFKWLJVWHQ +DXSW 3UR]HVVVFKULWWH 3 ± 3URFHVVHV ZHUGHQ GLH,QSXWV, XQG2XWSXWV2 ]XVDPPHQPLWGHQZHVHQWOLFKHQ/LHIHUDQ WHQ6±6XSSOLHUV XQG.XQGHQ&±&XVWRPHUV DXIJHOLVWHW 'LH 6,32&$QDO\VH ELOGHW GLH *UXQGODJH IU GLH $EOHLWXQJ GHU HQWVFKHLGHQGHQ .XQGHQDQIRUGHUXQJHQ LP 5DKPHQ GHU VOC-CTQ-Analyse 6LH VWHOOW GLH HUVWH ]DKOHQRULHQWLHUWH 6\VWHPDWLN GHV '0$,&=\NOXV GDU $XVJHKHQG YRQ GHU ÄXQJH ILOWHUWHQ³ 6WLPPH GHV .XQGHQ 92& ± 9RLFH RI WKH &XVWRPHU ZHUGHQ EH]RJHQ DXI GHQ ]X YHUEHVVHUQGHQ :HUWVFK|SIXQJVSUR]HVV GLH ]HQWUDOHQ XQG PHVVEDUHQ .ULWHULHQ &74 ± &ULWLFDO WR 4XDOLW\ &KDUDFWHULVWLF DEJHOHLWHW 'LHV HUIROJW L$ EHU GLH (UPLWWOXQJ YRQ .HUQWKHPHQ GHQHQ DOOH 92&V LQ HLQHP HUVWHQ $QDO\VH VFKULWW]XJHRUGQHWZHUGHQ,P]ZHLWHQ6FKULWWVLQGGDUDXVGLH&74V]XVSH]LIL]LH UHQ GLH ]XJOHLFK GHQ $XVJDQJVSXQNW IU GLH (UPLWWOXQJ GHU 5HIHUHQ]OHLVWXQJ GHV DNWXHOOHQ3UR]HVVHVLQGHU0HDVXUH3KDVHELOGHQ $XIGHU%DVLVGHU3URMHNWFKDUWHUXQGGHU6,32&$QDO\VHVROOHQLP:HLWHUHQNXU] GLH ZHVHQWOLFKHQ 6FKULWWH ]XP (LQVWLHJ LQ GHQ 6L[ 6LJPD0HVV XQG $QDO\VHSUR ]HVV VNL]]LHUW ZHUGHQ 'DEHL NRPPHQ LQVEHVRQGHUH GLH ]DKOHQRULHQWLHUWH 9RUJH KHQVZHLVHXQG6WHXHUXQJGLHHLQGHXWLJH0HVVEDUNHLWDQMHGHU6WHOOHGHV3UR]HVVHV VRZLH GLH LQ VLFK JHVFKORVVHQH 6\VWHPDWLN XQG ORJLVFK DXIHLQDQGHUDEJHVWLPPWHQ 6FKULWWHLP5DKPHQGHV'0$,&=\NOXV]XP$XVGUXFN
.RQ]HSWLRQXQG,QKDOWHGHU6L[6LJPD9HUEHVVHUXQJV]\NOHQ
1HEHQHLQHUSUl]LVLHUWHQ3URMHNWODXI]HLWYRQELVPD[LPDO7DJHQNRQNUHWL VLHUWVLFKGLHVWULQJHQWH8PVHW]XQJYRQ6L[6LJPD3URMHNWHQLQHLQHUNODUHQ=LHO VWUXNWXUEHLGHUGLHILQDQ]LHOOHQ(UJHEQLVVHMHZHLOVLP9RUGHUJUXQGVWHKHQ'LH SURJQRVWL]LHUWHQ1HWWRHLQVSDUXQJHQ1HW%HQHILW GHV3URMHNWHVVLQGGLH*UXQGOD JH IU GLH Ä*R(QWVFKHLGXQJ³ GHV &KDPSLRQV ,Q GLH Net Benefit-Berechnung IOLHHQ GLH OLTXLGLWlWVZLUNVDPHQ .RVWHQHLQVSDUXQJHQ XQG RGHU 8PVDW]VWHLJHUXQ JHQHLQGLHLQQHUKDOEYRQ0RQDWHQQDFK3URMHNWHQGHJHQHULHUWZHUGHQN|QQHQ 'LHVHP PRQHWlUHQ 3URMHNWHUIROJ ZHUGHQ GLH .RVWHQ GHU 3URMHNWGXUFKIKUXQJ JHJHQEHUJHVWHOOW 2SSRUWXQLWlWVNRVWHQ XQG HUO|VH ]% DXIJUXQG YHUULQJHUWHU .XQGHQDEZDQGHUXQJILQGHQJHQHUHOONHLQH%HUFNVLFKWLJXQJ Measure-Phase 'DV YRUUDQJLJH =LHO YRQ 6L[ 6LJPD3URMHNWHQ EHVWHKW GDULQ GLH 8UVDFKHQ:LU NXQJVEH]LHKXQJHQ ]ZLVFKHQ ,QSXW ± 3URFHVV ± 2XWSXW DXI]XGHFNHQ XQG RSWLPDO HLQ]XVWHOOHQ 'HVKDOE LVW HV QRWZHQGLJ DXI GHU *UXQGODJH GHU HUPLWWHOWHQ &74V GLHHOHPHQWDUHQ2XWSXW3UR]HVVXQG,QSXWPHVVJU|HQDE]XOHLWHQ 0LWKLOIH GHU ]ZHLWHQ ]DKOHQRULHQWLHUWHQ 6\VWHPDWLN YRQ 6L[ 6LJPD GHU CTQOutputmessgrößen-Analyse ZHUGHQ ]X %HJLQQ GHU 0HDVXUH3KDVH GLH 2XWSXW PHVVJU|HQ GHV 3UR]HVVHV EHVWLPPW $Q LKQHQ ZLUG GLH 5HIHUHQ]OHLVWXQJ GHV DNWXHOOHQ 3UR]HVVHV DOVR GLH $XVJDQJVVLWXDWLRQ IU 9HUEHVVHUXQJVDNWLYLWlWHQ IHVWJHPDFKW 'LH %HVWLPPXQJ GHU 5HIHUHQ]OHLVWXQJ HUIRUGHUW LQ GHQ PHLVWHQ )lO OHQHLQHLQWHQVLYH'DWHQVDPPOXQJ$XIGHU%DVLVHLQHV'DWHQVDPPHOSODQVZHUGHQ VRZRKO IUGLH2XWSXWPHVVJU|HQDOVDXFKIUGLH3UR]HVVXQG,QSXWPHVVJU|HQ DQYHUVFKLHGHQHQ0HVVSXQNWHQGHV3UR]HVVHV'DWHQHUIDVVW :LFKWLJH 0HVVJU|HQ ]XU Bestimmung der Prozesseffektivität/ -effizienz VLQG XD GLH )HKOHUUDWH DOV 330 3DUWV SHU 0LOOLRQ XQG GLH )HKOHUTXRWH DOV '302 'H IHFWVSHU0LOOLRQ2SSRUWXQLWLHV IUGLVNUHWH0HUNPDOH,P8QWHUVFKLHG]XU330
'LH.RVWHQ1XW]HQ$QDO\VHYRQ4XDOLWlWVVLFKHUXQJVXQG4XDOLWlWVYHUEHVVHUXQJVPD QDKPHQ LVW HLQ ]HQWUDOHV 7KHPHQJHELHW GHU EHWULHEVZLUWVFKDIWOLFK DXVJHULFKWHWHQ )RU VFKXQJ ]XP 7KHPD Ä4XDOLWlWVPDQDJHPHQW³ 8QWHU GHP 6WLFKZRUW Ä:LUWVFKDIWOLFKNHLW GHV 4XDOLWlWVPDQDJHPHQWV³ VLQG LQ GHU 9HUJDQJHQKHLW HLQH 5HLKH YRQ 6FKULIWHQ YHU|IIHQWOLFKW ZRUGHQ GLH VLFK PLW GHP 7KHPD LQWHQVLY DXVHLQDQGHUVHW]HQ YJO XD 7|SIHU%UXKQ*HRUJL%UXKQ:LOGHPDQQ 'LH 9RUJHKHQVZHLVH ]XU %HVWLPPXQJ GHU .RVWHQ XQG GHV 1XW]HQV YRQ 6L[ 6LJPD 3URMHNWHQ EDVLHUW DXI GHP Wirkungsorientierten Kostenmodell 'LH JUXQGVlW]OLFKH $QQDKPHJHKWGDKLQGDVV]XU6WHLJHUXQJGHV4XDOLWlWVQLYHDXV,QYHVWLWLRQHQQRWZHQGLJ VLQG (V IDOOHQ DXI GHUHLQHQ6HLWHhEHUHLQVWLPPXQJVNRVWHQDQXPHLQHGHQ.XQGHQ DQIRUGHUXQJHQHQWVSUHFKHQGH3URGXNWTXDOLWlW]XHU]HXJHQ$XIGHUDQGHUHQ6HLWHZHU GHQGLH.RVWHQGLHDXIJUXQGYRQ$EZHLFKXQJHQHQWVWHKHQUHGX]LHUW/HW]WHUHVLQGGLH +DXSWTXHOOH IU GHQ DXV 4XDOLWlWVLQYHVWLWLRQHQ JHQHULHUWHQ PRQHWlUHQ 1XW]HQ 1HEHQ GHU5HGX]LHUXQJYRQ4XDOLWlWVNRVWHQVWHOOHQGLH6LFKHUXQJ]XNQIWLJHU(UO|VHVRZLHGLH 6FKDIIXQJYRQ3UR]HVV4XDOLWlWVIlKLJNHLWZLFKWLJHZLUNXQJVRULHQWLHUWH1XW]HQNDWHJR ULHQ GDU 'DPLW VLQG LQVJHVDPW GUHL 1XW]HQNDWHJRULHQ E]Z /HLVWXQJVGLPHQVLRQHQ LP =XVDPPHQKDQJPLWGHUSUlYHQWLYHQ4XDOLWlWVVLFKHUXQJXQWHUVFKHLGEDU
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
)RUPHOZHUGHQEHLGHU'302)RUPHOGLH)HKOHUP|JOLFKNHLWHQ2)'±2SSRUWX QLWLHVIRU'HIHFWV XQGGDPLWGLH.RPSOH[LWlWGHVEHWUDFKWHWHQ3UR]HVVHVEHUFN VLFKWLJW/lVVWVLFKGLH4XDOLWlWGHV2XWSXWVDQKDQGYRQVWHWLJHQ0HUNPDOHQTXDQ WLIL]LHUHQGDQQZLUG]XPHLQHQGHU&S:HUWDOV0DIUGLH3UR]HVVVWUHXXQJXQG ]XP DQGHUHQ GHU &SN:HUW DOV 0D IU GLH 3UR]HVVIlKLJNHLW EHUHFKQHW %HLGH ,QGL]HV VLQG GLPHQVLRQVORV XQG EHVFKUHLEHQ GLH SRWHQ]LHOOH (LJQXQJ GHV 3UR]HV VHVGLH6SH]LILNDWLRQHQHLQ]XKDOWHQYJO6FKLSS7|SIHU6 8P GDV 6NDOHQQLYHDX YHUVFKLHGHQHU 0HUNPDOVDXVSUlJXQJHQ GLVNUHW VWHWLJ XQG GDPLW XQWHUVFKLHGOLFKHU 0HVVDQVlW]H ]XU %HVWLPPXQJ YRQ )HKOHUKlXILJNHLWHQ LP 8QWHUQHKPHQ YHUJOHLFKHQ ]X N|QQHQ ZLUG GDV HUUHLFKWH 4XDOLWlWV1LYHDX EHU HLQH ]HQWUDOH VWDWLVWLVFKH .HQQ]DKO GHQ Sigma-Wert DQJHJHEHQ %H]RJHQ DXI GHQ &S:HUW EHGHXWHW GLHV GDVV GLH 3UR]HVVVWUHXEUHLWH K|FKVWHQV GLH +lOIWH GHU 7ROHUDQ]EUHLWHEHDQVSUXFKHQVROO&S≥ %HLHLQHP3UR]HVVGHVVHQ0LWWHOZHUW JHQDXLQGHU0LWWHGHVYRUJHJHEHQHQ7ROHUDQ]EHUHLFKVOLHJWZUGHLQIROJHGHVVHQ DXI EHLGHQ 6HLWHQ GHU 3UR]HVVVWUHXEUHLWH GHU 6LFKHUKHLWVDEVWDQG ]XU REHUHQ XQWH UHQ7ROHUDQ]JUHQ]HPLQGσDOVRLQVJHVDPWσEHWUDJHQ 'XUFK GLH )HVWOHJXQJ HLQKHLWOLFKHU 0HVVNULWHULHQ XQG GLH $QJDEH GHV 6LJPD :HUWHVZLUGGLH*UXQGODJHIUHLQXQWHUQHKPHQVLQWHUQHVH[WHUQHV%HQFKPDUNLQJ JHOHJW8P)HKOHUEHLP0HVVHQ]XYHUPHLGHQDXV]XVFKOLHHQZLUGIUMHGHGHIL QLHUWH 0HVVJU|H HLQH VRJ Gage R&R GXUFKJHIKUW 'DEHL KDQGHOW HV VLFK XP HLQHVWDQGDUGLVLHUWH0HWKRGH]XU9DOLGLHUXQJGHV0HVVV\VWHPV $QHUNDQQWH6L[6LJPD3UD[LVLVWHVGDVVGHXWOLFK ZHQLJHUDOVGHU*HVDPW YDULDQ] GHU 0HVVZHUWH GXUFK GDV HLQJHVHW]WH 0HVVV\VWHP HUNOlUW ZHUGHQ YJO /XQDX HW DO 6 I ,P 5DKPHQ GHU 0HVVV\VWHPDQDO\VH ZLUG ]XP HLQHQ GLH :LHGHUKROEDUNHLW GHV JOHLFKHQ 0HVVYRUJDQJV GXUFK GLH JOHLFKH 3HUVRQ 0D VFKLQH5±5HSHDWDELOLW\ DQDO\VLHUWXQG]XPDQGHUHQGLH5HSURGX]LHUEDUNHLWGHV JOHLFKHQ 0HVVYRUJDQJV GXUFK ]ZHL RGHU PHKUHUH 3HUVRQHQ 0DVFKLQHQ 5 ± 5H SURGXFLELOLW\ 0LW GLHVHQ ]ZHL 3DUDPHWHUQ ODVVHQ VLFK GLH 8QJHQDXLJNHLWHQ GHV 0HVVV\VWHPVVWDWLVWLVFKVFKlW]HQ6RJLEWGHUUHODWLYH0HVVIHKOHU5 5DQZHO
.RPSOH[LWlW lXHUW VLFK ± YHUHLQIDFKHQG EHWUDFKWHW ± LQ GHU $Q]DKO XQG 9LHOIDOW GHU (OHPHQWH HLQHV 6\VWHPV ]% 0HQVFKHQ XQG 0DVFKLQHQ VRZLH GHUHQ FKDUDNWHULV WLVFKHQ%H]LHKXQJHQ9HUIOHFKWXQJHQXQWHUHLQDQGHUYJO0F)DUODQG6 :LH .HXSHU6 DXVIKUWZHLVWGLHSystemkomplexitätL6HLQHU8QWHUQHK PXQJVNRPSOH[LWlW HLQH REMHNWLYVWUXNWXUHOOH REMHNWLYSUR]HVVXDOH XQG VXEMHNWLYSUR ]HVVXDOH 'LPHQVLRQ DXI 'DV 0DQDJHPHQW KDW DXV V\VWHPWKHRUHWLVFKN\EHUQHWLVFKHU 6LFKW GLH $XIJDEH GDV EHVWHKHQGH Ä.RPSOH[LWlWVJHIlOOH³ ]ZLVFKHQ GHP 8PV\VWHP 0DUNW XQG GHP GDULQ HQWKDOWHQHQ 6\VWHP 8QWHUQHKPHQ ]ZHFN XQG ]LHORULHQWLHUW ]X EHHLQIOXVVHQ ,P +LQEOLFN DXI GLH 9HUEHVVHUXQJ GHU (IIHNWLYLWlW XQG (IIL]LHQ] LVW ]X EHDFKWHQGDVVGLH.RPSOH[LWlWZHGHUPLQLPLHUWQRFKPD[LPLHUWZHUGHQGDUI 'DV GXUFKVFKQLWWOLFKH 4XDOLWlWVQLYHDX LQ GHU GHXWVFKHQ ,QGXVWULH OLHJW EHLVSLHOVZHLVH EHL HLQHP 6LJPD:HUW YRQ σ ZDV HLQHU )HKOHUTXRWH YRQ FD '302 HLQHU 3UR]HVVDXVEHXWH YRQ FDHLQHU3UR]HVVVWUHXXQJYRQ&S XQGHLQHU3UR]HVV IlKLJNHLWYRQ&SN HQWVSULFKWYJO7|SIHU*QWKHUD6
.RQ]HSWLRQXQG,QKDOWHGHU6L[6LJPD9HUEHVVHUXQJV]\NOHQ
FKHU $QWHLO GHU JHVDPWHQ 3UR]HVVYDULDWLRQ GXUFK 8QJHQDXLJNHLWHQ )HKOHU LP 0HVVV\VWHP EHJUQGHW LVW YJO (GVRQ =R\KRIVNL 6 II (V OLHJW DXI GHU +DQG GDVV PLW IDOOHQGHP 330 '302:HUW E]Z VWHLJHQGHP 6LJPD:HUW GLH %HGHXWXQJGHU=XYHUOlVVLJNHLWGHV0HVVV\VWHPVVLJQLILNDQW VWHLJW Analyse-Phase 'LH $QDO\VH3KDVH VWHOOW GLH Ä.HUQSKDVH³ GHV '0$,& E]Z '0$'9=\NOXV GDU 2KQH HLQH WLHIJHKHQGH XQG DXVVDJHIlKLJH 8UVDFKHQDQDO\VH IU )HKOHU VLQG L$ NHLQH 9HUEHVVHUXQJVPDQDKPHQ PLW JURHU +HEHOZLUNXQJ P|JOLFK VR GDVV GHU]XYHUEHVVHUQGH3UR]HVVVRJHQDXZLHP|JOLFK]XTXDQWLIL]LHUHQXQGÄ]XYHU VWHKHQ³ LVW (LQ RSWLPDOHV 3UR]HVVYHUVWlQGQLV LVW JHQDX GDQQ HUUHLFKW ZHQQ VLFK GLH %H]LHKXQJ ]ZLVFKHQ GHU MHZHLOLJHQ 2XWSXWPHVVJU|H \ VRZLH GHQ 3UR]HVV XQG ,QSXWPHVVJU|HQ [L EHU HLQHQ IXQNWLRQHOOHQ =XVDPPHQKDQJ GHU )RUP \ I[[[Q EHVFKUHLEHQOlVVW'LHVHUIRUGHUW]XQlFKVWHLQHGHWDLOOLHUWHProzessdarstellung und -analyse]%LQ)RUPYRQ=HLW:HUWVWURPXQG)OXVVDQDO\VHQ ,P:HLWHUHQVLQGUrsachen-Wirkungs-AnalysenGXUFK]XIKUHQ$XIGLHVHU*UXQG ODJH N|QQHQ IXQNWLRQDOH =XVDPPHQKlQJH ]ZLVFKHQ GHU XQDEKlQJLJHQ 2XWSXW PHVVJU|H \ DOV :LUNXQJVJU|H XQG HLQ RGHU PHKUHUHU XQDEKlQJLJHU 3UR]HVV ,QSXWPHVVJU|HQ[V DOV8UVDFKHQJU|HQRIIHQJHOHJWZHUGHQ=XGLHVHP=ZHFN NRPPW KlXILJ GDV ,VKLNDZD'LDJUDPP LQ 9HUELQGXQJ PLW GHU )HKOHU0|JOLFK NHLWV XQG (LQIOXVV$QDO\VH )0($ ]XP (LQVDW] 'LH YHUPXWHWHQ 8UVDFKHQ :LUNXQJV]XVDPPHQKlQJH ZHUGHQ LQ +\SRWKHVHQ IRUPXOLHUW XQG PLWKLOIH YRQ VWDWLVWLVFKHQ7HVWV9HUIDKUHQEHUSUIW]%.RQWLQJHQ]9DULDQ]XQG5HJUHVVL RQVDQDO\VH 'DGXUFK ZLUG GHU JHQHUHOOHQ )RUGHUXQJ YRQ 6L[ 6LJPD QDFKJHNRP PHQ (QWVFKHLGXQJHQ IU GLH (LQOHLWXQJ YRQ 9HUEHVVHUXQJVPDQDKPHQ MHZHLOV DXIGHU%DVLVYRQ=DKOHQ'DWHQXQG)DNWHQ=') ]XWUHIIHQ 'LH$QDO\VH3KDVHYHUOlXIWLQYLHOHQ)lOOHQ]ZHLJOHLVLJ •
,P5DKPHQGHURJProzessanalyse ZLUG]XQlFKVWYHUVXFKWDXIJUDSKLVFKHP :HJH GLH =XVDPPHQKlQJH ]ZLVFKHQ 8UVDFKHQ XQG :LUNXQJVJU|HQ ]X EHVWLPPHQ ,P (UJHEQLV OLHJW HLQH TXDOLWDWLYH %HVFKUHLEXQJ GHV 3UR]HVVDE ODXIV]XU(UVWHOOXQJGHVGHILQLHUWHQ2XWSXWVYRU$XIGLHVHU%DVLVZHUGHQGLH ZHVHQWOLFKHQ 3UR]HVV XQG ,QSXWPHVVJU|HQ HUNDQQW XQG LQ %H]XJ DXI LKUHQ (LQIOXVVDXIGLH2XWSXWPHVVJU|HVXEMHNWLY JHZLFKWHW
•
1DFK GHU (UKHEXQJ YRQ 'DWHQ ]X GHQ HLQ]HOQHQ 0HVVJU|HQ NRPPHQ LP 5DKPHQ GHU Datenanalyse PDWKHPDWLVFKVWDWLVWLVFKH 9HUIDKUHQ ]XP (LQVDW] GLH GHQ YHUPXWHWHQ =XVDPPHQKDQJ ]ZLVFKHQ 2XWSXWPHVVJU|H DOV DEKlQJL JHU9DULDEOHXQG3UR]HVV,QSXWPHVVJU|HQDOVXQDEKlQJLJH9DULDEOHQEHVWl WLJHQ,P(UJHEQLVOLHJWHLQTXDQWLIL]LHUWHVXQGVWDWLVWLVFKDEJHVLFKHUWHV8UVD FKHQ:LUNXQJVPRGHOOE]JOGHVXQWHUVXFKWHQ3UR]HVVHVYRU
%HUJEDXHU6I VSULFKWLQGLHVHP=XVDPPHQKDQJDXFKYRQÄ3UR]HVVWU³XQG Ä'DWHQWU³GXUFKGLHGHU(LQVWLHJLQGLH$QDO\VH3KDVHHUIROJW
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
Improve-Phase :LHDXVGHQYRUVWHKHQGHQ$XVIKUXQJHQGHXWOLFKZLUGLVWHVIUGHQ(UIROJHLQHV 6L[ 6LJPD3URMHNWHV HQWVFKHLGHQG LQ GHU $QDO\VH3KDVH DOOH ZHVHQWOLFKHQ 8UVD FKHQJU|HQ IU GHQ 3UR]HVVRXWSXW ]X HUNHQQHQ XQG ]X TXDQWLIL]LHUHQ 8P GLH 6WlUNH GHV (LQIOXVVHV YRQ HLQ]HOQHQ 0HVVJU|HQ ]X EHVWLPPHQ UHLFKW HV LG5 QLFKW DXV GHQ DNWXHOOHQ 3UR]HVV QXU ]X EHREDFKWHQ 9LHOPHKU LVW GLH %HGHXWXQJ YRQHLQ]HOQHQ0HVVJU|HQEHUH[SHULPHQWHOOH9HUVXFKHDE]XNOlUHQ 'XUFKGLHStatistische Versuchsplanung'2(±'HVLJQRI([SHULPHQWV ZLUGLP 5DKPHQ YRQ 6L[ 6LJPD3URMHNWHQ HLQH V\VWHPDWLVFKH 9RUJHKHQVZHLVH EHVFKULH EHQ GLH QHEHQ GHP $XIGHFNHQ YRQ +DXSWHLQIOXVVJU|HQ GLH ,GHQWLILNDWLRQ YRQ :HFKVHOZLUNXQJHQ]ZLVFKHQ]ZHLXQGPHKUHUHQ*U|HQHUODXEW:HLWHUKLQLVWHV PLW EHVWLPPWHQ 9HUVXFKVDQRUGQXQJHQ P|JOLFK ]% &&' ± &HQWUDO &RPSRVLWH 'HVLJQ QLFKWOLQHDUH %H]LHKXQJHQ ]ZLVFKHQ GHQ XQDEKlQJLJHQ (LQIOXVVJU|HQ GHV 3UR]HVVHV XQG GHU DEKlQJLJHQ 2XWSXWJU|H DXI]XGHFNHQ 'LH $Q]DKO GHU GXUFK]XIKUHQGHQ9HUVXFKHKlQJWLP:HVHQWOLFKHQGDYRQDE ZLH YLHO EHUHLWV LP 9RUIHOG GHV 6L[ 6LJPD3URMHNWHV EHU GHQ EHWUHIIHQGHQ 3UR]HVVJHZXVVWZLUG:LVVHQ XQG ZLH YLHOH )DNWRUHQ GHQ2XWSXWGHWHUPLQLHUHQXQGLP5DKPHQGHU0RGHOOELO GXQJ]XEHUFNVLFKWLJHQVLQG.RPSOH[LWlW ,Q GHU $QDO\VH3KDVH NRPPHQ WHLO XQG RGHU YROOIDNWRULHOOH 9HUVXFKVSOlQH ]XP (LQVDW] XP P|JOLFKVW DOOH +DXSW XQG 1HEHQHIIHNWH ]X HUXLHUHQ ,Q HLQHU IUKHQ 3KDVH GHU 8QWHUVXFKXQJ ZHUGHQ GDUEHU KLQDXV VRJ 6FUHHQLQJ 'HVLJQVGXUFKJH IKUW 'DEHL KDQGHOW HV VLFK XP Ä6LHEYHUIDKUHQ ]XU 3DUDPHWHUUHGX]LHUXQJ³ EHL GHQHQDXVHLQHUJURHQ=DKOYRQ)DNWRUHQGLHYHUPXWOLFKGDV9HUKDOWHQGHV3UR ]HVVHV EHHLQIOXVVHQ HLQH NOHLQH $Q]DKO YRQ )DNWRUHQ HUPLWWHOW ZLUG GLH WDWVlFK OLFK HLQHQ (LQIOXVV DXI GLH (UJHEQLVYDULDEOH KDEHQ (LQH 0|JOLFKNHLW XP GLH $Q]DKO GHU EHQ|WLJWHQ 9HUVXFKH EHL HLQHU VHKU JURHQ $Q]DKO SRWHQ]LHOOHU (LQ IOXVVIDNWRUHQ ]X UHGX]LHUHQ VWHOOW GLH 9HUZHQGXQJ YRQ 3ODFNHWW%XUPDQ'HVLJQV GDU 6LH N|QQHQ LQVEHVRQGHUH LQ 6FUHHQLQJ6LWXDWLRQHQ EHQXW]W ZHUGHQ LQ GHQHQ PHKU DOV 9HUVXFKH EHL YROOIDNWRULHOOHP 'HVLJQ QRWZHQGLJ VLQG GHUHQ 'XUFK IKUXQJDEHUDXV8QWHUQHKPHQVJHVLFKWVSXQNWHQ]XNRVWVSLHOLJLVW ,Q GHU ,PSURYH3KDVH NRPPW HEHQIDOOV '2( ]XP (LQVDW] 'DV =LHO EHVWHKW KLHU GDULQ DXI GHU%DVLVGHVJHIXQGHQHQIXQNWLRQDOHQ=XVDPPHQKDQJV]ZLVFKHQ2XW SXWPHVVJU|H \ XQG 3UR]HVV ,QSXWPHVVJU|HQ [L LQ GHU $QDO\VH3KDVH GDV RSWLPDOH3UR]HVVGHVLJQXQGGDPLWGLHRSWLPDOH)DNWRUNRPELQDWLRQ]XEHVWLPPHQ 0LWKLOIH YRQ VSH]LHOOHQ 9HUIDKUHQ 560 ± 5HVSRQVH 6XUIDFH0HWKRGRORJ\ ZLUG YHUVXFKW GLH $XVSUlJXQJ GHU (LQIOXVVIDNWRUHQ IU HLQ EHVWP|JOLFKHV 3UR]HVVHU JHEQLV±]XQlFKVWWKHRUHWLVFK±]XHUPLWWHOQYJO%UH\IRJOH6II
• Lösungen implementieren
• Daten analysieren • Möglichkeiten quantifizieren
• Variation bestimmen
• Sigma-Wert berechnen
• Kundenanforderungen analysieren
$EE'LHIQI3KDVHQGHV'0$,&=\NOXV
• Histogramm etc.
• SIPOC-Analyse
• VOC-CTQ-Analyse
Quelle: Eigene Darstellung
• Datensammelplan
• Projektcharter
• DPMO/ PPM
Methoden
• Gage R&R
Methoden
• Regelkarten/ SPC • Verfahrensanweisung
• Platzziffer-Verfahren • Gantt-Diagramm
• Flussdiagramme/ Wertstromanalyse
• Kosten-Nutzen-Analyse
• Streudiagramme/ DOE/ Statistische Tests
Methoden • Prozessdokumentation
Methoden • Brainstorming/ 6-3-5
Methoden • Ishikawa-Diagramm
• Reaktionsplan erstellen
• Prozess überwachen
• Soll-Prozess dokumentieren
• Lösungen auswählen
• Prozess auf hoher Ebene darstellen
• Prozess analysieren
• Messgrößen festlegen
• Problem/ Ziel definieren
• Daten sammeln
Vorgehen
Vorgehen
Vorgehen
Control
• Lösungen generieren
Improve Vorgehen
Analyse
• Ursachen analysieren
Measure Vorgehen
Define
.RQ]HSWLRQXQG,QKDOWHGHU6L[6LJPD9HUEHVVHUXQJV]\NOHQ
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
6LQG GLH $XVSUlJXQJHQ SODXVLEHO XQG QDFKYROO]LHKEDU PVVHQ SUDNWLVFKH /|VXQ JHQ JHIXQGHQ ZHUGHQ PLW GHQHQ GDV 3UREOHP EHKREHQ XQG HLQH 2SWLPLHUXQJ HU]LHOW ZHUGHQ NDQQ 'DEHL NRPPHQ .UHDWLYLWlWVWHFKQLNHQ ]XP (LQVDW] ]% %UDLQVWRUPLQJ 'LH 9RUWHLOKDIWLJNHLW GHU JHQHULHUWHQ /|VXQJVLGHHQ ZLUG LP $Q VFKOXVV PLWKLOIH HLQHU Kosten-Nutzen-Analyse EHUSUIW +DQGHOW HV VLFK EHL GHQ YRUJHVFKODJHQHQ 9HUEHVVHUXQJHQ XP 3UR]HVVYHUlQGHUXQJHQ GDQQ LVW GLH 7UDJIl KLJNHLW GHV DQJHVWUHEWHQ 6ROO3UR]HVVHV ]XQlFKVW LP 5DKPHQ YRQ NRQWUROOLHUWHQ 2XWSXWVLPXODWLRQHQ]XEHUSUIHQ'DGDVSUR]HVVUHOHYDQWH:LVVHQLP/DXIHGHV 6L[ 6LJPD3URMHNWHV VWDUN DQJHVWLHJHQ LVW N|QQHQ LQ GLHVHU 3KDVH JHKDOWYROOH +\SRWKHVHQE]JOGHU2XWSXWYHUlQGHUXQJDXIJHVWHOOWXQGJHWHVWHWZHUGHQ Control-Phase 9RU GHU ,PSOHPHQWLHUXQJ GHU JHIXQGHQHQ XQG DXVJHZlKOWHQ /|VXQJ LP 6HULHQ SUR]HVV ZHUGHQ KlXILJ Pilotversuche GXUFKJHIKUW 'DGXUFK LVW HLQ 3UD[LVWHVW P|JOLFKPLWGHP±LP*HJHQVDW]]XGHQ(UJHEQLVVHQYRQ,7JHVWW]WHQ6LPXODWL RQHQ ± GLH 9HUlQGHUXQJHQ 9HUEHVVHUXQJHQ UHDO QDFKYROO]RJHQ ZHUGHQ N|QQHQ %HLZHQLJHUNULWLVFKHQ3UR]HVVHQVWHOOHQVLHHLQHJXWH(UJlQ]XQJ]X6LPXODWLRQV GXUFKOlXIHQ ]% 0RQWH&DUOR6LPXODWLRQHQ GDU %HL XPIDQJUHLFKHUHQ 6L[ 6LJ PD3URMHNWHQZLUGGLH3LORWLHUXQJXQEHGLQJWHPSIRKOHQGDKLHUGXUFKGLH.RVWHQ VHQNXQJV XQG RGHU 8PVDW]VWHLJHUXQJVSRWHQ]LDOH EH]RJHQ DXI GDV *HVDPWXQWHU QHKPHQ DEVFKlW]EDU VLQG *OHLFK]HLWLJ NDQQ DXI GLHVH :HLVH GLH $N]HSWDQ] GHU QHXHQ/|VXQJEHL0LWDUEHLWHUQXQG)KUXQJVNUlIWHQEHUSUIWZHUGHQ =HLJHQGLH(UJHEQLVVHGHU3LORWSKDVHGDVVPLWGHUIDYRULVLHUWHQ/|VXQJGDVDQJH VWUHEWH=LHOQLYHDXQRFKQLFKWHUUHLFKEDULVWGDQQLVWHLQHRückkopplungsschleife in die Analyse-Phase QRWZHQGLJ ,Q YLHOHQ 3URMHNWHQ ]HLJW VLFK QlPOLFK GDVV GLH 3UREOHPHLPHUVWHQ'XUFKODXIDXIHLQHU]XKRKHQ$QDO\VHHEHQHDQJHJDQJHQZHU GHQ (UVW ZHQQ DXI GHU %DVLV YRQ EHVWlWLJWHQ 8UVDFKHQ:LUNXQJV]XVDPPHQ KlQJHQ /|VXQJHQ JHQHULHUW ZHUGHQ N|QQHQ PLW GHQHQ GDV LQ GHU 3URMHNWFKDUWHU IRUPXOLHUWH3UREOHPQDFKZHLVOLFKEHKREHQZLUGLVWGHUhEHUJDQJLQGLH&RQWURO 3KDVH JHJHEHQ ,Q GLHVHU 3KDVH JHKW HVGDUXPGHQRSWLPLHUWHQ3UR]HVVE]ZGDV IHKOHUIUHLH 3URGXNW ]X VWDELOLVLHUHQ XQG GDV HUUHLFKWH =LHOQLYHDX ]X EHUZDFKHQ 1DFK $EVFKOXVV GHV 6L[ 6LJPD3URMHNWHV VHW]HQ L$ ZHLWHUIKUHQGH 9HUEHVVH UXQJVDNWLYLWlWHQHLQXPVRGHQhEHUJDQJ]X.93]XHUUHLFKHQ 'LH &RQWURO3KDVH LVW HUIRUGHUOLFK GDPLW GLH ]XU 3UR]HVVRSWLPLHUXQJ LPSOHPHQ WLHUWHQ /|VXQJHQ QDFK 3URMHNWDEVFKOXVV QLFKW QDFKODVVHQ E]Z ÄDXIJHZHLFKW³ ZHUGHQ'D]XLVW]XPHLQHQHLQHVDXEHUH3UR]HVVGRNXPHQWDWLRQPLWYLVXDOLVLHUWHP 6ROO3UR]HVV XQG HLQGHXWLJ IRUPXOLHUWHQ 9HUIDKUHQVDQZHLVXQJHQ QRWZHQGLJ =XP DQGHUHQ VLQG Statistische Qualitäts- bzw. Prozessregelkarten HLQ]XVHW]HQ GLH HLQ NRQWLQXLHUOLFKHV 0RQLWRULQJ GHU DOV NULWLVFK HLQJHVWXIWHQ ,QSXW XQG3UR]HVVPHVV JU|HQ HUODXEHQ (LQ ZHVHQWOLFKHU %HVWDQGWHLO GHU GDWHQJHVWW]WHQ 3UR]HVVVWHXH UXQJUHJHOXQJ63&±6WDWLVWLFDO3URFHVV&RQWURO LVWGHU(LQVDW]YRQ5HDNWLRQV SOlQHQ GLH EHVFKUHLEHQ ZDV ]X WXQ LVW ZHQQ GHU 3UR]HVV DXHU .RQWUROOH JHUlW
.RQ]HSWLRQXQG,QKDOWHGHU6L[6LJPD9HUEHVVHUXQJV]\NOHQ
GK GLH (LQJULIIV RGHU :DUQJUHQ]H YHUOHW]W ZHUGHQ 0LW GHU (UIOOXQJ GLHVHU $QIRUGHUXQJHQ JLOW GDV 6L[ 6LJPD3URMHNW DOV EHHQGHW 'LH HUVWHOOWHQ 8QWHUODJHQ ]XU 3UR]HVVVWHXHUXQJ XQG EHUZDFKXQJ ZHUGHQ YRP 3URMHNWWHDP *UHHQ XQG %ODFN%HOWV DQGHQ3UR]HVVHLJQHU&KDPSLRQ EHUJHJHEHQ Kritische Bewertung: 'HU '0$,&=\NOXV JLOW KHXWH LQ GHU 8QWHUQHKPHQVSUD[LV DOV Ä6WDWHRIWKHDUW³ 'DV 9RUJHKHQVPRGHOO ]XU 9HUEHVVHUXQJ YRQ EHVWHKHQGHQ 3UR]HVVHQ KDW VLFK VRZRKO LQ ,QGXVWULH DOV DXFK LQ 'LHQVWOHLVWXQJVXQWHUQHKPHQ EHZlKUW YJO $EVFKQLWW $XV ZLVVHQVFKDIWOLFKHU 6LFKW IlOOW GLH %HZHUWXQJ GHV 3UREOHPO|VXQJV]\NOXV HEHQIDOOV VHKU SRVLWLY DXV GLH %HIlKLJHU XQG (UJHE QLVNULWHULHQZHUGHQMHZHLOV]XHUIOOWVLHKH$EE )UGLH(UIOOXQJGHV RJ8QWHUQHKPHQV]ZHFNHVLVWGHU=\NOXVRSWLPDOJHHLJQHW 3.3.2
DMADV-Zyklus zur Neuproduktentwicklung
'HU $QIRUGHUXQJ DQ GHQ (QWZLFNOXQJVEHUHLFK LQQRYDWLYH 3URGXNWH PLW HLQHU KRKHQ5REXVWKHLWL6Y=XYHUOlVVLJNHLW ]XHU]HXJHQZLUGGXUFKGLH$QZHQGXQJ GHV '0$,&=\NOXV QXU EHGLQJW HUIOOW GD KLHU GDV Ä9HUEHVVHUQ³ XQG QLFKW GDV Ä'HVLJQHQ³ LP 9RUGHUJUXQG VWHKW %HLP '0$'9=\NOXV ZHUGHQ GHVKDOE GLH OHW]WHQEHLGHQ3KDVHQGHV'0$,&=\NOXVGXUFKGLH3KDVHQÄ'HVLJQ³XQGÄ9HUL I\³HUVHW]W'HULGHDOW\SLVFKH$EODXIGHV6L[6LJPD3URMHNWPDQDJHPHQW]\NOXVIU GLH 1HXSURGXNWSODQXQJ XQG HQWZLFNOXQJ LVW LQ $EE LP hEHUEOLFN GDUJH VWHOOW :LH GLH IROJHQGHQ $XVIKUXQJHQ ]HLJHQ XQWHUVFKHLGHQ VLFK GDV 9RUJHKHQ XQG GLH 0HWKRGHQ GHU HLQ]HOQHQ 3KDVHQ ]7 GHXWOLFK YRQ GHQHQ GHV '0$,& =\NOXV YJO XD 7|SIHU *QWKHU E *LWORZ HW DO &UHYHOLQJ 6OXWVN\ $QWLV%UH\IRJOH%UXH/DXQVE\7HQQDQW Define-Phase $XV GHU 8QWHUQHKPHQVSUD[LV LVW EHNDQQW GDVV ]DKOHQPlLJ DXI HLQ 3URMHNW GDV QDFKGHPDMADV-ZyklusGXUFKJHIKUWZLUGELV]X6L[6LJPD3URMHNWHNRP
'LH *HPHLQVDPNHLWHQ XQG 8QWHUVFKLHGH YRQ '2( XQG 63& DOV ZLFKWLJH VWDWLVWLVFKH $QDO\VHLQVWUXPHQWH LP 5DKPHQ YRQ 6L[ 6LJPD ]HLJW $QGHUVRQ 6 II :lK UHQG63&HLQH5HLKHYRQ7RROVEHUHLWVWHOOWXPGLHQDWUOLFKH6WUHXXQJYRQ3UR]HVVHQ ]X DQDO\VLHUHQ ]LHOW '2( GDUDXI DE GLH VSH]LHOOHQ 8UVDFKHQ IU 3UR]HVVYDULDQ] ]X HUPLWWHOQXQG]XEHVHLWLJHQÄ'RLQJ'2(LVtalkingWRDPDQXIDFWXULQJSURFHVV³ 'HU '0$'9=\NOXV ZLUG KHXWH DOV VWDQGDUGLVLHUWHV 9RUJHKHQVPRGHOO YRQ IKUHQGHQ 6L[ 6LJPD8QWHUQHKPHQ HLQJHVHW]W ]% $%% 0RWRUROD XQG *HQHUDO (OHFWULF $OV NRQNXUULHUHQGH=\NOHQJHOWHQGHUSKDVLJH,'29=\NOXV,GHQWLI\'HVLJQ2SWLPL]H 9HULI\ GHUXUVSUQJOLFKYRQ*HQHUDO(OHFWULFHQWZLFNHOWZRUGHQLVWVRZLHGLH'HVLJQ YHUEHVVHUXQJVPHWKRGH QDFK 7DJXFKL PLW GHQ GUHL 3KDVHQ 6\VWHP 3DUDPHWHU XQG 7ROHUDQ]GHVLJQ YJO 0DJQXVVRQ HW DO 6 =LHOH XQG ,QKDOWH GHU RJ =\NOHQVLQGLPJURHQXQGJDQ]HQYHUJOHLFKEDUYJO%UXH/DXQVE\6 *HJHQEHU GHP '0$,&=\NOXV VLQG GLH $XVIKUXQJHQ ZHQLJHU VWDUN OLWHUDWXUEDVLHUW GDGLH$Q]DKOYHUIJEDUHU4XHOOHQKLHUGHXWOLFKJHULQJHULVW
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
PHQ GLH DXI GHP '0$,&=\NOXV EDVLHUHQ 1DFK %HUJEDXHU 6 JLEW HV LP :HVHQWOLFKHQzwei Anwendungsfälle EHL GHQHQ GDVPHWKRGLVFKH9RUJHKHQ QDFKGHP'0$,&=\NOXVQLFKW]XPJHZQVFKWHQ(UJHEQLVIKUW •
(LQvöllig neues Produkt/ neuer ProzessVLQG]XHQWZLFNHOQXQGHLQ]XIKUHQ 0LWKLOIH GHU 0HWKRGHQ XQG 9RUJHKHQVZHLVHQ GHV '0$,&=\NOXV LVW HV L$ QLFKW P|JOLFK 1HXSURGXNWH XQG SUR]HVVH VR ]X GHVLJQHQ GDVV VLH GLH 9RU JDEHQGHU.XQGHQYRQYRUQKHUHLQPLW1XOO)HKOHU4XDOLWlWHUIOOHQ
•
(LQbestehender Prozess ist „ausgereizt“GKHULVWLP+LQEOLFNDXIGLH/HLV WXQJVIlKLJNHLW DQ VHLQH REHUH *UHQ]H JHVWRHQ 'LHVH OLHJW PHLVWHQV DXI HL QHP4XDOLWlWVQLYHDXYRQσ)UHLQH'XUFKEUHFKXQJGHUÄσ:DQG³EHGDUI HVHLQHU1HX0RGHOOLHUXQJ(QWZLFNOXQJGHV3UR]HVVHV
/LHJW HLQHU GHU RJ $QZHQGXQJVIlOOH YRU GDQQ LVW GHP '0$'9=\NOXV EHL GHU 3UREOHPO|VXQJ GHU 9RU]XJ ]X JHEHQ $QDORJ ]XU 'HILQH3KDVH LP '0$,&=\N OXVZLUGKLHU]XQlFKVWHLQHProjektcharter DXIJHVWHOOW,QGLHVHUZHUGHQXDD GHU %XVLQHVV &DVH DOVR GLH DNWXHOOH ZLUWVFKDIWOLFKH /DJH $XVJDQJVVLWXDWLRQ E GLH 3UREOHPHXQG=LHOHGHUJHSODQWHQ1HXSURGXNWHQWZLFNOXQJF GHU3URMHNWXPIDQJ XQGGLHGDIU]XU9HUIJXQJVWHKHQGHQ5HVVRXUFHQVRZLHG GLH5ROOHQXQG9HU DQWZRUWOLFKNHLWHQLP5DKPHQGHVHLQEHVWHOOWHQ3URMHNWWHDPVEHVFKULHEHQ 'DUEHU KLQDXV ZHUGHQ LQ GLH 3URMHNWFKDUWHU ZHQQ YRUKDQGHQ %HQFKPDUNLQJ 'DWHQ DXV GHU Marktanalyse/ -forschung DXIJHQRPPHQ 'LHVH KHOIHQ EHLP (LQ JUHQ]HQGHV3URMHNWXPIDQJVEHLGHU'HILQLWLRQYRQ6FKQLWWVWHOOHQ]XEHQDFKEDUWHQ 3UR]HVVHQXQGDQJUHQ]HQGHQ) (3URMHNWHQVRZLHEHLP%HVWLPPHQGHUEHQ|WLJ WHQ6DFKXQG)LQDQ]PLWWHOIUGLH3URMHNWXPVHW]XQJ $XIJUXQG GHU K|KHUHQ .RPSOH[LWlW YRQ (QWZLFNOXQJVYRUKDEHQ ZLUG QHEHQ GHU 3URMHNWFKDUWHU HLQ Projektplan 0XOWL *HQHUDWLRQDO 3ODQ HUVWHOOW LQ GHP ± XQWHU %HUFNVLFKWLJXQJGHVDQJHVWUHEWHQ3URGXNWNRQ]HSWHV±GHU3URMHNWXPIDQJXQGGHU 5HVVRXUFHQEHGDUI LP 'HWDLO JHSODQW ZHUGHQ $XHUGHP ZLUG HLQ H[SOL]LWHV 3UR MHNWPDQDJHPHQW ]XU RSHUDWLYHQ 3URMHNWVWHXHUXQJ XQG NRQWUROOH LPSOHPHQWLHUW XPGHQYRUJHVHKHQHQ=HLWXQG.RVWHQSODQWDWVlFKOLFKHLQ]XKDOWHQ :HVHQWOLFKH ,QVWUXPHQWH GLH LP 5DKPHQ GHV 3URMHNWPDQDJHPHQWV FRQWUROOLQJV ]XU $QZHQGXQJ NRPPHQ VLQG GLH Netzplantechnik 3(57 ± 3URMHFW (YDOXDWLRQ DQG 5HYLHZ 7HFKQLTXH XQG GLH 0HLOHQVWHLQSODQXQJ *DQWW'LDJUDPP 6LH ]HL JHQ GLH ]XU 5HDOLVLHUXQJ HLQHV 3URMHNWHV ZHVHQWOLFKHQ 9RUJlQJH XQG (UHLJQLVVH VRZLHGHUHQORJLVFKHXQG]HLWOLFKH$EKlQJLJNHLWHQDXI
'DV9HUKlOWQLVYRQHUIROJUHLFKGXUFKJHIKUWHQ'0$'9]X'0$,&3URMHNWHQYDULLHUW YRQ 8QWHUQHKPHQ ]X 8QWHUQHKPHQ ,Q GHU SUD[LVEH]RJHQHQ /LWHUDWXU ILQGHQ VLFK GHV KDOEYHUVFKLHGHQH$QJDEHQKLHU]X:lKUHQG]%:HVVHO6 YRQHLQHP9HU KlOWQLV YRQ ]X DXVJHKW ZHUGHQ QDFK GHU $QDO\VH YRQ /LX :X 6 PLQGDOOHU6L[6LJPD3URMHNWHQDFKGHP'0$'9=\NOXVGXUFKJHIKUW
.RQ]HSWLRQXQG,QKDOWHGHU6L[6LJPD9HUEHVVHUXQJV]\NOHQ
%HL JU|HUHQ ) (3URMHNWHQ LVW HV ]XGHP UDWVDP HLQHQ Kommunikationsplan DXI]XVWHOOHQ LQ GHP YHUELQGOLFK IHVWJHOHJW ZLUG ZHOFKH (UJHEQLVVH ZLH NRPPX QL]LHUWZHUGHQ*HQDXVREHGHXWVDPLVWGLH,PSOHPHQWLHUXQJHLQHVIXQGLHUWHQ5LVL NRPDQDJHPHQWV GD HV YRU DOOHP EHL ')66 GDUDXI DQNRPPW GXUFK )HKOHU LP (QWZLFNOXQJVSUR]HVV HQWVWHKHQGH 5LVLNHQ P|JOLFKVW VFKQHOO ]X HUNHQQHQ XQG EHL HLQHP$XVPDEHUGHPGHILQLHUWHQNULWLVFKHQ:HUW]XHOLPLQLHUHQ Measure-Phase 'LH0HDVXUH3KDVHGHV'0$'9=\NOXVEHLQKDOWHWGUHL7HLOVFKULWWHGLHV\VWHPD WLVFK DXIHLQDQGHU DXIEDXHQ ,P ersten Schritt JHKW HV XP GDV ,GHQWLIL]LHUHQ 6HJ PHQWLHUHQ XQG 3ULRULVLHUHQ YRQ =LHOJUXSSHQ E]Z SRWHQ]LHOOHQ .lXIHUJUXSSHQ 1XUZHQQGLH=LHONXQGHQHLQGHXWLJLGHQWLIL]LHUWZHUGHQN|QQHQLVWGDV$XIVWHOOHQ HLQHVSUl]LVHQAnforderungsprofils für das neue Produkt bzw. die neue Dienstleistung JHZlKUOHLVWHW$QGHUQIDOOVEHVWHKWGLH*HIDKUGDVVLP/DVWHQ3IOLFKWHQKHIW IU GDV QHXH 3URGXNW GLH QHXH 'LHQVWOHLVWXQJ ]X YLHOH XQWHUVFKLHGOLFKH $QIRUGH UXQJHQEHUFNVLFKWLJWZHUGHQXQGHVGDGXUFKÄXQVFKDUI³ZLUG (QWVSUHFKHQG GHU 3KLORVRSKLH HLQHU PDUNWRULHQWLHUWHQ 8QWHUQHKPHQVIKUXQJ ZLUG KLHUYHUVXFKWZielgruppen zu identifizierenGHQHQPLWHLQHUVSH]LHOO]XJHVFKQLWWH QHQ /HLVWXQJ 9RUWHLOH YHUVFKDIIW UHVSHNWLYH DQJHERWHQ ZHUGHQ N|QQHQ 'D]X LVW GLH $XIWHLOXQJ GHV *HVDPWPDUNWHV LQ 8QWHUJUXSSHQ DOVR 0DUNWVHJPHQWH QRW ZHQGLJGLHKLQVLFKWOLFKLKUHU0DUNWUHDNWLRQLQQHUKDOEHLQHV6HJPHQWHVKRPRJHQ ]ZLVFKHQ GHQ 6HJPHQWHQ GDJHJHQ P|JOLFKVW KHWHURJHQ VLQG )U GLH HLQ]HOQHQ Marktsegmente N|QQHQ GDQQ JH]LHOWH 0DQDKPHQSURJUDPPH 3URGXNWH 'LHQVW OHLVWXQJHQ HUDUEHLWHWXQGXPJHVHW]WZHUGHQYJO7|SIHU6 $OVAnalysemethoden VWHKHQXDGLH&OXVWHUDQDO\VHXQGGLH'LVNULPLQDQ]DQDO\VH ]XU 9HUIJXQJ %HLGHQ NRPPW DOV VWUXNWXUHQWGHFNHQGHQ 9HUIDKUHQ LP 5DKPHQ GHU0DUNWIRUVFKXQJHLQHKHUDXVUDJHQGH6WHOOXQJ]X •
0LWGHUClusteranalyse ODVVHQVLFKXQWHUVFKLHGOLFKH=LHOJUXSSHQVRJ&OXVWHU KHUDXVILOWHUQ ZREHL 2EMHNWH E]Z 3HUVRQHQ DQKDQG DXVJHZlKOWHU 0HUNPDOH (LJHQVFKDIWHQ ]X LQWHUQ KRPRJHQHQ XQG H[WHUQ KHWHURJHQHQ 9DULDEOHQ E]Z )DOOJUXSSHQ]XVDPPHQJHIDVVWZHUGHQ'LHbKQOLFKNHLWGHU*UXSSHQZLUGPLW HLQHP YRUKHU IHVWJHOHJWHQ 3UR[LPLWlWVPD JHPHVVHQ (V ZLUG HLQH 'LVWDQ] PDWUL[ ]% QDFK TXDGULHUWHU HXNOLGLVFKHU 'LVWDQ] HUVWHOOW DXV GHU PLWKLOIH KLHUDUFKLVFKHU RGHU SDUWLWLRQLHUHQGHU 9HUIDKUHQ GLH 2EMHNWH 3HUVRQHQ GLH VLFKVHKUlKQOLFKVLQG]X*UXSSHQ]XVDPPHQJHIDVVWZHUGHQ
•
=XU hEHUSUIXQJ GHU (UJHEQLVVH HLQHU &OXVWHUDQDO\VH NDQQ ]XVlW]OLFK HLQH Diskriminanzanalyse GXUFKJHIKUW ZHUGHQ %HL GLHVHU ZLUG HLQ 9RUKHUVDJH PRGHOO HQWZLFNHOW DXI %DVLV GHVVHQ VLFK GLH *UXSSHQ]XJHK|ULJNHLW DQKDQG
'LH )HVWOHJXQJ GHU &OXVWHU$Q]DKO HUIROJW LQ $EKlQJLJNHLW YRP $QVWLHJ GHU 'LVWDQ] ZHUWH 1DFK GHP (OERZ.ULWHULXP ZLUG GLH &OXVWHUXQJ DQ GHU 6WHOOH DEJHEURFKHQ DQ GHUGHU$QVWLHJDPJU|WHQLVWYJO%DFNKDXVHWDO6I
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
GHUEHREDFKWHWHQ(LJHQVFKDIWHQHLQ]HOQHU)lOOHSURJQRVWL]LHUHQOlVVW9RUDXV VHW]XQJ KLHUIU LVW GLH (U]HXJXQJ HLQHU RGHU PHKUHUHU 'LVNULPLQDQ]IXQNWLR QHQXQG]ZDUDXIJUXQGGHU/LQHDUNRPELQDWLRQHQGHU(LQIOXVVYDULDEOHQZHO FKHGLHEHVWH'LVNULPLQDQ]DOVR$EJUHQ]XQJ]ZLVFKHQGHQHLQ]HOQHQ*UXS SHQHUJHEHQYJO%DFNKDXVHWDO6IIXQG6II 1DFKGHP GLH ZLFKWLJVWHQ .XQGHQJUXSSHQ LGHQWLIL]LHUW ZRUGHQ LVW VLQG ZHU GHQ LQ HLQHP zweiten Schritt GLH .XQGHQEHGUIQLVVH GLHVHU =LHOJUXSSHQ JHVDP PHOW XQG DQDO\VLHUW 'D EHL 1HXHQWZLFNOXQJHQ KlXILJ GLH $QQDKPH ]XWULIIW GDVV GHU ,QIRUPDWLRQVEHGDUI GHV 8QWHUQHKPHQV GHXWOLFK JU|HU LVW DOV EHL HLQHU 3UR GXNWYHUEHVVHUXQJNRPPWHLQHHUZHLWHUWH92&&74$QDO\VH]XP(LQVDW] )U GLH hEHUVHW]XQJ GHU Ä6WLPPH GHV .XQGHQ³ LQ GLH Ä6SUDFKH GHV ,QJHQLHXUV³ ZLUGLQ')663URMHNWHQKlXILJDXIGLH0HWKRGHGHVQuality Function Deployment (QFD)]XUFNJHJULIIHQ'DEHLVROOLQP|JOLFKVWNXU]HU=HLWHLQHLQWHJULHUWH3UR GXNWHQWZLFNOXQJIUNXQGHQJHUHFKWHTXDOLWDWLYKRFKZHUWLJH3URGXNWHXQG'LHQVW OHLVWXQJHQ GXUFKJHIKUW ZHUGHQ YJO +DXVHU &ODXVLQJ 6 9RUDXVVHW ]XQJKLHUIULVWGDVVDOOHZLFKWLJHQ.XQGHQDQIRUGHUXQJHQHUNDQQWJHZLFKWHWXQG LQWHFKQLVFKH3URGXNWVSH]LILNDWLRQHQXPJHVHW]WZHUGHQ 1HEHQGHU(UPLWWOXQJ$EOHLWXQJHUZHLVWVLFKLQVEHVRQGHUHGLHÄULFKWLJH³Gewichtung (Priorisierung) der KundenanforderungenDOVZHVHQWOLFKH9RUDXVVHW]XQJIU HLQH NXQGHQRULHQWLHUWH 3URGXNWHQWZLFNOXQJ $QGHUV DOV EHL GHU REHQ EHVFKULHEH QHQ92&&74$QDO\VHHUIROJWGLH*HZLFKWXQJLP5DKPHQGHV'0$'9=\NOXV H[SOL]LW XQG WKHRULHEDVLHUW .RQNUHW EHGHXWHW GLHV GDVV IU GLH %HZHUWXQJ XQG 3ULRULVLHUXQJYRQ.XQGHQEHGUIQLVVHQDQIRUGHUXQJHQEHNDQQWH.ODVVLIL]LHUXQJV PRGHOOHDXVGHQ6R]LDOXQG:LUWVFKDIWVZLVVHQVFKDIWHQKHUDQJH]RJHQZHUGHQ=X QHQQHQVLQGKLHUYRUDOOHPGLH.XQGHQEHGUIQLVNODVVLIL]LHUXQJDXIGHU%DVLVYRQ $%5$+$0 + 0$6/2: VRZLH GDV .XQGHQ]XIULHGHQKHLWVPRGHOO QDFK 12 5,$., .$12 ZHOFKHV HLQH GLUHNWH 9HUELQGXQJ ]ZLVFKHQ .XQGHQDQIRUGH UXQJXQG.XQGHQ]XIULHGHQKHLWKHUVWHOOWYJO$EVFKQLWW 'HQLQVWUXPHQWHOOHQ.HUQYRQ4)'ELOGHWGDV$XIVWHOOHQGHVVRJHouse of Quality +R4 'DEHL KDQGHOW HV VLFK XP HLQH %H]LHKXQJVPDWUL[ LQ GHUGLH DXV .XQ GHQVLFKW ZHVHQWOLFKHQ .XQGHQDQIRUGHUXQJHQ GHQ DXV 8QWHUQHKPHQVVLFKW ZHVHQW OLFKHQ3URGXNWPHUNPDOHQJHJHQEHUJHVWHOOWZHUGHQYJO6DDWZHEHU6
1DFK GHP MDSDQLVFKHQ 4XDOLWlWVPDQDJHPHQW([SHUWHQ <2-, $.$2 GHP Ä8U9DWHU³ YRQ4)'ZLUGGDUXQWHUGLHJH]LHOWH3ODQXQJXQG(QWZLFNOXQJGHU4XDOLWlWVIXQNWLRQHQ HLQHV 3URGXNWHV HLQHU 'LHQVWOHLVWXQJ HQWVSUHFKHQG GHU YRP .XQGHQ JHIRUGHUWHQ 4XDOLWlWVPHUNPDOHYHUVWDQGHQYJO$NDR6 'LH%HGUIQLVS\UDPLGHQDFK$%5$+$0 +0$6/2: HUP|JOLFKWGLH(LQRUGQXQJ YRQ .XQGHQEHGUIQLVVHQ LQ 0RWLYNODVVHQ 0LW VWHLJHQGHU +LHUDUFKLH %HGHXWXQJ ZHUGHQKLHU*UXQG6LFKHUKHLWV6R]LDO:HUWVFKlW]XQJVXQG6HOEVWYHUZLUNOLFKXQJV %HGUIQLVVHXQWHUVFKLHGHQ
$EE'LHIQI3KDVHQGHV'0$'9=\NOXV
• VOC-CTQ-Analyse
• QFD (1. HoQ)
• Benchmarking
• Gantt-Diagramm
Quelle: Eigene Darstellung
• Clusteranalyse etc.
• Projektcharter
• Lasten-/ Pflichtenheft
Methoden
Methoden
• Projektplan erstellen
• Kundenbedürfnisse sammeln und analysieren
• Kunden identifizieren, priorisieren und segmentieren
• Marktdaten auswerten
Vorgehen
• Problem/ Ziel definieren
Measure
Vorgehen
Define
• Implementierung vorbereiten • Prozess übergeben
Methoden • Design Scorecard • Regelkarten/ SPC
• Detailliertes Design evaluieren • Implementierung vorbereiten Methoden • QFD/ FMEA • DOE nach Shainin/ Taguchi
• High Level Design entwickeln • High Level Design evaluieren Methoden • Brainstorming/ -writing
• Zuverlässigkeit • Prozess-/ Maschinenfähigkeit
• Outputsimulation • Target Costing
• Verfahrensanweisung
• Pilotierung durchführen
• Detailliertes Design entwickeln
• QFD/ FMEA
Vorgehen
Vorgehen
Verify
• Designkonzepte bestimmen
Design
Vorgehen
Analyse
.RQ]HSWLRQXQG,QKDOWHGHU6L[6LJPD9HUEHVVHUXQJV]\NOHQ
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
'XUFK GLH (UPLWWOXQJ YRQ VXEMHNWLYHQ .RUUHODWLRQVZHUWHQ ZLUG GHU =XVDPPHQ KDQJ ]ZLVFKHQ GHU DUWLNXOLHUWHQ .XQGHQDQIRUGHUXQJ XQG GHP WHFKQLVFKHQ 3UR GXNWPHUNPDOREMHNWLYLHUW'LH6XPPHGHUPLWGHQ.XQGHQDQIRUGHUXQJHQJHZLFK WHWHQ.RUUHODWLRQVZHUWHHUJLEWGLH*HZLFKWXQJSUR3URGXNWPHUNPDO 'LH 3URGXNWPHUNPDOH PLW GHU K|FKVWHQ *HZLFKWXQJ VLQG IU GLH 1HXSURGXNWHQW ZLFNOXQJ HQWVFKHLGHQG VLH EHVLW]HQ GHVKDOE GHQ 6WDWXV YRQ NULWLVFKHQ 4XDOLWlWV PHUNPDOHQ &74V %HYRU GLH &74V LQ GHU EHVFKULHEHQHQ :HLVH HUPLWWHOW ZHU GHQ ZLUG HLQ Benchmarking GXUFKJHIKUW EHL GHP DXVJHKHQG YRQ GHQ ZHVHQWOL FKHQ.XQGHQDQIRUGHUXQJHQGLHHLJHQH:HWWEHZHUEVSRVLWLRQPLWGHUYRQPDJHE OLFKHQ.RQNXUUHQWHQYHUJOLFKHQZLUG'LHVHU$QDO\VHVFKULWWLVWQRWZHQGLJXPXD GLH )UDJH ]X EHDQWZRUWHQ PLW ZHOFKHP WHFKQLVFKHQ .RQ]HSW GDV 8QWHUQHKPHQ GLH%HGUIQLVVH$QIRUGHUXQJHQVHLQHU.XQGHQ]XNQIWLJEHVVHU HUIOOW Analyse-Phase 'LH 3URGXNWPHUNPDOH GLH LP 5DKPHQ GHU 0HDVXUH3KDVH VSH]LIL]LHUW ZRUGHQ VLQG ZHUGHQ LQ GHU $QDO\VH3KDVH ]XQlFKVW HLQHU Abhängigkeitsanalyse XQWHU]R JHQ 'DEHL ZLUG JHNOlUW LQZLHZHLW VLFK GLH HLQ]HOQHQ 3URGXNWPHUNPDOH EHL GHU (UIOOXQJ GHU .XQGHQDQIRUGHUXQJHQ JHJHQVHLWLJ ± SRVLWLY RGHU QHJDWLY ± EHHLQ IOXVVHQ'LH.RUUHODWLRQHQZHUGHQLQHLQHUVHSDUDWHQ0DWUL[LPÄ'DFK³GHV+R4 YLVXDOLVLHUW )ROJW PDQ GHP VWDQGDUGPlLJHQ 4)'9RUJHKHQ GDQQ VLQG LP :HL WHUHQ 'HVLJQNRQ]HSWH ]X EHVWLPPHQ ZHOFKH GLH ]XYRU HUPLWWHOWHQ =LHOYRUJDEHQ IUGLH3URGXNWPHUNPDOHP|JOLFKVWJXWHUIOOHQYJO'*4E6I 'LHVHU6FKULWWLVWQRWZHQGLJXPGLH6XFKHSRWHQ]LHOOHU3URGXNWO|VXQJHQQLFKWYRQ YRUQKHUHLQ ]X VWDUN HLQ]XVFKUlQNHQ 'DV PHWKRGLVFKH 9RUJHKHQ EHVWHKW GDULQ GDVV GLH DXV WHFKQLVFKHU XQG ZLUWVFKDIWOLFKHU 6LFKW EHZHUWHWHQ 3URGXNWPHUNPDOH DQGHQ]XU$XVZDKOVWHKHQGHQ.RPSRQHQWHQUHVSHNWLYH.RPSRQHQWHQPHUNPDOHQ JHVSLHJHOW ZHUGHQ 'XUFK GLH .RPELQDWLRQ YHUVFKLHGHQHU %DXWHLOH XQG .RPSR QHQWHQ ODVVHQ VLFK LG5 HLQH 5HLKH YRQ alternativen Produktkonzepten HQWZL FNHOQ 'D GHU 6SH]LILNDWLRQVJUDG LQ GLHVHP (QWZLFNOXQJVVWDGLXP QRFK UHODWLY JURELVWVSULFKWPDQKLHUDXFKYRP(QWZXUIYRQVRJÄ'HVLJQVDXIKRKHU(EHQH³ E]ZÄ+LJK/HYHO'HVLJQV³YJO7|SIHU*QWKHUE6I 8PLQQRYDWLYH'HVLJQV3UREOHPO|VXQJHQ]XHUKDOWHQZHUGHQKlXILJ.UHDWLYLWlWV WHFKQLNHQ ]% %UDLQVWRUPLQJ ZULWLQJ XQG (UILQGXQJVPHWKRGHQ ]% TRIZ – Theorie des erfinderischen Problemlösens HLQJHVHW]W 0LWKLOIH YRQ 75,= DOV ZL GHUVSUXFKVRULHQWLHUWHU ,QQRYDWLRQVVWUDWHJLH ODVVHQ VLFK XD HUNDQQWH WHFKQLVFKH :LGHUVSUFKH LQ GHU %H]LHKXQJVPDWUL[ GHV +R4 EHKHEHQ 'DEHL XPIDVVW 75,= HLQH5HLKHYRQ(UILQGXQJVXQG(QWZLFNOXQJVPHWKRGHQXQG]ZDULQGHQ.DWHJR ULHQ 6\VWHPDWLN :LVVHQ $QDORJLH XQG 9LVLRQ YJO +HUE HW DO 6
%HL GHU 4)'$QZHQGXQJ LVW ]X EHDFKWHQ GDVV IHKOHUKDIWH (LQJDQJVJU|HQ LQ )RUP IDOVFKHU .XQGHQDQIRUGHUXQJHQ VLFK LP 9HUODXI GHU (UVWHOOXQJ PHKUHUHU %H]LHKXQJV PDWUL]HQ+R4V ]XÄKRFKJUDGLJ³IHKOHUKDIWHQ$XVJDQJVJU|HQSRWHQ]LHUHQN|QQHQ
.RQ]HSWLRQXQG,QKDOWHGHU6L[6LJPD9HUEHVVHUXQJV]\NOHQ
'XUFK 75,= GDV DXI GHQ UXVVLVFKHQ )OXJ]HXJLQJHQLHXU *(15,&+ 6 $/76&+8/ /(5 ]XUFNJHKWVROOGDVELVKHURIWXQV\VWHPDWLVFKH9RUJHKHQEHLGHU 6XFKHQDFKLQQRYDWLYHQ/|VXQJHQGXUFKHLQHQVWUXNWXULHUWHQ'HQNXQG.UHDWLYL WlWVSUR]HVV HUVHW]W ZHUGHQ 'HU (LQVDW] YRQ 75,= LP =XVDPPHQKDQJ PLW 6L[ 6LJPDZLUGVHLWODQJHPSURSDJLHUWYJO]%$YHUERXNK MHGRFKVWHKWHLQH V\VWHPDWLVFKH,QWHJUDWLRQLQGHQ'0$'9=\NOXVQRFKDXV 'LH HUVWHOOWHQ 'HVLJQYRUVFKOlJH DXI KRKHU (EHQH VLQG LP $QVFKOXVV KLQVLFKWOLFK LKUHU (UIOOXQJ YRQ NULWLVFKHQ 4XDOLWlWVPHUNPDOHQ VRZLH LKUHU ZLUWVFKDIWOLFKHQ 8PVHW]EDUNHLW ]X EHUSUIHQ ,P 5DKPHQ HLQHV Design-Reviews ZHUGHQ GLH HU PLWWHOWHQ +LJK /HYHO'HVLJQV XQWHU YHUVFKLHGHQHQ %OLFNZLQNHOQ HYDOXLHUW 'LH wirtschaftliche BewertungEHLQKDOWHWGDV(LQKROHQYRQ.XQGHQIHHGEDFNVXQGGDV (UVWHOOHQ HLQHV =LHONRVWHQNRQWUROOGLDJUDPPV ,Q GLHVHP ZHUGHQ GLH GHU]HLW SURJ QRVWL]LHUWHQ .RVWHQDQWHLOH 'ULIWLQJ &RVWV DOV,VW.RVWHQ GHUIUGDV+LJK/HYHO 'HVLJQ YRUJHVHKHQHQ .RPSRQHQWHQ %DXWHLOH GHQ DXV KHXWLJHU 6LFKW ]XOlVVLJHQ .RVWHQDQWHLOHQ$OORZDEOH&RVWVDOV=LHONRVWHQ JHJHQEHUJHVWHOOW'LH]XOlVVLJHQ .RVWHQDQWHLOH VSLHJHOQ GDV =LHONRVWHQQLYHDX ZLGHU XQG VWLPPHQ PLW GHQ 1XW]HQ EHLWUlJHQGHQHLQH3URGXNWNRPSRQHQWHDXV.XQGHQVLFKWEHVLW]WEHUHLQ )UGLH(UPLWWOXQJGHU1XW]HQEHLWUlJHXQG=LHONRVWHQJLEWHV]ZHLDXVGHU0DUNW IRUVFKXQJ EHNDQQWH 9RUJHKHQVZHLVHQ =XP HLQHQ ZHUGHQ PLWKLOIH GHU ConjointAnalyse DXVJHKHQG YRQ PHKUHUHQ LQ HLQH 5DQJRUGQXQJ JHEUDFKWH +LJK /HYHO 'HVLJQVEDXWHLOVSH]LILVFKH1XW]HQDQWHLOHHUPLWWHOWZHOFKHGLHUHODWLYH:LFKWLJNHLW HLQHV %DXWHLOV HLQHU .RPSRQHQWH ZLGHUVSLHJHOQ =XP DQGHUHQ ZLUG LP 5DKPHQ GHV Target Costing =LHONRVWHQSODQXQJ HLQ =LHONRVWHQLQGH[ =, HUPLWWHOW GHU QDFKYROO]LHKEDU PDFKW REHLQ%DXWHLOHLQH.RPSRQHQWHEHLJHJHEHQHP1XW]HQ EHLWUDJÄ]XDXIZHQGLJ³=, Ä]XHLQIDFK³=,! RGHUÄJHQDXULFKWLJ³=, JHVWDOWHWZRUGHQLVWYJO'HLVHQKRIHU6 'LH technische Bewertung GHU 'HVLJQYRUVFKOlJH OlXIW LP :HVHQWOLFKHQ DXI HLQH $EVFKlW]XQJ GHU .RPSOH[LWlW XQG GHV 5LVLNRV EH]RJHQ DXI GHQ +HUVWHOOSUR]HVV XQG GLH 1XW]XQJVSKDVH KLQDXV 'LH .RPSOH[LWlW NDQQ LP 9RUIHOG GHU (LQIK UXQJQHXHU3URGXNWHXQG3UR]HVVHLQHUVWHU/LQLHEHUGLH(UPLWWOXQJSRWHQ]LHOOHU )HKOHUP|JOLFKNHLWHQ 2)' DEJHVFKlW]W ZHUGHQ (LQH JH]LHOWH )HKOHUYRUEHXJXQJ OlVVW VLFK GXUFK GLH $QZHQGXQJ HLQHU Failure-Mode- and -Effect-Analysis (FMEA) HUUHLFKHQ YJO %HUWVFKH /HFKQHU 6 II $OV SUlYHQWLYH 40 0HWKRGHKLOIWVLHP|JOLFKH)HKOHUXQGGHUHQ)ROJHQLQ)RUPYRQ5LVLNHQIUK]HL
$XIGHU%DVLVGHU$QDO\VHYRQEHU0LR3DWHQWHQNDPHQ$OWVFKXOOHUHWDO]XGHU (UNHQQWQLV GDVV HUIROJUHLFKH (UILQGXQJHQ DXI VHKU lKQOLFKHQ 'HQNVWUDWHJLHQEHUXKHQ 6RLVWHVP|JOLFKMHGH,GHH(UILQGXQJGXUFKXQLYHUVHOOH*UXQGUHJHOQ]XHUNOlUHQXQG GHQ3UR]HVV]XU*HQHULHUXQJQHXHUYHUEHVVHUWHU 3URGXNWHJH]LHOW]XVWHXHUQ =X GLHVHP =ZHFN VLQG NODUH 6FKQLWWVWHOOHQ ]ZLVFKHQ 6\VWHPHQ XQG 6XEV\VWHPHQ ZLH %DXJUXSSHQXQG%DXWHLOHQ]XGHILQLHUHQYJO6FKXUU6
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
WLJ]XHUNHQQHQ'LH6FKZHUHGHU)HKOHUIROJHQZLUGGXUFKGLH%HUHFKQXQJHLQHU 5LVLNRSULRULWlWV]DKO53= HUPLWWHOW'D]XLVWPLW+LOIHYRQ3XQNW]DKOHQ]ZLVFKHQ XQG MHGHU )HKOHU QDFK $XIWULWWV XQG (QWGHFNXQJVZDKUVFKHLQOLFKNHLW VRZLH %HGHXWXQJ VHLQHU )ROJHQ ]X EHZHUWHQ 'XUFK 0XOWLSOLNDWLRQ GHU (LQ]HOSXQNW]DK OHQHUJLEWVLFKGLH53=DOVREMHNWLYLHUWHU5LVLNRPDVWDE Design-Phase ,Q GHU 'HVLJQ3KDVH VWHKW GLH 'HWDLOOLHUXQJ GHV 3URGXNW XQG 3UR]HVVGHVLJQV DXI GHU%DVLVGHVIDYRULVLHUWHQ+LJK/HYHO'HVLJQVDXVGHU$QDO\VH3KDVHLP9RUGHU JUXQG 0LWKLOIH YRQ 4)' ZLUG GLH hEHUWUDJXQJ GHU Ä6WLPPHGHV.XQGHQ³LQGLH WHFKQLVFKH 3URGXNW XQG 3UR]HVVJHVWDOWXQJ ZHLWHU IRUWJHVHW]W 'LH $QZHQGXQJ YRQ 4)' EH]LHKW VLFK LQVE DXI GLH Transformation der im 2. HoQ ermittelten Komponentenmerkmale in Prozessmerkmale hEHU HLQHQ LWHUDWLYHQ 3UR]HVV ZHU GHQVRGLH.XQGHQDQIRUGHUXQJHQDXIGLH.RQVWUXNWLRQGLH3UR]HVVXQG3URGXNWL RQVSODQXQJEHUWUDJHQ=LHOLVWHVHLQHKLQVLFKWOLFKPDQXHOOHURGHUWHLO DXWRPD WLVLHUWHU 0RQWDJH RSWLPLHUWH 3URGXNWJHVWDOW HLQVFKOLHOLFK GHV 3URGXNWDXIEDXV ]X HQWZHUIHQ,P6LQQHHLQHV'HVLJQIRU0DQXIDFWXULQJDQG$VVHPEO\')0$ VROO QLFKW QXU GLH JHQHUHOOH +HUVWHOOEDUNHLW VRQGHUQ DXFK GLH HLQIDFKH XQG IHKOHUIUHLH 0RQWDJHGHV3URGXNWHVLP6HULHQSUR]HVVJHZlKUOHLVWHWZHUGHQ 'LH Entwicklung eines robusten Designs GDV DOV =LHO GLH .XQGHQDQIRUGHUXQJHQ EHVWP|JOLFK HUIOOW XQG VLFK JOHLFK]HLWLJ ZLUWVFKDIWOLFK KHUVWHOOHQ OlVVW HUIRUGHUW MHGRFK QHEHQ GHP ÄTXDOLWDWLYHQ ,QVWUXPHQW³ 4)' GHQ (LQVDW] YRQ '2( YJO $EVFKQLWW 'DGXUFK N|QQHQ GLH IXQNWLRQDOHQ $EKlQJLJNHLWHQ XQG :HFK VHOZLUNXQJHQ ]ZLVFKHQ 3URGXNW XQG .RPSRQHQWHQPHUNPDOHQ VRZLH ]ZLVFKHQ .RPSRQHQWHQ XQG 3UR]HVVPHUNPDOHQ RIIHQ JHOHJW ZHUGHQ 'DV 9RUJHKHQ HQW VSULFKWLP:HVHQWOLFKHQGHU9HUVXFKVSODQORJLNZLHVLHLP'0$,&=\NOXVDQJH ZHQGHWZLUG$OOHLQGLH6FUHHQLQJ9HUVXFKHN|QQHQHQWIDOOHQGDGLHZHVHQWOLFKHQ (LQIOXVVJU|HQEHUHLWVLP'HSOR\PHQW3UR]HVVHUPLWWHOWZRUGHQVLQG 'HPÄTXDQWLWDWLYHQ,QVWUXPHQW³'2(NRPPWDEHUQLFKWQXUEHLGHU(QWZLFNOXQJ VRQGHUQ DXFK EHL GHU Evaluierung des detaillierten Designs HLQH KHUDXVUDJHQGH %HGHXWXQJ ]X 6RZLUG]%GLH5HDNWLRQVIOlFKHQ0HWKRGLN560 GD]XJHQXW]W XP GHQ (LQIOXVV YHUVFKLHGHQHU PHWULVFKHU )DNWRUHQ .RPSRQHQWHQPHUNPDOH DXI GLH(UJHEQLVYDULDEOH3URGXNWPHUNPDO LP%HUHLFKGHU=LHOVSH]LILNDWLRQ]XEHU SUIHQ 'LH ,QIRUPDWLRQ EHU GHQ IXQNWLRQHOOHQ =XVDPPHQKDQJ LQ GLHVHU 5HJLRQ LVW KLOIUHLFK XP HLQHUVHLWV GLH .RPSRQHQWHQPHUNPDOH RSWLPDO DXV]XOHJHQ XQG DQGHUHUVHLWVGLH0HUNPDOVDXVSUlJXQJVWDWLVWLVFK]XWROHULHUHQ
1DFK GHQ EHLGHQ .ULWHULHQ $QZHQGXQJV]HLWSXQNW XQG 8QWHUVXFKXQJVREMHNW N|QQHQ GUHL $UWHQ YRQ )0($¶V XQWHUVFKLHGHQ ZHUGHQ 6R EHJOHLWHW GLH 6\VWHP)0($ GLH *HVDPWNRQ]HSWSKDVH GLH .RQVWUXNWLRQV)0($ GLH 3URGXNWHQWZXUIVSKDVH XQG GLH 3UR]HVV)0($GLH)HUWLJXQJVSODQXQJVSKDVHYJO'*4D6 'LH'XUFKIK UXQJ HLQHU JDQ]KHLWOLFKHQ6\VWHP)0($OlXIWVWDQGDUGPlLJLQIQI6FKULWWHQDEXQG IKUW]XQDFKKDOWLJHQ.RVWHQVHQNXQJHQYJO6SRQQHUHWDO6
.RQ]HSWLRQXQG,QKDOWHGHU6L[6LJPD9HUEHVVHUXQJV]\NOHQ
'LHToleranzfestlegung LVWHLQHGHU+DXSWDXIJDEHQLP5DKPHQGHV')663UR]HV VHV 'HQQ XP HLQ UREXVWHV 'HVLJQ ]X HUUHLFKHQ PVVHQ GLH 3URGXNWPHUNPDOH 3UR]HVVHUJHEQLVVH HLQHQ JHULQJHQ 7ROHUDQ]EHUHLFK DXIZHLVHQ XQG UHODWLY XQHPS ILQGOLFK JHJHQEHU 6FKZDQNXQJHQ GHU (LQIOXVVIDNWRUHQ VHLQ GLH VRZRKO HU ZQVFKWHUDOVDXFKXQHUZQVFKWHU1DWXUVHLQN|QQHQ8QHUZQVFKWH(LQIOXVVJU| HQ ZHUGHQ YRQ 7DJXFKL DOV 5DXVFKIDNWRUHQ 1RLVH EH]HLFKQHW HUZQVFKWH DOV 6LJQDOIDNWRUHQ 6LJQDO :LH LQ $EVFKQLWW DXVJHIKUW JHKW HV GDUXP GHQ 61:HUWDOV9HUKlOWQLVYRQ6LJQDO]X5DXVFKOHLVWXQJ]XPD[LPLHUHQ ,P (UJHEQLV GHU 'HVLJQ3KDVH ZHUGHQ IU 3URGXNW .RPSRQHQWHQXQG 3UR]HVV PHUNPDOHVRJDesign ScorecardsHQWZLFNHOWLQGHQHQGLH6ROO:HUWHIU0LWWHO ZHUW /DJH XQG 6WDQGDUGDEZHLFKXQJ 6WUHXXQJ DOOHU UHOHYDQWHQ 0HUNPDOH GR NXPHQWLHUWVLQG'DUEHUKLQDXVZHUGHQVRZHLWP|JOLFK$QJDEHQ]XU3UR]HVVIl KLJNHLW &SN:HUW VRZLH ]XU 3UR]HVVDXVEHXWH 57<:HUW MH 6WHXHUXQJVJU|H JHPDFKW )U GDV 4XDOLWlWVQLYHDX GDV DXI MHGHU 6WXIH GHV 'HSOR\PHQW3UR]HVVHV HUUHLFKW ZHUGHQ VROO ZLUG GHU σ:HUW DQJHJHEHQ )UGLH5REXVWKHLWHLQHU.RP SRQHQWHE]ZHLQHV3UR]HVVHVLVWGHU61:HUW]XEHUHFKQHQ6FKOLHOLFKZLUGGLH =XYHUOlVVLJNHLW GHU DXVJHZlKOWHQ .RPSRQHQWHQ EHU GLH FKDUDNWHULVWLVFKH /H EHQVGDXHU GRNXPHQWLHUW 6LH ZLUG EHU GLH EHNDQQWH :HLEXOO9HUWHLOXQJ HUPLW WHOW XQG EHVFKUHLEW GLH GXUFKVFKQLWWOLFKH /HEHQVGDXHU LQ GHU DOOHU SURGX ]LHUWHQ%DXWHLOHDXVJHIDOOHQVLQGYJO%HUWVFKH/HFKQHU6 Verify-Phase ,QGHUOHW]WHQ3KDVHGHV'0$'9=\NOXVZLUGPLWGHUPilotierung des neugestalteten Prozesses EHJRQQHQ =LHO LVW HV GLH /HLVWXQJVIlKLJNHLW GHV QHXHQWZLFNHOWHQ 3URGXNWVEHL6HULHQIHUWLJXQJ]XEHUSUIHQ)DOOHQGLH7HVWHUJHEQLVVHGHV9RUVH ULHQEHWULHEV SRVLWLY DXV ZLUG PLW GHU ,PSOHPHQWLHUXQJ 8PVHW]XQJ LP 7DJHVJH VFKlIW EHJRQQHQ $QGHUQIDOOV LVW EHU HLQH 0RGLIL]LHUXQJ GHV 3URGXNWNRQ]HSWHV QDFK]XGHQNHQXQGX8HLQ5FNVSUXQJLQGLH$QDO\VH3KDVHQRWZHQGLJ 'LH hEHUIKUXQJ GHU HUDUEHLWHWHQ /|VXQJ LQ GLH $UEHLWVYRUEHUHLWXQJV XQG 3UR GXNWLRQVSKDVH HUIRUGHUW HLQH 5HLKH YRQ EHJOHLWHQGHQ $NWLYLWlWHQ hEHU HLQH Maschinenfähigkeitsanalyse PXVVEVSZDEJHVLFKHUWZHUGHQGDVVPLWGHQYRUKDQGH QHQ 0DVFKLQHQ GDV JHIRUGHUWH 4XDOLWlWVQLYHDX WDWVlFKOLFK HUUHLFKW ZLUG ,VW GLHV QLFKW JHJHEHQ VLQG JJI QHXH 0DVFKLQHQ :HUN]HXJH ]X EHVFKDIIHQ RGHU DQGHUH +HUVWHOOYHUIDKUHQ ]X ZlKOHQ :HLWHUKLQ LVW GXUFK HLQH Messsystemanalyse *DJH 5 5 VLFKHU]XVWHOOHQ GDVV DOOH YHUZHQGHWHQ 6HULHQPHVVPLWWHO XQG PHWKRGHQ
:LH GLH =XYHUOlVVLJNHLW YRQ %DXWHLOHQ .RPSRQHQWHQ XQG 6\VWHPHQ PLWKLOIH GHU 6L[ 6LJPD0HWKRGLNV\VWHPDWLVFKHUK|KWZHUGHQNDQQ]HLJHQXD.XPDUHWDO ,Q LKUHP %XFK Ä5HOLDELOLW\ DQG 6L[ 6LJPD³ JHKHQ VLH YRU DOOHP DXI GLH VWDWLVWLVFKHQ *UXQGODJHQ]XU2SWLPLHUXQJGHUFKDUDNWHULVWLVFKHQ/HEHQVGDXHUHWFHLQ $XI GHU %DVLV GHU YRQ :$/2'', :(,%8// HQWZLFNHOWHQ 9HUWHLOXQJVIXQNWLRQ NDQQGDV$XVIDOOYHUKDOWHQYRQVHULHOOHQ6\VWHPHQ]%3URGXNWHLQGHU1XW]XQJVSKDVH RGHU0DVFKLQHQLP3URGXNWLRQVSUR]HVVSURJQRVWL]LHUWZHUGHQ
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
HLQHKLQUHLFKHQGH*HQDXLJNHLWXQG=XYHUOlVVLJNHLWEHVLW]HQYJO$EVFKQLWW (UVWXQWHUGLHVHU9RUDXVVHW]XQJN|QQHQ.RQWUROO3UISOlQHIUGLH)HUWLJXQJXQG 0RQWDJHVRZLHIU=XOLHIHUWHLOHDXIJHVWHOOWZHUGHQ )U DOOH NULWLVFKHQ 4XDOLWlWVPHUNPDOH &74V GLH LQ GHQ 'HVLJQ 6FRUHFDUGV HQWKDOWHQ VLQG ZHUGHQ JHHLJQHWH 0HVVJU|HQ GHILQLHUW XQG DQVFKOLHHQG PLWWHOV Statistischer Prozessregelung 63& EHUZDFKW 'XUFK 5HJHONDUWHQ ZLUG HLQH NRQWLQXLHUOLFKH hEHUZDFKXQJ GHU3UR]HVVVWUHXXQJXQGIlKLJNHLWEH]RJHQDXIGLH (LQKDOWXQJ GHU &74V LP 6HULHQSUR]HVV VLFKHUJHVWHOOW $QDORJ ]XP '0$,&=\N OXV ZHUGHQ 3UR]HVVDQZHLVXQJHQ XQG GRNXPHQWDWLRQHQ HUVWHOOW GLH GHP 3UR]HVV HLJQHUQDFK$EVFKOXVVGHV3URMHNWHVEHUJHEHQZHUGHQ ,Q OHW]WJHQDQQWHP VLQG Reaktionspläne HQWKDOWHQ GLH GHP 3UR]HVVHLJQHU &KDP SLRQ DQ]HLJHQ ZDV ]X WXQ LVW ZHQQ GHU 3UR]HVV DXHU .RQWUROOH JHUlW XQG GLH GHILQLHUWHQ :DUQ (LQJULIIVJUHQ]HQ YHUOHW]W ZXUGHQ 'DV .RQILJXUDWLRQVPDQDJH PHQW VRZLH GLH %HVWLPPXQJ YRQ 3URGXNWLRQV $UEHLWVPLWWHOQ ZLUG HEHQIDOOV GXUFKHLQ+R4LP5DKPHQGHV4)'XQWHUVWW]W'DGXUFKZLUGHLQHV\VWHPDWLVFKH XQG GXUFKJlQJLJH hEHUWUDJXQJ GHU .XQGHQDQIRUGHUXQJHQ LQ GLH RSHUDWLYHQ %H WULHEVDEOlXIH$UEHLWVYRUEHUHLWXQJ)HUWLJXQJVSODQXQJ JHZlKUOHLVWHW Kritische Bewertung: $QDORJ ]XP '0$,&=\NOXV KlOW GHU '0$'9=\NOXV HLQHQHLQGHXWLJEHVFKULHEHQHQ3KDVHQDEODXIIUGLH'XUFKIKUXQJYRQ6L[6LJPD 3URMHNWHQ LP ) (%HUHLFK EHUHLW $XV GLHVHP *UXQG ZLUG GDV .ULWHULXP ]X HUIOOW DQJHVHKHQ VLHKH $EE :HLWHUKLQ EHLQKDOWHW GHU '0$'9 =\NOXV HLQHQ VWUXNWXULHUWHQ 0HWKRGHQHLQVDW] *HJHQEHU GHP '0$,&=\NOXV VLQG KLHU MHGRFK LQVRIHUQ $EVWULFKH ]X PDFKHQ GDVV GHU 0HWKRGHQHLQVDW] PHKU Ä.DQQ³ DOV Ä0XVV³5HJHOXQJHQ HQWKlOW =XGHP HUVWUHFNW VLFK GLH $QZHQGXQJ HLQ]HOQHU 0HWKRGHQ JOHLFK DXI PHKUHUH 3KDVHQ ]% 4)' 9RU GLHVHP +LQWHU JUXQGOLHJWGHU(UIOOXQJVJUDGYRQ.ULWHULXPEHL $XFKEHLGHQ.ULWHULHQXQGEOHLEHQGLH(UIOOXQJVJUDGHGHV'0$'9=\NOXV KLQWHUGHQHQGHV'0$,&=\NOXV]XUFN6RZLUGGLH:LUWVFKDIWOLFKNHLWGHV3URE OHPO|VXQJV]\NOXV XD GDGXUFK QHJDWLY EHHLQIOXVVW GDVV GLH &74V ]X 3URMHNWEH JLQQXQEHNDQQWVLQGXQG±]%PLWKLOIHYRQXPIDQJUHLFKHQ0DUNWIRUVFKXQJVDNWL YLWlWHQ ± ]XQlFKVW HUXLHUW ZHUGHQ PVVHQ 'LHV ]LHKW L$ HLQHQ XPIDQJUHLFKHUHQ XQG DXI HLQHQOlQJHUHQ=HLWUDXPDXVJHOHJWHQ3URMHNWIRNXVQDFKVLFKGDV.ULWHUL XPLVW]XHUIOOW)UGHQUHODWLYJHULQJHQ(UIOOXQJVJUDGYRQ.ULWHULXP =LHOHUUHLFKXQJVJUDG L+Y VSULFKW LQ HUVWHU /LQLH GLH 7DWVDFKH GDVV GLH DQJHVWUHEWHQ H[SRQHQWLHOOHQ 9HUEHVVHUXQJHQ LP 5DKPHQ GHV '0$'9=\NOXV KlXILJQLFKWHUUHLFKWZHUGHQN|QQHQYJO$EVFKQLWW
)RUPDODQDO\WLVFKH%HVFKUHLEXQJXQG$QDO\VHGHU6L[6LJPD=\NOHQ
3.4
Formal-analytische Beschreibung und Analyse der Six SigmaVerbesserungszyklen
,Q GHQ IROJHQGHQ EHLGHQ $EVFKQLWWHQ ZLUG XQWHUVXFKW ZLH VLFK GDV 9RUJHKHQ LP 5DKPHQ GHV '0$,& XQG '0$'9=\NOXV DQDO\WLVFK EHVFKUHLEHQ OlVVW $XV JDQJVSXQNW ELOGHW GLH %HUHLWVWHOOXQJ PDWKHPDWLVFKHU 0RGHOOH LQ )RUP YRQ $OJR ULWKPHQ RGHU +HXULVWLNHQ ]XU /|VXQJ NRPSOH[HU 3UREOHPH DXI GHU $EVWUDNWLRQV HEHQH $P %HLVSLHO GHU Suche des globalen Optimums HLQHU VSH]LHOOHQ )XQNWLRQ \ I[ PLW ]ZHL 0D[LPD ZLUG JH]HLJW ZLH '0$,& XQG '0$'9=\NOXV DXV PDWKHPDWLVFKHU 6LFKW ÄIXQNWLRQLHUHQ³ ,P (UJHEQLV N|QQHQ ]XP HLQHQ GLH $Q ZHQGXQJVP|JOLFKNHLWHQ XQG JUHQ]HQ GHU EHLGHQ 6L[ 6LJPD9HUEHVVHUXQJV]\N OHQEHVVHUDEJHVFKlW]WZHUGHQ=XPDQGHUHQZLUGGXUFKHLQHYHUHLQIDFKWHJUDSKL VFKH 9HUDQVFKDXOLFKXQJ VLFKHUJHVWHOOW GDVV GLH 9HUVWlQGOLFKNHLW 7UDQVSDUHQ] KRFK LVW XQG LQIROJHGHVVHQ GLH .RPPXQLNDWLRQ ]ZLVFKHQ :LVVHQVFKDIWOHU XQG 3UDNWLNHUDXIUHFKWHUKDOWHQEOHLEWYJO$EVFKQLWW 3.4.1
DMAIC-Zyklus als abstraktes Vorgehensmodell
(QWVSUHFKHQG GHQ (UOlXWHUXQJHQ ]XP )RUVFKXQJVGHVLJQ LP (LQIKUXQJVNDSLWHO VLHKH $EE ± ZLUG LQ GLHVHP $EVFKQLWW HLQH Rekonstruktion der Phasen des DMAIC-Zyklus auf der AbstraktionsebeneYRUJHQRPPHQ'LH$EVWUDNWLRQEHVWHKW LQ GHU 8PZDQGOXQJ GHV UHDOHQ 3URMHNWPDQDJHPHQW]\NOXV GHVVHQ 0HWKRGHQ XQG 3UR]HVVHLPYRUVWHKHQGHQ$EVFKQLWWDXVIKUOLFKEHVFKULHEHQZXUGHQLQHLQDQDO\ WLVFKHV 9RUJHKHQVPRGHOO ZHOFKHV ]XU /|VXQJ NRPSOH[HU 2SWLPLHUXQJVDXIJDEHQ LQYHUVFKLHGHQHQ:LVVHQVFKDIWVGLV]LSOLQHQGLHQW 1DFKGHQ$XVIKUXQJHQLQ$EVFKQLWWZLUGGHU'0$,&=\NOXV]XP5HSDULH UHQ1HXHLQVWHOOHQYRQEHVWHKHQGHQ 3UR]HVVHQLQ8QWHUQHKPHQHLQJHVHW]W'DEHL JHKW PDQ GDYRQ DXV GDVV LP 0RPHQW HLQVXERSWLPDOHV3UR]HVVQLYHDXPLWHLQHP QLFKW]XIULHGHQVWHOOHQGHQ 3UR]HVVRXWSXW UHDOLVLHUW ZLUG =LHO LVW HV GLH UHOHYDQWHQ 3UR]HVV ,QSXWJU|HQ ]X LGHQWLIL]LHUHQ XQG LP /DXIH GHU 3URMHNWEHDUEHLWXQJ VR HLQ]XVWHOOHQGDVVHLQDXV.XQGHQVLFKWRSWLPDOHU2XWSXWHU]LHOWZLUG 'DV9RUJHKHQLP5DKPHQYRQ6L[6LJPDLVWGDGXUFKJHSUlJWGDVVHLQHDXIDQDO\ WLVFKHQ )XQNWLRQHQ EDVLHUHQGH 'HVLJQRSWLPLHUXQJ YRUJHQRPPHQ ZLUG 'LH GDPLW YHUEXQGHQH Untersuchung von Input-Output-Beziehungen HUIROJW DXI GHU %DVLV YRQ IXQNWLRQHOO EHVFKULHEHQHQ XQG DQDO\VLHUWHQ 8UVDFKHQ:LUNXQJVNHWWHQ 'LH /|VXQJVVXFKH ILQGHW DXI GHU $EVWUDNWLRQV XQG QLFKW DXI GHU 5HDOLWlWVHEHQH VWDWW
,P 6LQQH GHU 6\QHNWLN HLQHP GHU VLHEHQ .UHDWLYLWlWVZHUN]HXJH . KDQGHOW HV VLFK KLHUEHL XP GHQ VRJ )RUFH)LW YJO %DFNHUUD HW DO 6 II (V ZLUG GD]X DXI JHIRUGHUW :LVVHQ DXV IDFKIUHPGHQ %HUHLFKHQ PLW GHP $XVJDQJVSUREOHP ]X YHUNQS IHQ XP GDUDXV NUHDWLYH /|VXQJVP|JOLFKNHLWHQ DE]XOHLWHQ 'LHVHU hEHUWUDJXQJVVFKULWW ZLUG DOV Ä(U]ZXQJHQH (LJQXQJ³ E]Z LP (QJOLVFKHQ DOV Ä)RUFH)LW³ EH]HLFKQHW 'HU 3UREOHPO|VHU YHUVXFKW ÄPLW *HZDOW³ GLH (LJQXQJ HLQHU SUREOHPIUHPGHQ 6WUXNWXU DOV /|VXQJVDQDORJLH]XGHPHLJHQWOLFKHQ3UREOHPKHU]XVWHOOHQ
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
YJO KLHU]X DXFK $EVFKQLWW ,P .HUQ JHKW HV XP GLH 8QWHUVXFKXQJ YRQ PDWKHPDWLVFKVWDWLVWLVFKHQ )XQNWLRQHQ LP +LQEOLFN DXI P|JOLFKH ([WUHPZHUWH 0D[LPD XQG 0LQLPD GLH GDQQ ]XU $EOHLWXQJ NRQNUHWHU 3UR]HVVHLQVWHOOXQJHQ JHQXW]W ZHUGHQ 9RU GLHVHP +LQWHUJUXQG VSLHJHOQ VLFK GLH ,QKDOWH GHU HLQ]HOQHQ 3KDVHQGHV'0$,&=\NOXVLQHLQHPDEVWUDNWHQ2SWLPLHUXQJVPRGHOOZLGHU 'DVPHWKRGLVFKH9RUJHKHQVROOKLHUEHLVSLHOKDIWDQKDQGHLQHVeinfaktoriellen Ursachen-Wirkungszusammenhangs PLW HLQHU DEKlQJLJHQ XQG HLQHU XQDEKlQJLJHQ 9DULDEOH YHUGHXWOLFKW ZHUGHQ 'LH JHZlKOWH ELYDULDWH )XQNWLRQ PLW ]ZHL ORNDOHQ 0D[LPD XQG HLQHP ORNDOHQ 0LQLPXP LVW LP [\'LDJUDPP LQ $EE GDUJH VWHOOW'HU)XQNWLRQVYHUODXILVWYRU3URMHNWEHJLQQXQEHNDQQWGKHUOLHJWLP9HU ERUJHQHQ XQG LVW GXUFK JHHLJQHWH 9HUIDKUHQ ]XQlFKVW ]X LQWHUSROLHUHQ 'HU6WDUW SXQNW GHU 2SWLPLHUXQJ OLHJW EHL [ \ $OV 3URGXNWEHLVSLHO ZLUG LP )ROJHQGHQ GLH2SWLPLHUXQJHLQHV.XJHOVFKUHLEHUV]XJUXQGHJHOHJW Suchraum
Output y
y = f(x)
Measure
y*
Δy2
Δy1
Analyse y = f(x) = m·x + n
y2 y1
Kaizen
y0
0
x0
x1
xM
Δx1
Improve
x2
x*
Input x
Δx2
Quelle: Eigene Darstellung
$EE5HNRQVWUXNWLRQGHV'0$,&=\NOXVDOVDQDO\WLVFKHV2SWLPLHUXQJVPRGHOO
Define-Phase ,Q GLHVHU 3KDVH ZLUG ]XQlFKVW HLQH 3UREOHPVWUXNWXULHUXQJ YRUJHQRPPHQ XP ]X VSH]LIL]LHUHQ ZHOFKHV 3KlQRPHQ HUNOlUW E]Z ZHOFKHV 3UREOHP JHO|VW ZHUGHQ VROO,P5DKPHQGHU=LHOGHILQLWLRQZLUGHLQH=LHOJU|HDXV.XQGHQVLFKWGHILQLHUW ]% /HEHQVGDXHU HLQHU .XJHOVFKUHLEHUPLQH GLH HV ]X PD[LPLHUHQ RGHU ]X PLQL
)RUPDODQDO\WLVFKH%HVFKUHLEXQJXQG$QDO\VHGHU6L[6LJPD=\NOHQ
PLHUHQJLOWE]ZIUGLHHLQEHVWLPPWHV=LHOQLYHDXHUUHLFKWZHUGHQVROO8QWHUGHU 9RUDXVVHW]XQJ GDVV GLH =LHOJU|H HLQGHXWLJ XQG HIIL]LHQW PHVVEDU LVW JHKW VLH GLUHNWDOV]Xerklärende Variable yLQGDV2SWLPLHUXQJVPRGHOOHLQ$QGHUQIDOOVLVW QDFK HLQHU JHHLJQHWHQ 2XWSXWJU|H ]X VXFKHQ GLH PLW GHU =LHOJU|H VWDUN NRUUH OLHUWDEHUOHLFKWHU ]XEHVWLPPHQLVW]%)OOPHQJHGHU.XJHOVFKUHLEHUPLQH,P (UJHEQLV GHU 'HILQH3KDVH VLQG GLH \$FKVH GHV 'LDJUDPPV GHILQLHUW VRZLH GDV DQJHVWUHEWH =LHO 2XWSXWQLYHDX \ TXDQWLIL]LHUW 'D GLH )HVWOHJXQJ YRQ \ DXV .XQGHQVLFKWYRUJHQRPPHQZLUGOLHJWGHIDFWRNHLQH]ZLQJHQGH.RUUHODWLRQ]XP =LHOIXQNWLRQVYHUODXI\ I[ YRUGKHLQHhEHUHLQVWLPPXQJYRQ\PLWGHQORND OHQ0D[LPDDQGHQ6WHOOHQ[RGHU[ ZlUHUHLQ]XIlOOLJHU1DWXU Measure-Phase 1DFKGHP)HVWOHJHQGHU]XHUNOlUHQGHQ9DULDEOH\ZLUGLQGLHVHU3KDVHGDV$XV JDQJVQLYHDX GHU =LHO E]Z 2XWSXWPHVVJU|H \ EHVWLPPW 'HU 9HUJOHLFK YRQ Ausgangs- und Zielniveau ]HLJW GHQ 2SWLPLHUXQJV +DQGOXQJVEHGDUI DQ -H JU| HU GLH 'LIIHUHQ] Δ\ \ ± \ LVW GHVWR K|KHU LVW GDV JHJHQZlUWLJH 9HUEHVVH UXQJVSRWHQ]LDO 'DEHL ZLUG GDYRQ DXVJHJDQJHQ GDVV GDV =LHO 2XWSXWQLYHDX \ GDV GHU]HLW PD[LPDO HUZDUWHWH 1LYHDX DXV .XQGHQVLFKW GDUVWHOOW (LQH EHU \ KLQDXVJHKHQGH (UIOOXQJ GHV NULWLVFKHQ 4XDOLWlWVPHUNPDOV ZUGH GLH =XIULHGHQ KHLWGHV.XQGHQPLWGHP3URGXNWE]ZGHU'LHQVWOHLVWXQJZHLWHUHUK|KHQ ,P(UJHEQLVGHU0HDVXUH3KDVHVLQGGHU,VW2XWSXW\TXDQWLIL]LHUW]%)OOPHQ JH POVRZLHGHU$EVWDQGΔ\]ZLVFKHQGHU]HLWUHDOLVLHUWHUXQG]XNQIWLJDQ JHVWUHEWHU3UR]HVVOHLVWXQJRIIHQJHOHJW'DEHUGLHIXQNWLRQHOOH$EKlQJLJNHLWELV GDWRNHLQH,QIRUPDWLRQYRUOLHJWN|QQHQEHUGLHPD[LPDOHUUHLFKEDUH$XVSUlJXQJ GHU =LHO 2XWSXWJU|H \ JHQDXVR ZHQLJ $QJDEHQ JHPDFKWZHUGHQZLHEHUGLH /DJHGHVQlFKVWOLHJHQGHQORNDOHQ0D[LPDEHL[\ Analyse-Phase ,Q GLHVHU 3KDVH ZLUG GHU )UDJH QDFKJHJDQJHQ ZHOFKHU XUVlFKOLFKHU =XVDPPHQ KDQJ]ZLVFKHQGHU=LHO2XWSXWPHVVJU|H\XQGGHU3UR]HVV,QSXWPHVVJU|H[ EHVWHKW ]% 0LQHQOlQJH ,P HLQIDFKVWHQ )DOO OLHJW HLQ OLQHDUHU 8UVDFKHQ:LU NXQJV]XVDPPHQKDQJ YRU EHL GHP HLQH (UK|KXQJ GHU unabhängigen Variable x XP(LQKHLW]XHLQHU(UK|KXQJGHUDEKlQJLJHQ9DULDEOH\XPP(LQKHLWHQIKUW %HL GHQ PHLVWHQ 2SWLPLHUXQJVDXIJDEHQ LVW GLHV QLFKW JHJHEHQ 2IWPDOV OLHJHQ PXOWLYDULDWH QLFKWOLQHDUH $EKlQJLJNHLWHQ PLW PHKUHUHQ ORNDOHQ 0D[LPD XQG RGHU0LQLPDYRU'LH)XQNWLRQ\ I[ EHVFKUHLEWGDEHLGHQZDKUHQDEHUIUGHQ )RUVFKHU ]XQlFKVW XQEHNDQQWHQ =XVDPPHQKDQJ ]ZLVFKHQ GHU ,QSXW XQG 2XWSXW YDULDEOH :LH OHLFKW QDFKYROO]LHKEDU LVW OlVVW VLFK GHU DXV .XQGHQVLFKW RSWLPDOH 3XQNW[\ QXUGDQQHUUHLFKHQZHQQGHUIXQNWLRQHOOH=XVDPPHQKDQJ]ZLVFKHQ [XQG\DXVJHKHQGYRQ[ELV]XU6WHOOH[KLQUHLFKHQGJHQDXEHNDQQWLVW ,Q GHU 6SUDFKH YRQ 6L[ 6LJPD EHGHXWHW GLHV GDVV GDV 3UR]HVVIHQVWHU JUR JHQXJ VHLQ PXVV XP SRVLWLYH 9HUlQGHUXQJHQ DXI GHQ 3UR]HVVRXWSXW ]X HUNHQQHQ XQG HLQ VHOHNWLYHV 9RUJHKHQ EHL GHU 0DQDKPHQDEOHLWXQJ ]X YHUPHLGHQ 'LH Schät-
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
zung des FunktionsverlaufsHUIROJWLG5IUHLQHQEHVWLPPWHQ'HILQLWLRQVEHUHLFK E]Z 6XFKUDXP LQ GHP GLH $XVSUlJXQJ GHU XQDEKlQJLJHQ 9DULDEOH [ IU ZDKU VFKHLQOLFKXQGLQSUD[LIUUHDOLVLHUEDUJHKDOWHQZLUG,PHLQIDFKVWHQ)DOOZLUGGHU =XVDPPHQKDQJEHUHLQOLQHDUHV5HJUHVVLRQVPRGHOOJHVFKlW]W ,P [\'LDJUDPP LQ $EE LVW DXVJHKHQG YRP 3XQNW [ \ HLQH OLQHDUH 5HJUHVVLRQVIXQNWLRQǔ I[ HLQJH]HLFKQHWZHOFKH]XU6FKlW]XQJGHV)XQNWLRQV YHUODXIV LP %HUHLFK >[ [@ KHUDQJH]RJHQ ZLUG 'DGXUFK OlVVW VLFK GDV ORNDOH 0D[LPXP LP 3XQNW [ \ DQQlKHUQG EHVWLPPHQ 'HU $QVWLHJ GHU )XQNWLRQ HUJLEW VLFK DXVGHP9HUKlOWQLVYRQΔ\]XΔ[HUVFKZDQNWLQ$EKlQJLJNHLWYRQ GHQ DXIJHQRPPHQHQ 'DWHQSXQNWHQ LP UHOHYDQWHQ 3UR]HVVIHQVWHU LP %HLVSLHO OLHJHQGLH3XQNWHLP%HUHLFK>[[@'DV9HUKlOWQLVΔ\Δ[LVWJOHLFK]HLWLJHLQ 0DIUGLH(IIL]LHQ]GHUHLQJHOHLWHWHQ9HUEHVVHUXQJVDNWLYLWlWHQ ,VWGHU)XQNWLRQVYHUODXI]%GXUFKHLQ3RO\QRPQWHQ*UDGHVKLQUHLFKHQGJHQDX JHVFKlW]WZRUGHQGDQQJLEWHVverschiedene mathematische Verfahren]%7DQ JHQWHQ XQG 6HNDQWHQYHUIDKUHQ XP GHQ 3XQNW [ \ PLW HLQHU VHKU JHULQJHQ )HKOHUZDKUVFKHLQOLFKNHLW]XHUXLHUHQ)U[[E]Z[![LVWGDV5HJUHVVLRQV PRGHOO QLFKW ]XWUHIIHQG VR GDVV VRZRKO GHU 2SWLPDOSXQNW DXV .XQGHQVLFKW [ \ DOV DXFK GDV JOREDOH 0D[LPXP [ \ PLW GLHVHU 0HWKRGLN QLFKW JHIXQGHQ GK GHWHNWLHUW ZHUGHQ'LHZLFKWLJVWHQ$OJRULWKPHQGLH]XP$XIILQGHQYRQJOR EDOHQ0D[LPDEHLNRPSOH[HQLQGHU6SUDFKHGHU0DWKHPDWLNIRUPXOLHUWHQ3URE OHPVWHOOXQJHQKHUDQJH]RJHQZHUGHQVLQGLPQlFKVWHQ.DSLWHODXIJHIKUW Improve-Phase 1DFKGHP HLQ IXQNWLRQHOOHU =XVDPPHQKDQJ ]ZLVFKHQ XQDEKlQJLJHU HUNOlUHQGHU XQG DEKlQJLJHU ]X HUNOlUHQGHU 9DULDEOH KHUJHVWHOOW XQG LQ GHU 3UD[LV GXUFK JH HLJQHWH7HVWVEHVWlWLJWZRUGHQLVWZLUGLQGHU,PSURYH3KDVHGDPLWEHJRQQHQGDV 3UR]HVV ,QSXWPHUNPDO EH]RJHQ DXI GHQ =LHOIXQNWLRQVZHUW RSWLPDO HLQ]XVWHOOHQ ,P %HLVSLHO ZUGH GDV 1LYHDX GHU ,QSXWYDULDEOH YRQ [ DXI [ HUK|KW 'DGXUFK ZLUG ± XQWHU %HUFNVLFKWLJXQJ GHV *OWLJNHLWVEHUHLFKV GHU OLQHDUHQ 5HJUHVVLRQV IXQNWLRQ±GLH/FNH]XP=LHOQLYHDX\DXIGHU2XWSXWVHLWHPLQLPLHUW %HVLW]WGHU)RUVFKHUGHU$NWHXU NHLQH.HQQWQLVEHUGHQZHLWHUHQ)XQNWLRQVYHU ODXI GDQQ VWHOOW IU LKQ GDV ORNDOH 0D[LPXP LP 3XQNW [ \ GLH LP 0RPHQW RSWLPDO UHDOLVLHUEDUH ,QSXW2XWSXW5HODWLRQ GDU ]% 0LQHQOlQJH LQ 6WDQGDUGJU| H'LHVH)HKO (LQVFKlW]XQJOLHJWYRUDOOHPGDULQEHJUQGHWGDVVHLQH(UK|KXQJ GHV :HUWHV GHU ,QSXWYDULDEOH EHU GHQ 3XQNW [ KLQDXV ]XQlFKVW ]X HLQHU 9HU VFKOHFKWHUXQJGHVGXUFKVFKQLWWOLFKHQ=LHO2XWSXWQLYHDXVIKUW:LHLQ$EE HUVLFKWOLFKLVWGLHQRWZHQGLJH9HUlQGHUXQJΔ[ [±[XPGDV=LHO2XWSXWQL YHDX \ ]X HUUHLFKHQ LP 9HUJOHLFK ]XU HUPLWWHOWHQ 9HUlQGHUXQJ Δ[ XP DXI GDV 1LYHDX \ ]X NRPPHQ UHODWLY JUR *OHLFK]HLWLJ LVW GHU GDGXUFK JHQHULHUWH =X VDW]QXW]HQDEOHVEDULP9HUKlOWQLVYRQΔ\]XΔ\UHODWLYNOHLQ 'DVÜberwinden des lokalen MinimumsEHL[0LVWQXUGXUFK,QQRYDWLRQP|JOLFK 'LHVHN|QQHQ±ZLHLQ$EVFKQLWWDXVJHIKUW±WHFKQLVFKHURUJDQLVDWRULVFKHU
)RUPDODQDO\WLVFKH%HVFKUHLEXQJXQG$QDO\VHGHU6L[6LJPD=\NOHQ
LQVWLWXWLRQHOOHU XQG RGHU VR]LDOHU $UW VHLQ 6RZRKO GLH 3URGXNWLQQRYDWLRQ DOV WHFKQLVFKH,QQRYDWLRQDOVDXFKGLH3UR]HVVLQQRYDWLRQDOVRUJDQLVDWRULVFKH,QQRYD WLRQ N|QQHQ GD]X EHLWUDJHQ GDVV GLH 6HQNH LP )XQNWLRQVYHUODXI XQG GDPLW GLH VXERSWLPDOH$XVSUlJXQJGHU=LHO2XWSXWJU|HEHUZXQGHQZLUG 1HEHQGHU$UWGHU,QQRYDWLRQZLUGGLH,QQRYDWLRQVZHLWHDOV0DIUGLH9HUEHVVH UXQJVK|KH EH]RJHQ DXI GLH =HLW XQWHUVFKLHGHQ 6R HUIRUGHUW GHUhEHUJDQJYRQ[ DXI [ L$ HLQH radikale Innovation GLH KlXILJ DXI HLQHP ZLVVHQVFKDIWOLFK WHFKQLVFKHQ 'XUFKEUXFK EHUXKW XQG GHP 8QWHUQHKPHQ Y|OOLJ QHXH :HJH LP 5DKPHQ GHV /HLVWXQJVHUVWHOOXQJVSUR]HVVHV HUP|JOLFKW YJO $EVFKQLWW 'HPJHJHQEHU ILQGHQ inkrementelle Innovationen HQWODQJ EHVWLPPWHU ÄWHFKQROR JLVFKHU 3IDGH³ VWDWW 'DEHL ZHUGHQ GLH 3UR]HVVH 3URGXNWH HQWVSUHFKHQG GHQ 0DUNWDQIRUGHUXQJHQ VFKULWWZHLVH YHUEHVVHUW 9RU GLHVHP +LQWHUJUXQG OlVVW VLFK XDGHUhEHUJDQJYRQ[DXI[GXUFKGLH$QZHQGXQJ.RQWLQXLHUOLFKHU9HUEHVVH UXQJ .DL]HQ HUNOlUHQ ± GLH $XVSUlJXQJ GHV 3UR]HVV ,QSXWPHUNPDOV ZLUG VR ODQJHYHUlQGHUWELVGHU$QVWLHJGHU=LHOIXQNWLRQJHJHQ1XOOJHKW Control-Phase 6LQG GLH 8UVDFKHQ:LUNXQJV]XVDPPHQKlQJH LQ GHU 8PJHEXQJ YRQ [ EHNDQQW VRZLHGLH3UR]HVV,QSXWJU|HQHQWVSUHFKHQGGHU=LHOZHUWRSWLPLHUXQJDQJHSDVVW GDQQLVWLP:HLWHUHQGLH(LQKDOWXQJGHV3XQNWHV[\ VLFKHU]XVWHOOHQ$XIJUXQG GHU IXQNWLRQHOOHQ $EKlQJLJNHLW ]ZLVFKHQ [ XQG \ NRPPW GHU $XVSUlJXQJ GHU XQDEKlQJLJHQ9DULDEOHHLQHVorsteuerungsfunktion]X'HQQGXUFKGLH6LFKHUVWHO OXQJGHV,QSXWVDXIGHP1LYHDX[ZHUGHQ$EZHLFKXQJHQLP2XWSXWGHUVLFKDP 6ROOZHUW\RULHQWLHUWYHUPLHGHQVRZLHTXDOLWlWVEHGLQJWH9HUOXVWHPLQLPLHUW ,QGHU3UD[LVZHUGHQVRZRKOGLHUHOHYDQWH2XWSXWPHVVJU|HDOVDXFKGLHLGHQWLIL ]LHUWHQ ,QSXW 3UR]HVVPHVVJU|HQ PLWKLOIH YRQ 6WDWLVWLVFKHU 3UR]HVVUHJHOXQJ EHUZDFKW ]%&SN:HUWIU0LQHQOlQJH'XUFKNRQWLQXLHUOLFKHV0RQLWRULQJGHU (LQVWHOOZHUWH IU [ LVW JHZlKUOHLVWHW GDVVVLFKGLHProzess-/ Produktmerkmale im zulässigen ToleranzbereichEHZHJHQYJO$EVFKQLWW 'DUEHUKLQDXVNRPPHQLQGHU&RQWURO3KDVH.930DQDKPHQ]XP(LQVDW]XP JJI YHUEOLHEHQH 2SWLPLHUXQJVOFNHQ QDFK GHU 3URMHNWSKDVH ]X VFKOLHHQ 'LHVH ODVVHQ VLFK XD GDUDXI ]XUFNIKUHQ GDVV GLH LQ GHU $QDO\VH3KDVH HUPLWWHOWH 6FKlW] 5HJUHVVLRQVIXQNWLRQ QLFKW H[DNW GXUFK GHQ 3XQNW [ \ YHUOlXIW ,Q GLHVHP )DOO EHGDUI HV HLQHU 3UR]HVVQDFKUHJHOXQJ ZREHL LQNUHPHQWHOOH 9HUlQGH UXQJHQ DXI GHU ,QSXWVHLWH GXUFKJHIKUW ZHUGHQ XP VR GDV ORNDOH 0D[LPXP LQ NOHLQHQ6FKULWWHQ]XHUUHLFKHQ *URH 6FKULWWH VLQG GHPJHJHQEHU QRWZHQGLJ ZHQQ GHU ]ZHLWH *LSIHO GHU =LHO ZHUWIXQNWLRQÄHUNORPPHQ³ZHUGHQVROO'DVhEHUVSULQJHQGHVORNDOHQ0LQLPXPV DQ GHU 6WHOOH [0 EHGDUI UDGLNDOHQ 9HUlQGHUXQJHQ GLH XD GXUFK NRQVHTXHQWHV ,QQRYDWLRQVPDQDJHPHQW XQG GHQ Einsatz von Kreativitätstechniken ]% 75,= EHI|UGHUW ZHUGHQ +DW PDQ GDV $XVJDQJVQLYHDX \ DXI GHP UHFKWHQ *LSIHO HUVW HLQPDO HUUHLFKW VWHOOW VLFK GDV 2SWLPLHUXQJVSUREOHP E]Z YRUJHKHQ DQDORJ ]X
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
GHQELVKHULJHQ$XVIKUXQJHQGDU'DVJOREDOH0D[LPXPLP3XQNW[ \ NDQQ GDQQGXUFKGLH$QZHQGXQJGHV'0$,&=\NOXV]JLJHUUHLFKWZHUGHQ 3.4.2
DMADV-Zyklus als abstraktes Vorgehensmodell
$QDORJ ]XP '0$,&=\NOXV ZHUGHQ LP )ROJHQGHQ GLH 3KDVHQ GHV '0$'9 =\NOXV LQ HLQ DEVWUDNWHV 9RUJHKHQVPRGHOO EHUIKUW 'LH *UXQGODJH ELOGHW HEHQ IDOOV HLQ mathematisches Optimierungsmodell ]XP $XIILQGHQ YRQ JOREDOHQ ([ WUHPSXQNWHQ 'LHVH HQWVSUHFKHQ GHP RSWLPDOHQ ,QSXW2XWSXW9HUKlOWQLV EHL HL QHPJHJHEHQHQIXQNWLRQHOOHQ=XVDPPHQKDQJ\ I[ 'D HV EHLP '0$'9=\NOXV YRU DOOHP XP GDV 'HVLJQHQ (QWZHUIHQ YRQ QHXHQ 3URGXNWHQJHKWVWHOOWGHU2XWSXWGLHNRQNUHWH$XVSUlJXQJHLQHV3URGXNWPHUNPDOV \ GDU ZlKUHQG GHU ,QSXW IU GLH $XVSUlJXQJ GHV GD]XJHK|ULJHQ .RPSRQHQWHQ XQG RGHU 3UR]HVVPHUNPDOV [ VWHKW )U GLH +HUOHLWXQJ GHV '0$'9=\NOXV DXI DEVWUDNWHU (EHQH ZLUG YRP JOHLFKHQ IXQNWLRQHOOHQ =XVDPPHQKDQJ DXVJHJDQJHQ ZLH EHLP '0$,&=\NOXV 'DGXUFK LVW HLQ direkter Vergleich der Vorgehensweisen GHU EHLGHQ 6L[ 6LJPD9HUEHVVHUXQJV]\NOHQ P|JOLFK =XU (UK|KXQJ GHU 9HU VWlQGOLFKNHLW ZLUG GDV %HLVSLHO Ä.XJHOVFKUHLEHU³ IRUWJHIKUW DXI GDV EHUHLWV LP YRUKHUJHKHQGHQ$EVFKQLWW%H]XJJHQRPPHQZRUGHQLVW 8P GLH $QDO\VH HLQIDFK]XKDOWHQXQGGLHZHVHQWOLFKHQ$XVVDJHQKHUDXV]XDUEHL WHQZLUGEHLGHU%HWUDFKWXQJYRQHLQHPeinfaktoriellen ProduktdesignDXVJHJDQ JHQ .RQNUHW EHGHXWHWGLHVGDVVHLQ3URGXNW]XHQWZLFNHOQLVWZHOFKHVHLQNULWL VFKHV 4XDOLWlWVPHUNPDO &74 EHVLW]W XQG GDV ZLHGHUXP YRQ HLQHP YDULDEOHQ )DNWRU.RPSRQHQWHQPHUNPDO GLUHNWEHHLQIOXVVWZLUG =LHOLVWHVGDVJOREDOH0D[LPXP[ \ DXI]XVSUHQEHLGHPGLHEHVWP|JOLFKH $XVSUlJXQJGHV3URGXNWPHUNPDOVDXV.XQGHQVLFKWHUUHLFKWZLUG'XUFKGLH5HD OLVDWLRQ YRQ \ VLQG GLH .XQGHQ QLFKW QXU VHKU ]XIULHGHQ VRQGHUQ HQWVSUHFKHQG GHP .DQR0RGHOO DXFK EHJHLVWHUW 'DEHL OLHJW ± JHQDXVR ZLH EHLP '0$,& =\NOXV ± GHU ZDKUH )XQNWLRQVYHUODXI \ I[ LP 9HUERUJHQHQ XQG PXVV GXUFK JHHLJQHWH6FKlW]YHUIDKUHQ]XQlFKVWLQWHUSROLHUWZHUGHQ,Q$EELVWGDVDQD O\WLVFKH 2SWLPLHUXQJVPRGHOO ]XU 5HNRQVWUXNWLRQ GHV '0$'9=\NOXV DP %HL VSLHOHLQHUzweigipfligen ZielfunktionYHUDQVFKDXOLFKW Define-Phase (QWZLFNOXQJVEH]RJHQH 6L[ 6LJPD3URMHNWH GLH QDFK GHP '0$'9=\NOXV GXUFK]XIKUHQ VLQG N|QQHQ YRQ ]ZHL 6HLWHQ DQJHVWRHQ ZHUGHQ (LQHUVHLWV NDQQ GLH „Stimme des Kunden“ (VOC) HLQHQ JUXQGVlW]OLFKHQ hEHUKROXQJVEHGDUI GHV EHVWHKHQGHQ 3URGXNWDQJHERWV DQ]HLJHQ ,Q GLHVHP )DOO VLQG NULWLVFKH .XQGHQDQ IRUGHUXQJHQ&&5V YHUOHW]WZRUGHQ]%WULIIWGDV'HVLJQHLQHV.XJHOVFKUHLEHUV QLFKW PHKU GHP *HVFKPDFN GHU .XQGHQ $QGHUHUVHLWV NDQQ HLQ ) (3SURMHNW GXUFKGLH„Stimme des Unternehmens“ (VOB)LQV/HEHQJHUXIHQZHUGHQ,QGLH VHP)DOOKDQGHOWHVVLFKXPHLQHNULWLVFKH$QIRUGHUXQJGLHVLFKDXVGHUUHJXOlUHQ
)RUPDODQDO\WLVFKH%HVFKUHLEXQJXQG$QDO\VHGHU6L[6LJPD=\NOHQ
8QWHUQHKPHQVWlWLJNHLW HUJLEW &7% ]% LVW UHJHOPlLJ GDV 3URGXNWSRUWIROLR ]X HUZHLWHUQXQGRGHU]XHUQHXHUQXPDP0DUNWHUIROJUHLFK]XVHLQ :lKUHQGGLH9HUEHVVHUXQJHQYRQEHVWHKHQGHQ3URGXNWHQ3UR]HVVHQLP,QWHUHVVH EHLGHU =LHOJUXSSHQ OLHJHQ JHKW GLH (QWZLFNOXQJ NRPSOHWW QHXHU 3URGXNWH XQG GDUDXI DXVJHOHJWHU 3UR]HVVH SULPlU YRP 8QWHUQHKPHQ VHOEVW DXV (V ZLUG HLQH 3URMHNWFKDUWHUGHILQLHUWLQGHUGLH3URMHNW]LHOHIHVWJHKDOWHQZHUGHQ •
$XIJUXQG YRQ (UIDKUXQJHQ PLW GHP EHVWHKHQGHQ +HUVWHOOSUR]HVV VRZLH 7HL OHHLQVDW] OLHJHQ EHL HLQHP Re-Design KlXILJ EHUHLWV LQ GHU 'HVLJQ3KDVH EH ODVWEDUH $XVVDJHQ ]X 8UVDFKHQ:LUNXQJVEH]LHKXQJHQ YRU $XHUGHP VLQG NRQNUHWH+LQZHLVHDXIGLH]XRSWLPLHUHQGHQ'LPHQVLRQHQGHU3URGXNWTXDOLWlW YRUKDQGHQ6LHHUJHEHQVLFK]%DXVGHQ5FNPHOGXQJHQGHV9HUWULHEV
•
,P *HJHQVDW] GD]X N|QQHQ EHL HLQHP JHQHUHOOHQ Neu-Design LQ GLHVHP 3UR MHNWVWDGLXPNHLQH$XVVDJHQEHUGLHDEKlQJLJH9DULDEOH\DOVNULWLVFKHV4XD OLWlWVPHUNPDO JHWURIIHQ ZHUGHQ 'HV :HLWHUHQ JLEW HV NHLQH +LQZHLVH DXI P|JOLFKH NDXVDOH XQG RGHU IXQNWLRQHOOH $EKlQJLJNHLWHQ GHU )RUP \ I[ LQVEZHQQNHLQH:HWWEHZHUEVSURGXNWHDOV%HQFKPDUNYRUOLHJHQ
Output y y = f(x)
y* Analyse y = f(x) = m·x + n
Measure
y2 y1
Δy2 Δy1
DOE
y0 Innovation
0
x0
x1
Δx1
Design
xM
x2
x*
Input x
Δx2
Quelle: Eigene Darstellung
$EE5HNRQVWUXNWLRQGHV'0$'9=\NOXVDOVDQDO\WLVFKHV2SWLPLHUXQJVPRGHOO
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
Measure-Phase ,Q GLHVHU 3KDVH ZLUG ]XQlFKVW HLQH 0DUNWVHJPHQWLHUXQJ YRUJHQRPPHQ XP XD GLH =LHONXQGHQ ]X LGHQWLIL]LHUHQ $QVFKOLHHQG ZHUGHQ GLH .XQGHQEHGUIQLVVH JHVDPPHOW XQG DQDO\VLHUW XP GLH ZHVHQWOLFKHQ .XQGHQDQIRUGHUXQJHQ ]X HUNHQ QHQ,QHLQHPZHLWHUHQ6FKULWWHUIROJWGDQQLG5EHUGLH(UVWHOOXQJHLQHU%H ]LHKXQJVPDWUL[ +R4 GLH $EOHLWXQJ YRQ NULWLVFKHQ 4XDOLWlWVPHUNPDOHQ &74V =%N|QQWHGLH$QIRUGHUXQJGHV.XQGHQODXWHQHLQHQ.XJHOVFKUHLEHU]X NRQVWUXLHUHQ GHU VHKU ODQJH VFKUHLEW DOVR HLQH YHUJOHLFKVZHLVH KRKH 6FKUHLEOHLV WXQJEHVLW]W6RIHUQGLHVH.XQGHQDQIRUGHUXQJHLQHKRKH:LFKWLJNHLWEHVLW]WZLUG VLHDOVNULWLVFKHLQJHVWXIW,P:HLWHUHQEHVWHKWGDV=LHOGDULQHLQ3URGXNWPHUNPDO ]X LGHQWLIL]LHUHQ ZHOFKHV GLHVH $QIRUGHUXQJ JHQDX HUIOOW E]Z SRVLWLY EHHLQ IOXVVW ]% )DUEVWRII)OOPHQJH $XI GLHVHU %DVLV ZLUG HLQH =LHO 2XWSXWJU|H IHVWJHOHJWZHOFKHGDV3URGXNWPHUNPDOHLQGHXWLJFKDUDNWHULVLHUW hEHUWUDJHQ DXI GDV DQDO\WLVFKH 2SWLPLHUXQJVPRGHOO EHGHXWHW GLHV GDVV LQ GHU 0HDVXUH3KDVH GLH :HUWH DQ GHU \$FKVH VSH]LIL]LHUW ZHUGHQ \ HUJLEW VLFK LP =XJH HLQHU :HWWEHZHUEVDQDO\VH XQG YHUGHXWOLFKW GDV GHU]HLWLJH =LHOQLYHDX %HQFKPDUN YRQ ZHVHQWOLFKHQ .RQNXUUHQ]DQJHERWHQ 8P VLFK YRP :HWWEHZHUE SRVLWLYDE]XKHEHQPXVVGLHVHV1LYHDXPLQGHVWHQVHUUHLFKWZHUGHQ %HL GHU (QWZLFNOXQJ HLQHV QHXHQ .XJHOVFKUHLEHUV N|QQWH GLH =LHOVWHOOXQJ ]% GDULQ EHVWHKHQ GDVV GLH )DUEVWRII)OOPHQJH DE :HUN PLQGHVWHQV IU GDV %H VFKUHLEHQYRQ\!\',1$6HLWHQDXVUHLFKW:LUGGLHVH$QIRUGHUXQJHUVWPDOLJ UHDOLVLHUWGDQQLVWJHJHQEHUGHP1LYHDX]XPHVVHQDOV(QWZLFNOXQJV]LHOZLUG HLQH9HUEHVVHUXQJXPΔ\DQJHVWUHEW+DQGHOWHVVLFKKLQJHJHQXPGDV5H'HVLJQ HLQHV EHUHLWV EHVWHKHQGHQ 3URGXNWHV GDQQ LVW GHU 2SWLPLHUXQJVEHGDUI EHU GHQ $EVWDQG YRQ $XVJDQJVQLYHDX \ XQG =LHOQLYHDX \ DEOHVEDU $XVVDJHQ EHU GLH $XVSUlJXQJHQ GHU .RPSRQHQWHQ XQG 3UR]HVVPHUNPDOH [$FKVH ODVVHQ VLFK LQ GLHVHU3KDVHGHV3URMHNWHVQRFKQLFKWWUHIIHQ Analyse-Phase ,P NRQNUHWHQ 9RUJHKHQVPRGHOO GHV '0$'9=\NOXV ZHUGHQ LQ GHU $QDO\VH 3KDVH 'HVLJQNRQ]HSWH DXI ÄKRKHU (EHQH³ HQWZLFNHOW XQG HYDOXLHUW ,P DQDO\WL VFKHQ2SWLPLHUXQJVPRGHOOZLHHVLQ$EEGDUJHVWHOOWLVWZHUGHQ)XQNWLRQV SXQNWH DOV P|JOLFKH $XVJDQJVSXQNWH IU GLH VLFK DQVFKOLHHQGH 'HVLJQ3KDVH
$OV0HWKRGHQNRPPHQLQGHU3UD[LVYRUDOOHPGLH92&&74$QDO\VHXQGRGHUGLH :$QDO\VH LQIUDJH %HL OHW]WHUHU ZLUG GLH .XQGHQVWLPPH GXUFK GLH%HDQWZRUWXQJGHU )UDJHQ:HU":DV":R":DQQ":DUXP"XQG:LHYLHO"GLIIHUHQ]LHUWXQGLQNRQNUHWH .XQGHQDQIRUGHUXQJHQEHUVHW]WYJO$EVFKQLWW $OVZHLWHUIKUHQGHVWDWLVWLVFKH 0HWKRGH]XU0DUNWVHJHPHQWLHUXQJGLHQWGLH&RQMRLQW $QDO\VH (LQHQ DNWXHOOHQ hEHUEOLFN EHU GLH (LQVDW]P|JOLFKNHLWHQ GHU 3UlIHUHQ] DQDO\VH0HWKRGH JHEHQ 6WHLQHU %DXPJDUWQHU 6 II ,QLKUHP%HLWUDJZLH VHQVLHYRUDOOHPDXIQHXHUH6LPXOWDQDQVlW]HKLQGLHHLQHJOHLFK]HLWLJH6HJPHQWLHUXQJ GHV0DUNWHVXQG3UlIHUHQ]VFKlW]XQJGHU.XQGHQHUODXEHQ
)RUPDODQDO\WLVFKH%HVFKUHLEXQJXQG$QDO\VHGHU6L[6LJPD=\NOHQ
EHVWLPPW 'LH 3XQNWH [ \ XQG [ \ NHQQ]HLFKQHQ GDEHL DOWHUQDWLYH 3UR GXNWGHVLJQVGLH]%DXVGHP(LQVDW]XQWHUVFKLHGOLFKHU.RPSRQHQWHQUHVXOWLHUHQ %HLGH 'HVLJQV EHVLW]HQ GHQ JOHLFKHQ =LHO 2XWSXWZHUW L+Y \ ZREHL [ GHU WUDGLWLRQHOOHQ E]Z ELVKHULJHQ $XVSUlJXQJ GHV 3UR]HVV .RPSRQHQWHQPHUNPDOV HQWVSULFKW [ NHQQ]HLFKQHW KLQJHJHQ HLQH .RPSRQHQWH 3UR]HVV GLH DXV HLQHU SURGXNWEH]RJHQHQ SUR]HVVEH]RJHQHQ ,QQRYDWLRQ KHUYRUJHJDQJHQ LVW $XIJUXQG GHVLQQRYDWLYHQ&KDUDNWHUVLVWLKUH/HLVWXQJVIlKLJNHLW]XQlFKVWQLFKWK|KHUDOVGLH GHUELVKHULJHQ9DULDQWH-HGRFKZLUGPLW%OLFNDXIGLHPD[LPDOHUUHLFKEDUHQ=LHO E]Z2XWSXWZHUWHVFKQHOOGHXWOLFKGDVVGDV2SWLPLHUXQJVSRWHQ]LDOEHL=XJUXQGH OHJXQJGHVLQQRYDWLYHQ3URGXNWGHVLJQVZHVHQWOLFKJU|HULVWDOVGDVEHLP9HUEDX YRQ6WDQGDUG .RPSRQHQWHQGLHDXFKGHU:HWWEHZHUEHUEHVLW]W 'HU Tangentenanstieg LQ GHQ $XVJDQJVSXQNWHQ LVW HLQ 0D IU GLH 6WlUNH GHV =XVDPPHQKDQJV ]ZLVFKHQ DEKlQJLJHU XQG XQDEKlQJLJHU 9DULDEOH -H JU|HU GHU $QVWLHJLVWGHVWRVWlUNHUNRUUHOLHUHQGLH9DULDEOHQ[XQG\LQGHU8PJHEXQJYRQ [E]Z['LHVLPSOL]LHUW]XPHLQHQGDVVGXUFKHLQHJHULQJIJLJHLQILQLWHVLPD OH bQGHUXQJ G[ GLH =LHO 2XWSXWJU|H UHODWLY VWDUN EHHLQIOXVVW ZLUG=XPDQGH UHQ LVW GLH 6WlUNH GHU %HHLQIOXVVEDUNHLW DEKlQJLJ YRQ GHU $XVJDQJVODJH GK GHU 0HUNPDOVDXVSUlJXQJEHLGHUPLWGHU2SWLPLHUXQJEHJRQQHQZLUG 9HUVFKLHEW VLFK ]% GHU 3XQNW [ \ QXU XQZHVHQWOLFK LQ 5LFKWXQJ [ \ GDQQLVWDXIJUXQGGHVK|KHUHQ$QVWLHJVDXFKHLQ=XVDPPHQKDQJK|KHUHU2UGQXQJ ]XXQWHUVWHOOHQ%HLQLFKWOLQHDUHQ8UVDFKHQ:LUNXQJVEH]LHKXQJHQLVWIROJOLFKGLH %H]XJVEDVLVDXVVFKODJJHEHQGIUGLH(QWVFKHLGXQJVILQGXQJZHOFKHV+LJK/HYHO 'HVLJQ ZHLWHU YHUIROJW ZLUG ,Q GHU 8QWHUQHKPHQVSUD[LV EHVWHKWYRU GLHVHP +LQ WHUJUXQG GLH *HIDKU GDVV 3URGXNWLGHHQ PLW HLQHP KRKHQ ,QQRYDWLRQVJHKDOW ]X IUKYHUZRUIHQZHUGHQ$QVWHOOHGHVVHQZLUGDXIGHQ(LQVDW]YRQEHZlKUWHQDEHU JJI WHFKQRORJLVFK YHUDOWHWHQ .RPSRQHQWHQ 3UR]HVVHQ EHL GHU 3URGXNWHQWZLFN OXQJJHVHW]WYJO]%)HLJHQEDXP6 'LHVHYHUNU]WH6LFKWZHLVHVSLHJHOWVLFKDXFKLP4)'9RUJHKHQZLGHU:LHREHQ DQJHVSURFKHQ ELOGHW GLH 0HWKRGH LQ YLHOHQ )lOOHQ GLH *UXQGODJH IU GLH 'XUFK IKUXQJ YRQ ÄNODVVLVFKHQ³ ')663URMHNWHQ $XVJHKHQG YRQ GHQ JHZLFKWHWHQ .XQGHQDQIRUGHUXQJHQ ZHUGHQ ]XQlFKVW LP +R4 GLH $XVSUlJXQJHQ GHU HLQ]HO QHQ 3URGXNWPHUNPDOH DEJHOHLWHW ,Q HLQHU .RUUHODWLRQVPDWUL[ ZLUG GLH 6WlUNH GHV =XVDPPHQKDQJV ]ZLVFKHQ .XQGHQDQIRUGHUXQJ XQG 3URGXNWPHUNPDO VXEMHNWLY EHZHUWHW 'D]X ZHUGHQ 3XQNW]DKOHQ YHUJHEHQ 'LH $UW GHV =XVDPPHQKDQJV SRVLWLY RGHU QHJDWLY ZLUG GXUFK 9RU]HLFKHQ RGHU ± YHUGHXWOLFKW VLH LVW DE KlQJLJ YRQ GHQ 2SWLPLHUXQJVULFKWXQJHQ GHU EHLGHQ 9DULDEOHQ ,VW GLH 5LFKWXQJ GHV 3URGXNWPHUNPDOV PLW GHU GHV .XQGHQEHGUIQLVVHV LGHQWLVFK GDQQ LVW GHU .RUUHODWLRQVZHUWSRVLWLYLPHQWJHJHQJHVHW]WHQ)DOOLVWHUQHJDWLY
hEOLFKHUZHLVHZHUGHQGLHIROJHQGHQ3XQNW]DKOHQYHUZHQGHWIUVWDUNHIUPLWWOHUH XQGIUVFKZDFKH.RUUHODWLRQYJO'*4E6
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
:LH LP [\'LDJUDPP LQ $EE QDFKYROO]LHKEDU LVW GLH .RUUHODWLRQ JHQDX GDQQQHJDWLYZHQQGHU$XVJDQJVSXQNWUHFKWVYRPORNDOHQ0D[LPXPOLQNHURGHU UHFKWHU *LSIHO OLHJW FS 'LH 2SWLPLHUXQJVULFKWXQJ IU GDV ,QSXWPHUNPDO LVW GHP]XIROJHDXFKGDYRQDEKlQJLJDQZHOFKHU6WHOOHDXIGHU[$FKVHPLWGHU2S WLPLHUXQJEHJRQQHQZLUG 'LH%HGHXWXQJGHUHLQ]HOQHQ3URGXNWPHUNPDOHIUGDV*HVDPWNRQ]HSWHUJLEWVLFK DXVGHU6XPPHGHU6NDODUSURGXNWH'LH0HUNPDOHPLWGHUK|FKVWHQ%HZHUWXQJV SXQNW]DKO VLQG DOV NULWLVFK ]X EHWUDFKWHQVLHVWLPPHQPLWGHQHLQJDQJVEHVFKULH EHQHQ &74V EHUHLQ $XV LKQHQ ZHUGHQ LQ HQWVSUHFKHQGHU :HLVH LP +R4 GLH .RPSRQHQWHQPHUNPDOH DEJHOHLWHW 6RZRKO GLH 3URGXNW DOV DXFK .RPSRQHQWHQ PHUNPDOHZHUGHQPLW0HVVJU|HQKLQWHUOHJW:lKUHQGGLH3URGXNWPHUNPDOHYRP 8QWHUQHKPHQ EHU GLH .RPSRQHQWHQPHUNPDOH XQPLWWHOEDU EHHLQIOXVVEDU VLQG ZLUG EHU GLH HUPLWWHOWHQ &74V HLQH GLUHNWH %H]LHKXQJ ]XP 4XDOLWlWVHPSILQGHQ GHV.XQGHQKHUJHVWHOOW$XV.XQGHQVLFKWJLOW-HEHVVHUGLH$QIRUGHUXQJHQHUIOOW ZHUGHQ GHVWR K|KHU LVW GLH ZDKUJHQRPPHQH 3URGXNWTXDOLWlW 'D EHL 3URMHNWEH JLQQ GLH +|KH GHU %HGUIQLVHUIOOXQJ XQEHNDQQW LVW OlXIW GLH 2SWLPLHUXQJ PLW 4)' MHZHLOV DXI HLQH 0D[LPLHUXQJ UHVSHNWLYH 0LQLPLHUXQJ KLQDXV %H]RJHQ DXI GDVDQDO\WLVFKH0RGHOOLQ$EEEHGHXWHWGLHVGDVVGLH=LHO2XWSXWPHVVJU| H ]X PD[LPLHUHQ LVW ZREHL GHU )RUVFKHU QXU YDJH .HQQWQLVVH EHU GHQ IXQNWLR QHOOHQ =XVDPPHQKDQJ \ I[ EHVLW]W $XV GLHVHP *UXQG N|QQHQ DXFK NHLQH $XVVDJHQ ]XP PD[LPDOHQ 2SWLPLHUXQJVSRWHQ]LDO GK GHU +|KH GHU Ä]X HUNOLP PHQGHQ*LSIHO³DXVJHKHQGYRQGHU6WHOOH[E]Z[JHPDFKWZHUGHQ Design-Phase ,Q GLHVHU 3KDVH JHKW HV LQ HUVWHU /LQLH XP GLH 9HUIHLQHUXQJ VSULFK 2SWLPLHUXQJ GHV IDYRULVLHUWHQ 'HVLJQV DXV GHU $QDO\VH3KDVH $XVJHKHQG YRP JHZlKOWHQ 6WDUWSXQNW ZLUG YHUVXFKW GDV nächstliegende Maximum ]X HUUHLFKHQ $XIJUXQG GHU :HWWEHZHUEVDQDO\VH %HQFKPDUNLQJ LQ GHU 0HDVXUH3KDVH LVW GLH $XVSUl JXQJ GHU =LHO 2XWSXWJU|H YRQ .RQNXUUHQ]SURGXNWHQ \ EHNDQQW *OHLFK]HLWLJ LVWDEHUGLHQRWZHQGLJH$XVSUlJXQJGHUXQDEKlQJLJHQ9DULDEOH[DQGHU6WHOOH[ XQEHNDQQW+LHU]XLVW]XQlFKVWGHU)XQNWLRQVYHUODXIZLHHULQ$EEEHLVSLHO KDIWGDUJHVWHOOWLVW]XREMHNWLYLHUHQ$OV6FKlW]PHWKRGHQNRPPHQVRZRKOOLQHDUH DOVDXFKQLFKWOLQHDUH]%TXDGUDWLVFKH5HJUHVVLRQVDQVlW]HLQIUDJH'DEHLLVWGLH :DKOGHV6WDUWSXQNWHVHQWVFKHLGHQGGDIUZHOFKHV0D[LPXPDP(QGHGHU2SWL PLHUXQJVSKDVHHUUHLFKWZLUG'LHVLVWHLQZHVHQWOLFKHU8QWHUVFKLHG]XP'0$,& =\NOXVEHLGHPGLH$XVJDQJVVLWXDWLRQPHKURGHUZHQLJHUIL[LVW ,P YRUOLHJHQGHQ %HLVSLHO EHILQGHW VLFK GDV RSWLPDOH 'HVLJQ EHL [ 'XUFK GLH 5HDOLVLHUXQJ YRQ \ ZLUG GHU .XQGH EHJHLVWHUW GD GLH $XVSUlJXQJ GHV 3URGXNW PHUNPDOV ]% .XJHOVFKUHLEHU PLW EHUGXUFKVFKQLWWOLFKHU )OOPHQJH XQG GDPLW 6FKUHLE/HEHQVGDXHUGHXWOLFKEHUVHLQHQ(UZDUWXQJHQOLHJW =XP (UUHLFKHQ YRQ [ \ PXVV GHU $XVJDQJVSXQNW DP )XH GHV UHFKWHQ *LS IHOV GHU )XQNWLRQ \ I[ OLHJHQ ,P =XJH GHU 2SWLPLHUXQJ ZLUG GDV 1LYHDX GHU .RQNXUUHQ]DQJHERWHRKQH:HLWHUHVHUUHLFKWXQGEHUVSUXQJHQ2KQHGHQ(LQVDW]
)RUPDODQDO\WLVFKH%HVFKUHLEXQJXQG$QDO\VHGHU6L[6LJPD=\NOHQ
YRQ .UHDWLYLWlWVWHFKQLNHQ OLHJW GHU $QIDQJVSXQNW DOOHU 9RUDXVVLFKW QDFK EHL [ \ 'XUFKGLH,QWHUSRODWLRQGHU)XQNWLRQǔ I[ LP%HUHLFK>[\@XQGGHUDQ VFKOLHHQGHQ 2SWLPLHUXQJ ZLUG GHU OLQNH *LSIHO DOV JOREDOHV 0D[LPXP GHWHN WLHUW%H]RJHQDXIXQVHU%HLVSLHOEHGHXWHWGLHVGDVVHLQ.XJHOVFKUHLEHUHQWZLFNHOW ZLUG GHU GLH $QIRUGHUXQJHQ GHU .XQGHQ QLFKW YROOVWlQGLJ HUIOOW 'DV )DUEVWRII )OOYHUP|JHQ LVW QLFKW DXVUHLFKHQG XP GLH YRUJHJHEHQHQ %HQFKPDUNLQJ:HUWH GHU .RQNXUUHQ] ]X HUUHLFKHQ ,Q GLHVHP )DOO LVW HLQ 5FNVSUXQJ LQ GLH $QDO\VH 3KDVHQRWZHQGLJXPHLQHQEHVVHUHQ6WDUWSXQNW]XILQGHQ $P (QGH GHU 'HVLJQ3KDVH ZLUG GDV GHWDLOOLHUWH 3URGXNWGHVLJQ KLQVLFKWOLFK GHU (UIOOXQJ GHU &74V HYDOXLHUW )lOOW GLH %HZHUWXQJ SRVLWLY DXV ZLUG GDV 'HVLJQ ÄHLQJHIURUHQ³XQGGLH,PSOHPHQWLHUXQJLQGHQ6HULHQSUR]HVVYRUEHUHLWHW Verify-Phase ,P UHDOHQ 9RUJHKHQVPRGHOO NRPPW GHU 9HULI\3KDVH GLH $XIJDEH ]X GHQ HQWZL FNHOWHQ3URWRW\SHQ]XSLORWLHUHQ9RUVHULH XQGDQVFKOLHHQGLQGHQ3URGXNWLRQV SUR]HVV ]X LPSOHPHQWLHUHQ 6HULH 'DPLW VROO VLFKHUJHVWHOOW ZHUGHQ GDVV GLH LP (QWZLFNOXQJVVWDGLXP HU]LHOWH /HLVWXQJVIlKLJNHLW GHV 3URGXNWHV DXFK LQ GHU 6H ULHQIHUWLJXQJHUUHLFKWZLUGYJO$EVFKQLWW $XI GHU $EVWUDNWLRQVHEHQH LVW GDV 9RUJHKHQ LQVRIHUQ QDFKYROO]LHKEDU GDVV GLH Lage des optimalen Prozesspunktes EHUZDFKW ZLUG 'D HV VLFK EHL +HUVWHOOSUR ]HVVHQ XPVWRFKDVWLVFKH9RUJlQJHKDQGHOWNDQQVLFKGLH/DJHGHV2SWLPDOSXQN WHVEHUGLH=HLWYHUVFKLHEHQ8PGLH3UR]HVVIlKLJNHLWVWDELO]XKDOWHQXQGJJI]X VWHLJHUQ ZLUG ± DQDORJ ]XP '0$,&=\NOXV ± HLQ .RQWLQXLHUOLFKHU 9HUEHVVH UXQJVSUR]HVV.93 HLQJHOHLWHW 8QWHUGHU9RUDXVVHW]XQJGDVVGHU3XQNW[\ UHVSHNWLYH[ \ UHODWLYJHQDX LQGHU'HVLJQ3KDVHHUXLHUWZRUGHQLVWZHUGHQVLFKLP=XJHYRQ.93QXUJHULQJ IJLJH 9HUEHVVHUXQJHQ HLQVWHOOHQ ,VWGLH/DJHGHV3UR]HVVSXQNWHVKLQJHJHQUHOD WLY ZHLW YRP QlFKVWOLHJHQGHQ ORNDOHQ 0D[LPXP HQWIHUQW NDQQ GHU 2SWLPDOSXQNW GXUFK VFKULWWZHLVH 9HUEHVVHUXQJHQ LP 6HULHQSUR]HVV HUUHLFKW ZHUGHQ ,Q GLHVHP )DOO JLOW 6HOEVW GXUFK .93 EOHLEW GLH /FNH *DS ]ZLVFKHQ GHP DQJHVWUHEWHQ XQG GHP UHDOLVLHUWHQ =LHOZHUW ODQJIULVWLJ EHVWHKHQ ZHQQ LQ GHU (QWZLFNOXQJV 'HVLJQ3KDVHYRP3XQNW[\ DXVJHJDQJHQZRUGHQLVW Zwischenfazit:0LWGHUhEHUIKUXQJGHUUHDOHQ3UREOHPEHVFKUHLEXQJLQHLQHDEV WUDNWH LVW HV P|JOLFK /|VXQJHQ DXI HLQHU EHUJHRUGQHWHQ (EHQH ]X VXFKHQ ,Q XQVHUHP )DOO ZXUGH GDV 9RUJHKHQ LP 5DKPHQ GHV '0$,& E]Z '0$'9 =\NOXV LQ HLQ PDWKHPDWLVFKHV 9RUJHKHQVPRGHOO WUDQVIHULHUW 'LHVHV GLHQW ]XP $XIILQGHQ GHV 2SWLPXPV \ HLQHU )XQNWLRQ \ I[ $QKDQG GHVVHQ ODVVHQ VLFK GHU 3KDVHQDEODXI GHU EHLGHQ RJ 6L[ 6LJPD9HUEHVVHUXQJV]\NOHQ IRUPDO DQDO\WLVFKQDFKYROO]LHKHQXQG±LQVELQ%H]XJDXIGHQ'0$'9=\NOXV±'HIL]L WHEHLGHU3UREOHPO|VXQJIHVWVWHOOHQ*OHLFK]HLWLJZHUGHQPLWGHQ8QWHUVXFKXQJHQ LQ GHQ $EVFKQLWWHQ XQG IDOOEH]RJHQH %HOHJH E]Z (YLGHQ]HQ IU GHQ :DKUKHLWVJHKDOWYRQHypothese H6DQJHIKUWYJO$EVFKQLWW
4
Mathematische Vorgehensmodelle zur funktionellen Optimierung und Lösung schwieriger Probleme
In der angewandten Mathematik werden einschlägige Verfahren bereitgestellt, mit denen sog. „schlecht strukturierte Probleme“ einer optimalen bzw. annähernd optimalen Lösung zugeführt werden können. Diese stehen in der weiteren Betrachtung im Vordergrund. Ziel ist es, ausgehend von den mathematischen Optimierungsalgorithmen Verbesserungsvorschläge für den DMADV-Zyklus abzuleiten bzw. alternative Vorgehensmodelle aufzuzeigen. Vor diesem Hintergrund werden sowohl klassische (siehe Unterkapitel 4.2) als auch evolutionäre Algorithmen (siehe Unterkapitel 4.3) genauer „unter die Lupe“ genommen. Zuvor folgen – entsprechend dem Vorgehen in Kapitel 3 – einige Begriffsdefinition. Sie beziehen sich vor allem auf die Anwendung von mathematischen Algorithmen und Heuristiken zum Auffinden des Optimums einer Zielfunktion.
4.1
Anwendung von Algorithmen/ Heuristiken zum Auffinden des Optimums einer Zielfunktion – Begriffsdefinitionen
Analog zur Anwendung von Problemlösungszyklen in der Unternehmenspraxis, z.B. DMAIC-Zyklus, werden in der Mathematik Algorithmen/ Heuristiken eingesetzt, um z.B. den Extremwert bei einer Optimierungsaufgabe zu bestimmen. Da die Arbeit aus EHWULHEVZLUWVFKDIWOLFKHU 3HUVSHNWLYH geschrieben ist, wird im Folgenden kurz erläutert, was „Optimierung“ im mathematischen Sinn bedeutet. Im Anschluss wird darauf eingegangen, was einen „guten Algorithmus“ zur mathematischen Optimierung auszeichnet und wie man zu einem solchen kommt. Die Begriffe sind von zentraler Bedeutung im Rahmen des Operations Research (OR), bei dem es nicht darauf ankommt, wie ein Problem empirisch-theoretisch strukturiert ist, sondern wie die Optimalität einer Problemlösung mathematisch errechenbar und nachweisbar ist (vgl. Chmielewicz 1979, S. 184). 4.1.1
Mathematische Optimierung und Optimierungsrechnung
Als Optimierung1 wird die Verbesserung eines gegebenen Systems anhand festgelegter Gütekriterien bezeichnet (vgl. Sprave 1999, S. 8). Entsprechend besteht das Ziel der entscheidungsorientierten BWL darin, Entscheidungsunterstützung innerhalb sozio-technischer Systeme, z.B. Unternehmen und öffentliche Verwaltung, zu geben. In diesem Zusammenhang werden üblicherweise YHUHLQIDFKHQGH 0RGHOOH dieser Systeme erstellt und untersucht. Dies liegt zum einen daran, dass es in vielen Fällen nicht möglich, zu teuer oder zu gefährlich ist, die Ursachen-Wirkungszusammenhänge am realen System zu studieren. Zum anderen soll durch vereinfa-
1
Als Synonym für den Begriff „Optimierung“ hat sich der Terminus „Programmierung“ (z.B. LP für Lineare Prorgammierung) eingebürgert (vgl. Jongen/ Meer 2003, S. 212).
4.1 Definition von Algorithmen/ Heuristiken
159
chende Modelle die Komplexität der Aufgabe reduziert werden, um dadurch die Lösungssuche möglichst einfach und effizient zu gestalten. Nicht selten entziehen sich die realen Systeme und/ oder die abgeleiteten Simulationsmodelle einer (exakten) mathematischen Analyse. In diesem Fall ist man darauf angewiesen, die 5HDNWLRQGHV6\VWHPVDXI9HUlQGHUXQJHQ der beeinflussbaren Parameter zu messen. Dem System wird eine Qualitäts- bzw. Evaluierungsfunktion zugeordnet, die implizit oder explizit, d.h. in Form eines mathematischen Modells, gegeben sein kann (vgl. Jongen/ Meer 2003, S. 211ff.). Optimierung steht im überwiegenden Teil der Fälle für die „Suche nach der besten Lösung“. Dazu ist das Aufstellen einer (skalaren) Zielfunktion2 der Form & & (4.1) \ = I[ & * notwendig, wobei \ so formuliert wird, dass ein Punkt [ ∈ 0 um so besser ist, & & je größer I[ ist (Maximierung). Ein Punkt [ im Parameterraum heißt dann & globaler Optimumpunkt und sein Zielfunktionswert I[ globales Optimum, wenn die folgende Bedingung erfüllt ist:
& & & ∀ [ ∈ 0 I[ ≤ I[
(4.2) & Wird die Erfüllung der Ungleichung (4.2) nur für alle [ in einer beliebig kleinen & ε-Umgebung von [ verlangt, so spricht man von einem lokalen Optimumpunkt bzw. lokalen Optimum. Wie leicht nachvollziehbar ist, stellt das globale Optimum immer auch ein lokales Optimum dar. Existieren zu einer Zielfunktion mehrere, voneinander verschiedene lokale Optima, so handelt es sich um eine multimodale Zielfunktion. Üblicherweise ist der Lösungsraum M durch Gleichheits- oder Ungleichheitsrestriktionen wie folgt beschränkt:
{ ∩ {[ ∈ 5
} ∀N = 1... S : K ( [) = 0}
0 := [ ∈ 5 Q ∀N = 1...T : J N ( [) ≥ 0 Q
(4.3)
N
Dabei werden Ungleichheitsrestriktionen in Form untereinander unabhängiger Ober- und Untergrenzen der Parameter (Bounds) häufig nicht als Restriktionen im eigentlichen Sinn betrachtet. Obwohl in der allgemeinen Definition von Optimierungsaufgaben abzählbare (ganzzahlige) Suchräume als endliche Teilmengen von Rn enthalten sind, wird gelegentlich zwischen kontinuierlicher, diskreter und gemischt-ganzzahliger Optimierung unterschieden. 2
In Abgrenzung zu skalaren Optimierungsproblemen, die hier im Vordergrund stehen, sind bei Mehrziel- bzw. Vektoroptimierungsproblemen Werte von mehreren Zielfunktionen gleichzeitig zu optimieren (vgl. Korhonen et al. 1992; Rosenthal 1985).
160
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
Ist der Lösungsraum endlich groß und dürfen alle Entscheidungsvariablen nur ganzzahlige Werte annehmen, dann handelt es sich um ein NRPELQDWRULVFKHV2S WLPLHUXQJVPRGHOO. Die Planung einer Rundreise mit n Orten (TSP – Traveling Salesman-Problem) zählt zu den bekanntesten Problemen3, die zu einem solchen Modell führen (vgl. Greb et al. 1998. S. 444). Neben der Tourenplanung lassen sich viele weitere betriebswirtschaftliche Optimierungsprobleme auf die Suche nach dem globalen Maximum einer Funktion zurückführen. Können die Entscheidungsvariablen in beliebig kleinen Schritten verändert werden, dann sprechen wir von kontinuierlichen bzw. VWHWLJHQ2SWLPLHUXQJVPRGHOOHQ. Hier ist es möglich, den optimalen Zielwert durch langsames Herantasten, d.h. infinitesimale Änderungen der relevanten Einstellwerte, zu finden. In der Unternehmenspraxis sind eine Reihe von Problemen stetiger Natur, z.B. im Rahmen der Produktionsplanung/ -steuerung (PPS), wenn es um die Bestimmung der minimalen Rüstkosten und des optimalen Lagerprogramms geht. Die Ausführungen in den Unterkapiteln 4.2 und 4.3 konzentrieren sich auf Algorithmen zur Lösung stetiger Probleme, da im Ausgangsproblem in 3.4 eine stetig differenzierbare (glatten) Zielfunktion zugrunde gelegt ist. 4.1.2
Algorithmen und Heuristiken zum Auffinden des Optimums
Viele interessante betriebswirtschaftliche Entscheidungsprobleme führen zu Optimierungsaufgaben. Bereits in einführenden Lehrbüchern zur Betriebswirtschaftslehre werden eine Reihe von Optimierungsmodellen und -verfahren dargestellt (vgl. z.B. Töpfer 2007a; Wöhe 2005; Schierenbeck 2003). Mit ihnen lassen sich z.B. Lösungsvorschläge für Probleme der über- und innerbetrieblichen Standortplanung sowie der Rundreise-/ Tourenplanung erarbeiten. Dabei ist das Vorgehen so eindeutig zu formulieren, dass auch jemand, der keine intellektuelle Einsicht in das zu lösende Problem hat, es trotzdem, den Anweisungen folgend, Schritt für Schritt „mechanisch“ bearbeiten kann (vgl. Schöning 2006, S. 1). Dieser „jemand“ ist heute in den meisten Fällen der Computer. Bevor man damit beginnt, eine Routine bzw. ein Programm als eine Vorschrift zur Lösung einer Aufgabe zu entwickeln, ist das zu lösende Problem genau zu beschreiben, d.h. zu spezifizieren (vgl. Michalewicz/ Fogel 2000, S. 9). Die 6SH]LIL NDWLRQ DOV $XVJDQJVSXQNW für ein Programm beinhaltet dabei eine vollständige, detaillierte und eindeutige Problembeschreibung. Konkret bedeutet dies, dass (a) alle relevanten Informationen berücksichtigt werden (vollständig), 3
Beim TSP handelt es sich um ein Standardproblem des Operations Research, wobei es darum geht, in einem vollständigen, bewerteten Graphen/ Netzplan eine kürzeste Rundreise zu finden. Das Problem ist optimal gelöst, wenn ein geschlossener Weg kürzester Länge, der jeden Knoten des Graphen genau einmal enthält, vorliegt. Das TSP hat vor allem aus komplexitätstheoretischen Gründen das Interesse vieler Wissenschaftler auf sich gezogen (vgl. Wäscher 1998, S. 1300).
4.1 Definition von Algorithmen/ Heuristiken
161
(b) alle Hilfsmittel und Grundaktionen aufgelistet sind, die zur Lösung zugelassen werden (detailliert), und (c) klare Kriterien festgelegt worden sind, wann eine Lösung akzeptabel, d.h. eindeutig ist. Nach der Spezifikation eines Problems geht es im Weiteren darum, ein Modell und damit einen Lösungsweg zu entwerfen. Egal, ob die Lösung von einer Maschine oder einem Menschen ausgeführt wird, muss jeder Schritt exakt vorgeschrieben sein. Dies erfolgt in Form eines Algorithmus. Für den Begriff „Algorithmus“ gibt es mehrere Definitionen (vgl. Koch/ Schlichter 2002, S. 45): •
Nach Bußmann (1990, S. 67) ist ein Algorithmus ein durch explizite Regeln festgelegtes effektives Rechenverfahren zur automatischen Lösung einer Klasse von gleichartigen Problemen, die durch eine hypothetische Maschine zu überprüfen sind. Die Vorschrift zur schrittweisen Lösung des Problems ist dabei präzise formuliert (mit vorgegebenen Konstrukten), in endlicher Form dargestellt und effektiv ausführbar.
•
Eine etwas anders gelagerte Definition gibt Külpe (1883/ 1909). Nach ihm ist ein Algorithmus eine in der Beschreibung und Ausführung endliche, deterministische und effektive Vorschrift zur Lösung eines Problems, die effizient sein sollte. Während „effektiv“ für die eindeutige Ausführbarkeit der Einzelschritte steht, bezeichnet „effizient“ den ressourcenschonenden Einsatz von Sach-/ Finanzmitteln bei Anwendung des Algorithmus.
Die Aufgabe bzw. das Problem, auf das der Algorithmus angesetzt wird, kann aus vielen $QZHQGXQJVJHELHWHQ stammen, z.B. Berechnung numerischer Werte, Textund Bildverarbeitung, Handhabung von Objekten (Robotik), Zuteilung von Ressourcen, Steuerung von Geräten und Maximierung von Gewinnen. Die Anwendung kann sich sowohl auf reale als auch abstrakte Problemstellungen beziehen. So lässt sich z.B. der DMAIC-Zyklus im Rahmen von Six Sigma als Algorithmus zur Prozessoptimierung charakterisieren, denn er ist: •
(QGOLFK, d.h. das Six Sigma-Projekt wird innerhalb eines Zeitraums von 3 bis 6 Monaten bearbeitet
•
'HWHUPLQLVWLVFK, d.h. die einzelnen Schritte/ Phasen der Projektdurchführung sind eindeutig bestimmt
•
(IIHNWLY, d.h. die einzelnen Schritte/ Phasen sind eindeutig ausführbar sowie inhaltlich aufeinander abgestimmt
•
(IIL]LHQW, d.h. die Aussicht auf ein positives Kosten-Nutzen-Verhältnis (Net Benefit) ist Grundlage für die Durchführung des Projektes.
Die 'DUVWHOOXQJ3UlVHQWDWLRQYRQ$OJRULWKPHQ kann auf unterschiedliche Art und Weise erfolgen, z.B. informelle oder textliche Beschreibung, programmiersprachliche Beschreibung und graphische Beschreibung mithilfe von Funktions-/ Flussdiagrammen. Die Ausführung des Algorithmus kann durch Menschen oder Ma-
162
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
schinen (z.B. Computer) erfolgen. In seiner allgemeinsten Form besteht ein Algorithmus aus (a) Objekten (Daten(-objekte), Variablen) und (b) Anweisungen, die Operationen an Objekten realisieren. Die Operationen bewirken, dass die Objekte von einem ursprünglichen Zustand (Anfangs-/ Eingangszustand) in einen definierten Endzustand gebracht werden. Dabei findet das EVA-Prinzip4 (Eingabe – Verarbeitung – Ausgabe) Anwendung (vgl. Herold et al. 2006, S. 91ff.). Jeder Algorithmus kann de facto soweit in Einzelschritte zerlegt (verfeinert) werden, bis er nur noch aus den folgenden YLHU*UXQGHOHPHQWHQ für die Operationen besteht. Mit diesen können alle Algorithmen, die zur Problemlösung eingesetzt werden, formal beschrieben werden (vgl. Koch/ Schlichter 2002, S. 46): (1) 6HTXHQ] als Folge von (atomaren) Anweisungen, die zu Blöcken zusammengefasst werden (2) $OWHUQDWLYH als eine Verzweigung im Operationsablauf, die über eine Bedingung gesteuert wird (3) $XVZDKO(Selektion) als Verallgemeinerung der Alternative sowie (4) ,WHUDWLRQ als eine Menge von Anweisungen mit endlicher Wiederholung. Algorithmen, welche die Optimalität der mit ihr bestimmten Lösung nicht garantieren, werden als +HXULVWLNHQ bezeichnet. Der Begriff stammt vom griechischen Wort „heuriskein“ ab, das so viel bedeutet wie „finden“ oder „entdecken“ (vgl. Voß et al. 2000, S. 553). Gegenüber exakten Algorithmen beanspruchen heuristische Verfahren i.d.R. deutlich weniger Rechenzeit.5 Dieser Vorteil macht sich insb. bei immer wiederkehrenden Kalkulationen und/ oder dem Lösen komplexer Optimierungsprobleme bemerkbar. Landläufig werden Heuristiken auch als „Daumenregel“ bezeichnet. Aus wissenschaftlicher Sicht beschreiben sie einen plausiblen Problemlösungsprozess ohne Optimalitätsgarantie.6 Vor diesem Hintergrund lassen sich die Problemlösungszyklen, die im Rahmen von Six Sigma zur Anwendung kommen, eher als Heuristiken klassifizieren.
4 5
6
Das EVA-Prinzip entspricht dem IPO-Prinzip bei Six Sigma-Projekten mit der Dreiteilung Input-Prozess-Output (vgl. Abschnitt 3.3.1). Heuristische Lösungsverfahren lassen sich nach folgenden Kritieren unterscheiden (vgl. Schmitting (1999, S. 42ff.): (a) Formale und materielle Orientierung, (b) Eröffnungsund Verbesserungsverfahren und (c) Klassische und metaheuristische Verfahren. In Theorie und Praxis werden zunehmend übergeordnete Lösungskonzepte, sog. MetaHeuristiken (General Purpose Heuristics), entwickelt und eingesetzt. Gegenüber klassischen Verfahren der Nachbarschaftssuche besitzen sie den Vorteil der problemspezifischen Anpassung (Selbstadaption) sowie die Fähigkeit der intelligenten Nutzung von verschiedenen Gedächtnisstrukturen (vgl. z.B. Marimon 1993, S. 603ff.).
4.2 Klassische Algorithmen
4.2
163
Klassische Algorithmen
Nach der Klärung der wesentlichen Begrifflichkeiten werden in diesem Unterkapitel zunächst die klassischen bzw. konventionellen Algorithmen zur Lösung schwieriger mathematischer Probleme im Überblick dargestellt. Eine Klassifizierung ist dabei anhand verschiedener Kriterien möglich: Erstens nach der Art der zugrunde liegenden Problemstellung (bekannter vs. unbekannter Funktionsverlauf), Zweitens nach dem Umgang mit umweltbezogenen Einflussgrößen (analytische vs. statistische Verfahren) und Drittens nach der Genauigkeit der Lösungsfindung (exakte vs. heuristische Verfahren). Bei der Darstellung der einzelnen Methoden geht es primär um das Verständnis des Lösungsansatzes, und zwar bezogen auf das in Unterkapitel 3.4 ausgeführte Extremwertproblem. 4.2.1
Extremwertberechnung bei bekanntem/ unbekanntem Funktionsverlauf
Es werden hier zwei Fälle unterschieden: Unter dem Punkt (a) wird auf die Extremwertberechnung bei bekanntem Funktionsverlauf, d.h. analytisch bestimmter Funktion y = f(x), eingegangen. Ist die Funktion nur punktuell gegeben, dann sprechen wir von einem (analytisch) unbekannten Funktionsverlauf. Unter dieser Voraussetzung gestaltet sich die Extremwertberechnung i.A. schwieriger. Die notwendigen (Rechen-)Schritte werden im Punkt (b) kurz beschrieben. D ([WUHPZHUWEHUHFKQXQJEHLEHNDQQWHP)XQNWLRQVYHUODXI
Mit dem Sekanten- und Tangentenverfahren werden zwei Vorgehensweisen aufgezeigt, um die optimalen Einstellwerte bei gegebener Funktion zu finden. Es wird schnell deutlich, dass das erstgenannte Verfahren eher der projektbezogenen Verbesserungsstrategie i.S.v. Six Sigma entspricht, während das Tangentenverfahren – auf abstrakter Ebene – sehr stark dem Ansatz der inkrementellen Verbesserung i.S.v. Kaizen gleich kommt (vgl. Abschnitt 2.2.1). (a.1) Lineare Interpolation (Sekantenverfahren) Bei der Interpolation handelt es sich um einen Algorithmus, mit dem man eine benötigte Information mit Hilfe von vorhandenen Informationen gewinnen kann. Der Begriff „Interpolation“ stammt von den lateinischen Wörtern „inter“ (dt.: zwischen) und „polare“(dt.: glätten). Im Laufe der Zeit haben sich eine Reihe von ,QWHUSRODWLRQVPHWKRGHQ entwickelt, die in ganz unterschiedlichen Wissenschaftsdisziplinen zum Einsatz kommen (vgl. Meinardus 2003, S. 168ff.). Ein klassisches Vorgehen zur Bestimmung des Maximums/ Minimums einer bekannten Funktion besteht darin, den Punkt mit verschwindend geringer 1. Ableitung aufzufinden (Nullstellensuche). Vor diesem Hintergrund wird bei Optimierungsrechnungen i.d.R. die Nullstelle der 1. Ableitung der Zielfunktion als %HGLQ
164
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
JXQJ2UGQXQJ gesucht.7 Bei der linearen Interpolation als einfachstes Verfahren zum Auffinden von Nullstellen nimmt man an, dass der Zuwachs der Funktion f(x) dem Zuwachs der unabhängigen Variablen x proportional ist.
Sei x* die gesuchte Lösung für die Optimalitätsbedingung \ I[ . Beim 6HNDQWHQYHUIDKUHQ, welches in Abb. 4-1 schematisch dargestellt ist, geht man von Werten x0 und x1 aus, die so zu wählen sind, dass y0 und y1 verschiedene Vorzeichen haben (vgl. Göhler 1996, S. 94). Die Sekante durch die Punkte (x0; y0) und (x1; y1) schneidet dann die x-Achse in einem Punkt mit dem Näherungswert:
[2 = [1 −
[1 − [0 ⋅ \0 \1 − \0
(4.4)
Das Verfahren wird mit dem Ausgangswert x1 und dem berechneten Wert x2 fortgesetzt. Die Iterationsschleife endet, wenn eine hinreichend genaue Approximation von x* erreicht worden ist. In diesem Fall liegt der Funktionswert yi nahe Null bzw. hat einen vorgegebenen Grenzwert unterschritten. \ I[ \
3[ \
[
\ \ \
[
[
[
[
[
3[ \ 3[ \ 3[ \
Basis: Göhler 1996, S. 94
Abb. 4-1: Schematische Darstellung des Sekantenverfahrens
Die Genauigkeit der Methode der Linearen Interpolation zum Auffinden von Extremstellen und zugehörigen Funktionswerten ist begrenzt; deshalb wird in vielen Fällen zu komplizierteren Interpolationsformeln gegriffen, z.B. die quadratische ,QWHUSRODWLRQ QDFK %HVVHO (vgl. Bronstein/ Semendjajew 1977, S. 1). Geht es um
7
Die Bedingung 2. Ordung bezieht sich auf die 2. Ableitung einer Funktion. Diese ist kleiner Null, wenn es sich bei dem Extremumpunkt um ein Maximum handelt, c.p.
4.2 Klassische Algorithmen
165
die Bestimmung von Nullstellen auf der Grundlage der Infinitesimalrechnung, dann kommt häufig das nachstehende Newton-Verfahren und darauf aufbauende Verfahren, welche die 1. und ggf. 2. Ableitung benötigen, zur Anwendung. Zu weiteren, ableitungsfreien Algorithmen der nicht-linearen Optimierung (NLP) gehören insb. (vgl. Bhatti 2000, S. 303ff.): (a) ,QWHUYDOOKDOELHUXQJVYHUIDKUHQ (Verfahren des Goldenen Schnitts), bei dem eine konvergierende Folge von Intervallschachtelungen zur Lösungsfindung erzeugt wird, und (b) 'RZQKLOO6LPSOH[ 9HUIDKUHQ, welches einen speziellen Simplex-Algorithmus zur Optimierung nichtlinearer Funktionen mit mehreren Parametern darstellt. (a.2) Newton´sches Näherungsverfahren (Tangentenverfahren) Das Newton-Verfahren dient zur näherungsweisen %HVWLPPXQJ YRQ 1XOOVWHOOHQ einer Funktion y = f(x). Gegenüber dem unbeholfenen „Ausprobieren“ (Trial-andError) und der umständlichen linearen Interpolation ist der Algorithmus von Newton elegant und wird deshalb häufig zur %HVWLPPXQJORNDOHU2SWLPDEHL3RO\QR PHQEHOLHELJHQ*UDGHV verwendet. Mithilfe des Algorithmus werden die Nullstellen der 1. Ableitung einer Zielfunktion gesucht, die bei Optimierungsrechnungen – wie oben ausgeführt – die Bedingungen 1. Ordnung darstellen.8 Zu Beginn dieses iterativen Verfahrens ist in Abhängigkeit von einem willkürlich gewählten Startwert x0, von dem ausgegangen wird, dass er in der Nähe der gesuchten Nullstelle liegt, das Niveau f(x0) und die Ableitung f´(x0) der betrachteten Funktion zu berechnen. f´(x0) kann graphisch durch eine Tangente veranschaulicht werden, welche die Funktion f(x) an der Stelle x0 gerade berührt und – nach entsprechender Verlängerung die x-Achse im Punkt x1 schneidet. Infolgedessen lässt sich die Steigung f´(x0) auch durch das Verhältnis des Funktionswertes an der Stelle x0 zum Abstand zwischen x0 und x1 ausdrücken. Wenn man diesen Zusammenhang formal abbildet und nach x1 auflöst, dann ergibt sich eine Gleichung für x1, die von bekannten Werten abhängt (vgl. Holtmann 1963, S. 228f.):
[1 = [ 0 −
I[ 0 ′ 0 I [
(4.5)
x1 stellt den ersten Näherungswert zur Bestimmung der Nullstelle dar und kann als „neues x0“ die Berechnung eines weiteren Näherungswertes x1´ auslösen. Mit jedem Iterationsschritt kommt man der gesuchten Lösung etwas näher (siehe Abb. 4-2). Die Berechnung von x1-Werten nach Gleichung (4.3) ist solange fortzusetzen, bis sich entweder ein Funktionswert f(x0´´´) ergibt, der aus der subjektiven Sicht des Verfahrensanwenders nahe genug bei Null liegt, oder bis sich die in zwei aufeinanderfolgenden Iterationsschleifen berechneten x1 aus eben dieser nur unerheblich voneinander unterscheiden. Für die Anwendung des Näherungsverfahrens
8
Das Näherungsverfahren nach Newton wird dabei sehr oft in Verbindung mit der regula falsi (lat.: Regel des Falschen) in Anwendung gebracht (vgl. Holtmann 1963, S. 63).
166
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
muss die Zielfunktion f(x) bekannt sein bzw. wenn nicht, dann ist sie im Vorfeld durch geeignete Interpolationsverfahren zu bestimmen. Es liegt auf der Hand, dass durch einen wohlüberlegten, bereits in der Nähe des gesuchten Lösungswertes liegenden Startwert das beschriebene Verfahren entscheidend verkürzt werden kann. An dieser Stelle besteht eine starke Parallelität zur Problematik des DMADV-Zyklus, ein geeignetes Design als Ausgangspunkt für die Optimierung zu finden (vgl. Unterkapitel 3.3).
I[
I[R¶ WDQ Į I¶[R¶
I[¶ I[R¶¶ I[¶¶ I[R¶¶¶
Į [R¶
[¶ [R¶¶
[¶¶ [R¶¶¶
[¶¶¶
[
Basis: Göhler 1996, S. 94
Abb. 4-2: Schematische Darstellung des Tangentenverfahrens
(a.3) Lagrange´sche Multiplikatoren Die Algorithmen, die in vorangegangenen beiden Unterabschnitten erläutert worden sind, beziehen sich auf die Ermittlung eines lokalen Optimums bei einer gegebenen Zielfunktion ohne Restriktionen (sog. unrestringierte Optimierung). Im anderen Fall, bei UHVWULQJLHUWHU 2SWLPLHUXQJ, geht es um die Maximierung oder Minimierung einer Zielfunktion unter Berücksichtigung von mindestens einer Nebenbedingungen. Letztere wird, wie in Abschnitt 4.1.1 ausgeführt, in Form von Gleichheits- bzw. Ungleichheitsbedingungen formuliert.9
9
Optimierungsprobleme unter Beachtung von Restriktionen sind sowohl auf dem Gebiet der Ingenieur- als auch der Managementwissenschaften, speziell Operations Research, vielfach anzutreffen. Ausprägungen sind z.B. die nicht-lineare und stochastische Pro-
4.2 Klassische Algorithmen
167
Eines der wichtigsten Werkzeuge zur Lösung dieser Art von Optimierungsproblemen ist die /DJUDQJH)XQNWLRQ (vgl. Jarre/ Stoer 2004, S. 230). Sie dient dazu, ein „gewisses Gleichgewicht“ zwischen der Zielfunktion und den Nebenbedin& gungen zu beschreiben. Zu diesem Zweck bildet man eine Hilfsfunktion X ([ ) , welche die gewogene Summe der Differenzen zwischen den linken und den rechten Seiten der Nebenbedingungen enthält. Als Gewichte treten in dieser Summe die unbestimmten Multiplikatoren λ1, λ2, ..., λm auf; diese werden auch als /DJUDQJHVFKH 0XOWLSOLNDWRUHQ bezeichnet. Der erste Bestandteil der Lagrange& Funktion ist die Funktion I ( [ ) , deren Extremum zu bestimmen ist: P & & & & /( [ , λ ) = I ( [ ) − ¦ λ M ⋅ J M ( [ ) − F M M =1
[
]
(4.6)
& & /( [ , λ ) besitzt die Eigenschaft, dass im Fall, dass sich die Werte der (unabhängigen) Variablen x1, x2, ..., xn im Bereich der zulässigen Lösungen befinden, die in Gleichung (4.6) unter dem Summenzeichen auftretenden Ausdrücke verschwinden. Den Gleichungen, welche die Nebenbedingungen ausdrücken, wird genügt. & & Im Bereich der zulässigen Lösungen besitzt also die Lagrange-Funktion /( [ , λ ) & dieselben Werte wie die Zielfunktion I ( [ ) . Vor diesem Hintergrund kann die Aufgabe zur Bestimmung des Extremums der Funktion unter Nebenbedingung (4.1) durch die Bestimmung des Extremums der gewöhnlichen Funktion (4.6) & ersetzt werden, da man im Bereich der zulässigen Lösungen die Funktion I ( [ ) & & durch /( [ , λ ) ersetzen kann (vgl. Lange 1964, S. 60). & Die in der Hilfsfunktion X ( [ ) enthaltenen Langrange´schen Multiplikatoren sind die Gewichte für die Überschreitungen der einzelnen Bilanzlimite cj. Dabei handelt es sich z.B. um vorgegebene Kosten- und Zeitbudgets, welche als Restriktio& nen in die Optimierung einfließen. Die Werte für die Multiplikatoren λ sind bei Erreichen des Extremumpunktes durch die Lagrange-Funktion bestimmt. Sie können als 2SSRUWXQLWlWVNRVWHQ für das Überschreiten der einzelnen Bilanzlimite interpretiert werden, also z.B. um wie viele Einheiten das Zielniveau steigt, wenn das Unternehmen eine Geldeinheit mehr zur Verfügung hat. Die Lagrange-Multiplikatoren10 spielen bei der (QWZLFNOXQJ QHXHUHU 2SWLPLH UXQJVYHUIDKUHQ eine bedeutende Rolle. Nach Schittkowski (1999, S. 5) ist davon auszugehen, dass ein vergleichbarer Aufwand zur Approximation der optimalen Multiplikatoren betrieben wird wie zur Approximation der Optimallösung. Ein
10
grammierung. Diese sind mit konventionellen Optimierungstechniken i.A. schwierig zu lösen (vgl. Gen/ Cheng 1997, S. 42). Eine Verallgemeinerung der Lagrange-Multiplikatoren stellen die Karush-Kuhn-Tucker-Bedingungen (KKT-Bedingungen) als notwendige Optimalitätsbedingungen für konvexe Optimierungsprobleme dar (vgl. Jarre/ Stoer 2004, S. 228ff.).
168
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
weiterführendes Optimierungsverfahren, um NLP-Probleme zu lösen, ist z.B. das 6HTXHQWLDO4XDGUDWLF3URJUDP (SQP). Dieses basiert auf der sukzessiven Lösung quadratischer Teilprobleme, die durch eine quadratische Approximation der Lagrange-Funktion und eine Linearisierung der Restriktionen entstehen. E ([WUHPZHUWEHUHFKQXQJEHLXQEHNDQQWHP)XQNWLRQVYHUODXI
In diesem Fall ist die analytische Funktion zunächst approximativ zu bestimmen, um die vorstehend genannten Optimierungsverfahren anwenden zu können. Typische Näherungsverfahren sind die Newton´schen Interpolationsformeln, die Taylor´schen Polynome und das Gauß´sche-Kleinst-Quadrate-Prinzip. (b.1) Newton´sche Interpolationsformeln In der Unternehmenspraxis ergibt sich häufig die Aufgabe, aus einer Anzahl vorgegebener Wertepaare (x0; y0), (x1; y1), ..., (xn; yn) einer Funktion y = f(x) eine ganzrationale Funktion y = g(x) zu bestimmen, welche die vorgegebenen Wertepaare enthält.11 Die vorgegebenen Argumentwerte x0, x1, ..., xn heißen Stützstellen; die ihnen zugeordneten Funktionswerte y0, y1, ..., yn heißen Stützwerte der Funktion. Legen wir das Interpolationsverfahren zugrunde, dann wird für y = g(x) gefordert: yi = f(xi) = g(xi). für i = 0, 1, ..., n (vgl. Leupold et al. 1971, S. 62f.). Die klassische Interpolationsformel geht auf ISAAC NEWTON (1642-1727) und ist auch als „Newton’sche Generalformel“ bekannt. Zur Abschätzung von f(x) wird ein Polynom n-ten Grades gebildet, wobei die Werte der Funktion f(x) an den Stellen x0, x1, ..., xn gegeben sind und die Werte von f(x) an den Stellen x ε R mit folgendem ganzrationalen Näherungsansatz gesucht werden:
I[ = D 0 + D1 ⋅ [ − [ 0 + D 2 ⋅ [ − [ 0 ⋅ [ − [1 +
(4.7)
+ D Q ⋅ [ − [ 0 ⋅ [ − [1 ⋅ ⋅ [ − [ Q −1 ) Der Vorteil dieser Form des Ansatzes besteht darin, dass für die Berechnung der Koeffizienten a0, a1, ..., an, ein JHVWDIIHOWHVOLQHDUHV*OHLFKXQJVV\VWHP entsteht, das i.A. sehr einfach zu lösen ist, denn es gilt: y0 = a0, y1 = a0 + a1 ⋅ (x1 – x0), y2 = a0+ a1 ⋅ (x1 – x0) + a2 ⋅ (x2 – x0) ⋅ (x2 – x1), usw. Wenn die 6WW]VWHOOHQ x0, x1, ..., xn und die 6WW]ZHUWH y0, y1, ..., yn von der Aufgabenstellung her bekannt sind, dann lassen sich aus diesem gestaffelten Gleichungssystem rekursiv die unbekannten Koeffizienten a0, a1, ..., an der Reihe nach berechnen.12 Da die Berechnung der Koef11 12
Z.B. sind für eine Maschine im Fertigungsprozess die Werte der Outputmessgröße für unterschiedliche Parametereinstellungen bekannt. Dabei ist jedoch nicht gesagt, dass je mehr Wertepaare vorgegeben sind, desto genauer die a priori unbekannte Funktion f(x) geschätzt werden kann. Einen Überblick über die Approximationstheorie, insb. die beste Annäherung nicht-elementarer Funktionen mittels Polynome oder durch rationale Funktionen, gibt Meinardus (2003, S. 168ff.).
4.2 Klassische Algorithmen
169
fizienten a0, a1, ..., an mit wachsender Anzahl von Stützstellen immer umständlicher wird, wurden 5HFKHQVFKHPDWD entwickelt, mit deren Hilfe die Koeffizienten sehr einfach und in schematischer Weise ermittelt werden können. Für jede in einem abgeschlossenen Intervall stetige Funktion lässt sich eine ganzrationale Näherungsfunktion in der beschriebenen Weise angeben. Der Grad der zu behandelnden Näherungsfunktion ist für die Berechnung von untergeordneter Bedeutung, da bei Benutzung des +RUQHU6FKHPDV nur Addition und Multiplikation als Rechenoperationen zur Bestimmung der Funktionswerte der ganzrationalen Funktion erforderlich sind.13 Bezogen auf das betriebliche Umfeld bedeutet dies, dass z.B. bei einer Maschine ausgehend von der Grundeinstellung unterschiedliche Inputwerte realisiert werden und die jeweiligen Outputwerte gemessen werden.14 Die Newton´sche Interpolation nach Gleichung (4.7) lässt sich noch weiter vereinfachen, wenn Stützstellen mit gleichen Abständen, sog. lTXLGLVWDQWH 6WW] VWHOOHQ, vorliegen (vgl. Leupold et al. 1971, S. 62f.). Genau dieses Vorgehen macht sich das *DX1HZWRQ9HUIDKUHQ bei der Lösung nicht-linearer Minimierungsprobleme zu nutze. Unter der Voraussetzung, dass die zu minimierende Zielfunktion die spezielle Gestalt des Normquadrates einer vektorwertigen Funktion hat, kann die Gleichung (4.10) in jedem Schritt durch eine lineare Näherung ersetzt werden (vgl. Jarre/ Stoer 2004, S. 186f.). Auf die Darstellung mathematischer Details soll hier verzichtet werden. In entsprechender Weise definiert man die Differenzen 1., 2., ..., k-ter Ordnung für die den Stützstellen xi zugeordneten Stützwerte yi. Aus der Differenz k-ter Ordnung wird rücklaufend (rekursiv) die Differenz (k+1)-ter Ordnung definiert, wobei gilt: Δk+1yi = Δkyi+1 – Δkyi. Sind die Werte der Funktion f(x) an den Stellen x0, x0 ± Δx, ..., x0 ± i ⋅ Δx, ..., x0 ± n ⋅ Δx gegeben, dann lassen sich die Werte von f(x) an beliebigen Stellen x0 + t ⋅ Δx mit t ε R wie folgt ermitteln:
13
14
15
Ein weiterer Vorzug des ganzrationalen Näherungsverfahrens nach WILLIAM GEORGE HORNER (1786-1837) besteht darin, dass man durch geeignete Wahl des Grades n und der Koeffizienten ai erreichen kann, dass die Abweichungen von der anzunähernden Funktion unter einer beliebig kleinen vorgegebenen Schranke bleiben. Die Modellierung von glatten Kurven erfolgt in der Praxis häufig durch sog. Spline-Interpolationen [Engl.: Spline für „biegsames Kurvenlineal“]. Dabei werden zwischen den Stützstellen meist einfache Funktionen (z.B. lineare, quadratische und kubische Polynome) benutzt und an den Nahtstellen durch Glättungsbedingungen (z.B. Stetigkeit der Ableitungen höherer Ordnung) so aneinandergesetzt, dass die Gesamtkrümmung des Kurvenverlaufs minimal ist (vgl. Nürnberger et al. 2003). Zu diesem Zweck werden Differenzen gebildet, wie sie auch bei anderen numerischen Verfahren eine Rolle spielen. Sind die Stützstellen x0, x1, ..., xn äquidistant, dann ist der Abstand zweier benachbarter Stellen Δx = const. und es gilt: xi = x0 + i ⋅ Δx
170
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
I Q [ 0 + W ⋅ ǻ[ = \ 0 1 ⋅ ǻ\ 0 1 W ⋅ W − 1 2 + ⋅ ǻ \ 0 + 2 W ⋅ W − 1 W − Q + 1 Q + ⋅ ǻ \0 Q
+
(4.8)
Die Gleichung (4.8) beschreibt die bekannte *UHJRU\1HZWRQ,QWHUSRODWLRQVIRU PHO für Daten mit homogenem Intervall. Zur Interpolation einer Verteilung n-ter Ordnung wird die Berechnung der Differenzen bis zur n-ten Ordnung benötigt. Die Faktoren vor den Differenzen sind die jeweiligen %LQRPLDONRHIIL]LHQWHQ. Die Genauigkeit beim Abschätzen von funktionellen Zusammenhängen und dem Auffinden von Extremwerten ist bei den vorstehend genannten Verfahren abhängig von der Schrittweite, d.h. der Differenz zwischen jeweils zwei Werten der unabhängigen Variable. Im Folgenden wird auf die Infinitesimalrechnung übergegangen, welche die Ermittlung von 'LIIHUHQWLDONRHIIL]LHQWHQ erfordert. (b.2) Taylor´sche Polynome In der Analysis verwendet man häufig Taylor-Reihen, um Funktionen in der Umgebung bestimmter Punkte durch Polynome abzuschätzen bzw. anzunähern. Die Taylor-Reihe einer Funktion f(x) in einem Punkt x0 ist die 3RWHQ]UHLKHQHQWZLFN OXQJ GHU )XQNWLRQ an diesem Punkt. Ist eine Funktion in einer Umgebung von x0 (n+1)-mal stetig differenzierbar, dann heißt die Entwicklung der Funktion f(x) nach Potenzen von x die Taylor-Reihe mit dem Entwicklungspunkt x0:
I[0 + ǻ[ = I[ 0 I[ 0 ⋅ ǻ[ 1 I[ 0 2 + ⋅ ǻ [ + 2 I Q [ 0 Q + ⋅ǻ [ Q
+
(4.9)
Die 7D\ORU5HLKHQHQWZLFNOXQJ nach Gleichung (4.9) impliziert, dass der Funktionswert an einer beliebigen Stelle x durch den Funktionswert und die nAbleitungen an der festen Stelle x0 ausgedrückt werden kann (vgl. Göhler 1996, S. 95). Eine gegebene Funktion nach Potenzen der unabhängigen Variablen x zu
4.2 Klassische Algorithmen
171
entwickeln ist eine elegante Möglichkeit, komplizierte Rechnungen zu umgehen und Kurvenabschnitte beliebig genau abzuschätzen.16 Für die Summe der ersten beiden Terme der Gleichung stellt die Taylor-Reihe eine „Linearisierung von f(x) an der Stelle x0“ dar. Aussagen zur Abweichung des Taylor´schen Polynoms von den Funktionswerten der zu approximierenden Funktion sind über die Berechnung des sog. Restglieds möglich. Es gibt den Fehler an, wenn f(x) durch ein Polynom n-ten Grades ersetzt wird. Modellfunktionen zur Zielwertbestimmung, die im Rahmen der modellbasierten Optimierung mit mathematischen Methoden zugrunde gelegt werden, basieren häufig auf einem Taylor-Reihenansatz n-ter Ordnung (vgl. Peters et al. 1999, S. 128). So wird bspw. beim 4XDVL1HZWRQ9HUIDKUHQ17 im aktuellen Punkt xk ein quadratisches Modell der Zielfunktion f(x) gebildet. Das Minimum dieser Funktion, welches man durch Nullsetzen des entsprechenden Gradienten f´(x) erhält, dient der Bestimmung einer Suchrichtung sk = x – xk für die Zielfunktion. Zur Bestimmung von sk werden neben den ersten partiellen Ableitungen der Zielfunktion auch Approximationen der inversen Hesse-Matrix A-1 als Bedingung 2. Ordnung herangezogen. Da i.d.R. kein analytischer Ausdruck der Zielfunktion gegeben ist, erfolgt die Berechnung der Ableitungen numerisch durch Differenzenquotienten. Die Ermittlung von A-1 geschieht näherungsweise über Summationsformeln, z.B. nach der %)*6)RUPHO von Broyden-Fletcher-Goldfarb-Shanno (1987) oder der ')3)RUPHO von Davidon-Fletcher-Powell (1963). Ein neuer Punkt xk+1 wird durch Liniensuche entlang der Suchrichtung sk nach der Iterationsformel xk+1 = xk + tk ⋅ sk bestimmt. Die Schrittweite tk wird für die Suche nach einem Minimum so eingestellt, dass für die Zielfunktion gilt: f(xk+1) < f(xk). Dabei kann eine Schrittweitensteuerung durch eindimensionale Suchalgorithmen, z.B. dem /LQLHQVXFKYHUIDKUHQ nach Armijo/ Goldstein (1965/66), realisiert werden. Die Anzahl der Iterationen für die Bestimmung des Optimums ist um so geringer, je weniger Glattheitseigenschaften die Funktion erfüllen muss. Für eine effiziente Lösungssuche ist bei der Wahl des Schrittweitenalgorithmus sowohl auf die Struktur des zu lösenden Problems als auch auf die des übergeordneten Optimierungsverfahrens Rücksicht zu nehmen (vgl. Schittkowski 1999, S. 18).
16
17
Im Sonderfall x0 = 0 wird die Taylor-Reihe auch als Maclaurin´sche Form der Reihe von Taylor bezeichnet. Notwendige Bedingung hierbei ist, dass f(x) an der Stelle x0 = 0 einen endlichen Funktionswert besitzt und beliebig oft differenzierbar ist. Bei Quasi-Newton-Verfahren soll auf die z.T. aufwendige Berechnung zweiter Ableitungen als hinreichende Optimalitätsbedingungen verzichtet werden. Die Suchrichtung wird durch Multiplikation des Gradienten mit einer sog. Quasi-Newton-Matrix berechnet (vgl. Jarre/ Stoer 2004, S. 173).
172
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
(b.3) Gauß´sche Kleinst-Quadrate-Schätzung (LSM) Wenn zur Bestimmung unbekannter Größen und Abhängigkeiten mehrere Messungen als notwendig erachtet werden, dann handelt es sich i.A. um statistische Problemstellungen, bei denen $XVJOHLFKVUHFKQXQJHQ zur Anwendung kommen. Für die im Rahmen von Messungen erhobenen Beobachtungsdaten werden 6FKlW]IXQNWLRQHQ gesucht, welche wirksam und erwartungstreu sind (vgl. hierzu insb. Bamberg/ Baur/ Krapp 2007, S. 147). Eine Schätzfunktion heißt erwartungstreu oder unverzerrt für einen bestimmten Parameter, wenn der Erwartungswert der Funktion in der Nähe des tatsächlichen Wertes liegt; es gilt: •
Das DULWKPHWLVFKH0LWWHO⎯x einer Stichprobe ist ein erwartungstreuer Schätzer und zugleich der wirksamste für den Erwartungswert μ einer N(μ; σ)verteilten Grundgesamtheit.
•
Die PLWWOHUHTXDGUDWLVFKH$EZHLFKXQJV einer Stichprobe ist ein erwartungstreuer Schätzer und zugleich der wirksamste für die Varianz σ2 einer N(μ; σ)verteilten Grundgesamtheit.
Zur Ermittlung von Schätzwerten/ -funktionen, die sich den Messungen am besten anpassen, existieren allgemeine analytische Vorgehensprinzipien. Sie basieren i.d.R. auf der 8QWHUVXFKXQJGHU9HUWHLOXQJGHU]XIlOOLJHQ)HKOHU. Für eine gesuchte Größe erhält man die jeweils günstigsten oder ausgeglichensten Werte, wenn die Beobachtungen mit Verbesserungen versehen werden, welche die auftretenden Widersprüche beseitigen und die Summe der Quadrate der Verbesserungen minimieren. Durch die Anwendung der 0HWKRGHGHUNOHLQVWHQ4XDGUDWH(LSM – Least Squares Method), die auf den deutschen Mathematiker CARL F. GAUß (17771855) zurückgeht, lassen sich in vielen Situationen sinnvolle Schätzfunktionen explizit erzeugen.18 Dies gilt insb. für die Schätzung von Erwartungswerten und die Schätzung von Regressionskoeffizienten (vgl. Abschnitt 4.2.2): (a) Sind x1, x2, ..., xn die Beobachtungswerte einer einfachen Stichprobe aus einer Grundgesamtheit G, dann lässt sich als geeigneter 6FKlW]ZHUWIUGHQ(UZDU WXQJVZHUW μ YRQ * derjenige Wert ansehen, durch den die Summe der Abstandsquadrate zwischen den (empirischen) Beobachtungswerten xi und dem möglichen (geschätzten) Parameterwert μ minimiert wird:19 18
19
Neben der Kleinst-Quadrate-Schätzfunktion, die verteilungsunabhängig ist, gibt es eine Reihe von weiteren Schätzfunktionen zur Schätzung eines unbekannten (ein- oder mehrdimensionalen) Parameters υ der gemeinsamen Verteilung von Stichprobenvariablen [ [ [Q, z.B. Max-Likelihood- und Bayes-Schätzfunktion. Letztere bezieht sowohl die Stichproben- als auch die Vorab-Informationen in die Schätzung ein. Das Max-Likelihood-Prinzip geht ebenfalls auf C.G. Gauß (1821) zurück und wurde insb. von R.A. Fisher (1922) energisch propagiert (vgl. Bamberg et al. 2007, S. 153). Durch Nullsetzen der 1. Ableitung der nach μ umgestellten Gleichung (4.10) erhält man das Stichprobenmittel⎯x als Kleinst-Quadrate-Schätzfunktion für μ. Diese und weitere mathematische Zusammenhänge sind in den Abhandlungen zur Methode der kleinsten Quadrate von Carl F. Gauss nachzulesen (vgl. Börsch/ Simon 1986).
4.2 Klassische Algorithmen
173
Q
min
¦ [
L
− ȝ 2
(4.10)
L =1
(b) Sind (x1, y1), (x2, y2), ..., (xn, yn) Paare von Beobachtungswerten zu zwei Merkmalen X und Y, dann sind unter der Maßgabe, dass die y-Werte bis auf zufällige Schwankungen linear von den x-Werten abhängen, yi als Realisierungen von Zufallsvariablen Yi mit den Erwartungswerten E(Yi) = a + b ⋅ xi anzusehen. Die 5HJUHVVLRQVNRHIIL]LHQWHQ D und E können anhand der Stichprobenergebnisse y1, y2, ..., yn über LSM geschätzt werden. Obwohl die Vorgehensweise nach Gauß eine gewisse Willkürlichkeit beinhaltet, hat sie sich in der Statistik und Wahrscheinlichkeitsrechnung seit über 150 Jahren bewährt und konnte bisher durch kein besseres Verfahren ersetzt werden. LSM dient vor allem zur Lösung der folgenden drei Problemstellungen: •
$XVJOHLFKXQJGLUHNWHU%HREDFKWXQJHQ, bei denen die gesuchten Größen, z.B. Weg und Zeit, direkt gemessen werden
•
$XVJOHLFKXQJYHUPLWWHOQGHU%HREDFKWXQJHQ, bei denen die gesuchten Größen, z.B. Geschwindigkeit, nicht unmittelbar gemessen, sondern aus anderen gemessenen Größen abgeleitet werden
•
$XVJOHLFKXQJEHGLQJWHU%HREDFKWXQJHQ, bei denen zwischen den gemessenen Größen Bedingungen bestehen, die streng erfüllt werden müssen, z.B. die Summe der Winkel in einem Dreieck beträgt 180°.
4.2.2
Analytische vs. statistische Verfahren zur Extremwertberechnung
D $QDO\WLVFKH9HUIDKUHQ]XU([WUHPZHUWEHUHFKQXQJ
(a.1) Lineare Optimierung (LP) Die 6LPSOH[0HWKRGH stellt das wohl bekannteste und in der Praxis am häufigsten genutzte Verfahren für Optimierungsrechnungen mit linearen Zielfunktionen und linearen Randbedingungen dar (vgl. u.a. Dantzig/ Thapa 1997; Chvátal 1983). Allerdings beschränkt sich ihre Anwendung auf die Lösung von Problemen, die sich über lineare Gleichungen mit metrischen Entscheidungsvariablen20 [ [ [Q darstellen lassen. Hierzu wird eine lineare Zielfunktion (Z) & (4.11) \ = I ( [ ) = F 0 + F1 ⋅ [1 + F 2 ⋅ [ 2 + ... + F Q ⋅ [ Q mit n Variablen unter bestimmten linearen Nebenbedingungen (NB) der Form
20
Entscheidungsvariablen, z.B. [, werden im Folgenden kursiv geschrieben in Abgrenzung zu einzelnen Beobachtungswerten einer Variable, z.B. x1.
174
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
D11 ⋅ [1 + D12 ⋅ [ 2 + ... + D1Q ⋅ [ Q ≤ D1 ... D P1 ⋅ [1 + D12 ⋅ [ 2 + ... + D PQ ⋅ [ Q ≤ D P sowie Nichtnegativitätsbedingungen (NNB)
[1 ≥ 0,..., [ Q ≥ 0 gelöst, d.h. maximiert oder minimiert (vgl. Göhler 1996, S. 17ff.). Bei der Simplex-Methode handelt es sich um ein LWHUDWLYHV9HUIDKUHQ, bei der die gesuchte Optimallösung nicht in einem Rechenschritt, sondern in mehreren Schritten erhalten wird (vgl. Bhatti 2000, S. 339ff.). Das Verfahren beruht im Grunde genommen auf der „Methode der Eckenprüfung“, denn ein Simplex ist eine geometrische Figur, die in n Dimensionen 1 + n Eckpunkte besitzt (z.B. Dreieck in 2D, Tetraeder in 3D). Im Rahmen des 6LPSOH[$OJRULWKPXV werden die Ecken des Lösungspolyeders schrittweise überprüft, wobei jeder Eckpunkt einem Parametervektor entspricht. Dies ist i.d.R. einfach, weil die Anzahl der Ecken durch die Zahl der Neben-/ Randbedingungen bestimmt wird, und es oft nur wenige Bedingungen sind, die das Aussehen des Lösungsvielecks tatsächlich determinieren. Ausgehend von einer zulässigen Basislösung wird durch geeignetes Umformen des Gleichungssystems gewissermaßen von Eckpunkt zu Eckpunkt des Lösungspolyeders vorangeschritten. Über das Umformen wird der Wert der Zielfunktion solange verbessert, bis das Optimum erreicht ist. Für den 2- und 3-dimensionalen Fall kann die Lösung graphisch erfolgen, wie es im x2-x1-Diagramm in Abb. 4-3 für ein Maximierungsproblem veranschaulicht ist. Die Zielfunktion y = f(x1, x2) stellt in diesem speziellen Fall eine Ebene dar; der zulässige Bereich wird durch zwei NB begrenzt. Besitzt die Zielfunktion mehr als drei unabhängige Variablen, dann erfolgt die Lösungsfindung analytisch über das Aufstellen eines sog. (optimalen) 6LPSOH[7DEOHDXV. Dazu ist zunächst die Normalform des linearen Optimierungsproblems (LP) zu bilden, auf dessen Basis das erste Simplex-Tableau erstellt wird. Beim gewöhnlichen Simplex-Verfahren besteht die Zielsetzung darin, dieses erste Tableau durch die Anwendung bestimmter Regeln in ein entscheidbares Tableau zu überführen. Nach dem Hauptsatz der linearen Optimierung existiert stets ein entscheidbares Simplex-Tableau, das mit endlich vielen Schritten des Simplex-Verfahrens erreichbar ist, wenn das LP mindestens eine zulässige Lösung besitzt (vgl. Nollau 1993, S. 85). Die lineare Optimierung ist ein Teilgebiet der Optimierungsrechnung, die als Hilfsmittel zur optimalen Entscheidungsfindung bei mehr oder weniger komplizierten Problemstellungen dient. Neben der LP gehören die nicht-lineare und dynamische Optimierung sowie bestimmte Methoden der Wahrscheinlichkeitsrechnung und der mathematischen Statistik zu den NODVVLVFKHQ2SWLPLHUXQJVDOJRULWK PHQ. Viele Lösungsverfahren der nicht-linearen Optimierung basieren auf der Differentialrechnung. Letztere ist für die Ermittlung des Maximums bzw. Mini-
4.2 Klassische Algorithmen
175
mums einer linearen Funktion unter einschränkenden Bedingungen für die Variablenbelegung – wie es beim Simplex-Tableau der Fall ist – nicht geeignet. Denn lineare Funktionen sind zwar differenzierbar, da aber ihre erste Ableitung stets konstant ist, kann die für einen Extremwert bestehende notwendige Bedingung nicht erfüllt werden (vgl. Ose 1973, S. 119). [
(2) [ ± ⋅⋅ [ (3) [
(1) [ ± ⋅⋅ [
] [[ ]
(4) [ [
[
Quelle: Nollau 1993, S. 85
Abb. 4-3: Graphische Lösung eines linearen Optimierungsproblems (Beispiel)
Seit Karmarkar (1984) hat sich mit der ,QQHUH3XQNWH0HWKRGH eine weitere Klasse von Verfahren zur Lösung von LO etabliert (vgl. Jarre/ Stoer 2004, S. 67f.). Sie arbeitet jedoch mit Techniken der nicht-linearen Optimierung, auf die im folgenden Unterabschnitt kurz eingegangen wird. Der Vorteil der Innere-Punkte-Methode liegt vor allem darin, dass sie gegenüber dem Simplex-Algorithmus weder praktisch noch theoretisch eine exponentielle Anzahl von Rechenschritten zum Auffinden einer hinreichend exakten Näherungslösung benötigt (vgl. Khachiyan 1979). Wie der Name schon sagt, geht die Methode nicht von den Ecken der zulässigen Menge (Lösungspolyeder) aus, sondern nähert sich der Optimallösung vom „Innern“ her. Diese Annäherung basiert auf der Lösung eines Gleichungssystems nach dem oben beschriebenen Newton-Verfahren. (a.2) Nicht-lineare Optimierungsverfahren (NLP-Verfahren) Wenn die Zielfunktion explizit als mathematischer Ausdruck formuliert ist, lässt sich auch bei komplexen Problemstellungen versuchen, das Optimum analytisch zu bestimmen. Jedoch ist aus der Algebra bekannt, dass dies schon bei relativ einfachen Funktionen, wie z.B. Polynomen höheren Grades, nicht gelingt. Eine LQWXLWLYH /|VXQJ dieses Problems ist die randomisierte Wahl von Elementen des Suchraums. Letzterer wird durch die Menge der potenziellen Kombinationen der Eingangsgrößen charakterisiert, z.B. die Verteilung von n Aufgaben auf m Ma-
176
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
schinen. Ein Element des Suchraumes ist eine mögliche Zuordnung aller gegebenen Aufgaben auf alle gegebenen Maschinen. Das Verteilen von n Aufgaben auf m Maschinen entspricht hierbei n Ziehungen mit Wiederholung aus einer Urne mit m Elementen (vgl. Feltl 2003, S. 15). Wenn man bedenkt, dass die Größe des Suchraums S = mn beträgt, dann ist es eher unwahrscheinlich, dass komplexe Probleme mit 7ULDODQG(UURU9HUIDKUHQ in einer annehmbaren Zeit zu lösen sind. Nicht selten wird deshalb die Kenntnis gewisser Eigenschaften, z.B. Stetigkeit und Differenzierbarkeit der Zielfunktion, genutzt, um ein numerisches Verfahren zur Lösung eines solchen Problems zu entwickeln. Man sagt, ein Optimierungsalgorithmus besitzt ein „inneres Modell der Zielfunktion“, wenn die zu bearbeitende Zielfunktion die vom Algorithmus unterstellten Annahmen erfüllt (vgl. Sprave 1999, S. 9). Im Umkehrschluss bedeutet dies: Wendet man den Algorithmus auf ein Problem an, das nicht die Charakteristika des inneren Modells aufweist, so wird er aller Wahrscheinlichkeit nach versagen. So startet z.B. das bekannte 1HZWRQ5DSKVRQ 9HUIDKUHQ an einem Punkt im Suchraum und ermittelt anhand der partiellen Ableitungen in diesem Punkt gewissermaßen einen Vorschlag für die Lage des Optimums. Ist die Zielfunktion quadratisch, entspricht sie dem inneren Modell des Verfahrens; das Optimum wird dann in einem Schritt gefunden. Besitzt die Zielfunktion hingegen mehrere lokale Optima, so hängt es vom gewählten Startpunkt ab, welches der Optima vom Verfahren detektiert wird. Um von einem Lösungsvorschlag aus das nächste Maximum zu finden, wird beim Newton-Raphson-Verfahren und ähnlichen Verfahren der *UDGLHQW der zu opti& mierenden, multimodalen Zielfunktion I ([ ) verwendet:
§ ∂ & & & · ∂ ∇ I ( [ ) := ¨¨ I ( [ ),..., I ( [ ) ¸¸ ∂[ Q © ∂[1 ¹
7
(4.12)
Dieses Vorgehen wird auch als „Bergsteigen“ bzw. „Hill climbing“ bezeichnet. Um die Art des (lokalen) Extremums zu bestimmen, ist die 2. Ableitung der Funktion zu berechnen. Allgemein ist dazu die +HVVH0DWUL[ zu lösen:
§ ∂2 & & · ∇2 I ( [ ) := ¨ I ([) ¸ ¨ ∂[ ∂[ ¸ © L M ¹ L , M =1, 2,..., Q
(4.13)
Die Gleichungen (4.12) und (4.13) geben keine Auskunft darüber, ob das gefundene Maximum global ist. Außerdem beschränkt sich die Anwendung auf stetig differenzierbare Funktionen. Im Rahmen von ORNDOHQ6XFKYHUIDKUHQ ist der Funk& tionswert I ([ ) ein Bewertungsmaßstab für die Erwünschtheit unterschiedlicher Lösungen in der Population (vgl. Voß et al. 2000, S. 556). Bei restringierten NLP ist zusätzlich die KKT-Bedingung als notwendige Bedingung 2. Ordnung zu erfül-
4.2 Klassische Algorithmen
177
len. Sie besagt, dass bei einem Minimum der Gradient der Zielfunktion eine positive Linearkombination der Gradienten der aktiven Restriktionen ist.21 Wie in Abb. 3-12 bereits skizziert worden ist, wird bei einer unimodalen Funktion ausgehend von der suboptimalen Lösung x0 das JOREDOH 0D[LPXP x* gesucht. Zwischen Start- und Zielwert liegt das ORNDOH 2SWLPXP x1, dass bei klassischen Suchverfahren u.U. als beste Lösung detektiert wird. Nur wenn zwischenzeitlich Verschlechterungen zugelassen werden, z.B. im Punkt (xM; yM), kann das globale Optimum im Punkt (x*; y*) letztendlich aufgefunden werden.22 Die Algorithmen, die im Rahmen der NLP i.A. zum Einsatz kommen, können in globale, lokale, direkte und indirekte Ansätze unterteilt werden. Das Quasi-Newton-Verfahren gilt hierbei als LQGLUHNWHV ORNDOHV 9HUIDKUHQ; die Anwendung des Algorithmus erlaubt das Auffinden lokaler Extrema, und zwar indirekt über die Ermittlung des funktionellen Zusammenhangs zwischen abhängiger und unabhängiger Variable(n). Zu den GLUHNWHQ ORNDOHQ 9HUIDKUHQ gehören u.a. der SimplexAlgorithmus nach Nelder/ Mead (1965), das Verfahren der rotierenden Koordinaten nach Rosenbrock (1960) und das Complex-Verfahren von Box (1965). Letztgenannte arbeiten ableitungsfrei und sind somit robuster als die ableitungsbasierten indirekten, lokalen Verfahren (vgl. Peters et al. 1999, S. 127). Die bis hierin dargestellten mathematischen Verfahren kommen vorzugsweise bei gut strukturierten Problemen mit bekanntem Funktionsverlauf zum Einsatz. Bei schlecht strukturierten Problemen mit unbekanntem Funktionsverlauf haben sich vor allem KHXULVWLVFKH2SWLPLHUXQJVYHUIDKUHQ bewährt. Zu dieser Gruppe gehören u.a. die Evolutionären Algorithmen, die in Unterkapitel 4.3 vorgestellt und gegenüber den klassischen Verfahren abgegrenzt werden. Direkte und indirekte Lösungsverfahren, die auch als exakte und heuristische Verfahren bezeichnet werden, sind Gegenstand des nachfolgenden Abschnittes. Unterschiedliche Forschungseinrichtungen konzentrieren sich i.d.R. auf eines der vorstehend genannten Verfahren. Unabhängig von der Verfahrenswahl unterliegt jeder Optimierungsprozess Beschränkungen der Designparameter. Das heißt, es sind prozesstechnische Randbedingungen zu beachten, die den Gültigkeitsbereich des Modells einschränken. Als kritisches Element gelten üblicherweise die zeitaufwendigen Simulationen, die zur Auswertung der Zielfunktion jeweils erforderlich sind. Deshalb stellt die Anzahl der Iterationen, die zur Eruierung der Zielfunktion benötigt werden, das zentrale Bewertungskriterium neben der erzielten Güte der Ergebnisse dar (vgl. Peters et al. 1999, S. 128).
21 22
Für Verfahrensdetails sei an dieser Stelle auf die einschlägige Literatur verwiesen (vgl. u.a. Jongen et al. 1986; Wimmer/ Chattergy 1978). Werden unter allen Zügen/ Transformationen im Lösungsraum jeweils die mit der größten positiven Veränderung gewählt, dann bezeichnet man dies als „Verfahren des steilsten Anstiegs“ (vgl. Voß et al. 2000, S. 554).
178
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
Testergebnisse23 deuten darauf hin, dass der 4XDVL1HZWRQ$OJRULWKPXV hinsichtlich Konvergenzsicherheit und -geschwindigkeit bei der Zielfunktionsberechnung unabhängig von der geforderten Genauigkeit ist. Wie bereits oben angesprochen, steht diesem Vorteil der Nachteil gegenüber, dass von diesem Algorithmus globale Optima nur relativ unzuverlässig detektiert werden. Außerdem stoßen die algebraischen Verfahren nach Newton et al. bei schwierigen, d.h. komplexen Optimierungsaufgaben mit großem Suchraum, schnell an ihre Grenzen. E 6WDWLVWLVFKH9HUIDKUHQ]XU([WUHPZHUWEHUHFKQXQJ
Die Korrelations-/ Regressionsanalyse sowie die nachfolgend beschriebene Statistische Versuchsplanung (DOE) stellen die Kernmethoden im Rahmen von Six Sigma-Projekten dar. Sie werden vor allem in der Analyse- und Improve-Phase des DMAIC-Zyklus eingesetzt, um die Ursachen-Wirkungsbeziehungen zwischen ein oder mehreren Einflussgrößen [[[Q sowie ein oder mehreren Zielgrößen \\\Q offen zu legen und funktionell zu beschreiben. (b.1) Lineare und nicht-lineare Regression Die Regressionsanalyse24 ist den multivariaten statistischen Methoden zu zuordnen. Sie untersucht die einseitig gerichtete Abhängigkeit zwischen mind. zwei metrisch-skalierten Merkmalen bzw. Variablen (vgl. Eckstein 1999, S. 217ff.). Je nachdem, ob ein linearer oder nicht-linearer Funktionszusammenhang unterstellt werden kann, gelangt man zur linearen Regression oder zur nicht-linearen Regression. In Abhängigkeit von der Anzahl einbezogener unabhängiger bzw. erklärender Variablen wird weiterhin zwischen einfacher und multipler Regression unterschieden. Insgesamt ergeben sich dadurch vier Anwendungsfälle. Der Hintergrund für die Anwendung der HLQIDFKHQOLQHDUHQ5HJUHVVLRQ ist folgender: Ermittelt man durch Messungen zwei Wertepaare P1(x1; y1) und P2(x2; y2), dann lassen sich aus den Gleichungen y1 = a + b ⋅ x1 und y2 = a + b ⋅ x2 die Parameter a und b eindeutig berechnen; geometrisch veranschaulicht wird also durch zwei Punkte eine Gerade gelegt. Bei Vergrößerung der Anzahl der Messungen erhält man sich widersprechende Gleichungen yi = a + b ⋅ xi; geometrisch bedeutet dies, dass die zu den Wertepaaren (xi; yi) gehörigen Punkte Pi nicht exakt auf einer Geraden liegen, sondern mehr oder weniger stark um diese streuen.
23
24
Als Testbeispiele für die Überprüfung der Leistungsfähigkeit von Optimierungsverfahren werden verwendet (vgl. Schittkowski et al. 1994): (a) Künstliche Probleme (z.B. Rosenbrock-Problem), (b) Anwendungsorientierte Probleme (z.B. Reaktorentwurf) und (c) Zufällig erzeugte Probleme (z.B. Polynome n. Grades). Im Gegensatz zur Korrelationsanalyse, bei der die beiden Merkmale bzw. Variablen x und y als unabhängig voneinander betrachtet werden, handelt es sich bei der Regressionsrechnung um eine Abhängigkeits- bzw. Dependenzanalyse mit mind. einer abhängigen und einer unabhängigen Variable. Aus diesem Grund ist bei der Anwendung der Regressionsanalyse zu beachten, dass zwischen den einbezogenen Variablen x und y logisch begründbare Kausalitäten/ Ursachen-Wirkungsbeziehungen bestehen.
4.2 Klassische Algorithmen
179
Die Aufgabe besteht nun darin, möglichst „günstige“ Werte für a und b zu finden, so dass sich geometrisch eine Gerade ergibt, die den vorliegenden Messpunkten am besten angepasst ist. Nach der oben beschriebenen Methode der kleinsten Quadrate (LSM) ist die Gerade y = a + b ⋅ x dann der Punktwolke im Streuungsdiagramm am besten angepasst, wenn die 4XDGUDWVXPPH GHU $EVWDQGTXDGUDWH zwischen yi und a + b ⋅ xi minimal ausfällt. Wie gut die Anpassung (der „Fit“) ist, wird über statistische Gütemaße, z.B. Bestimmtheitsmaß R2, beurteilt.25 Die allgemeine Aussage, „günstige Werte zu finden“ bzw. „Werte, die sich den Messungen am besten anpassen“, lässt sich in entsprechender Weise auch für die multiple lineare sowie (multiple) nicht-lineare Regression26 präzise analytisch formulieren. Zu diesem Zweck sind die Parameterwerte FFFQ einer Funkti& & on \ = I ( [ , F ) , die stetig partiell differenzierbar ist, so zu bestimmen, dass sich die Funktion möglichst genau den gegebenen Punkten Pk(xi; yi) annähert.27 Mithilfe von LSM wird eine Funktion ermittelt, welche den zufälligen Fehler bei n Wertepaaren minimiert und die folgende Forderung erfüllt:28 Q
min 4(F1 , F 2 ,..., F Q ) =
¦ [ I ( [ , F , F ,..., F L
1
2
) − \L ]
2
Q
(4.14)
L =1
Die Nullsetzung der partiellen Ableitung von Q(c1, c2, ..., cn) nach ci liefert das als Normalengleichungen bezeichnete lineare Gleichungssystem zur Berechnung der Parameterwerte c1, c2, ..., cn (vgl. Göhler 1996, S. 92). In der praktischen Anwendung der Regression kommt es häufig vor, dass die lineare Funktion der Form \ I[ FF⋅[F ⋅[FQ ⋅[Q ungeeignet ist, um die statistische Abhängigkeit einer abhängigen Variable y von einer unabhängigen Variable x zu beschreiben. Ein nicht-linearer Funktionsverlauf lässt sich i.d.R. aus der Lage der Datenpunkte im Streudiagramm ablesen. Wie in Gleichung (4.14) angegeben, wird auch hier die Quadratsumme nach den Parametern, die den Funktionstypus beschreiben, differenziert. Jedoch liefert die Nullsetzung der par-
25
26
27
28
R2 gibt den erklärten Anteil der Varianz der unabhängigen Variable x an der abhängigen Variable y an. Die Werte von R2 bewegen sich zwischen 0 (kein Erklärungsbeitrag) und 1 (vollständiger Erklärungsbeitrag). Ein wesentliches Merkmal von nicht-linearen Funktionen ist es, dass die Abhängigkeit zwischen den Variablen einen nicht-linearen Charakter besitzen, allerdings die Parameter linear sind. Deshalb kann auch bei dieser Form der Regression auf LSM zurückgegriffen werden, um die unbekannten Parameter zu bestimmen. In der Physik wird auch von „fitten“ gesprochen, wenn versucht wird, die Parameterwerte einer Theoriefunktion so zu variieren, dass sie bestmöglich mit der Messkurve übereinstimmt. Die Lösung der Minimierungsaufgabe führt i.d.R. zu einem erheblichen Rechenaufwand, der nur mit geeigneter Software, z.B. Minitab und SPSS, geleistet werden kann (vgl. Voß et al. 2004, S. 183).
180
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
tiellen Ableitungen i.A. ein schwieriger aufzulösendes System von nicht-linearen Normalengleichungen als im linearen Regressionsfall. Abhilfe kann häufig in der Weise geschaffen werden, dass durch mathematische Transformation nicht-lineare Funktionen in lineare überführt werden, deren Parameter sich mithilfe der linearen Regressionsrechnung einfach(er) ermitteln lassen. Die in der Statistik am häufigsten angewandten nicht-linearen Funktionen und deren dazugehörige lineare Funktionen mit der Standardvariable z sind: (a) ,QYHU VH)XQNWLRQ mit z = 1 / x, (b) /RJDULWKPLVFKH)XQNWLRQ mit z = ln x und (c) ([SR QHQWLDOIXQNWLRQ mit z = ey. So können bspw. Potenzfunktion der Form y = a ⋅ xb durch Logarithmieren in die Linearfunktion v = a’ + b ⋅ z mit v = ln y, z = ln x und a’ = ln a überführt werden. Die sachlogische Interpretation der hier ermittelten Regressionskoeffizienten gestaltet sich i.d.R. schwierig, da die dazugehörigen Grenz- und Elastizitätsfunktionen betrachtet werden müssen. In der statistischen Arbeit wird häufig schrittweise vorgegangen, um die Abhängigkeit einer Zielgröße von mehreren Einflussgrößen zu modellieren. Indem man zunächst nur diejenigen Einflussgrößen in das Modell aufnimmt, von denen die Zielgröße signifikant abhängt, ist es möglich, ein relativ einfaches Modell zu erhalten. Dieses wird dann durch die schrittweise Aufnahme von weiteren Variablen ()RUZDUG VHOHFWLRQ) immer mehr verfeinert. Alternativ dazu kann mit einem Modell begonnen werden, das alle vermuteten Einflussgrößen enthält. Durch %DFN ZDUG VHOHFWLRQ sind dann schrittweise diejenigen Variablen zu entfernen, die am wenigsten zur Verbesserung von R2 beitragen (vgl. Kleppmann 2006, S. 195). (b.2) Statistische Versuchsplanung (DOE) (b.2.1) Versuchspläne für lineare Zusammenhänge Über die Methode der linearen und nicht-linearen Regression lässt sich der funkti& onelle Zusammenhang \ = I ([ ) zwischen mehreren metrisch-skalierten Einflussfaktoren [ [ [Q und einer metrisch-skalierten Ergebnisgröße \ – auf einem mehr oder weniger hohen Signifikanzniveau – beschreiben. In der betrieblichen Praxis werden dabei die im Rahmen des Leistungserstellungsprozesses angefallenen und archivierten Beobachtungsdaten regressiert. Im einfachsten Fall, wenn die Ergebnisvariable lediglich von einem Einflussfaktor abhängt, wird also analysiert, um wie viel sich die abhängige Variable y im Durchschnitt ändert, wenn sich die unabhängige Variable x um eine Einheit erhöht. Der Vorteil der Regressionsanalyse, insb. gegenüber der im Folgenden beschriebenen Statistischen Versuchsplanung, besteht darin, dass ein „laufender“ Prozess nicht verändert wird und die anfallenden Daten quasi „nebenbei“ zur Auswertung genutzt werden. Generell können dadurch statistische Ergebnisse/ Aussagen zu relativ geringen Kosten erzielt werden. Mit der Anwendung der Regressionsanalyse sind aber auch Nachteile verbunden: Zum einen werden Beobachtungsdaten nur mit einem sehr geringen Bestimmt-
4.2 Klassische Algorithmen
181
heitsmaß R2 << 0,5 regressiert, d.h. die ermittelte Regressionsfunktion erklärt die Input-Output-Beziehung nicht bzw. nur sehr begrenzt. Zum anderen bleiben u.U. wichtige Einflussfaktoren im Regressionsmodell unberücksichtigt, da die „normale Variabilität“ der Faktoren im betrachteten Prozess nicht ausreicht, um unter mathematisch-statistischen Gesichtspunkten als signifikant erkannt zu werden. Dies erklärt die Notwendigkeit des Übergangs „Von der Beobachtung zum Experiment“ (vgl. Töpfer/ Günther 2007b, S. 138).29 In Six Sigma-Projekten ist diese Sichtweise fest verankert: Produkte und Prozesse, die verbessert werden sollen, müssen immer auch verändert werden, um die zugrunde liegenden Ursachen-Wirkungsbeziehungen offen zu legen. Für das Herausfinden optimaler Prozesseinstellungen respektive Produktmerkmale werden im Rahmen von DOE30 die einzelnen Einflussfaktoren „aktiv“ und systematisch verändert. Die Bestimmung der funktionellen Abhängigkeiten basiert i.d.R. auf Designs mit k Faktoren und 2-3 Faktorausprägungen bzw. -stufen. Für den Umfang eines Versuchs sind neben der Art und Anzahl der Faktorausprägungen (A) die absolute Anzahl der Einflussfaktoren (k) entscheidend. Bei einem YROOIDNWRULHOOHQ 'HVLJQ ergibt sich die Menge aller möglichen Faktorkombinationsmöglichkeiten und damit Versuchanordnungen mit Ak. Durch Nichtbeachtung von Wechselwirkungen höherer Ordnung lässt sich die Anzahl von Versuchsanordnungen reduzieren. Dazu ist ein Reduktionsfaktor (d) anzugeben, der die Anzahl an definierten Gleichungen beschreibt; Ak-d gibt dann den Umfang des WHLOIDN WRULHOOHQ 'HVLJQV an. Bei der Anwendung dieser Art von Versuchsplänen wird davon ausgegangen, dass die Wechselwirkungen zwischen drei und mehr Faktoren (z.B. c123 ⋅ [ ⋅[ ⋅[) kaum noch einen nennenswerten Einfluss auf die Ergebnisvariable besitzen. Aus diesem Grund werden diese Spalten aus der Designmatrix eliminiert und durch andere wesentliche Faktoren ersetzt. Dadurch können bei gleichem Experimentumfang mehr Einflussfaktoren betrachtet werden, was naturgemäß zu einer Reduzierung der Kosten der Experimentdurchführung führt. Aus analytischer Sicht hat DOE gegenüber der Regressionsanalyse et al. den Vorteil, dass sich mithilfe von faktoriellen Designs neben den +DXSWHIIHNWHQ, die aus der Zu-/ Abschaltung von Faktoren resultieren, 1HEHQHIIHNWH untersuchen lassen, die das Ergebnis von Wechselwirkung mehrerer Faktoren sind. Folglich wird bei der Suche der Koeffizienten für Potenzfunktionen n. Ordnung nicht nur eine additive Verknüpfung der einzelnen Faktoren/ Variablen unterstellt (= Haupteffekte), sondern auch eine multiplikative Verknüpfung (= Nebeneffekte). 29
30
In diesem Zusammenhang wird häufig ein Ausspruch von GEORGE BOX zitiert: „Will man herausfinden, wie sich ein System verhält, wenn man es verändert, dann muss man es verändern“ und es nicht nur passiv beobachten. Die mathematisch-statistischen Grundlagen von DOE gehen auf Sir RONALD A. FISHER (1935) zurück. Er gilt als Mitbegründer der modernen mathematischen Statistik. Seine Arbeiten konzentrierten sich vor allem auf die Lösung biologischer, medizinischer und landwirtschaftlicher Probleme (vgl. Grabowski 2003, S. 224).
182
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
Die Prognosefunktion für ein 2-faktorielles Versuchsdesign unter Berücksichtigung der Haupt- und Nebeneffekte hat z.B. die folgende Form: & (4.15) \ = I[ = F 0 + F1 ⋅ [1 + F 2 ⋅ [ 2 + F12 ⋅ [1 ⋅ [ 2 wobei y die abhängige Variable (Response), c0 das Basisniveau bzw. den Schnittpunkt mit der y-Achse, c1 und c2 die Regressionskoeffizienten der unabhängigen Variablen (Factors) und c12 den Regressionskoeffizient der Wechselwirkung von [ und [ darstellt. Liegen keine Wechselwirkungen vor, dann ist c12 = 0 und der Term c12 ⋅[⋅[ in Gleichung (4.15) entfällt. In diesem Fall handelt es sich um ein 2-faktorielles lineares Regressionsmodell (s.o.). Die Anzahl der Terme in der Prognosefunktion beschreibt die minimale Anzahl von notwendigen experimentellen Versuchen, um die Koeffizienten des Regressionsmodells zu schätzen. Handelt es sich z.B. um eine Funktion mit vier Termen, wie in Gleichung (4.15) gegeben, dann sind mind. vier experimentelle Versuche mit unterschiedlichen Einstellungen für [ und [ notwendig. Um die Koeffizienten zu ermitteln, werden in einem VWXILJHQ'2( die Einstellungen für die Faktoren [ und [ abwechselnd „hoch“ (+1) und „niedrig“ (-1) gewählt. Analog zur „klassischen“ Regressionsanalyse wird zum einen die Höhe des Einflusses der einzelnen Faktoren sowie ihres Zusammenwirkens auf die Ergebnisvariable geschätzt. Zum anderen wird ermittelt, wie signifikant sich eine Änderung der Einstellung von [ und/ oder [ auf \ auswirkt. Dabei liegt die Annahme zugrunde, dass zwischen der Änderung der Einstellung der Faktoren von -1 auf +1 und der Änderung der Ergebnisvariable jeweils ein OLQHDUHU =XVDPPHQKDQJ besteht. Für die Bestimmung von lokalen Extrema ist diese Eigenschaft ungeeignet, so dass sich die Frage nach zweckmäßigeren Ansätzen stellt. (b.2.2) Versuchspläne für nicht-lineare Zusammenhänge Um die Plausibilität/ Validität der Linearitätsannahme zu überprüfen, werden in DOE-Versuchspläne mit k Faktoren und jeweils zwei Faktorstufen sog. Zentralpunkte (Center points) eingefügt, welche sich aus der mittleren Einstellung der verschiedenen Einflussgrößen ergeben. Die Nichtlinearität ist bedeutsam, wenn die Lage eines Maximums, z.B. Ausbeute, oder eines Minimums, z.B. Fehlerrate, gesucht wird. In vielen Fällen verwendet man ein quadratisches Modell zur empirischen Beschreibung der Abhängigkeit der Zielgröße y von den k Faktoren. Die Linearitätsprüfung resultiert aus folgender Überlegung: Sind die Faktorausprägungen symmetrisch und mit den diskreten Stufen -1 und +1 codiert, dann liegen die Werte der Faktorausprägungen des Zentralpunktes bei Null. Im Fall, dass die Linearitätsannahme nicht zutreffend ist, differiert der Ergebniswert für die Zentraleinstellung signifikant von dem durchschnittlichen Ergebniswert über alle Faktoreinstellungen, der sich im Rahmen des 2k-Versuchsdesigns ergibt. Konkret bedeutet dies, dass der Regressionsansatz nach Gleichung (4.15) zur exakten Beschreibung der funktionellen Zusammenhänge zwischen Einflussgrö-
4.2 Klassische Algorithmen
183
ßen (Factors) und Ergebnisvariable (Response) nicht ausreicht. Anstelle eines Polynoms 1. Grades ist ein 3RO\QRPRGHUK|KHUHQ*UDGHVDOV3URJQRVHIXQNWLRQ zu wählen (vgl. Breyfogle 2003, S. 644), so wie folgt: & \ = I[ = F 0 + F1 ⋅ [1 + F 2 ⋅ [ 2 + F12 ⋅ [1 ⋅ [ + F11 ⋅ [12 + F 22 ⋅ [ 22 2 (4.16) Während durch die Funktion nach Gleichung (4.15) eine ebene Fläche im Raum aufgespannt wird, beschreibt die Funktion nach Gleichung (4.16) eine elliptisch gekrümmte (Reaktions-)Fläche im Raum. In Abb. 4-4 ist beispielhaft eine solche Fläche für einen 2-faktoriellen Versuch mit einem Polynom 2. Grades als adäquater Regressionsfunktion abgebildet. Die Aufgabe besteht darin, in einem chemischen Prozess die Faktoren Zeit ([) und Temperatur ([) so einzustellen, dass ein maximale Ausbeute (\) erzielt wird. Als dichotome Einstellwerte für die zwei Faktoren werden gewählt: Zeit: [ ∈ [50; 70] und Temperatur: [ ∈ [150; 180]. Aus der mittleren Einstellung beider Faktoren wird zusätzlich ein Zentralpunkt generiert mit Z[60; 165]. Darüber hinaus gehen vier Sternpunkte mit Extremausprägungen der zwei Faktoren Zeit und Temperatur in das Analysemodell ein. Dazu wird jede Faktorstufe auf einem um über 40% nach oben und unten erweiterten Ausprägungsniveau „abgefahren“. Im Ergebnis liegen die Ausbeuten im Bereich von 72% bis 82%, wobei sich die maximale Ausbeute bei einer mittleren Einstellung von Zeit und Temperatur einstellt. 3D-Oberflächen-Plot für empirische Daten y = Ausbeute
3D-Oberflächen-Plot für approximierte Daten y = Ausbeute
81
$XVEHXWHLQ
$XVEHXWHLQ
\
78 75 72 50
60 =HLWLQV
70
180 170 XU W 160 UD H ) S 150 P °C 7H (in
80
75 70 65
180 U WX UD SH & P 7H LQ 170
50
60 =HLWLQV
160 70
150
Quelle: Eigene Darstellung
Abb. 4-4: 3D-Oberflächen-Plots für empirische und geschätzte y-Werte auf der Basis eines Polynoms 2. Grades mit einem lokalen Maximum (Beispiel)
Die 5HDNWLRQVIOlFKHQ0HWKRGLN (RSM – Response surface methodology) wird in der Improve-Phase von Six Sigma-Projekten genutzt (vgl. Abschnitt 3.3.1). Der Vorteil von RSM liegt insbesondere darin, dass mit seiner Hilfe die Identifikation von nicht-linearen Zusammenhängen möglich ist. Bei einer gegebenen Anzahl von Einflussfaktoren steht jedoch der Nachteil gegenüber, dass (deutlich) mehr Versuche als bei einem 2-stufigen vollfaktoriellen Versuchsdesign notwendig sind, um
184
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
die Prognosefunktion zu spezifizieren. Aus diesem Grund sind im Vorfeld die wesentlichen Einflussfaktoren durch die Anwendung von „klassischem“ DOE mit zwei Faktorstufen zu eruieren (vgl. Breyfogle 2003, S. 645ff.). Um die Koeffizienten von Polynomen 2. Grades mittels RSM zu schätzen, wird in der Praxis häufig auf die folgenden zwei Designs zurückgegriffen (siehe Abb. 4-5): •
&HQWUDO&RPSRVLWH'HVLJQ &&' sind zentral zusammengesetzte Versuchspläne, bei denen neben einem Zentralpunkt und den vier Eckpunkten eines Würfels zusätzlich vier Sternpunkte definiert werden. Die Sternpunkte sind so zu wählen, dass man ein orthogonales und rotierbares Versuchsdesign erhält. „Orthogonal“ bedeutet, dass sich die einzelnen Effekte im Rahmen eines 2kVersuchsplans eindeutig trennen und zuordnen lassen. „Rotierbar“ heißt, dass sich die Varianz der zu prognostizierenden y-Werte in jedem Punkt als Funktion des Abstandes des gewählten Punktes zum Zentralpunkt ergibt. Zur Ermittlung der Stern- bzw. Axialpunkte31 ist ein Abstandsfaktor α zu berechnen, der in jeder Dimension den Abstand des Sternpunkts zum Zentralpunkt angibt. Der Vorteil von Central-Composite-Designs ist vor allem darin zu sehen, dass auf der Basis der Ergebnisse eines voll-/ teilfaktoriellen Versuchplans zusätzlich Sternpunkte für jeden Faktor definiert werden können, deren Realisierung zur Ermittlung der Koeffizienten c11 und c22 führt.
•
%R[%HKQNHQ'HVLJQ %%' ist eine alternative Methode zu CCD, um die quadratischen Terme im Rahmen eines Regressionsmodells zu bestimmen. Die Versuchsanordnungen nach Box/ Behnken (1960) sind nicht zwingend rotierbar und orthogonal. Auf Optimierungsversuche nach BBD wird i.d.R. zurückgegriffen, wenn physikalische Beschränkungen vorliegen, die eine Realisierung der Sternpunkte nicht erlauben. Aus diesem Grund erfolgt eine Verlagerung der Axialpunkte nach innen, d.h. pro Faktor werden drei Merkmalsausprägungen definiert (-1, 0, 1). Jede zusätzliche Faktorausprägung besitzt eine äquidistante Entfernung zur unteren und oberen Faktorstufe sowie zu dem definierten Zentralpunkt (in der Mitte des Würfels). Aufgrund der Tatsache, dass pro Faktor jeweils nur drei Stufen anstelle von fünf realisiert werden, erfordert das BBD deutlich weniger Versuche als CCD. Diesem Vorteil steht der Nachteil gegenüber, dass mit BBD die Koeffizienten des Regressionsmodells mit einer höheren Ungenauigkeit geschätzt werden.
Bei beiden Designs wird ausgehend von einem Zentralpunkt der Lösungsraum nach lokalen Maxima und Minima schrittweise abgesucht. Die Vorgehensweise basiert auf der 7D\ORUVFKHQ )RUPHO für Funktionen zweier Variablen. Es wird davon ausgegangen, dass die Funktion I[[ glatt ist und in der Umgebung der Entwicklungsstelle (x1-0, x2-0) stetige partielle Ableitungen bis zur (n+1)-ten Ordnung hat. Die Konstante c0 gibt das Ergebnisniveau, z.B. Ausbeute, im Entwick-
31
Der Abstandsfaktor zur Bestimmung der Stern-/ Axialpunkte beträgt i.d.R. α = 1,682. Detaillierte Darstellungen der o.g. Versuchsanordnungen sowie weiteren finden sich u.a. in Breyfogle 2003, Montgomery 2000 und Box et al. 1978.
4.2 Klassische Algorithmen
185
lungspunkt an und entspricht bei alleiniger Verwendung dem Polynom 0. Ordnung. Die Koeffizienten c1 und c2 stehen für die Steigungen der Funktion \ I[ [ bei linearen Abhängigkeiten (= Polynom 1. Ordnung). Die Koeffizienten c11 und c22 kommen hinzu, wenn zwischen den Haupteffekten und der Ergebnisvariable y ein quadratischer Zusammenhang besteht. In diesem Fall handelt es sich um eine Potenzreihenentwicklung 2. Ordnung. Ist weiterhin davon auszugehen, dass zwischen den Faktoren [ und [ Wechselwirkungen vorkommen, dann ist zusätzlich der Koeffizient c12 zu schätzen. Ausgangspunkt: 9ROOWHLOIDNWRULHOOHU 9HUVXFKVSODQNS
Erweiterung 2: 'HILQLWLRQYRQ =HQWUDOSXQNW
Erweiterung 1: 'HILQLWLRQYRQ 6WHUQSXQNWHQ α α
Faktor 2
α α
α α
Faktor 1
Basis: Breyfogle 2003, S. 645
α α
Abb. 4-5: Herleitung der Versuchsanordnung für Central-Composite-Design (CCD) bei zwei unabhängigen Faktoren
*UHQ]HQ YRQ '2( Für die exakte Beschreibung einer nicht-linearen Abhängigkeit zwischen einer abhängigen Variable und einer oder mehreren unabhängigen Variablen reichen Polynome 2. Grades in vielen Fällen nicht aus. Insbesondere wenn der Wertebereich der Faktoren relativ groß ist, wird durch ein quadratisches Modell keine ausreichend gute Näherung der Gesamtstruktur gefunden. Lediglich Ausschnitte aus dem zu untersuchenden Wertebereich können hinreichend genau beschrieben werden. Der wesentliche Grund dafür ist, dass sich mit einem quadratischen Modell nur ein Maxima bzw. Minima beschreiben lässt. So kann in Fällen, wo ein 6lWWLJXQJVYHUKDOWHQ mit zunehmender Annäherung an das Optimum auftritt, die Abflachung im Sättigungsbereich nur ungenau mit dem o.g. Modell beschrieben werden. Sind *UHQ]EHUVFKUHLWXQJHQ zu berücksichtigen, dann wird das Optimum der an drei Punkten angepassten Näherung verschoben, und zwar entgegengesetzt zum wahren Optimum (vgl. Kleppmann 2006, S. 218).32
32
Dies liegt darin begründet, dass die ermittelte quadratische Funktion immer symmetrisch am Maximal-/ Minimalwert ausgerichtet ist. Je höher der Wert des zur Schätzung genutzten rechtsliegenden Punktes ist, desto größer wird der Abstand zwischen wahrem und rechnerischem Optimum (vgl. Breyfogle 2003, S. 645ff.).
186
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
(b.2.3) Sequentielle Optimierungsverfahren Neben der Funktionsbestimmung haben u.a. Box et al. (1978), Cornell (1990) und Montgomery (2000) verschiedene analytische Methoden entwickelt, um die lokalen 0D[LPD0LQLPDDXIGHQK\SHUJHRPHWULVFKHQ)OlFKHQ (Reaktionsflächen) zu ermitteln. Über die Koeffizienten der kanonischen Form des Regressionsmodells können Aussagen zur Steigung und Krümmung des Funktionsverlaufs abgeleitet werden. Daneben existieren eine Reihe von graphischen Darstellungs- und Auswertungsmöglichkeiten, z.B. Contour-Plot, um die Lage des Optimums (grob) abzuschätzen. Die Beschränkungen, die sich beim Einsatz von teil-/ vollfaktoriellen Versuchsplänen zum Auffinden von Optima ergeben, werden teilweise durch sequentielle Optimierungsverfahren aufgehoben. Die sequentielle Vorgehensweise zeichnet sich dadurch aus, dass die bisher beschriebenen Versuchsmethodiken als Bausteine – einzeln oder kombiniert – nach und nach eingesetzt werden (vgl. hierzu und im Folgenden Kleppmann 2006, S. 254ff.). Ziel der Verfahren ist es, in möglichst wenigen Schritten vom Ausgangspunkt zum Optimum zu gelangen. Gleichzeitig soll das Risiko minimiert werden, durch allzu große Änderungen der Faktoreinstellungen in eine völlig falsche Richtung zu laufen und das globale Optimum zu verfehlen. Folgende 9RUJHKHQVZHLVHQ werden im Rahmen der sequentiellen Optimierung genutzt: •
0HWKRGH GHV VWHLOVWHQ $QVWLHJV: Die Methode zeichnet sich durch die Wahl von relativ großen Abständen zwischen den Faktorstufen aus und erlaubt daher ein relativ schnelles Fortschreiten in Richtung des Optimalpunktes. Da der steilste Anstieg der Outputverbesserung i.d.R. nicht in der laufenden Fertigung gesucht wird, sondern in der Entwicklung und Arbeitsvorbereitung, werden größere Schrittweiten gewählt. Das Risiko, bei der Suche u.U. über das Optimum „hinauszuschießen“ nimmt man in gewisser Weise in Kauf. In Abb. 4-6 ist das Höhenlinien-Diagramm einer Zielgröße in Abhängigkeit von zwei Faktoren dargestellt, anhand derer das Vorgehen der Methode des steilsten Anstiegs (Hill climbing) leicht nachvollziehbar ist.
Es wird mit der Variation von zwei Faktorstufen begonnen, wobei der Abstand der Stufen relativ groß ist. Dadurch werden die beobachtbaren Effekte größer; gleichzeitig sind weniger Realisierungen auf den einzelnen Faktorstufen erforderlich. Es werden zunächst mehrere Faktoren gleichzeitig variiert. Ist die erste Richtung des steilsten Anstiegs ermittelt worden, wird mit Einzelversuchen immer weiter in diese Richtung gesucht. Der Suchvorgang wird gestoppt, wenn die Ergebnisse wieder schlechter werden. Zur Ermittlung der zweiten Richtung des steilsten Anstiegs wird ein neuer Versuchsplan aufgestellt und durchgeführt. Besteht die berechtigte Annahme, dass man sich in der Nähe des Maximums/ Minimums befindet, wird ein Plan zur Bestimmung nicht-linearer Zusammenhänge verwendet. Dabei handelt es sich in den meisten Fällen um einen Versuchsplan mit drei Faktorstufen.
4.2 Klassische Algorithmen
[
187
$XVJDQJV SXQNW
2SWLPXP
9HUVXFKVSODQ
5LFKWXQJGHV VWHLOVWHQ$QVWLHJV 5LFKWXQJGHV VWHLOVWHQ$QVWLHJV
Basis: Kleppmann 2003, S. 252ff.
[
Abb. 4-6: Sequentielles Vorgehen nach der Methode des steilsten Anstiegs
•
(YROXWLRQlUHV 9HUIDKUHQ: Das Vorgehen nach EVOP (Evolutionary Operations) ist vom Ansatz her sehr ähnlich zu vorstehend beschriebener Methode des steilsten Anstiegs. Es kann deshalb den klassischen Optimierungsalgorithmen zugeordnet werden.33 In einem vollständigen faktoriellen Versuch werden zwei, maximal drei Prozessparameter innerhalb ihrer Spezifikation um den Ausgangspunkt verändert. Ziel ist es, aus kleinen Veränderungen der Prozessergebnisse Wissen für eine kontinuierliche Verbesserung (KVP) des gesamten Produktionsprozesses abzuleiten. Die Versuche werden in der laufenden Produktion durchgeführt. Die Abstände der einzelnen Faktorstufen sind klein zu wählen, damit der Produktionsprozess nicht nennenswert gestört wird. Aufgrund des kleinen Stufenabstandes ist einerseits mit relativ kleinen Effekten zu rechnen. Andererseits können durch den großen Versuchsumfang (gesamte Produktion) auch kleine Effekte erkannt und dadurch die Richtung der Verbesserung eindeutig bestimmt werden.
Es existiert keine feste Regel, wie weit die Faktorstufenkombination verschoben werden soll. Die Entscheidung liegt letztendlich beim Prozesseigner, der die Chancen und Risiken einer Prozessveränderung genau abwägen muss. Wie in Abb. 4-6 skizziert ist, werden die Faktorstufenkombinationen 1 bis 5 solange durchlaufen, bis erkennbar ist, in welche Richtung sich das Prozessergebnis verbessert. In diese Richtung wird dann eine Änderung der Prozess33
Eine Parallelität zu den in Abschnitt 4.3.2 behandelten Evolutionären Algorithmen ist nicht gegeben; hier steht die Nachahmung von natürlichen Entwicklungsprozessen zur Optimierung von ökonomisch-technischen Systemen im Vordergrund. Eine praxisorientierte Beschreibung des EVOP-Verfahrens geben Box/ Draper 1975.
188
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
spezifikation vorgenommen. Ist der Prozesseigner risikoavers, wird er den Punkt 2 zum neuen Mittelpunkt (Arbeitspunkt) und den Punkt 1 zum neuen Eckpunkt machen. Bei risikofreudigem Verhalten ist eine Verschiebung über den Punkt 2 hinaus denkbar. Insgesamt handelt es sich bei EVOP um ein vorsichtiges Verfahren zur Optimierung der laufenden Produktion. •
6LPSOH[9HUIDKUHQ: Dieses Verfahren führt schnell in die Nähe des Optimums, wenn die Zufallsstreuung sehr klein im Vergleich zu den wahren Unterschieden zwischen den untersuchten Faktorstufenkombinationen ist. In diesem Fall kann man auf die mehrmalige Realisierung und die Mehrfachnutzung von Ergebnissen verzichten. Das Simplex-Verfahren ist streng sequentiell, d.h. nach einem Startsimplex schreitet die Optimierung mit jedem weiteren Einzelergebnis fort. Ziel ist es, die Richtung der Verbesserung mit möglichst wenigen Faktorstufenkombinationen zu erkennen. Deshalb besteht der Simplex bei k Faktoren aus „nur“ k+1 Faktorstufenkombinationen. Bei zwei Faktoren sind dies die Ecken eines gleichseitigen Dreiecks (siehe Abb. 4-7), bei drei Faktoren die eines Tetraeders, usw.
[ $XVJDQJV SXQNW
2SWLPXP
6LPSOH[
Basis: Kleppmann 2003, S. 252ff.
[
Abb. 4-7: Sequentielles Vorgehen nach dem Simplex-Verfahren
Ausgehend vom Arbeitspunkt werden zunächst die Versuchsergebnisse an den Eckpunkten des Dreiecks mit der Nr. 1 bestimmt (= Simplex 1). Die Faktorstufenkombination, die zum schlechtesten Ergebnis geführt hat, wird an der Linie durch die anderen beiden Faktorstufenkombinationen gespiegelt. Dadurch ergibt sich eine neue Faktorstufenkombination, die zusammen mit den beiden besseren Kombinationen aus Simplex 1 den neuen Simplex 2 bildet. In entsprechender Weise werden die nachfolgenden Simplexe ermittelt. Da jeweils die schlechteste Faktorstufenkombination eines Simplex ersetzt wird, führt das Verfahren Schritt für Schritt zu einem besseren Ergebnis. Allerdings
4.2 Klassische Algorithmen
189
versagt das Simplex-Verfahren in der Nähe des Optimums, da es hier – aufgrund seines linearen Charakters – zum „Pendeln bzw. Kreisen“ zwischen einigen wenigen Punkten neigt. 4.2.3
Exakte vs. heuristische Lösungsverfahren für Optimierungsprobleme
Nachdem im Punkt (a) eine Abgrenzung von exakt und heuristisch optimierenden Lösungsverfahren vorgenommen worden ist, wird im Punkt (b) speziell auf die Konzeption und Inhalte von sog. Meta-Heuristiken eingegangen. Nach der Art des gewählten Lösungsansatzes lassen sich – auf hoher Ebene – Lokale Suchverfahren und Naturadaptive Verfahren unterscheiden. D /|VXQJVDQVlW]HIUNRPSOH[H2SWLPLHUXQJVSUREOHPHLQGHU%:/
In vielen praktischen Anwendungen ist der Einsatz von Methoden des Operations Research unverzichtbar, z.B. bei der Transport- und Standortplanung sowie der Produktprogramm- und Losgrößenplanung. Dabei zieht der Einsatz exakter Lösungsverfahren, d.h. Verfahren, die nach einer endlichen Anzahl von Rechenbzw. Iterationsschritten optimale Lösungen liefern, nicht selten einen HUKHEOLFKHQ 5HFKHQDXIZDQG nach sich.34 Dieser Umstand ist gerade in der Unternehmenspraxis unerwünscht und hat in der jüngsten Vergangenheit zur Entwicklung einer großen Anzahl heuristischer Lösungsverfahren geführt. Sie zeichnen sich dadurch aus, dass in „angemessener“ Rechenzeit „gute“, aber nicht zwangsläufig optimale Lösungen gefunden werden (vgl. Wäscher 1998, S. 1299). Vor diesem Hintergrund klassifiziert man heute – in vereinfachter Weise – Optimierungsprobleme nach dem benötigten Rechenaufwand: •
34
Um ein HIIL]LHQW O|VEDUHV 3UREOHP handelt es sich, wenn ein exaktes Lösungsverfahren existiert, das lediglich einen polynomialen Rechenaufwand erfordert. In diesem Fall lässt sich der funktionale Zusammenhang zwischen dem Rechenaufwand, gemessen anhand der erforderlichen elementaren Rechenoperationen, und einem Maß für die Problemgröße im „worst case“, d.h. im Fall der jeweils ungünstigsten Datenkonstellation, durch ein Polynom n.Grades begrenzen. Effizient lösbare Probleme liegen u.a. bei den Standardproblemen der Linearen Optimierung vor (vgl. Abschnitt 4.2.1).
Für eine präzisere Definition von exakten und heuristischen Lösungsverfahren siehe Streim (1975, S. 143ff.). Nach ihm zeichnen sich heuristische Lösungsverfahren durch folgende drei grundlegende, begriffskonstituierende Eigenschaften aus: (a) Verwendung nicht willkürlicher Entscheidungsoperatoren, (b) Ausschluss potenzieller Lösungen vom Suchprozess sowie (c) Kein Konvergenzbeweis und damit keine Lösungsgarantie. Darüber hinaus sind sehr häufig die folgenden drei Eigenschaften bei Heuristiken gegeben (vgl. auch Schmitting 1999, S. 41f.): (d) Verwendung künstlicher, subjektiver Abbruchregeln, (e) Möglichkeit der Parametrisierung und (f) Wahrung der Zulässigkeit eines Ergebnisses bei restringierten Optimierungsproblemen.
190
•
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
Im Unterschied hierzu nimmt bei QLFKW HIIL]LHQW O|VEDUHQ 3UREOHPHQ, zu denen z.B. die Tourenplanung gehört, der Rechenaufwand exakter Verfahren mit zunehmender Problemlösung exponentiell zu. Der Rechenaufwand erreicht schnell prohibitive Größenordnungen. Dabei ist nach dem gegenwärtigen Erkenntnisstand der Komplexitätstheorie für diese Problemart nicht nur heute kein exaktes, lediglich einen polynomialen Rechenaufwand verursachendes Verfahren bekannt, sondern auch in Zukunft. Nicht effizient lösbare Probleme bilden somit den zentralen Anwendungsbereich von heuristischen Lösungsverfahren35 (vgl. Wäscher 1998, S. 1299).
Die H[DNWRSWLPLHUHQGHQ9HUIDKUHQ zur Lösung kombinatorischer Probleme basieren auf einem Entscheidungsbaum, der die Lösung als eine Kette aufeinander folgender bzw. aufbauender Entscheidungsoptionen darstellt. An verschiedenen Knoten sind Entscheidungen über zu realisierende Schritte des Lösungsaufbaus zu fällen. Bei der Bearbeitung von Optimierungsproblemen wird die optimale Lösung schrittweise generiert (vgl. Schmitting 1999, S. 30). Potenzielle Lösungen, die zu einem suboptimalen Zielwert führen, werden im Weiteren vernachlässigt, d.h. die entsprechenden Zweige des Baumes werden nicht weiter verfolgt. Aus diesem Grund werden bei Entscheidungsbaumverfahren zwar grundsätzlich alle potenziellen Lösungen in den Algorithmus einbezogen, jedoch wird ein Großteil von ihnen von der expliziten Analyse ausgeschlossen. In den vergangenen Dekaden haben sich die folgenden drei Grundtypen von Entscheidungsbaumverfahren etabliert:36 (1) %UDQFKDQG%RXQG9HUIDKUHQ, (2) %HJUHQ]WH (QXPHUDWLRQ und (3) '\QDPLVFKH2SWLPLHUXQJ. Sie gelten als klassisch optimierende Algorithmen zur Lösung von Tourenplanungsproblemen (TSP). Das erstgenannte Verfahren galt lange Zeit als das erfolgreichste Entscheidungsbaumverfahren zur Lösung von TSP. Insbesondere in den 1970er Jahren wurden eine Reihe von Varianten für verschiedene Anwendungssituationen entwickelt und publiziert (vgl. Panny 1978, S. 35). Der Begriff des „Branch & Bound“ geht auf Little et al. (1963) zurück und basiert zum einen auf der Idee, die Menge aller potenziellen, zulässigen Lösungen in problemspezifisch zu definierende, disjunkte Teilmengen aufzuspalten, ohne dabei die einzelnen Lösungszweige (Branches) vollständig zu generieren. Die Dekomposition wird stufenweise fortgesetzt, bis in einer der Teilmengen die optimale Lösung identifiziert werden kann. Zum anderen wird für jede der gebildeten Teilmengen eine untere Schranke (Bound) des Ziel-
35
36
Heuristische Lösungsverfahren lassen sich i.d.R. leichter im Hinblick auf reale, nichtstandardmäßige Probleme der Praxis anpassen. Von Praktikern wird deshalb schon seit längerem eine eingehendere und systematischer Beschäftigung mit diesen Verfahren angeregt. Obwohl einige Wissenschaftler bereits frühzeitig die Bedeutung dieser Methoden herausgestellt haben, kam es erst durch neue Erkenntnisse in der Informatik zu einer systematischen Erforschung und Erweiterung. Für einen Überblick der drei genannten klassischen exakten Verfahren zur Lösung des TSP siehe z.B. Domschke 1990, S. 62ff. und Panny 1978, S. 10ff.
4.2 Klassische Algorithmen
191
funktionswertes berechnet, der angibt, welcher Wert von den in der Teilmenge enthaltenen Lösungen nicht unterschritten werden darf. Der Verzweigungs- bzw. Optimierungsprozess wird i.A. so gestaltet, dass die Teilmengen, welche die niedrigste untere Schranke besitzen, (bei einer Minimierung) vorrangig betrachtet werden. Die optimale Lösung ist gefunden, wenn durch die fortdauernde Zerlegung erstmalig eine zulässige Lösung des Problems bestimmt worden ist. Aufgrund der gesetzten Schranken kann auf die Betrachtung der verbleibenden Zweige verzichtet werden (vgl. Schmitting 1999, S. 33). Im Rahmen der KHXULVWLVFKHQ /|VXQJVYHUIDKUHQ haben vor allem die sog. MetaHeuristiken in der Vergangenheit erheblich an Bedeutung gewonnen. Bei diesen übergeordneten Heuristiken handelt es sich weniger um konkrete Algorithmen für genau spezifizierte Problemstellungen, als vielmehr um allgemeine Handlungsanweisungen, die für die jeweilige Problemstellung zunächst in geeigneter Weise zu modifizieren sind. Hierzu gehören einerseits naturadaptive Verfahren (Heuristics from Nature), die betriebliche Probleme in Analogie zu erfolgreichen Phänomenen der Natur lösen, z.B. Genetische Algorithmen (vgl. Greb et al. 1998). Andererseits werden – wie im Folgenden gezeigt – Lokale Suchverfahren (LSA – Local Search Approaches) zur Lösung betrieblicher Optimierungsprobleme eingesetzt.37 E .RQ]HSWLRQXQG,QKDOWHYRQ0HWD+HXULVWLNHQ
(b.1) Lokale Suchverfahren (LSA) Alle NODVVLVFKHQ /6$ beruhen auf dem Grundprinzip der Nachbarschaftssuche. Dieses besagt, dass zu einer bereits existierenden, aktuellen Lösung jeweils eine neue aus der „Nachbarschaft“ zu generieren ist. Die Entscheidung, ob die neue Lösung die aktuelle ersetzen soll, wird anhand des zugehörigen Zielwerts bzw. der Zielwertänderung und/ oder unter Berücksichtigung weiterer Kriterien getroffen. Bei Übernahme der neuen Lösung wird die Suche in dessen Nachbarschaft fortgesetzt. Andernfalls wird zu der aktuellen Lösung eine weitere Lösung generiert und bewertet usw. (vgl. Wäscher 1998, S. 1302). Das Verfahren endet, wenn nach einer definierten Anzahl von Versuchen keine neue bessere Lösung in der Nachbarschaft der bestehenden gefunden wird. Während die Vorgehensweise zur Konstruktion der Ausgangslösung sowie die Definition der Nachbarschaft problemspezifische Anforderungen darstellen, sind die Kriterien zur Akzeptanz einer neuen Lösung sowie zum Abbruch des Verfahrens weitestgehend unabhängig vom Problemtyp festzulegen. Sie werden deshalb auch als generische Bausteine der Lokalen Suchverfahren bezeichnet: •
37
Die Generierung der $XVJDQJVO|VXQJ kann sowohl zufällig erfolgen als auch auf der Basis von Konstruktionsverfahren, die auf den jeweiligen Problemtyp
Sie sind eher traditionellen Ursprungs und gelten als Weiterentwicklung von klassischen Heuristiken, nämlich der sog. k-Opt-Verbesserungsverfahren.
192
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
zugeschnitten sind, z.B. Nearest-Neighbour-Heuristik für das TSP (zu möglichen Konstruktionsverfahren siehe Reinelt 1994, S. 73ff.). •
Die 1DFKEDUVFKDIW einer Lösung ist definiert als die Menge aller Lösungen, die sich durch einen bestimmten Typ einer elementaren Operation aus der betreffenden Lösung erzeugen lässt, z.B. 2-Opt-Move für das TSP, bei dem zwei beliebige, nicht benachbarte Kanten gegen zwei andere, dann eindeutig festgelegte Kanten ausgetauscht werden.
•
Auf der Basis des $N]HSWDQ]NULWHULXPV wird entschieden, ob die neue Lösung als aktuelle Lösung akzeptiert oder wieder verworfen wird. Klassische LSA sind dabei darauf ausgerichtet, immer nur zielwertverbessernde Lösungen zu akzeptieren. Bei einem Maximierungsproblem kommt es infolgedessen zu einem stetigen Anstieg des Zielwertes.
•
Das $EEUXFKNULWHULXP legt fest, ab welchem Punkt des Optimierungszyklus die Suche eingestellt wird. Bei klassischen LSA endet der Iterationsprozess dann, wenn in der Nachbarschaft der aktuellen Lösung keine zielwertverbessernde Lösung mehr gefunden wird.38
Anhand der vorstehend genannten Kriterien wird zugleich der 1DFKWHLOYRQ/RND OHQ Suchverfahren deutlich: In einem iterativen Prozess wird der Lösungsraum unter Beachtung der Zielsetzung und der Restriktionen abgesucht. Ausgehend von der suboptimalen Lösung eines Problems wird versucht, durch sukzessive und geringfügige Veränderungen Verbesserungen herbeizuführen. Zumindest bei größeren Problemausprägungen ist durch dieses schrittweise Vorantasten keinesfalls sichergestellt, dass das globale Optimum tatsächlich detektiert wird. Häufig bleiben die klassischen Ansätze in einem lokalen Optimum „hängen“, aus dem es bei Verwendung von einfachen Akzeptanz-/ Abbruchkriterien kein Entrinnen gibt, da eine Zielwertverschlechterung nicht akzeptiert wird. (b.2) Naturadaptive Verfahren Naturadaptive Lösungsverfahren, die auch als PRGHUQH /6$ bezeichnet werden, lassen Zielwertverschlechterungen zu, so dass ein lokales Optimum ohne Weiteres überwunden werden kann. Ziel ist es, allgemeine menschliche oder natürliche Problemlösungsstrategien bei der Lösung schwieriger Optimierungsaufgaben in Technik und Wirtschaft zu nutzen. Zu den bekanntesten Verfahrenstypen, die in der angewandten Mathematik Verwendung finden, gehören die (1) 6LPXOLHUWH $ENKOXQJ (SA – Simulated Annealing), (2) der $PHLVHQ$OJRULWKPXV (ACO – Ant Colony Optimization) und (3) die *HQHWLVFKHQ E]Z (YROXWLRQlUHQ $OJRULWK PHQ (GA – Genetic Algorithm) (vgl. Greb et al. 1998, S. 444). Letztgenannte werden in Unterkapitel 4.3 ausführlich behandelt.
38
Soll die Zielfunktion maximiert werden, dann detektiert die zuletzt akzeptierte Lösung ein lokales Maximum.
4.2 Klassische Algorithmen
193
Die Grundgedanken von SA und ACO werden im Folgenden am Beispiel des TSP kurz ausgeführt. 39 Bei der Darstellung geht es vor allem darum, weitere Ansatzpunkte und Möglichkeiten für die Ableitung konkreter Vorgehensmodelle im Rahmen der Neuproduktplanung/ Prozessentwicklung aufzuzeigen: •
6LPXODWHG $QQHDOLQJ wurde erstmals in den 1980er Jahren für die diskrete Optimierung verwendet. Die Lösungssuche basiert hier auf einer Analogie zu einem physikalischen Abkühlungsprozess, wobei der Zielfunktionswert I[ dem Energiezustand E des physikalischen Systems entspricht (vgl. u.a. Pham/ Karaboga 2000; Aarts et al. 1997; Downsland 1993).
Hintergrund ist das Härten von Metall, bei dem das Metall zunächst über den Schmelzpunkt hinaus erhitzt und dann langsam abgekühlt wird. Ziel ist es, den Abkühlungsprozess so zu steuern, dass das Metall in einen möglichst niedrigen energetischen Zustand überführt wird. Durch zu schnelles Absenken der Temperatur kann es zu Verunreinigungen in der Legierung kommen, die zu suboptimalen Ergebnissen im Kristallisationsprozess führen. Einige Atome gehen in diesem Fall zu früh in eine irreversible feste Struktur über. Andererseits konnte bereits in den1950er Jahren gezeigt werden, dass mit abnehmender Temperatur stabile lokale Energieoptima erreicht werden und zwar um so eher, je langsamer die Abkühlung erfolgt (vgl. Voß et al. 2000, S. 558). Bei der Beschreibung des Abkühlungsprozesses wird die für alle physikalischen Systeme geltende Boltzmann-Verteilung zugrunde gelegt. •
$QW&RORQ\2SWLPL]DWLRQ hält seit ihrer Vorstellung im Jahre 1991 durch Dorigo et al. zunehmend Einzug ins Operations Research. Die Lösungssuche ist von der Futtersuche von Ameisen inspiriert, die erfahrungsgemäß ihre Straßen auf direktem Weg zwischen Nest und Futterquelle errichten (vgl. u.a. Boysen et al. 2002; Dorigo/ Gambardella 1997).
Die Adaption des natürlichen Vorbilds in der mathematischen Optimierung führte zu einer Meta-Heuristik, die sich vor allem zur Lösung kombinatorischer Probleme eignet, z.B. Auffinden des kürzesten Weges zwischen zwei Orten. Ameisen orientieren sich bei der Futtersuche mithilfe eines chemischen Sekrets namens Pheromon. Dieses sondern sie während ihrer Fortbewegung laufend aus einer Drüse am hinteren Teil ihres Körpers auf den Boden ab (vgl. Bonabeau/ Meyer 2001, S. 38ff.). Kürzere Wege, ohne Hindernisse können von den Ameisen schneller durchlaufen werden. Folglich sind sie nach einem bestimmten Zeitintervall stärker mit Pheromon markiert als alternative, längere Wege. Die Detektion des kürzesten Weges verbessert sich im Zeitablauf immer mehr, da nachfolgende Ameisen mit höherer Wahrscheinlichkeit den stärker belaufenen und markierten Weg wählen. Das Phe-
39
Weitere bekannte meta-heuristische Verfahren, die bei der Lösungssuche vorübergehend auch schlechtere Bezugslösungen akzeptieren, sind das Tabu Search und das Scatter Search. Sie gelten als allgemeine Konzepte, die sich nicht unmittelbar am Vorbild der Natur orientieren (vgl. Voß et al. 2000, S. 560).
194
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
romon speichert also die vergangenen Wegentscheidungen und nimmt damit die Rolle einer Art kollektiven Gedächtnisses der Ameisenkolonie ein. =ZLVFKHQID]LW In der Mathematik existieren eine Vielzahl von Algorithmen zur funktionellen Optimierung. Im Zusammenhang mit (Design for) Six Sigma sind sie Werkzeug, z.B. DOE, und Vorbild für die Lösung schwieriger Probleme, z.B. LSA, zugleich. Für die konkrete Verbesserung des DMADV-Zyklus als Vorgehensmodell in F&E sind vor allem Algorithmen interessant, mit dessen Hilfe sich schlecht strukturierte Probleme mit unbekannter Zielfunktion lösen lassen. Als vielversprechend gelten hier die heuristischen Lösungsverfahren; zu diesen gehören u.a. evolutionäre Algorithmen (vgl. Unterkapitel 4.3). Sie garantieren zwar nicht das Auffinden des globalen Optimums einer Funktion, jedoch beinhalten sie i.d.R. ein effizientes Vorgehen, um die optimale Lösung zumindest annähernd zu bestimmen. Bei DFSS geht es um das Erkennen und Erfüllen von CTQs, welches – in Analogiebetrachtung – dem Auffinden des (unbekannten) globalen Optimums entspricht. Unter dieser Voraussetzung ergeben sich z.T. ganz neue Erkenntnisse in Bezug auf die Konzeption realer Vorgehensmodelle (vgl. Kapitel 5).
4.3
Evolutionäre Algorithmen
Die Mehrheit der klassischen Algorithmen zur Lösung schwieriger Probleme zeichnet sich dadurch aus, dass sie eine einmal gefundene (Näherungs-)Lösung nach bestimmten Vorgehensregeln verbessern. Evolutionäre Algorithmen (EA) gehen demgegenüber einen ganz anderen Weg. Sie entwickeln eine in einer Population zusammengefasste Menge von Lösungen systematisch weiter in Richtung Optimum. Dabei ist die Anwendung von EAs nicht auf die Lösung von natur- und ingenieurwissenschaftlichen Problemstellungen beschränkt. In den Wirtschaftswissenschaften wird seit langem die systematische Übernahme von Erkenntnissen aus der Biologie auf ökonomische Sachverhalte verfolgt.40 Nach einem kurzen Abriss der natürlichen Evolution als Vorbild zur Lösung komplexer Probleme werden im Weiteren die wesentlichen evolutionstheoretischen Lösungsstrategien/ -ansätze in der Produktentwicklung kurz vorgestellt. Eine besondere Rolle spielen hierbei Genetische Algorithmen (GA), auf die im Abschnitt 4.3.3. detaillierter eingegangen wird. Das Unterkapitel endet mit einem einfachen GA-Anwendungsbeispiel zur funktionellen Optimierung.
40
Bereits von den „Klassikern“ der Volkswirtschaftslehre, DAVID RICARDO (1772-1823) und THOMAS R. MALTHUS (1766-1834), wurden biologisch geprägte Begriffe auf ökonomische Sachverhalte übertragen (vgl. Gordon 1989, S. 443). Auch ALFRED MARSHALL (1842-1924), der „Vater der neoklassischen Theorie“, vertrat die Ansicht, dass zur Erlangung tiefgründiger(er) Erkenntnisse in den Wirtschaftswissenschaften kein Weg an der biologischen (Evolutions-)Theorie vorbeiführe.
4.3 Evolutionäre Algorithmen
4.3.1
195
Die natürliche Evolution als Vorbild zur Lösung komplexer Probleme
D =XVDPPHQKDQJ]ZLVFKHQ(YROXWLRQVWKHRULHXQG2SWLPLHUXQJVUHFKQXQJ
In praktischen Anwendungen ist die Zielfunktion häufig nur implizit, d.h. in Form von Punkten, die z.B. durch Simulationsmodelle oder durch Messungen an einem realen System gewonnen wurden, gegeben. Ohne analytische Darstellung der Zielfunktion können Eigenschaften wie Stetigkeit oder Kontinuität a priori nicht zugesagt werden (vgl. Abschnitt 4.2.1). Für den Entscheidungsträger sind die Input-Output-Relationen eine Black-Box mit einer Vielzahl von „Einstellknöpfen“ zur Einstellung der Parameter sowie einer Skala zur Anzeige der Güte der aktuellen Einstellung. Dies sind die wirklich schwierigen Optimierungsaufgaben. Fortschrittliche Algorithmen, die solche Aufgaben lösen, dürfen kein festes inneres Modell besitzen, sondern müssen in der Lage sein, zu einer gegebenen Zielfunktion das innere Modell zu erlernen (vgl. Sprave 1999, S. 10). Bei der Optimierung anhand von Messwerten tritt häufig die zusätzliche Schwierigkeit auf, dass fehlerhafte Messanordnungen zu scheinbar sehr guten Lösungen führen. Diese können die Suche im weiteren Projektablauf in eine völlig falsche Richtung lenken. In diesem Fall ist ein Verfahren erforderlich, das die Fähigkeit besitzt, zu vergessen. Weiterhin ist die Lage des Optimums eines realen Systems in vielen Fällen nicht zeitinvariant, d.h. für alle Zeiten gültig. Gerade bei betriebswirtschaftlichen Sachverhalten ist zu beobachten, dass aufgrund sich ändernder Marktkonstellationen ein einmal gefundenes Optimum langsam wegdriftet und es dann kontinuierlich „verfolgt“ werden muss. Verändern sich die Gegebenheiten derart, dass laufend neue Optima entstehen und alte verschwinden, dann sollte der Optimierungsalgorithmus in der Lage sein, neue „Gebiete im Suchraum“ zu erforschen, sofern lokal keine Fortschritte mehr zu erzielen sind Seit Mitte des vorigen Jahrhunderts existiert die Idee, die zugrunde liegenden Mechanismen der biologischen Evolution41 zu imitieren, um so leistungsfähige Algorithmen für (schwierige) Optimierungsprobleme zu entwickeln. So entstanden bis zum heutigen Zeitpunkt eine Reihe von stochastischen, populationsbasierenden Suchverfahren, die durch die biologische Evolution und deren Erfolg in der 41
Der Begriff „Evolution“ geht auf das lateinische Wort „evolvere“ zurück, was so viel bedeutet wie „vorwärts rollen“. Im übertragenen Sinn geht es hier um das Aufrollen einer Papierrolle, wobei alles offengelegt wird, was bereits auf dem eingerollten Papier vorhanden (gedruckt) ist (vgl. Hodgson 1993, S. 37). Sowohl diese als auch die nachfolgende Begriffserklärung prägen den Wissenschaftszweig der Evolutorischen Ökonomik. Neben dem „Bild der Papierrolle“ existiert eine „biologische Deutung“ des Begriffs Evolution, der auf die zwei Evolutionsbiologen CHARLES DARWIN (1809-1882) und JEAN BAPTIST DE LAMARCK (1744-1829) zurückgeht. Dabei steht die Analyse der drei Mechanismen Retention, Variation (Mutation) und Selektion sowie deren Zusammenspiel im Vordergrund, um die Veränderungen von biologischen, ökonomischen und/ oder gesellschaftlichen Prozesse zu erklären.
196
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
Natur inspiriert sind. Die stetige Optimierung von Individuen an sich ständig ändernde Umweltbedingungen steht im Mittelpunkt des Forschungsprogramms der Evolutionären Algorithmen. Die im Kern heuristischen Algorithmen haben in jüngster Zeit beträchtlich an Bedeutung gewonnen. Insbesondere bei den schwierigen Problemstellungen, z.B. mit einem großen Suchraum und einer geringen Strukturierung, liefern die Prinzipien der natürlichen Evolution einen geeigneten Modellrahmen für generelle Adaptions- oder Optimierungsstrategien. E 0HFKDQLVPHQGHUQDWUOLFKHQ(YROXWLRQ
Die vorherrschende Vielfalt und Komplexität der Lebensformen wird heute mit Hilfe der neodarwinistischen Evolutionssicht erklärt. Sie kann im Wesentlichen durch folgende drei Mechanismen beschrieben werden (vgl. u.a. Weicker 2002; Beyer et al. 2001; Nissen 1997; Bäck et al. 1990): •
5HWHQWLRQ: Eine wesentliche Voraussetzung für das Stattfinden von Evolution ist die Replikation, d.h. die Weitergabe von Erbinformationen42 der Eltern an ihre Nachkommen, die sowohl sexuell als auch asexuell erfolgen kann. Durch das Genom wird das grundlegende Erscheinungsbild eines Organismus, der sog. Phänotyp, bestimmt und durch Vererbung über Generationen hinweg bewahrt. Allerdings liegt nur selten eine 1:1-Relation zwischen den genetischen Informationen des Lebewesens, dem sog. Genotyp, und seinem äußeren Erscheinungsbild vor. In der Regel sind mehrere Gene an einem phänotypischen Merkmal des Individuums beteiligt; oder umgekehrt, ein Gen hat Einfluss auf gleich mehrere phänotypische Merkmale. Folglich sind auf Individualebene sowohl Phäno- als auch Genotyp relevant.
•
9DULDWLRQ: Das Gen bildet die Grundlage für die Vererbung sowie für die Veränderung des Erbguts. Eine Population wird als eine Art definiert, wenn die Individuen dem gleichen Genpool entstammen und sich miteinander paaren können. Im Rahmen der geschlechtlichen Fortpflanzung von Individuen kommt es zur Rekombination, bei der das Erbmaterial neu zusammengesetzt wird. Hierbei lassen sich zwei Formen unterscheiden (vgl. Weicker 2002, S. 26): Bei der ersten Form tritt eine zufällige Neuverteilung der väterlichen und mütterlichen Chromosomen in den Keimzellen des Kindes auf. Die zweite Form ist das Ergebnis der Überkreuzung von Bestandteilen der korrespondierenden väterlichen und mütterlichen Chromosome. Man bezeichnet diesen Vorgang auch als Crossing-Over oder Crossover.
42
In der Natur sind die Erbinformationen in Form einer Sequenz von vier verschiedenen Nukleotidbasen, der Desoxyribonucleinsäure (DNS), innerhalb der Chromosomen des Zellkerns codiert. Diese Sequenz dient als Bauplan zur Erzeugung von Enzymen, Organellen, Organen und ganzen Individuen. Ein einzelner Abschnitt auf dem Chromosom wird Gen genannt und bildet die kleinste Einheit der Erbinformation. Die Gesamtheit aller Gene eines Organismus wird als Genom bezeichnet, die anzunehmenden Werte eines Gens wiederum als Allel, z.B. steht ein Gen für die Bestimmung der Haarfarbe mit den Allelen (Ausprägungen) blond und schwarz. Die Gesamtheit aller Allele werden unter dem Begriff Genpool zusammengefasst (vgl. Kilian et al. 2006, S. 92f.).
4.3 Evolutionäre Algorithmen
197
Neben der Rekombination kommt es durch das Auftreten von Mutationen zu Veränderungen des Erbguts von Individuen. Mutationen beschreiben die spontane Veränderung der genetischen Information im Zuge der Fortpflanzung, wodurch Fehler bei der Reproduktion der DNA entstehen. Die Änderungen einzelner Gene, Chromosome und/ oder Genome treten dabei mit einer gewissen Mutationsrate bzw. -wahrscheinlichkeit auf. •
6HOHNWLRQ Die ökologische Konkurrenz und genetische Variabilität der Arten führen dazu, dass nur die anpassungsfähigsten Individuen überleben (Survival of the Fittest). Da sie die größte relative Lebensdauer im Verhältnis zu anderen Individuen derselben Population haben, besitzen sie auch die größte Chance, ihre Erbanlagen (Gene) an die Nachkommenschaft weiterzugeben. Die Selektion bewertet die Angepasstheit der Individuen im Moment und stellt deshalb den einzigen gerichteten Vorgang in der Evolution dar. Dabei arbeitet sie nicht auf der Ebene einzelner Eigenschaften oder Gene, sondern den dadurch bestimmten phänotypischen Ausprägungen des Organismus. Gleichzeitig stellt sich die natürliche Auslese als ein stochastischer Prozess dar, bei dem auch weniger gut an die Umwelt angepasste Individuen eine Chance zur Reproduktion haben, selbst wenn diese nur sehr gering ist.
Aus dem Wechselspiel von Variation und Selektion lässt sich die schrittweise Entstehung der heutigen Arten aus früheren Urformen erklären. Aufgrund der Veränderung und/ oder Vermischung der Erbinformation der Individuen im Zuge der Fortpflanzung entstehen unterschiedlich konkurrenzfähige Nachkommen. Als Selektionskriterium wird die Fitness, also die unterschiedliche Tauglichkeit der Individuen im Überlebenskampf, angeführt. Als Erfolgsgröße kennzeichnet sie die Anzahl der überlebenden Nachkommen in einer Population.43 Bei der Bewertung der Fitness in der Natur wird implizit davon ausgegangen, dass ein Genotyp, der besser an seine Umwelt angepasst und folglich tauglicher ist, mehr Nachkommen erzeugt (vgl. Weicker 2002, S. 30). Dadurch ergibt sich ein natürlicher Ausleseprozess, der dazu führt, dass die nachfolgenden Generationen einer Art bevorzugt die Eigenschaften und Besonderheiten der jeweils aktuellen, gut angepassten Individuen einer Population erhalten. Gleichzeitig bilden die Gene eines Genpools ein harmonisches System, bei dem die Allele der verschiedenen Gene sorgfältig aufeinander abgestimmt sind. Stark disharmonische Kombinationen, die z.B. im Zuge von Mutationen auftreten, werden solange durch die Selektion „bestraft“ bis wieder ein harmonischer Zustand erreicht ist.44 43
44
Die relative Fitness F ergibt sich aus dem Verhältnis der Anzahl der Nachkommen von Individuen mit einem Genotyp G zur Anzahl der Nachkommen von Individuen, die derzeit mit dem „bestmöglichen“ Genotyp G* ausgestattet sind: F(G) = G / G*. Zum Formaldarwinismus und zur Berechnung der Fitness in unsicheren Umweltsituationen siehe auch die Beiträge von Grafen 1999, Real 1980 und Cohen 1966. Dies wird als Beleg dafür gewertet, dass viele Grundbaupläne der Organismen nach ihrer Festlegung nicht mehr grundsätzlich geändert werden können (Weicker 2002, S. 30). Die Änderung, die zu einem neuen harmonischen Zustand führt, ist um so schwie-
198
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
F 7HUPLQRORJLHYRQ(YROXWLRQlUHQ$OJRULWKPHQ($
Das Vokabular für Evolutionäre Algorithmen wurde aus der oben beschriebenen neo-darwinistischen Evolutionslehre entlehnt. Dabei werden vorzugsweise folgende Analogien verwendet (siehe Abb. 4-8). Eine potenzielle Lösung eines Optimierungsproblems, also ein Punkt im Suchraum, wird als Individuum in einer künstlichen Umwelt betrachtet, welches die Parameter für eine potenzielle Lösung in codierter Form erhält. Der Grad der Anpassung an diese gegebene Umwelt wird durch die Zielfunktion bestimmt. Die Koordinaten im Suchraum werden i.d.R. über das Genom des Individuums repräsentiert. Durch die Zusammenfassung von mehreren Individuen zu einer Population lassen sich die Mechanismen der natürlichen Evolution modellieren. Um die Überlebensfähigkeit eines Individuums zu bestimmen, wird eine Fitnessfunktion ILW\ verwendet, die jedem Individuum einen Wert zuordnet, der dessen Fähigkeit wiederspiegelt, das Problem zu lösen. Die Population stellt die augenblickliche Anzahl der möglichen Lösungen der Problemstellung dar. Die darin enthaltenen Individuen werden auch, in Anlehnung an die Natur, als Chromosomen bezeichnet. Für die Codierung eines Individuums wird ein aus Genen bestehender Bit-String mit i.d.R. fixer Länge verwendet. Jedes Gen kann einen Wert einer diskreten Wertemenge annehmen.45 Die jeweilige Ausprägung wird als Allel bezeichnet. G $UWHQYRQHYROXWLRQlUHQ2SWLPLHUXQJVDOJRULWKPHQ
Bei EAs werden die wesentlichen Mechanismen der natürlichen Evolution, nämlich Retention, Variation und Selektion, abstrahiert und modelliert. Ziel ist es, komplexe Problemstellungen mit großem Suchraum nach dem Vorbild des natürlichen Evolutionsprozesses zu lösen. Je nachdem, welcher der drei Mechanismen besonders hervorgehoben wird, lassen sich drei Hauptströmungen unterscheiden; sie imitieren/ modellieren das Evolutionsgeschehen auf unterschiedlichen Abstraktionsebenen (vgl. Sprave 1999, S. 10ff.).
45
riger, je komplexer der Grundbauplan des Organismus ist. Einmal im genetischen System etablierte Zusammenhänge sind nicht mehr umkehrbar, so dass die natürliche Evolution immer „Ballast“ aus früheren Anpassungen mit sich „herumschleppt“. Evolution verläuft in einer Einbahnstraße, wodurch das Erreichen einer jeweils optimalen Anpassung und damit maximalen Fitness (deutlich) erschwert wird. In der klassischen GA-Variante werden alle zu optimierenden Variablen in binärer Form codiert und zu einem binären String als Chromosom zusammengefasst. Nicht immer ist diese Art der Darstellung zweckmäßig und für das Optimierungsproblem ausreichend. Daher kommen auch Repräsentationen mit Alphabeten höherer Kardinalität vor (vgl. Gen/ Cheng 1997, S. 4).
4.3 Evolutionäre Algorithmen
199
Ausdruck in Biologie
Bedeutung bei EA
Individuum
Punkt im Suchraum als mögliche Lösung des Problems
Population (von Individuen)
Gesamtmenge von Punkten im Suchraum als mögliche Lösungen des Problems
Eltern
Menge von ausgewählten Lösungen, die zur Reproduktion herangezogen werden
Kinder
Aus den Eltern erzeugte Nachkommen als neue mögliche Lösungen des Problems
Crossover
Suchoperator, der Elemente verschiedener Individuen vermischt
Mutation
Suchoperator, der jeweils ein Individuum, also ein Chromosom, modifiziert
Fitness
Qualität der gefundenen Lösungen bezogen auf die relevanten Zielkriterien
Generation
Verfahrensiteration
Zusätzlich bei Genetischen Algorithmen Chromosom (bestehend aus Genen)
Darstellungsform einer vollständigen Lösung des Problems, üblicherweise als String
Gen
Bit
Allel
Ausprägung eines Bits (bei binärer Codierung: 0/ 1)
Genotyp
Codierte Lösung (String)
Phänotyp
Decodierte Lösung (Merkmalsausprägung)
Basis: Nissen 1997, S. 13
Abb. 4-8: Terminologie von Evolutionären Algorithmen
(1) *HQHWLVFKH $OJRULWKPHQ *$ , oder auch Genetische Programmierung (GP), sind computer-basierte Problemlösungsverfahren, die berechenbare Modelle von natürlichen, evolutionären Prozessen als Schlüsselelemente verwenden. Der Name „Genetischer Algorithmus“ geht auf JOHN H. HOLLAND (1975) zurück, der Ende der 1960er Jahre ein naturanaloges Adaptionsverfahren entwickelte, bei dem die Problemparameter analog zu den DNA-Sequenzen als Zeichenketten über ein endliches Alphabet – i.d.R. als Binärcode – codiert werden. Dieser Ansatz wurde u.a. von DAVID E. GOLDBERG (1989), Fogel (1992) und Michalewicz (1996) aufgegriffen und maßgeblich weiterentwickelt. GA und GP, die im Kern eine Form von GA mit spezifischen Lösungsrepräsentationen bilden (vgl. Nissen 1997, S. 237), betonen die genetischen Mechanismen auf der Abstraktionsebene des Chromosoms. Die wirtschaftswissenschaftlichen Aufsätze zu diesem Themenkreis beschäftigen sich mehrheitlich mit der Formulierung individueller und gesellschaftlicher Lernprozesse (vgl. Clemens/ Riechmann 1996, S. 10ff.). Als repräsentativ gelten die Modelle von (a) Arifovic (1994), die GAs zur Simulation des
200
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
adaptiven Verhaltens im Rahmen des Cobweb-Modells benutzt, (b) Birchenhall (1995), der GAs für eine differenzierte Analyse ökonomischen Verhaltens in einem Zwei-Sektoren-Modell einsetzt, und (c) Vriend (1995), der mithilfe von GAs die Selbstorganisation von Märkten analysiert. (2) (YROXWLRQVVWUDWHJLHQ(6 bilden das Evolutionsgeschehen nicht auf der genotypischen, sondern rein auf der phänotypischen Ebene ab. Ihre Entwicklung geht auf Rechenberg/ Schwefel (1965) zurück, die das Verfahren zur praktischen Optimierung im Rahmen von ingenieurwissenschaftlichen Anwendungen entwarfen. ES sind also im Gegensatz zu GA bzw. GP von Anfang an als Optimierungsmethoden konzipiert und eingesetzt worden. Die Hauptunterschiede bestehen in den Bereichen der Lösungsrepräsentation, der Selektion und Gestaltung sowie der Bedeutung der einzelnen Suchoperatoren (Rekombination und Mutation). Das Verfahren wird sowohl zur diskreten, experimentellen Optimierung (vgl. z.B. Klockgether/ Schwefel 1970) als auch zur reellwertigen, empirischen Parameteroptimierung eingesetzt. (3) (YROXWLRQlUH 3URJUDPPLHUXQJ (3 gilt als dritter, ebenfalls zunächst unabhängig entwickelter Zweig der Evolutionären Algorithmen. Das Verfahren geht auf Fogel/ Owens/ Walsh (1966) zurück und weist starke Ähnlichkeiten zu ES auf. Jedoch simuliert es die Evolution nicht auf der Ebene von Individuen, sondern auf der Ebene von Arten/ Populationen, so dass in den Modellen von EP keine Rekombination vorgesehen ist. Der Abstraktionsgrad nimmt folglich von GA über ES zu EP hin zu. Ursprünglich wurde EP als ein Verfahren zur Entwicklung endlicher Automaten mit vorgegebenem Ein-/ Ausgabeverhalten definiert. Zur reellwertigen Parameteroptimierung wurde es erst Anfang der 1990er Jahre weiterentwickelt (vgl. Fogel 1992). Während die Frühphase der Evolutionären Algorithmen vor allem durch disjunkte EA-Arten gekennzeichnet war, zeichnet sich heute eine zunehmende Vermischung der einzelnen Ansätze ab. Vor allem aufgrund der algorithmischen Ähnlichkeiten gibt es in zunehmendem Maße Bestrebungen, GA, GP, ES und EP unter dem gemeinsamen Namen Evolutionäre Algorithmen (EA – Evolutionary Algorithms) zusammenzufassen und das Forschungsgebiet als Evolutionäres Rechnen (EC – Evolutionary Computation) zu bezeichnen. Die Grundkonzeption von EAs soll im Weiteren anhand des Genetischen Algorithmus dargestellt werden, da er nach wie vor die mit Abstand bekannteste und am weitesten verbreitete EA-Form ist. Zuvor wird ein kurzer Überblick über die Bedeutung evolutionstheoretischer Ansätze in der BWL sowie ihre Anwendung im Rahmen von F&E gegeben. 4.3.2
Evolutionäre Ökonomik – Übertragung evolutionärer Prinzipien auf die Organisations- und Managementwissenschaften
Die 2UJDQLVDWLRQV XQG 0DQDJHPHQWZLVVHQVFKDIWHQ sind nur einer von vielen Bereichen, in denen in der Vergangenheit intensiv an einer systemimmanenten Übernahme evolutionärer Prinzipien geforscht worden ist (vgl. hierzu Kieser/ Woywode 2002, S. 253ff.). Den „wirklichen“ Durchbruch als Forschungsrichtung
4.3 Evolutionäre Algorithmen
201
erlangte die sog. Evolutorische Ökonomik46 mit den Veröffentlichungen „An Evolutionary Theory of Economic Change“ von RICHARD NELSON und SIDNEY WINTER im Jahr 1982 sowie der „Organizational Ecology Theory“ von MICHAEL T. HANNAN und JOHN FREEMAN im Jahr 1989. Seit dieser Zeit haben sich eine Reihe von Forschungsaktivitäten entfaltet, von denen vor allem die Innovationsund Institutionenökonomik nachhaltig beeinflusst worden sind. Der DNWXHOOH )RUVFKXQJVVWDQG im Bereich der populationsökologischen sowie evolutionsökonomischen Ansätze zeichnet sich vor allem durch eine starke Heterogenität aus. Im großen und ganzen lassen sich aber die folgenden fünf Ansätze/ Forschungsfelder differenzieren (vgl. u.a. Arpagaus 2002, S. 4ff.): •
Wachstum durch technischen/ technologischen Fortschritt (Innovationen)
•
Evolution von Marktstrukturen unter Beachtung von Pfadabhängigkeiten
•
Organisationsökologie – Organisationaler Wandel/ Change Management
•
Populationsökologie – Entwicklung/ Verbreitung von Organisationsformen
•
Evolution von ökonomischen Institutionen/ (Management-)Konzepten.
Sowohl die Übertragung von evolutionären Prinzipien auf die Gestaltung von Unternehmensprozessen als auch die Anwendung von Genetischen Algorithmen zur Produkt-/ Prozessverbesserung standen bis dato kaum im Interesse der Forschungsbemühungen. Vielmehr wurden theoretische Modelle zur (UNOlUXQJ XQG 3URJQRVH von betriebs- und volkswirtschaftlichen Sachverhalten aufgestellt; die Ableitung konkreter Gestaltungsempfehlungen als Technologien für die Unternehmenspraxis wurde allenfalls am Rande behandelt. Als Grund lässt sich u.a. der spezielle Blickwinkel der (YROXWRULVFKHQ gNRQRPLN auf die Unternehmenstätigkeit anführen. Wie Abb. 4-9 anhand von sechs Kriterien zeigt, unterscheiden sich die Grundannahmen gegenüber der .ODVVLVFKHQgNRQRPLN signifikant. Neben der Annahme begrenzt rational handelnder Akteure aufgrund unvollkommener Informationen über Zweck-Mittel-Beziehungen (6) wird davon ausgegangen, dass der Wandel/ die Veränderung von Organisationen nicht primär exogen, sondern endogen begründet ist (1). Weiterhin ist die Analyse durch eine dynamische Sichtweise geprägt, d.h. im Blickwinkel stehen die Veränderungsprozesse selbst; Ungleichgewicht ist der Regel-, nicht der Ausnahmefall (2). Im Zusammenhang mit der Problemlösungsfindung wird davon ausgegangen, dass die Fähigkeiten und Erwartungen der Akteure einer Population heterogen und 46
Nach Cantner/ Hanusch (1997, S. 778) befasst sich die Evolutorische Ökonomik „mit der Analyse von wirtschaftlichen Entwicklungen, die bedingt und gesteuert werden von den oft neuerungsorientierten Aktivitäten heterogener Akteure. Dies spielt sich zumeist in Situationen echter Unsicherheit ab. [...] Als notwendige Folge hiervon stellt sich die ökonomische Entwicklung als ein offener Prozeß dar, der oft pfadabhängig verläuft und in historischer Zeit zu sehen ist“.
202
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
normalverteilt sind (3). Dies führt dazu, dass individuelles und zielorientiertes Handeln zu unterschiedlichen Lösungen eines Problems führt respektive führen kann. In Abgrenzung zur klassischen Ökonomik werden Unternehmungen als dauerhafte ökonomische Institution mit eigener Kultur und verschiedenen Akteure betrachtet (4) (vgl. Cantner/ Hanusch 1997, S. 778ff.). Im Vordergrund der evolutionstheoretischen Erklärungsansätze steht das organische Wachstum von Organisationen mit dem Ziel, die Überlebenswahrscheinlichkeit zu erhöhen (5). Da Unternehmungen/ Organisationen von den Individuen inszeniert und konstruiert werden, z.B. Unternehmer gründen kleine/ große Firmen; Manager (re-)strukturieren Organisationen, spielt das kreative/ schöpferische Element – in Abgrenzung zu Lebewesen – eine größere Rolle. Kriterien
Evolutorische Ökonomik
(UNOlUXQJYRQ :DQGHO
(QGRJHQEHJUQGHW
([RJHQEHJUQGHW
Klassische Ökonomik
)RNXVGHU$QD O\VH
(QWZLFNHOQGH3UR]HVVH
(QWVWHKHQGH*OHLFKJHZLFKWH
%HVFKUHLEXQJ GHU$NWHXUH
+HWHURJHQH,QGLYLGXHQ
+RPRJHQH,QGLYLGXHQ
%HVFKUHLEXQJ GHU 8QWHUQHK PXQJ
Nelson/ Winter 1982 8QWHUQHKPXQJDOV GDXHUKDI WH |NRQRPLVFKH,QVWLWXWLRQ PLWHLJHQHU.XOWXUXQGYHU VFKLHGHQHQ $NWHXUH
Coase 1937 8QWHUQHKPXQJDOV(UVDW]IU GHQ0DUNWPHFKDQLVPXV Williamson 1975 7UDQVDNWLRQVNRVWHQRSWLPXP
(QWZLFNOXQJG 2UJDQLVDWLRQ
2UJDQLVFKHV:DFKVWXP $QDO\VHYRQ5RXWLQHQ
*HZLQQPD[LPLHUXQJ 0D[LPLHUXQJVPRGHOOH
$QQDKPHIU 9HUKDOWHQ
%HJUHQ]WH5DWLRQDOLWlW Æ +RPR FUHDWLYXV
9ROONRPPHQH5DWLRQDOLWlW Æ +RPRRHFRQRPLFXV
Quelle: Arpagaus 2002, S. 4ff.
Abb. 4-9: Vergleich von Evolutorischer und Klassischer Ökonomik
Eine besondere Bedeutung besitzen die (organisationalen) 5RXWLQHQ, welche als regelmäßige und vorhersehbare Verhaltensmuster die kurzfristige Handlungsfähigkeit der Organisation sicherstellen (vgl. Douma/ Schreuder 2002, S. 233). In Analogie zur Biologie steht die Unternehmung als ökonomische Institution für den Phänotyp, während Routinen den ihnen zugrundeliegenden Genotyp kennzeichnen. Je nach Erkenntnisinteresse des Forschers werden unter Routinen sowohl Kompetenzen (Comps) als auch Fähigkeiten (Skills) verstanden. Die Fähigkeit eines Unternehmens besteht bspw. darin, Six Sigma-Projekte mit der Routine des DMAIC-Zyklus erfolgreich durchzuführen. Neben Populationen bilden Routinen damit eine weitere wichtige Analyseeinheit evolutionstheoretischer Konzepte. Die Anzahl der Untersuchungen zu diesem Thema hat in der jüngsten Vergangenheit deutlich zugenommen (vgl. z.B. Burgelman 1990/ 91).
4.3 Evolutionäre Algorithmen
203
Nach Nelson/ Winter (1982, S. 14ff.) ändern sich Routinen im Laufe der Zeit, wenn (a) neue Problemlösungsprozesse entstehen und/ oder (b) zufällige Ereignisse, z.B. Entdeckungen, auftreten.47 Damit unterliegen Routinen einem generellen Veränderungs- und Anpassungsprozess. Dieser umfasst auf der einen Seite die kontinuierliche Erweiterung/ Akkumulation von Elementen über die Zeit. Auf der anderen Seite kann es aber auch zu einem schlagartigen Wandel von Routinen kommen, z.B. durch das Auftreten von Mutationen. Neben Variationsprozessen stehen bei den evolutionstheoretischen Ansätzen der Organisations- und Managementwissenschaften vor allem Selektions-, Adaptions- und Retentionsprozesse im Fokus der Analyse (siehe Abb. 4-10). Die Aussagen der synthetischen Evolutionstheorie der Biologie zu den einzelnen Prozessen werden dabei – in Form von Analogieschlüssen – auf sozio-ökonomische Fragestellungen übertragen.
6HOHNWLRQ $XVOHVH
9DULDWLRQ 0XWDWLRQ
$GDSWLRQ $QSDVVXQJ
5HWHQWLRQ 9HUHUEXQJ
Quelle: Nelson/ Winter (1982) über Arpagaus (2002)
Abb. 4-10: Das Forschungsprogramm der Evolutorischen Ökonomik
9DULDWLRQ
Das Auftreten von gewollten und/ oder ungewollten Variationen (Mutationen) führt zu einer %HUHLFKHUXQJGHVEHVWHKHQGHQ*HQSRROV.48 Den Ausgangspunkt für einen Evolutionszyklus in Organisationen bildet das Auftreten von Innovationen. Diese beziehen sich sowohl auf die Veränderung von bestehenden als auch die
47
48
In einem späteren Beitrag betont Winter (2003, S. 991), dass Routinen nicht nur wiederholungsfähige, sondern auch gelernte und spezifisch ausgerichtete Verhaltensmuster in Organisationen sind. Gleichzeitig weist er nachdrücklich darauf hin, dass sich Routinen nicht auf alles und jedes in Organisationen beziehen; so gehören z.B. brilliante Improvisationen gerade nicht zu Routinen. Genau wie in der Natur ist davon auszugehen, dass Mutationen eher zu einer Verschlechterung als zu einer Verbesserung der Unternehmensperformance i.S.v. „Fitness“ führen. Konkret bedeutet dies, dass die Wahrscheinlichkeit sehr gering ist, dass durch zufällige Veränderungen der Einstellungen im Prozess, z.B. an einer Maschine, ein qualitativ gleich- oder gar höherwertiges Endprodukt liefert.
204
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
Entwicklung von ganz neuen Routinen. Die Entstehung neuer Routinen lässt sich in vielen Fällen auf einen verstärkten Wettbewerbsdruck zurückführen, der in einer bestimmten Branche Platz greift. So ist z.B. die Qualitätsphilosophie TQM das Ergebnis der „2. Revolution in der Automobilindustrie“ in den USA und Europa Ende der 1980er Jahre (vgl. Womack et al. 1994). Zum Vorgehen beim „Change Management“ in der Praxis ist festzuhalten, dass sich organisationale Routinen jeweils nur in kleinen Schritten wandeln (lassen). Dies geschieht dadurch, dass die Akteure jeweils lokal nach Lösungen/ Verbesserungen suchen, d.h. sie starten bei ihrer Lösungssuche so nah wie möglich bei der bestehenden Routine. Die Suche selbst unterliegt einer Wahrscheinlichkeitsverteilung, die besagt, dass mit steigendem Einsatz/ höheren Investitionsaufwendungen eine überlegene Technologie – durch Innovation oder Imitation – tatsächlich gefunden wird (vgl. Douma/ Schreuder 2002, S. 233). Im Fall von 6L[6LJPD begann die Suche nach einem neuen Verbesserungsalgorithmus beim PDCA-Zyklus. Um die Qualitätsbemühungen bei Motorola stärker auf Prozesse und Kunden auszurichten, wurde der Zyklus sukzessive verändert bis mit dem DMAIC-Zyklus eine verbesserte Routine vorlag. Zur Penetration des 5-phasigen Zyklus im Unternehmen wurde ein umfassendes Managementkonzept konzipiert. 6HOHNWLRQ
Wie kaum eine andere Organisationstheorie schreibt der evolutionstheoretische Ansatz der umweltbezogenen Selektion eine herausragende Bedeutung bei der %HJUQGXQJ VSH]LILVFKHU (QWZLFNOXQJVSIDGH, auch genannt Trajektorien, zu (vgl. Dosi 1982, S. 332f.). So werden nach Auffassung der Evolutionstheoretiker nicht nur ganze Organisationen, sondern auch bestimmte Konzepte durch die Umwelt, d.h. durch die situativen Gegebenheiten auf dem Markt und/ oder in der Branche, selektiert (vgl. u.a. Aldrich/ Müller 1982, S. 33ff.). Dadurch kommt es zu einer gerichteten Änderung der Zusammensetzung des Genpools in einer Population. Insbesondere werden Routinen, die sich bei der Bewältigung der unternehmensbezogenen Herausforderungen bewährt haben, ausgelesen und als Kopiervorlage für andere Unternehmen/ Bereiche „zugelassen“. Genau wie in der Natur wird so gewährleistet, dass die Unternehmen, die mit den besten Routinen ausgestattet sind bzw. diese übernehmen, im Wettbewerb überleben. Aufgrund des Selektionsmechanismus sind die Unternehmen angehalten, sich relativ schnell und gut an neue Markt-/ Umweltsituationen – z.B. durch den Aufbau und/ oder die Übernahme geeigneter Routinen – anzupassen. Dieser Forderung können viele Unternehmen nur bedingt nachkommen, da sie über eine ausgesprochen hohe RUJDQLVDWLRQDOH 7UlJKHLW verfügen; im Hinblick auf Änderungen ihrer Umwelt können sie nur relativ langsam bzw. schwerfällig (re-)agieren. Hannan/ Freeman (1984) weisen in diesem Zusammenhang darauf hin, dass die Reaktionen/ Veränderungen von Organisationen in vielen Fällen unregelmäßig, verspätet und teilweise erfolglos stattfinden. Im Gegensatz zu vielen populärwissen-
4.3 Evolutionäre Algorithmen
205
schaftlichen Aufsätzen sind sie jedoch der Auffassung, dass jede Art von Selektionsdruck genau die Organisationen favorisiert, die relativ träge sind.49 $GDSWLRQ
Die positive Veränderung des Genotyps eines Individuums führt zu einer höheren Fitness und damit verbesserten Anpassung an die herrschenden Umweltbedingungen. Bei Unternehmen wird durch günstige Veränderungen der organisationalen Routinen eine (UK|KXQJ GHU :HWWEHZHUEVIlKLJNHLW erreicht. In Abhängigkeit von den Marktbedingungen kann eine hohe Wettbewerbsfähigkeit geringe Herstellkosten, hohe Produktqualität oder beides implizieren. So sind Unternehmen, die auf hoch kompetitiven Märkten agieren, i.A. bestrebt, qualitativ hochwertige Produkte zu relativ niedrigen Kosten herzustellen (Outpacing). Um dieses Ziel zu erreichen, werden von den Unternehmen Verbesserungsprogramme, z.B. Six Sigma, initiiert. Dabei wird die bisherige Vorgehensweise der Lösungssuche infrage gestellt und durch eine neue organisationale Routine ersetzt. Infolge der Veränderung des Genotyps kommt es nach und nach auch zu einer Adaption des Phänotyps, also einer Veränderung des Unternehmens auf der Merkmalsebene.50 Aus Erfahrungen ist bekannt, dass die Anpassung von Organisationen an neue Herausforderungen nicht sofort und unmittelbar erfolgt. In vielen Fällen können sie sich sogar nur begrenzt auf die sich verändernden Markt-/ Umweltbedingungen einstellen. Nach dem SRSXODWLRQV|NRORJLVFKHQ 0RGHOO von Hannan/ Freeman (1984/ 89) ist die Trägheit von Organisationen (Organisational inertia) der ausschlaggebende Faktor hierfür.51 Sie ist das Resultat verschiedener Faktoren, z.B. Widerstände von einflussreichen Akteuren/ Stakeholder gegen radikale strukturale Organisationsveränderungen sowie Legitimation des Bestehenden und Diskrimination des Anderen aufgrund bestehender Normen und Werte. Nach dem HYROXWL RQVWKHRUHWLVFKHQ 0RGHOO von Nelson/ Winter (1982) wirken Routinen als organisatorisches Gedächtnis und erklären, warum Organisationen relativ resistent gegenüber Veränderungen und infolgedessen relativ träge sind. So halten viele Unternehmen, die Six Sigma einmal unternehmensweit implementiert haben, an den Problemlösungszyklen DMAIC und DMADV lange Zeit fest. 49
50
51
Unter der Voraussetzung, dass RUJDQLVDWLRQDOH 7UlJKHLW eher förderlich als hinderlich ist, stellt sich auch die Bedeutung und Zielsetzung von Managementkonzepten in einem anderen Licht dar. Als Effizienzkriterien zur Beurteilung sind die Reproduzierbarkeit (Reproducibility), die Zuverlässigkeit (Reliability) und die Berechenbarkeit (Accountability) der jeweiligen Routinen heranzuziehen (vgl. Hannan/ Freeman 1984). Bei Six Sigma-Unternehmen wird diese Veränderung z.B. an der Projektorganisation mit genau spezifizierten Rollen wie Green Belts und Black Belts sichtbar. Im Wettbewerb äußert sich Six Sigma in einer besseren „Passung“ i.S.v. „Fit“ der Produkte hinsichtlich der Erfüllung der wesentlichen Kundenanforderungen. Eine hohe organisationale Trägheit ist besonders dann wünschenswert, wenn die Prozesse im Unternehmen effizient sind und sich die Marktbedingungen kaum ändern. Reproduzierbare, zuverlässige und berechenbare Routinen gelten in diesem Fall als zielführend (vgl. Aldrich 1999, S.59).
206
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
5HWHQWLRQ
Die Routinen respektive Organisationsformen/ -strukturen, die nach der Selektion als (besonders) effizient hervorgegangen sind, sollen nach Möglichkeit bewahrt bleiben. Lebewesen besitzen die Fähigkeit der Selbstreplikaktion und/ oder sind in der Lage, ihre Gene durch Paarung von einer Generation zur nächsten zu vererben. Organisationen besitzen diese Möglichkeit(en) nicht. Sie können lediglich Strukturen, Konzepte und Abläufe von anderen kopieren bzw. imitieren. McKelvey/ Aldrich (1983, S. 113) haben in Analogiebetrachtung zum relativen Reproduktionserfolg erfolgreicher genetischer Merkmale GUHL +\SRWKHVHQ zur Verbreitung, Erfolgswahrscheinlichkeit und Nachahmung von organisationalen Routinen aufgestellt. Der wirtschaftliche Erfolg einer Unternehmung wird dabei jeweils als notwendige Bedingung (Antecedens-Bedingung) erachtet. Das Six Sigma-Konzept beinhaltet – aus evolutionstheoretischer Perspektive – mit DMAIC- und DMADV-Zyklus gleich zwei organisationale Routinen, für welche die oben angesprochenen Hypothesen von McKelvey/ Aldrich zutreffen: •
5RXWLQHQ6NLOOV &RPSV erfolgreicher Unternehmen verbreiten sich schneller als die weniger erfolgreicher.
•
(UIROJVYHUPLWWHOQGH :LVVHQVHOHPHQWH (IIHNWLYH 6NLOOV &RPSV finden sich eher in erfolgreichen Unternehmen.
•
5RXWLQHQ 6NLOOV &RPSV erfolgreicher Unternehmen werden mit höherer Wahrscheinlichkeit kopiert als die weniger erfolgreicher.
Auf der Populationsebene führt dies zu folgenden ,PSOLNDWLRQHQ (vgl. Kieser/ Woywode 2002, S. 259): (a) Unternehmen ohne effektive Skills & Comps unterliegen im Konkurrenzkampf und werden mittel- oder langfristig vom Markt eliminiert (Struggle for existence). Hingegen können Unternehmen, die im Besitz effektiver Routinen sind, überleben und wachsen, d.h. ihren Marktanteil vergrößern. (b) Die Unternehmen einer Population werden langfristig immer ähnlicher (Isomorphie), da sie jeweils die (gleichen) Routinen von den erfolgreichen Akteuren übernehmen. Gleichzeitig führen interaktive Prozesse zwischen Population und Umwelt zur Herausbildung von Nischen. Im Fall von Six Sigma wurden die Six Sigma-Verbesserungszyklen (DMAIC, DMADV) von erfolgreichen Unternehmen (Motorola, General Electric) entwickelt und eingeführt; sie fanden dadurch in den 1990er Jahren sehr schnell Verbreitung – global und branchenübergreifend. Im Zuge des Übernahmeprozesses kam es zur Herausbildung ähnlicher Aufbau- und Ablaufstrukturen des Six Sigma-Projektmanagements.
4.3 Evolutionäre Algorithmen
4.3.3
207
Evolutionary Design – Anwendung evolutionärer Algorithmen in der Forschung & Entwicklung
In der IT-gestützten Produktentwicklung werden die Ansätze bzw. Algorithmen, die auf evolutionstheoretischen Überlegungen basieren, i.d.R. unter dem Begriff „Evolutionary Design“ (ED) subsumiert (vgl. hierzu und im Folgenden Bentley 1999, S. 1ff.). ED wird gemeinhin als Untermenge von Evolutionary Computation verstanden, welches an der Schnittstelle von Biologie und Informatik steht.52 Anwender- und Berufsgruppen, die in diesem „Grenzbereich“ tätig sind und – direkt oder indirekt – von einer Anwendung von ED profitieren, sind vielfältig: •
,QJHQLHXUH, die nach evolutionärem Vorbild Bauteile und Komponenten optimieren,
•
$UFKLWHNWHQ, die alternative Konzepte für ein neu zu errichtendes Gebäude entwickeln,
•
.QVWOHU, welche die Evolution nutzen, um ästhetisch ansprechende Formen zu entwerfen, und
•
%LR ,QIRUPDWLNHU, die sinnhafte Morphologien für künstliche Lebensformen erstellen.
Verstehen wir Produktentwicklung i.w.S., dann ergeben sich ganz unterschiedliche Anwendungs- und Forschungsfelder im Rahmen von (YROXWLRQDU\ 'HVLJQ (siehe Abb. 4-11). Eine interdisziplinäre Zusammenarbeit und ein grenzüberschreitender Erfahrungsaustausch sind heute aber eher die Ausnahmen als die Regel. Je nach Problem- und Zielsetzung findet man sich in einem der vier Felder wieder. Die wesentlichen Charakteristika werden im Folgenden kurz beschrieben. Besonderes Augenmerk wird dabei auf die zwei Felder (a) Evolutionary Design Optimisation (EDO) und (b) Creative Evolutionary Design (CED) gelegt. Sie stehen im Fokus der weiteren Arbeit und bilden die Basis für die Ableitung eines effektiven Vorgehensmodells für Design for Six Sigma in Unterkapitel 5.2. D (YROXWLRQDU\'HVLJQ2SWLPLVDWLRQ('2
Die Optimierung von bestehenden Designs53 gehört zu den originären Einsatzfeldern von EAs im F&E-Bereich. In den vergangenen 20 Jahren sind eine Vielzahl 52
53
Eine genaue Definition und Abgrenzung von Evolutionary Design findet sich auch bei Kryssanov et al. (2005, S. 4). Sie klassifizieren ED als relativ neues Paradigma im Rahmen von Computer Aided Design (CAD), welches die jüngsten Entwicklungen im Bereich Design aufgreift, z.B. Sustainable Design, Design for X und Green Design. Im Vordergrund stehen jeweils die sozialen, evolutionären und fehler-basierten Aspekte der Produktentwicklung in einem dynamischen Marktumfeld. Einen Überblick über Problemstellungen, die sich vor allem im ingenieurwissenschaftlichen Bereich mithilfe von GAs gut lösen lassen, bieten Gen/ Cheng 1997. Aktuelle Beispiele für die Anwendung von EAs im ingenieurtechnischen Bereich unter Einsatz von aufwändiger Rechentechnik zeigt Marks 2007.
208
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
von Anwendungsfällen bekannt geworden, insb. im Flugzeugbau (vgl. z.B. Eby et al. 1997; Husbands et al. 1996). Die W\SLVFKH9RUJHKHQVZHLVH ist dabei wie folgt: Zunächst werden die Parameter des Produktdesigns bestimmt, die verbesserungswürdig erscheinen. Ihre Ausprägungen werden anschließend in Form von Allelen einzelner Gene codiert. Nach der Spezifikation des Suchraums wird eine Zufallsauswahl von Lösungskandidaten erstellt und damit der evolutionäre Lösungsalgorithmus gestartet. Die Bewertung der Designs erfolgt meistens mit spezieller Analysesoftware, welche die Zielfunktion als bekannt voraussetzen.54
(d) Evolutionary Artificial Life-Forms (EAL)
$XIILQGHQ GHURSWLPDOHQ /|VXQJ
(a) Evolutionary Design Optimisation (EDO) Fokus: (QWZLFNOXQJHLQHV HIIHNWLYHQ9RUJHKHQV PRGHOOV IU')66
Zielsetzung *HQHULHUHQ YRQDOWHUQDWLYHQ /|VXQJHQ
(c) Evolutionary Art (EArt)
%HDUEHLWHQEHUJHRUGQH WHUlVWKHWLVFKHU)UDJHQ Basis: Bentley 1999, S. 2
(b) Creative Evolutionary Design (CED)
/|VHQZLUWVFKDIWOLFK WHFKQLVFKHU3UREOHPH
Problemstellung
Abb. 4-11: Die vier Felder des Evolutionary Design (ED)
Die 5HSUlVHQWDWLRQHQ der gefundenen Lösungen auf der Phänotypebene sind bei diesem Ansatz anwendungsspezifisch, d.h. sie basieren auf den Designs existierender Modelle. Zwischen Phäno- und Genotypebene besteht ein unmittelbarer Zusammenhang. Auf eine künstliche embryonale Entwicklung, bei welcher der Übergang vom Geno- zum Phänotyp schrittweise erfolgt, wird mehrheitlich verzichtet. Dies führt dazu, dass aus den Genen mehr oder weniger direkt die Ausprägung der einzelnen Parameter abgelesen werden kann.
54
Z.B. beschreiben Eby et al. 1997 die Optimierung der Tragflächen von Flugzeugen auf der Basis eines GAs. Die Fitness-Werte der einzelnen Lösungskandidaten, die sich vor allem nach dem maximal erzielten Auftrieb als Zielgröße richten, werden mithilfe eines Finite Elemente Modells (FEM) bestimmt.
4.3 Evolutionäre Algorithmen
209
Die 9HUlQGHUXQJ GHV *HQ&RGHV i.S.v. Verkürzung oder Verlängerung des BitStrings als Reaktion auf sich verändernde Rahmenbedingungen ist bei den EAs, die dem Anwendungsgebiet EDO zugehören, nicht vorgesehen. Vielmehr wird auf das Ziel fokussiert, bei konstant angenommenen Bedingungen möglichst nahe an das globale Optimum zu kommen. Auf die Details des zugrunde liegenden Algorithmus wird im folgenden Abschnitt näher eingegangen. Von den Anwendern wird es als Herausforderung angesehen, Produkte, die nach allgemeiner Auffassung bereits von „guter Qualität“ sind, (noch) weiter zu verbessern. Dabei wird bei der Programmierung der GAs bzw. EAs insbesondere darauf geachtet, dass die Lösungskandidaten in der Population nicht zu schnell konvergieren. Dadurch soll vermieden werden, dass anstelle des globalen Optimums ein lokales Optimum detektiert wird. Dieses Vorgehen hat den Nachteil, dass i.d.R. UHODWLYYLHOH%HZHUWXQJHQ vorgenommen werden müssen bis eine akzeptable Endlösung gefunden ist. Aktuelle Forschungsbemühungen gehen deshalb dahin, die Anzahl notwendiger Bewertungszyklen mit geeigneten Analysetools und intelligenter Softwareunterstützung zu reduzieren. Dabei werden u.a. multiple Repräsentationen von Lösungskandidaten auf Genotypebene sowie der Einsatz komplexer GA-Typen (sog. hybride GAs) als Lösungsansätze diskutiert. E &UHDWLYH(YROXWLRQDU\'HVLJQ&('
Nach Gero/ Kazakov 1996 geht es in diesem Forschungsfeld vor allem um das Auffinden von überraschenden bzw. innovativen Lösungen, die qualitativ besser sind als alle bisher gefundenen. Dabei wird der Tatsache Rechnung getragen, dass ein Designproblem umso stärker nach einer NUHDWLYHQ/|VXQJ verlangt, je weniger über die bestehenden Zusammenhänge zwischen Kundenanforderungen und Erfüllung derselbigen bekannt ist (vgl. Rosenman 1997, S. 69). Wann ein Produktdesign als „kreativ“ gilt, unterliegt in erster Linie der subjektiven Beurteilung des Betrachters respektive des (potenziellen) Benutzers. Gero (1996, S. 11ff.) unterscheidet in diesem Zusammenhang zwischen einer NRJQLWLYHQ und einer JHVHOOVFKDIWOLFK EHJUQGHWHQ .UHDWLYLWlW. Im erstgenannten Fall handelt es sich um Individuen, die nach eigener Einschätzung kreativ sind, wenn sie Probleme lösen und dabei etwas neues entwickeln. Im zweitgenannten Fall werden von Individuen Designvorschläge erarbeitet, die bestimmte Charakteristiken tragen und von der Mehrheit der Befragten in einer Gruppe als kreativ empfunden werden. Kreativität oder nicht ist folglich sowohl eine Frage des Prozesses als auch des Ergebnisses; beides findet sich in CED wieder. Bei der Lösung schwieriger Probleme ist der Einsatz von fortschrittlicher Rechentechnik i.A. unverzichtbar. Computer arbeiten nach Gero et al. kreativ, wenn sie interessante Lösungen außerhalb des ursprünglich festgelegten Suchraums finden. Dazu müssen sie in der Lage sein, die Anzahl von Entscheidungsvariablen, einschließlich der möglichen Ausprägungen, eigenständig, d.h. ohne Eingriff von außen, zu erhöhen. In „The creative mind“ kommt Boden (1992) zu dem Schluss, dass Computer genau zu dieser Leistung nicht fähig sind und ihnen deshalb keine
210
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
bzw. eine deutlich geringere Kreativität als Menschen zugesprochen werden kann. Lösungskandidaten, die in der Anlage/ Repräsentation des GAs nicht vorgesehen sind, können nicht ohne Weiteres im Computer erzeugt werden. Neuere Entwicklungen auf dem Gebiet des CED gehen deshalb dahin, GAs so zu programmieren, dass ihr *HQ&RGH IOH[LEHO auf die jeweilige Situation anpassbar ist. Im Anfangsstadium wird der Suchraum relativ klein gehalten. Nur wenige Parameter werden in den ersten Runden variiert und bei der Lösungssuche berücksichtigt. Sobald das System an Grenzen stößt, werden neue Entscheidungsvariablen eingeführt und/ oder der Definitionsbereich der bereits vorhandenen Parameter erhöht. Wie verschiedene Anwendungsbeispiele zeigen, können durch dieses Vorgehen neue, innovative Lösungen, die den bisherigen z.T. deutlich überlegen sind, gefunden werden (vgl. z.B. Bentley/ Wakefield 1997). In Abhängigkeit von der gewählten Abstraktionsstufe und damit Darstellung der ermittelten Lösungen können die folgenden zwei Forschungsansätze im Rahmen von CED unterschieden werden: (a) &RQFHSWXDO (YROXWLRQDU\ 'HVLJQ, bei dem versucht wird, auf der Grundlage von EAs Produktdesigns bzw. Designkonzepte auf „hoher Ebene” zu generieren, und (b) *HQHUDWLYH (YROXWLRQDU\ 'HVLJQ, bei demfertige, d.h. unmittelbar umsetzbare Designkonzepte erzeugt werden.55 F (YROXWLRQDU\$UW($UW
Evolutionäre Kunst ist wahrscheinlich das am stärksten kommerzialisierte Feld im Rahmen von ED. In keinem anderen Feld gibt es heute so viele Anwendungsbeispiele/ -programme (vgl. Bentley 1999, S. 5). Die Anforderungen an die Programmierung sind – insbesondere im Vergleich zu den Algorithmen der anderen drei Felder – (sehr) gering. Neue Formen oder Bilder werden ausgehend von einer Zufallsauswahl schrittweise erzeugt, d.h. „gezüchtet“. Die Evaluation erfolgt per Hand, d.h. die Fitness-Werte werden entsprechend der ästhetischen Anmutung der Objekte jeweils von Menschen vergeben. Die Populationsgröße ist üblicherweise relativ klein; eine Population enthält häufig nicht mehr als 10 Individuen. Dadurch soll zum einen eine Überforderung der Befragten vermieden werden. Zum anderen wird ein schnelles Voranschreiten gewährleistet; gute Lösungen werden in relativ kurzer Zeit selektiert. Analog zu CED gibt es im Feld EArt eine große Vielzahl von Ansätzen, Lösungen zu entwickeln und in geeigneter Weise darzustellen. Auf der Phänotypebene reichen sie von einfachen Farbausdrucken mit Textbausteinen bis zu komplizierten geometrischen 3D-Figuren (vgl. z.B. Todd/ Latham 1992; Dawkin 1986/ 89). Bei der Entwicklung der Lösungsmuster sind häufig feste Strukturen vorgegeben. Flexible Änderungen des Gen-Codes, wie sie bei den Algorithmen von CED ein55
Bentley (1999, S. 420f.) zeigt die konkrete Anwendung des Software-Tools GADES zur Layoutplanung von Krankenhäusern. Im Beispiel wird ein komplettes Design für eine Klinik mit 17 Abteilungen entworfen, die sich über vier Stockwerke verteilen.
4.3 Evolutionäre Algorithmen
211
gebaut sind, um möglichst viel Kreativität zu erzeugen, kommen eher selten vor. Das Computerprogramm arbeitet vielmehr mit einem vorgegebenen Set von Formen und Farben sowie einer überschaubaren Anzahl von Konstruktionsregeln.56 Aufgrund der Tatsache, dass der Mensch als Künstler die erzeugten Designs PD QXHOOVHOHNWLHUW, sind die verwendeten EAs im Feld EArt nicht komplex. Auf eine systematische Rekombination der Lösungsmerkmale wird i.A. verzichtet. Die Evolution verläuft in erster Linie mutationsgetrieben. Jede Kindergeneration geht aus zufällig veränderten Kopien der Eltern hervor. Dieses Vorgehen hat sich besonders in Situationen bewährt, in denen Lösungen für Probleme zu finden sind, die einer sich VWlQGLJ lQGHUQGHQ )LWQHVVIXQNWLRQ unterliegen. Dies ist im vorliegenden Fall gegeben, da Künstler dazu tendieren, ihre Meinung über wünschenswerte Eigenschaften des Zielobjektes von Zeit zu Zeit zu ändern. Die intersubjektive Nachvollziehbarkeit der Bewertungen gestaltet sich aber nicht nur aus diesem Grund schwierig. Oftmals resultieren Inkonsistenzen in der Fitnessfunktion einfach aus dem Faktum, dass sich über Geschmack bekanntlich streiten lässt. G (YROXWLRQDU\$UWLILFLDO/LIH)RUPV($/
Die Nachfrage nach künstlichen Intelligenzen, z.B. in Form von Künstlich Neuronalen Netzen (KNN), zur Lösung komplexer Probleme ist nach wie vor groß. Genetische Algorithmen und Evolutionäre Suchstrategien sind in diesem Zusammenhang bewährte Techniken, um z.B. die Funktionsweise des Gehirns im Computer nachzubilden. Gleichzeitig stellt sich die Frage, wie Lebewesen bzw. Teile von selbigen – quasi von Nichts – künstlich erzeugt werden können. Antworten auf diese Frage geben verschiedene Untersuchungen, die im Feld EAL anzusiedeln sind. Um die Entwicklung künstlicher Lebensformen (AL) geht es u.a. bei Lohn/ Reggia´s Zellautomaten (1995), der die Möglichkeit der Selbstreplikation besitzt, Harvey´s Layout und Struktur von Neuronen (1997), die mithilfe von EAs erzeugt werden, sowie Dawkin´s und Sim´s Pflanzen- bzw. Tier-analoge Morphologien (1989/ 1994). Die 0RWLYDWLRQ für die Generierung von ALs ist primär theoretischer Natur. Es wird häufig eines der drei Ziele verfolgt: •
Erforschung der Mechanismen der natürlichen Evolution
•
Erklärung der Lebensformen, die in der Natur vorkommen
•
Ausnutzung/ Übertragung v. Lösungen, die sich in der Natur bewährt haben.
56
Infolgedessen sind die Lösungen, die sich in der Endpopulation befinden, meistens sehr ähnlich und enthalten die gleichen, im Gen-Code verankerten Stilelemente. Dies ist insofern problematisch, da es bei der künstlerischen Arbeit eher auf die Generierung von neuen, außergewöhnlichen Objekten als auf die (inkrementelle) Verbesserung eines bereits vorhandenen „Kunstwerkes“ ankommt. Die Konvergenz der Lösungskandidaten im Laufe der Evolution ist nicht im Sinne des Künstlers bzw. Programmierers.
212
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
Obwohl das Feld EAL das mit Abstand größte Entwicklungspotenzial besitzt, sind die praktischen Anwendungen bis dato eher spärlich. Die Repräsentationen der Lösungen sind oftmals systemspezifisch. Lohn/ Reggia (1995) nutzen z.B. Regeltafeln innerhalb der Chromosomen ihres GAs, während Sims auf hierarchisch aufgebaute Chromosomen-Strukturen setzt, um „Körper“ und „Kopf“ der ALs darzustellen. Nahezu alle Forscher in diesem Feld sind bestrebt, die GenotypStruktur von natürlichen Lebewesen problemadäquat nachzuempfinden.57 Ähnlich wie bei EArt besitzen die Algorithmen, die im Rahmen von EAL zum Einsatz kommen, einen überwiegend H[SORUDWLYHQ &KDUDNWHU. Die erzeugten ALs werden in simulierten Welten evaluiert, wobei die Fitnessfunktion nicht zwangsläufig konstant ist. Um den Evolutionszyklus zu verkürzen, werden unterschiedliche Strategien angewendet, z.B. Einsatz von parallelen und hybriden GAs. Im Anfangsstadium wird meistens von einer zufällig erzeugten Population ausgegangen. Ziel ist es, nach möglichst wenigen Optimierungsrunden das beste bzw. „fitteste“ Individuum zu erhalten. Dieses Ziel wird auch bei der Ableitung eines entsprechenden Vorgehensmodells für DFSS verfolgt (vgl. Abschnitt 5.2.1). 4.3.4
Grundkonzeption und Programmierung von Genetischen Algorithmen am Beispiel
D *$%DVLVDOJRULWKPXV
Alle unter Abschnitt 4.3.1 genannten EAs basieren auf dem folgenden Basisalgorithmus, der in Abb. 4-12 aufgelistet ist (vgl. Feltl 2003, S. 29; Michalewicz/ Fogel 2000, S. 151; Sprave 1999, S. 11; Gen/ Cheng 1997, S. 2). Als genetische Operationen gelten die Operatoren Rekombination und Mutation; sie sind nur bei GAs vorzufinden. Evolutionäre Operationen werden durch die Operatoren Evaluierung und Selektion repräsentiert; sie sind allen EAs – als übergeordneter Gruppe – zu eigen. Unabhängig von der Art des Algorithmus können Informationen aus dem Problemumfeld direkt in den Lösungsweg einfließen. In diesem Fall handelt es sich um +HXULVWLF VWUDWHJLHV, im Gegensatz zu %OLQG VWUDWHJLHV, wenn kein Vorwissen vorliegt (vgl. Gen/ Cheng 1997, S. 4, 42, 97). Weiterhin besteht die Möglichkeit, GAs bzw. EAs für unterschiedliche Suchzwecke zu verwenden: (a) Auffinden des globalen Optimums, wobei die vorgegebenen Suchraumgrenzen zu berücksichtigen sind, und (b) Erkunden des unbekannten Suchraums, um neue, alternative Lösungen zu finden. Fortschrittliche GAs verbinden beide Zwecke auf ideale Weise, so dass sich mit ihnen folgende zwei Arten von Optimierungsproblemen effizient lösen lassen: (a) &RQVWUDLQHG 2SWLPL]DWLRQ 3UREOHPV, bei denen es um die Maximierung oder Minimierung einer Zielfunktion
57
Die benutzten Codes sind i.d.R. hochflexibel und von variabler Länge. Gleichzeitig werden erste Schritte unternommen, die Stufen der embryonalen Entwicklung auf ALs zu übertragen, um dadurch Lebewesen höherer Ordnung zu erzeugen. Dies erfordert i.A. hochkomplexe genetische Operatoren, die bei den EAs zugrunde gelegt werden.
4.3 Evolutionäre Algorithmen
213
unter Berücksichtigung von mind. einer NB geht, und (b) &RPELQDWRULDO2SWLPL ]DWLRQ 3UREOHPV, die durch eine endliche Anzahl möglicher Lösungen gekennzeichnet sind (vgl. auch Abschnitt 4.1.1). Im Weiteren unterscheiden sich GAs von konventionellen Optimierungsalgorithmen in folgenden vier Punkten (vgl. Goldberg 1989, S. 20ff.): •
GAs arbeiten mit codierten Lösungen, nicht mit den Lösungen selbst
•
GAs gehen von einer Population mit Lösungen aus, nicht von einer einzelnen
•
GAs nutzen Ergebnisinformationen (Fitnessfunktion), nicht Indikatoren
•
GAs basieren auf stochastischen Regeln, nicht auf deterministischen.
Nach dem Ablaufschema in Abb. 4-12 wird zuerst die Ausgangspopulation erzeugt und bewertet. Ausgehend von dieser stochastisch generierten Startmenge (Population) von Lösungsalternativen (Individuen) werden iterative Zyklen, sog. *HQHUDWLRQV]\NOHQ, in Gang gesetzt, bei denen aus den alten Lösungen immer wieder neue, modifizierte Lösungen generiert werden. Solange das Abbruchkriterium für den Algorithmus nicht erfüllt ist, wird eine neue Population gebildet.
1. Initialisierungs-Operator: Ausgangspopulation P(t) mit t:= 0 erzeugen 2. Evaluierungs-Operator: Fitness der Individuen von P(t) bewerten Solange kein Abbruch durch tmax o.a. Kriterium: 3. Selektions-Operator: Individuen zur Fortpflanzung P´(t) aus P(t) selektieren 4. Rekombinations-Operator: Genetische Informationen der Elterngeneration über Kreuzung der Gene (zufällig) vermischen 5. Mutations-Operator: Genetische Informationen der Elterngeneration an bestimmten Stellen im Code (zufällig) variieren 6. Evaluierungs-Operator: Fitness der Individuen von P´(t+1) bewerten 7. Neue Population bilden: P(t) mit t: = t + 1 und Schleife wiederholen 8. Abbruchs-Operator: Ergebnisse ausgeben und bewerten Basis: Michalewicz/ Fogel 2000, S. 151
Abb. 4-12: Grundkonzeption eines Genetischen Algorithmus (GA)
Die Individuen der neuen Population werden jeweils den genetischen Operationen Selektion, Rekombination und Mutation unterzogen. Durch diese Transformation entsteht eine Population, die als Eltern in der nächsten Generation fungieren. Im Verlauf vieler Generationszyklen führt dieses Wechselspiel aus ungerichteter Veränderung von Lösungen durch die Variationsoperatoren und die Bevorzugung der besten Lösungen durch den Selektionsoperator zu sukzessiv besseren Lö-
214
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
sungsvorschlägen. Die Iterationsschleife wird i.d.R. abgebrochen, wenn die maximale Anzahl von Iterationen durchgeführt und/ oder eine angemessene Lösungsqualität erreicht worden ist.58 E *$9RUDXVVHW]XQJHQ
Bevor ein GA gestartet werden kann, ist zunächst festzulegen, wie die einzelnen Lösungsvorschläge zu codieren und zu evaluieren sind. Im Weiteren ist der Suchraum zu spezifizieren, in dem nach zulässigen Lösungen gesucht wird (vgl. hierzu und im Folgenden Michalewicz/ Fogel 2000, S. 165ff.). •
&RGLHUXQJGHU/|VXQJHQ: Jedem Individuum (= Chromosom) wird durch eine Zufallsauswahl mind. ein x-Wert als Eigenschaft zugewiesen, welcher mit einer binären Zeichenfolge codiert ist. Das Chromosom, dargestellt als ein String der Länge w, enthält alle Informationen über die individuumsspezifische Lösung. Analog der DNA bei Lebewesen gliedert sich der String üblicherweise in n ≤ w Segmente, wobei jedes Segment bwi einer Variable des Optimierungsproblems entspricht. Dadurch wird der Wert für jede Entscheidungsvariable [L in binärer Form codiert. Je nach Wertebereich der einzelnen Variablen können die Segmente gleichlange oder verschiedenlange Bitfolgen enthalten; dies wird in Abschnitt 5.2.2 verdeutlicht.
Entsprechend dem biologischen Vorbild werden die einzelnen Bits auf dem String als „Gene“ und ihre konkrete Ausprägung (0/ 1) an einer bestimmten Stelle (Locus) des Strings als „Allel“ bezeichnet. Bei Vorliegen von nur einer Entscheidungsvariable enthält jedes Chromosom die codierte Information von genau einem realen Zahlenwert. Dabei gilt: Je größer w ist, desto größer ist die reale Zahl, die maximal codierbar ist. In Abb. 4-13 ist die binäre Lösungscodierung bei einem GA schematisch dargestellt. Die genotypische Lösung kann mit Hilfe einer geeigneten Decodierfunktion in ihre phänotypische Form überführt werden. Zur Behandlung reellwertiger Funktionen wird üblicherweise der Bit-String eines Individuums in folgender Weise entschlüsselt und in eine Festkommadarstellung überführt: Z −1
[L =
¦ (E
Z⋅L + Y
)
⋅ 2 Y − 2 Z−1
Y=0
10 N
(4.17)
Dabei ist w die Anzahl der Bits, die einen Parameter codieren, b0 ... bw-1 der Bit-String und k die Anzahl der Nachkommastellen. Wie leicht nachvollzieh2Z − 1 die größte Zahl dar. Ist bar ist, stellt xmin = 0 die kleinste und xmax = 10 N
58
Da im Gegensatz zur Natur bei der Optimierung ein Anfangs- und ein Endpunkt benötigt werden, wird im Rahmen der Optimierung mithilfe von EAs die natürliche Evolution um einen Initialisierungs- und Abbruchsoperator „erweitert“.
4.3 Evolutionäre Algorithmen
215
für die zu codierende Zahl ein bestimmter Wertebereich xi’ ∈ [ai; bi] vorgegeben, dann ist die Gleichung (4.17) entsprechend zu erweitern: Z −1
' t
[ = DL +
¦ (E
Z⋅L + Y
)
⋅ 2 Y − 2 Z−1
Y=0
10
⋅
N
EL − D L
(4.18)
2Z −1
& & Vor jeder Zielfunktionsauswertung ist eine sog. Mapping-Funktion [ = PE auszuwerten, welche den binären Code in reelle Werte decodiert. Die Zielfunktion \ I[ [ [Q spezifiziert die zu optimierenden Zielkriterien bzw. -merkmale [ [ [Q und berechnet ein Gütemaß für die gegebenen Modellparameter. Wenn das Primärziel eines GA darin besteht, eine Evolution zu simulieren, die zum Aufspüren des globalen Maximums der Fitnessfunktion ILW\ führt, dann ist es i.A. nicht notwendig, eine Trennung zwischen Ziel- und Fitnessfunktion vorzunehmen, da die Maximierung der Fitness dem Optimierungsziel des Optimierungsproblems entspricht.59 Im anderen Fall ist die Definition einer Fitnessfunktion erforderlich. &RGLHUWHU:HUWYRQ (QWVFKHLGXQJVYDULDEOHxi $OOHO :HUW
&RGLHUWHU:HUWYRQ (QWVFKHLGXQJVYDULDEOHxi+1 /RFXV 6WHOOH
*HQ %LW
&KURPRVRP 6WULQJ Basis: Michalewicz/ Fogel 2000, S. 165f.
Abb. 4-13: Schema für die binäre Lösungscodierung bei einem GA (Ausschnitt)
•
59
'HILQLWLRQGHU)LWQHVVIXQNWLRQ: Neben der Lösungscodierung muss i.d.R. eine Fitness- bzw. Evaluierungsfunktion ILW\ definiert werden, die über die Güte einer bestimmten Genkombination Auskunft gibt. In der Natur ist die Fitness ein wesentlicher Indikator für die relative Überlebens- und damit Fortpflanzungsfähigkeit eines Individuums innerhalb der Population (vgl. Abschnitt 4.3.1). Bei der Programmierung von GAs wird in entsprechender Weise über Bei Minimierungsproblemen wird zwischen Ziel- und Fitnessfunktion häufig eine (negative) lineare Skalierungsfunktion gesetzt. In Abhängigkeit von der Problemstellung sind hier oftmals auch geometrische oder exponentielle Funktionen zielführend.
216
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
die Fitnessfunktion jede Lösung evaluiert, um zu entscheiden, ob diese an der Generierung von Nachfolgelösungen teilnimmt. Im übertragenen Sinn gibt der Wert dieser Funktion an, wie „fit“ eine Lösung ist, das gegebene Optimierungsproblem zu lösen. Lerneffekte und damit Verbesserungen der Fitnesswerte werden durch den Wettbewerb zwischen den sich entwickelnden Lösungskandidaten in einer Population bewirkt. Die funktionellen Zusammenhänge zwischen Einfluss- und Zielgrößen sowie Fitnesswerten, wie sie bei regulären GAs zugrunde gelegt werden, sind in & Abb. 4-14 nachvollziehbar. Die Merkmale der Lösungskandidaten [ gehen als Einflussgrößen bzw. unabhängige Variablen in die Zielfunktion y ein. Bei Vorliegen mehrerer Zielgrößen bzw. mehrerer abhängiger Variablen handelt & es sich um einen Zielgrößen-Vektor \ . Dieser spiegelt bei Six Sigma die in Outputmessgrößen abgeleiteten CTQs wider (vgl. Abschnitt 3.3.1). Je besser & die einzelnen CTQs erfüllt werden, desto höher ist die Fitness ILW L ( \ ) eines ausgewählten Lösungskandidaten. Die Berechnung der Fitnesswerte, die in dem Pool ILW gesammelt werden, erfolgt über eine vorgegebene Funktion. In diese fließen alle relevanten Zielgrößen ein. Das Vorgehen ist dem Grunde nach vergleichbar mit der Ermittlung des Nutzens von Produkten. 1XW]HQ
&74V
0HUNPDOH
Einflussgrößen
Zielgröße(n)
& [ = ([1 , [ 2 ,..., [ Q )
& \ = ( \1 , \ 2 ,..., \ P )
=LHOIXQNWLRQHQ
& \1 = I 1 ( [ ) & \2 = I 2 ( [)
Fitnesswerte
ILW = ( ILW1 , ILW 2 ,..., ILW N )
)LWQHVVIXQNWLRQ
& ILWL = I L ( \ )
mit i ... Individuum
. . .
& \ P = I P ([ )
Quelle: Eigene Darstellung
Abb. 4-14: Funktionelle Abhängigkeiten bei der Ermittlung der Fitness
Beim Entwurf eines GA stellt die Definition einer geeigneten Fitnessfunktion eine der schwierigsten Aufgaben dar. So ist darauf zu achten, dass die Fit-
4.3 Evolutionäre Algorithmen
217
nessfunktion sich nach Möglichkeit bei kleinen Änderungen des genetischen Codes eines Individuums nicht zu stark verändert, so dass man eine möglichst VWHWLJH'HFRGLHUXQJVIXQNWLRQ erhält. In diesem Fall besteht ein starker kausaler Zusammenhang zwischen dem Bit-String des Individuums und dessen Fitness. Im anderen Fall, bei einem schwach kausalen Zusammenhang, stehen die Änderungen der Codierung eines Individuums in keinem Verhältnis zu dem Effekt auf dessen Fitness. Zur Normierung der Fitness von Individuen wird i.d.R. die mittlere Fitness der Population ILW 3RS herangezogen.60 •
)HVWOHJHQ GHV 6XFKUDXPV Wie oben ausgeführt, ist die Trennung zwischen Codier- bzw. Chromosomenraum und Such- bzw. Lösungsraum einer der wesentlichen Charakteristika von GAs. Während die genetischen Operationen Rekombination und Mutation im Codierraum arbeiten, kommen die evolutionären Operationen im Suchraum zur Anwendung. Dabei wird jeweils nur ein Teil des gesamten Suchraums durch den GA in der Initialisierungs-Phase erfasst. In diesem „erfassten Raum“ können Lösungen, die im Laufe des Algorithmus auf der Genotypebene erzeugt werden, auf der Phänotypebene eindeutig zugeordnet und repräsentiert werden. Wie in Abb. 4-15 gut erkennbar ist, kann es unter bestimmten Voraussetzungen dazu kommen, dass Chromosomen generiert werden, die auf der Phänotypebene nicht erfassbar sind bzw. die außerhalb des Suchraums liegen und für die gegebene Problemstellung keine zulässige Lösung darstellen.61
Die Festlegung des Suchraums spielt sowohl bei UHVWULQJLHUWHQ 2SWLPLH UXQJVSUREOHPHQ als auch bei NRPELQDWRULVFKHQ2SWLPLHUXQJVSUREOHPHQ eine herausragende Rolle. Bei erstgenannter Problemart ergibt sich der zulässige Suchraum als erfasster Raum durch die Formulierung entsprechender Nebenbedingungen. Nicht selten liegt das gesuchte Optimum genau an der Grenze zwischen erfasstem und nicht-erfasstem Raum.62 Bei kombinatorischen Optimierungsproblemen besteht das Ziel i.A. darin, das Verhältnis von erfasstem zu nicht-erfasstem Raum zu maximieren. Der Suchraum soll möglichst groß-
60
61
62
Algorithmen, bei denen die Fitness der Individuen auf die durchschnittliche Fitness der Population normiert ist, werden auch als kanonische GAs bezeichnet. Auf weitere Formen der Normierung/ Skalierung wird in Abschnitt 5.2.2 eingegangen. Auch bei der Übertragung evolutionärer Prinzipien auf die BWL, insb. Organisationsund Managementwissenschaften, wird sinngemäß zwischen Geno- und Phänotypebene unterschieden (vgl. Abschnitt 4.3.2). Auf der Genotypebene befinden sich z.B. organisationale Routinen wie der DMAIC-Zyklus, die über kurz oder lang zu Veränderungen auf der Phänotypebene führen, z.B. Aufbau einer Six Sigma-Organisation. In der praktischen Anwendung von GAs gibt es eine Reihe von Möglichkeiten, nichterfassbare bzw. unzulässige Lösungen zu unterdrücken. Erprobte Mittel sind die Durchführung von Reparaturen (Repairing-Technik) im Rahmen der Rekombinations-Phase und die Vergabe von Strafpunkten (Penalty-Funktion) im Rahmen der EvaluationsPhase des GA (vgl. Gen/ Cheng 1997, S. 18). Im Weiteren werden hybride Methoden vorgeschlagen, welche die GA-Lösungsstrategien mit deterministischen Verfahren der numerischen Optimierung kombinieren (vgl. Michalewicz et al. 2000, S. 204).
218
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
flächig nach potenziellen Lösungen abgesucht werden. Folglich ist hier darauf zu achten, dass die Rahmenbedingungen der Optimierung in der Initialisierungs-Phase nicht zu eng gefasst werden. &RGLHUXQJ 8Q]XOlVVLJH /|VXQJ
Codierraum - Genotypebene -
1LFKWHUIDVV EDUH/|VXQJ
5HNRPELQDWLRQ 0XWDWLRQ
Suchraum - Phänotypebene Nicht erfasster Raum Erfasster Raum (YDOXDWLRQ 6HOHNWLRQ
(UIDVVEDUH/|VXQJ
'HFRGLHUXQJ Basis: Gen/ Cheng 1997, S. 18f.
Abb. 4-15: Schematischer Zusammenhang zwischen Codier- und Suchraum
F *HQHWLVFKH2SHUDWRUHQ
Um eine evolutionäre Simulation beginnen zu können, muss in einem ersten Schritt eine Startpopulation einer bestimmten Größe, d.h. mit n Individuen, erzeugt werden. In den meisten Anwendungen wird die Ausgangspopulation stochastisch initialisiert und mit einer geraden Anzahl von Individuen versehen. Die einzelnen Bits eines Chromosoms können dabei unabhängig voneinander mit der gleichen Wahrscheinlichkeit entweder auf den Wert 0 oder 1 gesetzt werden. Ein „guter“ Initialisierungsoperator ist entscheidend, um möglichst schnell zu dem gewünschten Ergebnis zu gelangen. Vor allem in den Anfangsstadien ist deshalb darauf zu achten, dass die Population eine relativ große Vielfalt aufweist. Dadurch wird sichergestellt, dass der GA einen möglichst großen Teil des Suchraums gleichzeitig erfasst. Für die Suche selbst stehen die folgenden drei Strategien zur Auswahl (vgl. hierzu und im Folgenden Gen/ Cheng 1997, S. 29f.): •
6WDELOLVLHUHQGH 6HOHNWLRQ: Es werden bevorzugt die Chromosomen mit extremen Fitness-Werten (nach oben und unten) aus der Population eliminiert.
•
*HULFKWHWH 6HOHNWLRQ: Es werden bevorzugt die Chromosmen mit (deutlich) niedrigeren Fitness-Werten als der Durchschnitt eliminiert. Diese Form der Selektions- und damit Suchstrategie ist die gebräuchlichste.
4.3 Evolutionäre Algorithmen
•
219
'LVUXSWLYH 6HOHNWLRQ: Es werden bevorzugt die Chromosomen mit moderaten Fitness-Werten aus der Population eliminiert.
Die Individuen (Chromosomen) der Startpopulation werden durch Einsetzen der einzelnen Parameterwerte in die Mapping- und anschließend in die Fitnessfunktion evaluiert. Für jedes Individuum wird ein Fitnesswert bestimmt, welcher die Güte der Lösung hinsichtlich des definierten Zielkriteriums anzeigt. Dieser Schritt ermöglicht ein Benchmarking für die nachfolgenden Optimierungsschritte. Die Initialisierung und Evaluierung der Ausgangspopulation bilden die Grundlage für den iterativen Zyklus, der den Schritten 3-8 des Basisalgorithmus entspricht (siehe Abb. 4-12). Während bei Holland (1975) immer nur einzelne Individuen einer Population ersetzt worden sind, weisen die heutigen Generationenzyklen, die im Wesentlichen auf Goldberg (1989) zurückgehen, einen dreistufigen Ablauf mit Selektion (S) – Rekombination (R) – Mutation (M) auf. Die Grundzüge der zwei genetischen Operatoren und der Selektion, die in der Natur als Bindeglied zwischen Chromosom und Fitness/ Performance der decodierten Lösung fungiert, werden im Folgenden kurz erläutert (vgl. Nissen 1997, S. 37ff.). •
62SHUDWRU: Die Modellierung der Selektion in GAs beruht auf der Annahme, dass in der Natur die zu erwartende Anzahl der Nachkommen in irgendeiner Weise proportional zur Fitness ist. Weiterhin gilt: Je besser ein Individuum an seine Umwelt angepasst ist, desto größer ist seine Fitness. Aus diesem Grund werden die Optimierungsprobleme bei klassischen GA als Maximierungsproblem formuliert. Die Selektion erfolgt meist zufallsgesteuert und „treibt“ die Individuen in Richtung der optimalen Lösung. Dabei werden – entsprechend dem Prinzip der natürlichen Auslese – bessere Individuen öfter bzw. mit größerer Wahrscheinlichkeit ausgewählt als schlechtere. Die Zulassung von Individuen zur Reproduktion wird auf zwei Arten realisiert:
Bei der fitnessproportionalen Selektion wird aus einer aktuellen Generation durch sog. 5RXOHWWH:KHHO6HOHFWLRQ eine Elterngeneration gleicher Größe ermittelt. Dabei liegt die bildliche Vorstellung zugrunde, dass jedem Individuum eine von der Fitness abhängige Anzahl von Slots auf einem Roulette-Rad zugeordnet werden. Der Anteil eines Individuums an & den insgesamt verfügbaren Slots wird relative Fitness ILW LUHO ( \ ) genannt. Rechnerisch ergibt sie sich, indem man den individuellen Fitnesswert durch die Summe aller Fitnesswerte innerhalb der Population teilt. Durch Drehen des Roulette-Rades werden die Individuen zufallsgesteuert selektiert. Es wird jeweils das Individuum in die Elterngeneration übernommen, welches den Slot an der Haltemarkierung besetzt, wo das RouletteRad zum Stillstand kommt (vgl. auch Abschnitt 5.3.1). Im Gegensatz zum Roulette-Spiel ist die 7RXUQDPHQW6HOHFWLRQ eine relativ einfach zu implementierende Selektionsmethode, bei der nur die Ordnung der Individuen einer Population, nicht aber ihre absoluten Fitnesswerte eine Rolle spielen. Bei diesem rangbasierten Verfahren wird die
220
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
Population gemäß der Zielfunktionswerte sortiert. Um ein Individuum zu selektieren, wählt man k Individuen zufällig (gleichverteilt) aus der Population aus und nimmt davon jeweils das beste, also das mit der höchsten Fitness. Der Parameter k steuert gleichzeitig den Selektionsdruck innerhalb der Population. Im übertragenen Sinn gibt er Auskunft darüber, wie (sehr) gute Individuen gegenüber schlechteren bevorzugt werden. Sowohl ein sehr hoher als auch sehr niedriger Selektionsdruck kann sich negativ auf das Konvergenzverhalten des GA auswirken. •
52SHUDWRU: Im Basis-GA werden die Eltern, aus denen die Nachkommen hervorgehen, stochastisch „mit Zurücklegen“ gezogen.63 Die Selektionswahrscheinlichkeit eines jeden Individuums entspricht dessen relativer Fitness, die nach dem fitnessproportionalen Ansatz als radialer Flächenanteil eines Roulette-Rades interpretiert werden kann. Durch das Drehen des Rades werden die Individuen ausgewählt, die zur Fortpflanzung bestimmt sind, und in eine sog. Intermediärpopulation kopiert. Zur Generierung einer solchen Population mit n Individuen ist das Roulette-Rad gedanklich n-mal zu drehen.
Aus der Intermediär- bzw. Elternpopulation (mating pool) werden dann mithilfe von Rekombination neue Individuen als Kindergeneration erzeugt. Dies geschieht in der Weise, dass mit gleicher Wahrscheinlichkeit 1 / n und „ohne Zurücklegen“ zwei Eltern ausgewählt und als Paar zusammengeführt werden. Dieser Schritt wird n / 2-mal wiederholt, bis alle Individuen zu Paaren zusammengeführt sind. Aus ihnen gehen im Folgenden durch Variation jeweils zwei Nachkommen hervor. Über den Austausch von Genen zwischen zwei Chromosomen als potenzielle Lösungen werden neue Informationen in die Population eingebracht. Wie oben ausgeführt wurde, werden beim CrossoverVerfahren Bruchstücke zwischen zwei Chromosomen ausgetauscht. Dazu ist für je zwei Eltern mind. eine Bruchstelle im Genom zu ermitteln.64 Als typische Crossover-Operatoren stehen zur Auswahl: Q3RLQW&URVVRYHU Es werden zwei Zufallszahlen gleichverteilt erzeugt, die jene Gene auf den Chromosomen indizieren, die das auszutauschende Bruchstück eingrenzen. Im einfachsten Fall, beim 1-Point-Crossover, werden die KLQWHUHQ Bruchstücke der beiden Elterngenome abgetrennt und an das vordere Bruchstück des jeweils anderen Genoms angehängt.
63
64
Das aus der Stochastik bekannte Urnenmodell „Ziehen mit Zurücklegen“ gilt für sehr große Grundgesamtheiten bzw. Populationen. Der Rekombinationsprozess lässt sich mathematisch auf der Basis der Binomialverteilung beschreiben. Bei Populationen mit relativ kleinem Umfang, z.B. n = 10, ist hingegen die Hypergeometrische Verteilung anzuwenden. Da die Auswahl eines Elternteils die Wahrscheinlichkeit für die Paarung der verbleibenden Elternteile ändert, liegt hier das Urnenmodell „Ziehen ohne Zurücklegen“ vor, d.h. die Ergebnisse der einzelnen Ziehungen sind statistisch nicht mehr unabhängig voneinander (vgl. Seyffert 2003, S. 292). Sowohl die Paarbildung als auch die Wahl der Bruchstellen (Crossover-Punkte) erfolgen in den meisten Fällen zufallsgesteuert (vgl. Sprave 1999, S. 16).
4.3 Evolutionäre Algorithmen
221
8QLIRUP&URVVRYHU: Bei dieser Art der Kreuzung (Crossover) wird für jedes Gen zufällig mit gleicher Wahrscheinlichkeit entschieden, von welchem Eltern-,QGLYLGXXP es übernommen wird. Hierdurch wird eine maximale Variation des Genpools von Runde zu Runde erreicht. •
02SHUDWRU: Dem biologischen Vorbild folgend, wird jedes Bit eines erzeugten Nachkommen mit einer sehr geringen Wahrscheinlichkeit, der Mutationsrate, invertiert. Bei GAs kommt, anders als bei ESs, der Mutationsrate als Suchoperator eine eher nachrangige Bedeutung zu. Ziel ist es zu verhindern, dass an einzelnen Stringpositionen der gleiche Wert (0 oder 1) bei allen Individuen einer Population steht. Andernfalls würde nur noch ein 7HLOJHELHW des gesamten Lösungsraums nach Lösungsalternativen untersucht. Rekombination und Mutation werden als stochastische Verfahrenselemente im Rahmen von GAs bewusst eingesetzt, um einen „intelligenten“ Suchprozess in Gang zu setzen. Dieser ist in der Lage, systematische, aufeinander aufbauende Lösungsalternativen in solchen Regionen des Suchraumes zu generieren, die Erfolg versprechend sind.
Es wird davon ausgegangen, dass bei großen Ausgangspopulationen bereits eine ausreichende Anzahl „guter“ Chromosomen vorhanden ist, mit denen es gelingt, nahezu ausschließlich durch Rekombination ein Optimum zu finden. Die Mutation stellt deshalb den sekundären Variationsoperator dar, der vor allem zum Einbringen von neuem bzw. verlorengegangenem Genmaterial in die Population dient. Mutationen sollten nur relativ selten ausgeführt werden, da der Suchvorgang bei zu häufiger Anwendung zu einer vollständigen Zufallssuche degeneriert. Im klassischen Fall liegt die Mutationsrate deshalb bei etwa 1 ⋅ 10-3.65 Als Mutationsvarianten kommen infrage: )OLSPXWDWLRQ: Bei dieser Variante erfolgt die Auswahl des zu mutierenden Gens zufallsgesteuert, und zwar in der Weise, dass das ausgewählte Bit (Gen) im Bit-String einfach negiert wird. 6ZDSPXWDWLRQ: Hier wird der Inhalt der durch Zufall bestimmten Gene von zwei Individuen der Kindergeneration einfach vertauscht. Sie wird bei der Programmierung von GAs seltener verwendet. Nach Abschluss einer oder mehrerer Mutationsschritte werden die erhaltenen Individuen in die Nachfolgegeneration kopiert, welche die neue Population P(t) mit t: = t + 1 bilden. Die Individuen von P(t+1) werden erneut evaluiert und anschließend – wie vorstehend beschrieben – mit den drei Evolutionsoperatoren prozessiert. Der Zyklus Evaluierung, Selektion, Rekombination und Mutation wird solange durchlaufen, bis ein definiertes Abbruchkriterium erfüllt ist.
65
Im übertragenen Sinn beträgt die zulässige Mutationsrate bei Six Sigma 3,4 ⋅ 10-6, d.h. bei der Erstellung eines Produktes/ einer Dienstleistung dürfen maximal 3,4 Fehler bezogen auf 1 Mio. Fehlermöglichkeiten (OFD) auftreten. Letztere beschreiben dabei den Suchraum für neue, zu verbessernde Produkt- respektive Prozessmerkmale.
222
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
In Abb. 4-16 sind die wesentlichen Stellgrößen bei der Programmierung von GAs in Form eines Morphologischen Kastens dargestellt. Durch Kombination der in der Matrix enthaltenen Bausteine ergeben sich die unterschiedlichen Spielarten von GAs. Bei der konkreten Ausgestaltung des DFSS-Vorgehensmodells in Unterkapitel 5.2. stützen wir uns hauptsächlich auf den Algorithmus, der sich durch das Verbinden der Zellen in der 2. Spalte ergibt.
Initialisierung
$EVROXW ]XIlOOLJ
EHUFNVLFKWLJHQG
Lösungsrepräsentation
%LQlUVWULQJ
*UD\FRGH
Mutation
%LWLQYHUVLRQ )OLSPXWDWLRQ
&KURPRVRPHQ LQYHUVLRQ
LQ]XIlOOLJHQ 6FKULWWZHLWHQ
3XQNW
Q3XQNW
8QLIRUP
8QLIRUP 2UGHU%DVHG
)LWQHVV SURSRUWLRQDO
6WRFKDVWLF8QL YHUVDO6DPSOLQJ
5DQJ EDVLHUHQG
:HWWNDPSI
Crossover Selektion
9RUZLVVHQ
1LFKWELQlU
9HNWRU3HUPX WDWLRQ0DWUL]HQ
&UHHS
(OLWH
Basis: Lippe 2004, S. 31
Abb. 4-16: Morphologischer Kasten zur Einordnung von GAs
G $QZHQGXQJVEHLVSLHO
Das Beispiel dient zur schrittweisen Einführung in die programmiertechnische Umsetzung von GAs.66 Der Algorithmus soll dabei exemplarisch anhand des Auffindens des globalen Maximums bei einer zweigipfligen Funktion verdeutlicht werden, wie sie vorher bei der formal-analytischen Erklärung des DMAIC- und DMADV-Zyklus zugrunde gelegt worden ist (vgl. Unterkapitel 3.4). Als realer Anwendungshintergrund wird die Entwicklung eines neuen Kugelschreibers mit optimierter Länge y gewählt. Letztere stellt aus Sicht des Kunden ein kritisches Qualitätsmerkmal (CTQ) dar. Die Gesamtlänge des Kugelschreibers ergibt sich aus den Längen der Einzelkomponenten x1, x2, ..., xn und lässt sich in Q & Form einer gewichteten Summenfunktion \ = I ( [ ) = ¦ J L ⋅ [ L berechnen. L =1
Zu den Einzelkomponenten eines Standard-Kugelschreibers gehören: Oberteil ([), Unterteil ([), Druckknopf ([), Schreibmine ([), Feder ([), Distanzring ([). Sie nehmen mit absteigendem Gewicht gi Einfluss auf die Gesamtlänge des Kugelschreibers. Für jede Komponente liegt eine lange Version (Allel = 1) und eine 66
Ein anschauliches Beispiel für das Design von Produktlinien mithilfe von Genetischen Algorithmen geben Steiner/ Hruschka 2003. In ihrem Beitrag beschreiben die Forscher ein Vorgehen, das auf Basis der Monte Carlo-Simulation zu einer Produktlinie mit maximalem Gewinnbeitrag führt. Dabei vergleichen sie die Leistungsfähigkeit der GAMethodik mit der Greedy-Heuristik von Green/ Krieger (1985).
4.3 Evolutionäre Algorithmen
223
kurze Version (Allel = 0) zum Verbau vor. Ziel des Projektes ist es, die optimale Kombination der Einzelkomponenten zu finden, die zur nutzenmaximalen Länge y* führt. Aus Marktforschungsaktivitäten in der Vergangenheit ist bekannt, dass bezogen auf die Länge des Kugelschreibers zwei Produktsegmente (Cluster) existieren: (1) Kurze Kugelschreiber und (2) Lange Kugelschreiber. ,QLWLDOLVLHUXQJXQG(YDOXLHUXQJ
Zunächst ist eine Fitnessfunktion ILW\ zu definieren, die eine Bewertung des Kugelschreiber-Designs aus Kundensicht erlaubt. Die Funktion weist zu jedem Zeitpunkt einem Individuum einen Fitnesswert ILWL in Abhängigkeit von seiner Eigenschaft \L zu, also in unserem Fall den Kundennutzen in Abhängigkeit von der Länge des Kugelschreibers. Zur Abbildung der zwei Produktsegmente sei die folgende Bewertungsfunktion beispielhaft gewählt:
ILW ( \ ) =
3 1 13 11 ⋅ ( \ − D ) − ⋅ ( \ − D) 2 + ⋅ ( \ − D) 3 − ⋅ ( \ − D) 4 + E 5 5 5 20
(4.19)
Die Parameter a und b geben die horizontale und vertikale Verschiebung der Fitnessfunktion an; sie betragen hier a = 8 und b = 2. Das Polynom 4. Grades nach Gleichung (4.19) weist zwei Nullstellen67 auf, so dass die Fitnesswerte im Intervall [7,49; 14,76] positiv sind. In diesem Intervall weist das Polynom ebenfalls zwei lokale Maxima auf. Wie in Abb. 4-17 ersichtlich ist, liegt das linke Maximum (Produktsegment 1) in der Nähe von y1 = 9. Ein weiteres, das gleichzeitig globales Maximum ist, liegt in der Nähe von y2 = 13. Die längere KugelschreiberVariante (Produktsegment 2) führt also zum höheren Produktnutzen. Die exakten Extremumpunkte ergeben sich nach Differenzieren und Nullsetzen (vgl. Abschnitt 4.2.1) mit: E1(8,872; 2,963) und E2(13,333; 3,857). Ziel des zu konzipierenden GA ist es, eine Evolution zu simulieren, die zum Aufspüren des globalen Maximums fit(y*) im Produktsegment 2 führt. Wie im vorstehenden Abschnitt ausgeführt, ist im Rahmen der Initialisierung eine binäre Codierung und Decodierung der evolutionären Strategien vorzunehmen. Dabei werden in einem GA typischerweise die Eigenschaften jedes Individuums durch eine binäre Zeichenfolge als Chromosom dargestellt. In unserem Fall umfasst das Chromosom sechs Gene bzw. der Bit-String sechs Stellen, z.B. Chromosom = (0 0 1 0 1 0). Jedes Chromosom enthält damit als codierte Information einen reellen Zahlenwert für das kritische Produktmerkmal y. Unter Anwendung von Gleichung (4.17) kann diese binäre Zeichenfolge entschlüsselt werden. Die reelle Zahl, die durch obiges Chromosom codiert wird, beträgt z = 10. Im Weiteren sammeln wir „Chromosomen“ einer ganzen Population in einem Vektor POP. Im übertragenen Sinn handelt es sich dabei um n verschiedene Kugelschrei67
Die zwei Nullstellen sind im Vorfeld analytisch mit dem Newton´schen Näherungsverfahren berechnet worden (vgl. Abschnitt 4.2.1).
224
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
ber mit unterschiedlicher Länge. Mit einem Unterprogramm lässt sich die Decodierung für alle Individuen gleichzeitig durchführen. Je größer die Länge (BITS) eines Chromosoms ist, um so größer ist die Zahl (zmax), die damit maximal codierbar ist. Für 6 Bits, wie im Beispiel gegeben, beträgt zmax = 63. Fitness fit(y) 3.857 ILW\
4
ILW\ 3
fit( y )
2
1
0
0 0
2
Quelle: Eigene Darstellung
4
6
8
\
10
12
y
14 \
16
18 20 CTQ
y
20
Abb. 4-17: Fitnessfunktion fit(y) mit zwei lokalen Maxima
Um sicherzustellen, dass bestimmte reale Zahlenwerte nicht überschritten werden, müssen die Werte bei der Decodierung normalisiert werden. Im vorliegenden Fall ist es sinnvoll die Länge der Kugelschreiber auf ymin = 7,49 [cm] nach unten und ymax = 14,76 [cm] nach oben zu beschränken, da nur in diesem Bereich positive Fitness- respektive Nutzenwerte existieren. Der GA sucht dann in dem vorgegebenen Bereich nach möglichen Lösungen. Durch Division von (ymax – ymin) durch zmax und Verschiebung um ymin ergibt sich entsprechend Gleichung (4.18) für das ursprüngliche Chromosom ein Wert, der im Intervall [7,49; 14,76] liegt. Um eine Simulation beginnen zu können, ist im Rahmen der Initialisierungs-Phase eine Ausgangspopulation zu erzeugen. Dazu wird die gewünschte Anzahl von Individuen (POPSIZE) vorgegeben, für die dann eine zufällige Auswahl an Chromosomen der vorgegebenen Länge (BITS) generiert wird. Durch Decodierung und & Normalisierung ergibt sich daraus ein Vektor \ , der die Eigenschaften der Individuen der Ausgangspopulation erfasst. Wird die Fitnessfunktion auf diesen Vektor angewendet, dann erhält man einen weiteren Vektor ILW , der die Fitness der einzelnen Individuen auflistet. In einer Populationsmatrix lässt sich jedem Chromosom zeilenweise der Eigenschafts- und Fitnesswert zuordnen (siehe Abb. 4-18).
4.3 Evolutionäre Algorithmen
225
6HOHNWLRQ5HNRPELQDWLRQXQG0XWDWLRQ
Bevor der Selektions-Operator gestartet wird, sind die Zeilen und damit die zugehörigen Individuen in der neu entstandenen Matrix zu sortieren, so dass das Individuum mit dem höchsten (niedrigsten) Fitnesswert in der ersten (letzten) Zeile erfasst ist. Der Selektionsoperator bestimmt, welche der Chromosomen an die nächste Generation weitergegeben werden dürfen. Dabei wird nach der rangbasierten Selektionsmethode vorgegangen (vgl. Abschnitt 4.3.3), welche das Darwin´sche Prinzip des „Survival of the Fittest“ abbildet. Die Individuen der Elterngeneration „sterben“ und werden durch „Kinder“ ersetzt. i
Chromosom
fiti(y)
0
1
1
0
1
0
0
0
1
1
1
0
9,102 2,923
1
0
1
0
1
1
12,449 3,269
0
1
0
0
0
0
POPInit =
y
10,487 2,176
9,333
2.82
1
1
1
1
0
1
0
0
1
1
1
0
14,526 1,344 9,102 2,923
1
0
1
0
1
1
12,449 3,269
0
0
1
1
0
0
8,871 2,963
0
1
0
0
0
1
9,448 2,754
0
1
1
1
1
0
10,948 2,141
Quelle: Eigene Darstellung
Abb. 4-18: Initialisierung und Evaluierung der Ausgangspopulation
Es dürfen sich jeweils die Individuen fortpflanzen, die sich vorher in einem „Paarungswettkampf“ behauptet haben. Dieser erfolgt in der Weise, dass zwei Individuen zufällig ausgewählt und deren Fitnesswerte miteinander verglichen werden. Der Gewinner, also das Individuum mit der höheren Fitness, darf sich dann fortpflanzen. Ein Unterprogramm liefert eine Matrix, in der die Positionsnummern der Gewinner dieses Wettkampfes als Paare zusammengefasst sind. Sie bilden die Eltern von jeweils zwei Kindern. Das Programm erlaubt, dass Individuen auch mehrfach als Gewinner ausgewählt und mit sich selbst „gepaart“ werden. Üblicherweise werden nicht alle Individuen in den Paarungswettkampf geschickt. So gibt der Parameter KEEP im o.g. Programm eine (gerade) Anzahl der Individuen mit der höchsten Fitness an, deren Chromosomen unverändert in die nächste Generation übernommen werden. Sie bilden sozusagen die Elite der Population (bei KEEP = 0 wird keine Elite gebildet) und werden als „Klone“ erhalten.
226
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
Damit noch bessere Individuen entstehen, kombiniert der Rekombinations- bzw. Kreuzungsoperator das genetische Material (Chromosomen) der Individuen mit hoher Fitness, die sich in dem oben beschriebenen rangbasierten Auswahlverfahren durchgesetzt haben. Mit der Wahrscheinlichkeit CROSSPROB68 findet ein Austausch der Bit-Zeichenfolgen an einer zufällig gewählten Stelle (Crossoverpoint) der Chromosomen eines Paares statt. Dieses 1-Point-Crossover-Verfahren wird im Rahmen des Kreuzungsoperators auf alle zur Fortpflanzung bestimmten Individuen angewendet und ebenfalls mit einem Unterprogramm realisiert: Mit dem Mutationsoperator ist es möglich, ganz neue Formen (Innovationen) von Individuen hervorzubringen, die bisher in der Population noch nicht auftraten. Dazu wird mit der Wahrscheinlichkeit MUTPROB jedes Bit in einem der erzeugten Kinder-Chromosomen invertiert. In Abb. 4-19 ist exemplarisch der Programmiercode für diesen Parameter aufgeführt. Die Zusammenfassung der neu erzeugten Kinder und der im Vorfeld ausgelesenen Elite-Individuen ergibt die nächste Generation der Population. Im Gegensatz zur Ausgangspopulation [⎯yI = 10,67; fit(⎯yI ) = 2,14 ] hat sich die durchschnittliche Fitness der ersten Kindergeneration nur unwesentlich erhöht [⎯yK = 10,37; fit(⎯yK ) = 2,21 ]. MUT1(POP, MUTPROB) :=
for i∈0..spalten(POP) – 1 for i∈0..zeilen(POP) – 1 POPj,i ← ⏐POPj,i – 1 ⏐ if rnd(1) ≤ MUTPROB POP
Quelle: Thiemer 2005
Abb. 4-19: Programmiercode für die Erzeugung von Mutationen (Beispiel)
Im Anfangsstadium des Algorithmus verfügt die Population über Individuen, deren Merkmalsausprägungen sich mehrheitlich zwischen den beiden Maximumstellen befinden. Die Effizienz des GA entscheidet nun darüber, wie schnell das suboptimale Niveau verlassen und das globale Maximum detektiert werden kann. Dazu ist eine maximale Anzahl von Iterationsschleifen vorzugeben (MAXITER), welche die neu zu schaffenden Generationen begrenzt. (UJHEQLVVHGHU'HVLJQRSWLPLHUXQJ
Das Hauptprogramm kann bei Thiemer (2005) nachvollzogen werden. Es ist in MathCad R8 programmiert und setzt sich aus mehreren Unterprogrammen zusammen. Für jede Generation werden die durchschnittliche Zielgröße, also im 68
I.d.R. beträgt CROSSPROB = 1, d.h. die Kreuzung findet bei allen Paaren mit 100% Wahrscheinlichkeit statt. Die Vermischung des genetischen Materials erfolgt ebenfalls mit einem Unterprogramm, in dem für jedes Paar die Bits auf der rechten Seite des Crossover-Position ausgetauscht werden, so dass zwei neue Individuen entstehen.
4.3 Evolutionäre Algorithmen
227
Beispiel die durchschnittliche Länge⎯y des Kugelschreibers, sowie der zugehörige Fitnesswert ILW ( \ 7LPH ) berechnet. Für die Ausführung des GA sind insgesamt sechs Parameter zu spezifizieren: POPSIZE, BITS, KEEP, CROSSPROB, MUTPROB und MAXITER, die bei der projektbezogenen Umsetzung des Algorithmus in Unterkapitel 5.2 unmittelbar Berücksichtigung finden. Für die Parameterwerte 100, 10, 6, 1, 0,01 und 10 ergibt sich der in Abb. 4-20 dargestellte Kurvenverlauf der Fitness ILW ( \ 7LPH ) über mehrere Generationen. Wie ersichtlich ist, hat der GA bereits nach vier Generationen (Iterationsschleifen) das globale Maximum aufgespürt. Aufgrund der S-R-M-Operatoren kann das Plateau zu Beginn relativ schnell überwunden werden; so tritt nach der ersten Kindergenerationen ein kontinuierlicher Anstieg der Fitnesswerte ein. Nach der Maximierung der Fitnessfunktion mithilfe des GA beträgt die optimale Länge des Kugelschreibers y* = 13,3 [cm]. Dies entspricht dem Chromosom* = (1 1 0 0 1 0), welches durch Invertierung der Decodierungsformel ermittelt werden kann. Für das Design des Kugelschreibers ergeben sich die folgenden konkreten Gestaltungsempfehlungen: Oberteil – lang, Unterteil – lang, Druckknopf – kurz, Schreibmine – kurz, Feder – lang und Distanzring – kurz. Fitness fit(y) ILW\ ILW\
Quelle: Eigene Darstellung
GenerationTime
Abb. 4-20: Entwicklung der durchschnittlichen Fitness über die Zeit
=ZLVFKHQID]LW Wie das Zahlenbeispiel verdeutlicht, stellen GAs eine interessante Alternative zu den klassischen Optimierungsverfahren dar (vgl. Unterkapitel 4.2). Anstelle der schrittweisen Verbesserung einer einzelnen Lösung tritt die systematische Optimierung der Fitness einer gesamten Population von Lösungskandidaten. Bei „richtiger“ Wahl des Suchraums ist die Wahrscheinlichkeit groß, das
228
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
globale Optimum einer gegebenen Ziel- bzw. Bewertungsfunktion zu finden. Die Weiterentwicklung der Lösungskandidaten in Richtung maximale Fitness erfolgt dabei S-kurvenförmig, wie sie im Rahmen des Technologie-/ Innovationsmanagements geläufig ist (vgl. Abschnitt 3.1.2). 'DPLWHUJLEWVLFKGLH0|JOLFKNHLWGLH (YROXWLRQWHFKQLVFKHUWHFKQRORJLVFKHU6\VWHPHQLFKWQXUDOVEHREDFKWEDUHV3Kl QRPHQ KLQ]XQHKPHQ VRQGHUQ VLH ÄLP /DERU³ DXI H[SHULPHQWHOOHU %DVLV JH]LHOW YRUDQ]XWUHLEHQXQGGHQ) (3UR]HVVLQVJHVDPW]XEHVFKOHXQLJHQ Für die Managementwissenschaften stellt sich vor diesem Hintergrund die Frage, ob und wie der (mathematische) Algorithmus, für die Lösung betrieblicher Problemstellungen, z.B. in F&E, nutzbar ist. Nach den Ausführungen zu den Forschungstypologien in Abschnitt 1.2.1 gilt: Die auf abstrakter Ebene gefundenen Algorithmen sind nicht ohne Weiteres auf die reale Ebene, d.h. in die Unternehmenspraxis, übertragbar. Es ist eine Spezifizierung bzw. Operationalisierung vorzunehmen, aus denen praxistaugliche (Management-)Konzepte hervorgehen. Zu diesem Zweck ist – nach allgemeiner Auffassung – ein effektives Schnittstellenmanagement aufzubauen, um die bidirektionale Kommunikation zwischen Theorie und Praxis zu fördern. Im vorliegenden Fall ist deshalb – entsprechend der +\SRWKHVH + – zu analysieren, inwieweit sich das GA-Prinzip durch die Verwendung von möglichst einfachen, bekannten und in der Praxis akzeptierten Methoden und Vorgehensmodellen, z.B. aus dem Qualitäts- und Innovationsmanagement (vgl. Unterkapitel 3.2), simulieren bzw. „nachstellen“ lässt.
5
Theorie-Praxis-Transformation als deduktive Vorgehensweise: Vom abstrakten zum konkreten Vorgehensmodell der Problemlösung in F&E-Projekten
Aus den beschriebenen Ansätzen zur Lösung schwieriger mathematischer Probleme (vgl. Unterkapitel 4.2 und 4.3) lassen sich im Ergebnis zwei konkrete Vorgehensmodelle für die Unternehmenspraxis ableiten. Der DMAIDV-Zyklus stellt eine Weiterentwicklung des bisherigen DFSS-Problemlösungszyklus dar (vgl. Unterkapitel 5.1). Die Aufnahme einer zusätzlichen Phase nach Analyse basiert auf den in Abschnitt 4.2.3 gewonnenen Erkenntnissen über Lokale Suchverfahren, die der Gruppe der klassischen Algorithmen zugeordnet werden können. Aus den evolutionären Algorithmen, wie sie in Abschnitt 4.3.3 beschrieben sind, wird im Weiteren der IESRM-Zyklus abgeleitet (vgl. Unterkapitel 5.2). Bei diesem handelt es sich um ein für die „Six Sigma Welt“ völlig neues Vorgehensmodell, dessen Anwendbarkeit erst noch überprüft werden muss. Die Ergebnisse aus zwei Praxisstudien legen jedoch nahe, dass der Zyklus den eingangs formulierten Erwartungen an die Effizienz und Effektivität der Lösungssuche gerecht wird.
5.1
Abgeleitetes Vorgehensmodell 1: DMAIDV-Zyklus als erweiterter DFSS-Problemlösungszyklus
In diesem Unterkapitel wird das aus den klassischen Algorithmen abgeleitete Vorgehensmodell operationalisiert. Es unterscheidet sich vom DMADV-Zyklus um die zusätzliche Phase Innovate. Das Vorgehen und die Methoden dieser Phase orientieren sich sehr stark an der Problemlösungstechnik TRIZ, die bereits seit längerem im Zusammenhang mit Six Sigma bzw. Design for Six Sigma diskutiert wird. Der Einsatz wesentlicher Methoden wird beispielhaft dargestellt. 5.1.1
Vorgehensmodell mit 5+1 Phasen
Wie in Abschnitt 3.3.2 beschrieben wurde, wird am Ende der Analyse-Phase das beste High Level-Design nach einem vorgegebenen Kriterienraster ausgewählt. Dieses wird in der sich anschließenden Design-Phase detailliert ausgearbeitet und dabei auf Komponenten- und Teileebene herunter gebrochen. Welches Produkt am Ende des Entwicklungsprozesses steht, ist maßgeblich davon abhängig, welches High Level-Design am Ende der Analyse-Phase favorisiert wird. Der Prozess läuft unweigerlich in die falsche Richtung, wenn man nicht auf das richtige Produkt setzt. In diesem Fall kann es dazu kommen, dass ein suboptimales Designkonzept perfektioniert wird. Die Analyse auf übergeordneter Ebene hat ebenso gezeigt, dass ein relativ hohes Ausgangsniveau bei der Erfüllung der CTQs nicht allein für den Produkterfolg entscheidend ist. Mindestens genauso wichtig ist ein relativ hohes Verbesserungspotenzial, das sich im Rahmen der Design-Phase durch eine systematische Vorge-
230
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
hensweise aktivieren lässt. Aus diesem Grund sollte mit der Ausarbeitung/ Detaillierung des Konzeptentwurfs nur dann fortgefahren werden, wenn das am Ende der Analyse-Phase realisierte Qualitätsniveau zuzüglich der möglichen Steigerung im Verlauf der Design-Phase maximal wird. Im Rahmen des Prozessschrittes „High Level-Design evaluieren“ ist analog zum DMAIC-Zyklus eine Quantifizierung der Möglichkeiten vorzusehen. Dadurch ist eine stärkere Ausrichtung am langfristig erreichbaren Qualitätsniveau/ CTQErfüllungsgrad gegeben, die dazu führt, dass neue, innovative Konzepte im Zuge der Evaluierung in der Analyse-Phase ein höheres Gewicht erlangen. Um ein innovatives Produktkonzept mit einem hohen (Weiter-)Entwicklungspotenzial zu erhalten, sind i.d.R. weiterführende, über die reine Analyse und Umsetzung von Kundenanforderungen hinausgehende Aktivitäten erforderlich. Wie in Abb. 5-1 zu sehen ist, werden diese in einer separaten Phase gebündelt. Im Ergebnis liegt ein erweiterter DFSS-Zyklus mit maximal sechs Phasen vor. Unmittelbares Vorbild für die Erweiterung um die (optionale) Phase Innovate sind die in Abschnitt 4.2.3 erläuterten Lokalen Suchverfahren. Sie erlauben es, über eine flexible Schrittweitensteuerung „Täler“ in der Zielfunktion zu überspringen. Die Innovate-Phase ist zu durchlaufen, wenn die in der Analyse-Phase erstellten Designkonzepte nicht zu den gewünschten Ergebnissen führen, wenn also die analysierten Kundenanforderungen nicht erfüllt und/ oder die vergleichbaren Wettbewerbsangebote nicht erreicht werden können. In diesem Fall ist der Einsatz von Kreativitätstechniken, z.B. Brainstorming, oder weiterführenden Erfindungsmethoden, z.B. TRIZ, naheliegend (vgl. Abschnitt 3.1.2). 5.1.2
Vorgehen und Methoden der Innovate-Phase
Im Unterschied zum „klassischen“ Six Sigma hat Design for Six Sigma zum Ziel, einen erkannten Bedarf durch eine möglichst neuartige Lösung mit einem hohen Kundennutzen zu befriedigen. Nach dem Kano-Modell kann nur bei einer überdurchschnittlichen Erfüllung von ausgewählten Kundenanforderungen eine Kundenbegeisterung hervorgerufen werden. Infolgedessen kommt es darauf an, möglichst innovative Lösungsvorschläge für das identifizierte Kundenproblem zu finden. Wie in Abschnitt 3.3.2 ausgeführt wurde, ist der Einsatz von Kreativitätsund Erfindungsmethoden insb. in der Analyse-Phase des DMADV-Zyklus vorgesehen. Im Hinblick auf ihr systematisches Vorgehen bei der Ideenfindung können die Methoden grundsätzlich in drei Gruppen eingeordnet werden: (a) Intuitive Methoden, z.B. Brainstorming/ -writing, 6-3-5-Methode, N/3-Methode und Delphi-Methode, die einfach anzuwenden sind und an verschiedenen Stellen des Entwicklungszyklus zum Einsatz kommen können (b) Systematische Methoden, z.B. Synektik, Bionik, Morphologischer Kasten, Paarweiser Vergleich und Nutzwertanalyse, die sich durch eine strukturierte(re), gleichzeitig auch formalisierte(re) Vorgehensweise auszeichnen
Abb. 5-1: Der erweiterte DMADV-Zyklus
• VOC-CTQ-Analyse
• QFD (1. HoQ)
• Benchmarking
• Gantt-Diagramm
Quelle: Eigene Darstellung
• Clusteranalyse etc.
• Lasten-/ Pflichtenheft
Methoden
Methoden
• Projektcharter
• Projektplan erstellen
• Kundenbedürfnisse sammeln und analysieren
• Kunden identifizieren, priorisieren und segmentieren
• Marktdaten auswerten
Vorgehen
• Problem/ Ziel definieren
Measure
Vorgehen
Define
• Prozess übergeben
Methoden • Design Scorecard • Regelkarten/ SPC
• Implementierung vorbereiten Methoden • QFD/ FMEA • DOE nach Shainin/ Taguchi
Methoden • TRIZ
• High Level Design evaluieren Methoden • Brainstroming/ -writing
• Zuverlässigkeit • Prozess-/ Maschinenfähigkeit
• Outputsimulation • Target Costing
• QFD/ FMEA
• Verfahrensanweisung
• Implementierung vorbereiten
• Detailliertes Design evaluieren
• ARIZ
• Designkonzepte bestimmen • High Level Design entwickeln
Vorgehen
Vorgehen
• Pilotierung durchführen
Verify Vorgehen
Design
• Detailliertes Design entwickeln
Innovate Vorgehen
Analyse
5.1 DMAIDV-Zyklus als erweiterter DFSS-Problemlösungszyklus 231
232
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
(c) Widerspruchsorientierte Methoden, z.B. TRIZ und WOIS, denen ein systematisches Problemlösungskonzept zugrunde liegt, welches darauf abzielt, Konflikte in Systemen, Produkten usw. zu finden und sie zu lösen. Allen genannten Methoden ist gemeinsam, dass sie darauf ausgerichtet sind, möglichst viel kreatives Ideenpotenzial bei den Akteuren freizusetzen. Während die erste Gruppe mehrheitlich durch subjektive, spontane und wenig systematische Aktivitäten gekennzeichnet ist, finden sich in der zweiten Gruppe systematische Methoden, die durch objektivierte, planmäßig durchlaufene und jederzeit wiederholbare Denk- und Handlungszyklen gekennzeichnet sind. Die Methoden der dritten Gruppe verlangen neben einer systematischen Arbeitsweise das Ableiten und Lösen von administrativen, technischen und/ oder physikalischen Widersprüchen.1 Gegenüber den Erfindungsmethoden/ -verfahren der ersten beiden Gruppen besitzen sie den Vorteil, den Entscheidungsfindungsprozess zu strukturieren und zu beschleunigen, die Wahrscheinlichkeit von fehlerhaften Entscheidungen, z.B. aufgrund von Subjektivität im Bewertungsprozess, zu verringern und die Lösungsqualität im Hinblick auf Innovations- und Wettbewerbsfähigkeit insgesamt deutlich zu erhöhen (vgl. Töpfer/ Günther 2007b, S. 154f.). Aufgrund umfangreicher Patentrecherchen kamen Altschuller et al. (1984) zu der Schlussfolgerung, dass Innovation kein Zufall ist. Vielmehr geht, so die Hypothese, jeder Idee und jeder Erfindung ein systematischer Prozess voran, der sich durch universelle Grundregeln erklären lässt. Durch die Kenntnis und Anwendung dieser Regeln ist es im Umkehrschluss möglich, gezielt Innovationen hervorzubringen. Die grundlegende Voraussetzung hierfür ist das Vorhandensein eines Widerspruchs, der durch die Anwendung von TRIZ aufgedeckt, verschärft und schließlich überwunden wird. Durch die Verbindung von Kreativität und Systematik mit Widerspruchsorientierung hilft TRIZ technisch-wissenschaftliche Aufgabenstellungen methodisch und systematisch zu entwickeln und ohne Kompromisse in „robuste“ Lösungen zu überführen (vgl. Günther 2004, S. 1).2 Die Anwendung von TRIZ basiert auf einer Vielzahl von Methoden und Instrumenten, die – vor allem im deutschsprachigen Raum – in die vier Gruppen „Systematik“, „Wissen“, „Analogie“ und „Vision“ eingeteilt werden (siehe Abb. 5-2). 1
2
Die Ausnutzung von Widersprüchen zum Auffinden von Innovationen wird bei Toyota – als einem Nicht-Six-Sigma-Unternehmen – in Form von „konstruktiver Eskalation“ praktiziert (vgl. Mandl 1999, S. 55). Die Mitarbeiter am Fließband werden hier seit Jahren ermutigt, bei Entdeckung eines Fehlers am Produkt das Band unmittelbar anzuhalten. Dadurch wird die Situation eskaliert und aus einem System, das eher träge auf Fehler reagiert, wird ein System mit kurzer Reaktionszeit. Aus regelungstechnischer Sicht wirkt das Anhalten des Bandes als Verstärker, mit dem eine von einem Einzelnen wahrgenommene Abweichung für das Unternehmen als Ganzes bedeutsam wird. Im Gegensatz zu anderen Kreativitätstechniken werden bei der Anwendung der TRIZMethodik neue Ideen abstrahiert, selektiert und spezifiziert. Dadurch wird die Qualität der Ergebnisse, d.h. die Generierung von Lösungsansätzen und ihre Realisierung, deutlich erhöht (vgl. Teufelsdorfer/ Conrad 1998, S. 9).
5.1 DMAIDV-Zyklus als erweiterter DFSS-Problemlösungszyklus
233
Diese vier Gruppen werden auch als die 4 TRIZ-Säulen bezeichnet, da sie die elementaren Eigenschaften kennzeichnen, die einen „guten“ Forscher und Entwickler auszeichnen. Auf die Beschreibung der einzelnen Methoden wird an dieser Stelle nicht näher eingegangen, da sie in der einschlägigen Literatur ausführlich behandelt werden (vgl. z.B. Orloff 2002; Herb et al. 2000).
TRIZ 1 Systematik
2 Analogie
Strukturierung von Problemen
Erkenntnisse aus anderen Bereichen
• • • • • • • • • • • •
Innovationscheckliste Ressourcencheckliste Problemformulierung Idealität Funktionen-/ ObjektModellierung Trimmen Operator MZK Zwerge-Modellierung Inverte Fehlererkennung 40 Innovationsprinzipien 4 Separationsprinzipien ARIZ 1956ff./ Meta-ARIZ
• Widerspruchsanalyse: - Administrativer Widerspruch („Problem“)
3
Wissen
Problemorientierte Prinzipien
4
Vision
Weiterentwicklung des Systems
• Effekte-Lexikon
• S-Kurve
• Internetrecherche
• Evolutionsgesetze
• Patentrecherchen
- Technischer Widerspruch („Konflikt“)
• Innovationsebenen
- Physikalischer Widerspruch („Widerspruch“) • Stoff-Feld-Modell mit 76 Standardlösungen
Antizipierende Fehlererkennung
Direkte Entwicklung
Innovative Problemlösung Basis: Herb et al. 2000, S. 56
Abb. 5-2: Konzeption und Inhalte der 4 TRIZ-Säulen
Die bekannteste Methode aus dem TRIZ-Toolset ist die auf Altschuller (1984) zurückgehende Widerspruchsanalyse.3 Ihr liegt die Erkenntnis zugrunde, dass sich alle möglichen technischen Anforderungen mithilfe von 39 (allgemeingültigen) Parametern beschreiben lassen. Gleichzeitig geht sie von der Annahme aus, dass alle denkbaren Widersprüche (max. 1.482) zwischen zwei technischen Anforderungen mit Hilfe von „nur“ 40 (allgemeingültigen) Innovations-Prinzipien gelöst werden können. Die 40 Prinzipien technischer Konfliktlösung zusammen mit den 39 Parametern technischer Systembeschreibung sind in der auf Altschuller (1984) zurückgehenden Widerspruchstabelle/ -matrix zusammengefasst.
3
Zur erfolgreichen Anwendung der Widerspruchsmatrix und den Innovationsprinzipien nach Altschuller gibt es mittlerweile auch kritische Stimmen. So weist z.B. Shub (2007, S. 20f.) darauf hin, dass die vorstehend genannten TRIZ-Werkzeuge nicht universell einsetzbar und zur Ideengenerierung nur bedingt geeignet sind. Zudem verkomplizieren sie nach Meinung des Autors den Innovationsprozess anstelle ihn zu vereinfachen.
234
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
Der TRIZ-Anwender wird zielgerichtet von seinem speziellen technischen Problem über die allgemeinen Parameter auf die geeigneten innovativen Prinzipien geleitet, die zu seiner Aufgabenstellung passen. Die Philosophie und Vorgehensweise von TRIZ ähnelt sehr stark der grundsätzlichen „Denkweise von Six Sigma“: In beiden Konzepten werden mit der Realitäts- und der Abstraktionsebene zwei Ebenen der Problemlösung unterschieden. Bei Six Sigma wird das reale Problem in ein statistisches transformiert und gelöst; bei TRIZ führt eine konkrete Problemstellung zu einer abstrakten Lösungssuche. Erst wenn eine zufriedenstellende Lösung auf der Abstraktionsebene gefunden worden ist, erfolgt die Rücktransformation in die Realitätsebene, d.h. die Umsetzung der abstrakten Lösung in ein reales Lösungskonzept (vgl. Töpfer/ Günther 2007b, S. 158). Als zentrale Kenn- bzw. Optimierungsgröße wird der Idealitätsgrad definiert, der sich – bezogen auf ein System – als Quotient aus der Summe „nützlicher“ Effekte (Nutzen) geteilt durch die Summe „schädlicher“ Effekte (Kosten) ergibt. Das Ziel besteht darin, den Idealitätsgrad entsprechend dem generellen Extremumprinzip durch Minimierung der Kosten und Maximierung des Nutzens zu optimieren. Anhand der Änderung des Idealitätsgrades durch eine Neuerung im System lässt sich der Innovationsgrad einer bestimmten Entwicklung/ Erfindung ableiten. Je größer die Änderung des Idealitätsgrades ist, desto höher ist also auch der Innovationsgrad einer neuen Lösung.4 Im Hinblick auf die Problemlösung mithilfe der Methoden der 4 TRIZ-Säulen unterscheidet man folgende drei Grade: (a) Innovative Problemlösung (Methoden aller vier Säulen), (b) Antizipierende Fehlererkennung (Methoden der Säulen „Systematik“, „Analogie“ und „Wissen“) und (c) Direkte Entwicklung (Methoden der Säule „Vision“). Die übergeordnete Zielsetzung von TRIZ läuft im Wesentlichen darauf hinaus, sich durch die Lösungssuche auf der Abstraktionsebene bestmöglich dem Leitbild bzw. der Vision des Idealitätsgrades anzunähern.5 Deshalb steht nach der Transformation des realen in das abstrakte Problem die rein rational-funktionelle Betrachtungsweise bei der Lösungssuche im Vordergrund. Das ideale funktionelle Modell bei einem Kugelschreiber lautet z.B.: „Die Tinte soll dickflüssig sein, damit sie nicht ausläuft; sie soll nicht dickflüssig sein, damit sie leicht durch das Arbeitsorgan fließen kann“ (vgl. Orloff 2002, S. 9f.). Unter Anwendung der Analogieverfahren in Abb. 5-2 lässt sich der Widerspruch beseitigen, der beim Errei4
5
Bei seinen Patentrecherchen stellte Altschuller u.a. fest, dass nur etwa 1% aller Erfindungen einen hohen Innovationsgrad aufweisen und damit als wirkliche Innovationen gelten. Hingegen handelt es sich bei ca. drei Viertel aller sogenannten Innovationen um „einfache“ Problemlösungen, die i.d.R. mit keinem besonderen Methoden- und Wissenshintergrund verbunden sind (vgl. Mazur 1995, S. 5f.). Neben dem Vorhandensein von Widersprüchen ist die Definition eines idealen Endresultats eine weitere wichtige Anforderung zur Anwendung von TRIZ. So ist bspw. die „beste“ Maschine nicht eine „schöne“ oder „starke“ Maschine, sondern eine auf das rein Funktionelle beschränkte, die „von selbst“ arbeitet und im besten Fall „gar nicht mehr da ist“ und trotzdem ihre Funktion erfüllt (vgl. Zobel 2004, S. 2ff.).
5.1 DMAIDV-Zyklus als erweiterter DFSS-Problemlösungszyklus
235
chen des idealen Resultats – Tinte tritt nur beim Schreiben aus – stört. Konkret hatten die Erfinder des Kugelschreibers (1938) die Idee vor Augen, ein Schreibgerät zu bauen, das wie eine Miniaturdruckmaschine funktioniert. Anstelle einer (miniaturisierten) Druckwalze, welche die Tinte gleichmäßig verteilt, setzten sie eine Kugel ein. Die sich drehende Kugel verwirklicht das Prinzip der ununterbrochenen Übertragung der Farbe von der Walze auf das Papier. Um „erfinderische Problemlösungen“ systematisch zu generieren, entwickelten Altschuller et al. Vorgehensmodelle, die in der einschlägigen Literatur unter der Bezeichnung ARIZ6 bekannt sind. Der erste „klassische“ Handlungsleitfaden (Algorithmus) stammt aus dem Jahr 1956; die darauf basierende Version ARIZ-68 umfasst die folgenden fünf Schritte (vgl. u.a. Zobel 2004, S. 3f.): (1) Strukturierte Problembeschreibung: Im ersten Schritt ist zu klären, welches Ziel erreicht bzw. welches Problem gelöst werden soll. Dazu ist das „ideale Endresultat“ zu definieren und – über einen Vergleich mit der aktuellen Situation – der konkrete Verbesserungsbedarf abzuleiten. Wird das Problem von vornherein als schwierig zu lösen eingestuft, ist über eine Umkehrung der Aufgabenstellung nachzudenken, da diese u.U. leichter zu bearbeiten ist als die Originalaufgabe, z.B. „Motor von Auto startet auf keinen Fall“ anstelle von „Motor startet bei jeder Witterungslage“. (2) Abstrahierte Problembeschreibung: In zweiten Schritt geht es darum, abstrakte Modellformulierungen, z.B. „Von Ort A nach Ort B kommen“, zu finden, da Fachtermini das Denken in Richtung konventioneller Lösungsansätze „kanalisieren“. Zu diesem Zweck ist z.B. mittels Patentrecherche zu eruieren, ob und wie ähnliche Aufgaben in der Fach- bzw. Patentliteratur gelöst worden sind. Aufgrund des Vergleichs des eigenen Problems mit bereits gelösten Problemen ist es i.d.R. möglich, die Aufgabe ohne gängige Fachtermini zu beschreiben und vergleichbare Patent-/ Problemlösungen zu finden. (3) Ideale Lösungsbeschreibung: Mit dem dritten Schritt wird das analytische Stadium des Problemlösungsprozesses erreicht. Ziel ist es, auf abstrakter Ebene eine ideale Lösung für das Problem zu beschreiben. Dabei sind die Erkenntnisse aus bisherigen Optimierungsversuchen zu berücksichtigen, wobei u.a. zu klären ist, warum bisherige Lösungsansätze versagten. Im Weiteren ist der Kernkonflikt herauszuarbeiten, welcher der wahrscheinliche Schlüssel zur Lösungsfindung ist. Das Standardvorgehen besteht darin, administrative in technische Widersprüche umzuwandeln und sie anschließend zu lösen. (4) Abstrahierte Lösungsfindung: Im vierten Schritt von ARIZ werden die den 4 TRIZ-Säulen zugeordneten Methoden/ Instrumente systematisch angewendet, um eine Lösung des Problems auf abstrakter Ebene herbeizuführen. Der Einsatz richtet sich dabei nach der Art des unter (3) beschriebenen Problems. Handelt es sich um einen technischen Widerspruch (z.B. Geschwindigkeit
6
Russ. Akronym für „Algoritm Reshenije Izobretatjelskich Zadacz“
236
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
hoch/ niedrig), dann kann versucht werden, die 40 innovativen Grundprinzipien auf das Problem anzuwenden. Liegt hingegen ein physikalischer Widerspruch vor (z.B. Gewicht hoch/ niedrig), dann ist über eine Variation des Arbeitsmediums, der Umgebung und/ oder der Verfahren nachzudenken.7 (5) Konkrete Lösungsbeschreibung: Die endgültige Lösung, die sich auf die konkrete Problemstellung bezieht, wird im fünften Schritt festgelegt. Durch die Rücküberführung der abstrakten Lösung in die reale Welt wird das synthetische Stadium des TRIZ-Algorithmus erreicht. Liegen mehrere Lösungsansätze vor, ist die „beste“ Lösung mit dem höchsten Zielerfüllungsgrad auszuwählen. Bei der Implementierung der Lösung ist zu prüfen, ob sich weitere Veränderungen empfehlen und/ oder ob das grundlegend veränderte System/ Objekt u.U. ganz neue Anwendungsmöglichkeiten beinhaltet. Generell bietet sich die Anwendung von TRIZ in DFSS-Projekten an, wenn spezifische, auf der Basis bisheriger Denkmuster schwierig zu lösende Probleme bei der Konzepterstellung aufgedeckt worden sind. Als widerspruchsorientiertes Erfindungskonzept ist sein Einsatz insbesondere im Zusammenhang mit QFD gerechtfertigt, um Konflikte und Widersprüche, die in einer Dimension, z.B. zwischen unterschiedlichen Produktfunktionen (im „Dach“ des HoQ), und/ oder in mehreren Dimensionen, z.B. zwischen Kundenanforderungen und Produktfunktionen (in der „Matrix“ des HoQ) offengelegt worden sind, aufzulösen (vgl. Töpfer/ Günther 2007b, S. 151f.). Unabhängig davon, welcher Art das Entwicklungsprojekt ist und welchen Umfang es besitzt, führt das Vorgehen nach ARIZ mit einer hohen Wahrscheinlichkeit zu innovativen Lösungsansätzen. Der 5-phasige Innovations-Zyklus soll ebenfalls die Grundlage für die InnovatePhase des erweiterten DMADV-Zyklus bilden. Als Ausgangspunkt für den Durchlauf der Phase dienen die in der Analyse-Phase entworfenen und bewerteten Designkonzepte, welche die folgenden zwei Voraussetzungen erfüllen: •
Die Konzepte besitzen eine hohe Potenz zur Lösung des Kundenproblems.
•
Die Konzepte weisen mindestens einen signifikanten Widerspruch auf.
Während die erste Voraussetzung leicht nachvollziehbar ist, lautet die Begründung für die zweite, dass Designkonzepte mit einem hohen Neuigkeits-/ Innovationsgrad nur dann bewusst erzeugt werden können, wenn (gravierende) administrative, technische und/ oder physikalische Widersprüche vorliegen, die durch die Anwendung eines systematischen Vorgehensmodells (ARIZ) beseitigt werden können.8 Hier liegt der Hauptunterschied von TRIZ zu allen bisherigen Erfindungs7
8
Im Hinblick auf die Idealität der Lösung ist jeweils zu prüfen, ob es Umkehrmöglichkeiten gibt, die dazu führen, dass z.B. etwas Schädliches in etwas Nützliches oder etwas Gefährliches in etwas Harmloses verwandelt wird. Für den Fall, dass sich bei den ermittelten High Level-Designs keine Widersprüche entdecken lassen, sind entsprechende zu konstruieren. Nur so ist es nach der Theorie von Altschuller möglich, neue, innovative Produkt- bzw. Prozessdesigns zu finden.
5.1 DMAIDV-Zyklus als erweiterter DFSS-Problemlösungszyklus
237
methoden, deren Fokus vordergründig auf Kreativität und Intuition liegt. Nachteile von TRIZ ergeben sich zum einen aus dem umfangreichen Werkzeugkasten, dessen Beherrschung umfangreiche Schulungen mit vielen praktischen Beispielen erfordert. Zum anderen werden für die Anwendung von TRIZ kreative Mitarbeiter mit einem hohen Abstraktionsvermögen benötigt.
5.2
Abgeleitetes Vorgehensmodell 2: IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen
Analog zum vorangegangenen Unterkapitel wird das aus den Evolutionären Algorithmen abgeleitete Vorgehensmodell operationalisiert. Konzeption und Inhalte unterscheiden sich grundlegend vom DMADV-Zyklus. Allein der Fünf-PhasenAnsatz mit phasenspezifischem Methodeneinsatz wird beibehalten. Die Einordnung in das DFSS-Rahmenkonzept bleibt an dieser Stelle offen. Im Vordergrund steht die Entwicklung eines stringenten Verbesserungszyklus auf der Grundlage von Genetischen Algorithmen, wie sie zur Lösung von komplexen Optimierungsaufgaben eingesetzt werden (vgl. Abschnitt 4.3.3). Während es sich beim DMAIDV-Zyklus um eine eher inkrementale Weiterentwicklung des in der Praxis weit verbreiteten DMADV-Zyklus handelt, stellt der im folgenden Abschnitt abgeleitete IESRM-Zyklus ein völlig neues DFSS-Vorgehensmodell dar. 5.2.1
Vorgehensmodell mit 5 Phasen
Entsprechend den bekannten, primär technisch orientierten Qualitätsregelkreisen DMAIC und DMADV wird der IESRM-Zyklus nach dem Vorbild biologischer Evolutionsprozesse konzipiert. Ziel ist es, den abstrakten GA-Basisalgorithmus, wie er in Abb. 4–10 visualisiert worden ist, für betriebliche Verbesserungszwecke zu operationalisieren und eine konkrete Prozess- und Methodenbeschreibung für den vorstehend genannten Problemlösungszyklus zu geben. Das Akronym IESRM steht für die fünf wesentlichen Phasen, die bei der Bearbeitung von Optimierungsaufgaben nach evolutionärem Muster zu durchlaufen sind: Initialisierung, Evaluierung, Selektion, Rekombination und Mutation, wobei die drei letztgenannten Phasen zu einem Operator9 zusammengefasst werden können. Der IESRM-Zyklus lässt sich analog zum PDCA-Zyklus in Form eines Rades, welches einer schiefen Ebene hinauf gerollt wird, metaphorisch darstellen. Die schiefe Ebene in Abb. 5-3 wird in der Horizontalen durch die Dimension „Zeit“ und in der Vertikalen durch die Dimension „Verbesserung“ determiniert. Das aufwärts rollende Rad symbolisiert die kontinuierliche Verbesserung eines Objektes (z.B. Produkt, Dienstleistung oder Prozess) über die Zeit, indem die
9
Der S-R-M-Operator kennzeichnet die eigentliche Verbesserungsschleife, die aus einer nicht zufriedenstellenden Bewertung der vorhandenen Lösungsansätze in der Evaluierungs-Phase in Gang gesetzt wird (vgl. Abschnitt 4.3.3).
238
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
Evaluierungs-Phase sowie die drei Phasen des S-R-M-Operators iterativ durchlaufen werden. Die Initialisierungs-Phase ist zugleich Start- und Endpunkt der Verbesserungsaktivitäten. Sie lässt sich – bildlich gesprochen – mit einem Bremskeil vergleichen, der das Zurückrollen des ESRM-Rades am Hang verhindert. In Anlehnung an das Anwendungsbeispiel zum Design eines nutzenmaximalen Kugelschreibers in Abschnitt 4.3.4 sind im Rahmen der Prozessbeschreibung die folgenden sieben Parameter respektive Variablen zu operationalisieren: POPSIZE, BITS, FIT(Y), KEEP, CROSSPROB, MUTPROB und MAXITER. Rekombination
Selektion
Evaluierung Initialisierung
Quelle: Eigene Darstellung
Verbesserung
Mutation
Zeit
Abb. 5-3: Kontinuierliche Verbesserung mit IESRM-Zyklus
Im Gegensatz zu anderen Verfahren der Produktentwicklung, z.B. Conjoint-Analyse, beinhaltet der IESRM-Zyklus ein definiertes Schema zur (Re-)Kombination der Merkmale, um funktionsfähige Produkte mit einem hohen Nutzen für den Kunden zu generieren. Nach evolutionstheoretischem Ansatz handelt es sich bei den Produkten um Lebewesen, die nach einer Maximierung der individuellen Fitness streben. Je höher die Fitness ist, desto größer ist die Wahrscheinlichkeit, dass sie von den potenziellen Kunden gekauft werden. Um Produkte mit einer hohen Fitness zu erhalten, werden sie – genau wie in der Natur – „gezüchtet“. Dazu sind n Lösungsvarianten in einer Population zusammenzufassen und in einen evolutionären Entwicklungsprozess einzubringen.
5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen
239
Das Primärziel des Prozesses, der im Folgenden im Detail beschrieben wird, besteht darin, die durchschnittliche Fitness der Population zu maximieren.10 Initialisierungs-Phase Die Initialisierungs-Phase stellt den Ausgangspunkt für die Durchführung des Entwicklungsprojektes dar. Die Inhalte decken sich im großen und ganzen mit denen der Define-Phase des DMADV-Zyklus. Zu Beginn des Verbesserungsprojektes ist ein Projektauftrag bzw. eine Projektcharter zu definieren, in der u.a. der Business Case, also der Problemhintergrund, die Projektziele und der voraussichtlich erreichbare Projektnutzen (Net Benefit) spezifiziert werden. Weiterhin sind Angaben zum Projektumfang/ -rahmen, der Rollenverteilung/ Verantwortlichkeit sowie der anvisierten Projektlaufzeit zu machen. Nach Erstellung der Projektcharter sind die Zielgrößen des Projektes in Form von CTQs zu spezifizieren. Als unterstützende Methoden kommen hier die VOC-CTQ-Analyse aus dem DMAICZyklus und/ oder das 1. House of Quality (HoQ) aus dem DMADV-Zyklus zum Einsatz. Für die Messung der CTQs sind u.U. technische Messsysteme erforderlich, die im Vorfeld einer Messsystemanalyse (Gage R&R) zu unterziehen sind. Dadurch lässt sich die Wiederholbarkeit (Repeatability) und Reproduzierbarkeit (Reproducibility) der Messungen sicherstellen und ggf. verbessern. Im Unterschied zu den klassischen Six Sigma-Verbesserungszyklen kommen beim IESRM-Zyklus bereits in der Initialisierungs-Phase Kreativitätstechniken zum Einsatz, z.B. Brainstorming/ -writing und Morphologischer Kasten. Ziel ist es, bereits zu Beginn eine möglichst große Anzahl unterschiedlicher Problemlösungen „ins Rennen zu schicken“, um die Chance, die ideale Lösung zu finden, zu maximieren.11 Im übertragenen Sinn bedeutet dies, dass die Lösungskandidaten in der Ausgangspopulation relativ inhomogen zueinander sein sollten, damit die Problemlösungsfähigkeit der Population insgesamt steigt. Im Gegensatz zum DMAIC-/ DMADV-Zyklus geht es weniger darum, eine bestimmte Lösungsalter-native zu finden, welche die geforderten CTQs optimal erfüllt. Vielmehr soll die Population als Ganzes in Richtung Optimum verbessert werden. Zu diesem Zweck werden die individuellen Fitnesswerte aggregiert. Das Primärziel der Initialisierungs-Phase besteht vor diesem Hintergrund darin, möglichst viele Lösungsalternativen zu generieren, die im definierten Bit-String abbildbar sind. Ausgehend von der GA-Programmierung sind in der Initialisierungs-Phase zum einen die Populationsgröße (POPSIZE), also die Anzahl potenzieller Lösungen
10
11
Die Zielstellung ist anders gelagert als bspw. bei populationsökologischen Erklärungsansätzen im Rahmen der Organisations- und Managementwissenschaften. Hier geht es primär um die Beantwortung der Frage, warum bestimmte Unternehmen bzw. Unternehmenstypen überleben und andere nicht (vgl. Abschnitt 4.3.2). Dieser Ansatz deckt sich mit der Aussage des Fisher-Fundamentaltheorems der natürlichen Selektion, nach der die Verbesserung der durchschnittlichen Fitness einer Population proportional zur Varianz der Fitness innerhalb der Population ist.
240
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
für das definierte Kundenproblem, sowie zum anderen die Chromosomengröße (BITS) festzulegen, durch welche die reale Problemlösung in codierter Form erfasst wird. Während die Chromosomengröße bestimmt, wie viele unterschiedliche Lösungsvarianten maximal codierbar sind, ist die Populationsgröße ein Indikator dafür, mit wie vielen Lösungskandidaten der definierte Suchraum pro Runde parallel abgesucht wird. Für beide Parameter gilt: Je größer, desto besser. Der Suchraum (SOLUTION) ergibt sich aus der Anzahl unabhängiger Merkmale, welche bei der Optimierung Berücksichtigung finden, sowie der Größe ihrer Definitionsbereiche. Als Hilfsmittel zur Definition/ Abgrenzung des Suchraums12 eignen sich der Morphologische Kasten und das Ishikawa-Diagramm. Bei letzterem werden die (vermuteten) Ursachen-Wirkungsbeziehungen zwischen definiertem CTQ und relevanten Einflussgrößen in Form einer Fischgräte visualisiert. Für eine effektive und effiziente Lösungsfindung sollten Suchraum-, Populationsund Chromosomengröße in einem ausgewogenen Verhältnis stehen – sie bilden das „magische Dreieck“ der evolutionären Produktentwicklung (siehe Abb. 5-4). Große Suchräume ziehen i.d.R. große Populationen und lange Chromosomen nach sich, wobei der erforderliche F&E-Aufwand überproportional steigt, c.p. Suchraumgröße SOLUTION
F&EAufwand
Populationsgröße POPSIZE
Chromosomengröße BITS
Quelle: Eigene Darstellung
Abb. 5-4: Das „magische Dreieck“ der evolutionären Produktentwicklung
Die (De-)Codierung der Lösungen ist ein essentieller Bestandteil von GAs. Sie wird deshalb beim Layout des IESRM-Zyklus explizit berücksichtigt. Verfolgt man im Rahmen der Produktentwicklung reine Evolutionsstrategien (ES), dann kann auf die Codierfunktion prinzipiell verzichtet werden (vgl. Abschnitt 4.3.1). 12
Die Definition des Such-/ Lösungsraums wurde im Zusammenhang mit der beispielhaften Beschreibung der Funktionsweise von GAs in Abschnitt 4.3.4 nicht weiter thematisiert. Bei der Lösung praktischer Probleme stellt sie jedoch eine wesentliche Aufgabe zu Beginn des F&E-Projektes dar.
5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen
241
In diesem Fall findet die Evolution ausschließlich auf der Phänotypebene statt; die n unabhängigen Merkmale werden auf direktem Wege rekombiniert und mutiert. Genau wie bei DOE steigt aufgrund der Kombinatorik die Anzahl der möglichen Lösungen mit der Anzahl unabhängiger Merkmale exponentiell. Dadurch werden bereits in der Initialisierungs-Phase sowohl die Genauigkeit (Effektivität) als auch die Schnelligkeit (Effizienz) des Suchprozesses determiniert. Zwischen den genannten Größen besteht ein Trade-off, der im Zusammenhang mit dem Anwendungsbeispiel in Abschnitt 5.3.1 genauer analysiert wird. Wie fein/ grob der Suchraum nach der optimalen Lösung abgesucht wird, lässt sich an der Anzahl abgeleiteter Merkmale bzw. Einflussgrößen und zugehöriger Ausprägungen festmachen. Je differenzierter die Abstufung in den einzelnen Merkmalsausprägungen gewählt wird, desto mehr Stellen umfasst der Bit-String und desto feiner wird der Suchraum nach dem globalen Optimum abgesucht. Die Frage, wie schnell/ langsam bei der Lösungssuche vorgegangen werden kann, ist – neben der Effizienz der sich anschließenden Projektphasen – abhängig vom Pool der bestehenden Problemlösungen in der Ausgangssituation. Das Aufspüren des Optimums wird beschleunigt, wenn – wie oben ausgeführt – die Lösungen in der Ausgangspopulation möglichst heterogen sind, d.h. es existieren viele verschiedene Produktlösungen, die auf das gegebene Kundenproblem „passen“. Evaluierungs-Phase In dieser Phase ist der Bewertungsalgorithmus zu spezifizieren, auf dessen Basis die Lösungskandidaten jeweils vor bzw. nach einem Durchlauf der Phasen Selektion, Rekombination und Mutation (S-R-M-Operator) evaluiert werden. Nach den Ausführungen in Abschnitt 4.3.3 ist die Fitness13 der in der Population befindlichen Lösungen zu ermitteln. Um eine möglichst objektive Bewertung der Problemlösung aus Kundensicht zu erreichen, wird empfohlen, die Fitness anhand des realisierten Kundennutzens zu bestimmen. Es ist davon auszugehen, dass zu Projektbeginn die Erfüllung der Kundenanforderungen und damit der Nutzen- bzw. Fitnesswert der Lösungen im Durchschnitt relativ gering ist. Er steigt im Verlauf der Projektbearbeitung kontinuierlich an. Um die Weiterentwicklung in Richtung Optimum/ Idealität messbar zu machen, wird das erreichte Fitnessniveau nach jedem Durchlauf des S-R-M-Operators evaluiert. Dabei ist im Vorfeld, möglichst
13
Das Fitness-Konzept ist in der biologischen Evolutionstheorie von herausragender Bedeutung. Bei der Bewertung von ökonomisch-technischen Sachverhalten spielt es eine eher untergeordnete Rolle. In der englischsprachigen Literatur wurde der Begriff des „Strategic Fit“ geprägt; er steht für die Güte des Zusammenhangs zwischen Umwelt, Struktur und Strategie eines Unternehmens. Die Vorstellung einer „guten Passung“ (Fit) zwischen den drei genannten Größen entspricht der pragmatischen Ausrichtung und Zielstellung des situativen Ansatzes. Ein hoher Fit ist demnach die Voraussetzung für eine hohe Effizienz und Effektivität der Organisation (vgl. Bea/ Haas 2005, S. 378f.). Daraus lässt sich der Begriff der „Fitness“ ableiten, welcher – im übertragenen Sinn – die Höhe des erzielten System-Umwelt- bzw. Intra-System-Fit determiniert.
242
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
bereits in der Initialisierungs-Phase, eine genaue Spezifikation der Zielgröße(n) vorzunehmen, um die Objektivität der Messungen zu gewährleisten. Im Zuge der Projektdurchführung stellt sich immer wieder die Frage, wie gut einzelne Lösungen die Zielvorgaben des Unternehmens und/ oder die Erwartungen der Kunden erfüllen. Der Operational Fit ist ein Maß für die Annäherung der gefundenen Lösung(en) an die ideale Lösung, die in den Vorstellungen der Kunden/ des Unternehmens existiert. Wie bereits oben erwähnt, soll hier „Fitness“ in direktem Zusammenhang mit „Nutzen“, den ein Kunde aus dem Konsum eines Produktes/ einer Dienstleistung zieht, gesehen werden. Während die Fitness eines Individuums aus der „situationsgerechten Ausprägung“ gleich mehrerer (organischer) Merkmale resultiert, ergibt sich der Nutzen eines Konsumenten aus der „problemadäquaten Kombination“ von Merkmalen/ Merkmalsausprägungen, die sich zu Nutzenbündeln zusammenfassen lassen. Der Wert, den eine Problemlösung aus Sicht des Kunden besitzt, entspricht folglich dem Gesamtnutzen, der aus der Aggregation der Teilnutzenwerte resultiert. Letztere lassen sich sowohl progressiv (direkt) über ein metrisches Bewertungsverfahren als auch retrograd (indirekt) über ein ordinales Rangordnungsverfahren bestimmen. Nur in Ausnahmefällen wird die optimale Zielerreichung durch die zur Auswahl stehenden Handlungsalternativen erreicht. Häufig tritt der Fall auf, dass gleich mehrere Alternativen zu zulässigen, optimumnahen Ergebnissen führen, jedoch mit unterschiedlicher Ergebnishöhe, unterschiedlichem Eintrittszeitpunkt und/ oder unterschiedlicher Sicherheit. Der Entscheidungsträger prüft dabei die relative Vorteilhaftigkeit der Alternativen vor dem Hintergrund persönlicher Höhen-, Zeitund Sicherheitspräferenzen. Aus diesem Grund sind in der Praxis i.d.R. mehrere Nutzenbewertungen erforderlich, die schließlich zu einer einheitlichen Nutzenfunktion u(y) zusammengeführt werden. Die Entscheidungsregel, die vordergründig auf die Nutzenfunktion von Individuen abstellt, ist die Bernoulli-Regel (vgl. Wiese 2002, S. 14f.). Sie besagt, dass diejenige Handlungsalternative auszuwählen ist, die den höchsten Zielerreichungsgrad aufweist. In seiner allgemeinen Form fordert es die Maximierung des Erwartungswertes für die Zielerreichung. Dazu ist die Ergebnismatrix in eine Nutzenmatrix zu überführen, wobei jedem einzelnen Ergebnis yij ein Nutzen u(yij) zugeordnet wird. Im Ergebnis wird beim o.g. Prinzip über den Erwartungswert des Nutzens entschieden. Das Risikoverhalten des Entscheidungsträgers, welches von risikoavers über risikoneutral bis zu risikofreudig reicht, wird dabei implizit über den Verlauf der Nutzenfunktion berücksichtigt.14 Zur Ermittlung des Nutzwertes
14
Es kann gezeigt werden, dass ein Entscheidungsträger (z.B. Manager oder Kunde) genau dann risikoavers ist, wenn seine Nutzenfunktion konkav verläuft, wenn also ihr Anstieg mit zunehmender Merkmalsausprägung abnimmt. Demgegenüber zeichnet sich ein risikofreudiger Akteur dadurch aus, dass er jeweils die Alternative mit dem vermutlich höchsten Zielereichungsgrad wählt; bei ihm verläuft die Nutzenfunktion konvex.
5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen
243
gibt es einschlägige Verfahren, z.B. Nutzwertanalyse, Platzziffer-Verfahren und Paarweiser Vergleich; diese werden in Abschnitt 5.2.2 kurz vorgestellt. Außerdem wird auf die Fitness-Transformation eingegangen, die – analog zur Nutzenmatrix – erforderlich ist, um die ermittelten Merkmalswerte zu normieren. Das Konzept der Maximierung des individuellen Nutzens sowie das Konzept der Maximierung der individuellen Fitness basieren auf den gleichen mathematischstatistischen Prinzipien. Sie gehen auf den Mathematiker und Physiker DANIEL BERNOULLI (1738) zurück. Um Optimierungsprobleme bei unsicherem bzw. ungewissem Entscheidungsumfeld zu lösen, forderte er die Maximierung des geometrischen anstelle des arithmetischen Mittels. Ein solches Umfeld liegt sowohl in der Natur als auch in Unternehmen in der Mehrzahl der Fälle vor. Nach Stearns (2000, S. 224ff.) ist das geometrische dem arithmetischen Mittel bei Entscheidungen unter Risiko bzw. Ungewissheit jeweils vorzuziehen, da es neben dem Niveau auch die Streuung der Einzelwerte der Zielgröße berücksichtigt. Es kann mathematisch gezeigt werden, dass sich der geometrische Mittelwert einer Wahrscheinlichkeitsverteilung aus dem Erwartungswert μ und der Varianz σ2 ergibt (vgl. Young/ Trent 1969).15 In der Statistik wird die Schätzung des geometrischen Mittels häufig über das arithmetische Mittel als Schätzer für μ abzüglich eines Korrekturterms, der die Varianz σ2 berücksichtigt, vorgenommen. Danach ergibt sich die geometrische mittlere Fitness der Population wie folgt:
fit Pop = μ fit i −
σ 2fit i 2 ⋅ μ fiti
(5.1)
Aus dieser Beziehung leitet sich unmittelbar die Erkenntnis ab, dass bei der Maximierung des geometrischen Mittels das Risiko, falsche Entscheidungen zu treffen, minimiert wird. Gleichzeitig wird offensichtlich, dass zwischen Erwartungswert und Varianz eine Austauschbeziehung (Trade-off) besteht, die dazu führt, dass z.B. eine geringere erwartete Fitness der Population durch eine geringere Varianz der Fitnesswerte der einzelnen Lösungen kompensiert werden kann. Die Maximierung der geometrischen mittleren Fitness fit Pop setzt – entsprechend Gleichung (5.1) – die Maximierung von μ und die Minimierung von σ2 der ge& messenen Fitnesswerte fit i ( y ) innerhalb der Population voraus.
15
Ein Entscheidungsträger, bei dem die Nutzenfunktion geradlinig verläuft, ist risikoneutral (vgl. Sturm 2005, S. 56f.; Bültel/ Wiese 1996, S. 781ff.). μ wird – bei Entscheidungen unter Ungewissheit – über das ungewogene arithmetische Mittel aller Ursprungswerte geschätzt. σ2 wird – im gleichen Fall – über das ungewogene arithmetische Mittel der quadrierten Abstände aller Beobachtungswerte vom Mittelwert der Stichprobe geschätzt (vgl. Sturm 2005, S. 56f.).
244
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
S-R-M-Operator Die generelle Risikoeinstellung eines Individuums hat einen wesentlichen Einfluss darauf, welche Lösungen wie bewertet und infolgedessen selektiert werden. Um vermarktungsfähige Produkte zu erhalten, ist stets eine Bewertung aus Kundensicht vorzunehmen. Dabei sollten im Rahmen von Neuprodukt-/ Neuprozessentwicklungen nicht die Untersuchung von Kundenanforderungen/ -bedürfnissen im Vordergrund stehen, sondern die gezielte Analyse von Kundenproblemen. Wie in Abschnitt 3.1.1 ausgeführt wurde, ist es nur dadurch möglich, die latenten Gründe für den Kauf/ Nicht-Kauf eines Produktes offen zu legen (vgl. Shiba et al. 1993). Um ein möglichst umfassendes Bild über das bestehende und zu lösende Kundenproblem zu erhalten, sind in erster Linie die vier Dimensionen Kundenerwartung, Kundennutzen, Kundenvorteil und Kundenzufriedenheit zu messen und zu analysieren. Dies wird in der vorgelagerten Evaluierungs-Phase durchgeführt. Die differenzierte Messung und Analyse der Dimensionen bildet die Grundlage für eine effektive, d.h. zielgerichtete Selektion der bis dato gefundenen Lösungen. Die Wahrscheinlichkeit, mit der eine Lösung für die Reproduktion selektiert wird, ist davon abhängig, wie gut sie im Vergleich zu anderen Lösungen ein definiertes Problem – aus Kunden- und/ oder aus Unternehmenssicht – zu lösen vermag. Bezogen auf das „Weiterkommen“ eines einzelnen Lösungskandidaten i ist also & nicht die absolute, sondern seine relative Fitness fit irel ( y ) im Pool entscheidend. Sie wird allgemein nach folgender Gleichung ermittelt: & fit abs ( y ) & fit irel ( y ) = k i (5.2) abs & fit i ( y )
¦ i =1
Durch die Funktion KEEP wird sichergestellt, dass eine gefundene beste Lösung fit i*, g nicht durch Zufall in der nächsten Generation g verloren geht.16 Im Rahmen einer Elitismusoption ist zu überprüfen, ob der beste Lösungskandidat der aktuellen Generation (Kindergeneration) einen schlechteren Fitnesswert als der beste Lösungskandidat der vorhergehenden Generation (Elterngeneration) besitzt. Ist dies der Fall, wird die beste Lösung der Elterngeneration in die Kindergeneration sozusagen „hinübergerettet“. Infolgedessen ist der Verlauf der Fitnessfunktion des jeweils besten Lösungskandidaten über die Zeit monoton, d.h. die Bewertungspunktzahl der „Spitzenlösung“ ist nach jeder Iteration größer gleich der Bewertungspunktzahl der „Spitzenlösung“ in der Ausgangspopulation. Die Dauer des Suchvorganges, d.h. die Anzahl der Iterationen des S-R-M-Operators wird durch die Festlegung des Parameters MAXITER nach oben hin begrenzt.
16
Dies kann durchaus oft passieren, wenn die Population bei jedem Durchlauf des S-RM-Operators jeweils komplett ersetzt wird.
5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen
245
Die nach einem bestimmten Selektionsmechanismus ausgewählten Lösungen stellen die Intermediärpopulation dar. Aus dieser werden der Reihe nach je zwei Lösungen (Individuen) zur Rekombination zufällig ausgewählt. Unter der Voraussetzung, dass die ausgewählten Lösungskandidaten nicht identisch sind, wird durch Kreuzung der codierten Eigenschaftswerte eine Neustrukturierung der „genetischen Information“ und infolgedessen der produktbezogenen Merkmale/ Merkmalsausprägungen erreicht. Die systematische Veränderung der codierten Eigenschaftswerte führt dazu, dass sich die Lösungsalternativen der Kindergeneration von denen der Elterngeneration z.T. signifikant unterscheiden. Wie schon an anderer Stelle ausgeführt, findet die „Durchmischung des Erbgutes“ vor allem zwischen den Lösungen statt, die eine relativ hohe Fitness besitzen und deshalb von der Selektion bevorzugt werden (vgl. auch Abschnitt 4.3.3). Die Populationsgröße bleibt infolge des Reproduktionsvorganges unverändert, da die in der Elterngeneration befindlichen Lösungen jeweils paarweise zu zwei Nachkommen rekombiniert werden. Dabei ist im Bit-String mind. eine Kreuzungsstelle zufällig auszuwählen, an der ein Austausch der codierten Eigenschaftswerte der zwei Produkt- bzw. Prozesslösungen erfolgt. Mit welcher Wahrscheinlichkeit der Austausch der Bit-Zeichenfolgen an der ausgewählten Stelle tatsächlich stattfindet, wird durch den Parameter CROSSPROB festgelegt. Ist die Crossing-over-Wahrscheinlichkeit hoch, dann werden durch den Rekombinationsmechanismus eine Reihe von neuen Lösungen erzeugt, welche die Merkmalsausprägungen von jeweils zwei Vorgängerlösungen in sich vereinigen. Dadurch kommt es zum einen zur Bewahrung (Retention) von Merkmalen, die sich im Wettbewerb als vorteilhaft erwiesen haben. Zum anderen lässt sich auf diese Weise feststellen, ob die Kombination von Merkmalen/ Merkmalsausprägungen einen Einfluss auf die Höhe der Fitness besitzt. Während die Reproduktion zu einer mehr oder weniger gewollten Variation der Eigenschaftswerte von Individuen innerhalb der Population führt, kommt es infolge der Mutation zu ungewollten Veränderungen im Bit-String einzelner Lösungen. Zur Nachahmung der biologischen Mutation wird jedes Bit eines erzeugten Nachkommen mit einer sehr geringen Wahrscheinlichkeit MUTPROB invertiert bzw. mit einem anderen vertauscht. Genau wie bei der Rekombination gilt: Vor allem lange Schemata sind gefährdet, durch die Änderung von nur einer Stelle in der Bit-Zeichenfolge zerstört zu werden.17 Trotz dieser Tatsache sind Mutationen von entscheidender Bedeutung für das Auffinden innovativer Problemlösungen. Durch
17
Mutationen sind die Tastschritte der Natur, um i.d.R. über kleine, selten über große Änderungen im Genotyp ganz neue Wege der Problemlösung zu finden. Fisher (1930, S. 38ff.) beschreibt in diesem Zusammenhang einen einfachen, aber sehr eleganten Weg, um das Problem formal-analytisch zu erfassen. Seine Argumentation basiert auf einem geometrischen Modell, mit dessen Hilfe sich die Bedingungen für Mutationen, die zu einer verbesserten Anpassung des Individuums führen, spezifizieren lassen.
246
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
sie lassen sich u.a. die Sprungstellen in der Entwicklung von Technologien erklären, z.B. Übergang von mechanischen auf elektronische Systeme. 5.2.2
Phasenbezogener Methodeneinsatz
Die Methoden und Instrumente, die für den Einsatz im Rahmen des IESRMZyklus infrage kommen, entstammen zum großen Teil aus der DFSS- sowie TRIZ-Toolbox. Ihre Inhalte und Konzeptionen sind weitläufig bekannt und bedürfen keiner detaillierten Darstellung. Die Ausführungen konzentrieren sich deshalb auf die wesentlichen Ziele/ Inhalte sowie den vernetzten Einsatz. In Abb. 5-5 ist das phasenspezifische Vorgehen des IESRM-Zyklus zusammen mit den vorzugsweise anzuwendenden Methoden aufgeführt. Sie werden im Folgenden kurz beschrieben und – soweit sie nicht standardmäßig im Six Sigma-Konzept verankert sind – am Beispiel „Kugelschreiber“ ausgeführt (vgl. Abschnitt 4.3.4). Methoden der Initialisierungs-Phase Im Hinblick auf die Vorgehensschritte und den Methodeneinsatz ist die erste Phase des IESRM-Zyklus am umfangreichsten. Der Zeit- und Ressourcenbedarf für die Initialisierung des Projektes sind – im Vergleich zu den restlichen vier Phasen des Problemlösungszyklus – relativ hoch. Die Methoden, die zu Projektstart zum Einsatz kommen, entstammen zum überwiegenden Teil aus der klassischen Toolbox des Qualitäts- und Innovationsmanagements (vgl. Unterkapitel 3.1). Besonderheiten ergeben sich lediglich hinsichtlich ihrer phasenspezifischen Kombination, die dem Grunde nach neu ist und deshalb hier erklärt wird: •
Projektcharter: Die Projektcharter, die als Methode in der InitialisierungsPhase an erster Stelle steht, dient zur Problem- und Zielspezifikation. Sie hat sich im Rahmen von (Design for) Six Sigma-Projekten als Planungs- und Kontrollinstrument bewährt. Aufbau und Inhalte wurden bereits im Zusammenhang mit dem DMAIC-/ DMADV-Zyklus in Unterkapitel 3.3 erläutert. Eine spezifische Anpassung für die Durchführung des IESRM-Zyklus ist insoweit nicht erforderlich. Unter dem Punkt Net Benefit, der für Six SigmaProjekte essentiell ist, sind vorzugsweise Angaben zu Target Costs bzw. Costs of Design zu machen (vgl. Simon/ Dahlhoff 1998).
•
VOC-CTQ-Analyse: Nachdem die Projektinhalte und -ziele für alle Beteiligten klar definiert sind, geht es im zweiten Schritt um die Spezifizierung der Zielgröße(n). Es sind Metriken zu entwickeln, anhand derer der Projekterfolg, insb. der Zielerreichungsgrad des F&E-Vorhabens, nachvollzogen werden können. Im Sinne von DFSS ist ein Projekt dann erfolgreich, wenn mit dem neu konzipierten Produkt/ Prozess alle zukünftigen wesentlichen Kundenanforderungen – unter Beachtung des Wirtschaftlichkeitsprinzips – erfüllt werden. Eine einfache Methode, um herauszufinden, was dem Kunden an einem Produkt/ einer Dienstleistung (besonders) wichtig ist, ist die VOC-CTQAnalyse (vgl. Abschnitt 3.3.1). Aus den definierten CTQs lassen sich – direkt oder indirekt – die kritischen Qualitätsmerkmale ableiten.
• Lösungen bewerten • Fitness-Wert berechnen für einzelne Lösung für ges. Population
• Zielgröße(n) festlegen
Abb. 5-5: Die fünf Phasen des IESRM-Zyklus • Nutzwertanalyse • Platzziffer-Verfahren • Paarweiser Vergleich • Fitness-Transformation • S-Kurvenverlauf
• VOC-CTQ-Analyse
• Gage R&R
• Ishikawa-Diagramm
• Brainstorming/ -writing
Quelle: Eigene Darstellung
• Codier-Tableau
• Morphologischer Kasten
Methoden
Methoden
• Projektcharter
• Lösungen codieren (Æ Æ Genotyp)
• Lösungen generieren
• Suchraum definieren
• Messsystem prüfen
Vorgehen
• Problem/ Ziel definieren
Evaluierung
Vorgehen
Initialisierung
• Lösungen zufällig variieren
• Neue Lösungen durch „Kreuzung der Gene“ erzeugen (Kindergeneration)
• Attribute Listing
• n-Point-Crossover • Uniform-Crossover
• Codier-Tableau
• Swapmutation
• 1-Point-Crossover
• Proportionale Selektion • Rangbasierte Selektion
Methoden • Flipmutation
Methoden
Methoden
• Lösungen decodieren (Æ Æ Phänotyp)
Vorgehen
Vorgehen
Mutation
• Lösungen für „Fortpflanzung“ auswählen/ selektieren (Elterngeneration)
Rekombination
Vorgehen
Selektion
Iteration
5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen 247
248
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
In der Vergangenheit sind zur genaueren Bestimmung von Kundenanforderungen/ -bedürfnissen und deren Wichtigkeit eine Reihe von mehrstufigen Verfahren und Tools entwickelt und in der Unternehmenspraxis – mit mehr oder weniger großem Erfolg – angewendet worden, z.B. Quality Function Deployment (QFD) und Conjoint Measurement (CM) (vgl. Abschnitt 3.3.2). Hauptansatzpunkt ist die Bewertung von Produktalternativen und deren einzelne Bestandteile mit dem Kunden und durch den Kunden. Auf diesem Weg können Produkte/ Dienstleistungen mit einem hohen Nutzen für den Kunden identifiziert und ggf. ausgebaut werden. Für die wirkungsvolle Anwendung des IESRM-Zyklus sind diese Verfahren aber nicht zwingend erforderlich, wie an den Beispielen in Abschnitt 5.3 zu sehen ist. •
Gage R&R: Die CTQs sind so zu formulieren, dass sie direkt messbar sind oder – zumindest indirekt – über Outputmessgrößen erfasst und quantifiziert werden können. Die Herleitung der Beziehungen zwischen CTQs und Outputmessgrößen erfolgt in praxi standardmäßig über eine Matrix-Darstellung (vgl. Abschnitt 3.3.1). Durch die Sicherstellung der Messbarkeit aller CTQs wird die Voraussetzung geschaffen, dass im weiteren PEP auf den Kunden als Bewertungsinstitution für die (neu) generierten Lösungen verzichtet werden kann. Die Phasen Evaluierung, Selektion, Rekombination und Mutation laufen fortan automatisiert, ohne explizite Beteiligung des Kunden ab. Der Kunde kommt erst wieder am Ende des F&E-Projektes bei der Überprüfung des endgültigen Designs ins „Spiel“. In der Zwischenzeit kann das Projektteam relativ autonom arbeiten und Lösungen entwickeln.18 Auch beim IESRM-Zyklus ist es wichtig, dass die Mess- und Kennzahlensysteme, die zur Quantifizierung der CTQs herangezogen werden, vorab einer Analyse/ Überprüfung unterzogen werden. Nur dadurch lässt sich sicherstellen, dass tatsächlich das gemessen wird, was vorgegeben wird zu messen. Die Konzeption und Inhalte der Gage R&R wurden bereits in Abschnitt 3.2.4 erläutert. Für die Anwendung der Gage R&R für stetige Daten sei auf das Beispiel in Abschnitt 5.3.1 verwiesen. Eine Gage R&R für diskrete Daten ist im Fall des Kugelschreibers z.B. für das CTQ „Angenehme Griffform“ durchzuführen. Hierbei handelt es sich um ein attributives Merkmal.
•
18
Ishikawa-Diagramm: Das Ishikawa- oder auch Fischgrät-Diagramm (1943) ist ein weiteres wichtiges Instrument aus dem Bereich des Qualitätsmanagements. Hier dient es zur systematischen Ermittlung sowie strukturierten Darstellung von Fehlereinflussfaktoren (vgl. Kamiske/ Brauer 2006, S. 242). Die definierte Wirkung, z.B. Fehlerfolge oder Zielgröße, bildet – bildlich gesprochen – den Fischkopf; die vermuteten Einflussgrößen den Fischrumpf. Ziel ist es, über das Fischgrät-Diagramm sämtliche Haupt- und Nebeneinflussgrößen
Vor diesem Hintergrund ist es empfehlenswert, zu Beginn eines DFSS-Projektes ausreichend Zeit zu verwenden, um die CTQs für ein neues Produkt/ eine neue Dienstleistung vollständig und fehlerfrei abzuleiten. Ansonsten gilt der Ausspruch: „Garbage in, garbage out“ (vgl. Töpfer/ Günther 2007b, S. 117ff.).
5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen
249
im Team zu sammeln und zu strukturieren. Als Strukturierungshilfe bietet sich die Unterteilung in 7 M an – Mensch, Maschine, Messung, Material, Methode, Mitwelt und Management an. Diese stehen als Oberbegriffe für die tatsächlichen Ursachen und werden an den Hauptgräten abgetragen. Als „Faustregel“ für die Tiefenanalyse zu den einzelnen M´s gilt: Frage 5-mal „Warum?“. Die tieferliegenden Einflussgrößen werden dann in hierarchischer Form an den Untergräten abgetragen (vgl. Abschnitt 5.3.1). Weiterhin ist es zweckmäßig, den Grad der Beeinflussbarkeit der einzelnen Einflussgrößen zu kennzeichnen (constant, noise, variable), denn nur die variablen Größen sind unmittelbar unternehmensintern zu gestalten. Die konstanten Größen sind praktisch nicht, zumindest nicht kurzfristig beeinflussbar; sie bleiben bei der Ableitung von (kurzfristigen) Verbesserungsmaßnahmen außen vor. Einflussgrößen, die mit „noise“ gekennzeichnet werden, sind nur schwer über die Zeit bestimmbar und damit auch steuerbar. Analog zum Hintergrundrauschen in der Fernmeldetechnik sind sie nur mit deutlich erhöhtem Analyseaufwand extrahierbar und als Einflussgrößen quantifizierbar. Prinzipiell geht die Zielstellung dahin, dass alle als wesentlich erkannten Ursachengrößen einer hohen Beeinflussbarkeit unterliegen, also „variable“ sind. Nachdem die Wichtigkeit und der Beeinflussungsgrad von möglichen Ursachengrößen durch die Akteure festgestellt worden sind, besteht das weitere Vorgehen im Rahmen von klassischen (Design for) Six Sigma-Projekten darin, die Stärke des Einflusses mit geeigneten statistischen Methoden zu überprüfen, sprich zu verifizieren. Es soll festgestellt werden, ob die vermuteten Ursachen-Wirkungsbeziehungen statistisch signifikant sind. Erst auf dieser Grundlage ist es – nach strenger Six Sigma-Philosophie – möglich, konkrete Verbesserungsmaßnahmen zu planen und umzusetzen. Im Gegensatz hierzu liegt die Bedeutung des Einsatzes des Ishikawa-Diagramms im Rahmen des IESRM-Zyklus auf einem anderen Punkt: Hier sollen alle Lösungsmerkmale identifiziert werden, die mit der definierten Zielgröße in einem ursächlichen Zusammenhang stehen. Dabei wird davon ausgegangen, dass die Merkmale, zumindest im Entwicklungsstadium, in bestimmten Grenzen, unabhängig voneinander variiert werden können. Aus der Gesamtzahl identifizierter Merkmale und der zugehörigen Anzahl relevanter Ausprägungen ergibt sich letztendlich die Größe des Suchraums. Darüber hinaus wird durch die Erstellung des Ishikawa-Diagramms die Voraussetzung für eine eindeutige (De-)Codierung der Lösungsvarianten geschaffen. Nach dem Eingrenzen des Suchraums mithilfe des Ishikawa-Diagramms sind Lösungen zu sammeln respektive zu generieren, die auf das Problem passen. Im Gegensatz zur klassischen DFSS-Vorgehensweise steht dieser Schritt relativ am Anfang des Problemlösungszyklus. Dabei stellt das Auffinden neuer und innovativer Lösungsansätze in erster Linie eine Herausforderung an die Kreativität und den Ideenreichtum des Projektteams dar. Als Menschentypus für die Umsetzung wird der homo creativus gesucht, der mit einer vorgefundenen Situation nie (vollständig) zufrieden ist, d.h. „er akzeptiert Beschränkungen, denen sein Vorhaben
250
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
ausgesetzt sind, nicht einfach als Nebenbedingungen, sondern versucht, sie zu verändern, um so für sich zu besseren Lösungen zu kommen“ (Cantner/ Hanusch 1997, S. 779).19 Zur Unterstützung kommen sowohl spontan-intuitive als auch systematisch-analytische Methoden zum Einsatz (vgl. Abschnitt 3.1.2). Im Folgenden soll kurz auf die drei wesentlichen Methoden Brainstorming/ writing, Morphologischer Kasten und Codier-Tableau eingegangen werden. Die zwei erstgenannten Methoden sind in der Unternehmenspraxis weit verbreitet und werden vor allem bei F&E-Vorhaben angewendet, die das Auffinden innovativer Produktlösungen zum Ziel haben. Die drittgenannte Methode ist spezifisch für die evolutionäre Produktentwicklung, basierend auf Genetischen Algorithmen. Im Rahmen des IESRM-Zyklus spielt sie eine zentrale Rolle; daher sind die Ausführungen zum Einsatz und effizienten Vorgehen relativ ausführlich. •
Brainstorming/ -writing: Beim Brainstorming20 handelt es sich um eine intuitive Methode der Ideensammlung. Durch eine „ungezwungene Atmosphäre“ soll die Kreativität der Beteiligten im Ideenfindungsprozess gefördert werden. Dabei liegt die Auffassung zugrunde, dass eine Gruppe prinzipiell zu mehr Kreativität fähig ist als eine einzelne Person. Denn durch die Verknüpfung der Ideenpotenziale mehrerer Mitarbeiter werden i.d.R. bessere Ideen/ Lösungen gefunden als bei isolierter Suche (vgl. Ophey 2005, S. 110ff.). Das Brainstorming-Team setzt sich typischerweise aus drei bis acht Personen zusammen, die aus verschiedenen Abteilungen/ Bereichen im Unternehmen kommen und über ein breit gestreutes Fachwissen verfügen. Im Gegensatz zum Brainstorming werden beim Brainwriting die Ideen nicht ausgesprochen und im Team diskutiert, sondern zunächst von jedem Teilnehmer separat aufgeschrieben. Die Ideensammlung erfolgt in „ruhiger“ Atmosphäre. Der Fokus dieser Kreativitätstechnik liegt auf der Verbesserung von Ideen, weniger auf Spontaneität. Weil keine Möglichkeit zur direkten Kritik besteht, wird die Gefahr konformen Verhaltens der Akteure weitgehend ausgeschaltet. Die 6-3-5-Methode als typische Anwendungsform des Brainwritings verlangt eine Gruppenstärke von sechs Personen.21 Jede Person erhält ein Formular und notiert auf diesem drei Ideen bzw. Vorschläge. Nach
19
20
21
Diese Sichtweise entspricht in weiten Zügen dem Bild des „dynamischen Unternehmers“ mit bahnbrechenden Innovationen, wie er von Schumpeter (1912) propagiert wird, und/ oder dem des „findigen Unternehmers/ Entrepreneurs“ mit kleinen Verbesserungen/ Innovationen, wie er sich bei Kirzner (1973) wiederfindet. Ihre Bezeichnung geht auf den „Erfinder“ ALEX OSBORN (1953), welcher den Satz prägte: „Using the brain to storm a problem“. Auf Osborn geht ebenfalls eine gleichnamige Checkliste zurück, die zur Erweiterung des betrachteten Umfeldes eines Problems und dessen Lösung(en) dient (vgl. Backerra et al. 2002, S. 62ff.). Im Juli 2006 wurde von IBM das größte Brainstorming aller Zeiten durchgeführt. 140.000 Menschen aus 75 Ländern nahmen an dem 72 Stunden dauernden „Kreativitätsmarathon“ per Internet teil. Es war das 8. Online-Brainstorming von IBM dieser Art seit 2001 (vgl. Seiwert et al. 2006, S. 77).
5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen
251
Ablauf von fünf Minuten werden die Formulare an den jeweils nächsten Teilnehmer in der Runde zur Verfeinerung weitergegeben. •
Morphologischer Kasten: Während die Kreativitätstechniken Brainstorming und Brainwriting überwiegend auf intuitiven Assoziationen basieren, beschreibt die morphologische Methode22 eine logisch-systematische Vorgehensweise. Ihre Zielsetzung ist es, alle möglichen Lösungen eines Problems durch systematische Abwandlung zu finden. Dazu wird ein gegebenes Problem so in seine Parameter und Einzelteile zerlegt, dass es alle möglichen Lösungen in geordneter Form enthält. Zur Darstellung benutzt man den sog. Morphologischen Kasten, eine Matrix, die sowohl unveränderliche Grundbestandteile als auch mögliche Varianten enthält. Der Kasten ermöglicht die mehrstufige Klassifikation von Aufgaben und Problemstellungen (vgl. Teufelsdorfer/ Conrad 1998, S. 19). Indem bereits bekannte Teillösungen neu zusammengesetzt und miteinander verknüpft werden, entstehen im Ergebnis z.T. ganz neue, innovative Gesamtlösungen. Zu Beginn muss das Untersuchungsobjekt im Hinblick auf seine Merkmale/ Merkmalsausprägungen formal beschrieben werden. Um keine Lösungsmöglichkeit vorzeitig auszuschließen, sollte dies so allgemein wie möglich erfolgen. Nachdem das Gesamtproblem in seine Grunddimensionen (Parameter) zerlegt und eine Zuordnung möglicher Varianten (Komponenten) vorgenommen worden ist, erfolgt im dritten Schritt die Analyse sämtlicher Teillösungen. Durch die systematische Kombination der vorgegebenen Komponenten ergibt sich eine Vielzahl von möglichen Handlungsalternativen. Von diesen kann im Anschluss – nach einem im Vorfeld definierten Entscheidungsraster – die beste ausgewählt werden. Im Verlauf der Erstellung eines Morphologischen Kastens stößt man unweigerlich auch auf (zunächst) unsinnig erscheinende Kombinationen. Diese dürfen jedoch nicht gleich verworfen werden, da sie u.U. den Anstoß zu einer neuen, innovativen Lösung geben. In Abb. 5-6 ist das Vorgehen der morphologischen Methode am Beispiel Kugelschreiber visualisiert.23 Wie ersichtlich ist, erfolgt die Zuordnung der Komponenten zu den Parametern tabellarisch. Sind alle möglichen Varianten erfasst, erhält man durch die Kombination von je einer Komponente pro Parameter über alle aufgeführten Parameter des Morphologischen Kastens genau eine Lösungsvariante. Bei der Zerlegung muss darauf geachtet werden, dass die Parameter als Bestimmungsgrößen des Problems voneinander unab-
22
23
Der Morphologische Kasten wurde im Jahr 1956 von dem Schweizer Astrophysiker FRITZ ZWICKY entwickelt (vgl. u.a. Schweitzer 1999, S. 27ff.). Er gehört zu den 7 Kreativitätswerkzeugen (K 7), welche in Ergänzung zu den 7 Qualitätswerkzeugen (Q 7) und den 7 Managementwerkzeugen (7 M) dazu dienen, kreative Prozesse anzustoßen und Innovationen zu fördern (vgl. insb. Backerra et al. 2002, S. 42ff.). Die an der Erstellung des Morphologischen Kastens beteiligten Personen sollten möglichst aus unterschiedlichen Fachbereichen kommen, um zum einen eine breite Abdeckung von Anwendungsgebieten zu erreichen und zum anderen das Lösungsfeld nicht zu sehr zu beschränken (vgl. Gelbmann et al. 2003, S. 32ff.).
252
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
hängig sind, weil andernfalls die Kombinationsmöglichkeiten eingeschränkt werden. Prinzipiell ist es wichtig, die Phase der Ideen-/ Lösungsfindung von den Phasen der Bewertung und Auswahl zu trennen. Ansonsten werden u.U. Lösungen mit hohem Innovationsgehalt bereits in einem frühen Projektstadium schlecht bewertet und infolgedessen ausgeschlossen.
Merkmal
Ausprägung
1
Mechanismus
2
Art der Mine
3
Gehäuseform
4
Gehäusematerial
5
Gehäusefarbe
6
Geh.-Oberfläche
7
Griffform
8
Griffmaterial
(Edel-)Metall
Kunststoff
9
Griffstück (I)
Austauschbar
Nicht austauschbar
10
Griffstück (II)
Glatt
Profiliert
11
Pastenfarbe
Schwarz
Blau
12
Mehrsystem
Marker
Druckbleistift
13
Clip-Federung
Selbstfedernd
Abgefedert
Quelle: Eigene Darstellung
Starr
Druck
Drehung
Minimalmine
Standardmine
Maximalmine
Rechteck
Dreieck
Oval
(Edel-)Metall
Kunststoff
Aluminium
Holz
Einfarbig
Bunt
Transparent
Graphik
Eloxiert
Verchromt
Beschichtet
Mattiert
Ergonomisch
Nicht ergonomisch Aluminium
Holz
Mehrfarbig
Einsystem
Kuli „blau“
Rund
Kuli „schwarz“
Abb. 5-6: Morphologischer Kasten am Beispiel Kugelschreiber
Je nach Komplexität des Entwicklungsvorhabens kann es notwendig sein, die aus der Ideenfindung hervorgegangene große Anzahl von Lösungskandidaten auf einen handhabbaren Umfang zu reduzieren. In der Improve-Phase von Six SigmaProjekten kommt hier vor allem die N/3-Methode24 zum Einsatz, bei der die Lösungsvorschläge unmittelbar durch das Projektteam beurteilt werden. Auf dieser Basis wird – unter Herbeiführung eines Konsens – die Ausgangspopulation definiert. Für die Anwendung der genetischen Operationen im Rahmen des IESRMZyklus sind die Lösungen im Weiteren zu codieren. Ein einfaches Hilfsmittel, um
24
Jedes Teammitglied hat N/3 „Stimmen“ zu vergeben, wobei N die Anzahl der zur Verfügung stehenden Alternativen bezeichnet. Alle Beteiligten treffen ihre Auswahl aufgrund ihrer persönlichen Einschätzung des Ergebnisbeitrages der jeweiligen Lösung. Nach der Stimmenabgabe werden die Lösungsalternativen in eine Rangfolge gebracht, in dem sie absteigend, nach der Anzahl der erhaltenen Stimmen, geordnet werden. Die Vorschläge mit den meisten Punkten verbleiben in der (Rest-) Auswahl, deren Anzahl ca. 1/3 der Lösungsvorschläge entspricht (vgl. Lunau et al. 2006, S. 224f.).
5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen
253
die Repräsentationen auf Phäno- und Genotypebene eindeutig zu verbinden, ist das Codier-Tableau, welches nachstehend beschrieben ist. •
Codier-Tableau: Die Codierung der Lösungen erfolgt üblicherweise unter Verwendung eines Binärcodes.25 Zu seiner Erstellung ist jede (mögliche) Merkmalsausprägung, die in die Untersuchung einbezogen wird, mit einem 0/1-Code zu deklarieren. Ein Codier-Tableau, wie es in Abb. 5-7 beispielhaft zu sehen ist, ist ein geeignetes Hilfsmittel, um die (De-)Codierung vorzunehmen. Die Länge der merkmalsbezogenen Binär-Codes BITS richtet sich danach, wie viele Ausprägungen A pro Merkmal maximal zu berücksichtigen sind. Die Berechnung erfolgt nach der Gleichung BITS = ln A / ln 2.
M1 Merkmal Mechanismus Bezeichnung Ausprägung Wert Code 1 Starr 00 2 Druck 01 3 Drehung 10 4 ? 11
M2 Art der Mine Wert Minimal Standard Maximal
Code 0 1 ?
M3 Gehäuseform Wert Rechteck Dreieck Oval Rund
Code 00 01 10 11
Quelle: Eigene Darstellung
Abb. 5-7: Codier-Tableau am Beispiel Kugelschreiber (Ausschnitt)
Wie schnell deutlich wird, ist die Bitlänge nur für den Fall, dass 2BITS = A mit A ∈ Z ist, geradzahlig, also für A = 2, 4, 8, ... – der Zusammenhang zwischen Codier- und Lösungsraum ist dann eindeutig beschrieben (1-to-1-Mapping). Im Kugelschreiber-Beispiel trifft dies für die Codierung von Merkmal M3 zu: jedem der vier Merkmalsausprägungen ist genau ein Bit-Code zugeordnet. In Abhängigkeit von der Problemstellung und der Lösungsstrategie existieren weitere Fälle, die jedoch im Hinblick auf eine effektive Lösungsfindung eher zu vermeiden sind (vgl. Gen/ Cheng 1997, S. 19): Bei 2BITS > A liegen mehr Codiermöglichkeiten vor als Lösungsmerkmale. Im Kugelschreiber-Beispiel ist dies beim erstgenannten Merkmal M1 gegeben (siehe Abb. 5-7). Der 2-stellige Bit-Code „11“ bleibt hier unbesetzt. Wird keine zusätzliche Repräsentation auf der Phänotypebene für 25
Die Codierung kann prinzipiell auch in nicht-binärer Form erfolgen, z.B. dekadische Zahlen-Codierung bei beschränkten Optimierungsproblemen und Integer-Codierung bei kombinatorischen Optimierungsproblemen (vgl. Abschnitt 4.3.3). In diesem Fall ist besonders darauf zu achten, dass keine Lösungen codiert werden, die auf der Phänotypebene unzulässig bzw. illegal sind (vgl. Gen/ Cheng 1997, S. 19). Die Effektivität des GA, sprich des Problemlösungszyklus, wird in konkreten Anwendungsfällen erhöht, wenn alle gefundenen Lösungen eindeutig spezifizierbar und über artkonforme Chromosomen, d.h. vergleichbare Bit-Strings, abbildbar sind.
254
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
diese spezielle Code-Kombination gefunden, z.B. „Ziehen“ als weitere Merkmalsausprägung für das Merkmal M1, ist entweder eine Ausprägung mehrfach zu codieren (n-to-1-Mapping), oder es sind sog. Reparaturstrategien auf der Genotypebene zu definieren, die unzulässige BitCodes, die im Zuge der Rekombination bzw. Mutation entstehen, wieder ausmerzen (vgl. Orvosh/ Davis 1994, S. 548ff.). Bei 2BITS < A existieren weniger Codiermöglichkeiten als Lösungsmerkmale. Dieser Fall tritt z.B. auf, wenn das Chromosom aufgrund von Komplexitätsbeschränkungen eine bestimmte Länge nicht überschreiten darf. Die Ausprägungen von mindestens einem Merkmal sind dann nur unvollständig im Bit-Code erfassbar. Konkret bedeutet dies, dass auf einen Bit-Code mehrere Merkmalsausprägungen kommen (1-to-n-Mapping). Es ist die ungünstigste Form der Lösungscodierung, da einer bestimmten Code-Kombination mehrere Repräsentationen auf der Phänotypebene gegenüber stehen – die konkrete Zuordnung ist dem Zufall zu überlassen. Im Kugelschreiber-Beispiel trifft dies für das Merkmal M2 zu, welches drei relevante Ausprägungen besitzt, die mit einem 1-stelligen Bit-Code erfasst werden (siehe Abb. 5-7). Methoden der Evaluierungs-Phase Zur Bewertung von Lösungsvorschlägen haben sich in der Unternehmenspraxis eine Reihe von Methoden etabliert. Sie unterscheiden sich vor allem im Hinblick auf die erzielbare Ergebnisqualität (Objektivitätsgrad) sowie das mit der Anwendung verbundene Methodenwissen (Komplexitätsgrad). Zwischen beiden Größen besteht eine Austauschbeziehung, die sich darin äußert, dass mit steigender Qualität der Ergebnisse der Bedarf an methodischem Know-how steigt. Die Six SigmaToolbox reicht deshalb vom einfachen Platzziffer-Verfahren, bei dem mehrere Personen unabhängig voneinander eine oder mehrere Lösungsvorschläge in eine Rangfolge bringen, bis zum anspruchsvollen Verfahren der Conjoint-Analyse, bei der Lösungsvorschläge hinsichtlich mehrerer Kriterien „gemeinschaftlich“ beurteilt werden. Daneben kommen Nutzwertanalyse und Paarweiser Vergleich zum Einsatz, welche zu einer mehr oder weniger genauen Bewertung der Lösungskandidaten führen. Auf die genannten Verfahren wird kurz eingegangen. •
Platzziffer-Verfahren: Dieses einfache Verfahren eignet sich zur Bewertung von Lösungsvorschlägen in multiattributiven Entscheidungssituationen. Dabei sind die Anwendungsvoraussetzungen prinzipiell geringer als bei der nachstehend beschriebenen Nutzwertanalyse. Die n Lösungen, die sich in der Population befinden, werden aufgelistet und von jedem Teilnehmer in eine Rangfolge gebracht. Die Lösung, die nach den individuellen Präferenzen am besten geeignet erscheint, erhält den höchsten Rang bzw. Platz. Aus der Platzziffer ergibt sich direkt die individuelle Bewertungspunktzahl je Lösung P [1; n]. Um zu einem Gesamturteil zu gelangen, werden die Punktzahlen – nach Abschluss der Bewertungsrunde – für jeden Lösungsvorschlag über alle Teilnehmer aufsummiert (vgl. Lunau et al. 2006, S. 248f.).
5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen
255
Im Ergebnis erhält man eine objektivierte Rangliste, bei der die Bewertungsabstände zwischen den einzelnen Lösungen metrisch interpretierbar sind. Die Objektivität des Bewertungsverfahrens erhöht sich, je mehr Personen (Probanden) in den Bewertungsprozess einbezogen werden. Conjoint-Analyse: Die Analyse ist ein weiterführendes und in der Marketingpraxis vielfach angewandtes mathematisch-statistisches Verfahren zur gemeinschaftlichen Messung des Nutzens von Produkten aus Kundensicht (vgl. Backhaus et al. 2006, S. 558ff.). Ziel ist es, die optimale, d.h. nutzenmaximierende Kombination von Merkmalen und Merkmalsausprägungen eines Produktes unter realistischen Kaufbedingungen zu bestimmen. Der Einsatz der Conjoint-Analyse im Rahmen des IESRM-Zyklus et al. hat den Vorteil, dass nicht alle Lösungskandidaten einzeln zu bewerten sind. Denn mithilfe des Verfahrens, das auf einem dekompositionellen Multi-Attributiv-Modell basiert, lässt sich der Nutzwert einer Lösung, die sich aus „bekannten Merkmalsattributen“ zusammensetzt, a posteriori bestimmen. Infolgedessen ist eine physische Bewertung durch den Kunden nicht mehr bei allen Lösungskandidaten der Population erforderlich, um zu einem aussagefähigen, d.h. intersubjektiv nachvollziehbaren Nutz-/ Fitnesswert zu gelangen. Aus Sicht der Conjoint-Analyse stellen die in Abb. 5-8 eingezeichneten Merkmalskombinationen Nutzenbündel dar, für die sich jeweils ein Gesamtnutzen bestimmen lässt. Das Standardvorgehen umfasst fünf Schritte: Zunächst sind die relevanten Merkmale und dazugehörigen Merkmalsausprägungen, die in die Analyse einbezogen werden, festzulegen. Dies ist mit dem Codier-Tableau in Abb. 5-7 geschehen. Auf dieser Basis können dann im zweiten Schritt Kombinationen von Merkmalsausprägungen (Stimuli) gebildet werden, welche den Kunden (Probanden) zur Beurteilung im dritten Schritt vorzulegen sind. Durch die Offenlegung der Präferenzen lassen sich die Teilnutzenwerte der einzelnen Merkmale/ Merkmalsausprägungen bestimmen.26 In der Sprache des IESRM-Zyklus geht es hier um die Generierung und Bewertung einer Population von Lösungskandidaten. Im vierten Schritt ist dann für jede Merkmalsausprägung ein Teilnutzenwert mittels statistischer Verfahren zu schätzen. Aus den Teilnutzenwerten kann im fünften Schritt der Gesamtnutzenwert für alle Stimuli sowie die relativen Wichtigkeiten der einzelnen Merkmale retrograd ermittelt werden. Die letzten beiden Schritten, in denen es um die Ableitung von funktionellen Zusammenhängen zwischen Input- und Outputfaktoren geht, sind beim
26
Dazu müssen die Probanden (Kunden) die ihnen vorgelegten Stimuli in eine Rangfolge bringen, wodurch sie ihre Nutzenvorstellungen offen legen.
256
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
IESRM-Zyklus in der Weise nicht vorgesehen. Hier steht vielmehr das Erreichen des globalen Optimums im Vordergrund, ohne dabei die bestehenden Ursachen-Wirkungsbeziehungen bei den einzelnen Lösungskandidaten explizit offen zu legen respektive offen legen zu wollen (vgl. Abschnitt 1.2.2). Die Conjoint-Analyse stellt deshalb im Rahmen des IESRM-Zyklus eher ein Ergänzungsverfahren dar, dessen Einsatz für alle die Fälle infrage kommt, in denen bestimmte Lösungskandidaten, z.B. aus Zeit- und Kostenrestriktionen, nicht generiert werden können. Der Gesamtnutzen dieser nicht generierbaren, aber für die Problemlösung insgesamt wichtigen Lösungskandidaten lässt sich rechnerisch ermitteln, und zwar über die additive Verknüpfung der normierten und gewichteten Teilnutzenwerte, die im Vorfeld über einen linearen Regressionsansatz geschätzt worden sind und den lösungsinhärenten Merkmalsausprägungen eindeutig zuordenbar sind.27 •
Nutzwertanalyse: Bei diesem kompositionellen Verfahren wird die Menge der zur Verfügung stehenden Lösungen mit Hilfe eines Bewertungssystems in eine Rangfolge gebracht, welche ihre Eignung bzgl. einer Anzahl von vorher fixierten Kriterien widerspiegelt. Die Bewertungen sind metrisch, so dass Aussagen hinsichtlich der Höhe des Unterschiedes zwischen einzelnen Lösungen getroffen werden können. Die Festlegung der Kriterien kann sowohl aus Kundensicht (Critical to Customer Characteristics) als auch aus Unternehmenssicht (Critical to Business Characteristics) vorgenommen werden. Möglich ist auch eine Mischung aus beiden. In diesem Fall wird das originäre Ziel von Six Sigma, alle wichtigen Kundenanforderungen vollständig und wirtschaftlich zu erfüllen, optimal berücksichtigt (vgl. Abschnitt 2.2.3). Für die Durchführung der Nutzwertanalyse (auch Kriterienbasierte Auswahl genannt) ist eine Liste mit Kriterien anzufertigen, die eine ganzheitliche Beurteilung der Leistungsfähigkeit/ Qualität bzw. Eignung des Produktes, einen bestimmten Zweck zu erfüllen, erlauben. In diesem Zusammenhang ist es naturgemäß von Vorteil, wenn bei der Anfertigung der Liste auf die Erfahrungen früherer F&E-Projekte und dabei ermittelter Kriterien zurückgegriffen werden kann. Im Weiteren wird eine Gewichtung der aufgestellten Kriterien vorgenommen. Diese kann in Form von Prozentangaben zwischen 0 und 100% erfolgen oder auch in Form von Punkten, bei der jedem Kriterium eine Zahl zwischen 1 (geringe Bedeutung) und 10 (hohe Bedeutung) zugewiesen wird.28 Im nächsten Schritt werden Kriterien zusammen mit den generierten Lösungen in eine Tabelle eingetragen. Die Anordnung von Zeilen und Spalten erfolgt dabei wie in Abb. 5-8 am Beispiel Kugelschreiber zu sehen ist.
27
28
Bei der Conjoint-Analyse besteht die unmittelbare Anforderung, aus den von den Befragten geäußerten ordinalen Gesamtnutzenurteilen metrische Teilnutzenwerte für die einzelnen Merkmalsausprägungen abzuleiten. Ziel ist es, die Teilnutzenwerte so zu bestimmen, dass die resultierenden Gesamtnutzenwerte „möglichst gut“ den empirischen Rangwerten entsprechen (vgl. Backhaus et al. 2006, S. 572). Durch die differenzierte Gewichtung wird eine Anpassung des Bewertungsmaßstabes an das Hauptziel des Verbesserungsprojektes ermöglicht.
5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen
Kuli „schwarz“
Kuli „blau“ Kriterium
257
Gewicht
Erfüllungsgrad
(1) Haltbarkeit
10%
3
0,3
4
0,4
(2) Ästhetik
25%
6
1,5
8
2,0
(3) Features
20%
3
0,6
2
0,4
(4) Schriftbild
30%
4
1,2
4
1,2
(5) Preis-Leistung
15%
5
0,8
7
1,1
Summe
100%
4,4
5,1
Rang
(2)
(1)
Teilnutzenwert
Erfüllungsgrad
Teilnutzenwert
Quelle: Eigene Darstellung
Abb. 5-8: Nutzwertanalyse am Beispiel Kugelschreiber
Wie gut die alternativen Lösungsvorschläge die formulierten Anforderungen entsprechend der Kriterienliste erfüllen, wird im mittleren Teil der Tabelle/ Matrix eingetragen. Hier wird üblicherweise eine Skalierung von 1 bis 10 verwendet, wobei 1 für den geringsten und 10 für den höchsten Erfüllungsgrad steht. Durch Multiplikation der vergebenen Punkte mit den kriterienbezogenen Gewichten ergeben sich sog. Teilnutzenwerte, die den anteiligen Wert einer Lösung bei einem bestimmten Kriterium zum Ausdruck bringen. Den Nutzwert einer Lösung erhält man durch Aufsummierung der gewichteten Punktzahlen je Spalte. Dabei gilt: Je höher die Punktzahl, also der Nutzwert, ist, desto besser ist die Eignung der Lösung hinsichtlich der Erfüllung der vorgegebenen Zielkriterien/ -größen. Im Beispiel beträgt der Nutzwert von Kuli „blau“ 4,4 Punkte und der von Kuli „schwarz“ 5,1 Punkte; letztgenannter erhält damit den besten bzw. ersten Rang. Der Vorteil von kriterienbasierten Verfahren liegt vor allem darin, dass sie eine objektivierte Lösungsbewertung erlauben und damit eine Vergleichbarkeit der Lösungen herbeiführen. Im Ergebnis wird ein „roher“ Nutz- bzw. Fitnesswert ermittelt, der im Weiteren ggf. noch zu transformieren ist, um eine effektive Selektion sicherzustellen. Von Nachteil ist der relativ große Zeitaufwand. Dieser begründet sich u.a. darin, dass die Ergebnisse für jeden Lösungsvorschlag im Team diskutiert werden, um eventuell auch Aspekte außerhalb der Kriterien bei der Lösungsbewertung einzubeziehen und eine möglichst einstimmige Entscheidung zu treffen. Nichtsdestotrotz wird das Verfahren bei der Anwendung des IESRM-Zyklus präferiert. •
29
Paarweiser Vergleich: Bei der Methode des Paarweisen Vergleichs handelt es sich um ein einfaches, psychometrisches Skalierungsverfahren, welches ursprünglich in der Psychologie eingesetzt worden ist.29 Ziel ist es, die Ent-
Das Grundprinzip des Paarweisen Vergleichs geht auf den Psychologen LOUIS L. THURSTONE (1927) zurück.
258
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
scheidungskomplexität durch direkten (paarweisen) Vergleich von Einzelkriterien/ -lösungen aufzulösen (vgl. Gelbmann et al. 2003, S. 78ff.). Zu Beginn des Verfahrens werden den Teammitgliedern unterschiedliche Handlungsalternativen – jeweils paarweise kombiniert – angeboten, z.B. A-B, A-C und BC. Nach kurzer Bedenkzeit werden die Teilnehmer aufgefordert, nach einem sich aus dem Projektziel ergebenden Kriterium eine Entscheidung für jeweils eine der beiden Möglichkeiten zu treffen. Auf diese Weise lässt sich die Rangordnung einer Reihe von Alternativen eindimensional bestimmen. Bei insgesamt n zur Auswahl stehenden Vorschlägen ergibt sich eine Gesamtanzahl von n! / 2! ⋅ (n-2)! durchzuführenden Paarvergleichen.30 Infolgedessen nimmt mit steigender Anzahl von auszuwählenden Alternativen der Umfang/ Aufwand der Methode exponentiell zu. Im Ergebnis wird eine Rangordnung mit metrischer Skalierung gebildet, auf deren Basis jede Lösungsalternative genau einordenbar ist und der Abstand zur nächstbesseren bzw. -schlechteren Lösung exakt gemessen werden kann. In praxi werden die Einzelbewertungen zu einer Rangziffer verknüpft. Ein Beispiel für dieses relativ einfache Vorgehen wird im Zusammenhang mit der rangbasierten Selektion im folgenden Unterabschnitt gegeben (siehe Abb. 5-11). Als Vorteil des Paarweisen Vergleichs ist anzuführen, dass er auch in Fällen, bei denen eine recht große Anzahl von Möglichkeiten zu beurteilen ist, die Teammitglieder durch die Reduzierung auf jeweils zwei Alternativen nicht überfordert. Dem steht der Nachteil gegenüber, dass Paarvergleiche nur dann zu verwertbaren Resultaten führen, wenn die Beurteilungen der Beteiligten konsistent sind. In Fällen, in denen bspw. die Lösung A besser als die Lösung B ist und B besser als C, jedoch A zugleich schlechter als C, kommt es zu Verzerrungen bzw. Ungenauigkeiten (vgl. o.V. 2005, S. 1f.). •
Fitness-Transformation: Mit der Skalierung und Normierung der metrischen Zielfunktionswerte, die sich z.B. aus einer Nutzwertanalyse ergeben, werden nach Gen/ Cheng (1997, S. 25) insb. die folgenden zwei Ziele verfolgt: Aufrechterhaltung einer eindeutigen Differenzierung zwischen den relativen Fitnesswerten, die den einzelnen Chromosomen zuordenbar sind Vermeidung einer zu schnellen Konvergenz der Lösungen, die durch einige „Super-Chromosomen“ zu Beginn des GAs bewirkt wird. Durch die Fitness-Transformation wird sichergestellt, dass die Überlebenswahrscheinlichkeit der Chromosomen proportional zu ihrer (relativen) Fitness ist. Dies ist ein wesentlicher Vorteil gegenüber der ordinalen Fitness-Bewertung, z.B. nach dem o.g. Verfahren des Paarweisen Vergleichs. Hier werden die Fitnesswerte – ohne Berücksichtigung ihrer relativen Unterschiede – in eine Rangordnung gebracht und die Lösungen auf dieser Basis i.A. ungewichtet selektiert. Als Nachteil kann bei der metrischen Fitness-Bewertung ange-
30
Die Berechnung erfolgt nach der Formel für „Kombination ohne Wiederholung“.
5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen
259
führt werden, dass zur Bestimmung der relativen Fitnesswerte geeignete Skalierungsparameter gefunden werden müssen, die von der zu bearbeitenden Problemstellung abhängig sind und i.d.R. nach dem Entwicklungsfortschritt gesetzt werden (vgl. Reeves 1993, S. 344ff.). In der einschlägigen Literatur werden verschiedene mathematische Ansätze diskutiert, um die ermittelten Zielwerte, die auch als „rohe“ Fitnesswerte bezeichnet werden, in skalierte Fitnesswerte zu überführen (vgl. Michalewicz 1995, S. 135ff.). Sie können im Wesentlichen in zwei Kategorien unterteilt werden, nämlich statische und dynamische Skalierungsverfahren. Bei letzteren besteht zum einen die Möglichkeit, den Skalierungsparameter (a, b) so zu wählen, dass in jeder Generation der gleiche Selektionsdruck herrscht.31 Zum anderen ist es möglich, den Skalierungsparameter (a, b) schrittweise so zu verändern, dass sich der Selektionsdruck mit zunehmender Generationenzahl erhöht. Im Folgenden sind fünf typische Verfahren der Fitness-Skalierung für den Fall, dass nur eine Zielgröße y existiert, benannt: Lineare Skalierung fit(y) = a + b ⋅ y: über die lineare Skalierung werden die Fitnesswerte der besten und schlechtesten Chromosomen relativiert, so dass sichergestellt wird, dass aus den besten nicht zu viele und aus den schlechtesten nicht zu wenige Nachkommen hervorgehen. Die lineare Skalierung ist die einfachste Form der Skalierung; sie wird beim ersten Anwendungsbeispiel in Abschnitt 5.3.1 zugrunde gelegt. Dynamische lineare Skalierung fit(y) = ag + b ⋅ y: Im Gegensatz zu oben variiert bei der dynamischen Skalierung der Absolutfaktor ag mit den Generationen g. Ein typisches Vorgehen ist die Verwendung der minimalen rohen Fitness der aktuellen Population zur Normierung: ag = -ymin. Potenzielle Skalierung fit(y) = ya: In Abhängigkeit von der Problemstellung erlaubt diese Skalierung eine progressive oder degressive Verzerrung der gemessenen rohen Fitnesswerte. Wenn a > 1 ist, dann steigt die Fitness mit zunehmendem y progressiv an. Die besseren Chromosomen werden dann gegenüber den schlechteren bevorzugt, c.p. Die Skalierung findet beim zweiten Beispiel in Abschnitt 5.3.2 Anwendung. Sigma-Skalierung fit(y) = y – (⎯y – c ⋅ σ ): Diese Methode der Skalierung basiert auf statistischen Kennzahlen und stellt vor diesem Hintergrund eine Verbesserung gegenüber der linearen Skalierung dar. Der Selektionsdruck ist abhängig von der Verteilung der Fitnesswerte. Neben dem Parameter c gehen der durchschnittliche Erfüllungsgrad⎯y und die gemessene Standardabweichung σ als Korrekturfaktoren ein.32
31 32
Unter dieser Voraussetzung müssen sich die Individuen in einer Population jeweils „gleich stark anstrengen“, um mit einer bestimmten Wahrscheinlichkeit zu überleben. Besonders schlechte Chromosomen, also Ausreißer nach unten, können durch dieses Vorgehen relativ leicht erkannt und ausgemerzt werden.
260
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
Boltzmann-Skalierung fit(y) = ey/T: Die Skalierung basiert auf der Boltzmann-Verteilung, die u.a. beim Optimierungsalgorithmus Simulated Annealing eine wichtige Rolle spielt (vgl. Abschnitt 4.2.3). Die Exponentialfunktion, die hier zugrunde gelegt wird, führt zu einer proportionalen Selektion entsprechend der Einstellung des Kontrollparameters T. •
S-Kurvenverlauf: Um das Ergebnis des evolutionären Entwicklungsprozesses zu verdeutlichen, bietet sich die Darstellung der durchschnittlichen Fitness der Population fit Pop in Abhängigkeit von der kumulierten Anzahl von Generationen g an. Zur Berechnung wird vorzugsweise das geometrische Mittel herangezogen (vgl. Abschnitt 5.2.1). Bei gerichteter Selektion steigt die geometrische mittlere Fitness der Population in Form eine S-Kurve über die Zeit bzw. in unserem Fall über die kumulierte Anzahl von Generationen an. Mittlere Fitness der Population fit fit* fitgmax
Abbruch des IESRM-Zyklus
Verbleibendes OptimierungsPotenzial fitg - fitg-n
fitgmax-n
fit0
SigmaKorrektur
0 0
Quelle: Eigene Darstellung
gmax-n
gmax Kum. Anzahl von Generationen g
Restliche Anzahl von Iterationen n
Abb. 5-9: Entwicklung der durchschnittlichen Fitness der Population (S-Kurve)
In Abb. 5-9 ist der idealtypische S-Kurvenverlauf angegeben. Im Rahmen der Projektdurchführung gibt die Entwicklung der geometrischen mittleren Fitness zum einen wichtige Hinweise auf das verbleibende Optimierungspotenzial und damit die Anzahl von Iterationen n, die (noch) notwendig sind, um das globale Optimum fit* (näherungsweise) aufzuspüren. Zum anderen können Rückschlüsse auf den rechtzeitigen Abbruch des IESRM-Problemlösungszyklus gezogen werden. Dadurch lässt sich sicherstellen, dass die Lö-
5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen
261
sungssuche nicht zu lange auf einem bestimmten Fitnessniveau verharrt und damit (zu stark) zu Lasten einer effizienten Projektbearbeitung geht. Nach dem Fundamentaltheorem der Natürlichen Selektion, welches auf den Begründer der modernen Evolutionstheorie SIR RONALD A. FISHER (1930) zurückgeht, gilt: „The rate of increase in fitness of any organism at any time is equal to its genetic variance in fitness at that time“. Die Standardinterpretation des Theorems läuft darauf hinaus, dass die Verbesserung der durchschnittlichen Fitness einer Population proportional zur (genetischen) Varianz der Fitness innerhalb der Population ist (vgl. Frank/ Slatkin 1992, S. 92). Dieser Zusammenhang wird mathematisch wie folgt beschrieben:
d fit Pop dt
~ σ 2fiti
(5.3)
Sind die Lösungskandidaten sehr ähnlich und damit die Fitnesswerte nur marginal unterschiedlich, dann nimmt die Fitness der Population im Durchschnitt nur geringfügig zu. Dies ist bei g ≥ gmax sowie in den ersten Generationen des IESRM-Zyklus der Fall. Bei g < gmax, also im mittleren Teil der SKurve, steigt die durchschnittliche Fitness relativ stark an; die Varianz der Merkmals- und damit Fitnesswerte in der Population ist entsprechend hoch. Nach Durchführung einer Sigma-Skalierung, bei der die rohen Fitnesswerte in Richtung Nulllinie verschoben werden, lässt sich die progressive Dynamik bzgl. der Entwicklung der Population durch folgende Differentialgleichung erfassen (in Anlehnung an Hofbauer/ Sigmund 1998, S. 5):
d fit Pop dt
= λ ⋅ fit Pop ⋅
fit * − fit Pop fit *
(5.4)
Die Gleichung (5.4) kennzeichnet ein exponentielles Wachstum der durchschnittlichen Fitness der Population mit der Steigerungsrate λ und der (oberen) Wachstumsgrenze fit*.33 Die Auflösung der Gleichung nach fit Pop mit der Anfangsbedingung fit Pop (t 0 ) = fit 0 ergibt die Wachstums- bzw. Entwicklungsfunktion fit Pop (t ) für die durchschnittliche Fitness der Population in einer bestimmten Generation g bzw. – allgemein – zum Zeitpunkt t: 34 33
34
Bereits Fisher (1930) bemerkte, dass die mittlere (absolute) Fitness einer Population nicht ins Unendliche ansteigen kann. Dies würde bedeuten, dass in der Natur eine bestimmte Art – aufgrund ihrer exponentiellen Vermehrung – über kurz oder lang den gesamten Lebensraum beherrscht und alle anderen Arten verdrängt. Die mathematischen Herleitungen der Gleichungen für exponentielles und logistisches Wachstum von Populationen sind u.a. bei Hofbauer/ Sigmund (1998, S. 3ff.) nachvollziehbar. Wie die beiden Autoren anmerken, bilden die vergleichsweise einfachen Differentialgleichungen komplexe Zusammenhänge, wie z.B. Bifurkation und Chaotisches Verhalten, ab. Sie bilden ein wichtiges Merkmal von ökologischen Systemen.
262
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell λ ⋅(t −t0 )
fit Pop (t ) =
fit * ⋅ e
fit * − fit 0 fit 0
(5.5) λ ⋅(t −t0 )
+e
Unter der Voraussetzung, dass das Ausgangsniveau fit 0 sowie die Parameter λ und fit* bekannt sind, lassen sich mithilfe der Gleichung (5.5) die Fragen zur Projektplanung und -steuerung exakt beantworten: Wann ist ein guter Zeitpunkt erreicht, um den Optimierungsalgorithmus – ggf. vorzeitig – abzubrechen? Wie viele Iterationen bzw. Generationen sind aus jetziger Sicht notwendig, um zum Optimum zu gelangen? Dabei gilt: Je größer die Rate λ ist, desto schneller wird das maximale Fitnessniveau fit* ausgehend von fit 0 erreicht. Die Differenz fit * − fit 0 spiegelt das vorhandene Verbesserungspotenzial wider. Die Rate λ ist ein Maß für die Geschwindigkeit, mit der sich besonders fitte Lösungskandidaten in einer Population durchsetzen können. Sowohl λ als auch fit * − fit 0 werden über die o.g. Fitness-Transformation beeinflusst.35 Um die S-Kurve in Abb. 5-9 nachzubilden, ist eine Sigma-Skalierung erforderlich. Insgesamt erlaubt das adaptierte S-Kurven-Konzept sowohl die Erklärung als auch die Prognose der Entwicklung der mittleren Fitness einer Population. Methoden des S-R-M-Operators Nachdem alle Lösungskandidaten der Population bewertet worden sind, werden sie im Rahmen des S-R-M-Operators selektiert, rekombiniert und mutiert. Hier kommen überwiegend Methoden zum Einsatz, die sich direkt am Vorgehen des Genetischen Algorithmus orientieren (vgl. Abschnitt 4.3.3). Sie lassen sich relativ einfach operationalisieren und in das Vorgehensmodell des IESRM-Zyklus integrieren. Aufgrund ihres starken evolutionstheoretischen Charakters, sind sie bis dato kein fester Bestandteil des klassischen Tool-Sets von IM-/ QM-Projekten. Bei der Darstellung der Methoden wird vor allem auf die Nutzwertanalyse als vorausgegangenes Evaluierungsverfahren Bezug genommen. Für die Selektion der in der Initialisierungs-Phase generierten und in der Evaluierungs-Phase bewerteten Lösungen sind zwei Vorgehensweisen gebräuchlich: •
35
Roulette-Wheel-Selection: Die Lösungsalternativen werden entsprechend ihrer relativen Fitness- respektive Nutzwerte (NW) selektiert. Der fitnessproportionalen Selektion liegt die bildliche Vorstellung eines Roulette-Rades zugrunde,
Auf diesen Punkt kommen wir im Zusammenhang mit der experimentellen Überprüfung an zwei Anwendungsbeispielen im Unterkapitel 5.3 zurück.
5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen
263
dass bei jeder Drehung eine zufällige Endposition erreicht und dadurch die Selektion der Individuen (Lösungen) bewirkt. •
Tournament-Selection: Die Lösungsalternativen werden nach der absoluten Höhe ihres Nutzwertes sortiert und durch paar-/ gruppenweisen Vergleich selektiert. Dazu wird eine Turnier-Situation erzeugt, in der sich die Individuen (Lösungen) gegeneinander behaupten müssen. Hierbei handelt es sich um ein rangbasiertes Selektionsverfahren.
In den folgenden Abbildungen sind die zwei Selektionsmechanismen am Beispiel Kugelschreiber nachvollziehbar. In beiden Fällen umfasst der Lösungspool zehn Kandidaten, die nach der im vorangegangenen Unterabschnitt beschriebenen Nutzwertanalyse bewertet worden sind. Im Hinblick auf die Problemlösungsfähigkeit stellt die Lösung 5 (NW = 6,1) die beste und die Lösung 7 (NW = 1,5) die schlechteste dar. Die Summe aller Fitness-/ Nutzwerte beträgt 35. Teilt man diesen Wert durch die Größe der Population, dann ergibt sich eine durchschnittliche Fitness von μ = 3,5 bei einer Standardabweichung von σ = 1,6. Für die fitnessproportionale Selektion ist die relative Fitness der Lösungen innerhalb der Population zu bestimmen. Je größer die relative Fitness, also der absolute Nutzwert bezogen auf die Summe aller Nutzwerte ist, desto größer ist die Wahrscheinlichkeit, dass der Lösungskandidat in den „Fortpflanzungspool“ aufgenommen wird. Die Selektions- respektive Fortpflanzungswahrscheinlichkeit lässt sich durch die Ermittlung der kumulierten Häufigkeitsverteilung (CDF – Cumulative Density Function) über alle Lösungen visualisieren. Gleichzeitig gibt die Funktion CDF(i) die Intervallgrenzen für die Selektion an (siehe Abb. 5-10). Lösungen Nutzwert (Individuen) (Fitness)
Relative CDF (i) Fitness 0,091
10
3,2
9
5,1
0,146
8
2,1
7
1,5
0,060 0,043
6
4,4
5
6,1
4
3,7
3
2,4
2 1
1,7 4,8 35,0
Quelle: Eigene Darstellung
Gleichverteilte Selektierte Zufallszahlen Lösungen 0,953
10
0,868
9
0,741
8
0,126
0,635 0,572
6 6
0,174
0,466
5
0,381
5
0,106
0,275
4
0,069 0,049
0,169
2
0,137
0,085
1
1,000
1 2
3 4
5 6 i
7 8
9 10
Abb. 5-10: Vorgehen bei proportionaler Selektion am Beispiel Kugelschreiber
264
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
Die Auslese erfolgt bei der proportionalen Selektion in der Weise, dass zehn Zufallszahlen gleichverteilt zwischen 0 und 1 ermittelt werden. Jede Zufallszahl liegt in einem bestimmten Intervall, deren Größe sich nach den relativen Fitnesswerten der Lösungskandidaten bestimmt. Dies bedeutet im Umkehrschluss, dass jeweils die Lösung selektiert wird, in dessen Intervall sich die aktuelle Zufallszahl befindet. Bei Populationen mit einer relativ großen Streuung der (absoluten) Fitnesswerte tritt regelmäßig der Fall auf, dass einzelne Lösungskandidaten gleich mehrfach zur Rekombination/ Reproduktion zugelassen werden. Im Beispiel betrifft dies die Lösungen 5 und 6 mit je zwei Auswahltreffern. Beim rangbasierten Auswahlprozess spielen nicht die relativen, sondern die absoluten Fitnesswerte eine Rolle. Um einen Lösungskandidaten zu selektieren, wählt man k Lösungen zufällig gleichverteilt aus der Population aus und nimmt davon jeweils die beste, also die mit der höchsten Fitness. Im einfachsten Fall werden jeweils zwei Lösungen (k = 2) ausgewählt und paarweise verglichen (siehe Abb. 5-11). Im Beispiel sind zu diesem Zweck 2 ⋅ 10 ganzzahlige Zufallszahlen im Intervall [1; 10] ermittelt worden. Die Rangordnung der absoluten Fitnesswerte entscheidet nun darüber, welche Lösung im „2er-Turnier“ weiterkommt, also selektiert wird. Genau wie bei der proportionalen Selektion besteht die Möglichkeit, dass eine Lösung mehrmals zur Auswahl steht. Lösungen Gleichverteilte Zufallszahlen
(Individuen)
Gleichverteilte Zufallszahlen
Nutzwert (Fitness)
1
4,8
2
1,7
3
2,4
4
3,7
5
6,1
6
4,4
7
1,5
8
2,1
9
5,1
10
3,2
1
2
3
4
5
6
7
8
9
10
4,8
1,7
2,4
3,7
6,1
4,4
1,5
2,1
5,1
3,2
4 3
5
Selektierte SelektierteLösung Lösungbei bei paarweisem paarweisemVergleich Vergleich
9 5 10 3
8 9
1
Quelle: Eigene Darstellung
Abb. 5-11: Vorgehen bei rangbasierter Selektion am Beispiel Kugelschreiber
Für die Rekombination kommen ebenfalls mehrere Methoden infrage. In Abhängigkeit von der Anzahl der Bruchstellen im Genom bzw. Bit-Code wird zwischen
5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen
265
1-Point-, 2-Point- und Uniform-Crossover (Kreuzung) unterschieden. Gegenüber den vorherigen Phasen – Evaluation und Selektion – finden die Rekombinationsund die sich anschließende Mutations-Phase ausschließlich auf der Genotypebene statt. Dazu werden alle Lösungen bereits in der Initialisierungs-Phase codiert. Die Codes der Lösungen, sprich Chromosomen, die sich im Rahmen der Selektion durchgesetzt haben, werden paarweise rekombiniert – aus zwei Chromosomen der Elterngeneration werden zwei Chromosomen der Kindergeneration. In der nachfolgenden Abbildung ist die Vorgehensweise für das 1-Point-Crossover – mit Auftritt einer Flipmutation – beispielhaft skizziert. Es bildet die Grundlage für die zwei Anwendungsbeispiele in Abschnitt 5.3.1 und 5.3.2. •
Beim 1-Point-Crossover wird von zwei Individuen der Elterngeneration zufällig eine Bruchstelle im Genom ermittelt. An dieser Stelle werden die hinteren Bruchstücke der beiden Elterngenome abgetrennt und an das vordere Bruchstück des jeweils anderen Genoms angehängt. Bezogen auf die Neuproduktentwicklung bedeutet dies, dass die Merkmale von zwei Lösungen, die einen relativ hohen Nutzen besitzen und für die Reproduktion von hohem Wert sind, per Zufallssteuerung rekombiniert werden. Dadurch entstehen zwei neue Lösungen, welche die Merkmalsausprägungen von zwei (ausgewählten) Elternteilen besitzen. In Abb. 5-12 ist das Vorgehen der punktuellen Rekombination sowohl auf der Geno- als auch der Phänotypebene nachvollziehbar. Der Merkmalsraum umfasst insgesamt 13 Dimensionen mit maximal vier Faktorstufen (Merkmalsausprägungen) je Dimension. Folglich beträgt die Länge des Bit-Codes je Merkmal maximal zwei Stellen; bei weniger als drei relevanten Ausprägungen je Merkmal ist nur eine Stelle erforderlich. Der BitString umfasst insgesamt 21 Stellen, mit denen jeder Lösungskandidat, hier im Beispiel „Kugelschreiber-Typ“, eindeutig erfasst werden kann. Die Kreuzung der Gene zwischen Eltern 1 und Eltern 2 erfolgt im Beispiel Kugelschreiber an der – per Zufallsprinzip ermittelten – Bit-Stelle 12. Die Endstücken des Bit-Codes der beiden Eltern werden im Übergang von 11. zu 12. Stelle getauscht. Es entstehen zwei Kinder, also zwei neue Lösungskandidaten, deren Genome zu jeweils ca. der Hälfte mit den ursprünglichen Lösungskandidaten übereinstimmen. Gänzlich neue Merkmalsausprägungen ergeben sich lediglich bei Merkmal (6), da die Soll-Bruchstelle genau innerhalb des relevanten Bit-Strings liegt. Aus den Eltern-Codes „0 1“ und „1 0“ gehen die Kinder-Codes „0 0“ und „1 1“ hervor. Die Auswirkungen des Rekombinationsprozesses auf der Phänotypebene können im unteren Teil der Abb. 5-12 nachvollzogen werden. Bei Merkmal (6) „Gehäuseoberfläche“ treten die Ausprägungen „Eloxiert“ und „Mattiert“ neu in Erscheinung.
•
Neben dem Verfahren mit einer Bruchstelle ist das 2-Point-Crossover das wohl am häufigsten verwendete Rekombinationsschema bei der GAProgrammierung. In der praktischen Umsetzung sind hier zwei Kreuzungspunkte im Genom bzw. Merkmalsraum zu wählen. Im Beispiel werden die Bit-Stellen 13 und 18 per Zufallsprinzip als Soll-Bruchstellen bestimmt. Zwischen diesen beiden Stellen wird der Bit-Code der Lösungskandidaten der El-
266
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
terngeneration vertauscht. Infolgedessen unterscheiden sich die Lösungskandidaten der Kindergeneration auf der Phänotypebene vor allem in den „Griff“-bezogenen Merkmalen (7) bis (10).
Me ch an i sm Ar us td er Mi ne Ge hä us efo Ge rm hä us em Ge ate hä ria us l efa rbe Ge h.Ob erf Gr läc ifff he orm Gr iffm ate Gr iffs rial tüc k( Gr I) iffs tüc k( Pa II) ste nfa r be Me hrs ys tem Cli p-F ed eru ng
- Rekombination auf der Genotypebene -
Merkmal
1
2
4
3
5
6
7
8
9
10
11
12
13
Eltern 1
01 00 11 00
00 0 1
1
00
1
0
1
11
1
Eltern 2
10 01 11 01
00 1 0
0
01
0
1
0
11
0
Kind 1
01 01 11 00
00 0 0
0
01
0
1
0
11
0
Kind 2
10 01 11 01
00 1 1
1
00
1
0
1
11
1
Crossover
Flipmutation
- Rekombination auf der Phänotypebene Merkmal
Ausprägung
1
Mechanismus
2
Art der Mine
3
Gehäuseform
4
Gehäusematerial
5
Gehäusefarbe
6
Geh.-Oberfläche
7
Griffform
8
Griffmaterial
(Edel-)Metall
Kunststoff
9
Griffstück (I)
Austauschbar
Nicht austauschbar
10
Griffstück (II)
Glatt
Profiliert
11
Pastenfarbe
Schwarz
Blau
12
Mehrsystem
Marker
Druckbleistift
13
Clip-Federung
Selbstfedernd
Abgefedert
Quelle: Eigene Darstellung
Starr
Druck Flipmutation Standardmine
Minimalmine
Drehung Maximalmine
Rechteck
Dreieck
Oval
(Edel-)Metall
Kunststoff
Aluminium
Holz
Einfarbig
Bunt
Transparent
Graphik
Eloxiert
Verchromt
Beschichtet
Ergonomisch
Nicht ergonomisch
Kind 1
Rund
Mattiert Crossover
Aluminium
Holz
Mehrfarbig
Einsystem
Kind 2
Abb. 5-12: 1-Point-Crossover mit Flipmutation am Beispiel Kugelschreiber
Gegenüber dem 1-Point-Crossover wird durch die Wahl von zwei oder mehr Kreuzungspunkten die Ähnlichkeit zwischen Vorgängern und Nachfolgern
5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen
267
eher verringert als erhöht. Um eine möglichst hohe Variation zu erhalten, wird bei der Genetischen Programmierung deshalb auch auf das Verfahren des Uniform-Crossover gesetzt, bei dem jedes Bit zufällig mit gleicher Wahrscheinlichkeit von einem der beiden Elternteile übernommen wird. Die Wahl von nur ein oder zwei Bruchstellen ist durch das Schema-Theorem nach Holland (1975) motiviert. Nach diesem sollen kurze Schemata, die eine hohe Fitness bewirken, mit hoher Wahrscheinlichkeit nicht aufgetrennt werden. Beim zufallsgesteuerten Rekombinationsvorgang kann es passieren, dass ein Schema zerstört wird, wenn der Crossover-Point innerhalb des ersten und des letzten definierenden Bits liegt. Im Beispiel wird der Griff des Kugelschreibers durch die vier Merkmale Griffform, Griffmaterial, Griffstück (1) und Griffstück (2) spezifiziert. Ist eine besonders vorteilhafte Kombination der Merkmalsausprägungen im Laufe des Entwicklungsprozesses gefunden worden, besteht das Ziel darin, dieses „Schema“ zu bewahren. Bei den weiteren Rekombinationsprozessen ist deshalb darauf zu achten, dass kein Crossover-Point innerhalb des Bit-String-Bereichs liegt, der das Griffdesign determiniert bzw. codiert. Nur so kann sichergestellt werden, dass das nutzenmaximale Design einer (Teil-)Lösung von einer zur nächsten Generation unverändert übernommen wird. Für die Mutation sind für die Praxis insb. folgende zwei Arten relevant: •
Bei der Flipmutation wird ein Bit (Gen) im Bitstring zufällig ausgewählt und negiert. Dadurch verändert sich nicht nur der Genotyp, sondern in den meisten Fällen auch der Phänotyp des Individuums. Im Beispiel Kugelschreiber ist bei einem Elternteil das Merkmal „Art der Mine“ von der Flipmutation betroffen (siehe Abb. 5-12). Durch die zufällige Veränderung des Bit-Codes an der 4. Bit-Stelle „springt“ die Merkmalsausprägung von „Minimalmine“ auf „Standardmine“. Beide Lösungskandidaten der Kindergeneration besitzen infolgedessen die gleiche Art von Mine – die Varianz der Lösungen wird durch die Mutation insgesamt reduziert. In der praktischen Anwendung würde dies bedeuten, dass es keinen Markt für kleine Minen gibt. Die Frage nach der Vorteilhaftigkeit der Flip-Mutation kann über die Ermittlung des Fitnesswertes beantwortet werden. Ist die Fitness/ der Nutzen der Lösung mit verändertem Merkmal größer als die ohne, dann handelt es sich um eine nutzenstiftende Mutation mit einer positiven Wirkung auf die durchschnittliche Fitness der gesamten Population. Im günstigen Fall wird durch die Mutation eine für die Lösungsfindung suboptimale Merkmalsausprägung bei einem der potenziellen Lösungskandidaten eliminiert. Sind die zugrunde liegenden Ursachen-Wirkungsbeziehungen bekannt, dann lässt sich der Mutationsvorgang auch per Hand durchführen. Zielgerichtete Eingriffe in das Genom der Lösungen sind vor allem dann wirkungsvoll, wenn der Suchraum für die optimale Lösung bereits (grob) eingegrenzt werden konnte.
•
Bei der Swapmutation wird der Inhalt der durch Zufall bestimmten Gene einfach vertauscht, d.h. an einer beliebigen Stelle des Bit-Strings springt der Wert von „0“ auf „1“, während er gleichzeitig an einer anderen Stelle von „1“
268
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
auf „0“ zurückgeht. Von der Swapmutation können maximal zwei Schemata betroffen sein. Dadurch sind die Auswirkungen dieser Mutation i.d.R. deutlich größer als beim Auftreten einer einfachen Flipmutation, die jeweils nur ein Schema betrifft. Je nachdem, wie viele Bits zur Codierung einer Entscheidungsvariable notwendig sind, können sich die Veränderungen im Phänotyp bei mehr als einer Merkmalsdimensionen niederschlagen. Von der Swapmutation sind immer zwei Merkmale betroffen, sofern die Merkmalsausprägungen der Lösungen, auf die sich die Mutation bezieht, dichotom codiert sind. Im Beispiel Kugelschreiber werden durch die Swapmutation die Werte des BitStrings an den Stellen 6 und 10 vertauscht. Dadurch ändern sich die Merkmalsausprägungen bei den Merkmalen (3) Gehäuseform und (5) Gehäusefarbe, die beide der Komponente „Gehäuse“ angehören. Die Ausprägungen, die durch die Mutation hervorgerufen werden, liegen bei keinen der beiden Vorgänger-/ Elternmodelle vor – eine Innovation ist entstanden. In Abhängigkeit von der Eindeutigkeit der Codierung (s.o.) können im Zuge des Mutationsprozesses Bit-Code-Kombinationen auftreten, die keine Repräsentationen auf der Phänotypebene besitzen, z.B. ist der Bit-Code „11“ bei Merkmal (1) unbesetzt. In diesem Fall bestehen folgende zwei Handlungsalternativen: Zum einen können Reparaturstrategien zum Einsatz kommen, durch welche die nicht zulässigen Codes direkt auf der Genotypebene ausgemerzt werden (= reaktives Vorgehen). Die Mutationen treten infolgedessen auf der Phänotypebene gar nicht erst in Erscheinung. Zum anderen kann über ein proaktives Vorgehen versucht werden, neue Merkmalsausprägungen zu finden, welche den bis dato nicht zulässigen Codes zugeordnet werden; z.B. ist bei Merkmal (1) in Abb. 5-6 „Schlagen“ als vierte Merkmalsausprägung für den Mechanismus des Minenausschubs denkbar. Ein strukturiertes Vorgehen besteht in Form des Attribute Listing, welches mit dem Morphologischen Kasten nahe verwandt ist.36 Das Attribute Listing dient vor allem dazu, Variationen bzw. Mutationen außerhalb des bestehenden Merkmalsraumes zu generieren (vgl. Schlicksupp 2004, S. 89ff.). Zwischenfazit: Die bisherigen Ausführungen zum DMAIDV- und IESRM-Zyklus konzentrierten sich auf das Beispiel Kugelschreiber. Auf dieses wird in der Literatur des Öfteren Bezug genommen; zudem wurde es bereits im Zusammenhang mit der Vorstellung des Genetischen Algorithmus in Abschnitt 4.3.4 referiert. Bei den Darstellungen ging es in erster Linie um die Demonstration der adaptierten Methoden, weniger um die Optimierung des Produktes selbst. Die empirische Überprüfung der Wirksamkeit der abgeleiteten Vorgehensmodelle, einschließlich ihrer Methoden, ist dem folgenden Unterkapitel vorbehalten.
36
Auf der Basis des Morphologischen Kastens werden in einer separaten Spalte interessante und bisher noch nicht berücksichtigte Merkmalsausprägungen aufgeführt. Per Zufallsauswahl sollte dann entschieden werden, welche Gestaltungsmöglichkeiten in den Lösungspool zusätzlich aufzunehmen sind; sie sind entsprechend zu codieren.
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
5.3
269
Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle an Beispielen
Um die Effektivität des DMAIDV- und IESRM-Zyklus empirisch zu überprüfen, werden die Problemlösungszyklen in zwei konkreten Anwendungsbeispielen zum Einsatz gebracht.37 Im ersten Beispiel geht es um die Optimierung der Flugzeit eines Papier-Rotors (vgl. Abschnitt 5.3.1). Das Laborexperiment gilt als Standardbeispiel zur Anwendung von DOE im Rahmen von (Design for) Six Sigma-Schulungen. Aufgrund einer Reihe von Vorerfahrungen ist ein direkter Vergleich mit den Ergebnissen des DMAIDV-Zyklus möglich. Im zweiten Beispiel wird auf die unternehmensbezogene Anwendung der zwei Vorgehensmodelle eingegangen (vgl. Abschnitt 5.3.2). In einem F&E-Projekt in einem mittelständischen Unternehmen besteht das Ziel darin, auf der Grundlage des IESRM-Zyklus die Kehreigenschaften von Straßenbesen zu optimieren. Zur Absicherung der Ergebnisse werden in beiden Beispielanwendungen Methoden/ Instrumente aus dem klassischen DFSS-Toolset als Benchmark zum Einsatz gebracht. 5.3.1
Optimierung der Flugzeit eines Papier-Rotors (Laborexperiment)
(a) Einführung in die Problemstellung Weltweit gibt es eine Vielzahl von Veröffentlichungen, vor allem in Fachzeitschriften und als Konferenzbeiträge, welche die erfolgreiche Anwendung der Statistischen Versuchsplanung (DOE) zeigen. Ein verbreitetes Übungsbeispiel im Rahmen von DFSS-Trainings, an dem die verschiedenen Versuchdesigns und Auswertungsmethoden, z.B. Screening-Design, Faktorielles Design und Taguchi Design, gut nachvollzogen werden können, ist die Maximierung der Flugzeit eines Papier-Rotor (siehe Abb. 5-13). Die Versuchsdurchführung ist relativ einfach. Als Materialien werden lediglich Papier, Stift, Lineal, Schere, Stoppuhr und ggf. Büroklammern benötigt.38 Allerdings ist die Zufallsstreuung erfahrungsgemäß relativ groß im Vergleich zu den Effekten, die aufgrund der Versuchsdurchführung nachweisbar sind.39 Um signifikante Effekte zu finden, sind deshalb viele Realisierungen erforderlich (vgl. Kleppmann 2006, S. 289ff.).
37
38 39
Im Vordergrund steht hier die Überprüfung der Effektivität, also der Wirksamkeit, der abgeleiteten Vorgehensmodelle. Diese lässt sich im Rahmen einer explorativen Untersuchung relativ leicht ermitteln. Aussagen zur Effizienz werden zwar ebenfalls getroffen; sie bedürfen jedoch einer weiterführenden empirischen Untersuchung. Bei den Rotor-Versuchen wurden die folgenden Materialien verwendet: Papier: 80 g/m2, weiß, ~ 5,0 g/Stck.; Büroklammer: 26 mm, spitz, ~0,5 g/Stck. Es gibt andere DOE-Übungsbeispiele, bei denen die Effekte größer und physikalisch leichter zu interpretieren sind als beim Rotor, z.B. Nürnberger-Trichter. Diesem Vorteil steht i.A. der Nachteil gegenüber, dass mit höherer Genauigkeit der Ergebnisse die Anforderungen an den Versuchsaufbau und die Durchführung steigen.
270
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
Das Beispiel Papier-Rotor kann als Modell für eine Produktoptimierung betrachtet werden: Aus einem DIN A4-Blatt Papier wird ein Rotor gemäß Abb. 5-13 ausgeschnitten. Das Rechteck mit der Länge e und der Breite f spiegelt den Schaft des Rotors wider. Die Flügel ergeben sich dadurch, dass man die ParallelogrammFlächen von der Länge c und der Breite a entlang der punktierten Linie um 90° nach vorne bzw. um 90° nach hinten knickt. Zwischen Schaft und Flügel liegt der Steg mit einer Fläche von 2⋅a ⋅ d. Wird das gefaltete Papierblatt aus einer bestimmten Höhe fallen gelassen, beginnt es sich als Rotor in der Luft zu drehen. Bei günstiger Wahl der Dimensionen rotiert der Rotor relativ stabil und sinkt langsam zu Boden. Dabei kann es je nach verwendetem Papier erforderlich sein, den Rotor am unteren Ende zu beschweren, z.B. mit Büroklammer(n). 21,0 cm a
b
Flügel
a
Flügel
c
2·a Steg
d
29,7cm
Schaft
f
e
Abb. 5-13: Abmessungen des Papier-Rotors40
Die Aufgabenstellung besteht darin, die Abmessungen a, b, c, d, e und f so zu wählen, dass die Zeit maximiert wird, die der Rotor benötigt, um aus einer vorge40
Bei dieser und allen folgenden Abbildungen handelt es sich um eigene Darstellungen.
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
271
geben Höhe zu Boden zu sinken (= Hauptziel). Als weitere Zielgrößen können z.B. die Absturzneigung (wie auch immer zu messen) oder die Drehzahl definiert werden. Bei der Konstruktion des Rotors ist als Randbedingung einzuhalten, dass das DIN A4-Blatt vollständig genutzt wird, d.h. die Gesamtbreite beträgt 2 ⋅ a + b = 21,0 cm und die Gesamtlänge c + d + e = 29,7 cm. Zusammen mit der Schaftbreite f erhält man dann vier Konstruktionsparameter, die frei wählbar sind. Die restlichen zwei ergeben sich aus den obigen Randbedingungen. (b) Anwendung des DMAIDV-Zyklus zur Optimierung Die Anwendung des DMAIDV-Zyklus zur Optimierung des Papier-Rotors kann in einem 2-Tages-Seminar erfolgen. Die Teilnehmerzahl sollte dabei auf max. 25 begrenzt werden. In Abhängigkeit von den Six Sigma-Vorerfahrungen der Teilnehmer werden am ersten Tag die Konzeption und Inhalte von Design for Six Sigma (DFSS) vermittelt. Am zweiten Tag sind – unter Anleitung eines erfahrenen (Master) Black Belts – die einzelnen Phasen des DMAIDV-Zyklus am Beispiel des Papier-Rotors zu durchlaufen. Wesentliche Tools, die sich in der Praxis bei F&E-Projekten bewährt haben, werden zum Einsatz gebracht. Für eine erfolgreiche Anwendung sind den Teilnehmern im Vorfeld einschlägige Kenntnisse in statistischen Methoden, insb. DOE, sowie vertieftes Wissen in Kreativitäts-/ Innovationstechniken, insb. TRIZ, zu vermitteln. Die Vorgehensbeschreibung und Analyseergebnisse, die im Folgenden kurz referiert werden, basieren auf einem 2-tägigen Six Sigma-Seminar, das am 20.04.21.04.2006 an der TU Dresden durchgeführt worden ist. Teilnehmer des Seminars waren Studenten der Fakultät Wirtschaftswissenschaften, die sich zu diesem Zeitpunkt im Hauptstudium befanden und – aufgrund der gewählten Studienrichtung und absolvierter Praktika – bereits über Vorerfahrungen/ -wissen im Bereich „Qualitätsmanagement/ Prozessoptimierung/ Six Sigma“ verfügten. Aus diesem Grund konnte relativ zügig mit der konkreten Optimierungsarbeit begonnen werden. Unter meiner Leitung als Black Belt wurden zu Beginn des Seminars 5 Gruppen á 5 Studenten gebildet, die getrennt voneinander mit der Optimierung der Flugzeit des Papierrotors beauftragt wurden. Als Grundlage diente die o.g. Beschreibung im Buch von Kleppmann (2006, S. 289ff.), die alle Beteiligten zu Beginn des Seminars als Basiswissen zur Verfügung gestellt bekamen. Nachdem die Inhalte und Methoden der einzelnen Phasen des Verbesserungszyklus hinreichend erläutert wurden, bestand die erste Aufgabe darin, 10 unterschiedliche Papier-Rotoren entsprechend den genannten Rahmenbedingungen anzufertigen und aus einer Höhe von 3,75 m jeweils mindestens 2-mal fallen zu lassen. Die Flugzeiten wurden jeweils von zwei Personen (ausgestattet mit Handy-Stoppuhr) gemessenen und in einer Excel-Tabelle notiert. Aus den Daten wurden im Nachgang die mittlere Flugzeit pro Rotor sowie die durchschnittliche Streuung (Standardabweichung) der Flugzeiten bestimmt. Pro Gruppe wurde – bezogen auf die vorstehend genannten Kriterien – jeweils der beste und schlechteste Rotor der Population ausgewiesen. Die besten Rotoren hatten eine mittlere Flugzeit von ca.
272
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
4,0 s mit einer Standardabeichung von 0,1 s. Die schlechtesten Rotoren wiesen eine mittlere Flugzeit von ca. 2,0 s auf; die Standardabweichung betrug bis zu 0,4 s. Einige Rotoren fielen dadurch „negativ“ auf, dass sie teilweise oder gar nicht rotierten und einfach zu Boden trudelten bzw. schwebten. Die Flugzeiten dieser Rotoren waren aber mitunter vergleichsweise hoch. Define-Phase: Aufstellen der Projektcharter Durch den Bau und das Fliegenlassen der ersten 10 Rotoren konnten die Teams erste Erfahrungen mit dem Neuprodukt „Papier-Rotor“ sammeln. Dadurch war es möglich, die Projektcharter zur Maximierung der Flugzeit des Rotors gezielt aufzusetzen. Am Ende der ersten Projektphase erstellte jede Gruppe eine Projektcharter analog Abb. 5-14. Wie nachvollziehbar ist, wurde bei der Formulierung der Charter darauf geachtet, die einzelnen Punkte möglichst genau zu spezifizieren, um den Projektfokus für alle Beteiligten klar abzugrenzen. Gleichzeitig waren die Teams bemüht, sich relativ nahe an der „DFSS-Praxis“ zu bewegen und der dabei geforderten Stringenz Rechnung zu tragen. Die Projektcharter plus weitere Ergebnisse der Methodenanwendungen sind Bestandteil eines ca. 5-seitigen Ergebnisprotokolls, das jede Gruppe nach Ende des Seminars erstellte. Projekt: „Optimierung der Flugzeit eines Papier-Rotors“ 1. Problembeschreibung
4. Marktanalyse & Benchmarking
Es ist ein Papier-Rotor zu entwickeln, der beim Loslassen aus einer bestimmten Höhe im Innenraum möglichst lange und gleichmäßig in der Luft rotiert. Die grundsätzliche Form und das Aussehen des Rotors sind vom Kunden vorgegeben (siehe Abb. 5–19). Die Flugzeit und das Rotationsverhalten der bis dato erstellten Rotoren ist unzureichend; Kundenunzufriedenheit war die Folge.
Es ist mit steigenden Absatzzahlen zu rechnen, wenn ein Papier-Rotor entwickelt werden kann, der signifikante Leistungsvorteile gegenüber den Wettbewerbsmodellen besitzt. Unter der Voraussetzung, dass die Geometrie des Zielmodells deutliche Veränderungen aufweist, eröffnen sich darüber hinaus Differenzierungspotenziale.
Die Ursachen-Wirkungsbeziehungen zwischen den einzelnen Gestaltungsparametern und der Flugdauer/ dem Flugverhalten als Zielgröße sind kaum determinierbar. Sie sind schwierig zu bestimmen, da nicht-lineare Zusammenhänge und Wechselwirkungen höherer Ordnung auftreten. Bisherige Verbesserungen, die zu einer Erhöhung der Flugzeit führten, entstanden nach dem Trial-and-Error-Prinzip.
2. Ziele • Hauptziel: Entwicklung eines Papier-Rotors mit maximaler Flugdauer (Sinkzeit) bei stabiler Fluglage • Unterziel: Entwicklung eines Papier-Rotors, der während des gesamten Fluges gleichmäßig rotiert
3. Nutzen • Prinzipiell höherer Kundennutzen/ höhere Kundenzufriedenheit durch bessere Flugeigenschaften • Maximale Flugdauer, die aufgrund eines wissenschaftlichen Verbesserungsansatzes erzielt worden ist, als einzigartiges Verkaufsargument (USP)
9. Unterschriften
5. Net Benefit keine Angabe
6. Projektumfang/ -rahmen IN: Veränderung der geometrischen Abmessungen des Papier-Rotors bei Ausnutzung eines DIN-AA-Blattes (80g), Nutzung von Beschwerungen (Büroklammer) zur Flugstabilisierung sowie Anbringen von Faltungen, um eine Versteifung der Konstruktion zu erreichen, sind erlaubt. OUT: Veränderung der Papierart (Größe & Gewicht), der örtlichen Bedingungen (Lufttemperatur, Feuchtigkeit etc.) und der Teamzusammensetzung werden ausgeschlossen.
7. Verantwortungen Champion: Swen Günther (Black Belt/ TU Dresden) Projektleitung: Silvio S. (TU Dresden) Team: Cornelia S., Theresa H., Peter L. und Matthias L. (Studenten der TU Dresden)
8. Zeitvorgaben START: 20.04.2006
Champion:
ENDE: 21.04.2006
Black Belt:
Abb. 5-14: Projektcharter für die Optimierung des Papier-Rotors
Measure-Phase: Durchführen der Gage R&R Ein wesentliches statistisches Verfahren im Rahmen der Measure-Phase ist die Messsystemanalyse (Gage R&R). Hierbei soll sichergestellt werden, dass die zu messenden Daten zuverlässig erhoben und durch das verwendete Messsystem nicht (zu sehr) verfälscht werden. Ziel ist es, dass der mithilfe des Standardverfah-
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
273
rens Gage R&R ermittelte relative Messsystemfehler unter 5% liegt, d.h. die Abweichung in den Messwerten ist zu mehr als 95% in der Variation der Produkte/ Prozesse begründet und nicht im Messsystem selbst (vgl. Abschnitt 3.3.1). Von einem noch „guten“ Messsystem kann ausgegangen werden, wenn die durch das System erklärte Varianz der gemessenen Daten weniger als 10% beträgt; in einem Bereich von 10-30% gilt das Messsystem als „akzeptabel“.41 Alle fünf Gruppen wurden in der zweiten Aufgabe damit beauftragt, eine Gage R&R mit Minitab R14 für die Messung der Flugzeit des Papier-Rotors durchzuführen. Dazu wurden im Vorfeld in jeder Gruppe Überlegungen zu den Anforderungen an den Messvorgang angestellt. Im Rahmen einer Operationalen Definition wurde anschließend festgelegt, was Gegenstand des Messvorgangs ist und wie dieser zu messen ist. Im vorliegenden Fall ist die (Flug-)Zeit zu messen, die ein Papier-Rotor vom Loslassen an der Zimmerdecke bis zum Aufschlagen auf dem Fußboden benötigt. Dabei ist der Messvorgang wie folgt zu gestalten: „Ein Teammitglied hält den Rotor mit geknickten Flügeln senkrecht an die Decke und zählt laut von 3 abwärts. Bei 0 lässt das Teammitglied den Papier-Rotor fallen; die Messzeit beginnt. Zwei (weitere) Teammitglieder erfassen unabhängig voneinander die Flugzeit des Rotors, und zwar mittels einer in ihrem Handy integrierten Stoppuhr. Sie betätigen bei 0 den Startknopf. Der Messvorgang endet, wenn der Rotor erstmals den Boden berührt. Die zwei Zeitnehmer betätigen dann unmittelbar den Stoppknopf auf ihrer Stoppuhr.“ Die Durchführung einer Gage R&R für stetige Daten, wie es hier der Fall ist, erfordert pro Rotor mindestens zwei Messvorgänge. Der Stichprobenumfang ist auf mindestens 10 unterschiedliche Papier-Rotoren festgelegt. Damit ist es den Gruppen möglich, auf die Messwerte aus der ersten Versuchsreihe zurückzugreifen, sofern der Messvorgang zu diesem Zeitpunkt bereits in geeigneter Weise definiert worden war. Die Auswertung der Daten erfolgt mit der Statistik-Software Minitab R14. Unter dem Menüpfad Stat/ Quality Tools/ Gage Study/ werden hier gleich zwei Gage R&R-Varianten für stetige Daten angeboten: •
Gage R&R Study (Crossed) steht für die Analyse von Messsystemen, bei denen die Prüfteile zerstörungsfrei geprüft werden können, d.h. die Prüfer können auf gleiche Teile zurückgreifen. Dies ist in unserem Fall gegeben, da ein und derselbe Rotor mehrmals Fliegen gelassen werden kann.
•
Gage R&R Study (Nested) bezeichnet die Analyse von Messsystemen, bei denen die Prüfteile nicht zerstörungsfrei geprüft werden können, d.h. eine bestimmte Auswahl von Teilen (Batch), die für die Messung vorgesehen sind, können von einem Prüfer nur einmal geprüft werden.
41
Bei höheren Werten ist eine Verbesserung des Messsystems dringend erforderlich, tatsächliche Unterschiede in den Produkt-/ Prozessvarianten können dann nicht mehr „statistisch sauber“ erfasst werden.
274
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
Bei beiden Verfahrensvarianten wird das Messsystem im Hinblick auf die Wiederholbarkeit (Repeatability) und Reproduzierbarkeit (Reproducibility) der Daten überprüft. Die Aggregation beider Werte ergibt die Variation des Messsystems (Total Gage R&R); sie wird ins Verhältnis zur Gesamtvariation (Total Variation) aller gemessenen Werte gesetzt. Die Differenz aus Total Variation und Total Gage R&R ergibt die durch die Verwendung unterschiedlicher Teile begründete Varianz der Messwerte (Part-To-Part). Im Seminar lag diese bei den einzelnen Gruppen zwischen 70 und 90%, d.h. maximal 30% der Varianz der gemessenen Flugzeiten wurde durch das verwendete Messsystem erklärt. Die Systeme waren damit zum überwiegenden Teil „akzeptabel“ mit Tendenz zu „gut“. Dieses Ergebnis steht im Einklang mit dem eingangs erwähnten Problem, dass die Zufallsstreuung erfahrungsgemäß relativ groß im Vergleich zu den Effekten ist. Zur Auswertung und Interpretation der Ergebnisse wird von der o.g. StatistikSoftware standardmäßig eine Graphik mit sechs Diagrammen angeboten. In Abb. 5-15 ist die Auswertung von Gruppe 5 beispielhaft angegeben. Gage R&R (ANOVA) for Flugzeit G age name: D ate of study :
Reported by : Tolerance: M isc:
M S A F lugzeit Rotor 20.04.2006
G ruppe 5
Components of Variation
Flugzeit by Rotor-Nr.
Percent
100 85
% Cont ribution
3,2
50 15 0
4,0
2,4 Gage R&R
Repeat
Reprod
0
Part-to-Part
1
2
2M
Sample Range
Matthias
Silvio
3
UCL=0,8440
0,4
_ R=0,2583
0,0
LCL=0
7
7M
8
8M
3,2 2,4 Matthias
Silvio Prüfer
Prüfer * Rotor-Nr. Interaction
Silvio
4,0
UCL=3,967
3,5
_ _ X=3,481 LCL=2,995
Average
Sample Mean
6
4,0
Xbar Chart by Prüfer
3,0
5
Flugzeit by Prüfer
0,8
Matthias
4
Rotor-Nr.
R Chart by Prüfer
4,0
Prüfer Matthias
3,5
Silvio
3,0 0
1
2 2M 3
4
5
6
7 7M 8 8M
Rotor-Nr.
Abb. 5-15: Gage R&R-Ergebnisse mit Minitab für Papier-Rotor
Wie nachvollziehbar ist, betrug die Total Gage R&R ca. 15%, wobei diese sich vollständig aus einer unzureichenden Repeatability ergibt (siehe Diagramm oben links). Das Diagramm oben rechts gibt den Mittelwert sowie die Streuung der Messwerte über die einzelnen Rotoren wieder. Relativ hohe Streuungen weisen die Rotoren 3 und 8 auf. Niedrige Streuungen sind bei den Rotoren 1, 2M und 5 zu verzeichnen (M = Rotor mit Büroklammer). Die höchsten mittleren Flugzeiten
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
275
besitzen die Rotoren 2M und 7M; diese rotieren aufgrund der Beschwerung auch relativ gleichmäßig, was zu einer sehr geringen Streuung der Messwerte führt. Wechselwirkungen zwischen Prüfer und gemessenen Rotoren liegen nicht vor, wie der gleichmäßige Verlauf der Kennlinien im Diagramm rechts unten verdeutlicht.42 Weiterhin fällt auf, dass die Lage der Mittelwerte über alle Rotoren sowie die Streuung der Messwerte nahezu identisch sind (siehe Diagramm rechts Mitte); dies begründet u.a. die hohe Reproducibility des Messsystems. Die abgebildeten Regelkarten (R- und Xbar-Chart) in den Diagrammen links unten geben Hinweise auf die Prozessstabilität; sie spielen hier eine untergeordnete Rolle. Analyse-Phase: Planung und Durchführung von DOE Nachdem die Güte des Messsystems überprüft und sichergestellt werden konnte, beginnt die eigentliche Entwicklungs- bzw. Verbesserungsarbeit. Aus Six SigmaSicht besteht die originäre Aufgabe der Analyse-Phase darin, die wesentlichen Einflussgrößen zu bestimmen, welche die Flugzeit des Rotors als CTQ maßgeblich beeinflussen. Dazu sind zunächst Vermutungen (Hypothesen) über mögliche und aus Entwicklungssicht plausible Ursachen-Wirkungszusammenhänge aufzustellen, die dann im zweiten Schritt – auf der Grundlage von statistischen Dependenzanalysen – überprüft werden. Ein häufig genutztes Instrument, um die vermuteten Zusammenhänge zwischen Einfluss- und Ergebnisgrößen zu systematisieren und zu visualisieren ist das Ishikawa-Diagramm (vgl. Abschnitt 3.3.1). In Abb. 5-16 ist die Ursachenanalyse für die Beeinflussung der Flugzeit des Rotors von einer der fünf Seminargruppen beispielhaft dargestellt. Mithilfe der Kreativitätstechnik Brainstorming wurden im Team mögliche Ursachengrößen in den sechs Kategorien Messung, Material, Maschine, Mensch, Mitwelt und Methoden (6 M) diskutiert und zugeordnet. Dabei war zunächst entscheidend, möglichst viele Haupt- und Nebeneinflussgrößen zu ermitteln, die in Bezug auf die Zielstellung von Relevanz sind. Im Weiteren wurden die hierarchisch angeordneten, potenziellen Einflussgrößen im Hinblick auf ihre Beeinflussbarkeit beurteilt. Mit „variabel“ sind diejenigen Größen gekennzeichnet, die aus Sicht der Teammitglieder kurz- bzw. mittelfristig beeinflusst werden können. Wie in Abb. 5-16 ersichtlich wird, ist der überwiegende Teil der Einflussgrößen veränderbar. Im Gegensatz dazu gelten die Größen, die „von der Natur“ gegeben sind und damit nicht unmittelbar veränderbar sind, als „constant“. Nach Einschätzung der Gruppe sind „nur“ die Bedingungen für das Fallenlassen des Rotors (Prüfraum) und die Herstellung (per Hand) konstant. Das Raumklima und die ungewollte Luftströmung werden als „noise“ charakterisiert. Hierbei handelt es sich um veränderliche Einflussgrößen, die jedoch nur schwer oder gar nicht kontrollierbar sind und zu einem sog. Hintergrundrauschen führen.
42
Dies bedeutet, dass die beiden Prüfer keine besonderen Präferenzen in Bezug auf die zu vermessenden Teile haben und nicht bestimmte Rotoren favorisieren.
Abb. 5-16: Ishikawa-Diagramm für Papier-Rotor
Mensch
Datenauswertung
v Analyst
Datenerfassung
Startzeichen geben Loslasser
v Prüfer
Zeichner
Varianz des Messsystems
c Prüfraum
v
v Fallenlassen
Normal
Raumn klima
n
(z.B.Tür offen)
Zugluft
3 Luftströmung
Ventilator
Gewollt v Offenes Fenster
Lufttemperatur
Kalt
Warm
Lineal Faltungen
Knick an Flügeln
Papierstärke Rotorfläche
Flügel Steg Schaft
Geometrie v 5
Siehe Abb. mit Rotor-Skizze
(z.B. mit Plotter)
automatisiert
Herstellung c
(z.B. mit Drucker)
Legende: v variable n noise c constant Punktbewertung
Messung v
Zuschneiden
per Hand
Methode
Zeit spez.
Ort spez.
per Hand
Zeichnen automatisiert
Flugzeit des Papier-Rotors
Löcher Hilfsmittel v v Gewicht Schere Aero(Messer) 2 dynamik Zusatzgewicht Zuschneiden v Rundungen (z.B. Büroklammer)
Bleistift
Armbewegungen
Klimaanlage
Art
Knick am Schaft
Steifigkeit
Maschine Klebeband am Flügel
Verstärkungen Klebeband am Schaft
Zeichnen
2
Ungewollt Luft- Luftfeuchte druck
Mitwelt
Grundfläche
Raumhöhe
Exakte Richtige Zeichnung AufschlagMaße punkt Hersteller erkennen Korrekte Fehlerfreier Faltung Startpunkt Zuschnitt einhalten Zuschneider (Zeit & Ort)
Zeitnehmer
HandyBedienung
Gage R&R
Büroklammer
Anzahl
Wiederholbarkeit v Reproduzierbarkeit
Varianz der Prüfteile
Rotor v
Art
Material
Papier Mess- v geräte Stärke
Länge
Handy
Lineal
Stoppuhr
Material
Operationale QualifiDefinition für kation Loslassen Loslasser
v Prüfer
Zeitnehmer Operationale Definition für QualifiZeitmessung kation
3
Ende definieren
Messung
Stopp Start festlegen Uhr festlegen Zeitmessung
v Messvorgang
Fallhöhe Anfang definieren
276 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
277
Die anschließende Aufgabe bestand darin, die gesammelten Einflussgrößen im Hinblick auf ihre Bedeutung bzgl. der Maximierung der Flugzeit zu bewerten. Dazu erhielt jeder der fünf Teammitglieder 3 Klebepunkte, die er auf dem Ishikawa-Diagramm beliebig verteilen konnte. Zulässig war es, die Punkte sowohl auf Haupteinflussgrößen- als auch der Nebeneinflussgrößen-Ebene zu verteilen. Zudem konnten die Teilnehmer Mehrfachbewertungen vornehmen. Im Ergebnis entfielen insgesamt 9 von 15 Punkten auf die Kategorie Maschine (Rotor), wobei die geometrischen Maße mit 5 Punkten am bedeutsamsten erschienen. Als ebenfalls wichtig wurden – mit jeweils 3 Punkten – die Größen Messvorgang und Luftströmung eingestuft; ihr Einfluss wurde bereits im Zusammenhang mit der Messsystemanalyse thematisiert. Die Gruppen konzentrierten sich deshalb im Weiteren auf die Optimierung der konstruktiven Auslegung des Papier-Rotors. Nach Kleppman 2005 (S. 282) ist es im Prinzip gleichgültig, welche der sechs geometrischen Parameter (siehe Abb. 5-13) als Einflussfaktoren gewählt werden, um die Flugzeit des Rotors bei Fallenlassen aus einer gegebenen Höhe zu maximieren. Folgende Überlegungen sollten jedoch bei der Dimensionierung berücksichtigt werden, um den Versuchsaufwand in Grenzen zu halten: •
Das Gewicht des Rotors ist von der Gesamtfläche 2⋅a ⋅ (c + d) + e ⋅ f und ggf. dem Gewicht der Büroklammer abhängig. Das Gewicht zieht einerseits den Rotor nach unten (Flugzeit sinkt), andererseits erhöht es aber auch das Drehmoment, welches die Rotation bewirkt (Flugzeit steigt).
•
Die Fläche der Flügel F, die F = 2⋅a ⋅ c beträgt, behindert zum einen das Sinken (Flugzeit steigt). Zum anderen korreliert sie i.A. mit einem höheren Gewicht, so dass das Sinken des Rotors beschleunigt wird (Flugzeit sinkt).
•
Die Stabilität des Rotors beim Drehen wird vor allem durch die Lage des Schwerpunktes determiniert. Liegt er zu hoch, fängt er an zu trudeln.43 Gleichzeitig kann beobachtet werden, dass der Rotor instabil wird und wegknickt, wenn die Fläche 2⋅a ⋅ d im Verhältnis zur Flügelfläche relativ klein ist.
Diese Überlegungen verdeutlichen, dass bei der Konstruktion des Rotors eine Reihe von Widersprüchen bestehen, die durch eine geeignete Dimensionierung zu überwinden sind. Außerdem lässt sich das Flugverhalten aufgrund der Einflussgrößen und ihrer Wechselwirkungen nicht im Voraus berechnen. Als unabhängige Größen kommen z.B. die Längen a, c, d und f in Frage. Denkbar sind aber auch die Verwendung von F, a, d und f oder anderer Kombinationen. Aufgrund der formulierten Bedingungen hat e vermutlich geringeren Einfluss auf die Flugeigenschaften des Rotors und dürfte daher weniger gut als unabhängiger Faktor geeignet sein als bspw. c und d. Ausgehend von diesen Überlegungen wurden in den
43
Hier hilft die Befestigung einer Büroklammer o.ä. am Schaftende. Das Gewicht der Büroklammer beträgt – je nach Layout – ca. 1/5 des Papier-Rotor-Gewichts.
278
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
Teams Input-Variablen festgelegt, deren Zusammenhang mit der Output-Variable „Flugzeit“ im Folgenden statistisch überprüft werden sollte. Durch die Konzentration auf geometrische Maße war diese Aufgabe relativ leicht zu lösen; Einflussgröße und Messgröße sind i.d.R. identisch und bedürfen keiner weiteren Operationalisierung. Schwieriger gestaltet sich hingegen die empirische Überprüfung der vermuteten Ursachen-Wirkungsbeziehungen. Aufgrund des Vorhandenseins von mehreren Input-Variablen (Faktoren), die in Bezug auf die Output-Variable (Effekt) einzeln und gemeinsam wirken, z.B. Flügellänge und -breite, ist auf DOE als geeignete Untersuchungsmethode zurückzugreifen. In Seminaren bietet sich ein vollständiger faktorieller 23-Versuchsplan an, in dem die Effekte von drei Faktoren und ihren Wechselwirkungen untersucht werden. Dabei bleibt es den Teilnehmern überlassen, die Faktoren festzulegen, konkrete Stufenwerte für die Faktoren anzugeben, den Versuchsplan aufzustellen, die Einzelversuche durchzuführen und auszuwerten sowie Verbesserungsmaßnahmen abzuleiten. Aufgrund der Voranalysen mithilfe der Gage R&R und des IshikawaDiagramms kristallisierten sich in den verschiedenen Gruppen die folgenden fünf Einflussgrößen als „untersuchungswürdig“ heraus: Flügelbreite (a), Flügellänge (c), Stegbreite (d), Schaftbreite (f) und Büroklammer (ja/ nein). StdOrder RunOrder 1 1 2 2 3 3 4 4 5 5 6 6 7 7 8 8
Steg (d) 2 5 2 5 2 5 2 5
F-Länge (c) F-Breite (a) 8 5 8 5 12 5 12 5 8 8 8 8 12 8 12 8
Mittelwert 2,53 2,48 2,80 3,55 2,43 1,88 2,70 2,53
Stabwa 0,177 0,035 0,071 0,000 0,106 0,035 0,071 0,106
Abb. 5-17: Vollfaktorieller 23-Versuchsplan für Papier-Rotor
Für 3 der 5 Größen wurden in jeder Gruppe dichotome Ausprägungen festgelegt und Versuchspläne nach o.g. Muster aufgestellt. In Abb. 5-17 ist ein solcher Versuchsplan mit Angabe der Ergebniswerte exemplarisch aufgeführt. Es wurden 8 Rotoren entsprechend dem Versuchsplan, der in nicht-randomisierter Form vorlag, gefertigt und mind. jeweils 2-mal Fliegen gelassen.44 Als Faktoren gingen die 44
Aus statistischer Sicht wäre es ideal, dass für jede Realisierung ein neuer Rotor ausgeschnitten und gefaltet wird, der dann nur jeweils einmal fällt. Die zufälligen Abweichungen in den Sinkzeiten von nominell identischen Rotoren beinhalten nämlich u.a. zufällige Unterschiede im Material (Papier), in der ausgeschnittenen Form und Größe, in der Faltung, in Höhe und Haltung beim Loslassen des Rotors, in der Luftströmung und in der Zeitmessung (Stoppuhr). Nachteil sind der hohe Zeit-/ Kostenaufwand.
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
279
Flügelbreite und -länge sowie die Stegbreite in das Untersuchungsmodell ein. Um möglichst eindeutige Effekte zu erhalten, sind die Abstände zwischen hoher und niedriger Ausprägung zunächst relativ groß gewählt worden. Die mittleren Flugzeiten der Rotoren aus zwei Versuchsdurchführungen bewegen sich zwischen 1,88 s (Minimum) und 3,55 s (Maximum); dies deutet auf gravierende Unterschiede in der Designqualität der Rotoren hin. Die durchschnittliche Streuung (Standardabweichung) der Flugzeiten ist gleichzeitig über alle Faktorstufenkombinationen relativ gering, was u.a. auf ein zuverlässiges Messsystem schließen lässt. Eine detaillierte Auswertung der Versuchsergebnisse ist mithilfe von einschlägiger Statistik-Software möglich, z.B. Minitab R14. In Abb. 5-18 sind die ermittelten standardisierten Effekte der Variablen des Untersuchungsmodells in Form eines Pareto-Charts aufgeführt. Wie ersichtlich ist, sind die zwei Hauptfaktoren Flügellänge und -breite für die Maximierung der Flugzeit hoch signifikant (p-Wert < 0,001), die Stegbreite besitzt hingegen keine signifikante Wirkung auf die Zielgröße (p-Wert = 0,894). Im Hinblick auf die Optimierung des Rotors darf sie jedoch keinesfalls vernachlässigt werden, da sie in Wechselwirkung mit den anderen beiden Faktoren steht. So werden die Zwei-FaktorenWechselwirkungen (2FWW) Stegbreite x Flügellänge und Stegbreite x Flügelbreite als hoch signifikant ausgewiesen (je p-Wert < 0,001). Die 2FWW Flügellänge x Flügelbreite und die sich ergebende 3FWW zwischen allen drei Faktoren sind nach der Berechnung mit ANOVA gerade noch signifikant (p = 0,048). Graphisch ist dies über die eingezeichnete Linie bei 2,31 in Abb. 5-18 ablesbar, welche die Länge des ermittelten Konfidenzintervalls bei α = 0,05 angibt. Das Zielmodell wird durch ein Polynom 1. Grades beschrieben, wobei sich die (Regressions-)Koeffizienten direkt aus den Effekten der einzelnen Faktoren und Faktoren-Wechselwirkungen berechnen lassen (vgl. Minitab Session Command Help). Im vorliegenden Fall wird die Flugzeit der Rotoren (y) mit einem Bestimmtheitsmaß von 97,9% durch folgenden Term beschrieben:
y = f ( a, c, d ) = 2,609 − 0,228 ⋅ a + 0,284 ⋅ c − 0,003 ⋅ d − 0,053 ⋅ a ⋅ c − 0,178 ⋅ a ⋅ d + 0,147 ⋅ c ⋅ d − 0,053 ⋅ a ⋅ c ⋅ d
(5.6)
mit y in s; a, b, c und d in cm
Entscheidet man sich für die einfache Variante, also für Einzelversuche mit demselben Rotor auf jeder Faktorstufenkombination, dann genügt es, 8 Rotoren nach dem Versuchsplan auszuschneiden und zu falten. Nach systematischer Durchnummerierung können diese in den Einzelversuchen immer wieder verwendet werden. Dadurch wird der Versuchsaufwand wesentlich reduziert. Jedoch muss man sich im Klaren darüber sein, dass die Zufallsstreuung gegenüber Versuchen mit mehreren nominell identischen Rotoren i.A. unterschätzt wird, da die ersten drei Streuungsursachen (Material, Form, Größe und Faltung) nicht erfasst werden.
280
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
Die graphische Darstellung der Koeffizienten respektive Effekte erfolgt in Form des Main Effects Plot sowie Interaction Plot. Aus ihnen sind die Stärke und Richtung der analysierten Faktoren und ihrer Wechselwirkungen ablesbar. Der Zusammenhang zwischen Faktorausprägung und Effekthöhe wird über lineare Regressionsgeraden beschrieben, deren Anstieg dem jeweiligen Koeffizienten in Gleichung (5.6) entspricht. Während die beiden Flügelparameter a und c jeweils einen relativ großen Einfluss auf die mittlere Flugzeit des Papier-Rotors haben, geht der Haupteffekt, der durch die Stegbreite d begründet ist, gegen Null. Nach dem Pareto-Chart sind für die Zielgrößenmaximierung Rotoren mit langen, schmalen Flügeln zu bevorzugen. Jedoch ist hier zu beachten, dass die Wahl der Merkmalsausprägungen für a und c nicht unabhängig von d erfolgen darf. Die Wechselwirkungseffekte AB und AC im Zusammenhang mit der Stegbreite werden durch die gekreuzten Linien in den entsprechenden Interaction Plots verdeutlicht.
Pareto Chart of the Standardized Effects (response is Flugzeit, Alpha = ,05) 2,31 F actor A B C
B
N ame S tegbreite F lügellänge F lügelbreite
C
Term
AC AB ABC BC A 0
2
4
6 8 10 Standardized Effect
12
14
Abb. 5-18: Pareto-Chart der standardisierten Effekte beim Papier-Rotor
Über den Response Optimizer, der sich ebenfalls im Menüpunkt Stat/ DOE/ Factorial in Minitab R14 befindet, ist schließlich eine Optimierung der im Portfolio befindlichen Designvarianten möglich. Wie im Cube Plot in Abb. 5-19 ersichtlich ist, werden die höchsten durchschnittlichen Flugzeiten erzielt, wenn sich die Stegbreite und die Flügellänge auf hoher Ausprägung (d.h. 5 cm bzw. 12 cm) und die Flügelbreite auf niedriger Ausprägung (d.h. 5 cm) befinden. Das gegenwärtige Optimum (y* = 3,55 s) befindet sich damit an den Grenzen des definierten Untersuchungsraumes. Eine Erweiterung der Toleranzbereiche bzgl. der Einflussgrößen
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
281
ist empfehlenswert, um eine weitere Verbesserung der Flugzeiten zu erreichen. Es ist davon auszugehen, dass das Maximum von y bei a < 5 cm, c > 12 cm und d > 5 cm liegt. Folglich sollten in der nächsten Verbesserungsrunde z.B. folgende Einstellwerte für die drei Faktoren gewählt werden: a = [3; 6]; c = [11; 15] und d = [4; 7], um näher an das wahre Optimum heranzukommen.
Cube Plot (data means) for Flugzeit 2,700
2,525
2,800
3,550
12
Flügellänge
2,425
1,875 8
2,525
2,475
8
Flügelbreite 5
2
Stegbreite
5
Abb. 5-19: Cube Plot mit mittleren Flugzeiten der Papier-Rotoren
Zwischenfazit: Das Optimierungsproblem stellt sich – im Gegensatz zur ersten Einschätzung vieler Beteiligter – als relativ komplex dar. Aus der Vielzahl der potenziellen Einflussgrößen, die im Zuge der Ursachen-Wirkungsanalyse gefunden worden sind, ist jeweils nur ein kleiner Ausschnitt überprüfbar. Unter Berücksichtigung des Versuchsaufwandes lassen sich i.d.R. maximal fünf Größen in einem Durchgang analysieren. Nimmt man die Ergebnisse der einzelnen Gruppenarbeiten zusammen, dann ergibt sich folgendes Bild, welches die Komplexität und den Schwierigkeitsgrad der Problemstellung untermauert: •
Die Einflussgrößen, die insb. unter der Kategorie Material eingeordnet sind, können im großen und ganzen in ihrer Wirkung bestätigt werden. Sowohl die geometrischen Maße als auch die verwendeten Zusatzeinrichtungen, z.B. Büroklammer, haben einen signifikanten Einfluss auf die Flugzeit.
•
Die Signifikanz der ermittelten Effekte richtet sich in erster Linie danach, wie groß der Wertebereich der modellrelevanten Faktoren definiert ist, d.h. die Schrittweite zum Abtasten des Lösungsraumes darf nicht zu klein gewählt sein, da ansonsten das Rauschen (Noise) zu groß wird.
282
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
•
Die Hauptfaktorwirkungen fallen – je nach gewählter Versuchsanordnung – in ihrer Stärke und Richtung recht unterschiedlich aus. Dies legt den Schluss nahe, dass die Lage des Optimums nicht grenzwertig ist und sich „irgendwo“ im mittleren Bereich der zulässigen Faktorausprägungen befindet.
•
Die Faktoren-Wechselwirkungen besitzen eine außerordentlich hohe Bedeutung in Bezug auf die Maximierung der Flugzeit des Rotors. Aus diesem Grund sind teilfaktorielle Versuchspläne, bei denen Wechselwirkungen höher Ordnung überlagert werden, zur Untersuchung nur bedingt geeignet.
•
Die Ermittlung von optimalen Faktor-Einstellwerten gestaltet sich aufwendig und schwierig: Erstens wegen der hohen Anzahl benötigter Versuchsanordnungen/ -wiederholungen, zweitens wegen dem erforderlichen MethodenKnow-how, das erst im Zuge eines weiterführenden Studiums erlangt wird.
•
Die Maximierung der Flugzeit des Rotors erfordert das Aufdecken und Analysieren von nicht-linearen Zusammenhängen. Mit linearen Optimierungsansätzen lässt sich die Lage des Optimums i.d.R. nur (sehr) grob schätzen.
•
Die systematische Vorgehensweise im Rahmen von DOE führte bei allen Gruppen zum Auffinden einer verbesserten Lösung gegenüber dem ersten Versuchsdurchgang, bei dem das Trial-and-Error-Prinzip zugrunde lag.
•
Die Güte der Messsysteme verbesserte sich zusehends. So lagen am Ende der Analyse-Phase in allen Gruppen valide Ergebnisse zur Verifizierung respektive Falsifizierung der vermuteten Ursachen-Wirkungsbeziehungen vor.
Erweiterungen über die hier beschriebene Aufgabenstellung hinaus sind je nach Trainingsinhalt und -tiefe jederzeit möglich (vgl. Kleppmann 2006, S. 292). So sind u.a. weitere Faktoren denkbar, deren Einfluss auf die Flugzeit des Rotors untersucht werden kann, wie z.B. Form der Flügel, Abschrägungen an der Versteifung, Papierart und Verwendung unterschiedlicher Gewichte, z.B. Büroklammer, Heftklammer. Nichtlinearitäten lassen sich mit zentral zusammengesetzten Versuchsplänen, z.B. Central-Composite-Designs oder Box-Behnken-Pläne, untersuchen. Die Standardabweichung der Flugzeit kann als Maß für die Anfälligkeit des Rotors gegenüber Störungen als weitere Zielgröße definiert werden. Unter Nutzung von Versuchsdesigns nach Taguchi lassen sich auf diese Weise das SignalRausch-Verhältnis ermitteln und ggf. verbessern. Innovate-Phase: Lösen von Widersprüchen mit TRIZ Nachdem ein akzeptabler Papier-Rotor gefunden worden ist, der den in der Define-Phase formulierten Anforderungen entspricht, beginnt nach klassischem DFSSVerständnis die Design-Phase. Der Raum für Innovationen ist in diesem Fall relativ (stark) beschränkt. Für den besten Rotor, der in der Analyse-Phase experimentell ermittelt werden konnte, wird ein Feinkonzept ausgearbeitet. Innovative Lösungen werden im Zuge der Konfektionierung allenfalls zufällig gefunden. Aus
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
283
diesem Grund wird der Einschub einer zusätzlichen Phase empfohlen (vgl. Abschnitt 5.1.1), so dass sich ein insgesamt 6-phasiger DFSS-Zyklus ergibt. In der Innovate-Phase wird vordergründig nach innovativen Verbesserungsmöglichkeiten gesucht, die den Kundennutzen erhöhen. Aus mathematischer Sicht soll auf diese Weise sichergestellt werden, dass die ermittelte Lösung tatsächlich ein globales Optimum repräsentiert (vgl. Abschnitt 3.4.2). Unter Anwendung von TRIZ wird im Folgenden die Konstruktion des RotorSchaftes im Hinblick auf seine Optimalität überprüft. Die Funktion des Schaftes besteht darin, durch die Beeinflussung der Lage des Schwerpunktes des Rotors die Rotationen in der Luft zu stabilisieren. Erfahrungsgemäß reicht aber der reine Papierzuschnitt nicht aus, um eine stabile Rotation zu erreichen. Gängige Praxis ist deshalb ein Zusatzgewicht in Form von Büroklammern anzubringen, was zu einer signifikanten Verlagerung des Schwerpunktes des Rotors nach unten beiträgt. Im Vergleich zum Papier-Rotor ohne Klammer(n) wird i.d.R. eine deutlich höhere Rotationsstabilität erreicht. Diese äußert sich u.a. darin, dass der Rotor gleich von Beginn an rotiert sowie bei kurzeitigen Änderungen der Fallbedingungen, z.B. Luftströmung, nicht gleich ins Trudeln gerät. Die stabilisierende Wirkung aufgrund des Zusatzgewichtes geht jedoch zu Lasten der maximal erreichbaren Flugzeit. Denn je schwerer der Rotor ist, desto schneller sinkt er zu Boden. Es besteht folglich ein Trade-off zwischen der Verbesserung der Rotationseigenschaften und der Maximierung der Flugzeit. Im Hinblick auf die zwei genannten Ziele ist die optimale Gewichtsverteilung am Schaft für jeden Rotor einzeln zu bestimmen. Mittels geeigneter Experimentieranordnung lässt sich untersuchen, welches Zusatzgewicht am Rotor anzubringen ist, um bei (noch) akzeptablem Drehverhalten die maximale Flugzeit zu erreichen. In diesem Zusammenhang besitzt die bisher praktizierte Lösung den Nachteil, dass die Gewichts- und damit Schwerpunktbeeinflussung nur grob, d.h. über eine diskrete Änderung der Anzahl von Klammern erfolgen kann. Zudem verursacht das Anbringen und ggf. wieder Abnehmen der Klammern einen zusätzlichen Zeitund Kostenaufwand in der „Herstellung“ des Rotors. Diesen gilt es bei der Suche nach einer verbesserten Lösung zu vermeiden. Die Bewertung des Systems basiert bei TRIZ auf dem Konzept der Idealität. Bei diesem werden alle erwünschten Funktionen ins Verhältnis zu allen unerwünschten Funktionen gesetzt (vgl. Abschnitt 5.1.2). Die unerwünschte Funktion besteht im Fall des Papier-Rotors darin, dass der Schaft eine oder mehrere Büroklammern zu halten hat (Nebenfunktion = unerwünscht), um den Rotor stabil fliegen zu lassen (Hauptfunktion = erwünscht). Ein ideales System liegt nach der TRIZPhilosophie genau dann vor, wenn zur Ausübung der Hauptfunktion auf alle Nebenfunktionen verzichtet werden kann, d.h. der Rotor rotiert lange und stabil, ohne dass Klammer(n) notwendig sind. Um zu einem solchen ideal(er)en System zu gelangen, sind verschiedene Wege möglich. Eine gebräuchliche Vorgehensweise, die auch in unserem Fall zur Anwendung kommen soll, ist – entsprechend dem
284
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
Minimumprinzip der BWL – die sukzessive Beseitigung der Schwächen des Systems, ohne die Stärken desselbigen negativ zu beeinflussen. Ausgangspunkt für das Auffinden innovativer Lösungsideen ist das Vorhandensein von Konflikten. Dabei handelt es sich um technische Widersprüche, die sich aus administrativen Widersprüchen ergeben, wie sie vorstehend am Beispiel Papier-Rotor genannt sind. Das Vorliegen von technischen Widersprüchen erlaubt u.a. die Anwendung der Altschuller´schen Konflikte-Matrix zur innovativen Lösungsfindung (siehe Abb. 5-20). Grundlage hierfür bilden die 39 technischen Parameter, die – paarweise gegenübergestellt – direkt zu technischen Widersprüchen (Konflikte) führen. Das Auffinden innovativer Lösungen geht mit der Aufhebung dieser Konflikte einher, und zwar nach dem Motto „Verbessert man den einen Parameter, dann verschlechtert sich nicht der andere“. Hilfestellung bei der Lösungsfindung wird anschließend in Form der 40 innovativen Lösungsprinzipien gegeben, die den definierten Konfliktepaaren in der Matrix selektiv zugeordnet sind. Der „zu verbessernde Parameter“ sowie die „nicht erwünschte Veränderung“ lassen sich im Fall des Papier-Rotors wie folgt beschreiben: •
Der technische Parameter (15) soll verbessert werden.45 Bei diesem geht es um die „Haltbarkeit eines bewegten Objektes“, was der geforderten stabilen und gleichmäßigen Rotation des Papier-Rotors (ohne Zusatzgewicht) auf seiner Flugbahn sehr nahe kommt.
•
Der technische Parameter (01), der das „Gewicht eines bewegten Objektes“ definiert, soll gleichzeitig unverändert bleiben.46 Ziel ist es, die stabile Fluglage des Rotors zu gewährleisten, ohne das Gewicht durch Anbringen zusätzlicher Materialien am Schaft erhöhen zu müssen.
Die Gegenüberstellung der zwei Parameter in der Konflikte-Matrix führt zu den vier Lösungsvorschlägen aus der Liste der 40 Innovations-Prinzipien: •
Periodische Wirkung (19): (a) Von der kontinuierlichen Wirkung ist zur periodischen (Impulswirkung) überzugehen (Bsp.: Schlagbohrmaschine)/ (b) Wenn die Wirkung bereits periodisch erfolgt, ist die Periodizität zu verändern (Bsp.: Morse-Code)/ (c) Die Pausen zwischen den Impulsen sind für eine andere Wirkung auszunutzen (Bsp.: Musik in Telefonwarteschleife)
•
Vereinen (05): (a) Gruppiere gleichartige oder zur Zusammenarbeit bestimmte Objekte räumlich zusammen, d.h. kopple sie (Bsp.: Bicolor-Bleistifte)/ (b)
45
46
Der technische Parameter (15) ist wie folgt definiert (vgl. Herb et al. 2000, S. 268): „Die Zeitspanne, während der ein räumlich bewegendes Objekt in der Lage ist, seine Funktion erfolgreich zu erfüllen.“ Der technische Parameter (01) ist wie folgt definiert (vgl. Herb et al. 2000, S. 267): „Die messbare, von der Schwerkraft verursachte Kraft, die ein bewegter Körper auf die ihn vor dem Fallen bewahrende Auflage ausübt. Ein bewegtes Objekt verändert seine Position aus sich heraus oder aufgrund externer Kräfte.“
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
285
Vertakte gleichartige oder zur Zusammenarbeit bestimmte Objekte, d.h. kopple sie zeitlich (Bsp.: Radio-Cassettenrecorder)
1 2 3
Gewicht eines bewegten Objektes Gewicht eines stationären Objektes Länge eines bewegten Objektes
8
Länge eines station ären Objektes Fläche eines b ewegten Objektes Fläche eines stationären Objektes Volu men eines bewegten Objektes Volu men eines station ären Objektes
9
Geschwindig keit
4 5 6 7
10
Kraft
11
Druck oder Spannung
12
Form
13
Stabilität eines Objektes
14
Festig keit
16
Haltbarkeit eines bewegten Objektes Haltbarkeit eines st ationären Objektes
17
Temperatur
15
8, 15, 2 9, 34
15 , 1 7, 4
35, 8, 2, 14 7, 14 , 17, 4
26, 7, 9, 39 1, 7, 4, 35
3 5, 10 , 19, 14 19, 14
1, 7, 4, 17 35, 8, 2, 14
2, 8, 13, 14, 29 , 3 0, 28, 13, 8 34 38 8, 1, 1 8, 13 , 17, 19, 19 , 1 0, 1, 18, 28 , 1 0 37,18 1, 28 9, 36 15 36, 37
7, 29 , 34 15 , 9 , 1 2, 37
10, 14, 35, 40 13, 10, 29, 14 1, 8, 1, 8, 35 10, 29 1, 14, 13, 14, 35 15 , 7 10, 1 5, 5 , 34, 36, 28 29 , 4 10, 1 5, 36, 37 6, 35, 1 , 15, 36, 37 29 , 4
1 3, 28, 6, 18, 15 , 1 9 38, 40 18, 2 1, 11
35, 15, 28 , 3 3, 8, 3, 18, 34 1, 18 26, 14 10, 35, 35 , 1 0, 35, 10 , 40, 34 21 14, 27
3, 19 , 3 5, 5 1 9, 2
10, 36, 1 3, 29 , 35, 10, 35, 1, 10 , 1 5, 10, 15, 6, 35 , 6, 35, 3 6, 35, 3 5, 4, 35 , 3 3, 9, 18, 19 , 3 , 35, 24 3 7, 40 10, 18 36 14 , 1 6 36, 25 35, 37 10 36 21 15, 10 2, 40 3, 40 27 8, 10, 1 5, 10 , 29, 34, 1 3, 14, 5, 34, 14 , 4 , 35, 15, 3 5, 10, 34, 1 5, 33, 1 , 30, 14 , 14, 26, 7, 2, 35 2 9, 40 2 6, 3 5, 4 10, 7 4, 10 1 5, 22 34, 18 37 , 4 0 10, 14 18, 4 10, 40 9 , 2 5 21, 35, 2 6, 39 , 13, 15, 2, 11, 37 2, 39 1, 40 1, 28 13 1, 8, 4 0, 26 , 1 , 1 5, 1 5, 14, 3, 34, 4 0, 15 2 7, 1 8, 35 28 , 2 6 40, 29
39 9, 40,
28, 10, 34, 28 , 33, 15, 1 0, 35, 2, 35, 2 2, 1, 1 9, 39 35, 40 28, 18 21 , 1 6 40 18 , 4 10, 15, 9, 14, 8, 13, 1 0, 18, 10, 3, 10, 30, 13 , 1 7, 17, 15 26, 14 3, 14 18, 40 35, 40 35
Innovationsprinzipien 28 14, 7
19, 5, 3 4, 31
3, 17, 2, 19, 9 19 6, 27, 1, 10, 19, 16 35 36, 22, 2 2, 35 , 15, 19, 1 5, 19, 3, 35, 6, 38 32 9 9 39, 18
10 , 2 , 1 9, 30
17 Temperatur
15
28, 27 , 5, 34 , 18, 40 31, 35 28, 2, 10, 27 8, 35, 19 29, 34 15, 14 , 28, 26 3, 15, 6, 3 40, 14
Haltbarkeit eines stationären 16 Objektes
14
Haltbarkeit eines bewegten Objektes
13 1, 35 , 1 9, 39 26 , 3 9, 1, 40 1, 8, 1 5, 34 39 , 3 7, 35 11, 2 1 3, 39
Festigkeit
12
6, 20, 4, 38 2 8, 19, 32, 22 1 0, 15, 19 1, 4 0, 3, 35, 28 , 1 0 35 38, 18 29, 30, 1 9, 30, 2, 15, 4, 34 35, 2 16 2, 1 0, 3 5, 39, 1 , 1 8, 2, 38 40 19 , 3 0 38 35 , 3 6 29, 4, 1 5, 35, 28 , 1 0, 9, 14, 3 4, 39, 6, 35 , 4 38, 34 36 , 3 7 1, 39 15, 7 10, 18 2 , 1 8, 34 , 2 8, 9, 14, 35, 34, 24, 35 7 , 2 , 3 5 35, 6, 4 37 3 5, 40 17, 15 38
2, 36, 13, 28, 18, 37 15, 12
10, 3 6, 37, 40 13, 2 9, 10, 18
Stabilität eines Objektes
11
Form
10 Kraft
8 , 1 0, 18 , 3 7 8 , 1 0, 19 , 3 5 1 7, 10, 13, 4, 8 4
Druck oder Spannung
9
8
7 7, 17 , 4, 35
14, 15, 18, 4
Geschwindigkeit 2, 8, 15, 38
5, 35, 1 4, 2
17, 7, 10, 40
30, 2, 14, 18
Volumen eines stationären Objektes
6
29 , 2 , 4 0, 28 35, 30, 13, 2
3 5, 28 , 40, 29 2, 17, 29, 4
Volumen eines bewegten Objektes
5 29 , 1 7, 38, 34
10, 1, 29 , 3 5
2, 26, 2 9, 40
Fläche eines stationären Objektes
4
3 1 5, 8, 29, 34
Fläche eines bewegten Objektes
Zu verbessernder Parameter
Länge eines stationären Objektes
Nicht erwünschte Veränderung (Konflikt)
Länge eines bewegten Objektes
Technischer Parameter
Technischer Parameter
2
Poröse Materialien (31): (a) Das Objekt ist porös auszuführen, oder es sind zusätzlich poröse Elemente (Einsatzstücke, Überzüge usw.) zu benutzen (Bsp.: Filzstift)/ (b) Wenn das Objekt bereits porös ausgeführt ist, sind die Poren mit einem geeigneten Stoff zu füllen (Bsp.: Flaschenkorken) 1
•
Gewicht eines stationären Objektes
Beseitigung und Regeneration (34): (a) Teil eines Objekts, das seinen Zweck erfüllt hat oder unbrauchbar geworden ist, wird beseitigt (aufgelöst, verdampft o.ä.) oder unmittelbar im Arbeitsgang umgewandelt (Bsp.: Patronenhülse)/ (b) Verbrauchte Teile eines Objektes werden unmittelbar im Arbeitsgang wieder hergestellt (Bsp.: Autobatterie)
Gewicht eines bewegten Objektes
•
19, 3, 27
2 8, 30, 36, 2 3 5, 10, 21 3 5, 39, 19, 2 2 2, 14, 19, 32
13, 27, 39, 3, 35, 1, 10, 35 35 , 2 3 32 27 , 3 , 3 0, 10, 26 40
13, 3 , 27, 3, 1 9, 35, 35 10 39 39, 3 , 1 9, 18, 3 5, 23 36, 40 34, 39, 2, 28, 3 5, 10, 35, 3 9, 14, 22, 1, 35 , 10, 30 , 19, 13, 19, 18, 35, 38 35 , 6 , 4 36, 30 3, 21 19, 2 19, 32 32 22, 40 39 36 , 4 0 4 0, 18 3, 35, 5
1 9, 2, 16
17, 9, 15
2, 2 7, 19, 6
14, 26, 28, 25
35, 34 , 38
Abb. 5-20: Altschuller´sche Konflikte-Matrix (Auszug)
Nach ausführlicher Diskussion der vier Lösungsvorschläge im Team erwies sich das Prinzip (31) für die Aufhebung des genannten Konfliktes am vielversprechendsten. Denn die Verwendung von porösem Material liegt bereits vor; Papier hat Poren47 und ist – je nach Sorte und Beschichtung – mehr oder weniger gut
47
Papier besteht aus einem Netzwerk von Zell-/ Holzstofffasern verschiedener Länge, Dicke und Form. Aufgrund dieser Tatsache besitzt ein Papierblatt Luftzwischenräume (Poren), die durch Füllstoffteilchen z.T. aufgefüllt werden können, z.B. Feuchtigkeit.
286
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
saugfähig, es nimmt Flüssigkeiten, z.B. Wasser, auf und wird dadurch schwerer. Daraus ergab sich die folgende konkrete Lösungsidee: „Der Schaft des PapierRotors wird vor dem Fliegen lassen in ein Gefäß mit Wasser gehalten. In Abhängigkeit davon, wie lange er in das Gefäß getaucht wird, saugt er sich mit Flüssigkeit voll und wird schwerer. Der Schwerpunkt des Papier-Rotors verlagert sich entsprechend nach unten. Um eine stabile Rotation zu erreichen, kann im Weiteren auf das Anbringen von Büroklammern verzichtet werden.“ Gegenüber der „Büroklammer-Lösung“ besitzt die Verwendung eines flüssigen Mediums gleich mehrere Vorteile: Zum einen lässt sich die Wasseraufnahme des Schaftes dosieren, was zu einer kontrollierten Gewichtszunahme und damit definierten Verlagerung des Schwerpunktes führt. Die Lösung ist folglich flexibel einsetzbar, um die Flugzeit verschiedener Rotor-Typen zu maximieren. Zum anderen besitzt Flüssigkeit den Vorteil, dass es sich nach dem Flug quasi von selbst entfernt. Der Schaft trocknet und wird leichter, indem man das Wasser einfach verdunsten lässt. Damit sind sowohl die Bereitstellungs- als auch die Entsorgungskosten i.d.R. geringer als bei der Ausgangslösung. Alles in allem ist die „Wasser-Lösung“ innovativ, da die genannten Vorteile zu einer deutlichen Verbesserung der Idealität führen. Der Anteil unerwünschter Nebenfunktionen, z.B. Abnehmen der Büroklammer nach dem Flug, wird reduziert während die erwünschte Hauptfunktion, insb. Stabilisierung der Rotation durch Schwerpunktverlagerung, vollständig erhalten bleibt. Ein Vergleichstest von zwei Rotoren48 mit unterschiedlicher Schaftbeschwerung ergab folgendes Ergebnis: (1) Der Rotor, dessen Schaft mit zwei Büroklammern beschwert ist, weist – bei insgesamt 12 Flügen – eine mittlere Flugzeit von 2,67 s auf; die Standardabweichung beträgt 0,130 s. (2) Wird derselbe Rotor in Wasser getränkt, dann beläuft sich die mittlere Flugzeit – bei gleichem Versuchsumfang – auf 2,90 s bei einer Standardabweichung von 0,53 s. Die durchschnittliche Streuung der Flugzeiten ist nach der F-Teststatistik für Varianzhomogenität deutlich größer als im Ausgangszustand (p = 0,000), was unmittelbar auf einen weiteren Forschungs- und Entwicklungsbedarf schließen lässt. Z.B. ist die Operationale Definition für den Prozess der Wasseraufnahme zu verbessern. Die mittlere Flugzeit hat sich geringfügig verbessert, was für die grundsätzliche Tragfähigkeit des neuen Lösungsansatzes spricht. Der statistische Mittelwertvergleichstest – basierend auf dem Zweistichproben-t-Test mit einseitig nach oben begrenztem Konfidenzintervall – weist ein gering signifikantes Ergebnis aus (p =
48
Diese Eigenschaft wird als „porös“ bezeichnet. Die Porösität des Papiers ist umso größer, je höher das Verhältnis von Poren- zu Gesamtvolumen ist. Dabei existieren standardisierte Verfahren, z.B. nach DIN 53120 bzw. ISO 2965, um die Porosität eines Stoffes zu bestimmen (vgl. Austropapier 2006). Für den Vergleichstest wurde ein Papier-Rotor mit den folgenden geometrischen Maßen verwendet: a = 5,9 cm, c = 14,7 cm, e = 12,7 cm und f = 4,3 cm.
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
287
0,087). Dies bedeutet, das die mittlere Flugzeit der Rotoren, deren Schaft in Wasser getränkt ist, mit einer Irrtumswahrscheinlichkeit von kleiner 10% größer ist als bei den (gleichen) Rotoren, die mit Büroklammern ausgestattet sind. Um dieses Ergebnis mit einem höheren Signifikanzniveau abzusichern, sind weitere Versuchsreihen mit größerem Versuchsumfang notwendig. Im Projekt ging es primär darum, die Effektivität des neuen Lösungsansatzes nachzuweisen. Design-Phase: Auslegen des Papier-Rotors für die „Serienproduktion“ Durch die Anwendung der widerspruchsorientierten Problemlösungstechnik TRIZ konnte eine innovative Lösung gefunden werden. Das Design des Papier-Rotors ist im Weiteren unter Verwendung der „Wasser-Lösung“ zu detaillieren. Außerdem sind erste Überlegungen im Hinblick auf die Aufnahme der „Serienproduktion“ anzustellen. Dabei ist u.a. der Prozess der Flüssigkeitsaufnahme am Schaft genau zu beschreiben, um ein optimales Flugverhalten zu erzielen. Unter der Voraussetzung, dass bereits ein bestimmter Rotor-Typ zur weiteren Optimierung ausgewählt worden ist, kommt hier als Untersuchungsmethode die nicht-lineare Regressionsanalyse infrage. Bei dieser ist in inkrementellen Schritten die Höhe der Wasseraufnahme (= Einflussgröße) zu verändern und jeweils die Wirkung auf die Flugzeit des Rotors (= Zielgröße) zu überprüfen. Im Ergebnis sollte die Gewichtserhöhung am Schaft genau quantifiziert werden können, um so eine maximale Flugzeit zu erreichen. Liegt noch keine Entscheidung über die Verwendung eines bestimmten Rotor-Typs vor, ist die Durchführung eines weiterführenden DOE mit mehr als 4 Faktoren notwendig. Um das globale Optimum exakt zu bestimmen, ist nach Eingrenzen der einzelnen Faktorausprägungen auf nicht-lineare Optimierungsverfahren überzugehen (vgl. Abschnitt 4.2.2). Die Anwendung dieser Verfahren erfordert i.A. ein vertieftes Methoden-Know-how, welches im Rahmen von 2-Tages-Seminaren nicht bzw. nur ansatzweise vermittelbar ist. Aus diesem Grund wird an dieser Stelle auf eine detaillierte Auslegung und Evaluierung des Rotordesigns verzichtet. Verify-Phase: Sicherstellen der Qualität der Input-/ Prozessvariablen Da das Ziel des Projektseminars nicht darin besteht, Papier-Rotoren in Serie zu fertigen, ist die Verify-Phase ebenfalls rein hypothetischer Natur. Die Arbeitsschritte, die in der letzten Phase des DMAIDV-Zyklus durchzuführen sind, beziehen sich vor allem auf die Auslegung des Fertigungsprozesses. In praxi werden Verfahrensanweisungen für die Fertigung erstellt und zusammen mit den entworfenen Design Scorecards an den (zukünftigen) Prozesseigner übergeben (vgl. Abschnitt 3.3.2). Außerdem werden für die Überwachung und Steuerung der wesentlichen Input-/ Prozess-Variablen Regelkarten entwickelt, welche die Grundlage für die Statistische Prozesskontrolle (SPC) in der Fertigung bilden. Durch diese Maßnahme können Abweichungen in der Fertigungsqualität der Papier-Rotoren frühzeitig erkannt und Abstellmaßnahmen eingeleitet werden.
288
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
Zwischenfazit: Der erweiterte DMADV-Zyklus integriert – entsprechend der Forderung von Hypothese H3 – systematisch-analytische und intuitiv-kreative Prozesse und bringt sie in ein ausgewogenes Verhältnis. Dadurch werden die Effektivitätskriterien, die an F&E-Vorhaben gestellt werden, nämlich Generieren von Prozess-/ Produktinnovationen und Erreichen von Null-Fehler-Qualität, besser erfüllt als beim standardmäßig eingesetzten DMADV-Zyklus. Im Hinblick auf die Wirtschaftlichkeit ist beim DMAIDV-Zyklus ein höherer Zeit- und Kostenaufwand – vor allem begründet durch den Einsatz von TRIZ – zu erwarten. Dieser ist dem zusätzlich generierbaren Nutzen aus Kunden- und Unternehmenssicht, z.B. höhere Deckungsbeiträge, gegenüberzustellen. Alles in allem deuten die Ergebnisse des hier durchgeführten Fallbeispiels darauf hin, dass der DMAIDV-Zyklus als erweiterter Problemlösungszyklus im Rahmen von Design for Six Sigma effektiver, aber nicht effizienter als der ursprüngliche DMADV-Zyklus ist. (c) Anwendung des IESRM-Zyklus zur Optimierung In diesem Unterabschnitt wird das praktische Vorgehen zur Maximierung der Flugzeit des Papier-Rotors nach dem IESRM-Zyklus beschrieben (vgl. Abschnitt 5.2.1). Die empirischen Ergebnisse entstammen einem 2-Tages-Workshop, der am 13.07.-14.07.2006 gemeinsam mit Studenten der TU Dresden am Lehrstuhl für Marktorientierte Unternehmensführung durchgeführt worden ist. Im Vordergrund stand die Beantwortung der Frage, inwieweit der IESRM-Zyklus in der Produktentwicklung/ -optimierung praktisch anwendbar ist und somit eine echte Alternative zum technisch orientierten DMA(I)DV-Zyklus darstellt. Um eine Vergleichbarkeit der Ergebnisse zu gewährleisten, wurde der evolutionäre Optimierungsansatz am o.g. Produktbeispiel nachvollzogen. Dabei wurde auf die Erfahrungen, die im Zusammenhang mit dem vorangegangenen DOE-Seminar gesammelt werden konnten, zurückgegriffen. Dies betrifft insb. das erlangte Vorwissen über die Einrichtung eines funktionierenden Messsystems und die Begrenzung auf wesentliche Einflussfaktoren. Phasenablauf und Methodeneinsatz des IESRM-Zyklus werden im Folgenden produktbezogen beschrieben. Initialisierung: Spezifizieren der Ausgangspopulation Die Initialisierungs-Phase umfasst die drei Hauptschritte: (Ia) Festlegen des Lösungssuchraumes, (Ib) Generieren der Ausgangspopulation und (Ic) Codieren der Merkmalsausprägungen. (Ia) Festlegen des Lösungssuchraumes: Im ersten Schritt der Initialisierungs-Phase ist die Anzahl der zu variierenden Merkmale n festzulegen. Sie stehen im Zentrum des Lösungsfindungsprozesses. Ihre jeweiligen Ausprägungen determinieren – direkt oder indirekt – die maximale Flugzeit des Papier-Rotors. Im Weiteren sind pro Merkmal Mi die minimal und maximal zulässige Merkmalsausprägung anzugeben. Zusammen mit der Anzahl der einbezogenen Merkmale bestimmen sie die Größe des Lösungssuchraumes. Je mehr Merkmale variiert werden können und je größer der Definitionsbereich pro Merkmal ist, desto größer ist der Such-
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
289
raum. Die Suchraumgröße (SOLUTION) ist insofern von Relevanz, da sie unmittelbar mit dem Aufwand in Beziehung steht, der notwendig ist, um die optimale Lösung (in einer vorgegebenen Zeit) zu finden. Aus diesem Grund ist es in jedem Fall sinnvoll, gezielte Vorüberlegungen anzustellen und in die Auswahl der Merkmale und Bestimmung der Merkmalsgrenzen einfließen zu lassen. Beim Papier-Rotor beruht die Festlegung des Lösungssuchraumes zum einen auf den dokumentierten Ergebnissen in einschlägigen Fachbüchern (z.B. Kleppmann 2006) und zum anderen auf den gesammelten Erfahrungen bei Six SigmaSeminaren (z.B. DOE-Seminar). Wie in Abb. 5-21 nachvollziehbar ist, wurden insgesamt fünf Merkmale M1-M5 für die Optimierung des Rotors mittels IESRMZyklus ausgewählt. Neben der Variation der geometrischen Maße a, c, e und f erschien die Beschwerung des Papier-Rotors mit einer Büroklammer als (besonders) zielführend. Bei der Festlegung der minimalen und maximalen Merkmalsausprägung (Min in cm/ Max in cm) der Merkmale 1-4 wurde darauf geachtet, dass die Vorgabe, beim Zuschnitt jeweils ein DIN-A4-Blatt vollständig auszunutzen, nicht verletzt wird. In Bezug auf M5 wurde von einer dichotomen Ausprägung des Merkmals ausgegangen (0 = „nicht vorhanden“/ 1 = „vorhanden“). In der 5. Spalte der Tabelle in Abb. 5-21 ist die Auflösung A je Merkmal festegelegt. Sie gibt die Schrittweite an, mit welcher der definierte Merkmalsraum nach optimalen Einstellwerten abgesucht werden soll. Dabei gilt: Je größer die Auflösung ist, desto kleiner ist die Schrittweite. Aus mathematischer Sicht entspricht die Auflösung der Bit-String-Länge (BITS), welche für die Codierung der in dekadischer Form vorliegenden Merkmalswerte genutzt wird. Je größer die Bit-StringLänge ist, desto größer ist die maximale natürliche Zahl zmax, die in Binär-Form darstellbar ist. Über zmax erfolgt die Unterteilung des Definitionsbereichs je Merkmal. Bei metrisch-skalierten Merkmalen wird der Bereich in 2A-1 gleichgroße Intervalle unterteilt. Z.B. sind realisierbare Werte (gerundet) für M1 mit einer Auflösung von A = 3 [3,0; 3,6; 4,1; 4,7; 5,3; 5,9; 6,5; 7,0]. Bei ordinal-skalierten Merkmalen werden 2A Klassen gebildet, bei nominal-skalierten Merkmalen 2A unterschiedliche Merkmalsausprägungen. Bei zwei möglichen Ausprägungen [0; 1], wie es z.B. bei M5 der Fall ist, beträgt A = zmax = 1. Merkmal M1 M2 M3 M4 M5
Bezeichnung a - Flügelbreite c - Flügellänge e - Schaftlänge f - Schaftbreite K - Büroklammer
Min in cm 3,0 6,0 5,0 1,0 0
Max in cm 7,0 14,0 15,0 5,0 1
Auflösung 3 4 4 3 1
zmax 7 15 15 7 1
Abb. 5-21: Definierter Suchraum zum Auffinden des optimalen Papier-Rotors
(Ib) Generieren der Ausgangspopulation: Im zweiten Schritt der InitialisierungsPhase ist die Größe der Population (POPSIZE) zu spezifizieren. Für die Maximie-
290
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
rung der Flugzeit des Papier-Rotors wird eine Populationsgröße von 10 festgelegt. Letztere bleibt im Zuge der weiteren Optimierungsrunden unverändert, d.h. aus jeder Elterngeneration mit 10 Rotoren ergibt sich jeweils die gleiche Anzahl von Kindern (vgl. auch Abschnitt 4.3.3). In der Ausgangssituation werden gewöhnlich die Lösungskandidaten per Zufallsprinzip erzeugt. Dabei ist sicherzustellen, dass die Spezifikationen/ Merkmalsausprägungen innerhalb der oben festgelegten Merkmalsgrenzen liegen. Weiterhin ist darauf zu achten, dass entsprechend der gewählten Auflösung jeweils nur bestimmte Merkmalsausprägungen realisierbar sind; dies gilt insb. für metrisch-skalierte Merkmale (s.o.). Die Spezifikationen der ersten 10 Rotoren, die per Zufallsprinzip erzeugt wurden, sind in Abb. 5-22 ersichtlich. Die Lösungssuche wird prinzipiell begünstigt, wenn die Variation der Rotoren in der Ausgangspopulation relativ groß ist und keine identischen Rotoren vorliegen. Dies ist in unserem Fall gegeben: Jeweils zwei Rotoren unterscheiden sich in mind. einem Merkmal, die Merkmalsausprägungen in der Population streuen insgesamt relativ stark. (Ic) Codieren der Merkmalsausprägungen: Die zufällig erzeugten Merkmalsausprägungen je Rotor sind über einen geeigneten Bit-String zu codieren. Wie oben angesprochen, ergibt sich die Bit-String-Länge pro Merkmal entsprechend der gewählten Auflösung. Die binäre Darstellung der zufällig erzeugten Ausgangspopulation mit 10 Rotoren ist in Abb. 5-23 ersichtlich. Die Chromosomengröße (BITS) entspricht der Zeilenlänge. Der formale Zusammenhang zwischen dekadischer und binärer Darstellung wird für metrisch-skalierte Merkmale mit vorgegebenem Definitionsbereich durch Gleichung (4.18) beschrieben. Rotor-Nr. 1 2 3 4 5 6 7 8 9 10
M1 3,6 5,3 7,0 7,0 4,7 4,1 4,1 3,0 3,0 6,4
M2 9,7 13,5 13,5 8,1 10,8 6,0 12,9 11,3 9,2 10,3
M3 8,3 5,7 12,3 12,3 8,3 8,3 7,7 13,0 12,3 14,3
M4 5,0 5,0 1,6 5,0 2,7 3,9 2,7 4,4 3,3 4,4
M5 0 1 0 1 0 0 0 1 1 0
Abb. 5-22: Zufällig erzeugte Ausgangspopulation mit 10 Rotoren und dekadischer Darstellung der Merkmalsausprägungen
Ein alternatives Vorgehen zur Erzeugung der Ausgangspopulation besteht darin, zuerst den Bit-String je Papier-Rotor per Zufallsprinzip zu erzeugen und diesen anschließend mithilfe der invertierten Gleichung (4.18) in die dekadische Darstel-
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
291
lung zu transformieren. Dies hat den Vorteil, dass die zulässigen Merkmalsausprägungen, die sich aus dem definierten Merkmalsraum und der gewählten Auflösung ergeben, im Vorfeld nicht explizit ermittelt werden müssen. Besonders einfach ist die Vorgehensweise bei Vorliegen von nominal bzw. ordinal skalierten Merkmalen. Jeder Ausprägung wird eine Zahl zwischen 0 und zmax zugeordnet und nach entsprechender Vorschrift codiert. Rotor-Nr. 1 2 3 4 5 6 7 8 9 10
0 1 1 1 0 0 0 0 0 1
M1 0 0 1 1 1 1 1 0 0 1
M2 1 0 1 1 1 0 0 0 0 0
0 1 1 0 1 0 1 1 0 1
1 1 1 1 0 0 1 0 1 0
M3 1 1 1 0 0 0 0 1 1 0
1 0 0 0 1 0 1 0 0 0
0 0 1 1 0 0 0 1 1 1
1 0 0 0 1 1 1 1 0 1
0 0 1 1 0 0 0 0 1 1
1 1 1 1 1 1 0 0 1 0
1 1 0 1 0 1 0 1 1 1
M4 1 1 0 1 1 0 1 1 0 1
1 1 1 1 1 1 1 0 0 0
M5 0 1 0 1 0 0 0 1 1 0
Abb. 5-23: Zufällig erzeugte Ausgangspopulation mit 10 Rotoren und binärer Darstellung der Merkmalsausprägungen
Während die Festlegung der Merkmale und damit des Lösungssuchraumes zu einem Großteil auf Vorwissen und bereits gemachten Erfahrungen mit dem Untersuchungsobjekt basieren, ist die Ermittlung konkreter Merkmalsausprägungen zu Beginn des IESRM-Zyklus rein zufallsbedingt. Dadurch wird sichergestellt, dass die Maximierung der Flugzeit der Papier-Rotoren nicht von vornherein in eine bestimmte, ggf. suboptimale Richtung läuft (vgl. auch Abschnitt 4.3.3). Außerdem wird der in Gleichung (5.3) festgehaltene Grundsatz zur Maximierung der geometrischen mittleren Fitness der Population berücksichtigt. Evaluation: Bewerten der Fitness Zur Bewertung der Fitness der Population sind die drei Hauptschritte erforderlich: (Ea) Festlegen der Zielgröße, (Eb) Messen der individuellen Fitness und (Ec) Bestimmen der Fitness der Population. (Ea) Festlegen der Zielgröße: Nachdem der Problemlösungszyklus initialisiert ist, werden die 10 Rotoren der Ausgangspopulation nach den in Abb. 5-22 vorgegebenen Spezifikationen gefertigt und anschließend Fliegen gelassen. Die Messung der Flugzeit der Papier-Rotoren erfolgt unter den gleichen Rahmenbedingungen, wie sie bei der Durchführung der vollfaktoriellen Versuche vorherrschten. Insbesondere kann davon ausgegangen werden, dass die Datenerhebung auf einem verlässlichem Messsystem beruht, welches die Anforderungen an die Gage R&R
292
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
im Rahmen von Six Sigma erfüllt. Zur Evaluation wird jeder Rotor genau 2-mal hintereinander Fliegen gelassen. Aus beiden Werten wird der arithmetische Mittelwert berechnet. Durch dieses Vorgehen wird der Einfluss von zufälligen Umwelteinflüssen (Störgrößen) auf die Flugdauer reduziert. Beim Testen der Rotoren wurde festgestellt, dass eine Reihe von Lösungskandidaten eine relativ hohe Flugzeit besitzt, obwohl die betreffenden Objekte kaum oder gar nicht in der Luft rotieren. Stattdessen trudeln sie ganz oder teilweise zu Boden und verletzen damit die eingangs formulierte Nebenbedingung einer gleichmäßigen Rotation. Das vermehrte Auftreten von Rotoren, die nicht rotieren, ist die Folge der zufällig generierten Merkmalsausprägungen in der Ausgangspopulation. Durch die Realisierung von Extremwerten, z.B. sehr kurze Flügel (Min = 6,0 cm) und sehr langer Schaft (Max = 15 cm), sind z.T. sehr exotische Flugobjekte entstanden, die nach physikalischen Gesetzmäßigkeiten auf keinen Fall rotieren. Für das weitere Vorgehen wurde deshalb entschieden, neben der reinen Flugzeit yi als „A-Note“ eine „B-Note“ für das Flugverhalten einzuführen. Dabei wurde ein 3stufiges Bewertungsschema zugrunde gelegt: •
Grad „A“ = Der Rotor rotiert gleichmäßig über dem gesamten Sinkweg.
•
Grad „B“ = Der Rotor rotiert gleichmäßig über mind. dem halben Sinkweg.
•
Grad „C“ = Der Rotor rotiert gleichm. über weniger als dem halben Sinkweg.
Aus der A- und B-Note wird ein normierter Fitnesswert pro Rotor ermittelt, und zwar in der Weise, dass die gemessene Flugzeit mit einem Gewichtungsfaktor gi multipliziert wird, der sich an o.g. Einschätzung des Flugverhaltens orientiert:
fit ( y i ) = g ij ⋅ y i
mit i = 1,...,10 ∀ j = A, B, C
(5.7)
Bei Rotoren mit schlechtem Rotationsverhalten beträgt der Faktor gC = 1/3, bei mittlerem Verhalten gB = 2/3. Rotoren, die gut rotieren und mit dem Grad „A“ versehen sind, erhalten keinen Abschlag (Penalty) auf die Flugzeit; der Gewichtungsfaktor beträgt in diesem Fall gA = 1. Es ist davon auszugehen, dass sich nach n Runden nur noch gute Rotoren in der Population befinden. Die Bedeutung der „B-Note“ als Evaluationskriterium nimmt dann entsprechend ab. (Eb) Messen der individuellen Fitness: In Abb. 5-24 sind die Ergebniswerte der ersten 10 Rotoren im Überblick dargestellt. Wie ersichtlich ist, variiert die Flugzeit im Mittel zwischen 2,08 s und 3,24 s. Die meisten Rotoren besitzen ein eher schlechtes Rotationsverhalten (7 von 10); ihnen ist der Grad „C“ zugeordnet. Zwei Rotoren bekommen den Grad „B“; der Rotor mit der Nr. 8 erhält als einzigster den Grad „A“. Er gilt als Benchmark für die weitere Optimierung, da er neben einem guten Rotationsverhalten auch die längste Flugzeit besitzt. Die Skizze des jeweils besten Rotors ist im rechten Teil der Abb. 5-24 zu sehen. Aufgrund der „B-Note“ variiert die nach Gleichung (5.7) ermittelte Fitness der Rotoren deutlich stärker als die reinen Flugzeiten. Gegenüber dem besten Rotor, dessen Fitness fit8 = 3,24
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
293
beträgt, erreicht der schlechteste Rotor nur einen Fitnesswert von fit4 = 0,69; er wird mit hoher Wahrscheinlichkeit nicht in die nächste Runde kommen. (Ec) Bestimmen der Fitness der Population: Ausgehend von den individuellen Fitnesswerten wird pro Optimierungsrunde die Fitness der Population bestimmt. Sie ist ein Indikator dafür, wie gut die gefundenen Lösungen das (globale) Optimum eingrenzen und welche Verbesserungspotenziale ggf. noch bestehen (vgl. Abschnitt 4.3.3). Im Fall des Papier-Rotors beträgt die Fitness der Population in der Ausgangssituation⎯fit1 = 1,03. Der Wert ergibt sich als geometrisches Mittel über alle Fitnesswerte in der Population (vgl. Abschnitt 5.2.1). Runde Rotor-Nr.
1
Ges.-Note A-Note B-Note Zeit 1 Zeit 2 MW Rotat. Faktor (Fitness)
Kenndaten der Population
1
2,71
2,61 2,66
C
0,33
0,88
1,03 Geo-Mittel
2
2,31
2,50 2,41
C
0,33
0,79
1,19 Arith-Mittel
3
2,15
2,59 2,37
C
0,33
0,78
0,77 Standardabw.
4
2,19
2,02 2,11
C
0,33
0,69
5
2,37
2,33 2,35
C
0,33
0,78
6
2,06
2,09 2,08
C
0,33
0,68
7
2,44
2,21 2,33
C
0,33
0,77
8
3,37
3,10 3,24
A
1,00
3,24
9 10
2,33 2,89
2,21 2,27 2,68 2,79
B B
0,66 0,66
1,50 1,84
RotorNr. 09
K
Abb. 5-24: Bewertungsschema zur Ermittlung der Fitness der Rotoren in der Ausgangspopulation
Selektion: Auslesen der besten Rotoren Das Selektieren der Lösungen erfordert die zwei Hauptschritte: (Sa) Bestimmen der kumulierten relativen Fitnessfunktion und – auf dieser Basis – (Sb) Auswahl von Lösungskandidaten für die nächste Runde. (Sa) Bestimmen der kumulierten relativen Fitnessfunktion: Die kumulierte relative Fitnessfunktion (CDF) bildet die Grundlage für die fitnessproportionale Selektion von Lösungen, auf die hier abgestellt wird. Sie ist im oberen Diagramm in zu sehen. Die Ermittlung der CDF erfolgt in zwei Schritten: (1) Entsprechend dem Prinzip der Roulette-Wheel-Selection werden aus den absoluten Fitnesswerten relative Fitnesswerte bestimmt:
fit rel ( y i ) =
fit ( y i ) 10
¦ fit ( y ) i
i =1
mit i = 1,...,10
(5.8)
294
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
Nach Gleichung (5.8) beträgt die relative Fitness des besten Rotors in der 1. Runde fitrel(y8) = 0,27 und die des schlechtesten fitrel(y4) = 0,06. Je größer die berechnete relative Fitness eines Rotors ist, desto größer ist die Wahrscheinlichkeit, dass er in die Intermediärpopulation kommt. (2) Die relativen Fitnesswerte werden anschließend kumuliert. Dabei wird für jeden Rotor ein kumulierter relativer Fitnesswert ermittelt: kum fit rel ( yi ) =
k
¦ fit
rel ( y i )
mit i = 1,..., k ∀ k = 1,...,10
(5.9)
i =1
Die kumulierten relativen Fitnesswerte werden auf der Ordinate des CDFDiagramms nach aufsteigender Reihenfolge der Rotor-Nr. abgetragen. Der Anstieg der Funktion ist umso steiler, je größer der nach Gleichung (5.8) berechnete relative Fitnesswert des Rotors ist bzw. je größer die Differenz der kum kum kumulierten relativen Fitness fit rel ( y i ) − fit rel ( y i −1 ) ist.
Kum. rel. Fitness (CDF)
1,00 0,80 0,60 0,40 0,20 0,00 1
2 1
3 2
3
4 4
5 6 Rotor-Nr. 5 6 Rotor-Nr.
7
8
9
10
7
8
9
10
Abs. Häufigkeit der Rotoren für Selektion
0 1 2 3 4
Abb. 5-25: Fitnessproportionale Selektion der Rotoren mit Angabe der Häufigkeitsverteilung zur Bildung der Intermediärpopulation
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
295
(Sb) Auswahl von Lösungskandidaten für die nächste Runde: Zur Auswahl der Lösungskandidaten für die nächste Runde werden 10 Zufallszahlen zk im Bereich [0; 1] bestimmt und der vorstehend berechneten kumulierten relativen Fitnessfunktion gegenübergestellt. Die Auswahl erfolgt nach folgender Relation: kum kum fit rel ( y i −1 ) < z k ≤ fit rel ( yi )
mit i, k = 1,...,10
(5.10)
Ein bestimmter Rotor kann – in Abhängigkeit von der Höhe seiner relativen Fitness – prinzipiell mehrmals ausgewählt werden. Die absoluten Häufigkeiten sind im unteren Diagramm in Abb. 5-25 in Form eines Histogramms abgebildet. Der Rotor mit der höchsten Fitness (Nr. 8) wird am häufigsten selektiert. Die Rotoren mit den Nr. 2, 5, 6 und 9 bleiben für die weitere Optimierung außen vor. Die Elterngeneration für die zweite Runde wird aus den Rotoren mit den Nr. 1, 3, 4, 7, 8 und 10 gebildet. Einzelne Rotoren der Gruppe sind dabei – zufallsbedingt – gleich mehrmals vorhanden. Im Extremfall kann ein bestimmter Rotor in einer Runde maximal 10-mal ausgewählt werden. Dies ist möglich, wenn die Fitness des Rotors gegenüber anderen in der Population überproportional hoch ist. Eine sinnvolle Variation der Merkmalsausprägungen, die zur Weiterentwicklung der Population führt, kann hier nicht stattfinden. Ebenfalls ungünstig ist es, wenn alle Rotoren genau einmal ausgewählt werden. Die Effektivität des Selektions-Operators ist dann zu hinterfragen, insb. wenn keine der vorhandenen Lösungen die gewünschte Performance erfüllt (vgl. auch Abschnitt 5.2.2). Rekombination: Vermischen des genetischen Codes Die Rekombinations-Phase enthält die zwei Hauptschritte: (Ra) Bestimmen von je 2 Lösungen als Eltern und (Rb) Rekombination von dessen Bit-Strings. (Ra) Bestimmen von jeweils 2 Lösungskandidaten als Eltern: In der vorhergehenden Phase wurden 10 Rotoren als Eltern selektiert. Aus ihnen werden im Folgenden 10 Kinder generiert, die über teils gleiche, teils neue Merkmalsausprägungen verfügen. Dazu werden jeweils zwei Rotoren aus der Elterngeneration ausgewählt und – entsprechend dem Vorgehen in der Natur – „gekreuzt“. Da die Populationsgröße im Laufe der Optimierung unverändert bleiben soll, gehen aus 2 Eltern genau 2 Kinder hervor. Die paarweise Bestimmung der Eltern erfolgte im Fall des Papier-Rotors nach der Reihenfolge ihrer Selektion; eine erneute Zufallsauswahl erschien hier, insb. aus Kosten-Nutzen-Überlegungen, nicht zielführend. In Abb. 5-26 ist das Vorgehen zur Erzeugung der Kindergeneration beispielhaft aufgeführt. Die fünf Kreuzungspaare A–D sind dabei in alphabetischer Reihenfolge angeordnet. Aus den ersten 4 Paaren gehen jeweils 2 neue Kinder (a + b) hervor, die sich von den Merkmalsausprägungen der beiden Elternteile (1 und 2) mit hoher Wahrscheinlichkeit unterscheiden. Beim Paar D ist dies nicht der Fall, da die beiden Elternteile identisch sind (jeweils Rotor Nr. 8). Die Kreuzung der Gene führt zu keiner Änderung des Phänotyps, so dass bei dieser Konstellation Klone
296
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
entstehen. Der Rotor mit der Nr. 8, der nach Phase 2 die höchste Fitness besaß, wird also unverändert in die nächste Generation übernommen.49 Nr. Elternteil 1 A 3 B 8 C 1 D 7 E 8
Elternteil 2 4 1 10 3 8
x x x x x
= = = = =
Kinder a+b a+b a+b a+b Klone
Crossoverpoint 7 14 6 6 10
Abb. 5-26: Vorgehen zur Erzeugung der Kindergeneration am Beispiel Papier-Rotor
(Rb) Rekombination des Bit-Strings von je 2 Elternteilen: Während die Evaluation und Selektion jeweils auf der Phänotypebene durchgeführt wird, findet der (eigentliche) Kreuzungsprozess auf der Genotypebene statt. Entsprechend dem 1Point-Crossover-Verfahren wird pro Elternpaar ein Kreuzungspunkt (CrossoverPoint) im Gen- bzw. Bit-String festgelegt. Er wird per Zufallsgenerator ermittelt und ist für das Beispiel Papier-Rotor in der rechten Spalte der Tabelle in Abb. 5-26 aufgeführt. Der Kreuzungspunkt des ersten Elternpaares liegt z.B. an der 7. Stelle des 15-stelligen Bit-Strings. Genau an dieser Stelle werden die Codes (Genome) der zwei Rotoren vertauscht (siehe Abb. 5-27). Aus den Rotoren mit den Nr. 3 und 4 entstehen zwei Kinder mit neuem Genom. Die Rekombination führt zu einer Variation des Gen-Codes und folglich zu einer fitnesserhöhenden Variation der Merkmalsausprägungen der Rotoren (vgl. Abschnitt 4.3.3).
Rotor-Nr.
Rekombinationsschema A 10 9 8 7 6 5 4 3 2 1
Kind A1 Kind A2
1 2
3 4 5 6
7 8 9 10 11 12 13 14 15 Bit-Nr.
Ki d A1
Ki d A2
Abb. 5-27: 1-Point-Crossover-Verfahren am Beispiel Papier-Rotor
49
Ein alternatives Vorgehen, um den jeweils besten Rotor einer Generation als Benchmark zu erhalten, ist die Programmierung einer KEEP-Funktion (vgl. Abschnitt 4.3.3); diese wurde im vorliegenden Fall aber nicht realisiert.
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
297
Mutation: Verändern des Bit-Strings Die Mutationsphase ist durch folgende zwei Hauptschritte gekennzeichnet: (Ma) Hervorrufen von zufälligen und (Mb) gezielten Änderungen im Bit-String. (Ma) Hervorrufen von zufälligen Änderungen im Bit-String: Neben der Rekombination dient die Mutation zur Durchmischung des Erbgutes. Hier wird standardmäßig so vorgegangen, dass eine Mutationswahrscheinlichkeit (MUTPROB) festgelegt wird, mit der Änderungen im Bit-String der Kinder zufällig hervorgerufen werden. Für die Optimierung des Papier-Rotors wurde von einer konstanten Mutationswahrscheinlichkeit i.H.v. von 1,0% ausgegangen. Mit dieser Wahrscheinlichkeit kommt es zu einer zufälligen Änderung im Bit-String eines Rotors in der Kindergeneration; das Vorgehen entspricht der Flip-Mutation. In Abb. 5-28 sind die Codes der Kindergeneration, die aus der 1. Optimierungsrunde hervorgehen, dargestellt. Dabei ist an der 7. Stelle im Bit-String des Rotors mit der Nr. 5 (Kind E1) eine Flip-Mutation aufgetreten (Zelle schwarz gekennzeichnet). Auf der Phänotypebene äußert sich diese Veränderung direkt im Merkmal 2 „Flügellänge“ des betreffenden Rotors: Die Flügellänge beträgt jetzt 11,9 cm anstelle der ursprünglich vorgesehenen 11,3 cm. Rotor-Nr. Kind-Nr. Kind A1 1 Kind B1 2 Kind C1 3 Kind D1 4 Kind E1 5 Kind A2 6 Kind B2 7 Kind C2 8 Kind D2 9 Kind E2 10
1 1 0 0 0 0 1 0 1 1 0
2 1 0 0 1 0 1 0 1 1 0
3 1 0 1 0 0 1 1 0 1 0
4 1 1 0 1 1 0 0 1 1 1
5 1 0 1 1 0 1 1 0 1 0
6 1 1 0 1 1 0 1 1 0 1
7 0 0 0 0 1 0 1 1 1 0
8 1 1 1 1 1 1 0 0 0 1
9 0 1 1 0 1 0 1 1 1 1
10 1 0 1 1 0 1 0 0 0 0
11 1 0 0 1 0 1 1 1 0 0
12 1 1 1 0 1 0 1 1 0 1
13 1 1 1 0 1 0 1 1 1 1
14 1 1 0 1 0 1 0 1 1 0
15 1 0 0 0 1 0 1 0 0 1
Abb. 5-28: Population nach 1. Optimierungsrunde (Kinder) mit binärer Darstellung der Merkmalsausprägungen und zufälliger Flip-Mutation
(Mb) Hervorrufen von gezielten Änderungen im Bit-String: Bei Vorhandensein von ausreichenden Erfahrungswerten bietet es sich an, die Mutation nicht zufällig, sondern gezielt vorzunehmen. In diesem Fall werden die Veränderungen am Genom „per Hand“ gemacht. Unter Berücksichtigung der Decodier-Funktion werden 0 und 1 im Bit-String der Kinder so geändert, dass die aus Anwendersicht favorisierten Merkmalsausprägungen realisiert werden bzw. Merkmale, die aus Anwendersicht unvorteilhaft erscheinen, gar nicht erst zum Vorschein kommen. Bei der Optimierung des Rotors wurde auf diese Form der Mutationsgenerierung weitestgehend verzichtet, da Änderungen im Code, die auf den ersten Blick als günstig erschienen, sich in Wirklichkeit nicht bewahrheiteten. Exogen vorgenommene Flip-Mutationen führten i.d.R. zu einer Verschlechterung der Flugzeit/ des
298
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
Flugverhaltens bei den betroffenen Rotoren. Hierin zeigt sich u.a. die Komplexität der am Anfang als „einfach zu lösenden“ eingestuften Problemstellung. Selbst mit einer Reihe von Versuchen und Vorerfahrungen sind die bestehenden UrsachenWirkungsbeziehungen beim Papier-Rotor nicht ganzheitlich überschaubar. Viele Verbesserungsvorschläge im Team, die aus (vermeintlich) rationalen Überlegungen hervorgingen, erwiesen sich als falsch. Mutationen, die von Zeit zu Zeit auftreten, sind außerordentlich wichtig, da sie eine zu schnelle Konvergenz der Lösungen auf einem suboptimalen Niveau verhindern. Im Fall des Papier-Rotors kann es dazu kommen, dass sich – ohne Vorhandensein von Mutationen – bereits nach wenigen Runden ein Rotor-Typ durchsetzt, der im Hinblick auf die Maximierung der Zielgröße nicht optimal ist. Der Lösungsalgorithmus hat sich dann in einem lokalen Optimum „verheddert“, aus dem es ohne zufällige Änderungen im Gen-Code kein Entrinnen gibt. Die Gefahr des Verhedderns war bei den Papier-Rotor-Versuchen konkret in Runde 5 gegeben. Wie in Abbildung Abb. 5-29 dargestellt ist, erreichte die Fitness der Population zu diesem Zeitpunkt ein Plateau, das bei rund 2,50 s lag. Ein weiterer Anstieg der (durchschnittlichen) Flugzeit wäre ohne Mutation mit hoher Wahrscheinlichkeit ausgeblieben. In Runde 6 trat bei Rotor mit der Nr. 9 (an der BitStelle 13) eine (Flip-)Mutation auf, die dazu führte, dass die Fitness der Population in den nächsten drei Runden um weitere 0,48 s anstieg.
Fitness (Geo-Mittel)
3,5 3,0 2,5 2,0 1, 05 ⋅ ( g − 1)
1,5
fit Pop ( g ) =
1,0
1,95 ⋅ e 1,95 − 0 ,05 + 0 ,05
e
1, 05 ⋅ ( g − 1)
+ 0 ,95
0,5 0,0 1
2
3
4
5
6
7
8
9
10
Generation Tatsächliche Fitness
Geschätzte Fitness
Abb. 5-29: Entwicklung der Fitness der Rotoren-Population innerhalb von 10 Runden
Insgesamt wurden die Phasen Evaluation, Selektion, Rekombination und Mutation 10-mal nach dem beschriebenen Muster durchlaufen (MAXITER = 10). An der Schnittstelle von einer zur nächsten Runde war jeweils eine Decodierung des Bit-
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
299
Strings der neu generierten Lösungen (Kinder) notwendig. Am Ende des Optimierungszyklus betrug die durchschnittliche Fitness der Rotoren 2,98 s. 9 von 10 Rotoren, die sich in der Endpopulation befanden, besaßen ein gutes Flugverhalten, d.h. sie rotierten gleichmäßig über den gesamten Sinkweg zu Boden (Grad „A“). Die Rotoren mit schlechtem Flugverhalten wurden nach und nach selektiert. Unter dieser Voraussetzung ist der oben angegebene Fitnesswert⎯fit10 mit der durchschnittlichen Flugzeit⎯y10 der Rotoren nahezu identisch. Dadurch ist ein Vergleich mit den Ergebnissen, die sich nach der Anwendung von anderen einschlägigen Optimierungsverfahren ergeben, z.B. DOE, prinzipiell möglich. Auf konkrete Benchmarking-Resultate wird am Ende des Abschnittes näher eingegangen. Der beste Rotor in der Endpopulation wies eine mittlere Flugzeit von 3,55 s auf; die mittlere Flugzeit des schlechtesten Rotors betrug 2,74 s. Bei der Entwicklung der Fitness über die Zeit zeigt sich der für TechnologieLebenszyklen typische S-Kurvenverlauf. Nach einigen „Anlaufschwierigkeiten“ steigt die durchschnittliche Fitness der Population in den Runden 4 und 5 deutlich an (siehe Abb. 5-29). Eine eher inkrementelle Weiterentwicklung findet ab der Runde 6 statt. Das Design der Rotoren gleicht sich von Runde zu Runde immer mehr an. Entsprechendes gilt für den genetischen Code der Flugobjekte. Die angegebene Gleichung für die berechnete Fitness in Abb. 5-29 basiert auf einer graphischen Annäherung der beobachteten Fitnessentwicklung.50 Der Absolutterm der Gleichung i.H.v. 0,95 gibt den Sigma-Korrekturfaktor an; das vorhandene Verbesserungspotenzial wird auf Δ1,10 = 2,0 geschätzt. In der Endpopulation liegen nur noch zwei Typen von Rotoren vor. Der eine Typ lässt sich mit „Grazil“ beschreiben, der andere mit „Robust“ (siehe Abb. 5-30). Beide besitzen die gleiche Flügel- und Schaftlänge. Außerdem tragen alle Rotoren eine Büroklammer zur Beschwerung. Unterschiede bestehen „nur“ hinsichtlich der Breitenmaße, die zu den in skizzierten charakteristischen Proportionen führen. Die Veränderungen, die sich im Laufe des Verbesserungszyklus einstellen, sind nicht nur auf der Phänotypebene, sondern auch auf Genotypebene signifikant. So beträgt der mittlere Grad der Übereinstimmung des Genoms zwischen der ersten und letzten Generation 63%: Dieser Wert ergibt sich aus dem Bit-Stellen-weisen Vergleich der Häufigkeit von „0“ und „1“ in jeder Population. Trotz z.T. identischer Designs in den letzten Runden, ist es empfehlenswert, alle Rotoren einer Population zu bauen und Fliegen zu lassen. Dieses Vorgehen bietet zum einen die Möglichkeit, die Robustheit des Designs gegenüber möglichen Störgrößen in der Umwelt, z.B. Luftzug, zu objektivieren. Gleichzeitig wird dadurch das ggf. bereits lokalisierte globale Optimum statistisch besser abgesichert. Durch eine größere Anzahl von Versuchsdaten, die dann in die Berechnung der 50
Die mittlere quadratische Abweichung (MSE – Mean Square Error) über alle Wertepaare ist ein wesentliches Kriterium zur Beurteilung der Güte einer Schätzfunktion (vgl. Voß et al. 2004, S. 400f.). Sie beträgt im vorliegenden Fall MSE1 = 0,01.
300
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
mittleren Flugzeit einfließt, kann die Länge des Konfidenzintervalls für die Lage des Mittelwertes verringert werden. Gute und schlechte Rotoren können infolgedessen mit einer größeren statistischen Sicherheit voneinander getrennt werden. Zum anderen hat der Bau aller Rotoren, die der Spezifikation nach identisch sind, den Vorteil, dass u.U. weitere Einflussgrößen/ Merkmale, die bisher nicht im Betrachtungsfeld der Projektgruppe lagen, (zufällig) entdeckt werden. Diese können dann im Folgenden – durch eine Erweiterung des genetischen Codes – systematisch erfasst und in ihren Auswirkungen untersucht werden.51 Rotor-Typ 1: „Grazil (S)“
Rotor-Typ 2: „Robust (XXL)“
Rotor Nr. 92
Rotor Nr. 97
K
K
Abb. 5-30: Wesentliche Designtypen in der Endpopulation der Rotor-Optimierung
Eine Erweiterung des Bit-Strings erscheint ebenfalls angebracht, wenn die Optimierung an so genannte Designgrenzen stößt. Dies ist der Fall, wenn die Ausprägung eines bestimmten Merkmals bei vielen, wenn nicht allen Lösungskandidaten in der Population grenzwertig ist und aufgrund des vorgegebenen Minimums bzw. Maximums nicht weiter variiert werden kann. Es ist dann zu prüfen, inwieweit die vorgegebene Beschränkung des Suchraums nach oben oder unten „gelockert“ und die minimale bzw. maximale Merkmalsausprägung weiter nach außen verschoben 51
Möglicherweise besitzt ein Rotor, der nicht ganz nach Spezifikation gefertigt worden ist und z.B. eine kleine Rundung am Flügelende hat, ein besseres Rotationsverhalten als die bisherigen, „fehlerfrei“ zugeschnittenen Rotoren gleicher Bauart (Klone). Um diesen Einfluss zu quantifizieren, ist die „Rundung“ als neues Merkmal im Bit-String aufzunehmen und im Weiteren nach o.g. Vorgaben zu variieren.
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
301
werden kann. Für eine Erweiterung kommen vor allem Merkmale infrage, deren Definitionsbereiche in der Initialisierungs-Phase aufgrund unzureichender Erfahrungen zu klein gewählt worden sind. 52 Der zuletzt geschilderte Fall findet sich im Beispiel Papier-Rotor beim Merkmal „Büroklammer“ wider. Die Obergrenze wurde hier – mehr oder weniger willkürlich – auf 1 festgelegt. Diese wird von allen Rotoren in der Endpopulation erreicht, so dass in diesem Merkmal am Ende der 10. Optimierungsrunde keine Variation mehr vorliegt. Da es dem Kunden letztendlich egal ist, wie viele Klammern am Rotor zur Beschwerung angebracht sind, steht einer Erhöhung der Maximalzahl von Büroklammern nichts im Weg. Unter diesen veränderten Rahmenbedingungen wurde ein 2. Verbesserungszyklus gestartet. Die konkrete Zielsetzung bestand darin, die mittlere Flugzeit des als „robust“ gekennzeichneten Rotors vom Typ 2 weiter zu erhöhen. Gegenüber dem Rotor vom Typ 1 wird bei ihm das größere Optimierungspotenzial vermutet. Analog zum Vorgehen im 1. Verbesserungszyklus waren zunächst die untere und obere Grenze je Merkmal festzulegen (siehe Abb. 5-31). Aufgrund der im 1. Verbesserungszyklus gewonnenen Erkenntnisse konnte der Definitionsbereich bei den Merkmalen M1 bis M4 jeweils verkleinert werden. Bei unveränderter Auflösung bietet dies die Möglichkeit, das (globale) Optimum genauer zu detektieren. Im Hinblick auf Merkmal M5 wurde der Suchraum erweitert; es dürfen jetzt bis zu max. 3 Büroklammern am Rotor befestigt werden. Merkmal M1 M2 M3 M4 M5
Bezeichnung a - Flügelbreite c - Flügellänge e - Schaftlänge f - Schaftbreite K - Büroklammer
Min in cm 5,0 10,0 9,0 3,0 0
Max in cm 8,0 15,0 14,0 6,0 3
Auflösung 3 4 4 3 2
zmax 7 15 15 7 3
Abb. 5-31: Definierter Suchraum zum Auffinden des optimalen „robusten“ Papier-Rotors (2. Verbesserungszyklus)
Durch den größeren Definitionsbereich bei M5 erhöht sich die Länge des BitStrings gegenüber dem 1. Verbesserungszyklus um eine Stelle; er umfasst jetzt insgesamt 16 Stellen. Die per Zufallsprinzip erzeugte Ausgangspopulation des 2. Zyklus im Umfang von 10 Rotoren verfügt über eine durchschnittliche Fitness von 1,82. Sie liegt damit deutlich unterhalb der Fitness, die im letzten Durchgang des 1. Verbesserungszyklus ermittelt wurde. Die Variation der Merkmalsausprägungen ist in Bezug auf die Anzahl von Büroklammern (M5) am Anfang relativ groß. Der beste Rotor besitzt eine mittlere Flugzeit von 3,86 s und ist mit 1 Büroklammer beschwert. Die mittlere Flugzeit der schlechtesten Rotoren liegt bei knapp 52
Bei einer Reihe von Merkmalen geht dies üblicherweise nicht, da sie mit feststehenden Kundenanforderungen oder technisch-physikalischen Gegebenheiten direkt in Verbindung stehen. Hier ist allenfalls eine Verkleinerung des Suchraumes möglich.
302
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
über 2,0 s. Aufgrund der unzureichenden Dreheigenschaften (meistens Grad „C“) beträgt die Gesamtfitness der Flugobjekte aber z.T. weniger als 1,0. Das weitere Vorgehen zur Verbesserung der durchschnittlichen Fitness der Population gestaltet sich analog zum 1. Verbesserungszyklus. Insgesamt werden die Phasen Evaluierung, Selektion, Rekombination und Mutation 10-mal durchlaufen. Ziel ist es, unter den veränderten Rahmenbedingungen Papier-Rotoren mit noch besserem Flugverhalten „zu züchten“. Dabei steht die Maximierung der geometrischen mittleren Fitness der Population im Vordergrund.
Fitness (Geo-Mittel)
3,5 3,0 2,5 0 , 91 ⋅ ( g − 1)
2,0
fit Pop ( g ) =
1,5
1,68 ⋅ e 1, 68 − 0 ,18 + 0 ,18
e
6
7
0 , 91 ⋅ ( g − 1)
+ 1,72
1,0 0,5 0,0 1
2
3
4
5
8
9
10
Generation Tatsächliche Fitness
Geschätzte Fitness
Abb. 5-32: Entwicklung der Fitness der Rotoren-Population innerhalb von 10 Runden (2. Verbesserungszyklus)
Die Entwicklung der Fitness der Population über die 10 Optimierungsrunden ist in Abb. 5-32 nachvollziehbar.53 Die Fitness steigt S-förmig bis zu einem Wert von 3,52 an. Ab der 5. Runde befinden sich nur noch Rotoren mit gutem Rotationsverhalten (Grad „A“) in der Population. In der Endpopulation des 2. Zyklus sind die Unterschiede zwischen den einzelnen Rotoren – sowohl auf Geno- als auch auf Phänotypebene – marginal. Alle Rotoren sind am Ende mit 2 Büroklammern ausgestattet. Die mittleren Flugzeiten schwanken zwischen 3,19 s und 3,87 s. Damit liegt die mittlere Flugzeit des besten Rotors nur unwesentlich höher als in der Ausgangspopulation. Aufgrund der Beschwerung mit 2 Büroklammern sind die gemessenen Flugzeiten der Rotoren jedoch insgesamt stabiler.54 53 54
Für die Schätzung der Fitnessentwicklung in Abb. 5-32 wurde von einem Fitnessniveau von⎯fit10 = 3,4 ausgegangen. Der MSE der Schätzfunktion beträgt MSE2 = 0,008. So beträgt bspw. die durchschnittliche Streuung (Standardabweichung) der Flugzeiten des besten Rotors in der Endpopulation 0,04 s, gegenüber 0,21 s des besten Rotors in
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
303
Im Hinblick auf die Effektivität des IESRM-Zyklus lässt sich konstatieren, dass die Rotoren, die sich in der Endpopulation des 2. Zyklus befanden, in punkto Flugzeit den Rotoren, die nach Anwendung des DMADV- bzw. DMAIDV-Zyklus als Optimum hervorgingen, in nichts nachstehen. Beim direkten Vergleich der besten Rotoren aus den drei Verbesserungsansätzen stellte sich der Rotor, der nach dem evolutorischen Ansatz optimiert wurde, sogar als „Sieger“ heraus. Hält man die Entwicklungspfade (Trajektorien) der Fitness der beiden Populationen aneinander, dann wird deutlich, dass zwischen 1. und 2. Verbesserungszyklus ein S-Kurvensprung besteht. Beim Übergang vom 15- auf den 16-stelligen BitString fällt die durchschnittliche Fitness schlagartig ab. Erst nach fünf Optimierungsrunden wird das Endniveau des 1. Zyklus wieder erreicht. Nach weiteren fünf Runden beträgt der Unterschied der durchschnittlichen Flugzeiten zwischen den Papier-Rotoren des 1. und 2. Zyklus Δ1,2 = 0,89 s (p = 0,000). Dieses Szenario stimmt mit der Entwicklung der Leistungsfähigkeit/ Performance einer neuen Technologie, wie sie in Abschnitt 3.1.2 beschrieben worden ist, prinzipiell überein. Ausgangspunkt eines Technologiewechsels ist das Auftreten einer Basisinnovation, die in unserem Fall durch die Veränderung des Suchraums und infolgedessen der Erweiterung des Bit-Strings hervorgerufen wird. Letztere führt zu einem sog. Evolutionssprung, der sich auf der Phänotypebene in neuen Merkmalen sowie Merkmalsausprägungen manifestiert. Während Basisinnovationen aus evolutorischer Sicht mit strukturellen Änderungen des Genoms (Chromosomen-Länge) einhergehen, sind Verbesserungsinnovationen das Resultat von Ausprägungsänderungen im bestehenden Gen-Code (Allele-Wert). Sie werden durch bewusste und/ oder unbewusste, d.h. zufällige, Änderungen im Bit-String einzelner Lösungskandidaten hervorgerufen. Basisinnovationen beziehen sich hingegen jeweils auf die gesamte Population. Durch sie erfolgt eine diskontinuierliche (Weiter-)Entwicklung von Produkt- und Prozessdesigns. Das Verbesserungspotenzial, welches über die Änderungen im Genom aktiviert werden kann, ist im Vorfeld nur schwer zu quantifizieren. Sofern die Parameter λ, fit 0 und fit* bekannt sind, ist eine Schätzung auf Basis der Gleichung (5.5) möglich. Diese leitet sich aus dem Fisher-Theorem her, welches folgende allgemeine Aussagen zum Auftreten von Verbesserungs-/ Basisinnovationen erlaubt: •
Verbesserungsinnovationen sind umso wahrscheinlicher, je größer die relativen Unterschiede zwischen den gemessenen Fitnesswerten in einer Population sind. Dies ist i.A. zu Beginn des Verbesserungszyklus der Fall. Im Beispiel Papier-Rotor sind die Standardabweichungen der Fitnesswerte der Population in beiden Zyklen mit σ1,1 = 0,81 s und σ2,1 = 0,95 s zu Beginn relativ hoch.
der Ausgangspopulation. Die Standardabweichung der Fitnesswerte in der Population geht von 0,95 s auf 0,21 s zurück.
304
•
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
Basisinnovationen treten auf bzw. sind als solches zu generieren, wenn sich die Fitnesswerte der Lösungen kaum oder gar nicht unterscheiden. Dies ist üblicherweise am Ende des Verbesserungszyklus der Fall. Im Beispiel PapierRotor ist in beiden Zyklen ein deutlicher Abfall der Streuung der Fitnesswerte zu beobachten; sie beträgt am Ende σ1,10 = 0,47 s bzw. σ2,10 = 0,21 s.
Zwischenfazit: Auf der Basis des hier durchgeführten Fallbeispiels werden zum einen empirische Evidenzen für den Wahrheitsgehalt von Hypothese H7 gegeben (vgl. Abschnitt 1.2.3). Mit dieser werden die positiven (ökonomischen) Wirkungen von alternativen, am Vorbild von Evolutionären Algorithmen (EA) respektive Genetischen Algorithmen (GA) orientierten Problemlösungszyklen postuliert. Zum anderen zeigen sich die konzeptionellen Vorteile, die mit der Anwendung eines nach vorstehend genannten Prinzipien konzipierten Problemlösungszyklus einhergehen. Wie in Hypothese H8 gefordert, zeichnen sich fortschrittliche Problemlösungszyklen in F&E dadurch aus, dass sie – hinsichtlich der Zielgröße – endogen die aus dem Technologiemanagement bekannte S-Kurve nachzeichnen, inkl. der zufälligen, systemimmanenten Innovationssprünge. Wie die konkrete Anwendung zeigt, lässt sich mithilfe des IESRM-Zyklus die SKurve erzeugen und in ihrem Verlauf gut simulieren. Sie bildet eine wichtige Entscheidungsgrundlage/ -hilfe, um die Leistungsfähigkeit, sprich Fitness, eines neuen Produktes/ Prozesses in relativ kurzer Zeit zu maximieren. Bei „richtiger Wahl“ des Suchraums läuft die kontinuierliche Weiterentwicklung einer Population von Lösungskandidaten in Richtung maximale Fitness quasi von selbst ab. Inno-vative Designs lassen sich vor allem durch die sukzessive Erweiterung des Suchraums bzgl. einzelner Merkmale/ Merkmalsausprägungen generieren. Dazu ist der IESRM-Zyklus entsprechend oft zu durchlaufen. Durch Änderung der Rahmenbedingungen in der Initialisierungs-Phase wird mit jedem Zyklus jeweils eine neue S-Kurve – auf unterschiedlich hohem Niveau – in Gang gesetzt. Die Ergebnisse des Fallbeispiels zeigen im Weiteren, dass der IESRM-Zyklus als evolutionärer Problemlösungszyklus sowohl Effektivitäts- als auch Effizienzvorteile gegenüber dem konventionellen DMADV-Zyklus besitzt. So wird – aus modelltheoretischer Sicht – jeweils das globale Optimum bei einem gegebenen Suchraum mit hoher Wahrscheinlichkeit detektiert. Sofern der Kunde aktiv in der Evaluations-Phase beteiligt ist, werden mit dem IESRM-Zyklus die artikulierten Produkt- und/ oder Prozessprobleme zu seiner vollsten Zufriedenheit gelöst. Der Zielerreichungsgrad in Form der Übereinstimmung (Fit) zwischen Produkt-/ Prozessmerkmalen und kundenspezifischen Anforderungen ist im Endergebnis maximal. Gleichzeitig wird der wirtschaftliche Einsatz (Effizienz) des Problemlösungszyklus durch folgende Punkte positiv beeinflusst: •
Keine (Vor-)Kenntnisse über Ursachen-Wirkungsbeziehungen notwendig
•
Relativ geringer Schulungsaufwand, da einfach anwendbare Methoden
•
Niedrige Anforderungen an die Software-Unterstützung (Excel-Lösung!).
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
5.3.2
305
Optimierung der Kehreigenschaften eines Straßenbesens (Fallstudie)
In diesem Abschnitt werden die Durchführung und Ergebnisse eines F&E-Projektes skizziert, welches in einem mittelständischen Unternehmen der Bürstenindustrie auf der Basis des IESRM-Zyklus durchgeführt worden ist. Den Schwerpunkt der Ausführungen bildet die Optimierung der Kehreigenschaften von Straßenbesen. Obwohl sie eine wesentliche Erklärungsgröße des Gebrauchsnutzens aus Kundensicht darstellen, wurden sie bislang keiner systematischen Analyse sowie Optimierung unterzogen. Aus diesem Grund ist im Projektablauf ein ScreeningDesign zur Überprüfung der in praxi vermuteten Ursachen-Wirkungsbeziehungen vorgesehen. Außerdem werden erste Schritte mit TRIZ unternommen, um neue, innovative Lösungsansätze im Bereich des Besendesigns aufzuzeigen. Insgesamt handelt es sich bei Besen um relativ einfache Produkte, die sich aus wenigen Komponenten zusammensetzen. Der generelle Produktaufbau sowie der Herstellungsprozess sind hinlänglich bekannt und leicht kopierbar. Aufgrund dieser Tatsache sind die Unternehmen in der Branche ständig bemüht, ihre Produkte zu verbessern und gegenüber denen von Wettbewerbern abzugrenzen – Nicht nur Qualität, sondern auch Innovationen sind also gefragt. Unternehmensporträt Das Projekt wurde bei der Firma „Michael Jäckel Erzgebirgische Bürstenfabrik (EBF) GmbH“ durchgeführt, welche 1992 in Schönheide als Tochterunternehmen der Firma Walter Bretschneider gegründet worden ist. Mit anfänglich 7 Mitarbeitern, die an zwei Stanzautomaten arbeiteten, sind jetzt am neuen Produktionsstandort in Stützengrün über 100 Arbeitskräfte an CNC-Automaten beschäftigt. Täglich werden über 70.000 Handfeger, Stubenbesen, Saal- und Straßenbesen, WC- und Spülbürsten sowie Maler- und Deckenbürsten produziert.55 Der Industriezweig steht insgesamt unter einem starken Wettbewerbsdruck, so dass die Gewinnmargen bei den einzelnen Produkten relativ gering sind. Um die wirtschaftliche Situation in Zukunft zu verbessern, geht die Zielsetzung dahin, sich durch Produktinnovationen/ -optimierungen vom Wettbewerb zu differenzieren. Zu diesem Zweck soll ein systematischer Entwicklungsprozess implementiert werden. Dieser setzt im ersten Schritt in der Besenproduktion an, da hier aus Sicht des Managements der dringendste Handlungsbedarf besteht. Initialisierungs-Phase Die Initialisierungs-Phase ist aufgrund der geringen Voraussetzungen im F&EBereich relativ umfangreich. Sie umfasst die folgenden sechs Prozessschritte: (a) Definition der Projektcharter, (b) Ableiten der CTQs, (c) Einrichten des Messsys55
Weiterhin gehören zum Firmenverbund seit dem 01.01.1999 die neu gegründete Firma J&S Kunststofftechnik GmbH. Hier werden alle benötigten Kunststoffteile für die Farbroller- und Bürstenproduktion gespritzt (vgl. www.jaeckel-buersten.de).
306
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
tems, (d) Ermitteln der Einflussgrößen, (f) Festlegen der Ausgangspopulation mit integriertem DOE und (g) Codieren der Lösungen. (a) Definition der Projektcharter Die Projektcharter wurde im Rahmen eines 0,5-tägigen Workshops am 22.08.2006 gemeinsam mit der Geschäftsleitung der Michael Jäckel EBF erarbeitet (siehe Abb. 5-33). Sie wurde in dieser Form vom Champion und zuständigen Black Belt unterzeichnet (vgl. hierzu und im Folgenden Günther/ Jäckel 2007). Projekt: „Optimierung der Kehreigenschaften eines Straßenbesens “ 1. Problembeschreibung
4. Marktanalyse & Benchmarking
Das (Re-)Design von Straßenbesen basiert in erster Linie auf Erfahrungswerten. Ein systematischer F&E-Prozess existiert in diesem Umfeld nicht. Weiterentwicklungen sind vor allem inkrementeller Natur und folgen einem Trial-and-Error-Prozess. Der Einkäufer im Großhandel entscheidet nach Bemusterung über die Aufnahme einer neuen Serie. Der Nutzen aus (End-)Kundensicht fließt in die Bewertung implizit ein.
In den letzten Jahren ist der Markt für Straßenbesen insgesamt (stark) gewachsen. Vor allem in Asien und im Mittleren Osten steigt die Nachfrage rapide an; in Deutschland stagnieren die Absatzzahlen auf relativ hohem Niveau. Das Gesamtvolumen des Marktes beträgt ca. XX Mio. €. Die Michael Jäckel EBF GmbH konnte in der Vergangenheit deutlich Marktanteile gewinnen und zählt heute zu den 3 führenden Produzenten.
Die Qualitätsmerkmale von Straßenbesen werden in erster Linie produktorientiert bestimmt, d.h. die Qualität richtet sich nach dem Erfüllungsgrad von technischen Spezifikationen. Ein aus (End-)Kundensicht kritisches Qualitätsmerkmal (CTQ) ist die Kehreigenschaft des Besens. Sie wird bis dato nicht systematisch erfasst und bewertet. Die Einleitung eines darauf bez. Verbesserungsprozesses ist wünschenswert.
2. Ziele
Abzgl. prognostizierte Projektkosten: 5.000 €
• Hauptziel: Entwicklung eines Straßenbesens mit optimalen Kehreigenschaften ausgehend vom vorhandenen Portfolio und unter Berücksichtigung der spezifischen Designanforderungen/ -wünsche des Kunden • Unterziel: Entwicklung eines allgemeinen Messverfahrens zur Bestimmung der Kehreigenschaften von Straßenbesen, um in Zukunft angenommene Designverbesserungen eindeutig validieren zu können
3. Nutzen • • • • •
Mehr Objektivität bei der Beurteilung der Qualität von Straßenbesen Generierung eines UCVP: „Besen mit geprüften Kehreigenschaften“ Prinzipiell höherer Kundennutzen durch bessere Kehreigenschaften Ansatzpunkte für den Aufbau eines Value Marketings im Handel Steigender Unternehmensgewinn durch höhere Absatzzahlen
9. Unterschriften
5. Net Benefit Prognostizierter zusätzlicher Gewinn: 10.000 € - aufgrund Umsatzsteigerung: 200.000 € - aufgrund Kosteneinsparung: 0€
Champion:
Prognostizierte Netto-Einsparungen: 5.000 €
6. Projektumfang/ -rahmen IN: Besen zur Nutzung im Außenbereich OUT: Besen für Innenbereich, Saalbesen
7. Verantwortungen Champion: Michael Jäckel (Geschäftsführer, Erzgebirgische Bürstenfabrik GmbH) Projektleitung: Alexander Jäckel (Export Managing Director), Swen Günther (Black Belt, TU Dresden)
8. Zeitvorgaben START: 01.09.2006
ENDE: 31.01.2007
Black Belt:
Abb. 5-33: Projektcharter für die Optimierung von Straßenbesen
Für die Durchführung des Projektes wurden insgesamt 5 Monate geplant; Starttermin war der 01.09.2006. Als Champion des Projektes fungierte der Geschäftsführer des Unternehmens, Michael Jäckel. Die Projektleitung und -koordination im Unternehmen wurde vom Vertriebsmanager, Alexander Jäckel, übernommen. Für die inhaltlich-methodische Umsetzung zeichnete der externe Black Belt, Swen Günther, Verantwortung. Zu seinen Aufgaben gehörte u.a. die statistische Auswertung und Zusammenstellung der Messergebnisse. Die Durchführung der Messungen und Erstellung der Prototypen (Lösungskandidaten) erfolgte mit aktiver Unterstützung von Mitarbeitern der Produktion. Jede Projektphase wurde im Rahmen eines mind. 1-tägigen Workshop im Team vorbereitet. In gleicher Weise erfolgte nach jeder Verbesserungsrunde eine ausführliche Ergebnispräsentation und -diskussion. Der Champion wurde über den Fortgang des Projektes regelmäßig informiert. Das planmäßige Ende des Projektes bis zum 31.01.2007 konnte eingehalten werden.
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
307
Die Projektcharter umfasst insgesamt neun Punkte. Im linken Teil sind die Problembeschreibung sowie die Ziele und der Nutzen des Projektes aufgeführt. Problemschwerpunkt bildet zum einen die Tatsache, dass sich die Qualität von (Straßen-)Besen weniger nach Kundenbewertungen bemisst, sondern vielmehr von der Einhaltung technischer Spezifikationen abhängig ist. Zum anderen liegt bis dato kein geeignetes Messinstrumentarium vor, um die Kehreigenschaften von Straßenbesen – als wesentliches Qualitätsmerkmal aus Kundensicht (CTQ) – objektiv zu bestimmen. Folglich existiert auch kein systematischer F&E-Prozess, der sich auf die Messung und Verbesserung des Qualitätsmerkmals bezieht. Das vordergründige Ziel des Projektes besteht darin, einen Straßenbesen mit optimalen Kehreigenschaften ausgehend vom vorhandenen Portfolio und unter Berücksichtigung der spezifischen Designanforderungen/ -wünsche des (End-) Kunden zu entwickeln. In diesem Zusammenhang ist zunächst der Aufbau eines zuverlässigen Messsystems erforderlich, um die unterschiedlichen Qualitäten der Schmutzbeseitigung von Besen zu quantifizieren. Gegenstand der Verbesserung sind Besen, die vor allem zur Schmutzbeseitigung im Außenbereich zum Einsatz kommen, kurz: „Straßenbesen“ genannt. Besen, die zur Reinigung innerhalb von Gebäuden eingesetzt werden, kurz: „Saalbesen“ genannt, dienen lediglich als Benchmarking für die Messung und Beurteilung der Kehreigenschaften.56 Der Nutzen, der aus dem Projekt generiert wird, ist sowohl finanzieller als auch nicht-finanzieller Art. Zu berücksichtigende Aspekte hierbei sind: •
Einerseits ist die objektivierte Beurteilung der Kehreigenschaften von Straßenbesen Grundlage für ein erfolgreiches, kommunikatives Marketing. Für den Endkunden bedeutet ein „Besen mit geprüften Kehreigenschaften“ mehr Sicherheit beim Kauf. Aus Unternehmenssicht ergibt sich daraus unmittelbar ein zusätzliches Verkaufsargument gegenüber dem (Groß-)Handel in Form einer Unique Selling Proposition (USP).
•
Andererseits wird durch die nachweisbare Verbesserung der Kehreigenschaften ein höherer Kundennutzen erzeugt in Form einer Unique Customer Value Proposition (UCVP). Aus dieser resultiert für das Herstellerunternehmen mittelbar ein höherer Absatz und ein steigender Gewinn. Dies schlägt sich u.a. in
56
In der Branche existiert bis dato kein einheitliches Vorgehen zur Einteilung von Besen in verschiedene Produktsegmente. Geläufig ist eine Dreiteilung in Straßen-, Saal- und Stubenbesen. Diese orientiert sich primär an den Produkteigenschaften des Besens. Der bevorzugte Anwendungsbereich aus der Sicht des Kunden spielt hier eine untergeordnete Rolle. Der Unterschied zwischen Straßenbesen auf der einen Seite und Saal-/ Stubenbesen auf der anderen wird in erster Linie an der Form und Breite des Holzkörpers festgemacht. Sie beträgt bei Straßenbesen 6,5 cm, bei Saal- und Stubenbesen liegt sie standardmäßig bei 5,5 cm. Die in der Optimierung verwendeten Besen besitzen die kürzere Breite. Sie gehören damit – nach branchenüblicher Klassifikation – zur Gruppe der Saalbesen, obwohl ihr Anwendungsfeld eindeutig im Außenbereich liegt.
308
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
der Höhe des Net Benefit nieder. Nach einer konservativen Schätzung betragen die Netto-Einsparungen des Projektes ca. 5.000 €. Im rechten Teil der Projektcharter finden sich u.a. Angaben zur aktuellen Marktsituation, zum zu erwartenden Net Benefit und zum generellen Projektrahmen (siehe Abb. 5-33). Eine intern durchgeführte Marktanalyse ergab, dass in den letzten Jahren der Markt für Straßenbesen insgesamt um 30% gewachsen ist. Vor allem in Asien und im Mittleren Osten steigt die Nachfrage rapide an. In Deutschland stagnieren die Absatzzahlen auf relativ hohem Niveau. Die Firma Michael Jäckel EBF konnte in der Vergangenheit deutlich Marktanteile gewinnen und zählt heute zu den führenden Anbietern in den eingangs genannten Produktfeldern. (b) Ableiten der CTQs Die Kundenanforderungen, die an das Produkt „Straßenbesen“ gestellt werden, sind vielschichtig. Für eine erste Klassifizierung bieten sich die acht Dimensionen der Produktqualität von Garvin (1987, S. 101ff.) an (vgl. auch Abschnitt 3.1.1). Sie beziehen sich sowohl auf „harte“ Produkt- und Leistungsmerkmale als auch auf „weiche“ Qualitätskriterien. Es wird davon ausgegangen, dass sich einige Dimensionen der Produktqualität gegenseitig verstärken, also komplementär zueinander sind (z.B. Zuverlässigkeit und Haltbarkeit), andere Dimensionen hingegen in einer eher konfliktären Beziehung zueinander stehen und sich nur auf Kosten einer weiteren Qualitätsdimension verbessern lassen (z.B. Gebrauchsnutzen und Ästhetik). Im Folgenden sind die acht Dimensionen nach abnehmender Bedeutung für den Besen angeordnet. Die Liste mit produktspezifischen Ausführungen erhebt dabei keinen Anspruch auf Vollständigkeit : (1) Gebrauchsnutzen (Performance): Der Besen besitzt unter verschiedenen Anwendungsbedingungen, z.B. trockener vs. nasser Straßenbelag, eine jeweils hohe Kehr-/ Reinigungswirkung. Der Besen eignet sich sowohl für das Kehren von fein- als auch grobkörnigem Schmutz. Er ist leicht und handlich. Schmutz, der sich in schwer zugänglichen Bereichen befindet, z.B. Ecken und Kanten in/ an Gebäuden, lässt sich ebenfalls problemlos entfernen. (2) Haltbarkeit (Durability): Die Borsten des Besens sind im Holz- bzw. Plastekörper fest eingestanzt und fallen nicht ohne Weiteres aus. Bei Gebrauch des Besens nutzen sie sich kaum ab, d.h. ihre Länge wird mit der Zeit nicht wesentlich kürzer. Außerdem behalten sie langfristig ihre Form (Steifigkeit), und zwar unabhängig von der Art der Aufbewahrung des Besens, z.B. stehend auf dem Fußboden oder hängend an der Wand. (3) Zuverlässigkeit (Reliability): Der Straßenbesen ist immer griff- und einsatzbereit. Er ist robust gegen Umwelteinflüsse, z.B. Feuchtigkeit und Sonne. Der Besenstiel ist im Holzkörper fest verankert und löst sich auch bei starker Beanspruchung nicht (Robustheit). Der Stiel ist zudem sicher gegen Bruch. (4) Ausstattung (Features): Die Besengeometrie ist optimal auf die Größe des Bedieners anpassbar, z.B. durch ein zusätzlich angebrachtes Gelenk auf dem
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
309
Holzkörper, über den sich der Neigungswinkel des Stiels variabel einstellen lässt. Der Stiel kann einfach und schnell, d.h. ohne zusätzliche Hilfsmittel, montiert werden. Am oberen Ende befindet sich eine Aufhängevorrichtung. (5) Normgerechtigkeit (Conformance): Die Herstellung des Besens erfolgt über alle Wertschöpfungsstufen hinweg umweltschonend. Europäische und internationale Standards werden eingehalten, z.B. keine Kinderarbeit. Die verwendeten Materialien, z.B. Farben und Lacke, sind nicht gesundheitsschädlich. Der Anschluss und die Aufhängung des Besenstiels entsprechen der DIN-Norm. Alle vom (Groß-)Handel vorgegebenen Spezifikation, z.B. Besenlänge und -breite, werden ausnahmslos eingehalten. (6) Ästhetik (Aesthetics): Die Borsten des Besens sind gleich lang und farbtreu; einzelne Borsten stehen nicht ab. Die Löcher im Stanzfeld sind gleichmäßig verteilt sowie gleichmäßig mit Material bestückt. Zur Verbesserung der Kehreigenschaften können zwei Borstenarten verwendet werden; die Randborsten sind schräg eingestanzt. Am Holz des Besens, weder am Stiel noch am Körper, befinden sich Absplitterungen oder Ausbuchtungen. Alle Kanten und Ecken sind abgerundet und geschliffen, um Verletzungen zu vermeiden. (7) Qualitätsimage (Perceived Quality): Die wahrgenommene Qualität beim Endkunden wird durch das Anbringen von Etiketten mit Hinweisen zu verwendeten Materialien, eingesetzten Produktionsverfahren, bestehenden Zertifikaten/ Auszeichnungen etc. verbessert. Informationen über die Kehreigenschaften des Besens zur besseren Differenzierung und exakteren Bestimmung des Einsatzgebietes sind prinzipiell wünschenswert und zudem verkaufsfördernd, insb. bei Verhandlungen mit dem (Groß-)Handel. (8) Kundendienst (Serviceability): Aus Herstellersicht betrifft der Kundendienst in erster Linie die reibungslose Zusammenarbeit mit dem (Groß-)Handel. Hier geht es u.a. um eine schnelle und kundenorientierte Beschwerdeabwicklung sowie die zeitgerechte Bereitstellung von (Nach-)Lieferungen. Da es sich beim Besen um ein „Einwegprodukt“ handelt, sind Ersatzteillieferungen von untergeordneter Bedeutung. Garantieleistungen für den Endkunden bestehen darin, bei Ausfall/ Mängeln Ersatzprodukte zu liefern. Wie gut zu erkennen ist, ist die „Stimme des Kunden“ (VOC), selbst bei diesem einfachen Produkt, umfangreich und komplex. Es können eine Reihe von Anforderungen abgeleitet werden, die bei genauerer Betrachtung jeweils als „kritisch“ einzustufen sind, d.h. ein Nicht-Erfüllen der Anforderungen führt zu Kundenunzufriedenheit. Nach dem Kano-Modell der Kundenzufriedenheit handelt es sich bei den meisten Anforderungen um sog. Basisanforderungen (vgl. Abschnitt 3.2.4). Leistungs- und Begeisterungsanforderungen, bei denen mit steigendem Erfüllungsgrad die Kundenzufriedenheit steigt, sind bei Stuben-, Saal- und/ oder Straßenbesen kaum zu finden. Der Besen muss in erster Linie funktionieren, wenn man ihn braucht; ansonsten stellt sich schnell Unzufriedenheit ein.
310
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
Der größte Hebel, um den Kundennutzen und damit die Kundenzufriedenheit beim vorliegenden Produkt zu steigern, wird in der Dimension (1) „Gebrauchsnutzen“ gesehen. In diesem Punkt wurden zu Beginn des Projektes auch die meisten Defizite und infolgedessen Verbesserungsbedarfe registriert. Der Projektfokus liegt deshalb im Weiteren auf der Optimierung der Kehreigenschaften des Besens als eine wesentliche Kundenanforderung (CTQ), welche den Gebrauchsnutzen determiniert. In diesem Zusammenhang stellt sich vor allem die Frage nach der Quantifizierung des CTQ, also der Definition und Zuordnung von geeigneten Outputmessgrößen (Ys) zur Objektivierung der Kehreigenschaften. (c) Einrichten des Messsystems Voraussetzungen: Im Hinblick auf die Entwicklung eines validen und zuverlässigen Messsystems zur Bestimmung der Kehreigenschaften von Besen besteht die Zielsetzung darin, jeden Besentyp anhand einer charakteristischen Kennlinie bzw. Kennzahl eindeutig klassifizieren zu können. Dabei sollen die Prüf-/ Messbedingungen so realitätsnah wie möglich sein, z.B. Kehren von Schüttgut in unterschiedlicher Größe und Form auf rauhem Belag. Für diese Anforderung existieren bis dato keine standardisierten und dokumentierten Messverfahren. Anleihen aus anderen Bereichen können nur bedingt genommen werden, z.B. Reinigung von Metalloberflächen im technischen Bereich (vgl. Jancke 2004) oder Messung der Reinigungswirkung von Zahnbürsten im medizinischen Bereich (vgl. Becker 2004). Vor diesem Hintergrund wird für die Messung der Kehreigenschaften von Besen ein eigener Messansatz entwickelt. Dieser basiert zu großen Teilen auf dem Lern- bzw. Erfahrungskurven-Konzept (vgl. Baum et al. 2004, S. 89ff.), welches im betriebswirtschaftlichen Umfeld u.a. zur Bestimmung von Lerneffekten (Economies of Experience) in Produktionslinien genutzt wird. Messansatz: Es wird die Restschmutzmenge gemessen, die auf einer definierten Kehrfläche nach n-maligem Kehren verbleibt. Aus einschlägigen Erfahrungen ist bekannt, dass die auf einer Fläche verbleibende Schmutzmenge bei mehrmaligem Kehren exponentiell abnimmt. Liegt z.B. Schüttgut unterschiedlicher Korngröße auf einer Fläche vor, dann wird mit den ersten Zügen relativ viel Material beseitigt, mit den letzten Zügen relativ wenig. Dies liegt darin begründet, dass größere Steine (mit relativ viel Gewicht) gleich beim ersten Kehrvorgang erfasst werden; die Beseitigung von mittleren und kleineren Steinen (mit relativ wenig Gewicht) bedarf hingegen i.d.R. der Ausführung von mehreren Besenzügen. Dabei gilt: Je öfter ein und dieselbe Fläche gekehrt wird, desto weniger Material (in kg) wird pro Zug beseitigt – die erfasste Schmutzmenge nimmt sukzessive ab. Ein „guter“ Besen zeichnet sich dadurch es, dass es mit ihm gelingt, in relativ wenigen Zügen eine vorgegebene Fläche nahezu vollständig zu säubern. Je schneller die Restschmutzmenge gegen Null geht, desto besser ist ein Besen. Diese Eigenschaft lässt sich mathematisch wie folgt erfassen: Die auf einer definierten Fläche verbleibende Schmutzmenge (y) wird über die kumulierte Anzahl von Besenzügen bzw. Kehrvorgängen (x) abgetragen (siehe Abb. 5-34). Nach obigen
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
311
Ausführungen wird zwischen den beiden Größen ein potenzieller funktioneller Zusammenhang vermutet, der sich mit folgender Gleichung beschreiben lässt:
y = a ⋅ xb
mit a > 0 ∀ b < 0
(5.11)
Um die Parameter der Funktion empirisch zu bestimmen, sind a und b für eine ausreichend große Messreihe zu schätzen. a ist ein Skalierungsfaktor, welcher der Restschmutzmenge zu Beginn des Kehrversuchs entspricht also z.B. a = 5 kg. b kennzeichnet einen Degressionsfaktor, der angibt, wie stark die Schmutzmenge auf der Kehrfläche im Zuge der Reinigungsintensität abnimmt. Für eine effiziente Schätzung bietet es sich an, beide Seiten der Gleichung (5.11) zu logarithmieren:
lg( y ) = lg(a) + b ⋅ lg( x)
(5.12)
Durch die log-Transformation ist es möglich, a und b mithilfe einer einfachen linearen Regressionsrechnung zu bestimmen. Das Absolutglied lg(a) gibt dabei den Schnittpunkt der Regressionsgeraden mit der Ordinate an. Der Faktor b wird zum Korrelationskoeffizienten, der beschreibt, um wie viele Einheiten lg(y) sinkt, wenn lg(x) um eine Einheit steigt. Da b < 0 ist, gilt: Je kleiner b wird, desto größer ist der (negative) Anstieg der in Gleichung (5.12) beschriebenen Geraden.
Fitted Line Plot: Besen 1 logten(Y) = 0,6295 - 0,8573 logten(X) 5,0
Regression 95% C I
Restschmutzmenge (in kg)
4,5
S R-Sq R-Sq(adj)
4,0 3,5
0,0714909 92,3% 91,5%
p = 0,000
3,0 Charakteristische Kennlinie (bei allen Besen signifikant!)
2,5 2,0 1,5 1,0 0,5 0,0
1
2
3 4 Kum. Anz. Kehrvorgänge
5
6
Abb. 5-34: Kennlinie für die Kehreigenschaften eines Besens (Beispiel)
In Abb. 5-34 ist die Kennlinie für die Kehreigenschaft eines Straßenbesens beispielhaft bestimmt. Es handelt sich dabei um einen 6-reihigen Kokos-Besen mit
312
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
40 cm Länge; dieser gehört zum Standardsortiment der Firma EBF. Die Berechnung der Kennlinie basiert auf 2 unabhängigen Messreihen à 6 Messwerten. Die geschätzte Regressionsfunktion lautet in logarithmierter Form:
lg( y ) = 0,6295 − 0,8573 ⋅ lg( x)
(5.13)
Wie eingangs erwähnt, ist für die Quantifizierung der Kehreigenschaften eines Besens der Korrelationskoeffizient b entscheidend; er beträgt hier b = 0,8573.57 Nach dem Erfahrungskurven-Ansatz lässt sich aus dem Degressionsfaktor b eine Lern- bzw. Degressionsrate L bestimmen. Der mathematische Zusammenhang lautet: b = lg L / lg 2; danach beträgt die Verbesserungsrate im vorliegenden Fall L = 55,2%, d.h. bei einer Verdopplung der kumulierten Anzahl von Kehrvorgängen (x) sinkt bei dem untersuchten Besen die Restschmutzmenge (y) jeweils auf 55,2% des Ausgangsniveaus pro Kehrvorgang bzw. -zug. Das Ergebnis ist in allen berechneten Fällen hochsignifikant (p = 0,000), d.h. die verwendete logarithmische Funktion nach Gleichung (5.13) eignet sich aus statistischer Sicht „sehr gut“, um den Zusammenhang zwischen den zwei Größen y = „Restschmutzmenge (in kg)“ und x = „Kum. Anz. Kehrvorgänge“ mathematisch zu beschreiben. Das Bestimmtheitsmaß liegt bei über 90% (R-sq = 92,3%), d.h. die Vorhersagegenauigkeit bzw. statistische Erklärungskraft der berechneten Funktion ist im vorliegenden Fall ebenfalls „sehr gut“. Aus statistischer Sicht werden 92,3% der Gesamtvarianz der gemessenen Restschmutzmengen-Werte durch die geschätzte Funktion erklärt. Diese und weitere statistische Auswertungen sind mit der Statistik-Software Minitab R14 erstellt worden. Messsystem: Zur Datenerhebung wird standardmäßig die folgende Versuchsanordnung gewählt: Eine Europalette der Größe 120 cm x 80 cm, die mit Teer- bzw. Dachpappe vollständig bespannt ist, bildet die normierte Kehrfläche. Die Palette ist ca. 20 cm hoch und an drei Seiten mit Randleisten eingefasst; eine Längsseite ist offen. Vor dieser befindet sich ein Auffangbehälter, z.B. aus Wellpappe. Europalette und Auffangbehälter werden waagerecht aufgestellt (siehe Abb. 5-35). Als Kehrgut wird trockenes Schüttgut („Straßendreck“) mit unterschiedlicher Korngröße, ∅ 0,1 cm bis ∅ 3,0 cm, verwendet. Dadurch werden realitätsnahe Prüfbedingungen geschaffen: Es ist grob- und feinkörniger Schmutz, der sich auf einem straßenbelagsähnlichen Untergrund befindet, zu kehren. Zur Bestimmung der Kehreigenschaften sind vom Prüfer exakt 5 kg des Kehrgutes auf die Kehrfläche zu schütten und dort – per Augenmaß – gleichmäßig zu verteilen. Auftretende Abweichungen von der Gleichverteilung können später im Rahmen der Auswertung durch Sortieren der Messwerte „ausgeglichen“ werden.
57
Der Wert ist unabhängig von der Art des verwendeten Logarithmus, z.B. ln oder lg. Letztgenannter hat lediglich Einfluss auf die Höhe des Absolutgliedes der linearen Regressionsgleichung (5.12).
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
313
Prüfanweisung: Jeder Besen (= Prüfteil) wird von 2 Prüfern mit je 1 Wiederholung geprüft. Für die Durchführung eines Kehrvorganges gilt: „Der Prüfer steht mit dem zu prüfenden Besen an der Rückseite der Palette in ca. 0,5 m Entfernung von der Randbegrenzung hinten längs. Der Besen wird am Stiel mit zwei Händen festgehalten, und zwar rechtsseitig mit linker Hand vorne, etwa in der Mitte des Stiels, und rechter Hand hinten, im oberen Drittel des Stiels. Der Besen wird zum Kehren jeweils plan mit den Borsten auf die Kehrfläche aufgesetzt und mit einem kräftigen Schub nach vorne geschoben. Ein Besenschub bzw. -zug geht jeweils von der Rückseite der Palette bis zur gegenüberliegenden Seite (Vorderseite), die nicht durch eine Randleiste begrenzt ist; der Zug verläuft parallel zu den Randbegrenzungen quer.“ Das Kehrgut, welches beim Überstreichen der Fläche von ca. 80 cm ⋅ 40 cm (Besenlänge) erfasst wird, fällt an der Vorderseite der Palette herunter in den direkt anliegenden Auffangbehälter. Das aufgefangene Kehrgut wird nach jedem Kehrvorgang/ -zug in ein Gefäß geschüttet und gewogen. 1
= Nr. des Kehrvorgangs/ des Zuges
120 cm
1 m 80 c
4 2 3
5
6
Rechte äußere Kehrbahn
Mittlere Kehrbahn
Überlappung
Linke äußere Kehrbahn
Überlappung
Abb. 5-35: Ablaufschema zur Reinigung der normierten Kehrfläche
Die Kehrfläche ist mit insgesamt 6 Zügen zu reinigen. Das zugehörige Ablaufschema ist in Abb. 5-35 skizziert. Die Züge (1) und (4) gehen von der Mitte der Paletten-Rückseite aus; in der Ausgangsposition schlägt die Längsseite des Besenholzkörpers genau mittig an die hintere Randleiste. Die restlichen Züge gehen
314
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
jeweils von den Paletten-Ecken aus. Dabei wird der Besen in der Ausgangsposition so gehalten, dass der Holzkörper mit einer Längs- und einer Querseite rechtwinklig an die einschließenden Randbegrenzungen stößt. Bei den Zügen (2), (3), (5) und (6) wird der Besen – mit gleichmäßigem Druck – entlang der Begrenzung nach vorn bis zur Vorderseite der Palette geschoben. Jeder Flächenabschnitt wird auf diese Weise mind. 2-mal mit dem Besen überstrichen.58 Für die statistische Auswertung werden die gemessenen Schmutzmengen der Größe nach sortiert und anschließend aufsummiert. Die kumulierten Werte pro Zug (in kg) werden jeweils von dem Ausgangsgewicht i.H.v. 5 kg subtrahiert. Auf diese Weise ergeben sich insgesamt 7 Messpunkte pro zu testenden Besen. Gage R&R: Bevor das Messsystem in der vorstehend beschriebenen Weise eingesetzt wird, um die Kehreigenschaften von verschiedenen Besentypen zu bestimmen, ist in Verbesserungsprojekten standardmäßig eine sog. Gage R&R durchzuführen (vgl. auch Abschnitt 5.3.1). Um die Güte des verwendeten Messsystems (Gage) sicherzustellen, wird hier einerseits die Wiederholbarkeit des gleichen Messvorgangs durch die gleiche Person/ Maschine (R – Repeatability) analysiert und zum anderen die Reproduzierbarkeit des gleichen Messvorgangs durch zwei oder mehrere Personen/ Maschinen (R – Reproducibility). Ziel ist es, dass möglichst (deutlich) weniger als 30% der Gesamtvarianz der Messwerte durch das eingesetzte Messsystem hervorgerufen wird. Die Aggregation von Repeatability und Reproducibility ergibt die Variation des Messsystems (Total Gage R&R). Sie wird ins Verhältnis zur Gesamtvariation (Total Variation) aller gemessenen Werte gesetzt, hier Restschmutzmenge (in kg). Die Gage R&R für stetige Daten basiert statistisch auf der Durchführung einer einfachen Varianzanalyse (ANOVA). Sie ergab im vorliegenden Fall eine Total Gage R&R von 11%; die Berechnung wurde mit MINITAB R14 auf der Grundlage einer Stichprobe von 120 Messdaten durchgeführt (10 Besen ⋅ 6 Züge ⋅ 2 Prüfer). Die Güte des Messsystems kann damit im großen und ganzen als „gut“ bezeichnet werden. 89% der Gesamtvariation wird durch die Verwendung verschiedener Besen in Kombination mit einer abnehmenden Restschmutzmenge erklärt (Part-To-Part). Die detektierte Ungenauigkeit im Messsystem ist bei allen einbezogenen Fällen in einer unzureichenden Repeatability begründet.59
58
59
Es ergeben sich drei Kehrbahnen, die teilweise überlappend sind. Die Überlappungsfläche A zwischen mittlerer und äußerer Kehrbahn ist abhängig von der Länge des Borstenkopfes l und beträgt A = ((3 ⋅ l) – 120) / 2) ⋅ 80 cm2. Sie wird für die realitätsnahe (Prüf-)Bedingung, eine verschmutzte Fläche mit Begrenzungen zu reinigen, in Kauf genommen. Andernfalls, bei A = 0 cm2, würden die (Prüf-)Bedingungen dem Produkt angepasst werden und nicht umgekehrt. Eine Verbesserung der Repeatability lässt sich zum einen durch die genauere Definition der Prüfanweisung erreichen (Stichwort: Operationale Definition). Zum anderen trägt i.d.R. eine umfangreichere Schulung/ Einweisung der Prüfer zu einer Verringe-
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
315
(d) Ermitteln der Einflussgrößen Das verwendete Messsystem hat – direkt oder indirekt – einen wesentlichen Einfluss auf die Beurteilung der Kehrqualität eines Besens. Weitere wichtige Einflussgrößen (Xs), welche die Kehrwirkung des Besens determinieren, sind in dem Ishikawa-Diagramm in Abb. 5-36 zusammengetragen. Ziel ist es, einen ganzheitlichen Blick auf das zu untersuchende Thema im Team zu bekommen und dabei die Komplexität der (vermuteten) Ursachen-Wirkungsbeziehungen offen zu legen. Die Erstellung des Ishikawa-Diagramms erfolgte an einer Metaplanwand; die Darstellung erhebt keinen Anspruch auf Vollständigkeit. Die Klassifikation der Xs orientiert sich auf oberster Ebene an den „6 M´s“: Messung, Mitwelt, Maschine, Mensch, Material und Methode. Auf das 7. M Management wurde bewusst verzichtet, weil es vordergründig um technische Aspekte der Produktentwicklung geht. Die 6 M´s sind jeweils auf mind. zwei weiteren Ebenen detailliert, um die ursächlichen Größen, die zu einer hohen Kehrwirkung des Besens führen, zu erkennen. Die Einflussgrößen, die unter die Merkmalsdimension „Material“ fallen, betreffen vor allem die z.T. recht umfangreichen Produktbeschreibungen des Besens. Sie lassen sich auf übergeordneter Ebene in einigen wenigen Charakteristika zusammenfassen. Ihre Auflistung erfolgt im Zusammenhang mit dem Morphologischen Kasten in Abb. 5-39. Die Beurteilung der ermittelten Größen hinsichtlich der Beeinflussbarkeit wurde in vereinfachter Weise vorgenommen. So war für jedes „M“ auf oberster Ebene anzugeben, ob die zugehörigen Einflussgrößen überwiegend variable, noise oder constant sind. Wie in Abb. 5-36 ersichtlich ist, gibt es nur zwei Merkmalsdimensionen, die vom Team direkt beeinflussbar und damit variable sind, nämlich Messung der Kehreigenschaften und Design der Maschine (Besen). Die zu Mensch und Methode zugehörigen Größen wurden als noise eingestuft; sie sind allenfalls indirekt beeinflussbar. Aus Sicht des Teams ist es im Rahmen einer Produktbeschreibung möglich, dem Kunden Empfehlungen zu geben, unter welchen Bedingungen der Besen besonders gut bzw. besonders schlecht funktioniert. Als nicht beeinflussbar und damit constant gelten schließlich die Größen, die unter die zwei Merkmalsdimensionen Mensch und Methode fallen. Bei diesen geht das Team davon aus, dass nicht ex ante bestimmt werden kann, welcher Kunde den Besen kauft und wie er ihn nutzt. Bei der Festlegung des Messsystems wird deshalb vom gebräuchlichsten Anwendungsfall ausgegangen (siehe Gage R&R). Mit der Beschränkung auf zwei variable M´s ist der Suchraum für die weitere Produktoptimierung klar vorgegeben. Aus diesem Grund wurde auf eine Punktbewertung zur Fokussierung der kritischen Xs, wie es bei der Erstellung des IshikawaDiagramms sonst üblich ist (vgl. Abschnitt 5.3.1), verzichtet.
rung des Messsystemfehlers bei (Stichwort: Qualifikation der Prüfer). Beide Aspekte wurden bei der Optimierung des Messystems berücksichtigt.
Körpergewicht
Beobachtung
Aufrecht
Mensch c
Oberkörper
Gebeugt
Körpergröße
Eine
Warm
Windstille Regen
Hoch
Lange, langsame Züge
Kehrrythmus
Kehrwirkung des Besens
Vom Körper weg
Zum Körper hin
Kehrrichtung
Kurze, schnelle Züge
Wetter
Methode c
Niedrig
Anpresskraft Korngröße Grobkörnig, z.B. Kieselsteine
Feinkörnig, z.B. Quarzsand
Heterogen
Schmutzverteilung
Legende: v variable n noise c constant
Siehe Excel-Tabelle mit Merkmalsauflistung Kein Regen
Niederschlag
Feuchtigkeit
Nass
Untergrund
Warm
Maschine v
Lufttemperatur Raumklima (Innen)
Homogen
Material n
Mehrere
Trocken
Weich Windstärke
Härte
Trocken
Kalt
Rauhigkeit Temperatur
Kalt
Windig
Hart
Glatt
Rauh
n
Wenig
Flach
Viel Nass
Schmutzmenge
Feuchtigkeit
Kornarten
Körperhaltung
Nicht verdreht
Armhaltung
Arm- Beinlänge länge
Oberkörper
Reproduzierbarkeit
Gefälle
Ansteigend
Wellig
Mitwelt
Ebenheit Eben
Gage R&R
Kehrfläche Zuverlässigkeit
Schlank, ohne Bauch Verdreht
Dick, mit Bauch
Datenerhebung
Befragung Experiment
Subjektive Bewertung
Bewertung
Objektive KombinationsKenndaten verfahren
Feld (nicht standardisiert)
Bedingungen
Labor (standardisiert)
Messung v
316 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
Abb. 5-36: Ishikawa-Diagramm zur Beeinflussung der Kehrwirkung des Besens
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
317
(f) Festlegen der Ausgangspopulation Das Ishikawa-Diagramm bildet den Ausgangspunkt, um wesentliche Merkmale für die Verbesserung des Besens festzulegen. Unter die Dimension Material fallen insgesamt mehr als 10 produktbezogene Merkmale, die einen Einfluss auf die Kehreigenschaften des Besens haben (siehe Abb. 5-37). Dabei lassen sich alle aufgeführten Merkmale in bestimmten Grenzen variieren. Die Änderungen sind jedoch mit unterschiedlich hohem F&E-Aufwand verbunden. Z.B. zieht die Variation der Breite des Holzkörpers umfangreiche Produktionsumstellungen beim Hersteller- und Zulieferunternehmen nach sich und ist kurzfristig nicht realisierbar. Unter der Maßgabe der Wirtschaftlichkeit wurde deshalb in einem zweiten Filterprozess die Anzahl der relevanten Einflussgrößen von 13 auf 8 reduziert; sie sind in Abb. 5-37 mit (v) gekennzeichnet. Größen, die im Rahmen der Optimierung unverändert bleiben, erhielten entsprechend ein (c). Legende: a – Anzahl der Lochreihen (v) α – Winkelneigung des Stiels (v) b – Breite des Holzkörpers (c) b* – Breite des Borstenkopfes (c)
i b
β – Borstenneigung am Rand längs (v) β * – Borstenneigung am Rand quer (v) h – Dicke des Holzkörpers (c) h* – Länge der Borsten (v) i – Länge des Stils (c) l – Länge des Holzkörpers (v) l* – Länge des Borstenkopfes (v) M – Materialsorte (v) s – Bündelstärke (v)
l
M
<) α <) β s
<) β*
h
l*
h* b*
a
Abb. 5-37: Skizze zur Dimensionierung eines Straßenbesens
Quantifizieren der Haupteffekte mit DOE Bereits in diesem frühen Stadium des F&E-Projektes wurde ein statistischer Versuchsplan aufgestellt, um die Wirkungen (Effekte) der einbezogenen Merkmale (Faktoren) zu quantifizieren. Bei der Planung des DOE wurde zunächst davon ausgegangen, dass keine allzu starken Wechselwirkungen zwischen den Faktoren vorherrschen. Unter dieser Voraussetzung kam das Screening-Design nach Pla-
318
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
ckett/ Burman (1946) zum Einsatz. Mit ihm ist es möglich, mit einem Minimum an Versuchen eine Information über einen möglichen Einfluss von (sehr) vielen Faktoren zu erhalten (vgl. Breyfogle 2003, S. 574). Das Grundprinzip von stark reduzierten Versuchsplänen besteht darin, dass alle ermittelten (Haupt-)Effekte mit einem Grundversuch verglichen werden, bei dem sich alle Faktorstufen (Merkmalsausprägungen) auf dem unteren Niveau befinden. Im Zusammenhang mit der Besenoptimierung ging es in erster Linie darum, statistisch zu überprüfen, ob die definierten Merkmale in Abb. 5-37 tatsächlich einen signifikanten Einfluss auf den Korrelationskoeffizienten b als Indikator für die Fitness haben. Bei erkennbarer Nicht-Signifikanz kann der Suchraum ggf. noch verkleinert werden. Für die Überprüfung des Einflusses der 8 Besenmerkmale wurde ein Plackett-Burman-Design mit insgesamt 12 Versuchen und 1 Wiederholung vorgeschlagen. Bei diesem ist die Faktorstufenkombination des ersten Versuches nicht frei wählbar, sondern abhängig von der Größe des Gesamtversuchsplanes. Die Faktorstufenkombinationen der restlichen Versuche ergeben sich aus der Anordnung für den ersten Versuch, und zwar in der Weise, dass die Vorzeichenserie (+ / –) im Versuchsplan jeweils eine Spalte nach links gerückt wird. Die Auswertung von Plackett-Burman-Plänen erfolgt analog zu den teilfaktoriellen Versuchsplänen. Hierbei ist zu berücksichtigen, dass Faktoren-Wechselwirkungen (FWW) mit den Effekten der Faktoren zu einem gewissen Grad vermengt sind (vgl. Kleppmann 2006, S. 148ff.). Im vorliegenden Fall wurde ein PlackettBurman-Design mit einer Auflösung von III verwendet, bei dem eine Vermengung von 2FWW mit Haupteffekten auftritt (vgl. auch Minitab R14/ Help). Infolgedessen werden bei der statistischen Auswertung nur die Haupteffekte geschätzt; Nebeneffekte bzw. Wechselwirkungen bleiben unberücksichtigt. In Abb. 5-38 sind die standardisierten Effekte, die sich für die 8 Merkmale (Faktoren) des Besens nach dem o.g. Versuchsplan ergeben, der Größe nach aufgeführt. Wie leicht nachvollziehbar ist, hat der Faktor M4 (Materialsorte) den größten Einfluss auf die Höhe des gemittelten Degressionsfaktors⎯bi. Der standardisierte Effekt beträgt TM4 = 16,49. Er ergibt sich als Quotient aus dem mittleren Haupteffekt des Faktors (Coef) und dem Standardfehler über alle ermittelten Koeffizienten (SE Coef). Der mittlere Haupteffekt des Faktors beträgt CoefM4 = 0,245, d.h. ausgehend von einer Materialsorte mittlerer Härte (0-Niveau) steigt der Degressionsfaktor b im Durchschnitt um 0,245 Einheiten, wenn die Faktorstufe auf hoch (+), also M4 = „Hart“, gestellt wird, c.p. Der (Gesamt-)Effekt des Faktors berechnet sich mit EffectM4 = 2 ⋅ CoefM4 = 0,49. Dieser gibt an, um wie viele Einheiten sich die Ergebniswerte zwischen hoher und niedriger Faktorstufeneinstellung im Durchschnitt unterscheiden; die mittlere Kehrwirkung beträgt im konkreten Fall bei niedriger Faktorstufe⎯bM4- = -1,20 und bei hoher⎯bM4+ = -1,69.
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
319
Pareto Chart of the Standardized Effects (response is Fitness, Alpha = ,05) 2,14 M4 - Materialsorte M2 - Anz. d. Lochreihen
Term
M1 - Länge d. Holzes M3 - Winkelneigung Stiel M8 - Länge d. Borsten M7 - Bündelstärke M5 - Borstenneigung längs M6 - Borstenneigung quer 0
2
4
6 8 10 12 Standardized Effect
14
16
18
Abb. 5-38: Pareto-Chart der standardisierten Effekte beim Besen
Neben der Materialsorte haben die Faktoren M2 (Anzahl der Lochreihen) und M1 (Länge des Holzes) einen relativ hohen Einfluss auf die Höhe des Degressionsfaktors b. Ihre Haupteffekte betragen EffectM2 = 0,32 und EffectM1 = 0,22. Die standardisierten Effekte (Länge der Balken in Abb. 5-38) liegen bei TM2 = 10,72 und TM1 = 7,53. Mit geringem Abstand folgen die Effekte, die von den drei Faktoren M3, M7 und M8 ausgehen. Hier ist interessant, dass nach den gemessenen Daten die Kehrwirkung, die aus unterschiedlichen Einstellwerten für die Winkelneigung des Stiels (M3) resultiert, größer ist als die, die durch eine Variation der Länge der Borsten (M7) bzw. der Bündelstärke (M8) bedingt ist. Vom Team wurde insbesondere eine größere Bedeutung des Merkmals M8 erwartet.60 Bis auf M5 und M6 sind alle vorstehend genannten Merkmale auf einem Niveau von α = 0,05 signifikant. Sie überschreiten den kritischen Wert von Tkrit = 2,14 (siehe Linie in Abb. 5-38). Dieser ergibt sich aus einem Vergleich mit den Quantilen der t-Verteilung bei gegebener Anzahl von Freiheitsgraden und anvisiertem Signifikanzniveau. Nach der einfachen Varianzanalyse (ANOVA) sind die einbezogenen Faktoren (Factors) zur Erklärung der Kehrwirkung des Besens (Respon-
60
Die geringsten Effekte gehen, wie vermutet, von den Merkmalen M5 und M6 aus, d.h. die Borstenneigung spielt bei der Optimierung der Kehreigenschaften des Besens eine eher untergeordnete Rolle. Trotz dieser Tatsache werden sie in die weitere Optimierung einbezogen, da sie – nach Auswertung des zugehörigen Interaction-Plots – mit hoher Wahrscheinlichkeit in Wechselwirkung mit anderen Faktoren stehen.
320
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
se) in Summe hoch signifikant (p = 0,000). Das Bestimmtheitsmaß für das berechnete Regressionsmodell beträgt R-sq = 97,39%, d.h. die empirischen Werte des Degressionsfaktors werden nahezu vollständig durch das statistische Modell erklärt. Die einbezogenen Merkmale bilden alles in allem einen sehr guten Ausgangspunkt für die Optimierung der Kehreigenschaften des Besens. Auf der Basis der Ergebnisse des Ishikawa-Diagramms und der Auswertung des Plackett-Burman-Designs wurde ein Suchraum mit insgesamt 8 Merkmalen definiert (siehe Abb. 5-39). Die Merkmale können unabhängig voneinander variiert werden. Dabei sind die geforderten Ausprägungen für die Merkmale (1) Länge des Holzkörpers, (3) Winkelneigung des Stiels, (4) Materialsorte und (8) Länge der Borsten mit den Zulieferunternehmen zu vereinbaren. Alle anderen Merkmale können über entsprechende Maschineneinstellungen an den Stanzautomaten im Unternehmen direkt verändert werden. Die Anzahl der Ausprägungen je Merkmal beträgt 4 oder 8. Nach den Gesetzen der Kombinatorik (hier: „Variation mit Zurücklegen“) ergibt sich daraus eine Suchraumgröße von 54 ⋅ 38 = 524.288 Möglichkeiten, d.h. im Lösungsraum (SOLUTION) können max. 524.288 Besenvarianten erzeugt werden, die sich in mind. einem Merkmal unterscheiden. 1
Ausgangspopulation:
2
3
4
5
6
7
Nr
Merkmalsbezeichnung
Ausprägung 1
Ausprägung 2
Ausprägung 3
Ausprägung 4
1
Länge des Holzkörpers
34 cm
40 cm
50 cm
60 cm
2
Anzahl der Lochreihen
5
6
3
Winkelneigung Stiel
0°
4
Materialsorte
5
8
9
10
Ausprägung 5
Ausprägung 6
Ausprägung 7
Ausprägung 8
A-E-Mischung
Polymex
Basine
PPCopo
7
8
30°
35°
45°
Elaston
Kokos
Arenga
Naturhaar
Borstenneigung längs
0°
8°
16°
25°
6
Borstenneigung quer
0°
8°
16°
25°
7
Bündelstärke*
4,0 mm
4,5 mm
5,0 mm
5,5 mm
6,0 mm
6,5 mm
7,0 mm
7,5 mm
8
Länge der Borsten**
5,0 cm
5,5 cm
6,0 cm
6,5 cm
7,0 cm
7,5 cm
8,0 cm
8,5 cm
* Lochdurchmesser
** Sichtbare Länge
Abb. 5-39: Morphologischer Kasten zur Bestimmung der Ausgangspopulation
Für den IESRM-Zyklus wurde eine Populationsgröße (POPSIZE) von 10 gewählt. Die Besen, die sich in der Ausgangspopulation befinden, sind als einzelne Profillinien in der Matrix in Abb. 5-39 eingezeichnet. Dabei handelt es sich zum überwiegenden Teil um Besentypen, die sich im aktuellen Produktportfolio des Unternehmens befinden. Die Variation der Merkmalsausprägungen ist hier – bis auf die Merkmale M1 und M4 relativ gering. Dies wurde aber bewusst in Kauf genom-
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
321
men, um zum einen den F&E-Aufwand zu Beginn des Verbesserungszyklus möglichst gering zu halten. Zum anderen bestand ein vorrangiges Interesse des Teams darin, zunächst die aktuellen Modelle hinsichtlich ihrer Kehreigenschaften zu testen und daraus ein (internes) Ranking zu bestimmen.61 (g) Codieren der Lösungen Im Rahmen des IESRM-Zyklus werden die Lösungen nicht nur auf der Phänotypebene, sondern auch auf der Genotypebene dargestellt (vgl. Abschnitt 5.2.2). Dazu sind die Lösungskandidaten zu codieren. Um eine Besenvariante als Lösung eindeutig auf der Genotypebene abzubilden, ist bei gegebener Suchraumgröße eine Chromosomengröße (BITS) von 19 = ln 524.288 / ln 2 erforderlich. Die Zuordnung von Merkmalswerten auf der Phänotypebene zu Codierwerten auf der Genotypebene erfolgt vorzugsweise mithilfe eines Codier-Tableaus (siehe Abb. 5-40). Jeder Merkmalsausprägung wird hier genau ein Bit-String zugeordnet, dessen Länge sich nach der max. Anzahl möglicher Ausprägungen richtet. Mit der Darstellung der Lösungskandidaten der Ausgangspopulation auf der Geno- und Phänotypebene ist die erste Phase des IESRM-Zyklus abgeschlossen. M1 M2 Merkmal Anzahl der Bezeichnung Länge des Holzkörpers Lochreihen 2 2 Auflösung Metrisch Ordinal Typ Wert Code Wert Code Ausprägung 1 34 00 5 00 2 40 01 6 01 3 50 10 7 10 4 60 11 8 11 5 6 7 8 cm Einheit Minimum 34 5 60 8 Maximum
M3 Winkelneigung des Stiels 2 Metrisch Wert Code 0 00 30 01 35 10 45 11
° 0 45
M4 Materialsorte 3 Nominal Wert
Code
Elaston Kokos A-E-Mischung Naturhaar Arenga Polymex Basine PP-Copo -
000 001 010 011 100 101 110 111
Abb. 5-40: Codier-Tableau zur Lösungsrepräsentation auf der Genotypebene (Ausschnitt)
Evaluierungs-Phase In dieser Phase geht es darum, die Kehreigenschaften der Besentypen, die sich in der Population befinden, (a) einzeln zu bestimmen und auf dieser Grundlage (b) einen Fitnesswert der Gesamtpopulation zu ermitteln.
61
Wie eingangs erwähnt, lässt sich daraus ein wichtiges Verkaufsargument gegenüber dem Handel generieren. Gleichzeitig wird über ein objektiviertes Messverfahren die Voraussetzung für ein systematisches Benchmarking geschaffen.
322
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
(a) Bestimmen der Fitnesswerte der einzelnen Besen Im Zusammenhang mit der Messsystemanalyse wurde der Korrelationskoeffizient b der logarithmierten Regressionsgleichung als wichtiger Indikator zur Beschreibung des Kehrverhaltens identifiziert. Dieser lässt sich jedoch nicht direkt als Fitnesswert verwenden, da sein Wertebereich kleiner gleich Null ist. Aus diesem Grund ist eine Transformation bzw. Standardisierung vorzunehmen. Im einfachsten Fall besteht diese in der Ermittlung des Absolutwertes des Koeffizienten. Die Fitnesswerte, die sich entsprechend fiti(y) = ⏐bi⏐ für die Besen i ∈ [1, 10] der Ausgangspopulation ergeben, sind in Abb. 5-41 tabelliert. Wie leicht nachvollziehbar ist, sind die Unterschiede in den Fitnesswerten relativ groß, so dass auf die Anwendung einer Skalierungsfunktion verzichtet werden kann (vgl. Abschnitt 5.2.2). Ausgehend von den Fitnesswerten sind den Besen Ränge zugeordnet worden. Sie geben einen Hinweis auf die Selektionswahrscheinlichkeit. Besen-Nr. 1 2 3 4 5 6 7 8 9 10
Korrelations- Degressionskoeffizient rate Kokos-40 -0,86 55,2% Elaston-50 -1,51 35,1% A-E-Mischung-60 -1,80 28,7% Kokos-60 -1,44 36,8% Elaston-40 -2,07 23,9% A-E-Mischung-40 -1,19 43,8% Polymex-40 -0,48 71,9% Naturhaar-50 -0,46 72,6% Arenga-40 -1,08 47,2% PP-Copo-34 -1,02 49,2% Bezeichnung
Fitnesswert
Rang
0,86 1,51 1,80 1,44 2,07 1,19 0,48 0,46 1,08 1,02
8 3 2 4 1 5 9 10 6 7
Abb. 5-41: Daten zur Ermittlung der Fitnesswerte für die Besen der Ausgangspopulation
Als bester Straßenbesen erwies sich in der 1. Optimierungsrunde der Besen mit der Nr. 5 (Elaston, 40 cm, 7 Reihen). Ihm wird der Rang 1 zugeordnet. Aus seinem Korrelationskoeffizienten b ergibt sich eine Degressionsrate L von 23,9%.62 Gegenüber dem besten Besen mit einem Fitnesswert von 2,07 besitzt der schlechteste Besen eine Fitness von „nur“ 0,46; seine Degressionsrate beträgt über 70%. Es handelt sich dabei um den Besen mit der Nr. 8 (Naturhaar, 50 cm, 7 Reihen). Maßgebend für die weitere Optimierung ist die durchschnittliche Fitness über alle Besen; sie beträgt 1,07. Ziel ist es, dass sich dieser Wert infolge des mehrmaligen Durchlaufens der letzten vier Phasen des IESRM-Zyklus sukzessive erhöht.
62
Diese besagt, wie eingangs erwähnt, dass im Durchschnitt bei einer Verdopplung der kumulierten Anzahl von Kehrvorgängen (x) die Restschmutzmenge (y) auf den vorstehend angegebenen Prozentsatz des jeweiligen Ausgangsniveaus fällt, also hier z.B. von Punkt (2. Zug, 1,75 kg) auf Punkt (4. Zug, 0,42 kg).
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
323
(b) Berechnen der durchschnittlichen Fitness der Population Für die Berechnung der durchschnittlichen Fitness der Population wird die Formel für den geometrischen Mittelwert zugrunde gelegt (vgl. Abschnitt 5.2.1). Diese hat den Vorteil, dass neben dem Erwartungswert die Varianz der Fitnesswerte innerhalb der Population Berücksichtigung finden. Üblicherweise werden die Lösungskandidaten mit zunehmender Iterationszahl immer ähnlicher, so dass die Varianz minimiert und gleichzeitig der geometrische Mittelwert für die Gesamtfitness maximiert wird. Die Varianz beträgt in der Ausgangspopulation σ2 = 0,28. Im Durchschnitt schwanken die Fitnesswerte also um σ1 = 0,53 um den (arithmetischen) Mittelwert i.H.v. μ1 = 1,19. Aus beiden Werten ergibt sich nach Gleichung (5.1) eine geometrische mittlere Fitness von⎯fit1 = 1,07. Die Differenz zwischen arithmetischen und geometrischen Mittel von 0,12 liegt in der relativ großen Streuung der Fitnesswerte begründet. Nach Fisher´s Fundamentaltheorem ist dies im Hinblick auf eine effektive Selektion positiv zu bewerten. Selektions-Phase Die Selektion der Besen für die jeweils nächste Runde wird nach dem RouletteWheel-Verfahren durchgeführt. Dazu sind die relativen Fitnesswerte der einzelnen Lösungskandidaten zu bestimmen (vgl. Abschnitt 5.2.1). Sie sind in Abb. 5-42 in Form eines Kuchendiagramms dargestellt. Der Besen mit der höchsten relativen Fitness erhält das größte „Kuchenstück“, c.p. Der prozentuale Anteil am Kuchen ist gleichbedeutend mit der Wahrscheinlichkeit, dass ein Besen im Rahmen der Selektion ausgewählt wird und in den Fortpflanzungspool gelangt. Die Auswahl der Besen erfolgt per gewichtetem Zufallsprinzip, d.h. es werden 10 Zufallszahlen im Bereich [0, 1] erzeugt und den Werten, die sich nach der Bildung der kumulierten relativen Fitnessfunktion (CDF) ergeben, gegenübergestellt (vgl. Abschnitt 5.2.2). Durch dieses Vorgehen wird eine fitnessproportionale Selektion erreicht. Für die Fortpflanzung (Rekombination) wurden die folgenden sechs Besen ausgewählt: 3, 4, 5, und 6 je 2-mal sowie 7 und 9 je 1-mal. Rekombinations-Phase Die selektierten Besen bilden die Elterngeneration; sie werden auf der Genotypebene rekombiniert. Dazu sind die Genome von jeweils zwei Besen an einer zufällig gewählten Stelle des Bit-Codes im Bereich [1, 19] zu kreuzen. In Abb. 5-43 sind die fünf Elternpaare mit den zugehörigen Crossover-points dargestellt. Die Besen, deren Bit-Strings gekreuzt werden, sind per Zufallsprinzip bestimmt worden. Bei der Programmierung des Zufallsgenerators wurde darauf geachtet, dass die Wahrscheinlichkeit, zwei gleiche Elternteile auszuwählen und damit Klone zu bekommen, in jeder Runde minimiert wird. Im konkreten Fall gehen aus den 5 Paarungen mit der Nummerierung [A, E] 10 Kinder hervor, die sich in ihrem Gen-Code in jeweils mind. einer Bit-Stelle von ihren Eltern unter-
324
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
scheiden. Dadurch wird sichergestellt, dass eine möglichst hohe Variation der Merkmale/ Merkmalsausprägungen in der nachfolgenden Runde eintritt. Besen-Nr. 10 0,09 10 9% 1,00
1 0,07 1 7% 0,07
9 0,09
7
Kum. rel. Fitness
2 0,13 2 13%
9 9% 0,91 8
Rel. Fitness
0,20
0,04 8 0,82 4% 0,04 7
4% 0,78 3 0,15 3 15% 0,35
0,10 6
6 10% 0,74
4 0,12 4 12% 0,47
5 0,17
5 17% 0,64 Zufallszahl Selektierte Lösung
0,52
0,67
0,21
0,52
0,68
0,42
0,87
0,77
0,41
0,29
5
6
3
5
6
4
9
7
4
3
Abb. 5-42: Selektion der Besen nach dem Roulette-Wheel-Verfahren
Nr. Elternteil 1 A 5 B 6 C 3 D 5 E 6
x x x x x
Elternteil 2 3 4 7 9 4
= = = = =
Kinder a+b a+b a+b a+b a+b
Crossoverpoint 14 18 7 7 11
Abb. 5-43: Rekombination der Besen der 1. Elterngeneration per Zufallsprinzip
Mutations-Phase Die Mutations-Phase umfasst das manuelle und/ oder automatisierte Erzeugen zufälliger Änderungen im Bit-Code. Anschließend wird kurz auf die weitere Entwicklung der Fitness der Besen-Population sowie die Generierung von Produktinnovationen mit TRIZ eingegangen.
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
325
(a) Erzeugen zufälliger Änderungen im Bit-Code Die Merkmalsausprägungen der Besen sind in der Anfangspopulation in einigen Dimensionen zu einem hohen Grad deckungsgleich (siehe Abb. 5-39). Aus diesem Grund wurde die Mutationswahrscheinlichkeit (MUTPROB) zu Beginn des Verbesserungsprojektes vergleichsweise hoch gewählt; sie beträgt in der ersten Runde 10%. Die zufälligen Veränderungen des Bit-Codes werden per Flip-Mutation erzeugt (vgl. Abschnitt 4.3.3). Konkret bedeutet dies, dass sich bezogen auf ein Chromosom der Kindergeneration der Bit-Code an einer beliebigen Stelle mit einer Wahrscheinlichkeit von 10% verändert, d.h. von „0“ auf „1“ springt oder umgekehrt. Auf diese Weise treten in der ersten Kindergeneration genau zwei Mutationen im Chromosomensatz auf: (1) Besen mit der Nr. 4 (Kind D1) an der Bit-Stelle 15 und (2) Besen mit der Nr. 8 (Kinde C2) an der Bit-Stelle 18. Von den Mutationen sind auf der Phänotypebene das Merkmal M7 (Bündelstärke) bei Besen-Nr. 4 und M8 (Länge der Borsten) bei Besen-Nr. 8 betroffen. In Abb. 5-44 ist die Besen-Population für die zweite Runde in dekadischer und binärer Form dargestellt. Die Mutationen sind im Binär-Code durch entsprechende Markierungen hervorgehoben. Wie leicht nachvollziehbar ist, wurden bzgl. der genannten Merkmale zusätzlich zwei Mutationen „per Hand“ eingefügt. Sie beziehen sich auf die Besen mit der Nr. 2 (Kind B1) und der Nr. 9 (Kind D2). Aufgrund der Ergebnisse der ersten Mess- bzw. Evaluations-Phase versprach sich das Projektteam hiervon einen weiterführenden Erkenntnisgewinn, und zwar in Bezug auf die optimale Gestaltung von Borstenlänge und -stärke. Runde
2
Besen-Nr. Bezeichnung 1 2 3 4 5 6 7 8 9 10
Bit-Stelle
Besen-Nr. 1 2 3 4 5 6 7 8 9 10
M1
Bezeichnung Elaston-40 A-E-Mischung-40 Polymex-60 Arenga-40 A-E-Mischung-40 A-E-Mischung-60 Kokos-60 A-E-Mischung-40 Elaston-40 Kokos-60
M2
M3
M4
M5
Länge desAnzahl de Winkelne Materialsorte
Elaston-40 A-E-Mischung-40 Polymex-60 Arenga-40 A-E-Mischung-40 A-E-Mischung-60 Kokos-60 A-E-Mischung-40 Elaston-40 Kokos-60
40 40 60 40 40 60 60 40 40 60 1
2
M1
7 6 6 7 6 6 6 8 6 6 3
4
M2
35 35 35 35 35 35 35 35 35 35 5
6
7
M3
8
9
M4
M6
M7
M8
BorstenneBorstenneBündelstä Länge der
Elaston A-E-Mischung Polymex Arenga A-E-Mischung A-E-Mischung Kokos A-E-Mischung Elaston Kokos 10
16 8 16 8 8 8 8 8 16 8 11
M5
12
16 8 16 8 8 8 8 8 16 8 13
14
M6
15
6,0 4,0 4,0 7,0 6,0 6,0 6,0 6,0 6,0 6,0 16
17
M7
7,5 7,5 6,0 7,5 7,5 7,5 7,5 8,5 8,5 7,5 18
19
M8
Länge de Anzahl deWinkelneMaterialsorte Borstenn Borstenn Bündelstärke*Länge der Bor
0 0 1 0 0 1 1 0 0 1
1 1 1 1 1 1 1 1 1 1
1 0 0 1 0 0 0 1 0 0
0 1 1 0 1 1 1 1 1 1
1 1 1 1 1 1 1 1 1 1
0 0 0 0 0 0 0 0 0 0
0 0 1 1 0 0 0 0 0 0
0 1 0 0 1 1 0 1 0 0
0 0 1 0 0 0 1 0 0 1
1 0 1 0 0 0 0 0 1 0
0 1 0 1 1 1 1 1 0 1
1 0 1 0 0 0 0 0 1 0
0 1 0 1 1 1 1 1 0 1
1 0 0 1 1 1 1 1 1 1
0 0 0 1 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0
1 1 0 1 1 1 1 1 1 1
0 0 1 0 0 0 0 1 1 0
1 1 0 1 1 1 1 1 1 1
Abb. 5-44: Population für 2. Optimierungsrunde in dekadischer und binärer Darstellung
326
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
Trotz der „klonfreien“ Rekombination und der zahlreichen Mutationen ist die mittlere Übereinstimmung des Genoms zwischen Eltern- und Kindergeneration relativ hoch; sie beträgt 89% und ergibt sich aus einem Vergleich der kumulierten Anzahl von „0“ und „1“ je Bit-Stelle in der Matrix der Eltern- und Kindergeneration. Im weiteren Verlauf nimmt die Rate der Übereinstimmung tendenziell zu. Auf der Phänotypebene führt dies dazu, dass die Lösungskandidaten von Runde zu Runde immer ähnlicher werden; sie konvergieren in Richtung globales Optimum (vgl. Abschnitt 4.3.4). Letzteres ist nach 5 Runden erreicht, so dass der IESRMZyklus – entgegen der ursprünglichen Initialisierung – bereits nach der Hälfte der geplanten Rundenzahl abgebrochen wird (MAXITER). Die wesentlichen Ergebnisse sind im Folgenden zusammengefasst. (b) Zusammenfassung der Projektergebnisse Analog zum Papier-Rotor entwickelt sich die mittlere geometrische Fitness der Population in Form einer S-Kurve (vgl. Abschnitt 5.4.1). Der Wert steigt innerhalb von 5 Optimierungsrunden von ca. 1,0 auf über 2,0. Der beste Besen in Runde 5 besitzt eine Fitness von fit* = 2,23. Dabei zeigt die Selektion bereits nach zwei Runden ihre (volle) Wirkung – die Fitness der Population steigt in Runde 3 schlagartig an und verbleibt im Folgenden auf einem etwa gleich hohen Niveau. Zu diesem Zeitpunkt sind insgesamt 30 unterschiedliche Besenmodelle produziert und getestet worden. Ca. die Hälfte der angegebenen Modelle konnte auf der Grundlage von Modellen in Vorgängerrunden erstellt werden. Dadurch hielt sich der Aufwand für die Erstellung der Muster in Grenzen. Der angestrebte Net Benefit konnte in der in Abb. 5-33 ausgewiesenen Höhe generiert werden. In Abb. 5-45 ist die Steigerung der mittleren Fitness der Population innerhalb von 5 Optimierungsrunden (Generationen) nachvollziehbar. Ergänzend hierzu ist die geschätzte Fitnessfunktion63 über 10 Runden angegeben. Mit ihrer Hilfe lässt sich das verbleibende Optimierungspotenzial schätzen. Dieses ergibt sich als Differenz zwischen der angestrebten mittleren Fitness in Runde 10⎯fit10 = 2,22 und der tatsächlich erreichten mittleren Fitness in Runde 5⎯fit5 = 2,08; das Potenzial beträgt im vorliegenden Fall Δfit5, 10 = 0,14. Im Verhältnis zum insgesamt vorhandenen Optimierungspotenzial sind dies nicht mehr als 12%. Um in Zukunft einen weiteren signifikanten Anstieg der Fitness zu erreichen, sind Basisinnovationen erforderlich, die zu einem Technologiesprung führen (vgl. Abschnitt 3.1.2).
63
Die geschätzte Fitnessfunktion basiert auf folgenden Parametereinstellungen: (a) Derzeitige mittlere Fitness fit1 = 1,0; (b) Sigma-Skalierungsfaktor σS = 0,64; (c) Sigmaskalierte derzeitige mittlere Fitness fit1 – σS = 0,36; (d) Angestrebte mittlere Fitness fit10 = 2,22; (e) Sigma-skalierte angestrebte mittlere Fitness fit10 – σS = 1,58; (f) Formparameter Lambda λ = 1,02. Diese Einstellungen führen zu einem mittleren quadratischen Fehler bei der Schätzung i.H.v. MSEB = 0,005.
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
327
2,5
Fitness (Geo-Mittel)
Δfit5,10
2,0 1, 02 ⋅ ( g − 1)
1,5
fit
Pop
(g) =
1,0
1,58 ⋅ e 1,58 − 0 ,36 + 0 ,36
e
1, 02 ⋅ ( g − 1 )
+ 0 , 64
0,5 0,0 1
2
3
4
5
6
7
8
9
10
Generation Tatsächliche Fitness
Geschätzte Fitness
Abb. 5-45: Entwicklung der Fitness der Besen-Population
Das Design des optimalen Besens in der Endpopulation unterscheidet sich vom besten Besen (Nr. 5) in der Ausgangspopulation in 2 von 8 Merkmalen (siehe Abb. 5-46). Gegenüber letztgenannten konnte die Fitness bis zum Abschluss der 5. Runde um ca. 8% gesteigert werden. Die Erklärung für diesen eher geringen Unterschied geht zum einen dahin, dass das produktbezogene Know-how bereits sehr hoch ist. Besen dieser Art werden bereits seit mehr als 50 Jahren im Unternehmen produziert. Zum anderen wurde bei der Initialisierung des Entwicklungsprozesses vom bestehenden Produktportfolio ausgegangen. Dieses enthält Besenmodelle, deren Kehreigenschaften im Hinblick auf unterschiedliche Anwendungsbedingungen seit Jahrzehnten „optimiert“ worden sind. Damit war die Wahrscheinlichkeit hoch, gleich zu Beginn des IESRM-Zyklus einen Besen aufzunehmen, der die Anforderungen des o.g. Messsystems „sehr gut“ erfüllt. Im Umkehrschluss bedeutet das Ergebnis des F&E-Projektes aber auch, dass der IESRM-Zyklus ein effektives Vorgehensmodell beinhaltet, das bei systematischer Anwendung zu optimalen Lösungen führt. Ausgehend von einer Population mit Besen, die z.T. für ganz unterschiedliche Anwendungsbereiche konzipiert sind, werden nach und nach die auf die Messanordnung am besten „passenden“ Besen selektiert. Diese werden gleichzeitig über die Rekombination und Mutation ihres Bit-Codes kontinuierlich weiterentwickelt. Am Ende des Problemlösungszyklus liegt ein fitnessmaximaler Besen vor, der sich mit seinen spezifischen Merkmalsausprägungen noch nicht im Portfolio des Unternehmens befindet.
328
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
Bester Besen 1. Runde Fitness: 2,07
Bester Besen 5. Runde Fitness: 2,23
Nr.
Merkmalsbezeichnung
Ausprägung 1
Ausprägung 2
Ausprägung 3
Ausprägung 4
1
Länge des Holzkörpers
34 cm
40 cm
50 cm
60 cm
2
Anzahl der Lochreihen
5
6
7
8
3
Winkelneigung Stiel
0°
30°
35°
45°
4
Materialsorte
Elaston
Kokos
Arenga
Naturhaar
5
Borstenneigung längs
0°
8°
16°
25°
6
Borstenneigung quer
0°
8°
16°
25°
7
Bündelstärke*
4,0 mm
4,5 mm
5,0 mm
8
Länge der Borsten**
5,0 cm
5,5 cm
6,0 cm
* Lochdurchmesser
Ausprägung 5
Ausprägung 6
Ausprägung 7
Ausprägung 8
A-E-Mischung
Polymex
Basine
PPCopo
5,5 mm
6,0 mm
6,5 mm
7,0 mm
7,5 mm
6,5 cm
7,0 cm
7,5 cm
8,0 cm
8,5 cm
** Sichtbare Länge
Abb. 5-46: Morphologischer Kasten mit Profillinien für beste Besen
Vor diesem Hintergrund hat sich aus Unternehmenssicht die Anwendung des IESRM-Zyklus zur Entwicklung eines Straßenbesens mit optimierten Kehreigenschaften prinzipiell gelohnt. Die formulierten Ziele in der Projektcharter wurden in weiten Teilen erreicht. Als einziges Manko bleibt festzuhalten: Aufgrund des gewählten Lösungsraums, der sich primär auf traditionelle Vorstellungen über die zu optimierenden Merkmale bei einem Straßenbesen stützt, blieb das Auffinden eines wirklich innovativen Produktdesigns ohne Erfolg. Hierzu sind weiterführende Aktivitäten mit einem veränderten Fokus notwendig. Zu diesem Zweck wurde am Ende des Projektes ein halbtägiger Innovationsworkshop durchgeführt. (c) Generieren von Produktinnovationen mit TRIZ Das Ziel des Workshops bestand darin, unter Anwendung von einfachen intuitvkreativen Techniken aus dem Bereich TRIZ konkrete Produktinnovationen zu generieren. Nach einer kurzen Einführung zur widerspruchsorientierten Problemlösungstechnik wurde die Antizipierende Fehlererkennung (AFE) als zielführendes Werkzeug ausgewählt. Es bezieht sich auf drei von vier TRIZ-Säulen: Systematik, Analogie und Wissen (siehe Abb. Abb. 5-2). Auf der Basis von AFE soll ein kreativer Verständnis- und Lern-Prozess in Gang gesetzt werden (vgl. Herb 2003, S. 1ff.), bei dem die folgende Frage im Mittelpunkt steht: „Was muss getan werden, um das System/ Produkt zum Versagen zu bringen?“. Um System-/ Produktinnovationen zu generieren, wird – entsprechend der TRIZ-Philosophie – der Konflikt bewusst erzeugt und soweit wie möglich verstärkt (vgl. Abschnitt 5.1.2), d.h. man legt die Konstruktion so aus, dass eine
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
329
Fehlfunktion unausweichlich wird. Die Lösung des Ausgangsproblems/ -konflikts erfolgt nicht auf direktem Weg, sondern zunächst über die Lösung des invertierten Problems. Der Prozess läuft in sechs Schritten ab, die wie folgt am Beispiel Straßenbesen nachvollzogen werden können: (1) Problem beschreiben: Straßen- und Gehwegflächen, die rund ums Haus zu kehren sind, sind i.d.R. unterschiedlich stark verschmutzt. An manchen Stellen befindet sich viel Dreck, an anderen nur wenig. Außerdem weichen Korngröße und -beschaffenheit stark voneinander ab, so dass mehrere Kehrvorgänge notwendig sind, um alle Abschnitte gründlich zu reinigen. (2) Problem umkehren: Der Straßendreck/ -schmutz ist nach Korngröße und -beschaffenheit sortiert und jeweils gleichmäßig auf der zu reinigenden Fläche verteilt. Die Kehrfläche kann in mehrere Abschnitte unterteilt werden, auf der sich jeweils nur eine bestimmte Art und Menge von Dreck befindet. (3) Problemumkehrung verstärken: Der Dreck, der sich auf den einzelnen Flächenabschnitten befindet, ist hinsichtlich Art und Größe standardisiert und normiert. Die „Verschmutzung“ lässt sich bei Bedarf genau in der vorgegebenen Weise wiederherstellen. Zu diesem Zweck wird das Kehrgut in abgepackten Mengen – nach gewünschter Spezifika – zur Verfügung gestellt. (4) Umgekehrtes Problem lösen: In Abhängigkeit von Korngröße und -beschaffenheit des Straßendrecks wird jeder Abschnitt mit einem „passenden“ Besen gereinigt. „Passend“ bezieht sich in diesem Zusammenhang vor allem auf die gewählte Materialsorte, z.B. Elaston zum Beseitigen von Grobschmutz und Naturhaar zum Beseitigen von Feinschmutz. Allgemein gilt: Das verwendete Material sollte umso stärker sein, je grobkörniger der Dreck ist. (5) Lösung wieder umkehren: Es werden mehrere Besen mit unterschiedlichem Besteckmaterial (Borstenbündel und -stärke) aneinander gereiht. Durch die Kombination ist es möglich, Flächenabschnitte, die mit unterschiedlich grobkörnigem Material verschmutzt sind, mit einem Besenzug zu reinigen. (6) Endgültige Lösung finden: Die Innovation besteht darin, einen Besen zu konstruieren, der mit unterschiedlichem Material (z.B. Elaston und Naturhaar) bestückt ist. Die Anordnung der Materialien ist reihenweise, und zwar beginnend mit dem gröbsten Material an der Vorderseite des Holzkörpers. An der Rückseite befindet sich das Material mit den feinsten Haaren. Im Ergebnis dieser Analyse wurde ein erster Prototyp mit zwei Materialsorten – Elaston und Kokos – entwickelt. Beim Test der Kehreigenschaften stellte sich heraus, dass der hybride Besen eine höhere Fitness besitzt als die beiden originären Besenvarianten mit nur einer Materialsorte. Für den Besen (Elaston-Kokos, 50 cm, 6 Reihen), der auf den Besen mit der Nr. 2 und Nr. 4 in der Ausgangspopulation basiert, ergibt sich ein Degressionsfaktor b von -1,64 bzw. ein Fitnesswert von 1,64. Letzterer liegt um 7% bzw. 13% höher als der Wert, der bei den vorstehend genannten Varianten ermittelt wurde (siehe Abb. 5-41).
330
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
Für den Kunden resultieren aus der Kombination von zwei Materialsorten gleich zwei Vorteile: Zum einen erfährt er einen höheren Produktnutzen aufgrund der besseren Kehrwirkung des Besens. Zum anderen kommt er in den „Genuss“ eines Preisvorteils, wenn – wie im Fall des Besens mit der Nr. 2 – ein Teil des höherwertigen Materials (Elaston) durch ein geringwertigeres Material (Kokos) substituierbar ist und die Kosteneinsparungen für das Unternehmen – zumindest teilweise – an den Kunden weitergegeben werden. Die Verwendung von mehr als zwei Materialsorten in einem Besen ist aufgrund von technologischen Beschränkungen zum gegenwärtigen Zeitpunkt nicht möglich. Als Alternative bietet sich die Verwendung von Mischungen an, wie es z.B. bei den Besen mit der Nr. 3 und Nr. 6 in der Ausgangspopulation der Fall ist. Hier werden die Sorten Arenga (relativ dünn und flexibel) und Elaston (relativ dick und starr) als Mischung in den Holz-/ Plastekörper eingebracht.64 Der hybride Besen stellt sozusagen eine Produktinnovation dar, die im Weiteren zu optimieren ist. Analog zum Papier-Rotor in Abschnitt 5.3.1 lässt sich ein 2. Verbesserungszyklus65 mit einem leicht veränderten Lösungsraum unmittelbar anschließen. Für die Einbeziehung von zwei Materialsorten – mit jeweils 8 Merkmalsausprägungen – ist der bis dato verwendete Bit-Code um 3 Stellen zu erweitern. Die Chromosomengröße erhöht sich damit auf insgesamt 22 Bit-Stellen. Dabei wird davon ausgegangen, dass das Mengenverhältnis der zwei Materialsorten bei allen Besenvarianten konstant ist. Soll dies nicht der Fall sein, dann ist eine zusätzliche Merkmalsvariable einzuführen, in der das Verhältnis festgelegt wird, z.B. auf der Basis der Anzahl von Bündeln je Sorte. Die Größe des Bit-Codes steigt entsprechend der gewählten Auflösung in diesem Merkmal. Zwischenfazit: Die hohe Effektivität der deduktiv abgeleiteten Vorgehensmodelle – DMAIDV- und IESRM-Zyklus – kann auch anhand des zweiten Anwendungsbeispiels gut belegt werden. Ihre Wirksamkeit äußert sich in den Dimensionen Qualität und Innovation, die vor allem im Rahmen des Produktentstehungsprozesses (PEP) relevant sind. Im Hinblick auf die Beurteilung der Effizienz der abgeleiteten Vorgehensmodelle ist das Ergebnis differenzierter zu bewerten. Hierzu wird abschließend, anhand der explorativen Untersuchungen, eine Gegenüberstellung von DMADV-, DMAIDV- und IESRM-Zyklus vorgenommen; sie basiert auf der Grundlage von monetären und nicht-monetären Kriterien (siehe Abb. 5-47), deren Ausprägungen gleichzeitig die Anwendungsvoraussetzungen für den wirkungsvollen Einsatz der drei Problemlösungszyklen beschreiben. 64
65
Besen dieser Art werden z.B. von der Berliner Stadtreinigung genutzt. Nach Auskunft des Unternehmens EBF erfreuen sie sich immer größerer Beliebtheit, vor allem im gewerblichen Bereich. Ein 2. Verbesserungszyklus, bei dem insgesamt 10 Merkmale berücksichtigt werden, befand sich zum Ende dieses Projektes in Planung. Im Hinblick auf die Entwicklung der Fitness wird erwartet, dass die S-Kurve deutlich oberhalb der Kurve aus dem 1. Zyklus zum Liegen kommt.
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
PM-Zyklus
DMADV
DMAIDV
IESRM
2.500 € (5 Tage)
3.500 € (7 Tage)
1.500 € (3 Tage)
Projektkosten (1.500 € / Tag)
7.500 € (5 WS-Tage)
9.000 € (6 WS-Tage)
7.500 € (5 WS-Tage)
Kosten für Schulung mit Projekt
10.000 € / MA
12.500 € / MA
9.000 € / MA
Mittel QFD, DOE
Hoch QFD, DOE, TRIZ
Mittel EA, GA
SoftwareAnwendung
Mittel z.B. Minitab, Excel
Hoch Minitab, Excel, I-TRIZ
Gering Excel
PrototypenErstellung
Mittel 2k-q-Designs
Mittel 2k-q-Designs
Hoch n Generationen
331
Monetäre Kriterien Schulungskosten (500 € / Tag)
Nicht-monetäre Kriterien Methoden-Knowhow
Quelle: Eigene Darstellung
Abb. 5-47: Gegenüberstellung von DMADV-, DMAIDV- und IESRM-Zyklus
Für die monetäre Bewertung der Vorteilhaftigkeit von DMADV-, DMAIDV- und IESRM-Zyklus ist eine Kostenvergleichrechnung66 durchgeführt worden. Dabei wird von folgendem Szenario ausgegangen: Ein Mitarbeiter, der bereits eine 2wöchige Green Belt-Ausbildung absolviert hat und über verschiedene Projekterfahrungen verfügt, soll ein Six Sigma-Projekt im F&E-Bereich durchführen. Prozessablauf und Methodeneinsatz sind nach einem der o.g. Problemlösungszyklen zu gestalten. Die notwendige Trainingsmaßnahme erfolgt im Zuge der Projektbearbeitung, wobei ein Coaching durch einen erfahrenen (Master) Black Belt stattfindet. Bei der Ermittlung der Schulungskosten wird von einem qualifizierenden Black Belt-Training von 2 Wochen ausgegangen; die Teilnahmegebühr hierfür beläuft sich auf ca. 5.000 €, d.h. 500 € pro Tag und Teilnehmer. Für die Schulung des DMADV-Zyklus sind – je nach Kenntnisstand der Teilnehmer – mind. 5 Tage zu veranschlagen. Für eine fundierte TRIZ-Ausbildung im Rahmen des erweiterten DMAIDV-Zyklus sind zusätzlich mind. 2 Tage einzuplanen. Die praxisnahe Vermittlung der Inhalte des IESRM-Zyklus erfordert ca. 3 Tage. Pro Phase wird üblicherweise ein 1-tägiger Workshop (WS) durchgeführt, bei dem die phasenspezifischen Ergebnisse sowie das weitere Vorgehen gemein66
Für die Ermittlung der Vorteilhaftigkeit wird hier davon ausgegangen, dass die Anwendung der Problemlösungszyklen ergebnisneutral ist, d.h. die drei Vorgehensmodelle führen jeweils zum gleichen Produkt-/ Prozessergebnis mit demselben Gewinn. Bei den verwendeten Kostensätzen handelt es sich um Durchschnittswerte von einschlägigen Six Sigma-Beratungsunternehmen, z.B. M+M Consulting GmbH, Kassel, und Vorest AG, Pforzheim.
332
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
sam mit dem Coach (als Moderator) geplant und durchgesprochen werden. Der Tagessatz für einen Six Sigma-Coach liegt bei mind. 1.500 €.67 Unter diesen Voraussetzungen belaufen sich die Kosten für Schulung mit integriertem Projekt von max. 6-monatiger Dauer auf 10.000 € pro Mitarbeiter bei einem „klassischen“ DFSS-Projekt, das nach dem DMADV-Zyklus durchgeführt wird. Aufgrund der zusätzlichen Phase „Innovate“ sind die Kosten pro Mitarbeiter bei der zweiten Variante auf Basis des DMAIDV-Zyklus etwas höher und liegen bei 12.500 €. Wie in Abb. 5-47 aufgeführt ist, zieht die Durchführung eines Pilotprojektes nach dem IESRM-Zyklus tendenziell weniger Kosten pro Mitarbeiter nach sich; sie betragen ca. 9.000 €. Sowohl beim DMAIDV- als auch IESRMZyklus handelt es sich um eine erste qualifizierte Schätzung, die im Rahmen von (umfangreicheren) empirischen Untersuchungen zu überprüfen ist. Zur Festlegung der Ausprägungen bei den nicht-monetären Kriterien dient der DMADV-Zyklus als Vergleichsmaßstab. Die Kriterien umfassen zum einen das Methoden-Know-how, z.B. in Statistik, welches für die zielführende Umsetzung des jeweiligen Problemlösungszyklus erforderlich ist. Zum anderen stellt der Einsatz von IT & Software ein wichtiges Effizienzkriterium dar. Bei beiden Kriterien ist das Anforderungsniveau, welches beim DMAIDV-Zyklus zugrunde gelegt wird, relativ hoch. Neben der Durchführung von statistischen Analysen, z.B. auf der Basis von Minitab und Excel, sind hier spezielle TRIZ-Applikationen mit/ ohne Software-Unterstützung notwendig, z.B. I-TRIZ. Darüber hinaus ist als drittes Kriterium der Aufwand zu berücksichtigen, der sich aus der Erstellung von Prototypen und der Durchführung von Versuchen ergibt. Dieser ist beim IESRMZyklus vergleichsweise hoch, da hier eine systematische Reduktion von Versuchsanordnungen, wie sie z.B. bei DOE der Fall ist, nicht verfolgt wird.
67
Reisekosten und Spesen bleiben aufgrund ihrer individuellen Höhe bei der Kalkulation der Projekt- sowie Schulungskosten unberücksichtigt. Auch werden – im Sinne der Net Benefit-Berechnung bei Six Sigma-Projekten (vgl. Abschnitt 2.2.3) – keine Opportunitätskosten berücksichtigt, z.B. Ausfallszeiten der Mitarbeiter im Tagesgeschäft aufgrund von Schulungsmaßnahmen oder Projektaktivitäten.
6
Zusammenfassung, Schlussfolgerungen und Ausblick
Die Debatte, um den Aufwand und Nutzen von Six Sigma, hat sich in den vergangenen Jahren deutlich zugespitzt. Verschiedene Experten kommen heute zu dem Schluss, dass Six Sigma nicht länger ausreicht, um die hohen Erwartungen der Anleger und Investoren zu erfüllen. Diese beziehen sich vor allem auf die zu erwartenden Wachstumsraten eines Unternehmens. Eine kontinuierliche Gewinnzunahme über mehrere Jahre, die aus systematischen Prozessverbesserungen resultiert, ist häufig nicht genug. Aus diesem Grund sind die einschlägig bekannten Six Sigma-Unternehmen wie General Electric und Motorola unter Zugzwang. Zum einen geht es ihnen darum, die Effizienz ihrer Six Sigma-Aktivitäten zu erhöhen, z.B. durch eine stärkere Berücksichtigung des Lean-Gedankens. Zum anderen steht die Frage nach der Erhöhung der Effektivität von Six Sigma im F&E-Bereich im Raum. Um Umsatzsteigerungen zu erzielen, sind neue Produkte erforderlich, die in immer kürzeren Zeitabständen auf den Markt gebracht werden und die Bedürfnisse/ Anforderungen der Kunden bestmöglich erfüllen. Durch die Berücksichtigung der Six Sigma-Philosophie im Produktentstehungsprozess (PEP) soll bereits von Produktionsstart an 6σ-Qualität, d.h. 99,99966% Fehlerfreiheit, erreicht werden.1 Um F&E-Projekte möglichst ergebnisorientiert steuern und durchführen zu können, wurden in der Vergangenheit eine Reihe von phasenorientierten Vorgehensmodellen entwickelt, z.B. DMADV, DMEDI und DCCDI (vgl. Simon 2002). Heute konkretisiert sich die projektorientierte Ausrichtung von Six Sigma in zwei standardisierten Problemlösungszyklen, nämlich dem DMAIC-Zyklus als prozessbezogenes Six Sigma mit den fünf Phasen Define (D), Measure (M), Analyse (A), Improve (I) und Control (C) sowie dem DMADVZyklus als entwicklungsbezogenes Six Sigma mit den fünf Phasen Define (D), Measure (M), Analyse (A), Design (D) und Verify (V). Die Anwendung des Managementkonzepts Six Sigma im F&E-Bereich ist unter dem Begriff Design for Six Sigma (DFSS) bekannt. Es stellt – bildlich gesprochen – einen „Blick durch die Frontscheibe“ dar, da hier zukünftig wichtige Kundenanforderungen ermittelt und erfüllt werden (vgl. Töpfer/ Günther 2007a). Demgegenüber ermöglicht das prozessbezogene Six Sigma auf der Basis des DMAICZyklus einen „Blick durch den Rückspiegel“. Ziel ist es, den aktuellen Wertschöpfungsprozess im Hinblick auf eine höhere Kundenzufriedenheit/ -bindung sowie eine effizientere Aufbau-/ Ablauforganisation in kurzer Zeit signifikant zu verbessern. DMAIC-Projekte besitzen erfahrungsgemäß eine Dauer von 3 bis 6 Monaten; in diesem Zeitraum werden Netto-Einsparungen (Net Benefit) von mehr als 50.000 € erzielt. Aufgrund der Zurechnungs-/ Messproblematik liegen für die Durchführung von DMADV-Projekten keine entsprechenden Zahlen vor.
1
6σ ist eine statistische Kennzahl und steht für 3,4 Fehler pro 1 Mio. Fehlermöglichkeiten (DPMO – Defects per Million Opportunities), welches auch als praktikables Niveau für Null-Fehler-Qualität bezeichnet wird (vgl. Töpfer/ Günther 2007a).
334
6 Zusammenfassung, Schlussfolgerungen und Ausblick
Die Konzeption und Inhalte der Six Sigma-Problemlösungszyklen sind das Ergebnis von unternehmensbezogenen Forschungs- und Entwicklungsaktivitäten: So ist der DMAIC-Zyklus, basierend auf dem PDCA-Zyklus, bei Motorola Ende der 1980er Jahre entstanden; der DMADV-Zyklus geht maßgeblich auf General Electric Mitte der 1990er Jahre zurück. Beide Unternehmen realisierten mit dem Einsatz von Six Sigma zur Optimierung von bestehenden Produkten und Prozessen Netto-Einsparungen von mehreren 100 Mio. € p.a. Die strukturellen und prozessualen Veränderungen, die durch den Einsatz des DMADV-Zyklus erzielt werden, sind in Ausmaß und Reichweite i.d.R. deutlich größer als beim DMAIC-Zyklus. Jedoch zeigt sich gleichzeitig, dass die Umsetzung von DFSS häufig mit mehr Schwierigkeiten verbunden ist, als ursprünglich geplant, und zudem die Chancen eines erfolgreichen Projektabschlusses deutlich geringer sind. Aus heutiger Sicht hat sich der DMADV-Zyklus gegenüber dem DMAIC-Zyklus nicht bewährt. Obwohl viele Unternehmen die Bedeutung von Null-FehlerQualität im F&E-Bereich erkannt haben, läuft die konkrete Umsetzung von DFSS häufig ins Leere (vgl. Hammer 2002). Das Realisationsverhältnis von DMAIC- zu DMADV-Projekten wird von Experten auf bis zu 20 zu 1 geschätzt, d.h. auf 1 durchgeführtes DFSS-Projekt kommen ca. 20 „klassische“ Six Sigma-Projekte nach dem DMAIC-Zyklus. Die Anzahl von Dokumentationen/ Berichten über erfolgreiche DMADV-Projektanwendungen ist entsprechend gering. Gleichzeitig werden für die Bereiche Konstruktion/ Entwicklung sowie Service/ Vertrieb Defizite in der Anwendung von (Design for) Six Sigma ausgemacht. Der Methodeneinsatz ist gegenüber dem DMAIC-Zyklus weniger stark standardisiert, so dass sich der Vergleich von DFSS-Projekten i.A. schwierig(er) gestaltet. Zielverfehlungen im PEP äußern sich unmittelbar in Produktflops. Sie resultieren in erster Linie aus der Anforderung, alle zukünftigen wesentlichen Kundenanforderungen (CTQs) zu erkennen und durch die Umsetzung in wettbewerbsfähige Produkte/ Prozesse zu erfüllen. Vor diesem Hintergrund bedeutet 6σ als praktizierte Null-Fehler-Qualität im F&E-Bereich vor allem eins: „Die richtigen Dinge tun“. Dabei sind im Gegensatz zur Verbesserung von bestehenden Prozessen die CTQs als Zielwerte der Optimierung weniger klar vom Kunden kommuniziert und von Unternehmensseite generell schwieriger zu ermitteln. Hinzu kommt die Anforderung, möglichst viele Produkt- und Prozessinnovation zu generieren, um die Wettbewerbsfähigkeit in der Zukunft zu sichern. Der Qualitätssicherungsaspekt, Produkte nach vorgegeben Spezifikationen fehlerfrei zu fertigen, um Verluste zu minimieren, kommt erst an zweiter Stelle. Dies hat in jüngster Vergangenheit auch das „Six Sigma-Vorreiterunternehmen“ General Electric2 erkannt.
2
Unter dem CEO, Jeffrey Immelt, der seit 2000 bei GE im Amt ist, wurde das Ziel ausgegeben, 8% organisches Wachstum durch eigene, kundengetriebene Innovationen zu erreichen. Ein Ergebnis dieser Innovationsstrategie ist das Programm „Ecomagination“, im Rahmen dessen GE im Jahresrythmus neue, umweltfreundliche Technologien entwickeln und auf den Markt bringen will (vgl. Brady 2006, S. 60ff.).
6 Zusammenfassung, Schlussfolgerungen und Ausblick
335
Effektive Vorgehensmodelle der Produktentwicklung zeichnen sich dadurch aus, dass sie Kreativität und Systematik optimal verbinden (vgl. Günther 2004). Im Fall des DMADV-Zyklus ist diese Optimalität noch nicht gefunden; die einzelnen Phasen sind – bis auf die Design-Phase – durch ein stark analytisches Vorgehen geprägt. Dieses wird i.d.R. durch einen gezielten Methodeneinsatz gefördert, z.B. unterstützt der Einsatz der Fehler-Möglichkeits- und Einfluss-Analyse (FMEA) das systematische Aufdecken von Fehlern im Prozess und/ oder am Produkt. Die phasenspezifische Anwendung von Instrumenten und Methoden entscheidet letztendlich darüber, wie effizient der PEP abläuft. Im Fall des DMADV-Zyklus sind einschlägig bekannte QM-Methoden den einzelnen Phasen fest zugeordnet, z.B. statistische Testverfahren in der Analyse-Phase, so dass alles in allem von einer relativ hohen Effizienz ausgegangen werden kann. In der einschlägigen Literatur sind im Laufe der Zeit eine Reihe von Alternativ-/ Verbesserungsvorschlägen zum DMADV-Zyklus vorgestellt und analysiert worden. Sie sollen es erlauben, die übergeordneten Ziele im PEP – ein innovatives und gleichzeitig robustes Design zu erzeugen – besser zu erreichen. Die Vorschläge gehen i.d.R. auf in Six Sigma spezialisierte Consulting-Unternehmen zurück, welche die prozess- und/ oder methodenbezogenen Veränderungen auf der Basis ihrer häufig mehrjährigen Anwendungserfahrungen begründen (vgl. George 2003). Aus Beratersicht handelt es sich um Best practice-Konzepte, mit denen sich i.A. ein breites Spektrum von Praxisproblemen effizient lösen lässt. Ziel der vorliegenden Arbeit ist es, einen effektiveren DFSS-Problemlösungszyklus aus wissenschaftlicher Sicht zu entwickeln.3 Zu diesem Zweck werden fünf forschungsleitende Fragen in den Mittelpunkt der Analyse gestellt (vgl. Abschnitt 1.2.3). Auf diese beziehen sich die acht Hypothesen, die als vermutete UrsachenWirkungsbeziehungen das Kernelement des wissenschaftlichen Erklärungs- und Prognoserahmens (Theoriegebäude) bilden; sie sind in Abb. 6-1 aufgeführt. Wie leicht nachvollziehbar ist, bauen die Hypothesen inhaltlich aufeinander auf und stehen insgesamt in einem logisch-deduktiven Verhältnis zueinander (siehe auch Abb. 1-9).4 Nach wissenschaftlichen Maßstäben sind sie im Erkenntnisprozess nicht falsifiziert worden und geben damit einen vorläufig gesicherten Wissensbestand wider (vgl. Chalmers 1999, S. 59ff.). Dieser bezieht sich unmittelbar auf den Titel der vorliegenden Dissertation: „Kundenorientierte Produktentwicklung mit evolutionären Algorithmen im Rahmen des DFSS-Zyklus“. 3
4
Der Beitrag der Wissenschaft zur Verbesserung/ Weiterentwicklung von Six Sigma und DFSS bezog sich in der Vergangenheit vor allem auf organisationsbezogene Fragestellungen, z.B. Anwendung der Principal-Agent-Theorie bei der Auswahl von Six SigmaProjekten und Analyse des Anreiz-Beitrags-Gleichgewichts (vgl. Töpfer 2007). Ein deduktives System konstituiert sich aus einem Set von (a) bestimmten und/ oder unbestimmten Konzepten, (b) spekulativen Vermutungen und/ oder plausiblen Annahmen, (c) abgeleiteten Gesetzmäßigkeiten in Form falsifizierbarer Hypothesen sowie (d) unterstützenden empirischen Fakten (vgl. Ackoff et al. 1962, S. 22).
336
6 Zusammenfassung, Schlussfolgerungen und Ausblick
Plausibilität
Nr.
Hypothese
Art
Empirische Belege
H1
Wenn bei der Entwicklung von neuen Produkten/ Prozessen neben der Erzeugung von Null-Fehler-Qualität i.S.v. „robusten Produkten“ die Generierung von Innovation als weitere Zielgröße hinzukommt, dann sind durch Unternehmen die wesentlichen zukünftigen Kundenanforderungen (CTQs), die als Ausgangspunkt für die gezielte Ableitung von Produkt-/ Prozessmerkmalen dienen, überhaupt nicht oder nur unvollständig zu ermitteln.
W
Ja - Sekundärquellen (Abgeleitete Ergebnisse basierend auf Feldstudien)
Hoch
H2
Wenn die wesentlichen zukünftigen Kundenanforderungen als Zielwerte der Optimierung im Produktentstehungsprozesses (PEP) (a) nicht oder nur teilweise bekannt und/ oder (b) widersprüchlicher/ konfliktärer Natur sind, dann führen die in praxi bisher verwendeten Vorgehensmodelle/ Problemlösungszyklen zur Generierung von Null-Fehler-Qualität, z.B. DMADV-Zyklus von Design for Six Sigma (DFSS), nicht zum gewünschten Erfolg, nämlich robuste und innovative Produkte/ Prozesse hervorzubringen.
W
Ja - Sekundärquellen (Abgeleitete Ergebnisse basierend auf Feldstudien)
Mittel
H3
Wenn Problemlösungszyklen, die im Rahmen des PEP zum Einsatz kommen, in der Weise modifiziert werden, dass sie ein ausgewogenes Verhältnis von systematisch-analytischen und intuitiv-kreativen Prozessen/ Arbeitsschritten besitzen, dann führt ihre strukturierte Anwendung zu robusten und innovativen Produkt-/ Prozessdesigns.
W
Ja - Inhaltsanalyse (Qualitativ, selektiv, Eigene Untersuchung)
Mittel
H4
Wenn Unternehmen, welche DFSS im PEP anwenden, widerspruchsorientierte Innovations-Methoden in den Standard-Problemlösungszyklus integrieren, dann wird hierdurch (a) eine höhere Ausgewogenheit von systematisch-analytischen und intuitiv-kreativen Prozessen/ Arbeitsschritten erreicht und (b) ein höherer Zielerreichungsgrad von Projekten aufgrund der Erzeugung robuster und innovativer Produkt-/ Prozessdesigns.
U
Ja - Primärquellen (Quantitativ, explorativ, Eigene Untersuchung)
Hoch
H5
Wenn Vorgehensmodelle/ Problemlösungszyklen als Realobjekte von Managementkonzepten – ausgehend von ihren Teilaufgaben/ -zielen – auf abstrakter Ebene als Denkobjekte rekonstruiert werden, dann führt die theoriebasierte Suche nach Modellverbesserungen zu radikalen Neuerungen, die wissenschaftlichen Effizienzkriterien genügen.
W
Ja - Sekundärquellen (Abgeleitete Ergebnisse basierend auf Fallstudien)
Mittel
H6
Wenn reale Vorgehensmodelle/ Problemlösungszyklen nach wissenschaftlichen Effizienzkriterien zu beurteilen und – entsprechend der Aufgabenstellung – zu verbessern sind, dann sind die Transformation und der Vergleich mit mathematischen Algorithmen zur Optimierung einer einfachen Zielfunktion ein probates Mittel zur Erkenntnisgewinnung.
W
Ja - Meta-Analyse (Qualitativ, explorativ, Eigene Untersuchung)
Hoch
H7
Wenn der bei der mathematischen Optimierungsrechnung verwendete Evolutionäre Algorithmus (EA) in Form eines konkreten Problemlösungszyklus mit eindeutigem Phasenablauf und strukturiertem Methodeneinsatz operationalisiert wird, dann führt dessen Anwendung im Rahmen von DFSS zu Produkten/ Prozessen, die (a) eine maximale Übereinstimmung (Fit) mit den – explizit oder implizit – formulierten Kundenanforderungen aufweisen und (b) den mit dem Standard-Problemlösungszyklus (DMADV) gewonnenen Produkt-/ Prozessergebnissen klar überlegen sind.
U
Ja - Primärquellen (Quantitativ, explorativ, Eigene Untersuchung)
Hoch
H8
Wenn Unternehmen die Leistungsfähigkeit (Fitness) ihrer Produkte/ Prozesse mithilfe von Vorgehensmodellen, die sich am Vorbild Evolutionärer Algorithmen orientieren, optimieren, dann entwickelt sich die Zielgröße (a) endogen entsprechend der aus dem Technologiemanagement bekannten „S-Kurve“, also erst steigende und dann fallende Innovationserträge, und (b) zufällig aufgrund des Auftretens von Mutationen auf der Merkmalsebene, was systemimmanente (Technologie-)Sprünge nach sich zieht.
W
Ja - Primärquellen (Quantitativ, explorativ, Eigene Untersuchung)
Hoch
Quelle: Eigene Darstellung
Legende: W ... Wirkungshypothese U ... Unterschiedshypothese
Abb. 6-1: Übersicht der Hypothesen und empirische Belege
6 Zusammenfassung, Schlussfolgerungen und Ausblick
337
Da der Forschungsansatz zu überwiegenden Teilen exploratorisch-instrumenteller Natur (EI-Design) ist, sind in der letzten Spalte der Tabelle Plausibilitätseinstufungen zu den einzelnen Hypothesen vorgenommen worden. Sie sind ein Indikator für den Härtegrad bzw. die Belastbarkeit der Hypothesen im Hinblick auf ihren Aussagewert/ -gehalt und damit ihrem „Schutz“ vor Verwerfung bzw. Falsifikation. Für den Forschungsprozess bedeutet dies, dass – vor allem bei gering plausiblen Aussagen (Hypothesen) – weiterführende empirische Untersuchungen erforderlich sind, um den allgemeinen Geltungsanspruch in der Praxis zu bestätigen. Idealerweise knüpft hier ein konfirmatorisch-instrumentelles Forschungsdesign (KI-Design) an, mit dem eine systematische Überprüfung der entwickelten Konzepte und Modelle durchgeführt wird (vgl. Töpfer 2009, S. 126). Der Struktur nach sind alle Hypothesen positivistisch formuliert, d.h. das, was im Forschungsprozess bestätigt bzw. nicht falsifiziert werden soll, ist in der Wenndann-Aussage textlich verankert. Des Weiteren handelt es sich mehrheitlich um quasi-nomologische Wirkungshypothesen, also gerichtete Zusammenhangsaussagen mit räumlich und zeitlich begrenzter Gültigkeit. Wie in Abb. 6-1 gekennzeichnet, besitzen lediglich die Hypothesen 4 und 7 Unterschiedscharakter. Hierbei geht es jeweils um das Herausstellen der ökonomischen Vorteile der neu entwickelten und theoretisch fundierten Vorgehensmodelle/ Problemlösungszyklen (DMAIDV, IESRM) im Rahmen von Design for Six Sigma. Wie ist der Weg zu diesen konkreten Handlungs-/ Gestaltungsempfehlungen? Der Forschungsprozess basiert im Wesentlichen auf einem induktiv-deduktivinduktiven Wissenschaftsverständnis, wobei die o.g. Effizienz-/ Effektivitätsprobleme des DMADV-Zyklus den praxisbezogenen Ausgangspunkt der Arbeit bilden. Im wissenschaftlichen Analyseprozess wird der Methodenlehre des Kritischen Rationalismus nach KARL R. POPPER (1969) gefolgt. Sie umfasst zum einen ein zweigeteiltes Erkenntnisziel, im Rahmen dessen Erklärungs- und Prognosemuster für die empirisch festgestellten Zielsetzungen in der Unternehmenspraxis auf der Basis von Ursachen-Wirkungsbeziehungen herausgearbeitet werden, sowie zum anderen ein Gestaltungsziel, welches konkrete Hilfestellungen zum zweckrationalen Gestalten und Einsetzen von Mitteln/ Maßnahmen bereithält, um vorgegebene Zwecke/ Ziele zu erreichen (vgl. Töpfer 2007a, S. 40f.). Beide Zielsetzungen werden bei der Bearbeitung des Themas hinreichend berücksichtigt. Nach Hypothese 6 in Abb. 6-1 besteht die wissenschaftliche Herangehensweise zum Auffinden eines verbesserten DFSS-Vorgehensmodells darin, die verwendeten Problemlösungszyklen als Realobjekte – ausgehend von ihren Teilaufgaben/ -zielen – auf abstrakter Ebene als Denkobjekte zu rekonstruieren. Zu diesem Zweck sind die Mittel-Zweck-Relationen auf der Realitätsebene zu erkennen und in Ursachen-Wirkungsbeziehungen auf der Abstraktionsebene zu überführen. Durch diese induktiv begründete Praxis-Theorie-Transformation lassen sich neue Einblicke in die Wirkungsweise der Problemlösungszyklen generieren. Im vorliegenden Fall wurde die Vorgehensweise der realen Vorgehensmodelle – DMAIC-
338
6 Zusammenfassung, Schlussfolgerungen und Ausblick
und DMADV-Zyklus – auf die Lösung mathematischer Optimierungsprobleme übertragen und im Weiteren bzgl. ihrer Zielerreichung analysiert. Bei der mathematischen Optimierungsrechnung geht es vordergründig um das Auffinden des globalen Optimums einer analytisch oder numerisch gegebenen Zielfunktion des Typs y = f(x). In Abhängigkeit von der Art der zu lösenden Problemstellung (restringiert, unrestringiert) sowie den Eigenschaften der zu optimierenden Zielfunktion (stetig, diskret) ergeben sich eine Vielzahl von infrage kommenden Lösungsalgorithmen. Bei schwierig zu lösenden Optimierungsproblemen kommen heute verstärkt Heuristiken zum Einsatz. Sie zeichnen sich gegenüber exakten Lösungsverfahren durch eine schnelle Lösungsfindung aus, wobei jedoch die Optimalität der gefundenen Lösung i.d.R. nicht garantiert wird. Zur Programmierung der Heuristiken werden nicht selten Anleihen aus der Natur genommen, z.B. evolutionäre Entwicklung von Pflanzen- und Tierarten. Den Ausgangspunkt der Analyse bildete in der Dissertation die (Quasi)-NewtonVerfahren sowie die Lokalen Suchverfahren, welche beide den klassischen Verfahren der mathematischen Optimierung zugeordnet werden können. Ein Vergleich der prinzipiellen Vorgehensweisen dieser Algorithmen mit den o.g. Problemlösungszyklen verdeutlicht zum einen die Defizite existierender DFSS-Vorgehensmodelle. Hier ist vor allem das Fehlen von Prozessen/ Methoden zur systematischen Generierung von Innovationen zu nennen. Zum anderen lassen sich auf direktem Weg Verbesserungsvorschläge bezogen auf den bestehenden DMADV-Zyklus ableiten; diese betreffen die verstärkte Einbindung von intuitivkreativen Methoden/ Techniken vor bzw. in der Design-Phase. Als zweite Gruppe von mathematischen Optimierungsverfahren werden die evolutionären Verfahren näher analysiert. Sie bilden die Grundlage für einen alternativen, dem Vorgehen nach neuen Problemlösungszyklus im Rahmen von Design for Six Sigma. Aus der Theorie-Praxis-Transformation lassen sich – entsprechend einer deduktiv begründeten Vorgehensweise – zwei Vorgehensmodelle ableiten: Erstens wird der DMAIDV-Zyklus mit den sechs Phasen Define (D), Measure (M), Analyse (A), Innovate (I), Design (D) und Verify (V) abgeleitetet, bei dem die folgenden sechs Fragen nacheinander beantwortet werden: •
Define: Welche Produktlösung ist veraltet/ nicht mehr wettbewerbsfähig?
•
Measure: Was sind die wesentlichen zukünftigen Kundenanforderungen?
•
Analyse: Wie lassen sich die Kundenanforderungen bestmöglich erfüllen?
•
Innovate: Welche (technischen) Konflikte bestehen und lassen sich mithilfe von einschlägigen Methoden/ Werkzeugen innovativ lösen?
•
Design: Was sind die konkreten Gestaltungsmerkmale des Produktes?
•
Verify: Wie gut erfüllt das Produkt die Kundenanforderungen in praxi?
6 Zusammenfassung, Schlussfolgerungen und Ausblick
339
Der DMAIDV-Zyklus ist das Ergebnis eines Analogieschlusses von klassischen bzw. konventionellen mathematischen Optimierungsalgorithmen, z.B. Gradientenverfahren, auf praktische Problemlösungszyklen im Bereich des Qualitäts- und Innovationsmanagements. Grundlage ist das Vorhandensein einer Zielfunktion, in der (real) vorhandene und erkannte Ursachen-Wirkungsbeziehungen modelliert werden. Die klassischen Algorithmen bieten vor allem in wenig(er) komplexen Suchräumen die Möglichkeit einer schnellen Lösungsfindung. Diesem Vorteil steht der Nachteil gegenüber, dass die Exaktheit der Ergebnisse von der Art der Zielfunktion abhängig ist. So besteht bei Zielfunktionen, die über mehrere lokale Optima verfügen, die konkrete Gefahr, dass der Algorithmus auf einem suboptimalen Niveau „zum Liegen“ kommt. In der Mathematik sind zu diesem Zweck bestimmte Optimalitätsbedingungen, z.B. KKT-Bedingung, definiert. Die Erkenntnis, dass zum Auffinden des globalen Optimums u.U. mehrere lokale Optima zu überwinden sind, fließt in die praktische Gestaltung des erweiterten DMADV-Zyklus wie folgt ein: Bevor mit der Ausarbeitung eines in der AnalysePhase favorisierten Produktdesigns begonnen wird, ist die Optimalität der Lösung zu überprüfen. Dies geschieht in der Weise, dass in der Innovate-Phase gezielt nach Möglichkeiten für diskontinuierliche Verbesserungen gesucht wird. Den Ausgangspunkt hierfür bilden administrative, technische und/ oder physikalische Konflikte, deren Lösung i.d.R. zu Innovationen führt. Konkrete Hilfestellung zur Konfliktlösung bietet die TRIZ-Methodik, mit der es möglich ist, sprunghafte Veränderungen von Merkmalsausprägungen an bestehenden Produkten/ Prozessen hervorzurufen, die bis dahin für nicht realisierbar gehalten wurden. Die prozess- und methodenbezogenen Änderungen, die sich aus der Erweiterung des DMADV-Zyklus um die Phase Innovate (I) ergeben, sind eher marginaler Natur. Das Vorgehen orientiert sich primär an ARIZ, welches ein anerkanntes Ablaufschema im Rahmen der widerspruchsorientierten Problemlösungstechnik TRIZ ist. Letztere stellt den Kern der Innovate-Phase dar. Zweitens wird der IESRM-Zyklus mit den fünf Phasen Initialisierung (I), Evaluierung (E), Selektion (S), Rekombination (R) und Mutation (M) entwickelt. Die Konzeption und Inhalte der einzelnen Phasen lassen sich – auf aggregierter Ebene – durch die Beantwortung der folgenden Fragen kennzeichnen: •
Initialisierung: Was ist das Problem?/ Welche Produktlösungen existieren?
•
Evaluierung: Wie gut erfüllen die Lösungen die geg. Kundenanforderungen?
•
Selektion: An welchen Lösungsansätzen soll unbedingt festgehalten werden?
•
Rekombination: Wie können noch bessere Produktlösungen generiert werden?
•
Mutation: Welche zufälligen Merkmalsänderungen führen zum Optimum?
Mit dem IESRM-Zyklus ist eine prinzipiell andere Herangehensweise zur Lösung komplexer Probleme in der Unternehmenspraxis, speziell im Entwicklungsbereich, gegeben. Struktur und Ablauf des Problemlösungszyklus orientieren sich an
340
6 Zusammenfassung, Schlussfolgerungen und Ausblick
Genetischen Algorithmen (GA), wie sie zur Lösung schwieriger mathematischer Optimierungsprobleme genutzt werden: Statt eine einzelne Lösung schrittweise in Richtung Optimum zu verbessern, werden viele verschiedene Lösungen in einer Population zusammengefasst und simultan optimiert. Diese Strategie erweist sich bei der Lösung komplexer Probleme als sehr effektiv (vgl. Michalewicz/ Fogel 2000; Gen/ Cheng 1997; Goldberg 1989). GAs gehören zur Gruppe der stochastischen Such- bzw. Optimierungsverfahren, welche gegenüber konventionellen Algorithmen keine Restriktionen an die Zielfunktion stellen. Aus diesem Grund eignet sich ihr Einsatz vor allem in Situationen, in denen (a) das Problem nicht exakt (mathematisch) beschrieben werden kann, (b) die Komplexität sehr hoch ist (hochdimensionaler Suchraum), (c) die Umgebung dynamisch ist und wandernde Optima besitzt und (d) die Lösungsbewertung stochastischen Einflüssen unterliegt. Diese Problemlösungseigenschaften werden in dem 5-phasigen IESRM-Zyklus wie folgt konserviert: In der Initialisierungs-Phase geht es zunächst darum, das „richtige“ Kundenproblem zu fokussieren und durch z.T. mathematische Verfahren eindeutig zu beschreiben bzw. zu codieren. Ziel ist es im Weiteren, das nutzenmaximale Leistungsangebot aus Kundensicht durch mehrere Iterationen der folgenden vier Phasen zu generieren. In der Evaluations-Phase wird sichergestellt, dass die (Weiter-)Entwicklung der Lösungsideen in die „richtige” Richtung läuft. Zu diesem Zweck ist die Fitness der in der Population befindlichen Ideen zu bestimmen. Die durchschnittliche Fitness der Population, welche als Indikator für das erreichte Ziel-/ Nutzenniveau dient, wird durch das Durchlaufen der Phasen Selektion, Rekombination und Mutation schrittweise erhöht. Im Ergebnis liegt eine Population von Produktlösungen mit maximalen Fitnesswerten vor. Die ersten beiden Phasen des IESRM-Zyklus sind maßgeblich für eine hohe Effektivität des Problemlösungszyklus. Hier kommen zum überwiegenden Teil bekannte Verfahren des Qualitäts- und Innovationsmanagements zum Einsatz, z.B. Ishikawa-Diagramm. Die Konzeption und Inhalte der sich anschließenden Phasen orientieren sich relativ stark an den Standard-Vorgehensweisen zur GA-Programmierung. Die verwendeten Verfahren sind für den Anwendungsbereich (Design for) Six Sigma prinzipiell neu, z.B. Rangbasierte Selektion. DMAIDV- und IESRM-Zyklus sind rational begründete Vorgehensmodelle mit einem stringenten Methoden/ -Instrumenteneinsatz. Sie zeichnen sich gegenüber dem DMADV-Zyklus durch einen stärkeren Innovationsfokus aus. Ihre Effizienz und Effektivität wurde im Rahmen von zwei Fallstudien empirisch überprüft. Zum einen konnte in einem Laborexperiment die Flugzeit eines Papier-Rotors maximiert werden. Dabei zeigten sich z.T. bessere Ergebnisse als bei der Anwendung von Statistischer Versuchsplanung (DOE), die zum Standard-Toolset von Six Sigma zählt. Zum anderen wurden in einem unternehmensbezogenen Anwendungsbeispiel die Kehreigenschaften eines Straßenbesens optimiert. Im Ergebnis
6 Zusammenfassung, Schlussfolgerungen und Ausblick
341
konnte ein neues Besendesign entwickelt werden, welches die Anforderung eines Schüttgut-unabhängigen Einsatzes bestmöglich erfüllt. Die adaptierten Methoden aus dem GA-Toolset ließen sich leicht mit Standard-Software, z.B. Excel, realisieren und erwiesen sich alles in allem als sehr praktikabel. Während der DMAIDV-Zyklus bei der „Suche nach dem globalen Optimum“ auf radikale Neuerungen (Basisinnovationen) abstellt, zielt der IESRM-Zyklus primär auf inkrementelle Veränderungen (Veränderungsinnovationen) bestehender Lösungen ab. Die Zielsicherheit des Problemlösungszyklus beruht dabei auf der impliziten Anwendung von zwei grundlegenden evolutionären Prinzipien: Nach dem Prinzip der Risikominimierung wird durch die allmähliche Konvergenz der Lösungen innerhalb der Population das Risiko minimiert, das „falsche“ Optimum zu finden. Nach dem Prinzip der Risikostreuung gleichen sich die Fitnesswerte von guten und weniger guten Lösungskandidaten innerhalb der Population aus. Dadurch ist es möglich, den vorgegebenen Lösungsraum möglichst großflächig nach dem optimalen Design bzw. der idealen Lösung abzusuchen. Die durchschnittliche Fitness der Population entwickelt sich entsprechend einer S-Kurve. Wie die o.g. experimentellen Studien belegen, kommt es nach wenigen Iterationen zu einem sprunghaften Anstieg der geometrischen mittleren Fitness. Das klassische Vorgehen im Entwicklungsprozess entspricht dem „Filter- bzw. Trichterprinzip“. Dabei werden zunächst möglichst viele Designkonzepte als potenzielle Lösungen für das Kundenproblem erzeugt. Im anschließenden Evaluierungsprozess werden diese dann systematisch überprüft und schrittweise auf die beste Lösungsvariante reduziert. Dies geschieht vor dem Hintergrund des persönlichen, problemspezifischen Wissens der Projektbeteiligten. Der Grund, warum DFSS-Projekte immer wieder missglücken und nicht zum gewünschten Erfolg führen, liegt u.a. daran, dass der Vektor der psychologischen Trägheit nicht in Richtung der wahren, idealen Lösung zeigt und dadurch das Team von Anfang an in die falsche Richtung läuft (vgl. Löbmann 2003). Durch die Integration der Innovate-Phase in den DMADV-Zyklus wird dieses Phänomen insofern abgemildert, dass der Filter-/ Konzentrationsprozess noch einmal hinterfragt wird. Mit dem IESRM-Zyklus wird eine prinzipiell andere Herangehensweise gewählt, um die psychologische Trägheit zu umgehen. Der evolutionäre Problemlösungszyklus basiert nicht auf dem „Filter- bzw. Trichterprinzip“, sondern – bildlich gesprochen – auf dem „Cluster- bzw. Gruppenprinzip“. Ziel ist es, nicht ein einzelnes Produkt/ Leistungsangebot zu optimieren und zur Marktreife zu führen, sondern eine gesamte Population von potenziellen Lösungskandidaten. Dies erfolgt durch die Anwendung evolutionärer Operatoren. Produktvarianten, die relativ weit vom Optimum entfernt liegen, werden durch den Selektions-Operator herausgefiltert. Gleichzeitig werden Produktdesigns, die bereits eine relativ gute Anpassung an das angestrebte Endresultat aufweisen, zur Rekombination zugelassen. Die daraus hervorgehenden neuen Lösungskandidaten (Kindergeneration) besitzen im Mittel eine bessere Anpassung/ Annäherung an das Optimum als die der Ausgangspopulation (Elterngeneration). Durch den Mutations-Operator wird
342
6 Zusammenfassung, Schlussfolgerungen und Ausblick
verhindert, dass die Population in einem bestimmten Bereich des Suchraums „hängen“ bleibt und das ideale Endresultat dadurch verfehlt wird. Im Gegensatz zum DMAIDV-Zyklus liegen die Lösungen beim IESRM-Zyklus sowohl in codierter Form (Genotypebene) als auch in nicht-codierter Form (Phänotypebene) vor. Während die Evaluation und Selektion der Lösungen auf der Phänotypebene stattfinden, werden Rekombination und Mutation auf der Genotypebene durchgeführt. Durch diese Trennung lassen sich im Laufe des F&EProzesses völlig neue Lösungskandidaten erzeugen. Beim klassischen DFSS wird die Strategie der Lösungsrepräsentation auf unterschiedlichen Ebenen ebenfalls verfolgt. Das reale Produkt wird unter Anwendung von Computer Aided Design (CAD) im Computer zunächst modelliert. Anschließend werden Anwendungssituationen beschriebenen, für die gezielte Simulationen in der virtuellen Umgebung durchgeführt werden. Die Auswertung der Daten erfolgt mithilfe einschlägiger DFSS-Methoden (vgl. Finn 1999). Auf diese Weise praktiziert Motorola seit einigen Jahren ein sog. Digital Six Sigma im Entwicklungsprozess. Aus betriebswirtschaftlicher Sicht standen sowohl die Übertragung von evolutionären Prinzipien auf die Gestaltung von Unternehmensprozessen als auch die Anwendung von Genetischen Algorithmen zur Produktoptimierung bisher kaum im Interesse der Forschungsbemühungen. Vielmehr wurden theoretische Modelle zur Erklärung und Prognose von betriebs- und volkswirtschaftlichen Sachverhalten aufgestellt, z.B. auf der Basis populationsökologischer Überlegungen. Die Ableitung konkreter Gestaltungsempfehlungen als Technologien für die Unternehmenspraxis wurde allenfalls am Rande behandelt. Neben der Evolutorischen Ökonomik hat sich seit geraumer Zeit mit dem Evolutionären Management bzw. Evolutionsmanagement ein zweiter, eigenständige Forschungsansatz herauskristallisiert. Bei diesem tritt an die Stelle eines konstuktivistisch-technomorphen Managements ein systemisch-evolutionäres Management, welches sich insb. durch systemisches statt monokausales Denken auszeichnet (vgl. Malik 1986). Das Evolutionsmanagement basiert auf der Annahme, dass das Management heute nicht mehr in der Lage ist, die Komplexität der Unternehmen zu beherrschen und insb. mit der Vielfalt der Beziehungen zwischen den Elementen des Systems angemessen umzugehen. Aus diesem Grund ist der Übergang zu einer systemorientierten Managementtheorie, welche die Gestaltung und Lenkung von Gesamtsystemen (Institutionen) zum Gegenstand hat, unausweichlich. Im Lösungsansatz werden die Vorgänge in und zwischen Organisationen als Lebensprozesse betrachtet, die – per definitionem – nach gleichen oder ähnlichen Prinzipien/ Gesetzmäßigkeiten wie Prozesse in der Natur ablaufen (vgl. Otto et al. 2007). Bei dem Versuch, aus diesen vergleichbaren Naturprozessen Empfehlungen für die individuelle Handlungsebene des Managers und/ oder die organisationalen Abläufe/ Prozesse abzuleiten, treten z.T. gravierende Probleme auf. Sie liegen vor allem im gewählten Abstraktionsniveau des Forschungsprozesses begründet. Der hier gewählte Forschungsprozess folgt insgesamt einem pragmatischem Wissenschaftsverständnis (Pragmatic science). Nach diesem ist eine möglichst hohe
6 Zusammenfassung, Schlussfolgerungen und Ausblick
343
Ausgewogenheit zwischen theoretischer Exaktheit (rigour) und praktischer Relevanz (relevance) anzustreben (vgl. Nicolai 2004). Die theoretische Exaktheit bezieht sich auf den Prozess der Erkenntnisgewinnung, die in der Arbeit auf der Analyse mathematischer Optimierungsalgorithmen basiert. Über eine selbstentwickelte Perspektive werden den Alltagstheorien der Praxis alternative Deutungen gegenüber gestellt, z.B. evolutionäre Weiterentwicklung anstelle analytischer Problemzerlegung. Diese helfen in konkreten Beratungssituationen, neue Problemlösungen respektive Problemlösungszyklen zu finden. Die praktische Relevanz betrifft vor allem die Konzeption bzw. Ausgestaltung der entwickelten Vorgehensmodelle mit eindeutigen Phasenbeschreibungen und darauf abgestimmtem Methoden/ Instrumenteneinsatz. Da Wissenschaft nicht einfach durch Übersetzung in die Praxis „transferiert“ werden kann, sind sie durch ein geeignetes Rahmenkonzept bzw. übergeordnetes Managementkonzept zu ergänzen. DMAIDV- und IESRM-Zyklus kennzeichnen den „harten Kern“ eines nachhaltigen Managementkonzepts. Während im Fall des DMAIDV-Zyklus die Zuordnung zu DFSS als Derivat des Six Sigma-Konzeptes in F&E leicht nachvollziehbar ist, gestaltet sich die eindeutige Zuordnung des IESRM-Zyklus schwieriger. Prozessablauf und Methodeneinsatz unterscheiden sich z.T. deutlich vom traditionellen Six Sigma-Projektmanagement. Dies ist ein Resultat des gewählten Forschungsansatzes, der sich am Vorgehen des Erfinderischen Problemlösens orientiert. Mit der Trennung von Realitäts- und Abstraktionsebene wird bewusst darauf abgezielt, innovative Lösungsansätze – auch außerhalb des ursprünglich anvisierten Suchraumes – zu finden. Ausgangspunkt der Suche war hier die Entwicklung und Konzeption eines effektiveren Vorgehensmodells im Bereich DFSS. Durch Abstraktion und Analogieschluss wurde ein Problemlösungszyklus spezifiziert, der sich ebenfalls unter dem Begriff „Evolutionary Design“ subsumieren lässt.5 Unabhängig von der Zuordnung ist um den „harten Kern“ des Managementkonzeptes eine „weiche Hülle“ zu ziehen. Sie kennzeichnet das institutionalisierte Rahmenkonzept, welches dazu bestimmt ist, den harten Kern, also DMAIDV- und IESRM-Zyklus, vor der Falsifizierung zu schützen. Für eine erfolgreiche Implementierung und Umsetzung der vorstehend genannten Vorgehensmodelle in Unternehmen sind deshalb die folgenden vier Punkte zu berücksichtigen: •
Einbindung der Unternehmensleitung und Commitment der Führungskräfte: Diese Forderung gilt uneingeschränkt für die Implementierung aller Managementkonzepte und ist unabhängig von der Art des gewählten Vorgehensmodells. Für die effektive Umsetzung von DFSS ist zusätzlich zu beachten, dass ein neuer Typus von Manager benötigt wird, wie z.B. von GE gefordert. Dieser ist nicht nur auf Effizienzsteigerung „gepolt“, sondern erkennt Innovationen und Innovationspotenziale, die zu einer Steigerung des Kundennutzens
5
Die endgültige Zuordnung des IESRM-Zyklus soll der Praxis vorbehalten bleiben. Die wesentlichen Verfahren/ Algorithmen, die bei der IT-gestützten Produktentwicklung i.S.v. Evolutionary Design zum Einsatz kommen, beschreibt Bentley (1999).
344
6 Zusammenfassung, Schlussfolgerungen und Ausblick
führen. Entscheidend ist jeweils die Generierung von nachhaltigen Wettbewerbsvorteilen. Als Vorbild dient der Handelskonzern Metro, der im Jahr 2004 ein international besetztes Global Leadership Council gegründet hat, in dem ca. 20 Nachwuchsführungskräfte Ideen sammeln, bündeln, bewerten und in einem geordneten Prozess umsetzen (vgl. Biskamp 2006, S. 88). •
Auswahl und Qualifizierung von Akteuren/ Aufbau einer geeigneten Organisation: Für die Anwendung des DMAIDV-Zyklus kann ohne Weiteres auf die Abläufe und Strukturen der bestehenden Six Sigma-Organisation zurück gegriffen werden. Grundkenntnisse über das Vorgehen und die Methoden der Innovate-Phase lassen sich im Rahmen eines 1-Tages-Seminars den Black Belts vermitteln. Um Projekte nach dem erweiterten DMADV-Zyklus eigenständig bearbeiten zu können, ist ein Trainingsaufwand von mind. 3 Tagen erforderlich. Die gleichen Voraussetzungen gelten für die Anwendung des IESRM-Zyklus. Dieser lässt sich auch unabhängig von einer bestehenden Six Sigma-Organisation in der in der Arbeit beschriebenen Weise schulen und umsetzen. Für eine wirkungsvolle Anbindung an die Unternehmensleitung ist ein geeignetes Nachwuchsführungskräftetraining zu installieren.
•
Planung und Steuerung der Projekte/ Analyse der Ergebniswirkungen: Hierzu gehört zum einen die systematische Erfassung von Problemen inner- und außerhalb des Unternehmens, die für die Bearbeitung mit dem DMAIDV- oder IESRM-Zyklus geeignet sind. Dabei sollte die Dauer eines Projektes 6 Monate nicht überschreiten. Zum anderen ist für alle Projekte eine Wirtschaftlichkeitsbetrachtung in Form einer Net Benefit-Berechnung vorzusehen, wobei für die Anwendung des IESRM-Zyklus ggf. ein zusätzliches Kostenbudget für den Prototypenbau einzuplanen ist. Um einen systematischen Verbesserungsprozess in Gang zu setzen, ist der Aufbau eines WissensmanagementSystems empfehlenswert. Vorbild in dieser Hinsicht ist das Softwareunternehmen SAP (vgl. Seiwert et al. 2006, S. 86), bei dem jeweils mehrere sog. kreative Teams gleichzeitig und gleichberechtigt in einem Netzwerk, über den gesamten Erdball verteilt, zusammen arbeiten.
•
Konzeption eines Anreizsystems für die Durchführung von DFSS-Projekten: Damit Six Sigma-Projekte im F&E-Bereich in größerer Anzahl durchgeführt werden, ist ein adäquates Anreizsystem aufzubauen. Neben der Einhaltung vorgegebener Budgets sind in diesem vor allem neue, innovative Lösungsansätze, die im Rahmen der Projektbearbeitung generiert worden sind, zu prämieren. Darüber hinaus ist das System so zu gestalten, dass systematischanalytisches Denken und Handeln von Mitarbeitern genauso gefördert werden wie intuitiv-kreative Verhaltensmuster und -ansätze. Dies deckt sich mit den Forschungsergebnissen von Burgelman (1991). Nach diesen sind zur Steigerung der langfristigen Überlebensfähigkeit von Unternehmen prinzipiell zwei Arten von strategischen Prozessen notwendig, nämlich (a) Induzierte strategische Prozesse und (b) Autonome strategische Prozesse. Letztgenannte führen zu einer Erhöhung des organisationalen Kompetenzfeldes.
6 Zusammenfassung, Schlussfolgerungen und Ausblick
345
Die Probleme der Praxis bilden den Ausgangspunkt fruchtbarer wissenschaftlicher Diskurse über Sachverhalte, die von Praktikern so nicht mehr hinterfragt werden. D.h. neue Probleme werden durch den wissenschaftlichen Diskurs auf abstrahierter Ebene selbst konstatiert, ohne dass ein exogen gegebenes Problem der „realen Welt“ unmittelbar vorliegen muss (vgl. Nicolai 2004). Vor diesem Hintergrund stellt sich bezogen auf den hier behandelten Untersuchungsgegenstand zum einen die Frage, ob sich andere mathematische Optimierungsalgorithmen/ -heuristiken finden lassen, die als Vorbild für die Entwicklung und Konzeption von wirkungsvollen Vorgehensmodellen in der Praxis dienen können. Beispielhaft zu nennen sind die Verfahren Simulated Annealing und Ant Colony Optimization. Das Ziel besteht jeweils darin, leicht verständliche und schnell umsetzbare „Kochrezepte“ für die Unternehmenspraxis zu erstellen, anhand derer Prozess-/ Produktoptimierungen realisiert werden können. Zum anderen ist der Frage nachzugehen, ob sich das gewählte Vorgehen (siehe Abb. 1-7) generell eignet, um die Effizienz und Effektivität von in der Praxis verwendeten Managementkonzepten, z.B. Lean Six Sigma, aus wissenschaftlicher Sicht zu überprüfen und ggf. Handlungsempfehlungen zu ihrer Verbesserung abzuleiten. Neben der Ableitung und Überprüfung von generischen Vorgehensmodellen für die Unternehmenspraxis bestehen bezogen auf die hier entwickelten Problemlösungszyklen die folgenden weiterführenden Forschungsbedarfe: •
Um die Methoden, z.B. Flipmutation, (noch) besser auf die Belange von DFSS adaptieren zu können, ist das Sammeln weiterer Projekterfahrungen notwendig. In diesem Zusammenhang ist die Variation des Methodeneinsatzes wünschenswert, um die Praktikabilität der Excel-Anwendungen zur Generierung innovativer Lösungsansätze im Rahmen des IESRM-Zyklus zu überprüfen. Gleichzeitig ist beim DMAIDV-Zyklus zu untersuchen, welche Methoden aus dem (umfangreichen) TRIZ-Toolset im Rahmen der InnovatePhase „standardmäßig“ zum Einsatz kommen sollten. Eine Eingrenzung und Systematisierung der Methoden ist an dieser Stelle wünschenswert.
•
In der Arbeit wurden am Fallbeispiel „Papier-Rotor“ die Konzeption und Inhalte der entwickelten Vorgehensmodelle praxisnah aufgezeigt. Dabei zeigte sich, dass sich die Problemstellung relativ gut eignet, um die Effizienz und Effektivität einzelner Methoden/ Instrumente, aber auch ganzer Problemlösungszyklen, zu evaluieren. Als Forschungsobjekt im F&E-Bereich könnte deshalb das Papier-Rotor-Problem in Zukunft eine ähnlich bedeutsame Rolle übernehmen wie z.B. das Traveling Salesman-Problem (TSP) in Operation Research. TSP gilt als Standardproblem, um die Effektivität und Effizienz von (neuen) mathematischen Optimierungsverfahren zu testen.
•
Das Six Sigma-Konzept wird seit mehreren Jahren auch erfolgreich in Service- und Dienstleistungsunternehmen praktiziert, z.B. Citibank. Die Projektanwendungen konzentrieren sich auf prozessbezogene Verbesserungen nach dem DMAIC-Zyklus. Inwieweit sich hier der Entwicklungsprozess nach
346
6 Zusammenfassung, Schlussfolgerungen und Ausblick
DMAIDV- respektive IESRM-Zyklus gestalten lässt, ist noch offen. Die Bank of America, die seit 2000 Six Sigma anwendet, entwickelte z.B. ein Vorgehensmodell mit fünf Phasen, um Service-Innovationen systematisch zu generieren (vgl. Thomke 2003, S. 49). Wesentlicher Bestandteil der Planungs-, Entwurfs- und Testphase sind Experimente i.S.v. DOE. •
Neben Design for Six Sigma gilt Lean Six Sigma als aktuelle Weiterentwicklung im Bereich Six Sigma. Im Kern geht es um eine Beschleunigung (Acceleration) der Six Sigma-Initiative durch eine stärkere Verbindung der beiden Managementkonzepte Six Sigma und Lean Management. Die Übernahme der Lean-Philosophie in den F&E-Bereich ist ebenfalls seit langem Gegenstand der Diskussion. Der gezielte Einsatz des IESRM-Zyklus bietet hier die Möglichkeit, die beobachtete evolutionäre Entwicklung von technischen Systemen oder Teilen von selbigen „künstlich“ zu beschleunigen. Zu diesem Zweck sind die Projektaktivitäten nach evolutionärem Muster zu gestalten.
•
Nach dem Erklärungsansatz der Evolutionären Ökonomik handelt es sich bei den bekannten Problemlösungszyklen um (organisationale) Routinen, welche als regelmäßige und vorhersehbare Verhaltensmuster die kurzfristige Handlungsfähigkeit der Organisation sicherstellen (vgl. Nelson/ Winter 1982). Wie das Beispiel Six Sigma zeigt, unterliegen die Routinen aufgrund der Marktdynamik und des Verdrängungswettbewerbes einem kontinuierlichen Veränderungs-/ Anpassungsprozess. Dabei wird die Suche nach überlegenen Routinen (Technologien) in vielen Unternehmen selbst zu einer Routine, z.B. in Form standardisierter F&E-Prozesse und/ oder strategischer Planungsprozeduren. In diesem Zusammenhang stellt sich die Frage, inwieweit sich GAs bei der Ausgestaltung dieser Suchroutinen verwenden lassen.
•
In der Arbeit sind Ansatzpunkte für die Vernetzung mit anderen Konzepten/ Instrumenten im PEP aufgezeigt worden, die im Weiteren zu operationalisieren sind, z.B. Verbindung des IESRM-Zyklus mit dem Lead User-Konzept (vgl. von Hippel 1988), welches sich insb. für die Ermittlung und Bewertung von zukünftigen wesentlichen Kundenanforderungen eignet. Die Weiterentwicklung des Konzeptes geht in Richtung Open Innovation bzw. User Innovation, nach der Innovationsprozesse von den Anwendern selbst angestoßen und teilweise bis zur Prototypenreife vorangetrieben werden. Voraussetzung hierfür ist eine leistungsfähige und vernetzte IT-Infrastruktur (Internet).
•
Nicht nur beim IESRM-Zyklus stellt die Identifikation von Kundenbedürfnissen/ -anforderungen und die Bewertung von darauf ausgerichteten Produktangeboten eine wesentliche Herausforderung an die Projektbeteiligten dar. Eine schnelle und kostengünstige Evaluierung von Produktideen ist in Zukunft unter Einsatz verschiedener IT-/ Software-Lösungen möglich. Sie helfen insb. bei der Reduzierung der Kosten für Muster- und Prototypenbau, z.B. Künstliche Intelligenz bzw. Künstlich Neuronale Netze (vgl. z.B. Seiwert et al. 2006, S. 83), Closed Online Communities mit Endkunden (vgl. z.B. Lang 2006) und Open Online Communities im Web 2.0 (vgl. z.B. Martell 2007).
6 Zusammenfassung, Schlussfolgerungen und Ausblick
347
•
Die Bewertung von Prozess- und Produktverbesserungen basiert im Six Sigma-Konzept auf dem Sigma-Wert, der sich aus der Wahrscheinlichkeitsverteilung der Standard-Normalverteilung herleitet. Da es im F&E-Bereich nicht nur um die Erzeugung von Null-Fehler-Qualität geht, sondern auch um das Auffinden innovativer Produktdesigns, ist seine Anwendung als Top-Kennzahl in DFSS-Projekten eher fragwürdig. Die Entwicklung eines erweiterten Bewertungskonzeptes für den DMAIDV-Zyklus, welches den Innovationsaspekt stärker berücksichtigt, ist wünschenswert. Die TRIZ-Methodik, welche in der Innovate-Phase des vorstehend genannten Problemlösungszyklus zur Anwendung kommt, stellt auf das Konzept der Idealität ab. Im IESRMZyklus werden anstelle von Sigma-Werten individuelle Fitnesswerte berechnet, welche den Erfüllungsgrad von Kundenanforderungen indizieren.6
•
Neben einem geeigneten Bewertungskonzept stellt sich die Frage nach der wirkungsvollen Verknüpfung der betrieblichen Funktionsbereiche Qualitätsund Innovationsmanagement. Hierbei ist das Spannungsfeld zu lösen, welches sich aus einer naturgemäß gegenläufigen Schwerpunktsetzung ergibt. Während beim QM die Minimierung der Variation des Prozessoutputs im Vordergrund steht, fokussiert das IM auf eine Maximierung der Variation der Lösungsansätze. Als Benchmark für interne Organisationsstrukturen, welches zu einer Auflösung dieses Spannungsfeldes führt, gilt der Automobilkonzern BMW, der auf die Dynamisierung organisationaler Kompetenzen im Entwicklungsprozess setzt (vgl. Schreyögg/ Kliesch 2006, S. 455ff.).
Bei der Spezifikation von Handlungskonzepten für die Unternehmenspraxis ist zu beachten, dass sich Wissenschaftler nicht (blind) darauf verlassen können, dass ihr Wissen aufgrund von „überlegenen“ Erkenntnissen von allein in die Praxis diffundiert. Im Gegenteil: Die Differenzen/ Konflikte werden noch verstärkt, wenn Wissenschaftler versuchen, aus ihrer Sicht überlegene Problemlösungstechniken der Praxis „überzustülpen“. Trotz der analysierten und experimentell nachgewiesenen Vorteile von DMAIDV- und IESRM-Zyklus gegenüber dem DMADV-Zyklus ist ihre Anwendung in der Unternehmenspraxis – aus heutiger Sicht – keineswegs gesichert. Dazu ist eine bestimmte soziale Infrastruktur notwendig, die formell oder informell organisiert, die Verwendung wissenschaftlicher Erkenntnisse in der Praxis befördert (vgl. Nicolai 2004, S. 111). Vor diesem Hintergrund bleibt zu wünschen, dass die Ergebnisse der vorliegenden Dissertationsschrift über eine „gut funktionierende“ bidirektionale Kommunikation zwischen Wissenschaft und Praxis schnell Einzug in die Six Sigma-Community finden.
6
Die Definition der Fitnessfunktion ermöglicht die Berücksichtigung mehrer Ziele bzw. die Erfüllung mehrerer CTQs im Rahmen des Verbesserungsprozesses. Gleichzeitig wird über die Fitnessfunktion der Suchprozess so gesteuert, dass sich die Population zügig in Richtung des globalen Optimums bewegt sowie nach n Iterationen die „passende Lösung“ mit Sicherheit gefunden wird.
Swen Günther Design for Six Sigma
GABLER RESEARCH Forum Marketing Herausgegeben von Professor Dr. Reinhard Hünerberg, Universität Kassel, Professor Dr. Andreas Mann, Universität Kassel, Professor Dr. Stefan Müller, Technische Universität Dresden und Professor Dr. Armin Töpfer, Technische Universität Dresden
Die zunehmende Globalisierung führt zu einem verschärften Wettbewerb, vor allem in den Bereichen Qualität, Zeit und Kosten. Vor diesem Hintergrund werden in der Schriftenreihe aktuelle Forschungsergebnisse sowohl zu strategischen Fragen der marktorientierten Unternehmensführung als auch zur operativen Unsetzung durch konsequente Kundenorientierung präsentiert. Dazu werden innovative Konzeptionen entwickelt, theoretische Ursache-Wirkungs-Beziehungen analysiert und pragmatische Gestaltungsempfehlungen gegeben.
Swen Günther
Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer Algorithmen Mit einem Geleitwort von Prof. Dr. Armin Töpfer
RESEARCH
Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar.
Dissertation Technische Universität Dresden, 2010
1. Auflage 2010 Alle Rechte vorbehalten © Gabler Verlag | Springer Fachmedien Wiesbaden GmbH 2010 Lektorat: Ute Wrasmann | Nicole Schweitzer Gabler Verlag ist eine Marke von Springer Fachmedien. Springer Fachmedien ist Teil der Fachverlagsgruppe Springer Science+Business Media. www.gabler.de Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlags unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Umschlaggestaltung: KünkelLopka Medienentwicklung, Heidelberg Gedruckt auf säurefreiem und chlorfrei gebleichtem Papier Printed in Germany ISBN 978-3-8349-2507-7
Geleitwort Das Managementkonzept „Six Sigma“ hat in den vergangenen Jahren sowohl in der betriebswirtschaftlichen Praxis als auch in der wirtschaftswissenschaftlichen Forschung erheblich an Bedeutung gewonnen. Der aus der Statistik entlehnte Begriff 6σ steht für „praktikable Null-Fehler-Qualität“. Er tangiert heute alle Wertschöpfungsprozesse/ -bereiche des Unternehmens, also auch Forschung und Entwicklung. Hier liegt nach einschlägigen Erfahrungen der Six Sigma-Anwender der größte Hebel, um fehlerfreie Produkte/ Dienstleistungen zu erzeugen. Aus diesem Grund nimmt der Stellenwert von Design for Six Sigma (DFSS) als gezielte Adaption des Six Sigma-Konzeptes für F&E immer mehr zu. Die Erfolge, die mit der Anwendung von DFSS bis dato erzielt wurden, können bestenfalls als „durchwachsen“ bezeichnet werden. Als Schwachpunkt gelten u.a. die eingesetzten Vorgehensmodelle, anhand derer die Six Sigma-Pojekte durchgeführt werden. Sie zeichnen sich durch ein systematisch-analytisches Vorgehen aus, welches die Generierung von Innovationen häufig behindert. Aus diesem Grund haben sich in der Vergangenheit eine Reihe von praxisorientierten Publikationen diesem Thema gewidmet – ein wirklicher Durchbruch, der dem Konzept zu nachhaltiger Akzeptanz verholfen hätte, blieb jedoch aus. Swen Günther hat in seiner Dissertation diesen Sachverhalt erstmals wissenschaftlich analysiert. Dabei geht er insbesondere der Frage nach, wie aus theoriebasierter Sicht der DFSS-Problemlösungszyklus zu gestalten und/ oder zu verändern ist, um einer kundenorientierten Produktentwicklung gerecht zu werden. Ganz im Sinne der „Pragmatic Science“ verbindet er methodische Stringenz mit praktischer Relevanz. Dem vorliegenden Buch ist daher nicht nur eine gute Aufnahme in die Scientific Community, sondern auch in die Six Sigma Community zu wünschen. Eine besondere Note erhält die Arbeit durch die Berücksichtigung von evolutionären Algorithmen bei der Ableitung konkreter Gestaltungsempfehlungen. Sie sind das Ergebnis einer innovativen Theorieexploration, bei der im Analogieschlussverfahren Erkenntnisse aus dem Bereich der mathematischen Optimierung auf den Design for Six Sigma-Zyklus übertragen werden. Swen Günther zeigt dabei neben den theoretischen Grundlagen auch die praxisbezogene Anwendung anhand von zwei Beispielen auf. Hier werden unmittelbar die Vorzüge eines an evolutionären Prinzipien ausgerichteten Produktentstehungsprozesses deutlich. Die Ergebnisse dieses interdisziplinären Forschungsansatzes mögen durch die Aufnahme in unsere Schriftenreihe herausragender Forschungsarbeiten einer breiteren Fachöffentlichkeit zugänglich werden und auch andere Forschungszweige im Bereich Marketing/ Unternehmensführung befruchten. Prof. Dr. Armin Töpfer
Vorwort Mit dem Six Sigma-Konzept bin ich erstmalig nach meinem Studium des Wirtschaftsingenieurwesens in Berührung gekommen. Dabei näherte ich mich dem Thema nicht nur als angehender Wissenschaftler und Doktorand; in mehreren praxisbezogenen Weiterbildungsmaßnahmen habe ich den Grad des „Black Belts“ – einem unter Six Sigma-Anwendern anerkannten Qualifizierungsgrad – erreicht. Aufgrund der integrierten Projekttätigkeit(en) konnte ich die Stärken und Schwächen von Six Sigma respektive Design for Six Sigma (DFSS) unmittelbar „am eigenen Leib“ erfahren. Dies war eine wichtige Hilfestellung bei der Ausarbeitung des exploratorisch-instrumentellen Forschungsdesigns. Der vorliegende Band wurde im Wintersemester 2007/ 08 als Dissertationsschrift an der Fakultät Wirtschaftswissenschaften der TU Dresden mit dem Titel „Kundenorientierte Produktentwicklung mit evolutionären Algorithmen im Rahmen des Design for Six Sigma-Zyklus“ angenommen. Während der Bearbeitung des Themas am Lehrstuhl für Marktorientierte Unternehmensführung habe ich von verschiedenen Personen vielfältige Unterstützung und wertvolle Hinweise erhalten. Bei allen möchte ich mich an dieser Stelle recht herzlich bedanken. Zu besonderem Dank bin ich meinem Doktorvater, Prof. Dr. Armin Töpfer, der mir als Ideengeber und konstruktiver Diskussionspartner in allen Phasen meines Promotionsvorhabens zur Verfügung stand. Weiterhin möchte ich mich bei Prof. Dr. Bernhard Schipp und Prof. Dr. Reinhard Hünerberg für Ihr Interesse an der Arbeit und die Übernahme der beiden Gutachten bedanken. Bei der Durchführung des empirischen Teils der Arbeit war ich teilweise auf die Mitwirkung von Studenten der Fakultät angewiesen. Ihnen allen sei ein herzlicher Dank gesagt. Zudem möchte ich mich beim Unternehmen Michael Jäckel Erzgebirgische Bürstenfabrik GmbH für die aktive Unterstützung bei der Umsetzung des Pilotprojektes bedanken. Insbesondere hat der zuständige Vertriebsleiter und langjährige Freund, Alexander Jäckel, die Konzeption und Erstellung der benötigten Prototypen nachhaltig vorangetrieben. Die Aussagekraft der Modelle sowie Validität der Forschungsergebnisse wurde hierdurch deutlich erhöht. Eine Vielzahl von praxisbezogenen Anregungen konnte ich zudem im Rahmen meiner Black Belt-Tätigkeit bei der M+M Consulting GmbH, Kassel, sammeln. Zu großem Dank bin ich auch meinen Kollegen am Lehrstuhl für Marktorientierte Unternehmensführung verpflichtet, allen voran Jörn Großekatthöfer für die vielen Gespräche und inhaltlichen Anregungen. Außerdem möchte ich mich an dieser Stelle ganz herzlich bei meinem Vater bedanken, der das gesamte Manuskript mit viel Ausdauer und Akribie gelesen und redigiert hat. Für verbliebene, nicht korrigierte Fehler trage ich als Autor allein die Verantwortung.
VIII
Vorwort
Ein ausdrücklicher Dank geht auch an Aileen Pohl, die mich bei der Durchsicht und Optimierung des Quellenverzeichnisses tatkräftig unterstützt hat, sowie an Martina Voss, die mir als „gute Seele des Lehrstuhls“ stets bei der Klärung von organisatorischen Dingen und Fragen zur Seite stand. Last but not least, möchte ich mich bei meinen Eltern bedanken, die mich in meiner wissenschaftlichen Laufbahn stets liebevoll unterstützt haben, sowie bei meiner Frau, Nadine-Madeleine, für die ich während der mehrjährigen Bearbeitungszeit des Öfteren nur sehr eingeschränkt zur Verfügung stand, vor allem wenn ich bei kniffligen Problemen stundenlang über meinem Laptop brütete. Ihr und meinem in dieser Zeit geborenen Sohn, Terence, sei dieses Buch gewidmet. Swen Günther
Inhaltsverzeichnis Geleitwort ............................................................................................................... V Vorwort................................................................................................................ VII Inhaltsverzeichnis ..................................................................................................IX Abbildungsverzeichnis........................................................................................ XIII Abkürzungsverzeichnis......................................................................................XVII 1
Möglichkeiten und Grenzen des Einsatzes von Design for Six Sigma im Produktentstehungsprozess (PEP) ......................................... 1 1.1 Problemstellung und Zielsetzung ........................................................... 1 1.1.1 Der wissenschaftliche Anspruch von Six Sigma und Design for Six Sigma ...................................................................... 1 1.1.2 Empirische Befunde zum Einsatz und zur Verbreitung von Six Sigma................................................................................. 6 1.1.3 Theoriegeleitete Verbesserung des DFSS-Problemlösungszyklus als Ziel ............................................................................... 12 1.2 Untersuchungs- und Forschungsdesign ............................................... 17 1.2.1 Forschen im „mode 2“ – Verbindung von rigour und relevance .......................................................................................... 17 1.2.2 Konzeptionelle Grundlagen und inhaltliche Vernetzung .............. 21 1.2.3 Aggregatbezogene Differenzierung auf vier Ebenen .................... 36
2
Six Sigma – Zeitgemäßes Managementkonzept zur Erzielung von Null-Fehler-Qualität im Wertschöpfungsprozess ...................................... 49 2.1 Bedeutungsinhalte und Dimensionen des Begriffs Managementkonzept ........................................................................................... 49 2.1.1 Theoretische Begriffsdeutung nach Wortstamm........................... 49 2.1.2 Praktische Differenzierung nach Strategiepotenzial ..................... 53 2.2 Managementkonzepte zur Verbesserung der Prozess- und Produktqualität...................................................................................... 58 2.2.1 Kontinuierlicher Verbesserungsprozess (KVP) ............................ 58 2.2.2 Business Process Reengineering (BPR)........................................ 61 2.2.3 Six Sigma und Design for Six Sigma (DFSS) .............................. 64
X
Inhaltsverzeichnis
2.2.4 Kritische Bewertung der Konzepte auf der Basis eines multidimensionalen Vergleichs..................................................... 67 2.3 „Weiche Hülle“ und „Harter Kern“ von Managementkonzepten am Beispiel von Six Sigma .................................................. 75 2.3.1 These: Six Sigma als Mode........................................................... 75 2.3.2 Antithese: Six Sigma als Technologie .......................................... 81 2.3.3 Synthese: Six Sigma als Mode & Technologie............................. 85 3
Praxis-Theorie-Transformation als induktive Vorgehensweise: Vom konkreten zum abstrakten Vorgehensmodell ................................... 92 3.1 Qualität und Innovation als wichtige Effektivitätskriterien – Begriffsdefinitionen ............................................................................... 92 3.1.1 Fünf Dimensionen der Qualität als Ausgangspunkt für Six Sigma...................................................................................... 92 3.1.2 Drei Dimensionen der Innovation als Anforderung an DFSS....... 97 3.2 Vorgehensmodelle zur Generierung von Innovationen und Erreichung von Null-Fehler-Qualität ................................................ 102 3.2.1 Vorgehensmodelle zur kreativen Problemlösung ....................... 102 3.2.2 Innovationsprozess als selbstregulierender Prozess.................... 108 3.2.3 Vorgehensmodelle zur kontinuierlichen Verbesserung .............. 113 3.2.4 Qualitätsmanagement als selbstregulierender Prozess................ 118 3.3 Konzeption und Inhalte der Six Sigma-Verbesserungszyklen......... 129 3.3.1 DMAIC-Zyklus zur Prozessoptimierung .................................... 129 3.3.2 DMADV-Zyklus zur Neuproduktentwicklung ........................... 137 3.4 Formal-analytische Beschreibung und Analyse der Six SigmaVerbesserungszyklen ........................................................................... 147 3.4.1 DMAIC-Zyklus als abstraktes Vorgehensmodell ....................... 147 3.4.2 DMADV-Zyklus als abstraktes Vorgehensmodell ..................... 152
4
Mathematische Vorgehensmodelle zur funktionellen Optimierung und Lösung schwieriger Probleme ................................................... 158 4.1 Anwendung von Algorithmen/ Heuristiken zum Auffinden des Optimums einer Zielfunktion – Begriffsdefinitionen ................. 158 4.1.1 Mathematische Optimierung und Optimierungsrechnung .......... 158 4.1.2 Algorithmen und Heuristiken zum Auffinden des Optimums .... 160
Inhaltsverzeichnis
XI
4.2 Klassische Algorithmen....................................................................... 163 4.2.1 Extremwertberechnung bei bekanntem/ unbekanntem Funktionsverlauf ......................................................................... 163 4.2.2 Analytische vs. statistische Verfahren zur Extremwertberechnung.................................................................................. 173 4.2.3 Exakte vs. heuristische Lösungsverfahren für Optimierungsprobleme ............................................................................ 189 4.3 Evolutionäre Algorithmen .................................................................. 194 4.3.1 Die natürliche Evolution als Vorbild zur Lösung komplexer Probleme ............................................................................ 195 4.3.2 Evolutionäre Ökonomik – Übertragung evolutionärer Prinzipien auf die Organisations-/ Managementwissenschaften ....... 200 4.3.3 Evolutionary Design – Anwendung evolutionärer Algorithmen in der Forschung & Entwicklung................................... 207 4.3.4 Grundkonzeption und Programmierung von Genetischen Algorithmen am Beispiel ............................................................ 212 5
Theorie-Praxis-Transformation als deduktive Vorgehensweise: Vom abstrakten zum konkreten Vorgehensmodell ................................. 229 5.1 Abgeleitetes Vorgehensmodell 1: DMAIDV-Zyklus als erweiterter DFSS-Problemlösungszyklus.............................................. 229 5.1.1 Vorgehensmodell mit 5+1 Phasen .............................................. 229 5.1.2 Vorgehen und Methoden der Innovate-Phase ............................. 230 5.2 Abgeleitetes Vorgehensmodell 2: IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen ................................. 237 5.2.1 Vorgehensmodell mit 5 Phasen .................................................. 237 5.2.2 Phasenbezogener Methodeneinsatz............................................. 246 5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle an Beispielen ........................................................ 269 5.3.1 Optimierung der Flugzeit eines Papier-Rotors (Laborexperiment) ................................................................................. 269 5.3.2 Optimierung der Kehreigenschaften eines Straßenbesens (Fallstudie) .................................................................................. 305
6
Zusammenfassung, Schlussfolgerungen und Ausblick............................ 333
Literaturverzeichnis ............................................................................................. 349
Abbildungsverzeichnis Abb. 1–1:
Der Problemlösungsfluss in Six Sigma-Projekten.............................. 5
Abb. 1–2:
Phasen der DFSS-Vorgehensmodelle im Überblick........................... 7
Abb. 1–3:
Six Sigma-Projekte und Handlungsbedarfe für Verbesserungen........ 9
Abb. 1–4:
Von der Primären Praxis zur Theoriegeleiteten Verbesserung des DFSS-Problemlösungszyklus..................................................... 16
Abb. 1–5:
Einordnung der Dissertationsschrift in die Forschungstypologie nach Anderson/ Herriot/ Hodgkinson (2001) ................................... 18
Abb. 1–6:
Struktur der Arbeit............................................................................ 23
Abb. 1–7:
Vorgehen der Untersuchung (Untersuchungsdesign) ....................... 30
Abb. 1–8: Vernetzung der Inhalte (Forschungsdesign) ......................................... 38 Abb. 1–9: Überprüfung der Hypothesen (Prüfungsdesign) ................................... 48 Abb. 2–1:
Inhalte/ Wirkungsbereiche von Managementkonzepten................... 52
Abb. 2–2:
Strategie-Potenzial-Portfolio ausgewählter Managementkonzepte .. 57
Abb. 2–3:
Das Führungsmodell Total Quality Management............................. 60
Abb. 2–4:
Das Reorganisationsmodell Business Process Reengineering.......... 63
Abb. 2–5:
Die Six Sigma Umsetzungstreiber.................................................... 66
Abb. 2–6:
10-Punkte-Kriterienraster zum Vergleich von KVP, Six Sigma und BPR ........................................................................................... 70
Abb. 2–7:
Diffusionskurve eines neuen Managementkonzeptes....................... 77
Abb. 2–8:
Kennzeichen von Managementmoden am Beispiel von Six Sigma . 80
Abb. 2–9:
Gegenüberstellung von Daten- und Konzeptwissen......................... 82
Abb. 2–10: DMAIC-Zyklus als Technologie zur Problemlösung bei Six Sigma................................................................................................ 86 Abb. 2–11: DMAIC-Zyklus als „harter Kern“ im Six Sigma-Rahmenkonzept .. 89 Abb. 3–1:
Die prozessuale Vernetzung der fünf Qualitätsdimensionen nach Garvin (1984)........................................................................... 95
Abb. 3–2:
Basisinnovationen als Grundlage für Technologiesprünge ............ 100
Abb. 3–3:
Kriterienbasierte Bewertung der Vorgehensmodelle...................... 105
Abb. 3–4:
Problemlösungsprozess nach dem OPM-Modell (Schema) ........... 108
XIV
Abbildungsverzeichnis
Abb. 3–5:
Innovationsprozess als kybernetischer Prozess .............................. 111
Abb. 3–6:
Modell der Qualitätsregelung nach DIN EN ISO 9001:2000......... 114
Abb. 3–7:
Kontinuierliche Verbesserung mit dem PDCA-Zyklus .................. 117
Abb. 3–8:
Qualitätsmanagement als kybernetischer Prozess .......................... 121
Abb. 3–9:
Die fünf Phasen des DMAIC-Zyklus ............................................. 135
Abb. 3–10: Die fünf Phasen des DMADV-Zyklus............................................ 141 Abb. 3–11: Rekonstruktion des DMAIC-Zyklus als analytisches Optimierungsmodell .................................................................................... 148 Abb. 3–12: Rekonstruktion des DMADV-Zyklus als analytisches Optimierungsmodell .................................................................................... 153 Abb. 4–1:
Schematische Darstellung des Sekantenverfahrens ........................ 164
Abb. 4–2:
Schematische Darstellung des Tangentenverfahrens...................... 166
Abb. 4–3:
Graphische Lösung eines linearen Optimierungsproblems ............ 175
Abb. 4–4: . 3D-Oberflächen-Plots für empirische und geschätzte y-Werte auf Basis eines Polynoms 2. Grades mit einem lokalen Maximum...... 183 Abb. 4–5:
Herleitung der Versuchsanordnung für Central-Composite-Design (CCD) bei zwei unabhängigen Faktoren ........................................ 185
Abb. 4–6:
Sequentielles Vorgehen nach der Methode des steilsten Anstiegs . 187
Abb. 4–7:
Sequentielles Vorgehen nach dem Simplex-Verfahren .................. 188
Abb. 4–8:
Terminologie von Evolutionären Algorithmen .............................. 199
Abb. 4–9:
Vergleich von Evolutorischer und Klassischer Ökonomik............. 202
Abb. 4–10: Das Forschungsprogramm der Evolutorischen Ökonomik............. 203 Abb. 4–11: Die vier Felder des Evolutionary Design (ED)............................... 208 Abb. 4–12: Grundkonzeption eines Genetischen Algorithmus (GA)................ 213 Abb. 4–13: Schema für die binäre Lösungscodierung bei einem GA ............... 215 Abb. 4–14: Funktionelle Abhängigkeiten bei der Ermittlung der Fitness ......... 216 Abb. 4–15: Schematischer Zusammenhang zwischen Codier- und Suchraum . 218 Abb. 4–16: Morphologischer Kasten zur Einordnung von GAs ....................... 222 Abb. 4–17: Fitnessfunktion fit(y) mit zwei lokalen Maxima ............................ 224 Abb. 4–18: Initialisierung und Evaluierung der Ausgangspopulation .............. 225 Abb. 4–19: Programmiercode für die Erzeugung von Mutationen ................... 226
Abbildungsverzeichnis
XV
Abb. 4–20: Entwicklung der durchschnittlichen Fitness über die Zeit.............. 227 Abb. 5–1:
Der erweiterte DMADV-Zyklus..................................................... 231
Abb. 5–2:
Konzeption und Inhalte der 4 TRIZ-Säulen ................................... 233
Abb. 5–3:
Kontinuierliche Verbesserung mit IESRM-Zyklus ........................ 238
Abb. 5–4:
Das „magische Dreieck“ der evolutionären Produktentwicklung .. 240
Abb. 5–5:
Die fünf Phasen des IESRM-Zyklus .............................................. 247
Abb. 5–6:
Morphologischer Kasten am Beispiel Kugelschreiber ................... 252
Abb. 5–7:
Codier-Tableau am Beispiel Kugelschreiber (Ausschnitt) ............. 253
Abb. 5–8:
Nutzwertanalyse am Beispiel Kugelschreiber ................................ 257
Abb. 5–9:
Entwicklung der durchschnittlichen Fitness der Population........... 259
Abb. 5–10: Vorgehen bei proportionaler Selektion am Beispiel....................... 263 Abb. 5–11: Vorgehen bei rangbasierter Selektion am Beispiel......................... 264 Abb. 5–12: 1-Point-Crossover mit Flipmutation am Beispiel ........................... 266 Abb. 5–13: Abmessungen des Papier-Rotors .................................................... 270 Abb. 5–14: Projektcharter für die Optimierung des Papier-Rotors ................... 272 Abb. 5–15: Gage R&R-Ergebnisse mit Minitab für Papier-Rotor .................... 274 Abb. 5–16: Ishikawa-Diagramm für Papier-Rotor ............................................ 276 Abb. 5–17: Vollfaktorieller 23-Versuchsplan für Papier-Rotor ........................ 278 Abb. 5–18: Pareto-Chart der standardisierten Effekte beim Papier-Rotor ........ 280 Abb. 5–19: Cube Plot mit mittleren Flugzeiten der Papier-Rotoren ................. 281 Abb. 5–20: Altschuller´sche Konflikte-Matrix (Auszug).................................. 285 Abb. 5–21: Definierter Suchraum zum Auffinden des optimalen Rotors ......... 289 Abb. 5–22: Zufällig erzeugte Ausgangspopulation mit 10 Rotoren und dekadischer Darstellung der Merkmalsausprägungen .................... 290 Abb. 5–23: Zufällig erzeugte Ausgangspopulation mit 10 Rotoren und binärer Darstellung der Merkmalsausprägungen............................ 291 Abb. 5–24: Bewertungsschema zur Ermittlung der Fitness der Rotoren in der Ausgangspopulation ................................................................. 293 Abb. 5–25: Fitnessproportionale Selektion der Rotoren mit Angabe der Häufigkeitsverteilung zur Bildung der Intermediärpopulation....... 294 Abb. 5–26: Vorgehen zur Erzeugung der Kindergeneration am Beispiel
.... 296
XVI
Abbildungsverzeichnis
Abb. 5–27: 1-Point-Crossover-Verfahren am Beispiel Papier-Rotor ................ 296 Abb. 5–28: Population nach 1. Optimierungsrunde mit binärer Darstellung der Merkmalsausprägungen und zufälliger Flip-Mutation ............. 297 Abb. 5–29: Entwicklung der Fitness der Rotoren-Population in 10 Runden .... 298 Abb. 5–30: Wesentliche Designtypen in der Endpopulation der RotorOptimierung ................................................................................... 300 Abb. 5–31: Definierter Suchraum zum Auffinden des optimalen „robusten“ Papier-Rotors (2. Verbesserungszyklus) ........................................ 301 Abb. 5–32: Entwicklung der Fitness der Rotoren-Population innerhalb von 10 Runden (2. Verbesserungszyklus) ............................................. 302 Abb. 5–33: Projektcharter für die Optimierung von Straßenbesen ................... 306 Abb. 5–34: Kennlinie für die Kehreigenschaften eines Besens (Beispiel) ........ 311 Abb. 5–35: Ablaufschema zur Reinigung der normierten Kehrfläche .............. 313 Abb. 5–36: Ishikawa-Diagramm zur Beeinflussung der Kehrwirkung ............. 316 Abb. 5–37: Skizze zur Dimensionierung eines Straßenbesens.......................... 317 Abb. 5–38: Pareto-Chart der standardisierten Effekte beim Besen ................... 319 Abb. 5–39: Morphologischer Kasten zur Bestimmung der Ausgangspopulation....................................................................................... 320 Abb. 5–40: Codier-Tableau zur Lösungsrepräsentation auf der Genotypebene (Ausschnitt) .......................................................................... 321 Abb. 5–41: Daten zur Ermittlung der Fitnesswerte für die Besen der Ausgangspopulation.............................................................................. 322 Abb. 5–42: Selektion der Besen nach dem Roulette-Wheel-Verfahren ............ 324 Abb. 5–43: Rekombination der Besen der 1. Elterngeneration per Zufalls....... 324 Abb. 5–44: Population für 2. Optimierungsrunde in dekadischer und binärer Darstellung ......................................................................... 325 Abb. 5–45: Entwicklung der Fitness der Besen-Population .............................. 327 Abb. 5–46: Morphologischer Kasten mit Profillinien für beste Besen.............. 328 Abb. 5–47: Gegenüberstellung von DMADV, DMAIDV und IESRM ............ 331 Abb. 6–1:
Übersicht der Hypothesen und empirische Belege ......................... 336
Abkürzungsverzeichnis 6σ
Six Sigma als statistische Messgröße
7M
Mensch, Maschine, Messung, Material, Methode, Mitwelt, Management
Abb.
Abbildung
ACO
Ant Colony Optimization (Ameisenalgorithmus)
A-E
Arenga-Elaston
AFE
Antizipierende Fehlererkennung
AL
Artificial Life (Künstliche Lebensformen)
ANOVA
Analysis of Variances (Varianzanalyse)
ARIZ
Algoritm Reshenije Izobretatjelskich Zadacz (russ. Akronym)
Aufl.
Auflage
α-Fehler
Fehler 1. Art bei Statistischem Test
β-Fehler
Fehler 1. Art bei Statistischem Test
BB
Black Belt
BBD
Box-Behnken-Design
BE
Business Excellence
BFGS
Broyden-Fletcher-Goldfarb-Shanno
BPM/ BPR
Business Process Management/ Business Process Reengineering
BSC
Balanced Scorecard, Balanced Score Card
BSH
Bosch Siemens Hausgeräte
bspw.
beispielsweise
BVW
Betriebliches Vorschlagwesen
BWL
Betriebswirtschaftslehre
bzgl.
bezüglich
bzw.
beziehungsweise
ca.
circa
CAD
Computer Aided Design
CAM
Computer Aided Manufacturing
CCD
Central-Composite-Design
CCM
Core Competence Management
C/D
Confirmation/ Disconfirmation
XVIII
Abkürzungsverzeichnis
CDF
Cumulative Density Function (Kumulierte Häufigkeitsverteilung)
CED
Creative Evolutionary Design
CEO
Chief Executive Officer
CI
Confidence Interval (Konfidenzintervall)
CIP
Contineous Improvement Process, auch KVP
cm
Zentimeter
CM
Conjoint Measurement, auch Conjoint Analyse
CNC
Computerized Numerical Control
COPQ
Cost of Poor Quality (Fehlerkosten)
CP
Wahrgenommenes Kostenführerschaftspotenzial
c.p.
ceteris paribus
Cp
Prozessfähigkeitsindex (Streuungsindex)
Cpk
Prozessfähigkeitsindex (Lageindex)
CPS
Creative Problem Solving
CRM
Customer Relationship Management
CSI
Customer Satisfaction Index
CTB
Critical to Business
CTC
Critical to Customer
CTP
Critical to Process
CTQ
Critical to Quality (Characteristic)
CTQs χ2
Chi-Quadrat
Δ
Granularität (Genauigkeit)
d.b.
das bedeutet
DCCDI
Define, Customer, Concept, Design, Implementation
df
Anzahl der Freiheitsgrade
Critical to Qualities
d.h.
das heißt
DFMA
Design for Manufacturing and Assembly
DFSS
Design for Six Sigma
DIN
Deutsche Industrie Norm
DLZ
Durchlaufzeit
DMADV
Define, Measure, Analyse, Design, Verify
DMAIDV
Define, Measure, Analyse, Innovate, Design, Verify
DMAIC
Define, Measure, Analyse, Improve, Control
Akürzungsverzeichnis
XIX
DMEDI
Define, Measure, Explore, Develop, Implement
DNS
Desoxyribonucleinsäure
DOE
Design of Experiments (Statistische Versuchsplanung)
DP
Wahrgenommenes Differenzierungspotenzial
DPMO
Defects Per Million Opportunities (Fehler pro 1 Mio. Fehlermöglichkeiten)
DPU
Defects Per Unit (Fehler pro Einheit)
ε bzw. e
Residuum
EA
Evolutionärer Algorithmus
EAL
Evolutionary Artificial Life-Forms
EArt
Evolutionary Art
EBF
Erzgebirgische Bürstenfabrik
EC
Evolutionary Computation
ED
Evolutionary Design
EDO
Evolutionary Design Optimisation
EDV
Elektronische Datenverarbeitung
EFQM
European Foundation for Quality Management
ehem.
ehemalig
EN
Europäische Norm
EP
Evolutionäre Programmierung
ES
Evolutionsstrategien
ESRM
Evaluierung, Selektion, Rekombination, Mutation
et al.
et alii (lat. und andere)
etc.
et cetera
EVA
Economic Value Added
EVOP
Evolutionary Operations
F&E
Forschung und Entwicklung
f.
folgende
ff.
fortfolgende
fit
Fitness
FMEA
Fehler-Möglichkeits und Einfluss-Analyse
FTY
First Time Yield (Ausbeute ohne Nacharbeit)
FWW
Faktorwechselwirkung
g
Gramm
XX
GA
Abkürzungsverzeichnis
Genetischer Algorithmus
Gage R&R
Messsystemanalyse (Reliability & Reproducibility)
% R&R
Messfähigkeitsindex
GB
Green Belt
GE
General Electric
GEMS
GE Medical Systems
GG
Grundgesamtheit
ggf.
gegebenenfalls
GmbH
Gesellschaft mit beschränkter Haftung
GP
Genetische Programmierung
GPM
Geschäftsprozessmanagement
GRR
Messsystemfehler
GS
Growth Strategies
h
Stunde
H0
Nullhypothese bei Statistischem Test
H1
Alternativhypothese bei Statistischem Test
HoQ
House of Quality
Hrsg.
Herausgeber
i.A.
im Allgemeinen
i.d.R.
in der Regel
IESRM
Initialisierung, Evaluierung, Selektion, Rekombination, Mutation
i.e.S.
im engeren Sinn
i.H.v.
in Höhe von
i.O.
in Ordnung
i.w.S.
im weiteren Sinn
IM
Innovationsmanagement
inkl.
inklusive
insb.
insbesondere
IPO
Input, Process, Output
ISO
International Organization for Standardization
i.S.v.
im Sinne von
IT
Informationstechnologie
Jg.
Jahrgang
JIT
Just in Time
Akürzungsverzeichnis
KBI
Kundenbindungsindex
KKT
Karush-Kuhn-Tucker
KM
Knowledge Management
KNN
Künstlich Neuronale Netze
kg
Kilogramm
KPI
Key Performance Indicator (Steuerungsgröße)
XXI
KTQ
Kooperation für Transparenz und Qualität im Gesundheitswesen
KVP
Kontinuierlicher Verbesserungsprozess
L
Lern-/ Degressionsrate
LCL bzw. UEG Lower Control Limit (Untere Eingriffsgrenze) LDS
Lightspeed Diagnostic Scanner
lg
Dekadischer Logarithmus
LM
Lean Management
LMS
Learning Management System
ln
Natürlicher Logarithmus
LP
Linear Programming (Lineare Optimierung)
LSA
Local Search Approaches (Lokale Suchverfahren)
LSM
Least Squares Method (Methode der kleinsten Quadrate)
LSL bzw. USG Lower Specification Limit (Untere Spezifikationsgrenze) LSS
Lean Six Sigma
μ bzw. E
Mu – Erwartungswert der Grundgesamtheit
m
Meter
M
Merkmal
MA
Mitarbeiter
M&A
Mergers & Acqusisitions
MAIC
Measure, Analyse, Improve, Control
max
Maximiere
MBB
Master Black Belt
MBNQA
Malcolm Baldrige National Quality Award
MbO
Management by Objectives
m.E.
mit Einschränkung
MGP
Multi Generation Plan
Mio.
Million
min
Minimiere
XXII
Abkürzungsverzeichnis
min.
minimal
mind.
mindestens
mm
Millimeter
MPI
Milestone Perfomance Index
MPSP
Management-Planungs-Steuerungs-Programm
Mrd.
Milliarde
MSE
Mean Square Error (Mittlerer quadratischer Fehler)
MT n
Manntage Stichprobengröße
N(µ; σ) o. NV
Normalverteilung
NB
Nebenbedingung
n.i.O.
nicht in Ordnung
NIST
National Institute of Standards and Technology
NLP
Non-linear Programming (Nicht-lineare Optimierung)
NNB
Nichtnegativitätsbedingung
NW
Nutzwert
NY
Normalized Yield (Normierte durchschnittliche Ausbeute)
OE
Organisationsentwicklung
OEM
Original Equipment Manufacturer
OFAT
One Factor At Time
OFD
Opportunities For Defects (Fehlermöglichkeiten)
o.g.
oben genannt
OPM
Offenes Problemlösungsmodell
OT
Organisationstransformation
p
Wahrscheinlichkeit
PBR
Projekt Business Review
PDCA
Plan, Do, Check, Act
PEP
Produktentstehungsprozess
PERT
Project Evaluation and Review Technique
Pop
Population
PPM
Parts Per Million (Fehler pro 1 Mio. gefertigte Teile)
PPS
Produktionsplanung und -steuerung
PR
Public Relation
P-Regelkarte
Prozess-Regelkarte
Akürzungsverzeichnis
p-Wert
Signifikanzwert bei Statistischem Test
QC
Quality Circle
QFD
Quality Function Deployment
QL
Quality Leader
QM
Qualitätsmanagement
QMS
Qualitätsmanagement-System
Q-Regelkarte
Qualitätsregelkarte
QS
Quality System
QVS
Qualitätsverbesserungssystem
R
Spannweite
r
Korrelationskoeffizient
R-sq bzw. R2
Bestimmtheitsmaß
RPZ
Risikoprioritätszahl
RSM
Response Surface Methodology
RTY
Rolled Throughput Yield (Durchschnittliche Ausbeute)
σ
Sigma – Standardabweichung der Grundgesamtheit
σ2
Varianz der Grundgesamtheit
S bzw. StDev
Standardabweichung der Stichprobe
2
s bzw. Var
Varianz der Stichprobe
s
Sekunden
s.
siehe
SA
Simulated Annealing
s.o.
siehe oben
S/N
Signal to Noise
SS
Sum of Squares (Summe der quadrierten Abweichungen)
Sample
Stichprobe
SIPOC
Supplier Input Process Output Costumer
SIS
System Installation Status
sog.
sogenannte
SPC
Statistical Process Control / Statistische Prozesskontrolle
SQP
Sequential Quadratic Program
SRM
Selektion, Rekombination, Mutation
SRP
Saving Realisation Plan
SSCI
Social Science Citation Index
XXIII
XXIV
Abkürzungsverzeichnis
SVM
Shareholder Value Management
SVP
Senior Vice President
SWOT
Strengths Weaknesses Opportunities Threats
TIPS
Theory of Inventive Problem Solving
T
Toleranz
TPM
Total Productive Maintenance
TQM
Total Quality Management
TRIZ
Theorija Reshenija Izobretatjelskich Zadacz (russ. Akronym)
TSP
Traveling Salesman-Problem
u.a.
unter anderem
u.ä.
und ähnliche
UCVP
Unique Customer Value Proposition
u.U.
unter Umständen
UCL bzw. OEG Upper Control Limit (Obere Eingriffsgrenze) USL bzw. OSG Upper Specification Limit (Obere Spezifikationsgrenze) USP
Unique Selling Proposition
usw.
und so weiter
VA
Verfahrensanweisung
VC
Virtual Corporations
VDA
Verband der Automobilindustrie
vgl.
vergleiche
VOC
Voice of the Customer
vs.
versus
WS
Wertschöpfung
w.z.b.i.
was zu beweisen ist
X-bar bzw.⎯x
Mittelwert der Stichprobe
Xs
Input-/ Prozessmessgrößen
Ys
Outputmessgrößen
z.B.
zum Beispiel
z.T.
zum Teil
ZDF
Zahlen, Daten, Fakten
ZI
Zielkostenindex
ZP
Zielplanung
ZV
Zielvereinbarung
1
Möglichkeiten und Grenzen des Einsatzes von Design for Six Sigma im Produktentstehungsprozess (PEP)
Der Einsatz von Six Sigma im Produktentstehungsprozess (PEP) wird bereits seit geraumer Zeit unter dem Schlagwort „Design for Six Sigma“ (DFSS) diskutiert. Es existieren verschiedene Ansätze, wie die von Six Sigma geforderte NullFehler-Qualität am besten in den PEP zu integrieren sei. Als vorläufige Best practice gilt ein auf die Anforderungen des F&E-Bereichs abgestimmter Six SigmaProblemlösungszyklus. Dieser wurde in der Vergangenheit jedoch nur von wenigen Unternehmen mit nachweisbarem Erfolg eingesetzt. Die Gründe hierfür sind vielfältig und bis dato nur wenig erforscht. Nach Expertenmeinung liegt das Scheitern von DFSS-Projekten vor allem in der bestehenden Austauschbeziehung (Trade-off) zwischen hoher Produktqualität auf der einen Seite und der Forderung nach einem hohen Innovationsgrad auf der anderen Seite begründet. Ob und wie dieser Trade-off aus wissenschaftlicher Sicht gelöst werden kann, ist Gegenstand der vorliegenden Dissertationsschrift. In diesem Zusammenhang wird sowohl auf die praktische Relevanz (relevance) der Forschungsergebnisse als auch auf die methodische Stringenz (rigour) des Bearbeitungsprozesses geachtet.
1.1 1.1.1
Problemstellung und Zielsetzung Der wissenschaftliche Anspruch von (Design for) Six Sigma
Durch die Globalisierung der Märkte wird der Wettbewerbsdruck, der auf den Unternehmen lastet, immer stärker. Dieser Druck resultiert aus einer drastischen Verkürzung der Produktlebenszyklen, inkl. der Entwicklungszeiten, einem kontinuierlich anwachsenden Preiskampf mit einhergehenden Kostenreduzierungen sowie einem ständig steigenden Qualitätsanspruch der Kunden. Die Beherrschung des magischen Dreiecks Kosten-Zeit-Qualität stellt heute in vielen Wirtschaftsbereichen eine wesentliche Anforderung an den Fortbestand der Unternehmen dar. Darüber hinaus ist in vielen Branchen ein ständig steigender Innovationsdruck zu beobachten (vgl. z.B. BCG Innovationsstudie 2006). Unternehmen, die insb. auf technologieorientierten Feldern tätig sind, haben erkannt, dass sich die Zukunft nur mit neuen, innovativen Produkten und Prozessen nachhaltig sichern lässt. Aus diesem Grund besteht ein starkes Interesse daran, Produktentstehungsprozesse zu definieren und zu implementieren, die diesen Anforderungen gerecht werden. Um wettbewerbsfähige Produkte zu entwickeln, sind neben klar definierten Vorgehensmodellen Methoden notwendig, welche die Suche nach neuartigen Problemlösungen unterstützen. Die Ausnutzung von biologischen Phänomenen und Erkenntnissen (Bionik) ist dabei nur eine von vielen Ansätzen, um die allgemein einsetzbaren technischen Entwicklungs- und Konstruktionswerkzeuge, z.B. nach VDI 2221ff., wirkungsvoll zu ergänzen (vgl. Günther 2004, S. 1).
2
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
Zu einer umfassenderen Sicht der Qualitätssicherung in Unternehmen hat maßgeblich der japanische Statistiker und Qualitätsexperte GENICHI TAGUCHI (1989) beigetragen. Den Hauptansatzpunkt zur Erhöhung der Produktqualität sieht er in der Verringerung der Streuung der zugrundeliegenden Leistungserstellungsprozesse. Diesem Aspekt der Qualitätssicherung trägt insbesondere die Six Sigma-Philosophie Rechnung. JACK WELCH, ehem. CEO von General Electric (GE) und maßgeblicher Förderer und Gestalter von Six Sigma im Unternehmen1, machte hierzu die treffende Bemerkung: „Abweichung ist der Teufel in allen Kundenkontakten!“ (vgl. Garthe 2002, S. 343ff.). Damit unterstrich er die Auffassung, dass den Kunden die Verbesserung der internen Prozesse nicht interessiert, sondern nur, ob seine Anforderungen und Erwartungen durch das Produkt/ die Dienstleistung vollständig erfüllt werden. Deshalb sind alle Geschäftsprozesse unmittelbar auf die Bedürfnisse/ Anforderungen des Kunden auszurichten. Nur wenn dies gegeben ist, kann von einer wertorientierten Unternehmenstätigkeit gesprochen werden, die – bei wirtschaftlicher Umsetzung der Kundenanforderungen im Unternehmen – finanziellen Erfolg nach sich zieht (vgl. Töpfer 2006, S. 424ff.). Welche Erkenntnis lässt sich im Hinblick auf die Gestaltung und den Einsatz von Managementkonzepten daraus ziehen? Konzepte, die eine höhere Effizienz (Wirtschaftlichkeit) der Prozessabläufe bewirken, müssen noch lange nicht die Effektivität (Zielerreichungsgrad) des Unternehmens verbessern; „Die Dinge richtig tun“ ist nicht gleich „Die richtigen Dinge tun“ (vgl. Töpfer 2007a, S. 75). In Bezug auf Six Sigma hat PRADEEP B. DESHPANDE2 (2004) den Sachverhalt wie folgt auf den Punkt gebracht: „We need to remember, all Six Sigma does is to enable us to operate our work processes in the best possible manner. Nothing more, nothing less. It is quite possible you are operating all your work processes the Six Sigma way, but your competition has come up with a better business model or better technology which could cost you marketshare. [...] it is quite possible for a company to be six sigma compliant and yet go bankrupt. Six Sigma does not make us better innovators, but since it shows how to work smarter and not harder, there is more time available for innovation.” Die Erzeugung von Innovationen steht also nicht im Mittelpunkt von Six Sigma; diese Aufgabe fällt dem in der Wertschöpfungskette vorgelagerten Ansatz des Design for Six Sigma (DFSS) zu (vgl. hierzu und im Folgenden Töpfer/ Günther 2007b, S. 106). Das Six Sigma-Konzept wurde bei Motorola entwickelt und im Jahr 1987 offiziell eingeführt (vgl. Baetke/ Hammer/ Zalesky 2002, S. 2ff.). Der Name „Six Sigma“ geht auf den damals federführenden Qualitätsingenieur, BILL SMITH, am Standort
1
2
Unter JEFFREY R. IMMELT, dem neuen CEO von GE seit 2001 und ausgebildeten Black Belt, wird die Six Sigma Initiative mit der gleichen hohen Priorität weitergeführt (vgl. Effinger/ Layne 2002, S. 2f.). President and CEO of Six Sigma & Advanced Controls, Inc. and Professor of Chemical Engineering at the University of Louisville
1.1 Problemstellung und Zielsetzung
3
Schaumburg, Illinois, USA zurück. Sein Ansatz bestand darin, die z.T. mangelnde Kundenorientierung im Rahmen von existierenden ganzheitlichen QM-Konzepten zu beseitigen. Oftmals führte zwar die Umsetzung von Total Quality Management zu einem hohen Qualitätsniveau, jedoch blieb die Kundenzufriedenheit weiterhin auf einem relativ niedrigen Niveau. Für sein Vorhaben, eine kundenorientierte Null-Fehler-Strategie im Unternehmen zu implementieren, formulierte er deshalb die folgenden zwei „forschungsleitenden“ Fragen: •
Was heißt Kundenorientierung im Technologieunternehmen Motorola?
•
Wie wird Kundenorientierung im Unternehmen wirkungsvoll umgesetzt?
Obwohl es, insb. im Bereich der Psychologie, eine Reihe von Ansätzen und Theorien zum Themengebiet gibt, wählte Bill Smith einen eher pragmatischen Ansatz, der unter dem Slogan „Customer focused Quality“ weltweit Bekanntheit erlangte. Im Kern geht es darum, eine stringente Projektmanagementmethode zu implementieren, welche die Erfüllung der wesentlichen Kundenanforderungen (CTQs – Critical to Quality Characteristics) erlaubt und gleichzeitig zu optimierten, d.h. fehlerfreien Prozessen führt (vgl. Töpfer/ Günther 2007a, S. 18). Die projektorientierte Ausrichtung von Six Sigma konkretisiert sich heute in zwei standardisierten Vorgehensweisen, nämlich dem DMAIC-Zyklus mit den fünf Phasen Define, Measure, Analyse, Improve und Control sowie dem DMADVZyklus mit den fünf Phasen Define, Measure, Analyse, Design und Verify. Beide Projektzyklen basieren auf dem klassischen DEMING-Zyklus PDCA (Plan, Do, Check, Act) und setzen bei der Messung und Analyse von wesentlichen Kundenanforderungen an. Die unterschiedliche Phasenabfolge resultiert in erster Linie aus dem problemspezifischen Anwendungsbereich3: Während der DMAIC-Zyklus bei der Verbesserung von bestehenden Prozessen im Unternehmen zum Einsatz kommt, richtet sich die Anwendung des DMADV-Zyklus auf die Neuproduktplanung und -entwicklung (vgl. Töpfer/ Günther 2007b, S. 107ff.). Die Philosophie von Six Sigma beruht im Wesentlichen darauf, durch eine zielgerichtete Übersetzung der „Stimme des Kunden“ (VOC – Voice of the Customer) in die „Sprache des Prozesses“ (VOP – Voice of the Process) Produkte und Dienstleistungen mit hoher Qualität zu erzeugen und so Wirtschaftlichkeit, also Effizienz, mit Kundenzufriedenheit, also Effektivität, zu verbinden. Richtet sich die Kundenstimme auf ein am Markt eingeführtes Produkt bzw. einen bestehenden
3
Bildlich gesprochen stellt dieses entwicklungsbezogene Six Sigma einen „Blick durch die Frontscheibe“ dar, da hier zukünftig wichtige Kundenanforderungen ermittelt und erfüllt werden. Demgegenüber ermöglicht das prozessbezogene Six Sigma auf der Basis des DMAIC-Zyklus einen „Blick durch den Rückspiegel“. Ziel ist es, den aktuellen Wertschöpfungsprozess im Hinblick auf eine höhere Kundenzufriedenheit/ -bindung sowie eine effizientere Aufbau-/ Ablauforganisation in kurzer Zeit signifikant zu verbessern (vgl. Töpfer/ Günther 2007a, S. 10).
4
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
Prozess im Unternehmen, dann stehen bei der Bearbeitung des Verbesserungsprojektes anhand des DMAIC-Zyklus die folgenden fünf Fragen im Mittelpunkt: •
Define: Was ist das Problem?/ Was ist das Projektziel?
•
Measure: Wie lassen sich die Auswirkungen messen?
•
Analyse: Was sind die Hauptursachen für das Problem?
•
Improve: Wie lässt sich das Problem dauerhaft beseitigen?
•
Control: Wie wird die Problemlösung praktisch umgesetzt?
Analog hierzu lässt sich für den DMADV-Zyklus ein Fragenkatalog konzipieren, der die speziellen Anforderungen im F&E-Bereich berücksichtigt. In den fünf Phasen werden dabei die folgenden Fragen schwerpunktmäßig behandelt: •
Define: Welche Produktlösung ist veraltet/ nicht mehr wettbewerbsfähig?
•
Measure: Was sind die wesentlichen zukünftigen Kundenanforderungen?
•
Analyse: Wie lassen sich die Kundenanforderungen bestmöglich erfüllen?
•
Design: Was sind die konkreten Gestaltungsmerkmale des Produktes?
•
Verify: Wie gut erfüllt das Produkt die Kundenanforderungen in praxi?
Unabhängig von der Art des gewählten Problemlösungszyklus beruht die Entscheidungsfindung im Rahmen von Six Sigma bzw. Design for Six Sigma auf dem Prinzip „ZDF – Zahlen, Daten und Fakten“. Intuition der Projektbeteiligten und/ oder Trial-and-Error-Verfahren sind bewusst ausgeschlossen und in keiner Phase des DMAIC-Zyklus explizit vorgesehen. Die Problemlösung erfolgt systematisch und zeichnet sich über weite Strecken durch eine analytische Vorgehensweise aus. Dabei werden zwei Ebenen der Problemlösung unterschieden (vgl. hierzu und im Folgenden Töpfer/ Günther/ Garzinsky 2007, S. 262ff.): Realitätsebene und Abstraktionsebene. Durch diese Trennung ist es möglich, auch schwierige praktische Probleme zu lösen. Unter Berücksichtigung der zwei Ebenen vollzieht sich die Lösungsfindung in fünf Schritten (siehe Abb. 1-1): (1) Auf der Realitätsebene wird das reale Problem definiert und – in der DefinePhase – zu einem 3- bis 6-monatigen Verbesserungsprojekt nominiert; dieses ist von drei bis fünf Akteuren in dem vorgesehenen Zeitraum zu bearbeiten. (2) Das reale Problem wird in ein abstraktes Problem transformiert, d.h. aus dem realen Problem wird – in der Measure-Phase – ein statistisches Problem, welches mithilfe von Variablen und Messgrößen beschrieben werden kann. (3) Auf der Abstraktionsebene wird unter Nutzung mathematisch-statistischer Modelle eine abstrakte Lösung gesucht. Mittels Regression et al. werden – in der Analyse-Phase – die Hauptursachen des Problems identifiziert.
1.1 Problemstellung und Zielsetzung
5
(4) In der anschließenden Improve-/ Design-Phase besteht das Ziel darin, die gefundene abstrakte Lösung durch Outputsimulationen abzusichern. Des Weiteren werden Optionen für die konkrete Umsetzung eruiert. (5) Die abstrakte Lösung wird in eine reale Lösung zurücktransformiert. Nach der Implementierung im Prozess wird die gefundene Lösung – in der Control-/ Verify-Phase – kontinuierlich überwacht und verbessert. 3 2 Abstraktes
Problem
Modellbildung
4 Abstrakte
Lösung
Abstraktionsebene
Realitätsebene 1
Reales Problem
Trial & Error
5
Reale Lösung
Abb. 1-1: Der Problemlösungsfluss in Six Sigma-Projekten
Die Denkweise von Six Sigma unterscheidet sich damit deutlich von bisherigen Ansätzen des Qualitätsmanagements, wie z.B. TQM. Dies liegt vor allem daran, dass die Implementierung einer Lösung in der Realität erst dann vorgenommen wird, wenn eine zufriedenstellende Lösung auf der Abstraktionsebene gefunden worden ist. In diesem Fall haben die Mittelwert- und Streuungsmaße der wesentlichen Outputgrößen des Prozesses das anvisierte Zielniveau erreicht. Andernfalls werden die Measure- und Analyse-Phase so lange durchlaufen, bis die Abhängigkeiten in Form von Ursachen-Wirkungsbeziehungen offengelegt und die geplanten Verbesserungen über Outputsimulationen hinreichend abgesichert sind. Die Anforderungen, die an den Problemlösungsprozess gestellt werden, decken sich im großen und ganzen mit denen des wissenschaftlichen Arbeitens (vgl. Kromrey 2002, S. 88): Problem definieren, Wissen generieren, Modell formulieren, Aussagen ableiten und überprüfen sowie ggf. Maßnahmen umsetzen. Vor diesem Hintergrund richtet sich das Erkenntnisinteresse bei Six Sigma nicht nur auf die zu verbessernde Sache, also was verbessert wird, sondern auch auf die zugrunde gelegte Vorgehensweise, also wie etwas verbessert wird. Obwohl DMAIC- und DMADV-Zyklus auf dem gleichen Problemlösungsprinzip basieren, unterscheiden sie sich in ihren generellen Erfolgaussichten z.T. signifikant. Wäh-
6
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
rend sich der DMAIC-Zyklus als prozessbezogener Verbesserungsansatz in der Praxis recht gut bewährt hat, stehen entsprechende Erfahrungsberichte für den DMADV-Zyklus und ggf. andere DFSS-Vorgehensmodelle noch aus. 1.1.2
Empirische Befunde zum Einsatz und zur Verbreitung von Six Sigma
Durch Berücksichtigung der Six Sigma-Philosophie in der Neuproduktentwicklung respektive dem grundlegenden Re-Design von Produkten und Prozessen soll bereits von Produktionsstart an 6σ-Qualität, d.h. 99,99966% Fehlerfreiheit, erreicht werden. Um F&E-Projekte möglichst ergebnisorientiert steuern und durchführen zu können, wurden in der Vergangenheit eine Reihe von phasenorientierten Vorgehensmodellen entwickelt, z.B. DMADV, DMEDI und DCCDI.4 Die Mehrheit der Six Sigma-Unternehmen hat sich für den DMADV-Zyklus entschieden, da er u.a. von den Six Sigma-Vorreiterunternehmen Motorola und General Electric5 angewendet wird. Nach Bulk/ Faulhaber (2007, S. 406ff.) ist das Design von neuen Produkten und Prozessen einer von drei Eckpfeilern im Rahmen des ganzheitlich ausgerichteten Six Sigma-Projektmanagements. In Abb. 1-2 sind die Phasen von 10 Vorgehensmodellen aufgeführt, die im Zusammenhang mit DFSS seit geraumer Zeit diskutiert werden. Die Reihenfolge ergibt sich nach der Anzahl von Suchergebnissen (weltweit) für das entsprechende Akronym in Verbindung mit „Design for Six Sigma“ im Internet über die Suchmaschine www.google.de (Stand: 25.06.2007).
4
5
DMEDI steht für Define, Measure, Explore, Develop and Implement und wird insb. von der Beratungsgesellschaft PricewaterhouseCoopers propagiert (vgl. Simon 2002, S. 1f.). Das Akronym DCCDI beschreibt den 5-phasigen Zyklus Define, Customer, Concept, Design und Implementation. Von einigen Unternehmen wurde der DMADVZyklus in der Weise modifiziert, dass sie eine zusätzliche Phase „I“ für Implementation oder „L“ für Leverage eingeführt haben. Den einen Unternehmen ging es darum, die Wichtigkeit der Implementierung gefundener Lösungen hervorzuheben, während die anderen die Übertragung gefundener Lösungen auf die gesamte Organisation mit dem Ziel Hebelwirkungen zu erzielen als besonders wichtig ansahen. Nach Deutsch (2000, S. C1) ist das radiologische Diagnosegerät Lightspeed Diagnostic Scanner (LDS) von GE Medical Systems (GEMS) das erste Produkt, welches nach dem DFSS-Ansatz entwickelt und konzipiert worden ist. An der Entwicklung waren Mitte der 1990er Jahre ca. 200 Mitarbeiter beteiligt bei einem F&E-Budget von 50 Mio. US$. Über einen Zeitraum von 3 Jahren wurden insgesamt 250 DMADV-Projekte rund um das LDS durchgeführt. Im Ergebnis konnte die Fehlerrate in der Fertigung um 40% reduziert werden; die Anzahl der Reklamationen sank signifikant. Aus technologischer Sicht wurde ein deutlicher Sprung nach vorne gemacht. Wie Antony/ Bañuelas (2002, S. 335) berichten, reduzierte sich die Scanzeit für eine Ganzkörperuntersuchung von 3 Minuten auf 20 Sekunden ohne zusätzliche Kühlungszeit.
1.1 Problemstellung und Zielsetzung
7
Für den Einsatz und die Verbreitung verschiedener Management-Zyklen im Rahmen des Design for Six Sigma mit z.T. geringem Standardisierungsgrad lassen sich zwei Gründe anführen: Zum einen sind die branchen- und unternehmensspezifischen Bedingungen nicht gleich, so dass von den Unternehmen Vorgehensweisen gewählt werden, die aus ihrer Sicht den Anforderungen im Entwicklungsprozess am nächsten kommen. Z.B. wird der DMEDI-Zyklus verstärkt in Serviceund Dienstleistungs-Unternehmen eingesetzt, während der IDOV-Zyklus vor allem bei produzierenden Unternehmen im technischen Bereich zur Anwendung kommt (vgl. ProcessTeam 2006). Zum anderen besteht die Vermutung, dass bisher noch kein geeignetes Vorgehensmodell für den Entwicklungsprozess gefunden worden ist, welches die Hauptanforderungen im PEP, nämlich qualitativ hochwertige Produkte mit innovativen Funktionen zu entwerfen, erfüllt. Vorgehensmodell
Treffer in Google*
DMADV
40.500
IDOV
2.030
Phasen Define
Measure
Analyse
Design
Identify
Verify
Design
Optimise
Verify Verify
DMADOV
646
Define
Measure
Analyse
Design
Optimise
DMEDI
644
Define
Measure
Explore
Develop
Implement
CDOV
548
Concept
Design
Optimise
DCCDI
351
Define
Customer
Concept
Design
Implement
DCOV
233
Define
DIDOV
45
Define
Identify
DMADIC
9
Define
Measure
DMCDOV
8
Define
Measure
Characterise
* Abruf (weltweit) am 25.06.07 unter www.google.de mit Zusatz „Design for Six Sigma“
Verify
Optimise
Verify
Design
Optimise
Verify
Analyse
Design
Implement
Control
Characterise
Design
Optimise
Verify
Legende: Phase ist inhaltlich vergleichbar mit DMADV
Abb. 1-2: Phasen der DFSS-Vorgehensmodelle im Überblick
Diese These wird u.a. von verschiedenen Experten6 auf diesem Gebiet gestützt, die das Realisationsverhältnis von DMAIC- zu DMADV-Projekten auf bis zu 20 zu 1 schätzen, d.h. auf 1 erfolgreich durchgeführtes DFSS-Projekt kommen ca. 20 „klassische“ Six Sigma-Verbesserungsprojekte. Obwohl viele Unternehmen die Bedeutung von Null-Fehler-Qualität im Entwicklungsbereich erkannt haben, läuft 6
Ergebnisse auf der Basis einer mündlichen Befragung von ausgewählten QM- und Six Sigma-Experten im Jahr 2006: Gebhard Mayer, MUTC; Gerd Streckfuss, IQM; Andreas Riese und Dieter Wessel, TQC; Bernd Garzinsky, M+M. Magnusson et al. (2004, S. 208) führen bei der Frage nach dem Reifegrad von Six Sigma aus, dass das Konzept im Bereich der Prozessentwicklung ein „ausgereiftes und erprobtes Verbesserungskonzept“ ist. In den Bereichen Designverbesserung, Projektmanagement und Neuentwicklung von Produkten/ Technologien ist Six Sigma hingegen noch in der Entwicklung – weiterführende Anstrengungen sind hier notwendig.
8
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
die konkrete Umsetzung von DFSS häufig ins Leere (vgl. Hammer 2002, S. 32). Bei Durchsicht der einschlägigen Literatur lassen sich nur wenige Hinweise auf erfolgreich abgeschlossene DMADV-Projekte finden (vgl. zu DFSS-Fallstudien u.a. Dorff/ Töpfer 2007; Islam 2003; Role 2002; Gavin 1999). Die Ergebnisse einer empirischen STUDIE VON SCHMIEDER (2005) zum Thema „Six Sigma in Deutschland“ bestätigen die Expertenmeinung: Die meisten der befragten Unternehmen wenden Six Sigma vorzugsweise in den direkten Wertschöpfungsprozessen an; im Produktionsbereich können bereits mehr als 80% der Unternehmen auf Six Sigma-Projekterfahrungen verweisen. Im Vergleich hierzu haben jeweils „nur“ ca. ein Drittel der Befragten Six Sigma-Projekte in den Bereichen Konstruktion/ Entwicklung sowie Service/ Vertrieb durchgeführt. In Abb. 1-3 sind die Bereiche, in denen bereits Six Sigma-Projekte durchgeführt wurden, den Bereichen, in denen der größte Handlungsbedarf für Verbesserungen besteht, gegenübergestellt. Wie leicht ersichtlich, besteht vor allem im Bereich Produktion/ Fertigung eine deutliche Lücke zwischen der Intensität und der Notwendigkeit von Six Sigma-Verbesserungsmaßnahmen. Die Six Sigma-Methodik wird hier häufiger eingesetzt als eigentlich notwendig. Demgegenüber ergibt sich für die Bereiche Konstruktion/ Entwicklung sowie Service/ Vertrieb tendenziell ein Defizit in der Anwendung von Six Sigma respektive Design for Six Sigma. In einem viel beachteten Aufsatz leitete MICHAEL HAMMER7 (2002, S. 26ff.) die Gemeinsamkeiten und Unterschiede von Six Sigma und Prozessmanagement her. Unter letzterem subsumiert er sowohl die Verbesserung von Prozessen als auch das Re-Design. Im Ergebnis seiner Untersuchung kommt er zu dem Schluss, dass Six Sigma ein integraler Bestandteil des Prozessmanagements von Unternehmen ist und nicht umgekehrt. In einer prozessorientierten Organisation werden Six Sigma-Projekte aufgesetzt, um die strategischen Ziele, auf die ein Geschäftsprozess ausgerichtet ist, in Zukunft besser zu erreichen. Dabei ist Six Sigma unmittelbar mit dem DMAIC-Zyklus als strukturiertem Projektmanagementzyklus zur Verbesserung von bestehenden Prozessen verbunden.8 Jeder Versuch, den Six Sigma-Ansatz auf das Prozess-Re-Design als Teil des Prozessmanagements zu erweitern, ist nach der Auffassung von Hammer (2002, S. 32) zum Scheitern verurteilt: „Stretching the definition of Six Sigma to encompass process redesign and process management is like stretching the definition of bas-
7 8
President of Hammer & Company und Protagonist des Business Process Reengineering-Ansatzes (BPR) zu Beginn der 1990er Jahre. Hierfür gibt es eine Reihe von empirischen Belegen. So stellen z.B. amerikanische Unternehmen wie Bombardier, American Express, Merck und Motorola ihre Six Sigma-Aktivitäten unabhängig davon, in welchem Bereich der Wertschöpfungskette sie zum Einsatz kommen, auf den DMAIC-Zyklus ab. Die Grenzen der Vorgehensweise von Six Sigma liegen für diese Unternehmen beim Design von neuen Prozessen respektive Produkten (vgl. Hammer 2002, S. 30).
1.1 Problemstellung und Zielsetzung
9
ketball to include baseball. It is also likely to create confusion, because to most of the business world, Six Sigma is synonymous with DMAIC. Moreover, process design is not the same as product design, and DMADV's effectiveness as a tool for process design is still open to debate. Six Sigma should be part of process management, not the other way around”. Nach dieser Aussage ist und bleibt Six Sigma die konzeptionelle Grundlage für die „Reparatur von bestehenden Prozessen“. Die Übertragung des Konzeptes auf das „Neu-/ Re-Design von Prozessen und Produkten“ wird grundlegend skeptisch beurteilt.
100% 82%
80% 60% 41%
40%
47% 36%
38%
33%
20% 0% Produktion/ Fertigung
Entwicklung/ Konstruktion
Service/ Vertrieb
Bereiche, in denen Six Sigma Projekte bereits durchgeführt worden sind Bereiche, in denen der größte Handlungsbedarf für Verbesserungen besteht Basis: Schmieder 2005
Abb. 1-3: Six Sigma-Projekte und Handlungsbedarfe für Verbesserungen
Die Debatte, um den Aufwand und Nutzen von Design for Six Sigma, hat sich in den vergangenen Jahren deutlich zugespitzt. In einem Aufsatz bei Reuters kommt MICHAEL FLAHERTY (2004) zu dem Schluss, dass Six Sigma nicht länger ausreicht, um die hohen Erwartungen der Anleger und Investoren zu erfüllen. Diese beziehen sich vor allem auf die zu erwartenden Wachstumsraten eines Unternehmens. Eine kontinuierliche Gewinnzunahme über mehrere Jahre, die aus systematischen Prozessverbesserungen resultiert, ist häufig nicht genug. Wird der Fokus von DFSS allein auf die Erzeugung und Auslieferung von Produkten/ Dienstleistungen mit Null-Fehler-Qualität gelegt, dann gilt die langfristige Wettbewerbsfähigkeit von Unternehmen heute keineswegs mehr als gesichert. Für ein überdurchschnittliches Wachstum sind sowohl Kosteneinsparungen als auch Umsatzsteigerungen notwendig. Diese Anforderungen werden durch die
10
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
Anwendung von Six Sigma nur zum Teil erfüllt, so die Kritiker des Konzeptes. Unternehmen, die seit Anfang/ Mitte der 1990er Jahre den „Six Sigma Weg“ gegangen sind9, z.B. Motorola, Dow Chemical und General Electric, haben den Turnaround ihrer Profitabilität insbesondere dadurch geschafft, dass sie durch Six Sigma die Kostenseite besser in den Griff bekamen; die Umsatzseite wurde allenfalls indirekt durch die Six Sigma-Aktivitäten positiv berührt. Um Umsatzsteigerungen zu erzielen, sind neue Produkte erforderlich, die in immer kürzeren Zeitabständen auf den Markt gebracht werden und die Bedürfnisse/ Anforderungen der Kunden bestmöglich erfüllen (vgl. Töpfer/ Günther 2007a, S. 17). Nach JAY DESAI10 (2004) besitzt Six Sigma genau aus diesem Grund den Status einer „Durchbruchstrategie“ heute nicht mehr. Wie er an verschiedenen Unternehmensbeispielen zeigt, lassen sich mit Six Sigma keine wirklichen Innovationen generieren, da die Methodik die Kreativität im Unternehmen sprichwörtlich erstickt. Außerdem hält das „klassische“ Six Sigma keine effektiven Lösungen für die Entwicklung neuer Produkte bereit. Die Aktivitäten, die derzeit unter dem Schlagwort „Design for Six Sigma“ diskutiert werden, sind nach seiner Auffassung in vielen Fällen noch unausgereift. Deshalb laufen Unternehmen, die auf die Anwendung von prozessbezogenem Six Sigma schwören, langfristig Gefahr, Effizienz auf Kosten der Effektivität zu steigern. Spätestens wenn Kundenunzufriedenheit nicht die Folge von einzelnen Fehlern im Leistungserstellungsprozess ist, sondern aus einem mangelhaften Produktdesign resultiert, ist der Zeitpunkt für die Einleitung produktbezogener Verbesserungen gekommen. Im Schumpeter´schen Sinne handelt es sich bei Innovationen um die schöpferische Zerstörung bisheriger Problemlösungen. Die Überführung eines Subjekts/ Objekts vom Zustand t0 in den Zustand t1 bezeichnet den Innovationsprozess, der – in Abhängigkeit von der Situation – mehr oder weniger bewusst gesteuert werden kann. Dass Six Sigma und Innovationen „Hand in Hand“ gehen, wird – trotz der vorstehend genannten Bedenken – von einer Reihe von Unternehmensführern in Amerika eindeutig positiv beurteilt (vgl. u.a. Gupta 2005; Lee 2004). Durch einen effektiven DFSS-Ansatz sollte es möglich sein, Produkte und Dienstleistungen von Grund auf so zu konzipieren, dass sie die Anforderungen der Kunden auf einem 6σ-Niveau bei Markteinführung erfüllen. Voraussetzung hierfür ist ein ausgewogenes Verhältnis von effizienten Prozessen und innovativen Produkten, oder wie MICHAEL CYGER11 (2004) es zusammenfasst: „What we need are individuals at all key points in a company who can exhibit both ‚A’ thinking and ‚B’
9
10 11
In den USA wurde die Anzahl der Unternehmen, die Six Sigma nachhaltig anwenden, im Jahr 2004 auf ca. 1.500 geschätzt; in Deutschland optimierten zur gleichen Zeit ca. 150 Unternehmen ihre Prozesse mit Six Sigma (vgl. Göggelmann 2004, S. 97). Leiter des Instituts für Global Competitiveness und vormals langjähriger Berater bei General Electric; Quelle: Flaherty 2004, S. 1. Gründer des weltweit führenden Six Sigma Internetportals www.isixsigma.com; Quelle: Lee 2004, S. 1.
1.1 Problemstellung und Zielsetzung
11
thinking, according to time and need. We cannot make money just by innovating, and we cannot make money just by having efficient processes. We need both.” Die Dringlichkeit von diskontinuierlichen Verbesserungen (Innovationen) auf der Produkt- und Prozessseite wird u.a. von der ACCENTURE INNOVATIONSSTUDIE (2004) bestätigt. Nach dieser Studie messen deutsche Unternehmen der Optimierung des „magischen Dreiecks“ Kosten – Zeit – Qualität die größte Bedeutung bei. Über die gezielte Durchführung von Innovations-/ Verbesserungsprojekten sollen in erster Linie die unternehmensinternen Kosten gesenkt, die Reaktionsfähigkeit beschleunigt (Zeit) und die Fehlerquote verringert werden (Qualität). Dabei ist eine ausgewogene Aufteilung der Ressourcen auf Produkt- und Prozessverbesserungen notwendig, um eine überdurchschnittliche Rendite zu erzielen. Unternehmen, die Produkt- und Prozessinnovationen ausgewogen vorantreiben, folgen dem Grundsatz „Die richtigen Dinge richtig tun“. Durch die simultane Optimierung von Effizienz und Effektivität verzeichnen sie gegenüber Unternehmen mit nur einer Stoßrichtung den höchsten Return on Investment. Als Gründe, warum Unternehmen nicht zu den erfolgreichen Innovatoren gehören, werden genannt: Strategische Schwächen, unklare Verantwortlichkeiten, unzureichendes ProzessKnow-how und mangelnde interne Ressourcen.12 In der o.g. Studie ist eindeutig ersichtlich, dass auch bei „High Performance Innovators“ Innovationen häufig nicht einer bestimmten Strategie folgen, sondern eher einem kreativen Entwicklungsgang entspringen: Wenn eine gute Idee geboren ist, dann konkurriert sie zunächst mit anderen guten Ideen um die Aufmerksamkeit und Ressourcen auf der Ebene des verantwortlichen Managements. Im Fall, dass sie sich durchsetzen kann, wird sie weiterverfolgt; andernfalls gerät sie auf nicht absehbare Zeit in Vergessenheit. Vor diesem Hintergrund stellt sich die Frage, wie sich kreative Prozesse in Unternehmen wirkungsvoll in vorgegebene Bahnen lenken lassen. Das Management hat dabei die Aufgabe, über organisatorische Strukturen und administrative Systeme den generellen Rahmen für eine erfolgreiche Innovationstätigkeit zu setzen. Nach Prisching (2005, S. 239) ist dies äußerst schwierig, denn „Der Prozess, in dem etwas Neues auftritt, ähnelt in Wahrheit mehr einem evolutionären als einem geplanten Prozess.“13
12
13
Nach den Studienergebnissen sind nur 39% der befragten Unternehmen in der Lage, die oben genannten Hürden im Innovationsprozess erfolgreich zu meistern. Bei der Gruppe der „Low Performance Innovators“ fällt auf, dass sie zwar konkrete Ziele für Verbesserungsaktivitäten formulieren, diese aber aufgrund einer fehlenden bzw. ungeeigneten Strategie zum überwiegenden Teil nicht realisieren können. Über 50% der Befragten sehen in der Kombination von mangelhafter Strategie und unklaren Verantwortlichkeiten die Hauptursache für das Scheitern von Innovationsprojekten. Wie Prisching (2005, S. 239) weiter ausführt, tritt an die Stelle der technokratischen „Maschinensprache“ in den 1990er Jahren ein neues Vokabular, welches aus der Biologie, der Systemtheorie, der Neurologie und der Informatik entlehnt ist, z.B. System, Entropie, Evolution, Netzwerk, Selbstorganisation, flexible Spezialisierung, Outsourcing, autonome Einheiten, Synapsen und Neuronen. Für die Betriebswirtschaftslehre
12
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
1.1.3
Theoriegeleitete Verbesserung des DFSS-Problemlösungszyklus
Ziel der vorliegenden Arbeit ist es, einen DFSS-Problemlösungszyklus zu entwickeln, der den Anforderungen im F&E-Prozess besser gerecht wird. Ausgangspunkt der Betrachtung bildet der DMADV-Zyklus, der von vielen Six Sigma-Anwendern bei der Neuproduktplanung/ -entwicklung genutzt wird. Die strukturellen und prozessualen Veränderungen, die durch den Einsatz des DMADV-Zyklus erzielt werden sollen, sind in Ausmaß und Reichweite i.d.R. deutlich größer als beim DMAIC-Zyklus. Konkret geht die Zielstellung dahin, durch die systematische Planung und Kontrolle aller beteiligten Wertschöpfungsprozesse neue Produkte/ Dienstleistungen auf einem 6σ-Niveau zu entwickeln. Infolgedessen kann bereits zum Serienstart Null-Fehler-Qualität ausgeliefert werden; das Ausmerzen von „Kinderkrankheiten“ zu Beginn des Produktlebenszyklus gehört somit der Vergangenheit an. Voraussetzung hierfür ist die fehlerfreie Umsetzung der Kundenanforderungen in Produkt- und Prozessmerkmale. Dies geschieht durch stringentes Abarbeiten der fünf Phasen des DMADV-Zyklus unter Nutzung der darin vorgesehenen QM-Methoden. Obwohl das Vorgehen nicht immer zum gewünschten Ergebnis führt (vgl. Abschnitt 1.1.2), stellt der DMADV-Zyklus zurzeit „Best practice“ im Bereich der DFSS-Produktentwicklung dar. Dass die Kundenanforderungen oftmals verfehlt werden, liegt vor allem darin begründet, dass das Entwicklungsteam sowohl risikofreudiges als auch risikoaverses Verhalten an den Tag legen muss. Durch risikofreudiges Verhalten sollen auf der einen Seite möglichst innovative Produkte entstehen, die den Kunden begeistern. Mögliche Mängel in der Ausführung der neuen, einzigartigen Merkmale werden vom Kunden weniger stark wahrgenommen als bei einem „Standardprodukt“, das diese Merkmale nicht besitzt. Gleichzeitig steigt nach dem KanoModell (Berger et al. 1993) die Kundenzufriedenheit überproportional, sofern die Ausprägung der entsprechenden Produktmerkmale (sehr) gut ist. Risikoaverses Verhalten soll auf der anderen Seite bewirken, dass an Produkten und Prozessen, die sich in der Vergangenheit gut bewährt haben, festgehalten wird. Zu erwartende Qualitätseinbußen in der Produktion und daraus folgende Reklamationen der Kunden werden dadurch vermieden. Bei zu starkem Festhalten an alten Strukturen besteht jedoch die Gefahr, dass das neu entwickelte Produkt im Vergleich zum Wettbewerb als „wenig innovativ“ gilt und die Nachfrage hinter den Erwartungen der Unternehmensleitung zurück bleibt. Unter diesen Voraussetzungen ist die Forderung nach Null-Fehler-Qualität eher fraglich. Produktentstehungsprozesse umfassen im Zeitablauf sowohl kreative als auch analytische Phasen. Während kreative Phasen dazu dienen, das Bestehende in Frage zu stellen und nach neuen Lösungswegen zu suchen, sind die analytischen Phasen darauf ausgerichtet, die gefundenen Ideen/ Lösungsansätze zu konkretisie-
bedeutet dies der Weg zu einer „unternehmerischen Managementlehre“, anstelle einer herkömmlichen Ansammlung von Definitionen, Kästchen und Pfeilen.
1.1 Problemstellung und Zielsetzung
13
ren und im Hinblick auf die Umsetzbarkeit zu überprüfen. Entscheidend für eine erfolgreiche Produktentwicklung ist die „richtige Mischung“ der beiden Phasentypen. Effektive Vorgehensmodelle der Produktentwicklung zeichnen sich dadurch aus, dass sie Kreativität und Systematik optimal verbinden (vgl. z.B. Günther 2004, S. 1). Im Fall des DMADV-Zyklus ist diese Optimalität noch nicht gefunden; die einzelnen Phasen sind – bis auf die Design-Phase – durch ein stark analytisches Vorgehen geprägt. Dieses wird i.d.R. durch einen gezielten Methodeneinsatz14 gefördert, z.B. unterstützt der Einsatz der Fehler-Möglichkeits- und Einfluss-Analyse (FMEA) das systematische Aufdecken von Fehlern im Prozess und/ oder am Produkt. Die phasenspezifische Anwendung von Instrumenten und Methoden entscheidet letztendlich darüber, wie effizient der PEP abläuft. Im Fall des DMADV-Zyklus sind einschlägig bekannte QM-Methoden den einzelnen Phasen fest zugeordnet, z.B. statistische Testverfahren in der Analyse-Phase, so dass zunächst von einer relativ hohen Effizienz ausgegangen werden kann. Um die „richtige Mischung“ von Phasen und Methoden zu finden, wird in der Praxis üblicherweise inkremental vorgegangen. Die Methode des Inkrementalismus15 beschreibt ein schrittweises Fortbewegen von vertrauten Lösungen, also z.B. das Auffinden eines verbesserten Problemlösungszyklus im F&E-Bereich ausgehend vom DMADV-Zyklus. Abwertend sprechen Forscher häufig von der „Methode des Durchwurstelns“ (vgl. Lindblom 1975, S. 161ff.), was aber keineswegs als ineffizient hingestellt werden muss. Denn besonders in Situationen, die sich durch eine hohe Unsicherheit/ Unübersichtlichkeit auszeichnen, besitzt das inkrementale (schrittweise) Vorgehen eine Überlegenheit gegenüber dem synoptischen (ganzheitlichen) Vorgehen. Der Nachteil ist insbesondere darin zu sehen, dass durch geringfügige Änderungen keine innovativen, umfassenden Lösungen zum Vorschein kommen, selbst wenn sie erforderlich wären. Obwohl die Ziele nicht explizit definiert werden, verläuft der Entscheidungsprozess verfahrensrational, d.h. die Schritte zur Entscheidungsfindung sind im großen und ganzen gut nachvollziehbar (vgl. Berger/ Bernhard-Mehlich 2002, S. 140ff.): •
Der Entscheider sucht (nur) nach vertrauten Mittel-Zweck-Relationen.
•
Die Modifikation des Bestehenden erfolgt in kleinen, marginalen Schritten.
•
Es findet keine endgültige Problemlösung statt, sondern ein fortwährendes Suchen nach Weiterentwicklungen der bestehenden Lösung.
14 15
Unter einer „Methode“ wird eine strukturierte Handlungsvorschrift zur Erlangung eines vorgegebenen Ziels verstanden (vgl. Fähnrich/ Opitz 2006, S. 98). Das Modell des Inkrementalismus in der Organisationstheorie geht von einem begrenzten Suchverhalten der Akteure nach einer befriedigenden Lösung aus. Dabei werden lokale anstelle von globalen Optima angestrebt. Der Entscheider vergleicht nacheinander alternative Handlungsweisen, bis er eine zufriedenstellende gefunden hat. Zielbestimmung sowie umfassende Analysen von Alternativen und Konsequenzen werden hierdurch überflüssig (vgl. Simon 1976, S. 80ff.).
14
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
Gegenüber dem Modell des Inkrementalismus handelt der Entscheidungsträger nach dem Modell der (vollkommen) rationalen Wahl unbeeinflusst von persönlichen Werten und Gruppennormen. Die Grundlage für seine Entscheidung bildet die Nutzenmaximierung für das Unternehmen. Voraussetzung hierfür ist, dass es nur einen Entscheider gibt, der ein bestimmtes Ziel verfolgt. Als Einzelperson besitzt der Entscheidungsträger vollständige Informationen über die Ziele der Organisation, die Entscheidungsprobleme, die potenziellen Handlungsalternativen mit den jeweiligen Konsequenzen und dem daraus resultierenden Nutzen/ Wert für das Unternehmen. Durch sein synoptisches, d.h. ganzheitliches und planvolles Vorgehen ist es ihm möglich, die nutzenmaximale Lösung unter den gegebenen Alternativen zu finden und dann auch zu implementieren. Nach dem TheoriePraxis-Verständnis des Methodischen Konstruktivismus16 vollzieht sich der Problemlösungsprozess auf insgesamt drei Ebenen (siehe Abb. 1-4). Durch Einfügen der Theoriegeleiteten Praxis als Bindeglied zwischen Primärer und Theoretischer Praxis wird erklärt, warum Menschen ihre Handlungsweisen lernend verändern (können) und damit eine Dynamik des Erkenntnisfortschritts in Gang setzen (vgl. hierzu und im Folgenden Scherer 2002, S. 24ff.): 1.
Auf der Ebene der Primären Praxis bewältigen Menschen ihr Leben ohne bewusste und reflektierte Anwendung von Theorien. Es wird angenommen, dass der Mensch in der Lage ist, Know-how (unbewusst) zu aktivieren, um damit soziale, technische und/ oder politische Probleme zu lösen. In diesem Zusammenhang wird offen gelassen, ob das Handeln zum Erfolg/ Misserfolg bei der Bewältigung der jeweiligen Lebens-/ Tätigkeitssituation beiträgt.17 Die Verbesserung des DMADV-Zyklus auf der Ebene der Primären Praxis erfordert vor allem „alltagsweltliches Können“ der Akteure. Dieses ergibt sich durch Sammeln von Erfahrungen im Umgang mit unterschiedlichen Methoden und Vorgehensweisen im Entwicklungsprozess. In Bezug auf Six Sigma führt alltagsweltliches Können dazu, dass von den Verantwortlichen der Me-
16
17
Das Verhältnis von Theorie und Praxis, wie es insb. im Kritischen Rationalismus zugrunde gelegt wird, gilt als konventionelle Betrachtungsweise. Sie basiert auf der Annahme, dass die Geltung empirischer und/ oder analytischer Sätze auf Erfahrung beruht. Das Ziel der Wissenschaft besteht dabei nicht in der Verifikation wissenschaftlicher Aussagen, sondern in der Falsifikation und damit im Herausstellen von bewährtem Wissen (vgl. Popper 1969, S. 18). Infolgedessen geht im Begründungsprogramm des Kritischen Rationalismus die Theorie der Praxis voraus. Nach Scherer/ Dowling (1995, S. 220f.) erfüllt die Primäre Praxis zwei Funktionen: Zum einen gibt sie Anlass, systematisch und methodisch über gegenwärtiges und zukünftiges Handeln nachzudenken. Da Menschen nach Erfolg und nicht nach Misserfolg ihres Tuns trachten, entsteht nach missglückten Handlungen überhaupt erst die Notwendigkeit systematisch-methodisch vorzugehen. Zum anderen stellt sie die Voraussetzung dar, um mit methodischem Denken zu beginnen. Denn ohne Vorhandensein von – zumindest ansatzweise gelungenem – praktischem Können ist kein Fortschreiten in methodischer Hinsicht möglich.
1.1 Problemstellung und Zielsetzung
15
thodeneinsatz und die Phasenabfolge des DMADV-Zyklus gezielt verändert werden kann, um die Erfolgsaussichten von DFSS zu erhöhen. 2.
Auf der Ebene der Theoretischen Praxis realisieren Menschen bei verschiedenen Gelegenheiten, dass ihr Tun/ Handeln nicht ohne Weiteres gelingt. I.d.R. unternehmen sie dann besondere Anstrengungen, um sich über die Situation und die spezifischen Bedingungen des Erfolgs im Klaren zu werden. In diesem Zusammenhang analysieren sie systematisch die UrsachenWirkungs-Beziehungen, um auf dieser Grundlage Mittel-Zweck-Relationen abzuleiten. Im Gegensatz zur Primären Praxis bringen sich die Beteiligten hier „in Distanz zu dem, was vorher selbstverständlich war, um ‚objektiv’ zu bestimmen, was der Fall ist, bzw. was sein soll“.18 Indem der Akteur die situativen Einflüsse des Erfolgs/ Misserfolgs von DFSS-Aktivitäten analysiert, betreibt er ein „vorbereitendes Nachdenken“ über mögliche Verbesserungen. Durch implizites und/ oder explizites Aufstellen von Ursachen-Wirkungsbeziehungen werden zunächst die Stärken und Schwächen des DMADV-Zyklus herausgearbeitet. Anschließend können auf dieser Basis Veränderungen theoretisch „durchgespielt“ werden. Gegenüber betrieblicher Verbesserungsarbeit zeichnet sich der wissenschaftliche Analyseprozess durch die Bildung abstrakter Modelle aus, die Aussagen mit einem relativ hohen Verallgemeinerungsgrad erlauben.
3.
Auf der Ebene der Theoriegeleiteten Praxis erörtern Menschen Geltungsansprüche, um Wissen zu bilden, mit dem sie soziale, technische und/ oder politische Probleme lösen können. Wird das akkumulierte Wissen zur Problemlösung verwendet, vollzieht sich der Übergang von der theoretischen zur theoriegeleiteten Praxis. Dabei ist es irrelevant, ob das Wissen nur zur empirischen Absicherung oder zur tatsächlichen Problemlösung eingesetzt wird. Die Rückkopplung zur Primären Praxis erfolgt genau dann, wenn sich die Problemlösungshandlungen bewähren und in (unproblematisch funktionierende) Routinen überführen lassen. In diesem Fall tritt der Aspekt der kritischen Erörterung/ Auseinandersetzung mit verschiedenen Geltungsansprüchen wieder in den Hintergrund. Solange keine (neuen) Probleme auftreten, haben die Akteure keine Veranlassung, sich in Distanz zu ihren Handlungen zu bringen – Sie tun die Dinge einfach!
18
Dazu werden (aus der Distanz) Geltungsansprüche zwischen Beobachter und Akteur in jedem Lebensbereich erörtert, und zwar in Bezug auf (a) Verständlichkeit der sprachlich vermittelten Aussagen des Akteurs, (b) Wahrheit der unterstellten Zweck-MittelRelationen des Akteurs, (c) Wahrhaftigkeit der Aussagen, d.h. der Akteur meint tatsächlich, was er sagt, und (d) Richtigkeit der Aussagen, d.h. die vom Akteur anvisierten Ziele sind legitim. Theoretische Praxis ist nicht mit Wissenschaft gleichzusetzen, da auch ein Wissenschaftler über (unreflektierte) Routinen verfügt; sie stellt eine institutionalisierte Form der theoretischen Praxis dar (vgl. Habermas 1973).
16
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
Am Beispiel des DMAIC-Zyklus, der im Rahmen von Six Sigma branchenübergreifend genutzt wird, lässt sich die geschilderte Situation gut nachvollziehen. Aufgrund der vielfach dokumentierten Erfolgsbeispiele und dem nachgewiesenen Wirkungsgrad wird der Problemlösungszyklus als institutionalisiertes Element von vielen Unternehmen unreflektiert übernommen. Zur Diskussion steht allenfalls der Einsatz bestimmter Methoden, welche die Projektarbeit (noch) effizienter gestalten sollen. Die unternehmensspezifischen Abweichungen im Methodeneinsatz tragen jedoch eher marginalen Charakter. Sie stellen das Gesamtkonzept Six Sigma zur prozessbezogenen Verbesserung nicht in Frage.
Theoriegeleitete TheoriegeleitetePraxis Praxis
„Wissensbasiertes Handeln“ des Akteurs zur Problemlösung bzw. zur Überprüfung der aufgestellten Theorie DFSS: Verbessern des DMADV-Zyklus auf der Basis analysierter + erkannter Ursachen-Wirkungsketten
Theoretische TheoretischePraxis Praxis
„Vorbereitendes Nachdenken“ d. Akteurs über situative Einflüsse des Erfolgs + abgeleiteter U-W-Beziehungen DFSS: Analysieren von DFSS-Projekten mit dem Ziel, Gründe für den Erfolg/ Misserfolg zu identifizieren
Primäre PrimärePraxis Praxis
„Alltagsweltliches Können“ des Akteurs führt zum Handeln/ Verhalten ohne theoretische Einsicht DFSS: Durchführen von DFSS-Projekten anhand des DMADV-Zyklus als „State of the art“-Vorgehensmodell
Basis: Scherer 2002, S. 26
Abb. 1-4:
Von der Primären Praxis zur Theoriegeleiteten Verbesserung des DFSSProblemlösungszyklus
Anders bei Design for Six Sigma: Hier kann der DMADV-Zyklus nicht ohne Weiteres als „unproblematisch funktionierende Routine“ bezeichnet werden. Unabhängig davon, von wo die Optimierungsanstrengungen ausgehen – Wissenschaft oder Praxis, ist ein „wissensbasiertes Handeln“ der Akteure zur Problemlösung notwendig, um zu einem verbesserten Vorgehensmodell zu gelangen. Ziel ist es, den DMADV-Zyklus theoriegeleitet so zu verändern, dass er aus Sicht der Betroffenen eine deutliche Verbesserung gegenüber dem bisherigen Vorgehen darstellt. Dies erhöht die Wahrscheinlichkeit, dass der überarbeitete DFSS-Zyklus als institutionalisiertes Element in die Primäre Praxis übernommen wird. Durch die Berücksichtigung der Ebene der Theoretischen Praxis soll darüber hinaus ein generischer Modellrahmen entwickelt werden, der es ermöglicht, praxisbezogene Problemlösungszyklen – auch außerhalb von DFSS – im Hinblick auf ihre Problemlösungsfähigkeit zu analysieren und ggf. theoriegeleitet zu verbessern.
1.2 Untersuchungs- und Forschungsdesign
1.2
17
Untersuchungs- und Forschungsdesign
1.2.1
Forschen im „mode 2“ – Verbindung von rigour und relevance
Nach Whitley (1985, S. 7) ist die praktische Relevanz von Wissenschaft kein vordergründiges, sondern eher ein nachgeordnetes, technisches Problem. Denn Wissenschaft und Praxis finden in erster Linie dadurch zueinander, dass eine geeignete soziale Infrastruktur als vermittelnde „Brücke“ zwischen wissenschaftlicher und praktischer Ebene vorliegt. Er und andere Forscher vertreten deshalb die These, dass wissenschaftliche Akzeptanz („rigour“) und praktische Relevanz („relevance“) sich nicht ausschließen müssen, sondern grundsätzlich miteinander vereinbar sind. Im Bereich Six Sigma ist dieser Brückenschlag nur z.T. gegeben. Wissenschaft bezog sich hier in der Vergangenheit in erster Linie auf die Beschreibung der Anwendung und Umsetzung des Managementkonzeptes. Auf der Basis von Unternehmensbefragungen und der Auswertung von Fallstudien wurde versucht, die Anwendungsvoraussetzungen für eine erfolgreiche Six Sigma-Implementierung zu eruieren (vgl. z.B. die Befragungsergebnisse von Schmieder 2003/ 05 sowie die Benchmarking-Resultate von DynCorp 2003). Verbesserungen und Weiterentwicklungen des Konzeptes gehen maßgeblich von beratenden Gesellschaften und/ oder den Six Sigma-Anwendern selbst aus. Beispielhaft ist zum einen der von der GEORGE GROUP (2003) entwickelte Lean Six Sigma-Ansatz19 zu nennen. Zum anderen gibt es Bestrebungen, Six Sigma mit bestehenden Betriebssoftware-Systemen, z.B. SAP R/3, zu kombinieren (vgl. Burton/ Sams 2005, S. 48ff.). Die Orientierung an praktischen Problemlösungen, inkl. der Weitergabe von mehr oder weniger wissenschaftlich fundierten Handlungsempfehlungen, stehen dabei naturgemäß im Vordergrund. Die praktische Relevanz von Managementwissenschaften, in der die vorliegende Arbeit verankert ist, wird seit einigen Jahren, vor allem in den USA, intensiv diskutiert (vgl. z.B. Huff 2000; Rynes et al. 2001). Viele Diskurse zum TheoriePraxis-Verhältnis gehen dabei auf die Arbeit von Gibbons et al. (1994) zurück. Die Kernforderungen des von ihnen vertretenen „mode 2“-Konzeptes sind •
die Auflösung der Grenzen zwischen wissenschaftlicher und unternehmensbezogener Kommunikation sowie
•
die simultane Orientierung an praktischer Problemlösung und wissenschaftlicher Analysegenauigkeit.
19
In jüngster Zeit gibt es eine verstärkte Tendenz zu „Lean Six Sigma“. Dabei geht es in erster Linie um eine konsequente Kombination der Philosophie des Lean Production im Sinne des Toyota-Produktions-Systems (TPS) mit dem von Motorola, General Electric, Siemens et al. erfolgreich eingeführten und angewandten Six Sigma-Projektmanagements (vgl. Töpfer/ Günther 2007a, S. 26). Ziel ist es, die Wirtschaftlichkeit des gesamten Verbesserungswesens im Unternehmen zu erhöhen.
18
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
Ziel ist es, von einem theorieorientierten, auf wissenschaftlichen Kommunikationsgewohnheiten basierenden „mode 1“ der Wissensproduktion zu einem praxisorientierten, auf Probleme der Praktiker ausgerichteten „mode 2“ zu gelangen. In Abb. 1-5 ist das dominierende Schema zur Klassifizierung unterschiedlicher Forschungstypen in den Sozial- und Wirtschaftswissenschaften dargestellt. Es basiert auf einen viel zitierten Artikel der drei Forscher Anderson/ Herriot/ Hodgkinson (2001, S. 395) und hilft bei der Einordnung der vorliegenden Arbeit.
Hoch
Quadrant 1: „Popularist Science“
Quadrant 2: „Pragmatic Science“ Mode 2: Analyse von „Six Sigma“ mit methodischer Stringenz und praktischer Relevanz
Praktische/ wirtschaftliche Relevanz
Quadrant 4: „Puerile Science“
Quadrant 3: „Pedantic Science“
Niedrig Niedrig
Theoretische/ methodische Exaktheit
Hoch
Basis: Anderson/ Herriot/ Hodgkinson 2001, S. 395
Abb. 1-5:
Einordnung der Dissertationsschrift in die Forschungstypologie nach Anderson/ Herriot/ Hodgkinson (2001)
Die Einteilung unterschiedlicher Wissenschaftsströmungen erfolgt nach den zwei Dimensionen „Theoretische/ methodische Exaktheit“ sowie „Praktische/ wirtschaftliche Relevanz“. Durch Zuordnung der Merkmalsausprägungen „Niedrig“ und „Hoch“ zu jeder Dimension ergibt sich ein Vier-Quadranten-Schema, anhand dessen wissenschaftliche Arbeiten und Aufsätze auf dem Gebiet der Sozial- und Wirtschaftswissenschaften verankert werden können: •
Quadrant 1: „Popularist Science“: Das populärwissenschaftliche Feld umfasst u.a. Beiträge von Unternehmensberatern, die sich um die Verbreitung von bestimmten Konzepten, auch als Managementmoden bezeichnet, bemü-
1.2 Untersuchungs- und Forschungsdesign
19
hen. Besonderer Wert wird auf die praktische Relevanz, Aktualität und Popularität gelegt; das wissenschaftliche Vorgehen steht im Hintergrund. •
Quadrant 2: „Pragmatic Science“: Zur pragmatischen Wissenschaft gehören alle anwendungsorientierten Forschungsarbeiten auf dem Gebiet der Managementwissenschaften. Das Ziel einer „guten Wissenschaft“ besteht darin, sowohl „streng/ exakt“ in Bezug auf die theoretischen und methodischen Grundlagen als auch „relevant/ verwertbar“ in Bezug auf die anvisierten Stakeholder, z.B. Manager, Mitarbeiter und Kunden, zu sein. Im Vordergrund steht ein direkter Theorie-Praxis-Bezug, wie er auch in dieser Arbeit unmittelbar verfolgt wird (vgl. Hodgkinson et al. 2001, S. S46).
•
Quadrant 3: „Pedantic Science“: Zum Feld der exakten Wissenschaft gehören in erster Linie akademische Disziplinen, die heute als feste Institutionen im Wissenschaftsbetrieb gelten, z.B. Arbeits- und Organisationspsychologie. Die vormals zumeist praxisorientierten Disziplinen wurden im Zuge der Akademisierung immer technischer, eigendynamischer und für die Allgemeinheit unverständlicher. Die Wissenschaft wird dann „pedantisch“.
•
Quadrant 4: „Puerile Science“: Als nutzlose Wissenschaft bezeichnet man jene Forschungsbemühungen, die primär den Anschein des „kindlichen, verspielten“ tragen. Sie werden oftmals nur aufgrund von Begutachtungsprozessen in Fachzeitschriften legitimiert. Weder die „Praktische Relevanz“ noch der „Theoretische Anspruch“ spielen hierbei eine herausragende Rolle.
Die abgeleiteten Forderungen aus dem viel beachteten „mode 2“-Konzept von Gibbons et al. (1994) sind in den Managementwissenschaften bislang wenig erfolgreich geblieben. Insbesondere gibt es Hinweise darauf, dass die Managementwissenschaften der gestellten Anforderung eines Ausgleichs zwischen Theorie und Praxis nicht gerecht wird und es stattdessen zu einem Trade-off zwischen „rigour“ und „relevance“ kommt (vgl. hierzu und im Folgenden Nicolai 2004, S. 103ff.). Wie empirische Studien nahe legen, geht die wissenschaftliche Akzeptanz i.d.R. auf Kosten der praktischen Relevanz und umgekehrt. Es wird immer nur einer Richtung nachgegangen/ entsprochen, also entweder methodischer „Strenge“ oder praktischer Relevanz, aber nicht beiden zugleich (vgl. Shrivastava 1987). Infolgedessen sind wissenschaftliche Artikel, die von Wissenschaftlern in renommierten Journalen veröffentlicht werden, nach wie vor nur schwer von Praktikern „konsumierbar“. Als Grund für diese Entwicklung lassen sich system- und problemtheoretische Erklärungsansätze angeben (vgl. Gopinath/ Hofman 1995). Bei der Bewertung von Managementkonzepten, wie z.B. Six Sigma, fallen Theorie- und Praxissicht häufig auseinander, da es kein einheitliches Effizienzkriterium gibt. In der Praxis existiert die Vorstellung eines „Marktes von Problemlösungstechniken“, die in unmittelbarer Konkurrenz zueinander stehen. Eine hohe Verbreitung von bestimmten Techniken wird als Indiz für eine hohe wissenschaftliche Validität angesehen. Hier liegt die Annahme zugrunde, dass sich das beste auf dem Markt verfügbare Konzept im Wettbewerb durchsetzt (vgl. Marcus et al.
20
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
1995). In der Wissenschaft existiert demgegenüber eine klare Vorstellung über die Definition von Effizienz und Effektivität zur Messung des Erfolgs von Problemlösungstechniken. Diese erfolgt auf theoretischer Grundlage und in enger Rückbindung an das bestehende Publikationsnetzwerk.20 Nach dem bekannten Philosophen und Wissenschaftstheoretiker KARL R. POPPER (1902-1994), auf den die Methodenlehre des Kritischen Rationalismus zurückgeht, kann die Wissenschaft jedoch keine endgültigen wahren Theorien/ Aussagen hervorbringen (vgl. Popper 1935, 1969). Vielmehr kann sie lediglich Vorschläge zur Problemlösung machen, die auf theoretischen Konzepten basieren. Diese sind aber jeweils als vorläufig anzusehen. Entsprechend dem Prinzip von Versuch und Irrtum steht nicht die Bestätigung (Verifizierung), sondern die Widerlegung (Falsifizierung) der aus den Theorien abgeleiteten Hypothesen im Vordergrund. Unter dieser Sichtweise ist die Wissenschaft dazu angehalten, über die Zeit immer neuere und bessere Problemlösungsvorschläge zu entwickeln (Prinzip der schöpferischen Zerstörung). Dies bezieht sich nicht nur auf die naturwissenschaftliche Forschung, sondern auch auf den hier betrachteten Untersuchungsgegenstand „Managementkonzepte für Unternehmen“ (vgl. Töpfer 2007a, S. 18ff.). Um zu neuen wissenschaftlichen Erkenntnissen über den Untersuchungsgegenstand zu gelangen, existieren aus wissenschaftstheoretischer Sicht genau genommen zwei Ansätze. Der erste Ansatz geht von der Annahme aus, dass ein grundsätzlich Theorie-geleiteter Wissenschaftszugang möglich ist, bei dem die „Handlungspraxis der Menschen“ durch die explizite und/ oder implizite Anwendung von Theorien geleitet wird. Beispiele für theorieabhängige wissenschaftstheoretische Ansätze/ Positionen sind der o.g. „Falsifikationismus“ nach Popper und die „Forschungsprogramme“ nach IMRE LAKATOS (1922-1974). Der zweite Ansatz geht demgegenüber von einem Praxis-geleiteten Wissenschaftszugang aus, bei dem – auf erster Stufe – ein theorieunabhängiges Handeln und Verhalten der Akteure (Forscher) unterstellt wird (vgl. Scherer 2002, S. 26). Auf „alltagsweltliches Können“ als Basis für strukturiertes, methodisches Denken stellt z.B. der „(Neue) Experimentalismus“ nach DEBORAH G. MAYO (1996) ab. Nach dieser sind für wissenschaftliche Revolutionen, d.h. die Entdeckung grundlegend neuer wissenschaftlicher Zusammenhänge, keine großangelegten Änderungen in den theoretischen Annahmen/ Bezugspunkten notwendig. Vielmehr ist wissenschaftlicher Fortschritt mit dem kontinuierlichen Zuwachs an experimentellem Wissen gleichzusetzen. Unabhängig vom zugrunde liegenden Wissenschaftsverständnis gilt der bekannte Ausspruch von Popper (1969, S. 71).: „Die Erkenntnis beginnt nicht mit der Wahrnehmung, Beobachtung oder Sammlung von Daten 20
Probleme ergeben sich insoweit, als dass (a) beim Messvorgang nicht alle unabhängigen Variablen erfasst werden (können) und (b) die Performance als abhängige Variable nur im Zusammenhang mit einer bestimmten Auswahl unabhängiger Variablen, die aus dem zugrunde gelegten theoretischen Modell abgeleitet sind, gemessen wird (vgl. March/ Sutton 1997; Nicolai/ Kieser 2002).
1.2 Untersuchungs- und Forschungsdesign
21
oder Tatsachen, sondern sie beginnt mit Problemen [...] und ihren Lösungsversuchen durch Hypothesenbildung, Theorien und/ oder Vermutungen.“ Die Probleme, welche in unserem Fall als Ausgangspunkt der Forschungsbemühungen dienen, ergeben sich aus der Übertragung des Managementkonzeptes Six Sigma auf den F&E-Bereich von Unternehmen (vgl. Abschnitt 1.2.2). Folgt man dem Praxis-geleiteten Wissenschaftszugang, dann stellen sowohl persönliche Erfahrungen des Forschers als auch empirische Fakten, die durch (sorgfältige und unvoreingenommene) Beobachtungen und/ oder Experimente gewonnen werden, die Grundlage des wissenschaftlichen Erkenntnisprozesses dar.21 Nach induktivistischem Prinzip werden diese direkt zur Ermittlung von (universellen) Gesetzmäßigkeiten und Theorien herangezogen, wobei das Prinzip der logischen (validen) Induktion angewendet wird (vgl. hierzu und im Folgenden Chalmers 1999, S. 41ff.). Aus den so gewonnenen, allgemeingültigen Aussagensystemen werden anschließend Erklärungen und Vorhersagen deduziert sowie Gestaltungsempfehlungen für die Praxis abgeleitet. Im Ergebnis liegt eine „Theoriegeleitete Praxis“ vor, auf die im vorliegenden Fall systematisch hingearbeitet wird. Dem deduktivistischen Prinzip, bei dem die Theorie als allgemeines Aussagensystem den Ausgangspunkt bildet, um wissenschaftliche Aussagen (Fakten) logisch und systematisch herzuleiten, wird nicht an erster Stelle gefolgt. Dies wird im Zusammenhang mit der Struktur der Arbeit und dem Untersuchungsdesign, auf das im Folgenden näher eingegangen wird, unmittelbar deutlich. 1.2.2
Konzeptionelle Grundlagen und inhaltliche Vernetzung
Nach der Vorstellung von Anderson et al. (2001) hat die Wissenschaft zuallererst eine aufklärende Funktion. Dabei sollte es möglich sein, durch den Übergang von Quadrant 1 („Popularist Science“) in Quadrant 2 („Pragmatic Science“), Managementmoden, wie z.B. Lean Six Sigma, die in der Praxis einen starken Zuspruch erfahren, auf wissenschaftlicher Basis zu überprüfen und ggf. durch bessere Konzepte zu ersetzen. Nach obigen Ausführungen besteht hier jedoch die Gefahr, dass es beim Versuch, von Quadrant 1 in Quadrant 2 zu wechseln, unweigerlich zu einem Sprung in Quadrant 3 („Pedantic Science“) kommt. Aus einer praxisorientierten Forschung wird unmittelbar eine theoretische, die im wissenschaftlichen Publikationsnetzwerk fest verankert ist (vgl. Nicolai 2004, S. 107). Die Vertreter dieses Trade-off-Gedankens begründen ihre These damit, dass sich die Wissenschaft von den Erfolgskriterien der Praxis zunächst lösen muss, bevor ein wissenschaftlicher Analyseprozess einsetzen kann. Durch die Festlegung eigener, theoriebasierter Effizienz-/ Effektivitätskriterien besteht jedoch unmittelbar die Gefahr, dass der Praxisbezug schrittweise verloren geht. 21
Neben einer möglichst großen Anzahl von Beobachtungen/ Experimenten in unterschiedlichen Situation basiert die Ableitung von Theorien/ Gesetzmäßigkeiten auf dem explizit und/ oder implizit vorhandenen Erfahrungswissen des Forschers. Dieses entstammt zu einem großen Teil der „Primären Praxis“ (vgl. Abschnitt 1.2.1).
22
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
In vielen Fällen kommt es zu einem immer stärker werdenden Auseinandertriften der beiden Kommunikationssysteme. Aufgrund der selbstreferentiellen Eigendynamik wissenschaftlicher Kommunikation nimmt die Verzahnung von Erklärungsund Gestaltungsfunktion eher ab als zu. Ist das Thema „Six Sigma“ erst einmal im Wissenschaftsbetrieb angekommen, dann ist fortan mit einem ansteigenden Verlust an praktischer Relevanz zu rechnen. Während praxisorientierte Berater dazu tendieren, Probleme von Klienten in der Weise zu definieren, dass sie möglichst gut auf die ihnen zur Verfügung stehenden Lösungskonzepte passen (vgl. Bloomfield/ Danieli 1995), also z.B. Einsatz von Six Sigma zur Verbesserung der Prozess- und Produktqualität in Richtung Null-Fehler-Qualität, ergründen wissenschaftliche Beobachter zunächst den Wahrheitsgehalt der Probleme, die sie von Praktikern präsentiert bekommen, und zwar unter Rückgriff auf ein bestimmtes Wissenschaftsnetzwerk. Dies führt dazu, dass das Ausgangsproblem im Zuge der Publikationstätigkeit und dem einsetzenden Prozess der Problemevolution nach und nach aus dem Blickfeld gerät (vgl. Nicolai/ Kieser 2002). Als Kompromisslösung wird deshalb die relative Autonomie von „mode 1“ und „mode 3“ anstelle der Verschmelzung von Theorie und Praxis im „mode 2“ gefordert.22 Dieser Ansatz soll in der vorliegenden Arbeit insoweit Berücksichtigung finden, dass bei der Analyse der beiden Vorgehensmodelle – DMAIC- und DMADV-Zyklus – zwischen zwei Untersuchungsebenen, nämlich Theorie- und Praxisebene bzw. Realitäts- und Abstraktionsebene, unterschieden wird. Wie an der Struktur der Arbeit in Abb. 1-6 ersichtlich ist, wird der Übergang zwischen den beiden Ebenen einerseits durch das Prinzip der Induktion (Praxis-TheorieTransformation) sowie andererseits durch das Prinzip der Deduktion (TheoriePraxis-Transformation) erreicht. Die Untersuchung erfolgt im Rahmen von 6 Kapiteln, deren Inhalte im Folgenden kurz skizziert sind. Im einleitenden 1. Kapitel wurde zunächst die Bedeutung und Relevanz des Themas sowie die Vorgehensweise erläutert. Nach Vorstellung des Forschungsdesigns und Ableitung der Hypothesen erfolgt im 2. Kapitel eine Einordnung von Six Sigma als Managementkonzept zur Erzielung von Null-Fehler-Qualität. In diesem Zusammenhang wird ein relativer Vergleich mit anderen bekannten QM-Konzepten zur Erhöhung der Prozess- und Produktqualität vorgenommen. Anschließend wird der Frage nachgegangen, ob es sich bei Six Sigma respektive Design for Six Sigma um ein nachhaltiges Konzept zur Steigerung der Unternehmensperformance handelt, oder doch eher um eine Modeerscheinung, die von Unternehmen aufgrund von Legitimationsaspekten eingesetzt wird. 22
Die Vorteile, die aus einer Beibehaltung der Grenzen zwischen kritisch beobachtendem und analysierendem Wissenschaftler und aktiv beteiligtem und handelndem Praktiker folgen, sind vielschichtig. Zum einen mündet das Engagement des Wissenschaftlers nicht in eine „Verwissenschaftlichung“ von Praxis. Die Wissenschaft läuft im Hintergrund ab, so dass der Forscher nicht vom sozialen System der Praxis „absorbiert“ wird. Zum anderen ist die managementwissenschaftliche Betrachtung unabhängig von vordefinierten Problemen und Lösungen der Praxis (vgl. Luhmann 1994, S. 645).
1.2 Untersuchungs- und Forschungsdesign
1 1
23
Möglichkeiten und Grenzen des Einsatzes von DFSS im Produktentstehungsprozess 1.1 Problemstellung und Zielsetzung 1.2 Untersuchungs- und Forschungsdesign
2
Six Sigma – Zeitgemäßes Managementkonzept für Null-Fehler-Qualität
3
2.1 Dimensionen des Begriffs Managementkonzept
3.1 Qualität und Innovation – Begriffe 3.2 Vorgehensmodelle für Innovationen und Null-Fehler-Qualität
2.2 Managementkonzepte zur Verbesserung der Prozess-/ Produktqualität 2.3 „Weiche Hülle“ und „Harter Kern“ von Managementkonzepten
5
Theorie-Praxis-Transformation als deduktive Vorgehensweise: Vom abstrakten zum konkreten Vorgehensmodell 5.1 DMAIDV-Zyklus als erweiterter DFSSProblemlösungszyklus 5.2 IESRM-Zyklus als Anwendung Evolutionärer Algorithmen
Praxis-Theorie-Transformation als induktive Vorgehensweise: Vom konkreten zum abstrakten Vorgehensmodell
3.3 Six Sigma Verbesserungszyklen: DMAIC & DMADV 3.4 Formal-analytische Beschreibung der Verbesserungszyklen
4
Mathematische Vorgehensmodelle zur funktionellen Optimierung und Lösung schwieriger ökonomischer Probleme 4.1 Algorithmen/ Heuristiken – Begriffe 4.2 Klassische Algorithmen 4.3 Evolutionäre Algorithmen
5.3 Empirische Überprüfung an Beispielen
6
Zusammenfassung, Schlussfolgerungen und Ausblick
Quelle: Eigene Darstellung
Abb. 1-6: Struktur der Arbeit
Das 3. Kapitel gibt zunächst einen generellen Überblick über wesentliche Effektivitätskriterien (Erfolgsfaktoren) von F&E-Projekten: Generierung von Innovationen und Erreichung von Null-Fehler-Qualität. Im Anschluss wird analysiert, wie diese Kriterien im Unternehmen mithilfe von Vorgehensmodellen aus dem Gebiet des Innovations- und Qualitätsmanagements dauerhaft und nachhaltig erfüllt werden können. Die Analyse findet ihre Fortsetzung am Beispiel der Verbesserungszyklen von Six Sigma; die Inhalts- und Vorgehensbeschreibung erfolgt sowohl am realen als auch am abstrakten Modell. Letzteres orientiert sich am Vorgehen bei der Optimierung einer zweigipfligen Funktion der Form y = f(x). Auf dieser Grundlage werden im 4. Kapitel verschiedene mathematische Vorgehensmodelle zur funktionellen Optimierung und Lösung schwieriger, d.h. schlecht strukturierter Probleme vorgestellt und diskutiert. Sie bilden den Ausgangspunkt für die Suche nach einem neuen, verbesserten DFSS-Problemlösungszyklus. Die eingehende Beschäftigung mit klassischen mathematischen Optimierungsalgorithmen führt zu der Erkenntnis, dass der DMADV-Zyklus um die Phase Innovate
24
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
nach Analyse zu erweitern ist. Über die Untersuchung der Lösungsprinzipien von evolutionären Algorithmen gelangt man im zweiten Schritt zu einem gänzlich neuen Vorgehensmodell, dem IESRM-Zyklus. Beide Vorgehensmodelle werden im 5. Kapitel operationalisiert. Analog der Beschreibung des DMAIC-/ DMADVZyklus in Kapitel 3 werden die Ziele und Inhalte der einzelnen Phasen sowie die zur Zielerreichung vorzugsweise einzusetzenden (QM-)Methoden erläutert. Im Rahmen einer Wirtschaftlichkeitsbetrachtung wird anschließend gezeigt, dass die abgeleiteten Vorgehensmodelle dem bisherigen DMADV-Zyklus überlegen sind, und zwar sowohl in Bezug auf die Effizienz der Lösungssuche als auch in Bezug auf die Effektivität der Eingrenzung des Optimums. Die empirische Überprüfung erfolgt explorativ anhand von zwei Beispielen: (1) Optimierung der Flugzeit eines Papier-Rotors (Laborexperiment) und (2) Optimierung der Kehreigenschaften eines Straßenbesens (Unternehmens-Fallstudie). Im abschließenden 6. Kapitel werden die Untersuchungsergebnisse kurz zusammengefasst und kritisch bewertet. Außerdem wird ein Ausblick auf sinnvolle Weiterentwicklungen auf dem Gebiet von Design for Six Sigma gegeben. Dringliche Forschungsbedarfe, die sich aus der Analyse der aktuell verwendeten Vorgehensmodelle im F&E-Bereich ergeben, werden aufgezeigt. In Abb. 1-7 sind die Konzeption sowie die inhaltlichen Schwerpunkte der Dissertationsschrift im Detail dargestellt (Untersuchungsdesign). Das Vorgehen der Untersuchung orientiert sich am eingangs vorgestellten Problemlösungsfluss bei Six Sigma-Projekten (siehe Abb. 1-1). Dieser ähnelt dem allgemeinen Lösungsmuster widerspruchsorientierter Problemlösungstechniken, wie z.B. TRIZ23, die darauf ausgerichtet sind, aus technisch-naturwissenschaftlichen Phänomenen/ Erkenntnissen synergetische Effekte für innovative (Produkt-)Lösungen abzuleiten (vgl. Günther 2004, S. 1). Durch (mehrmaliges) Durchlaufen der fünf Schritte: (1) Definition des realen Problems, (2) Abstraktion des realen Problems, (3) Suchen der abstrakten Lösung, (4) Beschreiben der abstrakten Lösung und (5) Spezifikation der realen Lösung soll ein strukturierter Denkprozess in Gang gesetzt werden, der beim Auffinden neuartiger Lösungen hilft (vgl. auch Abschnitt 5.1.2). Im Untersuchungsdesign werden die fünf Schritte ebenenübergreifend vernetzt, und zwar zum einen bezogen auf den Problemlösungsprozess (horizontal) und zum anderen bezogen auf das Abstraktionsniveau (vertikal). Die Abstraktion und Spezifikation der Vorgehensmodelle ist durch entsprechende Pfeile gekennzeich23
Russ. Akronym für „Theorija Reshenija Izobretatjelskich Zadacz“
1.2 Untersuchungs- und Forschungsdesign
25
net; die inhaltliche Vernetzung der einzelnen Untersuchungsbereiche wird durch Verbindungslinien markiert. Der Problemlösungsfluss erstreckt sich – unabhängig von der Betrachtungsebene – über die fünf Schritte. Die Inhaltsbereiche der einzelnen Schritte stehen in einem sachlogischen Zusammenhang, der im Folgenden – jeweils getrennt nach Realitäts- und Abstraktionsebene – analysiert wird; die Verknüpfung der zwei Ebenen erfolgt über einen Analogieschluss. (1) Definition des realen Problems Die Definition des Problems bildet den Ausgangspunkt des wissenschaftlichen Analyseprozesses. Die Problemstellung, die hier zugrunde gelegt wird, ist die Bereitstellung effektiver, d.h. wirksamer Vorgehensmodelle zur Verbesserung von Produkten/ Prozessen. Unter Berücksichtigung der unterschiedlichen Anforderungen in den einzelnen Wertschöpfungsbereichen des Unternehmens sollen jeweils adäquate Problemlösungszyklen bereitgestellt werden. Nach Pleschak/ Sabisch (1996, S. 28) sollte die Problemformulierung als Mindestangaben den Ist-Zustand, den Soll-Zustand, die (langfristige) Zielsetzung sowie den zwischen Ist- und SollZustand bestehenden Widerspruch bzw. Konflikt enthalten. Bei (Design for) Six Sigma ist der Ist-Zustand dadurch gekennzeichnet, dass – in Abhängigkeit von der Aufgabenstellung im Unternehmen – zwei Problemlösungszyklen zur Verfügung stehen (siehe Abb. 1–7 (Teil 1/1)). Wie oben bereits ausgeführt, unterscheiden sich DMAIC- und DMADV-Zyklus im Hinblick auf die Effektivität der Lösungssuche z.T. signifikant. In vielen Fällen ist die Ergebnisqualität, die mit dem DMADV-Zyklus erreicht werden kann, deutlich schlechter als die bei Anwendung des DMAIC-Zyklus. Vor diesem Hintergrund ist der Soll-Zustand dadurch gekennzeichnet, dass ein Problemlösungszyklus vorliegt, der einen höheren Zielerreichungsgrad besitzt als der jetzige DMADV-Zyklus und folglich dem Anspruch des „Design for Six Sigma“ eher gerecht wird. Die langfristige Zielsetzung besteht darin, den Six Sigma-Anwendern einen effektiven Verbesserungszyklus für den F&E-Bereich zu präsentieren, der eine mit der Anwendung des DMAIC-Zyklus in der Produktion vergleichbare Erfolgsrate und Ergebnisqualität besitzt. Zwischen Ist-Zustand und angestrebtem Soll-Zustand besteht ein Widerspruch, der aus dem in der betrieblichen Praxis häufig zu beobachtenden Trade-off zwischen Wirtschaftlichkeit (Effizienz) und Zielerreichungsgrad (Effektivität) resultiert. Bei der Suche nach einem verbesserten DFSSProblemlösungszyklus ist infolgedessen darauf zu achten, dass die Erhöhung der Effektivität nicht zu Lasten der Effizienz geht.24
24
Ein Six Sigma-Projekt gilt als effizient, wenn sich die Netto-Einsparungen (Net Benefit) innerhalb eines Jahres nach Projektende auf ca. 125.000 € summieren. Der Zeitraum für die Durchführung des Projektes sollte dabei nicht mehr als 6 Monate betragen und das Team, inkl. Projektleiter, nicht mehr als fünf Personen umfassen (vgl. Töpfer 2007b, S. 236). Entsprechende Zahlen für die Durchführung von DFSS-Projekten liegen bis dato nicht vor. Erfahrungsberichte aus der Praxis legen aber nahe, dass der
26
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
Im Weiteren ist zu klären, welche (realen) Aufgaben im Unternehmen mit der Problemstellung in Zusammenhang stehen respektive diese im Einzelnen betreffen. Bei der Bearbeitung von wissenschaftlich-technischen Problemen, zu denen auch die Entwicklung neuer Methoden/ Verfahren zählt, hat sich das Prinzip der verbindlichen Aufgabenstellung bewährt (vgl. Pleschak/ Sabisch 1996, S. 28). Die Erarbeitung der Aufgabenstellung zur Problemlösung umfasst üblicherweise die vier Schritte Aufgabenfindung, -bewertung, -formulierung und -bestätigung. Ausgehend von der genannten Problemstellung lassen sich im Wesentlichen zwei Arten von Optimierungsaufgaben in Unternehmen differenzieren. (1a) Zum einen streben Unternehmen danach, durch die Entwicklung neuer Produkte und Verfahren ihren Fortbestand in der Zukunft zu sichern. Nur durch die regelmäßige Einführung von Produkt- und Prozessinnovationen können Unternehmen langfristig am Markt bestehen (vgl. u.a. Schlicksupp 2004, S. 9ff.). Diese Aufgabenstellung wird im Rahmen der Dissertation vordergründig behandelt, und zwar bezogen auf die Anforderungen von Design for Six Sigma. (1b) Zum anderen sind Unternehmen darum bemüht, am Markt eingeführte, bereits bestehende Produkte und Prozesse kontinuierlich zu verbessern. Im Rahmen der Produktpflege soll nach und nach ein höheres Qualitäts-/ Nutzenniveau erreicht werden, um so die Wettbewerbsfähigkeit zu sichern respektive zu steigern. Diese Aufgabe ist im Vergleich zu (1a) deutlich einfacher zu meistern, da jeweils nur Teilbereiche analysiert und optimiert werden. Managementkonzepte, die in der Unternehmenspraxis beliebt sind und dort eine starke Verbreitung gefunden haben, zeichnen sich durch effektive Problemlösungszyklen aus, die auf eine breite Palette von Problemstellungen im Unternehmen anwendbar sind. So ist z.B. der DMAIC-Zyklus im Rahmen von Six Sigma nicht auf die Behebung von Qualitätsproblemen in der Produktion beschränkt. Vielmehr bezieht sich sein Anwendungsgebiet auf eine ganze Reihe von Problemstellungen im Unternehmen, z.B. Durchlaufzeiten-Minimierung in der Fertigung, Kosten-Minimierung in der Administration/ Verwaltung, Maximierung der Zuverlässigkeit im IT-Support. Was der DMAIC-Zyklus für Six Sigma bedeutet, ist – im übertragenen Sinn – der PDCA-Zyklus für KVP und der DMADV-Zyklus für Design for Six Sigma. Sie sind der „harte Kern“ eines nach außen hin legitimierten Managementkonzeptes. Für Führungskräfte und/ oder Mitarbeiter stellen sie eine Art „Kochrezept“ dar, anhand dessen sie Probleme schnell und nachhaltig lösen können. Im Fall des DMADV-Zyklus wird dieser Anspruch nur teilweise erfüllt, was dazu führt, dass seit geraumer Zeit alternative Vorgehensmodelle diskutiert und umgesetzt werden (vgl. Abschnitt 1.1.2): •
Um sich gegenüber den maßgeblichen Wettbewerbern im Markt zu behaupten, sind von Seiten des Unternehmens kontinuierlich Verbesserungsmaßoben genannte Projektumfang/ -aufwand auch für DMADV-Pojekte im großen und ganzen zutrifft (vgl. z.B. Dorff/ Töpfer 2007, S. 526ff.).
1.2 Untersuchungs- und Forschungsdesign
27
nahmen einzuleiten. Dadurch wird verhindert, dass das Unternehmen in seiner Entwicklung auf einem bestimmten Kosten- und/ oder Qualitätsniveau stehen bleibt und so Gefahr läuft, den Anschluss an den Wettbewerb zu verpassen. In Abhängigkeit von der Philosophie und der strategischen Ausrichtung des Unternehmens kann die konkrete Zielsetzung einerseits darin bestehen, kontinuierlich besser zu werden. Dabei erfolgt die Weiterentwicklung von Prozessen und Produkten in kleinen, marginalen Schritten. Als institutionalisiertes Element25 kommt der Kontinuierliche Verbesserungsprozess (KVP) zum Einsatz (vgl. Masing 1999, S. 9ff.). Auf der Abstraktionsebene entspricht diese Form der Verbesserung der ständigen Suche nach einer verbesserten Lösung für das o.g. mathematische Optimierungsproblem. In der Unternehmensrealität geht es um die Optimierung des „Magischen Dreiecks“. •
Im Gegensatz zu Unternehmen, die sich der jap. Kaizen-Philosophie verschrieben haben und an KVP festhalten, streben Unternehmen, die Six Sigma praktizieren, nach signifikanten Verbesserungen in relativ kurzen Zeiträumen. Durch die Anwendung des DMAIC-Zyklus sollen projektbezogen „Verbesserungen in Quantensprüngen“ innerhalb von 3 bis 6 Monaten erreicht werden (vgl. Töpfer/ Günther 2007a, S. 18). Umfassende und weitreichende Veränderungen von Organisationsstrukturen und -abläufen in wenigen Monaten stehen auch bei Business Process Reengineering (BPR) im Vordergrund (vgl. Abschnitt 2.2.2). Die Verbesserungsaktivitäten konzentrieren sich bei beiden Ansätzen auf die Erhöhung des Qualitätsniveaus unter Berücksichtigung des Wirtschaftlichkeitsprinzips. Betrachtet man das Vorgehen aus der Sicht der mathematischen Optimierung, dann besteht die abstrakte Zielsetzung in der Suche nach dem nächstliegenden, lokalen Optimum bei einer – bekannten oder unbekannten – Zielfunktion der Form y = f(x1, x2, ..., xn).
•
Bei der Entwicklung eines neuen Produktes/ Prozesses besteht das Ziel vordergründig darin, einen „großen Sprung nach vorn“ zu machen bzw. eine radikale Verbesserung zu erreichen. Um Produkt- und/ oder Prozessinnovationen zu generieren, sollen in relativ kurzer Zeit möglichst große Veränderungen an Produkten/ Prozessen vorgenommen werden, die zu einer besseren Erfüllung der (zukünftigen) Kundenanforderungen führen. Das „klassische Vorgehen“, um dieses Ziel zu erreichen, besteht darin, einen Produktentstehungsprozess (PEP) zu definieren, nach dem neue Produkte/ Prozesse systematisch zu entwickeln sind. Dazu werden die zu durchlaufenden Phasen und anzuwendenden Methoden verbindlich festgelegt. In Six Sigma-Unternehmen wird diese Form des F&E-Projektmanagements durch den DFSS-Ansatz er-
25
Walgenbach/ Beck (2003) präsentieren umfangreiche empirische Befunde zur Übernahme der ISO 9000 als institutionalisiertes Element in erwerbswirtschaftliche Organisationen aufgrund von internen Effizienzüberlegungen und/ oder externem Anpassungsdruck. Ihre Hauptthese geht dabei dahin, dass die Ausgestaltung der formalen Organisationsstruktur aufgrund institutionalisierter Erwartungen in der Organisationsumwelt erfolgt; Effizienzüberlegungen bei der Einführung der ISO 9000 in Unternehmen spielen in vielen Fällen eine untergeordnete Rolle.
28
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
gänzt (siehe z.B. Unternehmen wie Daimler, Bosch und Siemens).26 Als Grundlage für die Planung und Steuerung von Aktivitäten im Entwicklungsprozess dienen spezifische Vorgehensmodelle, z.B. DMADV-Zyklus. (2) Abstraktion des realen Problems Nach dem oben beschriebenen Prozess der Problemlösung ist das reale Problem im zweiten Schritt zu abstrahieren. In unserem Fall findet sich eine vergleichbare Problemstellung auf dem Gebiet der mathematischen Optimierung. Hier geht es um die Bereitstellung mathematischer Algorithmen/ Heuristiken zur Lösung komplexer Probleme. Bei letzteren handelt es sich i.A. um schlecht strukturierte bzw. strukturierbare mathematische Probleme, die somit gar nicht oder nur schwer auf analytischem Weg lösbar sind. Selbst komplizierte Rechenverfahren reichen häufig nicht aus, um die Optimallösung einer beliebigen, nicht-linearen Optimierungsfunktion y = f(x1, x2, ..., xn) zu bestimmen. Um zumindest eine annähernd „gute Lösung“ zu finden, werden Heuristiken eingesetzt, die nach einem plausiblen Algorithmus (Rechenschema) die Optimallösung suchen. Die Anforderungen an den zu programmierenden Algorithmus richten sich in erster Linie nach der Art der Darstellbarkeit der funktionellen Abhängigkeit. (2a) Sind die Input- und Outputgröße(n) bekannt und liegen Erkenntnisse zu den kausalen Abhängigkeiten vor, dann lässt sich der zu untersuchende Sachverhalt in Form einer mathematischen Zielfunktion beschreiben. Im Fall von Optimierungsproblemen mit einer unimodalen Zielfunktion lautet die abstrakte Aufgabenstellung: max y = f(x1, x2, ..., xn) oder min y = f(x1, x2, ..., xn). (2b) Liegen keine Erkenntnisse zu den abhängigen und unabhängigen Variablen und deren kausalen Abhängigkeiten vor, dann wird das Maximum/ Minimum simultan zur Bestimmung des funktionellen Zusammenhanges gesucht. Die Optimierung der Zielgröße Y gestaltet sich in diesem Fall deutlich schwieriger. In beiden Fällen wird der Suchraum i.d.R. durch die Formulierung von Nebenbedingungen eingegrenzt. Die Optimierungsrechnung läuft dann auf die Lösung
26
Z.B. unterteilt sich beim Unternehmen Bosch Siemens Hausgeräte (BSH) der PEP in die vier Phasen Produktidee, Produktdefinition, Produkt-/ Prozessentwicklung und Produktbetreuung; zwischen den einzelnen Phasen sind sog. Quality Gates definiert. Jede der genannten Phasen enthält wiederum mehrere Unterphasen, zwischen denen Entscheidungspunkte für den Projektfortgang festgelegt sind. Ein Katalog von Mussund Kann-Methoden gibt zusätzlich an, welche Qualitätsinstrumente/ -methoden im Rahmen des PEP auf jeden Fall anzuwenden sind. So ist z.B. der Einsatz von Failure Mode and Effect Analysis (FMEA) fest vorgeschrieben, während die Anwendung von Quality Function Development (QFD) optional ist (vgl. Leifeld 2002, S. 7). BSH wurde im Jahr 2003 von der Zeitschrift „Wirtschaftswoche“ und dem Beratungsunternehmen „A.T. Kearney“ zum Unternehmen mit dem besten Innovationsmanagement (Best Innovator) in Deutschland gekürt. Wie die Jury feststellt, resultiert die Innovationsfähigkeit/ -kraft vor allem aus dem weltweit standardisierten PEP mit „strikten Deadlines“ (vgl. Katzensteiner/ Leendertse 2003, S. 63).
1.2 Untersuchungs- und Forschungsdesign
29
eines (komplexen) Gleichungssystems hinaus. In der weiteren Betrachtung wird auf der Abstraktionsebene der Aufgabenstellung (2b) gefolgt, da sie den Anforderungen/ Bedingungen der „realen Welt“ besser entspricht. Die betrieblichen Abläufe zur Erstellung eines Produktes oder einer Dienstleistung sind in vielen Unternehmen außerordentlich komplex; die Ursachen-Wirkungsbeziehungen sind häufig nur zu einem bestimmten Grad offen gelegt. Die Definition eines konkreten Ziels ist Bestandteil der Aufgabenformulierung und hilft den Verantwortlichen/ Beteiligten, die Lösung der Aufgabe kontrollfähig zu machen und damit den Zielerreichungsgrad „richtig“ zu bestimmen. So variiert die (strategische) Zielsetzung nicht nur von Unternehmen zu Unternehmen, sondern auch – unternehmensintern – von Prozess zu Prozess. In Abhängigkeit von den unter (1) spezifizierten generellen Aufgabenstellungen lassen sich insgesamt drei Zielsetzungen bei der Optimierung von Produkten und Prozessen differenzieren. Dabei wird das Erreichen der Ziele durch einschlägig bekannte Managementkonzepte, z.B. Six Sigma und Design for Six Sigma, unterstützt, die in Unternehmen – einzeln oder kombiniert – zum Einsatz kommen. (3) Suchen der abstrakten Lösung Auf abstrakter Ebene ist das Erreichen eines „vollkommenen“ Produkt-/ Dienstleistungsangebotes vergleichbar mit der Suche nach dem globalen Optimum bei einer Zielfunktion y = f(x1, x2, ..., xn). Die mathematische Optimierung hält hier eine Reihe von Rechenverfahren in Form von Algorithmen bereit, um das globale Maximum bzw. Minimum einer beliebigen Funktion zu finden. Die Klassifizierung der Verfahren richtet sich in erster Linie nach der Art des zu lösenden Problems (vgl. u.a. Jarre/ Stoer 2004). Wie eingangs erwähnt, kann es sich um gut oder weniger gut strukturierte Probleme handeln, die es zu lösen gilt. Aus übergeordneter Sicht lassen sich dabei insgesamt drei Gruppen von mathematischen Lösungsverfahren/ -ansätzen unterscheiden (vgl. Unterkapitel 4.2). In zweiter Linie ist es möglich, eine Klassifizierung nach der Art der gewählten Lösungsstrategie vorzunehmen. Für das Finden einer Problemlösung i.e.S. lassen sich hier im großen und ganzen zwei Verfahrensgruppen ausmachen. (3a) Unter Klassischen Verfahren sollen alle mathematischen Algorithmen verstanden werden, die am Ende der Optimierung eine Lösung präsentieren, welche die Zielfunktion maximiert bzw. minimiert. Ein häufig verwendetes Verfahren ist das auf Newton zurückgehende Gradientenverfahren, bei dem der Lösungsvektor nach dem Kriterium des steilsten Anstiegs in Richtung Optimum „verschoben“ wird. Bei schlecht strukturierten Problemen mit unbekanntem Funktionsverlauf kommen zudem Lokale Suchverfahren zum Einsatz, die sich bei der Lösungssuche ebenfalls in kleinen Schritten vorantasten (vgl. Wäscher 1998). (3b) Eine gänzlich andere Strategie zur Lösung komplexer Probleme verfolgen Evolutionäre Algorithmen (EA). Sie gehören zur Gruppe der Naturadaptiven Verfahren. Anstelle der Verbesserung einer einzelnen Lösung sind sie darauf ausge-
30
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
Abstrakte Problemstellung
Abstrakte Aufgabenstellung (Modell)
Abstrakte Zielsetzung
2a
Abstraktion
2 Bereitstellung mathematischer Algorithmen/ Heuristiken zur Lösung komplexer Probleme
Optimierung der Zielgröße Y, wenn y = f(x) bekannt 2b
Optimierung der Zielgröße Y, wenn y = f(x) unbekannt
3 Suchen des globalen Optimums Suchen des lokalen Optimums Suchen einer verbesserten Lösung
Abstraktionsebene ProblemProblemstellung stellung
Realitätsebene Problemstellung i.e.S.
1 Bereitstellung effektiver Vorgehensmodelle zur Verbesserung von Produkten/ Prozessen
Legende:
1a
Entwicklung eines neuen Produkt-/ Prozessdesigns
1b
Optimierung eines bestehenden Produktes/ Prozesses
Ableitungszusammenhang Inhaltliche Untergliederung
Reale Problemstellung
Reale Aufgabenstellung
Erreichen einer radikalen Verbesserung
Erreichen einer signifikanten Verbesserung Erreichen einer marginalen Verbesserung Konkrete Zielsetzung
Quelle: Eigene Darstellung
Abb. 1-7 (Teil 1/2): Vorgehen der Untersuchung (Untersuchungsdesign)
1.2 Untersuchungs- und Forschungsdesign
Mathematischer Lösungsansatz
31
Mathematischer Algorithmus
Effektivität der Lösungssuche
3b
4c
Evolutionäre Verfahren
Genetischer Algorithmus
4
Hoch
4b
Lokale Suchverfahren
3a
Klassische Verfahren
4a
NewtonProblem: Verfahren
ProblemProblemlösung lösung
PEP Klassischer F&E-Prozess
Six Sigma
Gering
Spezifikation
Festlegen eines geeigneten Startpunktes für die Lösungssuche
DFSS
Mittel
Lösung: Simultane Optimierung v. mehreren Lösungskandidaten 5c
IESRMZyklus
5b
Hoch
DMAIDVZyklus
w.z.b.i.
5 5a DMADVZyklus DMAICZyklus
Problemlösung i.e.S.
Gering Erkenntnis 1: DMADV führt zu keinen innovativen Lösungen
Hoch
KVP
Managementkonzept
PDCAZyklus Realer Problemlösungszyklus
Erkenntnis 2: DMAIC u. PDCA erfüllen i.d.R. die Zielsetzung(en)
Effektivität der Lösungssuche
Abb. 1-7 (Teil 2/2): Vorgehen der Untersuchung (Untersuchungsdesign)
32
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
richtet, eine Population mit n Lösungskandidaten zu optimieren. Der Algorithmus ist beendet, wenn gleichzeitig mehrere Lösungen gefunden worden sind, welche die Zielfunktion maximieren bzw. minimieren. Dabei handelt es sich in der Mehrzahl der Fälle um heuristische Lösungsverfahren, bei denen das Auffinden des globalen Optimums der Zielfunktion nicht garantiert wird. (4) Beschreiben der abstrakten Lösung Die Entwicklung von neuen Vorgehensmodellen, z.B. DMAIC-Zyklus, basiert typischerweise auf vorhandenem Erfahrungswissen in der Praxis (vgl. Simon 1976, S. 26ff.). Häufig werden nach dem Trial-and-Error-Prinzip Veränderungen an bestehenden Problemlösungszyklen vorgenommen. Diese werden anschließend an konkreten Produkt-/ Prozessbeispielen getestet und im Hinblick auf ihre Problemlösungsfähigkeit bewertet. Stellt sich der veränderte Optimierungsansatz als geeignet heraus, dann wird dieser als (vorläufige) Best practise in die institutionalisierten Strukturen und Abläufe des Unternehmens aufgenommen. Für die Entscheidungsträger ist dabei vor allem eins wichtig: Der „neue“ Problemlösungszyklus muss möglichst einfach, plausibel und in seinen Mittel-Zweck-Relationen nachvollziehbar sein (vgl. u.a. Zucker 1987, S. 443ff.). Diese Anforderung wird von wissenschaftlichen Konzepten/ Theorien häufig nicht erfüllt, was eine direkte Übernahme in die Primäre Praxis deutlich erschwert und den o.g. Trade-off zwischen Theorie und Praxis bestärkt (vgl. Abschnitt 1.2.1). Aus diesem Grund ist es notwendig, die auf wissenschaftlichem Weg gewonnenen Erkenntnisse zur Verbesserung von Unternehmensabläufen in die „Sprache des Managements“ zu transformieren. Um eine gute Anwendbarkeit in der Praxis zu gewährleisten, sind die auf der Abstraktionsebene gefundenen Lösungsmuster zu spezifizieren, z.B. in Form von Handlungsanweisungen und Vorgehensmodellen. Wie in Abb. 1-7 (Teil 2/2) nachvollziehbar ist, können aus den drei mathematischen Vorgehensmodellen (4a), (4b) und (4c) jeweils reale Vorgehensmodelle abgeleitet bzw. spezifiziert werden. In Bezug auf die gewählte Optimierungsstrategie lassen sich dabei die folgenden drei Analogien feststellen. (4a) Die Strategie, die bei klassischen Six Sigma-Projekten zur Anwendung kommt, ist – auf abstrakter Ebene – vergleichbar mit dem auf Newton zurück gehenden Sekantenverfahren. Dabei wird die Nullstelle einer mathematischen Funktion linear interpoliert, was zu einem schrittweisen Eingrenzen des Optimums führt. Ein alternatives Vorgehen, um das Optimum einer Funktion y = f(x1, x2, ..., xn) zu bestimmen, ist das Newton´sche Tangentenverfahren (vgl. Göhler 1996, S. 95). Die Annäherung an das Optimum erfolgt hier ebenfalls allmählich; jedoch ist aufgrund der relativ kleinen Schrittweite eine größere Anzahl von Iterationen notwendig, um das Optimum einzugrenzen. Im Gegensatz zum Sekantenverfahren basiert der Suchprozess auf der Anwendung der Infinitesimalrechnung. Das Vorgehen findet sich – auf realer Ebene – bei KVP wieder.
1.2 Untersuchungs- und Forschungsdesign
33
(4b) Die Forderung nach der Überwindung von lokalen Optima, die kein globales Optimum darstellen, ist mit der Generierung von Innovationen bei realen Produkten/ Prozessen vergleichbar. Dabei sind u.U. temporäre Verschlechterungen des Produkt-/ Prozessdesigns in Kauf zu nehmen. Die diskontinuierliche Veränderung von kritischen Qualitätsmerkmalen führt häufig erst mittel-/ langfristig zu einem Wiederanstieg der Produkt-Performance. Aus diesem Grund setzen sich Innovationen in der Praxis nur relativ langsam durch; gerade im Anfangsstadium können sie mit der Leistungsfähigkeit von bestehenden Lösungen nicht mithalten. In der Sprache der mathematischen Optimierung bedeutet dies, dass sich der Zielfunktionswert beim Übergang von einem lokalen Optimum zum nächsten kurzfristig verschlechtert, sofern die Funktion glatt und stetig verläuft. Zu den klassischen Verfahren, die diese Eigenschaft des Zielfunktionsverlaufs bei der Optimierung berücksichtigen, gehören u.a. die Lokalen Suchverfahren (vgl. Wäscher 1998, S. 1302). Sie basieren auf dem Prinzip der Nachbarschaftssuche, welches besagt, dass neue, akzeptable Lösungen ausschließlich lokal, d.h. in der Nachbarschaft der aktuellen Lösung, zu suchen sind. (4c) Ein ähnliches Prinzip, d.h. bestehende Lösungen in kleinen Schritten verändern und dadurch den Suchraum sukzessive nach besseren Lösungen „abtasten“, machen sich auch Genetische Algorithmen (GA) zu nutze. Sie stellen eine wichtige Untergruppe der o.g. Evolutionären Algorithmen (EA) dar. In den Ingenieur- und Naturwissenschaften hat sich die Genetische Programmierung vor allem bei der Lösung komplizierter Aufgaben mit einer Vielzahl von unabhängigen Einflussgrößen und z.T. unbekannten Funktionszusammenhängen bewährt (vgl. Sprave 1999). Im Rahmen der Dissertation wird gezeigt, dass sich diese Vorgehensweise durch eine entsprechende Operationalisierung auch für die Problemlösung in der Unternehmenspraxis nutzbar machen lässt. Analog zum DMADV-Zyklus wird ein Problemlösungszyklus konstruiert, der als Handlungsleitfaden bei F&E-Projekten dient; er beruht zum überwiegenden Teil auf bekannten Methoden und Instrumenten des Qualitäts- und Innovationsmanagements. (5) Spezifikation der realen Lösung Die Anwendung von entsprechenden Vorgehensmodellen im F&E-Bereich hat zum Ziel, ein optimales Design in möglichst kurzer Zeit, mit wenigen Arbeitsschritten (Iterationen) zu finden. Dabei liegt der Fokus auf diskontinuierlichen Verbesserungen, die über einen projektorientierten Ansatz realisiert werden sollen (vgl. von Regius 2006, S. 142ff.). Die Zielsetzung lässt sich auf abstrakter Ebene mit dem Auffinden des globalen Optimums einer komplexen Funktion mit möglichst wenig Rechenschritten vergleichen. In diesem Zusammenhang gilt es lokale Optima zu überwinden, die beim Lösungsprozess häufig „im Weg stehen“. (5a) Um das vorstehend genannte Ziel zu erreichen, ist bei klassischen Verfahren darauf zu achten, einen geeigneten Startpunkt für die Lösungssuche zu finden. Bei der Anwendung des Newton-Verfahrens, mit dem u.a. das Vorgehen im Rahmen des DMADV-Zyklus erklärt werden kann, besteht die unmittelbare Gefahr, bei
34
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
Vorhandensein mehrerer lokaler Optima das globale Optimum zu verfehlen. In der Realität bedeutet dies, dass die bestmögliche Lösung im Zuge der Verbesserungsaktivitäten verfehlt wird, weil sie nicht die nächstliegende Lösung bezogen auf die Ausgangssituation darstellt. Anstelle dessen wird eine sog. Second best-Lösung realisiert, die in praxi häufig einen deutlich geringeren Suchaufwand erfordert, jedoch nicht zum optimalen Outcome führt. (5b) Das Prinzip von Lokalen Suchverfahren lässt sich relativ problemlos auf die Gestaltung von realen Problemlösungszyklen übertragen. Nach der Analyse der wesentlichen Ursachen-Wirkungszusammenhänge sind alternative Startpunkte, sprich Lösungskonzepte, für die Produktoptimierung zu suchen. Im Fall von Design for Six Sigma ist hierzu eine Erweiterung des DMADV-Zyklus vorzunehmen. Im Ergebnis liegt dann ein 6-phasiger Problemlösungszyklus – DMAIDV – vor, der die Phase Innovate (I) als zusätzliche Phase vor der Design-Phase enthält. Dadurch wird die Bedeutung von Prozess- und Produktinnovationen im Rahmen von F&E-Vorhaben stärker in den Vordergrund gestellt. Gleichzeitig wird die Forderung nach Null-Fehler-Qualität, welches die bisherigen Aktivitäten von DFSS dominiert(e), relativiert; Qualitätssicherungs- und Innovationsstreben stehen fortan in einem ausgewogeneren Verhältnis zueinander.27 (5c) Neben der inkrementalen Weiterentwicklung des DMADV-Zyklus ergibt sich mit dem IESRM-Zyklus ein gänzlich neuer Ansatz für das (Re-)Design von Produkten und Prozessen. Er leitet sich aus den unter (4c) benannten Genetischen Algorithmen ab und beinhaltet die fünf Phasen Initialisierung (I), Evaluierung (E), Selektion (S), Rekombination (R) und Mutation (M). Die letztgenannten vier Phasen werden zu einer Iterationsschleife zusammengefasst und solange durchlaufen, bis eine zufriedenstellende, i.d.R. nutzenmaximale Lösung gefunden worden ist. Analog zur Programmierung von Genetischen Algorithmen basiert das Lösungsprinzip auf der simultanen Optimierung von n Lösungskandidaten, die in der Initialisierungs-Phase zu einer Ausgangspopulation zusammengefasst werden (vgl. Goldberg 1989). Ziel ist es, die Fitness der Population schrittweise zu erhöhen und dabei möglichst herausragende Individuen „zu züchten“. Nachdem die neuen Problemlösungszyklen DMAIDV und IESRM spezifiziert worden sind, stellt sich die Frage, wie effektiv die Lösungssuche im Vergleich zu DMAIC- und DMADV-Zyklus ist. Die Effektivität der Lösungssuche der übergeordneten Verfahren, aus denen die beiden Vorgehensmodelle abgeleitet werden, ist mittel bis hoch. Das vorgegebene Ziel, ein globales Optimum bei einer komplexen, mehrdimensionalen Funktion zu finden, wird sowohl von den Lokalen 27
Aus Methodensicht ist diese Harmonisierung bereits voll im Gange. So fordern eine Reihe von Autoren, die analytisch-systematischen Methoden aus dem Qualitätsmanagement, z.B. DOE, um kreativ-intuitive Methoden aus dem Innovationsmanagement, z.B. TRIZ, zu ergänzen (vgl. z.B. Töpfer/ Günther 2007b, S. 152; Averboukh 2004, S. 1f.; Yang/ El-Haik 2003, S. 235ff.). Letztere sind dann vorzugsweise innerhalb bzw. unmittelbar nach der Analyse-Phase des DMADV-Zyklus einzusetzen.
1.2 Untersuchungs- und Forschungsdesign
35
Suchverfahren als auch den Genetischen Algorithmen sehr gut unterstützt. Insbesondere im Vergleich zu den Klassischen Verfahren ist ihr Zielerreichungsgrad deutlich größer. Bei gegebener Problemstellung werden die optimalen InputWerte Xs für einen maximalen bzw. minimalen Output Y nicht nur genauer detektiert, sondern auch i.d.R. schneller, d.h. mit weniger Iterationen, gefunden (vgl. z.B. Michalewicz/ Fogel 2000; Gen/ Cheng 1997). Auf der Realitätsebene steht die Bestätigung des Effektivitäts- und Effizienzvorteils noch aus. Ausgehend von den abstrakten Vorgehensmodellen, wie sie bei der Lösung schwieriger Aufgaben in der Mathematik angewendet werden, liegt die Vermutung nahe, dass sowohl der DMAIDV- als auch der IESRM-Zyklus zu einer Verbesserung der Qualität der Lösungssuche führen. Unter dieser Voraussetzung stellen sie eine interessante Alternative zu dem in der Praxis vorherrschenden DMADV-Zyklus dar. Letzterer weist vor allem in Sachen „innovativer Lösungsfindung“ Defizite auf und ist deshalb – aus Praxissicht – verbesserungsbedürftig. Wie in Abschnitt 1.2.1 ausgeführt wurde, geht die Anforderung des „mode 2“Konzeptes dahin, auf der Grundlage von wissenschaftlichem Arbeiten direkt anwendbares, instrumentelles Wissen zu produzieren. Um insbesondere den Tradeoff zwischen methodischer Stringenz und praktischer Relevanz zu überwinden, ist die Forschungstätigkeit so auszurichten, dass sie die „Praktikersprache“ unmittelbar bei der Problemkonstruktion und -lösung aufgreift. Zwischen Realitäts- und Abstraktionsebene sind deshalb Anknüpfungspunkte zu definieren, welche eine bessere Kommunikation/ Interaktion zwischen Theorie und Praxis erlauben (vgl. Nicolai 2004). Zudem sind die theoretischen Überlegungen, die zur Weiterentwicklung des „harten Kerns“ von DFSS führen, durch entsprechende empirische Untersuchungen und/ oder problemorientierte Fallstudien zu bestätigen oder ggf. wieder zu verwerfen. Dabei stellt die Kommunikation von erfolgreich durchgeführten Projekten ein probates Mittel dar, um die Diffusion von managementwissenschaftlichem Methodenwissen in die Unternehmenspraxis zu beschleunigen. Im Rahmen der Dissertation werden zum einen die Anwendungsvoraussetzungen für den Einsatz von DMAIDV- und IESRM-Zyklus in Unternehmen geprüft. Zum anderen werden – wie in Abschnitt 1.2.2 benannt – auf der Basis von Fallstudien Handlungsempfehlungen für die systematische Weiterentwicklung des DFSS-Ansatzes gegeben. Darüber hinaus wird anhand eines umfangreichen Laborexperiments gezeigt, welche Chancen und Risiken die Anwendung des IESRM-Zyklus im Produktentstehungsprozess beinhaltet. Unter Berücksichtigung zeitlicher und finanzieller Restriktionen setzt auf dieser Grundlage eine explorative Untersuchung im Unternehmensumfeld an. Diese soll vor allem das Anwendungspotenzial und den Effektivitätsvorteil der auf wissenschaftlichem Weg generierten, optimierten DFSS-Vorgehensmodelle bzw. Teile von selbigen verdeutlichen.
36
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
1.2.3
Aggregatbezogene Differenzierung auf vier Ebenen
Nach Kromrey (2002, S. 82) ist neben dem Untersuchungsdesign (siehe Abb. 1-7) für jedes Forschungsvorhaben ein zur jeweiligen Thematik „maßgeschneiderter“ Forschungsplan zu entwerfen. In diesem sind die jeweiligen Forschungsfragen zu operationalisieren und – sofern es sich um eine empirische Forschungsarbeit handelt – ein geeignetes Erhebungsinstrument zu entwickeln und zu testen. Dabei stehen für bestimmte Gruppen von Fragstellungen spezifische Designtypen mit jeweils spezifischer Forschungslogik zur Auswahl.28 Sie sind der Ausgangspunkt für die individuelle Ausgestaltung des Forschungsdesigns. Im Rahmen der empirischen Sozial- und Wirtschaftswissenschaften spiegelt es die Erkenntnis- und Handlungsorientierung der Arbeit auf einem Blick wider.29 Das Forschungsdesign, welches in Abb. 1-8 – analog zum Untersuchungsdesign – zweigeteilt auf den Seiten 38 und 39 dargestellt ist, erstreckt sich über die vier Ebenen: Einfluss-, Strategie-, Gestaltungs- und Auswirkungsebene. Sie bilden den theoretischen Bezugsrahmen von managementwissenschaftlichen Untersuchungen, die insb. am erweiterten situativen Ansatz ausgerichtet sind (vgl. Töpfer 2007a, S. 813ff.; Kieser/ Walgenbach 2003, S. 43ff.). Dabei kommt dem Forschungsdesign unmittelbar eine „Scharnierfunktion“ zu, indem es die im Untersuchungsdesign festgelegten Aggregate inhaltlich vernetzt und konzeptualisiert. Gleichzeitig wird der konzeptionelle Rahmen für die eigenen theoretischen Analysen und empirischen Befunde gelegt (vgl. Töpfer 2009, S. 120f.). Die Pfeile, die in Abb. 1-8 zwischen den einzelnen inhaltlichen Analysefeldern/ Aggregaten eingezeichnet sind, symbolisieren – in weiten Teilen – die vermuteten Ursachen-Wirkungsbeziehungen. Sie bilden die Basis für die anschließende Formulierung von aussagefähigen Hypothesen. Während Verbindungslinien mit einem Pfeil an einem Ende auf gerichtete Ursachen-Wirkungsbeziehungen hindeuten (Wirkungshypothesen), stehen Verbindungslinien mit zwei Pfeilen an den Enden für vermutete Zusammenhänge ohne eindeutige Ursache (Zusammenhangshypothesen). Die acht Hypothesen (H1-H8), die aus erkenntnistheoretischer Sicht das Fundament der Arbeit bilden, sind in Abb. 1-8 mit Kreis gekennzeichnet und werden im Zuge der Erläuterungen zu den vier Ebenen des Forschungsdesigns 28
29
Als Grundlage dient häufig eines der folgenden vier Designtypen: (1) Theorie- oder hypothesentestende Untersuchung, (2) Experiment sowie quasi-experimentelle Ansätze, (3) Standardmodell der Programm-Evaluation und (4) Deskriptives Surveymodell. Die verschiedenen Verfahren/ Instrumente aus dem Baukasten der Methodenlehre können in Abhängigkeit von der Nützlichkeit der Erfüllung des Untersuchungszwecks in vielfältiger Weise miteinander kombiniert werden (vgl. Kromrey 2002, S. 83). Weil die Arbeit empirischer Natur ist und damit eine theoretische und eine praktische Seite bzw. Ebene besitzt, kann sie sowohl Erkenntnis- als auch Handlungsziele verfolgen. Grundsätzlich lässt sich jedes empirische/ praktische Problem erkenntnis- und/ oder handlungsorientiert erforschen. Im Rahmen der Aktionsforschung mit klarer Erkenntnis- und Handlungsdimension ist jedoch eine Oszillation zwischen den zwei Ebenen üblich (vgl. Frerichs 2002, S. 89; Eberhard 1999, S. 16).
1.2 Untersuchungs- und Forschungsdesign
37
ausgeführt. Während die Hypothesen H1, H2 und H6 deskriptiv-erklärenden Charakter besitzen, sind die restlichen Hypothesen vorhersagend-wertender Natur. Die grau unterlegten Felder kennzeichnen im Weiteren die konkreten Gestaltungsund Handlungsempfehlungen in Form von Instrumenten/ Methoden. Sie geben eine direkte Hilfestellung bei der Umsetzung der gewonnenen Erkenntnisse zur Problemlösung und Zielerreichung in der Unternehmenspraxis. Im Sinne des wissenschaftlichen Forschungs-/ Analyseprozesses handelt es sich dabei um Elemente des sog. Gestaltungsdesigns, welches – im Anschluss an Untersuchungs-, Forschungs- und ggf. Prüfungsdesign – das Spektrum an geeigneten Maßnahmen zur Erreichung der formulierten Ziele aufzeigt (vgl. Töpfer 2009, S. 122). Alles in allem lässt sich das hier vorliegende Forschungsdesign als exploratorischinstrumentelles Design30 (EI-Design) klassifizieren (vgl. Fritz 1995, S. 60). Bei diesem steht die Anwendung der nach wissenschaftlichen Maßstäben gewonnenen Erkenntnisse auf konkrete betriebliche Sachverhalte generell im Vordergrund. Des Weiteren geht es um die Entwicklung neuer instrumenteller Konzepte und Methoden, die bei der Lösung unternehmensspezifischer Probleme zum Einsatz kommen und dabei bisherigen Instrumenten/ Methoden überlegen sind. Bevor auf die vier Ebenen mit den untersuchten Aggregaten und ihren Beziehungen im Einzelnen eingegangen wird, sind als „Vorstufe“ fünf forschungsleitende Fragen aufgelistet (vgl. Töpfer 2009, S. 129). Sie begleiten im Weiteren den gesamten Detaillierungs-, Analyse- und Erkenntnisprozess und bilden die Grundlage für eine zielgerichtete Forschungsarbeit und Hypothesenbildung. (1) Warum wird der bei DFSS standardmäßig eingesetzte Problemlösungszyklus (DMADV) den F&E-spezifischen Anforderungen nicht gerecht? (2) Welche Änderungen sind am bestehenden Problemlösungszyklus (DMADV) vorzunehmen, um die Effizienz und Effektivität von DFSS zu erhöhen? (3) Welche Handlungsempfehlungen ergeben sich aus theoriebasierter Sicht, um zu einem verbesserten DFSS-Problemlösungszyklus zu gelangen? (4) Was sind die Inhalte und konzeptionellen Bausteine eines alternativen, auf evolutionären Algorithmen basierenden DFSS-Problemlösungszyklus? (5) Welche ökonomischen Wirkungen werden durch Problemlösungszyklen erreicht, die sich am Vorbild evolutionärer Algorithmen orientieren?
30
Fritz (1995, S. 59ff.) schlägt eine zweidimensionale Klassifizierung von empirischen Forschungsdesigns vor. Die beiden Dimensionen sind einserseits das generelle „Untersuchungsziel“ und andererseits die angestrebte „Aussagenart“. Beim Untersuchungsziel unterscheidet er zwischen exploratorisch und konfirmatorisch. Bei der Aussagenart differenziert er zwischen drei Ausprägungen, nämlich deskriptiv, explikativ und instrumentell. In Kombination der einzelnen Ausprägungen der zwei Dimensionen ergeben sich damit sechs grundlegende empirische Forschungsdesigns.
38
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
Einflussebene
Kostendruck durch Globalisierung
Vollständige Erfüllung wesentlicher Kundenanforderungen (CTQs)
Strategieebene
Differenzierung ggb. Wettbewerbern
Praktizierte Null-Fehler-Qualität in allen Wertschöpfungsproze ssen
Bestehende Produkte/ Prozesse verbessern auf der Basis heutiger Kundenanforderungen
Neue Produkte/ Prozesse entwickeln auf der Basi s zukünftiger Kundenanforderungen
Managementkonzept mittlerer Reichweite - Projektorientiert -
Produktentstehungsprozess (PEP) in Forschung und Entwicklung (F&E)
H1
Six Sigma
A
H2 Einsatz von speziell auf F&E-Anforderungen ausgerichtetem Konzept Design for Six Sigma (DFSS)
Gestaltungsebene
Institutionalisierte s Rahmenkonzept - Weiche Hülle -
Vorgehensmodell/ Problemlösungszyklus - Harter Kern -
A Projektorganisation
Planung & Steuerung
Zyklus für bestehende Produkte/ Prozesse
Zyklus für neue Produkte/ Prozesse in F&E
DMAI C Schutz des harten Kerns vor „Falsifizierung“
Auswirkungsebene
Prozesse mit 6σ σ-Qualität
Robuste s Design
Nachhaltige Anwendung
Geringe(re) Abweichungskosten
Adoption durch andere Unternehmen
Kosteneinsparung/ Net Benefit
B
Legitimitätssteigerung Effizienz & Effektivität
Legende: Vermuteter einseitig gerichteter Zusammenhang Vermuteter zweiseitig gerichteter Zusammenhang Hx
DMADV
Hypothese (H1-H8) Instrument/ Methode
Quelle: Eigene Darstellung
Abb. 1-8 (Teil 1/2): Vernetzung der Inhalte (Forschungsdesign)
1.2 Untersuchungs- und Forschungsdesign
39
Einflussebene
Widersprüchliche/ konfliktäre Kundenanforderungen
Erwartungen der (externen) Umwelt/ Stakeholder
Widerspruchsorientierte Innovationsstrategie
Adoption einschlägig bekannter Managementkonzepte
ManagementModen
Produkt-/ Prozessinnovationen generieren
Systematischer Innovationsprozess mit alternierenden Phasen
Konzept kurzer Reichweite - Inkrementell -
Technologische Konzepte
Konzept großer Reichweite - Synopti sch -
KVP
Ideengenerierung: Intuitiv-kreative Prozesse
B
Ideenbewertung: Systematisch-analytische Prozesse
Vorbild: Kybernetischer Prozess in Regelungstechnik
BPR
Optimierung technischer Systeme
Optimierung biologischer Systeme
Um setzung in VWL: Evolutionäre Ökonomik
Um setzung in BWL: Evolutionäres Management
Gestaltungsebene
Suche nach alternativen Vorgehensmodellen/ Problemlösungszyklen
Analogiebildung & Transformation
H5
H3
Inkrementelle Weiterentwicklung - Praxi sorientiert -
Radikale Neuerung ggb. Ursprungsmodell - Theoriebasiert Evolutionäre Algorithmen
H6 Integration widerspruchsorientierter InnovationsMethode (TRI Z)
Ableitung eines Problemlösungszyklus auf der Basi s Evolutionärer Algorithmen
DMAI DV
Kundennutzen + Kundenzufriedenheit
Strategieebene
IESRM
H4
H7
Robuste s + innovatives De sign
Maximaler „Fit“ zwischen Kundenanforderungen und Produkt-/ Prozessmerkmalen H8 Überlebenssicherung des Unternehmens
Abb. 1-8 (Teil 1/2): Vernetzung der Inhalte (Forschungsdesign)
Auswirkungsebene Populationsdenken
S-KurvenKonzept
40
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
Einflussebene Auf der Einflussebene sind zunächst wesentliche interne, unternehmensbezogene und externe, marktbezogene Einflüsse im Hinblick auf den effektiven und effizienten Einsatz von Managementkonzepten in Unternehmen aufgeführt. Sie wurden bereits im Zusammenhang mit der Problemstellung und Zielsetzung in Unterkapitel 1.1 benannt und im Hinblick auf (mögliche) Ursachen-Wirkungsbeziehungen analysiert. Die Kernaussage besteht darin, dass sich verschärfende Markt- und Wettbewerbsbedingungen aufgrund Globalisierung sowie steigender Kundenanforderungen bzgl. Kosten, Zeit, Qualität und Innovation unmittelbar in den Anforderungen an den Produktentstehungsprozess (PEP) in Unternehmen niederschlagen. Bei letztgenanntem geht es vor allem um das Generieren von innovativen, d.h. neuartigen, und robusten, d.h. fehlerfreien, Produkt-/ Prozessdesigns, welche eine nachhaltige Differenzierung vom Wettbewerb erlauben. Dem Erreichen dieses Ziels stehen u.a. der sinkende eigene Wertschöpfungsanteil und damit die steigende Planungs-/ Steuerungskomplexität der Wertschöpfungsprozesse entgegen sowie die widersprüchlichen, z.T. konfliktären Kundenanforderungen bezogen auf neue Produkte und Prozesse. Hinzu kommt die Tatsache, dass die wesentlichen zukünftigen Kundenanforderungen (CTQs), die als Ausgangspunkt für die gezielte Ableitung von Produkt-/ Prozessmerkmalen dienen, häufig nicht eindeutig vom Kunden kommuniziert und damit für das Unternehmen nur ungenau bzw. vage bestimmbar sind. Dies stellt eine wichtige Voraussetzung für den weiteren Forschungsprozess dar und ist in Hypothese H1 als Wenn-dannAussage mit eindeutiger Ursachen-Wirkungsbeziehung präzisiert.31 H1: Wenn bei der Entwicklung von neuen Produkten/ Prozessen neben der Erzeugung von Null-Fehler-Qualität i.S.v. „robusten Produkten“ die Generierung von Innovation als weitere Zielgröße hinzukommt, dann sind durch Unternehmen die wesentlichen zukünftigen Kundenanforderungen (CTQs), die als Ausgangspunkt für die gezielte Ableitung von Produkt-/ Prozessmerkmalen dienen, überhaupt nicht oder nur unvollständig zu ermitteln. Als weitere Einflussgröße sind im Forschungsdesign in Abb. 1-8 (Teil 2/2) die Erwartungen der (externen) Umwelt, personalisiert in Form der Stakeholder, explizit benannt. Den Hintergrund bildet die Frage, warum bestimmte Managementkonzepte, z.B. Six Sigma, von Unternehmen eingesetzt bzw. nicht eingesetzt werden, und diese Frage häufig nicht allein aus dem Vorliegen „ökonomischer Zwänge“ heraus zu beantworten ist. So liegen nach dem Institutionalistischen Ansatz Veränderungen in der formalen Organisationsstruktur weniger im Wettbewerbsdruck und den daraus folgenden Effizienzanforderungen begründet, sondern insb. 31
Unter einer Hypothese wird nach allg. Auffassung nicht mehr als eine Vermutung über einen Tatbestand verstanden. Im Fall von empirischen Theorien wird der Begriff stärker eingegrenzt. Hier wird unter einer Hypothese eine Vermutung über einen Zusammenhang zwischen zwei Sachverhalten verstanden (vgl. Kromrey 2002, S. 48).
1.2 Untersuchungs- und Forschungsdesign
41
in Vorschriften, Regeln, Erwartungen und Anforderungen der institutionellen Umwelt (vgl. Walgenbach 2002, S. 319ff.). Unternehmen erhöhen ihre Legitimität dadurch, dass sie institutionalisierte Elemente, wie z.B. den DMADV-Zyklus im Rahmen von Design for Six Sigma, in ihre Organisationsstruktur aufnehmen. Die Entwicklung, dass Managementkonzepte vor allem aufgrund ihrer legitimitätssteigernden Wirkung adoptiert werden, führt dazu, dass das Rationalisierungskalkül als Treiber für den organisationalen Wandel von Unternehmen immer mehr in den Hintergrund tritt. Infolgedessen „passt“ das übernommene Managementkonzept als Lösungskonzept häufig nicht zu den wirtschaftlichen Problemen/ Herausforderungen, denen das Unternehmen in der konkreten Situation gegenüber steht. Wie in Abschnitt 1.1.2 ausgeführt, geht auch die Erfahrung beim Einsatz des DMADV-Zyklus im Rahmen von DFSS dahin, dass der Problemlösungszyklus nicht immer zum gewünschten Erfolg führt. Bringt man dies in Zusammenhang mit der in Hypothese H1 formulierten Ausgangssituation bzgl. der schwierigen Bestimmung von CTQs im F&E-Prozess, dann ergibt sich die Hypothese H2 als weitere wichtige empirische Ursachen-Wirkungsbeziehung. H2: Wenn die wesentlichen zukünftigen Kundenanforderungen als Zielwerte der Optimierung im Produktentstehungsprozesses (PEP) (a) nicht oder nur teilweise bekannt und/ oder (b) widersprüchlicher/ konfliktärer Natur sind, dann führen die in praxi bisher verwendeten Vorgehensmodelle/ Problemlösungszyklen zur Generierung von Null-Fehler-Qualität, z.B. DMADVZyklus von Design for Six Sigma (DFSS), nicht zum gewünschten Erfolg, nämlich robuste und innovative Produkte/ Prozesse hervorzubringen. Strategieebene Das langfristige Ziel von Six Sigma besteht darin, praktizierte Null-Fehler-Qualität in allen Wertschöpfungsbereichen zu erreichen, d.h. beginnend vom Produktentstehungsprozess (PEP) in Forschung und Entwicklung (F&E) über Beschaffung/ Herstellung bis zu Marketing/ Vertrieb. Wie in Abschnitt 2.2.3 ausgeführt, erfolgt die Qualitätssteigerung dabei inkrementell-synoptisch und wird über einen projektorientierten Verbesserungsansatz (DMAIC, DMADV) erreicht. Damit unterscheidet sich das Six Sigma-Konzept von anderen, auf das gleiche Ziel fokussierten Konzepten in der Reichweite der angestrebten Veränderungen. So sind die mit der Einführung von Six Sigma verbundenen unternehmensbezogenen Veränderungen der Aufbau- und Ablauforganisation im Vergleich zum Kontinuierlichen Verbesserungsprozess (KVP) von größerer, im Vergleich zu Business Process Reengineering (BPR) von kleinerer Reichweite. Die generellen Wirkungs- und Gestaltungsansätze, die sich aus dem Verfolgen einer Null-Fehler-Strategie in allen Wertschöpfungsprozessen ergeben, ist im linken Teil 1/2 des Forschungsdesigns in Abb. 1-8 verdeutlicht.
42
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
Design for Six Sigma (DFSS) wird im Weiteren als ein Derivat des Six SigmaKonzeptes angesehen mit spezieller Ausrichtung auf den F&E-Bereich; das konkrete Anwendungsfeld bezieht sich hier auf die Sicherstellung von Null-FehlerQualität im Produktentstehungsprozesses (PEP). In Abgrenzung zu Six Sigma besitzt Design for Six Sigma zwar das gleiche institutionalisierte Rahmenkonzept (weiche Hülle), aber einen unterschiedlichen Problemlösungszyklus (harter Kern). Durch den Übergang von DMAIC- auf DMADV-Zyklus soll den spezifischen Anforderungen im Entwicklungsprozess besser Rechnung getragen werden, insb. bei der vollständigen Erfüllung aller wesentlichen zukünftigen Kundenanforderungen (CTQs). In diesem Zusammenhang spielt das Erzeugen von Produkt-/ Prozessinnovationen eine wichtige Rolle, welche jedoch die in Hypothese H1 postulierten Schwierigkeiten bei der Bestimmung der CTQs nach sich ziehen. Wie unter der Einflussebene erläutert, gibt es in F&E nicht nur generelle Ermittlungsschwierigkeiten bei den CTQs. Häufig kommt hinzu, dass die Kundenanforderungen – explizit oder implizit – widersprüchlicher bzw. konfliktärer Natur sind. Unter dieser Voraussetzung sehen sich Unternehmen i.A. außer Stande, Produkte/ Prozesse so zu entwickeln, dass alle wesentlichen Kundenanforderungen vollständig erfüllt werden. Abhilfe kann hier eine Widerspruchsorientierte Innovationsstrategie schaffen, bei der Widersprüche/ Konflikte nicht als Risiko, sondern als Chance für den Produktentstehungsprozess (PEP) gesehen werden. Die Grundidee besteht darin, dass durch die Auflösung der Widersprüche/ Konflikte unmittelbar Innovationen generiert werden. Zu diesem Zweck ist ein systematischer Innovationsprozess aufzusetzen, bei dem sich intuitiv-kreative Phasen zur Ideengenerierung und systematisch-analytische Phasen zur Ideenbewertung abwechseln und damit im Rahmen des PEP ergänzen. Wie im mittleren Teil des Forschungsdesigns in Abb. 1-8 (Teil 2/2) dargestellt, ergibt sich aus der vorstehend genannten Forderung nach alternierenden Phasen im Innovationsprozess ein konkreter Ansatzpunkt für die Erhöhung der Wirksamkeit von einschlägig bekannten Vorgehensmodellen/ Problemlösungszyklen, die zur Generierung von Null-Fehler-Qualität im PEP eingesetzt werden. Indem auf ein ausgewogenes Verhältnis von systematisch-analytischen und intuitiv-kreativen Prozessen/ Arbeitsschritten32 in der Ausgestaltung des jeweiligen Problemlösungszyklus geachtet wird, lässt sich der weiter oben geschilderte Trade-off zwischen Qualitäts- und Innovationsstreben minimieren. Diese Vermutung ist als zielorientierte Wenn-dann-Aussage in Hypothese H3 festgehalten und wird exemplarisch am Beispiel des DMAIDV-Zyklus in Abschnitt 5.3.1 überprüft. 32
Nach Töpfer (2009, S. 131) wird die Qualität eines Forschungsdesigns zum einen dadurch bestimmt, welche Beziehungen zwischen den einzelnen Aggregaten auf einer Ebene und zwischen den verschiedenen Ebenen, also horizontal und vertikal herausgearbeitet werden. Zum anderen ist für die Qualität eines Forschungsdesigns entscheidend, ob wesentliche „Treibergrößen“ erkannt und vernetzt werden. Im vorliegenden Fall ist das Verhältnis von systematisch-analytischen und intuitiv-kreativen Prozessen/ Arbeitsschritten als „treibend“ bzw. bedeutsam einzustufen.
1.2 Untersuchungs- und Forschungsdesign
43
H3: Wenn Problemlösungszyklen, die im Rahmen des Produktentstehungsprozesses (PEP) zum Einsatz kommen, in der Weise modifiziert werden, dass sie ein ausgewogenes Verhältnis von systematisch-analytischen und intuitiv-kreativen Prozessen/ Arbeitsschritten besitzen, dann führt ihre strukturierte Anwendung zu robusten und innovativen Produkt-/ Prozessdesigns. Im rechten Teil 2/2 des Forschungsdesigns in Abb. 1-8 ist – entsprechend dem institutionalisitischen Organisationsansatz – die Adoption einschlägig bekannter Managementkonzepte visualisiert. Dabei wird davon ausgegangen, dass sich Managementkonzepte in zwei Gruppen einteilen lassen: Management-Moden und Technologische Konzepte. Wie in Unterkapitel 2.3 argumentiert wird, unterscheiden sich letztgenannte von Modekonzepten i.e.S. dahingehend, dass sie Vorgehensmodelle beinhalten, welche den Lösungsweg in Form eines Algorithmus beschreiben, der mehrere, aufeinander abgestimmte Phasen enthält. Dabei handelt es sich um den „harten Kern“ des Managementkonzeptes, der – idealerweise – durch ein institutionalisiertes Rahmenkonzept als „weiche Hülle“ ergänzt wird (siehe linken Teil 1/2 des Forschungsdesigns in Abb. 1-8). Der Aufbau und die Struktur der Vorgehensmodelle/ Problemlösungszyklen orientieren sich häufig am Vorbild selbstregulierender (kybernetischer) Prozesse, wie sie in der Regelungstechnik Anwendung finden. Dabei geht es in erster Linie um die Regelung und Optimierung von technischen Systemen, und zwar auf der Basis systematisch-analytischer Prozesse. Neben technischen Systemen besteht die Möglichkeit, neuerdings biologische Systeme als Vorbild für den generellen Aufbau von Vorgehensmodellen/ Problemlösungszyklen zu wählen. Hierzu finden sich in der betrieblichen Praxis aber bisher erst wenig konkrete Ansätze. In den Managementwissenschaften wird die Regelung und Optimierung von biologischen Systemen im Zusammenhang mit Forschungsfeldern „Evolutionäre Ökonomik“ und „Evolutionäres Management“ thematisiert (vgl. Abschnitt 4.3.1). Gestaltungsebene Auf der Gestaltungsebene werden zum einen die Bedingungen für den wirkungsvollen Einsatz von Managementkonzepten in Unternehmen analysiert (siehe Mitte links in Abb. 1-8 (Teil 1/2)). Die Grundthese besteht darin, dass sich effektive von weniger effektiven Managementkonzepten dahingehend unterscheiden, dass sie – wie oben angesprochen – aus einem Problemlösungszyklus als „harten Kern“ sowie einem Rahmenkonzept als „weiche Hülle“ bestehen. Beides zusammen stellt eine nachhaltige Anwendung und hohe Adoptionsrate des Konzeptes sicher. Wie im Falle von Six Sigma gezeigt werden kann, bilden eine klar strukturierte Projektorganisation sowie eine effiziente Projektplanung/ -steuerung die unmittelbare Voraussetzung für eine hohe Wirksamkeit des standardmäßig eingesetzten Problemlösungszyklus (DMAIC). Gleichzeitig wird im Zusammenhang mit Design for Six Sigma die einseitige Ausrichtung auf die Generierung von NullFehler-Qualität i.S.v. „robusten Produkten“ offensichtlich.
44
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
Um das Ziel bzw. die Wirkung „robuste und innovative Produkt-/ Prozessdesigns“ zu erreichen, ist – wie in Hypothese H3 postuliert – ein stärkeres Augenmerk auf die Ausgewogenheit der zugrunde liegenden Prozesse/ Arbeitsschritte zu legen. Für die in Six Sigma bzw. Design for Six Sigma verankerten Problemlösungszyklen bedeutet dies, die überwiegend systematisch-analytischen Prozesse/ Arbeitsschritte durch intuitiv-kreative zu ergänzen. Gleichzeitig bietet die Integration von Widerspruchsorientierten Innovationsmethoden, z.B. TRIZ, die Möglichkeit, Widersprüche/ Konflikte in den ermittelten Kundenanforderungen zu identifizieren und mittels innovativer Prinzipien aufzulösen. Der (vermutete) positive Zusammenhang zwischen der Erweiterung des DFSS-Problemlösungszyklus um widerspruchsorientierte Innovations-Methoden und dem Erreichen von robusten und innovativen Produkt-/ Prozessdesigns ist in Hypothese H4 formuliert. H4: Wenn Unternehmen, welche Design for Six Sigma im Produktenstehungsprozess anwenden, widerspruchsorientierte Innovations-Methoden in den Standard-Problemlösungszyklus integrieren, dann wird hierdurch (a) eine höhere Ausgewogenheit von systematisch-analytischen und intuitivkreativen Prozessen/ Arbeitsschritten und (b) ein höherer Zielerreichungsgrad von Projekten aufgrund der Erzeugung robuster und innovativer Produkt-/ Prozessdesigns erreicht. Die Umsetzung der in Hypothese H4 geforderte Integration von widerspruchsorientierten Innovationsmethoden führt im Fall des DMADV-Zyklus zu einer Erweiterung des Phasenablaufs um die Innovate-Phase (vgl. Abschnitt 1.2.2). Der erweiterte DMAIDV-Zyklus stellt bei näherer Betrachtung eine inkrementelle Weiterentwicklung des Standard-Problemlösungszyklus dar. Ziele und Inhalte orientieren sich relativ stark an den Vorgaben der Unternehmenspraxis und sind von Unternehmen, die DFSS anwenden, leicht zu übernehmen. Die Änderung von Bestehendem in kleinen Schritten, wie es in der Praxis üblich ist, um Besseres hervorzubringen, eignet sich i.A. nicht, um radikale Neuerungen in kurzer Zeit zu erzielen (siehe Mitte rechts in Abb. 1-8 (Teil 2/2)). Zu diesem Zweck sind theoretische (Vor-)Überlegungen anzustellen, bei denen die zu ändernden Strukturen und Prozesse auf abstrakter Ebene rekonstruiert und analysiert werden (vgl. Abschnitt 1.1.3). Wenn die angestrebten Mittel-Zweck-Relationen auf der Realitätsebene erkannt und in vermutete Ursachen-Wirkungsbeziehungen auf der Abstraktionsebene überführt werden, ist zudem eine Beurteilung der Effizienz/ Effektivität des Realobjektes nach wissenschaftlichen Kriterien möglich (vgl. Graumann 2004, S. 282ff.). In Hypothese H5 ist dieser Zusammenhang, bezogen auf den hier interessierenden Untersuchungsgegenstand, in eine empirisch überprüfbare Wenn-dann-Aussage gebracht.
1.2 Untersuchungs- und Forschungsdesign
45
H5: Wenn Vorgehensmodelle/ Problemlösungszyklen als Realobjekte von Managementkonzepten – ausgehend von ihren Teilaufgaben/ -zielen – auf abstrakter Ebene als Denkobjekte rekonstruiert werden, dann führt die theoriebasierte Suche nach Modellverbesserungen zu radikalen Neuerungen (Basisinnovationen), die wissenschaftlichen Effizienzkriterien genügen. Die praxisorientierte Suche und Weiterentwicklung von bestehenden Managementkonzepten und -modellen basiert also auf inkrementellen Veränderungen (Veränderungsinnovationen) nach dem Trial-and-Error-Prinzip, während die theoriebasierte Suche zu radikalen Neuerungen (Basisinnovationen) nach wissenschaftlichen Maßstäben führt. Auf den generellen Unterschied zwischen Veränderungs- und Basisinnovationen wird in Abschnitt 3.2.2 eingegangen. Die Herleitung des wissenschaftlichen Effizienzkriteriums, wie es in Hypothese H5 benannt ist, erfolgt im Zusammenhang mit der Abstraktion der realen Vorgehensmodelle/ Problemlösungszyklen. Wie bei der Vorstellung des Untersuchungsdesigns ausführlich dargelegt (vgl. Abschnitt 1.2.2), besteht die Abstraktionsleistung im vorliegenden Fall darin, dass die Vorgehensmodelle von Managementkonzepten auf eine Ebene transformiert werden, auf der sie mit Algorithmen, die bei der mathematischen Optimierungsrechnung angewendet werden, vergleichbar sind. Unter dieser Voraussetzung lässt sich das folgende, wissenschaftlich exakte Effizienzkriterium spezifizieren. Effiziente Vorgehensmodelle/ Problemlösungszyklen, welche im Rahmen von F&E zur kundenorientierten Produktentwicklung eingesetzt werden, unterscheiden sich von weniger effizienten dadurch aus, dass sie im Problemlösungsprozess nicht bei einer einmal gefundenen, suboptimalen Lösung (lokales Optimum) verharren, sondern diese von sich aus „überspringen“, um die optimale Lösung aus Kundensicht zu finden (globales Optimum). Im übertragenen Sinn bedeutet dies, dass die Vorgehensmodelle/ Problemlösungszyklen möglichst so zu gestalten sind, dass sie für bestehende Kundenprobleme jeweils ohne äußeres Zutun, d.h. endogen, neue Lösungswege/ -ansätze finden. Gleichzeitig ist damit die Forderung verbunden, dass sie nicht vorzeitig, aufgrund prozessbedingter Vorgaben, die Suche nach dem aus Kundensicht optimalen Produkt-/ Prozessdesign abbrechen. In diesem Fall wird nämlich die Chance, Innovationen im Entwicklungsprozess zu generieren, minimiert. Die Transformation und der Vergleich mit mathematischen Algorithmen nimmt eine zentrale Rolle in dieser Dissertation ein. Über einen Analogieschluss sollen Defizite bei Vorgehensmodellen/ Problemlösungszyklen, die bei einschlägig bekannten Managementkonzepten eingesetzt werden, erkannt und nach Möglichkeit behoben werden. Nach dem Prinzip der Synektik wird dabei Wissen aus einem fachfremden Bereichen (Mathematik) mit dem Ausgangsproblem (BWL) verknüpft und daraus kreative Lösungsmöglichkeiten abgeleitet (vgl. Backerra et al. 2002, S. 90ff.). Dieser konzeptionelle Ansatz ist als synthetische Aussage in Hypothese H6 enthalten. Die empirische Überprüfung der Hypothese erfolgt in Unterkapitel 3.4 am Beispiel des DMAIC- und DMADV-Zyklus.
46
1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
H6: Wenn reale Vorgehensmodelle/ Problemlösungszyklen nach wissenschaftlichen Effizienzkriterien zu beurteilen und – entsprechend der Aufgabenstellung – zu verbessern sind, dann sind die Transformation (Analogieschluss) und der Vergleich mit mathematischen Algorithmen zur Optimierung einer einfachen Zielfunktion ein probates Mittel zur Erkenntnisgewinnung. Auswirkungsebene Durch die Transformation und Analogiebildung werden, wie vorstehend beschrieben, nicht nur Defizite bei bestehenden Vorgehensmodellen/ Problemlösungszyklen aufgedeckt und (wissenschaftlich) erklärt. Vielmehr ist es hiermit möglich, gänzlich neue Gestaltungsansätze i.S.v. Basisinnovationen zu finden und anschließend deren Wirkungen in der Praxis zu prognostizieren.33 In der vorliegenden Untersuchung werden – durch den Vergleich mit der mathematischen Optimierungsrechnung – Evolutionäre Algorithmen (EA) respektive Genetische Algorithmen (GA) als neue, innovative Gestaltungsansätze für reale Vorgehensmodelle/ Problemlösungszyklen in der Unternehmenspraxis identifiziert. Wie im Forschungsdesign in Abb. 1-8 (Teil 2/2) nachvollziehbar, kommen die Evolutionären Algorithmen bei der theoriebasierten Suche nach alternativen Vorgehensmodellen/ Problemlösungszyklen als moderierende Variable bzw. Einflussgröße in den Analysefokus. Sie bilden die Grundlage für die Ableitung eines alternativen Problemlösungszyklus (IESRM) im Rahmen von Design for Six Sigma. Aus der mathematischen Optimierungsrechnung ist bekannt (vgl. Abschnitt 4.1.1), dass Evolutionäre Algorithmen, die auf der simultanen Optimierung von mehreren Lösungen (Population) basieren, konventionellen Algorithmen, welche die inkrementelle Verbesserung einer einmal gefundenen (Näherungs-)Lösung zum Gegenstand haben, in punkto Effektivität und Effizienz überlegen sind. Diese Erkenntnis bildet die Grundlage für die vermuteten Ursachen-Wirkungsbeziehungen auf der Auswirkungsebene.34 In Hypothese H7 wird zunächst der folgende Analogieschluss manifestiert: Wenn sich EA´s bzw. GA´s bei der Lösung schwieriger mathematischer Probleme bewährt haben, dann ist es naheliegend, sie auch bei der Lösung unternehmensbezogener Problemstellungen einzusetzen, z.B. in F&E bei der Suche nach innovativen und robusten (Neu-) Produkten. Zu diesem Zweck ist der GA-Basisalgorithmus in Form eines konkreten Problemlösungszyklus mit eindeutigem Phasenablauf und strukturiertem Methodenein33
34
Die betriebswirtschaftliche Forschung, die sich mit dem Erfahrungsobjekt „Management von Unternehmen“ befasst, enthält ein zweigeteiltes Erkenntnisziel, im Rahmen dessen Erklärungs- und Prognosemuster für empirisch festgestellte Zielsetzungen in der Unternehmenspraxis herausgearbeitet werden (vgl. Töpfer 2007a, S. 40f.). Die wesentlichen Ziele und Ergebnisse der wissenschaftlichen Untersuchung finden sich auf der Auswirkungsebene wieder. Dabei kommt es darauf an, dass die inhaltlichen Bausteine/ Aggregate der Strategie- und Gestaltungsebene in wesentliche Wirkungskategorien – direkt oder indirekt – einmünden (vgl. Töpfer 2009, S. 131).
1.2 Untersuchungs- und Forschungsdesign
47
satz zu spezifizieren. Erst dann lässt er sich als alternativer DFSS-Zyklus einsetzen, der dem Standard-Problemlösungszyklus (DMADV) überlegen ist. H7: Wenn der bei der mathematischen Optimierungsrechnung verwendete Evolutionäre Algorithmus (EA) in Form eines konkreten Problemlösungszyklus mit eindeutigem Phasenablauf und strukturiertem Methodeneinsatz operationalisiert wird, dann führt dessen Anwendung im Rahmen von Design for Six Sigma zu Produkten respektive Prozessen, die (a) eine maximale Übereinstimmung (Fit) mit den – explizit oder implizit – formulierten Kundenanforderungen aufweisen und (b) den mit dem Standard-Problemlösungszyklus (DMADV) gewonnenen Produkt-/ Prozessergebnissen klar überlegen sind. Das vordergründige Ziel von EA´s bzw. GA´s besteht darin, die Leistungsfähigkeit als mittlere Fitness einer Population zu maximieren. Dabei steigt – bei gerichteter Selektion (Auslese) der in einer Population zusammengefassten Lösungen – die geometrische mittlere Fitness in Form eine S-Kurve über die Zeit bzw. die kumulierte Anzahl von Generationen (vgl. Abschnitt 4.3.4). Dieser Zusammenhang lässt sich mittelbar auf den Einsatz alternativer, EA-basierter Vorgehensmodelle (IESRM-Zyklus) in der Unternehmenspraxis übertragen. Wie in Hypothese H8 postuliert, entwickelt sich bei der Anwendung vorstehend genannter Vorgehensmodelle die Leistungsfähigkeit (Fitness) entsprechend der aus dem Technologiemanagement bekannten „S-Kurve“ (vgl. Abschnitt 3.2.1). Wenn sich die Hypothese bewährt, dann werden Unternehmen zukünftig in die Lage versetzt, die Leistungsfähigkeit ihrer Neuprodukte/ -prozesse – vor Markteinführung – zu maximieren. Gleichzeitig ist es ihnen möglich, systemimmanente (Technologie-)Sprünge zu simulieren und damit Innovationen proaktiv zu generieren. In Unterkapitel 5.3 werden diese Wirkungen auf der Basis des IESRM-Zyklus explorativ untersucht und schematisch nachvollzogen. H8: Wenn Unternehmen die Leistungsfähigkeit (Fitness) ihrer Produkte/ Prozesse mithilfe von Vorgehensmodellen, die sich am Vorbild Evolutionärer Algorithmen orientieren, optimieren, dann entwickelt sich die Zielgröße (a) endogen entsprechend der aus dem Technologiemanagement bekannten „S-Kurve“, also erst steigende und dann fallende Innovationserträge, und (b) zufällig aufgrund des Auftretens von Mutationen auf der Merkmalsebene, was systemimmanente (Technologie-)Sprünge nach sich zieht. Die acht Hypothesen, welche die „Leitplanken“ des weiteren Forschungsprozesses bilden, sind abschließend in Abb. 1-9 im Überblick dargestellt. Hier wird zum einen noch einmal der Ableitungszusammenhang und folglich der wesentliche Gedankengang des Forschers auf einem Blick ersichtlich. Zum anderen werden die Hypothesen hinsichtlich ihrer empirischen Überprüfung eingeordnet/ strukturiert. Die Abbildung gibt damit das Prüfungsdesign wider, welches nach Töpfer
Art der Belege
Abb. 1-9: Überprüfung der Hypothesen (Prüfungsdesign)
Quelle: Eigene Darstellung
Indirekter Ableitungszusammenhang
Direkter Ableitungszusammenhang
Legende:
Exploration anhand von zwei Fallstudien
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen
5.1 DMAIDV-Zyklus als erweiterter DFSSProblemlösungszyklus
Kapitel 5:
Meta-Analyse von DMAIC u. DMADV
3.4 Formal-analytische Beschreibung und Analyse der Six Sigma-Zyklen
Kapitel 3:
Kriterienbasierte Modelluntersuchung
3.2 Vorgehensmodelle zur Generierung von Innovationen u. Null-Fehler-Qualität
Kapitel 3:
Empirische Studie von Graumann (2004)
2.3.2 Six Sigma als Technologie mit theoretisch fundiertem Vorgehensmodell
Kapitel 2:
Empirische Studie von Fink (2003)
2.1.2 Differenzierung von Managementkonzepten nach Strategiepotenzial –
Kapitel 2:
Empirische Studie von Schmieder (2005)
1.1.2 Emp. Befunde zum Einsatz und zur Verbreitung von Six Sigma und DFSS
Kapitel 1:
Bezug im Text Implikationen der zwei Zielgrößen „Null-Fehler-Qualität“ und „Innovation“ auf die effektive Ermittlung der Kundenanforderungen (CTQs)
Rekonstruktion von realen Vorgehensmodellen/ Problemlösungszyklen auf der Abstraktionsebene für theoriebasierte Verbesserungen
H5
Fehlende und/ oder widersprüchliche Kundenanforderungen (CTQs) als maßgebliche Gründe für das Scheitern von DFSS-Projekten
H2
H1
Fremduntersuchungen - Sekundärquellen -
H6
H3
Transformation (Analogieschluss) und Vergleich mit mathematischen Algorithmen als probates Mittel zur Erkenntnisgewinnung bzgl. DFSS
Ausgewogenes Verhältnis von systematisch-analytischen und intuitiv-kreativen Prozessen/ Arbeitsschritten als Erfolgsfaktor
Inhaltsanalysen/ Verdichtung von Expertenwissen
Ökonomische Wirkungen von einem um widerspruchsorientierte Innovationsmethoden erweitertem DFSSProblemlösungszyklus (DMAIDV)
Konzeptionelle Vorteile von einem alternativen, am Vorbild Evolutionärer Algorithmen orientierten DFSSProblemlösungszyklus (IESRM)
H8
H7 Ökonomische Wirkungen von einem alternativen, am Vorbild Evolutionärer Algorithmen orientierten DFSSProblemlösungszyklus (IESRM)
H4
Eigene Untersuchungen - Primärquellen -
48 1 Einsatz von Design for Six Sigma im Produktentstehungsprozess
(2009, S. 122) den dritten Designbaustein von empirischen Forschungsarbeiten darstellt. Im Kern geht es um die Beantwortung der Frage, wie die aufgestellten Hypothesen in der Realität überprüft und getestet werden (sollen).
2
Six Sigma – Zeitgemäßes Managementkonzept zur Erzielung von Null-Fehler-Qualität im Wertschöpfungsprozess
Six Sigma kennzeichnet im Grunde genommen eine Strategie, die alle erfolgreichen Unternehmen mit einer hohen Qualitätsorientierung seit Jahren auszeichnet (vgl. Masing 2004): Der Kunde steht im Mittelpunkt, Unternehmensprozesse sind der Ausgangspunkt für Verbesserungen, Umsatzsteigerungen und Kosteneinsparungen resultieren aus fehlerfreien Prozessleistungen. Vor diesem Hintergrund erscheint das häufig angeführte Argument „Six Sigma ist alter Wein in neuen Schläuchen“ berechtigt. Andererseits basiert Six Sigma – gegenüber vielen anderen Konzepten, z.B. TQM – auf konkreten, umsetzungsorientierten Verbesserungsprojekten mit einem eindeutigen Ablaufschema und einem strukturierten Methodeneinsatz, der vor allem durch seine wissenschaftliche Stringenz besticht. Unter dieser Voraussetzung stellt Six Sigma eine echte Weiterentwicklung zu bekannten QM-Konzepten dar. Verwendet man die Metapher von oben, dann ist es zutreffend zu sagen: „Six Sigma ist besserer Wein in alten Schläuchen!“
2.1
Bedeutungsinhalte und Dimensionen des Begriffs Managementkonzept
In der Managementliteratur werden die Begriffe Managementkonzept, -modell, -prinzip, -philosophie, -instrument und -theorie größtenteils synonym verwendet. Einheitliche und durchgängige Begriffsdefinitionen sind eher die Ausnahme als die Regel. Dabei kann den einzelnen Begriffen zweifelsohne eine unterschiedliche semantische Bedeutung zugeordnet werden. In den meisten Fällen ist die Verwendung der Begriffe – intuitiv – dem jeweiligen Kontext angepasst und entspricht – bewusst oder unbewusst – dem Vorverständnis des Forschers. Im Folgenden soll auf den Begriff „Managementkonzept“ abgestellt werden, da dieser aus Sicht des Autors den umfassendsten empirischen Bezugsbereich beschreibt.1 2.1.1
Theoretische Begriffsdeutung nach Wortstamm
In diesem Abschnitt soll zunächst deutlich gemacht werden, welchen Gegenstand das Wort „Managementkonzept“ genau bezeichnet. Da der Ausdruck aus den 1
Nach Seghezzi (1996, S. 198) ist der Begriff des Managementkonzepts von dem des Managementsystems und des Managementmodells abzugrenzen. Während ein Managementkonzept den theoretischen, gedanklichen Rahmen eines geplanten Managementsystems darstellt und allgemeingültige Vorstellungen und Leitgedanken beinhaltet, wird in einem Managementmodell die Wirklichkeit in abstrakter Form widergespiegelt (z.B. Normen und Regelwerke wie die ISO 9000:2000). Ein Managementsystem baut direkt auf dem Managementkonzept auf, ergänzt dieses um konkrete inhaltliche Angaben zum organisatorischen Ablauf und bietet Unterstützung bei der unternehmensbezogenen Umsetzung. Managementmodelle bilden das Bindeglied zwischen Managementsystem und Managementkonzept.
50
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
beiden Einzelwörtern „Management“ und „Konzept“ besteht, gibt es aus terminologischer Sicht grundsätzlich zwei Herangehensweisen, um den Begriff Managementkonzept zu spezifizieren. Der Weg über den ersten Term erscheint dabei insofern von Vorteil, da sich die Definitionen und Erklärungsansätze für Management in der Vergangenheit relativ stark angenähert haben. So lassen sich heute in der angloamerikanischen Literatur – auf übergeordneter Ebene – zwei Bedeutungsvarianten ausmachen (vgl. Staehle 1999, S. 71): •
Zum einen wird Management im funktionalen Sinn verwendet (Managerial functions approach): Management ist der Prozess des Planens, Organisierens, Führens und Steuerns von Aktivitäten der Organisationsmitglieder, wobei alle vorhandenen Ressourcen zur Erreichung der vorgegebenen Ziele einbezogen werden (vgl. Stoner/ Freeman 1989, S. 4).2
•
Zum anderen wird Management im institutionalen Sinn gebraucht (Managerial roles approach): Management ist die Tätigkeit der Manager, welche die Organisations-/ Unternehmensziele durch die Allokation vorhandener Mittel/ Ressourcen zu erreichen versuchen (vgl. Hellriegel/ Slocum 1996, S. 5f.).3
Folgt man zweitgenannter Bedeutungsvariante und betrachtet „Managen“ als dispositive Leistung des Managements, dann kann dessen Ergebnisqualität anhand folgender drei Kriterien beurteilt werden (vgl. Drucker 1974, S. 40f.): (a) Zielerreichungsgrad (Effektivität) der geplanten Handlung(en) auf ökonomischer Ebene unter Angabe monetärer und nicht-monetärer Zielgrößen, (b) Produktivität bzw. Wirtschaftlichkeit (Effizienz) des Ressourceneinsatzes auf ökonomischtechnischer Ebene bezogen auf o.g. Zielgrößen sowie (c) Soziale Kompetenz/ Verantwortung der Manager bei der Maßnahmenumsetzung zur Verbesserung von Effektivität und Effizienz im Unternehmen. Das letztgenannte Kriterium bezieht sich vor allem auf die Mitarbeiterführung und damit auf die soziale Ebene; seine Erfüllung gilt als wichtige Nebenbedingung „guten Managements“. Während hinsichtlich der Bedeutung des Wortes „Management“ weitestgehend Konsens herrscht, ist für den Term „Konzept“ lediglich unstrittig, dass es sich bei einem Konzept um Wissen handelt. Genauer gesagt, ist der Gegenstand „Konzept“ eine Art der Gattung „Wissen“ (vgl. Graumann 2004, S. 286). Dabei bezeichnet bzw. repräsentiert Wissen Gegenstände eines empirischen Bezugsbereichs, welcher ein diskursbasiertes Prüfverfahren durchlaufen hat (vgl. Schreyögg/ Geiger 2003, S. 12f.). Das Trägermedium für dieses gegenstandsbezogene Wissen ist in diesem Fall das menschliche Gehirn; der empirische Bezugsbereich ist das aufga-
2
3
Der analytisch-funktionsorientierte Ansatz geht auf HENRI FAYOL (1916) zurück und ist damit deutlich älter als der empirisch-handlungsorientierte Ansatz, der seinen Ursprung bei SUNE CARLSON (1951) hat. In die gleiche Richtung argumentiert auch PETER F. DRUCKER (1974). Er versteht unter Management die Fähigkeit (von Managern), die vorhandenen Ressourcen planvoll und gezielt einzusetzen, um die gesetzten Unternehmensziele bestmöglich zu erreichen.
2.1 Bedeutungsinhalte und Dimensionen des Begriffs Managementkonzept
51
benbezogene Management von/ in einem Unternehmen.4 Wenn das Konzept als eine klar umrissene Grundvorstellung über die inhaltliche Ausgestaltung eines realen Objekts interpretiert wird, dann kann ein „Managementkonzept als eine klar umrissene Grundvorstellung über die Ausgestaltung der [strategischen] Führungsaufgaben verstanden werden“ (Hahn et al. 1999, S. 5). Vor diesem Hintergrund sind nach vorstehend genannten Forschern Managementkonzepte das Wissen bzw. die klar umrissene Grundvorstellung von Führungskräften/ Managern über die Ziele & Strategie, die Struktur & Kultur sowie die Instrumente & Methoden, die im Rahmen einer effizienten und effektiven Unternehmensführung einzusetzen sind. Anhand der drei Dimensionen in Abb. 2-1 lassen sich die Gegenstände strategischer Unternehmensführung und damit die Inhalte/ Wirkungsbereiche von Managementkonzepten eindeutig klassifizieren: •
Ziele und Strategie: Ausgangspunkt für die Umsetzung von Managementkonzepten bildet die generelle Zielstruktur des Unternehmens. Managementkonzepte sind infolgedessen zum einen dahingehend zu untersuchen, inwieweit sie die Festlegung und die Ausgestaltung der generellen Unternehmensziele, z.B. Erfolgs- und Liquiditätsziel, beeinflussen. Zum anderen ist zu analysieren, wie sie die Ausrichtung der Geschäftsfeldstrategie, der Funktionsbereichs- und Regionalstrategien sowie die Gestaltung der Querschnittsfunktionen durch das Management determinieren. Die grundlegenden, strategischen Führungsaufgaben bestimmen dabei zwingend die operativen Führungs- und Umsetzungsaufgaben, die wiederum durch die spezifische Ausrichtung eines Managementkonzepts, z.B. Six Sigma, beeinflusst werden.
•
Struktur und Kultur: Ein weiterer wichtiger Bestandteil eines Managementkonzepts ist sein Einfluss auf die Aufbau- und Ablauforganisation von Unternehmen. Dabei enthält die auf Dauer angelegte Aufbau- bzw. Potenzialstruktur zwingend den Faktor Mensch als Potenzialelement. Zusammen mit der Ablauf- bzw. Aktionsstruktur regelt sie die Aufgaben-, Verantwortungs- und Kompetenzbereiche sowie die Arbeitsbeziehungen zwischen den einzelnen Unternehmenseinheiten. Parallel dazu ergibt sich die Frage, in welchem Ausmaß Managementkonzepte die Denk-, Verhaltens- und Entscheidungsmuster von Mitarbeitern und Führungskräften beeinflussen und damit insgesamt die Unternehmenskultur prägen. Um die unternehmensweite Akzeptanz und Umsetzung der Konzepte zu sichern, kommt den Führungskräften jeweils eine kulturprägende/ -vermittelnde Rolle zu.
•
Instrumente und Methoden: Managementkonzepte beinhalten i.d.R. spezifische Instrumente und Methoden, die auf operativer und strategischer Ebene
4
Während Graumann (2004, S. 288ff.) zwischen „praktischen“ und „wissenschaftlichen“ Managementkonzepten unterscheidet, nehmen Teichert/ Talaulicar (2002, S. 416) eine Typenbildung anhand von bibliometrischen Daten vor. Auf der Basis bibliometrischer Daten des Social Science Citation Index (SSCI) wird eine Klassifizierung bekannter Managementkonzepte vorgenommen und überprüft.
52
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
zum Tragen kommen. So werden auf strategischer Ebene unter Instrumenten konzeptspezifische Informations- und Anreizsysteme verstanden, welche zielorientierte Informationen zur Verfügung stellen sowie Stimuli bei den Akteuren schaffen, um ein zielgerechtes Entscheiden und Handeln zu ermöglichen. Methoden beziehen sich auf strategischer Ebene u.a. auf allgemeine Vorgehensmodelle zur Einführung und Umsetzung des Konzeptes im gesamten Unternehmen. In gleicher Weise existieren konzeptspezifische Führungsund Durchführungsmethoden auf operativer Ebene, welche z.B. die Abwicklung von Verbesserungsprojekten5 determinieren. Ziele & Strategie
Struktur & Kultur
Instrumente & Methoden
Basis: Hahn et al. 1999, S. 5
Abb. 2-1: Inhalte/ Wirkungsbereiche von Managementkonzepten
Der 3-dimensionale Ansatz von Hahn et al. (1999) ermöglicht die Klassifizierung von Managementkonzepten auf „hoher Ebene“ und wird bei der Einordnung der Konzepte zur Verbesserung der Prozess- und Produktqualität in den Abschnitten 2.2.1-2.2.3 zugrunde gelegt. Die einzelnen Dimensionen des Ansatzes sind durch Angabe von Entscheidungskriterien (weiter) zu operationalisieren. Eine detailliertere Untersuchung und Abgrenzung von Managementkonzepten ist z.B. mithilfe des mehrdimensionalen Ansatzes von Davenport (1993) möglich.6 Auf der Basis eines 7-Punkte-Kritierenrasters stellt er die zentralen Unterschiede zwischen den beiden Prozessverbesserungskonzepten CIP – Contineous Improvement Process und BPR – Business Process Reengineering heraus. In Abschnitt 2.2.4 wird auf dieser Grundlage ein Vergleich mit dem Six Sigma-Konzept
5
6
Als Hilfsmittel zur Planung, Steuerung und Kontrolle dieser Aktivitäten kommen Instrumente, z.B. Qualitätsmanagement-Instrumente, zum Einsatz. Letztere sind eher auf die Erreichung von Sachzielen gerichtet, während z.B. Controlling-Instrumente primär zur Erfüllung von Ergebniszielen eingesetzt werden. Ein nicht kriterienbasierter Vergleich der drei Managementkonzepte ISO 9001:2000, MBNQA-Excellence Model und Six Sigma findet sich u.a. in Grupta (2004, S. 12).
2.1 Bedeutungsinhalte und Dimensionen des Begriffs Managementkonzept
53
vorgenommen. Dabei wird das ursprüngliche Raster von Davenport auf insgesamt 10 Kriterien erweitert, um die in Abb. 2-1 aufgeführten Inhalte/ Wirkungsbereiche in einem ausgewogenen Verhältnis zu berücksichtigen. 2.1.2
Praktische Differenzierung nach Strategiepotenzial
Die Relevanz bestimmter Managementkonzepte in der Unternehmenspraxis richtet sich vor allem danach, in welcher Wettbewerbssituation sich das Unternehmen gerade befindet und welche Ziele/ Strategien konkret verfolgt werden. Beide Fragen, die vor allem die inhaltliche Konzeption und Ausgestaltung von Managementkonzepten betreffen, können mit den oben genannten Kriterienraster(n) objektiv beantwortet werden. Darüber hinaus spielt für den potenziellen Anwender das wahrnehmbare strategische Potenzial eines Managementkonzeptes sowie die aktuelle und zukünftig erwartbare Anwendungs- bzw. Adoptionsrate eine wichtige Rolle in seinem Entscheidungskalkül (vgl. Fink 2003, S. 53): •
Die Adoptionsrate kennzeichnet den Anteil von Unternehmen in einer relevanten Population (z.B. Branche oder Region), welche die Standards, Normen, Methoden, Verhaltensweisen, Organisationsanforderungen etc. eines bestimmten Konzeptes einsetzen und verfolgen.
•
Das Strategiepotenzial stellt einen geeigneten (qualitativen) Vergleichsmaßstab dar, der in komplexen Entscheidungssituationen als Effizienzkriterium zur Bewertung von Managementkonzepten herangezogen werden kann. Der Maßstab orientiert sich vorzugsweise an den ökonomischen Zielen eines Unternehmens und basiert auf Ursachen-Wirkungsüberlegungen.
In einer neueren empirischen STUDIE VON FINK (2003) zur Verknüpfung von Managementkonzepten und Wettbewerbsstrategien von Unternehmen werden für den deutschsprachigen Raum insgesamt 10 Konzepte identifiziert (siehe Abb. 2-2). Auf der Basis des Lebenszyklusansatzes entwickelt der Forscher ein Modell, um die Managemententscheidungen hinsichtlich der Einführung von Managementkonzepten zu erklären. Mit dem Ziel, die Effektivität und das strategische Potenzial von Six Sigma, inkl. Design for Six Sigma, zu prognostizieren, werden die Grundzüge dieses dynamischen Analysemodells kurz refferiert. Ausgangspunkt der Untersuchung bildet die Tatsache, dass es i.d.R. nicht möglich ist, den ökonomischen Wert von Managementkonzepten – weder im vorhinein noch im nachhinein – für ein Unternehmen exakt zu bestimmen. Wie der Forscher feststellt, ist die Quantifizierung des (monetären) Nutzens und die eindeutige Zurechnung zu bestimmten Managementkonzepten praktisch unmöglich. Trotzdem gibt es aus Sicht der Entscheider, d.h. Manager, „gute Gründe“, warum gerade dieses und nicht jenes Konzept eingeführt und umgesetzt wird. Unter der Voraussetzung, dass Manager ein fundamentales Interesse daran haben, die Wettbewerbssituation ihres Unternehmens zu sichern und, wenn möglich, zu verbessern, werden sie ein Konzept in ihrem Unternehmen genau dann einführen, wenn sie von seinem strategischen Potenzial/ Wert überzeugt sind.
54
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
In der Unternehmenspraxis sehen sich die Manager mit einer zunehmend komplexeren und dynamischeren Umwelt konfrontiert. Durch die Übernahme von Managementkonzepten, die sich i.d.R. durch eine einfache und klare Struktur auszeichnen, reduzieren sie die Komplexität ihrer Entscheidungssituation. Durch mehr oder weniger präzise Handlungsanweisungen wird der (komplexe) Entscheidungsraum (stark) eingeschränkt, so dass sich gleichzeitig die Unsicherheit in Bezug auf das, was eine starke Wettbewerbsposition in Zukunft auszeichnet, reduziert. In diesem Zusammenhang ist es in der Praxis oftmals nicht notwendig, den genauen Erfolgsbeitrag zu spezifizieren, der aus der Anwendung eines bestimmten Konzeptes resultiert. Solange ein Managementkonzept als „Best practice“ gilt und die Unternehmensleitung sowie verantwortlichen Führungskräfte allgemeine Anerkennung für seine Anwendung finden, wird es nicht weiter hinterfragt. Obwohl der Legitimitäts- den Wirtschaftlichkeitsaspekt in vielen Fällen überwiegt (vgl. z.B. Walgenbach/ Beck 2003, S. 499), ist die Durchführung einer KostenNutzen-Analyse prinzipiell wünschenswert, um – zumindest langfristig – einen positiven Effekt des Managementkonzepts auf die Profitabilität/ Effizienz des Unternehmens nachweisen zu können. Die Probleme bei der Messung der ökonomischen Effizienz von Managementkonzepten ergeben sich – aus wissenschaftlicher Sicht – insbesondere aus den zu quantifizierenden Einzahlungs- und Auszahlungsströmen im Rahmen der Kapitalwertmethode. Die Entscheidung der Unternehmensleitung für oder gegen die Einführung eines bestimmten Managementkonzepts ist nämlich vergleichbar mit einer Investitionsentscheidung in die wesentlichen Ideen und Prinzipien, die das Konzept kennzeichnen bzw. beinhalten. Aus Wirtschaftlichkeitsüberlegungen ist die Implementierung eines Konzeptes genau dann sinnvoll, wenn die im Rahmen der „Managementkonzept-Investition“ erwarteten zukünftigen Zahlungsüberschüsse die Auszahlungen in der Anfangs-/ Implementierungsphase (über)kompensieren.7 Um die Wirkung von Umwelteinflüssen als nicht konzeptbedingten Zahlungsüberschüssen herauszurechnen, ist immer eine Analyse der Rahmenbedingungen, also der unternehmensspezifischen Wettbewerbssituation sowie der situativen Umwelteinflüsse auf das Unternehmen, notwendig. Das Effizienzkriterium stellt mehrere Dimensionen eines existierenden ökonomischen Potenzials dar, die im direkten Zusammenhang mit der spezifischen Situation des Unternehmens sowie den ihm umgebenden Netzwerk stehen. Entsprechend der drei generischen Wettbewerbsstrategien nach MICHAEL E. PORTER (1988, S. 62ff.) umfasst der Entscheidungsspielraum genau zwei Dimensio-
7
Ermittlungs- und Abgrenzungsprobleme ergeben sich sowohl im Hinblick auf die Prognose der zukünftigen Investitionsrückflüsse bzgl. des Gesamtunternehmens als auch im Hinblick auf die Abgrenzung des finanziellen Überschusses (Net Benefit), der allein aus der Implemen-tierung des Managementkonzeptes resultiert.
2.1 Bedeutungsinhalte und Dimensionen des Begriffs Managementkonzept
55
nen8, die für das strategische Wettbewerbspotenzial eines Managementkonzepts kennzeichnend sind. Dabei ist die Existenz von mindestens einem Potenzial eine notwendige, aber keine hinreichende Bedingung, um die Wettbewerbsposition des Unternehmens zu verbessern: •
Wahrgenommenes Differenzierungspotenzial (DP) und
•
Wahrgenommenes Kostenführerschaftspotenzial (CP).
Auf der Basis der zwei Dimensionen lässt sich ein Strategie-Potenzial-Portfolio konstruieren, mit dessen Hilfe die untersuchten Managementkonzepte (eindeutig) klassifiziert werden können.9 Wie in Abb. 2-2 ersichtlich, ergibt sich durch das Bilden und Einzeichnen der arithmetischen Mittelwerte für jede Dimension ein Vier-Quadranten-Schema. Dabei steht jeder Quadrant für eine andere Gewichtung und/ oder ein anderes Niveau der Dimensionen DP und CP; er kennzeichnet damit eine bestimmte Klasse von Managementkonzepten: (1) Hybride Konzepte: besitzen sowohl ein hohes Differenzierungs- als auch ein hohes Kostenführerschaftspotenzial. Damit kann ihnen insgesamt ein hohes Strategiepotenzial für das Unternehmen zugesprochen werden. Die Gruppe umfasst die drei Konzepte E-Commerce/ E-Business (EC), Total Quality Management (TQM) und Core Competence Management (CCM). (2) Kostenführerschaftskonzepte: sind im Gegensatz zu (4) durch ein relativ hohes Kostenführerschaftspotenzial, aber ein nur geringes Differenzierungspotenzial gekennzeichnet. Neben Business Process Reengineering (BPR) gehört insb. Lean Management (LM) zu dieser Gruppe, dem mit einem Wert von 465 das höchste Kostenführerschaftspotenzial zugesprochen wird. (3) Neutrale Konzepte: zeichnen sich durch ein insgesamt geringes strategisches Potenzial aus, da sie weder ein Differenzierungs- noch ein Kostenführerschaftspotenzial deutlich erkennen lassen. Zu dieser Gruppe gehören u.a. die Konzepte Shareholder Value Management (SVM), Growth Strategies (GS) und Virtual Corporations/ Network Organisations (VC). (4) Differenzierungskonzepte: weisen ein relativ hohes Differenzierungspotenzial auf, aber ein nur geringes Kostenführerschaftspotenzial. Nach Auskunft der Befragten gelten Customer Relationship Management (CRM) und Knowledge
8
9
Neben diesen Kriterien 1. Grades, deren Veränderung einen direkten Einfluss auf die aktuelle Wettbewerbssituation haben, gibt es auf untergeordneten Ebenen Effizienzkriterien 2. bis n. Grades. Zu ihnen gehören bspw. die Stärkung der Innovationskraft und die Erhöhung der Kundenzufriedenheit. Die beiden Dimensionen des Strategie-Potenzial-Portfolios werden auf der Basis einer 5-stufigen Likert-Skala mit den Extrempunkten „niedrig“ (Wert = 100) und „hoch“ (Wert = 500) erfasst. Obwohl es sich bei der Befragung von Fink (2003) im Prinzip um eine ordinale Skalierung der Merkmalsausprägungen handelt, wird zur (besseren) Interpretation und Darstellung der Ergebnisse eine quasi-metrische Skalierung angenommen (vgl. Benninghaus 2005, S. 53ff.).
56
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
Management/ Learning Organisation (KM) mit einem Wert von je 433 als die Konzepte mit dem höchsten Differenzierungspotenzial. Die Werte für die beiden Dimensionen DP und CP werden für jedes Managementkonzept getrennt voneinander erfasst. Durch die Berechnung des arithmetischen Mittelwertes aus den zwei Werten lässt sich ein aggregierter Effizienzwert als „Wahrgenommenes Strategiepotenzial“ (SP) bestimmen. Hierbei wird implizit die Annahme unterstellt, dass beide Dimensionen DP und CP gleichbedeutend für die strategische Effizienz eines Managementkonzeptes sind. Je höher das wahrgenommene Differenzierungs- und Kostenführerschaftspotenzial eines Managementkonzeptes ist, desto höher ist das wahrgenommene Strategiepotenzial. Entsprechend Abb. 2-2 befinden sich also die Konzepte mit dem höchsten SP-Wert im 2., die mit dem geringsten SP-Wert im 4. Quadranten. Dabei weist in der o.g. Studie10 E-Commerce/ E-Business (EC) aus der Gruppe der Hybriden Konzepte im Jahr 2003 das (absolut) höchste Strategiepotenzial auf. Nach der einschlägigen Literatur kann Six Sigma – ohne explizite empirische Überprüfung – ebenfalls als hybrides Konzept in den 2. Quadranten eingeordnet werden. Als Bezugsrahmen dienen die drei Konzepte CRM, BPR und TQM. Wie im folgenden Abschnitt erörtert, geht die Zielsetzung von Six Sigma dahin, über eine enge Beziehung zum Kunden (CRM) die wesentlichen Produktanforderungen zu erkennen und diese mit praktizierter Null-Fehler-Qualität (TQM) zu realisieren; die Erfüllung dieser Zielsetzung wird durch operative Exzellenz mit fehlerfreien Prozessen (BPR) ermöglicht (vgl. Töpfer/ Günther 2007a, S. 9). Legt man die oben angesprochenen generischen Wettbewerbsstrategien zugrunde, dann unterstützt Six Sigma das Unternehmen bei der Realisierung von verschiedenen Positionierungsstrategien im Wettbewerb, und zwar (a) Differenzierungsstrategie, insb. Qualitätsführerschaft, (b) Preis- und Kostenführerschaftsstrategie und (c) Hybride Strategie in Form von Outpacing. Gleichzeitig lässt sich mithilfe der Studie kein – direkter oder indirekter – empirischer Beleg für die Unterstützung einer Innovationsstrategie finden, was das in Hypothese H2 benannte Defizit von (Design for) Six Sigma bzgl. der proaktiven Generierung von Innovationen unterstreicht. Konkret bedeutet dies, dass Six Sigma, wie es zum gegenwärtigen Zeitpunkt praktiziert wird, nicht für Unternehmen geeignet ist, die eine Differenzierungsstrategie mit dem Ziel der Innovationsführerschaft verfolgen. Hier ist auf Konzepte und Methoden des Innovationsmanagements zurückzugreifen, wie sie in Abschnitt 3.2.2 überblicksartig vorgestellt werden.
10
Die Stichprobe für die emp. Studie von Fink umfasste 49,2% mittelständische und 27,4% große Unternehmen. 13,4% der befragten Unternehmen rangieren unter den 100 umsatzstärksten Unternehmen in Deutschland. Die Auswahl war zufällig, d.h. die Unternehmen kamen aus ganz unterschiedlichen Bereichen, z.B. Banken und Versicherungen, Konsumgüterindustrie, Chemie und Medizin, Telekommunikation und IT.
2.1 Bedeutungsinhalte und Dimensionen des Begriffs Managementkonzept
Wahrgenommenes Differenzierungspotenzial
Hoch (500)
Differenzierungskonzepte
4
57
Hybride Konzepte
CRM
EC
KM
Si x CCM
Si
gm
1
TQM
a
Mittel (300)
SVM
BPR
VC GS
LM
3 Niedrig (100)
2 Kostenführerschaftskonzepte
Neutrale Konzepte Niedrig (100)
Mittel (300)
Hoch (500)
Wahrgenommenes Kostenführerschaftspotenzial Legende: BPR = Business Process Reengineering/ Business Process Management TQM = Total Quality Management KM = Knowledge Management/ Learning Organisation CRM = Customer Relationship Management LM = Lean Management/ Lean Production
CCM = Core Competence Management SVM = Shareholder Value Management GS = Growth Strategies EC = E-Commerce/ E-Business VC = Virtual Corporations/ Network Organisations
Basis: Fink 2003, S. 52
Abb. 2-2: Strategie-Potenzial-Portfolio ausgewählter Managementkonzepte
58
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
2.2
Managementkonzepte zur Verbesserung der Prozess- und Produktqualität
Ein wesentliches Ziel von Managementkonzepten ist die nachhaltige Verbesserung der Prozess- und Produktqualität. Sie gilt als Ausgangspunkt, um bestimmte finanzielle Wirkungen zu erzielen. So kommen verschiedene empirische Studien zu dem Schluss, dass sich Business Excellence nach einigen Jahren deutlich im Unternehmenserfolg widerspiegelt (vgl. insb. Haller 2004, S. 6). Nach den Entwicklungsstufen der Qualitätssteuerung nach Töpfer (2006, S. 415) liegt der Fokus heute auf der Sicherstellung von Null-Fehler-Qualität. Diese kann auf verschiedenen Wegen erreicht werden, z.B. in Form von kontinuierlicher Verbesserung (Kaizen), wie es vom weltgrößten Automobilhersteller Toyota praktiziert wird, oder mithilfe von prozessorientierten Verbesserungsprojekten (Six Sigma), wie sie vom US-amerikanischen Mischkonzern General Electric durchgeführt werden. In seltenen Fällen gelingt es, ein hohes Qualitätsniveau über eine radikale Veränderung/ Anpassung der Unternehmensstruktur und -abläufe (BPR) zu erreichen. 2.2.1
Kontinuierlicher Verbesserungsprozess (KVP)
Die Entwicklung und Umsetzung von qualitätsorientierter Unternehmensführung im Sinne von Kaizen/ Kontinuierlicher Verbesserung sind unmittelbar verbunden mit der Person TAIICHI OHNO (1912-1990). Er war der Begründer des legendären Toyota Production System (TPS), welches die Erhöhung der Wirtschaftlichkeit der Produktion durch konsequente Beseitigung von Verschwendung (jap. Muda) zum Ziel hat. Neben der systematischen Einführung von KVP und QC (Quality Circle) in den 1950er Jahren, förderte Ohno als Qualitätsmanager die Implementierung von Kanban, Just-In-Time- und Lean Production-Konzepten im japanischen Automobilkonzern Toyota: Dieser gilt bis heute als Vorreiter auf dem Gebiet des Prozess- und Qualitätsmanagements. Sowohl das Konzept nach Ohno (1993) als auch die nachfolgend beschriebenen Verbesserungskonzepte legen ein prozessorientiertes Qualitätsverständnis zu Grunde. Danach ist die Qualität der Geschäftsprozesse entscheidend für eine hohe Kundenzufriedenheit und den finanziellen Erfolg des Unternehmens (vgl. Töpfer 2002, S. 27ff.). Nicht nur in Deutschland wird die Idee vom Ganzheitlichen Produktionssystem (GPS) als zukunftsweisendes Konzept zur Erreichung von Wettbewerbsfähigkeit gehandelt. In der einschlägigen Managementliteratur (vgl. u.a. Töpfer 2006; Liker 2003; Takeda 1995; Ohno 1993; Imai 1986) gilt das „Japan-Modell der Qualitätssicherung“ nach wie vor als Vorbild für westliche Produktionskonzepte.11 Dabei
11
Nach einer neueren Studie von Fraunhofer ISI kommt KVP deutlich mehr bei (deutschen) Großunternehmen mit über 250 Mitarbeitern als bei KMUs mit einer geringeren MA-Anzahl zum Einsatz. Branchenunabhängig nutzen fast 90% der Großunternehmen des verarbeitenden Gewerbes KVP, gegenüber einer Verbreitungsrate von lediglich 68% bei kleinen und mittleren Unternehmen (vgl. Kirner et al. 2007, S. 26).
2.2 Managementkonzepte zur Verbesserung der Prozess- und Produktqualität
59
kann die Implementierung von KVP als besondere Herausforderung für das Management angesehen werden, denn der Erfolg steht und fällt mit der Einstellung sowie Akzeptanz durch die Mitarbeiter. Diese muss sich nach Expertenmeinung in den meisten Fällen grundlegend ändern, um das zentrale Ziel, kundenorientiert und wirtschaftlich zu produzieren, nachhaltig zu erreichen. Für die Umsetzung von KVP können Workshops und Formblätter deshalb lediglich Denkanstöße und Strukturierungshilfen sein. Die eigentliche Herausforderung besteht in der schrittweisen Modifikation der Denkhaltung und Arbeitsweise einer Organisation. Ziele & Strategie Nach einschlägigen Definitionen12 steht bei KVP weniger die Führungsphilosophie einer ganzheitlichen Qualitätsorientierung im Vordergrund, als vielmehr die konkrete Verbesserung des qualitätsbezogenen Handelns und Verhaltens der Akteure im gesamten Unternehmen. Wesentliche inhaltlich-methodische Elemente von KVP sind die Implementierung und Förderung des Betrieblichen Vorschlagswesens (BVW) sowie die Einrichtung von Qualitätszirkeln (QC) als abteilungsübergreifende Gesprächsgruppen. Unter Anleitung eines geschulten Moderators und mit Hilfe spezieller Problemlösungstechniken sollen in ihnen Lösungsvorschläge erarbeitet und Verbesserungsideen initiiert werden. Die Abgrenzung zu „Kaizen“ als japanische Führungsphilosophie geht dahin, dass Kaizen eine kontinuierliche Weiterentwicklung des gesamten Unternehmens anstrebt. Neben einer expliziten Ausrichtung auf den Kunden und (ständige) Produktverbesserungen geht es hier um eine grundsätzliche Änderung im Denken und Handeln aller in die Wertschöpfungsprozesse eingebundenen Mitarbeiter (vgl. Zollondz 2001, S. 402). Aus dem japanischen Wort Kaizen, das im Deutschen so viel bedeutet wie „Ersatz des Guten durch das Bessere“, werden i.d.R. konkrete Handlungsempfehlung auf operativer Ebene abgeleitet. Struktur & Kultur Eine wesentliche Anforderung ist in diesem Zusammenhang die inkrementelle, kontinuierliche Verbesserung von Produkten, Prozessen und Arbeitshandgriffen, um langfristig Wettbewerbsvorteile zu erzielen (vgl. Kirner/ Armbruster/ Kinkel 2007, S. 25). Sie erfolgt jedoch in kleinen bzw. kleinsten Schritten und geht von den Mitarbeitern im Unternehmen selbst aus. Zur Begriffsabgrenzung im deutschsprachigen Raum lässt sich festhalten: Während Kaizen für die übergeordnete Qualitätsphilosophie nach japanischer Prägung steht, wird KVP als zentraler Be-
12
Nach der Qualitätsnorm ISO 9000:2000 wird KVP im Sinne von „Qualitätsverbesserung“ wie folgt definiert: KVP ist der „Teil des Qualitätsmanagements, der auf die Erhöhung der Wirksamkeit und Effizienz gerichtet ist.“ In diesem Zusammenhang wird der Begriff „Ständige Qualitätsverbesserung“ in der Weise verwendet, dass „Qualitätsverbesserung fortschreitet und die Organisation aktiv nach Verbesserungsmöglichkeiten sucht und diese umsetzt.“
60
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
standteil und konstitutives Element von Total Quality Management (TQM) gesehen (vgl. u.a. Töpfer 2002; Pfeifer 2002; Kamiske 2000; Malorny 1999). Die Leitidee der TQM-Philosophie ist es, Qualität in allen Phasen der Wertschöpfungskette zu produzieren und dabei interne wie externe Kunden als Maßstab aller Bemühungen zu betrachten (vgl. Pfeifer 1996, S. 509). Nach der ISO-Definition13 lassen sich insgesamt fünf Grundcharakteristika von TQM herausstreichen: die Ausrichtung auf den Kunden, das Prinzip der Prozess- und Mitarbeiterorientierung, die allgemeine Umfeldorientierung und das ständige Streben nach Verbesserung. Im Ergebnis führt TQM zu einer eigenständigen Unternehmenskultur, die durch kontinuierliche Verbesserung aller Prozesse die zukünftige Qualitäts- und Wettbewerbsfähigkeit von Organisationen sichert (vgl. Kamiske/ Malorny 1997, S. 42). Die Hauptpfeiler des Führungsmodells, nämlich „Total“, „Quality“ und „Management“, sind in Abb. 2-3 in einem Kreismodell dargestellt.
Qualität von Orientierung auf Gesellschaft
Arbeit Prozess
Kunden Mitarbeiter
Produkt Unternehmen
T
KVP
Führungsqualität Vorbildfunktion
M
Q Teamfähigkeit Lernfähigkeit
Basis: Pfeifer 1996, S. 509
Abb. 2-3: Das Führungsmodell Total Quality Management (TQM)
13
Die Definition nach DIN EN ISO 8402 lautet: „Total Quality Management ist eine auf der Mitwirkung aller ihrer Mitglieder basierende Führungsmethode einer Organisation, die Qualität in den Mittelpunkt stellt und durch Zufriedenstellung der Kunden auf langfristigen Geschäftserfolg, sowie auf den Nutzen für die Mitglieder der Organisation und für die Gesellschaft zielt.“
2.2 Managementkonzepte zur Verbesserung der Prozess- und Produktqualität
61
Instrumente & Methoden Das Vorgehen im Rahmen von TQM und Kontinuierlicher Verbesserung beruht auf dem PDCA-Zyklus. Dieser geht auf den bekannten Wissenschaftler und Qualitätsexperten EDWARD W. DEMING (1900-1993) zurück und umfasst die vier Phasen: P = Plan (Planen) – D = Do (Ausführen) – C = Check (Überprüfen) – A = Act (Verbessern). Das schrittweise Durchlaufen der vier Phasen ist dabei als nie endender Prozess zu verstehen und bildet die Grundlage für die kontinuierliche Verbesserung von Geschäftsprozessen und Abläufen in/ von Unternehmen. Eine vertiefende Analse des PDCA-Zyklus erfolgt im Zusammenhang mit den Vorgehensmodellen zur kontinuierlichen Verbesserung in Abschnitt 3.2.3. 2.2.2
Business Process Reengineering (BPR)
Business Process Reengineering (BPR) kann als die Antwort der amerikanischen und europäischen Automobilhersteller auf die Übermacht der Japaner Ende der 1980er Jahre aufgefasst werden. Verschiedene Studien dokumentierten eindrucksvoll den Kosten-, Zeit- und Qualitätsvorsprung von japanischen Automobilherstellern nicht nur im Produktions-, sondern auch im Entwicklungsbereich. Sowohl in den USA als auch in Europa war und ist dringender Handlungsbedarf angezeigt, um die Übermacht von Toyota14 et al. zu brechen (vgl. u.a. Liker 2003; Womack 2003; Rommel et al. 1995; Womack et al. 1994; Shingo 1993). Das Zauberwort „Reengineering“ kam Anfang der 1990er Jahre im anglo-amerikanischen Raum auf und wurde durch den Bestseller „Reengineering the Corporation“ von MICHAEL HAMMER und JAMES CHAMPY (1994) weltweit bekannt gemacht. Die Definition des Konzeptes enthält vier konzeptionelle Merkmale bzw. Schlüsselworte15, die in Abb. 2-4 als vier Ecken eines Diamanten dargestellt sind und auf die im Folgenden kurz eingegangen werden soll:
14
15
Das Automobilunternehmen Toyota löst in 2008 General Motors als Weltmarktführer nach der Stückzahl verkaufter Autos ab. Dabei scheint es, dass das Qualitätssicherungssystem mit dem enormen Wachstum des Konzerns in den vergangenen Jahren nicht Schritt halten konnte. So sind nach der ADAC-Statistik für das Jahr 2007 Autos von deutschen Herstellern, insb. BMW, (wieder) zuverlässiger als die von japanischen, insb. Toyota (vgl. Wüst 2008, S. 116f.; Freitag 2004, S. 72ff.). Die Standard-Definition von BPR nach Hammer/ Champy (1994, S. 48) lautet wie folgt: „Business Reengineering ist [...] fundamentales Überdenken und radikales Redesign von Unternehmen oder wesentlichen Unternehmensprozessen. Das Resultat sind Verbesserungen um Größenordnungen in entscheidenden, heute wichtigen und meßbaren Leistungsgrößen in den Bereichen Kosten, Qualität, Service und Zeit.“ Töpfer (1996, S. 10f.) unterscheidet im Zusammenhang mit der Geschäftprozessoptimierung drei Entwicklungsstufen als graduelles Ausmaß des Veränderungsprozesses: (a) Re-Engineering, (b) Restrukturierung und (c) Prozesskettenoptimierung. Während beim Re-Engineering das Ausmaß der Veränderung sehr groß ist und unweigerlich zu einer „Revolution“ im Unternehmen führt, kann die bloße Neurodnung bzw. Restrukturierung der Geschäftsprozesse mit einer „Evolution“ gleichgesetzt werden. Die Prozess-
62
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
Ziele & Strategie •
Fundamentales Überdenken: Nach Hammer/ Champy (1994, S. 48f.) müssen sich die Manager die elementarsten Fragen zu ihren Unternehmen und ihren betrieblichen Abläufen stellen: „Warum machen wir gerade diese Dinge? Und weshalb machen wir sie auf diese Art und Weise?“ Damit konzentriert man sich bei BPR auf das, was sein sollte und ignoriert das, was ist. Infolgedessen geht BPR von keinerlei Annahmen oder Vorgaben aus. Auch sollten sich die Beteiligten davor hüten, Dinge, d.h. Abläufe und Strukturen, für selbstverständlich zu erachten. Dadurch werden die Betroffenen angehalten, ihr Augenmerk auf Regeln und Annahmen zu lenken, die ihrer Geschäftstätigkeit zugrunde liegen. Diese stellen sich in vielen Fällen bei genauerem Hinsehen als veraltet, falsch oder ungeeignet heraus.
•
Verbesserungen um Größenordnungen: BPR hat nicht geringfügige bzw. inkrementelle Leistungsverbesserungen zum Gegenstand, sondern Quantensprünge, d.h. es werden herausfordernde Ziele angestrebt, z.B. die Halbierung der Durchlaufzeit. Die Verminderung der Kosten um 10% oder die Erhöhung der Qualität um 10% können durchaus mit konventionellen Methoden erreicht werden, z.B. über Einführung stufenweiser Qualitätsprogramme oder über die Verbesserung der Feinsteuerung im Unternehmen. Verbesserungen um Größenordnungen hingegen verlangen die Zerstörung des Alten und den Aufbau von etwas Neuem. In diesem Zusammenhang identifizieren die Forscher drei Arten von Unternehmen, für die BPR besonders in Frage kommt.
Instrumente & Methoden •
Radikales Redesign: Unter radikalem Redesign wird im Rahmen des BPR verstanden, dass man den Dingen auf den Grund geht und dass man einen klaren Trennstrich zur Vergangenheit zieht. Es sind keine oberflächlichen Änderungen vorzunehmen, sondern völlig neue Wege bei der Ausführung der Arbeit zu beschreiten. Die Prozesse und Abläufe sind gegebenenfalls unter Missachtung aller bestehenden Strukturen neu zu definieren. Es geht nach Hammer/ Champy (1994, S. 49) um die völlige Neugestaltung des Unternehmens und nicht um die Verbesserung, Erweiterung und/ oder Modifizierung von Geschäftsabläufen in kleinen Schritten. In den meisten Fällen bezieht sich das Redesign auf das gesamte Unternehmen; Ganzheitlichkeit steht also bei BPR im Vordergrund (vgl. Schmelzer/ Sesselmann 2004, S. 338ff.).
•
Optimierung von Prozessen: Die Optimierung von Unternehmensprozessen kann auch bei BPR als die Grundidee schlechthin aufgefasst werden. Dabei wird vor allem die Bedeutung der Prozessorientierung von allen Managern und Mitarbeitern im Unternehmen herausgestellt. Denn die meisten von ihnen verhalten sich alles andere als prozessorientiert; sie konzentrieren sich auf
kettenoptimierung betrifft jeweils nur einen Teil des Unternehmens und lässt sich vor diesem Hintergrund als räumlich beschränkte Revolution kennzeichnen.
2.2 Managementkonzepte zur Verbesserung der Prozess- und Produktqualität
63
Aufgaben, Positionen, Menschen und Strukturen statt auf Prozesse. Die größte Herausforderung von Unternehmen besteht vor diesem Hintergrund nicht selten darin, sich nicht mehr vertikal nach Funktionen, sondern horizontal nach Prozessen zu gliedern. Der Fokus von BPR liegt folgerichtig auf der Strukturierung und Optimierung von Kernprozessen, in denen die eigentliche Wertschöpfung des Unternehmens stattfindet. Fundamentales Überdenken
Optimierung von Prozessen
Radikales Redesign
Verbesserungen um Größenordnungen Basis: Hammer/ Champy 1994, S. 110
Abb. 2-4: Das Reorganisationsmodell Business Process Reengineering (BPR)
Struktur & Kultur Der gemeinsame Fokus von BPR-Ansätzen16 liegt zum einen auf der Veränderung der Unternehmenskultur und zum anderen auf der Verbesserung des Qualitätsund Prozessmanagements unter explizitem Einsatz von Informationstechnologie (IT). Auf der Grundlage eines IT-getragenen Organisationswandels (Business Transformation) begannen Mitte der 1980er Jahre einzelne Unternehmen mit radikalen, diskontinuierlichen Veränderungen zu „experimentieren“. Das Ziel bestand darin, das Gestaltungs- und Automatisierungspotenzial der IT, z.B. die Betriebssoftware SAP/R3, für die grundsätzliche Neugestaltung von Geschäftsprozessen zu erkennen und zu nutzen (vgl. auch Metzen 1994, S. 279ff.).
16
In der praxisbezogenen und wissenschaftlichen Literatur wird BPR unter zahlreichen synonymen Bezeichnungen verwendet, z.B. Business Reengineering, Process Innovation und Business Process Redesign (vgl. Schmelzer/ Sesselmann 2004; Harmon 2003; Hunt 1996; Töpfer 1996; Davenport 1993).
64
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
Wie verschiedene empirische Studien belegen, konnte BPR als eigenständiges und zukunftweisendes Managementkonzept die hohen Erwartungen, die Manager mit einem ganzheitlichen Konzept der Organisationsgestaltung verknüpfen, weitestgehend nicht erfüllen. Heute konstatieren selbst die o.g. Protagonisten von BPR, dass die meisten BPR-Projekte in der Praxis nicht erfolgreich verlaufen; nach einer Studie von Straub/ Forchhamer (1995, S. 9) ist davon auszugehen, dass ca. 70 bis 80% aller Projekte in Unternehmen, die unter dem Zeichen einer radikalen Restrukturierung/ Reengineering stehen, regelmäßig scheitern. Dies ist nach Töpfer (1996, S. 10) dem „uneingeschränkten Darwinismus“ geschuldet, der zu einem Bruch mit allem Vorhandenen und damit auch Bewährtem führt. Bei erfolgreichen BPR-Projekten konnten die erwarteten Leistungsverbesserungen langfristig nur erreicht werden, wenn die Umsetzung sowohl radikal als auch ganzheitlich verfolgt wurde (vgl. z.B. Studie von Hall/ Rosenthal/ Wade 1994, S. 85). Bereits zu Beginn des BPR-Aufschwungs stellten deshalb Osterloh/ Frost (1994) die Frage, ob es sich bei BPR um eine „Modeerscheinung“ oder ein „nachhaltiges Konzept der Prozessgestaltung“ handelt (vgl. auch Abschnitt 2.3.1). Mit dem Niedergang von BPR begann der weltweite Aufstieg von Six Sigma. 2.2.3
Six Sigma und Design for Six Sigma (DFSS)
Auf einzelne Aspekte des Six Sigma-Konzeptes wurde bereits im einleitenden Kapitel eingegangen. Für eine umfassende Darstellung sei auf die einschlägige Literatur verwiesen (vgl. u.a. Töpfer 2007; Harry/ Schroeder 2005; Magnusson et al. 2004; Breyfogle 2003; Pande et al. 2000). Um die Grundkonzeption des Managementkonzeptes zu verstehen, bietet es sich an, Six Sigma respektive Design for Six Sigma unter den folgenden zwei Gesichtspunkten zu analysieren. Ziele & Strategie •
Six Sigma-Messkonzept: Die (statistische) Forderung des Six Sigma-Konzepts besteht darin, dass bezogen auf ein Produktionsvolumen von 1 Mio. Einheiten nur 3,4 fehlerhafte Prozessoutputs auftreten dürfen. Dies entspricht einem geforderten Qualitätsniveau bzw. einer angestrebten Ausbeute von 99,99966%. Als Referenzmodell für die Darstellung dieses Wahrscheinlichkeitswertes wird das Verteilungsmodell der Standardnormalverteilung genutzt. Danach dürfen bei einer Streuung der Merkmalswerte von 6σ um den Mittelwert die Spezifikationsgrenzen (langfristig) nur in maximal 0,00034% der Fälle verletzt werden. Um unter den Bedingungen eines verschärften Wettbewerbs zu überleben, wird in diesem Zusammenhang häufig auch von dem Ziel „praktizierter Null-Fehler-Qualität“ gesprochen (vgl. Töpfer/ Günther 2007a, S. 7). Im Vergleich zum 6σ-Standard liegt das durchschnittliche Qualitätsniveau in der deutschen Industrie bei einem Sigma-Wert von 3,8, was einer Ausbeute von ca. 99% bzw. einer Fehlerrate von ca. 10.000 PPM (Parts Per Million)
2.2 Managementkonzepte zur Verbesserung der Prozess- und Produktqualität
65
entspricht.17 Alternativ wird zur Berechnung des Sigma-Wertes die Fehlerquote18 (DPMO – Defects Per Million Opportunities) herangezogen. •
Six Sigma-Projektmanagement: Neben der Interpretation von Six Sigma als statistisches Messkonzept mit dem auf der Standardnormalverteilung basierenden Qualitätsanspruch von 6σ = 3,4 DPMO steht Six Sigma für stringentes Projektmanagement auf fundierter statistischer Basis unter Einsatz bekannter und wirksamer QM-Instrumente, z.B. FMEA und Ishikawa-Diagramm. Die projektorientierte Ausrichtung von Six Sigma konkretisiert sich in zwei standardisierten Vorgehensweisen, nämlich dem DMAIC-Zyklus mit den fünf Phasen Define, Measure, Analyse, Improve und Control sowie dem DMADV-Zyklus mit den fünf Phasen Define, Measure, Analyse, Design und Verify. Die Anwendung der Zyklen richtet sich nach dem Zeitpunkt der Verbesserungsaktivität im Leistungserstellungsprozess: •
Der DMAIC-Zyklus bezieht sich auf die Optimierung von bestehenden Prozessen in Unternehmen (vgl. Abschnitt 3.3.1). Im Rahmen eines 3- bis 6-monatigen Six Sigma-Verbesserungsprojektes soll die Frage beantwortet werden, wie die aktuelle Prozessleistung im Hinblick auf eine höhere Kundenzufriedenheit/ -bindung verbessert werden kann.
•
Der DMADV-Zyklus kommt – im Sinne eines Design for Six Sigma (DFSS) – bei der Neuproduktplanung und -entwicklung zum Einsatz, wobei zukünftig wichtige Kundenanforderungen ermittelt und erfüllt werden sollen (vgl. Abschnitt 3.3.2). Ziel ist es hier, die Fehlerrate bzw. Fehlerquote bei Neuprodukten/ -prozessen von vornherein, d.h. ab Serienstart, niedrig zu halten (vgl. Töpfer/ Günter 2007b, S. 100ff.).
Instrumente & Methoden Neben einer präzisierten Projektlaufzeit konkretisiert sich die stringente Umsetzung in einer klaren Zielstruktur, bei der die finanziellen Ergebnisse jeweils im Vordergrund stehen. So wird in großen Unternehmen, wie bereits erwähnt, die durchschnittliche Nettoersparnis (Net Benefit) pro Projekt auf mind. 125.000 € beziffert, während sie in kleinen und mittleren Unternehmen bei nicht unter 50.000 € liegen sollte (vgl. Töpfer 2007b, S. 236). Um dieser Anforderung gerecht zu werden, ist in jedem Projekt eine detaillierte Analyse der drei Umsetzungstreiber von Six Sigma – Kunde, Prozess und Qualität – vorzunehmen. 17
18
Auf die Tatsache, dass dieses Ergebnis unter Kosten- und Umsatzgesichtspunkten sowie sinkenden Gewinnmargen in vielen Branchen nicht (mehr) wettbewerbsfähig ist, weisen insbesondere die beiden Autoren und Gründer der Six Sigma Academy® von Motorola MIKEL HARRY und RICHARD SCHROEDER (2005, S. 17) hin. Nach ihren Erfahrungen betragen bei einem „Weltklasse-Unternehmen“ auf 6σ-Niveau die qualitätsbezogenen Kosten im Durchschnitt weniger als 1% des Gesamtumsatzes p.a. Zur Berechnung der Fehlerquote wird im Nenner der PPM-Formel die Anzahl der Fehlermöglichkeiten als Maß für die Komplexität der Produkte/ Prozesse berücksichtigt (vgl. Günther 2003, S. 1).
66
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
Kunde
Prozess
Qualität
Veränderung
Ergebnisverbesserung durch o Kosteneinsparung o Umsatz-/Ertragssteigerung Quelle: Töpfer 2007, S. 372
Abb. 2-5: Die Six Sigma Umsetzungstreiber
Wie in Abb. 2-5 nachvollziehbar, sollen über eine enge Beziehung zum Kunden die aus seiner Sicht kritischen Qualitätsmerkmale (CTQs) nicht nur erkannt, sondern durch optimierte Prozesse mit praktizierter Null-Fehler-Qualität auch realisiert werden. Durch zufriedene Kunden und wirtschaftliche Prozesse werden i.A. Kosteneinsparungen und Umsatzsteigerungen generiert, die dann zu nachhaltigen Ertragsverbesserungen führen. Bei General Electric lag z.B. das Kosten-NutzenVerhältnis im Jahr 2000 bei 1 zu 6, was einer durchschnittlichen Kapitalverzinsung von 600% für die Investition in Six Sigma-Aktivitäten entspricht. Insgesamt belief sich der monetäre Nutzen (Net Benefit) durch Six Sigma-Projekte bei GE im Zeitraum von 1995 bis 2000 auf über 6 Mrd. US-$.19 Struktur & Kultur Die Erfahrungen in der Unternehmenspraxis zeigen, dass die Zeitdauer für die vollständige Einführung eines effektiven Six Sigma-Projektmanagements ca. 24 Monate beträgt. Darin enthalten sind die Durchführung eines Pilotprojektes von 46 Monaten, um die Eignung der Six Sigma-Methodik zu testen, eine ca. 5monatige Trainingsphase für Green und Black Belts als Projektmitarbeiter/ -leiter sowie die damit verbundene strategische Analyse und Durchführung von Trainingsprojekten (1. Welle). Die anschließende Ausfächerung von Six Sigma im
19
Heute arbeitet das Unternehmen intensiv daran, das Six Sigma-Konzept in der gesamten mehrstufigen Wertschöpfungskette, also auch bei den Kunden- und LieferantenUnternehmen, zu etablieren (vgl. Brady 2003, S. 60ff.).
2.2 Managementkonzepte zur Verbesserung der Prozess- und Produktqualität
67
gesamten Unternehmen nimmt dann erfahrungsgemäß weitere 12 bis 14 Monate in Anspruch (2. und 3. Welle). Je nach organisatorischen Voraussetzungen werden entsprechend der Unternehmenshierarchie mind. vier Gruppen von Six SigmaAkteuren unterschieden (vgl. Töpfer/ Günther/ Garzinsky 2007, S. 254): •
Champions als Führungskräfte und Machtpromotoren mit operativer Ergebnisverantwortung für einen bestimmten Wertschöpfungsbereich
•
Master Black Belts als Systempromotoren und durch eine größere Anzahl von durchgeführten Projekten sehr erfahrene Six Sigma Experten
•
Black Belts als Projektleiter und Fachpromotoren für die Durchführung umfassender Six Sigma und Design for Six Sigma-Projekte
•
Green Belts als Projektmitglieder oder als Leiter kleinerer Six SigmaProjekte, die sich z.B. auf die Verbesserung von Teilprozessen beziehen.
Die Trainingsdauer reicht je nach Position und Qualifikationsgrad von 2 bis 20 Tagen. Es erfolgt bei Green und Black Belts jeweils an einem konkreten Projekt. In vielen Unternehmen20 wird die Six Sigma-Qualifizierung als ein konkretes Führungskräftenachwuchstraining gesehen, d.h. durch die Ausbildung zum Green und/ oder Black Belt sowie durch die „Bewährung“ in konkreten Projekteinsätzen werden die Voraussetzungen für eine Karriere auf eine attraktive Führungsposition im Unternehmen geschaffen. Erfahrungswerte belegen, dass die Anzahl von in Six Sigma-Methoden geschulten Mitarbeitern21 insgesamt ca. 10% der Belegschaft eines Unternehmens betragen sollte (vgl. Q-DAS 2002, S. 1). 2.2.4
Kritische Bewertung der Konzepte auf der Basis eines multidimensionalen Vergleichs
In diesem Abschnitt werden die vorstehend beschriebenen Managementkonzepte insbesondere dahingehend untersucht, welche umweltbezogene Anpassungsstrategie zugrunde liegt und auf welche Art und Weise die organisationale Veränderung vonstatten geht. Dazu wird ein 10-Punkte-Kriterienraster verwendet, anhand dessen sich die drei Konzepte eindeutig positionieren und hinsichtlich Zielsetzung und Konzeption systematisch abgrenzen lassen. Die Festlegung der einzelnen Merkmale bzw. Merkmalsausprägungen erfolgt zum einen auf der Grundlage von management-/ organisationstheoretischen Konzepten. Zum anderen wird auf einschlägige Klassifizierungsansätze in der Managementliteratur zurückgegriffen, die z.B. im Zusammenhang mit der Abgrenzung von BPR und KVP entwickelt worden sind (vgl. Davenport 1993, S. 11).
20
21
So wurden z.B. beim US-amerikanischen Mischkonzern General Electric in einem kurzen Zeitraum 70.000 der weltweit agierenden 300.000 Beschäftigten in Six SigmaLehrgängen und Qualitätsseminaren geschult (vgl. Garthe 2002, S. 345). Die „kritische Masse“ für die Gruppe der Black Belts wird bei großen Unternehmen mit ca. 2% der Belegschaft beziffert (vgl. Töpfer 2007b, S. 212).
68
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
In Abb. 2-6 sind die Ergebnisse der Gegenüberstellung von KVP, Six Sigma und BPR im Überblick dargestellt. Wie ersichtlich ist, beziehen sich die aufgeführten Kriterien sowohl auf die strategische Ausrichtung der Managementkonzepte als auch auf ihre operative Umsetzung. Auf die einzelnen Punkte sowie konzeptbezogene Einordnung wird nachfolgend kurz eingegangen. Zu (1): Art des Organisationswandels Mit Organisationsentwicklung (OE) und Organisationstransformation (OT) werden in der betriebswirtschaftlichen Literatur üblicherweise zwei Arten des Organisationswandels unterschieden (vgl. z.B. Staehle 1998, S. 922ff.): •
Organisationsentwicklung (Organizational Development) ist eine Form des geplanten Wandels. Unter Verwendung verhaltenswissenschaftlicher Erkenntnisse wird ein evolutionärer, organisationsweiter Veränderungsprozess eingeleitet und unterstützt. OE hat ihren Ursprung in der Aktionsforschung und der Untersuchung von Gruppendynamiken. Auf der Grundlage der Mitwirkung aller Organisationsmitglieder sollen individuelle Verhaltensmuster, Organisationskultur sowie Kommunikations- und Organisationsstrukturen zweckmäßig verändert und weiterentwickelt werden.22 Die Zuordnung des Konzeptes KVP zu OE lässt sich vor allem an der Art von verwendeten Interventionstechniken festmachen. So werden im Rahmen von OE bevorzugt personenbezogene (z.B. Sensibilisierung von Mitarbeitern für Qualität), gruppenbezogene (z.B. Förderung von Qualitätszirkeln) und organisationsbezogene (z.B. Implementierung eines BVW) Interventionstechniken eingesetzt. Bei der nachstehenden OT kommen zusätzlich situationsbedingt, z.T. drastische, strukturbezogene (z.B. Neustrukturierung der Organisation), personenbezogene (z.B. Austausch des Top-Managements) und/ oder kapitalbezogene (z.B. Verkauf von Betriebsteilen) Maßnahmen zum Einsatz.
•
Organisationstransformation (Organizational Transformation) impliziert einen revolutionären strategischen Veränderungsprozess von Organisationen, der auf einen Wandel 2. Ordnung ausgerichtet ist. Ausgangspunkt für die Veränderungsbemühungen ist zum einen die Unzufriedenheit mit alten Managementphilosophien/ -techniken und der Glaube an die Existenz neuer Lösungen im Management. Zum anderen macht ein erkennbarer misfit zwischen der gegenwärtigen Organisationssituation und den gegenwärtigen und/ oder zukünftigen Umweltkonstellationen einen radikalen strategischen Wandel notwendig (vgl. Staehle 1998, S. 930). Gegenüber OE ist OT immer mit einem Philosophiewechsel verbunden, bei dem Personen und Systeme an einer neuen Mission ausgerichtet werden (sollen). Während OE gegenwartsorientiert die Kontinuität mit der Vergangenheit
22
Organisationsentwicklung (OE) wird von WOLFGANG H. STAEHLE (1998, S. 930) auch als Wandel 1. Ordnung bezeichnet, bei dem als Ziele die „Humanisierung der Arbeit“ und die „Erhöhung der Leistungsfähigkeit“ im Vordergrund stehen.
2.2 Managementkonzepte zur Verbesserung der Prozess- und Produktqualität
69
anstrebt, geht OT explizit vom Beginn einer neuen Zukunft, d.h. einer neuen Entwicklungsstufe, aus.23 Dies trifft uneingeschränkt für das Managementkonzept BPR zu. Die Zuordnung von Six Sigma24 zu OT liegt vor allem darin begründet, dass mit dem Aufbau einer eigenständigen Six Sigma-Organisation i.d.R. drastische strukturbezogene Veränderungen im gesamten Unternehmen einhergehen (vgl. z.B. Wessel 2002a, S. 8). Im Hinblick auf die gewählte Anpassungsstrategie zur effizienten Gestaltung von Organisationen/ Unternehmen kommen mit der Kontingenz- und Konsistenztheorie zwei konkurrierende theoretische Ansätze in Frage. Bei den situativen bzw. kontingenztheoretischen Ansätzen wird in erster Linie von der KongruenzEffizienz-Hypothese ausgegangen. Sie besagt, dass eine Strukturierung effektiv ist, „wenn sich Kontingenzfaktoren und Gestaltungsparameter genau entsprechen (close fit)“ (Mintzberg 1979, S. 219ff.), wenn also ein maximaler Grad an Übereinstimmung (fit) zwischen Organisation und Umwelt vorliegt. Zu diesem Zweck werden in der einschlägigen Literatur häufig Checklisten mit Anwendungsvoraussetzungen für den effektiven Einsatz eines bestimmten Konzeptes präsentiert. Ein Selbsttest für die Notwendigkeit und Zweckmäßigkeit der Einführung von Six Sigma in Unternehmen findet sich z.B. bei Töpfer/ Günther (2007a, S. 27). Bei den konsistenztheoretischen Ansätzen wird hingegen von der KonsistenzEffizienz-Hypothese ausgegangen, welche im Kern postuliert, dass eine Strukturierung dann effektiv ist, „wenn eine interne logische Konsistenz zwischen den Gestaltungsparametern besteht“. In diesem Fall lassen sich die Charakteristika von Organisationen/ Unternehmen in verschiedene Cluster bzw. Konfigurationen einordnen, die eine natürliche Harmonie aufweisen und bei denen sich gleich mehrere Strukturvariablen in Übereinstimmung befinden. Die Integration beider Hypothesen führt nach HENRY MINTZBERG (1984) zu folgender übergeordneten Aussage: „Effektive Strukturierung erfordert Konsistenz zwischen den Gestaltungsparametern und den Kontingenzfaktoren“ (Staehle 1998, S. 60). So setzen z.B. Unternehmen, die Six Sigma praktizieren, häufig die Balanced Scorecard25 (BSC) als Unternehmenssteuerungsinstrument ein. Sie hilft unmittelbar bei der Projektauswahl und -steuerung. Darüber hinaus bewerten sie regelmä-
23
24
25
Im Sinne eines qualitativen Wandels 2. Ordnung umfasst OT alle Organisationsebenen und fokussiert dabei gleichzeitig auf mehrere Dimensionen; statt Wandel des Inhalts steht hier der Wandel im Kontext im Mittelpunkt (vgl. u.a. Levy/ Merry 1986, S. 33). Nach Wessel (2002a, S. 8) war der Weg von Motorola zu Six Sigma in den 1980er Jahren durch eine Reihe von geplanten inkrementellen Veränderungen geprägt, die in Summe zu einer Organisationstransformation führten. Diese manifestierte sich mit der bewussten Ausrichtigung auf 6σ-/ Null-Fehler-Qualität im Jahr 1987. Die BSC ist der zweite Baustein im strategischen Wirkungsverbund der drei QMKonzepte: Six Sigma, BSC und EFQM. Das Steuerungsinstrument verstärkt die Fokussierung auf Werttreiber und Erfolgsfaktoren, und zwar in einer völlig unternehmensspezifischen Ausrichtung (vgl. Messer/ Töpfer 2002, S. 1268).
70
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
Operative Umsetzung
Strategische Ausrichtung
ßig ihr Excellence-Niveau anhand einschlägiger Modelle, z.B. European Foundation for Quality Management26 (EFQM). Dadurch sollen konkrete Ansatzpunkte für Verbesserungen aufgedeckt werden, um langfristig eine hohe Unternehmensqualität sicherzustellen (vgl. Messer/ Töpfer 2002, S. 1268ff.).
Kriterium
KVP
Six Sigma
BPR
(1) Art des Organisationswandels
Organisationsentwicklung (OE)
Eher Organisationstransformation
Organisationstransformation (OT)
(2) Art der Anpassungsstrategie
Konfigurationsbeibehaltung
Konfigurationswechsel als Ziel
Konfigurationswechsel
(3) Veränderungsstärke
Klein, inkrementell
Inkrementell-synoptisch
Radikal, ganzheitlich
(4) Veränderungshäufigkeit
Kontinuierlich
Kontinuierlich in Sprüngen
Diskontinuierlich
(5) Veränderungssicht
Eng, funktionsbezogen
Weit, funktionsübergreifend
Sehr weit, funktionsübergreifend
(6) Ausgangspunkt für Verbesserungen
Bestehende Prozesse
Bestehende und neue Prozesse
Immer neue Prozesse
(7) Partizipation der Mitarbeiter
Bottom-up
Top-down
Gegenstromprinzip
(8) Definition von Rollen/ Strukturen
Nein
Ja, stark differenziert
Ja, schwach differenziert
(9) Routinen bei Umsetzung
Ja, schwach ausgeprägt
Ja, stark ausgeprägt
Nein
(10) Zeitbedarf für Umsetzung
Mehrere Wochen
1-2 Jahre
2-5 Jahre
Quelle: Eigene Darstellung
Abb. 2-6: 10-Punkte-Kriterienraster zum Vergleich von KVP, Six Sigma und BPR
Zu (2): Art der Anpassungsstrategie Wie in Abb. 2-6 nachvollziehbar ist, kommt es bei der (erfolgreichen) Umsetzung von BPR zu einem Konfigurationswechsel. Aus Sicht der Gesamtorganisation besteht das Ziel darin, aufgrund sich ändernder Umweltbedingungen relativ kurzfristig von einer konsistenten, harmonischen Organisationsstruktur/ -kultur in eine andere zu wechseln. Im Gegensatz dazu wird bei KVP die ursprüngliche Konfiguration der Organisation beibehalten; im Laufe der Zeit erfolgt lediglich eine Anpassung bestimmter Struktur-/ Gestaltungsvariablen, ohne dass dabei die bestehende Konfiguration nennenswert verändert wird. In Abgrenzung zu KVP und BPR hat das Six Sigma-Konzept „nur“ langfristig das Ziel eines Konfigurationswechsels; kurzfristig soll die Organisationsstruktur bestehen bleiben und durch
26
Das EFQM-Modell konzentriert sich mit seiner Unterscheidung in Befähiger- und Ergebniskriterien auf die Leistungsbewertung im Vergleich zu einem Idealunternehmen. Der differenzierte und standardisierte Kriterienkatalog liefert dabei ein einheitliches Raster, welches ein umfassendes Verständnis der Stärken und Schwächen des Unternehmens auf der Prozessebene vermittelt (vgl. Wigand/ Schnopp 2000, S. 266ff.).
2.2 Managementkonzepte zur Verbesserung der Prozess- und Produktqualität
71
eine Six Sig-ma-Projektorganisation (lediglich) ergänzt werden. Die Reichweite der angestrebten Veränderungen ist damit von mittlerer Größe. Gegenüber biologischen Systemen, die der Wirkung Darwinistischer Selektionsprozesse unterliegen und sich im Laufe mehrerer Generationen wandeln, zeichnen sich soziale Systeme, z.B. Unternehmen, durch eine relativ kurzfristige Veränderungs-/ Anpassungsfähigkeit aus. In diesem Zusammenhang unterscheiden Miller/ Friesen (1984) zwischen einem Quantum change (Ganzheitliche Anpassung) und einem Piecemeal change (Teilweise Anpassung).27 Der Änderungsprozess kann bei beiden Ansätzen dramatisch-revolutionär oder inkrementell-evolutionär erfolgen (vgl. Müller-Stewens/ Lechner 2003, S. 560f.); im Regelfall ist jedoch das Vorgehen bei der ganzheitlichen Anpassung revolutionär (Revolutionary change) und bei einer teilweisen Anpassung evolutionär (Evolutionary change). Konkret empfehlen die beiden Autoren einen Quantum change, wobei die Veränderung solange hinauszuzögern bzw. die harmonische, konsistente Konfiguration solange beizubehalten ist, bis der misfit zwischen gegenwärtiger Konfiguration und gegebener Umweltsituation eine radikale Veränderung vieler Strukturvariablen verlangt. Beispielhaft zu nennen sind hier die unternehmensweiten Six SigmaEinführungen bei Motorola, General Electric et al. Demgegenüber stellt der Piecemeal change die bevorzugte Strategie der Kontingenztheoretiker dar; bei ihr erfolgt die Anpassung evolutionär und inkrementell, d.h. einzelne Strukturelemente werden unverzüglich verändert, sobald sich ein misfit zwischen Struktur und Umwelt ergibt. Dies kennzeichnet z.B. die Strategie von Toyota zum Erreichen von Null-Fehler-Qualität (vgl. Freitag 2004, S. 82); entdeckte Fehler in Produkten und Prozessen werden hier unmittelbar ausgemerzt. Wann letztendlich eine evolutionäre statt einer revolutionären Anpassungsstrategie zum Einsatz kommen sollte, ist von den jeweiligen situativen Anforderungen abhängig. So sind nach Miller (1982, S. 131f.) insbesondere der Umweltzustand und die Umweltunsicherheit in das Entscheidungskalkül einzubeziehen. Zu (3)-(5): Veränderungsstärke, -häufigkeit und -sicht Hinsichtlich Veränderungsstärke, -häufigkeit und -sicht können die Anpassungsstrategien/ -philosophien, die den drei Managementkonzepten zugrunde liegen, wie folgt präzisiert werden (vgl. u.a. Gupta 2004, S. 12ff.): •
27
Da bei BPR viele Gestaltungsvariablen konsistent und kontrolliert in einem oder mehreren Unternehmensbereichen gleichzeitig verändert werden, ist hier von einem Quantum change zu sprechen (vgl. Engelmann 1995, S. 17). In diesem Zusammenhang kommt es zu einer radikalen und ganzheitlichen Neu-
Während bei einem Quantum change viele der Strukturvariablen simultan und koordiniert verändert werden, beschränkt sich ein Piecemeal change auf die gleichzeitige Veränderung von wenigen Strukturvariablen.
72
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
gestaltung von Geschäftsprozessen, wobei eine sehr weite, funktionsübergreifende Veränderungssicht eingenommen wird. •
Während bei BPR die Veränderungen diskontinuierlich erfolgen, steht bei KVP – wie der Name bereits sagt – die kontinuierliche Verbesserung von Prozessen in kleinen, inkrementellen Schritten im Vordergrund. Der Analysebereich und damit die Veränderungssicht sind relativ eng und zudem stark auf den Funktionsbereich der involvierten Mitarbeiter bezogen.
•
Unter den Gesichtspunkten der Veränderungsstärke, -häufigkeit und -sicht nimmt Six Sigma eine Zwischenstellung ein: Zum einen handelt es sich aufgrund der kontinuierlichen Durchführung von vielen, relativ kleinen Verbesserungsprojekten um einen inkrementellen Ansatz, bei dem Prozesse in einer funktionsübergreifenden Sicht analysiert und optimiert werden; die Veränderungen erfolgen projektbezogen. Zum anderen ist von einem synoptischen Ansatz zu sprechen, wenn die Projekte nicht isoliert in einzelnen Bereichen durchgeführt werden, sondern im gesamten Unternehmen auf der Basis einer übergeordneten Projektsteuerung, z.B. Six Sigma Balanced Scorecard.
Zu (6): Ausgangspunkt für Verbesserungen Im Hinblick auf die operative Umsetzung von KVP, Six Sigma und BPR lassen sich vor allem die folgenden Unterschiede festhalten. Ausgangspunkt für die Suche nach Verbesserungsmöglichkeiten bilden bei allen drei Managementkonzepten Prozesse im Unternehmen. Während KVP und Six Sigma in erster Linie die Verbesserung von bestehenden Prozessen zum Ziel haben, steht bei BPR die Entwicklung ganz neuer Prozesse im Vordergrund. Der Umgang mit dem Bestehenden entspricht dem Tabula-rasa-Prinzip, d.h. es wird immer von neuem „auf einem weißen Blatt“ (White paper) begonnen, ohne das Vorhandene von vornherein in die Überlegungen einzubeziehen (vgl. Gonzalez et al. 1999, S. 345ff.). Bei Six Sigma werden sowohl bestehende Prozesse analysiert und verbessert als auch neue Prozesse/ Produkte entwickelt und gestaltet. Wie bereits erwähnt, gestalten sich Verbesserungsprojekte, die auf bestehende Prozesse im Unternehmen aufsetzen, nach dem DMAIC-Zyklus. F&E-Projekte, mit dem Ziel des Design for Six Sigma (DFSS), werden nach dem DMADV-Zyklus abgearbeitet. Wesentliche Problemlösungstechniken, die im Rahmen von KVP/ Kaizen zum Einsatz kommen, sind u.a. QC und BVW. Ziel ist es, eine möglichst simultane Optimierung von Effizienz und Qualität der (bestehenden) Prozesse zu erreichen. Zu (7): Partizipation der Mitarbeiter Aufgrund der organisationsweiten Bildung von Qualitätszirkeln bei KVP erfolgt ein Großteil der Veränderungen auf operativer Ebene; die Partizipation der Mitarbeiter erfolgt entsprechend von unten nach oben (bottom-up). In entgegengesetzter Richtung, also von oben nach unten (top-down), gestaltet sich der Einführungsprozess und Roll-out einer Six Sigma-Initiative. Sie geht von der Unternehmens-
2.2 Managementkonzepte zur Verbesserung der Prozess- und Produktqualität
73
leitung aus und mündet relativ schnell in Pilotprojekte, die i.d.R. in direktem Zusammenhang mit den ersten Green und Black Belt Trainings stehen. Die Einbindung des Managements und der Mitarbeiter geschieht im Rahmen einer Reorganisation (BPR) vorzugsweise im Gegenstromprinzip. Dies bedeutet, dass ausgehend von einer neuen Vision/ Mission im Top-Management die Denk- und Verhaltensweisen in der Organisation grundsätzlich reformiert werden. Gleichzeitig setzen konkrete Gestaltungsmaßnahmen bei den Kernprozessen auf mittlerer Ebene, d.h. auf Hauptprozessebene, an. Simon/ Piroh (2002, S. 15) kommen zu der Erkenntnis, dass sich alle modernen Managementansätze und -konzepte, die seit den 1970er Jahren angewendet werden, hinsichtlich ihres Implementierungsablaufs stark ähneln. Üblicherweise werden die folgenden fünf Schritte durchlaufen: 1) Vision entwickeln, (2) Ziele setzen, (3) Mitarbeiter begeistern, (4) Projektgruppe einrichten und (5) Konzept umsetzen. Die Unterschiede der einzelnen Konzepte liegen vor allem in der Schwerpunktsetzung der Verbesserungen, den Anwendungsbereichen im Unternehmen und in der konzeptionellen Vorgehensweise bei ihrer Umsetzung. Dies zeigt sich unmittelbar auch bei den hier behandelten Konzepten. Zu (8): Definition von Rollen/ Strukturen Um das Konzept einer prozessorientierten OT zu erreichen, werden sowohl bei Six Sigma als auch bei BPR Rollen/ Verantwortlichkeiten definiert.28 Im Fall von BPR sind im Basiskonzept häufig die folgenden fünf Rollen vertreten (vgl. Hammer/ Champy 1994, S. 134f.): •
Leiter (Leader) als Manager und Machtpromotor aus dem oberen Führungskreis zur Motivation des Reengineering-Teams
•
Lenkungsausschuss (Quality Council) als Gremium bestehend aus oberen Führungskräften, das Richtlinienentscheidungen trifft und die ReengineeringStrategie bezogen auf das Unternehmen festlegt
•
Prozesseigner (Process Owner) als Prozesspromotor, der die Verantwortung für den Prozess und die daran ansetzenden Reengineering-Aktivitäten trägt
•
Projektteam (Reengineering-Team) als Personen, die das Reengineering eines bestimmten Unternehmensprozesses aktiv vorantreiben und gestalten und
•
System-/ Fachpromotor (Reengineering-Czar) als übergeordneter Mitarbeiter, welcher die Synergiepotenziale von Projekten erkennt und die zur Durchführung notwendigen Techniken/ Werkzeuge bereitstellt und weiterentwickelt.
28
Ein anschauliches Beispiel für den Einführungsprozess und den systematischen Aufbau einer Six Sigma-Organisation gibt die Deutsche Bahn AG, Unternehmensbereich Personenfernverkehr, die Anfang 2001 mit der Implementierung eines umfassenden Qualitätsprogramms startete (vgl. Lang/ Reemtsema 2003, S. 12ff.).
74
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
Die definierten Rollen/ Verantwortlichkeiten bei Six Sigma stimmen mit denen bei BPR im großen und ganzen überein. Jedoch werden – wie bereits oben ausgeführt – weitere Rollen im Rahmen des Six Sigma-Projektteams definiert. Entsprechend des absolvierten Trainingsumfangs und dem gegenwärtigen Erfahrungsstand wird zwischen Mitarbeitern auf White, Yellow, Green und Black Belt Niveau differenziert (vgl. Töpfer/ Günther 2007a, S. 208). BPR kann folglich in organisatorischer Hinsicht als Vorstufe von Six Sigma betrachtet werden. Zu (9): Routinen bei Umsetzung Vorgehensschemata bzw. Routinen bei der operativen Umsetzung von Verbesserungsmaßnahmen/ -Projekten sind vor allem bei KVP (PDCA-Zyklus) und Six Sigma (DMAIC-/ DMADV-Zyklus) zu verzeichnen. Dabei stellen der DMAIC-/ DMADV-Zyklus in gewisser Weise eine Weiterentwicklung des klassischen PDCA-Zyklus dar (vgl. Wessel 2002b, S. 9f.). Das stringente Vorgehen im Rahmen von vier bzw. fünf Projektphasen zur Prozessoptimierung wird in der Praxis als zentraler Erfolgsfaktor gewertet. Bei Six Sigma ist darüber hinaus die in sich geschlossene Systematik und Logik bei der Anwendung von QM-Methoden und mathematisch-statistischen Verfahren positiv hervorzuheben. Die operative Umsetzung von BPR sieht kein solches explizites Verfahren vor. Jedoch werden hier, wie auch bei den anderen beiden Konzepten, eine Reihe von „praktischen Handlungsempfehlungen“ gegeben. Im Hinblick auf die Gestaltung des Einführungsprozesses sind in der Literatur gleich mehrere Phasenmodelle zur adaptiven Anwendung zu finden. Als Standards für das strategische Vorgehen bei BPR werden u.a. ein 6- und ein 10-Phasen-Modell (vgl. hierzu u.a. Thom/ Etienne 2001, S. 79) propagiert; für Six Sigma ist in entsprechender Weise ein 7-PhasenModell definiert (vgl. Töpfer/ Günther 2007a, S. 24). Zu (10): Zeitbedarf für Umsetzung Der Zeitbedarf für die nachhaltige Umsetzung von BPR wird mit 2-5 Jahren angegeben (vgl. Davenport 1993, S. 11). Demgegenüber ist bei der Implementierung von KVP-Maßnahmen von einer relativ kurzen Zeitdauer auszugehen. Dies liegt u.a. darin begründet, dass für die Einrichtung von QC und BVW keine aufwendigen Schulungsmaßnahmen erforderlich sind, so dass bereits nach einigen Wochen von einem effektiven Verbesserungsprozess ausgegangen werden kann. Anders bei Six Sigma: Hier gilt der Grundsatz, dass mindestens 1, besser 2% der Mitarbeiter als aktive Black Belts bzw. Master Black Belts tätig sind, ergänzt durch etwa 10% geschulter Six Sigma-Akteure auf Green Belt Niveau oder darunter. Für das praxisbezogene Training eines Black Belts inkl. Projekt sind i.d.R. vier Monate einzuplanen, für das Training eines Green Belts sind 10 Tage zzgl. Projekt vorzusehen. Der Aufbau einer Six Sigma-Organisation mit einer „kritischen Masse“ von geschulten Akteuren dauert mind. 1-2 Jahre.
2.3 „Weiche Hülle“ und „Harter Kern“ von Managementkonzepten
2.3
75
„Weiche Hülle“ und „Harter Kern“ von Managementkonzepten am Beispiel von Six Sigma
Die Vorstellungen über das, was Managementkonzepte sind und nicht sind, gehen nicht nur in der Praxis z.T. sehr weit auseinander (vgl. Unterkapitel 2.1). Kritiker bemängeln auf der einen Seite, dass es sich bei Managementkonzepten um Modeerscheinungen handelt, die – genau wie in der Bekleidungsindustrie – von Zeit zu Zeit kommen und wieder gehen. Die Methoden und Vorgehensmodelle, die hinter der Fassade von Schlagwörtern stehen (weiche Hülle), können in Beratungssituationen kaum helfen, neue Problemlösungen zu finden. Auf der anderen Seite wird von den Befürwortern von Managementkonzepten angeführt, dass die Wissenschaft aufgrund ihrer selbstentwickelten Perspektive nicht zwangsläufig in der Lage ist, den Alltagstheorien der Praxis alternative Deutungen gegenüber zu stellen. Managementkonzepte beinhalten nämlich Technologien (harter Kern), die den Entscheidungsträgern dabei helfen, komplexe Umweltsituationen zu analysieren und zu strukturieren sowie auf dieser Basis Maßnahmenpakete abzuleiten. 2.3.1
These: Six Sigma als Mode
Ähnlich wie in der Modebranche kommen auch im Rahmen der Unternehmenssteuerung und -führung regelmäßig neue Trends/ Konzepte auf, die in den meisten Fällen aber nur eine zeitlang populär sind und dann wieder vom „Markt“ verschwinden. Dabei ist die Wirkung auf das einzelne Unternehmen nicht von vornherein klar. So können Managementkonzepte als Modeerscheinungen den Unternehmen einerseits „nur“ wichtige Ideen/ neue Einblicke liefern und es andererseits auch grundlegend verändern – sowohl zum Besseren als auch zum Schlechteren. Der Philosoph und Ästhet BORIS GROYS (1999, S. 46) argumentiert, dass – selbst wenn sich die zur Debatte stehenden Objekte nur geringfügig unterscheiden – ein (kleines) Unterscheidungsmerkmal genügt, um daran das Besondere und Wertvolle des „Gesamtkunstwerks“ festzumachen. In dieser Weise werden auch bestimmte Aspekte von Managementkonzepten als das „grundlegend Neue“ herausgestellt, obwohl sie sich im Großen und Ganzen doch stark ähneln (vgl. Kieser 1996a, S. 23). Z.B. sind die Fokussierung auf Kernkompetenzen (= Core Competence Management) und die Verschlankung des Unternehmens (= Lean Management) zwei Seiten einer Medaille (vgl. Abschnitt 2.1.2). Geht es nach den Befürwortern von Managementkonzepten, dann gehören sie – trotz dieser Tatsache – zur Gruppe der modernen Managementkonzepte mit hoher Akzeptanz in der Praxis. Einige der frühen Managementkonzepte besitzen noch heute eine herausragende Stellung in den Managementwissenschaften und der betrieblichen Praxis; sie können deshalb durchaus als „klassisch“ bezeichnet werden. In Abhängigkeit von der Denkschule und des Wissenschaftsverständnis des Forschers ergeben sich unterschiedliche Ansätze zur Klassifizierung. So ordnen z.B. die Forscher Stoner/ Freeman (1989), Bateman/ Zeithaml (1990) und Huczynski (1993b) die folgenden fünf Konzepte der Gruppe der klassischen Managementkonzepte zu:
76
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
•
Administratives Management (Henry Fayol, 1841-1925)
•
Bureaucracy/ Bürokratiemodell (Max Weber, 1864-1920)
•
Scientific Management/ Taylorismus (Frederick W. Taylor, 1856-1915)
•
Human-Relations-Ansatz (Elton Mayo, 1880-1949)
•
Operations Research/ Management Science (W. W. Leontief, 1905-1999).
In den vergangenen Jahrzehnten wurden die klassischen Konzepte z.T. weiterentwickelt bzw. gingen ganz oder teilweise in neuen Managementkonzepten auf.29 Letztere entstanden vor allem seit den 1950er Jahren im Zuge der Verbreitung populärwissenschaftlicher Managementliteratur. Nicht selten trug dabei ihre (schnelle) Entwicklung und Verbreitung den Charakter von Modewellen bzw. -erscheinungen, wie sie typischerweise in der Bekleidungsindustrie vorkommen. Gerade im Hinblick auf kurzlebige Managementempfehlungen spricht deshalb eine Reihe von Autoren auch von „Managementmoden“, „Gurutheorien“ und/ oder „Managementfolklore“ (vgl. u.a. Armstrong 1996; Kieser 1996a/ b; Watson 1994; Huczynski 1993a). Wie bei den klassischen Managementkonzepten, gibt es in der Wissenschaft recht unterschiedliche Auffassungen darüber, was unter modernen Managementkonzepten bzw. -moden zu verstehen ist. Das Diffusionsmuster von Managementkonzepten in/ über Unternehmen und Branchen ist vergleichbar mit dem Verbreitungszyklus von Moden in der Bekleidungsindustrie. Wird ein Konzept von einem Unternehmen bzw. einer (kleinen) Gruppe von Unternehmen erfolgreich praktiziert, zieht dies die Aufmerksamkeit der Wettbewerber an.30 Sie suchen nach den Ursachen des Erfolgs ihrer Konkurrenten. Nach der Identifikation der neuen strukturellen Lösung, z.B. Six SigmaOrganisation, oder der neuen Managementpraxis, z.B. DMAIC-Zyklus, beginnen sie diese zu kopieren (vgl. Walgenbach 2002, S. 319ff.). Legen wir das Diffusionsmodell zugrunde, dann sind bei einer Längsschnittbetrachtung folgende drei Phänomene relevant: •
Managementkonzepte kommen und gehen wie Moden,
•
Berater präsentieren alle paar Jahre ihre „neue Kollektion“ und
•
Kleine Änderungen des (alten) Konzeptes werden als Innovation gefeiert.
29
30
Eine weltweite Befragung von Bain & Company (2003) ergab, dass sich im Jahr 2002 in jedem Unternehmen im Durchschnitt 16 Managementtools und -konzepte im Einsatz befanden (vgl. Rigby 2003, S. 2ff.). Eine vom Gallup-Institut durchgeführte Umfrage mit dem Titel „Competition 2000“ bei 500 Unternehmensführern zeigte auf, dass sich die Strategien von Unternehmen stark ähneln. Diese Strategiekonformität wird u.a. dadurch erklärt, dass Unternehmen bestrebt sind, die Erfolgsrezepte von anderen (schnellstmöglich) zu imitieren. Infolgedessen verbreiten sich die zugrunde liegenden Managementkonzepte – über alle Branchen hinweg – mit hoher Geschwindigkeit (vgl. Hamel 2000, S. 363).
2.3 „Weiche Hülle“ und „Harter Kern“ von Managementkonzepten
77
Die Dichtefunktion der Verbreitung von Managementkonzepten über die Zeit entspricht einer Gauß´schen Glockenkurve; die sich daraus ergebende Verteilungsfunktion entspricht dem „klassischen“ S-Kurven-Verlauf einer Normalverteilung (vgl. Bamberg et al. 2007, S. 108f.). Die Gründe hierfür sind zum einen die normalverteilte Verbreitung von Informationen und Lerneffekten in einer Gesellschaft sowie zum anderen die damit einhergehende normalverteilte Reduktion der Unsicherheit im Verlauf des Diffusionsprozesses (vgl. Durth 2001, S. 1625). In Abb. 2-7 ist der Verlauf eines solchen Diffusionsprozesses über die Zeit exemplarisch dargestellt. Die Häufigkeitsdichte wird als Indikator für die Präsenz/ Aufmerksamkeit des Konzeptes in der Fachöffentlichkeit herangezogen. In der Managementliteratur existieren unterschiedliche Ansätze, um die einzelnen Phasen des Diffusions-/ Verbreitungsprozesses zu untergliedern. Entsprechend der Produkt- und Technologielebenszyklusansätze, wie sie z.B. bei der strategischen Analyse von Geschäftsfeldern angewendet werden, lassen sich die folgenden vier Phasen unterscheiden (vgl. Fink 2003, S. 54f.).
Adoptionsrate
„Spitze der Euphorie“
Six Sigma in 2005
„Auf dem Boden der Tatsachen“ ?
„Vor dem Hype“
(1) Themati- (2) Expan- (3) Domisierungssionsnanzphase phase phase
„Licht am Ende des Tunnels“ ?
„Desillusionierung“
(4) De-Thematisierungsphase
Zeit
Basis: China 2003, S. 44
Abb. 2-7: Diffusionskurve eines neuen Managementkonzeptes
•
Thematisierungsphase: Das neue Konzept wird erstmals von einer kleinen Gruppe von Autoren, Beratern und weiteren Promotoren, z.B. obere Führungskräfte, aufgegriffen und thematisiert. Die Übernahme- bzw. Adoptionsrate von Unternehmen ist zu diesem Zeitpunkt sehr gering und steigt nur langsam an. Erste Umsetzungserfahrungen werden dokumentiert.
78
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
•
Expansionsphase: Die propagierten Ideen und Prinzipien des neuen Konzeptes erfahren eine größere Akzeptanz. Mehr und mehr Unternehmen beginnen damit, das Managementkonzept zu implementieren. Gleichzeitig wird das Konzept von einem größeren Kreis von Promotoren in den Markt „gedrückt“.
•
Dominanzphase: Das Konzept erfährt in dieser Phase die höchste Akzeptanz, d.h. in einem relativ kurzen Zeitraum führen relativ viele Unternehmen das Managementkonzept ein. Methoden und Inhalte gelten in der Branche als allgemein anerkannter Standard. Die Adoptionsrate erreicht ihr Maximum. Nach einschlägigen empirischen Studien in Deutschland und den USA befindet sich das Six Sigma-Konzept seit spätestens Mitte dieses Jahrzehnts in der zweiten Hälfte der Dominanzphase (siehe Abb. 2-7). So ist im US-amerikanischen Raum die Adoptionsrate bzw. der Durchdringungsgrad (stark) abnehmend. Die SIX SIGMA-UMFRAGE VON QUALITY DIGEST ergab bereits im Jahr 2003, dass der Anteil der Unternehmen, die Six Sigma weniger als 2 Jahre nutzen, deutlich rückläufig ist. Dies wird als wichtiger Indikator für das Abschwächen des Modetrends gewertet. Insbesondere Unternehmen, die Six Sigma als reines Kostensenkungsprogramm sehen und für die positiven langfristigen Wirkungen „keine Geduld“ haben, treten den Rückzug an. In den USA wird die Anzahl der Six Sigma-Anwender im Jahr 2005 auf ca. 1.200, in Deutschland auf ca. 200 geschätzt (vgl. Schmieder 2005, S. 2).
•
De-Thematisierungsphase: Nachdem die ersten Misserfolge gemeldet werden, beginnt ein Umdenken der Beteiligten. Das Managementkonzept gilt nach und nach als nicht mehr innovativ und neu sowie fehlerbehaftet. Immer mehr Berater verlassen „das sinkende Schiff“ und wenden sich einem neuen, vielversprechenderen Konzept zu. Die neue Modewelle nimmt ihren Lauf.
Es sei darauf hingewiesen, dass der in Abb. 2-7 vorgestellte Lebenszyklus einem idealisierten Verlauf entspricht. In praxi wird nicht jedes Managementkonzept jede Phase exakt nach Modellbeschreibung durchlaufen. So kann es zum einen der Fall sein, dass ein Konzept bereits in der Thematisierungsphase wieder verworfen wird, da sein wahrgenommenes Strategiepotenzial allgemein, also absolut, oder relativ, also gegenüber rivalisierenden Konzepten, zu gering ist. Das Konzept ist keine echte Alternative. Zum anderen besteht die Möglichkeit, dass ein Konzept nie ganz vom Markt verschwindet, weil es für eine Reihe von Unternehmen eine interessante und effektive Lösung darstellt. In diesem Fall kann es u.U. dazu kommen, dass ab einem bestimmten Zeitpunkt die Präsenz/ Aufmerksamkeit wieder zunimmt. Wir sehen also „Licht am Ende des Tunnels“. Dies trifft z.B. aktuell für das Lean-Konzept zu, welches als „ideale Ergänzung“ zum Six Sigma-Konzept gesehen wird (vgl. insb. George 2003, S. 19ff.).31 31
Während Six Sigma vor allem auf das Ausmerzen von Produktfehlern und die Steigerung der Prozessqualität im Zuge von Verbesserungsprojekten abzielt, fokussiert Lean bzw. Lean Management auf die Beschleunigung der Prozesse und die ganzheitliche Optimierung der Wertschöpfungskette (vgl. auch Abschnitt 2.3.3).
2.3 „Weiche Hülle“ und „Harter Kern“ von Managementkonzepten
79
Der Lebenslauf von Managementkonzepten kann auf verschiedene Weise gemessen werden. Neben einer direkten Befragung von Unternehmen, die in vielen Fällen sehr zeit- und kostenintensiv ist, besteht die Möglichkeit einer indirekten Erhebung durch Datenbankabfragen. Diese beziehen sich i.d.R. auf Veröffentlichungen und Zeitschriften zum Themengebiet (z.B. TQM). Als Indikatoren für die Ermittlung von Zeitreihen werden dabei u.a. folgende Größen recherchiert und ausgewertet (vgl. z.B. von Lanzenauer/ Huesmann 2004, S. 254ff.): •
Alle Veröffentlichungen zu einem Konzept in einem bestimmten Zeitraum
•
Quotient aus Trefferzahl und Datensätzen als normierte Größe
•
Anzahl von aktuellen, themenbezogenen Zeitschriften und
•
Anzahl der Bibliotheken, die Zeitschriften zum betreffenden Thema/ Konzept abonniert haben.
In empirischen Studien konnte gezeigt werden, dass die Zyklen von Managementmoden tendenziell kürzer werden. Gleichzeitig erreicht die Spitze der Präsenz/ Aufmerksamkeit, insb. gemessen in Veröffentlichungszahlen zum jeweiligen Themengebiet, von mal zu mal einen neuen Höchstpunkt, d.h. die Glockenkurven werden schmaler und steiler (vgl. Kieser 1996a, S. 22). Die Tatsache, dass einige Konzepte eine überdurchschnittlich hohe Popularität, z.T. über einen längeren Zeitraum, erlangen, während anderen überhaupt keine Aufmerksamkeit zuteil wird, begründen die Kritiker Kieser et al. damit, dass Managementkonzepte bestimmte Voraussetzungen erfüllen müssen, damit sie bekannt, berühmt und in gewisser Weise „unsterblich“ werden.32 Miller/ Hartwick (2003, S. 18f.) gehen noch einen Schritt weiter und entwickeln eine Checkliste mit 8 Kriterien, auf deren Basis kurz- von langlebigen Managementmoden/ -trends unterschieden werden können. In einer empirischen Studie über einen Zeitraum von 17 Jahren analysierten sie dazu insgesamt 1.700 wissenschaftliche Veröffentlichungen in Fachblättern und Wirtschaftspublikationen, welche sich auf die verschiedenen Managementmoden/ -konzepte der vergangenen 40 Jahre beziehen. Dabei legten sie die folgenden zwei Fragen zugrunde: (1) Was macht Managementmoden für Unternehmen so attraktiv? (2) Wie lassen sich kurzfristige, wenig substanzielle Moden von langfristigen, nachhaltigen Konzepten unterscheiden? Die Ergebnisse einer Untersuchung hinsichtlich des Einsatzes von Six Sigma sind in Abb. 2-8 zusammengefasst dargestellt. Jedem der 8 Kriterien ist in der zweiten Spalte ein typisches Anwendungsproblem aus der Unternehmenspraxis zugeord32
„It has to be timely, it has to be brought to the attention of its potential audience, it has to address organizational requirements in a way that meets the individual and concerns of the managers, it has to possess the essential ingredients which allow potential users to perceive it as relevant to meeting their needs, it has to be verbally presentable in an engaging way.” Huczynski (1993b, S. 1).
80
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
net. In der dritten und vierten Spalte wird analysiert, was vor diesem Hintergrund für bzw. gegen Six Sigma als (kurzfristige) Managementmode spricht. Kriterium
Problem
Was spricht für Six Sigma als Managementmode?
Was spricht gegen Six Sigma als Managementmode?
(1) Managementmoden umfassen Konzepte/ Methoden, die (relativ) leicht zu verstehen und zu vermitteln sind
Die Suggerierung einer „vereinfachten Welt“ führen in der Praxis häufig zu einer begrenzten Umsetzbarkeit und dadurch zu einem begrenzten Nutzen
Die Kernaussagen des Konzeptes basieren auf wenigen Schlagwörtern/ Schlüsselbegriffen, z.B. Six Sigma für praktizierte Null-FehlerQualität im Unternehmen
Das Verstehen und das Umsetzen von Six Sigma verlangt einen relativ hohen Trainingsaufwand, insb. in mathematisch-statistischen Methoden und Verfahren
(2) Managementmoden beinhalten (einschlägige) Vorschriften und Rezepte zur Problemlösung für Führungskräfte/ Manager
Die gemachten Vorschriften sind als Optimierungsregel entweder zu allgemein formuliert, oder sie beziehen sich auf ganz bestimmte Unternehmenstypen/ -kulturen
Praktizierte Null-Fehler-Qualität stellt einen (vernünftigen) Grundgedanken als zentrale Anforderung für eine effiziente und effektive Unternehmensführung dar
DMAIC- bzw. DMADV als Projektmanagementzyklen besitzen einen hohen Standardisierungs- und gleichzeitig Verbindlichkeitsgrad bei der Problemlösung
(3) Managementmoden und ihre Vertreter wecken eher Hoffnungen, als dass sie (nachvollziehbare) Resultate/ Ergebnisse liefern
Es fehlen i.A. klare Kriterien, anhand derer die „unterstellten“ Verbesserungen/ Implementierungserfolge objektiv gemessen und bewertet werden können
Six Sigma verspricht eine bessere Zielerreichung, motiviertere produktivere Mitarbeiter, effizientere Abläufe und Prozesse sowie zufriedenere/ loyalere Kunden
Der Nachweis des Erfolgs von Six Sigma-Projekten basiert auf der Sigma-WertBerechnung (nicht-monetär) und/ oder der Net Benefit Ermittlung (monetär)
(4) Managementmoden passen (angeblich) auf jedes Problem in Unternehmen und beanspruchen für sich Allgemeingültigkeit
Die Erfahrung zeigt, dass die wenigsten Konzepte universell anwendbar sind und in bestimmten Situationen sogar mehr Schaden als Nutzen verursachen
Die Befürworter von Six Sigma argumentieren, dass das Managementkonzept für nahezu alle Industriezweige, Unternehmenstypen und -kulturen geeignet ist
Der Six Sigma-Projektmanagementansatz kommt überall dort zum Einsatz, wo Prozesse vorhanden sind und diese grundlegend optimiert werden sollen
(5) Managementmoden erscheinen (auf den ersten Blick) leicht einführbar und in jedem Unternehmen problemlos anwendbar
Die verschiedenen Konzepte werden in Unternehmen – obwohl sie bei „richtiger“ Anwendung tatsächlich effizienzsteigernd wirken – nur oberflächlich, d.h. symptomatisch, implementiert und angewendet
Das Six Sigma-Konzept kann in der Weise missinterpretiert werden, dass allein die Vorgehensweise auf Basis des DMAIC- bzw. DMADVZyklus zu nachhaltigen Prozess- und Ergebnisverbesserungen führt
Die Implementierungszeit (mehr als 2 Jahre) und -kosten (mehr als 10.000 € pro Black Belt Ausbildung) von Six Sigma werden in der Managementliteratur explizit benannt und als wesentliche Herausforderung deklariert
(6) Managementmoden gefallen dem Zeitgeist und greifen die dringlichsten Probleme unternehmerischer Tätigkeit auf
Managementmoden gehen meistens auf aktuelle (lokale) Probleme ein, so dass fundamentale Schwächen oder Stärken des Gesamtunternehmens eher in den Hintergrund geraten
Six Sigma gewinnt an Popularität, da die Unternehmen unter einem zunehmenden Kosten- und damit Wettbewerbsdruck stehen und nach effektiven Prozessverbesserungen streben
Six Sigma hilft bei der Optimierung bestehender Prozesse und beim (Re-)Design neuer Produkte/ Prozesse; Six Sigma unterstützt aber nicht die Innovationsfähigkeit des Unternehmens
(7) Managementmoden und ihre Ideen wirken neu, obwohl sie grundlegende unternehmerische Werte nicht in Frage stellen
Managementmoden gewinnen nur dadurch ihre Aufmerksamkeit, dass sie einen – scheinbaren, aber nicht wirklichen – Neuartigkeitswert besitzen
Im Rahmen des Six SigmaKonzeptes wird die „alte Idee“ des PDCA-Zyklus zur Prozessverbesserung in Form des DMAIC-Zyklus aufgegriffen und erweitert
Qualität-Zeit-Kosten als magisches Dreieck der BWL werden durch Six Sigma operationalisiert und stehen im Fokus aller Verbesserungsaktivitäten
(8) Managementmoden benötigen Gurus, d.h. angesehene Fürsprecher, welche die Glaubwürdigkeit des Konzepts belegen
Durch die Geschichten/ Anekdoten von „Heldentaten großer Manager“ wird der Eindruck vermittelt, dass alle, die das Konzept einsetzen, Erfolg haben
Das Unternehmen GE und sein ehem. CEO, die Managerlegende Jack Welch, sind untrennbar mit der Philosophie und dem Erfolg von Six Sigma verbunden
Six Sigma stößt bei Experten deshalb auf breite Zustimmung, weil der DMAIC-Zyklus eine statistische und wissenschaftl.-abgesicherte Vorgehensweise beinhaltet
Quelle: Eigene Darstellung
Abb. 2-8: Kennzeichen von Managementmoden am Beispiel von Six Sigma
Nach Abwägung der einzelnen Argumente lässt sich folgendes Fazit ziehen: In Bezug auf Frage (1) besitzt Six Sigma gute Chancen von Unternehmen aufgegriffen zu werden und als Managementmode eine entsprechende Verbreitung zu finden. Dies ist wenig verwunderlich, da sich anhand der Kriterien nahezu alle modernen Managementkonzepte auch als Managementmoden klassifizieren lassen. Wie oben genannte Forscher zeigen, führen paradoxerweise genau die Kriterien, die zur Entstehung und Verbreitung von Managementmoden beitragen, auch zu
2.3 „Weiche Hülle“ und „Harter Kern“ von Managementkonzepten
81
ihrem Untergang. Denn ihr Anspruch – einfach, allgemeingültig und erfolgreich zu sein – kann auf Dauer nicht erfüllt werden und enttäuscht somit die (zu hohen) Erwartungen der Manager. Es gilt der Spruch: Success breeds failure. D.h., obwohl Six Sigma für viele Unternehmen zurzeit hoch attraktiv ist, wird es über kurz oder lang von einem „besseren“ Konzept abgelöst. Die Frage (2) ist deutlich schwieriger zu beantworten. Im Einklang mit den Praxiserfahrungen beziehen sich die Kennzeichen von nachhaltigen Managementkonzepten („Klassikern“) vor allem auf die Kriterien (3) bis (5), d.h. (a) wirkliche organisatorische Veränderungen mit relativ hohen Implementierungs- und Durchführungskosten, (b) langfristige Auswirkungen auf den Unternehmenserfolg, aber ohne Erfolgsgarantie und (c) hoher Facettenreichtum für die Anwendung in unterschiedlichen Unternehmen. Das wichtigste Merkmal ist jedoch, dass langfristige Konzepte mit hoher Nachhaltigkeit nicht am Schreibtisch von Akademikern oder Beratern entstehen, sondern in erster Linie von Praktikern entwickelt und gestaltet werden, und zwar als Reaktion auf neue ökonomische, technische und/ oder soziale Herausforderungen des Unternehmens.33 2.3.2
Antithese: Six Sigma als Technologie
Es gibt grundsätzlich zwei Ansätze, das Phänomen „Managementkonzept“ zu interpretieren und damit zu analysieren. Zum einen kann ein Managementkonzept als konkreter Gegenstand (Managementkonzept = Realobjekt) aufgefasst werden; zum anderen besteht die Möglichkeit, es – entsprechend Wissenschaftstheorie – als abstrakten Gegenstand zu betrachten (Managementkonzept = Denkobjekt). Um zu einem solchen abstrakten, auf theoretischen Überlegungen basierenden Konzeptbegriff zu gelangen, gibt zwei Vorgehensweisen: Deduktivisums und Induktivismus. Auf dem induktivistischen Vorgehen basieren u.a. die Klassifizierungsansätze von Hahn et al. (1999) und Davenport (1993) (vgl. Unterkapitel 2.1). Sie leiten allgemeine Beurteilungskriterien aus der Analyse einzelner, in der Praxis eingesetzter Konzepte her. Daneben existiert eine wissensbasierte Interpretation von Managementkonzepten, welche dem deduktivistischen Vorgehen bei der Analyse empirischer Sachverhalte entspricht. Das Vorgehen knüpft, wie bereits zu Beginn dieses Kapitels erwähnt, an dem Faktum an, dass ein Konzept eine Art der Gattung Wissen ist und sich aus diesem Grund signifikant von anderen Arten, z.B. Ereignis- und Prozesswissen, unterscheidet (vgl. Neumann 2000, S. 62ff.). Entscheidend für den Vergleich unterschiedlicher Wissensarten ist ihre Negationsgrundlage, d.h. die Dimensionen,
33
Vor diesem Hintergrund hat Six Sigma gute Chancen, zu einem wirklichen „Managementklassiker“ zu werden. Geht es nach dem Urteil deutscher Führungskräfte, dann sind die Zukunftsaussichten von Six Sigma „blendend“. Im Jahr 2004 waren 75% der befragten Akteure der Meinung, dass Six Sigma in Zukunft eher an Bedeutung gewinnt als verliert (vgl. Schmieder 2005, S. 31).
82
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
anhand derer die Klassifikation vorgenommen wird. Wie Graumann (2004, S. 286) hierzu ausführt, darf nur unter der Voraussetzung gleicher Dimensionen Konzeptwissen mit anderen Wissensarten kontrastiert werden. Wenn man diesem Gedankengang folgt und den Gegenstand „Wissen“ als Gattung klassifiziert, dann lassen sich verschiedene Arten von Wissen dadurch ableiten, dass die spezifische Ausprägung von einer oder mehrerer Eigenschaftsvariablen ermittelt wird. Infolgedessen lässt sich jede einzelne Art von Wissen als Kombination der Ausprägung von definierten Eigenschaftsvariablen darstellen. Im einfachsten Fall werden die Variablen dichotom konstruiert. In Abb. 2-9 sind auf dieser Basis zwei Arten von Wissen, Daten- und Konzeptwissen, gegenübergestellt. Sie befinden sich auf gleicher gattungslogischer Stufe, da sie anhand derselben Eigenschaftsvariablen selektiert worden sind (vgl. Hartmann 1964, S. 214). Eigenschaftsvariable
Datenwissen
Konzeptwissen
Art des repräsentierten Gegenstandes (konkret vs. abstrakt)
Konkrete Gegenstände eines empirischen Bezugsbereichs
Abstrakte Gegenstände eines empirischen Bezugsbereichs
Bezugszeitraum der Repräsentation
Mit Bezug auf die Vergangenheit
Mit Bezug auf die Vergangenheit als auch auf die Gegenwart und/ oder die Zukunft
Ohne Angabe von Relationen
Mit zwingender Angabe von Relationen
(vergangenheits- vs. vergangenheits-/ gegenwarts- und/ oder zukunftsbezogen)
Notwendigkeit der Repräsentation von Relationen (nicht notwendig vs. notwendig) Quelle: Graumann 2004, S. 286
Abb. 2-9: Gegenüberstellung von Daten- und Konzeptwissen
Entsprechend der Klassifikation von Konzeptwissen nach obiger Abbildung kann aus wissenschaftlicher Sicht die Bedeutung des Wortes Managementkonzept eindeutig spezifiziert werden. Ein „Managementkonzept“ bezeichnet (a) einen Gegenstand der Art der Gattung „Wissen“, ist (b) eine Repräsentation des empirischen Bezugsbereichs „Management“ und besitzt (c) alle drei Eigenschaften von „Konzeptwissen“, d.h. ein Managementkonzept ist eine Repräsentation abstrakter Gegenstände des Managements von Unternehmen, wobei Klassen gleichartiger konkreter Gegenstände des Managements im Tagesgeschäft von Unternehmen hierunter subsumiert werden können. Vor diesem Hintergrund lassen sich die folgenden drei Thesen zum Einsatz von Managementkonzepten formulieren: •
Konzeptwissen bildet Voraussetzung für die Problemlösung in Unternehmen
•
Konzeptwissen ermöglicht das zukunftsgerichtete Entscheiden von Managern
•
Konzeptwissen abstrahiert von konkreten Gegenständen des Bezugsbereichs.
2.3 „Weiche Hülle“ und „Harter Kern“ von Managementkonzepten
83
Der zentrale Unterschied zwischen praxisorientierter und wissenschaftlicher Interpretation von Managementkonzepten besteht darin, dass im ersten Fall von konkreten Gegenständen ausgegangen wird. D.h., Konzepte, wie z.B. Six Sigma, sind eindeutig abgrenzbare Objekte, die in einem empirischen Bezugsbereich zu bestimmten Zeiten und an bestimmten Orten existieren. Im zweiten Fall handelt es sich um abstrakte Managementkonzepte, unter welche die konkreten, praxisrelevanten Konzepte subsumiert werden. Dabei wird ein Managementkonzept nicht schon deshalb zu einem wissenschaftlichen Konzept, weil es abstrakt formuliert ist, sondern weil es auf fundierten wissenschaftlichen Überlegungen basiert. Weiterhin ist darauf hinzuweisen, dass Managementkonzepte – unabhängig von der Sichtweise – immer Repräsentationen abstrakter Gegenstände enthalten. Dies steht in Einklang mit den oben aufgeführten Eigenschaften von Konzeptwissen. Aus wissenschaftlicher Sicht lässt sich dann ein Managementkonzept als Technologie interpretieren, welche dem Entscheider und Gestalter dabei hilft, Mittel/ Maßnahmen in der Organisation zweckrational einzusetzen, um angestrebte Ziele zu erreichen. Unter dieser Voraussetzung ist die Hauptaufgabe von Managementkonzepten darin zu sehen, Entscheidungsträger von Unternehmen bei ihrer Aufgabe zu unterstützen, knappe Ressourcen effizient und effektiv zu verwenden/ zu verwalten, um die übergeordneten Unternehmensziele bestmöglich zu erreichen. Nach dem oben benannten Managerial functions approach lassen sich den Managementkonzepten dabei die folgenden drei Teilaufgaben bzw. -ziele zuordnen: •
Verwirklichung effizienter Wettbewerbsstrategien,
•
Implementierung effizienter Organisationsstrukturen und
•
Umsetzung effizienter Planungs-/ Kontrollsysteme.
Auf dieser Grundlage hat Graumann (2004, S. 289ff.) exemplarisch die Managementkonzepte von FERDINAND PIËCH (Volkswagen) und JACK WELCH (General Electric) rekonstruiert. Die Mittel-Zweck-Relationen, die als Bestandteile der praktischen Managementkonzepte der beiden ehemaligen Unternehmenslenker rekonstruiert werden, beziehen sich dabei auf die o.g. Teilaufgaben/ -ziele. Im Ergebnis fördert die Studie „bemerkenswerte Unterschiede“ zwischen den zwei Managementkonzepten zu Tage. Diese basieren auf wissenschaftlichen Effizienzkriterien und ermöglichen damit eine intersubjektive Nachvollziehbarkeit. Im Zuge der Generalisierung erscheint außerdem eine Übertragbarkeit auf andere Sachverhalte/ Untersuchungsobjekte generell möglich, wie es in Hypothese H5 bezogen auf die Abstraktion von realen Vorgehensmodellen/ Problemlösungszyklen sinngemäß übertragen worden ist (vgl. Abschnitt 1.2.3). Als wesentliche Gemeinsamkeit der Managementkonzepte von Piëch/ Welch gilt der Theoriebezug. Wie Kramer et al. (1975, S. 47) hierzu feststellen, sind zur Wahrnehmung der Gestaltungsaufgabe in Unternehmen Theorien notwendig, auf deren Basis die Manager die zugrundeliegenden Ursachen-Wirkungsketten in einer Geschäftssituation erkennen, verstehen und analysieren (können). Denn nur auf der Grundlage betriebswirtschaftlicher Theorien ist eine Führungskraft in der
84
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
Lage, unterschiedliche Ergebnisse alternativer Steuerungs- und Handlungsmöglichkeiten möglichst genau vorherzusagen.34 In die gleiche Richtung argumentieren auch Stoner/ Freeman, (1989, S. 33), nach deren Auffassung Managementtheorien den Entscheidungsträgern dabei helfen, ablaufende Prozesse in- und außerhalb des Unternehmens zu verstehen und zu strukturieren. Kombiniert mit einem guten Vorverständnis bzw. einer guten Wissensbasis sind die Manager in der Lage, Dinge/ Aktivitäten mit einem hohen Zielerreichungsgrad und einer hohen Wirtschaftlichkeit zu planen und zu steuern. Ist dies nicht der Fall, dann bleibt den Führungskräften – insb. in Organisationen mit ständig steigender Komplexität der Entscheidungsprozesse – nur ihre Intuition bzw. ihr Bauchgefühl bei der Maßnahmenplanung und -umsetzung. Die vordergründige Aufgabe der Managementwissenschaft besteht also darin, Theorien über das „Management von Unternehmen“ zu formulieren, die anschließend mit Technologien in praxisrelevante Handlungsempfehlungen überführt werden können.35 Hierbei findet eine Übertragung bzw. Transformation der im Rahmen von betriebswirtschaftlichen Theorien herausgearbeiteten Kausalzusammenhänge auf praktische Probleme statt. Auf dem gleichen Ansatz basiert – im übertragenen Sinn – auch die Anwendung von Six Sigma. Unter wissenschaftlichen Gesichtspunkten kann das Konzept als „Familie von Technologien“ verstanden werden, das auf deduktiv-analytisch abgeleiteten Aussagensystemen (Theorien) basiert bzw. auf solche zurückführbar ist (siehe Abb. 2-10): •
34
35
Technologie als „Therapie“: Das Konzeptwissen konkretisiert sich bei Six Sigma im Wissen über den phasenspezifischen Ablauf und den vernetzten Methodeneinsatz bei den konzeptspezifischen Problemlösungszyklen DMAIC und DMADV. Sie stellen sozusagen die Technologien von Six Sigma dar, auf deren Basis die Verbesserung bestehender Prozesse (DMAIC-Zylus) und/ oder die Entwicklung neuer Produkte/ Prozesse (DMADV-Zyklus) erfolgt. Den praktischen Handlungsempfehlungen, die im Rahmen der Projekte gegeben werden, liegt jeweils eine tautologische Transformation von theoretisch gewonnenen und empirisch bestätigten Aussagen zugrunde.
Im Rahmen des wissenschaftlichen Analyseprozesses sind drei Ziele relevant (vgl. Töpfer 2007a, S. 3): (a) Deskriptives Ziel (Begriffsbildung, Klassifikation und Beschreibung), (b) Theoretisches Ziel (Erkenntnisgewinnung, Erklärung und Vorhersage) und (c) Pragmatisches Ziel (Praktische Gestaltung auf Basis von (b)). Wie bei der Anwendung von Erkenntnissen der Naturwissenschaften in den Ingenieurwissenschaften wird auch im wissenschaftstheoretischen Zusammenhang der Betriebswirtschaftslehre/ Unternehmensführung von Technologie gesprochen. Die Theorie gilt allgemeinhin als Voraussetzung bzw. „Unterbau“ der Technologie. Dabei ist es nach Chmielewicz (1979, S. 182f.) offen, ob die Theorie zeitlich vor, simultan mit oder nach der Technologie entsteht. Als Gründe für eine theoriefreie Technologie, auch Praxeologie genannt, werden vom Autor angeführt: (a) temporär fehlendes theoretisches Wissen, (b) praktischer Problemlösungszwang in der Unternehmenspraxis und (c) Theoriefreiheit als programmatisches Postulat, z.B. im Rahmen von Operations Research.
2.3 „Weiche Hülle“ und „Harter Kern“ von Managementkonzepten
•
85
Theorie als „Diagnose“: Bei der Anwendung des DMAIC- und/ oder DMADV-Zyklus im Rahmen von Six Sigma liegt die Theorie zugrunde, dass schwierige Probleme nicht auf direktem Weg zu lösen sind, sondern einer Transformation auf eine „höhere Ebene“ bedürfen. Die realen Probleme werden in statistische Probleme transformiert und durch die Anwendung von mathematisch-statistischen Verfahren auf der Meta-Ebene gelöst (vgl. hierzu auch Abschnitt 1.1.1). Das Erkenntnisziel ist dabei zweigeteilt und beinhaltet sowohl Erklärungs- als auch Prognosemuster für empirisch festgestellte Zielsetzungen in der Unternehmenspraxis (praktische Normen).36
2.3.3
Synthese: Six Sigma als Mode & Technologie
In den vorangegangenen Abschnitten wurde deutlich, dass bei der Analyse und Rekonstruktion von Managementkonzepten grundsätzlich zwei Ebenen zu berücksichtigen sind. Auf übergeordneter Ebene, der Theorieebene, werden zum einen die managementrelevanten Fragestellungen in abstrakter Art und Weise erörtert. Durch das Auffinden von universellen und/ oder statistischen Gesetzmäßigkeiten, die unter den bestimmten, unternehmensspezifischen Gegebenheiten gelten, können beobachtete Phänomene im Zusammenhang mit dem „Management von Unternehmen“ (vergangenheitsbezogen) erklärt und (zukunftsbezogen) prognostiziert werden. Zum anderen besteht bei praktisch-normativen Wissenschaften das Ziel immer darin, auf der Basis der gewonnenen, theoretischen Erkenntnisse Gestaltungsempfehlungen auf der Praxisebene zu geben (vgl. Töpfer 2007a, S. 3f.). In Analogie zu den Naturwissenschaften spricht man hier von der Entwicklung einer neuen Technologie (vgl. Abschnitt 2.3.2). Im Fall von Six Sigma handelt es sich um in der Praxis bewährte Problemlösungstechniken, mit denen das Produktangebot sowie die Prozessleistung signifikant verbessert werden können. Vor diesem Hintergrund geben also Managementkonzepte der Unternehmensführung grundlegende Anhaltspunkte dafür, was zu tun ist und wie etwas zu tun ist, um die vorgegebenen Organisations-/ Unternehmensziele zu erreichen. Dabei ist die genannte Selektivität Chance und Risiko zugleich: •
Die Chance liegt auf der einen Seite darin, dass der Manager Zeit und Kosten spart, indem er sich auf das (vermeintlich) Wesentliche konzentriert, also das, was der Filter „Managementkonzept“ durchlässt. So gibt z.B. das Six SigmaKonzept die Empfehlung, sich vor allem auf die drei Umsetzungstreiber „Kunde“, „Prozess“ und „Qualität“ bei der Unternehmenssteuerung zu konzentrieren. Denn nur wenn das Management alle drei Treiber gut im Griff hat, wird es langfristig erfolgreich sein (vgl. Abschnitt 2.2.3).
36
Zwischen Erklärung und Prognose besteht strukturelle Identität, d.h. die aufgestellten Hypothesen (Wenn-dann-Aussagen) können an der Erfahrung scheitern und sind sodann zu verwerfen bzw. zu falsifizieren (vgl. Töpfer 2007a, S. 40f.).
86
•
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
Neben der Chance, unter Zeit- und Kostendruck, tragfähige und nachvollziehbare Entscheidungen zu treffen, besteht das potenzielle Risiko von Managementkonzepten darin, dass zu viel Daten- und Konzeptwissen herausgefiltert wird.37 Für die Entscheidung steht dann nur noch bruchstückhaftes, für die Problemlösung unzureichendes Wissen zur Verfügung. Außerdem bleibt ein großer Teil von Mittel-Zweck-Beziehungen unbeachtet, d.h. unrelationiert. Genau aus diesem Grund werden Managementkonzepte auch als Modeerscheinungen bezeichnet (vgl. Abschnitt 2.3.1).
Theorie als „Diagnose“
Reales Problem
Prognose: Wie wird etwas sein?
Statistisches Problem
Statistische Lösung
Charakterisierung des Prozesses in Bezug auf - Lage- & - Streuverhalten
Beschreibung von Größe und Auswirkung
Reale Lösung
Ableitung der wesentlichen Faktoren mit Einfluss auf - Lage- & - Streuverhalten
Erarbeitung und Umsetzung von Verbesserungsmaßnahmen
Gestaltung:
Technologie als „Therapie“
Define
Erklärung: Warum ist etwas so?
Wie kann etwas erreicht werden?
Measure
Analyse
Improve
Control
Quelle: Eigene Darstellung
Abb. 2-10: DMAIC-Zyklus als Technologie zur Problemlösung bei Six Sigma
Aus wissenschaftlicher Sicht werden durch den Vergleich von Managementkonzepten mit „Moden“ auf der einen Seite sowie mit „Technologien“ auf der anderen die unterschiedlichen Facetten des Forschungsobjektes reflektiert. Nach dem Wissenschaftstheoretiker THOMAS S. KUHN (1962) handelt es sich dabei um zwei Paradigmen, auf denen die Forscher mit ihrer Arbeit aufsetzen (vgl. Chalmers 1999, S. 104ff.). Im einen Fall wird davon ausgegangen, dass Six Sigma vor allem aus Legitimitätsgründen praktiziert wird; im anderen Fall wird der Einsatz von Six 37
Wie u.a. McCaskey (1982, S. 195ff.) in einer Studie eindeutig belegt, war vor allem die Selektivität der gängigen Managementkonzepte der US-amerikanischen Automobilindustrie Ursache dafür, warum die Automobilmanager zu Beginn der 1980er Jahre die schwachen Signale (weak signals) bzgl. der grundlegenden Änderungen im Käuferverhalten auf ihrem Heimatmarkt übersahen. Die z.T. gravierenden Folgen dieser Nichtbeachtung sind allgemein bekannt.
2.3 „Weiche Hülle“ und „Harter Kern“ von Managementkonzepten
87
Sigma als rational begründet erachtet. Beide Erklärungsansätze sind auf den ersten Blick plausibel und nachvollziehbar, so dass sich die Frage nach einer zweckmäßigen Vereinigung (Synthese) stellt. Diese ist aber nach dem derzeitigen Erkenntnisstand nicht in Sicht (vgl. Burell/ Morgan 1979, S. 397f.). Alternativ besteht die Möglichkeit der Einnahme einer Multiparadigmenperspektive, bei der beide Ansätze/ Sichtweisen gleichberechtigt nebeneinander stehen (vgl. Gioia/ Pitre 1990, 584ff.; Evered/ Louis 1981, 385ff.). Dieser Weg ist insb. dann reizvoll, wenn die theoretischen Aussagensysteme und die darauf basierenden Handlungsempfehlungen für die Praxis komplementär sind, d.h. sich ergänzen und schrittweise zu einem besseren Gesamtbild über die Realität führen. Dies ist im vorliegenden Fall nicht gegeben. Vielmehr stehen die Aussagen, die aus den zwei Sichtweisen resultieren, teilweise im Widerspruch zueinander. Infolgedessen ergibt sich ein eher diffuses Bild über die Realität von Managementkonzepten. Hinzu kommt, dass es nach der Inkommensurabilitätsthese (vgl. Steinmann/ Scherer 1994, S. 265) nicht möglich ist, auf übergeordneter Ebene zwischen den konkurrierenden Theorien/ Aussagen objektiv zu entscheiden bzw. zu beurteilen. Die „wahre Natur“ von Managementkonzepten i.A. sowie Six Sigma i.S. bleibt folglich auch weiterhin im Verborgenen. Die Arbeit in den beiden Paradigmen wird solange erfolgreich fortschreiten und zu Wissenszuwachs führen, solange keine wesentlichen Diskrepanzen zwischen Theorie und Praxis auftreten. Erst eine „erwachsene Wissenschaft“ wird von einem einzigen Paradigma geleitet, dass sich nach mehreren sog. Paradigmenwechseln herauskristallisiert hat. Neben KUHN´S PARADIGMENWECHSEL (1962) zur Erklärung wissenschaftlichen Fortschritts stellen die FORSCHUNGSPROGRAMME nach IMRE LAKATOS (1970) einen bekannten wissenschaftstheoretischen Ansatz dar. In Analogie hierzu können folgende Kernthesen für die Entstehung und Entwicklung von Managementkonzepten formuliert werden (vgl. Chalmers 1999, S. 104ff.): •
Nicht alle Bereiche/ Annahmen eines Managementkonzeptes stehen auf der gleichen (Entwicklungs-)Stufe und sind – für das Überleben des Konzeptes – als gleich „kritisch“ zu betrachten, d.h. einige Bereiche/ Annahmen eines Konzeptes haben stärkeren fundamentalen Charakter als andere. Aus diesem Grund beinhaltet ein Managementkonzept immer fundamentale sowie periphere Handlungsempfehlungen, wobei erstgenannte zu keinem Zeitpunkt der Konzeptentwicklung infrage gestellt werden.
•
Ein Managementkonzept ist die programmatische Entwicklung der Implikationen einiger (weniger) fundamentaler Aussagen. Sie bilden nach Lakatos den „harten Kern“ eines Forschungsprogramms38 bzw., in unserem Fall, eines
38
Bei der Erfolgsfaktorenforschung, die seit Jahren im betriebswirtschaftlichen Diskurs steht, wird ebenfalls das Kern-Hülle-Problem offensichtlich. Bauer/ Sauer (2004, S. 623) legen die Ursachen für die vermeintliche Erfolglosigkeit des Forschungskonzeptes wie folgt offen: „Die empirische Sozialforschung neigt dazu, ihre Theorien gleichsam
88
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
Managementkonzeptes. Die Akteure in einem bestimmten Unternehmensbereich, z.B. Qualitätsmanagement, begegnen eventuellen (Konzept-)Problemen damit, dass sie die peripheren Annahmen verändern. Diese kennzeichnen nach Lakatos die „weiche Hülle“ eines Forschungsprogramms. Bei Managementkonzepten stehen die persönlichen Auffassungen/ subjektiven Theorien von einzelnen Führungskräften über das „Management von Unternehmen“ am Anfang der Entwicklung. So verfolgen die frühen Anwender organisationaler Innovationen, z.B. Six Sigma bei Motorola Ende der 1980er Jahre, das Ziel, ihre Leistungs- und Wettbewerbsfähigkeit zu verbessern. In der Anfangsphase erfolgt der Wandel bzw. die Entwicklung zunächst auf technisch-rationaler Basis und steht mit den spezifischen Charakteristika/ Anforderungen einer Organisation direkt in Verbindung (vgl. DiMaggio/ Powell 1991, S. 147ff.). Werden in dieser Phase die (subjektiven) Erwartungen der Beteiligten erfüllt, dann führt dies dazu, dass dem neuen Konzept bzw. der neuen Technik ein Wert beigemessen wird, der meist über die ursprünglich beabsichtigten Erfordernisse der zu erfüllenden Aufgabe hinausgeht. So wurde bspw. Six Sigma bei GE in der Mitte der 1990er Jahre zu einem unternehmensweiten Führungs- und Steuerungskonzept ausgebaut. Während GE maßgeblich am Aufbau der „weichen Hülle“ von Six Sigma beteiligt war, geht der „harte Kern“ des Konzeptes auf das Technologieunternehmen Motorola zurück. Um zu einer effizienteren Gestaltung des Verbesserungsprozesses zu gelangen, wurde hier der DMAIC-Zyklus als organisationale Innovation erstmals eingeführt. Nach Abb. 2-11 stellt er den technisch-rational begründeten Kern von Six Sigma dar (vgl. Abschnitt 3.3.1). Daneben wurde unter der Bezeichnung „Design for Six Sigma“ der DMADV-Zyklus als Projektmanagement-Zyklus für den Entwicklungsbereich konzipiert und eingeführt (vgl. Abschnitt 3.3.2). Obwohl er ebenfalls auf rationalen Überlegungen basiert, hat er sich gegenüber dem DMAIC-Zyklus bis dato weniger bewährt (vgl. Abschnitt 1.1.2). Wie Walgenbach/ Beck (2003, S. 498f.) feststellen, werden am Anfang des Institutionalisierungsprozesses neue Strukturen respektive Technologien gezielt entwickelt, um die internen Probleme schnell und kostengünstig zu lösen. Der Wert und die Effizienz eines institutionalisierten Strukturelements wird dabei in erster Linie nach internen Bewertungskriterien bestimmt (vgl. Zucker 1987, S. 443ff.). Die neuen Praktiken, Techniken und/ oder Verfahren werden unternehmensübergreifend eingeführt und weiterentwickelt, wenn die beteiligten Akteure davon überzeugt sind, dass damit Effizienzsteigerungen möglich sind. Bei wachsender Verbreitung und Anerkennung (Legitimation) tritt der Punkt der Rationalität jedoch sukzessive in den Hintergrund. Im Zuge der Verbreitung einer organisationalen Innovation kommt es immer mehr zu einer „schablonenhaften“ Übernahme, so dass ab einem bestimmten Zeitpunkt – statt der Verbesserung der Leistungs- und wie Supernovas solange aufzublähen bis der gesamte Wissenschaftsbetrieb den Überblick verliert und die Theorie quasi implodiert und stirbt. Im Kosmos bleiben dann bekanntlich schwarze Löcher zurück. Ein Etwas, in dem nichts Erhellendes mehr ist.“
2.3 „Weiche Hülle“ und „Harter Kern“ von Managementkonzepten
89
Wettbewerbsfähigkeit – die Legitimation und Anerkennung durch die Umwelt, insb. der Stakeholder, im Vordergrund stehen. Einbindung der Unternehmensleitung und Commitment der Führungskräfte Auswahl und Qualifizierung von Akteuren/ Aufbau einer Six Sigma-Organisation
Define
Measure Analyse Improve Control
Planung und Steuerung von Six Sigma-Projekten/ Analyse der Ergebniswirkungen (direkt/ indirekt) Konzeption eines Anreizsystems für die Durchführung von Six Sigma-Projekten Basis: Magnusson et al. 2004, S. 19
Abb. 2-11: DMAIC-Zyklus als „harter Kern“ im Six Sigma-Rahmenkonzept
Diese Entwicklung trifft auch für das Six Sigma-Konzept zu. Mit der zunehmenden Verbreitung und dem Einsatz in anderen Branchen geht der anfänglich „rationale Kern“ der Innovation nach und nach verloren – bildlich gesprochen bleibt dann nur noch die Verpackung als „legitimierte Hülle“ übrig. Trotz dieser Einschränkung ist die Adoptionsrate weiterhin hoch, da mit Six Sigma aus gesellschaftlicher Sicht die Anforderungen an eine „rationale“ und „moderne“ Organisationsstruktur erfüllt sind (vgl. Walgenbach 2002, S. 329). Die „weiche Hülle“ von Six Sigma lässt sich in Anlehnung an Lakato´s Forschungsprogramme wie folgt kennzeichnen: Um den Kern des Managementkonzeptes vor der Falsifikation zu schützen, wird ein Set von unterstützenden Annahmen (Rahmenbedingungen) formuliert. Führt der Einsatz von Six Sigma nicht zum gewünschten Erfolg, dann wird nicht der „harte Kern“, also z.B. der Phasenablauf und Instrumenteneinsatz des DMAIC-Zyklus, sondern die Annahmen des schützenden Gürtels infrage gestellt und ggf. für den Misserfolg verantwortlich gemacht (siehe Abb. 2-11).39 Auf der Grundlage einer umfassenden Literaturrecherche konnten vom Autor die folgenden vier Bereiche als legitimierte und
39
Dieser Erklärungsansatz gibt u.a. einen Hinweis darauf, warum der DMADV-Zyklus als harter Kern von Design for Six Sigma – trotz seiner nachgewiesenen Ineffizienz – seit Jahren als „State of the art“-Verbesserungsmethode im Produktentwicklungsprozess gehandelt wird. Analog zum DMAIC-Zyklus wird das institutionalisierte Element durch das Six Sigma-Rahmenkonzept vor der Widerlegung geschützt.
90
2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität
zugleich schützende Hülle des Six Sigma-Konzeptes identifiziert werden (vgl. u.a. Töpfer 2007; Harry/ Schroeder 2005; Magnusson et al. 2004): •
Einbindung der Unternehmensleitung und Commitment der Führungskräfte: Nach Töpfer (2007, S. 208) ist die zu klärende Frage bei der Implementierung von Six Sigma nicht, ob, sondern welche aktive Rolle die Unternehmensleitung bei der Einführung zu spielen hat. Bei einer unternehmensweiten Initiative muss sie sich an die „Spitze der Bewegung“ für Six Sigma stellen. Dabei ist die Frage zu klären, wann sie sich wo und wie in den Roll-out-Prozess einbringt. Denn auch bei einem fortschrittlichen Qualitätsmanagement-System mit Erfahrungen in bestimmten QM-Initiativen bedeutet Six Sigma immer einen Veränderungsprozess im gesamten Unternehmen. Neben der Rolle als Initiator und Verfechter von Six Sigma tritt die Unternehmensleitung als Sponsor von Six Sigma-Projekten auf. Wenn die Entscheidung für die generelle Einführung von Six Sigma gefallen ist, dann sollte die Unternehmensleitung bereits den ersten Workshop mit Entscheidungsträgern und Prozesseignern zur Klärung konzeptrelevanter Fragen nutzen.
•
Konzeption eines Anreizsystems für die Durchführung von Six Sigma-Projekten: Damit bei den Führungskräften ein derartiges Commitment entsteht, sind u.a. entsprechende Anreize zu schaffen. Ziel ist der Aufbau eines umfassenden Incentive-Konzepts, bei dem die Durchführung respektive Steuerung von Six Sigma-Projekten in den persönlichen Zielvereinbarungen der Führungskräfte und Mitarbeiter verankert ist. Dadurch werden einerseits die Bedeutung und Dauerhaftigkeit des Six Sigma-Programms unterlegt. Andererseits werden die Befürchtungen und Vorbehalte der Mitarbeiter bzw. Manager abgebaut, die Six Sigma als eine „vorrübergehende Initiative“ des Unternehmens sehen. Wie die Erfahrungen bei General Electric zeigen, sichert ein effektives Anreizsystem vor allem im ersten und zweiten Jahr des Six Sigma-Einführungsprozesses die klare Fokussierung und zielgerichtete Weiterentwicklung der Initiative (vgl. Bulk/ Faulhaber 2007, S. 402).
•
Auswahl und Qualifizierung von Akteuren/ Aufbau der Six Sigma-Organisation: Die typische Six Sigma-Organisation beinhaltet eine differenzierte Rollenverteilung mit unterschiedlichen Aufgaben- und Rollenprofilen. Nach diesen richtet sich u.a. der Qualifizierungsbedarf, der in vielen großen Unternehmen, z.B. Motorola, fest vorgegeben ist. Zu den wesentlichen vier Gruppen von Six Sigma-Akteuren gehören Champions, Master Black Belts, Black Belts und Green Belts; sie wurden in Abschnitt 2.2.3 benannt. Weitere Akteure einer typischen Six Sigma-Organisation sind Yellow Belts und White Belts. Als Mitglieder einer Projektgruppe übernehmen sie ebenfalls Fach- und Unterstützungsaufgaben. An der Spitze der Six Sigma-Organisation steht üblicherweise der Quality Leader, der als Mitglied der oberen Führungsebene über eine klare strategische Ausrichtung verfügt.
•
Planung und Steuerung von Six Sigma-Projekten/ Analyse der Ergebniswirkungen: Bei der Planung von Six Sigma-Projekten kommt vor allem dem Pro-
2.3 „Weiche Hülle“ und „Harter Kern“ von Managementkonzepten
91
jektauswahlprozess eine entscheidende Bedeutung zu. In diesem wird festgelegt, wie bei der Auswahl von Six Sigma-Projekten standardmäßig vorzugehen ist.40 Generell ist zu beachten, dass keine Projekte zu Six Sigma-Projekten nominiert werden, die auf der einen Seite vergleichsweise einfach und mit „gesundem Menschenverstand“ bereits zum Erfolg zu führen sind (sog. Tiefhängende Früchte-Projekte). Auf der anderen Seite sind Projekte zu vermeiden, die in ihrem Ausmaß und ihrer Zeitdauer mehr als deutlich über ein „normales“ Six Sigma-Projekt hinausgehen und nur ansatzweise zu bearbeiten sind (sog. Welthungerhilfe-Projekte) (vgl. Töpfer 2007b, S. 216). Im zeitlichen Ablauf werden zunächst Prozesse mit einem relativ schlechten Qualitätsniveau verbessert. Dadurch wird ein positives Kosten-Nutzen-Verhältnis erreicht, was zugleich die Akzeptanz des Gesamtvorhabens fördert. Im Unterschied zu anderen Verbesserungskonzepten, z.B. TQM, werden bei der Projektanalyse sowohl monetäre als auch nicht-monetäre Größen bzgl. der Ergebniswirkung(en) ausgewiesen. Während der Sigma-Wert als dimensionslose nicht-monetäre Größe die technische Sichtweise widerspiegelt (= Sprache des Prozesses), wird über die monetäre Kenngröße Net Benefit41 der wirtschaftliche Erfolg von Six Sigma-Projekten gemessen, der wiederum Einfluss auf die Höhe des Shareholder Value hat (= Sprache des Managements). Neben der Erklärung des Aufbaus von Managementkonzepten gibt der Vergleich mit Lakatos´ Forschungsprogramme Hinweise darauf, wie die Entstehung und Verbreitung zu deuten ist. Zur Beschreibung des wissenschaftlichen Fortschritts unterscheidet Lakatos zwischen progressiven und degenerativen Forschungsprogrammen. Im Zuge einer „wissenschaftlichen Revolution“ kommt es zur Ablösung eines degenerativen Forschungsprogramms durch ein progressives. Dieses Muster trifft m.E. auch für Managementkonzepte zu. So lässt sich z.B. Six Sigma zum gegenwärtigen Zeitpunkt als progressives Managementkonzept einordnen. Es löst das Vorgängermodell TQM ab, das sich bereits im Jahr 2005 im Degenerationsstadium befand (vgl. von Lanzenauer/ Huesmann 2004, S. 253).
40 41
Der eingeführte Projektauswahlprozess bei Johnson & Johnson im Werk Wuppertal beinhaltet z.B. fünf Schritte (vgl. Leyendecker 2004, S. 476). Nach allgemeiner Konvention fließen in die Berechnung des Net Benefit nur liquiditätswirksame Kosteneinsparungen und/ oder Umsatzsteigerungen ein, die nachweislich innerhalb von 12 Monaten nach Beendigung des Six Sigma-Projektes realisiert werden. Dadurch wird vermieden, dass durch indirekte Nutzenkomponenten, z.B. erhöhte Kundenbindung, die Wirkungen von Projekten „schöngerechnet“ werden.
3
Praxis-Theorie-Transformation als induktive Vorgehensweise: Vom konkreten zum abstrakten Vorgehensmodell der Problemlösung in F&E-Projekten
'LH%HUHLWVWHOOXQJYRQHIIHNWLYHQ9RUJHKHQVPRGHOOHQ]XU9HUEHVVHUXQJYRQ3UR GXNWHQ 3UR]HVVHQ ELOGHW GHQ $XVJDQJVSXQNW GHU $QDO\VH DXI DEVWUDNWHU (EHQH VLHKH $EE :LH LQ $EVFKQLWW DXVJHIKUW ZXUGH ULFKWHW VLFK GLH $Q ZHQGXQJ EHVWLPPWHU 9RUJHKHQVPRGHOOH LP 5DKPHQ YRQ 6L[ 6LJPD QDFK GHU EHWULHEOLFKHQ $XIJDEHQVWHOOXQJ 6R ZHUGHQ 3UR]HVVYHUEHVVHUXQJHQ PLW GHP '0$,&=\NOXV DQJHJDQJHQ ZlKUHQG GLH JUXQGOHJHQGH hEHUDUEHLWXQJ GHV /HLV WXQJVDQJHERWHV PLW GHP '0$'9=\NOXV HUIROJW 'LH (IIHNWLYLWlW GHU 3URMHNWDU EHLW ULFKWHW VLFK EHL OHW]WHUHP QLFKW QXU QDFK GHU HU]LHOWHQ )HUWLJXQJVTXDOLWlW XQG GHP HUUHLFKWHQ )LQDQ]HUJHEQLV VRQGHUQ DXFK QDFK GHP ,QQRYDWLRQVJUDG GHU 3URGXNWH XQG JJI GHU QHX NRQ]LSLHUWHQ 3UR]HVVH =XVlW]OLFK ]XP $QVSUXFK GHU SUDNWL]LHUWHQ1XOO)HKOHU4XDOLWlWWULWWEHL')66DOVRGDV=LHOGHUNUHDWLYHQ3URE OHPO|VXQJ$XIEHLGH$VSHNWHZLUGLQGLHVHP.DSLWHOHLQJHJDQJHQ
3.1
Qualität und Innovation als wichtige Effektivitätskriterien – Begriffsdefinitionen
'LH *HQHULHUXQJ YRQ ,QQRYDWLRQHQ XQG GLH 6LFKHUVWHOOXQJ HLQHU KRKHQ 4XDOLWlW VSLHOHQIUYLHOH8QWHUQHKPHQHLQHKHUDXVUDJHQGH5ROOHEHLGHU(QWZLFNOXQJYRQ QHXHQ 3URGXNWHQ XQG RGHU 3UR]HVVHQ YJO XD 9RHOSHO /HLEROG 6 I :LOGHPDQQ 6 I 'LH JOHLFK]HLWLJH (UIOOXQJ EHLGHU =LHOVHW]XQJHQ JHV WDOWHWVLFKGDEHLRIWPDOVVFKZLHULJGDEHLGH*U|HQKlXILJQLFKWLQHLQHPGLUHNWHQ 8UVDFKHQ:LUNXQJV]XVDPPHQKDQJ VWHKHQ (LQ KRKHU ,QQRYDWLRQVJUDG EHGHXWHW QLFKW]ZDQJVOlXILJHLQHKRKH)HUWLJXQJVTXDOLWlWFS7URW]GHPN|QQHQHLQH5HLKH YRQ $QNQSIXQJVSXQNWHQ ]ZLVFKHQ ,QQRYDWLRQ XQG 4XDOLWlW DXVJHPDFKW ZHUGHQ VLHHUJHEHQVLFKYRUDOOHPDXVGHPEUHLWHQ6SHNWUXPYRQ%HJULIIVGHILQLWLRQ 3.1.1
Fünf Dimensionen der Qualität als Ausgangspunkt für Six Sigma
0LWGHP%HJULIIÄ4XDOLWlW³YHUELQGHQVLFKLG5UHFKWXQWHUVFKLHGOLFKH$QVLFKWHQ XQG $XIIDVVXQJHQ -H QDFK 3UlIHUHQ] XQG SHUV|QOLFKHQ ,QWHUHVVHQ GHV $XWRUV ZHUGHQ YHUVFKLHGHQH $N]HQWH EHL GHU %HJULIIVGHILQLWLRQ JHVHW]WYJO ]% 7|SIHU 0DVLQJ-XUDQ7DJXFKL'HPLQJ&URVE\ 'DV :RUW OHLWHW VLFK DXV GHP ODWHLQLVFKHQ %HJULII Ä4XDOLWDV³ DE GLHVHU VWHKW IU %H VFKDIIHQKHLW (LJHQVFKDIW *WH RGHU =XVWDQG YRQ 6WRIIHQ 2EMHNWHQ RGHU=XVWlQ
1DFK GHU ,1129$7,21 (;&(//(1&( 678',( GXUFKJHIKUW YRP %HUDWXQJVXQWHU QHKPHQ $UWKXU ' /LWWOH LVW GLH ,QQRYDWLRQVIlKLJNHLW GHU8QWHUQHKPHQEUDQFKHQEHU JUHLIHQG GHU ZLFKWLJVWH +HEHO ]XU 3URILWDEOLWlV XQG :DFKVWXPVVWHLJHUXQJ 'XUFK HLQ H[]HOOHQWHV ,QQRYDWLRQVPDQDJHPHQW NDQQ HLQH 8PVDW]VWHLJHUXQJ YRQ GXUFKVFKQLWWOLFK EHLEHVRQGHUVLQQRYDWLYHQ8QWHUQHKPHQVRJDUYRQHUUHLFKWZHUGHQ
4XDOLWlWXQG,QQRYDWLRQDOVZLFKWLJH(IIHNWLYLWlWVNULWHULHQ
GHQ YJO :HVVHO 6 II ,P DOOJHPHLQHQ 6SUDFKJHEUDXFK LVW 4XDOLWlW HLQ PLW :HUWXQJHQ YHUEXQGHQHU %HJULII (V ZLUG YRQ JXWHU RGHU VFKOHFKWHU 4XDOLWlW JHVSURFKHQ %HL 9RUOLHJHQ YRQ ÄJXWHU 4XDOLWlW³ ZLUG L$ GHU 1XW]HQ HLQHV 3UR GXNWHV RGHU HLQHU 'LHQVWOHLVWXQJ IU HLQHQ EHVWLPPWHQ =ZHFN ]XP $XVGUXFN JH EUDFKW 1DFK ',1 (1 ,62 LVW 4XDOLWlW HQWVSUHFKHQG ZLH IROJW GHIL QLHUW Ä4XDOLWlW LVW GLH *HVDPWKHLW YRQ 0HUNPDOHQ HLQHU (LQKHLW EH]JOLFK LKUHU (LJQXQJIHVWJHOHJWHRGHUYRUDXVJHVHW]WH(UIRUGHUQLVVH]XHUIOOHQ³ ,Q $XVHLQDQGHUVHW]XQJ PLW GHU )UDJH Ä:DV LVW 4XDOLWlW"³ HUPLWWHOWH GHU +DUYDUG SURIHVVRU'$9,' $*$59,16II LQGHQHU-DKUHQLQVJHVDPWIQI $QVlW]HXP4XDOLWlW]XGHILQLHUHQ6LHVLQGLP)ROJHQGHQQDFKGHU*HVWDOWXQJV ULFKWXQJLQQHUKDOEGHU:HUWVFK|SIXQJVNHWWHJHRUGQHW •
:LUG 4XDOLWlW DXV GHU 6LFKW YRP 8QWHUQHKPHQ EHWUDFKWHW GDQQ HUZHLVW VLFK GHUprozessbezogene AnsatzDOVJHHLJQHWHU0DVWDE]XU%HVWLPPXQJTXDOLWD WLYHU0HUNPDOH0LWGHP0RWWRÄ)LUVWWLPHULJKW³EH]LHKWHUVLFKLQVEHVRQGH UH DXI GHQ :HUWVFK|SIXQJVSUR]HVV LP 8QWHUQHKPHQ (V ZLUG YRP 9RUOLHJHQ VSH]LILVFKHU .XQGHQDQIRUGHUXQJHQ DXVJHJDQJHQ GLH VLFK PLW +LOIH WHFKQL VFKHU 3URGXNWPHUNPDOHHLQGHXWLJHUIOOHQODVVHQ4XDOLWlWLVWGDEHLJOHLFK]X VHW]HQPLWGHU(LQKDOWXQJYRQ6SH]LILNDWLRQHQGLH]%LP=XJHHLQHU92& &74$QDO\VH]X3URMHNWEHJLQQHUPLWWHOWZRUGHQVLQG 'LHVH 9RUJHKHQVZHLVH VRZLH GLH 9RUVWHOOXQJ YRQ GHPZDV4XDOLWlWLVWHQW VSULFKW LP JURHQ XQG JDQ]HQ GHU YRQ Six Sigma YJO $EVFKQLWW ,P 0LWWHOSXQNWVWHKWKLHUGHU3URGXNWLRQVXQGRGHU'LHQVWOHLVWXQJVSUR]HVVGHU JHPHVVHQ DQDO\VLHUW YHUEHVVHUW XQG NRQWUROOLHUW ZLUG =LHO LVW HV GXUFK ÄSUDNWL]LHUWH 1XOO)HKOHU4XDOLWlW³ LP 8QWHUQHKPHQ GLH $EZHLFKXQJVNRVWHQ EHLGHU$EZLFNOXQJYRQ3UR]HVVHQ]XPLQLPLHUHQ
•
'HU produktbezogene Ansatz EHVFKUHLEW 4XDOLWlW DOV HLQGLPHQVLRQDOH *U|H PLWWHOVGHUVLFKSURGXNWUHOHYDQWH(LJHQVFKDIWHQHLQGHXWLJPHVVHQODVVHQ'HU $QVDW] JHKW YRQ GHU 3UlPLVVH DXV GDVV 3URGXNW $ EHVVHU DOV 3URGXNW % VHL IDOOVHLQH=XWDWYRQ$ZHUWYROOHULVWDOVYRQ%'DGXUFKLVWHLQH5DQJRUGQXQJ YRQ YHUVFKLHGHQHQ 3URGXNWHQ GHU JOHLFKHQ .DWHJRULH SULQ]LSLHOO P|JOLFK 7URW]GHUGDPLWJXWHQ(LJQXQJIU|NRQRPLVFKWKHRUHWLVFKH0RGHOOHEHLQKDO
:LH*HLJHU6II LQGLHVHP=XVDPPHQKDQJEHPHUNWJLQJGHPHLQKHLWOLFKHQ 9HUVWlQGQLVYRQ4XDOLWlWHLQHMDKU]HKQWHODQJH6XFKHYRUDXV%HLGHU9HUZHQGXQJGHV 4XDOLWlWVEHJULIIVLP4XDOLWlWVPDQDJHPHQWVWDQGLQVEGLH)UDJHLP9RUGHUJUXQGREHV VLFKEHLÄ4XDOLWlW³XPGHQ:HJGDV=LHORGHUGHQ0DVWDEKDQGHOW ,Q HLQHP ZHLWHUHQ $UWLNHO VFKOlJW *DUYLQ 6 II DFKW 'LPHQVLRQHQ YRU DQKDQGGHUHUGLH3URGXNWTXDOLWlWGLIIHUHQ]LHUWEHXUWHLOWZHUGHQNDQQ'LH'LPHQVLRQHQ GLHQHQDOV*UXQGJHUVWIUHLQHVWUDWHJLVFKH$QDO\VHGHU:HWWEHZHUEVSRVLWLRQ6LHEH ]LHKHQVLFKVRZRKODXIÄKDUWH³3URGXNWXQG/HLVWXQJVPHUNPDOHZLH*HEUDXFKVQXW]HQ 3HUIRUPDQFH $XVVWDWWXQJ)HDWXUHV =XYHUOlVVLJNHLW5HOLDELOLW\ 1RUPJHUHFKWLJNHLW &RQIRUPDQFH XQG +DOWEDUNHLW 'XUDELOLW\ DOV DXFK ÄZHLFKH³ 4XDOLWlWVNULWHULHQ ZLH .XQGHQGLHQVW 6HUYLFHDELOLW\ bVWKHWLN $HVWKHWLFV XQG 4XDOLWlWVLPDJH 3HUFHLYHG 4XDOLW\ $XIVLHZLUGLQ$EVFKQLWW%H]XJJHQRPPHQ
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
WHW HU HLQH 5HLKH YRQ 6FKZlFKHQ 1HEHQ GHU 9HUQDFKOlVVLJXQJ GHV .XQGHQ QXW]HQVGXUFKGHQ*HEUDXFKHLQHV3URGXNWHVEOHLEWDXFKGLH$EJUHQ]XQJGHU 3URGXNWVRUWHZHLWHVWJHKHQGXQJHO|VW •
'HUwertbezogene AnsatzVLHKWGLH4XDOLWlWHLQHV3URGXNWHVHLQHU'LHQVWOHLV WXQJ LQ GLUHNWHU$EKlQJLJNHLWYRQGHQ(UVWHOOXQJVNRVWHQ6RJLOWHLQ(U]HXJ QLV QXU GDQQ DOV 4XDOLWlWVSURGXNW ZHQQ HV GLH .XQGHQDQIRUGHUXQJHQ EHVW P|JOLFK XQG ]X HLQHP DN]HSWDEOHQ 3UHLV HUIOOW 4XDOLWlW LVW GDQDFK VRZRKO IU HLQ]HOQH 6DFK 'LHQVWOHLVWXQJHQ DOV DXFK GDV JHVDPWH 8QWHUQHKPHQ LQ )RUPYRQ.RVWHQ1XW]HQ$QDO\VHQPHVVEDU6RLVW]%HLQ3URGXNW$TXDOL WDWLYK|KHUZHUWLJDOVHLQ3URGXNW%ZHQQHVGLHVHOEHQ6SH]LILNDWLRQHQ]XHL QHP QLHGULJHUHQ 3UHLV HUIOOW 8QWHU GLHVHU 9RUDXVVHW]XQJ VLQG GLH PHLVWHQ 8QWHUQHKPHQ EHVWUHEW LKUHQ .XQGHQ HLQHQ HLQ]LJDUWLJHQ :HUWYRUWHLO ]X YHU VFKDIIHQHLQHVRJ8QLTXH&XVWRPHU9DOXH3URSRVLWLRQ8&93
•
%HLPkundenbezogenen AnsatzOLHJWGHU6FKZHUSXQNWGHU%HWUDFKWXQJDXIGHU 1XW]XQJVSKDVHGHV3URGXNWHV'LH4XDOLWlWEHVWLPPWVLFKKLHUQDFKGHULQGL YLGXHOOHQ(LQVFKlW]XQJGHU9HUZHQGEDUNHLWYRQ3URGXNWHQ(QWVSUHFKHQGGHU PDUNWRULHQWLHUWHQ6LFKWZHLVHJHKHQNXQGHQEH]RJHQH4XDOLWlWVGHILQLWLRQHQDXI GHQ YRQ -XUDQ 6 JHSUlJWHQ Ä)LWQHVV IRU XVH³*HGDQNHQ ]XUFN ,QGHP GLH 3URGXNWTXDOLWlWGXUFKGHQ$QZHQGHUIHVWJHOHJWZLUGXQGZHQLJHU GXUFKGDV3URGXNWVHOEVWHQWVFKHLGHWVLFKKLHUDXFKZDVÄUREXVW³LVWXQGZDV QLFKW:LHOHLFKWQDFKYROO]LHKEDULVWKDEHQYHUVFKLHGHQH3URGXNWEHQXW]HUXQ WHUVFKLHGOLFKH:QVFKH%HGUIQLVVHVRGDVVGLH3URGXNWHGLHGLHVH%HGUI QLVVH DP EHVWHQ EHIULHGLJHQ DOV TXDOLWDWLY KRFKZHUWLJDQJHVHKHQZHUGHQ,Q IROJHGHVVHQZLUGX8HLQHWHFKQLVFKDXIZHQGLJH3URGXNWO|VXQJDXV6LFKWGHU .XQGHQ=LHOJUXSSHGHXWOLFKVFKOHFKWHUEHXUWHLOWDOVHLQHHLQIDFKH ,P 9HUJOHLFK ]XP ÄNODVVLVFKHQ 6L[ 6LJPD³ DXI %DVLV GHV '0$,&=\NOXV QLPPWEHLDFSS-ProjektenGLH(UPLWWOXQJXQG$QDO\VHGHU.XQGHQEHGUIQLV VH HUIDKUXQJVJHPl GHXWOLFK PHKU =HLW LQ $QVSUXFK YJO $EVFKQLWW 'DKHU NRPPW GHU NXQGHQEH]RJHQH $QVDW] KLHU VWlUNHU ]XP 7UDJHQ =LHO LVW HVDOOH]XNQIWLJHQZHVHQWOLFKHQ.XQGHQDQIRUGHUXQJHQ]XHUIOOHQ
•
'HU transzendente Ansatz VLHKW VFKOLHOLFK 4XDOLWlW DOV HLQH ]HLWORVH (LQKHLW YRQ IRUPYROOHQGHWHQ QLFKW ]X EHUWUHIIHQGHU 3URGXNWHLJHQVFKDIWHQ 'LHVH $XIIDVVXQJ VWHKW JOHLFK]HLWLJ IU HLQH VXEMHNWLYH 4XDOLWlWVHLQVFKlW]XQJ YRQ
'DEHL EH]LHKW VLFK GDV 3UHLV/HLVWXQJVYHUKlOWQLV ]XU %HXUWHLOXQJ YRQ 0DUNWOHLVWXQJHQ LQ JHVlWWLJWHQ 0lUNWHQ LPPHU ZHQLJHU DXI GLH 3ULPlUOHLVWXQJHQ ]% $XWRUHSDUDWXU ZDUWXQJ VRQGHUQ YLHOPHKU DXI GLH 6HNXQGlUOHLVWXQJHQ ]% 0RELOLWlWVJDUDQWLH .X ODQ] GLH LQ .RPELQDWLRQ PLW GHQ 3ULPlUOHLVWXQJHQ DQJHERWHQ ZHUGHQ YJO 0HIIHUW 6 %HLP 9HUJOHLFK YRQ ]ZHL 3URGXNWDQJHERWHQ GLH XQWHUVFKLHGOLFK WHXHU VLQG DEHU IU LKQ GHQ JOHLFKHQ 1XW]HQ %DVLVQXW]HQ =XVDW]QXW]HQ HUEULQJHQ XQWHUVWHOOW GHU .RQVXPHQW EHL GHP $QJHERW PLW GHP K|KHUHQ 3UHLV DXFK HLQH K|KHUH 4XDOLWlW ]% 3URGXNWOHEHQVGDXHU 'DGXUFK VWHLJW VHLQH 3UHLVEHUHLWVFKDIW GK EHL DXVUHLFKHQGHP(LQNRPPHQZLUGHUGLHWHXHUH3URGXNWYDULDQWHZHOFKHHUDOVTXDOLWDWLY K|KHUZHUWLJHLQVWXIWGHUELOOLJHUHQYRU]LHKHQYJOXD'LOOHU6II
4XDOLWlWXQG,QQRYDWLRQDOVZLFKWLJH(IIHNWLYLWlWVNULWHULHQ
,QGLYLGXHQ GK 4XDOLWlW OlVVW VLFK ZHGHU DXV .XQGHQ QRFK DXV 8QWHUQHK PHQVVLFKW DOOJHPHLQ GHILQLHUHQ XQG PHVVHQ 9LHOPHKU OlVVW VLH VLFK QXU DXI GHU%DVLVYRQSHUV|QOLFKHQ(UIDKUXQJHQXQGRGHUNRQNUHWHU+DQGKDEXQJGHV 3URGXNWHV EHZHUWHQ 1DFK GHU 0HLQXQJ GHU 9HUWUHWHU GLHVHV $QVDW]HV NDQQ GHU%HJULIIGHU4XDOLWlWJHQDXVRZHQLJLPSOL]LWGHILQLHUWZHUGHQZLHHV]% EHL Ä6FK|QKHLW³ GHU )DOO LVW 'HU WUDQV]HQGHQWH 4XDOLWlWVEHJULII ILQGHW VLFK KlXILJ LQ GHU H[WHUQHQ .RPPXQLNDWLRQVSROLWLN LQVE EHL GHU 3URGXNWZHU EXQJ YRQ 8QWHUQHKPHQ ZLHGHU XQG OlVVW XD 5FNVFKOVVH DXI GLH 8QWHU QHKPHQVSKLORVRSKLHDXVULFKWXQJ]X ,Q =HLWHQ JOREDOLVLHUWHU 0lUNWH XQG ]XQHKPHQGHQ :HWWEHZHUEHV EHVWHKW LPPHU KlXILJHU GDV =LHO GDULQ Null-Fehler-Qualität ]X UHDOLVLHUHQ DOVR SUDNWLVFK NHLQH )HKOHU ]X PDFKHQ E]Z GLHVH ]X ]XODVVHQ :LH 7|SIHU 6 DXVIKUW PXVV]XGLHVHP=ZHFNHLQ.RQ]HSWLPSOHPHQWLHUWZHUGHQPLWGHPVLFKGLH)HK OHU$EZHLFKXQJVNRVWHQHUNHQQHQXQGQDFKKDOWLJEHVHLWLJHQODVVHQRKQHGDVVGDV 8QWHUQHKPHQVHOEVWLQHLQH.RVWHQIDOOHOlXIW*HQDXGLHVH$QIRUGHUXQJHUIOOW6L[ 6LJPD LQGHP HV GDUDXI DE]LHOW DOOH ZHVHQWOLFKHQ $QIRUGHUXQJHQ GHU .XQGHQ &74V YROOVWlQGLJ XQG ZLUWVFKDIWOLFK ]X HUIOOHQ %LV DXI GHQ WUDQV]HQGHQWHQ $QVDW]ZHUGHQDOOH4XDOLWlWVGLPHQVLRQHQEHUFNVLFKWLJW:LHLQ$EEVFKHPD WLVFKGDUJHVWHOOWLVWVLQGKLHU]XGLHHLQ]HOQHQ'LPHQVLRQHQUHWURJUDG]XDQDO\VLH UHQXPVLHDQVFKOLHHQG±LQ)RUPGHV*HJHQVWURPSULQ]LSV±]XJHVWDOWHQ Gestaltungsrichtung Prozessbezogene Qualität
Sind die kritischen Prozessmerkmale innerhalb der Spezifikation?
Produktbezogene Qualität
Liegen die Merkmalsausprägungen im Toleranzbereich?
Wertbezogene Qualität
Ist das PreisLeistungs-Verhältnis wettbewerbsfähig?
Kundenbezogene Qualität
Werden alle wesentlichen Kundenanforderungen erfüllt?
Transzendente Qualität
Nimmt der Kunde die produzierte Qualität wie gewünscht wahr?
Analyserichtung Quelle: Eigene Darstellung
$EE'LHSUR]HVVXDOH9HUQHW]XQJGHUIQI4XDOLWlWVGLPHQVLRQHQQDFK*DUYLQ
,P *HJHQVDW] ]XU 9HUEHVVHUXQJ YRQ EHVWHKHQGHQ 3UR]HVVHQ VLQG GLH CTQs als Zielwerte der OptimierungEHLGHU1HXSURGXNW1HXSUR]HVVSODQXQJZHQLJHUNODU YRP.XQGHQNRPPXQL]LHUWE]ZYRUJHJHEHQ'DUXQWHUOHLGHWKlXILJGLH(IIHNWLYL WlW YRQ HQWZLFNOXQJVEH]RJHQHQ 3UREOHPO|VXQJV]\NOHQ ]% '0$'9=\NOXV *OHLFK]HLWLJ LVW GHU =HLW XQG 5HVVRXUFHQDXIZDQG EHL ')66 ± JHJHQEHU GHP NODVVLVFKHQ 6L[ 6LJPD±YHUJOHLFKVZHLVHKRFKGDGLH$QIRUGHUXQJGDULQEHVWHKW QLFKW QXU GLH KHXWLJHQ VRQGHUQ DXFK GLH ]XNQIWLJHQ &74V ]X HUPLWWHOQ 'LHV EHHLQWUlFKWLJWL$GLH(IIL]LHQ]GHV3URGXNWHQWVWHKXQJVSUR]HVVHV
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
1DFK GHU (LQJUHQ]XQJ GHV4XDOLWlWVEHJULIIVVFKOLHWVLFKGLH)UDJHDQZLHJDQ] KHLWOLFKH 4XDOLWlW ± HQWVSUHFKHQG GHQ YRUVWHKHQG JHQDQQWHQ IQI 'LPHQVLRQHQ ± HU]HXJW UHVSHNWLYH YHUEHVVHUW ZHUGHQ NDQQ ,Q GLHVHP =XVDPPHQKDQJ LVW ]X EH UFNVLFKWLJHQ GDVV VLFK LP 8PIHOG HLQHV Hyperwettbewerbs GLH $NWLYLWlWHQ GHU RSHUDWLYHQXQGVWUDWHJLVFKHQ3ODQXQJHLQHV8QWHUQHKPHQVQLFKWDXVVFKOLHOLFKDXI GHQ 4XDOLWlWVDVSHNW EH]LHKHQ YJO %DXP HW DO 6 9LHOPHKU VLQG ]XU QDFKKDOWLJHQ6LFKHUXQJGHU:HWWEHZHUEVIlKLJNHLWVRZRKOGLH4XDOLWlWDOVDXFKGLH 3DUDPHWHU=HLWXQG.RVWHQDOVVWUDWHJLVFKH=LHOJU|HQ]XRSWLPLHUHQ'LHVSH]LIL VFKH $XVSUlJXQJ &KDUDNWHULVWLND GLHVHU GUHL *U|HQ GLH DXFK DOV Ä0DJLVFKHV 'UHLHFNGHU%:/³EH]HLFKQHWZHUGHQLVWGLH*UXQGODJHIUHLQHEHUOHJHQH3HU IRUPDQFH/HLVWXQJVHUVWHOOXQJYJO.HXSHU%U|VHO6 )U GLH ZHLWHUH %HWUDFKWXQJ ZLUG GDYRQ DXVJHJDQJHQ GDVV GLH 6WHLJHUXQJ GHU 4XDOLWlW ]X .RVWHQHLQVSDUXQJHQ XQG =HLWYHUNU]XQJHQ IKUW 3UDNWL]LHUWH 1XOO )HKOHU4XDOLWlWLVWGHPQDFKGHU+HEHOIUGLH9HUEHVVHUXQJGHU8QWHUQHKPHQVHU JHEQLVVH'DEHLVWHKHQPLW.RQWLQXLHUOLFKHU9HUEHVVHUXQJL6Y.93XQG'LVNRQ WLQXLHUOLFKHU9HUEHVVHUXQJL6Y')66SULQ]LSLHOO]ZHL$QVlW]H]XU$XVZDKOXP GLH3URGXNWXQGRGHU3UR]HVVTXDOLWlW]XVWHLJHUQ •
,PHUVWHQ)DOOZHUGHQ3UR]HVVHXQG3URGXNWHLQNOHLQHQ6FKULWWHQYHUEHVVHUW XQG ]ZDU GXUFK GLH $NWLYLHUXQJ DOOHU 0LWDUEHLWHU GHV 8QWHUQHKPHQV 'LHVH $XIJDEHIlOOWVFKZHUSXQNWPlLJGHPQualitätsmanagement ]X
•
,P ]ZHLWHQ )DOO VWHKHQ KLQJHJHQ SURMHNWEH]RJHQH 9HUEHVVHUXQJHQ LP 9RU GHUJUXQG GLH ± LP JQVWLJHQ )DOO ± ]X HLQHP VSUXQJKDIWHQ $QVWLHJ GHU 3UR GXNW3UR]HVVOHLVWXQJIKUHQ+LHU]XVLQGInnovationenHUIRUGHUOLFK
8QWHU %H]XJQDKPH DXI GDV )RUVFKXQJVJHELHW GHV ,QQRYDWLRQVPDQDJHPHQWV ,0 ZLUG GHVKDOE LP )ROJHQGHQ GHU )UDJH QDFKJHJDQJHQ ZDV VROFKH 6SUQJH E]Z 'LVNRQWLQXLWlWHQ KHUYRUUXIW XQG DXV]HLFKQHW ,Q GLHVHP =XVDPPHQKDQJ LVW KHU YRU]XKHEHQ GDVV GHP 7KHPD Ä,QQRYDWLRQ³ HLQH LPPHU JU|HUH %HGHXWXQJ EHLP (UUHLFKHQ YRQ %XVLQHVV ([FHOOHQFH %( DOV 0HVVODWWH IU JDQ]KHLWOLFKH 8QWHU QHKPHQVTXDOLWlW]XJHVSURFKHQZLUG6RZHLVW]%6HJKH]]L6 9HU IHFKWHU HLQHV ,QWHJULHUWHQ 4XDOLWlWVPDQDJHPHQWV GDUDXI KLQ GDV ,QQRYDWLRQ DOV ÄHUVWUDQJLJHU (UIROJVIDNWRU H[]HOOHQWHU 2UJDQLVDWLRQHQ³ DQ]XVHKHQ LVW 'DEHL LVW HLQH Balance zwischen Qualität und Innovation DQ]XVWUHEHQ 'HQQ YLHOH NOHLQH 6FKULWWH ZLH VLH ]% GXUFK GLH %HZHUWXQJ QDFK GHP ()400RGHOO JHI|UGHUW ZHUGHQXQWHUVWW]HQ]ZDUGDV(QJDJHPHQWGHU0LWDUEHLWHUYHUKLQGHUQMHGRFKGLH /|VXQJ JURHU 3UREOHPH *OHLFK]HLWLJ IKUHQ LP 8QWHUQHKPHQ ]X YLHOH JURH 6FKULWWH GLH ]% YRQ .UHDWLYLWlWVZRUNVKRSV DXVJHO|VW ZHUGHQ ]X 7XUEXOHQ]HQ &KDRVXQGX8LQQHUHU.QGLJXQJGHUEHWURIIHQHQ0LWDUEHLWHU
'LH MlKUOLFKH .RQIHUHQ] GHU ZHOWJU|WHQ 4XDOLWlWVRUJDQLVDWLRQ GLH $PHULFDQ 6RFLHW\ IRU 4XDOLW\ $64 VWDQG LP -DKU XQWHU GHP 0RWWR Ä4XDOLWlW XQG ,QQRYDWLRQ³ 1DFK 2WWR6 JLQJHVKLHUYRUDOOHPXPGLH)UDJHLQZLHZHLW,QQRYDWLRQHQ LP8QWHUQHKPHQGXUFKGDV4XDOLWlWVPDQDJHPHQWJHI|UGHUWZHUGHQN|QQHQ
4XDOLWlWXQG,QQRYDWLRQDOVZLFKWLJH(IIHNWLYLWlWVNULWHULHQ
3.1.2
Drei Dimensionen der Innovation als Anforderung an DFSS
,QQRYDWLRQ KHLW Z|UWOLFK Ä1HXHUXQJ³ RGHU Ä(UQHXHUXQJ³ XQG OHLWHW VLFK DXV GHQ ODWHLQLVFKHQ %HJULIIHQ 1RYXV IU ÄQHX³ XQG ,QQRYDWLR IU ÄHWZDV QHX *HVFKDIIH QHV³ DE ,P GHXWVFKVSUDFKLJHQ 5DXP LVW GHU %HJULII IDVW DXVVFKOLHOLFK SRVLWLY EHVHW]WXQGZLUGIUQHXH,GHHQ(UILQGXQJHQVRZLHGHUHQZLUWVFKDIWOLFKHQ 8P VHW]XQJ YHUZHQGHW YJO 9DKV %XUPHVWHU 6 8QWHUVFKLHGHQ ZLUG ]ZL VFKHQ ,QQRYDWLRQ XQG Invention /HW]WHUHV XPIDVVW QHXH ,GHHQ ELV HLQVFKOLHOLFK 3URWRW\SHQEDXE]ZYRUPDUNWOLFKHU.RQ]HSWHQWZLFNOXQJ'HU%HJULIIZLUGKlXILJ DXFK PLW (UILQGXQJ DOV HUVWH WHFKQLVFKH 5HDOLVLHUXQJ HLQHU QHXHQ 3UREOHPO|VXQJ JOHLFKJHVHW]W Innovationen VWHOOHQ GHPJHJHQEHU GLH HUVWPDOLJH ZLUWVFKDIWOLFKH $QZHQGXQJ HLQHU QHXHQ 3UREOHPO|VXQJ LQ 8QWHUQHKPHQ GDU ,QVEHVRQGHUH DXI WHFKQLVFKHP*HELHWEDXHQ,QQRYDWLRQHQXQPLWWHOEDUDXI,QYHQWLRQHQDXI )U GDV QDFKKDOWLJH :DFKVWXP HLQHV 8QWHUQHKPHQV LVW GLH ,QQRYDWLRQVIlKLJNHLW KHXWH YRQ ]HQWUDOHU VWUDWHJLVFKHU %HGHXWXQJ YJO KLHU]X XQG LP )ROJHQGHQ 6HL ZHUW HW DO 6 1DFK HLQHU ZHOWZHLWHQ 8PIUDJH GHU 8QWHUQHKPHQVEHUD WXQJ %26721 &2168/7,1* *5283 %&* LP -DKU XQWHU 0DQDJHUQ DOOHUJURHQ,QGXVWULH]ZHLJHJHK|UWGDV7KHPDÄ,QQRYDWLRQ³IUNQDSSGUHL9LHU WHODOOHU%HIUDJWHQ]XGHQGUHL3ULRULWlWHQLKUHU8QWHUQHKPHQVVWUDWHJLH)U± 7HQGHQ]VWHLJHQG±KDWGDV7KHPDVRJDU7RS3ULRULWlW Als Gründe werden genannt: &D DOOHU %HIUDJWHQ VLQG PLW GHQ 5HVXOWDWHQ LKUHU ]7 UHFKW KRKHQ $XVJDEHQ IU ) ( XQG ,QQRYDWLRQ XQ]XIULHGHQ 1HEHQ ]X ODQJHQ (QWZLFNOXQJV]HLWHQ GHU 1HQQXQJHQ EHPlQJHOQ VLH YRU DOOHP GDV LQHIIL]LHQWH +HUDXVILOWHUQ GHU ÄULFKWLJHQ³ ,GHHQ GHU 1HQQXQJHQ GLH PDQ JHOKDIWH .RRUGLQDWLRQ GHU ,QQRYDWLRQV XQG ) ($NWLYLWlWHQ GHU 1HQQXQ JHQ VRZLH GLH XQJHQJHQGH .HQQWQLV GHU .XQGHQ .XQGHQDQIRUGHUXQJHQ GHU 1HQQXQJHQ *OHLFK]HLWLJ ZLUG QDFK HLQHU DNWXHOOHQ 6WXGLH YRQ ,%0 GHU 'LIIHUHQ]LHUXQJ GHV 8QWHUQHKPHQV GXUFK GLH JUXQGOHJHQGH ,QQRYDWLRQ GHV *HVFKlIWVPRGHOOVHLQHLPPHUEHGHXWHQGHUH5ROOHEHLJHPHVVHQ 8QWHU 0DQDJHUQ JHKW QDFK HUVWJHQDQQWHU 6WXGLH GHU,QQRYDWLRQVEHJULIIVHKUZHLW HU XPIDVVW QLFKW QXU 3URGXNWH VRQGHUQ DXFK *HVFKlIWVPRGHOOH3UR]HVVHXQGGDV .XQGHQHUOHEQLV EHL .DXI XQG 1XW]XQJ ,P *HJHQVDW] GD]X ZHUGHQ LQ GHU HLQ VFKOlJLJHQEHWULHEVZLUWVFKDIWOLFKHQ/LWHUDWXUKHXWHEHUHLQVWLPPHQGXQWHU,QQRYD WLRQHQTXDOLWDWLYQHXDUWLJH3URGXNWHRGHU3UR]HVVHYHUVWDQGHQÄGLHVLFKJHJHQEHU GHP YRUDQJHKHQGHQ =XVWDQG ÃPHUNOLFK¶ >@ XQWHUVFKHLGHQ³ +DXVFKLOGW 6 'LH 1HXDUWLJNHLW PXVV GHP]XIROJH QLFKW QXU ZHVHQWOLFK VHLQ VRQGHUQ DXFK
'LH 8QWHUVFKHLGXQJ JHKW LQ HUVWHU /LQLH DXI GHQ 9RONVZLUW -26(3+ $ 6&+803(7(5 ]XUFNGHULQÄ7KHRULHGHUZLUWVFKDIWOLFKHQ(QWZLFNOXQJ³6 ,QQRYDWLRQ DOV 'XUFKVHW]XQJ HLQHU WHFKQLVFKHQ RGHU RUJDQLVDWRULVFKHQ 1HXHUXQJ EH VFKUHLEW XQG QLFKW DOOHLQ LKUH (UILQGXQJ 'DEHL YHUZHQGHW HU DEHU EHPHUNHQVZHUWHU ZHLVHQLFKWGHQ%HJULIIGHU,QQRYDWLRQ9LHOPHKUVSULFKWHUYRQÄQHXHQ.RPELQDWLRQHQ YRQ 3URGXNWLRQVPLWWHOQ³ GLH ÄGLVNRQWLQXLHUOLFK³ DXIWUHWHQ (UVW LQ GHQ HU -DKUHQ YHUEUHLWHWHVLFKDXFKLPGHXWVFKVSUDFKLJHQ5DXPGHU,QQRYDWLRQVEHJULII
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
ZDKUJHQRPPHQ ZHUGHQ (UVW QDFKGHP VLFK GLH 9HUNQSIXQJ YRQ =ZHFNHQ XQG 0LWWHOQ±LQHLQHUELVGDWRQLFKWEHNDQQWHQ)RUP±DXIGHP0DUNWRGHULPLQQHU EHWULHEOLFKHQ (LQVDW] EHZlKUW KDEHQ NDQQ YRQ HLQHU ,QQRYDWLRQJHVSURFKHQ ZHU GHQDQGHUQIDOOVKDQGHOWHVVLFKÄQXU³XPHLQH,QYHQWLRQ Dimensionen XQGJOHLFK]HLWLJ Gegenstand von InnovationenVLQGQDFKWUDGLWLRQHO OHU 6LFKWZHLVH 3URGXNWH XQG 3UR]HVVH ZREHL GHU 3UR]HVVDVSHNW VHLW %HJLQQ GHU HU-DKUHLQWHQVLYWKHPDWLVLHUWZLUGYJO+DXVFKLOGW6II •
Prozessinnovation: %HL GLHVHU $UW YRQ ,QQRYDWLRQ JHKW HV XPQHXDUWLJH)DN WRUNRPELQDWLRQHQ PLW GHQHQ GHU /HLVWXQJVHUVWHOOXQJVSUR]HVV NRVWHQJQVWL JHUTXDOLWDWLYEHVVHUVLFKHUHUXQGRGHUVFKQHOOHUHUIROJHQNDQQ'LHEHUJH RUGQHWH =LHOVWHOOXQJ EHVWHKW LQ GHU 6WHLJHUXQJ GHU (IIL]LHQ] UHVSHNWLYH 3UR GXNWLYLWlW :LH 3OHVFKDN 6DELVFK 6 DUJXPHQWLHUHQ ZHUGHQ 3UR ]HVVLQQRYDWLRQHQ YLHOIDFK JHJHQEHU 3URGXNWLQQRYDWLRQHQ YHUQDFKOlVVLJW 'DUDXV UHVXOWLHUWH XD GLH :HWWEHZHUEVVFKZlFKH YLHOHU GHXWVFKHU 8QWHUQHK PHQLQGHQHU-DKUHQ*OHLFK]HLWLJOlVVWVLFKGLH6WlUNHYLHOHUMDSDQLVFKHU 8QWHUQHKPHQ DOOHQ YRUDQ 7R\RWD DXI GLH NRQWLQXLHUOLFKH *HQHULHUXQJ XQG 'XUFKVHW]XQJYRQZLUNVDPHQ3UR]HVVLQQRYDWLRQHQ]XUFNIKUHQ
•
Produktinnovation:%HLGLHVHU$UWYRQ,QQRYDWLRQZLUGQLFKWQXUGHU.RPEL QDWLRQVSUR]HVV VRQGHUQ DXFK GHU 9HUZHUWXQJVSUR]HVV DP 0DUNW EHUFNVLFK WLJW'LHEHUJHRUGQHWH=LHOVWHOOXQJEHVWHKWKLHULQGHU6WHLJHUXQJGHU(IIHNWL YLWlW 'HP 1XW]HU HLQHV 3URGXNWHV .XQGH HUODXEW GLH ,QQRYDWLRQ QHX HQW VWDQGHQH%HGUIQLVVH]XHUIOOHQRGHUYRUKDQGHQH%HGUIQLVVHLQHLQHUY|OOLJ QHXHQ$UWXQG:HLVH]XEHIULHGLJHQ(IIL]LHQ]JHZLQQHEHLP.XQGHQVLQGGD EHL LG5 PLW HLQJHVFKORVVHQ 'LH ZLUWVFKDIWOLFKH %HGHXWXQJ QHXHU 3URGXNWH IUGDV8QWHUQHKPHQOlVVWVLFKGDPLWEHJUQGHQGDVVGLH3URGXNWOHEHQVGDXHU VLQNWXQGGDGXUFKGHU$QWHLOQHXHU3URGXNWHDP*HVDPWXPVDW]VWHLJW
•
Organisatorische Innovationen: $OV GULWWHQ *HJHQVWDQGVEHUHLFK GHV WUDGLWLR QHOOHQ 9HUVWlQGQLVVHV YRQ ,QQRYDWLRQHQ VHKHQ 3OHVFKDN 6DELVFK 6 I 2UJDQLVDWRULVFKH ,QQRYDWLRQHQ 6LH EH]LHKHQ VLFK DXI GLH 9HUEHVVHUXQJ GHU$XIEDXXQG$EODXIRUJDQLVDWLRQGHV8QWHUQHKPHQV,QQRYDWLRQHQZHOFKH GLH 3ODQXQJV 6WHXHUXQJV XQG .RQWUROOSUR]HVVH EHWUHIIHQ VRJ 0DQDJH PHQWLQQRYDWLRQHQN|QQHQGDEHLDOVZLFKWLJH8QWHUJUXSSHEHWUDFKWHWZHUGHQ 'D0DQDJHUDOVÄ/HW]WHQWVFKHLGHU³EHUGHQ(LQVDW]YRQ5HVVRXUFHQEHVWLP PHQ VLQG VLH GHQ 3URGXNW XQG 3UR]HVVLQQRYDWLRQHQ YRUJHVFKDOWHW :LH GHU )DOO *HQHUDO (OHFWULF ]HLJW lQGHUQ VLFK GXUFK 6L[ 6LJPD GLH (QWVFKHLGXQJV XQG$XVZDKOSUR]HVVHLP0DQDJHPHQW]7VLJQLILNDQW'XUFKGLH.RQ]HQWUD WLRQ DXI =DKOHQ 'DWHQ XQG )DNWHQ 0DQDJHPHQW E\ 2EMHFWLYHV YHUEHVVHUW VLFKGDV3UR]HVVYHUVWlQGQLVGHU2UJDQLVDWLRQVPLWJOLHGHU'HU.XQGHSURILWLHUW YRQHLQHUGHXWOLFKJHVWHLJHUWHQ4XDOLWlWGHU3URGXNWH
$OV SURGXNWSROLWLVFKH $OWHUQDWLYHQ NRPPHQ QDFK 3OHVFKDN 6DELVFK 6 XQ PLWWHOEDU LQIUDJH 1HXH 3URGXNWH 3URGXNWYDULDWLRQHQ 3URGXNWGLIIHUHQ]LHUXQJHQ XQG 3URGXNWYHUHLQKHLWOLFKXQJHQ
4XDOLWlWXQG,QQRYDWLRQDOVZLFKWLJH(IIHNWLYLWlWVNULWHULHQ
,P +LQEOLFN DXIGHQ=XVDPPHQKDQJ]ZLVFKHQ3URGXNWXQG3UR]HVVLQQRYDWLRQHQ EHUGLH=HLWODVVHQVLFKzwei VerlaufstypenXQWHUVFKHLGHQ%HLPHUVWHQ7\SZLUG GDYRQ DXVJHJDQJHQ GDVV GLH0DVVHGHU3URGXNWLQQRYDWLRQHQGHQ3UR]HVVLQQRYD WLRQHQ YRUDXVHLOW $XIJUXQG DEQHKPHQGHU +lXILJNHLW YRQ 3URGXNWLQQRYDWLRQHQ HQWVWHKW HLQ ]XQHKPHQGHU 5DWLRQDOLVLHUXQJVGUXFN DXI GLH +HUVWHOOXQJVSUR]HVVH 8P GLH .RVWHQ GHU 3URGXNWLRQ]XVHQNHQZLUGGDQQYHUVWlUNWQDFK3UR]HVVLQQR YDWLRQHQJHVXFKWYJO$EHUQDWK\8WWHUEDFN6II %HLP]ZHLWHQ7\S YHUKlOW HV VLFK JHQDX XPJHNHKUW 'XUFK HLQH 5HLKH YRQ 3UR]HVVLQQRYDWLRQHQ ZHUGHQ ± PLW ]HLWOLFKHP 9HUVDW] ± 3URGXNWLQQRYDWLRQHQ LQXQWHUVFKLHGOLFKHQ$Q ZHQGXQJVEHUHLFKHQLQGX]LHUW]%/DVHUWHFKQRORJLHIU0HWDOOVFKQHLGHJHUlWH 1HEHQ GHU ,QQRYDWLRQVDUW EHL GHU GLH ,QQRYDWLRQ LQKDOWOLFK NODVVLIL]LHUW ZLUG JLOW GHU1HXLJNHLWVJUDGDOVZHLWHUHZLFKWLJH'LPHQVLRQ]XU%HXUWHLOXQJYRQ,QQRYDWL RQHQ(LQGLFKRWRPHU%HXUWHLOXQJVSUR]HVVGHUPLWGHU)HVWVWHOOXQJHQGHWÄLQQRYD WLYRGHUQLFKW³LVWLG5XQEHIULHGLJHQG'HQ9HUZHQGHULQWHUHVVLHUWYLHOPHKUZLH KRFK GHU *UDG HLQHU WHFKQLVFKHQ RGHU DQZHQGXQJVVSH]LILVFKHQ bQGHUXQJ LVW)U GLH %HVWLPPXQJ GHV 1HXLJNHLWVJUDGHV YRQ HLQJHVHW]WHQ 9HUIDKUHQ 7HFKQRORJLHQ ZLUG KlXILJ DXI 2UGLQDOVNDOHQ ]XUFNJHJULIIHQ 'LH RJ $XWRUHQ VFKODJHQ LQ GLHVHP=XVDPPHQKDQJHLQHVWXILJH6NDOD]XU%HZHUWXQJYRU •
Basisinnovationen GLH ]X QHXHQ :LUNSULQ]LSLHQ XQG GDPLW ]X Y|OOLJ QHXHQ 3URGXNWHQ3URGXNWJHQHUDWLRQHQXQG9HUIDKUHQ7HFKQRORJLHQIKUHQ
•
Verbesserungsinnovationen GLH VLFK DXI HLQ]HOQH RGHU PHKUHUH 4XDOLWlWV PHUNPDOHGHV3UR]HVVHVXQGRGHUGHV3URGXNWHVEH]LHKHQ
•
Anpassungsinnovationen GLH XD GLH $QSDVVXQJ YRUKDQGHQHU /|VXQJHQ DQ VSH]LILVFKH.XQGHQZQVFKHDQIRUGHUXQJHQEHLQKDOWHQ
•
Imitationen GLH IU 1DFKHQWZLFNOXQJHQ E]Z .RSLHQ YRQ EHUHLWV LQ DQGHUHQ 8QWHUQHKPHQSUDNWL]LHUWHQ/|VXQJHQVWHKHQ
•
Scheininnovationen GLH DXFK DOV 3VHXGRYHUEHVVHUXQJHQ EH]HLFKQHW ZHUGHQ VLQGRKQHZLUNOLFKHQ1XW]HQIUGHQ.XQGHQ
'LHVHU 9HUODXI ZXUGH HUVWPDOV DQKDQG YRQ 6WXGLHQ LP DPHULNDQLVFKHQ $XWRPRELOEDX EHOHJW HU LVW W\SLVFK IU 3URGXNWH PLW UHJHOPlLJHP *HQHUDWLRQVZHFKVHO YJO XD %RQDQQR+DZRUWK6%LHUIHOGHU6 1DFKGHP'XUFKVHW]XQJVDVSHNWVROOWHGHU]ZHLWH7\SLQGHU3UD[LVKlXILJHUDQ]XWUHIIHQ VHLQ GD 3URGXNWLQQRYDWLRQHQ LP 0DUNW 3UR]HVVLQQRYDWLRQHQ KLQJHJHQ ÄQXU³ LP 8Q WHUQHKPHQGXUFK]XVHW]HQVLQG:LH+DXVFKLOGW6 VFKOXVVIROJHUWVWHOOHQ3UR GXNWLQQRYDWLRQHQUHJHOPlLJJU|HUH'XUFKVHW]XQJVSUREOHPHGDU 'LH 4XDOLWlWVEHZHUWXQJ YRQ ,QQRYDWLRQHQ DXI GHU %DVLV HLQHU PHWULVFKHQ 6NDOD VFKOD JHQ XD :HFNHQPDQQ HW DO 6 I YRU 6LH HQWZLFNHOQKLHU]X HLQ PXOWLNULWH ULHOOHV,QQRYDWLRQVEHZHUWXQJV5DGDU'LH4XDOLWlWHLQHU,QQRYDWLRQZLUGEHUGDV9HU KlOWQLVYRQ,QQRYDWLRQV(UJHEQLV]X5HLIHGHV,QQRYDWLRQV3UR]HVVHVEHVWLPPW ,Q GHU 3UD[LV LVW HKHU HLQH GLFKRWRPH (LQWHLOXQJ YRQ ,QQRYDWLRQHQ JHOlXILJ (V ZLUG ]ZLVFKHQ UDGLNDOHQ XQG LQNUHPHQWHOOHQ ,QQRYDWLRQHQ XQWHUVFKLHGHQ/HW]WHUH]HLFKQHQ VLFK GXUFK HLQH JHULQJHUH 8QVLFKHUKHLW DXV VLH EHUXKHQ DXI GHU NRQWLQXLHUOLFKHQ 9HU EHVVHUXQJYRQEHVWHKHQGHQ3URGXNWHQXQG3UR]HVVHQYJO)XFKV6
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
,Q $EE LVW HLQ HLQVFKOlJLJHV 'LDJUDPP GDUJHVWHOOW ZHOFKH GHQ W\SLVFKHQ 9HUODXIGHU(QWZLFNOXQJGHU/HLVWXQJVIlKLJNHLWE]Z3HUIRUPDQFHYRQUHOHYDQWHQ 7HFKQRORJLHQ LP =HLWDEODXI ZLHGHUJLEW 'LHVHU 9HUODXI ZXUGH LP 5DKPHQ YRQ HPSLULVFKHQ 8QWHUVXFKXQJHQ PHKUIDFK EHVWlWLJW XQG LVW DXFK XQWHU GHP 1DPHQ Ä6.XUYH³ EHNDQQW YJO XD )RVWHU 6 II *HUSRWW 6 II %URFNKRII 6 I 1DFK 5,&+$5' 1 )267(5 DXI GHP GDV SKurvenkonzept ]XUFN JHKW NRPPW HVYRQ=HLW]X=HLW]XTechnologiesprüngen GLH YRQ %DVLVLQQRYDWLRQHQ DXVJHO|VW ZHUGHQ 'LH $XIJDEH HUIROJUHLFKHU 8QWHU QHKPHQVIKUXQJEHVWHKWGDULQGHQ:HFKVHOYRQHLQHUDOWHQDXVJHUHLIWHQDXIHLQH QHXHLQSUD[LZHLWHVWJHKHQGQRFKXQEHNDQQWHQ7HFKQRORJLHUHFKW]HLWLJ]XHUNHQ QHQ XQG LQ JHHLJQHWHU :HLVH ]X UHDJLHUHQ %HVRQGHUH +HUDXVIRUGHUXQJHQ VWHOOHQ GDEHL GLH ,GHQWLILNDWLRQ YRQ $OWHUQDWLYHQ ]XP ELVKHULJHQ 3UREOHPO|VXQJVYHUIDK UHQ VRZLH GDV 0DQDJHPHQW GHV VFKQHOOHQ hEHUJDQJV GDU YJO 7|SIHU 6 II 'DV .RQ]HSW GHU 7HFKQRORJLHNXUYH ELOGHW KLHU HLQH JXWH (QWVFKHLGXQJV JUXQGODJHIUGHQ(LQVDW]YRQEHVWLPPWHQ3UR]HVVHQXQG0HWKRGHQ
Performance/ Fitness f3 Technologiekurve 2 Verbesserungsinnovation
f2 f1
Basisinnovation
Technologiekurve 1 f0
0
t0
t1
t2
t3
Zeit
Basis: Foster 1986, S. 271
$EE%DVLVLQQRYDWLRQHQDOV*UXQGODJHIU7HFKQRORJLHVSUQJH
'LH DOWH 7HFKQRORJLH JHKW YRP 3XQNW W I DXV 'DV VRJ WHFKQRORJLVFKH (QW ZLFNOXQJVSRWHQ]LDO ZLUG GXUFK GLH 'LIIHUHQ] II EHVFKULHEHQ VLH LVW L$ SUR VSHNWLY VFKZLHULJ ]X HUPLWWHOQ ,Q YLHOHQ )lOOHQ LVW GLH QHXH 7HFKQRORJLH QLFKW XQPLWWHOEDU GHU DOWHQ 7HFKQRORJLH EHUOHJHQ ,P =HLWUDXP WW NRPPW HV GHV KDOE ]X HLQHU hEHUODSSXQJ GHU 7HFKQRORJLHNXUYHQ XQG :lKUHQG GLH DOWH 7HFKQRORJLH QDFK XQG QDFK GLH *UHQ]H LKUHU /HLVWXQJVIlKLJNHLW 3HUIRUPDQFH
4XDOLWlWXQG,QQRYDWLRQDOVZLFKWLJH(IIHNWLYLWlWVNULWHULHQ
HUUHLFKWNlPSIWGLHQHXH7HFKQRORJLHQRFK XPGDV(UODQJHQGHU:HWWEHZHUEV IlKLJNHLW UHVSHNWLYH GHU 0DUNWUHLIH 'HU /HEHQV]\NOXV YRQ 7HFKQRORJLH HQGHW ZHQQGLH/HLVWXQJVIlKLJNHLWYRQ7HFKQRORJLH±]%LQIROJHYRQ9HUEHVVHUXQJV LQQRYDWLRQHQ±DXIHLQJOHLFKHVRGHUK|KHUHV1LYHDXJHVWLHJHQLVW'LHVLVWDEGHP 3XQNWWI GHU)DOOVLHKH$EE .RQWLQXLHUOLFKH9HUEHVVHUXQJHQIKUHQ]X HLQHP ZHLWHUHQ $QVWLHJ GHU 3HUIRUPDQFH ELV ]XP =HLWSXQNW W DE GLHVHP NDQQ HV MHGHU]HLW HUQHXW ]X HLQHP 7HFKQRORJLHVSUXQJ DOV GLVNRQWLQXLHUOLFKHU :HLWHU HQWZLFNOXQJGHVWHFKQRORJLVFKHQ.RQ]HSWHVNRPPHQ 'LH)HVWOHJXQJYRQLQWHUVXEMHNWLYQDFKYROO]LHKEDUHQ0HVVZHUWHQ]XU.ODVVLILNDWL RQYRQ,QQRYDWLRQHQJHVWDOWHWVLFKJUXQGVlW]OLFKVFKZLHULJYJO+DXVFKLOGW 6 %HL RUJDQLVDWRULVFKHQ 1HXHUXQJHQ ]% ,QQRYDWLRQHQ LP =XVDPPHQKDQJ PLW0DQDJHPHQWNRQ]HSWHQLVWHLQHREMHNWLYH%HZHUWXQJQDKH]XXQP|JOLFK/HJW PDQ GLH bQGHUXQJ GHV 4XDOLWlWVQLYHDXV DOV 0DVWDE IU GHQ ,QQRYDWLRQVJUDG ]XJUXQGH GDQQ VLQG HQWVSUHFKHQGH 6FKZHOOHQZHUWH ]X GHILQLHUHQ DE GHQHQ HLQH 9HUEHVVHUXQJDOV,QQRYDWLRQJLOW%HLGHU'XUFKIKUXQJYRQ6L[6LJPD3URMHNWHQ NDQQ EVSZ YRQ HLQHU 3UR]HVVLQQRYDWLRQ JHVSURFKHQ ZHUGHQ ZHQQ GLH 3UR]HVV TXDOLWlWLQHLQHPUHODWLYNXU]HQ=HLWUDXPXPL6LJPDJHVWLHJHQLVWXQG]ZDUDXI JUXQGHLQHUVLJQLILNDQWHQ3UR]HVVlQGHUXQJ9RQHLQHU3URGXNWLQQRYDWLRQOlVVWVLFK DXVJHKHQ ZHQQ GLH /HEHQVGDXHU GHV 3URGXNWHV GXUFK SUREOHPVSH]LILVFKH 0HUN PDOVlQGHUXQJHQ XP M -DKUH YHUOlQJHUWZHUGHQNRQQWH'LH.ODVVLILNDWLRQYRQSix Sigma als Managementinnovation LVW ]XWUHIIHQG ZHQQ VLFK GDV %XVLQHVV ([FHO OHQFH1LYHDXGHV8QWHUQHKPHQV]%JHPHVVHQDQKDQGGHQ.ULWHULHQGHV()40 0RGHOOVXPN3XQNWHLQQHUKDOEYRQZHQLJHQ-DKUHQYHUEHVVHUWKDW
,P +LQEOLFN DXI GDV ZHLWHUH )RUVFKXQJVYRUJHKHQ HUVFKHLQW HV RSSRUWXQ DQVWHOOH YRQ Ä3HUIRUPDQFH³YRQÄ)LWQHVV³]XVSUHFKHQ=LHOLVWHVGHQÄ)LW³HLQHU7HFKQRORJLH±EHL JHJHEHQHQ $QZHQGXQJVEHGLQJXQJHQ±LQP|JOLFKVWNXU]HU=HLW]XHUK|KHQ1DFKGHU 3KLORVRSKLH GHV 0DJLVFKHQ 'UHLHFNV GHU %:/ VWHKW =HLWYHUNU]XQJ LQ XQPLWWHOEDUHP =XVDPPHQKDQJPLW.RVWHQHUK|KXQJ$XVGLHVHP*UXQGZLUGDXIRSHUDWLYHU(EHQHLP 5DKPHQ GHU 3URGXNWHQWZLFNOXQJ GLH Ä=HLW³ DXFK GXUFK GLH 'LPHQVLRQ Ä.XPXOLHUWH ) ($XIZHQGXQJHQ³HUVHW]WYJO*HUSRWW6
3.2
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
Vorgehensmodelle zur Generierung von Innovationen und Erreichung von Null-Fehler-Qualität
,P) (%HUHLFKVWHOOHQ,QQRYDWLRQHQHLQHZLFKWLJH9RUDXVVHW]XQJ]XP(UUHLFKHQ YRQ 1XOO)HKOHU4XDOLWlW GDU 1DFKGHP GLH ,QKDOWH XQG 'LPHQVLRQHQ GHU EHLGHQ %HJULIIH GHILQLHUW ZRUGHQ VLQG VWHOOW VLFK LP :HLWHUHQ GLH )UDJH ZLH 8QWHUQHK PHQ LKUHQ 3(3 NRQNUHW JHVWDOWHQVROOWHQXPTXDOLWDWLYKRFKZHUWLJH3URGXNWHPLW HLQHP KRKHQ ,QQRYDWLRQVJUDG KHUYRU]XEULQJHQ 6RZRKO YRQ 6HLWHQ GHV ,QQRYDWL RQVDOVDXFKYRQ6HLWHQGHV4XDOLWlWVPDQDJHPHQWVZHUGHQHQWVSUHFKHQGH9RUJH KHQVPRGHOOH EHUHLWJHVWHOOW GLH VLFK EHL GHU /|VXQJ YHUVFKLHGHQVWHU 3UREOHPVWHO OXQJHQEHZlKUWKDEHQ,P.HUQXQWHUVFKHLGHQVLFKGLH0RGHOOHGHUEHLGHQ0DQD JHPHQWV\VWHPH YRU DOOHP LQ GHU 6WlUNH GHU DQJHVWUHEWHQ :LUNXQJ GLHYRQLQNUH PHQWHOOHU9HUEHVVHUXQJELV]XUDGLNDOHU(UQHXHUXQJUHLFKW 3.2.1
Vorgehensmodelle zur kreativen Problemlösung
,QQRYDWLRQHQ GLH ]X HLQHP GLVNRQWLQXLHUOLFKHQ $QVWLHJ GHV 4XDOLWlWVQLYHDXV IK UHQ VLQG XQPLWWHOEDU PLW 3UREOHPO|VXQJVSUR]HVVHQ LQ 8QWHUQHKPHQ YHUEXQGHQ (LQ 3UREOHP EH]HLFKQHW KLHU ÄHLQH XQJHNOlUWH E]Z ZLGHUVSUXFKVYROOH 6LWXDWLRQ GLH GXUFK HLQH TXDOLWDWLY XQG TXDQWLWDWLY EHVWLPPEDUH 'LIIHUHQ] ]ZLVFKHQ HLQHP YRUKDQGHQHQ ,VW=XVWDQG XQG HLQHP QRWZHQGLJHQ RGHU ZQVFKHQVZHUWHQ 6ROO =XVWDQG=LHO FKDUDNWHULVLHUWZLUG³+H\GHHWDO6 8PGLH'LIIHUHQ] ]X EHUZLQGHQ UHVSHNWLYH ]X YHUNOHLQHUQ UHLFKHQ GDV YRUKDQGHQH :LVVHQ GLH ELVKHULJHQ (UNHQQWQLVVH GLH HLQJHVHW]WHQ 0HWKRGHQ LP 8QWHUQHKPHQ HWF QLFKW DXV=XU/|VXQJGHV3UREOHPVVLQGYLHOPHKUQHXH,GHHQHUIRUGHUOLFKGLHPLW8Q WHUVWW]XQJ YRQ kreativen Problemlösungszyklen JHQHULHUW EHZHUWHW XQG XPJH VHW]W ZHUGHQ N|QQHQ =ZHL =\NOHQ GLH LP 5DKPHQ GHV ,QQRYDWLRQVPDQDJHPHQWV KlXILJUHNXUULHUWZHUGHQVLQG*HJHQVWDQGGHUIROJHQGHQ%HWUDFKWXQJ (a) CPS-Modell nach Osborn/ Parnes 9RQ $/(; 26%251 GHP Ä(UILQGHU³ GHV %UDLQVWRUPLQJ VWDPPW GHU $XV VSUXFK Ä4XDQWLW\ EUHHGV TXDOLW\³ 6HLQHU $XIIDVVXQJ QDFK VLQG LQ GHU HUVWHQ 5XQGH P|JOLFKVW YLHOH /|VXQJVLGHHQ ]XVDPPHQ]XWUDJHQ XP HLQ 3UREOHP PLW HLQHP KRKHQ ,QQRYDWLRQVJUDG ]X O|VHQ $QVFKOLHHQG LVW HLQH VLQQYROOH $XVZDKO GHU /|VXQJVLGHHQ ]X WUHIIHQ GLH GDQQ LQ GHU 7LHIH ZHLWHU ]X YHUIROJHQ VLQGYJO *HVFKND /DQWHOPH 6 *HQDX GLHVHU $QVDW] ELOGHW GLH*UXQGODJHGHV Creative Problem Solving-Modells &36 GDV 2VERUQ JHPHLQVDP PLW 6,'1(< - 3$51(6LQGHQHUXQGHU-DKUHQHQWZLFNHOWKDW'HU3UREOHPO|VXQJVSUR ]HVVZLUGLQVHFKV3KDVHQXQWHUWHLOWYJO0LWFKHOO.RZDOLN6II
'LH$QIDQJVEXFKVWDEHQGHU3KDVHQHUJHEHQ±LQ$QOHKQXQJDQGHQVFKLHIHQ7XUPYRQ 3LVD±GDV$NURQ\PÄ2)3,6$³HVJHKWDXIGHQ6\VWHPLQJHQLHXUEHLGHU86$LU)RUFH %(57'(&.(5]XUFNYJO2VERUQ3DUQHV
9RUJHKHQVPRGHOOHIU,QQRYDWLRQHQXQG1XOO)HKOHU4XDOLWlW
•
Objective Finding-Phase: 'HU $XVJDQJVSXQNW GHV 3UREOHPO|VXQJVSUR]HVVHV LVWNHLQHLQGHXWLJGHILQLHUWHV3UREOHPVRQGHUQHLQHXQEHIULHGLJHQGH6LWXDWLRQ LP (QJO DXFK 0HVV)LQGLQJ JHQDQQW ,Q HLQHU 'LVNXVVLRQVUXQGH LP 7HDP ZLUG GDV 3UREOHP ]XQlFKVW KHUDXVJHDUEHLWHW XQG GLH =LHOH GHV VLFK DQVFKOLH HQGHQ9HUEHVVHUXQJVSUR]HVVHVIHVWJHOHJW$P(QGHGHUHUVWHQ3KDVHEHVWHKW .RQVHQVEHUGLH]XHUUHLFKHQGHQ=LHOH
•
Fact Finding-Phase:,QGLHVHU3KDVHZHUGHQDOOHUHOHYDQWHQ)DNWHQ,QIRUPD WLRQ JHVDPPHOW GLH GLUHNW RGHULQGLUHNWPLWGHP3UREOHPLQ=XVDPPHQKDQJ VWHKHQ 'DEHL LVW GDUDXI ]X DFKWHQ GDVV P|JOLFKVW DOOH $QVLFKWHQ XQG 0HL QXQJHQ GHU 3URMHNWEHWHLOLJWHQ YRUXUWHLOVIUHL HUIDVVW ZHUGHQ 1DFK GHP%UDLQ VWRUPLQJ ZHUGHQ GLH JHVDPPHOWHQ ,QIRUPDWLRQHQ SULRULVLHUW $P (QGH GHU ]ZHLWHQ3KDVHOLHJWHLQH/LVWHPLWDOOHQSUREOHPUHOHYDQWHQ'DWHQYRU
•
Problem Finding-3KDVH(LQEHVRQGHUVZLFKWLJHU$VSHNWYRQ.UHDWLYLWlWVSUR ]HVVHQ LVW ± JHQDX ZLH EHL 6L[ 6LJPD3URMHNWHQ ± GLH $EVWUDNWLRQ GHU 3URE OHPVWHOOXQJ=LHOLVWHVGDVUHDOH3UREOHPP|JOLFKVWJHQDX]XHUIDVVHQRKQH YRQ YRUQKHUHLQ GLH 9LHO]DKO P|JOLFKHU /|VXQJVZHJH HLQ]XVFKUlQNHQ 'D]X LVW HV QRWZHQGLJ GDV 3UREOHP DXI YHUVFKLHGHQH $UW XQG :HLVH ]X EHVFKUHL EHQ 'LH 3UREOHPEHVFKUHLEXQJHQ 3UREOHP 6WDWHPHQWV ZHUGHQ DP(QGHGHU 3UREOHP )LQGLQJ3KDVH EHZHUWHW 'HP VRJ 3UREOHP 2ZQHU REOLHJW HV GDQQ GLH%HVFKUHLEXQJGLHGDV3UREOHPDPEHVWHQHUIDVVWDXV]XZlKOHQ
•
Idea Finding-Phase: 'DV =LHO GLHVHU 3KDVH EHVWHKW GDULQ P|JOLFKVW YLHOH YHUVFKLHGHQH ,GHHQ IU GLH /|VXQJ GHV 3UREOHPV ]X VDPPHOQ'LH,GHHQOLVWH VROOWHGDEHLGXUFKDXVDXHUJHZ|KQOLFKH,GHHQHQWKDOWHQ'HQQVHOEVWGLHGHP HUVWHQ $QVFKHLQ QDFK ÄXQVLQQLJ³ HUVFKHLQHQGHQ ,GHHQ N|QQWHQ GHU 6FKOVVHO IUGLHLQQRYDWLYH3UREOHPO|VXQJVHLQ*UXQGVlW]OLFKJLOW-HJU|HUGLH9DUL DWLRQGHU/|VXQJVYRUVFKOlJHGHVWREHVVHU 6LQG DXVUHLFKHQG ,GHHQ JHVDPPHOW ZRUGHQ ZLUG LQ GLH %HZHUWXQJV E]Z .RQYHUJHQ]SKDVHEHUJHJDQJHQ,QGLHVHUZHUGHQGLH,GHHQPLWGHPJU|WHQ 3UREOHPO|VXQJVSRWHQ]LDOYRQGHQHQPLWNHLQHPRGHUQXUJHULQJHP3RWHQ]LDO VHOHNWLHUW$P(QGHGHU,GHD)LQGLQJ3KDVHOLHJHQP|JOLFKVWYLHOHHUIROJVYHU VSUHFKHQGH/|VXQJVYRUVFKOlJHÄDXIGHP7LVFK³
•
Solution Finding-Phase: +LHU ZHUGHQ DOOH YHUEOLHEHQHQ /|VXQJVYRUVFKOlJH DXVGHUYRUDQJHJDQJHQHQ3KDVHDXIGHU%DVLVHLQHV.ULWHULHQUDVWHUVHYDOXLHUW 'D]X VLQG YHUVFKLHGHQH .ULWHULHQ ZLH ]% .RVWHQ GHU 8PVHW]XQJ 9HUIJ EDUNHLWYRQ5HVVRXUFHQXQG=HLWGHU,PSOHPHQWLHUXQJ]XHQWZLFNHOQXQGLP +LQEOLFNDXILKUH3UREOHPUHOHYDQ]]XJHZLFKWHQ1DFKGHPDOOH,GHHQEHZHU WHWZRUGHQVLQGLVWGLHEHVWH/|VXQJIUGLH8PVHW]XQJDXV]XZlKOHQ
•
Acceptance Finding-Phase: )U GLH ,PSOHPHQWLHUXQJ GHU QHXHQ /|VXQJ LP 8QWHUQHKPHQ LVW IU HLQH DXVUHLFKHQGH $N]HSWDQ] &RPPLWPHQW GHU %HWHL OLJWHQ]XVRUJHQ'D]XLVWHLQ,PSOHPHQWLHUXQJVSODQ]XHQWZHUIHQLQGHPGLH ,QWHUHVVHQ GHU YHUVFKLHGHQHQ 6WDNHKROGHU EHUFNVLFKWLJW ZHUGHQ =LHO LVW HV P|JOLFKH :LGHUVWlQGH 9RUEHKDOWH LP 8QWHUQHKPHQ IUK]HLWLJ ]X HUNHQQHQ XQGGXUFKÄYHUWUDXHQVI|UGHUQGH³0DQDKPHQ]LHOVWUHELJDE]XEDXHQ
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
-HGH 3KDVH GHV &36=\NOXV ZLUG DOV NUHDWLY ]X O|VHQGH $XIJDEH DQJHVHKHQ 6LH VHW]W VLFK MHZHLOV DXV HLQHU GLYHUJHQWHQ ,GHHQILQGXQJ XQG HLQHU NRQYHUJHQWHQ ,GHHQDXVZDKO 3KDVH]XVDPPHQ,P8QWHUVFKLHG]XDQGHUHQ3UREOHPO|VXQJV]\N OHQ EDXW HLQH 3KDVH]ZLQJHQGDXIGHUGHQYRUDQJHJDQJHQHQ3KDVHQ DXI1DFK GHPGDVULFKWLJH3UREOHPLGHQWLIL]LHUWZHUGHQNRQQWHEHVWHKWGLH/|VXQJVVWUDWHJLH LP .HUQ GDULQ YLHOH ,GHHQ ]XVDPPHQ]XWUDJHQ XQG GDQQ GDUDXV HLQLJH JXWH GK SDVVHQGH /|VXQJHQ DXV]XZlKOHQ YJO *HVFKND /DQWHOPH 6 'DEHL KDW VLFK GLH YRQ 2VERUQ YRUJHVFKODJHQH Trennung zwischen Ideenfindungs- und Ideenauswahlphase LP .RQWH[W NUHDWLYHU 3UR]HVVH DOV lXHUVW HUIROJUHLFK HUZLH VHQ ,P /DXIH GHU =HLW LVW GLH 9RUJHKHQVZHLVH GXUFK HLQH 5HLKHYRQ 9DULDWLRQHQ HUJlQ]WZRUGHQYJO6HLIIJH.UHQNH6I 'DV &360RGHOO GLHQW LQ HUVWHU /LQLH DOV $QOHLWXQJ Ä.RFKUH]HSW³ IU *UXSSHQ XQG RGHU ,QGLYLGXHQ XP HLQIDFKH ZLH VFKZLHULJH 3UREOHPH PLW HLQHP +|FKVW PDDQ.UHDWLYLWlW]XO|VHQ'HU:LUNXQJVJUDGLVWGDEHLYRUDOOHPYRQGHU+R PRJHQLWlW GHU ,QWHUHVVHQ 0HLQXQJHQ $QVLFKWHQ HWF LQ GHU *UXSSH DEKlQJLJ 6LQG GLH =LHOH XQG ,QWHUHVVHQODJHQ VWDUN KHWHURJHQ YHUWHLOW GDQQ LVW HV L$ VFKZLHULJ GLH 3UREOHPO|VXQJ HIIHNWLY YRUDQ]XWUHLEHQ YJO 7KH &R&UHDWLYLW\ ,QVWLWXWH6 ,QVROFKHQÄ&RNUHDWLYHQ6LWXDWLRQHQ³LVWHVEHVVHUDXIDOWHU QDWLYH 6WUDWHJLHQ 0HWKRGHQ DXV]XZHLFKHQ ]% ,GHHQDXVWDXVFK $N]HSWDQ]SOD QXQJ XQG .RQVHQVILQGXQJ /HW]WHUHV LVW ± XQDEKlQJLJ YRQ GHU *UXSSHQ]XVDP PHQVHW]XQJ ± LQ MHGHU .RQYHUJHQ]SKDVH GHV &360RGHOOV QRWZHQGLJ XP HLQ KRKHV,QYROYHPHQWXQG(QJDJHPHQWDOOHU%HWHLOLJWHQVLFKHU]XVWHOOHQ (LQH kritische Bewertung GHV &360RGHOOV XQG DOOHU QDFKIROJHQGHQ 9RUJHKHQV PRGHOOH LVW LQ $EE YRUJHQRPPHQ 'LH *UXQGODJH GHU %HZHUWXQJ ELOGHW HLQ HLQIDFKHV XQJHZLFKWHWHV .ULWHULHQUDVWHU PLW ]ZHL %HIlKLJHU XQG ]ZHL (UJHEQLV NULWHULHQ 'LH %HIlKLJHUNULWHULHQ XPIDVVHQ HLQHQ HLQGHXWLJHQ 3KDVHQDEODXI XQG HLQHQ VWUXNWXULHUWHQ 0HWKRGHQHLQVDW]EHLGH]XVDPPHQIKUHQ]XHLQHUZLUNXQJV YROOHQ 3UREOHPO|VXQJ =X GHQ (UJHEQLVNULWHULHQ JHK|UHQ GLH ZLUWVFKDIWOLFKH $Q ZHQGXQJ GHV 9RUJHKHQVPRGHOOV (IIL]LHQ] VRZLH GHVVHQ =LHOHUUHLFKXQJVJUDG (IIHNWLYLWlW (LQ ÄJXWHV³ 9RUJHKHQVPRGHOO ]HLFKQHW VLFK QLFKW QXU GXUFK GDV $XIILQGHQGHURSWLPDOHQ/|VXQJDXVVRQGHUQDXFKGXUFKVHLQH±XQWHU|NRQRPL
$OVEHQ|WLJWH=HLWGDXHUIUGHQ,QQRYDWLRQVSUR]HVVZHUGHQLQGHUHUVWHQ$QZHQGXQJV UXQGHHLQELV]ZHL6WXQGHQYHUDQVFKODJW0LWHLQHPHUIDKUHQHQ0RGHUDWRUN|QQHQHLQ IDFKH3UREOHPHLQQHUKDOEYRQELV0LQXWHQJHO|VWZHUGHQ*HVFKXOWH0LWDUEHLWHU VLQGLQGHU/DJHDOOHVHFKV3KDVHQLQVHFKVELV]HKQ0LQXWHQ]XGXUFKODXIHQ$XV6LFKW GHV&R&UHDWLYLW\,QVWLWXWH HUVFKHLQWGLHVH=HLWGDXHUIUYLHOHXQWHUQHKPHQVEH ]RJHQH3UREOHPHDOVGXUFKDXVDQJHPHVVHQ 'DV 9RUELOG IU GLH %HZHUWXQJ GHU KLHU DQDO\VLHUWHQ 9RUJHKHQVPRGHOOH ELOGHW GDV ()400RGHOO 'DEHL KDQGHOW HV VLFK XP HLQHQ JDQ]KHLWOLFKHQ $QVDW] ]XU %HZHUWXQJ YRQ KHUDXVUDJHQGHU 8QWHUQHKPHQVSHUIRUPDQFH OHLVWXQJVIlKLJNHLW 'DV 4XDOLWlWVPR GHOO IU ([FHOOHQFH GLHQW VHLW DOV *UXQGUDVWHU ]XU %HZHUWXQJ XQG 9HUEHVVHUXQJ YRQ 8QWHUQHKPHQ LQ (XURSD 'DV ()400RGHOO GLIIHUHQ]LHUW JOHLFKJHZLFKWLJ QDFK %HIlKLJHUXQG(UJHEQLV.ULWHULHQYJO()40
9RUJHKHQVPRGHOOHIU,QQRYDWLRQHQXQG1XOO)HKOHU4XDOLWlW
VFKHQ *HVLFKWVSXQNWHQ ± SRVLWLYH .RVWHQ1XW]HQ5HODWLRQ 'HP %HZHUWXQJVSUR ]HVVJHKWMHZHLOVHLQH,QKDOWVDQDO\VHGHU9RUJHKHQVPRGHOOHYRUDXV
- Erfüllungsgrad -
100% 75% 50% 25% 0% f au blen a enas uf a as h
1
Ph P
l ab
zant nse i d oe tz tehn a od ns he t M e ei M
2
- Befähigerkriterien -
tefit hka ch i t l fst c ei hrat k c i h ts i rW lic W
3
4 er el Zi
i- d aed rgr gra s ng
es enlg hiu
icZ re
u ch
- Ergebniskriterien -
Legende: CPS-Modell
OPM-Modell
ISO-Regelkreis
PDCA-Zyklus
DMAIC-Zyklus
DMADV-Zyklus
Quelle: Eigene Darstellung
$EE.ULWHULHQEDVLHUWH%HZHUWXQJGHU9RUJHKHQVPRGHOOH
'LH0HVVXQJGHU$XVSUlJXQJUHVSHNWLYH(UIOOXQJGHUHLQ]HOQHQ.ULWHULHQEDVLHUW DXI HLQHU VWXILJHQ /LNHUW6NDOD VLH UHLFKW YRQ Ä.ULWHULXP LVW EHUKDXSW QLFKWHUIOOW³XQG Ä.ULWHULXPLVWHKHUQLFKWHUIOOW³EHU Ä.ULWHULXP LVWWHLOVWHLOVHUIOOW³XQG Ä.ULWHULXPLVWHKHUHUIOOW³ELV .ULWHULXP LVWYROOVWlQGLJHUIOOW³'XUFKGLH/LQLHQSURILOHZLHVLHLQ$EEHLQJH]HLFKQHW VLQG ZHUGHQ GLH 6WlUNHQ XQG 6FKZlFKHQ GHU 9RUJHKHQVPRGHOOH XQPLWWHOEDU HU VLFKWOLFK 1DFK GHQ YRUVWHKHQGHQ $XVIKUXQJHQ EHVLW]W GDV &360RGHOO HLQHQ HLQGHXWLJHQ 3KDVHQDEODXI GDV HUVWH .ULWHULXP LVW GDPLW ]X HUIOOW *OHLFK
'LH/LNHUW6NDOLHUXQJ]lKOW]XGHQQLFKWNRPSDUDWLYHQ6NDOLHUXQJVYHUIDKUHQXQGGDEHL VSH]LHOO ]X GHQ GLVNUHWHQ 5DWLQJVNDOHQ GHUHQ 6WUXNWXU ELSRODULVW XQG LZ6 HLQHU 2U GLQDOVNDOD HQWVSULFKW ,Q GHU 0DUNWIRUVFKXQJ JLOW VLH DOV VHKU ]XYHUOlVVLJHV 6NDOLH UXQJVYHUIDKUHQPLWEUHLWHP$QZHQGXQJVVSHNWUXPYJO6WDKOEHUJ)UH\6
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
]HLWLJ VLQG GHQ HLQ]HOQHQ 3KDVHQ NHLQH 0HWKRGHQ ]XJHRUGQHW ZDV ]X HLQHP (UIOOXQJVJUDG GHV ]ZHLWHQ .ULWHULXPV IKUW 'LH (UJHEQLVNULWHULHQ VLQG MHZHLOV PLWÄWHLOVWHLOV³EHZHUWHWDOVRPLWHUIOOWGLHVZLUGDXIGHQHLQVHLWLJHQ)RNXV GHU3UREOHPO|VXQJDXILQWXLWLYNUHDWLYH3UR]HVVH]XUFNJHIKUW %HL .ULWHULXP Ä0HWKRGHQHLQVDW]³ WULWW GLH JU|WH 9DULDWLRQ GHU (UIOOXQJVJUDGH ]ZLVFKHQGHQHLQ]HOQHQ9RUJHKHQVPRGHOOHQDXI'LHVOLHJWVRZRKODQGHU4XDQWL WlWDOVDXFKGHU4XDOLWlWGHUHLQJHVHW]WHQ0HWKRGHQEHJUQGHW%HLGHU%HZHUWXQJ GHUQuantitätIOLHWLQHUVWHU/LQLHGLH$Q]DKOGHUIHVWYRUJHJHEHQHQ0HWKRGHQLP 3KDVHQDEODXIÄ0XVV³0HWKRGHQ HLQ%HLGHU%HZHUWXQJGHUQualitätZLUGLQVE DXI GHQÄULFKWLJHQ³0HWKRGHQ0L[JHDFKWHW,PRSWLPDOHQ)DOOOLHJWKLHUHLQDXV JHZRJHQHV 9HUKlOWQLV YRQ LQWXLWLYNUHDWLYHQ XQG V\VWHPDWLVFKDQDO\WLVFKHQ 0H WKRGHQ YRU 8P DXI HLQ (UJHEQLV EHUHLWV YRU]XJUHLIHQ 'HU '0$'9=\NOXV HQW KlOW YLHOH PHWKRGLVFK DQVSUXFKVYROOH 9HUIDKUHQ ]% '2( ZHOFKH SULPlU DXI HLQHU V\VWHPDWLVFKDQDO\WLVFKHQ 9RUJHKHQVZHLVHQ EDVLHUHQ YJO $EVFKQLWW GDPLWLVWNHLQ(UIOOXQJVJUDGLQGLHVHP.ULWHULXPJHJHEHQ :LH GLH VHOHNWLYH $QDO\VH YRQ SUD[LVUHOHYDQWHQ 9RUJHKHQVPRGHOOHQLP:HLWHUHQ ]HLJWEHLQKDOWHQ0RGHOOHGLHLPInnovationsmanagement (IM) HQWZLFNHOWZRUGHQ VLQG XQG GRUW ]ZHFNHQWVSUHFKHQG YHUZHQGHW ZHUGHQ WHQGHQ]LHOO PHKU LQWXLWLY NUHDWLYH 0HWKRGHQ 'HPJHJHQEHU ]HLFKQHQ VLFK 9RUJHKHQVPRGHOOH 3UREOHPO| VXQJV]\NOHQGLHDXVGHP%HUHLFKGHVQualitätsmanagements (QM)HLQVFKOLHOLFK 6L[ 6LJPD VWDPPHQ PHKUKHLWOLFK GXUFK GLH 9HUZHQGXQJ YRQ V\VWHPDWLVFK DQDO\WLVFKHQ 0HWKRGHQ DXV 'HU *UXQG KLHUIU LVWLPXQWHUVFKLHGOLFKHQ=LHOIRNXV ]X VHKHQ QlPOLFK (U]HXJXQJ YRQ 1XOO)HKOHU4XDOLWlW DXI GHU HLQHQ 6HLWH XQG *HQHULHUXQJYRQ,QQRYDWLRQHQDXIGHUDQGHUHQYJO8QWHUNDSLWHO *HUDGH LP +LQEOLFN DXI GLH $QIRUGHUXQJHQ LP 3URGXNWHQWVWHKXQJVSUR]HVV 3(3 HUVFKHLQW GLH 6\QWKHVH YRQ 9RUJHKHQVPRGHOOHQ DXV EHLGHQ 0DQDJHPHQWGLV]LSOL QHQ]LHOIKUHQGXPUREXVWHXQGJOHLFK]HLWLJLQQRYDWLYH3URGXNW3UR]HVVGHVLJQV ]X JHQHULHUHQ 'D]X VLQG SUDNWLVFKHUZHLVH GLH 409RUJHKHQVPRGHOOH PLW LQWXL WLYNUHDWLYHQ 0HWKRGHQ ÄDQ]XUHLFKHUQ³ E]Z ± YLFH YHUVD ± GLH ,09RUJHKHQV PRGHOOH PLW V\VWHPDWLVFKDQDO\WLVFKHQ 0HWKRGHQ:HQQVLFKDXIGLHVH:HLVHHLQ JU|HUHU =LHOHUUHLFKXQJVJUDG LP 3(3 HLQVWHOOW GDQQ OLHJW HLQ LQGLUHNWHU HPSLUL VFKHU%HOHJIUGLHYHUPXWHWH8UVDFKHQ:LUNXQJVEH]LHKXQJLQHypothese H3YRU YJO$EVFKQLWW ,QGHUYRUOLHJHQGHQ$UEHLWHUIROJWGLHLQGLUHNWH hEHUSU IXQJ GHU +\SRWKHVH LP =XJH GHU $QZHQGXQJ GHV HUZHLWHUWHQ ')663UREOHP O|VXQJV]\NOXV '0$,'9 LQ 8QWHUNDSLWHO (QWVSUHFKHQG YRUVWHKHQG JHQDQQ WHU)RUGHUXQJLVWGLHVHUXPGLHZLGHUVSUXFKVRULHQWLHUWH,QQRYDWLRQVPHWKRGH75,= HUZHLWHUWZHOFKHPHKUHUH.UHDWLYLWlWVWHFKQLNHQXPIDVVW (b) OPM-Modell nach Geschka (LQH:HLWHUIKUXQJGHV&360RGHOOVOLHJWLQ)RUPGHVOffenen Problemlösungsmodells 230 YRU GDV YRU DOOHP YRQ +2567 *(6&+.$ YHUWUHWHQ ZLUG 'DV 0RGHOO O|VW VLFK YRQ GHU IHVWHQ 3KDVHQIROJH GHV &36 XQG JHKW YRQ HLQHP HOHPHQWDUHQ3UREOHPO|VXQJV]\NOXVDXVGHU±LQ$EKlQJLJNHLWYRQGHU6FKZLHULJ
9RUJHKHQVPRGHOOHIU,QQRYDWLRQHQXQG1XOO)HKOHU4XDOLWlW
NHLW GHV ]X O|VHQGHQ *HVDPWSUREOHPV ± PHKUPDOV GXUFKODXIHQ ZLUG 6R VLQG EHL HLQHUNRPSOH[HQ$XIJDEHQVWHOOXQJZLH]%HLQHU3URGXNWLQQRYDWLRQYLHOHNOHLQH 3UREOHPO|VXQJV]\NOHQ QDFK HLQHP IHVW YRUJHJHEHQHQ 6FKHPD ]X EHDUEHLWHQ (LQ HOHPHQWDUHU 3UREOHPO|VXQJV]\NOXV LP 3UR]HVV GHU 3URGXNWSODQXQJ XPIDVVW QDFK *HVFKND6 GLHIROJHQGHQYLHU3KDVHQ •
Problemklärungs-Phase:,QGLHVHU3KDVHLVW]XQlFKVWGHU.HUQGHV3UREOHPV ]X LGHQWLIL]LHUHQ -H QDFK 3UREOHPNHQQWQLV XQG XPIDQJ HUIRUGHUW GLHVH $XI JDEH X8 HLQHQ HLJHQHQ 3UREOHPO|VXQJV]\NOXV QDFK GHP 2300RGHOO $P (QGH GHU 3KDVH LVW MHGHP %HWHLOLJWHQ YHUVWlQGOLFK ZDVGDV]XO|VHQGH3URE OHPLVW'D]XHPSILHKOWVLFKHLQH3UREOHPEHVFKUHLEXQJPLW]LHOXQGO|VXQJV RULHQWLHUWHQ)RUPXOLHUXQJHQ]XHUVWHOOHQ
•
Ideenfindungs-Phase: 1DFKGHP GLH *UXSSHQPLWJOLHGHU DOOH UHOHYDQWHQ )DN WHQ,QIRUPDWLRQHQ]XU3UREOHPVWHOOXQJHUKDOWHQKDEHQXQGYRP3UREOHPVWHO OHUHLQH(UJHEQLVYLVLRQJHJHEHQZRUGHQLVWVHW]WGLH3KDVHGHU,GHHQILQGXQJ HLQ ,P 9RUGHUJUXQG VWHKW KLHU HLQ EUHLWHV XQHLQJHVFKUlQNWHV 6DPPHOQ YRQ ,GHHQ 'DEHL VLQG QDFK GHU NODVVLVFKHQ &363KLORVRSKLH P|JOLFKVW YLHOH , GHHQ]XJHQHULHUHQXPGLH/|VXQJVVWUDWHJLHRIIHQ]XJHVWDOWHQ
•
Ideenauswahl-Phase: ,Q GLHVHU 3KDVH ZHUGHQ LQ )RUP HLQHV PHKUVWXILJHQ 3UR]HVVHV GLH JHVDPPHOWHQ /|VXQJVLGHHQ ]XQlFKVW VWUXNWXULHUW XQG DQVFKOLH HQG EHZHUWHW =LHO LVW HV PLWKLOIH YHUVFKLHGHQHU %HZHUWXQJVXQG $XVZDKO PHWKRGHQ ]% .ULWHULHQEDVLHUWH $XVZDKO ZHQLJH DEHU YLHOYHUVSUHFKHQGH ,GHHQ KHUDXV]XILOWHUQ 'LHVH ZHUGHQ LP /DXIH GHV $XVZDKOSUR]HVVHV ZHLWHU SUl]LVLHUWXQGPLW]XVlW]OLFKHQ,QIRUPDWLRQHQKLQWHUOHJW
•
Lösungsumsetzungs-Phase: 'HU NUHDWLYH 3UREOHPO|VXQJV]\NOXV HQGHW GDPLW GDVVHLQ9RUVFKODJHUDUEHLWHWZLUGZHOFKH/|VXQJVNRQ]HSWHZHLWHU]XYHUIRO JHQVLQGXQGZHOFKHQLFKW 'LH(QWVFKHLGXQJZHOFKH.RQ]HSWHOHW]WHQGOLFK XPJHVHW]W ZHUGHQ ZLUG KlXILJ QLFKW YRQ GHU 3UREOHPO|VXQJVJUXSSH VHOEVW VRQGHUQYRQHLQHPEHUJHRUGQHWHQ*UHPLXPJHWURIIHQ6LQGNHLQHDGlTXDWHQ /|VXQJVLGHHQJHIXQGHQZRUGHQEHJLQQWGHU=\NOXVYRQYRUQ
,Q$EELVWGHUNUHDWLYH3UREOHPO|VXQJV]\NOXVQDFKGHP2300RGHOOYLVXD OLVLHUW 'LH Ä=LHKKDUPRQLND³'DUVWHOOXQJ YHUGHXWOLFKW GDV V\VWHPDWLVFKH $EZHFK VHOQ YRQ 'LYHUJHQ] XQG .RQYHUJHQ]SKDVH LP ,QQRYDWLRQVSUR]HVV (LQ]HOQH 3UREOHPO|VXQJV]\NOHQVLQGWKHPDWLVFKJHNRSSHOWGKGDV$XVZDKOHUJHEQLV2XW SXW GHVHLQHQ=\NOXVLVWGLH$XIJDEHQVWHOOXQJ,QSXW GHVIROJHQGHQ
'LH8QWHUVFKHLGXQJ]ZLVFKHQNRQYHUJHQWHPXQGGLYHUJHQWHP'HQNHQJHKWDXI-2+13 *8,/)25' ]XUFN(UYHUVWHKWXQWHUNRQYHUJHQWHP'HQNHQORJLVFKHV9RUJHKHQ GDV DXI HLQHQ JDQ] EHVWLPPWHQ /|VXQJVSXQNW KLQIKUW 'HPJHJHQEHU ]HLFKQHW VLFK GLYHUJHQWHV 'HQNHQ GXUFK XQEOLFKH $VVR]LDWLRQHQ 3HUVSHNWLYHQZHFKVHO XQG (UZHL WHUXQJGHV+RUL]RQWVDXV.UHDWLYH3UREOHPO|VXQJVSUR]HVVHHUIRUGHUQVRZRKOGLYHUJHQ WHVDOVNRQYHUJHQWHV'HQNHQYJO)XQNH6
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
Problemklärung
Ideenfindung Divergentes Denken
Ideenauswahl Konvergentes Denken
Lösungsumsetzung
...
Basis: Geschka/ Lantelme 2005, S. 294
$EE3UREOHPO|VXQJVSUR]HVVQDFKGHP2300RGHOO6FKHPD Kritische Bewertung: $XIJUXQGGHURIIHQHQ3UREOHPO|VXQJVVWUDWHJLHLVWGDV230 0RGHOOlXHUVWIOH[LEHOHLQVHW]EDUZDVMHGRFKJOHLFK]HLWLJ]XHLQHPUHODWLYJHULQ JHUHQ (UIOOXQJVJUDG YRQ .ULWHULXP IKUW VLHKH $EE $QDORJ ]XP &36 0RGHOO OLHJW NHLQ VWUXNWXULHUWHU 0HWKRGHQHLQVDW] YRU GHU (UIOOXQJVJUDG YRQ .ULWHULXP LVW 1XOO 'LH (IIL]LHQ] .ULWHULXP ZLUG PLW ÄPLWWHO³ EHZHUWHW GD GHU 3UREOHPO|VXQJV]\NOXV JJI PHKUPDOV ]X GXUFKODXIHQ LVW %HL GHU (IIHNWLYLWlW .ULWHULXP ZLUGGHU(UIOOXQJVJUDGYRQGDPLWEHJUQGHWGDVVGDV230 0RGHOO DXFK EHL NRPSOH[HQ WHFKQLVFKHQ $XIJDEHQVWHOOXQJHQ DQJHZHQGHW ZHUGHQ NDQQ'HU(LQVDW]EH]LHKWVLFKVRZRKODXIXQEHIULHGLJHQGH6LWXDWLRQHQPLWXQNOD UHU3UREOHPIRUPXOLHUXQJDOVDXFKDXINRQNUHWH$XIJDEHQVWHOOXQJHQPLWGHWDLOOLHU WHU3UREOHPEHVFKUHLEXQJYJO*HVFKND/DQWHOPH6 3.2.2
Innovationsprozess als selbstregulierender Prozess
:LHLQ$EVFKQLWWDXVJHIKUWZXUGHODVVHQVLFK,QQRYDWLRQHQDOVGLH'XUFK VHW]XQJ QHXDUWLJHU 3UREOHPO|VXQJHQ LP 8QWHUQHKPHQ 3UR]HVVLQQRYDWLRQ XQG RGHU LP 0DUNW 3URGXNWLQQRYDWLRQ FKDUDNWHULVLHUHQ ,QQRYDWLRQHQ VHW]HQ VLFK QDFK DOOJHPHLQHP .HQQWQLVVWDQG QLFKW YRQ DOOHLQH GXUFK VRQGHUQ HUIRUGHUQ HLQ zielgerichtetes Management LQ )RUP HLQHV 0DVWHUSUR]HVVHV VLHKH $EE 'LHVHV UHLFKW YRQ GHU 3UREOHPHUNHQQWQLV XQG ,GHHQJHZLQQXQJ IU QHXH 3UREOHP O|VXQJHQ EHU ,GHHQEHZHUWXQJ XQG XPVHW]XQJ LP 5DKPHQ YRQ ) ( ELV ]XU HU
:HLWHUH NUHDWLYH 3UREOHPO|VXQJVSUR]HVVH GLH HEHQIDOOV DXI GHP =LHKKDUPRQLND3ULQ ]LSEDVLHUHQVLQGXDGLH6\QHNWLVFKH3UREOHPO|VXQJYRQ*RUGRQ 3ULFH GLH0RUSKRORJLVFKH/|VXQJVHQWZLFNOXQJYRQ=ZLFN\ XQGGLH-DSDQLVFKH10 0HWKRGHYRQ1DND\DPD )UHLQHDXVIKUOLFKH'DUVWHOOXQJGHU3UR]HVVHVHLDQ GLHVHU 6WHOOH DXI GLH HLQVFKOlJLJH /LWHUDWXU YHUZLHVHQ YJO XD 6FKOLFNVXSS +DXVFKLOGW3OHVFKDN6DELVFKXQG+RUQXQJ
9RUJHKHQVPRGHOOHIU,QQRYDWLRQHQXQG1XOO)HKOHU4XDOLWlW
IROJUHLFKHQ (LQIKUXQJ HLQHU 1HXHUXQJ LP 0DUNW 3HU GHILQLWLRQHP XPIDVVW GDV ,QQRYDWLRQVPDQDJHPHQW GLH V\VWHPDWLVFKH 3ODQXQJ 8PVHW]XQJ XQG .RQWUROOH YRQ ,GHHQ LQ 8QWHUQHKPHQ YJO XD9DKV%XUPHVWHU6 =LHOLVWHVGD EHLGLH8QWHUQHKPHQV]ZHFNHDXIÄJDQ]QHXH:HLVH³]XHUIOOHQ +LHU]X VLQG strukturierte InnovationsprozesseHUIRUGHUOLFKDXIGHUHQ%DVLVHLQHU VHLWV XQEHNDQQWH 3UREOHPH HLQHU WHFKQLVFKHQ XQG ZLUWVFKDIWOLFKHQ /|VXQJ ]XJH IKUW XQG DQGHUHUVHLWV EHNDQQWH 3UREOHPH GXUFK Y|OOLJ QHXH 0HWKRGHQ 9RUJH KHQVZHLVHQJHO|VWZHUGHQN|QQHQYJO3OHVFKDN6DELVFK6 ,P8QWHU VFKLHG ]X .UHDWLYLWlWVSUR]HVVHQYJO$EVFKQLWW GLHVLFKDXVVFKOLHOLFKPLW GHU(QWZLFNOXQJXQG8PVHW]XQJYRQ,GHHQEHVFKlIWLJHQVLQG,QQRYDWLRQVSUR]HV VH]XVlW]OLFKDXIGLH9HUZHUWXQJGHU,GHHQDXVJHULFKWHW'DEHLZLUGLPSOL]LWYRQ GHU $QQDKPH DXVJHJDQJHQGDVV±JHPlGHPTechnokratischen Innovationsmanagement-Paradigma±,QQRYDWLRQHQXQGVSH]LHOO,QQRYDWLRQVSUR]HVVHSULQ]LSLHOO JHVWDOWHWZHUGHQN|QQHQYJO6FKU|GHU6II ,QGHUHLQVFKOlJLJHQ/LWHUDWXUH[LVWLHUWHLQH9LHO]DKOYRQ3UR]HVVPRGHOOHQGLHPLW HLQHU HIIL]LHQWHQ $EODXIRUJDQLVDWLRQ GHV ,QQRYDWLRQVPDQDJHPHQWV LQ 8QWHUQHK PHQ LQ =XVDPPHQKDQJ JHEUDFKW ZHUGHQ 1DFK LKUHU =LHOVHW]XQJ ODVVHQ VLFK QRU PDWLYH 0RGHOOH GLH KlXILJ DXV 6WXGLHQ HUIROJUHLFKHU 3URMHNWH KHUYRUJHKHQ XQG GHVNULSWLYH 0RGHOOH GLH GDV (UJHEQLV HPSLULVFKHU 6WXGLHQ VLQG XQWHUVFKLHGHQ YJO&RRSHU6 =XGHQEHNDQQWHUHQ0RGHOOHQGLHVHLWGHQHU-DKUHQ LPGHXWVFKXQGHQJOLVFKVSUDFKLJHQ5DXPHQWZLFNHOWZRUGHQVLQGJHK|UHQ •
3KDVH5HYLHZ3UR]HVVGHU1$6$HU-DKUH
•
3KDVHQ0RGHOOGHV,QQRYDWLRQVSUR]HVVHVQDFK7KRP6
•
6WDJH*DWH3UR]HVVQDFK&RRSHU.OHLQVFKPLGW6
•
9DOXH3URSRVLWLRQ&\FOHQDFK+XJKHV&KDILQ6
•
3KDVHQ0RGHOOQDFK3OHVFKDN6DELVFK6
'HUSULQ]LSLHOOH$EODXIHLQHV,QQRYDWLRQVSUR]HVVHVOlVVWVLFKLQ)RUPHLQHVVHOEVW UHJXOLHUHQGHQN\EHUQHWLVFKHQ 3UR]HVVHVEHVFKUHLEHQ'LHVHUEDVLHUWLP.HUQDXI
'DV )RUVFKXQJVLQWHUHVVH JLOW VHLW JHUDXPHU =HLW YRU DOOHP GHU ÄKLVWRU\ GHSHQGHQF\³ DOVR GHU 3IDGDEKlQJLJNHLW YRQ ,QQRYDWLRQVSUR]HVVHQ XQG GHUHQ (UJHEQLVVHQ 'LH ]HQ WUDOH $QQDKPH EHVWHKW GDULQ GDVV GLH (QWZLFNOXQJVYHUJDQJHQKHLW HLQHU 2UJDQLVDWLRQ HLQHV 3URGXNWHVHLQHU7HFKQRORJLHHWF]XNQIWLJH(QWZLFNOXQJHQ(QWZLFNOXQJVP|J OLFKNHLWHQ EHHLQIOXVVW E]Z EHJUHQ]W $XIJUXQG GLHVHV ÄKLVWRU\PDWWHUV³ LVW QLFKW MHGHV EHOLHELJJHZQVFKWH,QQRYDWLRQV]LHODXFKHUUHLFKEDUYJO'XUWK6 $XIGLHVHV0RGHOOZLUGLP:HLWHUHQUHNXUULHUWGDHVVLFKDOVEHVRQGHUVXPIDVVHQGXQG DXVVDJHNUlIWLJGDUVWHOOWYJO9DKV%XUPHVWHU6 (V]HLJWLQQHUKDOEGHUHLQ ]HOQHQ 6WXIHQ VRZRKO GLH GDULQ DEODXIHQGHQ $UEHLWVSUR]HVVH DOV DXFK GLH GDUDXV UHVXOWLHUHQGHQ 3UR]HVVHUJHEQLVVH EHL (UUHLFKHQ RGHU 1LFKW(UUHLFKHQ GHU MHZHLOLJHQ =ZLVFKHQ]LHOH 'DUEHU KLQDXV ZHUGHQ GLH ZHVHQWOLFKHQ 5FNNRSSOXQJHQ ]ZLVFKHQ GHQHLQ]HOQHQ3KDVHQGHV*HVDPWSUR]HVVHVEHUFNVLFKWLJW
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
GHP 2IIHQHQ 3UREOHPO|VXQJVPRGHOO 230 QDFK *HVFKND PLW GHQ YLHU 3KDVHQ Ä3UREOHPNOlUXQJ³ Ä,GHHQILQGXQJ³ Ä,GHHQDXVZDKO³ XQG Ä/|VXQJVXPVHW ]XQJ³:LHLQ$EEQDFKYROO]LHKEDULVWEHJLQQWQDFKGHUH[DNWHQXQGXPIDV VHQGHQ 3UREOHPNOlUXQJ GLH 3KDVH GHU ,GHHQILQGXQJ (QWVSUHFKHQG GHV 230 0RGHOOV VROO KLHU GLH 5LFKWXQJ GHU 3UREOHPO|VXQJ EHVWLPPW XQG GLH P|JOLFKHQ 3ULQ]LSLHQGHU/|VXQJDXIJHGHFNWZHUGHQ$OV$XVJDQJVSXQNWIUGDVFinden von Lösungsideen NRPPHQ YHUVFKLHGHQH 4XHOOHQ LQIUDJH YJO 3OHVFKDN 6DELVFK 6 ]%EHNDQQWH/|VXQJHQDXVDQGHUHQ%HUHLFKHQ8QWHUQHKPHQQHXH .RPELQDWLRQHQ DXV EHUHLWV EHNDQQWHQ 7HLO /|VXQJHQ XQG RGHU DQDORJH /| VXQJVZHJHDXVYHUJOHLFKEDUHQDQGHUHQ6LWXDWLRQHQ 6RZRKOGLH,GHHQILQGXQJDOVDXFKGLHVLFKDQVFKOLHHQGH3KDVHGHU,GHHQDXVZDKO VLQG DXHURUGHQWOLFK VFK|SIHULVFKH $UEHLWVSUR]HVVH GLH HLQ XPIDVVHQGHV 3URE OHPYHUVWlQGQLV XQG 0HWKRGHQZLVVHQ GHU %HWHLOLJWHQ YHUODQJW =LHO LVW HV YHU VFKLHGHQH/|VXQJVYDULDQWHQ]XHUPLWWHOQXQG]XEHZHUWHQXPDXIGLHVHU%DVLVGLH EHVWH/|VXQJDXV]XZlKOHQXQG]XUHDOLVLHUHQ'DEHLJHKWHVLQHUVWHU/LQLHXPGLH .RPELQDWLRQYRQYRUKDQGHQHP:LVVHQXQGQHXHQ(UNHQQWQLVVHQLQHLQHPNUHDWL YHQ3UR]HVV'LH6\QWKHVHIKUW±EHLHUIROJUHLFKHU/|VXQJVVXFKH±]XIXQNWLRQV WFKWLJHQ XPVHW]EDUHQ /|VXQJHQ )U GLH NRQNUHWH Umsetzung der Lösung VLQG PHKUHUH $QIRUGHUXQJHQ ]X HUIOOHQ YJO 3OHVFKDN 6DELVFK 6 VLH UHL FKHQ YRQ HLQHU KLQUHLFKHQGHQ 'RNXPHQWDWLRQ GHU /|VXQJ EHU GDV 'XUFKIKUHQ YRQ3LORWSURJUDPPHQELV]XP)HVWVFKUHLEHQHLQHU=LHONRQWUROOH 'DUEHU KLQDXV VLQG ± DQDORJ ]X 6L[ 6LJPD3URMHNWHQ ± YRP 0DQDJHPHQW GLH EHQ|WLJWHQ 5HVVRXUFHQ )LQDQ] XQG 6DFKPLWWHO IU GLH HIIHNWLYH 8PVHW]XQJ GHU /|VXQJHQ EHUHLW]XVWHOOHQ%HL3UR]HVVlQGHUXQJHQVLQGX8VR]LDOH0DQDKPHQ IUGLHGLUHNWXQGLQGLUHNWEHWURIIHQHQ0LWDUEHLWHU]XSODQHQ 1DFK GHU ,PSOHPHQWLHUXQJ GHU /|VXQJ LVW GHU 1XW]HQ ]X HYDOXLHUHQ ]% GXUFK .XQGHQ]XIULHGHQKHLWVDQDO\VHQ 'LH /|VXQJ ZLUG EHUHLFKVEHUJUHLIHQG HLQJHIKUW XQG JHQXW]W VRIHUQ QDFKJHZLHVHQ ZHUGHQ NDQQ GDVV GDV 3UREOHP QDFKKDOWLJ EHVHLWLJW ZRUGHQ LVW ,P DQGHUHQ )DOO LVW HLQH Rückkopplung zur IdeenfindungsPhase QRWZHQGLJ ,Q HLQHU ÄHLQIDFKHQ 6FKOHLIH³ 6LQJOH /RRS ZLUG GDQQ DXVJH KHQG YRQ GHU 3UREOHPNOlUXQJ GHU 3UR]HVV GHU ,GHHQILQGXQJ DXVZDKO XQG XP VHW]XQJVRODQJHZLHGHUKROWELVHLQHSUD[LVWDXJOLFKH/|VXQJJHIXQGHQZRUGHQLVW 'LHVHZLUGGDQQEHUHLQHQEHVWLPPWHQ=HLWUDXPLP8QWHUQHKPHQJHQXW]W
3OHVFKDN6DELVFK6 ZHLVHQLQGLHVHP=XVDPPHQKDQJGDUDXIKLQGDVVHLQ HQWVWDQGHQHVRGHUVLFKDQEDKQHQGHV3UREOHP]XQlFKVWYRQGHQ%HWHLOLJWHQDOVVROFKHV HUNDQQWZHUGHQPXVVXP(QWVFKHLGXQJHQ$XIJDEHQXQG0DQDKPHQDE]XOHLWHQ8P HLQ REMHNWLY JHJHEHQHV 3UREOHP VXEMHNWLY ZDKU]XQHKPHQ EHGDUI HV LG5 HLQHV $Q VWRHV GHU HQWZHGHU YRQ DXHQ H[WHUQ ]% YRQ .XQGHQ NRPPHQ NDQQ RGHU YRQ LQQHQLQWHUQ ]%YRQ0LWDUEHLWHUQDQGLH9HUDQWZRUWOLFKHQKHUDQJHWUDJHQZLUG$XV V\VWHPWKHRUHWLVFKHU6LFKWLVWGLH3UREOHPHUNHQQWQLVJOHLFK]XVHW]HQPLWHLQHUJHIKOWHQ XQG RGHU WDWVlFKOLFK YRUKDQGHQHQ 6ROO,VW$EZHLFKXQJ 'LHVH EH]LHKW VLFK DXI HLQH RGHUPHKUHUH=LHOJU|HQGHV8QWHUQHKPHQV]%(UWUDJVXQG3URGXNW]LHO
9RUJHKHQVPRGHOOHIU,QQRYDWLRQHQXQG1XOO)HKOHU4XDOLWlW
Problemklärung Ist vs. Soll Ideenfindung
Methoden der Informationsverarbeitung • Methoden zur Analyse und Prognose z.B. SWOT-Analyse, Simulation, Szenariotechnik • Methoden zur Ideenfindung/ -systematisierung
Ideenauswahl Single Loop
nein Double Loop
nein
Lösungsumsetzung
Art der Kreativitätsförderung
Ideenauslösendes Prinzip Assoziation
Konfrontation
Intuition-verstärkende Methoden
Methoden der intuitiven Assoziation z.B. Brainstorming
Methoden der intuitiven Konfrontation z.B. Synektik
Systematischanalytische Methoden
Methoden der systematischen Assoziation z.B. Morpholog. Kasten
Methoden der systematischen Konfrontation z.B.TRIZ
Problem gelöst?
• Methoden zur Ideenbewertung/ -auswahl z.B. Paarweiser Vergleich, Nutzwertanalyse
ja Lösungsnutzung
Methoden der Informationsgewinnung
Informationssammlung
• Gewinnung von Sekundärinformationen z.B. Auswertung von Kundenbeschwerden
• Gewinnung von Primärinformationen z.B. Kundenbefragung, Fokusgruppenanalyse
Problem vorhanden? ja
Basis: Pleschak/ Sabisch 1996, S. 29
$EE,QQRYDWLRQVSUR]HVVDOVN\EHUQHWLVFKHU3UR]HVV
:lKUHQG GHU 1XW]XQJVGDXHU LVW GLHEffizienz der Lösung VWlQGLJ ]X EHUZDFKHQ XP$EZHLFKXQJHQYRP6ROO=LHO IUK]HLWLJ]XHUNHQQHQ=XGLHVHP=ZHFNVLQG NRQWLQXLHUOLFK ,QIRUPDWLRQHQ 'DWHQ ]X VDPPHOQ XQG LP +LQEOLFN DXI GLH EHVWH KHQGH 3UREOHPO|VXQJ DXV]XZHUWHQ :HUGHQ LQ GHU 3KDVH GHU ,QIRUPDWLRQVVDPP OXQJ 9HUlQGHUXQJHQ DXI GHU ,QSXW6HLWH ]% QHXH 7HFKQRORJLHQ XQG RGHU DXI GHU 2XWSXW6HLWH ]% QHXH .XQGHQDQIRUGHUXQJHQ IHVWJHVWHOOW EHJLQQW DXV QRUPDWLYHU 6LFKW HLQ QHXHU ,QQRYDWLRQVSUR]HVV GD VLFK GLH SUDNWL]LHUWH /|VXQJ JHJHQEHU GHP :HWWEHZHUE DOV LQHIIL]LHQW HUZHLVW XQG GDPLW HLQ QHXHV 3UREOHP YRUOLHJW GDV HV ]X O|VHQ JLOW 1DFK GHU 6\VWHPWKHRULH ZLUG ± LQ HLQHU ÄGRSSHOWHQ 6FKOHLIH³'RXEOH/RRS ±GDV6\VWHPDXIGHQ$XVJDQJV]XVWDQG]XUFNJHVHW]W 'DV(UJHEQLVYRQ,QQRYDWLRQVSUR]HVVHQVLQGQHXDUWLJH3UREOHPO|VXQJHQGLHL$ HLQJHZLVVHV0DDQ.UHDWLYLWlWHUIRUGHUQYJOXD+H\GHHWDO6
/DQJH=HLWJLQJPDQGDYRQDXVGDVVNUHDWLYH$NWHZLHHLQ*HLVWHV %OLW]EHUGLH3HU VRQ NRPPHQ XQG NHLQH ZHLWHUH (UNOlUXQJ HUODXEHQ (UVW (QGH GHV -DKUKXQGHUWV ZXUGHLP5DKPHQGHUQDWXUZLVVHQVFKDIWOLFKHQ3V\FKRORJLHPLWGHUV\VWHPDWLVFKHQ(U IRUVFKXQJ YRQ .UHDWLYLWlW EHJRQQHQ (LQ VLJQLILNDQWHU =XZDFKV DQ (UNHQQWQLVVHQ HU
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
1DFK6LPRQWRQ6II LVWKreativität HLQHDOOJHJHQZlUWLJH(UVFKHLQXQJ PHQVFKOLFKHU 1DWXU GLH GXUFK GHQ (LQVDW] JHHLJQHWHU 0HWKRGHQ7HFKQLNHQ WUDL QLHUW ZHUGHQ NDQQ +HXWH VLQG ZHLW EHU 7HFKQLNHQ EHNDQQW YJO +LJJLQV GLHGDVNUHDWLYH'HQNHQYRQ0HQVFKHQXQWHUVWW]HQ/HW]WJHQDQQWHVOlXIW± DXV WUDGLWLRQHOOHU SV\FKRORJLVFKHU 6LFKW ± LQ HLQHP SKDVLJHQ 3UR]HVV DE YJO )XQNH 6 I D 9RUEHUHLWXQJ E ,QNXEDWLRQ F (LQVLFKWG %HZHU WXQJXQGH $XVDUEHLWXQJ'LHVH3KDVHQILQGHQEHLGHU*HVWDOWXQJYRQ,QQRYDWL RQVSUR]HVVHQMHZHLOVLPSOL]LW %HUFNVLFKWLJXQJ ,Q $EE VLQG ZHVHQWOLFKH kreativitätsfördernde Methoden DXIJHIKUW ,KUH $QZHQGXQJNRQ]HQWULHUWVLFKLQGHQ3KDVHQ,GHHQILQGXQJXQGDXVZDKOGHV,QQR YDWLRQVSUR]HVVHV (LQH JHQHUHOOH .ODVVLIL]LHUXQJ LVW LQ GHU :HLVH P|JOLFK GDVV HQWVSUHFKHQG GHP LGHHQDXVO|VHQGHQ 3ULQ]LS DVVR]LDWLYH YRQ NRQIURQWDWLYHQ 9RU JHKHQVZHLVHQ XQWHUVFKLHGHQ ZHUGHQ %HL $VVR]LDWLRQHQ ZHUGHQ EHUHLWV EHNDQQWH /|VXQJHQDEJHZDQGHOWGLH0HWKRGHGHU.RQIURQWDWLRQEHUXKWDXIGHU*HJHQEHU VWHOOXQJ PLW DQGHUHQ 6DFKYHUKDOWHQ $OV JHQHULVFKHV 0HUNPDO YRQ .UHDWLYLWlWV WHFKQLNHQ LVW GLH $QZHQGXQJ YRQ KHXULVWLVFKHQ 3ULQ]LSLHQ KHUYRU]XKHEHQ LQVE $VVR]LDWLRQ$EVWUDNWLRQ9DULDWLRQ.RPELQDWLRQXQG6WUXNWXUELOGXQJ 1HEHQGHPLGHHQDXVO|VHQGHQ3ULQ]LSZLUGLP:HLWHUHQQDFKGHUArt der Kreativitätsförderung XQWHUVFKLHGHQ YJO *HVFKND 6 $OV *UXSSHQ N|QQHQ HLQHUVHLWV LQWXLWLYNUHDWLYH 0HWKRGHQ XQG DQGHUHUVHLWV V\VWHPDWLVFKDQDO\WLVFKH 0HWKRGHQ DXVJHPDFKW ZHUGHQ /HW]WJHQDQQWH ]HLFKQHQ VLFK LQVE GXUFK HLQH V\V WHPDWLVFKH3UREOHP]HUOHJXQJ]%)XQNWLRQHQDQDO\VHHLQV\VWHPDWLVFKHV2UGQHQ XQG *OLHGHUQ ]% 8QWHUWHLOXQJ LQ +DXSW XQG 1HEHQIXQNWLRQHQ VRZLH HLQH V\V WHPDWLVFKH .RPELQDWLRQ 9DULDWLRQ ]% 3URGXNWPRGXODULVLHUXQJ DXV 'HPJH JHQEHU XPIDVVHQ 0HWKRGHQ PLW HLQHP LQWXLWLYNUHDWLYHQ =XJDQJ ]XU 3UREOHPO| VXQJ LQ HUVWHU /LQLH ZHFKVHOVHLWLJH $VVR]LDWLRQHQ XQG VHPDQWLVFKH ,QWXLWLRQ DOV /|VXQJVSULQ]LSLHQ ,P:HLWHUHQEDVLHUHQVLHDXI$QDORJLHELOGXQJ9HUJOHLFKV]LH KXQJ VRZLH 6WUXNWXUEHUWUDJXQJ V\QWKHVH YJO 6FKOLFNVXSS 6 I $XI EHLGH $VSHNWH ZLUG LP =XVDPPHQKDQJ PLW GHU .RQ]HSWLRQ HLQHV HIIHNWLYHUHQ ')669RUJHKHQVPRGHOOVLQ.DSLWHO%H]XJJHQRPPHQ
IROJWHLQGHQHUXQGHU-DKUHQQDFKGHP:LVVHQVFKDIWOHUZLH*XLOIRUG IU PHKU.UHDWLYLWlWVIRUVFKXQJSOlGLHUWHQYJO)XQNH6 'LH ,QKDOWH XQG .RQ]HSWLRQ GHU HLQ]HOQHQ 0HWKRGHQ HUVFKOLHW VLFK RIWPDOV LQWXLWLY )U HLQH DXVIKUOLFKH 'DUVWHOOXQJ GHU 0HWKRGHQ ZLUG LQ GLH HLQVFKOlJLJH /LWHUDWXU YHUZLHVHQYJO6FKOLFNVXSS+RUQXQJ*HVFKNDE )UHLQHRSWLPDOH $QZHQGXQJGHU0HWKRGHQLVWHLQH*UXSSHQJU|HYRQELV3HUVRQHQYRU]XVHKHQ,Q GLHVHP8PIDQJIKUHQGLHHLQVFKOlJLJEHNDQQWHQ7HFKQLNHQ]XHLQHUPD[LPDOHQ9HU JU|HUXQJ GHV YHUIJEDUHQ :LVVHQV VRZLH ]X HLQHU JHJHQVHLWLJHQ $QUHJXQJ GHV *H GDQNHQDXVWDXVFKHVGHU*UXSSHQPLWJOLHGHUYJO3OHVFKDN6DELVFK6
9RUJHKHQVPRGHOOHIU,QQRYDWLRQHQXQG1XOO)HKOHU4XDOLWlW
3.2.3
Vorgehensmodelle zur kontinuierlichen Verbesserung
8P GLH 'LIIHUHQ] ]ZLVFKHQ JHJHQZlUWLJHP ,VW=XVWDQG XQG DQJHVWUHEWHP 6ROO =XVWDQG ]X EHUZLQGHQ YHUIROJHQ HLQH 5HLKH YRQ 8QWHUQHKPHQ GHQ :HJ GHU NRQWLQXLHUOLFKHQ 9HUEHVVHUXQJ $QDORJ ]XU GLVNRQWLQXLHUOLFKHQ 9HUEHVVHUXQJ LP 5DKPHQ YRQ ,0 ZHUGHQ 9RUJHKHQVPRGHOOH ]XU 8QWHUVWW]XQJ HLQJHVHW]W 6LH HQWVWDPPHQ JU|WHQWHLOV GHP 40 XQG ZXUGHQ LP /DXIH GHU =HLW LPPHU ZHLWHU YHUIHLQHUW =X QHQQHQ VLQG KLHU GHU 5HJHONUHLV QDFK ,62 VRZLH GHU 3'&$=\NOXVQDFK'HPLQJGLHEHLGHLP)ROJHQGHQDQJHVSURFKHQZHUGHQ (a) Regelkreis nach ISO 9001:2000 'LH 1RUP ',1 (1 ,62 II ZXUGH ]XU 9HUHLQKHLWOLFKXQJ GHU LQWHUQDWLRQDOHQ %HPKXQJHQ LP %HUHLFK GHV 4XDOLWlWVPDQDJHPHQWV JHVFKDIIHQ 6HLW GHU (UVWDXV JDEHLP-DKUHKDEHQ406\VWHPHGLHVLFKDQGLHVHU1RUPDXVULFKWHQHLQH IOlFKHQGHFNHQGH9HUEUHLWXQJZHOWZHLWJHIXQGHQ 'LH(LQIKUXQJHLQHUprozessorientierten Organisationsstruktur QDFK ',1 (1 ,62 IKUW LQVE EHL IXQNWLRQVRULHQWLHUW RUJDQLVLHUWHQ 8QWHUQHKPHQ ]X WLHIJUHLIHQGHQ 9HUlQGHUXQJHQ LQGHU$XIEDXXQG$EODXIRUJDQLVDWLRQYJO(EHO6II 9RP$QVDW]KHU ZHUGHQGLH7lWLJNHLWHQDQGHU:HUWVFK|SIXQJVNHWWHDXVJHULFKWHWXQG]XJDQ]KHLW OLFKHQ YRQ IXQNWLRQDOHQ $XIWHLOXQJHQ ORVJHO|VWHQ 3UR]HVVHQ JHEQGHOW 8P GLH 3UR]HVVH LP 8QWHUQHKPHQ V\VWHPDWLVFK ]X JHVWDOWHQ ZLUG ± JHQDX ZLH EHL 6L[ 6LJPD±YRQGHQ.XQGHQEHGUIQLVVHQDQIRUGHUXQJHQDXVJHJDQJHQ 1DFKGHU',1(1,62PVVHQ8QWHUQHKPHQQLFKWQXUHLQNRQVLVWHQWHV40 6\VWHP DXIEDXHQ XQG EHVFKUHLEHQ VRQGHUQ GLHVHV DXFK NRQWLQXLHUOLFK YHUEHV VHUQ 'DEHL LVW LQ HLQHP Zertifizierungsaudit DXVIKUOLFK GDU]XOHJHQ LQZLHZHLW GLH)RUGHUXQJHQGHU1RUPLPXQWHUQHKPHQVVSH]LILVFKHQ406\VWHPEHUFNVLFK WLJWXQGGDUEHUKLQDXVDXFKUHDOLVLHUWZRUGHQVLQG'LHVH)RUGHUXQJHQJOLHGHUQ
1DFKGHP,626859(< KDEHQIDVW8QWHUQHKPHQLQ'HXWVFKODQGHLQH,62 =HUWLIL]LHUXQJHLQH,6276=HUWLIL]LHUXQJXQGEHUHLQH,62 =HUWLIL]LHUXQJ 'LHVH =DKOHQ XQWHUOHJHQ GLH KRKH %HGHXWXQJ GHU ÄNODVVLVFKHQ³ =HUWLIL]LHUXQJHQ QDFK ,62 'DUEHU KLQDXV H[LVWLHUHQ ± LQ GHXWOLFK JHULQJHUHU $Q]DKO ± EUDQFKHQVSH]LILVFKH =HUWLIL]LHUXQJHQ ZLH ]% IU GLH $XWRPRELOLQGXVWULH 9'$ IU.UDQNHQKlXVHU.74 XQG:HLWHUELOGXQJVRUJDQLVDWLRQHQ 6RZRKO GLH ',1 (1 ,62 DOV DXFK GLH ',1 (1 ,62 VROOHQ ELV (QGH JUXQGOHJHQG EHUDUEHLWHW ZHUGHQ ,P 9RUGHUJUXQG VWHKHQ bQGHUXQJHQ GLH )HKOHU LQ GHUEHVWHKHQGHQ)DVVXQJEHVHLWLJHQXQGHLQ]HOQH$EVFKQLWWHSULQ]LSLHOOYHUEHVVHUQ'LH 5HYLVLRQGHU',1(1,62VROOLQHUVWHU/LQLH]XHLQHU+DUPRQLVLHUXQJPLW%HJULI IHQ DXV GHP 8PZHOWPDQDJHPHQW EHLWUDJHQ XQG HEHQIDOOV LP-DKUDEJHVFKORVVHQ VHLQYJO*UDHELJ6 1DFK GHU ([%D6SH]LDOVWXGLH Ä4XDOLWlWVPDQDJHPHQW LQ 'HXWVFKODQG³ EHVWHKW MHGRFK NHLQH ÄQHQQHQVZHUWH .RUUHODWLRQ ]ZLVFKHQ (UIROJ XQG =HUWLIL]LHUXQJVJUDG³ $XV GHQ %HIUDJXQJHQOlVVWVLFKQXUDEOHLWHQGDVVHUIROJUHLFKH8QWHUQHKPHQLQVWlUNHUHP0DH ,62 XQG JOHLFK]HLWLJ 8PZHOW]HUWLIL]LHUW VLQG VRZLH LQ NU]HUHQ =HLWUlXPHQ
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
VLFK ± DQDORJ ]X GHQ YLHU %DXVWHLQHQ GHV ,623UR]HVVPRGHOOV ± LQ GLH YLHU $E VFKQLWWH Ä9HUDQWZRUWXQJ GHU /HLWXQJ³ Ä0DQDJHPHQW GHU 0LWWHO³ Ä3URGXNWUHDOL VLHUXQJ³ XQG Ä0HVVXQJ $QDO\VH XQG 9HUEHVVHUXQJ³ 'LH GHWDLOOLHUWHQ %HVFKUHL EXQJHQ]XGHQHLQ]HOQHQ$EVFKQLWWHQVLQGGHURJ1RUP]XHQWQHKPHQ ,P5DKPHQGHVISO-ProzessmodellsZHUGHQGLH%HVWDQGWHLOHGHV406\VWHPVLQ HLQHQVWUXNWXUHOOHQ=XVDPPHQKDQJJHEUDFKW:LHLQ$EEGDUJHVWHOOWJHKWGHU äußere RegelkreisEHUGDVHLJHQH8QWHUQHKPHQKLQDXVXQGVFKOLHWGHQ.XQGHQ XQG DOOH ,QWHUHVVHQSDUWQHU 6WDNHKROGHU PLW HLQ GQQH JHVWULFKHOWH 3IHLOH 'DV 0DQDJHPHQW OHJW IHVW ZHOFKHU .XQGHQNUHLV PLW GHP (UJHEQLV GHU 3URGXNWUHDOL VLHUXQJEHGLHQWZHUGHQVROO'LHZHVHQWOLFKHQ9RUJDEHQIUGLHXQWHUQHKPHQVVSH ]LILVFKHQ .HUQ 3UR]HVVH HUJHEHQ VLFK GDEHL DXV GHQ $QIRUGHUXQJHQ GHU =LHO JUXSSHQ 6LHIOLHHQDOV(LQJDEHLQGHQ3URGXNWUHDOLVLHUXQJVSUR]HVVHLQ Ständige Verbesserung des Qualitätsmanagementsystems (KVP)
Verantwortung der Leitung
K U N D E N
A N F O R D E R U N G E N
Ressourcenmanagement
Eingabe = Input
Z U F R I E D E N H E I T
Messung, Analyse, Verbesserung
Produktrealisierung/ Prozessmanagement
Prozess
Ergebnis = Output
Quelle: Ebel 2002, S. 72
K U N D E N
Produkt
$EE0RGHOOGHU4XDOLWlWVUHJHOXQJQDFK',1(1,62
'LH *WH GHU (UIOOXQJ GHU VRJ NULWLVFKHQ 4XDOLWlWVPHUNPDOH EHVWLPPW LQ PD JHEOLFKHU:HLVHGLH=XIULHGHQKHLWGHU.XQGHQ/HW]WHUHZLUGYRQGHQ0HVV$QD O\VHSUR]HVVHQ GHV 406\VWHPV NRQWLQXLHUOLFK XQG V\VWHPDWLVFK HUIDVVW 'DGXUFK N|QQHQ QRWZHQGLJH .RUUHNWXUPDQDKPHQ ]XU 9HUEHVVHUXQJ GHU .XQGHQ]XIULH GHQKHLW XQG ]XU Erhöhung der Wirksamkeit des QM-Systems HUNDQQW ZHUGHQ 'XUFK GDV 0DQDJHPHQW ZHOFKHV UHJHOPlLJ EHU GLH (UJHEQLVVH LQ .HQQWQLV ]X
6HOEVWEHZHUWXQJHQ ]% QDFK GHP ()400RGHOO GXUFKIKUHQ =HUWLIL]LHUXQJHQ VLQG IROJOLFKQLFKWHUIROJVLQGX]LHUHQGYJO6RPPHUKRII.DHUNHV6
9RUJHKHQVPRGHOOHIU,QQRYDWLRQHQXQG1XOO)HKOHU4XDOLWlW
VHW]HQ LVW ZLUG EHL %HGDUI HLQ HUQHXWHU 'XUFKODXI GHV 5HJHONUHLVHV DQJHVWRHQ LQIROJHGHVVHQVLFKHLQHNRQWLQXLHUOLFKH9HUEHVVHUXQJHLQVWHOOW 1HEHQ GHP lXHUHQ 5HJHONUHLV H[LVWLHUW HLQ innerer Regelkreis GHU GHQ =XVDP PHQKDQJ GHU YRQ GHU 1RUPHQUHLKH JHZlKOWHQ 8QWHUWHLOXQJ GHU )RUGHUXQJHQ DQ 406\VWHPH V\PEROLVLHUW JUDXH GLFNH3IHLOH (VZLUGGDYRQDXVJHJDQJHQGDVV 0DQDJHPHQWSUR]HVVH XQWHU )|UGHUXQJ GHU LQWHUQHQ .RPPXQLNDWLRQ GDV JHVDPWH 6\VWHPVWHXHUQ'LH9HUDQWZRUWXQJGHU/HLWXQJEHVWHKWLQVEGDULQDOOHHUIRUGHU OLFKHQ 0LWWHO IU GHQ UHLEXQJVORVHQ $EODXI DOOHU .HUQSUR]HVVH ]XU 9HUIJXQJ ]X VWHOOHQ 'D]X JHK|UHQ XD DXVUHLFKHQG TXDOLIL]LHUWH XQG PRWLYLHUWH 0LWDUEHLWHU 3URGXNWLRQVPLWWHOXQGHLQHDQJHPHVVHQH$UEHLWVXPJHEXQJ 1XU GXUFK HLQ HIIHNWLYHV 5HVVRXUFHQPDQDJHPHQW NDQQ HLQ GHQ $QIRUGHUXQJHQ HQWVSUHFKHQGHU 2XWSXW UHDOLVLHUW ZHUGHQ 'D]X VLQGLP5DKPHQGHU3URGXNWUHDOL VLHUXQJDOOH7HLOSUR]HVVHGXUFKPHVVHQGHXQGEHUZDFKHQGH7lWLJNHLWHQ]XXQWHU VWW]HQ $XV GHU 'DWHQHUIDVVXQJ XQGDQDO\VHOHLWHQVLFKVRZRKO0DQDKPHQ]XU 9HUEHVVHUXQJGHUHLQ]HOQHQ7HLO 3UR]HVVHDEDOVDXFKYHUGLFKWHWH,QIRUPDWLRQHQ IUGDV0DQDJHPHQWXPDXIGLHVHU%DVLVGDV*HVDPWV\VWHP]XOHQNHQ,QGLHVHP =XVDPPHQKDQJLVWHLQWirkungsverbund zwischen der ISO-Normenreihe und dem Six Sigma-ProjektmanagementJUXQGVlW]OLFKVLQQYROOGDVLFKGLHEHLGHQ.RQ]HS WH HLQHUVHLWV KLQVLFKWOLFK LKUHU =LHOH XQG :LUNXQJHQ QLFKW JHJHQVHLWLJ DXVVFKOLH HQ $QGHUHUVHLWV VLQG VLH LQ LKUHU LQKDOWOLFKHQ $XVULFKWXQJ XQG (LQ]HOZLUNXQJ JU|WHQWHLOVXQWHUVFKLHGOLFKYJO0HVVHU7|SIHU6II Kritische Bewertung: 'DV0RGHOOGHU4XDOLWlWVUHJHOXQJQDFK',1(1,62 EH]LHKW VLFK DXI GLH JDQ]KHLWOLFKH 4XDOLWlWVVWHXHUXQJ YRQ LQ 8QWHUQHKPHQ 'LH HLQ]HOQHQ 3KDVHQ GHU 3UR]HVVYHUEHVVHUXQJ VLQG DXI GHU 0HWD(EHQH EHQDQQW VLHKH $EE XQG ZHUGHQ LP 5DKPHQ YRQ ,62'RNXPHQWDWLRQHQ LP 'HWDLO DXVJHIKUW 1LFKWVGHVWRWURW] ZLUG GHU (UIOOXQJVJUDG YRQ .ULWHULXP EHL JHVHKHQ VLHKH $EE GD ± ]% LP 9HUJOHLFK ]XP '0$,&=\NOXV ± DXI GHU %DVLVGHV9RUJHKHQVPRGHOOVNHLQHNRQNUHWHQ3URMHNWDNWLYLWlWHQ]XU6WHLJHUXQJGHU .XQGHQ]XIULHGHQKHLWLQLWLLHUXQGGXUFKIKUEDUVLQGbKQOLFKHVJLOWIUGDV.ULWH ULXP (UIOOXQJVJUDG YRQ HLQ VWUXNWXULHUWHU 0HWKRGHQHLQVDW] LVW QXU IU GLH3KDVHÄ0HVVXQJ$QDO\VHXQG9HUEHVVHUXQJ³LP$QVDW]YRUKDQGHQ'LH.RV WHQ1XW]HQ5HODWLRQIUGLH8PVHW]XQJGHUYLHOHQ )RUGHUXQJHQGHU',1(1,62 IlOOWKlXILJQHJDWLYDXVGLH:LUWVFKDIWOLFKNHLWGHV9RUJHKHQV.ULWHUL XP LVWHQWVSUHFKHQGJHULQJ*OHLFK]HLWLJYHU]HLFKQHQYLHOH8QWHUQHKPHQLQIRO JH GHU ,62=HUWLIL]LHUXQJ HIIL]LHQWHUH XQG TXDOLWDWLY EHVVHUH 3UR]HVVH ZDV ]X HLQHP(UIOOXQJVJUDGYRQEHL.ULWHULXPIKUW
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
(b) PDCA-Zyklus nach Deming 'LH Notwendigkeit eines Vorgehensmodells ]XU 'XUFKIKUXQJ YRQ 4XDOLWlWVYHU EHVVHUXQJVDNWLYLWlWHQLP8QWHUQHKPHQZXUGHYRQ(':$5' :'(0,1*6 II ZLH IROJW EHJUQGHW Ä,Q GHU )lOOH LQ GHQHQ .XQGHQDQIRUGHUXQJHQ nicht HUIOOW ZHUGHQ OLHJHQ GLH )HKOHUXUVDFKHQ LQ GHQ 3UR]HVVHQ XQG 6\VWHPHQ EHJUQGHW >@ XQG ZHQLJHU LQ GHQ 0LWDUEHLWHUQ VHOEVW 'LH 5ROOH GHV 0DQDJH PHQWVPXVVHVGDKHUVHLQGLH3UR]HVVH]XYHUlQGHUQ±DQVWDWWGHPHLQ]HOQHQ0LW DUEHLWHU]XXQWHUVWHOOHQVHLQH6DFKHQLFKWJXWJHQXJ]XPDFKHQ³ 2EZRKOGLHVH$XVVDJHODQJH=HLWEHNDQQWXQGDOOJHPHLQDN]HSWLHUWZDUEHJDQQ± ]XPLQGHVWLQ$PHULNDXQG(XURSD±GLHV\VWHPDWLVFKH$QDO\VHYRQ.XQGHQDQIRU GHUXQJHQ3UR]HVVDEOlXIHQXQG3UR]HVVTXDOLWlWHUVW(QGHGHUHU-DKUHPLWGHU (LQIKUXQJ GHV 0DQDJHPHQWNRQ]HSWV 6L[ 6LJPD 'DV .RQ]HSW GDV EHNDQQWOLFK DXI GDV 7HFKQRORJLHXQWHUQHKPHQ 0RWRUROD ]XUFNJHKW EHLQKDOWHWH XUVSUQJOLFK HLQHQ 9HUEHVVHUXQJV]\NOXV PLW YLHU 3KDVHQ QlPOLFK 0HDVXUH $QDO\VH ,PSURYH XQG &RQWURO 0$,& (UVW]XHLQHPVSlWHUHQ=HLWSXQNWZXUGHGLH 1RWZHQGLJNHLW HUNDQQW GLH 3URMHNWH NODU ]X GHILQLHUHQ XQG GLH HUUHLFKWHQ (UJHEQLVVH ZLUNXQJV YROO XQG QDFKKDOWLJ LQ GHU 2UJDQLVDWLRQ XP]XVHW]HQ ,%0 XQG DQGHUH 8QWHUQHK PHQ WUXJHQ GLHVHU $QIRUGHUXQJ PLW GHU (LQIKUXQJ GHU 'HILQH3KDVH ' 5HFK QXQJ]XP'0$,&=\NOXVLP'HWDLOVLHKH$EVFKQLWW 'DV9RUJHKHQLP5DKPHQYRQ740XQG.93EHUXKWDXIHLQHPDQHUNDQQWHQXQG ZHLW YHUEUHLWHWHQ 9RUJHKHQVPRGHOO GDV XQWHU GHP $NURQ\P PDCA EHNDQQW LVW $OV $QZHQGXQJV XQG (UNOlUXQJVPRGHOO LVW GHU =\NOXV YRQ ]HQWUDOHU %HGHXWXQJ IU GLH V\VWHPDWLVFKH 9HUEHVVHUXQJ YRQ *HVFKlIWVSUR]HVVHQ (LQH KHUDXVUDJHQGH %HGHXWXQJEHVLW]WHUYRUDOOHPIUGLH8QWHUQHKPHQGLHEHUHLQKRKHV3UR]HVV YHUVWlQGQLVYHUIJHQXQGVLFKGHU6WUDWHJLHGHU1XOO)HKOHU4XDOLWlWYHUVFKULHEHQ KDEHQZLH]%7R\RWD'LH=LHOHXQG,QKDOWHGHUHLQ]HOQHQPhasen des PDCAZyklusGHUDOOJHPHLQDOV9RUOlXIHUPRGHOOGHV6L[6LJPD'0$,&=\NOXVDQJHVH KHQZLUGVWHOOHQVLFKZLHIROJWGDUYJO=ROORQG]6I •
Plan-Phase: -HGHU =\NOXV EHJLQQW PLW GHU 3ODQXQJVSKDVH ,Q GLHVHU ZHUGHQ GLH3URMHNW]LHOHGHILQLHUWGHU3URMHNWUDKPHQDEJHVWHFNWXQGGLHQRWZHQGLJHQ 0DQDKPHQ ]XU /|VXQJ GHV 3UREOHPVIHVWJHOHJW8PJHHLJQHWH0DQDKPHQ EHVWLPPHQ ]X N|QQHQ VLQG 8UVDFKHQ:LUNXQJVNHWWHQ DXI]XVWHOOHQ XQG GLHV EH]JOLFK EHQ|WLJWH ,QIRUPDWLRQHQ 'DWHQ ]X VDPPHOQ 'LH $XVZHUWXQJ GHU 'DWHQHUP|JOLFKWGLH)HVWOHJXQJYRQ0DQDKPHQGLHGDV3UREOHPO|VHQXQG VRGHQ3UR]HVVLQVJHVDPWYHUEHVVHUQ
'HU 3'&$=\NOXV ZLUG XQPLWWHOEDU GHP 740$QVDW] ]XJHVFKULHEHQ XQG LVW YRP *UXQGVDW]KHUPLWGHP'0$,&=\NOXVGHV6L[6LJPD.RQ]HSWHVYHUJOHLFKEDU-HGRFK ]HLFKQHW VLFK OHW]WHUHV JHJHQEHU 740 GXUFK HLQH VWULQJHQWHUH 0HWKRGHQDQZHQGXQJ VRZLHHLQVWUDIIHUHV3URMHNWPDQDJHPHQWDXVYJO]%3\]GHNE6 ,P /DXIH GHU =HLW ZXUGH GHU 3'&$=\NOXV VXN]HVVLYH ZHLWHUHQWZLFNHOW XQG DXI YHU VFKLHGHQH :HLVH PRGLIL]LHUW 6R ZLUG ]% LQ HLQHU EHUDUEHLWHWHQ 9HUVLRQ HLQ ]XVlW] OLFKHUNOHLQHU 3'&$=\NOXVLQQHUKDOEGHU'R3KDVHGXUFKODXIHQ
9RUJHKHQVPRGHOOHIU,QQRYDWLRQHQXQG1XOO)HKOHU4XDOLWlW
•
Do-Phase:,QGHUIROJHQGHQ$XVIKUXQJVSKDVHZHUGHQGLHDEJHOHLWHWHQ0D QDKPHQ ]XQlFKVW LQ NOHLQHP 5DKPHQ E]Z LQ H[SHULPHQWHOOHU )RUP XPJH VHW]W XP (UIDKUXQJHQ ]X VDPPHOQ XQG HYHQWXHOO DXIWUHWHQGH 3UREOHPH EHL GHUVSlWHUHQ8PVHW]XQJ]XHUNHQQHQ'DV9RUJHKHQGLH(LQKDOWXQJGHV=HLW SODQVXQGGLH(UJHEQLVVHGHU'R3KDVHZHUGHQGRNXPHQWLHUW
•
Check-Phase: 'LH hEHUSUIXQJVSKDVH GLHQW GD]X GLH LQ GHU 'R3KDVH HU UHLFKWHQ(UJHEQLVVH]XEHZHUWHQXQGDQVFKOLHHQG]XNRQWUROOLHUHQ'DEHLHU IROJWHLQH5FNNRSSOXQJLQGLH3ODQXQJVSKDVHLQGHUGLH=LHOHGHV3URMHNWHV GHILQLHUWZRUGHQVLQG
•
Act-Phase: ,Q GLHVHU 3KDVH ZHUGHQ GLH LQ GHU 3ODQXQJVSKDVH DXIJHVWHOOWHQ 9HUlQGHUXQJVPDQDKPHQ DXI K|KHUHU(EHQHHLQJHIKUWGKLQGLHWlJOLFKHQ $EOlXIHXQG$NWLYLWlWHQLPSOHPHQWLHUW'DEHLVLQGDOOHDP3UR]HVVEHWHLOLJWHQ 3DUWHLHQ ]X LQYROYLHUHQ 6FKOLHOLFK LVW HLQH )HHGEDFN6FKOHLIH YRUJHVHKHQ XP ]X NOlUHQ ZLH DXVJHKHQG YRQ GHQ (UJHEQLVVHQ GHU &KHFN3KDVH GHU QlFKVWH=\NOXVJHSODQWZHUGHQNDQQ'DQDFKEHJLQQWGHU=\NOXVYRQYRUQ
Act
Plan
Check
Do
Basis: Deming 1986
en nahm Maß
Act
Plan
Check
Do
Zeit
$EE.RQWLQXLHUOLFKH9HUEHVVHUXQJPLWGHP3'&$=\NOXV
Verbesserungen
,Q $EE LVW GHU .RQWLQXLHUOLFKH 9HUEHVVHUXQJVSUR]HVV DXI GHU *UXQGODJH GHV 3'&$=\NOXVELOGOLFKYHUDQVFKDXOLFKW'LH8PGUHKXQJGHVPDCA-RadesDXIGHU VFKLHIHQ (EHQH QDFK REHQ V\PEROLVLHUW GHQ 'XUFKODXI JHQDX HLQHV =\NOXV -H ZHLWHU REHQ VLFK GDV 5DG EHILQGHW GHVWR K|KHU LVW GLH GHU]HLWLJH 3UR]HVVTXDOLWlW 'LH $QZHQGXQJ GLHVHU 6\VWHPDWLN EH]LHKW VLFK QLFKW QXU DXI GLH 8QWHUQHKPHQV *HVFKlIWVSUR]HVVHEHQH VRQGHUQ DXFK DXI GLH 3URMHNW $UEHLWVHEHQH 'HU JHVWUL FKHOWH .HLO DP REHUHQ 5DG LQ $EE V\PEROLVLHUW GLH QRWZHQGLJH 6WDELOLVLH UXQJGHVQHXHQ3UR]HVV4XDOLWlWVQLYHDXVLP$QVFKOXVVDQGLH$FW3KDVH
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
Kritische Bewertung: 'LH 3ODQ3KDVH GHV 3'&$=\NOXV EHLQKDOWHW QLFKW QXU GLH 3UREOHPEHVFKUHLEXQJ XQG =LHOGHILQLWLRQ VRQGHUQ DXFK GLH 'DWHQHUIDVVXQJ XQG 8UVDFKHQEHVWLPPXQJVRZLHGLH$EOHLWXQJYRQ0DQDKPHQPLWGHQHQGLHIRUPX OLHUWHQ =LHOVHW]XQJHQ HUUHLFKW ZHUGHQ N|QQHQ ,P 9HUJOHLFK ]XP'0$,&=\NOXV VLQG GLH $NWLYLWlWHQ GLH LP 5DKPHQ GHU 'HILQH 0HDVXUH XQG $QDO\VH3KDVH VHSDUDW GXUFKJHIKUW ZHUGHQ DOVR LQHLQHU3KDVHJHEQGHOW'HU(UIOOXQJVJUDG YRQ .ULWHULXP KLQVLFKWOLFK HLQHV HLQGHXWLJHQ 3KDVHQDEODXIV ZLUG GHVKDOE EHL JHVHKHQVLHKH$EE )UGHQ(LQVDW]YRQEHVWLPPWHQ400HWKRGHQLQ HLQ]HOQHQ 3KDVHQ GHV 3UREOHPO|VXQJV]\NOXV JLEW HV NHLQH IHVWHQ 9RUJDEHQ GLH %HZHUWXQJYRQ.ULWHULXP0HWKRGHQHLQVDW] OLHJWGDKHUEHL 'LH(UJHEQLVVHGHU$FW3KDVHZHUGHQXQPLWWHOEDUIUGLH3ODQXQJXQG8PVHW]XQJ ZHLWHUHU3'&$3URMHNWHYHUZHQGHW+LHUGXUFKZLUGHLQHNRQWLQXLHUOLFKH3UR]HVV YHUEHVVHUXQJLQ*DQJJHVHW]W:HUGHQHQWVSUHFKHQGYLHOH3URMHNWH]XHLQHP3URE OHPVFKZHUSXQNWE]ZWKHPDGXUFKJHIKUWGDQQZLUGQDFKXQGQDFKHLQHRSWLPD OH 3UR]HVVJHVWDOWXQJ PLW PLQLPDOHU 9HUVFKZHQGXQJ MDS 0XGD HUUHLFKW :LH 7R\RWD XQG DQGHUH 8QWHUQHKPHQ EHOHJHQ LVW GDV 9RUJHKHQ ± EHL NRQVHTXHQWHU $QZHQGXQJ±LP+LQEOLFNDXIGDV(UUHLFKHQYRQ1XOO)HKOHU4XDOLWlWVHKUHIIHN WLY$XVGLHVHP*UXQGZLUGGDV.ULWHULXPDOVYROOVWlQGLJHUIOOWDQJHVHKHQ'LH (IIL]LHQ] GHV 9RUJHKHQVPRGHOOV LVWQLFKWLQMHGHP)DOOJHJHEHQ'HQQGHU 1DFKWHLO GHVNRQWLQXLHUOLFKHQ9HUEHVVHUXQJVDQVDW]HVOLHJWP(GDULQGDVVHUQXU IU 3UR]HVVH P|JOLFK LVW GHUHQ $EOlXIH VLFK QLFKW NDXP lQGHUQ ZHLO HLQH 9HU EHVVHUXQJLPPHUQXUDXIGHQVHOEHQ$EODXIDQZHQGEDULVW ,P =XVDPPHQKDQJ PLW GHU 'DUVWHOOXQJ GHV 3'&$=\NOXV ZHUGHQ GLH ZHVHQWOL FKHQ Charakteristika von Qualitätsverbesserungssystemen 496 GHXWOLFK 'LHVH DUEHLWHQLG5PLW5FNNRSSOXQJHQ6FKOHLIHQEHLGHQHQGLHIROJHQGH6\VWHPDWLN ]XJUXQGH OLHJW 1DFKGHP GHU JHJHQZlUWLJH =XVWDQG GHV 6\VWHPV GHV 3UR]HVVHV HUPLWWHOW ZRUGHQ LVW ZHUGHQ DXI GHU %DVLV GLHVHU (UNHQQWQLVVH 9HUEHVVHUXQJHQ YRUJHVFKODJHQXQGGXUFKJHIKUW'HU=\NOXVVWDUWHWQDFKGHU,PSOHPHQWLHUXQJGHU 9HUEHVVHUXQJHQYRQQHXHPMHGRFKYRQHLQHUYHUlQGHUWHQ%DVLV'DV3ULQ]LSGHV VLFK VHOEVW UHJXOLHUHQGHQ 40 ZLUG LP IROJHQGHQ $EVFKQLWW HUOlXWHUW ,Q GLHVHP =XVDPPHQKDQJ HUIROJW HLQH V\VWHPWKHRUHWLVFKH (LQRUGQXQJ GHU ]ZHL 6L[ 6LJPD 3URMHNWPDQDJHPHQW]\NOHQ'0$,&XQG'0$'9 3.2.4
Qualitätsmanagement als selbstregulierender Prozess
4XDOLWlWVPDQDJHPHQW ELOGHW GLH *UXQGODJH IU HLQ ÄRUGQXQJVJHPlHV %HWULHEV PDQDJHPHQW³ YJO *XPSS :DOOLVFK 6 :LHHLQVROFKHV0DQDJHPHQW HUIROJUHLFKJHSODQWXQGXPJHVHW]WZLUGLVWLQGHUHLQVFKOlJLJHQ/LWHUDWXUQDFK]X OHVHQ YJO XD 7|SIHU 3IHLIHU .DPLVNH 0DVLQJ 1DFK
,P:HLWHUHQZLUGGHXWOLFKGDVVGLH,QKDOWHGHU'RXQG&KHFN3KDVHLPZHLWHVWHQ6LQ QH GHQHQ GHU ,PSURYH3KDVH HQWVSUHFKHQ DOVR /|VXQJHQ JHQHULHUHQ DXVZlKOHQ XQG LPSOHPHQWLHUHQ YJO $EVFKQLWW 'LH ,QKDOWH GHU $FW3KDVH GHFNHQ VLFK ZHLWHVW JHKHQGPLWGHQHQGHU&RQWURO3KDVHGHV'0$,&=\NOXV
9RUJHKHQVPRGHOOHIU,QQRYDWLRQHQXQG1XOO)HKOHU4XDOLWlW
',1 (1 ,62 XPIDVVW HLQ LQWHJULHUWHV 40.RQ]HSW ÄDOOH 7lWLJNHLWHQ GHU *HVDPWIKUXQJVDXIJDEH ZHOFKH 4XDOLWlWVSROLWLN =LHOH XQG 9HUDQWZRUWXQJHQ IHVWOHJHQ³ XQG GLHVH GXUFK 4XDOLWlWVVLFKHUXQJ OHQNXQJ SODQXQJ XQG YHUEHVVH UXQJDXFKYHUZLUNOLFKHQ'DEHLJHKWHV]XNQIWLJQLFKWPHKUQXUGDUXPGLH4XD OLWlWGHU3URGXNWHXQG3UR]HVVH]XVLFKHUQXQG]XSODQHQVRQGHUQHLQHSUDNWL]LHUWH 1XOO)HKOHU4XDOLWlW LQ DOOHQ :HUWVFK|SIXQJVEHUHLFKHQ GHV 8QWHUQHKPHQV ]X HUUHLFKHQ YJO 7|SIHU 6 +LHU]X ZHUGHQ LQ GHU 3UD[LV 5HJHONUHLVH LPSOHPHQWLHUW GLH HLQHJH]LHOWH3ODQXQJ6WHXHUXQJXQG.RQWUROOHGHV/HLVWXQJV HUVWHOOXQJVSUR]HVVHVHUP|JOLFKHQYJO3IHLIHU6II $XV SUR]HVVRULHQWLHUWHU 6LFKW NDQQ QM als kybernetischer (selbstregulierender) Prozess DXIJHIDVVW ZHUGHQ 'DEHL ZLUG ± JHQDX ZLH EHLP ,QQRYDWLRQVSUR]HVV ± GDV(UUHLFKHQGHUYRP8QWHUQHKPHQGHILQLHUWHQ4XDOLWlWV =LHOHGXUFKHLQHQVLFK VHOEVW VWHXHUQGHQ 5HJHONUHLV VLFKHUJHVWHOOW ,Q $QOHKQXQJ DQ WHFKQLVFKH 5HJHO NUHLVV\VWHPH ZHUGHQ LQ HLQHP NRQWLQXLHUOLFKHQ 3UR]HVV GLH GUHL 3KDVHQ Ä3OD QXQJ³ Ä8PVHW]XQJ³ XQG Ä.RQWUROOH³ GXUFKODXIHQ YJO *QWKHU 6 'LHV VHW]W HLQ LQVWUXPHQWHOOHV 9HUVWlQGQLV YRQ 4XDOLWlWVPDQDJHPHQW YRUDXV =LHO LVWHVGDV406\VWHPVR]XUHJHOQGDVVHLQHH[WHUQYRUJHJHEHQH6ROO*U|H]% /LHIHU]HLW HLQHV $XWRV VWHWV HLQJHKDOWHQ ZLUG 'D HV VLFK EHL 8QWHUQHKPHQ QLFKW XPUHLQWHFKQLVFKHVRQGHUQXPVR]LRWHFKQLVFKH6\VWHPHKDQGHOWZLUGHLQHNRQ WLQXLHUOLFKH 9HUEHVVHUXQJ XQG :HLWHUHQWZLFNOXQJ GHV *HVDPWV\VWHPV DQJHVWUHEW 8PGLHVHU$QIRUGHUXQJJHUHFKW]XZHUGHQLVWGHU6WDQGDUGSUR]HVVPLWGHQREHQ JHQDQQWHQGUHL3KDVHQXPGLH3KDVHÄ9HUEHVVHUXQJ³]XHUZHLWHUQ :LHLQ$EEQDFKYROO]LHKEDULVWZLUGGXUFKGLHVH(UZHLWHUXQJGDV*UXQGSULQ ]LS GHV 3'&$=\NOXV DQWL]LSLHUW YJO $EVFKQLWW $XI GLH .RQ]HSWLRQ XQG ,QKDOWH GHU YLHU 3KDVHQ ZLUG LP )ROJHQGHQ LP 'HWDLO HLQJHJDQJHQ $QDORJ ]XP VLFK VHOEVWUHJXOLHUHQGHQ ,QQRYDWLRQVSUR]HVV LQ $EVFKQLWW ELOGHQ VLH GHQ NRQ]HSWLRQHOOHQ5DKPHQIUGHQ0DVWHUSUR]HVVLP4XDOLWlWVPDQDJHPHQW (1) Planung $XVQRUPDWLYHU6LFKWELOGHQGLHwesentlichen Anforderungen der Kunden&&5± &ULWLFDOWR&XVWRPHU5HTXLUHPHQWV GHQ$XVJDQJVSXQNWIUGHQGDUJHVWHOOWHQ40 5HJHONUHLV ,P 6LQQH GHU .\EHUQHWLN LVW GLH YROOVWlQGLJH (UIOOXQJ DOOHU &&5V
5HJHONUHLVH VLQG N\EHUQHWLVFKH 0RGHOOH GLH GD]X EHVWLPPW VLQG DXVJHZlKOWH .HQQ JU|HQ HQJO .H\ 3HUIRUPDQFH ,QGLFDWRUV .3,V DXI YRUJHJHEHQHQ 6ROO:HUWHQ ]X KDOWHQ 'DEHL ZLUG GDYRQ DXVJHJDQJHQ GDVV GDV 0RGHOO GHU 5HJHOXQJVWHFKQLN QDFK ',1SULQ]LSLHOODXIGDV406\VWHPEHUWUDJEDULVW8PJH]LHOWH(LQJULIIHLQGHQ 3UR]HVV 5HJHOVWUHFNH DE]XOHLWHQ ZLUG UHJHOPlLJ GLH 'LIIHUHQ] ]ZLVFKHQ ,VW XQG 6ROO:HUWEHVWLPPW$XIGLHVHU%DVLVZHUGHQ±EHL%HGDUI]%7ROHUDQ]EHUVFKUHLWXQJ ±bQGHUXQJHQDQGHQ6WHOOJU|HQYRUJHQRPPHQ .\EHUQHWLNEH]HLFKQHWGLH:LVVHQVFKDIWGHU6WHXHUXQJ5HJHOXQJXQG1DFKULFKWHQEHU WUDJXQJ6LHZXUGHGXUFK125%(57 :,(1(5EHJUQGHW=LHOLVWHVGDV9HUKDOWHQ YRQ WHFKQLVFKHQ VR]LRWHFKQLVFKHQ XQG ELRORJLVFKHQ 6\VWHPHQ ]X DQDO\VLHUHQ ]X
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
GLH 6WHOOJU|H IU GHQ JHVDPWHQ /HLVWXQJVHUVWHOOXQJVSUR]HVV 'LHVH VWUDWHJLVFKH =LHOYRUJDEH ZLUG GXUFK HLQH XQWHUQHKPHQVZHLWH 4XDOLWlWVRIIHQVLYH ]% 6L[ 6LJ PD XQWHUPDXHUW ,Q GHU 3URGXNWSODQXQJ ZHUGHQ DXV GHU Ä6WLPPH GHV .XQGHQ³ 92& ±9RLFHRIWKH&XVWRPHU LQGHUGLH&&5VLPSOL]LWHQWKDOWHQVLQGGLHIU GHQ 8QWHUQHKPHQVHUIROJ UHOHYDQWHQ E]Z NULWLVFKHQ 3URGXNWPHUNPDOH &74 ± &ULWLFDOWR4XDOLW\&KDUDFWHULVWLFV DEJHOHLWHW6RZRKOIUGLH3URGXNWSODQXQJDOV DXFK GLH XQPLWWHOEDU GDUDXI DXIEDXHQGH 3UR]HVVSODQXQJ ELHWHW VLFK GLH 0HWKRGH GHV 4XDOLW\ )XQFWLRQ 'HSOR\PHQW 4)' DQ 'LHVH ZLUG LP =XVDPPHQKDQJ PLW GHQ$XVIKUXQJHQ]XP'0$'9=\NOXVLQ$EVFKQLWWHUOlXWHUW 1HEHQ GHQ &74V VLQG LQ HLQHU JHJHQOlXILJ JHULFKWHWHQ $QDO\VH GLH wesentlichen Anforderungen des Unternehmens&%5V±&ULWLFDOWR%XVLQHVV5HTXLUHPHQWV EHL GHU 3UR]HVVSODQXQJ ]X EHUFNVLFKWLJHQ YJO ,VODP 6 'LH NULWLVFKHQ 3UR]HVVPHUNPDOH &73V ± &ULWLFDO WR 3URFHVV &KDUDFWHULVWLFV ZHUGHQ DXV GHU Ä6WLPPHGHV8QWHUQHKPHQV³92%±9RLFHRIWKH%XVLQHVV JHZRQQHQ'LH2XW SXW,QGLNDWRUHQ &74V XQG &73V VWLPPHQ JHQDX GDQQ EHUHLQ ZHQQ GDV 8QWHU QHKPHQHLQHKRKH.XQGHQXQG3UR]HVVRULHQWLHUXQJEHVLW]W,QGLHVHP)DOOVWHKHQ 0DUNWXQG5HVVRXUFHQRULHQWLHUXQJLQHLQHPDXVJHZRJHQHQ9HUKlOWQLVYJO7|S IHU D 6 I %HL HLQHP SULPlU PDUNWRULHQWLHUWHQ $QVDW]ZHUGHQ GLH &73V YRQGHQ&74VGRPLQLHUWGKGLHXQWHUQHKPHQVEH]RJHQHQ$QIRUGHUXQJHQVWHKHQ EHLGHU3ODQXQJGHU:HUWVFK|SIXQJVSUR]HVVHLP+LQWHUJUXQG,PDQGHUHQ)DOOEHL HLQHPUHVVRXUFHQRULHQWLHUWHQ$QVDW]VLQGGLH&73VGLHHQWVFKHLGHQGHQ0HVVXQG 6WHXHUXQJVJU|HQ]%'XUFKODXI]HLWLQGHU0RQWDJH 'LH (UIOOXQJ GHU &74V ELOGHW DXV PDUNWRULHQWLHUWHU 6LFKW GLH *UXQGODJH IU GHQ 8QWHUQHKPHQVHUIROJ 'DEHL ZLUG GHU =XVDPPHQKDQJ ]ZLVFKHQ GHU(UIOOXQJYRQ .XQGHQDQIRUGHUXQJHQ XQG GHP ILQDQ]LHOOHQ (UIROJ YRQ 8QWHUQHKPHQ L$ EHU GDVK\SRWKHWLVFKHKonstrukt der KundenzufriedenheitKHUJHVWHOOW'DV.RQVWUXNW JHK|UW ]X GHQ EHGHXWHQGVWHQ XQWHUQHKPHULVFKHQ =LHOJU|HQ XQG JLOW QLFKW QXU LP 4XDOLWlWVPDQDJHPHQWDOV6FKOVVHOIDNWRUIUGHQ8QWHUQHKPHQVHUIROJYJO7|SIHU 6II%UXKQ+RPEXUJ6 6RLVWHLQHKRKH.XQGHQ]XIULHGHQ KHLW DXV KHXWLJHU 6LFKW GLH %DVLV IU HLQH ODQJIULVWLJH .XQGHQELQGXQJ DXV GHU ± PLWWHOEDU RGHU XQPLWWHOEDU ± SRVLWLYH |NRQRPLVFKH :LUNXQJHQ UHVXOWLHUHQ ]% 8PVDW]XQG*HZLQQVWHLJHUXQJHQGXUFK&URVV6HOOLQJ$NWLYLWlWHQ PRGHOOLHUHQ XQG ]X SURJQRVWL]LHUHQ *UXQGODJH GHU :LVVHQVFKDIW ELOGHQ YHUVFKLHGHQH 7KHRULHQ]%6\VWHPXQG5HJHOXQJVWKHRULHYJO.HVWOHU6 ,Q GHU SUDNWLVFKHQ 6L[ 6LJPD3URMHNWDUEHLW ZLUG KlXILJ QLFKW H[SOL]LW ]ZLVFKHQ &&5V XQG &74V XQWHUVFKLHGHQ ,P 0LWWHOSXQNW VWHKW KLHU GLH $QDO\VH GHU &74V JHPl GHU 3KLORVRSKLHÄ$OOHVZDVGHP.XQGHQZLFKWLJLVWLVWTXDOLWlWVUHOHYDQW³ 'LH $XIPHUNVDPNHLW GLH GHP 7KHPD Ä.XQGHQ]XIULHGHQKHLW³ XQG VHLQHU .RQ]HSWXDOL VLHUXQJJHZLGPHWZLUGLVWQDFKZLHYRUJUR'LHVOlVVWVLFKXDDQGHU9LHO]DKOYRQ ZLVVHQVFKDIWOLFKHQ $XIVlW]HQ HUNHQQHQ YJO .UDIIW 6 I *OHLFK]HLWLJ EH NHQQHQ VLFK LQ GHU 3UD[LV LPPHU PHKU 8QWHUQHKPHQ ]X ÄXQHLQJHVFKUlQNWHU .XQGHQ RULHQWLHUXQJ³XPGHQ]XNQIWLJHQ0DUNWHUIROJVLFKHU]XVWHOOHQ
9RUJHKHQVPRGHOOHIU,QQRYDWLRQHQXQG1XOO)HKOHU4XDOLWlW
6HLW(QGHGHUHU-DKUHZLUGLQGHU%HWULHEVZLUWVFKDIWVOHKUHXPGDVNRQ]HSWL RQHOOH9HUVWlQGQLVYRQ.XQGHQ]XIULHGHQKHLWXQGELQGXQJJHUXQJHQ(VH[LVWLHUHQ GHVKDOE HLQH 5HLKH YRQ ]7 NRQNXUULHUHQGHQ (UNOlUXQJVNRQ]HSWHQ $XI DEVWUDN WHP1LYHDXKDQGHOWHVVLFKEHL.XQGHQ]XIULHGHQKHLW±DOV9RUDXVVHW]XQJIU.XQ GHQELQGXQJ±XPGDV(UJHEQLVHLQHUH[SRVW%HXUWHLOXQJGHV.XQGHQZHOFKHDXI ]XYRU JHZRQQHQHQ (UIDKUXQJHQ EHUXKW 'K HV ZLUG HLQ YRUKHULJHV NRQNUHW HU IDKUHQHV .RQVXPHUOHEQLV YRUDXVJHVHW]W (LQLJNHLW EHVWHKW LQVRZHLW GDULQ GDVV =XIULHGHQKHLW DXV HLQHP LQGLYLGXHOOHQ 9HUJOHLFK YRQ 6ROO XQG ,VW:HUWHQ KHU YRUJHKWYJO+DQVHQ(PPHULFK6 1 Planung (Plan)
4 Verbesserung (Act)
Wesentliche Kundenanforderungen
Qualitätsplanung Definition der CTQs
2 Umsetzung (Do) Einsatz = Input Messfehler
Steuergrößen im Prozess
Produktrealisierung/ Prozessmanagement
Ergebnis
Prozess
= Output Messfehler
Interne/ externe Störgrößen
3 Kontrolle (Check)
Effizienz Output-InputVergleich
- Intern -
Single Loop
Wertsteigernde Leistung
Wertneutrale Wertmindernde Leistung Leistung
Output > Input
Output = Input Output < Input
Wertschöpfung
ProzessVerbesserung - DMAIC -
Feedforward
Wertvernichtung
Feedback an 2
Erwartetes Ergebnis = Soll-Leistung
- Extern -
Wahrgenommenes Ergebnis = Ist-Leistung
Effektivität Soll-IstVergleich
Positive Disconfirmation Confirmation Ist = Soll Ist > Soll Zufriedenheit
ProduktVerbesserung - DMADV Double Loop
Negative Disconfirmation Ist < Soll Unzufriedenheit
Feedforward
Feedback an 1 Quelle: Eigene Darstellung
$EE4XDOLWlWVPDQDJHPHQWDOVN\EHUQHWLVFKHU3UR]HVV
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
(LQH TXDOLWDWLYH $XVVDJH ZLH GHU Erfüllungsgrad von Kundenanforderungen DXI GLH+|KHGHU.XQGHQ]XIULHGHQKHLWZLUNWLVWPLWKLOIHGHV.DQR0RGHOOVGHU.XQ GHQ]XIULHGHQKHLW P|JOLFK YJO %HUJHU HW DO 6 II (V VWHOOW HLQH GLUHNWH 9HUELQGXQJ ]ZLVFKHQ .XQGHQDQIRUGHUXQJHQ XQG .XQGHQ]XIULHGHQKHLW KHU XQG GLIIHUHQ]LHUW GDEHL ]ZLVFKHQ GUHL $UWHQ YRQ $QIRUGHUXQJHQ GLH YRQ HLQHP 3UR GXNWHLQHU'LHQVWOHLVWXQJHUIOOWZHUGHQPVVHQ •
Basisanforderungen: VWHOOHQ HLQH $UW Ä.R.ULWHULXP³ IU GDV HLJHQH 3UR GXNWGLHHLJHQH'LHQVWOHLVWXQJGDU:HQQVLHQLFKWRGHUQXUXQ]XUHLFKHQGHU IOOWVLQGlXHUWVLFKGLHVLQHLQHUKRKHQ8Q]XIULHGHQKHLWGHV.XQGHQ
•
Leistungsanforderungen: IKUHQ EHL (UK|KXQJ ]X HLQHP SURSRUWLRQDOHQ $Q VWLHJGHU.XQGHQ]XIULHGHQKHLWGKHLQHEHVVHUH(UIOOXQJGLHVHU$QIRUGHUXQ JHQVWHLJHUW±LQOLQHDUHU$EKlQJLJNHLW±GLH.XQGHQ]XIULHGHQKHLW
•
Begeisterungsanforderungen:ZHUGHQYRP.XQGHQZHGHUHUZDUWHWQRFKVLQG VLH YRQ LKP H[SOL]LW IRUPXOLHUW 0LW ]XQHKPHQGHU (UIOOXQJ GHU$QIRUGHUXQ JHQVWHLJWGDV1LYHDXGHU.XQGHQ]XIULHGHQKHLWH[SRQHQWLHOODQ
/HJHQ ZLU GDV .DQR0RGHOO GHU .XQGHQ]XIULHGHQKHLW EHL GHU ZHLWHUHQ %HWUDFK WXQJ ]XJUXQGH GDQQ HUJHEHQ VLFK KLHUDXV HLQH 5HLKH YRQ Konsequenzen für die Spezifikation von (neuen) Produkten/ Dienstleistungen GXUFK HLQ 8QWHUQHKPHQ YJO6DXHUZHLQHWDO6I =XQHQQHQVLQGXDD 9HUVWHKHQ.ODVVLIL ]LHUHQ GHU 3URGXNWDQIRUGHUXQJHQ E )HVWOHJHQ YRQ 3ULRULWlWHQ LQ GHU (QWZLFN OXQJ F .RPELQDWLRQ PLW 4)' XP ]% GLH .XQGHQDQIRUGHUXQJHQ LP +RXVH RI 4XDOLW\ +R4 EHVVHU ]X JHZLFKWHQ G 8PJHKHQ PLW 7UDGHRII6LWXDWLRQHQ ZHQQ ]% WHFKQLVFKH .RQIOLNWH ]ZLVFKHQ ]ZHL RGHU PHKU 3DUDPHWHUQ LP +R4 DXIWUHWHQ H 6HJPHQWLHUHQ YRQ .XQGHQ =LHOJUXSSHQ XQG I *HQHULHUHQ YRQ :HWWEHZHUEVYRUWHLOHQ LQGHP VLFK GLH (QWZLFNOXQJ ]% DXI GLH (UIOOXQJ YRQ /HLVWXQJVXQG%HJHLVWHUXQJVDQIRUGHUXQJHQNRQ]HQWULHUW (2) Umsetzung -HGHV 3URGXNW GDV YRQ HLQHP ,QGLYLGXXP RGHU HLQHU 2UJDQLVDWLRQ NRQVXPLHUW ZLUG LVW GDV (UJHEQLV HLQHU :HUWVFK|SIXQJV 9HUVRUJXQJVNHWWH YJO 7|SIHU D63RUWHU6 'LHVHNDQQVLFKDOV6HULHPHKUHUHU]XVDPPHQ KlQJHQGHU *HVFKlIWVSUR]HVVH EHU PHKUHUH 8QWHUQHKPHQ HUVWUHFNHQ /HW]WHUH VWHKHQ DOV 2EHUEHJULII IU DOOH ZLUWVFKDIWOLFKHQ XQG WHFKQLVFKHQ 3UR]HVVH GLH KLHUDUFKLVFKH2UGQXQJELOGHQ+DXSWSUR]HVVH7HLOSUR]HVVHXQG7lWLJNHLWHQ$NWL YLWlWHQ YJO /LQJVFKHLG 6 :lKUHQG LQ GHU 9HUJDQJHQKHLW YRU DOOHP GLH,GHQWLIL]LHUXQJYRQ3UR]HVVHQ3URFHVV0DSSLQJ LP9RUGHUJUXQGVWDQGNRQ ]HQWULHUHQ VLFK IRUWVFKULWWOLFKH 8QWHUQHKPHQ PLW HLQHP 4XDOLWlWVDQVSUXFK YRQ σ XQGK|KHUDXIGLHAnalyse und Verbesserung ihrer Prozesse'DEHLLVWHLQ3UR]HVV HLQH $NWLYLWlW RGHU HLQH 5HLKH YRQ $NWLYLWlWHQGLHIUHLQHQEHVWLPPWHQ.XQGHQ DXIZLHGHUKROEDUH:HLVH(LQVDW]IDNWRUHQ]X3URGXNWHQYHUZDQGHOW $XVGLHVHU'HILQLWLRQIROJWXQPLWWHOEDUGHUVWDWLVWLVFKH$QVDW]YRQ6L[6LJPDYJO $EVFKQLWW 'DQDFKLVWHLQ3UR]HVVLPPHULP+LQEOLFNDXIGLH/DJH0LWWHO
9RUJHKHQVPRGHOOHIU,QQRYDWLRQHQXQG1XOO)HKOHU4XDOLWlW
ZHUW XQG6WUHXXQJ9DULDQ] VHLQHU3UR]HVVPHUNPDOH&73V ]XXQWHUVXFKHQXQG JJI]XYHUEHVVHUQ'HUOutput von ProzessenVLQG3URGXNWHXQWHUGLH±QDFKGHP JHQHULVFKHQ 3URGXNWEHJULII ± GHU JHVDPWH GHP .XQGHQYRP8QWHUQHKPHQDQJH ERWHQH 1XW]HQ LQ )RUP YRQ 'LHQVW XQG RGHU 6DFKOHLVWXQJHQ VXEVXPLHUW ZLUG 'HU3URGXNWQXW]HQLVWXPVRK|KHUMHVWlUNHUGLHDXVGHQ(LJHQVFKDIWHQGHV3UR GXNWHV UHVXOWLHUHQGH %HGUIQLVEHIULHGLJXQJ GHV .XQGHQ LVW YJO .RWOHU %OLHPHO 6 (LQVDW] ,QSXWIDNWRUHQ VLQG LP *UXQGH JHQRPPHQ DOOH )DNWRUHQ E]Z *U|HQ GLH ]XU 3URGXNWUHDOLVLHUXQJ EHLWUDJHQ LQVE $UEHLW 0DWHULDO 0D VFKLQHQXQG,QIRUPDWLRQHQ,P+LQEOLFNDXILKUH3ODQXQG6WHXHUEDUNHLWOlVVWVLFK IROJHQGH8QWHUVFKHLGXQJWUHIIHQYJO0DJQXVVRQHWDO6 •
Steuergrößen N|QQHQ SK\VLVFK JHVWHXHUW GK DXI HLQHQ EHVWLPPWHQ :HUW HLQJHVWHOOWXQGJHKDOWHQZHUGHQ6LJQDO 'LH(LQVWHOOXQJGHU6WHXHUJU|HQLVW VRYRU]XQHKPHQGDVVGDV5DXVFKHQPLQLPLHUWZLUG
•
Störgrößen VLQG KLQJHJHQ XQNRQWUROOLHUEDU XQGIROJOLFKDXFKQLFKWVWHXHUEDU VLH YHUXUVDFKHQ GDV *UXQGUDXVFKHQ LP 3UR]HVV 1RLVH XQG VROOWHQ LP 5DK PHQYRQ3UR]HVVRSWLPLHUXQJHQP|JOLFKVWDXVJHVFKDOWHQZHUGHQ
*UXQGODJHIU3UR]HVVYHUEHVVHUXQJHQLVWGDV0HVVHQXQGAnalysieren von funktionellen ZusammenhängenGHU)RUP\ I[ HZREHL\GLH(UJHEQLVYDULDEOHQ 0HUNPDO HLQHV 3UR]HVVHV RGHU 3URGXNWHV [ GLH 6WHXHUJU|HQ XQG H GLH 6W|U JU|HQ VLQG %HL PHKUHUHQ [ JLOW HV ]XQlFKVW GLH 6WHXHUJU|HQ ]X ILQGHQ GLH VLJQLILNDQW VLQG XQG ]X YHUEHVVHUWHQ :HUWHQ GHU (UJHEQLVYDULDEOH \ IKUHQ 'LH $Q]DKO YRQ (LQIOXVVIDNWRUHQ GHUHQ RSWLPDOH :HUWH ]X EHVWLPPHQ VLQG LVW LG5 VHKU JUR =XGHP LVW LKU (LQIOXVV DXI GLH 3URGXNW 3UR]HVVTXDOLWlW KlXILJ QLFKW OLQHDU ZDV GLH 2IIHQOHJXQJ GHU IXQNWLRQHOOHQ =XVDPPHQKlQJH HUVFKZHUW 'DU EHU KLQDXV ZLUNHQ GLH 3DUDPHWHU PHLVW QLFKW XQDEKlQJLJ YRQHLQDQGHU GK VLH EHILQGHQVLFKLQHLQHP=XVWDQGJHJHQVHLWLJHU:HFKVHOZLUNXQJ )U HLQH *HVDPWEHZHUWXQJ GHU $XVZLUNXQJHQ DOOHU 3DUDPHWHU 3DUDPHWHUNRPEL QDWLRQHQ DXI GLH 3URGXNW 3UR]HVVSHUIRUPDQFH ZLUG KlXILJ DXI GDV ,QVWUXPHQW 'HVLJQ RI ([SHULPHQWV '2( ]XUFNJHJULIIHQ YJO XD 7|SIHU *QWKHU E 6II%UH\IRJOH6II 'LH$QZHQGXQJYRQ'2(]XU9HUULQJHUXQJ GHU3UR]HVVVWUHXXQJJHKWLQHUVWHU/LQLHDXI7DJXFKL ]XUFN'LHVHVEH]LHKW VLFK VRZRKO DXI GDV 3URGXNW DOV DXFK GDV 3UR]HVVGHVLJQ PLWGHQIROJHQGHQGUHL DXIHLQDQGHU DXIEDXHQGHQ 6WXIHQ D 6\VWHPGHVLJQ E 3DUDPHWHUGHVLJQ XQG F 7ROHUDQ]GHVLJQ ,P $OOJHPHLQHQ KDW GDV Parameterdesign GHQ JU|WHQ (LQIOXVV DXI GLH 9HUEHVVHUXQJ GHU 3URGXNW XQG 3UR]HVVTXDOLWlW ,P 5DKPHQ YRQ 6L[6LJ PD3URMHNWHQ ZLUG GHPHQWVSUHFKHQG YHUVXFKW HLQ RSWLPDOHV 1LYHDX IU GLH NRQ WUROOLHUEDUHQ3UR]HVVSDUDPHWHULQGHU3URGXNWLRQ]XEHVWLPPHQ $XIJUXQGGHU9DULDWLRQGHU(LQVDW]IDNWRUHQNRPPWHVEHLZLHGHUKROWHU'XUFKIK UXQJYRQ3UR]HVVHQ]XU9DULDWLRQLP(UJHEQLVE]Z2XWSXW,Q$QOHKQXQJDQGLH 1DFKULFKWHQWHFKQLNEHVWHKWGLH$QIRUGHUXQJGDULQGDV9HUKlOWQLVYRQ6LJQDO6 ]X 5DXVFKOHLVWXQJ 1 ]X PD[LPLHUHQ 'HU S/N-Wert LVW GDEHL HLQ 0D IU GLH 5REXVWKHLWGHV3UR]HVVHVXQGOlVVWVLFKDOVGDV9HUKlOWQLVYRP(IIHNWGHVHUZQ
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
VFKWHQ(UJHEQLVVHV 6LJQDO ]XP(IIHNWGHVXQHUZQVFKWHQ(UJHEQLVVHV 5DX VFKHQ HUNOlUHQ-HJU|HUGHU:HUWLVWGHVWRXQHPSILQGOLFKHUE]ZUREXVWHULVW GDV 6\VWHP GHU 3UR]HVV JHJHQEHU HLQHU 6W|UJU|H 'LH hEHUVHW]XQJ LQ VWDWLVWL VFKH 0D]DKOHQ HUIROJW LQ GHU :HLVH GDVV GLH 6LJQDOOHLVWXQJ DXI GHQ 0LWWHOZHUW ]XUFNJHIKUW ZLUG GD HU GHQ =LHOZHUW XQG GDPLW GDV HUZQVFKWH (UJHEQLV HLQHV 3UR]HVVHV GDUVWHOOHQ VROO +LQJHJHQ LVW GLH 6WUHXXQJ GHU 0HUNPDOVZHUWH XP GHQ GHILQLHUWHQ0LWWHOZHUWXQHUZQVFKWXQGZLUGGHPHQWVSUHFKHQGDOV5DXVFKHIIHNW ZHOFKHUGXUFK6W|UJU|HQKHUYRUJHUXIHQZLUGLQWHUSUHWLHUW *HQHUHOO LVW ]X EHGHQNHQ GDVV GLH JHPHVVHQHQ :HUWH IU ,QSXW 3UR]HVV XQG 2XWSXWPHUNPDOHLPPHUYDULLHUHQ$XIJUXQGGHVREHQDQJHVSURFKHQHQ3KlQRPHQV GHU 3UR]HVVYDULDWLRQ LVW HV XQP|JOLFK EHL ZLHGHUKROWHP 3UR]HVVGXUFKODXI ]ZHL RGHUPHKULGHQWLVFKH3URGXNWH]XHUKDOWHQ-HQDFKGHPZLHJHQDXGDV0HVVV\V WHP HLQJHVWHOOW LVW NDQQ GLH 9DULDWLRQ DP 3UR]HVVRXWSXW VLFKWEDU JHPDFKW XQG PLWKLOIH YRQ JHHLJQHWHQ 9HUWHLOXQJHQ VWDWLVWLVFK DQDO\VLHUW ZHUGHQ 'DEHL JLEW HV HLQH9LHO]DKOYRQ8UVDFKHQGLHIUGLH9DULDWLRQGHU0HUNPDOHLQIUDJHNRPPHQ %HL QRUPDOYHUWHLOWHQ 9DULDEOHQ XQWHUVFKHLGHW PDQ ]ZLVFKHQ GHQ IROJHQGHQ ]ZHL 8UVDFKHQNODVVHQYJO0DJQXVVRQHWDO6 •
Allgemeine Ursachen IKUHQ ]X 9DULDWLRQ GLH LQ MHGHP 3UR]HVV ÄQDWXUJHJH EHQ³ ]X ILQGHQ LVW XQG VLFK QXU GXUFK WLHIJUHLIHQGH 3UR]HVV XQG RGHU 3UR GXNWGHVLJQlQGHUXQJHQEHVHLWLJHQOlVVW8PGLHVH$UWGHU9DULDWLRQ]XNQIWLJ ]X YHUPHLGHQ PVVHQ bQGHUXQJHQ DP JHVDPWHQ 6\VWHP ]% LQ )RUP YRQ '0$'93URMHNWHQYRUJHQRPPHQZHUGHQ'RXEOH/RRS
•
Spezielle Ursachen IKUHQ KLQJHJHQ ]X 9DULDWLRQ GLH LQ ]HLWOLFKHU +LQVLFKW XQYRUKHUVHKEDU XQG LP +LQEOLFN DXI LKUH :LUNXQJ UHODWLY JUR LVW 'D]X JH K|UHQ ]% 4XDOLWlWVXQWHUVFKLHGH EHL 0DWHULDO YRQ YHUVFKLHGHQHQ /LHIHUDQWHQ XQG8QWHUVFKLHGHLQGHU3URGXNWLRQVDXVVWDWWXQJEHLPHKUHUHQ6WDQGRUWHQ'LH 6WUHXXQJGLHDXVVSH]LHOOHQ8UVDFKHQUHVXOWLHUWNDQQGXUFKSUR]HVVEH]RJHQH 9HUEHVVHUXQJHQ]%'0$,&3URMHNWHUHGX]LHUWZHUGHQ6LQJOH/RRS
1HEHQGHP6LJQDO5DXVFK9HUKlOWQLVZLUGPLWKLOIHGHUStatistischen Prozessregelung 63& GLH /DJH XQG 6WUHXXQJ GHU HLQ]HOQHQ 6WHXHUJU|HQ EHUZDFKW 'DEHL ZLUGGDYRQDXVJHJDQJHQGDVVMHGHV3UR]HVVPHUNPDOHLQHUEHVWLPPWHQ9HUWHLOXQJ XQWHUOLHJW2EZRKOQDFKZHLVOLFKDOOHUJHPHVVHQHQ*U|HQHLQHU0LVFKYHUWHL OXQJIROJHQZLUGLQGHU8QWHUQHKPHQVSUD[LVKlXILJGLH$QQDKPHGHU1RUPDOYHU WHLOXQJ JHWURIIHQ YJO .DLVHU 1RZDFN 6 II 8QWHU GLHVHU 9RUDXVVHW ]XQJ NDQQ GLH 9DULDWLRQGHU3UR]HVVHEHUVRJProzessfähigkeitsindizes EHXUWHLOW
'LH%HUHFKQXQJGHV61:HUWHVHUIROJWDXIGHU*UXQGODJHGHVORJDULWKPLHUWHQ6LJQDO 5DXVFK9HUKlOWQLVVHV'LH/RJDULWKPXVIXQNWLRQKDW]XP9RUWHLOGDVVGLHPXOWLSOLNDWL YHQ bQGHUXQJHQ GHV 0LWWHOZHUW6WUHXXQJV9HUKlOWQLVVHV LQ DGGLWLYH bQGHUXQJHQ NRQ YHUWLHUEDUVLQGYJO5HKEHKQ<XUGDNXO6 'LHVKDW]XU)ROJHGDVVGLH(I IHNWHYRQ6WHXHU6W|UJU|HQPLWKLOIHHLQHVDGGLWLYHQ0RGHOOVEHVFKUHLEEDUVLQG *UDYLHUHQGHV 5DXVFKHQ ZLUG XD GXUFK HLQ XQJHQDXHV GK QLFKW NDOLEULHUWHV 0HVV V\VWHPKHUYRUJHUXIHQVLHKHKLHU]X$EVFKQLWW
9RUJHKHQVPRGHOOHIU,QQRYDWLRQHQXQG1XOO)HKOHU4XDOLWlW
ZHUGHQ0LWGHP6WUHXXQJVLQGH[&SZLUGGLH6WUHXXQJσHLQHV3UR]HVVHVEH]RJHQ DXIGHQYRUJHJHEHQHQ7ROHUDQ]EHUHLFKJHPHVVHQ/HW]WHUHEH]HLFKQHWGHQ%HUHLFK ]ZLVFKHQ REHUHU XQG XQWHUHU 6SH]LILNDWLRQVJUHQ]H 0LW GHP /DJHLQGH[ &SN ZLUG QHEHQ GHU 6WUHXXQJ DXFK GLH /DJH μ GHV 0LWWHOZHUWHVGHU9HUWHLOXQJEHUFNVLFK WLJW 'HU &SN,QGH[ UHDJLHUW DXI HLQH 9HUVFKLHEXQJ GHU PLWWOHUHQ /DJH GHU0HVV ZHUWHJHJHQEHUGHPH[WHUQYRUJHJHEHQHQ=LHOZHUW 'LH)HVWOHJXQJGHU=LHOZHUWHIUGLHHLQ]HOQHQ,QSXW3UR]HVVPHVVJU|HQHUIROJW LP =XJH GHU 4XDOLWlWVSODQXQJ :LH HLQJDQJV EHVFKULHEHQ ZXUGH ZHUGHQ DXVJH KHQG YRQ GHQ ZHVHQWOLFKHQ .XQGHQDQIRUGHUXQJHQ ]XQlFKVW GLH NULWLVFKHQ 3UR GXNWPHUNPDOH &74V XQG DQVFKOLHHQG GLH NULWLVFKHQ 3UR]HVVPHUNPDOH &73V GHILQLHUW 6LH ELOGHQ GLH *UXQGODJH IU GLH 6WHXHUXQJ GHU 8PVHW]XQJ VSULFK GHV Prozessmanagements während der Produktrealisierung 8P GLH 9DULDWLRQ GHU 0HUNPDOH EHVVHU EHXUWHLOHQ ]X N|QQHQZHUGHQYRU]XJVZHLVHVWHWLJH0HVVJU|HQ HUPLWWHOW]%'XUFKODXI]HLWHQ)UGLHVHODVVHQVLFK7ROHUDQ]EHUHLFKHDQJHEHQLQ GHQHQ VLFK GLH 0HUNPDOVZHUWH EHZHJHQ GUIHQ RKQH GDVV ± PLW HLQHU KRKHQ :DKUVFKHLQOLFKNHLW±GLH$QIRUGHUXQJHQGHU.XQGHQYHUOHW]WZHUGHQ 'LHVLFKDQVFKOLHHQGH3KDVHGHU.RQWUROOHEHUQLPPWGDQQHLQHUVHLWVGLH)XQNWL RQ GHV Feedbacks EHL GHP LQ HLQHU 5FNNRSSOXQJVVFKOHLIH HUNOlUW ZLUG RE GDV *HSODQWH HUUHLFKW ZXUGH ZHU HYHQWXHOO IU $EZHLFKXQJHQ YHUDQWZRUWOLFK LVW XQG ZLHGLH3ODQXQJYHUEHVVHUWZHUGHQNDQQ$QGHUHUVHLWVIKUWGLH3KDVHGHU.RQWURO OH]XHLQHPFeedforwardLQGHP0DQDKPHQHLQJHOHLWHWZHUGHQGLHGD]XIKUHQ GDVVGLHDQJHVWUHEWHQ3ODQZHUWH]XNQIWLJQRFK HUUHLFKWZHUGHQ (3) Kontrolle36 'LH 6WHXHUXQJ XQG .RQWUROOH EHWULHEOLFKHU $EOlXIH EDVLHUW DXI GHU 0HVVXQJ YRQ .HQQ]DKOHQGLHHLQH$XVVDJHEHUGLH(IIL]LHQ]XQG(IIHNWLYLWlWGHV3URGXNWUHD OLVLHUXQJVSUR]HVVHV HUODXEHQ Effizienz ELOGHW LPPHU GLH 9RUDXVVHW]XQJ IU (I IHNWLYLWlW GD GLH 2XWSXW,QSXW5HODWLRQ GLUHNW PLW GHP :LUWVFKDIWOLFKNHLWVSULQ]LS DOV JHQHUHOOHU +DQGOXQJVDQZHLVXQJ ]XP SODQYROOHQ 8PJDQJ PLW NQDSSHQ *WHUQ NRUUHVSRQGLHUWYJO7|SIHUD6 'DPLWLVWGLH(IIL]LHQ]HLQ0DIUGLH :HUWVFK|SIXQJ GLH LP 5DKPHQ GHV EHWULHEOLFKHQ /HLVWXQJVHUVWHOOXQJVSUR]HVVHV HU]LHOWZXUGH2EGLH:HUWVFK|SIXQJPLWGHQ(UZDUWXQJHQGHV.XQGHQDOVZLFKWL
1HEHQ &S XQG &SN JLEW HVHLQH5HLKHYRQZHLWHUHQ3UR]HVVIlKLJNHLWVLQGL]HVGLH]% ]XU%HXUWHLOXQJGHUNXU]IULVWLJHQXQGODQJIULVWLJHQ)lKLJNHLWYRQ3UR]HVVHQGLHQHQ)U HLQHDXVIKUOLFKH'DUVWHOOXQJVHLKLHUDXIGLHHLQVFKOlJLJH/LWHUDWXUYHUZLHVHQYJOXD %UH\IRJOH:D[HU.RRQV (LQLJH $XWRUHQ VSUHFKHQ DQVWHOOH YRQ .RQWUROOH DXFK YRQ 9HULILNDWLRQ E]Z 9HULIL NDWLRQVSODQXQJ YJO ]% YRQ 5HJLXV 6 II %HL OHW]WHUHP JHKW HV LQ HUVWHU /LQLH XP GLH 3ODQXQJ XQG GHQ $XIEDX YRQ $EQDKPHWHVWV XQG ]ZDULP$QVFKOXVVDQ GLH4XDOLWlWVSODQXQJXQGXPVHW]XQJLQGHU3URGXNWHQWZLFNOXQJ :lKUHQG GLH (IIL]LHQ] GLH Ä:LUWVFKDIWOLFKNHLW³ NHQQ]HLFKQHW VSLHJHOW GLH (IIHNWLYLWlW GLH Ä=LHOHUUHLFKXQJ³ EHWULHEVZLUWVFKDIWOLFKHU 3ODQXQJV XQG *HVWDOWXQJVPDQDKPHQ ZLGHUYJO7|SIHUD6
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
JHQ 6WDNHKROGHU EHUHLQVWLPPW NDQQ LQ HLQHP ]ZHLWHQ 6FKULWW PLW GHU ,VW6ROO 5HODWLRQ DOV $XVGUXFN GHU Effektivität EHUSUIW ZHUGHQ 0DQDJHPHQWZLVVHQ VFKDIWOHUZLH]%'UXFNHU 6 EHUVHW]HQ(IIL]LHQ]DXFKPLWÄ'LH'LQ JHULFKWLJWXQ³XQG(IIHNWLYLWlWPLWÄ'LHULFKWLJHQ'LQJHWXQ³ ,Q$EELVWGDV3UR]HVVVFKHPD]XU0HVVXQJGHU:LUWVFKDIWOLFKNHLW(IIL]LHQ] XQG =LHOHUUHLFKXQJ (IIHNWLYLWlW XQWHU GHP 3XQNW ZLHGHUJHJHEHQ $XI EHU JHRUGQHWHU (EHQH VWHOOW GLH (IIL]LHQ] HLQHQ ]HLWUDXPEH]RJHQHQ 9HUJOHLFK ]ZL VFKHQGHQJHSODQWHQXQGGXUFKJHIKUWHQ4XDOLWlWV 0DQDKPHQXQGGHQGDGXUFK HUUHLFKWHQ(UJHEQLVVHQGDU,Q8QWHUQHKPHQHQWVSULFKWGLHVGHPeinfachen Regelkreis E]ZGHUHLQIDFKHQ.RUUHNWXUVFKOHLIH6LQJOH/RRS PLWGHUGLH/HLVWXQJVIl KLJNHLW HLQHU HLQ]HOQHQ 2UJDQLVDWLRQVHLQKHLW UHVSHNWLYH GHV JHVDPWHQ 8QWHUQHK PHQV EHVWLPPWZLUGYJO7|SIHUD6 ,P*HJHQVDW]GD]XVWHOOWGLH(I IHNWLYLWlW HLQHQ ]HLWUDXPEH]RJHQHQ 9HUJOHLFK ]ZLVFKHQ GHQ DQJHVWUHEWHQ |NRQR PLVFKHQXQGRGHUDXHU|NRQRPLVFKHQ=LHOHQGHV8QWHUQHKPHQVXQGGHQWDWVlFK OLFK HUUHLFKWHQ (UJHEQLVVHQ GDU 'HU =LHOHUUHLFKXQJVJUDG ZLUG GDEHL EHU HLQHQ erweiterten RegelkreisJHPHVVHQXQGNRQWUROOLHUW'RXEOH/RRS $XV LQWHUQHU 3HUVSHNWLYH VWHKW DOVR GLH )UDJH LP 9RUGHUJUXQG ZLH ZLUWVFKDIWOLFK GLH/HLVWXQJVHUVWHOOXQJLP8QWHUQHKPHQHUIROJW'D]XVLQGLQHLQHPHUVWHQ6FKULWW GLHLP8QWHUQHKPHQDEODXIHQGHQ3UR]HVVHHQWVSUHFKHQGLKUHV/HLVWXQJVFKDUDNWHUV ]X NODVVLIL]LHUHQ 'LH OHLVWXQJVEH]RJHQH $EJUHQ]XQJ DXI +DXSWSUR]HVVHEHQH RULHQWLHUWVLFKL$DPUHDOLVLHUWHQ(UJHEQLV2XWSXW LP9HUKlOWQLV]XGHQIUGLH /HLVWXQJVHUEULQJXQJ EHQ|WLJWHQ 5HVVRXUFHQ ,QSXW 'DEHL N|QQHQ LP HUVWHQ 6FKULWWYLHU/HLVWXQJVDUWHQXQWHUVFKLHGHQZHUGHQYJO/HQWURGW6 •
Nutzleistung LPSOL]LHUW HLQHQ SRVLWLYHQ =XVDPPHQKDQJ ]ZLVFKHQ GHQ DQIDO OHQGHQ 6WFN .RVWHQ XQG GHP UHDOLVLHUWHQ 3URGXNWZHUW 'LH 6XPPH YRQ 1XW]OHLVWXQJHQ HUJLEW VLFK DXV GHU $EIROJH GHU IU GLH 3URGXNWUHDOLVLHUXQJ XQEHGLQJWHUIRUGHUOLFKHQ3UR]HVVHXQGEHWULHEOLFKHQ$EOlXIH
•
Stützleistung ÄNRVWHW³ GHQ (LQVDW] YRQ 5HVVRXUFHQ RKQH GDVV VLFK GHU :HUW GHV 3URGXNWHV YHUlQGHUW 'LHV EHGHXWHW GDVV HLQ .XQGH QLFKW EHUHLW LVW IU GHQ 5HVVRXUFHQYHUEUDXFK HLQHQ HQWVSUHFKHQG K|KHUHQ 3UHLV ]X ]DKOHQ )U GLH(UEULQJXQJYRQ1XW]OHLVWXQJVLQGVLHMHGRFK9RUDXVVHW]XQJ
•
Blindleistung JLOW DOVNRVWHQLQWHQVLYH8QYROONRPPHQKHLWLQQHUKDOEGHU:HUW VFK|SIXQJVNHWWHJHQDXVRZLHEHL6WW]OHLVWXQJHUK|KWVLFKGHU:HUWGHV3UR GXNWHV QLFKW =LHO LVW HV %OLQGOHLVWXQJ DOV XQJHSODQWH /HLVWXQJ YRQ )HUWL JXQJVSUR]HVVHQ]XYHUPHLGHQXPGDGXUFK.RVWHQHLQ]XVSDUHQ
•
Fehlleistung LVW GLH )ROJH YRQ QLFKW IlKLJHQ XQG RGHU QLFKW EHKHUUVFKWHQ 3UR]HVVHQ 1HEHQ GHQ .RVWHQHLQHUIHKOHUKDIWHQ3UR]HVVGXUFKIKUXQJHQWVWH KHQ:HUWPLQGHUXQJHQDP3URGXNW'HU.XQGHLVWQLFKWEHUHLWIUGLHHUVWHOOWH /HLVWXQJHLQHQ3UHLV]X]DKOHQYLHOPHKUIRUGHUWHUHLQHQ3UHLVQDFKODVV
(QWVSUHFKHQGGHU.XUYHQYHUOlXIHLP:HUW.RVWHQ'LDJUDPPODVVHQVLFKLQHLQHP ]ZHLWHQ 6FKULWW GUHL $UWHQ YRQ /HLVWXQJHQ GLIIHUHQ]LHUHQ YJO /XQDX 6
9RUJHKHQVPRGHOOHIU,QQRYDWLRQHQXQG1XOO)HKOHU4XDOLWlW
I Wertsteigernde, wertneutrale und wertmindernde Leistungen(UVWHUHVLQG GDV5HVXOWDWYRQ1XW]OHLVWXQJOHW]WHUHGDVYRQ)HKOOHLVWXQJ6WW]XQG%OLQGOHLV WXQJ IKUHQ ]X ZHUWQHXWUDOHQ /HLVWXQJHQ 'LHVH JHOWHQ XQWHU GHP *HVLFKWVSXQNW GHU *HZLQQHU]LHOXQJ DOV :HUWYHUQLFKWXQJ GD GHU LQ *HOGHLQKHLWHQ EHZHUWHWH 2XWSXW GHQ LQ *HOGHLQKHLWHQ EHZHUWHWHQ ,QSXW QLFKW EHUVWHLJW VSULFK HV ILQGHW NHLQH9HU]LQVXQJGHVHLQJHVHW]WHQ.DSLWDOVVWDWW $XVJHKHQG YRQ GLHVHU $QDO\VH JHODQJW PDQ ± LQ HLQHP GULWWHQ 6FKULWW ± ]X HLQHU dichotomen Bewertung von Effizienz$XV8QWHUQHKPHQVVLFKWLVWGHU3URGXNWUHDOL VLHUXQJVSUR]HVV HQWZHGHU ÄZHUWVFK|SIHQG³ RGHU ÄZHUWYHUQLFKWHQG³ %HL WertschöpfungEHVWHKWNHLQXQPLWWHOEDUHU+DQGOXQJVEHGDUI±HVZLUGHLQ)HHGEDFNDQ GLHEHWHLOLJWHQ:HUWVFK|SIXQJVEHUHLFKHJHJHEHQ/LHJWWertvernichtungYRUGDQQ VLQGEHUHLQH)HHGIRUZDUG6FKOHLIH3UR]HVVYHUEHVVHUXQJHQHLQ]XOHLWHQ hEHUGLH%HZHUWXQJGHU(IIL]LHQ]LVWQRFKNHLQH$XVVDJHEHUGLH/HLVWXQJVZLUN VDPNHLWGHV3UR]HVVHVGHU3URGXNWUHDOLVLHUXQJJHWURIIHQZRUGHQ'D]XLVWLQHLQHU H[WHUQHQ 3HUVSHNWLYH GHU )UDJH QDFK]XJHKHQ ZLH ]XIULHGHQ GHU .XQGH PLW GHU LKP DQJHERWHQHQ /HLVWXQJ LVW =XIULHGHQKHLWVNRQ]HSWH XQWHUVXFKHQ RE HLQ .RQ VXPHQW PLW GHQ 8QWHUQHKPHQVOHLVWXQJHQ ]XIULHGHQ LVW ZDV X8 VHLQH =XIULHGHQ KHLW PLW GHQ /HLVWXQJHQ GHV $QELHWHUVEHHLQWUlFKWLJWKDWXQGZLHVLFK.XQGHQ]X IULHGHQKHLW JHQHUHOO DXI GLH .XQGHQELQGXQJ ]XP 8QWHUQHKPHQ DXVZLUNHQ NDQQ YJO 7KHOHQ HW DO 6 *HQDX ZLH GLH RJ :HUWVFK|SIXQJ VWHOOW GLH .XQGHQ]XIULHGHQKHLWLP6LQQHGHU.\EHUQHWLNHLQH5HJHOJU|HGDU =XU.RQ]HSWXDOLVLHUXQJYRQ.XQGHQ]XIULHGHQKHLWVWHKHQHLQH5HLKHYRQ.RQ]HS WHQ PLW XQWHUVFKLHGOLFKHP $QDO\VHIRNXV ]XU $XVZDKO 6RZRKO LQ ZLVVHQVFKDIWOL FKHQ 8QWHUVXFKXQJHQ DOV DXFK EHL %HIUDJXQJHQ LQ GHU 8QWHUQHKPHQVSUD[LV ZLUG KlXILJ DXI GDV Confirmation/ Disconfirmation-Paradigma &'3DUDGLJPD ]X UFNJHJULIIHQYJOKLHU]XXD+RPEXUJHWDO6II&KXUFKLOO6XUSUH QDQW 6 II 'DV &'3DUDGLJPD EHUXKW DXI HLQHU WUDQVDNWLRQVVSH]LIL VFKHQ *HJHQEHUVWHOOXQJ GHU IDNWLVFKHQ (UIDKUXQJ HLQHV LQWHUQHQ H[WHUQHQ .XQ GHQ EHL GHU 1XW]XQJ HLQHV 3URGXNWV HLQHU 'LHQVWOHLVWXQJ ,VW/HLVWXQJ PLW HLQHP 9HUJOHLFKVVWDQGDUG 6ROO/HLVWXQJ /HW]WHUHU GHILQLHUW VLFK XD EHU LQGLYLGXHOOH (UZDUWXQJHQ :HUWH XQG ,GHDOH VRZLH 1RUPHQYRUVWHOOXQJHQ GHV .XQGHQ(VZHUGHQLQVJHVDPWGUHL)lOOHXQWHUVFKLHGHQVLHKHDXFK$EE •
Ist = Soll: (QWVSULFKW GLH HUOHEWH /HLVWXQJ H[DNW GHP 9HUJOHLFKVVWDQGDUG GDQQ VSULFKW PDQ YRQ &RQILUPDWLRQ ,Q GLHVHP )DOO VWHLJW GLH =XIULHGHQKHLW GHV.XQGHQGDDOOHVHLQH(UZDUWXQJHQYROOVWlQGLJHUIOOWZRUGHQVLQG
$OOHV LQ DOOHP WUDJHQ QXU UHODWLY ZHQLJH $NWLYLWlWHQ LP 8QWHUQHKPHQ ]XU :HUWVFK|S IXQJ EHL 1DFK 7RP\V 6 II VHW]W VLFK GLH *HVDPWOHLVWXQJ HLQHV 8QWHUQHK PHQV EOLFKHUZHLVH ZLH IROJW ]XVDPPHQ 1XW]OHLVWXQJ 6WW]OHLVWXQJ %OLQGOHLVWXQJ XQG)HKOOHLVWXQJ
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
•
Ist > Soll: :HQQ GLH ,VW/HLVWXQJ GLH 6ROO/HLVWXQJ EHUWULIIW GDQQ HUK|KW VLFK HEHQIDOOV GLH .XQGHQ]XIULHGHQKHLW 1DFK GHU WUDQVDNWLRQVVSH]LILVFKHQ .X=X0HVVXQJKDQGHOWHVVLFKKLHUXPHLQHSRVLWLYH'LVFRQILUPDWLRQ
•
Ist < Soll:,PHQWJHJHQJHVHW]WHQ)DOOZHQQDOVRGLH,VW/HLVWXQJJHULQJHUDOV GLH 6ROO/HLVWXQJ HLQJHVWXIW ZLUG OLHJW HLQH QHJDWLYH'LVFRQILUPDWLRQYRU-H K|KHUGLH$EZHLFKXQJLVWGHVWRJU|HULVWGLH.XQGHQXQ]XIULHGHQKHLW
$XV ZLUWVFKDIWOLFKHQ *HVLFKWVSXQNWHQ VWHOOW GLH Confirmation GK GLH 6LFKHUVWHO OXQJ GHU hEHUHLQVWLPPXQJ YRQ 6ROO XQG ,VW/HLVWXQJ GLH EHVWP|JOLFKH +DQG OXQJVDOWHUQDWLYH IU HLQ 8QWHUQHKPHQ GDU 'LH $EZHLFKXQJ QDFK XQWHQ GK GLH negative Disconfimation LVW LPPHU JOHLFK]XVHW]HQ PLW HLQHP $QVWLHJ GHU 8Q]X IULHGHQKHLW GHV .XQGHQ ZlKUHQG GLH $EZHLFKXQJ QDFK REHQ GK GLH positive Disconfirmation LPPHU ]X HLQHP $QVWLHJ GHU .XQGHQ]XIULHGHQKHLW IKUW 'DEHL YHUKLOIWGLHOHW]WJHQDQQWH6LWXDWLRQGHP8QWHUQHKPHQ±DXV(IIL]LHQ]VLFKW±QLFKW ]ZDQJVOlXILJ ]XP (UIROJ :LH YHUVFKLHGHQH HPSLULVFKH 6WXGLHQ EHOHJHQ EHGLQJW GLH HLQPDOLJH =XIULHGHQKHLW PLW GHU /HLVWXQJ HLQHV $QELHWHUV QLFKW DXWRPDWLVFK GLHODQJIULVWLJH%LQGXQJXQG/R\DOLWlWHLQHV.XQGHQ (4) Verbesserung ,Q GLHVHU 3KDVH JHKW HV GDUXP EHL IHVWJHVWHOOWHU :HUWYHUQLFKWXQJ DXIJUXQG PDQ JHOKDIWHU (IIL]LHQ] XQG RGHU EHL .XQGHQXQ]XIULHGHQKHLW DXIJUXQG PDQJHOQGHU (IIHNWLYLWlW 9HUEHVVHUXQJVPDQDKPHQ HLQ]XOHLWHQ ,VW GDV 3URGXNW SULQ]LSLHOO JHHLJQHW GLH ZHVHQWOLFKHQ .XQGHQDQIRUGHUXQJHQ EHGUIQLVVH ]X HUIOOHQ GDQQ EH]LHKHQVLFKGLH9HUEHVVHUXQJHQLG5DXIGLHEHWHLOLJWHQ:HUWVFK|SIXQJVEHUHL FKH XQG SUR]HVVH 'LH SUR]HVVEH]RJHQH 9HUEHVVHUXQJ ZLUG GDQQ LP 5DKPHQ HLQHV Single Loop UHDOLVLHUW VLHKH $EE ZREHL IU HLQHQ JHJHEHQHQ 2XWSXW GLH ZHVHQWOLFKHQ 3UR]HVV XQG ,QSXWPHVVJU|HQ LP +LQEOLFN DXI LKUH %HGHXWXQJ EHUSUIWXQGEHL%HGDUIQHXMXVWLHUWZHUGHQ =LHOLVWHVGLH6WHXHUJU|HQLP3UR]HVVVR]XYHUlQGHUQE]ZDQ]XSDVVHQGDVVGLH *UQGHIU:HUWYHUQLFKWXQJEHVHLWLJWZHUGHQXQGGLH2XWSXW,QSXW5HODWLRQHLQHQ SRVLWLYHQ :HUW DQQLPPW =X GLHVHP =ZHFN ZHUGHQ LQ 6L[ 6LJPD8QWHUQHKPHQ 9HUEHVVHUXQJVSURMHNWH HQWVSUHFKHQG GHV DMAIC-Zyklus GXUFKJHIKUW 9RUJHKHQ XQG0HWKRGHQHLQVDW]ZHUGHQLQ$EVFKQLWWGDUJHVWHOOW ,VW GLH Ä6WLPPH GHV .XQGHQ³ QLFKW ULFKWLJ HUIDVVW XQG QXU XQ]XUHLFKHQG LQ GLH Ä6SUDFKH GHV 3UR]HVVHV³ EHUIKUW ZRUGHQ LVW HLQH 5FNNRSSOXQJ ]XU 4XDOLWlWV SODQXQJ QRWZHQGLJ 'LH 9HUEHVVHUXQJVDNWLYLWlWHQ EHWUHIIHQ LQ GLHVHP )DOO QLFKW
+LHUVSUHFKHQ+RPEXUJHWDO6 YRQGHUÄ.XQGHQ]XIULHGHQKHLWVIDOOH³GLH VLFKGXUFKVWlQGLJVWHLJHQGH$QIRUGHUXQJHQ(UZDUWXQJHQGHV.XQGHQDQGDV3URGXNW GLH'LHQVWOHLVWXQJEHUGLH=HLWHUJLEW(VNRPPW]XHLQHUVRJ$QVSUXFKVLQIODWLRQGHU GDV8QWHUQHKPHQODQJIULVWLJQLFKWPHKUJHUHFKWZHUGHQNDQQGKGLHYROOVWlQGLJHXQG JOHLFK]HLWLJZLUWVFKDIWOLFKH(UIOOXQJGHU.XQGHQDQIRUGHUXQJHQLVWDEHLQHPEHVWLPP WHQ =HLWSXQNW QLFKW PHKU P|JOLFK ,Q GLHVHP )DOO VLHKW VLFK GDV 8QWHUQHKPHQ DEQHK PHQGHU.XQGHQ]XIULHGHQKHLWXQGVWHLJHQGHU.XQGHQIOXNWXDWLRQDXVJHVHW]W
9RUJHKHQVPRGHOOHIU,QQRYDWLRQHQXQG1XOO)HKOHU4XDOLWlW
QXU GLH 8PVHW]XQJV VRQGHUQ DXFK GLH 3ODQXQJVSKDVH 'DV /HLVWXQJVDQJHERW LVW LP +LQEOLFN DXI GLH 'HILQLWLRQ GHU NULWLVFKHQ 3URGXNW XQG 3UR]HVVPHUNPDOH QR FKPDOV]XEHUSUIHQXQG±EHLHUNDQQWHQ'HIL]LWHQ±DQ]XSDVVHQ ,P *HJHQVDW] ]X SUR]HVVEH]RJHQHQ 9HUEHVVHUXQJHQ PVVHQ LQ HLQHP Double Loop JJI GLH DQYLVLHUWH .XQGHQJUXSSH XQG GHUHQ ZHVHQWOLFKHQ $QIRUGHUXQJHQ QHXHUXLHUWZHUGHQ,QGHURSHUDWLYHQ4XDOLWlWVSODQXQJZHUGHQ±JHQDXVRZLHEHL GHU SUR]HVVEH]RJHQHQ 9HUEHVVHUXQJ ± HLQ]HOQH NODU DEJHJUHQ]WH 3URMHNWH GHIL QLHUW XP GLH IHVWJHVWHOOWHQ (QWZLFNOXQJVEHGDUIH EHVVHU ]X VSH]LIL]LHUHQ ,Q 6L[ 6LJPD8QWHUQHKPHQ ZLUG KlXILJ DXI GLH 0HWKRGLN GHV ')66 ]XUFNJHJULIIHQ 'HU DMADV-Zyklus GHU LQ GLHVHP =XVDPPHQKDQJ KlXILJ ]XP (LQVDW] NRPPW ZLUGLQ$EVFKQLWWDXVIKUOLFKHUOlXWHUWXQGDQDO\VLHUW
3.3
Konzeption und Inhalte der Six Sigma-Verbesserungszyklen
1DFK:$/7(5 0$6,1* ORKQHQVLFK,QYHVWLWLRQHQLQGLH9HUEHVVHUXQJYRQ 3URGXNWHQXQG3UR]HVVHQÄGDHVLQMHGHP)DOOZLUWVFKDIWOLFKHULVW)HKOHU]XYHU PHLGHQ VWDWW ]X EHVHLWLJHQ³ 'LHVH (UNHQQWQLV LVW QLFKW QHX XQG ZDU EHUHLWV ODQJH =HLW YRU 6L[ 6LJPD EHNDQQW ,P 5DKPHQ YRQ 740 ZXUGH GDV (UUHLFKHQ HLQHV P|JOLFKVW KRKHQ 4XDOLWlWVQLYHDXV LQ DOOHQ :HUWVFK|SIXQJVSUR]HVVHQ SURSDJLHUW 'HUSRVLWLYH=XVDPPHQKDQJ]ZLVFKHQ4XDOLWlWXQG*HZLQQZXUGHGDEHLDOVÄ1D WXUJHVHW]³ EHWUDFKWHW ,Q GHU )ROJH NDP HV ]X 6LWXDWLRQHQ LQ GHQHQ 4XDOLWlW QXU XP GHU 4XDOLWlW ZLOOHQ RGHU GHV 4XDOLWlWVYHUDQWZRUWOLFKHQ ZLOOHQ SUDNWL]LHUWZRU GHQLVWYJO7|SIHU6 2KQHGLHEHWULHEVZLUWVFKDIWOLFKHQ.RQVHTXHQ ]HQ YRQ 9HUEHVVHUXQJVDNWLYLWlWHQ LP (LQ]HOIDOO ]X EHUSUIHQ YHUORU 740 QDFK XQG QDFK VHLQHQ XPIDVVHQGHQ 4XDOLWlWVVWHXHUXQJVDQVSUXFK %HL 6L[ 6LJPD ZLUG GLHVH )HKOHQWZLFNOXQJ GDGXUFK YHUPLHGHQ GDVV IU MHGH 9HUEHVVHUXQJVDNWLYLWlW HLQH ILQDQ]LHOOH %HZHUWXQJ YRUJHVFKULHEHQ LVW GLH HLQH hEHUSUIXQJ GHU :LUW VFKDIWOLFKNHLWYRQ'0$,&'0$'93URMHNWHQHUODXEW 3.3.1
DMAIC-Zyklus zur Prozessoptimierung
,Q GLHVHP $EVFKQLWW ZHUGHQ GLH IQI 3KDVHQGHV'0$,&=\NOXVDOVVWUXNWXULHUWH 9RUJHKHQVZHLVH]XU%HDUEHLWXQJYRQ6L[6LJPD3URMHNWHQYRUJHVWHOOW'LHHLQ]HO QHQ 3KDVHQ EDXHQ ± LQKDOWOLFK XQG NRQ]HSWLRQHOO ± DXIHLQDQGHU DXI XQG ZHUGHQ GHVKDOELP5DKPHQGHU3URMHNWEHDUEHLWXQJQDFKHLQDQGHUGXUFKODXIHQ,Q$EE LVW GHU W\SLVFKH $EODXI GHV '0$,&=\NOXV ZLH HU LQ NRQNUHWHQ 6L[ 6LJPD 3URMHNWHQ ]XU $QZHQGXQJ NRPPW ZLHGHUJHJHEHQ $OV NRQVWLWXLHUHQGHV0HUNPDO VLQGGHQHLQ]HOQHQPhasenMHZHLOVGLHVorgehensschritteXQGMethoden ]XJHRUG QHW'LH$XVIKUXQJHQEDVLHUHQDXIHLJHQHQ3URMHNWHUIDKUXQJHQGHV$XWRUVVRZLH HLQVFKOlJLJHQ/LWHUDWXUTXHOOHQYJOXD6RERWWND*QWKHU*URHNDWWK|IHU 7|SIHU *QWKHU *DU]LQVN\ /XQDX HW DO +DUU\ 6FKURHGHU 0DJQXVVRQHWDO6HXIIHUOHLQ.DSV%HUJEDXHU
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
Define-Phase =X%HJLQQGHV6L[6LJPD3URMHNWHVLVWHLQHHLQGHXWLJH'HILQLWLRQGHV3URMHNWDXI WUDJV E]Z GLH Projektcharter QRWZHQGLJ 6LH XPIDVVW QHEHQ GHQ EOLFKHQ .HQQ ]HLFKQXQJHQXQG'DWHQHLQHV3URMHNWHVLQVEHVRQGHUH'HWDLOV]X •
Business Case/ Problemhintergrund ZHOFKHU GLH DNWXHOOH *HVFKlIWVVLWXDWLRQ EHVFKUHLEW XQG DQKDQG GHU .ULWHULHQ 4XDOLWlW =HLW XQG .RVWHQ KHUDXVVWHOOW ZDUXPGDV6L[6LJPD3URMHNWJHUDGHÄMHW]WXQGKLHU³QRWZHQGLJLVW
•
Probleme und Ziele/ Nutzen ZHOFKH GLH 3UREOHPDWLN GHWDLOOLHUHQ XQG GLH =LHOYRUVWHOOXQJ GHV &KDPSLRQV ± XQWHU $QJDEH GHV ]X HUUHLFKHQGHQ 6LJPD 1LYHDXVE]ZGHV]XUHDOLVLHUHQGHQ1HW%HQHILW±TXDQWLIL]LHUHQ
•
Projektumfang und Fokus/ RahmenZHOFKH]XPHLQHQGLH)UDJHEHDQWZRUWHW ZDV LP 0LWWHOSXQNW GHU 9HUEHVVHUXQJVDNWLYLWlWHQ VWHKHQ VROO XQG ]XP DQGH UHQZHOFKH9RUJlQJH]XP3URMHNWUDKPHQJHK|UHQXQGZHOFKHQLFKW
•
Rollen/ Verantwortlichkeiten und Meilensteine ZHOFKH GLH $UW XQG $Q]DKO QRWZHQGLJHU SHUVRQHOOHU XQG ILQDQ]LHOOHU 5HVVRXUFHQ DQJHEHQ GLH =XVDP PHQVWHOOXQJGHV3URMHNWWHDPVIHVWOHJHQVRZLHGLH3URMHNWGDXHUXQWHU$QJDEH YRQ6WDUW=ZLVFKHQXQG(QGWHUPLQHQGHWHUPLQLHUHQ
1DFKGHU'HILQLWLRQGHU3URMHNWFKDUWHUXQGGHPÄRIIL]LHOOHQ6WDUW³GHV6L[6LJPD 3URMHNWHVILQGHW]XQlFKVWHLQH(LQ$EJUHQ]XQJGHV]XDQDO\VLHUHQGHQ3UR]HVVHV DXIÄKRKHU(EHQH³VWDWW'D]XZLUGHLQHVRJSIPOC-AnalyseGXUFKJHIKUWEHLGHU GLH ,QSXW2XWSXW%H]LHKXQJHQ YRP /LHIHUDQWHQ ELV ]XP .XQGHQ SUl]LVLHUW ZHU GHQ )U GLH IQI ELV VLHEHQ ZLFKWLJVWHQ +DXSW 3UR]HVVVFKULWWH 3 ± 3URFHVVHV ZHUGHQ GLH,QSXWV, XQG2XWSXWV2 ]XVDPPHQPLWGHQZHVHQWOLFKHQ/LHIHUDQ WHQ6±6XSSOLHUV XQG.XQGHQ&±&XVWRPHUV DXIJHOLVWHW 'LH 6,32&$QDO\VH ELOGHW GLH *UXQGODJH IU GLH $EOHLWXQJ GHU HQWVFKHLGHQGHQ .XQGHQDQIRUGHUXQJHQ LP 5DKPHQ GHU VOC-CTQ-Analyse 6LH VWHOOW GLH HUVWH ]DKOHQRULHQWLHUWH 6\VWHPDWLN GHV '0$,&=\NOXV GDU $XVJHKHQG YRQ GHU ÄXQJH ILOWHUWHQ³ 6WLPPH GHV .XQGHQ 92& ± 9RLFH RI WKH &XVWRPHU ZHUGHQ EH]RJHQ DXI GHQ ]X YHUEHVVHUQGHQ :HUWVFK|SIXQJVSUR]HVV GLH ]HQWUDOHQ XQG PHVVEDUHQ .ULWHULHQ &74 ± &ULWLFDO WR 4XDOLW\ &KDUDFWHULVWLF DEJHOHLWHW 'LHV HUIROJW L$ EHU GLH (UPLWWOXQJ YRQ .HUQWKHPHQ GHQHQ DOOH 92&V LQ HLQHP HUVWHQ $QDO\VH VFKULWW]XJHRUGQHWZHUGHQ,P]ZHLWHQ6FKULWWVLQGGDUDXVGLH&74V]XVSH]LIL]LH UHQ GLH ]XJOHLFK GHQ $XVJDQJVSXQNW IU GLH (UPLWWOXQJ GHU 5HIHUHQ]OHLVWXQJ GHV DNWXHOOHQ3UR]HVVHVLQGHU0HDVXUH3KDVHELOGHQ $XIGHU%DVLVGHU3URMHNWFKDUWHUXQGGHU6,32&$QDO\VHVROOHQLP:HLWHUHQNXU] GLH ZHVHQWOLFKHQ 6FKULWWH ]XP (LQVWLHJ LQ GHQ 6L[ 6LJPD0HVV XQG $QDO\VHSUR ]HVV VNL]]LHUW ZHUGHQ 'DEHL NRPPHQ LQVEHVRQGHUH GLH ]DKOHQRULHQWLHUWH 9RUJH KHQVZHLVHXQG6WHXHUXQJGLHHLQGHXWLJH0HVVEDUNHLWDQMHGHU6WHOOHGHV3UR]HVVHV VRZLH GLH LQ VLFK JHVFKORVVHQH 6\VWHPDWLN XQG ORJLVFK DXIHLQDQGHUDEJHVWLPPWHQ 6FKULWWHLP5DKPHQGHV'0$,&=\NOXV]XP$XVGUXFN
.RQ]HSWLRQXQG,QKDOWHGHU6L[6LJPD9HUEHVVHUXQJV]\NOHQ
1HEHQHLQHUSUl]LVLHUWHQ3URMHNWODXI]HLWYRQELVPD[LPDO7DJHQNRQNUHWL VLHUWVLFKGLHVWULQJHQWH8PVHW]XQJYRQ6L[6LJPD3URMHNWHQLQHLQHUNODUHQ=LHO VWUXNWXUEHLGHUGLHILQDQ]LHOOHQ(UJHEQLVVHMHZHLOVLP9RUGHUJUXQGVWHKHQ'LH SURJQRVWL]LHUWHQ1HWWRHLQVSDUXQJHQ1HW%HQHILW GHV3URMHNWHVVLQGGLH*UXQGOD JH IU GLH Ä*R(QWVFKHLGXQJ³ GHV &KDPSLRQV ,Q GLH Net Benefit-Berechnung IOLHHQ GLH OLTXLGLWlWVZLUNVDPHQ .RVWHQHLQVSDUXQJHQ XQG RGHU 8PVDW]VWHLJHUXQ JHQHLQGLHLQQHUKDOEYRQ0RQDWHQQDFK3URMHNWHQGHJHQHULHUWZHUGHQN|QQHQ 'LHVHP PRQHWlUHQ 3URMHNWHUIROJ ZHUGHQ GLH .RVWHQ GHU 3URMHNWGXUFKIKUXQJ JHJHQEHUJHVWHOOW 2SSRUWXQLWlWVNRVWHQ XQG HUO|VH ]% DXIJUXQG YHUULQJHUWHU .XQGHQDEZDQGHUXQJILQGHQJHQHUHOONHLQH%HUFNVLFKWLJXQJ Measure-Phase 'DV YRUUDQJLJH =LHO YRQ 6L[ 6LJPD3URMHNWHQ EHVWHKW GDULQ GLH 8UVDFKHQ:LU NXQJVEH]LHKXQJHQ ]ZLVFKHQ ,QSXW ± 3URFHVV ± 2XWSXW DXI]XGHFNHQ XQG RSWLPDO HLQ]XVWHOOHQ 'HVKDOE LVW HV QRWZHQGLJ DXI GHU *UXQGODJH GHU HUPLWWHOWHQ &74V GLHHOHPHQWDUHQ2XWSXW3UR]HVVXQG,QSXWPHVVJU|HQDE]XOHLWHQ 0LWKLOIH GHU ]ZHLWHQ ]DKOHQRULHQWLHUWHQ 6\VWHPDWLN YRQ 6L[ 6LJPD GHU CTQOutputmessgrößen-Analyse ZHUGHQ ]X %HJLQQ GHU 0HDVXUH3KDVH GLH 2XWSXW PHVVJU|HQ GHV 3UR]HVVHV EHVWLPPW $Q LKQHQ ZLUG GLH 5HIHUHQ]OHLVWXQJ GHV DNWXHOOHQ 3UR]HVVHV DOVR GLH $XVJDQJVVLWXDWLRQ IU 9HUEHVVHUXQJVDNWLYLWlWHQ IHVWJHPDFKW 'LH %HVWLPPXQJ GHU 5HIHUHQ]OHLVWXQJ HUIRUGHUW LQ GHQ PHLVWHQ )lO OHQHLQHLQWHQVLYH'DWHQVDPPOXQJ$XIGHU%DVLVHLQHV'DWHQVDPPHOSODQVZHUGHQ VRZRKO IUGLH2XWSXWPHVVJU|HQDOVDXFKIUGLH3UR]HVVXQG,QSXWPHVVJU|HQ DQYHUVFKLHGHQHQ0HVVSXQNWHQGHV3UR]HVVHV'DWHQHUIDVVW :LFKWLJH 0HVVJU|HQ ]XU Bestimmung der Prozesseffektivität/ -effizienz VLQG XD GLH )HKOHUUDWH DOV 330 3DUWV SHU 0LOOLRQ XQG GLH )HKOHUTXRWH DOV '302 'H IHFWVSHU0LOOLRQ2SSRUWXQLWLHV IUGLVNUHWH0HUNPDOH,P8QWHUVFKLHG]XU330
'LH.RVWHQ1XW]HQ$QDO\VHYRQ4XDOLWlWVVLFKHUXQJVXQG4XDOLWlWVYHUEHVVHUXQJVPD QDKPHQ LVW HLQ ]HQWUDOHV 7KHPHQJHELHW GHU EHWULHEVZLUWVFKDIWOLFK DXVJHULFKWHWHQ )RU VFKXQJ ]XP 7KHPD Ä4XDOLWlWVPDQDJHPHQW³ 8QWHU GHP 6WLFKZRUW Ä:LUWVFKDIWOLFKNHLW GHV 4XDOLWlWVPDQDJHPHQWV³ VLQG LQ GHU 9HUJDQJHQKHLW HLQH 5HLKH YRQ 6FKULIWHQ YHU|IIHQWOLFKW ZRUGHQ GLH VLFK PLW GHP 7KHPD LQWHQVLY DXVHLQDQGHUVHW]HQ YJO XD 7|SIHU%UXKQ*HRUJL%UXKQ:LOGHPDQQ 'LH 9RUJHKHQVZHLVH ]XU %HVWLPPXQJ GHU .RVWHQ XQG GHV 1XW]HQV YRQ 6L[ 6LJPD 3URMHNWHQ EDVLHUW DXI GHP Wirkungsorientierten Kostenmodell 'LH JUXQGVlW]OLFKH $QQDKPHJHKWGDKLQGDVV]XU6WHLJHUXQJGHV4XDOLWlWVQLYHDXV,QYHVWLWLRQHQQRWZHQGLJ VLQG (V IDOOHQ DXI GHUHLQHQ6HLWHhEHUHLQVWLPPXQJVNRVWHQDQXPHLQHGHQ.XQGHQ DQIRUGHUXQJHQHQWVSUHFKHQGH3URGXNWTXDOLWlW]XHU]HXJHQ$XIGHUDQGHUHQ6HLWHZHU GHQGLH.RVWHQGLHDXIJUXQGYRQ$EZHLFKXQJHQHQWVWHKHQUHGX]LHUW/HW]WHUHVLQGGLH +DXSWTXHOOH IU GHQ DXV 4XDOLWlWVLQYHVWLWLRQHQ JHQHULHUWHQ PRQHWlUHQ 1XW]HQ 1HEHQ GHU5HGX]LHUXQJYRQ4XDOLWlWVNRVWHQVWHOOHQGLH6LFKHUXQJ]XNQIWLJHU(UO|VHVRZLHGLH 6FKDIIXQJYRQ3UR]HVV4XDOLWlWVIlKLJNHLWZLFKWLJHZLUNXQJVRULHQWLHUWH1XW]HQNDWHJR ULHQ GDU 'DPLW VLQG LQVJHVDPW GUHL 1XW]HQNDWHJRULHQ E]Z /HLVWXQJVGLPHQVLRQHQ LP =XVDPPHQKDQJPLWGHUSUlYHQWLYHQ4XDOLWlWVVLFKHUXQJXQWHUVFKHLGEDU
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
)RUPHOZHUGHQEHLGHU'302)RUPHOGLH)HKOHUP|JOLFKNHLWHQ2)'±2SSRUWX QLWLHVIRU'HIHFWV XQGGDPLWGLH.RPSOH[LWlWGHVEHWUDFKWHWHQ3UR]HVVHVEHUFN VLFKWLJW/lVVWVLFKGLH4XDOLWlWGHV2XWSXWVDQKDQGYRQVWHWLJHQ0HUNPDOHQTXDQ WLIL]LHUHQGDQQZLUG]XPHLQHQGHU&S:HUWDOV0DIUGLH3UR]HVVVWUHXXQJXQG ]XP DQGHUHQ GHU &SN:HUW DOV 0D IU GLH 3UR]HVVIlKLJNHLW EHUHFKQHW %HLGH ,QGL]HV VLQG GLPHQVLRQVORV XQG EHVFKUHLEHQ GLH SRWHQ]LHOOH (LJQXQJ GHV 3UR]HV VHVGLH6SH]LILNDWLRQHQHLQ]XKDOWHQYJO6FKLSS7|SIHU6 8P GDV 6NDOHQQLYHDX YHUVFKLHGHQHU 0HUNPDOVDXVSUlJXQJHQ GLVNUHW VWHWLJ XQG GDPLW XQWHUVFKLHGOLFKHU 0HVVDQVlW]H ]XU %HVWLPPXQJ YRQ )HKOHUKlXILJNHLWHQ LP 8QWHUQHKPHQ YHUJOHLFKHQ ]X N|QQHQ ZLUG GDV HUUHLFKWH 4XDOLWlWV1LYHDX EHU HLQH ]HQWUDOH VWDWLVWLVFKH .HQQ]DKO GHQ Sigma-Wert DQJHJHEHQ %H]RJHQ DXI GHQ &S:HUW EHGHXWHW GLHV GDVV GLH 3UR]HVVVWUHXEUHLWH K|FKVWHQV GLH +lOIWH GHU 7ROHUDQ]EUHLWHEHDQVSUXFKHQVROO&S≥ %HLHLQHP3UR]HVVGHVVHQ0LWWHOZHUW JHQDXLQGHU0LWWHGHVYRUJHJHEHQHQ7ROHUDQ]EHUHLFKVOLHJWZUGHLQIROJHGHVVHQ DXI EHLGHQ 6HLWHQ GHU 3UR]HVVVWUHXEUHLWH GHU 6LFKHUKHLWVDEVWDQG ]XU REHUHQ XQWH UHQ7ROHUDQ]JUHQ]HPLQGσDOVRLQVJHVDPWσEHWUDJHQ 'XUFK GLH )HVWOHJXQJ HLQKHLWOLFKHU 0HVVNULWHULHQ XQG GLH $QJDEH GHV 6LJPD :HUWHVZLUGGLH*UXQGODJHIUHLQXQWHUQHKPHQVLQWHUQHVH[WHUQHV%HQFKPDUNLQJ JHOHJW8P)HKOHUEHLP0HVVHQ]XYHUPHLGHQDXV]XVFKOLHHQZLUGIUMHGHGHIL QLHUWH 0HVVJU|H HLQH VRJ Gage R&R GXUFKJHIKUW 'DEHL KDQGHOW HV VLFK XP HLQHVWDQGDUGLVLHUWH0HWKRGH]XU9DOLGLHUXQJGHV0HVVV\VWHPV $QHUNDQQWH6L[6LJPD3UD[LVLVWHVGDVVGHXWOLFK ZHQLJHUDOVGHU*HVDPW YDULDQ] GHU 0HVVZHUWH GXUFK GDV HLQJHVHW]WH 0HVVV\VWHP HUNOlUW ZHUGHQ YJO /XQDX HW DO 6 I ,P 5DKPHQ GHU 0HVVV\VWHPDQDO\VH ZLUG ]XP HLQHQ GLH :LHGHUKROEDUNHLW GHV JOHLFKHQ 0HVVYRUJDQJV GXUFK GLH JOHLFKH 3HUVRQ 0D VFKLQH5±5HSHDWDELOLW\ DQDO\VLHUWXQG]XPDQGHUHQGLH5HSURGX]LHUEDUNHLWGHV JOHLFKHQ 0HVVYRUJDQJV GXUFK ]ZHL RGHU PHKUHUH 3HUVRQHQ 0DVFKLQHQ 5 ± 5H SURGXFLELOLW\ 0LW GLHVHQ ]ZHL 3DUDPHWHUQ ODVVHQ VLFK GLH 8QJHQDXLJNHLWHQ GHV 0HVVV\VWHPVVWDWLVWLVFKVFKlW]HQ6RJLEWGHUUHODWLYH0HVVIHKOHU5 5DQZHO
.RPSOH[LWlW lXHUW VLFK ± YHUHLQIDFKHQG EHWUDFKWHW ± LQ GHU $Q]DKO XQG 9LHOIDOW GHU (OHPHQWH HLQHV 6\VWHPV ]% 0HQVFKHQ XQG 0DVFKLQHQ VRZLH GHUHQ FKDUDNWHULV WLVFKHQ%H]LHKXQJHQ9HUIOHFKWXQJHQXQWHUHLQDQGHUYJO0F)DUODQG6 :LH .HXSHU6 DXVIKUWZHLVWGLHSystemkomplexitätL6HLQHU8QWHUQHK PXQJVNRPSOH[LWlW HLQH REMHNWLYVWUXNWXUHOOH REMHNWLYSUR]HVVXDOH XQG VXEMHNWLYSUR ]HVVXDOH 'LPHQVLRQ DXI 'DV 0DQDJHPHQW KDW DXV V\VWHPWKHRUHWLVFKN\EHUQHWLVFKHU 6LFKW GLH $XIJDEH GDV EHVWHKHQGH Ä.RPSOH[LWlWVJHIlOOH³ ]ZLVFKHQ GHP 8PV\VWHP 0DUNW XQG GHP GDULQ HQWKDOWHQHQ 6\VWHP 8QWHUQHKPHQ ]ZHFN XQG ]LHORULHQWLHUW ]X EHHLQIOXVVHQ ,P +LQEOLFN DXI GLH 9HUEHVVHUXQJ GHU (IIHNWLYLWlW XQG (IIL]LHQ] LVW ]X EHDFKWHQGDVVGLH.RPSOH[LWlWZHGHUPLQLPLHUWQRFKPD[LPLHUWZHUGHQGDUI 'DV GXUFKVFKQLWWOLFKH 4XDOLWlWVQLYHDX LQ GHU GHXWVFKHQ ,QGXVWULH OLHJW EHLVSLHOVZHLVH EHL HLQHP 6LJPD:HUW YRQ σ ZDV HLQHU )HKOHUTXRWH YRQ FD '302 HLQHU 3UR]HVVDXVEHXWH YRQ FDHLQHU3UR]HVVVWUHXXQJYRQ&S XQGHLQHU3UR]HVV IlKLJNHLWYRQ&SN HQWVSULFKWYJO7|SIHU*QWKHUD6
.RQ]HSWLRQXQG,QKDOWHGHU6L[6LJPD9HUEHVVHUXQJV]\NOHQ
FKHU $QWHLO GHU JHVDPWHQ 3UR]HVVYDULDWLRQ GXUFK 8QJHQDXLJNHLWHQ )HKOHU LP 0HVVV\VWHP EHJUQGHW LVW YJO (GVRQ =R\KRIVNL 6 II (V OLHJW DXI GHU +DQG GDVV PLW IDOOHQGHP 330 '302:HUW E]Z VWHLJHQGHP 6LJPD:HUW GLH %HGHXWXQJGHU=XYHUOlVVLJNHLWGHV0HVVV\VWHPVVLJQLILNDQW VWHLJW Analyse-Phase 'LH $QDO\VH3KDVH VWHOOW GLH Ä.HUQSKDVH³ GHV '0$,& E]Z '0$'9=\NOXV GDU 2KQH HLQH WLHIJHKHQGH XQG DXVVDJHIlKLJH 8UVDFKHQDQDO\VH IU )HKOHU VLQG L$ NHLQH 9HUEHVVHUXQJVPDQDKPHQ PLW JURHU +HEHOZLUNXQJ P|JOLFK VR GDVV GHU]XYHUEHVVHUQGH3UR]HVVVRJHQDXZLHP|JOLFK]XTXDQWLIL]LHUHQXQGÄ]XYHU VWHKHQ³ LVW (LQ RSWLPDOHV 3UR]HVVYHUVWlQGQLV LVW JHQDX GDQQ HUUHLFKW ZHQQ VLFK GLH %H]LHKXQJ ]ZLVFKHQ GHU MHZHLOLJHQ 2XWSXWPHVVJU|H \ VRZLH GHQ 3UR]HVV XQG ,QSXWPHVVJU|HQ [L EHU HLQHQ IXQNWLRQHOOHQ =XVDPPHQKDQJ GHU )RUP \ I[[[Q EHVFKUHLEHQOlVVW'LHVHUIRUGHUW]XQlFKVWHLQHGHWDLOOLHUWHProzessdarstellung und -analyse]%LQ)RUPYRQ=HLW:HUWVWURPXQG)OXVVDQDO\VHQ ,P:HLWHUHQVLQGUrsachen-Wirkungs-AnalysenGXUFK]XIKUHQ$XIGLHVHU*UXQG ODJH N|QQHQ IXQNWLRQDOH =XVDPPHQKlQJH ]ZLVFKHQ GHU XQDEKlQJLJHQ 2XWSXW PHVVJU|H \ DOV :LUNXQJVJU|H XQG HLQ RGHU PHKUHUHU XQDEKlQJLJHU 3UR]HVV ,QSXWPHVVJU|HQ[V DOV8UVDFKHQJU|HQRIIHQJHOHJWZHUGHQ=XGLHVHP=ZHFN NRPPW KlXILJ GDV ,VKLNDZD'LDJUDPP LQ 9HUELQGXQJ PLW GHU )HKOHU0|JOLFK NHLWV XQG (LQIOXVV$QDO\VH )0($ ]XP (LQVDW] 'LH YHUPXWHWHQ 8UVDFKHQ :LUNXQJV]XVDPPHQKlQJH ZHUGHQ LQ +\SRWKHVHQ IRUPXOLHUW XQG PLWKLOIH YRQ VWDWLVWLVFKHQ7HVWV9HUIDKUHQEHUSUIW]%.RQWLQJHQ]9DULDQ]XQG5HJUHVVL RQVDQDO\VH 'DGXUFK ZLUG GHU JHQHUHOOHQ )RUGHUXQJ YRQ 6L[ 6LJPD QDFKJHNRP PHQ (QWVFKHLGXQJHQ IU GLH (LQOHLWXQJ YRQ 9HUEHVVHUXQJVPDQDKPHQ MHZHLOV DXIGHU%DVLVYRQ=DKOHQ'DWHQXQG)DNWHQ=') ]XWUHIIHQ 'LH$QDO\VH3KDVHYHUOlXIWLQYLHOHQ)lOOHQ]ZHLJOHLVLJ •
,P5DKPHQGHURJProzessanalyse ZLUG]XQlFKVWYHUVXFKWDXIJUDSKLVFKHP :HJH GLH =XVDPPHQKlQJH ]ZLVFKHQ 8UVDFKHQ XQG :LUNXQJVJU|HQ ]X EHVWLPPHQ ,P (UJHEQLV OLHJW HLQH TXDOLWDWLYH %HVFKUHLEXQJ GHV 3UR]HVVDE ODXIV]XU(UVWHOOXQJGHVGHILQLHUWHQ2XWSXWVYRU$XIGLHVHU%DVLVZHUGHQGLH ZHVHQWOLFKHQ 3UR]HVV XQG ,QSXWPHVVJU|HQ HUNDQQW XQG LQ %H]XJ DXI LKUHQ (LQIOXVVDXIGLH2XWSXWPHVVJU|HVXEMHNWLY JHZLFKWHW
•
1DFK GHU (UKHEXQJ YRQ 'DWHQ ]X GHQ HLQ]HOQHQ 0HVVJU|HQ NRPPHQ LP 5DKPHQ GHU Datenanalyse PDWKHPDWLVFKVWDWLVWLVFKH 9HUIDKUHQ ]XP (LQVDW] GLH GHQ YHUPXWHWHQ =XVDPPHQKDQJ ]ZLVFKHQ 2XWSXWPHVVJU|H DOV DEKlQJL JHU9DULDEOHXQG3UR]HVV,QSXWPHVVJU|HQDOVXQDEKlQJLJH9DULDEOHQEHVWl WLJHQ,P(UJHEQLVOLHJWHLQTXDQWLIL]LHUWHVXQGVWDWLVWLVFKDEJHVLFKHUWHV8UVD FKHQ:LUNXQJVPRGHOOE]JOGHVXQWHUVXFKWHQ3UR]HVVHVYRU
%HUJEDXHU6I VSULFKWLQGLHVHP=XVDPPHQKDQJDXFKYRQÄ3UR]HVVWU³XQG Ä'DWHQWU³GXUFKGLHGHU(LQVWLHJLQGLH$QDO\VH3KDVHHUIROJW
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
Improve-Phase :LHDXVGHQYRUVWHKHQGHQ$XVIKUXQJHQGHXWOLFKZLUGLVWHVIUGHQ(UIROJHLQHV 6L[ 6LJPD3URMHNWHV HQWVFKHLGHQG LQ GHU $QDO\VH3KDVH DOOH ZHVHQWOLFKHQ 8UVD FKHQJU|HQ IU GHQ 3UR]HVVRXWSXW ]X HUNHQQHQ XQG ]X TXDQWLIL]LHUHQ 8P GLH 6WlUNH GHV (LQIOXVVHV YRQ HLQ]HOQHQ 0HVVJU|HQ ]X EHVWLPPHQ UHLFKW HV LG5 QLFKW DXV GHQ DNWXHOOHQ 3UR]HVV QXU ]X EHREDFKWHQ 9LHOPHKU LVW GLH %HGHXWXQJ YRQHLQ]HOQHQ0HVVJU|HQEHUH[SHULPHQWHOOH9HUVXFKHDE]XNOlUHQ 'XUFKGLHStatistische Versuchsplanung'2(±'HVLJQRI([SHULPHQWV ZLUGLP 5DKPHQ YRQ 6L[ 6LJPD3URMHNWHQ HLQH V\VWHPDWLVFKH 9RUJHKHQVZHLVH EHVFKULH EHQ GLH QHEHQ GHP $XIGHFNHQ YRQ +DXSWHLQIOXVVJU|HQ GLH ,GHQWLILNDWLRQ YRQ :HFKVHOZLUNXQJHQ]ZLVFKHQ]ZHLXQGPHKUHUHQ*U|HQHUODXEW:HLWHUKLQLVWHV PLW EHVWLPPWHQ 9HUVXFKVDQRUGQXQJHQ P|JOLFK ]% &&' ± &HQWUDO &RPSRVLWH 'HVLJQ QLFKWOLQHDUH %H]LHKXQJHQ ]ZLVFKHQ GHQ XQDEKlQJLJHQ (LQIOXVVJU|HQ GHV 3UR]HVVHV XQG GHU DEKlQJLJHQ 2XWSXWJU|H DXI]XGHFNHQ 'LH $Q]DKO GHU GXUFK]XIKUHQGHQ9HUVXFKHKlQJWLP:HVHQWOLFKHQGDYRQDE ZLH YLHO EHUHLWV LP 9RUIHOG GHV 6L[ 6LJPD3URMHNWHV EHU GHQ EHWUHIIHQGHQ 3UR]HVVJHZXVVWZLUG:LVVHQ XQG ZLH YLHOH )DNWRUHQ GHQ2XWSXWGHWHUPLQLHUHQXQGLP5DKPHQGHU0RGHOOELO GXQJ]XEHUFNVLFKWLJHQVLQG.RPSOH[LWlW ,Q GHU $QDO\VH3KDVH NRPPHQ WHLO XQG RGHU YROOIDNWRULHOOH 9HUVXFKVSOlQH ]XP (LQVDW] XP P|JOLFKVW DOOH +DXSW XQG 1HEHQHIIHNWH ]X HUXLHUHQ ,Q HLQHU IUKHQ 3KDVH GHU 8QWHUVXFKXQJ ZHUGHQ GDUEHU KLQDXV VRJ 6FUHHQLQJ 'HVLJQVGXUFKJH IKUW 'DEHL KDQGHOW HV VLFK XP Ä6LHEYHUIDKUHQ ]XU 3DUDPHWHUUHGX]LHUXQJ³ EHL GHQHQDXVHLQHUJURHQ=DKOYRQ)DNWRUHQGLHYHUPXWOLFKGDV9HUKDOWHQGHV3UR ]HVVHV EHHLQIOXVVHQ HLQH NOHLQH $Q]DKO YRQ )DNWRUHQ HUPLWWHOW ZLUG GLH WDWVlFK OLFK HLQHQ (LQIOXVV DXI GLH (UJHEQLVYDULDEOH KDEHQ (LQH 0|JOLFKNHLW XP GLH $Q]DKO GHU EHQ|WLJWHQ 9HUVXFKH EHL HLQHU VHKU JURHQ $Q]DKO SRWHQ]LHOOHU (LQ IOXVVIDNWRUHQ ]X UHGX]LHUHQ VWHOOW GLH 9HUZHQGXQJ YRQ 3ODFNHWW%XUPDQ'HVLJQV GDU 6LH N|QQHQ LQVEHVRQGHUH LQ 6FUHHQLQJ6LWXDWLRQHQ EHQXW]W ZHUGHQ LQ GHQHQ PHKU DOV 9HUVXFKH EHL YROOIDNWRULHOOHP 'HVLJQ QRWZHQGLJ VLQG GHUHQ 'XUFK IKUXQJDEHUDXV8QWHUQHKPHQVJHVLFKWVSXQNWHQ]XNRVWVSLHOLJLVW ,Q GHU ,PSURYH3KDVH NRPPW HEHQIDOOV '2( ]XP (LQVDW] 'DV =LHO EHVWHKW KLHU GDULQ DXI GHU%DVLVGHVJHIXQGHQHQIXQNWLRQDOHQ=XVDPPHQKDQJV]ZLVFKHQ2XW SXWPHVVJU|H \ XQG 3UR]HVV ,QSXWPHVVJU|HQ [L LQ GHU $QDO\VH3KDVH GDV RSWLPDOH3UR]HVVGHVLJQXQGGDPLWGLHRSWLPDOH)DNWRUNRPELQDWLRQ]XEHVWLPPHQ 0LWKLOIH YRQ VSH]LHOOHQ 9HUIDKUHQ 560 ± 5HVSRQVH 6XUIDFH0HWKRGRORJ\ ZLUG YHUVXFKW GLH $XVSUlJXQJ GHU (LQIOXVVIDNWRUHQ IU HLQ EHVWP|JOLFKHV 3UR]HVVHU JHEQLV±]XQlFKVWWKHRUHWLVFK±]XHUPLWWHOQYJO%UH\IRJOH6II
• Lösungen implementieren
• Daten analysieren • Möglichkeiten quantifizieren
• Variation bestimmen
• Sigma-Wert berechnen
• Kundenanforderungen analysieren
$EE'LHIQI3KDVHQGHV'0$,&=\NOXV
• Histogramm etc.
• SIPOC-Analyse
• VOC-CTQ-Analyse
Quelle: Eigene Darstellung
• Datensammelplan
• Projektcharter
• DPMO/ PPM
Methoden
• Gage R&R
Methoden
• Regelkarten/ SPC • Verfahrensanweisung
• Platzziffer-Verfahren • Gantt-Diagramm
• Flussdiagramme/ Wertstromanalyse
• Kosten-Nutzen-Analyse
• Streudiagramme/ DOE/ Statistische Tests
Methoden • Prozessdokumentation
Methoden • Brainstorming/ 6-3-5
Methoden • Ishikawa-Diagramm
• Reaktionsplan erstellen
• Prozess überwachen
• Soll-Prozess dokumentieren
• Lösungen auswählen
• Prozess auf hoher Ebene darstellen
• Prozess analysieren
• Messgrößen festlegen
• Problem/ Ziel definieren
• Daten sammeln
Vorgehen
Vorgehen
Vorgehen
Control
• Lösungen generieren
Improve Vorgehen
Analyse
• Ursachen analysieren
Measure Vorgehen
Define
.RQ]HSWLRQXQG,QKDOWHGHU6L[6LJPD9HUEHVVHUXQJV]\NOHQ
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
6LQG GLH $XVSUlJXQJHQ SODXVLEHO XQG QDFKYROO]LHKEDU PVVHQ SUDNWLVFKH /|VXQ JHQ JHIXQGHQ ZHUGHQ PLW GHQHQ GDV 3UREOHP EHKREHQ XQG HLQH 2SWLPLHUXQJ HU]LHOW ZHUGHQ NDQQ 'DEHL NRPPHQ .UHDWLYLWlWVWHFKQLNHQ ]XP (LQVDW] ]% %UDLQVWRUPLQJ 'LH 9RUWHLOKDIWLJNHLW GHU JHQHULHUWHQ /|VXQJVLGHHQ ZLUG LP $Q VFKOXVV PLWKLOIH HLQHU Kosten-Nutzen-Analyse EHUSUIW +DQGHOW HV VLFK EHL GHQ YRUJHVFKODJHQHQ 9HUEHVVHUXQJHQ XP 3UR]HVVYHUlQGHUXQJHQ GDQQ LVW GLH 7UDJIl KLJNHLW GHV DQJHVWUHEWHQ 6ROO3UR]HVVHV ]XQlFKVW LP 5DKPHQ YRQ NRQWUROOLHUWHQ 2XWSXWVLPXODWLRQHQ]XEHUSUIHQ'DGDVSUR]HVVUHOHYDQWH:LVVHQLP/DXIHGHV 6L[ 6LJPD3URMHNWHV VWDUN DQJHVWLHJHQ LVW N|QQHQ LQ GLHVHU 3KDVH JHKDOWYROOH +\SRWKHVHQE]JOGHU2XWSXWYHUlQGHUXQJDXIJHVWHOOWXQGJHWHVWHWZHUGHQ Control-Phase 9RU GHU ,PSOHPHQWLHUXQJ GHU JHIXQGHQHQ XQG DXVJHZlKOWHQ /|VXQJ LP 6HULHQ SUR]HVV ZHUGHQ KlXILJ Pilotversuche GXUFKJHIKUW 'DGXUFK LVW HLQ 3UD[LVWHVW P|JOLFKPLWGHP±LP*HJHQVDW]]XGHQ(UJHEQLVVHQYRQ,7JHVWW]WHQ6LPXODWL RQHQ ± GLH 9HUlQGHUXQJHQ 9HUEHVVHUXQJHQ UHDO QDFKYROO]RJHQ ZHUGHQ N|QQHQ %HLZHQLJHUNULWLVFKHQ3UR]HVVHQVWHOOHQVLHHLQHJXWH(UJlQ]XQJ]X6LPXODWLRQV GXUFKOlXIHQ ]% 0RQWH&DUOR6LPXODWLRQHQ GDU %HL XPIDQJUHLFKHUHQ 6L[ 6LJ PD3URMHNWHQZLUGGLH3LORWLHUXQJXQEHGLQJWHPSIRKOHQGDKLHUGXUFKGLH.RVWHQ VHQNXQJV XQG RGHU 8PVDW]VWHLJHUXQJVSRWHQ]LDOH EH]RJHQ DXI GDV *HVDPWXQWHU QHKPHQ DEVFKlW]EDU VLQG *OHLFK]HLWLJ NDQQ DXI GLHVH :HLVH GLH $N]HSWDQ] GHU QHXHQ/|VXQJEHL0LWDUEHLWHUQXQG)KUXQJVNUlIWHQEHUSUIWZHUGHQ =HLJHQGLH(UJHEQLVVHGHU3LORWSKDVHGDVVPLWGHUIDYRULVLHUWHQ/|VXQJGDVDQJH VWUHEWH=LHOQLYHDXQRFKQLFKWHUUHLFKEDULVWGDQQLVWHLQHRückkopplungsschleife in die Analyse-Phase QRWZHQGLJ ,Q YLHOHQ 3URMHNWHQ ]HLJW VLFK QlPOLFK GDVV GLH 3UREOHPHLPHUVWHQ'XUFKODXIDXIHLQHU]XKRKHQ$QDO\VHHEHQHDQJHJDQJHQZHU GHQ (UVW ZHQQ DXI GHU %DVLV YRQ EHVWlWLJWHQ 8UVDFKHQ:LUNXQJV]XVDPPHQ KlQJHQ /|VXQJHQ JHQHULHUW ZHUGHQ N|QQHQ PLW GHQHQ GDV LQ GHU 3URMHNWFKDUWHU IRUPXOLHUWH3UREOHPQDFKZHLVOLFKEHKREHQZLUGLVWGHUhEHUJDQJLQGLH&RQWURO 3KDVH JHJHEHQ ,Q GLHVHU 3KDVH JHKW HVGDUXPGHQRSWLPLHUWHQ3UR]HVVE]ZGDV IHKOHUIUHLH 3URGXNW ]X VWDELOLVLHUHQ XQG GDV HUUHLFKWH =LHOQLYHDX ]X EHUZDFKHQ 1DFK $EVFKOXVV GHV 6L[ 6LJPD3URMHNWHV VHW]HQ L$ ZHLWHUIKUHQGH 9HUEHVVH UXQJVDNWLYLWlWHQHLQXPVRGHQhEHUJDQJ]X.93]XHUUHLFKHQ 'LH &RQWURO3KDVH LVW HUIRUGHUOLFK GDPLW GLH ]XU 3UR]HVVRSWLPLHUXQJ LPSOHPHQ WLHUWHQ /|VXQJHQ QDFK 3URMHNWDEVFKOXVV QLFKW QDFKODVVHQ E]Z ÄDXIJHZHLFKW³ ZHUGHQ'D]XLVW]XPHLQHQHLQHVDXEHUH3UR]HVVGRNXPHQWDWLRQPLWYLVXDOLVLHUWHP 6ROO3UR]HVV XQG HLQGHXWLJ IRUPXOLHUWHQ 9HUIDKUHQVDQZHLVXQJHQ QRWZHQGLJ =XP DQGHUHQ VLQG Statistische Qualitäts- bzw. Prozessregelkarten HLQ]XVHW]HQ GLH HLQ NRQWLQXLHUOLFKHV 0RQLWRULQJ GHU DOV NULWLVFK HLQJHVWXIWHQ ,QSXW XQG3UR]HVVPHVV JU|HQ HUODXEHQ (LQ ZHVHQWOLFKHU %HVWDQGWHLO GHU GDWHQJHVWW]WHQ 3UR]HVVVWHXH UXQJUHJHOXQJ63&±6WDWLVWLFDO3URFHVV&RQWURO LVWGHU(LQVDW]YRQ5HDNWLRQV SOlQHQ GLH EHVFKUHLEHQ ZDV ]X WXQ LVW ZHQQ GHU 3UR]HVV DXHU .RQWUROOH JHUlW
.RQ]HSWLRQXQG,QKDOWHGHU6L[6LJPD9HUEHVVHUXQJV]\NOHQ
GK GLH (LQJULIIV RGHU :DUQJUHQ]H YHUOHW]W ZHUGHQ 0LW GHU (UIOOXQJ GLHVHU $QIRUGHUXQJHQ JLOW GDV 6L[ 6LJPD3URMHNW DOV EHHQGHW 'LH HUVWHOOWHQ 8QWHUODJHQ ]XU 3UR]HVVVWHXHUXQJ XQG EHUZDFKXQJ ZHUGHQ YRP 3URMHNWWHDP *UHHQ XQG %ODFN%HOWV DQGHQ3UR]HVVHLJQHU&KDPSLRQ EHUJHJHEHQ Kritische Bewertung: 'HU '0$,&=\NOXV JLOW KHXWH LQ GHU 8QWHUQHKPHQVSUD[LV DOV Ä6WDWHRIWKHDUW³ 'DV 9RUJHKHQVPRGHOO ]XU 9HUEHVVHUXQJ YRQ EHVWHKHQGHQ 3UR]HVVHQ KDW VLFK VRZRKO LQ ,QGXVWULH DOV DXFK LQ 'LHQVWOHLVWXQJVXQWHUQHKPHQ EHZlKUW YJO $EVFKQLWW $XV ZLVVHQVFKDIWOLFKHU 6LFKW IlOOW GLH %HZHUWXQJ GHV 3UREOHPO|VXQJV]\NOXV HEHQIDOOV VHKU SRVLWLY DXV GLH %HIlKLJHU XQG (UJHE QLVNULWHULHQZHUGHQMHZHLOV]XHUIOOWVLHKH$EE )UGLH(UIOOXQJGHV RJ8QWHUQHKPHQV]ZHFNHVLVWGHU=\NOXVRSWLPDOJHHLJQHW 3.3.2
DMADV-Zyklus zur Neuproduktentwicklung
'HU $QIRUGHUXQJ DQ GHQ (QWZLFNOXQJVEHUHLFK LQQRYDWLYH 3URGXNWH PLW HLQHU KRKHQ5REXVWKHLWL6Y=XYHUOlVVLJNHLW ]XHU]HXJHQZLUGGXUFKGLH$QZHQGXQJ GHV '0$,&=\NOXV QXU EHGLQJW HUIOOW GD KLHU GDV Ä9HUEHVVHUQ³ XQG QLFKW GDV Ä'HVLJQHQ³ LP 9RUGHUJUXQG VWHKW %HLP '0$'9=\NOXV ZHUGHQ GHVKDOE GLH OHW]WHQEHLGHQ3KDVHQGHV'0$,&=\NOXVGXUFKGLH3KDVHQÄ'HVLJQ³XQGÄ9HUL I\³HUVHW]W'HULGHDOW\SLVFKH$EODXIGHV6L[6LJPD3URMHNWPDQDJHPHQW]\NOXVIU GLH 1HXSURGXNWSODQXQJ XQG HQWZLFNOXQJ LVW LQ $EE LP hEHUEOLFN GDUJH VWHOOW :LH GLH IROJHQGHQ $XVIKUXQJHQ ]HLJHQ XQWHUVFKHLGHQ VLFK GDV 9RUJHKHQ XQG GLH 0HWKRGHQ GHU HLQ]HOQHQ 3KDVHQ ]7 GHXWOLFK YRQ GHQHQ GHV '0$,& =\NOXV YJO XD 7|SIHU *QWKHU E *LWORZ HW DO &UHYHOLQJ 6OXWVN\ $QWLV%UH\IRJOH%UXH/DXQVE\7HQQDQW Define-Phase $XV GHU 8QWHUQHKPHQVSUD[LV LVW EHNDQQW GDVV ]DKOHQPlLJ DXI HLQ 3URMHNW GDV QDFKGHPDMADV-ZyklusGXUFKJHIKUWZLUGELV]X6L[6LJPD3URMHNWHNRP
'LH *HPHLQVDPNHLWHQ XQG 8QWHUVFKLHGH YRQ '2( XQG 63& DOV ZLFKWLJH VWDWLVWLVFKH $QDO\VHLQVWUXPHQWH LP 5DKPHQ YRQ 6L[ 6LJPD ]HLJW $QGHUVRQ 6 II :lK UHQG63&HLQH5HLKHYRQ7RROVEHUHLWVWHOOWXPGLHQDWUOLFKH6WUHXXQJYRQ3UR]HVVHQ ]X DQDO\VLHUHQ ]LHOW '2( GDUDXI DE GLH VSH]LHOOHQ 8UVDFKHQ IU 3UR]HVVYDULDQ] ]X HUPLWWHOQXQG]XEHVHLWLJHQÄ'RLQJ'2(LVtalkingWRDPDQXIDFWXULQJSURFHVV³ 'HU '0$'9=\NOXV ZLUG KHXWH DOV VWDQGDUGLVLHUWHV 9RUJHKHQVPRGHOO YRQ IKUHQGHQ 6L[ 6LJPD8QWHUQHKPHQ HLQJHVHW]W ]% $%% 0RWRUROD XQG *HQHUDO (OHFWULF $OV NRQNXUULHUHQGH=\NOHQJHOWHQGHUSKDVLJH,'29=\NOXV,GHQWLI\'HVLJQ2SWLPL]H 9HULI\ GHUXUVSUQJOLFKYRQ*HQHUDO(OHFWULFHQWZLFNHOWZRUGHQLVWVRZLHGLH'HVLJQ YHUEHVVHUXQJVPHWKRGH QDFK 7DJXFKL PLW GHQ GUHL 3KDVHQ 6\VWHP 3DUDPHWHU XQG 7ROHUDQ]GHVLJQ YJO 0DJQXVVRQ HW DO 6 =LHOH XQG ,QKDOWH GHU RJ =\NOHQVLQGLPJURHQXQGJDQ]HQYHUJOHLFKEDUYJO%UXH/DXQVE\6 *HJHQEHU GHP '0$,&=\NOXV VLQG GLH $XVIKUXQJHQ ZHQLJHU VWDUN OLWHUDWXUEDVLHUW GDGLH$Q]DKOYHUIJEDUHU4XHOOHQKLHUGHXWOLFKJHULQJHULVW
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
PHQ GLH DXI GHP '0$,&=\NOXV EDVLHUHQ 1DFK %HUJEDXHU 6 JLEW HV LP :HVHQWOLFKHQzwei Anwendungsfälle EHL GHQHQ GDVPHWKRGLVFKH9RUJHKHQ QDFKGHP'0$,&=\NOXVQLFKW]XPJHZQVFKWHQ(UJHEQLVIKUW •
(LQvöllig neues Produkt/ neuer ProzessVLQG]XHQWZLFNHOQXQGHLQ]XIKUHQ 0LWKLOIH GHU 0HWKRGHQ XQG 9RUJHKHQVZHLVHQ GHV '0$,&=\NOXV LVW HV L$ QLFKW P|JOLFK 1HXSURGXNWH XQG SUR]HVVH VR ]X GHVLJQHQ GDVV VLH GLH 9RU JDEHQGHU.XQGHQYRQYRUQKHUHLQPLW1XOO)HKOHU4XDOLWlWHUIOOHQ
•
(LQbestehender Prozess ist „ausgereizt“GKHULVWLP+LQEOLFNDXIGLH/HLV WXQJVIlKLJNHLW DQ VHLQH REHUH *UHQ]H JHVWRHQ 'LHVH OLHJW PHLVWHQV DXI HL QHP4XDOLWlWVQLYHDXYRQσ)UHLQH'XUFKEUHFKXQJGHUÄσ:DQG³EHGDUI HVHLQHU1HX0RGHOOLHUXQJ(QWZLFNOXQJGHV3UR]HVVHV
/LHJW HLQHU GHU RJ $QZHQGXQJVIlOOH YRU GDQQ LVW GHP '0$'9=\NOXV EHL GHU 3UREOHPO|VXQJ GHU 9RU]XJ ]X JHEHQ $QDORJ ]XU 'HILQH3KDVH LP '0$,&=\N OXVZLUGKLHU]XQlFKVWHLQHProjektcharter DXIJHVWHOOW,QGLHVHUZHUGHQXDD GHU %XVLQHVV &DVH DOVR GLH DNWXHOOH ZLUWVFKDIWOLFKH /DJH $XVJDQJVVLWXDWLRQ E GLH 3UREOHPHXQG=LHOHGHUJHSODQWHQ1HXSURGXNWHQWZLFNOXQJF GHU3URMHNWXPIDQJ XQGGLHGDIU]XU9HUIJXQJVWHKHQGHQ5HVVRXUFHQVRZLHG GLH5ROOHQXQG9HU DQWZRUWOLFKNHLWHQLP5DKPHQGHVHLQEHVWHOOWHQ3URMHNWWHDPVEHVFKULHEHQ 'DUEHU KLQDXV ZHUGHQ LQ GLH 3URMHNWFKDUWHU ZHQQ YRUKDQGHQ %HQFKPDUNLQJ 'DWHQ DXV GHU Marktanalyse/ -forschung DXIJHQRPPHQ 'LHVH KHOIHQ EHLP (LQ JUHQ]HQGHV3URMHNWXPIDQJVEHLGHU'HILQLWLRQYRQ6FKQLWWVWHOOHQ]XEHQDFKEDUWHQ 3UR]HVVHQXQGDQJUHQ]HQGHQ) (3URMHNWHQVRZLHEHLP%HVWLPPHQGHUEHQ|WLJ WHQ6DFKXQG)LQDQ]PLWWHOIUGLH3URMHNWXPVHW]XQJ $XIJUXQG GHU K|KHUHQ .RPSOH[LWlW YRQ (QWZLFNOXQJVYRUKDEHQ ZLUG QHEHQ GHU 3URMHNWFKDUWHU HLQ Projektplan 0XOWL *HQHUDWLRQDO 3ODQ HUVWHOOW LQ GHP ± XQWHU %HUFNVLFKWLJXQJGHVDQJHVWUHEWHQ3URGXNWNRQ]HSWHV±GHU3URMHNWXPIDQJXQGGHU 5HVVRXUFHQEHGDUI LP 'HWDLO JHSODQW ZHUGHQ $XHUGHP ZLUG HLQ H[SOL]LWHV 3UR MHNWPDQDJHPHQW ]XU RSHUDWLYHQ 3URMHNWVWHXHUXQJ XQG NRQWUROOH LPSOHPHQWLHUW XPGHQYRUJHVHKHQHQ=HLWXQG.RVWHQSODQWDWVlFKOLFKHLQ]XKDOWHQ :HVHQWOLFKH ,QVWUXPHQWH GLH LP 5DKPHQ GHV 3URMHNWPDQDJHPHQWV FRQWUROOLQJV ]XU $QZHQGXQJ NRPPHQ VLQG GLH Netzplantechnik 3(57 ± 3URMHFW (YDOXDWLRQ DQG 5HYLHZ 7HFKQLTXH XQG GLH 0HLOHQVWHLQSODQXQJ *DQWW'LDJUDPP 6LH ]HL JHQ GLH ]XU 5HDOLVLHUXQJ HLQHV 3URMHNWHV ZHVHQWOLFKHQ 9RUJlQJH XQG (UHLJQLVVH VRZLHGHUHQORJLVFKHXQG]HLWOLFKH$EKlQJLJNHLWHQDXI
'DV9HUKlOWQLVYRQHUIROJUHLFKGXUFKJHIKUWHQ'0$'9]X'0$,&3URMHNWHQYDULLHUW YRQ 8QWHUQHKPHQ ]X 8QWHUQHKPHQ ,Q GHU SUD[LVEH]RJHQHQ /LWHUDWXU ILQGHQ VLFK GHV KDOEYHUVFKLHGHQH$QJDEHQKLHU]X:lKUHQG]%:HVVHO6 YRQHLQHP9HU KlOWQLV YRQ ]X DXVJHKW ZHUGHQ QDFK GHU $QDO\VH YRQ /LX :X 6 PLQGDOOHU6L[6LJPD3URMHNWHQDFKGHP'0$'9=\NOXVGXUFKJHIKUW
.RQ]HSWLRQXQG,QKDOWHGHU6L[6LJPD9HUEHVVHUXQJV]\NOHQ
%HL JU|HUHQ ) (3URMHNWHQ LVW HV ]XGHP UDWVDP HLQHQ Kommunikationsplan DXI]XVWHOOHQ LQ GHP YHUELQGOLFK IHVWJHOHJW ZLUG ZHOFKH (UJHEQLVVH ZLH NRPPX QL]LHUWZHUGHQ*HQDXVREHGHXWVDPLVWGLH,PSOHPHQWLHUXQJHLQHVIXQGLHUWHQ5LVL NRPDQDJHPHQWV GD HV YRU DOOHP EHL ')66 GDUDXI DQNRPPW GXUFK )HKOHU LP (QWZLFNOXQJVSUR]HVV HQWVWHKHQGH 5LVLNHQ P|JOLFKVW VFKQHOO ]X HUNHQQHQ XQG EHL HLQHP$XVPDEHUGHPGHILQLHUWHQNULWLVFKHQ:HUW]XHOLPLQLHUHQ Measure-Phase 'LH0HDVXUH3KDVHGHV'0$'9=\NOXVEHLQKDOWHWGUHL7HLOVFKULWWHGLHV\VWHPD WLVFK DXIHLQDQGHU DXIEDXHQ ,P ersten Schritt JHKW HV XP GDV ,GHQWLIL]LHUHQ 6HJ PHQWLHUHQ XQG 3ULRULVLHUHQ YRQ =LHOJUXSSHQ E]Z SRWHQ]LHOOHQ .lXIHUJUXSSHQ 1XUZHQQGLH=LHONXQGHQHLQGHXWLJLGHQWLIL]LHUWZHUGHQN|QQHQLVWGDV$XIVWHOOHQ HLQHVSUl]LVHQAnforderungsprofils für das neue Produkt bzw. die neue Dienstleistung JHZlKUOHLVWHW$QGHUQIDOOVEHVWHKWGLH*HIDKUGDVVLP/DVWHQ3IOLFKWHQKHIW IU GDV QHXH 3URGXNW GLH QHXH 'LHQVWOHLVWXQJ ]X YLHOH XQWHUVFKLHGOLFKH $QIRUGH UXQJHQEHUFNVLFKWLJWZHUGHQXQGHVGDGXUFKÄXQVFKDUI³ZLUG (QWVSUHFKHQG GHU 3KLORVRSKLH HLQHU PDUNWRULHQWLHUWHQ 8QWHUQHKPHQVIKUXQJ ZLUG KLHUYHUVXFKWZielgruppen zu identifizierenGHQHQPLWHLQHUVSH]LHOO]XJHVFKQLWWH QHQ /HLVWXQJ 9RUWHLOH YHUVFKDIIW UHVSHNWLYH DQJHERWHQ ZHUGHQ N|QQHQ 'D]X LVW GLH $XIWHLOXQJ GHV *HVDPWPDUNWHV LQ 8QWHUJUXSSHQ DOVR 0DUNWVHJPHQWH QRW ZHQGLJGLHKLQVLFKWOLFKLKUHU0DUNWUHDNWLRQLQQHUKDOEHLQHV6HJPHQWHVKRPRJHQ ]ZLVFKHQ GHQ 6HJPHQWHQ GDJHJHQ P|JOLFKVW KHWHURJHQ VLQG )U GLH HLQ]HOQHQ Marktsegmente N|QQHQ GDQQ JH]LHOWH 0DQDKPHQSURJUDPPH 3URGXNWH 'LHQVW OHLVWXQJHQ HUDUEHLWHWXQGXPJHVHW]WZHUGHQYJO7|SIHU6 $OVAnalysemethoden VWHKHQXDGLH&OXVWHUDQDO\VHXQGGLH'LVNULPLQDQ]DQDO\VH ]XU 9HUIJXQJ %HLGHQ NRPPW DOV VWUXNWXUHQWGHFNHQGHQ 9HUIDKUHQ LP 5DKPHQ GHU0DUNWIRUVFKXQJHLQHKHUDXVUDJHQGH6WHOOXQJ]X •
0LWGHUClusteranalyse ODVVHQVLFKXQWHUVFKLHGOLFKH=LHOJUXSSHQVRJ&OXVWHU KHUDXVILOWHUQ ZREHL 2EMHNWH E]Z 3HUVRQHQ DQKDQG DXVJHZlKOWHU 0HUNPDOH (LJHQVFKDIWHQ ]X LQWHUQ KRPRJHQHQ XQG H[WHUQ KHWHURJHQHQ 9DULDEOHQ E]Z )DOOJUXSSHQ]XVDPPHQJHIDVVWZHUGHQ'LHbKQOLFKNHLWGHU*UXSSHQZLUGPLW HLQHP YRUKHU IHVWJHOHJWHQ 3UR[LPLWlWVPD JHPHVVHQ (V ZLUG HLQH 'LVWDQ] PDWUL[ ]% QDFK TXDGULHUWHU HXNOLGLVFKHU 'LVWDQ] HUVWHOOW DXV GHU PLWKLOIH KLHUDUFKLVFKHU RGHU SDUWLWLRQLHUHQGHU 9HUIDKUHQ GLH 2EMHNWH 3HUVRQHQ GLH VLFKVHKUlKQOLFKVLQG]X*UXSSHQ]XVDPPHQJHIDVVWZHUGHQ
•
=XU hEHUSUIXQJ GHU (UJHEQLVVH HLQHU &OXVWHUDQDO\VH NDQQ ]XVlW]OLFK HLQH Diskriminanzanalyse GXUFKJHIKUW ZHUGHQ %HL GLHVHU ZLUG HLQ 9RUKHUVDJH PRGHOO HQWZLFNHOW DXI %DVLV GHVVHQ VLFK GLH *UXSSHQ]XJHK|ULJNHLW DQKDQG
'LH )HVWOHJXQJ GHU &OXVWHU$Q]DKO HUIROJW LQ $EKlQJLJNHLW YRP $QVWLHJ GHU 'LVWDQ] ZHUWH 1DFK GHP (OERZ.ULWHULXP ZLUG GLH &OXVWHUXQJ DQ GHU 6WHOOH DEJHEURFKHQ DQ GHUGHU$QVWLHJDPJU|WHQLVWYJO%DFNKDXVHWDO6I
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
GHUEHREDFKWHWHQ(LJHQVFKDIWHQHLQ]HOQHU)lOOHSURJQRVWL]LHUHQOlVVW9RUDXV VHW]XQJ KLHUIU LVW GLH (U]HXJXQJ HLQHU RGHU PHKUHUHU 'LVNULPLQDQ]IXQNWLR QHQXQG]ZDUDXIJUXQGGHU/LQHDUNRPELQDWLRQHQGHU(LQIOXVVYDULDEOHQZHO FKHGLHEHVWH'LVNULPLQDQ]DOVR$EJUHQ]XQJ]ZLVFKHQGHQHLQ]HOQHQ*UXS SHQHUJHEHQYJO%DFNKDXVHWDO6IIXQG6II 1DFKGHP GLH ZLFKWLJVWHQ .XQGHQJUXSSHQ LGHQWLIL]LHUW ZRUGHQ LVW VLQG ZHU GHQ LQ HLQHP zweiten Schritt GLH .XQGHQEHGUIQLVVH GLHVHU =LHOJUXSSHQ JHVDP PHOW XQG DQDO\VLHUW 'D EHL 1HXHQWZLFNOXQJHQ KlXILJ GLH $QQDKPH ]XWULIIW GDVV GHU ,QIRUPDWLRQVEHGDUI GHV 8QWHUQHKPHQV GHXWOLFK JU|HU LVW DOV EHL HLQHU 3UR GXNWYHUEHVVHUXQJNRPPWHLQHHUZHLWHUWH92&&74$QDO\VH]XP(LQVDW] )U GLH hEHUVHW]XQJ GHU Ä6WLPPH GHV .XQGHQ³ LQ GLH Ä6SUDFKH GHV ,QJHQLHXUV³ ZLUGLQ')663URMHNWHQKlXILJDXIGLH0HWKRGHGHVQuality Function Deployment (QFD)]XUFNJHJULIIHQ'DEHLVROOLQP|JOLFKVWNXU]HU=HLWHLQHLQWHJULHUWH3UR GXNWHQWZLFNOXQJIUNXQGHQJHUHFKWHTXDOLWDWLYKRFKZHUWLJH3URGXNWHXQG'LHQVW OHLVWXQJHQ GXUFKJHIKUW ZHUGHQ YJO +DXVHU &ODXVLQJ 6 9RUDXVVHW ]XQJKLHUIULVWGDVVDOOHZLFKWLJHQ.XQGHQDQIRUGHUXQJHQHUNDQQWJHZLFKWHWXQG LQWHFKQLVFKH3URGXNWVSH]LILNDWLRQHQXPJHVHW]WZHUGHQ 1HEHQGHU(UPLWWOXQJ$EOHLWXQJHUZHLVWVLFKLQVEHVRQGHUHGLHÄULFKWLJH³Gewichtung (Priorisierung) der KundenanforderungenDOVZHVHQWOLFKH9RUDXVVHW]XQJIU HLQH NXQGHQRULHQWLHUWH 3URGXNWHQWZLFNOXQJ $QGHUV DOV EHL GHU REHQ EHVFKULHEH QHQ92&&74$QDO\VHHUIROJWGLH*HZLFKWXQJLP5DKPHQGHV'0$'9=\NOXV H[SOL]LW XQG WKHRULHEDVLHUW .RQNUHW EHGHXWHW GLHV GDVV IU GLH %HZHUWXQJ XQG 3ULRULVLHUXQJYRQ.XQGHQEHGUIQLVVHQDQIRUGHUXQJHQEHNDQQWH.ODVVLIL]LHUXQJV PRGHOOHDXVGHQ6R]LDOXQG:LUWVFKDIWVZLVVHQVFKDIWHQKHUDQJH]RJHQZHUGHQ=X QHQQHQVLQGKLHUYRUDOOHPGLH.XQGHQEHGUIQLVNODVVLIL]LHUXQJDXIGHU%DVLVYRQ $%5$+$0 + 0$6/2: VRZLH GDV .XQGHQ]XIULHGHQKHLWVPRGHOO QDFK 12 5,$., .$12 ZHOFKHV HLQH GLUHNWH 9HUELQGXQJ ]ZLVFKHQ .XQGHQDQIRUGH UXQJXQG.XQGHQ]XIULHGHQKHLWKHUVWHOOWYJO$EVFKQLWW 'HQLQVWUXPHQWHOOHQ.HUQYRQ4)'ELOGHWGDV$XIVWHOOHQGHVVRJHouse of Quality +R4 'DEHL KDQGHOW HV VLFK XP HLQH %H]LHKXQJVPDWUL[ LQ GHUGLH DXV .XQ GHQVLFKW ZHVHQWOLFKHQ .XQGHQDQIRUGHUXQJHQ GHQ DXV 8QWHUQHKPHQVVLFKW ZHVHQW OLFKHQ3URGXNWPHUNPDOHQJHJHQEHUJHVWHOOWZHUGHQYJO6DDWZHEHU6
1DFK GHP MDSDQLVFKHQ 4XDOLWlWVPDQDJHPHQW([SHUWHQ <2-, $.$2 GHP Ä8U9DWHU³ YRQ4)'ZLUGGDUXQWHUGLHJH]LHOWH3ODQXQJXQG(QWZLFNOXQJGHU4XDOLWlWVIXQNWLRQHQ HLQHV 3URGXNWHV HLQHU 'LHQVWOHLVWXQJ HQWVSUHFKHQG GHU YRP .XQGHQ JHIRUGHUWHQ 4XDOLWlWVPHUNPDOHYHUVWDQGHQYJO$NDR6 'LH%HGUIQLVS\UDPLGHQDFK$%5$+$0 +0$6/2: HUP|JOLFKWGLH(LQRUGQXQJ YRQ .XQGHQEHGUIQLVVHQ LQ 0RWLYNODVVHQ 0LW VWHLJHQGHU +LHUDUFKLH %HGHXWXQJ ZHUGHQKLHU*UXQG6LFKHUKHLWV6R]LDO:HUWVFKlW]XQJVXQG6HOEVWYHUZLUNOLFKXQJV %HGUIQLVVHXQWHUVFKLHGHQ
$EE'LHIQI3KDVHQGHV'0$'9=\NOXV
• VOC-CTQ-Analyse
• QFD (1. HoQ)
• Benchmarking
• Gantt-Diagramm
Quelle: Eigene Darstellung
• Clusteranalyse etc.
• Projektcharter
• Lasten-/ Pflichtenheft
Methoden
Methoden
• Projektplan erstellen
• Kundenbedürfnisse sammeln und analysieren
• Kunden identifizieren, priorisieren und segmentieren
• Marktdaten auswerten
Vorgehen
• Problem/ Ziel definieren
Measure
Vorgehen
Define
• Implementierung vorbereiten • Prozess übergeben
Methoden • Design Scorecard • Regelkarten/ SPC
• Detailliertes Design evaluieren • Implementierung vorbereiten Methoden • QFD/ FMEA • DOE nach Shainin/ Taguchi
• High Level Design entwickeln • High Level Design evaluieren Methoden • Brainstorming/ -writing
• Zuverlässigkeit • Prozess-/ Maschinenfähigkeit
• Outputsimulation • Target Costing
• Verfahrensanweisung
• Pilotierung durchführen
• Detailliertes Design entwickeln
• QFD/ FMEA
Vorgehen
Vorgehen
Verify
• Designkonzepte bestimmen
Design
Vorgehen
Analyse
.RQ]HSWLRQXQG,QKDOWHGHU6L[6LJPD9HUEHVVHUXQJV]\NOHQ
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
'XUFK GLH (UPLWWOXQJ YRQ VXEMHNWLYHQ .RUUHODWLRQVZHUWHQ ZLUG GHU =XVDPPHQ KDQJ ]ZLVFKHQ GHU DUWLNXOLHUWHQ .XQGHQDQIRUGHUXQJ XQG GHP WHFKQLVFKHQ 3UR GXNWPHUNPDOREMHNWLYLHUW'LH6XPPHGHUPLWGHQ.XQGHQDQIRUGHUXQJHQJHZLFK WHWHQ.RUUHODWLRQVZHUWHHUJLEWGLH*HZLFKWXQJSUR3URGXNWPHUNPDO 'LH 3URGXNWPHUNPDOH PLW GHU K|FKVWHQ *HZLFKWXQJ VLQG IU GLH 1HXSURGXNWHQW ZLFNOXQJ HQWVFKHLGHQG VLH EHVLW]HQ GHVKDOE GHQ 6WDWXV YRQ NULWLVFKHQ 4XDOLWlWV PHUNPDOHQ &74V %HYRU GLH &74V LQ GHU EHVFKULHEHQHQ :HLVH HUPLWWHOW ZHU GHQ ZLUG HLQ Benchmarking GXUFKJHIKUW EHL GHP DXVJHKHQG YRQ GHQ ZHVHQWOL FKHQ.XQGHQDQIRUGHUXQJHQGLHHLJHQH:HWWEHZHUEVSRVLWLRQPLWGHUYRQPDJHE OLFKHQ.RQNXUUHQWHQYHUJOLFKHQZLUG'LHVHU$QDO\VHVFKULWWLVWQRWZHQGLJXPXD GLH )UDJH ]X EHDQWZRUWHQ PLW ZHOFKHP WHFKQLVFKHQ .RQ]HSW GDV 8QWHUQHKPHQ GLH%HGUIQLVVH$QIRUGHUXQJHQVHLQHU.XQGHQ]XNQIWLJEHVVHU HUIOOW Analyse-Phase 'LH 3URGXNWPHUNPDOH GLH LP 5DKPHQ GHU 0HDVXUH3KDVH VSH]LIL]LHUW ZRUGHQ VLQG ZHUGHQ LQ GHU $QDO\VH3KDVH ]XQlFKVW HLQHU Abhängigkeitsanalyse XQWHU]R JHQ 'DEHL ZLUG JHNOlUW LQZLHZHLW VLFK GLH HLQ]HOQHQ 3URGXNWPHUNPDOH EHL GHU (UIOOXQJ GHU .XQGHQDQIRUGHUXQJHQ JHJHQVHLWLJ ± SRVLWLY RGHU QHJDWLY ± EHHLQ IOXVVHQ'LH.RUUHODWLRQHQZHUGHQLQHLQHUVHSDUDWHQ0DWUL[LPÄ'DFK³GHV+R4 YLVXDOLVLHUW )ROJW PDQ GHP VWDQGDUGPlLJHQ 4)'9RUJHKHQ GDQQ VLQG LP :HL WHUHQ 'HVLJQNRQ]HSWH ]X EHVWLPPHQ ZHOFKH GLH ]XYRU HUPLWWHOWHQ =LHOYRUJDEHQ IUGLH3URGXNWPHUNPDOHP|JOLFKVWJXWHUIOOHQYJO'*4E6I 'LHVHU6FKULWWLVWQRWZHQGLJXPGLH6XFKHSRWHQ]LHOOHU3URGXNWO|VXQJHQQLFKWYRQ YRUQKHUHLQ ]X VWDUN HLQ]XVFKUlQNHQ 'DV PHWKRGLVFKH 9RUJHKHQ EHVWHKW GDULQ GDVV GLH DXV WHFKQLVFKHU XQG ZLUWVFKDIWOLFKHU 6LFKW EHZHUWHWHQ 3URGXNWPHUNPDOH DQGHQ]XU$XVZDKOVWHKHQGHQ.RPSRQHQWHQUHVSHNWLYH.RPSRQHQWHQPHUNPDOHQ JHVSLHJHOW ZHUGHQ 'XUFK GLH .RPELQDWLRQ YHUVFKLHGHQHU %DXWHLOH XQG .RPSR QHQWHQ ODVVHQ VLFK LG5 HLQH 5HLKH YRQ alternativen Produktkonzepten HQWZL FNHOQ 'D GHU 6SH]LILNDWLRQVJUDG LQ GLHVHP (QWZLFNOXQJVVWDGLXP QRFK UHODWLY JURELVWVSULFKWPDQKLHUDXFKYRP(QWZXUIYRQVRJÄ'HVLJQVDXIKRKHU(EHQH³ E]ZÄ+LJK/HYHO'HVLJQV³YJO7|SIHU*QWKHUE6I 8PLQQRYDWLYH'HVLJQV3UREOHPO|VXQJHQ]XHUKDOWHQZHUGHQKlXILJ.UHDWLYLWlWV WHFKQLNHQ ]% %UDLQVWRUPLQJ ZULWLQJ XQG (UILQGXQJVPHWKRGHQ ]% TRIZ – Theorie des erfinderischen Problemlösens HLQJHVHW]W 0LWKLOIH YRQ 75,= DOV ZL GHUVSUXFKVRULHQWLHUWHU ,QQRYDWLRQVVWUDWHJLH ODVVHQ VLFK XD HUNDQQWH WHFKQLVFKH :LGHUVSUFKH LQ GHU %H]LHKXQJVPDWUL[ GHV +R4 EHKHEHQ 'DEHL XPIDVVW 75,= HLQH5HLKHYRQ(UILQGXQJVXQG(QWZLFNOXQJVPHWKRGHQXQG]ZDULQGHQ.DWHJR ULHQ 6\VWHPDWLN :LVVHQ $QDORJLH XQG 9LVLRQ YJO +HUE HW DO 6
%HL GHU 4)'$QZHQGXQJ LVW ]X EHDFKWHQ GDVV IHKOHUKDIWH (LQJDQJVJU|HQ LQ )RUP IDOVFKHU .XQGHQDQIRUGHUXQJHQ VLFK LP 9HUODXI GHU (UVWHOOXQJ PHKUHUHU %H]LHKXQJV PDWUL]HQ+R4V ]XÄKRFKJUDGLJ³IHKOHUKDIWHQ$XVJDQJVJU|HQSRWHQ]LHUHQN|QQHQ
.RQ]HSWLRQXQG,QKDOWHGHU6L[6LJPD9HUEHVVHUXQJV]\NOHQ
'XUFK 75,= GDV DXI GHQ UXVVLVFKHQ )OXJ]HXJLQJHQLHXU *(15,&+ 6 $/76&+8/ /(5 ]XUFNJHKWVROOGDVELVKHURIWXQV\VWHPDWLVFKH9RUJHKHQEHLGHU 6XFKHQDFKLQQRYDWLYHQ/|VXQJHQGXUFKHLQHQVWUXNWXULHUWHQ'HQNXQG.UHDWLYL WlWVSUR]HVV HUVHW]W ZHUGHQ 'HU (LQVDW] YRQ 75,= LP =XVDPPHQKDQJ PLW 6L[ 6LJPDZLUGVHLWODQJHPSURSDJLHUWYJO]%$YHUERXNK MHGRFKVWHKWHLQH V\VWHPDWLVFKH,QWHJUDWLRQLQGHQ'0$'9=\NOXVQRFKDXV 'LH HUVWHOOWHQ 'HVLJQYRUVFKOlJH DXI KRKHU (EHQH VLQG LP $QVFKOXVV KLQVLFKWOLFK LKUHU (UIOOXQJ YRQ NULWLVFKHQ 4XDOLWlWVPHUNPDOHQ VRZLH LKUHU ZLUWVFKDIWOLFKHQ 8PVHW]EDUNHLW ]X EHUSUIHQ ,P 5DKPHQ HLQHV Design-Reviews ZHUGHQ GLH HU PLWWHOWHQ +LJK /HYHO'HVLJQV XQWHU YHUVFKLHGHQHQ %OLFNZLQNHOQ HYDOXLHUW 'LH wirtschaftliche BewertungEHLQKDOWHWGDV(LQKROHQYRQ.XQGHQIHHGEDFNVXQGGDV (UVWHOOHQ HLQHV =LHONRVWHQNRQWUROOGLDJUDPPV ,Q GLHVHP ZHUGHQ GLH GHU]HLW SURJ QRVWL]LHUWHQ .RVWHQDQWHLOH 'ULIWLQJ &RVWV DOV,VW.RVWHQ GHUIUGDV+LJK/HYHO 'HVLJQ YRUJHVHKHQHQ .RPSRQHQWHQ %DXWHLOH GHQ DXV KHXWLJHU 6LFKW ]XOlVVLJHQ .RVWHQDQWHLOHQ$OORZDEOH&RVWVDOV=LHONRVWHQ JHJHQEHUJHVWHOOW'LH]XOlVVLJHQ .RVWHQDQWHLOH VSLHJHOQ GDV =LHONRVWHQQLYHDX ZLGHU XQG VWLPPHQ PLW GHQ 1XW]HQ EHLWUlJHQGHQHLQH3URGXNWNRPSRQHQWHDXV.XQGHQVLFKWEHVLW]WEHUHLQ )UGLH(UPLWWOXQJGHU1XW]HQEHLWUlJHXQG=LHONRVWHQJLEWHV]ZHLDXVGHU0DUNW IRUVFKXQJ EHNDQQWH 9RUJHKHQVZHLVHQ =XP HLQHQ ZHUGHQ PLWKLOIH GHU ConjointAnalyse DXVJHKHQG YRQ PHKUHUHQ LQ HLQH 5DQJRUGQXQJ JHEUDFKWH +LJK /HYHO 'HVLJQVEDXWHLOVSH]LILVFKH1XW]HQDQWHLOHHUPLWWHOWZHOFKHGLHUHODWLYH:LFKWLJNHLW HLQHV %DXWHLOV HLQHU .RPSRQHQWH ZLGHUVSLHJHOQ =XP DQGHUHQ ZLUG LP 5DKPHQ GHV Target Costing =LHONRVWHQSODQXQJ HLQ =LHONRVWHQLQGH[ =, HUPLWWHOW GHU QDFKYROO]LHKEDU PDFKW REHLQ%DXWHLOHLQH.RPSRQHQWHEHLJHJHEHQHP1XW]HQ EHLWUDJÄ]XDXIZHQGLJ³=, Ä]XHLQIDFK³=,! RGHUÄJHQDXULFKWLJ³=, JHVWDOWHWZRUGHQLVWYJO'HLVHQKRIHU6 'LH technische Bewertung GHU 'HVLJQYRUVFKOlJH OlXIW LP :HVHQWOLFKHQ DXI HLQH $EVFKlW]XQJ GHU .RPSOH[LWlW XQG GHV 5LVLNRV EH]RJHQ DXI GHQ +HUVWHOOSUR]HVV XQG GLH 1XW]XQJVSKDVH KLQDXV 'LH .RPSOH[LWlW NDQQ LP 9RUIHOG GHU (LQIK UXQJQHXHU3URGXNWHXQG3UR]HVVHLQHUVWHU/LQLHEHUGLH(UPLWWOXQJSRWHQ]LHOOHU )HKOHUP|JOLFKNHLWHQ 2)' DEJHVFKlW]W ZHUGHQ (LQH JH]LHOWH )HKOHUYRUEHXJXQJ OlVVW VLFK GXUFK GLH $QZHQGXQJ HLQHU Failure-Mode- and -Effect-Analysis (FMEA) HUUHLFKHQ YJO %HUWVFKH /HFKQHU 6 II $OV SUlYHQWLYH 40 0HWKRGHKLOIWVLHP|JOLFKH)HKOHUXQGGHUHQ)ROJHQLQ)RUPYRQ5LVLNHQIUK]HL
$XIGHU%DVLVGHU$QDO\VHYRQEHU0LR3DWHQWHQNDPHQ$OWVFKXOOHUHWDO]XGHU (UNHQQWQLV GDVV HUIROJUHLFKH (UILQGXQJHQ DXI VHKU lKQOLFKHQ 'HQNVWUDWHJLHQEHUXKHQ 6RLVWHVP|JOLFKMHGH,GHH(UILQGXQJGXUFKXQLYHUVHOOH*UXQGUHJHOQ]XHUNOlUHQXQG GHQ3UR]HVV]XU*HQHULHUXQJQHXHUYHUEHVVHUWHU 3URGXNWHJH]LHOW]XVWHXHUQ =X GLHVHP =ZHFN VLQG NODUH 6FKQLWWVWHOOHQ ]ZLVFKHQ 6\VWHPHQ XQG 6XEV\VWHPHQ ZLH %DXJUXSSHQXQG%DXWHLOHQ]XGHILQLHUHQYJO6FKXUU6
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
WLJ]XHUNHQQHQ'LH6FKZHUHGHU)HKOHUIROJHQZLUGGXUFKGLH%HUHFKQXQJHLQHU 5LVLNRSULRULWlWV]DKO53= HUPLWWHOW'D]XLVWPLW+LOIHYRQ3XQNW]DKOHQ]ZLVFKHQ XQG MHGHU )HKOHU QDFK $XIWULWWV XQG (QWGHFNXQJVZDKUVFKHLQOLFKNHLW VRZLH %HGHXWXQJ VHLQHU )ROJHQ ]X EHZHUWHQ 'XUFK 0XOWLSOLNDWLRQ GHU (LQ]HOSXQNW]DK OHQHUJLEWVLFKGLH53=DOVREMHNWLYLHUWHU5LVLNRPDVWDE Design-Phase ,Q GHU 'HVLJQ3KDVH VWHKW GLH 'HWDLOOLHUXQJ GHV 3URGXNW XQG 3UR]HVVGHVLJQV DXI GHU%DVLVGHVIDYRULVLHUWHQ+LJK/HYHO'HVLJQVDXVGHU$QDO\VH3KDVHLP9RUGHU JUXQG 0LWKLOIH YRQ 4)' ZLUG GLH hEHUWUDJXQJ GHU Ä6WLPPHGHV.XQGHQ³LQGLH WHFKQLVFKH 3URGXNW XQG 3UR]HVVJHVWDOWXQJ ZHLWHU IRUWJHVHW]W 'LH $QZHQGXQJ YRQ 4)' EH]LHKW VLFK LQVE DXI GLH Transformation der im 2. HoQ ermittelten Komponentenmerkmale in Prozessmerkmale hEHU HLQHQ LWHUDWLYHQ 3UR]HVV ZHU GHQVRGLH.XQGHQDQIRUGHUXQJHQDXIGLH.RQVWUXNWLRQGLH3UR]HVVXQG3URGXNWL RQVSODQXQJEHUWUDJHQ=LHOLVWHVHLQHKLQVLFKWOLFKPDQXHOOHURGHUWHLO DXWRPD WLVLHUWHU 0RQWDJH RSWLPLHUWH 3URGXNWJHVWDOW HLQVFKOLHOLFK GHV 3URGXNWDXIEDXV ]X HQWZHUIHQ,P6LQQHHLQHV'HVLJQIRU0DQXIDFWXULQJDQG$VVHPEO\')0$ VROO QLFKW QXU GLH JHQHUHOOH +HUVWHOOEDUNHLW VRQGHUQ DXFK GLH HLQIDFKH XQG IHKOHUIUHLH 0RQWDJHGHV3URGXNWHVLP6HULHQSUR]HVVJHZlKUOHLVWHWZHUGHQ 'LH Entwicklung eines robusten Designs GDV DOV =LHO GLH .XQGHQDQIRUGHUXQJHQ EHVWP|JOLFK HUIOOW XQG VLFK JOHLFK]HLWLJ ZLUWVFKDIWOLFK KHUVWHOOHQ OlVVW HUIRUGHUW MHGRFK QHEHQ GHP ÄTXDOLWDWLYHQ ,QVWUXPHQW³ 4)' GHQ (LQVDW] YRQ '2( YJO $EVFKQLWW 'DGXUFK N|QQHQ GLH IXQNWLRQDOHQ $EKlQJLJNHLWHQ XQG :HFK VHOZLUNXQJHQ ]ZLVFKHQ 3URGXNW XQG .RPSRQHQWHQPHUNPDOHQ VRZLH ]ZLVFKHQ .RPSRQHQWHQ XQG 3UR]HVVPHUNPDOHQ RIIHQ JHOHJW ZHUGHQ 'DV 9RUJHKHQ HQW VSULFKWLP:HVHQWOLFKHQGHU9HUVXFKVSODQORJLNZLHVLHLP'0$,&=\NOXVDQJH ZHQGHWZLUG$OOHLQGLH6FUHHQLQJ9HUVXFKHN|QQHQHQWIDOOHQGDGLHZHVHQWOLFKHQ (LQIOXVVJU|HQEHUHLWVLP'HSOR\PHQW3UR]HVVHUPLWWHOWZRUGHQVLQG 'HPÄTXDQWLWDWLYHQ,QVWUXPHQW³'2(NRPPWDEHUQLFKWQXUEHLGHU(QWZLFNOXQJ VRQGHUQ DXFK EHL GHU Evaluierung des detaillierten Designs HLQH KHUDXVUDJHQGH %HGHXWXQJ ]X 6RZLUG]%GLH5HDNWLRQVIOlFKHQ0HWKRGLN560 GD]XJHQXW]W XP GHQ (LQIOXVV YHUVFKLHGHQHU PHWULVFKHU )DNWRUHQ .RPSRQHQWHQPHUNPDOH DXI GLH(UJHEQLVYDULDEOH3URGXNWPHUNPDO LP%HUHLFKGHU=LHOVSH]LILNDWLRQ]XEHU SUIHQ 'LH ,QIRUPDWLRQ EHU GHQ IXQNWLRQHOOHQ =XVDPPHQKDQJ LQ GLHVHU 5HJLRQ LVW KLOIUHLFK XP HLQHUVHLWV GLH .RPSRQHQWHQPHUNPDOH RSWLPDO DXV]XOHJHQ XQG DQGHUHUVHLWVGLH0HUNPDOVDXVSUlJXQJVWDWLVWLVFK]XWROHULHUHQ
1DFK GHQ EHLGHQ .ULWHULHQ $QZHQGXQJV]HLWSXQNW XQG 8QWHUVXFKXQJVREMHNW N|QQHQ GUHL $UWHQ YRQ )0($¶V XQWHUVFKLHGHQ ZHUGHQ 6R EHJOHLWHW GLH 6\VWHP)0($ GLH *HVDPWNRQ]HSWSKDVH GLH .RQVWUXNWLRQV)0($ GLH 3URGXNWHQWZXUIVSKDVH XQG GLH 3UR]HVV)0($GLH)HUWLJXQJVSODQXQJVSKDVHYJO'*4D6 'LH'XUFKIK UXQJ HLQHU JDQ]KHLWOLFKHQ6\VWHP)0($OlXIWVWDQGDUGPlLJLQIQI6FKULWWHQDEXQG IKUW]XQDFKKDOWLJHQ.RVWHQVHQNXQJHQYJO6SRQQHUHWDO6
.RQ]HSWLRQXQG,QKDOWHGHU6L[6LJPD9HUEHVVHUXQJV]\NOHQ
'LHToleranzfestlegung LVWHLQHGHU+DXSWDXIJDEHQLP5DKPHQGHV')663UR]HV VHV 'HQQ XP HLQ UREXVWHV 'HVLJQ ]X HUUHLFKHQ PVVHQ GLH 3URGXNWPHUNPDOH 3UR]HVVHUJHEQLVVH HLQHQ JHULQJHQ 7ROHUDQ]EHUHLFK DXIZHLVHQ XQG UHODWLY XQHPS ILQGOLFK JHJHQEHU 6FKZDQNXQJHQ GHU (LQIOXVVIDNWRUHQ VHLQ GLH VRZRKO HU ZQVFKWHUDOVDXFKXQHUZQVFKWHU1DWXUVHLQN|QQHQ8QHUZQVFKWH(LQIOXVVJU| HQ ZHUGHQ YRQ 7DJXFKL DOV 5DXVFKIDNWRUHQ 1RLVH EH]HLFKQHW HUZQVFKWH DOV 6LJQDOIDNWRUHQ 6LJQDO :LH LQ $EVFKQLWW DXVJHIKUW JHKW HV GDUXP GHQ 61:HUWDOV9HUKlOWQLVYRQ6LJQDO]X5DXVFKOHLVWXQJ]XPD[LPLHUHQ ,P (UJHEQLV GHU 'HVLJQ3KDVH ZHUGHQ IU 3URGXNW .RPSRQHQWHQXQG 3UR]HVV PHUNPDOHVRJDesign ScorecardsHQWZLFNHOWLQGHQHQGLH6ROO:HUWHIU0LWWHO ZHUW /DJH XQG 6WDQGDUGDEZHLFKXQJ 6WUHXXQJ DOOHU UHOHYDQWHQ 0HUNPDOH GR NXPHQWLHUWVLQG'DUEHUKLQDXVZHUGHQVRZHLWP|JOLFK$QJDEHQ]XU3UR]HVVIl KLJNHLW &SN:HUW VRZLH ]XU 3UR]HVVDXVEHXWH 57<:HUW MH 6WHXHUXQJVJU|H JHPDFKW )U GDV 4XDOLWlWVQLYHDX GDV DXI MHGHU 6WXIH GHV 'HSOR\PHQW3UR]HVVHV HUUHLFKW ZHUGHQ VROO ZLUG GHU σ:HUW DQJHJHEHQ )UGLH5REXVWKHLWHLQHU.RP SRQHQWHE]ZHLQHV3UR]HVVHVLVWGHU61:HUW]XEHUHFKQHQ6FKOLHOLFKZLUGGLH =XYHUOlVVLJNHLW GHU DXVJHZlKOWHQ .RPSRQHQWHQ EHU GLH FKDUDNWHULVWLVFKH /H EHQVGDXHU GRNXPHQWLHUW 6LH ZLUG EHU GLH EHNDQQWH :HLEXOO9HUWHLOXQJ HUPLW WHOW XQG EHVFKUHLEW GLH GXUFKVFKQLWWOLFKH /HEHQVGDXHU LQ GHU DOOHU SURGX ]LHUWHQ%DXWHLOHDXVJHIDOOHQVLQGYJO%HUWVFKH/HFKQHU6 Verify-Phase ,QGHUOHW]WHQ3KDVHGHV'0$'9=\NOXVZLUGPLWGHUPilotierung des neugestalteten Prozesses EHJRQQHQ =LHO LVW HV GLH /HLVWXQJVIlKLJNHLW GHV QHXHQWZLFNHOWHQ 3URGXNWVEHL6HULHQIHUWLJXQJ]XEHUSUIHQ)DOOHQGLH7HVWHUJHEQLVVHGHV9RUVH ULHQEHWULHEV SRVLWLY DXV ZLUG PLW GHU ,PSOHPHQWLHUXQJ 8PVHW]XQJ LP 7DJHVJH VFKlIW EHJRQQHQ $QGHUQIDOOV LVW EHU HLQH 0RGLIL]LHUXQJ GHV 3URGXNWNRQ]HSWHV QDFK]XGHQNHQXQGX8HLQ5FNVSUXQJLQGLH$QDO\VH3KDVHQRWZHQGLJ 'LH hEHUIKUXQJ GHU HUDUEHLWHWHQ /|VXQJ LQ GLH $UEHLWVYRUEHUHLWXQJV XQG 3UR GXNWLRQVSKDVH HUIRUGHUW HLQH 5HLKH YRQ EHJOHLWHQGHQ $NWLYLWlWHQ hEHU HLQH Maschinenfähigkeitsanalyse PXVVEVSZDEJHVLFKHUWZHUGHQGDVVPLWGHQYRUKDQGH QHQ 0DVFKLQHQ GDV JHIRUGHUWH 4XDOLWlWVQLYHDX WDWVlFKOLFK HUUHLFKW ZLUG ,VW GLHV QLFKW JHJHEHQ VLQG JJI QHXH 0DVFKLQHQ :HUN]HXJH ]X EHVFKDIIHQ RGHU DQGHUH +HUVWHOOYHUIDKUHQ ]X ZlKOHQ :HLWHUKLQ LVW GXUFK HLQH Messsystemanalyse *DJH 5 5 VLFKHU]XVWHOOHQ GDVV DOOH YHUZHQGHWHQ 6HULHQPHVVPLWWHO XQG PHWKRGHQ
:LH GLH =XYHUOlVVLJNHLW YRQ %DXWHLOHQ .RPSRQHQWHQ XQG 6\VWHPHQ PLWKLOIH GHU 6L[ 6LJPD0HWKRGLNV\VWHPDWLVFKHUK|KWZHUGHQNDQQ]HLJHQXD.XPDUHWDO ,Q LKUHP %XFK Ä5HOLDELOLW\ DQG 6L[ 6LJPD³ JHKHQ VLH YRU DOOHP DXI GLH VWDWLVWLVFKHQ *UXQGODJHQ]XU2SWLPLHUXQJGHUFKDUDNWHULVWLVFKHQ/HEHQVGDXHUHWFHLQ $XI GHU %DVLV GHU YRQ :$/2'', :(,%8// HQWZLFNHOWHQ 9HUWHLOXQJVIXQNWLRQ NDQQGDV$XVIDOOYHUKDOWHQYRQVHULHOOHQ6\VWHPHQ]%3URGXNWHLQGHU1XW]XQJVSKDVH RGHU0DVFKLQHQLP3URGXNWLRQVSUR]HVVSURJQRVWL]LHUWZHUGHQ
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
HLQHKLQUHLFKHQGH*HQDXLJNHLWXQG=XYHUOlVVLJNHLWEHVLW]HQYJO$EVFKQLWW (UVWXQWHUGLHVHU9RUDXVVHW]XQJN|QQHQ.RQWUROO3UISOlQHIUGLH)HUWLJXQJXQG 0RQWDJHVRZLHIU=XOLHIHUWHLOHDXIJHVWHOOWZHUGHQ )U DOOH NULWLVFKHQ 4XDOLWlWVPHUNPDOH &74V GLH LQ GHQ 'HVLJQ 6FRUHFDUGV HQWKDOWHQ VLQG ZHUGHQ JHHLJQHWH 0HVVJU|HQ GHILQLHUW XQG DQVFKOLHHQG PLWWHOV Statistischer Prozessregelung 63& EHUZDFKW 'XUFK 5HJHONDUWHQ ZLUG HLQH NRQWLQXLHUOLFKH hEHUZDFKXQJ GHU3UR]HVVVWUHXXQJXQGIlKLJNHLWEH]RJHQDXIGLH (LQKDOWXQJ GHU &74V LP 6HULHQSUR]HVV VLFKHUJHVWHOOW $QDORJ ]XP '0$,&=\N OXV ZHUGHQ 3UR]HVVDQZHLVXQJHQ XQG GRNXPHQWDWLRQHQ HUVWHOOW GLH GHP 3UR]HVV HLJQHUQDFK$EVFKOXVVGHV3URMHNWHVEHUJHEHQZHUGHQ ,Q OHW]WJHQDQQWHP VLQG Reaktionspläne HQWKDOWHQ GLH GHP 3UR]HVVHLJQHU &KDP SLRQ DQ]HLJHQ ZDV ]X WXQ LVW ZHQQ GHU 3UR]HVV DXHU .RQWUROOH JHUlW XQG GLH GHILQLHUWHQ :DUQ (LQJULIIVJUHQ]HQ YHUOHW]W ZXUGHQ 'DV .RQILJXUDWLRQVPDQDJH PHQW VRZLH GLH %HVWLPPXQJ YRQ 3URGXNWLRQV $UEHLWVPLWWHOQ ZLUG HEHQIDOOV GXUFKHLQ+R4LP5DKPHQGHV4)'XQWHUVWW]W'DGXUFKZLUGHLQHV\VWHPDWLVFKH XQG GXUFKJlQJLJH hEHUWUDJXQJ GHU .XQGHQDQIRUGHUXQJHQ LQ GLH RSHUDWLYHQ %H WULHEVDEOlXIH$UEHLWVYRUEHUHLWXQJ)HUWLJXQJVSODQXQJ JHZlKUOHLVWHW Kritische Bewertung: $QDORJ ]XP '0$,&=\NOXV KlOW GHU '0$'9=\NOXV HLQHQHLQGHXWLJEHVFKULHEHQHQ3KDVHQDEODXIIUGLH'XUFKIKUXQJYRQ6L[6LJPD 3URMHNWHQ LP ) (%HUHLFK EHUHLW $XV GLHVHP *UXQG ZLUG GDV .ULWHULXP ]X HUIOOW DQJHVHKHQ VLHKH $EE :HLWHUKLQ EHLQKDOWHW GHU '0$'9 =\NOXV HLQHQ VWUXNWXULHUWHQ 0HWKRGHQHLQVDW] *HJHQEHU GHP '0$,&=\NOXV VLQG KLHU MHGRFK LQVRIHUQ $EVWULFKH ]X PDFKHQ GDVV GHU 0HWKRGHQHLQVDW] PHKU Ä.DQQ³ DOV Ä0XVV³5HJHOXQJHQ HQWKlOW =XGHP HUVWUHFNW VLFK GLH $QZHQGXQJ HLQ]HOQHU 0HWKRGHQ JOHLFK DXI PHKUHUH 3KDVHQ ]% 4)' 9RU GLHVHP +LQWHU JUXQGOLHJWGHU(UIOOXQJVJUDGYRQ.ULWHULXPEHL $XFKEHLGHQ.ULWHULHQXQGEOHLEHQGLH(UIOOXQJVJUDGHGHV'0$'9=\NOXV KLQWHUGHQHQGHV'0$,&=\NOXV]XUFN6RZLUGGLH:LUWVFKDIWOLFKNHLWGHV3URE OHPO|VXQJV]\NOXV XD GDGXUFK QHJDWLY EHHLQIOXVVW GDVV GLH &74V ]X 3URMHNWEH JLQQXQEHNDQQWVLQGXQG±]%PLWKLOIHYRQXPIDQJUHLFKHQ0DUNWIRUVFKXQJVDNWL YLWlWHQ ± ]XQlFKVW HUXLHUW ZHUGHQ PVVHQ 'LHV ]LHKW L$ HLQHQ XPIDQJUHLFKHUHQ XQG DXI HLQHQOlQJHUHQ=HLWUDXPDXVJHOHJWHQ3URMHNWIRNXVQDFKVLFKGDV.ULWHUL XPLVW]XHUIOOW)UGHQUHODWLYJHULQJHQ(UIOOXQJVJUDGYRQ.ULWHULXP =LHOHUUHLFKXQJVJUDG L+Y VSULFKW LQ HUVWHU /LQLH GLH 7DWVDFKH GDVV GLH DQJHVWUHEWHQ H[SRQHQWLHOOHQ 9HUEHVVHUXQJHQ LP 5DKPHQ GHV '0$'9=\NOXV KlXILJQLFKWHUUHLFKWZHUGHQN|QQHQYJO$EVFKQLWW
)RUPDODQDO\WLVFKH%HVFKUHLEXQJXQG$QDO\VHGHU6L[6LJPD=\NOHQ
3.4
Formal-analytische Beschreibung und Analyse der Six SigmaVerbesserungszyklen
,Q GHQ IROJHQGHQ EHLGHQ $EVFKQLWWHQ ZLUG XQWHUVXFKW ZLH VLFK GDV 9RUJHKHQ LP 5DKPHQ GHV '0$,& XQG '0$'9=\NOXV DQDO\WLVFK EHVFKUHLEHQ OlVVW $XV JDQJVSXQNW ELOGHW GLH %HUHLWVWHOOXQJ PDWKHPDWLVFKHU 0RGHOOH LQ )RUP YRQ $OJR ULWKPHQ RGHU +HXULVWLNHQ ]XU /|VXQJ NRPSOH[HU 3UREOHPH DXI GHU $EVWUDNWLRQV HEHQH $P %HLVSLHO GHU Suche des globalen Optimums HLQHU VSH]LHOOHQ )XQNWLRQ \ I[ PLW ]ZHL 0D[LPD ZLUG JH]HLJW ZLH '0$,& XQG '0$'9=\NOXV DXV PDWKHPDWLVFKHU 6LFKW ÄIXQNWLRQLHUHQ³ ,P (UJHEQLV N|QQHQ ]XP HLQHQ GLH $Q ZHQGXQJVP|JOLFKNHLWHQ XQG JUHQ]HQ GHU EHLGHQ 6L[ 6LJPD9HUEHVVHUXQJV]\N OHQEHVVHUDEJHVFKlW]WZHUGHQ=XPDQGHUHQZLUGGXUFKHLQHYHUHLQIDFKWHJUDSKL VFKH 9HUDQVFKDXOLFKXQJ VLFKHUJHVWHOOW GDVV GLH 9HUVWlQGOLFKNHLW 7UDQVSDUHQ] KRFK LVW XQG LQIROJHGHVVHQ GLH .RPPXQLNDWLRQ ]ZLVFKHQ :LVVHQVFKDIWOHU XQG 3UDNWLNHUDXIUHFKWHUKDOWHQEOHLEWYJO$EVFKQLWW 3.4.1
DMAIC-Zyklus als abstraktes Vorgehensmodell
(QWVSUHFKHQG GHQ (UOlXWHUXQJHQ ]XP )RUVFKXQJVGHVLJQ LP (LQIKUXQJVNDSLWHO VLHKH $EE ± ZLUG LQ GLHVHP $EVFKQLWW HLQH Rekonstruktion der Phasen des DMAIC-Zyklus auf der AbstraktionsebeneYRUJHQRPPHQ'LH$EVWUDNWLRQEHVWHKW LQ GHU 8PZDQGOXQJ GHV UHDOHQ 3URMHNWPDQDJHPHQW]\NOXV GHVVHQ 0HWKRGHQ XQG 3UR]HVVHLPYRUVWHKHQGHQ$EVFKQLWWDXVIKUOLFKEHVFKULHEHQZXUGHQLQHLQDQDO\ WLVFKHV 9RUJHKHQVPRGHOO ZHOFKHV ]XU /|VXQJ NRPSOH[HU 2SWLPLHUXQJVDXIJDEHQ LQYHUVFKLHGHQHQ:LVVHQVFKDIWVGLV]LSOLQHQGLHQW 1DFKGHQ$XVIKUXQJHQLQ$EVFKQLWWZLUGGHU'0$,&=\NOXV]XP5HSDULH UHQ1HXHLQVWHOOHQYRQEHVWHKHQGHQ 3UR]HVVHQLQ8QWHUQHKPHQHLQJHVHW]W'DEHL JHKW PDQ GDYRQ DXV GDVV LP 0RPHQW HLQVXERSWLPDOHV3UR]HVVQLYHDXPLWHLQHP QLFKW]XIULHGHQVWHOOHQGHQ 3UR]HVVRXWSXW UHDOLVLHUW ZLUG =LHO LVW HV GLH UHOHYDQWHQ 3UR]HVV ,QSXWJU|HQ ]X LGHQWLIL]LHUHQ XQG LP /DXIH GHU 3URMHNWEHDUEHLWXQJ VR HLQ]XVWHOOHQGDVVHLQDXV.XQGHQVLFKWRSWLPDOHU2XWSXWHU]LHOWZLUG 'DV9RUJHKHQLP5DKPHQYRQ6L[6LJPDLVWGDGXUFKJHSUlJWGDVVHLQHDXIDQDO\ WLVFKHQ )XQNWLRQHQ EDVLHUHQGH 'HVLJQRSWLPLHUXQJ YRUJHQRPPHQ ZLUG 'LH GDPLW YHUEXQGHQH Untersuchung von Input-Output-Beziehungen HUIROJW DXI GHU %DVLV YRQ IXQNWLRQHOO EHVFKULHEHQHQ XQG DQDO\VLHUWHQ 8UVDFKHQ:LUNXQJVNHWWHQ 'LH /|VXQJVVXFKH ILQGHW DXI GHU $EVWUDNWLRQV XQG QLFKW DXI GHU 5HDOLWlWVHEHQH VWDWW
,P 6LQQH GHU 6\QHNWLN HLQHP GHU VLHEHQ .UHDWLYLWlWVZHUN]HXJH . KDQGHOW HV VLFK KLHUEHL XP GHQ VRJ )RUFH)LW YJO %DFNHUUD HW DO 6 II (V ZLUG GD]X DXI JHIRUGHUW :LVVHQ DXV IDFKIUHPGHQ %HUHLFKHQ PLW GHP $XVJDQJVSUREOHP ]X YHUNQS IHQ XP GDUDXV NUHDWLYH /|VXQJVP|JOLFKNHLWHQ DE]XOHLWHQ 'LHVHU hEHUWUDJXQJVVFKULWW ZLUG DOV Ä(U]ZXQJHQH (LJQXQJ³ E]Z LP (QJOLVFKHQ DOV Ä)RUFH)LW³ EH]HLFKQHW 'HU 3UREOHPO|VHU YHUVXFKW ÄPLW *HZDOW³ GLH (LJQXQJ HLQHU SUREOHPIUHPGHQ 6WUXNWXU DOV /|VXQJVDQDORJLH]XGHPHLJHQWOLFKHQ3UREOHPKHU]XVWHOOHQ
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
YJO KLHU]X DXFK $EVFKQLWW ,P .HUQ JHKW HV XP GLH 8QWHUVXFKXQJ YRQ PDWKHPDWLVFKVWDWLVWLVFKHQ )XQNWLRQHQ LP +LQEOLFN DXI P|JOLFKH ([WUHPZHUWH 0D[LPD XQG 0LQLPD GLH GDQQ ]XU $EOHLWXQJ NRQNUHWHU 3UR]HVVHLQVWHOOXQJHQ JHQXW]W ZHUGHQ 9RU GLHVHP +LQWHUJUXQG VSLHJHOQ VLFK GLH ,QKDOWH GHU HLQ]HOQHQ 3KDVHQGHV'0$,&=\NOXVLQHLQHPDEVWUDNWHQ2SWLPLHUXQJVPRGHOOZLGHU 'DVPHWKRGLVFKH9RUJHKHQVROOKLHUEHLVSLHOKDIWDQKDQGHLQHVeinfaktoriellen Ursachen-Wirkungszusammenhangs PLW HLQHU DEKlQJLJHQ XQG HLQHU XQDEKlQJLJHQ 9DULDEOH YHUGHXWOLFKW ZHUGHQ 'LH JHZlKOWH ELYDULDWH )XQNWLRQ PLW ]ZHL ORNDOHQ 0D[LPD XQG HLQHP ORNDOHQ 0LQLPXP LVW LP [\'LDJUDPP LQ $EE GDUJH VWHOOW'HU)XQNWLRQVYHUODXILVWYRU3URMHNWEHJLQQXQEHNDQQWGKHUOLHJWLP9HU ERUJHQHQ XQG LVW GXUFK JHHLJQHWH 9HUIDKUHQ ]XQlFKVW ]X LQWHUSROLHUHQ 'HU6WDUW SXQNW GHU 2SWLPLHUXQJ OLHJW EHL [ \ $OV 3URGXNWEHLVSLHO ZLUG LP )ROJHQGHQ GLH2SWLPLHUXQJHLQHV.XJHOVFKUHLEHUV]XJUXQGHJHOHJW Suchraum
Output y
y = f(x)
Measure
y*
Δy2
Δy1
Analyse y = f(x) = m·x + n
y2 y1
Kaizen
y0
0
x0
x1
xM
Δx1
Improve
x2
x*
Input x
Δx2
Quelle: Eigene Darstellung
$EE5HNRQVWUXNWLRQGHV'0$,&=\NOXVDOVDQDO\WLVFKHV2SWLPLHUXQJVPRGHOO
Define-Phase ,Q GLHVHU 3KDVH ZLUG ]XQlFKVW HLQH 3UREOHPVWUXNWXULHUXQJ YRUJHQRPPHQ XP ]X VSH]LIL]LHUHQ ZHOFKHV 3KlQRPHQ HUNOlUW E]Z ZHOFKHV 3UREOHP JHO|VW ZHUGHQ VROO,P5DKPHQGHU=LHOGHILQLWLRQZLUGHLQH=LHOJU|HDXV.XQGHQVLFKWGHILQLHUW ]% /HEHQVGDXHU HLQHU .XJHOVFKUHLEHUPLQH GLH HV ]X PD[LPLHUHQ RGHU ]X PLQL
)RUPDODQDO\WLVFKH%HVFKUHLEXQJXQG$QDO\VHGHU6L[6LJPD=\NOHQ
PLHUHQJLOWE]ZIUGLHHLQEHVWLPPWHV=LHOQLYHDXHUUHLFKWZHUGHQVROO8QWHUGHU 9RUDXVVHW]XQJ GDVV GLH =LHOJU|H HLQGHXWLJ XQG HIIL]LHQW PHVVEDU LVW JHKW VLH GLUHNWDOV]Xerklärende Variable yLQGDV2SWLPLHUXQJVPRGHOOHLQ$QGHUQIDOOVLVW QDFK HLQHU JHHLJQHWHQ 2XWSXWJU|H ]X VXFKHQ GLH PLW GHU =LHOJU|H VWDUN NRUUH OLHUWDEHUOHLFKWHU ]XEHVWLPPHQLVW]%)OOPHQJHGHU.XJHOVFKUHLEHUPLQH,P (UJHEQLV GHU 'HILQH3KDVH VLQG GLH \$FKVH GHV 'LDJUDPPV GHILQLHUW VRZLH GDV DQJHVWUHEWH =LHO 2XWSXWQLYHDX \ TXDQWLIL]LHUW 'D GLH )HVWOHJXQJ YRQ \ DXV .XQGHQVLFKWYRUJHQRPPHQZLUGOLHJWGHIDFWRNHLQH]ZLQJHQGH.RUUHODWLRQ]XP =LHOIXQNWLRQVYHUODXI\ I[ YRUGKHLQHhEHUHLQVWLPPXQJYRQ\PLWGHQORND OHQ0D[LPDDQGHQ6WHOOHQ[RGHU[ ZlUHUHLQ]XIlOOLJHU1DWXU Measure-Phase 1DFKGHP)HVWOHJHQGHU]XHUNOlUHQGHQ9DULDEOH\ZLUGLQGLHVHU3KDVHGDV$XV JDQJVQLYHDX GHU =LHO E]Z 2XWSXWPHVVJU|H \ EHVWLPPW 'HU 9HUJOHLFK YRQ Ausgangs- und Zielniveau ]HLJW GHQ 2SWLPLHUXQJV +DQGOXQJVEHGDUI DQ -H JU| HU GLH 'LIIHUHQ] Δ\ \ ± \ LVW GHVWR K|KHU LVW GDV JHJHQZlUWLJH 9HUEHVVH UXQJVSRWHQ]LDO 'DEHL ZLUG GDYRQ DXVJHJDQJHQ GDVV GDV =LHO 2XWSXWQLYHDX \ GDV GHU]HLW PD[LPDO HUZDUWHWH 1LYHDX DXV .XQGHQVLFKW GDUVWHOOW (LQH EHU \ KLQDXVJHKHQGH (UIOOXQJ GHV NULWLVFKHQ 4XDOLWlWVPHUNPDOV ZUGH GLH =XIULHGHQ KHLWGHV.XQGHQPLWGHP3URGXNWE]ZGHU'LHQVWOHLVWXQJZHLWHUHUK|KHQ ,P(UJHEQLVGHU0HDVXUH3KDVHVLQGGHU,VW2XWSXW\TXDQWLIL]LHUW]%)OOPHQ JH POVRZLHGHU$EVWDQGΔ\]ZLVFKHQGHU]HLWUHDOLVLHUWHUXQG]XNQIWLJDQ JHVWUHEWHU3UR]HVVOHLVWXQJRIIHQJHOHJW'DEHUGLHIXQNWLRQHOOH$EKlQJLJNHLWELV GDWRNHLQH,QIRUPDWLRQYRUOLHJWN|QQHQEHUGLHPD[LPDOHUUHLFKEDUH$XVSUlJXQJ GHU =LHO 2XWSXWJU|H \ JHQDXVR ZHQLJ $QJDEHQ JHPDFKWZHUGHQZLHEHUGLH /DJHGHVQlFKVWOLHJHQGHQORNDOHQ0D[LPDEHL[\ Analyse-Phase ,Q GLHVHU 3KDVH ZLUG GHU )UDJH QDFKJHJDQJHQ ZHOFKHU XUVlFKOLFKHU =XVDPPHQ KDQJ]ZLVFKHQGHU=LHO2XWSXWPHVVJU|H\XQGGHU3UR]HVV,QSXWPHVVJU|H[ EHVWHKW ]% 0LQHQOlQJH ,P HLQIDFKVWHQ )DOO OLHJW HLQ OLQHDUHU 8UVDFKHQ:LU NXQJV]XVDPPHQKDQJ YRU EHL GHP HLQH (UK|KXQJ GHU unabhängigen Variable x XP(LQKHLW]XHLQHU(UK|KXQJGHUDEKlQJLJHQ9DULDEOH\XPP(LQKHLWHQIKUW %HL GHQ PHLVWHQ 2SWLPLHUXQJVDXIJDEHQ LVW GLHV QLFKW JHJHEHQ 2IWPDOV OLHJHQ PXOWLYDULDWH QLFKWOLQHDUH $EKlQJLJNHLWHQ PLW PHKUHUHQ ORNDOHQ 0D[LPD XQG RGHU0LQLPDYRU'LH)XQNWLRQ\ I[ EHVFKUHLEWGDEHLGHQZDKUHQDEHUIUGHQ )RUVFKHU ]XQlFKVW XQEHNDQQWHQ =XVDPPHQKDQJ ]ZLVFKHQ GHU ,QSXW XQG 2XWSXW YDULDEOH :LH OHLFKW QDFKYROO]LHKEDU LVW OlVVW VLFK GHU DXV .XQGHQVLFKW RSWLPDOH 3XQNW[\ QXUGDQQHUUHLFKHQZHQQGHUIXQNWLRQHOOH=XVDPPHQKDQJ]ZLVFKHQ [XQG\DXVJHKHQGYRQ[ELV]XU6WHOOH[KLQUHLFKHQGJHQDXEHNDQQWLVW ,Q GHU 6SUDFKH YRQ 6L[ 6LJPD EHGHXWHW GLHV GDVV GDV 3UR]HVVIHQVWHU JUR JHQXJ VHLQ PXVV XP SRVLWLYH 9HUlQGHUXQJHQ DXI GHQ 3UR]HVVRXWSXW ]X HUNHQQHQ XQG HLQ VHOHNWLYHV 9RUJHKHQ EHL GHU 0DQDKPHQDEOHLWXQJ ]X YHUPHLGHQ 'LH Schät-
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
zung des FunktionsverlaufsHUIROJWLG5IUHLQHQEHVWLPPWHQ'HILQLWLRQVEHUHLFK E]Z 6XFKUDXP LQ GHP GLH $XVSUlJXQJ GHU XQDEKlQJLJHQ 9DULDEOH [ IU ZDKU VFKHLQOLFKXQGLQSUD[LIUUHDOLVLHUEDUJHKDOWHQZLUG,PHLQIDFKVWHQ)DOOZLUGGHU =XVDPPHQKDQJEHUHLQOLQHDUHV5HJUHVVLRQVPRGHOOJHVFKlW]W ,P [\'LDJUDPP LQ $EE LVW DXVJHKHQG YRP 3XQNW [ \ HLQH OLQHDUH 5HJUHVVLRQVIXQNWLRQǔ I[ HLQJH]HLFKQHWZHOFKH]XU6FKlW]XQJGHV)XQNWLRQV YHUODXIV LP %HUHLFK >[ [@ KHUDQJH]RJHQ ZLUG 'DGXUFK OlVVW VLFK GDV ORNDOH 0D[LPXP LP 3XQNW [ \ DQQlKHUQG EHVWLPPHQ 'HU $QVWLHJ GHU )XQNWLRQ HUJLEW VLFK DXVGHP9HUKlOWQLVYRQΔ\]XΔ[HUVFKZDQNWLQ$EKlQJLJNHLWYRQ GHQ DXIJHQRPPHQHQ 'DWHQSXQNWHQ LP UHOHYDQWHQ 3UR]HVVIHQVWHU LP %HLVSLHO OLHJHQGLH3XQNWHLP%HUHLFK>[[@'DV9HUKlOWQLVΔ\Δ[LVWJOHLFK]HLWLJHLQ 0DIUGLH(IIL]LHQ]GHUHLQJHOHLWHWHQ9HUEHVVHUXQJVDNWLYLWlWHQ ,VWGHU)XQNWLRQVYHUODXI]%GXUFKHLQ3RO\QRPQWHQ*UDGHVKLQUHLFKHQGJHQDX JHVFKlW]WZRUGHQGDQQJLEWHVverschiedene mathematische Verfahren]%7DQ JHQWHQ XQG 6HNDQWHQYHUIDKUHQ XP GHQ 3XQNW [ \ PLW HLQHU VHKU JHULQJHQ )HKOHUZDKUVFKHLQOLFKNHLW]XHUXLHUHQ)U[[E]Z[![LVWGDV5HJUHVVLRQV PRGHOO QLFKW ]XWUHIIHQG VR GDVV VRZRKO GHU 2SWLPDOSXQNW DXV .XQGHQVLFKW [ \ DOV DXFK GDV JOREDOH 0D[LPXP [ \ PLW GLHVHU 0HWKRGLN QLFKW JHIXQGHQ GK GHWHNWLHUW ZHUGHQ'LHZLFKWLJVWHQ$OJRULWKPHQGLH]XP$XIILQGHQYRQJOR EDOHQ0D[LPDEHLNRPSOH[HQLQGHU6SUDFKHGHU0DWKHPDWLNIRUPXOLHUWHQ3URE OHPVWHOOXQJHQKHUDQJH]RJHQZHUGHQVLQGLPQlFKVWHQ.DSLWHODXIJHIKUW Improve-Phase 1DFKGHP HLQ IXQNWLRQHOOHU =XVDPPHQKDQJ ]ZLVFKHQ XQDEKlQJLJHU HUNOlUHQGHU XQG DEKlQJLJHU ]X HUNOlUHQGHU 9DULDEOH KHUJHVWHOOW XQG LQ GHU 3UD[LV GXUFK JH HLJQHWH7HVWVEHVWlWLJWZRUGHQLVWZLUGLQGHU,PSURYH3KDVHGDPLWEHJRQQHQGDV 3UR]HVV ,QSXWPHUNPDO EH]RJHQ DXI GHQ =LHOIXQNWLRQVZHUW RSWLPDO HLQ]XVWHOOHQ ,P %HLVSLHO ZUGH GDV 1LYHDX GHU ,QSXWYDULDEOH YRQ [ DXI [ HUK|KW 'DGXUFK ZLUG ± XQWHU %HUFNVLFKWLJXQJ GHV *OWLJNHLWVEHUHLFKV GHU OLQHDUHQ 5HJUHVVLRQV IXQNWLRQ±GLH/FNH]XP=LHOQLYHDX\DXIGHU2XWSXWVHLWHPLQLPLHUW %HVLW]WGHU)RUVFKHUGHU$NWHXU NHLQH.HQQWQLVEHUGHQZHLWHUHQ)XQNWLRQVYHU ODXI GDQQ VWHOOW IU LKQ GDV ORNDOH 0D[LPXP LP 3XQNW [ \ GLH LP 0RPHQW RSWLPDO UHDOLVLHUEDUH ,QSXW2XWSXW5HODWLRQ GDU ]% 0LQHQOlQJH LQ 6WDQGDUGJU| H'LHVH)HKO (LQVFKlW]XQJOLHJWYRUDOOHPGDULQEHJUQGHWGDVVHLQH(UK|KXQJ GHV :HUWHV GHU ,QSXWYDULDEOH EHU GHQ 3XQNW [ KLQDXV ]XQlFKVW ]X HLQHU 9HU VFKOHFKWHUXQJGHVGXUFKVFKQLWWOLFKHQ=LHO2XWSXWQLYHDXVIKUW:LHLQ$EE HUVLFKWOLFKLVWGLHQRWZHQGLJH9HUlQGHUXQJΔ[ [±[XPGDV=LHO2XWSXWQL YHDX \ ]X HUUHLFKHQ LP 9HUJOHLFK ]XU HUPLWWHOWHQ 9HUlQGHUXQJ Δ[ XP DXI GDV 1LYHDX \ ]X NRPPHQ UHODWLY JUR *OHLFK]HLWLJ LVW GHU GDGXUFK JHQHULHUWH =X VDW]QXW]HQDEOHVEDULP9HUKlOWQLVYRQΔ\]XΔ\UHODWLYNOHLQ 'DVÜberwinden des lokalen MinimumsEHL[0LVWQXUGXUFK,QQRYDWLRQP|JOLFK 'LHVHN|QQHQ±ZLHLQ$EVFKQLWWDXVJHIKUW±WHFKQLVFKHURUJDQLVDWRULVFKHU
)RUPDODQDO\WLVFKH%HVFKUHLEXQJXQG$QDO\VHGHU6L[6LJPD=\NOHQ
LQVWLWXWLRQHOOHU XQG RGHU VR]LDOHU $UW VHLQ 6RZRKO GLH 3URGXNWLQQRYDWLRQ DOV WHFKQLVFKH,QQRYDWLRQDOVDXFKGLH3UR]HVVLQQRYDWLRQDOVRUJDQLVDWRULVFKH,QQRYD WLRQ N|QQHQ GD]X EHLWUDJHQ GDVV GLH 6HQNH LP )XQNWLRQVYHUODXI XQG GDPLW GLH VXERSWLPDOH$XVSUlJXQJGHU=LHO2XWSXWJU|HEHUZXQGHQZLUG 1HEHQGHU$UWGHU,QQRYDWLRQZLUGGLH,QQRYDWLRQVZHLWHDOV0DIUGLH9HUEHVVH UXQJVK|KH EH]RJHQ DXI GLH =HLW XQWHUVFKLHGHQ 6R HUIRUGHUW GHUhEHUJDQJYRQ[ DXI [ L$ HLQH radikale Innovation GLH KlXILJ DXI HLQHP ZLVVHQVFKDIWOLFK WHFKQLVFKHQ 'XUFKEUXFK EHUXKW XQG GHP 8QWHUQHKPHQ Y|OOLJ QHXH :HJH LP 5DKPHQ GHV /HLVWXQJVHUVWHOOXQJVSUR]HVVHV HUP|JOLFKW YJO $EVFKQLWW 'HPJHJHQEHU ILQGHQ inkrementelle Innovationen HQWODQJ EHVWLPPWHU ÄWHFKQROR JLVFKHU 3IDGH³ VWDWW 'DEHL ZHUGHQ GLH 3UR]HVVH 3URGXNWH HQWVSUHFKHQG GHQ 0DUNWDQIRUGHUXQJHQ VFKULWWZHLVH YHUEHVVHUW 9RU GLHVHP +LQWHUJUXQG OlVVW VLFK XDGHUhEHUJDQJYRQ[DXI[GXUFKGLH$QZHQGXQJ.RQWLQXLHUOLFKHU9HUEHVVH UXQJ .DL]HQ HUNOlUHQ ± GLH $XVSUlJXQJ GHV 3UR]HVV ,QSXWPHUNPDOV ZLUG VR ODQJHYHUlQGHUWELVGHU$QVWLHJGHU=LHOIXQNWLRQJHJHQ1XOOJHKW Control-Phase 6LQG GLH 8UVDFKHQ:LUNXQJV]XVDPPHQKlQJH LQ GHU 8PJHEXQJ YRQ [ EHNDQQW VRZLHGLH3UR]HVV,QSXWJU|HQHQWVSUHFKHQGGHU=LHOZHUWRSWLPLHUXQJDQJHSDVVW GDQQLVWLP:HLWHUHQGLH(LQKDOWXQJGHV3XQNWHV[\ VLFKHU]XVWHOOHQ$XIJUXQG GHU IXQNWLRQHOOHQ $EKlQJLJNHLW ]ZLVFKHQ [ XQG \ NRPPW GHU $XVSUlJXQJ GHU XQDEKlQJLJHQ9DULDEOHHLQHVorsteuerungsfunktion]X'HQQGXUFKGLH6LFKHUVWHO OXQJGHV,QSXWVDXIGHP1LYHDX[ZHUGHQ$EZHLFKXQJHQLP2XWSXWGHUVLFKDP 6ROOZHUW\RULHQWLHUWYHUPLHGHQVRZLHTXDOLWlWVEHGLQJWH9HUOXVWHPLQLPLHUW ,QGHU3UD[LVZHUGHQVRZRKOGLHUHOHYDQWH2XWSXWPHVVJU|HDOVDXFKGLHLGHQWLIL ]LHUWHQ ,QSXW 3UR]HVVPHVVJU|HQ PLWKLOIH YRQ 6WDWLVWLVFKHU 3UR]HVVUHJHOXQJ EHUZDFKW ]%&SN:HUWIU0LQHQOlQJH'XUFKNRQWLQXLHUOLFKHV0RQLWRULQJGHU (LQVWHOOZHUWH IU [ LVW JHZlKUOHLVWHW GDVVVLFKGLHProzess-/ Produktmerkmale im zulässigen ToleranzbereichEHZHJHQYJO$EVFKQLWW 'DUEHUKLQDXVNRPPHQLQGHU&RQWURO3KDVH.930DQDKPHQ]XP(LQVDW]XP JJI YHUEOLHEHQH 2SWLPLHUXQJVOFNHQ QDFK GHU 3URMHNWSKDVH ]X VFKOLHHQ 'LHVH ODVVHQ VLFK XD GDUDXI ]XUFNIKUHQ GDVV GLH LQ GHU $QDO\VH3KDVH HUPLWWHOWH 6FKlW] 5HJUHVVLRQVIXQNWLRQ QLFKW H[DNW GXUFK GHQ 3XQNW [ \ YHUOlXIW ,Q GLHVHP )DOO EHGDUI HV HLQHU 3UR]HVVQDFKUHJHOXQJ ZREHL LQNUHPHQWHOOH 9HUlQGH UXQJHQ DXI GHU ,QSXWVHLWH GXUFKJHIKUW ZHUGHQ XP VR GDV ORNDOH 0D[LPXP LQ NOHLQHQ6FKULWWHQ]XHUUHLFKHQ *URH 6FKULWWH VLQG GHPJHJHQEHU QRWZHQGLJ ZHQQ GHU ]ZHLWH *LSIHO GHU =LHO ZHUWIXQNWLRQÄHUNORPPHQ³ZHUGHQVROO'DVhEHUVSULQJHQGHVORNDOHQ0LQLPXPV DQ GHU 6WHOOH [0 EHGDUI UDGLNDOHQ 9HUlQGHUXQJHQ GLH XD GXUFK NRQVHTXHQWHV ,QQRYDWLRQVPDQDJHPHQW XQG GHQ Einsatz von Kreativitätstechniken ]% 75,= EHI|UGHUW ZHUGHQ +DW PDQ GDV $XVJDQJVQLYHDX \ DXI GHP UHFKWHQ *LSIHO HUVW HLQPDO HUUHLFKW VWHOOW VLFK GDV 2SWLPLHUXQJVSUREOHP E]Z YRUJHKHQ DQDORJ ]X
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
GHQELVKHULJHQ$XVIKUXQJHQGDU'DVJOREDOH0D[LPXPLP3XQNW[ \ NDQQ GDQQGXUFKGLH$QZHQGXQJGHV'0$,&=\NOXV]JLJHUUHLFKWZHUGHQ 3.4.2
DMADV-Zyklus als abstraktes Vorgehensmodell
$QDORJ ]XP '0$,&=\NOXV ZHUGHQ LP )ROJHQGHQ GLH 3KDVHQ GHV '0$'9 =\NOXV LQ HLQ DEVWUDNWHV 9RUJHKHQVPRGHOO EHUIKUW 'LH *UXQGODJH ELOGHW HEHQ IDOOV HLQ mathematisches Optimierungsmodell ]XP $XIILQGHQ YRQ JOREDOHQ ([ WUHPSXQNWHQ 'LHVH HQWVSUHFKHQ GHP RSWLPDOHQ ,QSXW2XWSXW9HUKlOWQLV EHL HL QHPJHJHEHQHQIXQNWLRQHOOHQ=XVDPPHQKDQJ\ I[ 'D HV EHLP '0$'9=\NOXV YRU DOOHP XP GDV 'HVLJQHQ (QWZHUIHQ YRQ QHXHQ 3URGXNWHQJHKWVWHOOWGHU2XWSXWGLHNRQNUHWH$XVSUlJXQJHLQHV3URGXNWPHUNPDOV \ GDU ZlKUHQG GHU ,QSXW IU GLH $XVSUlJXQJ GHV GD]XJHK|ULJHQ .RPSRQHQWHQ XQG RGHU 3UR]HVVPHUNPDOV [ VWHKW )U GLH +HUOHLWXQJ GHV '0$'9=\NOXV DXI DEVWUDNWHU (EHQH ZLUG YRP JOHLFKHQ IXQNWLRQHOOHQ =XVDPPHQKDQJ DXVJHJDQJHQ ZLH EHLP '0$,&=\NOXV 'DGXUFK LVW HLQ direkter Vergleich der Vorgehensweisen GHU EHLGHQ 6L[ 6LJPD9HUEHVVHUXQJV]\NOHQ P|JOLFK =XU (UK|KXQJ GHU 9HU VWlQGOLFKNHLW ZLUG GDV %HLVSLHO Ä.XJHOVFKUHLEHU³ IRUWJHIKUW DXI GDV EHUHLWV LP YRUKHUJHKHQGHQ$EVFKQLWW%H]XJJHQRPPHQZRUGHQLVW 8P GLH $QDO\VH HLQIDFK]XKDOWHQXQGGLHZHVHQWOLFKHQ$XVVDJHQKHUDXV]XDUEHL WHQZLUGEHLGHU%HWUDFKWXQJYRQHLQHPeinfaktoriellen ProduktdesignDXVJHJDQ JHQ .RQNUHW EHGHXWHWGLHVGDVVHLQ3URGXNW]XHQWZLFNHOQLVWZHOFKHVHLQNULWL VFKHV 4XDOLWlWVPHUNPDO &74 EHVLW]W XQG GDV ZLHGHUXP YRQ HLQHP YDULDEOHQ )DNWRU.RPSRQHQWHQPHUNPDO GLUHNWEHHLQIOXVVWZLUG =LHOLVWHVGDVJOREDOH0D[LPXP[ \ DXI]XVSUHQEHLGHPGLHEHVWP|JOLFKH $XVSUlJXQJGHV3URGXNWPHUNPDOVDXV.XQGHQVLFKWHUUHLFKWZLUG'XUFKGLH5HD OLVDWLRQ YRQ \ VLQG GLH .XQGHQ QLFKW QXU VHKU ]XIULHGHQ VRQGHUQ HQWVSUHFKHQG GHP .DQR0RGHOO DXFK EHJHLVWHUW 'DEHL OLHJW ± JHQDXVR ZLH EHLP '0$,& =\NOXV ± GHU ZDKUH )XQNWLRQVYHUODXI \ I[ LP 9HUERUJHQHQ XQG PXVV GXUFK JHHLJQHWH6FKlW]YHUIDKUHQ]XQlFKVWLQWHUSROLHUWZHUGHQ,Q$EELVWGDVDQD O\WLVFKH 2SWLPLHUXQJVPRGHOO ]XU 5HNRQVWUXNWLRQ GHV '0$'9=\NOXV DP %HL VSLHOHLQHUzweigipfligen ZielfunktionYHUDQVFKDXOLFKW Define-Phase (QWZLFNOXQJVEH]RJHQH 6L[ 6LJPD3URMHNWH GLH QDFK GHP '0$'9=\NOXV GXUFK]XIKUHQ VLQG N|QQHQ YRQ ]ZHL 6HLWHQ DQJHVWRHQ ZHUGHQ (LQHUVHLWV NDQQ GLH „Stimme des Kunden“ (VOC) HLQHQ JUXQGVlW]OLFKHQ hEHUKROXQJVEHGDUI GHV EHVWHKHQGHQ 3URGXNWDQJHERWV DQ]HLJHQ ,Q GLHVHP )DOO VLQG NULWLVFKH .XQGHQDQ IRUGHUXQJHQ&&5V YHUOHW]WZRUGHQ]%WULIIWGDV'HVLJQHLQHV.XJHOVFKUHLEHUV QLFKW PHKU GHP *HVFKPDFN GHU .XQGHQ $QGHUHUVHLWV NDQQ HLQ ) (3SURMHNW GXUFKGLH„Stimme des Unternehmens“ (VOB)LQV/HEHQJHUXIHQZHUGHQ,QGLH VHP)DOOKDQGHOWHVVLFKXPHLQHNULWLVFKH$QIRUGHUXQJGLHVLFKDXVGHUUHJXOlUHQ
)RUPDODQDO\WLVFKH%HVFKUHLEXQJXQG$QDO\VHGHU6L[6LJPD=\NOHQ
8QWHUQHKPHQVWlWLJNHLW HUJLEW &7% ]% LVW UHJHOPlLJ GDV 3URGXNWSRUWIROLR ]X HUZHLWHUQXQGRGHU]XHUQHXHUQXPDP0DUNWHUIROJUHLFK]XVHLQ :lKUHQGGLH9HUEHVVHUXQJHQYRQEHVWHKHQGHQ3URGXNWHQ3UR]HVVHQLP,QWHUHVVH EHLGHU =LHOJUXSSHQ OLHJHQ JHKW GLH (QWZLFNOXQJ NRPSOHWW QHXHU 3URGXNWH XQG GDUDXI DXVJHOHJWHU 3UR]HVVH SULPlU YRP 8QWHUQHKPHQ VHOEVW DXV (V ZLUG HLQH 3URMHNWFKDUWHUGHILQLHUWLQGHUGLH3URMHNW]LHOHIHVWJHKDOWHQZHUGHQ •
$XIJUXQG YRQ (UIDKUXQJHQ PLW GHP EHVWHKHQGHQ +HUVWHOOSUR]HVV VRZLH 7HL OHHLQVDW] OLHJHQ EHL HLQHP Re-Design KlXILJ EHUHLWV LQ GHU 'HVLJQ3KDVH EH ODVWEDUH $XVVDJHQ ]X 8UVDFKHQ:LUNXQJVEH]LHKXQJHQ YRU $XHUGHP VLQG NRQNUHWH+LQZHLVHDXIGLH]XRSWLPLHUHQGHQ'LPHQVLRQHQGHU3URGXNWTXDOLWlW YRUKDQGHQ6LHHUJHEHQVLFK]%DXVGHQ5FNPHOGXQJHQGHV9HUWULHEV
•
,P *HJHQVDW] GD]X N|QQHQ EHL HLQHP JHQHUHOOHQ Neu-Design LQ GLHVHP 3UR MHNWVWDGLXPNHLQH$XVVDJHQEHUGLHDEKlQJLJH9DULDEOH\DOVNULWLVFKHV4XD OLWlWVPHUNPDO JHWURIIHQ ZHUGHQ 'HV :HLWHUHQ JLEW HV NHLQH +LQZHLVH DXI P|JOLFKH NDXVDOH XQG RGHU IXQNWLRQHOOH $EKlQJLJNHLWHQ GHU )RUP \ I[ LQVEZHQQNHLQH:HWWEHZHUEVSURGXNWHDOV%HQFKPDUNYRUOLHJHQ
Output y y = f(x)
y* Analyse y = f(x) = m·x + n
Measure
y2 y1
Δy2 Δy1
DOE
y0 Innovation
0
x0
x1
Δx1
Design
xM
x2
x*
Input x
Δx2
Quelle: Eigene Darstellung
$EE5HNRQVWUXNWLRQGHV'0$'9=\NOXVDOVDQDO\WLVFKHV2SWLPLHUXQJVPRGHOO
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
Measure-Phase ,Q GLHVHU 3KDVH ZLUG ]XQlFKVW HLQH 0DUNWVHJPHQWLHUXQJ YRUJHQRPPHQ XP XD GLH =LHONXQGHQ ]X LGHQWLIL]LHUHQ $QVFKOLHHQG ZHUGHQ GLH .XQGHQEHGUIQLVVH JHVDPPHOW XQG DQDO\VLHUW XP GLH ZHVHQWOLFKHQ .XQGHQDQIRUGHUXQJHQ ]X HUNHQ QHQ,QHLQHPZHLWHUHQ6FKULWWHUIROJWGDQQLG5EHUGLH(UVWHOOXQJHLQHU%H ]LHKXQJVPDWUL[ +R4 GLH $EOHLWXQJ YRQ NULWLVFKHQ 4XDOLWlWVPHUNPDOHQ &74V =%N|QQWHGLH$QIRUGHUXQJGHV.XQGHQODXWHQHLQHQ.XJHOVFKUHLEHU]X NRQVWUXLHUHQ GHU VHKU ODQJH VFKUHLEW DOVR HLQH YHUJOHLFKVZHLVH KRKH 6FKUHLEOHLV WXQJEHVLW]W6RIHUQGLHVH.XQGHQDQIRUGHUXQJHLQHKRKH:LFKWLJNHLWEHVLW]WZLUG VLHDOVNULWLVFKHLQJHVWXIW,P:HLWHUHQEHVWHKWGDV=LHOGDULQHLQ3URGXNWPHUNPDO ]X LGHQWLIL]LHUHQ ZHOFKHV GLHVH $QIRUGHUXQJ JHQDX HUIOOW E]Z SRVLWLY EHHLQ IOXVVW ]% )DUEVWRII)OOPHQJH $XI GLHVHU %DVLV ZLUG HLQH =LHO 2XWSXWJU|H IHVWJHOHJWZHOFKHGDV3URGXNWPHUNPDOHLQGHXWLJFKDUDNWHULVLHUW hEHUWUDJHQ DXI GDV DQDO\WLVFKH 2SWLPLHUXQJVPRGHOO EHGHXWHW GLHV GDVV LQ GHU 0HDVXUH3KDVH GLH :HUWH DQ GHU \$FKVH VSH]LIL]LHUW ZHUGHQ \ HUJLEW VLFK LP =XJH HLQHU :HWWEHZHUEVDQDO\VH XQG YHUGHXWOLFKW GDV GHU]HLWLJH =LHOQLYHDX %HQFKPDUN YRQ ZHVHQWOLFKHQ .RQNXUUHQ]DQJHERWHQ 8P VLFK YRP :HWWEHZHUE SRVLWLYDE]XKHEHQPXVVGLHVHV1LYHDXPLQGHVWHQVHUUHLFKWZHUGHQ %HL GHU (QWZLFNOXQJ HLQHV QHXHQ .XJHOVFKUHLEHUV N|QQWH GLH =LHOVWHOOXQJ ]% GDULQ EHVWHKHQ GDVV GLH )DUEVWRII)OOPHQJH DE :HUN PLQGHVWHQV IU GDV %H VFKUHLEHQYRQ\!\',1$6HLWHQDXVUHLFKW:LUGGLHVH$QIRUGHUXQJHUVWPDOLJ UHDOLVLHUWGDQQLVWJHJHQEHUGHP1LYHDX]XPHVVHQDOV(QWZLFNOXQJV]LHOZLUG HLQH9HUEHVVHUXQJXPΔ\DQJHVWUHEW+DQGHOWHVVLFKKLQJHJHQXPGDV5H'HVLJQ HLQHV EHUHLWV EHVWHKHQGHQ 3URGXNWHV GDQQ LVW GHU 2SWLPLHUXQJVEHGDUI EHU GHQ $EVWDQG YRQ $XVJDQJVQLYHDX \ XQG =LHOQLYHDX \ DEOHVEDU $XVVDJHQ EHU GLH $XVSUlJXQJHQ GHU .RPSRQHQWHQ XQG 3UR]HVVPHUNPDOH [$FKVH ODVVHQ VLFK LQ GLHVHU3KDVHGHV3URMHNWHVQRFKQLFKWWUHIIHQ Analyse-Phase ,P NRQNUHWHQ 9RUJHKHQVPRGHOO GHV '0$'9=\NOXV ZHUGHQ LQ GHU $QDO\VH 3KDVH 'HVLJQNRQ]HSWH DXI ÄKRKHU (EHQH³ HQWZLFNHOW XQG HYDOXLHUW ,P DQDO\WL VFKHQ2SWLPLHUXQJVPRGHOOZLHHVLQ$EEGDUJHVWHOOWLVWZHUGHQ)XQNWLRQV SXQNWH DOV P|JOLFKH $XVJDQJVSXQNWH IU GLH VLFK DQVFKOLHHQGH 'HVLJQ3KDVH
$OV0HWKRGHQNRPPHQLQGHU3UD[LVYRUDOOHPGLH92&&74$QDO\VHXQGRGHUGLH :$QDO\VH LQIUDJH %HL OHW]WHUHU ZLUG GLH .XQGHQVWLPPH GXUFK GLH%HDQWZRUWXQJGHU )UDJHQ:HU":DV":R":DQQ":DUXP"XQG:LHYLHO"GLIIHUHQ]LHUWXQGLQNRQNUHWH .XQGHQDQIRUGHUXQJHQEHUVHW]WYJO$EVFKQLWW $OVZHLWHUIKUHQGHVWDWLVWLVFKH 0HWKRGH]XU0DUNWVHJHPHQWLHUXQJGLHQWGLH&RQMRLQW $QDO\VH (LQHQ DNWXHOOHQ hEHUEOLFN EHU GLH (LQVDW]P|JOLFKNHLWHQ GHU 3UlIHUHQ] DQDO\VH0HWKRGH JHEHQ 6WHLQHU %DXPJDUWQHU 6 II ,QLKUHP%HLWUDJZLH VHQVLHYRUDOOHPDXIQHXHUH6LPXOWDQDQVlW]HKLQGLHHLQHJOHLFK]HLWLJH6HJPHQWLHUXQJ GHV0DUNWHVXQG3UlIHUHQ]VFKlW]XQJGHU.XQGHQHUODXEHQ
)RUPDODQDO\WLVFKH%HVFKUHLEXQJXQG$QDO\VHGHU6L[6LJPD=\NOHQ
EHVWLPPW 'LH 3XQNWH [ \ XQG [ \ NHQQ]HLFKQHQ GDEHL DOWHUQDWLYH 3UR GXNWGHVLJQVGLH]%DXVGHP(LQVDW]XQWHUVFKLHGOLFKHU.RPSRQHQWHQUHVXOWLHUHQ %HLGH 'HVLJQV EHVLW]HQ GHQ JOHLFKHQ =LHO 2XWSXWZHUW L+Y \ ZREHL [ GHU WUDGLWLRQHOOHQ E]Z ELVKHULJHQ $XVSUlJXQJ GHV 3UR]HVV .RPSRQHQWHQPHUNPDOV HQWVSULFKW [ NHQQ]HLFKQHW KLQJHJHQ HLQH .RPSRQHQWH 3UR]HVV GLH DXV HLQHU SURGXNWEH]RJHQHQ SUR]HVVEH]RJHQHQ ,QQRYDWLRQ KHUYRUJHJDQJHQ LVW $XIJUXQG GHVLQQRYDWLYHQ&KDUDNWHUVLVWLKUH/HLVWXQJVIlKLJNHLW]XQlFKVWQLFKWK|KHUDOVGLH GHUELVKHULJHQ9DULDQWH-HGRFKZLUGPLW%OLFNDXIGLHPD[LPDOHUUHLFKEDUHQ=LHO E]Z2XWSXWZHUWHVFKQHOOGHXWOLFKGDVVGDV2SWLPLHUXQJVSRWHQ]LDOEHL=XJUXQGH OHJXQJGHVLQQRYDWLYHQ3URGXNWGHVLJQVZHVHQWOLFKJU|HULVWDOVGDVEHLP9HUEDX YRQ6WDQGDUG .RPSRQHQWHQGLHDXFKGHU:HWWEHZHUEHUEHVLW]W 'HU Tangentenanstieg LQ GHQ $XVJDQJVSXQNWHQ LVW HLQ 0D IU GLH 6WlUNH GHV =XVDPPHQKDQJV ]ZLVFKHQ DEKlQJLJHU XQG XQDEKlQJLJHU 9DULDEOH -H JU|HU GHU $QVWLHJLVWGHVWRVWlUNHUNRUUHOLHUHQGLH9DULDEOHQ[XQG\LQGHU8PJHEXQJYRQ [E]Z['LHVLPSOL]LHUW]XPHLQHQGDVVGXUFKHLQHJHULQJIJLJHLQILQLWHVLPD OH bQGHUXQJ G[ GLH =LHO 2XWSXWJU|H UHODWLY VWDUN EHHLQIOXVVW ZLUG=XPDQGH UHQ LVW GLH 6WlUNH GHU %HHLQIOXVVEDUNHLW DEKlQJLJ YRQ GHU $XVJDQJVODJH GK GHU 0HUNPDOVDXVSUlJXQJEHLGHUPLWGHU2SWLPLHUXQJEHJRQQHQZLUG 9HUVFKLHEW VLFK ]% GHU 3XQNW [ \ QXU XQZHVHQWOLFK LQ 5LFKWXQJ [ \ GDQQLVWDXIJUXQGGHVK|KHUHQ$QVWLHJVDXFKHLQ=XVDPPHQKDQJK|KHUHU2UGQXQJ ]XXQWHUVWHOOHQ%HLQLFKWOLQHDUHQ8UVDFKHQ:LUNXQJVEH]LHKXQJHQLVWIROJOLFKGLH %H]XJVEDVLVDXVVFKODJJHEHQGIUGLH(QWVFKHLGXQJVILQGXQJZHOFKHV+LJK/HYHO 'HVLJQ ZHLWHU YHUIROJW ZLUG ,Q GHU 8QWHUQHKPHQVSUD[LV EHVWHKWYRU GLHVHP +LQ WHUJUXQG GLH *HIDKU GDVV 3URGXNWLGHHQ PLW HLQHP KRKHQ ,QQRYDWLRQVJHKDOW ]X IUKYHUZRUIHQZHUGHQ$QVWHOOHGHVVHQZLUGDXIGHQ(LQVDW]YRQEHZlKUWHQDEHU JJI WHFKQRORJLVFK YHUDOWHWHQ .RPSRQHQWHQ 3UR]HVVHQ EHL GHU 3URGXNWHQWZLFN OXQJJHVHW]WYJO]%)HLJHQEDXP6 'LHVHYHUNU]WH6LFKWZHLVHVSLHJHOWVLFKDXFKLP4)'9RUJHKHQZLGHU:LHREHQ DQJHVSURFKHQ ELOGHW GLH 0HWKRGH LQ YLHOHQ )lOOHQ GLH *UXQGODJH IU GLH 'XUFK IKUXQJ YRQ ÄNODVVLVFKHQ³ ')663URMHNWHQ $XVJHKHQG YRQ GHQ JHZLFKWHWHQ .XQGHQDQIRUGHUXQJHQ ZHUGHQ ]XQlFKVW LP +R4 GLH $XVSUlJXQJHQ GHU HLQ]HO QHQ 3URGXNWPHUNPDOH DEJHOHLWHW ,Q HLQHU .RUUHODWLRQVPDWUL[ ZLUG GLH 6WlUNH GHV =XVDPPHQKDQJV ]ZLVFKHQ .XQGHQDQIRUGHUXQJ XQG 3URGXNWPHUNPDO VXEMHNWLY EHZHUWHW 'D]X ZHUGHQ 3XQNW]DKOHQ YHUJHEHQ 'LH $UW GHV =XVDPPHQKDQJV SRVLWLY RGHU QHJDWLY ZLUG GXUFK 9RU]HLFKHQ RGHU ± YHUGHXWOLFKW VLH LVW DE KlQJLJ YRQ GHQ 2SWLPLHUXQJVULFKWXQJHQ GHU EHLGHQ 9DULDEOHQ ,VW GLH 5LFKWXQJ GHV 3URGXNWPHUNPDOV PLW GHU GHV .XQGHQEHGUIQLVVHV LGHQWLVFK GDQQ LVW GHU .RUUHODWLRQVZHUWSRVLWLYLPHQWJHJHQJHVHW]WHQ)DOOLVWHUQHJDWLY
hEOLFKHUZHLVHZHUGHQGLHIROJHQGHQ3XQNW]DKOHQYHUZHQGHWIUVWDUNHIUPLWWOHUH XQGIUVFKZDFKH.RUUHODWLRQYJO'*4E6
3UD[LV7KHRULH7UDQVIRUPDWLRQ9RPNRQNUHWHQ]XPDEVWUDNWHQ0RGHOO
:LH LP [\'LDJUDPP LQ $EE QDFKYROO]LHKEDU LVW GLH .RUUHODWLRQ JHQDX GDQQQHJDWLYZHQQGHU$XVJDQJVSXQNWUHFKWVYRPORNDOHQ0D[LPXPOLQNHURGHU UHFKWHU *LSIHO OLHJW FS 'LH 2SWLPLHUXQJVULFKWXQJ IU GDV ,QSXWPHUNPDO LVW GHP]XIROJHDXFKGDYRQDEKlQJLJDQZHOFKHU6WHOOHDXIGHU[$FKVHPLWGHU2S WLPLHUXQJEHJRQQHQZLUG 'LH%HGHXWXQJGHUHLQ]HOQHQ3URGXNWPHUNPDOHIUGDV*HVDPWNRQ]HSWHUJLEWVLFK DXVGHU6XPPHGHU6NDODUSURGXNWH'LH0HUNPDOHPLWGHUK|FKVWHQ%HZHUWXQJV SXQNW]DKO VLQG DOV NULWLVFK ]X EHWUDFKWHQVLHVWLPPHQPLWGHQHLQJDQJVEHVFKULH EHQHQ &74V EHUHLQ $XV LKQHQ ZHUGHQ LQ HQWVSUHFKHQGHU :HLVH LP +R4 GLH .RPSRQHQWHQPHUNPDOH DEJHOHLWHW 6RZRKO GLH 3URGXNW DOV DXFK .RPSRQHQWHQ PHUNPDOHZHUGHQPLW0HVVJU|HQKLQWHUOHJW:lKUHQGGLH3URGXNWPHUNPDOHYRP 8QWHUQHKPHQ EHU GLH .RPSRQHQWHQPHUNPDOH XQPLWWHOEDU EHHLQIOXVVEDU VLQG ZLUG EHU GLH HUPLWWHOWHQ &74V HLQH GLUHNWH %H]LHKXQJ ]XP 4XDOLWlWVHPSILQGHQ GHV.XQGHQKHUJHVWHOOW$XV.XQGHQVLFKWJLOW-HEHVVHUGLH$QIRUGHUXQJHQHUIOOW ZHUGHQ GHVWR K|KHU LVW GLH ZDKUJHQRPPHQH 3URGXNWTXDOLWlW 'D EHL 3URMHNWEH JLQQ GLH +|KH GHU %HGUIQLVHUIOOXQJ XQEHNDQQW LVW OlXIW GLH 2SWLPLHUXQJ PLW 4)' MHZHLOV DXI HLQH 0D[LPLHUXQJ UHVSHNWLYH 0LQLPLHUXQJ KLQDXV %H]RJHQ DXI GDVDQDO\WLVFKH0RGHOOLQ$EEEHGHXWHWGLHVGDVVGLH=LHO2XWSXWPHVVJU| H ]X PD[LPLHUHQ LVW ZREHL GHU )RUVFKHU QXU YDJH .HQQWQLVVH EHU GHQ IXQNWLR QHOOHQ =XVDPPHQKDQJ \ I[ EHVLW]W $XV GLHVHP *UXQG N|QQHQ DXFK NHLQH $XVVDJHQ ]XP PD[LPDOHQ 2SWLPLHUXQJVSRWHQ]LDO GK GHU +|KH GHU Ä]X HUNOLP PHQGHQ*LSIHO³DXVJHKHQGYRQGHU6WHOOH[E]Z[JHPDFKWZHUGHQ Design-Phase ,Q GLHVHU 3KDVH JHKW HV LQ HUVWHU /LQLH XP GLH 9HUIHLQHUXQJ VSULFK 2SWLPLHUXQJ GHV IDYRULVLHUWHQ 'HVLJQV DXV GHU $QDO\VH3KDVH $XVJHKHQG YRP JHZlKOWHQ 6WDUWSXQNW ZLUG YHUVXFKW GDV nächstliegende Maximum ]X HUUHLFKHQ $XIJUXQG GHU :HWWEHZHUEVDQDO\VH %HQFKPDUNLQJ LQ GHU 0HDVXUH3KDVH LVW GLH $XVSUl JXQJ GHU =LHO 2XWSXWJU|H YRQ .RQNXUUHQ]SURGXNWHQ \ EHNDQQW *OHLFK]HLWLJ LVWDEHUGLHQRWZHQGLJH$XVSUlJXQJGHUXQDEKlQJLJHQ9DULDEOH[DQGHU6WHOOH[ XQEHNDQQW+LHU]XLVW]XQlFKVWGHU)XQNWLRQVYHUODXIZLHHULQ$EEEHLVSLHO KDIWGDUJHVWHOOWLVW]XREMHNWLYLHUHQ$OV6FKlW]PHWKRGHQNRPPHQVRZRKOOLQHDUH DOVDXFKQLFKWOLQHDUH]%TXDGUDWLVFKH5HJUHVVLRQVDQVlW]HLQIUDJH'DEHLLVWGLH :DKOGHV6WDUWSXQNWHVHQWVFKHLGHQGGDIUZHOFKHV0D[LPXPDP(QGHGHU2SWL PLHUXQJVSKDVHHUUHLFKWZLUG'LHVLVWHLQZHVHQWOLFKHU8QWHUVFKLHG]XP'0$,& =\NOXVEHLGHPGLH$XVJDQJVVLWXDWLRQPHKURGHUZHQLJHUIL[LVW ,P YRUOLHJHQGHQ %HLVSLHO EHILQGHW VLFK GDV RSWLPDOH 'HVLJQ EHL [ 'XUFK GLH 5HDOLVLHUXQJ YRQ \ ZLUG GHU .XQGH EHJHLVWHUW GD GLH $XVSUlJXQJ GHV 3URGXNW PHUNPDOV ]% .XJHOVFKUHLEHU PLW EHUGXUFKVFKQLWWOLFKHU )OOPHQJH XQG GDPLW 6FKUHLE/HEHQVGDXHUGHXWOLFKEHUVHLQHQ(UZDUWXQJHQOLHJW =XP (UUHLFKHQ YRQ [ \ PXVV GHU $XVJDQJVSXQNW DP )XH GHV UHFKWHQ *LS IHOV GHU )XQNWLRQ \ I[ OLHJHQ ,P =XJH GHU 2SWLPLHUXQJ ZLUG GDV 1LYHDX GHU .RQNXUUHQ]DQJHERWHRKQH:HLWHUHVHUUHLFKWXQGEHUVSUXQJHQ2KQHGHQ(LQVDW]
)RUPDODQDO\WLVFKH%HVFKUHLEXQJXQG$QDO\VHGHU6L[6LJPD=\NOHQ
YRQ .UHDWLYLWlWVWHFKQLNHQ OLHJW GHU $QIDQJVSXQNW DOOHU 9RUDXVVLFKW QDFK EHL [ \ 'XUFKGLH,QWHUSRODWLRQGHU)XQNWLRQǔ I[ LP%HUHLFK>[\@XQGGHUDQ VFKOLHHQGHQ 2SWLPLHUXQJ ZLUG GHU OLQNH *LSIHO DOV JOREDOHV 0D[LPXP GHWHN WLHUW%H]RJHQDXIXQVHU%HLVSLHOEHGHXWHWGLHVGDVVHLQ.XJHOVFKUHLEHUHQWZLFNHOW ZLUG GHU GLH $QIRUGHUXQJHQ GHU .XQGHQ QLFKW YROOVWlQGLJ HUIOOW 'DV )DUEVWRII )OOYHUP|JHQ LVW QLFKW DXVUHLFKHQG XP GLH YRUJHJHEHQHQ %HQFKPDUNLQJ:HUWH GHU .RQNXUUHQ] ]X HUUHLFKHQ ,Q GLHVHP )DOO LVW HLQ 5FNVSUXQJ LQ GLH $QDO\VH 3KDVHQRWZHQGLJXPHLQHQEHVVHUHQ6WDUWSXQNW]XILQGHQ $P (QGH GHU 'HVLJQ3KDVH ZLUG GDV GHWDLOOLHUWH 3URGXNWGHVLJQ KLQVLFKWOLFK GHU (UIOOXQJ GHU &74V HYDOXLHUW )lOOW GLH %HZHUWXQJ SRVLWLY DXV ZLUG GDV 'HVLJQ ÄHLQJHIURUHQ³XQGGLH,PSOHPHQWLHUXQJLQGHQ6HULHQSUR]HVVYRUEHUHLWHW Verify-Phase ,P UHDOHQ 9RUJHKHQVPRGHOO NRPPW GHU 9HULI\3KDVH GLH $XIJDEH ]X GHQ HQWZL FNHOWHQ3URWRW\SHQ]XSLORWLHUHQ9RUVHULH XQGDQVFKOLHHQGLQGHQ3URGXNWLRQV SUR]HVV ]X LPSOHPHQWLHUHQ 6HULH 'DPLW VROO VLFKHUJHVWHOOW ZHUGHQ GDVV GLH LP (QWZLFNOXQJVVWDGLXP HU]LHOWH /HLVWXQJVIlKLJNHLW GHV 3URGXNWHV DXFK LQ GHU 6H ULHQIHUWLJXQJHUUHLFKWZLUGYJO$EVFKQLWW $XI GHU $EVWUDNWLRQVHEHQH LVW GDV 9RUJHKHQ LQVRIHUQ QDFKYROO]LHKEDU GDVV GLH Lage des optimalen Prozesspunktes EHUZDFKW ZLUG 'D HV VLFK EHL +HUVWHOOSUR ]HVVHQ XPVWRFKDVWLVFKH9RUJlQJHKDQGHOWNDQQVLFKGLH/DJHGHV2SWLPDOSXQN WHVEHUGLH=HLWYHUVFKLHEHQ8PGLH3UR]HVVIlKLJNHLWVWDELO]XKDOWHQXQGJJI]X VWHLJHUQ ZLUG ± DQDORJ ]XP '0$,&=\NOXV ± HLQ .RQWLQXLHUOLFKHU 9HUEHVVH UXQJVSUR]HVV.93 HLQJHOHLWHW 8QWHUGHU9RUDXVVHW]XQJGDVVGHU3XQNW[\ UHVSHNWLYH[ \ UHODWLYJHQDX LQGHU'HVLJQ3KDVHHUXLHUWZRUGHQLVWZHUGHQVLFKLP=XJHYRQ.93QXUJHULQJ IJLJH 9HUEHVVHUXQJHQ HLQVWHOOHQ ,VWGLH/DJHGHV3UR]HVVSXQNWHVKLQJHJHQUHOD WLY ZHLW YRP QlFKVWOLHJHQGHQ ORNDOHQ 0D[LPXP HQWIHUQW NDQQ GHU 2SWLPDOSXQNW GXUFK VFKULWWZHLVH 9HUEHVVHUXQJHQ LP 6HULHQSUR]HVV HUUHLFKW ZHUGHQ ,Q GLHVHP )DOO JLOW 6HOEVW GXUFK .93 EOHLEW GLH /FNH *DS ]ZLVFKHQ GHP DQJHVWUHEWHQ XQG GHP UHDOLVLHUWHQ =LHOZHUW ODQJIULVWLJ EHVWHKHQ ZHQQ LQ GHU (QWZLFNOXQJV 'HVLJQ3KDVHYRP3XQNW[\ DXVJHJDQJHQZRUGHQLVW Zwischenfazit:0LWGHUhEHUIKUXQJGHUUHDOHQ3UREOHPEHVFKUHLEXQJLQHLQHDEV WUDNWH LVW HV P|JOLFK /|VXQJHQ DXI HLQHU EHUJHRUGQHWHQ (EHQH ]X VXFKHQ ,Q XQVHUHP )DOO ZXUGH GDV 9RUJHKHQ LP 5DKPHQ GHV '0$,& E]Z '0$'9 =\NOXV LQ HLQ PDWKHPDWLVFKHV 9RUJHKHQVPRGHOO WUDQVIHULHUW 'LHVHV GLHQW ]XP $XIILQGHQ GHV 2SWLPXPV \ HLQHU )XQNWLRQ \ I[ $QKDQG GHVVHQ ODVVHQ VLFK GHU 3KDVHQDEODXI GHU EHLGHQ RJ 6L[ 6LJPD9HUEHVVHUXQJV]\NOHQ IRUPDO DQDO\WLVFKQDFKYROO]LHKHQXQG±LQVELQ%H]XJDXIGHQ'0$'9=\NOXV±'HIL]L WHEHLGHU3UREOHPO|VXQJIHVWVWHOOHQ*OHLFK]HLWLJZHUGHQPLWGHQ8QWHUVXFKXQJHQ LQ GHQ $EVFKQLWWHQ XQG IDOOEH]RJHQH %HOHJH E]Z (YLGHQ]HQ IU GHQ :DKUKHLWVJHKDOWYRQHypothese H6DQJHIKUWYJO$EVFKQLWW
4
Mathematische Vorgehensmodelle zur funktionellen Optimierung und Lösung schwieriger Probleme
In der angewandten Mathematik werden einschlägige Verfahren bereitgestellt, mit denen sog. „schlecht strukturierte Probleme“ einer optimalen bzw. annähernd optimalen Lösung zugeführt werden können. Diese stehen in der weiteren Betrachtung im Vordergrund. Ziel ist es, ausgehend von den mathematischen Optimierungsalgorithmen Verbesserungsvorschläge für den DMADV-Zyklus abzuleiten bzw. alternative Vorgehensmodelle aufzuzeigen. Vor diesem Hintergrund werden sowohl klassische (siehe Unterkapitel 4.2) als auch evolutionäre Algorithmen (siehe Unterkapitel 4.3) genauer „unter die Lupe“ genommen. Zuvor folgen – entsprechend dem Vorgehen in Kapitel 3 – einige Begriffsdefinition. Sie beziehen sich vor allem auf die Anwendung von mathematischen Algorithmen und Heuristiken zum Auffinden des Optimums einer Zielfunktion.
4.1
Anwendung von Algorithmen/ Heuristiken zum Auffinden des Optimums einer Zielfunktion – Begriffsdefinitionen
Analog zur Anwendung von Problemlösungszyklen in der Unternehmenspraxis, z.B. DMAIC-Zyklus, werden in der Mathematik Algorithmen/ Heuristiken eingesetzt, um z.B. den Extremwert bei einer Optimierungsaufgabe zu bestimmen. Da die Arbeit aus EHWULHEVZLUWVFKDIWOLFKHU 3HUVSHNWLYH geschrieben ist, wird im Folgenden kurz erläutert, was „Optimierung“ im mathematischen Sinn bedeutet. Im Anschluss wird darauf eingegangen, was einen „guten Algorithmus“ zur mathematischen Optimierung auszeichnet und wie man zu einem solchen kommt. Die Begriffe sind von zentraler Bedeutung im Rahmen des Operations Research (OR), bei dem es nicht darauf ankommt, wie ein Problem empirisch-theoretisch strukturiert ist, sondern wie die Optimalität einer Problemlösung mathematisch errechenbar und nachweisbar ist (vgl. Chmielewicz 1979, S. 184). 4.1.1
Mathematische Optimierung und Optimierungsrechnung
Als Optimierung1 wird die Verbesserung eines gegebenen Systems anhand festgelegter Gütekriterien bezeichnet (vgl. Sprave 1999, S. 8). Entsprechend besteht das Ziel der entscheidungsorientierten BWL darin, Entscheidungsunterstützung innerhalb sozio-technischer Systeme, z.B. Unternehmen und öffentliche Verwaltung, zu geben. In diesem Zusammenhang werden üblicherweise YHUHLQIDFKHQGH 0RGHOOH dieser Systeme erstellt und untersucht. Dies liegt zum einen daran, dass es in vielen Fällen nicht möglich, zu teuer oder zu gefährlich ist, die Ursachen-Wirkungszusammenhänge am realen System zu studieren. Zum anderen soll durch vereinfa-
1
Als Synonym für den Begriff „Optimierung“ hat sich der Terminus „Programmierung“ (z.B. LP für Lineare Prorgammierung) eingebürgert (vgl. Jongen/ Meer 2003, S. 212).
4.1 Definition von Algorithmen/ Heuristiken
159
chende Modelle die Komplexität der Aufgabe reduziert werden, um dadurch die Lösungssuche möglichst einfach und effizient zu gestalten. Nicht selten entziehen sich die realen Systeme und/ oder die abgeleiteten Simulationsmodelle einer (exakten) mathematischen Analyse. In diesem Fall ist man darauf angewiesen, die 5HDNWLRQGHV6\VWHPVDXI9HUlQGHUXQJHQ der beeinflussbaren Parameter zu messen. Dem System wird eine Qualitäts- bzw. Evaluierungsfunktion zugeordnet, die implizit oder explizit, d.h. in Form eines mathematischen Modells, gegeben sein kann (vgl. Jongen/ Meer 2003, S. 211ff.). Optimierung steht im überwiegenden Teil der Fälle für die „Suche nach der besten Lösung“. Dazu ist das Aufstellen einer (skalaren) Zielfunktion2 der Form & & (4.1) \ = I[ & * notwendig, wobei \ so formuliert wird, dass ein Punkt [ ∈ 0 um so besser ist, & & je größer I[ ist (Maximierung). Ein Punkt [ im Parameterraum heißt dann & globaler Optimumpunkt und sein Zielfunktionswert I[ globales Optimum, wenn die folgende Bedingung erfüllt ist:
& & & ∀ [ ∈ 0 I[ ≤ I[
(4.2) & Wird die Erfüllung der Ungleichung (4.2) nur für alle [ in einer beliebig kleinen & ε-Umgebung von [ verlangt, so spricht man von einem lokalen Optimumpunkt bzw. lokalen Optimum. Wie leicht nachvollziehbar ist, stellt das globale Optimum immer auch ein lokales Optimum dar. Existieren zu einer Zielfunktion mehrere, voneinander verschiedene lokale Optima, so handelt es sich um eine multimodale Zielfunktion. Üblicherweise ist der Lösungsraum M durch Gleichheits- oder Ungleichheitsrestriktionen wie folgt beschränkt:
{ ∩ {[ ∈ 5
} ∀N = 1... S : K ( [) = 0}
0 := [ ∈ 5 Q ∀N = 1...T : J N ( [) ≥ 0 Q
(4.3)
N
Dabei werden Ungleichheitsrestriktionen in Form untereinander unabhängiger Ober- und Untergrenzen der Parameter (Bounds) häufig nicht als Restriktionen im eigentlichen Sinn betrachtet. Obwohl in der allgemeinen Definition von Optimierungsaufgaben abzählbare (ganzzahlige) Suchräume als endliche Teilmengen von Rn enthalten sind, wird gelegentlich zwischen kontinuierlicher, diskreter und gemischt-ganzzahliger Optimierung unterschieden. 2
In Abgrenzung zu skalaren Optimierungsproblemen, die hier im Vordergrund stehen, sind bei Mehrziel- bzw. Vektoroptimierungsproblemen Werte von mehreren Zielfunktionen gleichzeitig zu optimieren (vgl. Korhonen et al. 1992; Rosenthal 1985).
160
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
Ist der Lösungsraum endlich groß und dürfen alle Entscheidungsvariablen nur ganzzahlige Werte annehmen, dann handelt es sich um ein NRPELQDWRULVFKHV2S WLPLHUXQJVPRGHOO. Die Planung einer Rundreise mit n Orten (TSP – Traveling Salesman-Problem) zählt zu den bekanntesten Problemen3, die zu einem solchen Modell führen (vgl. Greb et al. 1998. S. 444). Neben der Tourenplanung lassen sich viele weitere betriebswirtschaftliche Optimierungsprobleme auf die Suche nach dem globalen Maximum einer Funktion zurückführen. Können die Entscheidungsvariablen in beliebig kleinen Schritten verändert werden, dann sprechen wir von kontinuierlichen bzw. VWHWLJHQ2SWLPLHUXQJVPRGHOOHQ. Hier ist es möglich, den optimalen Zielwert durch langsames Herantasten, d.h. infinitesimale Änderungen der relevanten Einstellwerte, zu finden. In der Unternehmenspraxis sind eine Reihe von Problemen stetiger Natur, z.B. im Rahmen der Produktionsplanung/ -steuerung (PPS), wenn es um die Bestimmung der minimalen Rüstkosten und des optimalen Lagerprogramms geht. Die Ausführungen in den Unterkapiteln 4.2 und 4.3 konzentrieren sich auf Algorithmen zur Lösung stetiger Probleme, da im Ausgangsproblem in 3.4 eine stetig differenzierbare (glatten) Zielfunktion zugrunde gelegt ist. 4.1.2
Algorithmen und Heuristiken zum Auffinden des Optimums
Viele interessante betriebswirtschaftliche Entscheidungsprobleme führen zu Optimierungsaufgaben. Bereits in einführenden Lehrbüchern zur Betriebswirtschaftslehre werden eine Reihe von Optimierungsmodellen und -verfahren dargestellt (vgl. z.B. Töpfer 2007a; Wöhe 2005; Schierenbeck 2003). Mit ihnen lassen sich z.B. Lösungsvorschläge für Probleme der über- und innerbetrieblichen Standortplanung sowie der Rundreise-/ Tourenplanung erarbeiten. Dabei ist das Vorgehen so eindeutig zu formulieren, dass auch jemand, der keine intellektuelle Einsicht in das zu lösende Problem hat, es trotzdem, den Anweisungen folgend, Schritt für Schritt „mechanisch“ bearbeiten kann (vgl. Schöning 2006, S. 1). Dieser „jemand“ ist heute in den meisten Fällen der Computer. Bevor man damit beginnt, eine Routine bzw. ein Programm als eine Vorschrift zur Lösung einer Aufgabe zu entwickeln, ist das zu lösende Problem genau zu beschreiben, d.h. zu spezifizieren (vgl. Michalewicz/ Fogel 2000, S. 9). Die 6SH]LIL NDWLRQ DOV $XVJDQJVSXQNW für ein Programm beinhaltet dabei eine vollständige, detaillierte und eindeutige Problembeschreibung. Konkret bedeutet dies, dass (a) alle relevanten Informationen berücksichtigt werden (vollständig), 3
Beim TSP handelt es sich um ein Standardproblem des Operations Research, wobei es darum geht, in einem vollständigen, bewerteten Graphen/ Netzplan eine kürzeste Rundreise zu finden. Das Problem ist optimal gelöst, wenn ein geschlossener Weg kürzester Länge, der jeden Knoten des Graphen genau einmal enthält, vorliegt. Das TSP hat vor allem aus komplexitätstheoretischen Gründen das Interesse vieler Wissenschaftler auf sich gezogen (vgl. Wäscher 1998, S. 1300).
4.1 Definition von Algorithmen/ Heuristiken
161
(b) alle Hilfsmittel und Grundaktionen aufgelistet sind, die zur Lösung zugelassen werden (detailliert), und (c) klare Kriterien festgelegt worden sind, wann eine Lösung akzeptabel, d.h. eindeutig ist. Nach der Spezifikation eines Problems geht es im Weiteren darum, ein Modell und damit einen Lösungsweg zu entwerfen. Egal, ob die Lösung von einer Maschine oder einem Menschen ausgeführt wird, muss jeder Schritt exakt vorgeschrieben sein. Dies erfolgt in Form eines Algorithmus. Für den Begriff „Algorithmus“ gibt es mehrere Definitionen (vgl. Koch/ Schlichter 2002, S. 45): •
Nach Bußmann (1990, S. 67) ist ein Algorithmus ein durch explizite Regeln festgelegtes effektives Rechenverfahren zur automatischen Lösung einer Klasse von gleichartigen Problemen, die durch eine hypothetische Maschine zu überprüfen sind. Die Vorschrift zur schrittweisen Lösung des Problems ist dabei präzise formuliert (mit vorgegebenen Konstrukten), in endlicher Form dargestellt und effektiv ausführbar.
•
Eine etwas anders gelagerte Definition gibt Külpe (1883/ 1909). Nach ihm ist ein Algorithmus eine in der Beschreibung und Ausführung endliche, deterministische und effektive Vorschrift zur Lösung eines Problems, die effizient sein sollte. Während „effektiv“ für die eindeutige Ausführbarkeit der Einzelschritte steht, bezeichnet „effizient“ den ressourcenschonenden Einsatz von Sach-/ Finanzmitteln bei Anwendung des Algorithmus.
Die Aufgabe bzw. das Problem, auf das der Algorithmus angesetzt wird, kann aus vielen $QZHQGXQJVJHELHWHQ stammen, z.B. Berechnung numerischer Werte, Textund Bildverarbeitung, Handhabung von Objekten (Robotik), Zuteilung von Ressourcen, Steuerung von Geräten und Maximierung von Gewinnen. Die Anwendung kann sich sowohl auf reale als auch abstrakte Problemstellungen beziehen. So lässt sich z.B. der DMAIC-Zyklus im Rahmen von Six Sigma als Algorithmus zur Prozessoptimierung charakterisieren, denn er ist: •
(QGOLFK, d.h. das Six Sigma-Projekt wird innerhalb eines Zeitraums von 3 bis 6 Monaten bearbeitet
•
'HWHUPLQLVWLVFK, d.h. die einzelnen Schritte/ Phasen der Projektdurchführung sind eindeutig bestimmt
•
(IIHNWLY, d.h. die einzelnen Schritte/ Phasen sind eindeutig ausführbar sowie inhaltlich aufeinander abgestimmt
•
(IIL]LHQW, d.h. die Aussicht auf ein positives Kosten-Nutzen-Verhältnis (Net Benefit) ist Grundlage für die Durchführung des Projektes.
Die 'DUVWHOOXQJ3UlVHQWDWLRQYRQ$OJRULWKPHQ kann auf unterschiedliche Art und Weise erfolgen, z.B. informelle oder textliche Beschreibung, programmiersprachliche Beschreibung und graphische Beschreibung mithilfe von Funktions-/ Flussdiagrammen. Die Ausführung des Algorithmus kann durch Menschen oder Ma-
162
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
schinen (z.B. Computer) erfolgen. In seiner allgemeinsten Form besteht ein Algorithmus aus (a) Objekten (Daten(-objekte), Variablen) und (b) Anweisungen, die Operationen an Objekten realisieren. Die Operationen bewirken, dass die Objekte von einem ursprünglichen Zustand (Anfangs-/ Eingangszustand) in einen definierten Endzustand gebracht werden. Dabei findet das EVA-Prinzip4 (Eingabe – Verarbeitung – Ausgabe) Anwendung (vgl. Herold et al. 2006, S. 91ff.). Jeder Algorithmus kann de facto soweit in Einzelschritte zerlegt (verfeinert) werden, bis er nur noch aus den folgenden YLHU*UXQGHOHPHQWHQ für die Operationen besteht. Mit diesen können alle Algorithmen, die zur Problemlösung eingesetzt werden, formal beschrieben werden (vgl. Koch/ Schlichter 2002, S. 46): (1) 6HTXHQ] als Folge von (atomaren) Anweisungen, die zu Blöcken zusammengefasst werden (2) $OWHUQDWLYH als eine Verzweigung im Operationsablauf, die über eine Bedingung gesteuert wird (3) $XVZDKO(Selektion) als Verallgemeinerung der Alternative sowie (4) ,WHUDWLRQ als eine Menge von Anweisungen mit endlicher Wiederholung. Algorithmen, welche die Optimalität der mit ihr bestimmten Lösung nicht garantieren, werden als +HXULVWLNHQ bezeichnet. Der Begriff stammt vom griechischen Wort „heuriskein“ ab, das so viel bedeutet wie „finden“ oder „entdecken“ (vgl. Voß et al. 2000, S. 553). Gegenüber exakten Algorithmen beanspruchen heuristische Verfahren i.d.R. deutlich weniger Rechenzeit.5 Dieser Vorteil macht sich insb. bei immer wiederkehrenden Kalkulationen und/ oder dem Lösen komplexer Optimierungsprobleme bemerkbar. Landläufig werden Heuristiken auch als „Daumenregel“ bezeichnet. Aus wissenschaftlicher Sicht beschreiben sie einen plausiblen Problemlösungsprozess ohne Optimalitätsgarantie.6 Vor diesem Hintergrund lassen sich die Problemlösungszyklen, die im Rahmen von Six Sigma zur Anwendung kommen, eher als Heuristiken klassifizieren.
4 5
6
Das EVA-Prinzip entspricht dem IPO-Prinzip bei Six Sigma-Projekten mit der Dreiteilung Input-Prozess-Output (vgl. Abschnitt 3.3.1). Heuristische Lösungsverfahren lassen sich nach folgenden Kritieren unterscheiden (vgl. Schmitting (1999, S. 42ff.): (a) Formale und materielle Orientierung, (b) Eröffnungsund Verbesserungsverfahren und (c) Klassische und metaheuristische Verfahren. In Theorie und Praxis werden zunehmend übergeordnete Lösungskonzepte, sog. MetaHeuristiken (General Purpose Heuristics), entwickelt und eingesetzt. Gegenüber klassischen Verfahren der Nachbarschaftssuche besitzen sie den Vorteil der problemspezifischen Anpassung (Selbstadaption) sowie die Fähigkeit der intelligenten Nutzung von verschiedenen Gedächtnisstrukturen (vgl. z.B. Marimon 1993, S. 603ff.).
4.2 Klassische Algorithmen
4.2
163
Klassische Algorithmen
Nach der Klärung der wesentlichen Begrifflichkeiten werden in diesem Unterkapitel zunächst die klassischen bzw. konventionellen Algorithmen zur Lösung schwieriger mathematischer Probleme im Überblick dargestellt. Eine Klassifizierung ist dabei anhand verschiedener Kriterien möglich: Erstens nach der Art der zugrunde liegenden Problemstellung (bekannter vs. unbekannter Funktionsverlauf), Zweitens nach dem Umgang mit umweltbezogenen Einflussgrößen (analytische vs. statistische Verfahren) und Drittens nach der Genauigkeit der Lösungsfindung (exakte vs. heuristische Verfahren). Bei der Darstellung der einzelnen Methoden geht es primär um das Verständnis des Lösungsansatzes, und zwar bezogen auf das in Unterkapitel 3.4 ausgeführte Extremwertproblem. 4.2.1
Extremwertberechnung bei bekanntem/ unbekanntem Funktionsverlauf
Es werden hier zwei Fälle unterschieden: Unter dem Punkt (a) wird auf die Extremwertberechnung bei bekanntem Funktionsverlauf, d.h. analytisch bestimmter Funktion y = f(x), eingegangen. Ist die Funktion nur punktuell gegeben, dann sprechen wir von einem (analytisch) unbekannten Funktionsverlauf. Unter dieser Voraussetzung gestaltet sich die Extremwertberechnung i.A. schwieriger. Die notwendigen (Rechen-)Schritte werden im Punkt (b) kurz beschrieben. D ([WUHPZHUWEHUHFKQXQJEHLEHNDQQWHP)XQNWLRQVYHUODXI
Mit dem Sekanten- und Tangentenverfahren werden zwei Vorgehensweisen aufgezeigt, um die optimalen Einstellwerte bei gegebener Funktion zu finden. Es wird schnell deutlich, dass das erstgenannte Verfahren eher der projektbezogenen Verbesserungsstrategie i.S.v. Six Sigma entspricht, während das Tangentenverfahren – auf abstrakter Ebene – sehr stark dem Ansatz der inkrementellen Verbesserung i.S.v. Kaizen gleich kommt (vgl. Abschnitt 2.2.1). (a.1) Lineare Interpolation (Sekantenverfahren) Bei der Interpolation handelt es sich um einen Algorithmus, mit dem man eine benötigte Information mit Hilfe von vorhandenen Informationen gewinnen kann. Der Begriff „Interpolation“ stammt von den lateinischen Wörtern „inter“ (dt.: zwischen) und „polare“(dt.: glätten). Im Laufe der Zeit haben sich eine Reihe von ,QWHUSRODWLRQVPHWKRGHQ entwickelt, die in ganz unterschiedlichen Wissenschaftsdisziplinen zum Einsatz kommen (vgl. Meinardus 2003, S. 168ff.). Ein klassisches Vorgehen zur Bestimmung des Maximums/ Minimums einer bekannten Funktion besteht darin, den Punkt mit verschwindend geringer 1. Ableitung aufzufinden (Nullstellensuche). Vor diesem Hintergrund wird bei Optimierungsrechnungen i.d.R. die Nullstelle der 1. Ableitung der Zielfunktion als %HGLQ
164
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
JXQJ2UGQXQJ gesucht.7 Bei der linearen Interpolation als einfachstes Verfahren zum Auffinden von Nullstellen nimmt man an, dass der Zuwachs der Funktion f(x) dem Zuwachs der unabhängigen Variablen x proportional ist.
Sei x* die gesuchte Lösung für die Optimalitätsbedingung \ I[ . Beim 6HNDQWHQYHUIDKUHQ, welches in Abb. 4-1 schematisch dargestellt ist, geht man von Werten x0 und x1 aus, die so zu wählen sind, dass y0 und y1 verschiedene Vorzeichen haben (vgl. Göhler 1996, S. 94). Die Sekante durch die Punkte (x0; y0) und (x1; y1) schneidet dann die x-Achse in einem Punkt mit dem Näherungswert:
[2 = [1 −
[1 − [0 ⋅ \0 \1 − \0
(4.4)
Das Verfahren wird mit dem Ausgangswert x1 und dem berechneten Wert x2 fortgesetzt. Die Iterationsschleife endet, wenn eine hinreichend genaue Approximation von x* erreicht worden ist. In diesem Fall liegt der Funktionswert yi nahe Null bzw. hat einen vorgegebenen Grenzwert unterschritten. \ I[ \
3[ \
[
\ \ \
[
[
[
[
[
3[ \ 3[ \ 3[ \
Basis: Göhler 1996, S. 94
Abb. 4-1: Schematische Darstellung des Sekantenverfahrens
Die Genauigkeit der Methode der Linearen Interpolation zum Auffinden von Extremstellen und zugehörigen Funktionswerten ist begrenzt; deshalb wird in vielen Fällen zu komplizierteren Interpolationsformeln gegriffen, z.B. die quadratische ,QWHUSRODWLRQ QDFK %HVVHO (vgl. Bronstein/ Semendjajew 1977, S. 1). Geht es um
7
Die Bedingung 2. Ordung bezieht sich auf die 2. Ableitung einer Funktion. Diese ist kleiner Null, wenn es sich bei dem Extremumpunkt um ein Maximum handelt, c.p.
4.2 Klassische Algorithmen
165
die Bestimmung von Nullstellen auf der Grundlage der Infinitesimalrechnung, dann kommt häufig das nachstehende Newton-Verfahren und darauf aufbauende Verfahren, welche die 1. und ggf. 2. Ableitung benötigen, zur Anwendung. Zu weiteren, ableitungsfreien Algorithmen der nicht-linearen Optimierung (NLP) gehören insb. (vgl. Bhatti 2000, S. 303ff.): (a) ,QWHUYDOOKDOELHUXQJVYHUIDKUHQ (Verfahren des Goldenen Schnitts), bei dem eine konvergierende Folge von Intervallschachtelungen zur Lösungsfindung erzeugt wird, und (b) 'RZQKLOO6LPSOH[ 9HUIDKUHQ, welches einen speziellen Simplex-Algorithmus zur Optimierung nichtlinearer Funktionen mit mehreren Parametern darstellt. (a.2) Newton´sches Näherungsverfahren (Tangentenverfahren) Das Newton-Verfahren dient zur näherungsweisen %HVWLPPXQJ YRQ 1XOOVWHOOHQ einer Funktion y = f(x). Gegenüber dem unbeholfenen „Ausprobieren“ (Trial-andError) und der umständlichen linearen Interpolation ist der Algorithmus von Newton elegant und wird deshalb häufig zur %HVWLPPXQJORNDOHU2SWLPDEHL3RO\QR PHQEHOLHELJHQ*UDGHV verwendet. Mithilfe des Algorithmus werden die Nullstellen der 1. Ableitung einer Zielfunktion gesucht, die bei Optimierungsrechnungen – wie oben ausgeführt – die Bedingungen 1. Ordnung darstellen.8 Zu Beginn dieses iterativen Verfahrens ist in Abhängigkeit von einem willkürlich gewählten Startwert x0, von dem ausgegangen wird, dass er in der Nähe der gesuchten Nullstelle liegt, das Niveau f(x0) und die Ableitung f´(x0) der betrachteten Funktion zu berechnen. f´(x0) kann graphisch durch eine Tangente veranschaulicht werden, welche die Funktion f(x) an der Stelle x0 gerade berührt und – nach entsprechender Verlängerung die x-Achse im Punkt x1 schneidet. Infolgedessen lässt sich die Steigung f´(x0) auch durch das Verhältnis des Funktionswertes an der Stelle x0 zum Abstand zwischen x0 und x1 ausdrücken. Wenn man diesen Zusammenhang formal abbildet und nach x1 auflöst, dann ergibt sich eine Gleichung für x1, die von bekannten Werten abhängt (vgl. Holtmann 1963, S. 228f.):
[1 = [ 0 −
I[ 0 ′ 0 I [
(4.5)
x1 stellt den ersten Näherungswert zur Bestimmung der Nullstelle dar und kann als „neues x0“ die Berechnung eines weiteren Näherungswertes x1´ auslösen. Mit jedem Iterationsschritt kommt man der gesuchten Lösung etwas näher (siehe Abb. 4-2). Die Berechnung von x1-Werten nach Gleichung (4.3) ist solange fortzusetzen, bis sich entweder ein Funktionswert f(x0´´´) ergibt, der aus der subjektiven Sicht des Verfahrensanwenders nahe genug bei Null liegt, oder bis sich die in zwei aufeinanderfolgenden Iterationsschleifen berechneten x1 aus eben dieser nur unerheblich voneinander unterscheiden. Für die Anwendung des Näherungsverfahrens
8
Das Näherungsverfahren nach Newton wird dabei sehr oft in Verbindung mit der regula falsi (lat.: Regel des Falschen) in Anwendung gebracht (vgl. Holtmann 1963, S. 63).
166
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
muss die Zielfunktion f(x) bekannt sein bzw. wenn nicht, dann ist sie im Vorfeld durch geeignete Interpolationsverfahren zu bestimmen. Es liegt auf der Hand, dass durch einen wohlüberlegten, bereits in der Nähe des gesuchten Lösungswertes liegenden Startwert das beschriebene Verfahren entscheidend verkürzt werden kann. An dieser Stelle besteht eine starke Parallelität zur Problematik des DMADV-Zyklus, ein geeignetes Design als Ausgangspunkt für die Optimierung zu finden (vgl. Unterkapitel 3.3).
I[
I[R¶ WDQ Į I¶[R¶
I[¶ I[R¶¶ I[¶¶ I[R¶¶¶
Į [R¶
[¶ [R¶¶
[¶¶ [R¶¶¶
[¶¶¶
[
Basis: Göhler 1996, S. 94
Abb. 4-2: Schematische Darstellung des Tangentenverfahrens
(a.3) Lagrange´sche Multiplikatoren Die Algorithmen, die in vorangegangenen beiden Unterabschnitten erläutert worden sind, beziehen sich auf die Ermittlung eines lokalen Optimums bei einer gegebenen Zielfunktion ohne Restriktionen (sog. unrestringierte Optimierung). Im anderen Fall, bei UHVWULQJLHUWHU 2SWLPLHUXQJ, geht es um die Maximierung oder Minimierung einer Zielfunktion unter Berücksichtigung von mindestens einer Nebenbedingungen. Letztere wird, wie in Abschnitt 4.1.1 ausgeführt, in Form von Gleichheits- bzw. Ungleichheitsbedingungen formuliert.9
9
Optimierungsprobleme unter Beachtung von Restriktionen sind sowohl auf dem Gebiet der Ingenieur- als auch der Managementwissenschaften, speziell Operations Research, vielfach anzutreffen. Ausprägungen sind z.B. die nicht-lineare und stochastische Pro-
4.2 Klassische Algorithmen
167
Eines der wichtigsten Werkzeuge zur Lösung dieser Art von Optimierungsproblemen ist die /DJUDQJH)XQNWLRQ (vgl. Jarre/ Stoer 2004, S. 230). Sie dient dazu, ein „gewisses Gleichgewicht“ zwischen der Zielfunktion und den Nebenbedin& gungen zu beschreiben. Zu diesem Zweck bildet man eine Hilfsfunktion X ([ ) , welche die gewogene Summe der Differenzen zwischen den linken und den rechten Seiten der Nebenbedingungen enthält. Als Gewichte treten in dieser Summe die unbestimmten Multiplikatoren λ1, λ2, ..., λm auf; diese werden auch als /DJUDQJHVFKH 0XOWLSOLNDWRUHQ bezeichnet. Der erste Bestandteil der Lagrange& Funktion ist die Funktion I ( [ ) , deren Extremum zu bestimmen ist: P & & & & /( [ , λ ) = I ( [ ) − ¦ λ M ⋅ J M ( [ ) − F M M =1
[
]
(4.6)
& & /( [ , λ ) besitzt die Eigenschaft, dass im Fall, dass sich die Werte der (unabhängigen) Variablen x1, x2, ..., xn im Bereich der zulässigen Lösungen befinden, die in Gleichung (4.6) unter dem Summenzeichen auftretenden Ausdrücke verschwinden. Den Gleichungen, welche die Nebenbedingungen ausdrücken, wird genügt. & & Im Bereich der zulässigen Lösungen besitzt also die Lagrange-Funktion /( [ , λ ) & dieselben Werte wie die Zielfunktion I ( [ ) . Vor diesem Hintergrund kann die Aufgabe zur Bestimmung des Extremums der Funktion unter Nebenbedingung (4.1) durch die Bestimmung des Extremums der gewöhnlichen Funktion (4.6) & ersetzt werden, da man im Bereich der zulässigen Lösungen die Funktion I ( [ ) & & durch /( [ , λ ) ersetzen kann (vgl. Lange 1964, S. 60). & Die in der Hilfsfunktion X ( [ ) enthaltenen Langrange´schen Multiplikatoren sind die Gewichte für die Überschreitungen der einzelnen Bilanzlimite cj. Dabei handelt es sich z.B. um vorgegebene Kosten- und Zeitbudgets, welche als Restriktio& nen in die Optimierung einfließen. Die Werte für die Multiplikatoren λ sind bei Erreichen des Extremumpunktes durch die Lagrange-Funktion bestimmt. Sie können als 2SSRUWXQLWlWVNRVWHQ für das Überschreiten der einzelnen Bilanzlimite interpretiert werden, also z.B. um wie viele Einheiten das Zielniveau steigt, wenn das Unternehmen eine Geldeinheit mehr zur Verfügung hat. Die Lagrange-Multiplikatoren10 spielen bei der (QWZLFNOXQJ QHXHUHU 2SWLPLH UXQJVYHUIDKUHQ eine bedeutende Rolle. Nach Schittkowski (1999, S. 5) ist davon auszugehen, dass ein vergleichbarer Aufwand zur Approximation der optimalen Multiplikatoren betrieben wird wie zur Approximation der Optimallösung. Ein
10
grammierung. Diese sind mit konventionellen Optimierungstechniken i.A. schwierig zu lösen (vgl. Gen/ Cheng 1997, S. 42). Eine Verallgemeinerung der Lagrange-Multiplikatoren stellen die Karush-Kuhn-Tucker-Bedingungen (KKT-Bedingungen) als notwendige Optimalitätsbedingungen für konvexe Optimierungsprobleme dar (vgl. Jarre/ Stoer 2004, S. 228ff.).
168
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
weiterführendes Optimierungsverfahren, um NLP-Probleme zu lösen, ist z.B. das 6HTXHQWLDO4XDGUDWLF3URJUDP (SQP). Dieses basiert auf der sukzessiven Lösung quadratischer Teilprobleme, die durch eine quadratische Approximation der Lagrange-Funktion und eine Linearisierung der Restriktionen entstehen. E ([WUHPZHUWEHUHFKQXQJEHLXQEHNDQQWHP)XQNWLRQVYHUODXI
In diesem Fall ist die analytische Funktion zunächst approximativ zu bestimmen, um die vorstehend genannten Optimierungsverfahren anwenden zu können. Typische Näherungsverfahren sind die Newton´schen Interpolationsformeln, die Taylor´schen Polynome und das Gauß´sche-Kleinst-Quadrate-Prinzip. (b.1) Newton´sche Interpolationsformeln In der Unternehmenspraxis ergibt sich häufig die Aufgabe, aus einer Anzahl vorgegebener Wertepaare (x0; y0), (x1; y1), ..., (xn; yn) einer Funktion y = f(x) eine ganzrationale Funktion y = g(x) zu bestimmen, welche die vorgegebenen Wertepaare enthält.11 Die vorgegebenen Argumentwerte x0, x1, ..., xn heißen Stützstellen; die ihnen zugeordneten Funktionswerte y0, y1, ..., yn heißen Stützwerte der Funktion. Legen wir das Interpolationsverfahren zugrunde, dann wird für y = g(x) gefordert: yi = f(xi) = g(xi). für i = 0, 1, ..., n (vgl. Leupold et al. 1971, S. 62f.). Die klassische Interpolationsformel geht auf ISAAC NEWTON (1642-1727) und ist auch als „Newton’sche Generalformel“ bekannt. Zur Abschätzung von f(x) wird ein Polynom n-ten Grades gebildet, wobei die Werte der Funktion f(x) an den Stellen x0, x1, ..., xn gegeben sind und die Werte von f(x) an den Stellen x ε R mit folgendem ganzrationalen Näherungsansatz gesucht werden:
I[ = D 0 + D1 ⋅ [ − [ 0 + D 2 ⋅ [ − [ 0 ⋅ [ − [1 +
(4.7)
+ D Q ⋅ [ − [ 0 ⋅ [ − [1 ⋅ ⋅ [ − [ Q −1 ) Der Vorteil dieser Form des Ansatzes besteht darin, dass für die Berechnung der Koeffizienten a0, a1, ..., an, ein JHVWDIIHOWHVOLQHDUHV*OHLFKXQJVV\VWHP entsteht, das i.A. sehr einfach zu lösen ist, denn es gilt: y0 = a0, y1 = a0 + a1 ⋅ (x1 – x0), y2 = a0+ a1 ⋅ (x1 – x0) + a2 ⋅ (x2 – x0) ⋅ (x2 – x1), usw. Wenn die 6WW]VWHOOHQ x0, x1, ..., xn und die 6WW]ZHUWH y0, y1, ..., yn von der Aufgabenstellung her bekannt sind, dann lassen sich aus diesem gestaffelten Gleichungssystem rekursiv die unbekannten Koeffizienten a0, a1, ..., an der Reihe nach berechnen.12 Da die Berechnung der Koef11 12
Z.B. sind für eine Maschine im Fertigungsprozess die Werte der Outputmessgröße für unterschiedliche Parametereinstellungen bekannt. Dabei ist jedoch nicht gesagt, dass je mehr Wertepaare vorgegeben sind, desto genauer die a priori unbekannte Funktion f(x) geschätzt werden kann. Einen Überblick über die Approximationstheorie, insb. die beste Annäherung nicht-elementarer Funktionen mittels Polynome oder durch rationale Funktionen, gibt Meinardus (2003, S. 168ff.).
4.2 Klassische Algorithmen
169
fizienten a0, a1, ..., an mit wachsender Anzahl von Stützstellen immer umständlicher wird, wurden 5HFKHQVFKHPDWD entwickelt, mit deren Hilfe die Koeffizienten sehr einfach und in schematischer Weise ermittelt werden können. Für jede in einem abgeschlossenen Intervall stetige Funktion lässt sich eine ganzrationale Näherungsfunktion in der beschriebenen Weise angeben. Der Grad der zu behandelnden Näherungsfunktion ist für die Berechnung von untergeordneter Bedeutung, da bei Benutzung des +RUQHU6FKHPDV nur Addition und Multiplikation als Rechenoperationen zur Bestimmung der Funktionswerte der ganzrationalen Funktion erforderlich sind.13 Bezogen auf das betriebliche Umfeld bedeutet dies, dass z.B. bei einer Maschine ausgehend von der Grundeinstellung unterschiedliche Inputwerte realisiert werden und die jeweiligen Outputwerte gemessen werden.14 Die Newton´sche Interpolation nach Gleichung (4.7) lässt sich noch weiter vereinfachen, wenn Stützstellen mit gleichen Abständen, sog. lTXLGLVWDQWH 6WW] VWHOOHQ, vorliegen (vgl. Leupold et al. 1971, S. 62f.). Genau dieses Vorgehen macht sich das *DX1HZWRQ9HUIDKUHQ bei der Lösung nicht-linearer Minimierungsprobleme zu nutze. Unter der Voraussetzung, dass die zu minimierende Zielfunktion die spezielle Gestalt des Normquadrates einer vektorwertigen Funktion hat, kann die Gleichung (4.10) in jedem Schritt durch eine lineare Näherung ersetzt werden (vgl. Jarre/ Stoer 2004, S. 186f.). Auf die Darstellung mathematischer Details soll hier verzichtet werden. In entsprechender Weise definiert man die Differenzen 1., 2., ..., k-ter Ordnung für die den Stützstellen xi zugeordneten Stützwerte yi. Aus der Differenz k-ter Ordnung wird rücklaufend (rekursiv) die Differenz (k+1)-ter Ordnung definiert, wobei gilt: Δk+1yi = Δkyi+1 – Δkyi. Sind die Werte der Funktion f(x) an den Stellen x0, x0 ± Δx, ..., x0 ± i ⋅ Δx, ..., x0 ± n ⋅ Δx gegeben, dann lassen sich die Werte von f(x) an beliebigen Stellen x0 + t ⋅ Δx mit t ε R wie folgt ermitteln:
13
14
15
Ein weiterer Vorzug des ganzrationalen Näherungsverfahrens nach WILLIAM GEORGE HORNER (1786-1837) besteht darin, dass man durch geeignete Wahl des Grades n und der Koeffizienten ai erreichen kann, dass die Abweichungen von der anzunähernden Funktion unter einer beliebig kleinen vorgegebenen Schranke bleiben. Die Modellierung von glatten Kurven erfolgt in der Praxis häufig durch sog. Spline-Interpolationen [Engl.: Spline für „biegsames Kurvenlineal“]. Dabei werden zwischen den Stützstellen meist einfache Funktionen (z.B. lineare, quadratische und kubische Polynome) benutzt und an den Nahtstellen durch Glättungsbedingungen (z.B. Stetigkeit der Ableitungen höherer Ordnung) so aneinandergesetzt, dass die Gesamtkrümmung des Kurvenverlaufs minimal ist (vgl. Nürnberger et al. 2003). Zu diesem Zweck werden Differenzen gebildet, wie sie auch bei anderen numerischen Verfahren eine Rolle spielen. Sind die Stützstellen x0, x1, ..., xn äquidistant, dann ist der Abstand zweier benachbarter Stellen Δx = const. und es gilt: xi = x0 + i ⋅ Δx
170
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
I Q [ 0 + W ⋅ ǻ[ = \ 0 1 ⋅ ǻ\ 0 1 W ⋅ W − 1 2 + ⋅ ǻ \ 0 + 2 W ⋅ W − 1 W − Q + 1 Q + ⋅ ǻ \0 Q
+
(4.8)
Die Gleichung (4.8) beschreibt die bekannte *UHJRU\1HZWRQ,QWHUSRODWLRQVIRU PHO für Daten mit homogenem Intervall. Zur Interpolation einer Verteilung n-ter Ordnung wird die Berechnung der Differenzen bis zur n-ten Ordnung benötigt. Die Faktoren vor den Differenzen sind die jeweiligen %LQRPLDONRHIIL]LHQWHQ. Die Genauigkeit beim Abschätzen von funktionellen Zusammenhängen und dem Auffinden von Extremwerten ist bei den vorstehend genannten Verfahren abhängig von der Schrittweite, d.h. der Differenz zwischen jeweils zwei Werten der unabhängigen Variable. Im Folgenden wird auf die Infinitesimalrechnung übergegangen, welche die Ermittlung von 'LIIHUHQWLDONRHIIL]LHQWHQ erfordert. (b.2) Taylor´sche Polynome In der Analysis verwendet man häufig Taylor-Reihen, um Funktionen in der Umgebung bestimmter Punkte durch Polynome abzuschätzen bzw. anzunähern. Die Taylor-Reihe einer Funktion f(x) in einem Punkt x0 ist die 3RWHQ]UHLKHQHQWZLFN OXQJ GHU )XQNWLRQ an diesem Punkt. Ist eine Funktion in einer Umgebung von x0 (n+1)-mal stetig differenzierbar, dann heißt die Entwicklung der Funktion f(x) nach Potenzen von x die Taylor-Reihe mit dem Entwicklungspunkt x0:
I[0 + ǻ[ = I[ 0 I[ 0 ⋅ ǻ[ 1 I[ 0 2 + ⋅ ǻ [ + 2 I Q [ 0 Q + ⋅ǻ [ Q
+
(4.9)
Die 7D\ORU5HLKHQHQWZLFNOXQJ nach Gleichung (4.9) impliziert, dass der Funktionswert an einer beliebigen Stelle x durch den Funktionswert und die nAbleitungen an der festen Stelle x0 ausgedrückt werden kann (vgl. Göhler 1996, S. 95). Eine gegebene Funktion nach Potenzen der unabhängigen Variablen x zu
4.2 Klassische Algorithmen
171
entwickeln ist eine elegante Möglichkeit, komplizierte Rechnungen zu umgehen und Kurvenabschnitte beliebig genau abzuschätzen.16 Für die Summe der ersten beiden Terme der Gleichung stellt die Taylor-Reihe eine „Linearisierung von f(x) an der Stelle x0“ dar. Aussagen zur Abweichung des Taylor´schen Polynoms von den Funktionswerten der zu approximierenden Funktion sind über die Berechnung des sog. Restglieds möglich. Es gibt den Fehler an, wenn f(x) durch ein Polynom n-ten Grades ersetzt wird. Modellfunktionen zur Zielwertbestimmung, die im Rahmen der modellbasierten Optimierung mit mathematischen Methoden zugrunde gelegt werden, basieren häufig auf einem Taylor-Reihenansatz n-ter Ordnung (vgl. Peters et al. 1999, S. 128). So wird bspw. beim 4XDVL1HZWRQ9HUIDKUHQ17 im aktuellen Punkt xk ein quadratisches Modell der Zielfunktion f(x) gebildet. Das Minimum dieser Funktion, welches man durch Nullsetzen des entsprechenden Gradienten f´(x) erhält, dient der Bestimmung einer Suchrichtung sk = x – xk für die Zielfunktion. Zur Bestimmung von sk werden neben den ersten partiellen Ableitungen der Zielfunktion auch Approximationen der inversen Hesse-Matrix A-1 als Bedingung 2. Ordnung herangezogen. Da i.d.R. kein analytischer Ausdruck der Zielfunktion gegeben ist, erfolgt die Berechnung der Ableitungen numerisch durch Differenzenquotienten. Die Ermittlung von A-1 geschieht näherungsweise über Summationsformeln, z.B. nach der %)*6)RUPHO von Broyden-Fletcher-Goldfarb-Shanno (1987) oder der ')3)RUPHO von Davidon-Fletcher-Powell (1963). Ein neuer Punkt xk+1 wird durch Liniensuche entlang der Suchrichtung sk nach der Iterationsformel xk+1 = xk + tk ⋅ sk bestimmt. Die Schrittweite tk wird für die Suche nach einem Minimum so eingestellt, dass für die Zielfunktion gilt: f(xk+1) < f(xk). Dabei kann eine Schrittweitensteuerung durch eindimensionale Suchalgorithmen, z.B. dem /LQLHQVXFKYHUIDKUHQ nach Armijo/ Goldstein (1965/66), realisiert werden. Die Anzahl der Iterationen für die Bestimmung des Optimums ist um so geringer, je weniger Glattheitseigenschaften die Funktion erfüllen muss. Für eine effiziente Lösungssuche ist bei der Wahl des Schrittweitenalgorithmus sowohl auf die Struktur des zu lösenden Problems als auch auf die des übergeordneten Optimierungsverfahrens Rücksicht zu nehmen (vgl. Schittkowski 1999, S. 18).
16
17
Im Sonderfall x0 = 0 wird die Taylor-Reihe auch als Maclaurin´sche Form der Reihe von Taylor bezeichnet. Notwendige Bedingung hierbei ist, dass f(x) an der Stelle x0 = 0 einen endlichen Funktionswert besitzt und beliebig oft differenzierbar ist. Bei Quasi-Newton-Verfahren soll auf die z.T. aufwendige Berechnung zweiter Ableitungen als hinreichende Optimalitätsbedingungen verzichtet werden. Die Suchrichtung wird durch Multiplikation des Gradienten mit einer sog. Quasi-Newton-Matrix berechnet (vgl. Jarre/ Stoer 2004, S. 173).
172
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
(b.3) Gauß´sche Kleinst-Quadrate-Schätzung (LSM) Wenn zur Bestimmung unbekannter Größen und Abhängigkeiten mehrere Messungen als notwendig erachtet werden, dann handelt es sich i.A. um statistische Problemstellungen, bei denen $XVJOHLFKVUHFKQXQJHQ zur Anwendung kommen. Für die im Rahmen von Messungen erhobenen Beobachtungsdaten werden 6FKlW]IXQNWLRQHQ gesucht, welche wirksam und erwartungstreu sind (vgl. hierzu insb. Bamberg/ Baur/ Krapp 2007, S. 147). Eine Schätzfunktion heißt erwartungstreu oder unverzerrt für einen bestimmten Parameter, wenn der Erwartungswert der Funktion in der Nähe des tatsächlichen Wertes liegt; es gilt: •
Das DULWKPHWLVFKH0LWWHO⎯x einer Stichprobe ist ein erwartungstreuer Schätzer und zugleich der wirksamste für den Erwartungswert μ einer N(μ; σ)verteilten Grundgesamtheit.
•
Die PLWWOHUHTXDGUDWLVFKH$EZHLFKXQJV einer Stichprobe ist ein erwartungstreuer Schätzer und zugleich der wirksamste für die Varianz σ2 einer N(μ; σ)verteilten Grundgesamtheit.
Zur Ermittlung von Schätzwerten/ -funktionen, die sich den Messungen am besten anpassen, existieren allgemeine analytische Vorgehensprinzipien. Sie basieren i.d.R. auf der 8QWHUVXFKXQJGHU9HUWHLOXQJGHU]XIlOOLJHQ)HKOHU. Für eine gesuchte Größe erhält man die jeweils günstigsten oder ausgeglichensten Werte, wenn die Beobachtungen mit Verbesserungen versehen werden, welche die auftretenden Widersprüche beseitigen und die Summe der Quadrate der Verbesserungen minimieren. Durch die Anwendung der 0HWKRGHGHUNOHLQVWHQ4XDGUDWH(LSM – Least Squares Method), die auf den deutschen Mathematiker CARL F. GAUß (17771855) zurückgeht, lassen sich in vielen Situationen sinnvolle Schätzfunktionen explizit erzeugen.18 Dies gilt insb. für die Schätzung von Erwartungswerten und die Schätzung von Regressionskoeffizienten (vgl. Abschnitt 4.2.2): (a) Sind x1, x2, ..., xn die Beobachtungswerte einer einfachen Stichprobe aus einer Grundgesamtheit G, dann lässt sich als geeigneter 6FKlW]ZHUWIUGHQ(UZDU WXQJVZHUW μ YRQ * derjenige Wert ansehen, durch den die Summe der Abstandsquadrate zwischen den (empirischen) Beobachtungswerten xi und dem möglichen (geschätzten) Parameterwert μ minimiert wird:19 18
19
Neben der Kleinst-Quadrate-Schätzfunktion, die verteilungsunabhängig ist, gibt es eine Reihe von weiteren Schätzfunktionen zur Schätzung eines unbekannten (ein- oder mehrdimensionalen) Parameters υ der gemeinsamen Verteilung von Stichprobenvariablen [ [ [Q, z.B. Max-Likelihood- und Bayes-Schätzfunktion. Letztere bezieht sowohl die Stichproben- als auch die Vorab-Informationen in die Schätzung ein. Das Max-Likelihood-Prinzip geht ebenfalls auf C.G. Gauß (1821) zurück und wurde insb. von R.A. Fisher (1922) energisch propagiert (vgl. Bamberg et al. 2007, S. 153). Durch Nullsetzen der 1. Ableitung der nach μ umgestellten Gleichung (4.10) erhält man das Stichprobenmittel⎯x als Kleinst-Quadrate-Schätzfunktion für μ. Diese und weitere mathematische Zusammenhänge sind in den Abhandlungen zur Methode der kleinsten Quadrate von Carl F. Gauss nachzulesen (vgl. Börsch/ Simon 1986).
4.2 Klassische Algorithmen
173
Q
min
¦ [
L
− ȝ 2
(4.10)
L =1
(b) Sind (x1, y1), (x2, y2), ..., (xn, yn) Paare von Beobachtungswerten zu zwei Merkmalen X und Y, dann sind unter der Maßgabe, dass die y-Werte bis auf zufällige Schwankungen linear von den x-Werten abhängen, yi als Realisierungen von Zufallsvariablen Yi mit den Erwartungswerten E(Yi) = a + b ⋅ xi anzusehen. Die 5HJUHVVLRQVNRHIIL]LHQWHQ D und E können anhand der Stichprobenergebnisse y1, y2, ..., yn über LSM geschätzt werden. Obwohl die Vorgehensweise nach Gauß eine gewisse Willkürlichkeit beinhaltet, hat sie sich in der Statistik und Wahrscheinlichkeitsrechnung seit über 150 Jahren bewährt und konnte bisher durch kein besseres Verfahren ersetzt werden. LSM dient vor allem zur Lösung der folgenden drei Problemstellungen: •
$XVJOHLFKXQJGLUHNWHU%HREDFKWXQJHQ, bei denen die gesuchten Größen, z.B. Weg und Zeit, direkt gemessen werden
•
$XVJOHLFKXQJYHUPLWWHOQGHU%HREDFKWXQJHQ, bei denen die gesuchten Größen, z.B. Geschwindigkeit, nicht unmittelbar gemessen, sondern aus anderen gemessenen Größen abgeleitet werden
•
$XVJOHLFKXQJEHGLQJWHU%HREDFKWXQJHQ, bei denen zwischen den gemessenen Größen Bedingungen bestehen, die streng erfüllt werden müssen, z.B. die Summe der Winkel in einem Dreieck beträgt 180°.
4.2.2
Analytische vs. statistische Verfahren zur Extremwertberechnung
D $QDO\WLVFKH9HUIDKUHQ]XU([WUHPZHUWEHUHFKQXQJ
(a.1) Lineare Optimierung (LP) Die 6LPSOH[0HWKRGH stellt das wohl bekannteste und in der Praxis am häufigsten genutzte Verfahren für Optimierungsrechnungen mit linearen Zielfunktionen und linearen Randbedingungen dar (vgl. u.a. Dantzig/ Thapa 1997; Chvátal 1983). Allerdings beschränkt sich ihre Anwendung auf die Lösung von Problemen, die sich über lineare Gleichungen mit metrischen Entscheidungsvariablen20 [ [ [Q darstellen lassen. Hierzu wird eine lineare Zielfunktion (Z) & (4.11) \ = I ( [ ) = F 0 + F1 ⋅ [1 + F 2 ⋅ [ 2 + ... + F Q ⋅ [ Q mit n Variablen unter bestimmten linearen Nebenbedingungen (NB) der Form
20
Entscheidungsvariablen, z.B. [, werden im Folgenden kursiv geschrieben in Abgrenzung zu einzelnen Beobachtungswerten einer Variable, z.B. x1.
174
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
D11 ⋅ [1 + D12 ⋅ [ 2 + ... + D1Q ⋅ [ Q ≤ D1 ... D P1 ⋅ [1 + D12 ⋅ [ 2 + ... + D PQ ⋅ [ Q ≤ D P sowie Nichtnegativitätsbedingungen (NNB)
[1 ≥ 0,..., [ Q ≥ 0 gelöst, d.h. maximiert oder minimiert (vgl. Göhler 1996, S. 17ff.). Bei der Simplex-Methode handelt es sich um ein LWHUDWLYHV9HUIDKUHQ, bei der die gesuchte Optimallösung nicht in einem Rechenschritt, sondern in mehreren Schritten erhalten wird (vgl. Bhatti 2000, S. 339ff.). Das Verfahren beruht im Grunde genommen auf der „Methode der Eckenprüfung“, denn ein Simplex ist eine geometrische Figur, die in n Dimensionen 1 + n Eckpunkte besitzt (z.B. Dreieck in 2D, Tetraeder in 3D). Im Rahmen des 6LPSOH[$OJRULWKPXV werden die Ecken des Lösungspolyeders schrittweise überprüft, wobei jeder Eckpunkt einem Parametervektor entspricht. Dies ist i.d.R. einfach, weil die Anzahl der Ecken durch die Zahl der Neben-/ Randbedingungen bestimmt wird, und es oft nur wenige Bedingungen sind, die das Aussehen des Lösungsvielecks tatsächlich determinieren. Ausgehend von einer zulässigen Basislösung wird durch geeignetes Umformen des Gleichungssystems gewissermaßen von Eckpunkt zu Eckpunkt des Lösungspolyeders vorangeschritten. Über das Umformen wird der Wert der Zielfunktion solange verbessert, bis das Optimum erreicht ist. Für den 2- und 3-dimensionalen Fall kann die Lösung graphisch erfolgen, wie es im x2-x1-Diagramm in Abb. 4-3 für ein Maximierungsproblem veranschaulicht ist. Die Zielfunktion y = f(x1, x2) stellt in diesem speziellen Fall eine Ebene dar; der zulässige Bereich wird durch zwei NB begrenzt. Besitzt die Zielfunktion mehr als drei unabhängige Variablen, dann erfolgt die Lösungsfindung analytisch über das Aufstellen eines sog. (optimalen) 6LPSOH[7DEOHDXV. Dazu ist zunächst die Normalform des linearen Optimierungsproblems (LP) zu bilden, auf dessen Basis das erste Simplex-Tableau erstellt wird. Beim gewöhnlichen Simplex-Verfahren besteht die Zielsetzung darin, dieses erste Tableau durch die Anwendung bestimmter Regeln in ein entscheidbares Tableau zu überführen. Nach dem Hauptsatz der linearen Optimierung existiert stets ein entscheidbares Simplex-Tableau, das mit endlich vielen Schritten des Simplex-Verfahrens erreichbar ist, wenn das LP mindestens eine zulässige Lösung besitzt (vgl. Nollau 1993, S. 85). Die lineare Optimierung ist ein Teilgebiet der Optimierungsrechnung, die als Hilfsmittel zur optimalen Entscheidungsfindung bei mehr oder weniger komplizierten Problemstellungen dient. Neben der LP gehören die nicht-lineare und dynamische Optimierung sowie bestimmte Methoden der Wahrscheinlichkeitsrechnung und der mathematischen Statistik zu den NODVVLVFKHQ2SWLPLHUXQJVDOJRULWK PHQ. Viele Lösungsverfahren der nicht-linearen Optimierung basieren auf der Differentialrechnung. Letztere ist für die Ermittlung des Maximums bzw. Mini-
4.2 Klassische Algorithmen
175
mums einer linearen Funktion unter einschränkenden Bedingungen für die Variablenbelegung – wie es beim Simplex-Tableau der Fall ist – nicht geeignet. Denn lineare Funktionen sind zwar differenzierbar, da aber ihre erste Ableitung stets konstant ist, kann die für einen Extremwert bestehende notwendige Bedingung nicht erfüllt werden (vgl. Ose 1973, S. 119). [
(2) [ ± ⋅⋅ [ (3) [
(1) [ ± ⋅⋅ [
] [[ ]
(4) [ [
[
Quelle: Nollau 1993, S. 85
Abb. 4-3: Graphische Lösung eines linearen Optimierungsproblems (Beispiel)
Seit Karmarkar (1984) hat sich mit der ,QQHUH3XQNWH0HWKRGH eine weitere Klasse von Verfahren zur Lösung von LO etabliert (vgl. Jarre/ Stoer 2004, S. 67f.). Sie arbeitet jedoch mit Techniken der nicht-linearen Optimierung, auf die im folgenden Unterabschnitt kurz eingegangen wird. Der Vorteil der Innere-Punkte-Methode liegt vor allem darin, dass sie gegenüber dem Simplex-Algorithmus weder praktisch noch theoretisch eine exponentielle Anzahl von Rechenschritten zum Auffinden einer hinreichend exakten Näherungslösung benötigt (vgl. Khachiyan 1979). Wie der Name schon sagt, geht die Methode nicht von den Ecken der zulässigen Menge (Lösungspolyeder) aus, sondern nähert sich der Optimallösung vom „Innern“ her. Diese Annäherung basiert auf der Lösung eines Gleichungssystems nach dem oben beschriebenen Newton-Verfahren. (a.2) Nicht-lineare Optimierungsverfahren (NLP-Verfahren) Wenn die Zielfunktion explizit als mathematischer Ausdruck formuliert ist, lässt sich auch bei komplexen Problemstellungen versuchen, das Optimum analytisch zu bestimmen. Jedoch ist aus der Algebra bekannt, dass dies schon bei relativ einfachen Funktionen, wie z.B. Polynomen höheren Grades, nicht gelingt. Eine LQWXLWLYH /|VXQJ dieses Problems ist die randomisierte Wahl von Elementen des Suchraums. Letzterer wird durch die Menge der potenziellen Kombinationen der Eingangsgrößen charakterisiert, z.B. die Verteilung von n Aufgaben auf m Ma-
176
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
schinen. Ein Element des Suchraumes ist eine mögliche Zuordnung aller gegebenen Aufgaben auf alle gegebenen Maschinen. Das Verteilen von n Aufgaben auf m Maschinen entspricht hierbei n Ziehungen mit Wiederholung aus einer Urne mit m Elementen (vgl. Feltl 2003, S. 15). Wenn man bedenkt, dass die Größe des Suchraums S = mn beträgt, dann ist es eher unwahrscheinlich, dass komplexe Probleme mit 7ULDODQG(UURU9HUIDKUHQ in einer annehmbaren Zeit zu lösen sind. Nicht selten wird deshalb die Kenntnis gewisser Eigenschaften, z.B. Stetigkeit und Differenzierbarkeit der Zielfunktion, genutzt, um ein numerisches Verfahren zur Lösung eines solchen Problems zu entwickeln. Man sagt, ein Optimierungsalgorithmus besitzt ein „inneres Modell der Zielfunktion“, wenn die zu bearbeitende Zielfunktion die vom Algorithmus unterstellten Annahmen erfüllt (vgl. Sprave 1999, S. 9). Im Umkehrschluss bedeutet dies: Wendet man den Algorithmus auf ein Problem an, das nicht die Charakteristika des inneren Modells aufweist, so wird er aller Wahrscheinlichkeit nach versagen. So startet z.B. das bekannte 1HZWRQ5DSKVRQ 9HUIDKUHQ an einem Punkt im Suchraum und ermittelt anhand der partiellen Ableitungen in diesem Punkt gewissermaßen einen Vorschlag für die Lage des Optimums. Ist die Zielfunktion quadratisch, entspricht sie dem inneren Modell des Verfahrens; das Optimum wird dann in einem Schritt gefunden. Besitzt die Zielfunktion hingegen mehrere lokale Optima, so hängt es vom gewählten Startpunkt ab, welches der Optima vom Verfahren detektiert wird. Um von einem Lösungsvorschlag aus das nächste Maximum zu finden, wird beim Newton-Raphson-Verfahren und ähnlichen Verfahren der *UDGLHQW der zu opti& mierenden, multimodalen Zielfunktion I ([ ) verwendet:
§ ∂ & & & · ∂ ∇ I ( [ ) := ¨¨ I ( [ ),..., I ( [ ) ¸¸ ∂[ Q © ∂[1 ¹
7
(4.12)
Dieses Vorgehen wird auch als „Bergsteigen“ bzw. „Hill climbing“ bezeichnet. Um die Art des (lokalen) Extremums zu bestimmen, ist die 2. Ableitung der Funktion zu berechnen. Allgemein ist dazu die +HVVH0DWUL[ zu lösen:
§ ∂2 & & · ∇2 I ( [ ) := ¨ I ([) ¸ ¨ ∂[ ∂[ ¸ © L M ¹ L , M =1, 2,..., Q
(4.13)
Die Gleichungen (4.12) und (4.13) geben keine Auskunft darüber, ob das gefundene Maximum global ist. Außerdem beschränkt sich die Anwendung auf stetig differenzierbare Funktionen. Im Rahmen von ORNDOHQ6XFKYHUIDKUHQ ist der Funk& tionswert I ([ ) ein Bewertungsmaßstab für die Erwünschtheit unterschiedlicher Lösungen in der Population (vgl. Voß et al. 2000, S. 556). Bei restringierten NLP ist zusätzlich die KKT-Bedingung als notwendige Bedingung 2. Ordnung zu erfül-
4.2 Klassische Algorithmen
177
len. Sie besagt, dass bei einem Minimum der Gradient der Zielfunktion eine positive Linearkombination der Gradienten der aktiven Restriktionen ist.21 Wie in Abb. 3-12 bereits skizziert worden ist, wird bei einer unimodalen Funktion ausgehend von der suboptimalen Lösung x0 das JOREDOH 0D[LPXP x* gesucht. Zwischen Start- und Zielwert liegt das ORNDOH 2SWLPXP x1, dass bei klassischen Suchverfahren u.U. als beste Lösung detektiert wird. Nur wenn zwischenzeitlich Verschlechterungen zugelassen werden, z.B. im Punkt (xM; yM), kann das globale Optimum im Punkt (x*; y*) letztendlich aufgefunden werden.22 Die Algorithmen, die im Rahmen der NLP i.A. zum Einsatz kommen, können in globale, lokale, direkte und indirekte Ansätze unterteilt werden. Das Quasi-Newton-Verfahren gilt hierbei als LQGLUHNWHV ORNDOHV 9HUIDKUHQ; die Anwendung des Algorithmus erlaubt das Auffinden lokaler Extrema, und zwar indirekt über die Ermittlung des funktionellen Zusammenhangs zwischen abhängiger und unabhängiger Variable(n). Zu den GLUHNWHQ ORNDOHQ 9HUIDKUHQ gehören u.a. der SimplexAlgorithmus nach Nelder/ Mead (1965), das Verfahren der rotierenden Koordinaten nach Rosenbrock (1960) und das Complex-Verfahren von Box (1965). Letztgenannte arbeiten ableitungsfrei und sind somit robuster als die ableitungsbasierten indirekten, lokalen Verfahren (vgl. Peters et al. 1999, S. 127). Die bis hierin dargestellten mathematischen Verfahren kommen vorzugsweise bei gut strukturierten Problemen mit bekanntem Funktionsverlauf zum Einsatz. Bei schlecht strukturierten Problemen mit unbekanntem Funktionsverlauf haben sich vor allem KHXULVWLVFKH2SWLPLHUXQJVYHUIDKUHQ bewährt. Zu dieser Gruppe gehören u.a. die Evolutionären Algorithmen, die in Unterkapitel 4.3 vorgestellt und gegenüber den klassischen Verfahren abgegrenzt werden. Direkte und indirekte Lösungsverfahren, die auch als exakte und heuristische Verfahren bezeichnet werden, sind Gegenstand des nachfolgenden Abschnittes. Unterschiedliche Forschungseinrichtungen konzentrieren sich i.d.R. auf eines der vorstehend genannten Verfahren. Unabhängig von der Verfahrenswahl unterliegt jeder Optimierungsprozess Beschränkungen der Designparameter. Das heißt, es sind prozesstechnische Randbedingungen zu beachten, die den Gültigkeitsbereich des Modells einschränken. Als kritisches Element gelten üblicherweise die zeitaufwendigen Simulationen, die zur Auswertung der Zielfunktion jeweils erforderlich sind. Deshalb stellt die Anzahl der Iterationen, die zur Eruierung der Zielfunktion benötigt werden, das zentrale Bewertungskriterium neben der erzielten Güte der Ergebnisse dar (vgl. Peters et al. 1999, S. 128).
21 22
Für Verfahrensdetails sei an dieser Stelle auf die einschlägige Literatur verwiesen (vgl. u.a. Jongen et al. 1986; Wimmer/ Chattergy 1978). Werden unter allen Zügen/ Transformationen im Lösungsraum jeweils die mit der größten positiven Veränderung gewählt, dann bezeichnet man dies als „Verfahren des steilsten Anstiegs“ (vgl. Voß et al. 2000, S. 554).
178
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
Testergebnisse23 deuten darauf hin, dass der 4XDVL1HZWRQ$OJRULWKPXV hinsichtlich Konvergenzsicherheit und -geschwindigkeit bei der Zielfunktionsberechnung unabhängig von der geforderten Genauigkeit ist. Wie bereits oben angesprochen, steht diesem Vorteil der Nachteil gegenüber, dass von diesem Algorithmus globale Optima nur relativ unzuverlässig detektiert werden. Außerdem stoßen die algebraischen Verfahren nach Newton et al. bei schwierigen, d.h. komplexen Optimierungsaufgaben mit großem Suchraum, schnell an ihre Grenzen. E 6WDWLVWLVFKH9HUIDKUHQ]XU([WUHPZHUWEHUHFKQXQJ
Die Korrelations-/ Regressionsanalyse sowie die nachfolgend beschriebene Statistische Versuchsplanung (DOE) stellen die Kernmethoden im Rahmen von Six Sigma-Projekten dar. Sie werden vor allem in der Analyse- und Improve-Phase des DMAIC-Zyklus eingesetzt, um die Ursachen-Wirkungsbeziehungen zwischen ein oder mehreren Einflussgrößen [[[Q sowie ein oder mehreren Zielgrößen \\\Q offen zu legen und funktionell zu beschreiben. (b.1) Lineare und nicht-lineare Regression Die Regressionsanalyse24 ist den multivariaten statistischen Methoden zu zuordnen. Sie untersucht die einseitig gerichtete Abhängigkeit zwischen mind. zwei metrisch-skalierten Merkmalen bzw. Variablen (vgl. Eckstein 1999, S. 217ff.). Je nachdem, ob ein linearer oder nicht-linearer Funktionszusammenhang unterstellt werden kann, gelangt man zur linearen Regression oder zur nicht-linearen Regression. In Abhängigkeit von der Anzahl einbezogener unabhängiger bzw. erklärender Variablen wird weiterhin zwischen einfacher und multipler Regression unterschieden. Insgesamt ergeben sich dadurch vier Anwendungsfälle. Der Hintergrund für die Anwendung der HLQIDFKHQOLQHDUHQ5HJUHVVLRQ ist folgender: Ermittelt man durch Messungen zwei Wertepaare P1(x1; y1) und P2(x2; y2), dann lassen sich aus den Gleichungen y1 = a + b ⋅ x1 und y2 = a + b ⋅ x2 die Parameter a und b eindeutig berechnen; geometrisch veranschaulicht wird also durch zwei Punkte eine Gerade gelegt. Bei Vergrößerung der Anzahl der Messungen erhält man sich widersprechende Gleichungen yi = a + b ⋅ xi; geometrisch bedeutet dies, dass die zu den Wertepaaren (xi; yi) gehörigen Punkte Pi nicht exakt auf einer Geraden liegen, sondern mehr oder weniger stark um diese streuen.
23
24
Als Testbeispiele für die Überprüfung der Leistungsfähigkeit von Optimierungsverfahren werden verwendet (vgl. Schittkowski et al. 1994): (a) Künstliche Probleme (z.B. Rosenbrock-Problem), (b) Anwendungsorientierte Probleme (z.B. Reaktorentwurf) und (c) Zufällig erzeugte Probleme (z.B. Polynome n. Grades). Im Gegensatz zur Korrelationsanalyse, bei der die beiden Merkmale bzw. Variablen x und y als unabhängig voneinander betrachtet werden, handelt es sich bei der Regressionsrechnung um eine Abhängigkeits- bzw. Dependenzanalyse mit mind. einer abhängigen und einer unabhängigen Variable. Aus diesem Grund ist bei der Anwendung der Regressionsanalyse zu beachten, dass zwischen den einbezogenen Variablen x und y logisch begründbare Kausalitäten/ Ursachen-Wirkungsbeziehungen bestehen.
4.2 Klassische Algorithmen
179
Die Aufgabe besteht nun darin, möglichst „günstige“ Werte für a und b zu finden, so dass sich geometrisch eine Gerade ergibt, die den vorliegenden Messpunkten am besten angepasst ist. Nach der oben beschriebenen Methode der kleinsten Quadrate (LSM) ist die Gerade y = a + b ⋅ x dann der Punktwolke im Streuungsdiagramm am besten angepasst, wenn die 4XDGUDWVXPPH GHU $EVWDQGTXDGUDWH zwischen yi und a + b ⋅ xi minimal ausfällt. Wie gut die Anpassung (der „Fit“) ist, wird über statistische Gütemaße, z.B. Bestimmtheitsmaß R2, beurteilt.25 Die allgemeine Aussage, „günstige Werte zu finden“ bzw. „Werte, die sich den Messungen am besten anpassen“, lässt sich in entsprechender Weise auch für die multiple lineare sowie (multiple) nicht-lineare Regression26 präzise analytisch formulieren. Zu diesem Zweck sind die Parameterwerte FFFQ einer Funkti& & on \ = I ( [ , F ) , die stetig partiell differenzierbar ist, so zu bestimmen, dass sich die Funktion möglichst genau den gegebenen Punkten Pk(xi; yi) annähert.27 Mithilfe von LSM wird eine Funktion ermittelt, welche den zufälligen Fehler bei n Wertepaaren minimiert und die folgende Forderung erfüllt:28 Q
min 4(F1 , F 2 ,..., F Q ) =
¦ [ I ( [ , F , F ,..., F L
1
2
) − \L ]
2
Q
(4.14)
L =1
Die Nullsetzung der partiellen Ableitung von Q(c1, c2, ..., cn) nach ci liefert das als Normalengleichungen bezeichnete lineare Gleichungssystem zur Berechnung der Parameterwerte c1, c2, ..., cn (vgl. Göhler 1996, S. 92). In der praktischen Anwendung der Regression kommt es häufig vor, dass die lineare Funktion der Form \ I[ FF⋅[F ⋅[FQ ⋅[Q ungeeignet ist, um die statistische Abhängigkeit einer abhängigen Variable y von einer unabhängigen Variable x zu beschreiben. Ein nicht-linearer Funktionsverlauf lässt sich i.d.R. aus der Lage der Datenpunkte im Streudiagramm ablesen. Wie in Gleichung (4.14) angegeben, wird auch hier die Quadratsumme nach den Parametern, die den Funktionstypus beschreiben, differenziert. Jedoch liefert die Nullsetzung der par-
25
26
27
28
R2 gibt den erklärten Anteil der Varianz der unabhängigen Variable x an der abhängigen Variable y an. Die Werte von R2 bewegen sich zwischen 0 (kein Erklärungsbeitrag) und 1 (vollständiger Erklärungsbeitrag). Ein wesentliches Merkmal von nicht-linearen Funktionen ist es, dass die Abhängigkeit zwischen den Variablen einen nicht-linearen Charakter besitzen, allerdings die Parameter linear sind. Deshalb kann auch bei dieser Form der Regression auf LSM zurückgegriffen werden, um die unbekannten Parameter zu bestimmen. In der Physik wird auch von „fitten“ gesprochen, wenn versucht wird, die Parameterwerte einer Theoriefunktion so zu variieren, dass sie bestmöglich mit der Messkurve übereinstimmt. Die Lösung der Minimierungsaufgabe führt i.d.R. zu einem erheblichen Rechenaufwand, der nur mit geeigneter Software, z.B. Minitab und SPSS, geleistet werden kann (vgl. Voß et al. 2004, S. 183).
180
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
tiellen Ableitungen i.A. ein schwieriger aufzulösendes System von nicht-linearen Normalengleichungen als im linearen Regressionsfall. Abhilfe kann häufig in der Weise geschaffen werden, dass durch mathematische Transformation nicht-lineare Funktionen in lineare überführt werden, deren Parameter sich mithilfe der linearen Regressionsrechnung einfach(er) ermitteln lassen. Die in der Statistik am häufigsten angewandten nicht-linearen Funktionen und deren dazugehörige lineare Funktionen mit der Standardvariable z sind: (a) ,QYHU VH)XQNWLRQ mit z = 1 / x, (b) /RJDULWKPLVFKH)XQNWLRQ mit z = ln x und (c) ([SR QHQWLDOIXQNWLRQ mit z = ey. So können bspw. Potenzfunktion der Form y = a ⋅ xb durch Logarithmieren in die Linearfunktion v = a’ + b ⋅ z mit v = ln y, z = ln x und a’ = ln a überführt werden. Die sachlogische Interpretation der hier ermittelten Regressionskoeffizienten gestaltet sich i.d.R. schwierig, da die dazugehörigen Grenz- und Elastizitätsfunktionen betrachtet werden müssen. In der statistischen Arbeit wird häufig schrittweise vorgegangen, um die Abhängigkeit einer Zielgröße von mehreren Einflussgrößen zu modellieren. Indem man zunächst nur diejenigen Einflussgrößen in das Modell aufnimmt, von denen die Zielgröße signifikant abhängt, ist es möglich, ein relativ einfaches Modell zu erhalten. Dieses wird dann durch die schrittweise Aufnahme von weiteren Variablen ()RUZDUG VHOHFWLRQ) immer mehr verfeinert. Alternativ dazu kann mit einem Modell begonnen werden, das alle vermuteten Einflussgrößen enthält. Durch %DFN ZDUG VHOHFWLRQ sind dann schrittweise diejenigen Variablen zu entfernen, die am wenigsten zur Verbesserung von R2 beitragen (vgl. Kleppmann 2006, S. 195). (b.2) Statistische Versuchsplanung (DOE) (b.2.1) Versuchspläne für lineare Zusammenhänge Über die Methode der linearen und nicht-linearen Regression lässt sich der funkti& onelle Zusammenhang \ = I ([ ) zwischen mehreren metrisch-skalierten Einflussfaktoren [ [ [Q und einer metrisch-skalierten Ergebnisgröße \ – auf einem mehr oder weniger hohen Signifikanzniveau – beschreiben. In der betrieblichen Praxis werden dabei die im Rahmen des Leistungserstellungsprozesses angefallenen und archivierten Beobachtungsdaten regressiert. Im einfachsten Fall, wenn die Ergebnisvariable lediglich von einem Einflussfaktor abhängt, wird also analysiert, um wie viel sich die abhängige Variable y im Durchschnitt ändert, wenn sich die unabhängige Variable x um eine Einheit erhöht. Der Vorteil der Regressionsanalyse, insb. gegenüber der im Folgenden beschriebenen Statistischen Versuchsplanung, besteht darin, dass ein „laufender“ Prozess nicht verändert wird und die anfallenden Daten quasi „nebenbei“ zur Auswertung genutzt werden. Generell können dadurch statistische Ergebnisse/ Aussagen zu relativ geringen Kosten erzielt werden. Mit der Anwendung der Regressionsanalyse sind aber auch Nachteile verbunden: Zum einen werden Beobachtungsdaten nur mit einem sehr geringen Bestimmt-
4.2 Klassische Algorithmen
181
heitsmaß R2 << 0,5 regressiert, d.h. die ermittelte Regressionsfunktion erklärt die Input-Output-Beziehung nicht bzw. nur sehr begrenzt. Zum anderen bleiben u.U. wichtige Einflussfaktoren im Regressionsmodell unberücksichtigt, da die „normale Variabilität“ der Faktoren im betrachteten Prozess nicht ausreicht, um unter mathematisch-statistischen Gesichtspunkten als signifikant erkannt zu werden. Dies erklärt die Notwendigkeit des Übergangs „Von der Beobachtung zum Experiment“ (vgl. Töpfer/ Günther 2007b, S. 138).29 In Six Sigma-Projekten ist diese Sichtweise fest verankert: Produkte und Prozesse, die verbessert werden sollen, müssen immer auch verändert werden, um die zugrunde liegenden Ursachen-Wirkungsbeziehungen offen zu legen. Für das Herausfinden optimaler Prozesseinstellungen respektive Produktmerkmale werden im Rahmen von DOE30 die einzelnen Einflussfaktoren „aktiv“ und systematisch verändert. Die Bestimmung der funktionellen Abhängigkeiten basiert i.d.R. auf Designs mit k Faktoren und 2-3 Faktorausprägungen bzw. -stufen. Für den Umfang eines Versuchs sind neben der Art und Anzahl der Faktorausprägungen (A) die absolute Anzahl der Einflussfaktoren (k) entscheidend. Bei einem YROOIDNWRULHOOHQ 'HVLJQ ergibt sich die Menge aller möglichen Faktorkombinationsmöglichkeiten und damit Versuchanordnungen mit Ak. Durch Nichtbeachtung von Wechselwirkungen höherer Ordnung lässt sich die Anzahl von Versuchsanordnungen reduzieren. Dazu ist ein Reduktionsfaktor (d) anzugeben, der die Anzahl an definierten Gleichungen beschreibt; Ak-d gibt dann den Umfang des WHLOIDN WRULHOOHQ 'HVLJQV an. Bei der Anwendung dieser Art von Versuchsplänen wird davon ausgegangen, dass die Wechselwirkungen zwischen drei und mehr Faktoren (z.B. c123 ⋅ [ ⋅[ ⋅[) kaum noch einen nennenswerten Einfluss auf die Ergebnisvariable besitzen. Aus diesem Grund werden diese Spalten aus der Designmatrix eliminiert und durch andere wesentliche Faktoren ersetzt. Dadurch können bei gleichem Experimentumfang mehr Einflussfaktoren betrachtet werden, was naturgemäß zu einer Reduzierung der Kosten der Experimentdurchführung führt. Aus analytischer Sicht hat DOE gegenüber der Regressionsanalyse et al. den Vorteil, dass sich mithilfe von faktoriellen Designs neben den +DXSWHIIHNWHQ, die aus der Zu-/ Abschaltung von Faktoren resultieren, 1HEHQHIIHNWH untersuchen lassen, die das Ergebnis von Wechselwirkung mehrerer Faktoren sind. Folglich wird bei der Suche der Koeffizienten für Potenzfunktionen n. Ordnung nicht nur eine additive Verknüpfung der einzelnen Faktoren/ Variablen unterstellt (= Haupteffekte), sondern auch eine multiplikative Verknüpfung (= Nebeneffekte). 29
30
In diesem Zusammenhang wird häufig ein Ausspruch von GEORGE BOX zitiert: „Will man herausfinden, wie sich ein System verhält, wenn man es verändert, dann muss man es verändern“ und es nicht nur passiv beobachten. Die mathematisch-statistischen Grundlagen von DOE gehen auf Sir RONALD A. FISHER (1935) zurück. Er gilt als Mitbegründer der modernen mathematischen Statistik. Seine Arbeiten konzentrierten sich vor allem auf die Lösung biologischer, medizinischer und landwirtschaftlicher Probleme (vgl. Grabowski 2003, S. 224).
182
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
Die Prognosefunktion für ein 2-faktorielles Versuchsdesign unter Berücksichtigung der Haupt- und Nebeneffekte hat z.B. die folgende Form: & (4.15) \ = I[ = F 0 + F1 ⋅ [1 + F 2 ⋅ [ 2 + F12 ⋅ [1 ⋅ [ 2 wobei y die abhängige Variable (Response), c0 das Basisniveau bzw. den Schnittpunkt mit der y-Achse, c1 und c2 die Regressionskoeffizienten der unabhängigen Variablen (Factors) und c12 den Regressionskoeffizient der Wechselwirkung von [ und [ darstellt. Liegen keine Wechselwirkungen vor, dann ist c12 = 0 und der Term c12 ⋅[⋅[ in Gleichung (4.15) entfällt. In diesem Fall handelt es sich um ein 2-faktorielles lineares Regressionsmodell (s.o.). Die Anzahl der Terme in der Prognosefunktion beschreibt die minimale Anzahl von notwendigen experimentellen Versuchen, um die Koeffizienten des Regressionsmodells zu schätzen. Handelt es sich z.B. um eine Funktion mit vier Termen, wie in Gleichung (4.15) gegeben, dann sind mind. vier experimentelle Versuche mit unterschiedlichen Einstellungen für [ und [ notwendig. Um die Koeffizienten zu ermitteln, werden in einem VWXILJHQ'2( die Einstellungen für die Faktoren [ und [ abwechselnd „hoch“ (+1) und „niedrig“ (-1) gewählt. Analog zur „klassischen“ Regressionsanalyse wird zum einen die Höhe des Einflusses der einzelnen Faktoren sowie ihres Zusammenwirkens auf die Ergebnisvariable geschätzt. Zum anderen wird ermittelt, wie signifikant sich eine Änderung der Einstellung von [ und/ oder [ auf \ auswirkt. Dabei liegt die Annahme zugrunde, dass zwischen der Änderung der Einstellung der Faktoren von -1 auf +1 und der Änderung der Ergebnisvariable jeweils ein OLQHDUHU =XVDPPHQKDQJ besteht. Für die Bestimmung von lokalen Extrema ist diese Eigenschaft ungeeignet, so dass sich die Frage nach zweckmäßigeren Ansätzen stellt. (b.2.2) Versuchspläne für nicht-lineare Zusammenhänge Um die Plausibilität/ Validität der Linearitätsannahme zu überprüfen, werden in DOE-Versuchspläne mit k Faktoren und jeweils zwei Faktorstufen sog. Zentralpunkte (Center points) eingefügt, welche sich aus der mittleren Einstellung der verschiedenen Einflussgrößen ergeben. Die Nichtlinearität ist bedeutsam, wenn die Lage eines Maximums, z.B. Ausbeute, oder eines Minimums, z.B. Fehlerrate, gesucht wird. In vielen Fällen verwendet man ein quadratisches Modell zur empirischen Beschreibung der Abhängigkeit der Zielgröße y von den k Faktoren. Die Linearitätsprüfung resultiert aus folgender Überlegung: Sind die Faktorausprägungen symmetrisch und mit den diskreten Stufen -1 und +1 codiert, dann liegen die Werte der Faktorausprägungen des Zentralpunktes bei Null. Im Fall, dass die Linearitätsannahme nicht zutreffend ist, differiert der Ergebniswert für die Zentraleinstellung signifikant von dem durchschnittlichen Ergebniswert über alle Faktoreinstellungen, der sich im Rahmen des 2k-Versuchsdesigns ergibt. Konkret bedeutet dies, dass der Regressionsansatz nach Gleichung (4.15) zur exakten Beschreibung der funktionellen Zusammenhänge zwischen Einflussgrö-
4.2 Klassische Algorithmen
183
ßen (Factors) und Ergebnisvariable (Response) nicht ausreicht. Anstelle eines Polynoms 1. Grades ist ein 3RO\QRPRGHUK|KHUHQ*UDGHVDOV3URJQRVHIXQNWLRQ zu wählen (vgl. Breyfogle 2003, S. 644), so wie folgt: & \ = I[ = F 0 + F1 ⋅ [1 + F 2 ⋅ [ 2 + F12 ⋅ [1 ⋅ [ + F11 ⋅ [12 + F 22 ⋅ [ 22 2 (4.16) Während durch die Funktion nach Gleichung (4.15) eine ebene Fläche im Raum aufgespannt wird, beschreibt die Funktion nach Gleichung (4.16) eine elliptisch gekrümmte (Reaktions-)Fläche im Raum. In Abb. 4-4 ist beispielhaft eine solche Fläche für einen 2-faktoriellen Versuch mit einem Polynom 2. Grades als adäquater Regressionsfunktion abgebildet. Die Aufgabe besteht darin, in einem chemischen Prozess die Faktoren Zeit ([) und Temperatur ([) so einzustellen, dass ein maximale Ausbeute (\) erzielt wird. Als dichotome Einstellwerte für die zwei Faktoren werden gewählt: Zeit: [ ∈ [50; 70] und Temperatur: [ ∈ [150; 180]. Aus der mittleren Einstellung beider Faktoren wird zusätzlich ein Zentralpunkt generiert mit Z[60; 165]. Darüber hinaus gehen vier Sternpunkte mit Extremausprägungen der zwei Faktoren Zeit und Temperatur in das Analysemodell ein. Dazu wird jede Faktorstufe auf einem um über 40% nach oben und unten erweiterten Ausprägungsniveau „abgefahren“. Im Ergebnis liegen die Ausbeuten im Bereich von 72% bis 82%, wobei sich die maximale Ausbeute bei einer mittleren Einstellung von Zeit und Temperatur einstellt. 3D-Oberflächen-Plot für empirische Daten y = Ausbeute
3D-Oberflächen-Plot für approximierte Daten y = Ausbeute
81
$XVEHXWHLQ
$XVEHXWHLQ
\
78 75 72 50
60 =HLWLQV
70
180 170 XU W 160 UD H ) S 150 P °C 7H (in
80
75 70 65
180 U WX UD SH & P 7H LQ 170
50
60 =HLWLQV
160 70
150
Quelle: Eigene Darstellung
Abb. 4-4: 3D-Oberflächen-Plots für empirische und geschätzte y-Werte auf der Basis eines Polynoms 2. Grades mit einem lokalen Maximum (Beispiel)
Die 5HDNWLRQVIOlFKHQ0HWKRGLN (RSM – Response surface methodology) wird in der Improve-Phase von Six Sigma-Projekten genutzt (vgl. Abschnitt 3.3.1). Der Vorteil von RSM liegt insbesondere darin, dass mit seiner Hilfe die Identifikation von nicht-linearen Zusammenhängen möglich ist. Bei einer gegebenen Anzahl von Einflussfaktoren steht jedoch der Nachteil gegenüber, dass (deutlich) mehr Versuche als bei einem 2-stufigen vollfaktoriellen Versuchsdesign notwendig sind, um
184
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
die Prognosefunktion zu spezifizieren. Aus diesem Grund sind im Vorfeld die wesentlichen Einflussfaktoren durch die Anwendung von „klassischem“ DOE mit zwei Faktorstufen zu eruieren (vgl. Breyfogle 2003, S. 645ff.). Um die Koeffizienten von Polynomen 2. Grades mittels RSM zu schätzen, wird in der Praxis häufig auf die folgenden zwei Designs zurückgegriffen (siehe Abb. 4-5): •
&HQWUDO&RPSRVLWH'HVLJQ &&' sind zentral zusammengesetzte Versuchspläne, bei denen neben einem Zentralpunkt und den vier Eckpunkten eines Würfels zusätzlich vier Sternpunkte definiert werden. Die Sternpunkte sind so zu wählen, dass man ein orthogonales und rotierbares Versuchsdesign erhält. „Orthogonal“ bedeutet, dass sich die einzelnen Effekte im Rahmen eines 2kVersuchsplans eindeutig trennen und zuordnen lassen. „Rotierbar“ heißt, dass sich die Varianz der zu prognostizierenden y-Werte in jedem Punkt als Funktion des Abstandes des gewählten Punktes zum Zentralpunkt ergibt. Zur Ermittlung der Stern- bzw. Axialpunkte31 ist ein Abstandsfaktor α zu berechnen, der in jeder Dimension den Abstand des Sternpunkts zum Zentralpunkt angibt. Der Vorteil von Central-Composite-Designs ist vor allem darin zu sehen, dass auf der Basis der Ergebnisse eines voll-/ teilfaktoriellen Versuchplans zusätzlich Sternpunkte für jeden Faktor definiert werden können, deren Realisierung zur Ermittlung der Koeffizienten c11 und c22 führt.
•
%R[%HKQNHQ'HVLJQ %%' ist eine alternative Methode zu CCD, um die quadratischen Terme im Rahmen eines Regressionsmodells zu bestimmen. Die Versuchsanordnungen nach Box/ Behnken (1960) sind nicht zwingend rotierbar und orthogonal. Auf Optimierungsversuche nach BBD wird i.d.R. zurückgegriffen, wenn physikalische Beschränkungen vorliegen, die eine Realisierung der Sternpunkte nicht erlauben. Aus diesem Grund erfolgt eine Verlagerung der Axialpunkte nach innen, d.h. pro Faktor werden drei Merkmalsausprägungen definiert (-1, 0, 1). Jede zusätzliche Faktorausprägung besitzt eine äquidistante Entfernung zur unteren und oberen Faktorstufe sowie zu dem definierten Zentralpunkt (in der Mitte des Würfels). Aufgrund der Tatsache, dass pro Faktor jeweils nur drei Stufen anstelle von fünf realisiert werden, erfordert das BBD deutlich weniger Versuche als CCD. Diesem Vorteil steht der Nachteil gegenüber, dass mit BBD die Koeffizienten des Regressionsmodells mit einer höheren Ungenauigkeit geschätzt werden.
Bei beiden Designs wird ausgehend von einem Zentralpunkt der Lösungsraum nach lokalen Maxima und Minima schrittweise abgesucht. Die Vorgehensweise basiert auf der 7D\ORUVFKHQ )RUPHO für Funktionen zweier Variablen. Es wird davon ausgegangen, dass die Funktion I[[ glatt ist und in der Umgebung der Entwicklungsstelle (x1-0, x2-0) stetige partielle Ableitungen bis zur (n+1)-ten Ordnung hat. Die Konstante c0 gibt das Ergebnisniveau, z.B. Ausbeute, im Entwick-
31
Der Abstandsfaktor zur Bestimmung der Stern-/ Axialpunkte beträgt i.d.R. α = 1,682. Detaillierte Darstellungen der o.g. Versuchsanordnungen sowie weiteren finden sich u.a. in Breyfogle 2003, Montgomery 2000 und Box et al. 1978.
4.2 Klassische Algorithmen
185
lungspunkt an und entspricht bei alleiniger Verwendung dem Polynom 0. Ordnung. Die Koeffizienten c1 und c2 stehen für die Steigungen der Funktion \ I[ [ bei linearen Abhängigkeiten (= Polynom 1. Ordnung). Die Koeffizienten c11 und c22 kommen hinzu, wenn zwischen den Haupteffekten und der Ergebnisvariable y ein quadratischer Zusammenhang besteht. In diesem Fall handelt es sich um eine Potenzreihenentwicklung 2. Ordnung. Ist weiterhin davon auszugehen, dass zwischen den Faktoren [ und [ Wechselwirkungen vorkommen, dann ist zusätzlich der Koeffizient c12 zu schätzen. Ausgangspunkt: 9ROOWHLOIDNWRULHOOHU 9HUVXFKVSODQNS
Erweiterung 2: 'HILQLWLRQYRQ =HQWUDOSXQNW
Erweiterung 1: 'HILQLWLRQYRQ 6WHUQSXQNWHQ α α
Faktor 2
α α
α α
Faktor 1
Basis: Breyfogle 2003, S. 645
α α
Abb. 4-5: Herleitung der Versuchsanordnung für Central-Composite-Design (CCD) bei zwei unabhängigen Faktoren
*UHQ]HQ YRQ '2( Für die exakte Beschreibung einer nicht-linearen Abhängigkeit zwischen einer abhängigen Variable und einer oder mehreren unabhängigen Variablen reichen Polynome 2. Grades in vielen Fällen nicht aus. Insbesondere wenn der Wertebereich der Faktoren relativ groß ist, wird durch ein quadratisches Modell keine ausreichend gute Näherung der Gesamtstruktur gefunden. Lediglich Ausschnitte aus dem zu untersuchenden Wertebereich können hinreichend genau beschrieben werden. Der wesentliche Grund dafür ist, dass sich mit einem quadratischen Modell nur ein Maxima bzw. Minima beschreiben lässt. So kann in Fällen, wo ein 6lWWLJXQJVYHUKDOWHQ mit zunehmender Annäherung an das Optimum auftritt, die Abflachung im Sättigungsbereich nur ungenau mit dem o.g. Modell beschrieben werden. Sind *UHQ]EHUVFKUHLWXQJHQ zu berücksichtigen, dann wird das Optimum der an drei Punkten angepassten Näherung verschoben, und zwar entgegengesetzt zum wahren Optimum (vgl. Kleppmann 2006, S. 218).32
32
Dies liegt darin begründet, dass die ermittelte quadratische Funktion immer symmetrisch am Maximal-/ Minimalwert ausgerichtet ist. Je höher der Wert des zur Schätzung genutzten rechtsliegenden Punktes ist, desto größer wird der Abstand zwischen wahrem und rechnerischem Optimum (vgl. Breyfogle 2003, S. 645ff.).
186
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
(b.2.3) Sequentielle Optimierungsverfahren Neben der Funktionsbestimmung haben u.a. Box et al. (1978), Cornell (1990) und Montgomery (2000) verschiedene analytische Methoden entwickelt, um die lokalen 0D[LPD0LQLPDDXIGHQK\SHUJHRPHWULVFKHQ)OlFKHQ (Reaktionsflächen) zu ermitteln. Über die Koeffizienten der kanonischen Form des Regressionsmodells können Aussagen zur Steigung und Krümmung des Funktionsverlaufs abgeleitet werden. Daneben existieren eine Reihe von graphischen Darstellungs- und Auswertungsmöglichkeiten, z.B. Contour-Plot, um die Lage des Optimums (grob) abzuschätzen. Die Beschränkungen, die sich beim Einsatz von teil-/ vollfaktoriellen Versuchsplänen zum Auffinden von Optima ergeben, werden teilweise durch sequentielle Optimierungsverfahren aufgehoben. Die sequentielle Vorgehensweise zeichnet sich dadurch aus, dass die bisher beschriebenen Versuchsmethodiken als Bausteine – einzeln oder kombiniert – nach und nach eingesetzt werden (vgl. hierzu und im Folgenden Kleppmann 2006, S. 254ff.). Ziel der Verfahren ist es, in möglichst wenigen Schritten vom Ausgangspunkt zum Optimum zu gelangen. Gleichzeitig soll das Risiko minimiert werden, durch allzu große Änderungen der Faktoreinstellungen in eine völlig falsche Richtung zu laufen und das globale Optimum zu verfehlen. Folgende 9RUJHKHQVZHLVHQ werden im Rahmen der sequentiellen Optimierung genutzt: •
0HWKRGH GHV VWHLOVWHQ $QVWLHJV: Die Methode zeichnet sich durch die Wahl von relativ großen Abständen zwischen den Faktorstufen aus und erlaubt daher ein relativ schnelles Fortschreiten in Richtung des Optimalpunktes. Da der steilste Anstieg der Outputverbesserung i.d.R. nicht in der laufenden Fertigung gesucht wird, sondern in der Entwicklung und Arbeitsvorbereitung, werden größere Schrittweiten gewählt. Das Risiko, bei der Suche u.U. über das Optimum „hinauszuschießen“ nimmt man in gewisser Weise in Kauf. In Abb. 4-6 ist das Höhenlinien-Diagramm einer Zielgröße in Abhängigkeit von zwei Faktoren dargestellt, anhand derer das Vorgehen der Methode des steilsten Anstiegs (Hill climbing) leicht nachvollziehbar ist.
Es wird mit der Variation von zwei Faktorstufen begonnen, wobei der Abstand der Stufen relativ groß ist. Dadurch werden die beobachtbaren Effekte größer; gleichzeitig sind weniger Realisierungen auf den einzelnen Faktorstufen erforderlich. Es werden zunächst mehrere Faktoren gleichzeitig variiert. Ist die erste Richtung des steilsten Anstiegs ermittelt worden, wird mit Einzelversuchen immer weiter in diese Richtung gesucht. Der Suchvorgang wird gestoppt, wenn die Ergebnisse wieder schlechter werden. Zur Ermittlung der zweiten Richtung des steilsten Anstiegs wird ein neuer Versuchsplan aufgestellt und durchgeführt. Besteht die berechtigte Annahme, dass man sich in der Nähe des Maximums/ Minimums befindet, wird ein Plan zur Bestimmung nicht-linearer Zusammenhänge verwendet. Dabei handelt es sich in den meisten Fällen um einen Versuchsplan mit drei Faktorstufen.
4.2 Klassische Algorithmen
[
187
$XVJDQJV SXQNW
2SWLPXP
9HUVXFKVSODQ
5LFKWXQJGHV VWHLOVWHQ$QVWLHJV 5LFKWXQJGHV VWHLOVWHQ$QVWLHJV
Basis: Kleppmann 2003, S. 252ff.
[
Abb. 4-6: Sequentielles Vorgehen nach der Methode des steilsten Anstiegs
•
(YROXWLRQlUHV 9HUIDKUHQ: Das Vorgehen nach EVOP (Evolutionary Operations) ist vom Ansatz her sehr ähnlich zu vorstehend beschriebener Methode des steilsten Anstiegs. Es kann deshalb den klassischen Optimierungsalgorithmen zugeordnet werden.33 In einem vollständigen faktoriellen Versuch werden zwei, maximal drei Prozessparameter innerhalb ihrer Spezifikation um den Ausgangspunkt verändert. Ziel ist es, aus kleinen Veränderungen der Prozessergebnisse Wissen für eine kontinuierliche Verbesserung (KVP) des gesamten Produktionsprozesses abzuleiten. Die Versuche werden in der laufenden Produktion durchgeführt. Die Abstände der einzelnen Faktorstufen sind klein zu wählen, damit der Produktionsprozess nicht nennenswert gestört wird. Aufgrund des kleinen Stufenabstandes ist einerseits mit relativ kleinen Effekten zu rechnen. Andererseits können durch den großen Versuchsumfang (gesamte Produktion) auch kleine Effekte erkannt und dadurch die Richtung der Verbesserung eindeutig bestimmt werden.
Es existiert keine feste Regel, wie weit die Faktorstufenkombination verschoben werden soll. Die Entscheidung liegt letztendlich beim Prozesseigner, der die Chancen und Risiken einer Prozessveränderung genau abwägen muss. Wie in Abb. 4-6 skizziert ist, werden die Faktorstufenkombinationen 1 bis 5 solange durchlaufen, bis erkennbar ist, in welche Richtung sich das Prozessergebnis verbessert. In diese Richtung wird dann eine Änderung der Prozess33
Eine Parallelität zu den in Abschnitt 4.3.2 behandelten Evolutionären Algorithmen ist nicht gegeben; hier steht die Nachahmung von natürlichen Entwicklungsprozessen zur Optimierung von ökonomisch-technischen Systemen im Vordergrund. Eine praxisorientierte Beschreibung des EVOP-Verfahrens geben Box/ Draper 1975.
188
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
spezifikation vorgenommen. Ist der Prozesseigner risikoavers, wird er den Punkt 2 zum neuen Mittelpunkt (Arbeitspunkt) und den Punkt 1 zum neuen Eckpunkt machen. Bei risikofreudigem Verhalten ist eine Verschiebung über den Punkt 2 hinaus denkbar. Insgesamt handelt es sich bei EVOP um ein vorsichtiges Verfahren zur Optimierung der laufenden Produktion. •
6LPSOH[9HUIDKUHQ: Dieses Verfahren führt schnell in die Nähe des Optimums, wenn die Zufallsstreuung sehr klein im Vergleich zu den wahren Unterschieden zwischen den untersuchten Faktorstufenkombinationen ist. In diesem Fall kann man auf die mehrmalige Realisierung und die Mehrfachnutzung von Ergebnissen verzichten. Das Simplex-Verfahren ist streng sequentiell, d.h. nach einem Startsimplex schreitet die Optimierung mit jedem weiteren Einzelergebnis fort. Ziel ist es, die Richtung der Verbesserung mit möglichst wenigen Faktorstufenkombinationen zu erkennen. Deshalb besteht der Simplex bei k Faktoren aus „nur“ k+1 Faktorstufenkombinationen. Bei zwei Faktoren sind dies die Ecken eines gleichseitigen Dreiecks (siehe Abb. 4-7), bei drei Faktoren die eines Tetraeders, usw.
[ $XVJDQJV SXQNW
2SWLPXP
6LPSOH[
Basis: Kleppmann 2003, S. 252ff.
[
Abb. 4-7: Sequentielles Vorgehen nach dem Simplex-Verfahren
Ausgehend vom Arbeitspunkt werden zunächst die Versuchsergebnisse an den Eckpunkten des Dreiecks mit der Nr. 1 bestimmt (= Simplex 1). Die Faktorstufenkombination, die zum schlechtesten Ergebnis geführt hat, wird an der Linie durch die anderen beiden Faktorstufenkombinationen gespiegelt. Dadurch ergibt sich eine neue Faktorstufenkombination, die zusammen mit den beiden besseren Kombinationen aus Simplex 1 den neuen Simplex 2 bildet. In entsprechender Weise werden die nachfolgenden Simplexe ermittelt. Da jeweils die schlechteste Faktorstufenkombination eines Simplex ersetzt wird, führt das Verfahren Schritt für Schritt zu einem besseren Ergebnis. Allerdings
4.2 Klassische Algorithmen
189
versagt das Simplex-Verfahren in der Nähe des Optimums, da es hier – aufgrund seines linearen Charakters – zum „Pendeln bzw. Kreisen“ zwischen einigen wenigen Punkten neigt. 4.2.3
Exakte vs. heuristische Lösungsverfahren für Optimierungsprobleme
Nachdem im Punkt (a) eine Abgrenzung von exakt und heuristisch optimierenden Lösungsverfahren vorgenommen worden ist, wird im Punkt (b) speziell auf die Konzeption und Inhalte von sog. Meta-Heuristiken eingegangen. Nach der Art des gewählten Lösungsansatzes lassen sich – auf hoher Ebene – Lokale Suchverfahren und Naturadaptive Verfahren unterscheiden. D /|VXQJVDQVlW]HIUNRPSOH[H2SWLPLHUXQJVSUREOHPHLQGHU%:/
In vielen praktischen Anwendungen ist der Einsatz von Methoden des Operations Research unverzichtbar, z.B. bei der Transport- und Standortplanung sowie der Produktprogramm- und Losgrößenplanung. Dabei zieht der Einsatz exakter Lösungsverfahren, d.h. Verfahren, die nach einer endlichen Anzahl von Rechenbzw. Iterationsschritten optimale Lösungen liefern, nicht selten einen HUKHEOLFKHQ 5HFKHQDXIZDQG nach sich.34 Dieser Umstand ist gerade in der Unternehmenspraxis unerwünscht und hat in der jüngsten Vergangenheit zur Entwicklung einer großen Anzahl heuristischer Lösungsverfahren geführt. Sie zeichnen sich dadurch aus, dass in „angemessener“ Rechenzeit „gute“, aber nicht zwangsläufig optimale Lösungen gefunden werden (vgl. Wäscher 1998, S. 1299). Vor diesem Hintergrund klassifiziert man heute – in vereinfachter Weise – Optimierungsprobleme nach dem benötigten Rechenaufwand: •
34
Um ein HIIL]LHQW O|VEDUHV 3UREOHP handelt es sich, wenn ein exaktes Lösungsverfahren existiert, das lediglich einen polynomialen Rechenaufwand erfordert. In diesem Fall lässt sich der funktionale Zusammenhang zwischen dem Rechenaufwand, gemessen anhand der erforderlichen elementaren Rechenoperationen, und einem Maß für die Problemgröße im „worst case“, d.h. im Fall der jeweils ungünstigsten Datenkonstellation, durch ein Polynom n.Grades begrenzen. Effizient lösbare Probleme liegen u.a. bei den Standardproblemen der Linearen Optimierung vor (vgl. Abschnitt 4.2.1).
Für eine präzisere Definition von exakten und heuristischen Lösungsverfahren siehe Streim (1975, S. 143ff.). Nach ihm zeichnen sich heuristische Lösungsverfahren durch folgende drei grundlegende, begriffskonstituierende Eigenschaften aus: (a) Verwendung nicht willkürlicher Entscheidungsoperatoren, (b) Ausschluss potenzieller Lösungen vom Suchprozess sowie (c) Kein Konvergenzbeweis und damit keine Lösungsgarantie. Darüber hinaus sind sehr häufig die folgenden drei Eigenschaften bei Heuristiken gegeben (vgl. auch Schmitting 1999, S. 41f.): (d) Verwendung künstlicher, subjektiver Abbruchregeln, (e) Möglichkeit der Parametrisierung und (f) Wahrung der Zulässigkeit eines Ergebnisses bei restringierten Optimierungsproblemen.
190
•
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
Im Unterschied hierzu nimmt bei QLFKW HIIL]LHQW O|VEDUHQ 3UREOHPHQ, zu denen z.B. die Tourenplanung gehört, der Rechenaufwand exakter Verfahren mit zunehmender Problemlösung exponentiell zu. Der Rechenaufwand erreicht schnell prohibitive Größenordnungen. Dabei ist nach dem gegenwärtigen Erkenntnisstand der Komplexitätstheorie für diese Problemart nicht nur heute kein exaktes, lediglich einen polynomialen Rechenaufwand verursachendes Verfahren bekannt, sondern auch in Zukunft. Nicht effizient lösbare Probleme bilden somit den zentralen Anwendungsbereich von heuristischen Lösungsverfahren35 (vgl. Wäscher 1998, S. 1299).
Die H[DNWRSWLPLHUHQGHQ9HUIDKUHQ zur Lösung kombinatorischer Probleme basieren auf einem Entscheidungsbaum, der die Lösung als eine Kette aufeinander folgender bzw. aufbauender Entscheidungsoptionen darstellt. An verschiedenen Knoten sind Entscheidungen über zu realisierende Schritte des Lösungsaufbaus zu fällen. Bei der Bearbeitung von Optimierungsproblemen wird die optimale Lösung schrittweise generiert (vgl. Schmitting 1999, S. 30). Potenzielle Lösungen, die zu einem suboptimalen Zielwert führen, werden im Weiteren vernachlässigt, d.h. die entsprechenden Zweige des Baumes werden nicht weiter verfolgt. Aus diesem Grund werden bei Entscheidungsbaumverfahren zwar grundsätzlich alle potenziellen Lösungen in den Algorithmus einbezogen, jedoch wird ein Großteil von ihnen von der expliziten Analyse ausgeschlossen. In den vergangenen Dekaden haben sich die folgenden drei Grundtypen von Entscheidungsbaumverfahren etabliert:36 (1) %UDQFKDQG%RXQG9HUIDKUHQ, (2) %HJUHQ]WH (QXPHUDWLRQ und (3) '\QDPLVFKH2SWLPLHUXQJ. Sie gelten als klassisch optimierende Algorithmen zur Lösung von Tourenplanungsproblemen (TSP). Das erstgenannte Verfahren galt lange Zeit als das erfolgreichste Entscheidungsbaumverfahren zur Lösung von TSP. Insbesondere in den 1970er Jahren wurden eine Reihe von Varianten für verschiedene Anwendungssituationen entwickelt und publiziert (vgl. Panny 1978, S. 35). Der Begriff des „Branch & Bound“ geht auf Little et al. (1963) zurück und basiert zum einen auf der Idee, die Menge aller potenziellen, zulässigen Lösungen in problemspezifisch zu definierende, disjunkte Teilmengen aufzuspalten, ohne dabei die einzelnen Lösungszweige (Branches) vollständig zu generieren. Die Dekomposition wird stufenweise fortgesetzt, bis in einer der Teilmengen die optimale Lösung identifiziert werden kann. Zum anderen wird für jede der gebildeten Teilmengen eine untere Schranke (Bound) des Ziel-
35
36
Heuristische Lösungsverfahren lassen sich i.d.R. leichter im Hinblick auf reale, nichtstandardmäßige Probleme der Praxis anpassen. Von Praktikern wird deshalb schon seit längerem eine eingehendere und systematischer Beschäftigung mit diesen Verfahren angeregt. Obwohl einige Wissenschaftler bereits frühzeitig die Bedeutung dieser Methoden herausgestellt haben, kam es erst durch neue Erkenntnisse in der Informatik zu einer systematischen Erforschung und Erweiterung. Für einen Überblick der drei genannten klassischen exakten Verfahren zur Lösung des TSP siehe z.B. Domschke 1990, S. 62ff. und Panny 1978, S. 10ff.
4.2 Klassische Algorithmen
191
funktionswertes berechnet, der angibt, welcher Wert von den in der Teilmenge enthaltenen Lösungen nicht unterschritten werden darf. Der Verzweigungs- bzw. Optimierungsprozess wird i.A. so gestaltet, dass die Teilmengen, welche die niedrigste untere Schranke besitzen, (bei einer Minimierung) vorrangig betrachtet werden. Die optimale Lösung ist gefunden, wenn durch die fortdauernde Zerlegung erstmalig eine zulässige Lösung des Problems bestimmt worden ist. Aufgrund der gesetzten Schranken kann auf die Betrachtung der verbleibenden Zweige verzichtet werden (vgl. Schmitting 1999, S. 33). Im Rahmen der KHXULVWLVFKHQ /|VXQJVYHUIDKUHQ haben vor allem die sog. MetaHeuristiken in der Vergangenheit erheblich an Bedeutung gewonnen. Bei diesen übergeordneten Heuristiken handelt es sich weniger um konkrete Algorithmen für genau spezifizierte Problemstellungen, als vielmehr um allgemeine Handlungsanweisungen, die für die jeweilige Problemstellung zunächst in geeigneter Weise zu modifizieren sind. Hierzu gehören einerseits naturadaptive Verfahren (Heuristics from Nature), die betriebliche Probleme in Analogie zu erfolgreichen Phänomenen der Natur lösen, z.B. Genetische Algorithmen (vgl. Greb et al. 1998). Andererseits werden – wie im Folgenden gezeigt – Lokale Suchverfahren (LSA – Local Search Approaches) zur Lösung betrieblicher Optimierungsprobleme eingesetzt.37 E .RQ]HSWLRQXQG,QKDOWHYRQ0HWD+HXULVWLNHQ
(b.1) Lokale Suchverfahren (LSA) Alle NODVVLVFKHQ /6$ beruhen auf dem Grundprinzip der Nachbarschaftssuche. Dieses besagt, dass zu einer bereits existierenden, aktuellen Lösung jeweils eine neue aus der „Nachbarschaft“ zu generieren ist. Die Entscheidung, ob die neue Lösung die aktuelle ersetzen soll, wird anhand des zugehörigen Zielwerts bzw. der Zielwertänderung und/ oder unter Berücksichtigung weiterer Kriterien getroffen. Bei Übernahme der neuen Lösung wird die Suche in dessen Nachbarschaft fortgesetzt. Andernfalls wird zu der aktuellen Lösung eine weitere Lösung generiert und bewertet usw. (vgl. Wäscher 1998, S. 1302). Das Verfahren endet, wenn nach einer definierten Anzahl von Versuchen keine neue bessere Lösung in der Nachbarschaft der bestehenden gefunden wird. Während die Vorgehensweise zur Konstruktion der Ausgangslösung sowie die Definition der Nachbarschaft problemspezifische Anforderungen darstellen, sind die Kriterien zur Akzeptanz einer neuen Lösung sowie zum Abbruch des Verfahrens weitestgehend unabhängig vom Problemtyp festzulegen. Sie werden deshalb auch als generische Bausteine der Lokalen Suchverfahren bezeichnet: •
37
Die Generierung der $XVJDQJVO|VXQJ kann sowohl zufällig erfolgen als auch auf der Basis von Konstruktionsverfahren, die auf den jeweiligen Problemtyp
Sie sind eher traditionellen Ursprungs und gelten als Weiterentwicklung von klassischen Heuristiken, nämlich der sog. k-Opt-Verbesserungsverfahren.
192
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
zugeschnitten sind, z.B. Nearest-Neighbour-Heuristik für das TSP (zu möglichen Konstruktionsverfahren siehe Reinelt 1994, S. 73ff.). •
Die 1DFKEDUVFKDIW einer Lösung ist definiert als die Menge aller Lösungen, die sich durch einen bestimmten Typ einer elementaren Operation aus der betreffenden Lösung erzeugen lässt, z.B. 2-Opt-Move für das TSP, bei dem zwei beliebige, nicht benachbarte Kanten gegen zwei andere, dann eindeutig festgelegte Kanten ausgetauscht werden.
•
Auf der Basis des $N]HSWDQ]NULWHULXPV wird entschieden, ob die neue Lösung als aktuelle Lösung akzeptiert oder wieder verworfen wird. Klassische LSA sind dabei darauf ausgerichtet, immer nur zielwertverbessernde Lösungen zu akzeptieren. Bei einem Maximierungsproblem kommt es infolgedessen zu einem stetigen Anstieg des Zielwertes.
•
Das $EEUXFKNULWHULXP legt fest, ab welchem Punkt des Optimierungszyklus die Suche eingestellt wird. Bei klassischen LSA endet der Iterationsprozess dann, wenn in der Nachbarschaft der aktuellen Lösung keine zielwertverbessernde Lösung mehr gefunden wird.38
Anhand der vorstehend genannten Kriterien wird zugleich der 1DFKWHLOYRQ/RND OHQ Suchverfahren deutlich: In einem iterativen Prozess wird der Lösungsraum unter Beachtung der Zielsetzung und der Restriktionen abgesucht. Ausgehend von der suboptimalen Lösung eines Problems wird versucht, durch sukzessive und geringfügige Veränderungen Verbesserungen herbeizuführen. Zumindest bei größeren Problemausprägungen ist durch dieses schrittweise Vorantasten keinesfalls sichergestellt, dass das globale Optimum tatsächlich detektiert wird. Häufig bleiben die klassischen Ansätze in einem lokalen Optimum „hängen“, aus dem es bei Verwendung von einfachen Akzeptanz-/ Abbruchkriterien kein Entrinnen gibt, da eine Zielwertverschlechterung nicht akzeptiert wird. (b.2) Naturadaptive Verfahren Naturadaptive Lösungsverfahren, die auch als PRGHUQH /6$ bezeichnet werden, lassen Zielwertverschlechterungen zu, so dass ein lokales Optimum ohne Weiteres überwunden werden kann. Ziel ist es, allgemeine menschliche oder natürliche Problemlösungsstrategien bei der Lösung schwieriger Optimierungsaufgaben in Technik und Wirtschaft zu nutzen. Zu den bekanntesten Verfahrenstypen, die in der angewandten Mathematik Verwendung finden, gehören die (1) 6LPXOLHUWH $ENKOXQJ (SA – Simulated Annealing), (2) der $PHLVHQ$OJRULWKPXV (ACO – Ant Colony Optimization) und (3) die *HQHWLVFKHQ E]Z (YROXWLRQlUHQ $OJRULWK PHQ (GA – Genetic Algorithm) (vgl. Greb et al. 1998, S. 444). Letztgenannte werden in Unterkapitel 4.3 ausführlich behandelt.
38
Soll die Zielfunktion maximiert werden, dann detektiert die zuletzt akzeptierte Lösung ein lokales Maximum.
4.2 Klassische Algorithmen
193
Die Grundgedanken von SA und ACO werden im Folgenden am Beispiel des TSP kurz ausgeführt. 39 Bei der Darstellung geht es vor allem darum, weitere Ansatzpunkte und Möglichkeiten für die Ableitung konkreter Vorgehensmodelle im Rahmen der Neuproduktplanung/ Prozessentwicklung aufzuzeigen: •
6LPXODWHG $QQHDOLQJ wurde erstmals in den 1980er Jahren für die diskrete Optimierung verwendet. Die Lösungssuche basiert hier auf einer Analogie zu einem physikalischen Abkühlungsprozess, wobei der Zielfunktionswert I[ dem Energiezustand E des physikalischen Systems entspricht (vgl. u.a. Pham/ Karaboga 2000; Aarts et al. 1997; Downsland 1993).
Hintergrund ist das Härten von Metall, bei dem das Metall zunächst über den Schmelzpunkt hinaus erhitzt und dann langsam abgekühlt wird. Ziel ist es, den Abkühlungsprozess so zu steuern, dass das Metall in einen möglichst niedrigen energetischen Zustand überführt wird. Durch zu schnelles Absenken der Temperatur kann es zu Verunreinigungen in der Legierung kommen, die zu suboptimalen Ergebnissen im Kristallisationsprozess führen. Einige Atome gehen in diesem Fall zu früh in eine irreversible feste Struktur über. Andererseits konnte bereits in den1950er Jahren gezeigt werden, dass mit abnehmender Temperatur stabile lokale Energieoptima erreicht werden und zwar um so eher, je langsamer die Abkühlung erfolgt (vgl. Voß et al. 2000, S. 558). Bei der Beschreibung des Abkühlungsprozesses wird die für alle physikalischen Systeme geltende Boltzmann-Verteilung zugrunde gelegt. •
$QW&RORQ\2SWLPL]DWLRQ hält seit ihrer Vorstellung im Jahre 1991 durch Dorigo et al. zunehmend Einzug ins Operations Research. Die Lösungssuche ist von der Futtersuche von Ameisen inspiriert, die erfahrungsgemäß ihre Straßen auf direktem Weg zwischen Nest und Futterquelle errichten (vgl. u.a. Boysen et al. 2002; Dorigo/ Gambardella 1997).
Die Adaption des natürlichen Vorbilds in der mathematischen Optimierung führte zu einer Meta-Heuristik, die sich vor allem zur Lösung kombinatorischer Probleme eignet, z.B. Auffinden des kürzesten Weges zwischen zwei Orten. Ameisen orientieren sich bei der Futtersuche mithilfe eines chemischen Sekrets namens Pheromon. Dieses sondern sie während ihrer Fortbewegung laufend aus einer Drüse am hinteren Teil ihres Körpers auf den Boden ab (vgl. Bonabeau/ Meyer 2001, S. 38ff.). Kürzere Wege, ohne Hindernisse können von den Ameisen schneller durchlaufen werden. Folglich sind sie nach einem bestimmten Zeitintervall stärker mit Pheromon markiert als alternative, längere Wege. Die Detektion des kürzesten Weges verbessert sich im Zeitablauf immer mehr, da nachfolgende Ameisen mit höherer Wahrscheinlichkeit den stärker belaufenen und markierten Weg wählen. Das Phe-
39
Weitere bekannte meta-heuristische Verfahren, die bei der Lösungssuche vorübergehend auch schlechtere Bezugslösungen akzeptieren, sind das Tabu Search und das Scatter Search. Sie gelten als allgemeine Konzepte, die sich nicht unmittelbar am Vorbild der Natur orientieren (vgl. Voß et al. 2000, S. 560).
194
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
romon speichert also die vergangenen Wegentscheidungen und nimmt damit die Rolle einer Art kollektiven Gedächtnisses der Ameisenkolonie ein. =ZLVFKHQID]LW In der Mathematik existieren eine Vielzahl von Algorithmen zur funktionellen Optimierung. Im Zusammenhang mit (Design for) Six Sigma sind sie Werkzeug, z.B. DOE, und Vorbild für die Lösung schwieriger Probleme, z.B. LSA, zugleich. Für die konkrete Verbesserung des DMADV-Zyklus als Vorgehensmodell in F&E sind vor allem Algorithmen interessant, mit dessen Hilfe sich schlecht strukturierte Probleme mit unbekannter Zielfunktion lösen lassen. Als vielversprechend gelten hier die heuristischen Lösungsverfahren; zu diesen gehören u.a. evolutionäre Algorithmen (vgl. Unterkapitel 4.3). Sie garantieren zwar nicht das Auffinden des globalen Optimums einer Funktion, jedoch beinhalten sie i.d.R. ein effizientes Vorgehen, um die optimale Lösung zumindest annähernd zu bestimmen. Bei DFSS geht es um das Erkennen und Erfüllen von CTQs, welches – in Analogiebetrachtung – dem Auffinden des (unbekannten) globalen Optimums entspricht. Unter dieser Voraussetzung ergeben sich z.T. ganz neue Erkenntnisse in Bezug auf die Konzeption realer Vorgehensmodelle (vgl. Kapitel 5).
4.3
Evolutionäre Algorithmen
Die Mehrheit der klassischen Algorithmen zur Lösung schwieriger Probleme zeichnet sich dadurch aus, dass sie eine einmal gefundene (Näherungs-)Lösung nach bestimmten Vorgehensregeln verbessern. Evolutionäre Algorithmen (EA) gehen demgegenüber einen ganz anderen Weg. Sie entwickeln eine in einer Population zusammengefasste Menge von Lösungen systematisch weiter in Richtung Optimum. Dabei ist die Anwendung von EAs nicht auf die Lösung von natur- und ingenieurwissenschaftlichen Problemstellungen beschränkt. In den Wirtschaftswissenschaften wird seit langem die systematische Übernahme von Erkenntnissen aus der Biologie auf ökonomische Sachverhalte verfolgt.40 Nach einem kurzen Abriss der natürlichen Evolution als Vorbild zur Lösung komplexer Probleme werden im Weiteren die wesentlichen evolutionstheoretischen Lösungsstrategien/ -ansätze in der Produktentwicklung kurz vorgestellt. Eine besondere Rolle spielen hierbei Genetische Algorithmen (GA), auf die im Abschnitt 4.3.3. detaillierter eingegangen wird. Das Unterkapitel endet mit einem einfachen GA-Anwendungsbeispiel zur funktionellen Optimierung.
40
Bereits von den „Klassikern“ der Volkswirtschaftslehre, DAVID RICARDO (1772-1823) und THOMAS R. MALTHUS (1766-1834), wurden biologisch geprägte Begriffe auf ökonomische Sachverhalte übertragen (vgl. Gordon 1989, S. 443). Auch ALFRED MARSHALL (1842-1924), der „Vater der neoklassischen Theorie“, vertrat die Ansicht, dass zur Erlangung tiefgründiger(er) Erkenntnisse in den Wirtschaftswissenschaften kein Weg an der biologischen (Evolutions-)Theorie vorbeiführe.
4.3 Evolutionäre Algorithmen
4.3.1
195
Die natürliche Evolution als Vorbild zur Lösung komplexer Probleme
D =XVDPPHQKDQJ]ZLVFKHQ(YROXWLRQVWKHRULHXQG2SWLPLHUXQJVUHFKQXQJ
In praktischen Anwendungen ist die Zielfunktion häufig nur implizit, d.h. in Form von Punkten, die z.B. durch Simulationsmodelle oder durch Messungen an einem realen System gewonnen wurden, gegeben. Ohne analytische Darstellung der Zielfunktion können Eigenschaften wie Stetigkeit oder Kontinuität a priori nicht zugesagt werden (vgl. Abschnitt 4.2.1). Für den Entscheidungsträger sind die Input-Output-Relationen eine Black-Box mit einer Vielzahl von „Einstellknöpfen“ zur Einstellung der Parameter sowie einer Skala zur Anzeige der Güte der aktuellen Einstellung. Dies sind die wirklich schwierigen Optimierungsaufgaben. Fortschrittliche Algorithmen, die solche Aufgaben lösen, dürfen kein festes inneres Modell besitzen, sondern müssen in der Lage sein, zu einer gegebenen Zielfunktion das innere Modell zu erlernen (vgl. Sprave 1999, S. 10). Bei der Optimierung anhand von Messwerten tritt häufig die zusätzliche Schwierigkeit auf, dass fehlerhafte Messanordnungen zu scheinbar sehr guten Lösungen führen. Diese können die Suche im weiteren Projektablauf in eine völlig falsche Richtung lenken. In diesem Fall ist ein Verfahren erforderlich, das die Fähigkeit besitzt, zu vergessen. Weiterhin ist die Lage des Optimums eines realen Systems in vielen Fällen nicht zeitinvariant, d.h. für alle Zeiten gültig. Gerade bei betriebswirtschaftlichen Sachverhalten ist zu beobachten, dass aufgrund sich ändernder Marktkonstellationen ein einmal gefundenes Optimum langsam wegdriftet und es dann kontinuierlich „verfolgt“ werden muss. Verändern sich die Gegebenheiten derart, dass laufend neue Optima entstehen und alte verschwinden, dann sollte der Optimierungsalgorithmus in der Lage sein, neue „Gebiete im Suchraum“ zu erforschen, sofern lokal keine Fortschritte mehr zu erzielen sind Seit Mitte des vorigen Jahrhunderts existiert die Idee, die zugrunde liegenden Mechanismen der biologischen Evolution41 zu imitieren, um so leistungsfähige Algorithmen für (schwierige) Optimierungsprobleme zu entwickeln. So entstanden bis zum heutigen Zeitpunkt eine Reihe von stochastischen, populationsbasierenden Suchverfahren, die durch die biologische Evolution und deren Erfolg in der 41
Der Begriff „Evolution“ geht auf das lateinische Wort „evolvere“ zurück, was so viel bedeutet wie „vorwärts rollen“. Im übertragenen Sinn geht es hier um das Aufrollen einer Papierrolle, wobei alles offengelegt wird, was bereits auf dem eingerollten Papier vorhanden (gedruckt) ist (vgl. Hodgson 1993, S. 37). Sowohl diese als auch die nachfolgende Begriffserklärung prägen den Wissenschaftszweig der Evolutorischen Ökonomik. Neben dem „Bild der Papierrolle“ existiert eine „biologische Deutung“ des Begriffs Evolution, der auf die zwei Evolutionsbiologen CHARLES DARWIN (1809-1882) und JEAN BAPTIST DE LAMARCK (1744-1829) zurückgeht. Dabei steht die Analyse der drei Mechanismen Retention, Variation (Mutation) und Selektion sowie deren Zusammenspiel im Vordergrund, um die Veränderungen von biologischen, ökonomischen und/ oder gesellschaftlichen Prozesse zu erklären.
196
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
Natur inspiriert sind. Die stetige Optimierung von Individuen an sich ständig ändernde Umweltbedingungen steht im Mittelpunkt des Forschungsprogramms der Evolutionären Algorithmen. Die im Kern heuristischen Algorithmen haben in jüngster Zeit beträchtlich an Bedeutung gewonnen. Insbesondere bei den schwierigen Problemstellungen, z.B. mit einem großen Suchraum und einer geringen Strukturierung, liefern die Prinzipien der natürlichen Evolution einen geeigneten Modellrahmen für generelle Adaptions- oder Optimierungsstrategien. E 0HFKDQLVPHQGHUQDWUOLFKHQ(YROXWLRQ
Die vorherrschende Vielfalt und Komplexität der Lebensformen wird heute mit Hilfe der neodarwinistischen Evolutionssicht erklärt. Sie kann im Wesentlichen durch folgende drei Mechanismen beschrieben werden (vgl. u.a. Weicker 2002; Beyer et al. 2001; Nissen 1997; Bäck et al. 1990): •
5HWHQWLRQ: Eine wesentliche Voraussetzung für das Stattfinden von Evolution ist die Replikation, d.h. die Weitergabe von Erbinformationen42 der Eltern an ihre Nachkommen, die sowohl sexuell als auch asexuell erfolgen kann. Durch das Genom wird das grundlegende Erscheinungsbild eines Organismus, der sog. Phänotyp, bestimmt und durch Vererbung über Generationen hinweg bewahrt. Allerdings liegt nur selten eine 1:1-Relation zwischen den genetischen Informationen des Lebewesens, dem sog. Genotyp, und seinem äußeren Erscheinungsbild vor. In der Regel sind mehrere Gene an einem phänotypischen Merkmal des Individuums beteiligt; oder umgekehrt, ein Gen hat Einfluss auf gleich mehrere phänotypische Merkmale. Folglich sind auf Individualebene sowohl Phäno- als auch Genotyp relevant.
•
9DULDWLRQ: Das Gen bildet die Grundlage für die Vererbung sowie für die Veränderung des Erbguts. Eine Population wird als eine Art definiert, wenn die Individuen dem gleichen Genpool entstammen und sich miteinander paaren können. Im Rahmen der geschlechtlichen Fortpflanzung von Individuen kommt es zur Rekombination, bei der das Erbmaterial neu zusammengesetzt wird. Hierbei lassen sich zwei Formen unterscheiden (vgl. Weicker 2002, S. 26): Bei der ersten Form tritt eine zufällige Neuverteilung der väterlichen und mütterlichen Chromosomen in den Keimzellen des Kindes auf. Die zweite Form ist das Ergebnis der Überkreuzung von Bestandteilen der korrespondierenden väterlichen und mütterlichen Chromosome. Man bezeichnet diesen Vorgang auch als Crossing-Over oder Crossover.
42
In der Natur sind die Erbinformationen in Form einer Sequenz von vier verschiedenen Nukleotidbasen, der Desoxyribonucleinsäure (DNS), innerhalb der Chromosomen des Zellkerns codiert. Diese Sequenz dient als Bauplan zur Erzeugung von Enzymen, Organellen, Organen und ganzen Individuen. Ein einzelner Abschnitt auf dem Chromosom wird Gen genannt und bildet die kleinste Einheit der Erbinformation. Die Gesamtheit aller Gene eines Organismus wird als Genom bezeichnet, die anzunehmenden Werte eines Gens wiederum als Allel, z.B. steht ein Gen für die Bestimmung der Haarfarbe mit den Allelen (Ausprägungen) blond und schwarz. Die Gesamtheit aller Allele werden unter dem Begriff Genpool zusammengefasst (vgl. Kilian et al. 2006, S. 92f.).
4.3 Evolutionäre Algorithmen
197
Neben der Rekombination kommt es durch das Auftreten von Mutationen zu Veränderungen des Erbguts von Individuen. Mutationen beschreiben die spontane Veränderung der genetischen Information im Zuge der Fortpflanzung, wodurch Fehler bei der Reproduktion der DNA entstehen. Die Änderungen einzelner Gene, Chromosome und/ oder Genome treten dabei mit einer gewissen Mutationsrate bzw. -wahrscheinlichkeit auf. •
6HOHNWLRQ Die ökologische Konkurrenz und genetische Variabilität der Arten führen dazu, dass nur die anpassungsfähigsten Individuen überleben (Survival of the Fittest). Da sie die größte relative Lebensdauer im Verhältnis zu anderen Individuen derselben Population haben, besitzen sie auch die größte Chance, ihre Erbanlagen (Gene) an die Nachkommenschaft weiterzugeben. Die Selektion bewertet die Angepasstheit der Individuen im Moment und stellt deshalb den einzigen gerichteten Vorgang in der Evolution dar. Dabei arbeitet sie nicht auf der Ebene einzelner Eigenschaften oder Gene, sondern den dadurch bestimmten phänotypischen Ausprägungen des Organismus. Gleichzeitig stellt sich die natürliche Auslese als ein stochastischer Prozess dar, bei dem auch weniger gut an die Umwelt angepasste Individuen eine Chance zur Reproduktion haben, selbst wenn diese nur sehr gering ist.
Aus dem Wechselspiel von Variation und Selektion lässt sich die schrittweise Entstehung der heutigen Arten aus früheren Urformen erklären. Aufgrund der Veränderung und/ oder Vermischung der Erbinformation der Individuen im Zuge der Fortpflanzung entstehen unterschiedlich konkurrenzfähige Nachkommen. Als Selektionskriterium wird die Fitness, also die unterschiedliche Tauglichkeit der Individuen im Überlebenskampf, angeführt. Als Erfolgsgröße kennzeichnet sie die Anzahl der überlebenden Nachkommen in einer Population.43 Bei der Bewertung der Fitness in der Natur wird implizit davon ausgegangen, dass ein Genotyp, der besser an seine Umwelt angepasst und folglich tauglicher ist, mehr Nachkommen erzeugt (vgl. Weicker 2002, S. 30). Dadurch ergibt sich ein natürlicher Ausleseprozess, der dazu führt, dass die nachfolgenden Generationen einer Art bevorzugt die Eigenschaften und Besonderheiten der jeweils aktuellen, gut angepassten Individuen einer Population erhalten. Gleichzeitig bilden die Gene eines Genpools ein harmonisches System, bei dem die Allele der verschiedenen Gene sorgfältig aufeinander abgestimmt sind. Stark disharmonische Kombinationen, die z.B. im Zuge von Mutationen auftreten, werden solange durch die Selektion „bestraft“ bis wieder ein harmonischer Zustand erreicht ist.44 43
44
Die relative Fitness F ergibt sich aus dem Verhältnis der Anzahl der Nachkommen von Individuen mit einem Genotyp G zur Anzahl der Nachkommen von Individuen, die derzeit mit dem „bestmöglichen“ Genotyp G* ausgestattet sind: F(G) = G / G*. Zum Formaldarwinismus und zur Berechnung der Fitness in unsicheren Umweltsituationen siehe auch die Beiträge von Grafen 1999, Real 1980 und Cohen 1966. Dies wird als Beleg dafür gewertet, dass viele Grundbaupläne der Organismen nach ihrer Festlegung nicht mehr grundsätzlich geändert werden können (Weicker 2002, S. 30). Die Änderung, die zu einem neuen harmonischen Zustand führt, ist um so schwie-
198
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
F 7HUPLQRORJLHYRQ(YROXWLRQlUHQ$OJRULWKPHQ($
Das Vokabular für Evolutionäre Algorithmen wurde aus der oben beschriebenen neo-darwinistischen Evolutionslehre entlehnt. Dabei werden vorzugsweise folgende Analogien verwendet (siehe Abb. 4-8). Eine potenzielle Lösung eines Optimierungsproblems, also ein Punkt im Suchraum, wird als Individuum in einer künstlichen Umwelt betrachtet, welches die Parameter für eine potenzielle Lösung in codierter Form erhält. Der Grad der Anpassung an diese gegebene Umwelt wird durch die Zielfunktion bestimmt. Die Koordinaten im Suchraum werden i.d.R. über das Genom des Individuums repräsentiert. Durch die Zusammenfassung von mehreren Individuen zu einer Population lassen sich die Mechanismen der natürlichen Evolution modellieren. Um die Überlebensfähigkeit eines Individuums zu bestimmen, wird eine Fitnessfunktion ILW\ verwendet, die jedem Individuum einen Wert zuordnet, der dessen Fähigkeit wiederspiegelt, das Problem zu lösen. Die Population stellt die augenblickliche Anzahl der möglichen Lösungen der Problemstellung dar. Die darin enthaltenen Individuen werden auch, in Anlehnung an die Natur, als Chromosomen bezeichnet. Für die Codierung eines Individuums wird ein aus Genen bestehender Bit-String mit i.d.R. fixer Länge verwendet. Jedes Gen kann einen Wert einer diskreten Wertemenge annehmen.45 Die jeweilige Ausprägung wird als Allel bezeichnet. G $UWHQYRQHYROXWLRQlUHQ2SWLPLHUXQJVDOJRULWKPHQ
Bei EAs werden die wesentlichen Mechanismen der natürlichen Evolution, nämlich Retention, Variation und Selektion, abstrahiert und modelliert. Ziel ist es, komplexe Problemstellungen mit großem Suchraum nach dem Vorbild des natürlichen Evolutionsprozesses zu lösen. Je nachdem, welcher der drei Mechanismen besonders hervorgehoben wird, lassen sich drei Hauptströmungen unterscheiden; sie imitieren/ modellieren das Evolutionsgeschehen auf unterschiedlichen Abstraktionsebenen (vgl. Sprave 1999, S. 10ff.).
45
riger, je komplexer der Grundbauplan des Organismus ist. Einmal im genetischen System etablierte Zusammenhänge sind nicht mehr umkehrbar, so dass die natürliche Evolution immer „Ballast“ aus früheren Anpassungen mit sich „herumschleppt“. Evolution verläuft in einer Einbahnstraße, wodurch das Erreichen einer jeweils optimalen Anpassung und damit maximalen Fitness (deutlich) erschwert wird. In der klassischen GA-Variante werden alle zu optimierenden Variablen in binärer Form codiert und zu einem binären String als Chromosom zusammengefasst. Nicht immer ist diese Art der Darstellung zweckmäßig und für das Optimierungsproblem ausreichend. Daher kommen auch Repräsentationen mit Alphabeten höherer Kardinalität vor (vgl. Gen/ Cheng 1997, S. 4).
4.3 Evolutionäre Algorithmen
199
Ausdruck in Biologie
Bedeutung bei EA
Individuum
Punkt im Suchraum als mögliche Lösung des Problems
Population (von Individuen)
Gesamtmenge von Punkten im Suchraum als mögliche Lösungen des Problems
Eltern
Menge von ausgewählten Lösungen, die zur Reproduktion herangezogen werden
Kinder
Aus den Eltern erzeugte Nachkommen als neue mögliche Lösungen des Problems
Crossover
Suchoperator, der Elemente verschiedener Individuen vermischt
Mutation
Suchoperator, der jeweils ein Individuum, also ein Chromosom, modifiziert
Fitness
Qualität der gefundenen Lösungen bezogen auf die relevanten Zielkriterien
Generation
Verfahrensiteration
Zusätzlich bei Genetischen Algorithmen Chromosom (bestehend aus Genen)
Darstellungsform einer vollständigen Lösung des Problems, üblicherweise als String
Gen
Bit
Allel
Ausprägung eines Bits (bei binärer Codierung: 0/ 1)
Genotyp
Codierte Lösung (String)
Phänotyp
Decodierte Lösung (Merkmalsausprägung)
Basis: Nissen 1997, S. 13
Abb. 4-8: Terminologie von Evolutionären Algorithmen
(1) *HQHWLVFKH $OJRULWKPHQ *$ , oder auch Genetische Programmierung (GP), sind computer-basierte Problemlösungsverfahren, die berechenbare Modelle von natürlichen, evolutionären Prozessen als Schlüsselelemente verwenden. Der Name „Genetischer Algorithmus“ geht auf JOHN H. HOLLAND (1975) zurück, der Ende der 1960er Jahre ein naturanaloges Adaptionsverfahren entwickelte, bei dem die Problemparameter analog zu den DNA-Sequenzen als Zeichenketten über ein endliches Alphabet – i.d.R. als Binärcode – codiert werden. Dieser Ansatz wurde u.a. von DAVID E. GOLDBERG (1989), Fogel (1992) und Michalewicz (1996) aufgegriffen und maßgeblich weiterentwickelt. GA und GP, die im Kern eine Form von GA mit spezifischen Lösungsrepräsentationen bilden (vgl. Nissen 1997, S. 237), betonen die genetischen Mechanismen auf der Abstraktionsebene des Chromosoms. Die wirtschaftswissenschaftlichen Aufsätze zu diesem Themenkreis beschäftigen sich mehrheitlich mit der Formulierung individueller und gesellschaftlicher Lernprozesse (vgl. Clemens/ Riechmann 1996, S. 10ff.). Als repräsentativ gelten die Modelle von (a) Arifovic (1994), die GAs zur Simulation des
200
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
adaptiven Verhaltens im Rahmen des Cobweb-Modells benutzt, (b) Birchenhall (1995), der GAs für eine differenzierte Analyse ökonomischen Verhaltens in einem Zwei-Sektoren-Modell einsetzt, und (c) Vriend (1995), der mithilfe von GAs die Selbstorganisation von Märkten analysiert. (2) (YROXWLRQVVWUDWHJLHQ(6 bilden das Evolutionsgeschehen nicht auf der genotypischen, sondern rein auf der phänotypischen Ebene ab. Ihre Entwicklung geht auf Rechenberg/ Schwefel (1965) zurück, die das Verfahren zur praktischen Optimierung im Rahmen von ingenieurwissenschaftlichen Anwendungen entwarfen. ES sind also im Gegensatz zu GA bzw. GP von Anfang an als Optimierungsmethoden konzipiert und eingesetzt worden. Die Hauptunterschiede bestehen in den Bereichen der Lösungsrepräsentation, der Selektion und Gestaltung sowie der Bedeutung der einzelnen Suchoperatoren (Rekombination und Mutation). Das Verfahren wird sowohl zur diskreten, experimentellen Optimierung (vgl. z.B. Klockgether/ Schwefel 1970) als auch zur reellwertigen, empirischen Parameteroptimierung eingesetzt. (3) (YROXWLRQlUH 3URJUDPPLHUXQJ (3 gilt als dritter, ebenfalls zunächst unabhängig entwickelter Zweig der Evolutionären Algorithmen. Das Verfahren geht auf Fogel/ Owens/ Walsh (1966) zurück und weist starke Ähnlichkeiten zu ES auf. Jedoch simuliert es die Evolution nicht auf der Ebene von Individuen, sondern auf der Ebene von Arten/ Populationen, so dass in den Modellen von EP keine Rekombination vorgesehen ist. Der Abstraktionsgrad nimmt folglich von GA über ES zu EP hin zu. Ursprünglich wurde EP als ein Verfahren zur Entwicklung endlicher Automaten mit vorgegebenem Ein-/ Ausgabeverhalten definiert. Zur reellwertigen Parameteroptimierung wurde es erst Anfang der 1990er Jahre weiterentwickelt (vgl. Fogel 1992). Während die Frühphase der Evolutionären Algorithmen vor allem durch disjunkte EA-Arten gekennzeichnet war, zeichnet sich heute eine zunehmende Vermischung der einzelnen Ansätze ab. Vor allem aufgrund der algorithmischen Ähnlichkeiten gibt es in zunehmendem Maße Bestrebungen, GA, GP, ES und EP unter dem gemeinsamen Namen Evolutionäre Algorithmen (EA – Evolutionary Algorithms) zusammenzufassen und das Forschungsgebiet als Evolutionäres Rechnen (EC – Evolutionary Computation) zu bezeichnen. Die Grundkonzeption von EAs soll im Weiteren anhand des Genetischen Algorithmus dargestellt werden, da er nach wie vor die mit Abstand bekannteste und am weitesten verbreitete EA-Form ist. Zuvor wird ein kurzer Überblick über die Bedeutung evolutionstheoretischer Ansätze in der BWL sowie ihre Anwendung im Rahmen von F&E gegeben. 4.3.2
Evolutionäre Ökonomik – Übertragung evolutionärer Prinzipien auf die Organisations- und Managementwissenschaften
Die 2UJDQLVDWLRQV XQG 0DQDJHPHQWZLVVHQVFKDIWHQ sind nur einer von vielen Bereichen, in denen in der Vergangenheit intensiv an einer systemimmanenten Übernahme evolutionärer Prinzipien geforscht worden ist (vgl. hierzu Kieser/ Woywode 2002, S. 253ff.). Den „wirklichen“ Durchbruch als Forschungsrichtung
4.3 Evolutionäre Algorithmen
201
erlangte die sog. Evolutorische Ökonomik46 mit den Veröffentlichungen „An Evolutionary Theory of Economic Change“ von RICHARD NELSON und SIDNEY WINTER im Jahr 1982 sowie der „Organizational Ecology Theory“ von MICHAEL T. HANNAN und JOHN FREEMAN im Jahr 1989. Seit dieser Zeit haben sich eine Reihe von Forschungsaktivitäten entfaltet, von denen vor allem die Innovationsund Institutionenökonomik nachhaltig beeinflusst worden sind. Der DNWXHOOH )RUVFKXQJVVWDQG im Bereich der populationsökologischen sowie evolutionsökonomischen Ansätze zeichnet sich vor allem durch eine starke Heterogenität aus. Im großen und ganzen lassen sich aber die folgenden fünf Ansätze/ Forschungsfelder differenzieren (vgl. u.a. Arpagaus 2002, S. 4ff.): •
Wachstum durch technischen/ technologischen Fortschritt (Innovationen)
•
Evolution von Marktstrukturen unter Beachtung von Pfadabhängigkeiten
•
Organisationsökologie – Organisationaler Wandel/ Change Management
•
Populationsökologie – Entwicklung/ Verbreitung von Organisationsformen
•
Evolution von ökonomischen Institutionen/ (Management-)Konzepten.
Sowohl die Übertragung von evolutionären Prinzipien auf die Gestaltung von Unternehmensprozessen als auch die Anwendung von Genetischen Algorithmen zur Produkt-/ Prozessverbesserung standen bis dato kaum im Interesse der Forschungsbemühungen. Vielmehr wurden theoretische Modelle zur (UNOlUXQJ XQG 3URJQRVH von betriebs- und volkswirtschaftlichen Sachverhalten aufgestellt; die Ableitung konkreter Gestaltungsempfehlungen als Technologien für die Unternehmenspraxis wurde allenfalls am Rande behandelt. Als Grund lässt sich u.a. der spezielle Blickwinkel der (YROXWRULVFKHQ gNRQRPLN auf die Unternehmenstätigkeit anführen. Wie Abb. 4-9 anhand von sechs Kriterien zeigt, unterscheiden sich die Grundannahmen gegenüber der .ODVVLVFKHQgNRQRPLN signifikant. Neben der Annahme begrenzt rational handelnder Akteure aufgrund unvollkommener Informationen über Zweck-Mittel-Beziehungen (6) wird davon ausgegangen, dass der Wandel/ die Veränderung von Organisationen nicht primär exogen, sondern endogen begründet ist (1). Weiterhin ist die Analyse durch eine dynamische Sichtweise geprägt, d.h. im Blickwinkel stehen die Veränderungsprozesse selbst; Ungleichgewicht ist der Regel-, nicht der Ausnahmefall (2). Im Zusammenhang mit der Problemlösungsfindung wird davon ausgegangen, dass die Fähigkeiten und Erwartungen der Akteure einer Population heterogen und 46
Nach Cantner/ Hanusch (1997, S. 778) befasst sich die Evolutorische Ökonomik „mit der Analyse von wirtschaftlichen Entwicklungen, die bedingt und gesteuert werden von den oft neuerungsorientierten Aktivitäten heterogener Akteure. Dies spielt sich zumeist in Situationen echter Unsicherheit ab. [...] Als notwendige Folge hiervon stellt sich die ökonomische Entwicklung als ein offener Prozeß dar, der oft pfadabhängig verläuft und in historischer Zeit zu sehen ist“.
202
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
normalverteilt sind (3). Dies führt dazu, dass individuelles und zielorientiertes Handeln zu unterschiedlichen Lösungen eines Problems führt respektive führen kann. In Abgrenzung zur klassischen Ökonomik werden Unternehmungen als dauerhafte ökonomische Institution mit eigener Kultur und verschiedenen Akteure betrachtet (4) (vgl. Cantner/ Hanusch 1997, S. 778ff.). Im Vordergrund der evolutionstheoretischen Erklärungsansätze steht das organische Wachstum von Organisationen mit dem Ziel, die Überlebenswahrscheinlichkeit zu erhöhen (5). Da Unternehmungen/ Organisationen von den Individuen inszeniert und konstruiert werden, z.B. Unternehmer gründen kleine/ große Firmen; Manager (re-)strukturieren Organisationen, spielt das kreative/ schöpferische Element – in Abgrenzung zu Lebewesen – eine größere Rolle. Kriterien
Evolutorische Ökonomik
(UNOlUXQJYRQ :DQGHO
(QGRJHQEHJUQGHW
([RJHQEHJUQGHW
Klassische Ökonomik
)RNXVGHU$QD O\VH
(QWZLFNHOQGH3UR]HVVH
(QWVWHKHQGH*OHLFKJHZLFKWH
%HVFKUHLEXQJ GHU$NWHXUH
+HWHURJHQH,QGLYLGXHQ
+RPRJHQH,QGLYLGXHQ
%HVFKUHLEXQJ GHU 8QWHUQHK PXQJ
Nelson/ Winter 1982 8QWHUQHKPXQJDOV GDXHUKDI WH |NRQRPLVFKH,QVWLWXWLRQ PLWHLJHQHU.XOWXUXQGYHU VFKLHGHQHQ $NWHXUH
Coase 1937 8QWHUQHKPXQJDOV(UVDW]IU GHQ0DUNWPHFKDQLVPXV Williamson 1975 7UDQVDNWLRQVNRVWHQRSWLPXP
(QWZLFNOXQJG 2UJDQLVDWLRQ
2UJDQLVFKHV:DFKVWXP $QDO\VHYRQ5RXWLQHQ
*HZLQQPD[LPLHUXQJ 0D[LPLHUXQJVPRGHOOH
$QQDKPHIU 9HUKDOWHQ
%HJUHQ]WH5DWLRQDOLWlW Æ +RPR FUHDWLYXV
9ROONRPPHQH5DWLRQDOLWlW Æ +RPRRHFRQRPLFXV
Quelle: Arpagaus 2002, S. 4ff.
Abb. 4-9: Vergleich von Evolutorischer und Klassischer Ökonomik
Eine besondere Bedeutung besitzen die (organisationalen) 5RXWLQHQ, welche als regelmäßige und vorhersehbare Verhaltensmuster die kurzfristige Handlungsfähigkeit der Organisation sicherstellen (vgl. Douma/ Schreuder 2002, S. 233). In Analogie zur Biologie steht die Unternehmung als ökonomische Institution für den Phänotyp, während Routinen den ihnen zugrundeliegenden Genotyp kennzeichnen. Je nach Erkenntnisinteresse des Forschers werden unter Routinen sowohl Kompetenzen (Comps) als auch Fähigkeiten (Skills) verstanden. Die Fähigkeit eines Unternehmens besteht bspw. darin, Six Sigma-Projekte mit der Routine des DMAIC-Zyklus erfolgreich durchzuführen. Neben Populationen bilden Routinen damit eine weitere wichtige Analyseeinheit evolutionstheoretischer Konzepte. Die Anzahl der Untersuchungen zu diesem Thema hat in der jüngsten Vergangenheit deutlich zugenommen (vgl. z.B. Burgelman 1990/ 91).
4.3 Evolutionäre Algorithmen
203
Nach Nelson/ Winter (1982, S. 14ff.) ändern sich Routinen im Laufe der Zeit, wenn (a) neue Problemlösungsprozesse entstehen und/ oder (b) zufällige Ereignisse, z.B. Entdeckungen, auftreten.47 Damit unterliegen Routinen einem generellen Veränderungs- und Anpassungsprozess. Dieser umfasst auf der einen Seite die kontinuierliche Erweiterung/ Akkumulation von Elementen über die Zeit. Auf der anderen Seite kann es aber auch zu einem schlagartigen Wandel von Routinen kommen, z.B. durch das Auftreten von Mutationen. Neben Variationsprozessen stehen bei den evolutionstheoretischen Ansätzen der Organisations- und Managementwissenschaften vor allem Selektions-, Adaptions- und Retentionsprozesse im Fokus der Analyse (siehe Abb. 4-10). Die Aussagen der synthetischen Evolutionstheorie der Biologie zu den einzelnen Prozessen werden dabei – in Form von Analogieschlüssen – auf sozio-ökonomische Fragestellungen übertragen.
6HOHNWLRQ $XVOHVH
9DULDWLRQ 0XWDWLRQ
$GDSWLRQ $QSDVVXQJ
5HWHQWLRQ 9HUHUEXQJ
Quelle: Nelson/ Winter (1982) über Arpagaus (2002)
Abb. 4-10: Das Forschungsprogramm der Evolutorischen Ökonomik
9DULDWLRQ
Das Auftreten von gewollten und/ oder ungewollten Variationen (Mutationen) führt zu einer %HUHLFKHUXQJGHVEHVWHKHQGHQ*HQSRROV.48 Den Ausgangspunkt für einen Evolutionszyklus in Organisationen bildet das Auftreten von Innovationen. Diese beziehen sich sowohl auf die Veränderung von bestehenden als auch die
47
48
In einem späteren Beitrag betont Winter (2003, S. 991), dass Routinen nicht nur wiederholungsfähige, sondern auch gelernte und spezifisch ausgerichtete Verhaltensmuster in Organisationen sind. Gleichzeitig weist er nachdrücklich darauf hin, dass sich Routinen nicht auf alles und jedes in Organisationen beziehen; so gehören z.B. brilliante Improvisationen gerade nicht zu Routinen. Genau wie in der Natur ist davon auszugehen, dass Mutationen eher zu einer Verschlechterung als zu einer Verbesserung der Unternehmensperformance i.S.v. „Fitness“ führen. Konkret bedeutet dies, dass die Wahrscheinlichkeit sehr gering ist, dass durch zufällige Veränderungen der Einstellungen im Prozess, z.B. an einer Maschine, ein qualitativ gleich- oder gar höherwertiges Endprodukt liefert.
204
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
Entwicklung von ganz neuen Routinen. Die Entstehung neuer Routinen lässt sich in vielen Fällen auf einen verstärkten Wettbewerbsdruck zurückführen, der in einer bestimmten Branche Platz greift. So ist z.B. die Qualitätsphilosophie TQM das Ergebnis der „2. Revolution in der Automobilindustrie“ in den USA und Europa Ende der 1980er Jahre (vgl. Womack et al. 1994). Zum Vorgehen beim „Change Management“ in der Praxis ist festzuhalten, dass sich organisationale Routinen jeweils nur in kleinen Schritten wandeln (lassen). Dies geschieht dadurch, dass die Akteure jeweils lokal nach Lösungen/ Verbesserungen suchen, d.h. sie starten bei ihrer Lösungssuche so nah wie möglich bei der bestehenden Routine. Die Suche selbst unterliegt einer Wahrscheinlichkeitsverteilung, die besagt, dass mit steigendem Einsatz/ höheren Investitionsaufwendungen eine überlegene Technologie – durch Innovation oder Imitation – tatsächlich gefunden wird (vgl. Douma/ Schreuder 2002, S. 233). Im Fall von 6L[6LJPD begann die Suche nach einem neuen Verbesserungsalgorithmus beim PDCA-Zyklus. Um die Qualitätsbemühungen bei Motorola stärker auf Prozesse und Kunden auszurichten, wurde der Zyklus sukzessive verändert bis mit dem DMAIC-Zyklus eine verbesserte Routine vorlag. Zur Penetration des 5-phasigen Zyklus im Unternehmen wurde ein umfassendes Managementkonzept konzipiert. 6HOHNWLRQ
Wie kaum eine andere Organisationstheorie schreibt der evolutionstheoretische Ansatz der umweltbezogenen Selektion eine herausragende Bedeutung bei der %HJUQGXQJ VSH]LILVFKHU (QWZLFNOXQJVSIDGH, auch genannt Trajektorien, zu (vgl. Dosi 1982, S. 332f.). So werden nach Auffassung der Evolutionstheoretiker nicht nur ganze Organisationen, sondern auch bestimmte Konzepte durch die Umwelt, d.h. durch die situativen Gegebenheiten auf dem Markt und/ oder in der Branche, selektiert (vgl. u.a. Aldrich/ Müller 1982, S. 33ff.). Dadurch kommt es zu einer gerichteten Änderung der Zusammensetzung des Genpools in einer Population. Insbesondere werden Routinen, die sich bei der Bewältigung der unternehmensbezogenen Herausforderungen bewährt haben, ausgelesen und als Kopiervorlage für andere Unternehmen/ Bereiche „zugelassen“. Genau wie in der Natur wird so gewährleistet, dass die Unternehmen, die mit den besten Routinen ausgestattet sind bzw. diese übernehmen, im Wettbewerb überleben. Aufgrund des Selektionsmechanismus sind die Unternehmen angehalten, sich relativ schnell und gut an neue Markt-/ Umweltsituationen – z.B. durch den Aufbau und/ oder die Übernahme geeigneter Routinen – anzupassen. Dieser Forderung können viele Unternehmen nur bedingt nachkommen, da sie über eine ausgesprochen hohe RUJDQLVDWLRQDOH 7UlJKHLW verfügen; im Hinblick auf Änderungen ihrer Umwelt können sie nur relativ langsam bzw. schwerfällig (re-)agieren. Hannan/ Freeman (1984) weisen in diesem Zusammenhang darauf hin, dass die Reaktionen/ Veränderungen von Organisationen in vielen Fällen unregelmäßig, verspätet und teilweise erfolglos stattfinden. Im Gegensatz zu vielen populärwissen-
4.3 Evolutionäre Algorithmen
205
schaftlichen Aufsätzen sind sie jedoch der Auffassung, dass jede Art von Selektionsdruck genau die Organisationen favorisiert, die relativ träge sind.49 $GDSWLRQ
Die positive Veränderung des Genotyps eines Individuums führt zu einer höheren Fitness und damit verbesserten Anpassung an die herrschenden Umweltbedingungen. Bei Unternehmen wird durch günstige Veränderungen der organisationalen Routinen eine (UK|KXQJ GHU :HWWEHZHUEVIlKLJNHLW erreicht. In Abhängigkeit von den Marktbedingungen kann eine hohe Wettbewerbsfähigkeit geringe Herstellkosten, hohe Produktqualität oder beides implizieren. So sind Unternehmen, die auf hoch kompetitiven Märkten agieren, i.A. bestrebt, qualitativ hochwertige Produkte zu relativ niedrigen Kosten herzustellen (Outpacing). Um dieses Ziel zu erreichen, werden von den Unternehmen Verbesserungsprogramme, z.B. Six Sigma, initiiert. Dabei wird die bisherige Vorgehensweise der Lösungssuche infrage gestellt und durch eine neue organisationale Routine ersetzt. Infolge der Veränderung des Genotyps kommt es nach und nach auch zu einer Adaption des Phänotyps, also einer Veränderung des Unternehmens auf der Merkmalsebene.50 Aus Erfahrungen ist bekannt, dass die Anpassung von Organisationen an neue Herausforderungen nicht sofort und unmittelbar erfolgt. In vielen Fällen können sie sich sogar nur begrenzt auf die sich verändernden Markt-/ Umweltbedingungen einstellen. Nach dem SRSXODWLRQV|NRORJLVFKHQ 0RGHOO von Hannan/ Freeman (1984/ 89) ist die Trägheit von Organisationen (Organisational inertia) der ausschlaggebende Faktor hierfür.51 Sie ist das Resultat verschiedener Faktoren, z.B. Widerstände von einflussreichen Akteuren/ Stakeholder gegen radikale strukturale Organisationsveränderungen sowie Legitimation des Bestehenden und Diskrimination des Anderen aufgrund bestehender Normen und Werte. Nach dem HYROXWL RQVWKHRUHWLVFKHQ 0RGHOO von Nelson/ Winter (1982) wirken Routinen als organisatorisches Gedächtnis und erklären, warum Organisationen relativ resistent gegenüber Veränderungen und infolgedessen relativ träge sind. So halten viele Unternehmen, die Six Sigma einmal unternehmensweit implementiert haben, an den Problemlösungszyklen DMAIC und DMADV lange Zeit fest. 49
50
51
Unter der Voraussetzung, dass RUJDQLVDWLRQDOH 7UlJKHLW eher förderlich als hinderlich ist, stellt sich auch die Bedeutung und Zielsetzung von Managementkonzepten in einem anderen Licht dar. Als Effizienzkriterien zur Beurteilung sind die Reproduzierbarkeit (Reproducibility), die Zuverlässigkeit (Reliability) und die Berechenbarkeit (Accountability) der jeweiligen Routinen heranzuziehen (vgl. Hannan/ Freeman 1984). Bei Six Sigma-Unternehmen wird diese Veränderung z.B. an der Projektorganisation mit genau spezifizierten Rollen wie Green Belts und Black Belts sichtbar. Im Wettbewerb äußert sich Six Sigma in einer besseren „Passung“ i.S.v. „Fit“ der Produkte hinsichtlich der Erfüllung der wesentlichen Kundenanforderungen. Eine hohe organisationale Trägheit ist besonders dann wünschenswert, wenn die Prozesse im Unternehmen effizient sind und sich die Marktbedingungen kaum ändern. Reproduzierbare, zuverlässige und berechenbare Routinen gelten in diesem Fall als zielführend (vgl. Aldrich 1999, S.59).
206
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
5HWHQWLRQ
Die Routinen respektive Organisationsformen/ -strukturen, die nach der Selektion als (besonders) effizient hervorgegangen sind, sollen nach Möglichkeit bewahrt bleiben. Lebewesen besitzen die Fähigkeit der Selbstreplikaktion und/ oder sind in der Lage, ihre Gene durch Paarung von einer Generation zur nächsten zu vererben. Organisationen besitzen diese Möglichkeit(en) nicht. Sie können lediglich Strukturen, Konzepte und Abläufe von anderen kopieren bzw. imitieren. McKelvey/ Aldrich (1983, S. 113) haben in Analogiebetrachtung zum relativen Reproduktionserfolg erfolgreicher genetischer Merkmale GUHL +\SRWKHVHQ zur Verbreitung, Erfolgswahrscheinlichkeit und Nachahmung von organisationalen Routinen aufgestellt. Der wirtschaftliche Erfolg einer Unternehmung wird dabei jeweils als notwendige Bedingung (Antecedens-Bedingung) erachtet. Das Six Sigma-Konzept beinhaltet – aus evolutionstheoretischer Perspektive – mit DMAIC- und DMADV-Zyklus gleich zwei organisationale Routinen, für welche die oben angesprochenen Hypothesen von McKelvey/ Aldrich zutreffen: •
5RXWLQHQ6NLOOV &RPSV erfolgreicher Unternehmen verbreiten sich schneller als die weniger erfolgreicher.
•
(UIROJVYHUPLWWHOQGH :LVVHQVHOHPHQWH (IIHNWLYH 6NLOOV &RPSV finden sich eher in erfolgreichen Unternehmen.
•
5RXWLQHQ 6NLOOV &RPSV erfolgreicher Unternehmen werden mit höherer Wahrscheinlichkeit kopiert als die weniger erfolgreicher.
Auf der Populationsebene führt dies zu folgenden ,PSOLNDWLRQHQ (vgl. Kieser/ Woywode 2002, S. 259): (a) Unternehmen ohne effektive Skills & Comps unterliegen im Konkurrenzkampf und werden mittel- oder langfristig vom Markt eliminiert (Struggle for existence). Hingegen können Unternehmen, die im Besitz effektiver Routinen sind, überleben und wachsen, d.h. ihren Marktanteil vergrößern. (b) Die Unternehmen einer Population werden langfristig immer ähnlicher (Isomorphie), da sie jeweils die (gleichen) Routinen von den erfolgreichen Akteuren übernehmen. Gleichzeitig führen interaktive Prozesse zwischen Population und Umwelt zur Herausbildung von Nischen. Im Fall von Six Sigma wurden die Six Sigma-Verbesserungszyklen (DMAIC, DMADV) von erfolgreichen Unternehmen (Motorola, General Electric) entwickelt und eingeführt; sie fanden dadurch in den 1990er Jahren sehr schnell Verbreitung – global und branchenübergreifend. Im Zuge des Übernahmeprozesses kam es zur Herausbildung ähnlicher Aufbau- und Ablaufstrukturen des Six Sigma-Projektmanagements.
4.3 Evolutionäre Algorithmen
4.3.3
207
Evolutionary Design – Anwendung evolutionärer Algorithmen in der Forschung & Entwicklung
In der IT-gestützten Produktentwicklung werden die Ansätze bzw. Algorithmen, die auf evolutionstheoretischen Überlegungen basieren, i.d.R. unter dem Begriff „Evolutionary Design“ (ED) subsumiert (vgl. hierzu und im Folgenden Bentley 1999, S. 1ff.). ED wird gemeinhin als Untermenge von Evolutionary Computation verstanden, welches an der Schnittstelle von Biologie und Informatik steht.52 Anwender- und Berufsgruppen, die in diesem „Grenzbereich“ tätig sind und – direkt oder indirekt – von einer Anwendung von ED profitieren, sind vielfältig: •
,QJHQLHXUH, die nach evolutionärem Vorbild Bauteile und Komponenten optimieren,
•
$UFKLWHNWHQ, die alternative Konzepte für ein neu zu errichtendes Gebäude entwickeln,
•
.QVWOHU, welche die Evolution nutzen, um ästhetisch ansprechende Formen zu entwerfen, und
•
%LR ,QIRUPDWLNHU, die sinnhafte Morphologien für künstliche Lebensformen erstellen.
Verstehen wir Produktentwicklung i.w.S., dann ergeben sich ganz unterschiedliche Anwendungs- und Forschungsfelder im Rahmen von (YROXWLRQDU\ 'HVLJQ (siehe Abb. 4-11). Eine interdisziplinäre Zusammenarbeit und ein grenzüberschreitender Erfahrungsaustausch sind heute aber eher die Ausnahmen als die Regel. Je nach Problem- und Zielsetzung findet man sich in einem der vier Felder wieder. Die wesentlichen Charakteristika werden im Folgenden kurz beschrieben. Besonderes Augenmerk wird dabei auf die zwei Felder (a) Evolutionary Design Optimisation (EDO) und (b) Creative Evolutionary Design (CED) gelegt. Sie stehen im Fokus der weiteren Arbeit und bilden die Basis für die Ableitung eines effektiven Vorgehensmodells für Design for Six Sigma in Unterkapitel 5.2. D (YROXWLRQDU\'HVLJQ2SWLPLVDWLRQ('2
Die Optimierung von bestehenden Designs53 gehört zu den originären Einsatzfeldern von EAs im F&E-Bereich. In den vergangenen 20 Jahren sind eine Vielzahl 52
53
Eine genaue Definition und Abgrenzung von Evolutionary Design findet sich auch bei Kryssanov et al. (2005, S. 4). Sie klassifizieren ED als relativ neues Paradigma im Rahmen von Computer Aided Design (CAD), welches die jüngsten Entwicklungen im Bereich Design aufgreift, z.B. Sustainable Design, Design for X und Green Design. Im Vordergrund stehen jeweils die sozialen, evolutionären und fehler-basierten Aspekte der Produktentwicklung in einem dynamischen Marktumfeld. Einen Überblick über Problemstellungen, die sich vor allem im ingenieurwissenschaftlichen Bereich mithilfe von GAs gut lösen lassen, bieten Gen/ Cheng 1997. Aktuelle Beispiele für die Anwendung von EAs im ingenieurtechnischen Bereich unter Einsatz von aufwändiger Rechentechnik zeigt Marks 2007.
208
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
von Anwendungsfällen bekannt geworden, insb. im Flugzeugbau (vgl. z.B. Eby et al. 1997; Husbands et al. 1996). Die W\SLVFKH9RUJHKHQVZHLVH ist dabei wie folgt: Zunächst werden die Parameter des Produktdesigns bestimmt, die verbesserungswürdig erscheinen. Ihre Ausprägungen werden anschließend in Form von Allelen einzelner Gene codiert. Nach der Spezifikation des Suchraums wird eine Zufallsauswahl von Lösungskandidaten erstellt und damit der evolutionäre Lösungsalgorithmus gestartet. Die Bewertung der Designs erfolgt meistens mit spezieller Analysesoftware, welche die Zielfunktion als bekannt voraussetzen.54
(d) Evolutionary Artificial Life-Forms (EAL)
$XIILQGHQ GHURSWLPDOHQ /|VXQJ
(a) Evolutionary Design Optimisation (EDO) Fokus: (QWZLFNOXQJHLQHV HIIHNWLYHQ9RUJHKHQV PRGHOOV IU')66
Zielsetzung *HQHULHUHQ YRQDOWHUQDWLYHQ /|VXQJHQ
(c) Evolutionary Art (EArt)
%HDUEHLWHQEHUJHRUGQH WHUlVWKHWLVFKHU)UDJHQ Basis: Bentley 1999, S. 2
(b) Creative Evolutionary Design (CED)
/|VHQZLUWVFKDIWOLFK WHFKQLVFKHU3UREOHPH
Problemstellung
Abb. 4-11: Die vier Felder des Evolutionary Design (ED)
Die 5HSUlVHQWDWLRQHQ der gefundenen Lösungen auf der Phänotypebene sind bei diesem Ansatz anwendungsspezifisch, d.h. sie basieren auf den Designs existierender Modelle. Zwischen Phäno- und Genotypebene besteht ein unmittelbarer Zusammenhang. Auf eine künstliche embryonale Entwicklung, bei welcher der Übergang vom Geno- zum Phänotyp schrittweise erfolgt, wird mehrheitlich verzichtet. Dies führt dazu, dass aus den Genen mehr oder weniger direkt die Ausprägung der einzelnen Parameter abgelesen werden kann.
54
Z.B. beschreiben Eby et al. 1997 die Optimierung der Tragflächen von Flugzeugen auf der Basis eines GAs. Die Fitness-Werte der einzelnen Lösungskandidaten, die sich vor allem nach dem maximal erzielten Auftrieb als Zielgröße richten, werden mithilfe eines Finite Elemente Modells (FEM) bestimmt.
4.3 Evolutionäre Algorithmen
209
Die 9HUlQGHUXQJ GHV *HQ&RGHV i.S.v. Verkürzung oder Verlängerung des BitStrings als Reaktion auf sich verändernde Rahmenbedingungen ist bei den EAs, die dem Anwendungsgebiet EDO zugehören, nicht vorgesehen. Vielmehr wird auf das Ziel fokussiert, bei konstant angenommenen Bedingungen möglichst nahe an das globale Optimum zu kommen. Auf die Details des zugrunde liegenden Algorithmus wird im folgenden Abschnitt näher eingegangen. Von den Anwendern wird es als Herausforderung angesehen, Produkte, die nach allgemeiner Auffassung bereits von „guter Qualität“ sind, (noch) weiter zu verbessern. Dabei wird bei der Programmierung der GAs bzw. EAs insbesondere darauf geachtet, dass die Lösungskandidaten in der Population nicht zu schnell konvergieren. Dadurch soll vermieden werden, dass anstelle des globalen Optimums ein lokales Optimum detektiert wird. Dieses Vorgehen hat den Nachteil, dass i.d.R. UHODWLYYLHOH%HZHUWXQJHQ vorgenommen werden müssen bis eine akzeptable Endlösung gefunden ist. Aktuelle Forschungsbemühungen gehen deshalb dahin, die Anzahl notwendiger Bewertungszyklen mit geeigneten Analysetools und intelligenter Softwareunterstützung zu reduzieren. Dabei werden u.a. multiple Repräsentationen von Lösungskandidaten auf Genotypebene sowie der Einsatz komplexer GA-Typen (sog. hybride GAs) als Lösungsansätze diskutiert. E &UHDWLYH(YROXWLRQDU\'HVLJQ&('
Nach Gero/ Kazakov 1996 geht es in diesem Forschungsfeld vor allem um das Auffinden von überraschenden bzw. innovativen Lösungen, die qualitativ besser sind als alle bisher gefundenen. Dabei wird der Tatsache Rechnung getragen, dass ein Designproblem umso stärker nach einer NUHDWLYHQ/|VXQJ verlangt, je weniger über die bestehenden Zusammenhänge zwischen Kundenanforderungen und Erfüllung derselbigen bekannt ist (vgl. Rosenman 1997, S. 69). Wann ein Produktdesign als „kreativ“ gilt, unterliegt in erster Linie der subjektiven Beurteilung des Betrachters respektive des (potenziellen) Benutzers. Gero (1996, S. 11ff.) unterscheidet in diesem Zusammenhang zwischen einer NRJQLWLYHQ und einer JHVHOOVFKDIWOLFK EHJUQGHWHQ .UHDWLYLWlW. Im erstgenannten Fall handelt es sich um Individuen, die nach eigener Einschätzung kreativ sind, wenn sie Probleme lösen und dabei etwas neues entwickeln. Im zweitgenannten Fall werden von Individuen Designvorschläge erarbeitet, die bestimmte Charakteristiken tragen und von der Mehrheit der Befragten in einer Gruppe als kreativ empfunden werden. Kreativität oder nicht ist folglich sowohl eine Frage des Prozesses als auch des Ergebnisses; beides findet sich in CED wieder. Bei der Lösung schwieriger Probleme ist der Einsatz von fortschrittlicher Rechentechnik i.A. unverzichtbar. Computer arbeiten nach Gero et al. kreativ, wenn sie interessante Lösungen außerhalb des ursprünglich festgelegten Suchraums finden. Dazu müssen sie in der Lage sein, die Anzahl von Entscheidungsvariablen, einschließlich der möglichen Ausprägungen, eigenständig, d.h. ohne Eingriff von außen, zu erhöhen. In „The creative mind“ kommt Boden (1992) zu dem Schluss, dass Computer genau zu dieser Leistung nicht fähig sind und ihnen deshalb keine
210
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
bzw. eine deutlich geringere Kreativität als Menschen zugesprochen werden kann. Lösungskandidaten, die in der Anlage/ Repräsentation des GAs nicht vorgesehen sind, können nicht ohne Weiteres im Computer erzeugt werden. Neuere Entwicklungen auf dem Gebiet des CED gehen deshalb dahin, GAs so zu programmieren, dass ihr *HQ&RGH IOH[LEHO auf die jeweilige Situation anpassbar ist. Im Anfangsstadium wird der Suchraum relativ klein gehalten. Nur wenige Parameter werden in den ersten Runden variiert und bei der Lösungssuche berücksichtigt. Sobald das System an Grenzen stößt, werden neue Entscheidungsvariablen eingeführt und/ oder der Definitionsbereich der bereits vorhandenen Parameter erhöht. Wie verschiedene Anwendungsbeispiele zeigen, können durch dieses Vorgehen neue, innovative Lösungen, die den bisherigen z.T. deutlich überlegen sind, gefunden werden (vgl. z.B. Bentley/ Wakefield 1997). In Abhängigkeit von der gewählten Abstraktionsstufe und damit Darstellung der ermittelten Lösungen können die folgenden zwei Forschungsansätze im Rahmen von CED unterschieden werden: (a) &RQFHSWXDO (YROXWLRQDU\ 'HVLJQ, bei dem versucht wird, auf der Grundlage von EAs Produktdesigns bzw. Designkonzepte auf „hoher Ebene” zu generieren, und (b) *HQHUDWLYH (YROXWLRQDU\ 'HVLJQ, bei demfertige, d.h. unmittelbar umsetzbare Designkonzepte erzeugt werden.55 F (YROXWLRQDU\$UW($UW
Evolutionäre Kunst ist wahrscheinlich das am stärksten kommerzialisierte Feld im Rahmen von ED. In keinem anderen Feld gibt es heute so viele Anwendungsbeispiele/ -programme (vgl. Bentley 1999, S. 5). Die Anforderungen an die Programmierung sind – insbesondere im Vergleich zu den Algorithmen der anderen drei Felder – (sehr) gering. Neue Formen oder Bilder werden ausgehend von einer Zufallsauswahl schrittweise erzeugt, d.h. „gezüchtet“. Die Evaluation erfolgt per Hand, d.h. die Fitness-Werte werden entsprechend der ästhetischen Anmutung der Objekte jeweils von Menschen vergeben. Die Populationsgröße ist üblicherweise relativ klein; eine Population enthält häufig nicht mehr als 10 Individuen. Dadurch soll zum einen eine Überforderung der Befragten vermieden werden. Zum anderen wird ein schnelles Voranschreiten gewährleistet; gute Lösungen werden in relativ kurzer Zeit selektiert. Analog zu CED gibt es im Feld EArt eine große Vielzahl von Ansätzen, Lösungen zu entwickeln und in geeigneter Weise darzustellen. Auf der Phänotypebene reichen sie von einfachen Farbausdrucken mit Textbausteinen bis zu komplizierten geometrischen 3D-Figuren (vgl. z.B. Todd/ Latham 1992; Dawkin 1986/ 89). Bei der Entwicklung der Lösungsmuster sind häufig feste Strukturen vorgegeben. Flexible Änderungen des Gen-Codes, wie sie bei den Algorithmen von CED ein55
Bentley (1999, S. 420f.) zeigt die konkrete Anwendung des Software-Tools GADES zur Layoutplanung von Krankenhäusern. Im Beispiel wird ein komplettes Design für eine Klinik mit 17 Abteilungen entworfen, die sich über vier Stockwerke verteilen.
4.3 Evolutionäre Algorithmen
211
gebaut sind, um möglichst viel Kreativität zu erzeugen, kommen eher selten vor. Das Computerprogramm arbeitet vielmehr mit einem vorgegebenen Set von Formen und Farben sowie einer überschaubaren Anzahl von Konstruktionsregeln.56 Aufgrund der Tatsache, dass der Mensch als Künstler die erzeugten Designs PD QXHOOVHOHNWLHUW, sind die verwendeten EAs im Feld EArt nicht komplex. Auf eine systematische Rekombination der Lösungsmerkmale wird i.A. verzichtet. Die Evolution verläuft in erster Linie mutationsgetrieben. Jede Kindergeneration geht aus zufällig veränderten Kopien der Eltern hervor. Dieses Vorgehen hat sich besonders in Situationen bewährt, in denen Lösungen für Probleme zu finden sind, die einer sich VWlQGLJ lQGHUQGHQ )LWQHVVIXQNWLRQ unterliegen. Dies ist im vorliegenden Fall gegeben, da Künstler dazu tendieren, ihre Meinung über wünschenswerte Eigenschaften des Zielobjektes von Zeit zu Zeit zu ändern. Die intersubjektive Nachvollziehbarkeit der Bewertungen gestaltet sich aber nicht nur aus diesem Grund schwierig. Oftmals resultieren Inkonsistenzen in der Fitnessfunktion einfach aus dem Faktum, dass sich über Geschmack bekanntlich streiten lässt. G (YROXWLRQDU\$UWLILFLDO/LIH)RUPV($/
Die Nachfrage nach künstlichen Intelligenzen, z.B. in Form von Künstlich Neuronalen Netzen (KNN), zur Lösung komplexer Probleme ist nach wie vor groß. Genetische Algorithmen und Evolutionäre Suchstrategien sind in diesem Zusammenhang bewährte Techniken, um z.B. die Funktionsweise des Gehirns im Computer nachzubilden. Gleichzeitig stellt sich die Frage, wie Lebewesen bzw. Teile von selbigen – quasi von Nichts – künstlich erzeugt werden können. Antworten auf diese Frage geben verschiedene Untersuchungen, die im Feld EAL anzusiedeln sind. Um die Entwicklung künstlicher Lebensformen (AL) geht es u.a. bei Lohn/ Reggia´s Zellautomaten (1995), der die Möglichkeit der Selbstreplikation besitzt, Harvey´s Layout und Struktur von Neuronen (1997), die mithilfe von EAs erzeugt werden, sowie Dawkin´s und Sim´s Pflanzen- bzw. Tier-analoge Morphologien (1989/ 1994). Die 0RWLYDWLRQ für die Generierung von ALs ist primär theoretischer Natur. Es wird häufig eines der drei Ziele verfolgt: •
Erforschung der Mechanismen der natürlichen Evolution
•
Erklärung der Lebensformen, die in der Natur vorkommen
•
Ausnutzung/ Übertragung v. Lösungen, die sich in der Natur bewährt haben.
56
Infolgedessen sind die Lösungen, die sich in der Endpopulation befinden, meistens sehr ähnlich und enthalten die gleichen, im Gen-Code verankerten Stilelemente. Dies ist insofern problematisch, da es bei der künstlerischen Arbeit eher auf die Generierung von neuen, außergewöhnlichen Objekten als auf die (inkrementelle) Verbesserung eines bereits vorhandenen „Kunstwerkes“ ankommt. Die Konvergenz der Lösungskandidaten im Laufe der Evolution ist nicht im Sinne des Künstlers bzw. Programmierers.
212
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
Obwohl das Feld EAL das mit Abstand größte Entwicklungspotenzial besitzt, sind die praktischen Anwendungen bis dato eher spärlich. Die Repräsentationen der Lösungen sind oftmals systemspezifisch. Lohn/ Reggia (1995) nutzen z.B. Regeltafeln innerhalb der Chromosomen ihres GAs, während Sims auf hierarchisch aufgebaute Chromosomen-Strukturen setzt, um „Körper“ und „Kopf“ der ALs darzustellen. Nahezu alle Forscher in diesem Feld sind bestrebt, die GenotypStruktur von natürlichen Lebewesen problemadäquat nachzuempfinden.57 Ähnlich wie bei EArt besitzen die Algorithmen, die im Rahmen von EAL zum Einsatz kommen, einen überwiegend H[SORUDWLYHQ &KDUDNWHU. Die erzeugten ALs werden in simulierten Welten evaluiert, wobei die Fitnessfunktion nicht zwangsläufig konstant ist. Um den Evolutionszyklus zu verkürzen, werden unterschiedliche Strategien angewendet, z.B. Einsatz von parallelen und hybriden GAs. Im Anfangsstadium wird meistens von einer zufällig erzeugten Population ausgegangen. Ziel ist es, nach möglichst wenigen Optimierungsrunden das beste bzw. „fitteste“ Individuum zu erhalten. Dieses Ziel wird auch bei der Ableitung eines entsprechenden Vorgehensmodells für DFSS verfolgt (vgl. Abschnitt 5.2.1). 4.3.4
Grundkonzeption und Programmierung von Genetischen Algorithmen am Beispiel
D *$%DVLVDOJRULWKPXV
Alle unter Abschnitt 4.3.1 genannten EAs basieren auf dem folgenden Basisalgorithmus, der in Abb. 4-12 aufgelistet ist (vgl. Feltl 2003, S. 29; Michalewicz/ Fogel 2000, S. 151; Sprave 1999, S. 11; Gen/ Cheng 1997, S. 2). Als genetische Operationen gelten die Operatoren Rekombination und Mutation; sie sind nur bei GAs vorzufinden. Evolutionäre Operationen werden durch die Operatoren Evaluierung und Selektion repräsentiert; sie sind allen EAs – als übergeordneter Gruppe – zu eigen. Unabhängig von der Art des Algorithmus können Informationen aus dem Problemumfeld direkt in den Lösungsweg einfließen. In diesem Fall handelt es sich um +HXULVWLF VWUDWHJLHV, im Gegensatz zu %OLQG VWUDWHJLHV, wenn kein Vorwissen vorliegt (vgl. Gen/ Cheng 1997, S. 4, 42, 97). Weiterhin besteht die Möglichkeit, GAs bzw. EAs für unterschiedliche Suchzwecke zu verwenden: (a) Auffinden des globalen Optimums, wobei die vorgegebenen Suchraumgrenzen zu berücksichtigen sind, und (b) Erkunden des unbekannten Suchraums, um neue, alternative Lösungen zu finden. Fortschrittliche GAs verbinden beide Zwecke auf ideale Weise, so dass sich mit ihnen folgende zwei Arten von Optimierungsproblemen effizient lösen lassen: (a) &RQVWUDLQHG 2SWLPL]DWLRQ 3UREOHPV, bei denen es um die Maximierung oder Minimierung einer Zielfunktion
57
Die benutzten Codes sind i.d.R. hochflexibel und von variabler Länge. Gleichzeitig werden erste Schritte unternommen, die Stufen der embryonalen Entwicklung auf ALs zu übertragen, um dadurch Lebewesen höherer Ordnung zu erzeugen. Dies erfordert i.A. hochkomplexe genetische Operatoren, die bei den EAs zugrunde gelegt werden.
4.3 Evolutionäre Algorithmen
213
unter Berücksichtigung von mind. einer NB geht, und (b) &RPELQDWRULDO2SWLPL ]DWLRQ 3UREOHPV, die durch eine endliche Anzahl möglicher Lösungen gekennzeichnet sind (vgl. auch Abschnitt 4.1.1). Im Weiteren unterscheiden sich GAs von konventionellen Optimierungsalgorithmen in folgenden vier Punkten (vgl. Goldberg 1989, S. 20ff.): •
GAs arbeiten mit codierten Lösungen, nicht mit den Lösungen selbst
•
GAs gehen von einer Population mit Lösungen aus, nicht von einer einzelnen
•
GAs nutzen Ergebnisinformationen (Fitnessfunktion), nicht Indikatoren
•
GAs basieren auf stochastischen Regeln, nicht auf deterministischen.
Nach dem Ablaufschema in Abb. 4-12 wird zuerst die Ausgangspopulation erzeugt und bewertet. Ausgehend von dieser stochastisch generierten Startmenge (Population) von Lösungsalternativen (Individuen) werden iterative Zyklen, sog. *HQHUDWLRQV]\NOHQ, in Gang gesetzt, bei denen aus den alten Lösungen immer wieder neue, modifizierte Lösungen generiert werden. Solange das Abbruchkriterium für den Algorithmus nicht erfüllt ist, wird eine neue Population gebildet.
1. Initialisierungs-Operator: Ausgangspopulation P(t) mit t:= 0 erzeugen 2. Evaluierungs-Operator: Fitness der Individuen von P(t) bewerten Solange kein Abbruch durch tmax o.a. Kriterium: 3. Selektions-Operator: Individuen zur Fortpflanzung P´(t) aus P(t) selektieren 4. Rekombinations-Operator: Genetische Informationen der Elterngeneration über Kreuzung der Gene (zufällig) vermischen 5. Mutations-Operator: Genetische Informationen der Elterngeneration an bestimmten Stellen im Code (zufällig) variieren 6. Evaluierungs-Operator: Fitness der Individuen von P´(t+1) bewerten 7. Neue Population bilden: P(t) mit t: = t + 1 und Schleife wiederholen 8. Abbruchs-Operator: Ergebnisse ausgeben und bewerten Basis: Michalewicz/ Fogel 2000, S. 151
Abb. 4-12: Grundkonzeption eines Genetischen Algorithmus (GA)
Die Individuen der neuen Population werden jeweils den genetischen Operationen Selektion, Rekombination und Mutation unterzogen. Durch diese Transformation entsteht eine Population, die als Eltern in der nächsten Generation fungieren. Im Verlauf vieler Generationszyklen führt dieses Wechselspiel aus ungerichteter Veränderung von Lösungen durch die Variationsoperatoren und die Bevorzugung der besten Lösungen durch den Selektionsoperator zu sukzessiv besseren Lö-
214
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
sungsvorschlägen. Die Iterationsschleife wird i.d.R. abgebrochen, wenn die maximale Anzahl von Iterationen durchgeführt und/ oder eine angemessene Lösungsqualität erreicht worden ist.58 E *$9RUDXVVHW]XQJHQ
Bevor ein GA gestartet werden kann, ist zunächst festzulegen, wie die einzelnen Lösungsvorschläge zu codieren und zu evaluieren sind. Im Weiteren ist der Suchraum zu spezifizieren, in dem nach zulässigen Lösungen gesucht wird (vgl. hierzu und im Folgenden Michalewicz/ Fogel 2000, S. 165ff.). •
&RGLHUXQJGHU/|VXQJHQ: Jedem Individuum (= Chromosom) wird durch eine Zufallsauswahl mind. ein x-Wert als Eigenschaft zugewiesen, welcher mit einer binären Zeichenfolge codiert ist. Das Chromosom, dargestellt als ein String der Länge w, enthält alle Informationen über die individuumsspezifische Lösung. Analog der DNA bei Lebewesen gliedert sich der String üblicherweise in n ≤ w Segmente, wobei jedes Segment bwi einer Variable des Optimierungsproblems entspricht. Dadurch wird der Wert für jede Entscheidungsvariable [L in binärer Form codiert. Je nach Wertebereich der einzelnen Variablen können die Segmente gleichlange oder verschiedenlange Bitfolgen enthalten; dies wird in Abschnitt 5.2.2 verdeutlicht.
Entsprechend dem biologischen Vorbild werden die einzelnen Bits auf dem String als „Gene“ und ihre konkrete Ausprägung (0/ 1) an einer bestimmten Stelle (Locus) des Strings als „Allel“ bezeichnet. Bei Vorliegen von nur einer Entscheidungsvariable enthält jedes Chromosom die codierte Information von genau einem realen Zahlenwert. Dabei gilt: Je größer w ist, desto größer ist die reale Zahl, die maximal codierbar ist. In Abb. 4-13 ist die binäre Lösungscodierung bei einem GA schematisch dargestellt. Die genotypische Lösung kann mit Hilfe einer geeigneten Decodierfunktion in ihre phänotypische Form überführt werden. Zur Behandlung reellwertiger Funktionen wird üblicherweise der Bit-String eines Individuums in folgender Weise entschlüsselt und in eine Festkommadarstellung überführt: Z −1
[L =
¦ (E
Z⋅L + Y
)
⋅ 2 Y − 2 Z−1
Y=0
10 N
(4.17)
Dabei ist w die Anzahl der Bits, die einen Parameter codieren, b0 ... bw-1 der Bit-String und k die Anzahl der Nachkommastellen. Wie leicht nachvollzieh2Z − 1 die größte Zahl dar. Ist bar ist, stellt xmin = 0 die kleinste und xmax = 10 N
58
Da im Gegensatz zur Natur bei der Optimierung ein Anfangs- und ein Endpunkt benötigt werden, wird im Rahmen der Optimierung mithilfe von EAs die natürliche Evolution um einen Initialisierungs- und Abbruchsoperator „erweitert“.
4.3 Evolutionäre Algorithmen
215
für die zu codierende Zahl ein bestimmter Wertebereich xi’ ∈ [ai; bi] vorgegeben, dann ist die Gleichung (4.17) entsprechend zu erweitern: Z −1
' t
[ = DL +
¦ (E
Z⋅L + Y
)
⋅ 2 Y − 2 Z−1
Y=0
10
⋅
N
EL − D L
(4.18)
2Z −1
& & Vor jeder Zielfunktionsauswertung ist eine sog. Mapping-Funktion [ = PE auszuwerten, welche den binären Code in reelle Werte decodiert. Die Zielfunktion \ I[ [ [Q spezifiziert die zu optimierenden Zielkriterien bzw. -merkmale [ [ [Q und berechnet ein Gütemaß für die gegebenen Modellparameter. Wenn das Primärziel eines GA darin besteht, eine Evolution zu simulieren, die zum Aufspüren des globalen Maximums der Fitnessfunktion ILW\ führt, dann ist es i.A. nicht notwendig, eine Trennung zwischen Ziel- und Fitnessfunktion vorzunehmen, da die Maximierung der Fitness dem Optimierungsziel des Optimierungsproblems entspricht.59 Im anderen Fall ist die Definition einer Fitnessfunktion erforderlich. &RGLHUWHU:HUWYRQ (QWVFKHLGXQJVYDULDEOHxi $OOHO :HUW
&RGLHUWHU:HUWYRQ (QWVFKHLGXQJVYDULDEOHxi+1 /RFXV 6WHOOH
*HQ %LW
&KURPRVRP 6WULQJ Basis: Michalewicz/ Fogel 2000, S. 165f.
Abb. 4-13: Schema für die binäre Lösungscodierung bei einem GA (Ausschnitt)
•
59
'HILQLWLRQGHU)LWQHVVIXQNWLRQ: Neben der Lösungscodierung muss i.d.R. eine Fitness- bzw. Evaluierungsfunktion ILW\ definiert werden, die über die Güte einer bestimmten Genkombination Auskunft gibt. In der Natur ist die Fitness ein wesentlicher Indikator für die relative Überlebens- und damit Fortpflanzungsfähigkeit eines Individuums innerhalb der Population (vgl. Abschnitt 4.3.1). Bei der Programmierung von GAs wird in entsprechender Weise über Bei Minimierungsproblemen wird zwischen Ziel- und Fitnessfunktion häufig eine (negative) lineare Skalierungsfunktion gesetzt. In Abhängigkeit von der Problemstellung sind hier oftmals auch geometrische oder exponentielle Funktionen zielführend.
216
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
die Fitnessfunktion jede Lösung evaluiert, um zu entscheiden, ob diese an der Generierung von Nachfolgelösungen teilnimmt. Im übertragenen Sinn gibt der Wert dieser Funktion an, wie „fit“ eine Lösung ist, das gegebene Optimierungsproblem zu lösen. Lerneffekte und damit Verbesserungen der Fitnesswerte werden durch den Wettbewerb zwischen den sich entwickelnden Lösungskandidaten in einer Population bewirkt. Die funktionellen Zusammenhänge zwischen Einfluss- und Zielgrößen sowie Fitnesswerten, wie sie bei regulären GAs zugrunde gelegt werden, sind in & Abb. 4-14 nachvollziehbar. Die Merkmale der Lösungskandidaten [ gehen als Einflussgrößen bzw. unabhängige Variablen in die Zielfunktion y ein. Bei Vorliegen mehrerer Zielgrößen bzw. mehrerer abhängiger Variablen handelt & es sich um einen Zielgrößen-Vektor \ . Dieser spiegelt bei Six Sigma die in Outputmessgrößen abgeleiteten CTQs wider (vgl. Abschnitt 3.3.1). Je besser & die einzelnen CTQs erfüllt werden, desto höher ist die Fitness ILW L ( \ ) eines ausgewählten Lösungskandidaten. Die Berechnung der Fitnesswerte, die in dem Pool ILW gesammelt werden, erfolgt über eine vorgegebene Funktion. In diese fließen alle relevanten Zielgrößen ein. Das Vorgehen ist dem Grunde nach vergleichbar mit der Ermittlung des Nutzens von Produkten. 1XW]HQ
&74V
0HUNPDOH
Einflussgrößen
Zielgröße(n)
& [ = ([1 , [ 2 ,..., [ Q )
& \ = ( \1 , \ 2 ,..., \ P )
=LHOIXQNWLRQHQ
& \1 = I 1 ( [ ) & \2 = I 2 ( [)
Fitnesswerte
ILW = ( ILW1 , ILW 2 ,..., ILW N )
)LWQHVVIXQNWLRQ
& ILWL = I L ( \ )
mit i ... Individuum
. . .
& \ P = I P ([ )
Quelle: Eigene Darstellung
Abb. 4-14: Funktionelle Abhängigkeiten bei der Ermittlung der Fitness
Beim Entwurf eines GA stellt die Definition einer geeigneten Fitnessfunktion eine der schwierigsten Aufgaben dar. So ist darauf zu achten, dass die Fit-
4.3 Evolutionäre Algorithmen
217
nessfunktion sich nach Möglichkeit bei kleinen Änderungen des genetischen Codes eines Individuums nicht zu stark verändert, so dass man eine möglichst VWHWLJH'HFRGLHUXQJVIXQNWLRQ erhält. In diesem Fall besteht ein starker kausaler Zusammenhang zwischen dem Bit-String des Individuums und dessen Fitness. Im anderen Fall, bei einem schwach kausalen Zusammenhang, stehen die Änderungen der Codierung eines Individuums in keinem Verhältnis zu dem Effekt auf dessen Fitness. Zur Normierung der Fitness von Individuen wird i.d.R. die mittlere Fitness der Population ILW 3RS herangezogen.60 •
)HVWOHJHQ GHV 6XFKUDXPV Wie oben ausgeführt, ist die Trennung zwischen Codier- bzw. Chromosomenraum und Such- bzw. Lösungsraum einer der wesentlichen Charakteristika von GAs. Während die genetischen Operationen Rekombination und Mutation im Codierraum arbeiten, kommen die evolutionären Operationen im Suchraum zur Anwendung. Dabei wird jeweils nur ein Teil des gesamten Suchraums durch den GA in der Initialisierungs-Phase erfasst. In diesem „erfassten Raum“ können Lösungen, die im Laufe des Algorithmus auf der Genotypebene erzeugt werden, auf der Phänotypebene eindeutig zugeordnet und repräsentiert werden. Wie in Abb. 4-15 gut erkennbar ist, kann es unter bestimmten Voraussetzungen dazu kommen, dass Chromosomen generiert werden, die auf der Phänotypebene nicht erfassbar sind bzw. die außerhalb des Suchraums liegen und für die gegebene Problemstellung keine zulässige Lösung darstellen.61
Die Festlegung des Suchraums spielt sowohl bei UHVWULQJLHUWHQ 2SWLPLH UXQJVSUREOHPHQ als auch bei NRPELQDWRULVFKHQ2SWLPLHUXQJVSUREOHPHQ eine herausragende Rolle. Bei erstgenannter Problemart ergibt sich der zulässige Suchraum als erfasster Raum durch die Formulierung entsprechender Nebenbedingungen. Nicht selten liegt das gesuchte Optimum genau an der Grenze zwischen erfasstem und nicht-erfasstem Raum.62 Bei kombinatorischen Optimierungsproblemen besteht das Ziel i.A. darin, das Verhältnis von erfasstem zu nicht-erfasstem Raum zu maximieren. Der Suchraum soll möglichst groß-
60
61
62
Algorithmen, bei denen die Fitness der Individuen auf die durchschnittliche Fitness der Population normiert ist, werden auch als kanonische GAs bezeichnet. Auf weitere Formen der Normierung/ Skalierung wird in Abschnitt 5.2.2 eingegangen. Auch bei der Übertragung evolutionärer Prinzipien auf die BWL, insb. Organisationsund Managementwissenschaften, wird sinngemäß zwischen Geno- und Phänotypebene unterschieden (vgl. Abschnitt 4.3.2). Auf der Genotypebene befinden sich z.B. organisationale Routinen wie der DMAIC-Zyklus, die über kurz oder lang zu Veränderungen auf der Phänotypebene führen, z.B. Aufbau einer Six Sigma-Organisation. In der praktischen Anwendung von GAs gibt es eine Reihe von Möglichkeiten, nichterfassbare bzw. unzulässige Lösungen zu unterdrücken. Erprobte Mittel sind die Durchführung von Reparaturen (Repairing-Technik) im Rahmen der Rekombinations-Phase und die Vergabe von Strafpunkten (Penalty-Funktion) im Rahmen der EvaluationsPhase des GA (vgl. Gen/ Cheng 1997, S. 18). Im Weiteren werden hybride Methoden vorgeschlagen, welche die GA-Lösungsstrategien mit deterministischen Verfahren der numerischen Optimierung kombinieren (vgl. Michalewicz et al. 2000, S. 204).
218
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
flächig nach potenziellen Lösungen abgesucht werden. Folglich ist hier darauf zu achten, dass die Rahmenbedingungen der Optimierung in der Initialisierungs-Phase nicht zu eng gefasst werden. &RGLHUXQJ 8Q]XOlVVLJH /|VXQJ
Codierraum - Genotypebene -
1LFKWHUIDVV EDUH/|VXQJ
5HNRPELQDWLRQ 0XWDWLRQ
Suchraum - Phänotypebene Nicht erfasster Raum Erfasster Raum (YDOXDWLRQ 6HOHNWLRQ
(UIDVVEDUH/|VXQJ
'HFRGLHUXQJ Basis: Gen/ Cheng 1997, S. 18f.
Abb. 4-15: Schematischer Zusammenhang zwischen Codier- und Suchraum
F *HQHWLVFKH2SHUDWRUHQ
Um eine evolutionäre Simulation beginnen zu können, muss in einem ersten Schritt eine Startpopulation einer bestimmten Größe, d.h. mit n Individuen, erzeugt werden. In den meisten Anwendungen wird die Ausgangspopulation stochastisch initialisiert und mit einer geraden Anzahl von Individuen versehen. Die einzelnen Bits eines Chromosoms können dabei unabhängig voneinander mit der gleichen Wahrscheinlichkeit entweder auf den Wert 0 oder 1 gesetzt werden. Ein „guter“ Initialisierungsoperator ist entscheidend, um möglichst schnell zu dem gewünschten Ergebnis zu gelangen. Vor allem in den Anfangsstadien ist deshalb darauf zu achten, dass die Population eine relativ große Vielfalt aufweist. Dadurch wird sichergestellt, dass der GA einen möglichst großen Teil des Suchraums gleichzeitig erfasst. Für die Suche selbst stehen die folgenden drei Strategien zur Auswahl (vgl. hierzu und im Folgenden Gen/ Cheng 1997, S. 29f.): •
6WDELOLVLHUHQGH 6HOHNWLRQ: Es werden bevorzugt die Chromosomen mit extremen Fitness-Werten (nach oben und unten) aus der Population eliminiert.
•
*HULFKWHWH 6HOHNWLRQ: Es werden bevorzugt die Chromosmen mit (deutlich) niedrigeren Fitness-Werten als der Durchschnitt eliminiert. Diese Form der Selektions- und damit Suchstrategie ist die gebräuchlichste.
4.3 Evolutionäre Algorithmen
•
219
'LVUXSWLYH 6HOHNWLRQ: Es werden bevorzugt die Chromosomen mit moderaten Fitness-Werten aus der Population eliminiert.
Die Individuen (Chromosomen) der Startpopulation werden durch Einsetzen der einzelnen Parameterwerte in die Mapping- und anschließend in die Fitnessfunktion evaluiert. Für jedes Individuum wird ein Fitnesswert bestimmt, welcher die Güte der Lösung hinsichtlich des definierten Zielkriteriums anzeigt. Dieser Schritt ermöglicht ein Benchmarking für die nachfolgenden Optimierungsschritte. Die Initialisierung und Evaluierung der Ausgangspopulation bilden die Grundlage für den iterativen Zyklus, der den Schritten 3-8 des Basisalgorithmus entspricht (siehe Abb. 4-12). Während bei Holland (1975) immer nur einzelne Individuen einer Population ersetzt worden sind, weisen die heutigen Generationenzyklen, die im Wesentlichen auf Goldberg (1989) zurückgehen, einen dreistufigen Ablauf mit Selektion (S) – Rekombination (R) – Mutation (M) auf. Die Grundzüge der zwei genetischen Operatoren und der Selektion, die in der Natur als Bindeglied zwischen Chromosom und Fitness/ Performance der decodierten Lösung fungiert, werden im Folgenden kurz erläutert (vgl. Nissen 1997, S. 37ff.). •
62SHUDWRU: Die Modellierung der Selektion in GAs beruht auf der Annahme, dass in der Natur die zu erwartende Anzahl der Nachkommen in irgendeiner Weise proportional zur Fitness ist. Weiterhin gilt: Je besser ein Individuum an seine Umwelt angepasst ist, desto größer ist seine Fitness. Aus diesem Grund werden die Optimierungsprobleme bei klassischen GA als Maximierungsproblem formuliert. Die Selektion erfolgt meist zufallsgesteuert und „treibt“ die Individuen in Richtung der optimalen Lösung. Dabei werden – entsprechend dem Prinzip der natürlichen Auslese – bessere Individuen öfter bzw. mit größerer Wahrscheinlichkeit ausgewählt als schlechtere. Die Zulassung von Individuen zur Reproduktion wird auf zwei Arten realisiert:
Bei der fitnessproportionalen Selektion wird aus einer aktuellen Generation durch sog. 5RXOHWWH:KHHO6HOHFWLRQ eine Elterngeneration gleicher Größe ermittelt. Dabei liegt die bildliche Vorstellung zugrunde, dass jedem Individuum eine von der Fitness abhängige Anzahl von Slots auf einem Roulette-Rad zugeordnet werden. Der Anteil eines Individuums an & den insgesamt verfügbaren Slots wird relative Fitness ILW LUHO ( \ ) genannt. Rechnerisch ergibt sie sich, indem man den individuellen Fitnesswert durch die Summe aller Fitnesswerte innerhalb der Population teilt. Durch Drehen des Roulette-Rades werden die Individuen zufallsgesteuert selektiert. Es wird jeweils das Individuum in die Elterngeneration übernommen, welches den Slot an der Haltemarkierung besetzt, wo das RouletteRad zum Stillstand kommt (vgl. auch Abschnitt 5.3.1). Im Gegensatz zum Roulette-Spiel ist die 7RXUQDPHQW6HOHFWLRQ eine relativ einfach zu implementierende Selektionsmethode, bei der nur die Ordnung der Individuen einer Population, nicht aber ihre absoluten Fitnesswerte eine Rolle spielen. Bei diesem rangbasierten Verfahren wird die
220
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
Population gemäß der Zielfunktionswerte sortiert. Um ein Individuum zu selektieren, wählt man k Individuen zufällig (gleichverteilt) aus der Population aus und nimmt davon jeweils das beste, also das mit der höchsten Fitness. Der Parameter k steuert gleichzeitig den Selektionsdruck innerhalb der Population. Im übertragenen Sinn gibt er Auskunft darüber, wie (sehr) gute Individuen gegenüber schlechteren bevorzugt werden. Sowohl ein sehr hoher als auch sehr niedriger Selektionsdruck kann sich negativ auf das Konvergenzverhalten des GA auswirken. •
52SHUDWRU: Im Basis-GA werden die Eltern, aus denen die Nachkommen hervorgehen, stochastisch „mit Zurücklegen“ gezogen.63 Die Selektionswahrscheinlichkeit eines jeden Individuums entspricht dessen relativer Fitness, die nach dem fitnessproportionalen Ansatz als radialer Flächenanteil eines Roulette-Rades interpretiert werden kann. Durch das Drehen des Rades werden die Individuen ausgewählt, die zur Fortpflanzung bestimmt sind, und in eine sog. Intermediärpopulation kopiert. Zur Generierung einer solchen Population mit n Individuen ist das Roulette-Rad gedanklich n-mal zu drehen.
Aus der Intermediär- bzw. Elternpopulation (mating pool) werden dann mithilfe von Rekombination neue Individuen als Kindergeneration erzeugt. Dies geschieht in der Weise, dass mit gleicher Wahrscheinlichkeit 1 / n und „ohne Zurücklegen“ zwei Eltern ausgewählt und als Paar zusammengeführt werden. Dieser Schritt wird n / 2-mal wiederholt, bis alle Individuen zu Paaren zusammengeführt sind. Aus ihnen gehen im Folgenden durch Variation jeweils zwei Nachkommen hervor. Über den Austausch von Genen zwischen zwei Chromosomen als potenzielle Lösungen werden neue Informationen in die Population eingebracht. Wie oben ausgeführt wurde, werden beim CrossoverVerfahren Bruchstücke zwischen zwei Chromosomen ausgetauscht. Dazu ist für je zwei Eltern mind. eine Bruchstelle im Genom zu ermitteln.64 Als typische Crossover-Operatoren stehen zur Auswahl: Q3RLQW&URVVRYHU Es werden zwei Zufallszahlen gleichverteilt erzeugt, die jene Gene auf den Chromosomen indizieren, die das auszutauschende Bruchstück eingrenzen. Im einfachsten Fall, beim 1-Point-Crossover, werden die KLQWHUHQ Bruchstücke der beiden Elterngenome abgetrennt und an das vordere Bruchstück des jeweils anderen Genoms angehängt.
63
64
Das aus der Stochastik bekannte Urnenmodell „Ziehen mit Zurücklegen“ gilt für sehr große Grundgesamtheiten bzw. Populationen. Der Rekombinationsprozess lässt sich mathematisch auf der Basis der Binomialverteilung beschreiben. Bei Populationen mit relativ kleinem Umfang, z.B. n = 10, ist hingegen die Hypergeometrische Verteilung anzuwenden. Da die Auswahl eines Elternteils die Wahrscheinlichkeit für die Paarung der verbleibenden Elternteile ändert, liegt hier das Urnenmodell „Ziehen ohne Zurücklegen“ vor, d.h. die Ergebnisse der einzelnen Ziehungen sind statistisch nicht mehr unabhängig voneinander (vgl. Seyffert 2003, S. 292). Sowohl die Paarbildung als auch die Wahl der Bruchstellen (Crossover-Punkte) erfolgen in den meisten Fällen zufallsgesteuert (vgl. Sprave 1999, S. 16).
4.3 Evolutionäre Algorithmen
221
8QLIRUP&URVVRYHU: Bei dieser Art der Kreuzung (Crossover) wird für jedes Gen zufällig mit gleicher Wahrscheinlichkeit entschieden, von welchem Eltern-,QGLYLGXXP es übernommen wird. Hierdurch wird eine maximale Variation des Genpools von Runde zu Runde erreicht. •
02SHUDWRU: Dem biologischen Vorbild folgend, wird jedes Bit eines erzeugten Nachkommen mit einer sehr geringen Wahrscheinlichkeit, der Mutationsrate, invertiert. Bei GAs kommt, anders als bei ESs, der Mutationsrate als Suchoperator eine eher nachrangige Bedeutung zu. Ziel ist es zu verhindern, dass an einzelnen Stringpositionen der gleiche Wert (0 oder 1) bei allen Individuen einer Population steht. Andernfalls würde nur noch ein 7HLOJHELHW des gesamten Lösungsraums nach Lösungsalternativen untersucht. Rekombination und Mutation werden als stochastische Verfahrenselemente im Rahmen von GAs bewusst eingesetzt, um einen „intelligenten“ Suchprozess in Gang zu setzen. Dieser ist in der Lage, systematische, aufeinander aufbauende Lösungsalternativen in solchen Regionen des Suchraumes zu generieren, die Erfolg versprechend sind.
Es wird davon ausgegangen, dass bei großen Ausgangspopulationen bereits eine ausreichende Anzahl „guter“ Chromosomen vorhanden ist, mit denen es gelingt, nahezu ausschließlich durch Rekombination ein Optimum zu finden. Die Mutation stellt deshalb den sekundären Variationsoperator dar, der vor allem zum Einbringen von neuem bzw. verlorengegangenem Genmaterial in die Population dient. Mutationen sollten nur relativ selten ausgeführt werden, da der Suchvorgang bei zu häufiger Anwendung zu einer vollständigen Zufallssuche degeneriert. Im klassischen Fall liegt die Mutationsrate deshalb bei etwa 1 ⋅ 10-3.65 Als Mutationsvarianten kommen infrage: )OLSPXWDWLRQ: Bei dieser Variante erfolgt die Auswahl des zu mutierenden Gens zufallsgesteuert, und zwar in der Weise, dass das ausgewählte Bit (Gen) im Bit-String einfach negiert wird. 6ZDSPXWDWLRQ: Hier wird der Inhalt der durch Zufall bestimmten Gene von zwei Individuen der Kindergeneration einfach vertauscht. Sie wird bei der Programmierung von GAs seltener verwendet. Nach Abschluss einer oder mehrerer Mutationsschritte werden die erhaltenen Individuen in die Nachfolgegeneration kopiert, welche die neue Population P(t) mit t: = t + 1 bilden. Die Individuen von P(t+1) werden erneut evaluiert und anschließend – wie vorstehend beschrieben – mit den drei Evolutionsoperatoren prozessiert. Der Zyklus Evaluierung, Selektion, Rekombination und Mutation wird solange durchlaufen, bis ein definiertes Abbruchkriterium erfüllt ist.
65
Im übertragenen Sinn beträgt die zulässige Mutationsrate bei Six Sigma 3,4 ⋅ 10-6, d.h. bei der Erstellung eines Produktes/ einer Dienstleistung dürfen maximal 3,4 Fehler bezogen auf 1 Mio. Fehlermöglichkeiten (OFD) auftreten. Letztere beschreiben dabei den Suchraum für neue, zu verbessernde Produkt- respektive Prozessmerkmale.
222
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
In Abb. 4-16 sind die wesentlichen Stellgrößen bei der Programmierung von GAs in Form eines Morphologischen Kastens dargestellt. Durch Kombination der in der Matrix enthaltenen Bausteine ergeben sich die unterschiedlichen Spielarten von GAs. Bei der konkreten Ausgestaltung des DFSS-Vorgehensmodells in Unterkapitel 5.2. stützen wir uns hauptsächlich auf den Algorithmus, der sich durch das Verbinden der Zellen in der 2. Spalte ergibt.
Initialisierung
$EVROXW ]XIlOOLJ
EHUFNVLFKWLJHQG
Lösungsrepräsentation
%LQlUVWULQJ
*UD\FRGH
Mutation
%LWLQYHUVLRQ )OLSPXWDWLRQ
&KURPRVRPHQ LQYHUVLRQ
LQ]XIlOOLJHQ 6FKULWWZHLWHQ
3XQNW
Q3XQNW
8QLIRUP
8QLIRUP 2UGHU%DVHG
)LWQHVV SURSRUWLRQDO
6WRFKDVWLF8QL YHUVDO6DPSOLQJ
5DQJ EDVLHUHQG
:HWWNDPSI
Crossover Selektion
9RUZLVVHQ
1LFKWELQlU
9HNWRU3HUPX WDWLRQ0DWUL]HQ
&UHHS
(OLWH
Basis: Lippe 2004, S. 31
Abb. 4-16: Morphologischer Kasten zur Einordnung von GAs
G $QZHQGXQJVEHLVSLHO
Das Beispiel dient zur schrittweisen Einführung in die programmiertechnische Umsetzung von GAs.66 Der Algorithmus soll dabei exemplarisch anhand des Auffindens des globalen Maximums bei einer zweigipfligen Funktion verdeutlicht werden, wie sie vorher bei der formal-analytischen Erklärung des DMAIC- und DMADV-Zyklus zugrunde gelegt worden ist (vgl. Unterkapitel 3.4). Als realer Anwendungshintergrund wird die Entwicklung eines neuen Kugelschreibers mit optimierter Länge y gewählt. Letztere stellt aus Sicht des Kunden ein kritisches Qualitätsmerkmal (CTQ) dar. Die Gesamtlänge des Kugelschreibers ergibt sich aus den Längen der Einzelkomponenten x1, x2, ..., xn und lässt sich in Q & Form einer gewichteten Summenfunktion \ = I ( [ ) = ¦ J L ⋅ [ L berechnen. L =1
Zu den Einzelkomponenten eines Standard-Kugelschreibers gehören: Oberteil ([), Unterteil ([), Druckknopf ([), Schreibmine ([), Feder ([), Distanzring ([). Sie nehmen mit absteigendem Gewicht gi Einfluss auf die Gesamtlänge des Kugelschreibers. Für jede Komponente liegt eine lange Version (Allel = 1) und eine 66
Ein anschauliches Beispiel für das Design von Produktlinien mithilfe von Genetischen Algorithmen geben Steiner/ Hruschka 2003. In ihrem Beitrag beschreiben die Forscher ein Vorgehen, das auf Basis der Monte Carlo-Simulation zu einer Produktlinie mit maximalem Gewinnbeitrag führt. Dabei vergleichen sie die Leistungsfähigkeit der GAMethodik mit der Greedy-Heuristik von Green/ Krieger (1985).
4.3 Evolutionäre Algorithmen
223
kurze Version (Allel = 0) zum Verbau vor. Ziel des Projektes ist es, die optimale Kombination der Einzelkomponenten zu finden, die zur nutzenmaximalen Länge y* führt. Aus Marktforschungsaktivitäten in der Vergangenheit ist bekannt, dass bezogen auf die Länge des Kugelschreibers zwei Produktsegmente (Cluster) existieren: (1) Kurze Kugelschreiber und (2) Lange Kugelschreiber. ,QLWLDOLVLHUXQJXQG(YDOXLHUXQJ
Zunächst ist eine Fitnessfunktion ILW\ zu definieren, die eine Bewertung des Kugelschreiber-Designs aus Kundensicht erlaubt. Die Funktion weist zu jedem Zeitpunkt einem Individuum einen Fitnesswert ILWL in Abhängigkeit von seiner Eigenschaft \L zu, also in unserem Fall den Kundennutzen in Abhängigkeit von der Länge des Kugelschreibers. Zur Abbildung der zwei Produktsegmente sei die folgende Bewertungsfunktion beispielhaft gewählt:
ILW ( \ ) =
3 1 13 11 ⋅ ( \ − D ) − ⋅ ( \ − D) 2 + ⋅ ( \ − D) 3 − ⋅ ( \ − D) 4 + E 5 5 5 20
(4.19)
Die Parameter a und b geben die horizontale und vertikale Verschiebung der Fitnessfunktion an; sie betragen hier a = 8 und b = 2. Das Polynom 4. Grades nach Gleichung (4.19) weist zwei Nullstellen67 auf, so dass die Fitnesswerte im Intervall [7,49; 14,76] positiv sind. In diesem Intervall weist das Polynom ebenfalls zwei lokale Maxima auf. Wie in Abb. 4-17 ersichtlich ist, liegt das linke Maximum (Produktsegment 1) in der Nähe von y1 = 9. Ein weiteres, das gleichzeitig globales Maximum ist, liegt in der Nähe von y2 = 13. Die längere KugelschreiberVariante (Produktsegment 2) führt also zum höheren Produktnutzen. Die exakten Extremumpunkte ergeben sich nach Differenzieren und Nullsetzen (vgl. Abschnitt 4.2.1) mit: E1(8,872; 2,963) und E2(13,333; 3,857). Ziel des zu konzipierenden GA ist es, eine Evolution zu simulieren, die zum Aufspüren des globalen Maximums fit(y*) im Produktsegment 2 führt. Wie im vorstehenden Abschnitt ausgeführt, ist im Rahmen der Initialisierung eine binäre Codierung und Decodierung der evolutionären Strategien vorzunehmen. Dabei werden in einem GA typischerweise die Eigenschaften jedes Individuums durch eine binäre Zeichenfolge als Chromosom dargestellt. In unserem Fall umfasst das Chromosom sechs Gene bzw. der Bit-String sechs Stellen, z.B. Chromosom = (0 0 1 0 1 0). Jedes Chromosom enthält damit als codierte Information einen reellen Zahlenwert für das kritische Produktmerkmal y. Unter Anwendung von Gleichung (4.17) kann diese binäre Zeichenfolge entschlüsselt werden. Die reelle Zahl, die durch obiges Chromosom codiert wird, beträgt z = 10. Im Weiteren sammeln wir „Chromosomen“ einer ganzen Population in einem Vektor POP. Im übertragenen Sinn handelt es sich dabei um n verschiedene Kugelschrei67
Die zwei Nullstellen sind im Vorfeld analytisch mit dem Newton´schen Näherungsverfahren berechnet worden (vgl. Abschnitt 4.2.1).
224
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
ber mit unterschiedlicher Länge. Mit einem Unterprogramm lässt sich die Decodierung für alle Individuen gleichzeitig durchführen. Je größer die Länge (BITS) eines Chromosoms ist, um so größer ist die Zahl (zmax), die damit maximal codierbar ist. Für 6 Bits, wie im Beispiel gegeben, beträgt zmax = 63. Fitness fit(y) 3.857 ILW\
4
ILW\ 3
fit( y )
2
1
0
0 0
2
Quelle: Eigene Darstellung
4
6
8
\
10
12
y
14 \
16
18 20 CTQ
y
20
Abb. 4-17: Fitnessfunktion fit(y) mit zwei lokalen Maxima
Um sicherzustellen, dass bestimmte reale Zahlenwerte nicht überschritten werden, müssen die Werte bei der Decodierung normalisiert werden. Im vorliegenden Fall ist es sinnvoll die Länge der Kugelschreiber auf ymin = 7,49 [cm] nach unten und ymax = 14,76 [cm] nach oben zu beschränken, da nur in diesem Bereich positive Fitness- respektive Nutzenwerte existieren. Der GA sucht dann in dem vorgegebenen Bereich nach möglichen Lösungen. Durch Division von (ymax – ymin) durch zmax und Verschiebung um ymin ergibt sich entsprechend Gleichung (4.18) für das ursprüngliche Chromosom ein Wert, der im Intervall [7,49; 14,76] liegt. Um eine Simulation beginnen zu können, ist im Rahmen der Initialisierungs-Phase eine Ausgangspopulation zu erzeugen. Dazu wird die gewünschte Anzahl von Individuen (POPSIZE) vorgegeben, für die dann eine zufällige Auswahl an Chromosomen der vorgegebenen Länge (BITS) generiert wird. Durch Decodierung und & Normalisierung ergibt sich daraus ein Vektor \ , der die Eigenschaften der Individuen der Ausgangspopulation erfasst. Wird die Fitnessfunktion auf diesen Vektor angewendet, dann erhält man einen weiteren Vektor ILW , der die Fitness der einzelnen Individuen auflistet. In einer Populationsmatrix lässt sich jedem Chromosom zeilenweise der Eigenschafts- und Fitnesswert zuordnen (siehe Abb. 4-18).
4.3 Evolutionäre Algorithmen
225
6HOHNWLRQ5HNRPELQDWLRQXQG0XWDWLRQ
Bevor der Selektions-Operator gestartet wird, sind die Zeilen und damit die zugehörigen Individuen in der neu entstandenen Matrix zu sortieren, so dass das Individuum mit dem höchsten (niedrigsten) Fitnesswert in der ersten (letzten) Zeile erfasst ist. Der Selektionsoperator bestimmt, welche der Chromosomen an die nächste Generation weitergegeben werden dürfen. Dabei wird nach der rangbasierten Selektionsmethode vorgegangen (vgl. Abschnitt 4.3.3), welche das Darwin´sche Prinzip des „Survival of the Fittest“ abbildet. Die Individuen der Elterngeneration „sterben“ und werden durch „Kinder“ ersetzt. i
Chromosom
fiti(y)
0
1
1
0
1
0
0
0
1
1
1
0
9,102 2,923
1
0
1
0
1
1
12,449 3,269
0
1
0
0
0
0
POPInit =
y
10,487 2,176
9,333
2.82
1
1
1
1
0
1
0
0
1
1
1
0
14,526 1,344 9,102 2,923
1
0
1
0
1
1
12,449 3,269
0
0
1
1
0
0
8,871 2,963
0
1
0
0
0
1
9,448 2,754
0
1
1
1
1
0
10,948 2,141
Quelle: Eigene Darstellung
Abb. 4-18: Initialisierung und Evaluierung der Ausgangspopulation
Es dürfen sich jeweils die Individuen fortpflanzen, die sich vorher in einem „Paarungswettkampf“ behauptet haben. Dieser erfolgt in der Weise, dass zwei Individuen zufällig ausgewählt und deren Fitnesswerte miteinander verglichen werden. Der Gewinner, also das Individuum mit der höheren Fitness, darf sich dann fortpflanzen. Ein Unterprogramm liefert eine Matrix, in der die Positionsnummern der Gewinner dieses Wettkampfes als Paare zusammengefasst sind. Sie bilden die Eltern von jeweils zwei Kindern. Das Programm erlaubt, dass Individuen auch mehrfach als Gewinner ausgewählt und mit sich selbst „gepaart“ werden. Üblicherweise werden nicht alle Individuen in den Paarungswettkampf geschickt. So gibt der Parameter KEEP im o.g. Programm eine (gerade) Anzahl der Individuen mit der höchsten Fitness an, deren Chromosomen unverändert in die nächste Generation übernommen werden. Sie bilden sozusagen die Elite der Population (bei KEEP = 0 wird keine Elite gebildet) und werden als „Klone“ erhalten.
226
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
Damit noch bessere Individuen entstehen, kombiniert der Rekombinations- bzw. Kreuzungsoperator das genetische Material (Chromosomen) der Individuen mit hoher Fitness, die sich in dem oben beschriebenen rangbasierten Auswahlverfahren durchgesetzt haben. Mit der Wahrscheinlichkeit CROSSPROB68 findet ein Austausch der Bit-Zeichenfolgen an einer zufällig gewählten Stelle (Crossoverpoint) der Chromosomen eines Paares statt. Dieses 1-Point-Crossover-Verfahren wird im Rahmen des Kreuzungsoperators auf alle zur Fortpflanzung bestimmten Individuen angewendet und ebenfalls mit einem Unterprogramm realisiert: Mit dem Mutationsoperator ist es möglich, ganz neue Formen (Innovationen) von Individuen hervorzubringen, die bisher in der Population noch nicht auftraten. Dazu wird mit der Wahrscheinlichkeit MUTPROB jedes Bit in einem der erzeugten Kinder-Chromosomen invertiert. In Abb. 4-19 ist exemplarisch der Programmiercode für diesen Parameter aufgeführt. Die Zusammenfassung der neu erzeugten Kinder und der im Vorfeld ausgelesenen Elite-Individuen ergibt die nächste Generation der Population. Im Gegensatz zur Ausgangspopulation [⎯yI = 10,67; fit(⎯yI ) = 2,14 ] hat sich die durchschnittliche Fitness der ersten Kindergeneration nur unwesentlich erhöht [⎯yK = 10,37; fit(⎯yK ) = 2,21 ]. MUT1(POP, MUTPROB) :=
for i∈0..spalten(POP) – 1 for i∈0..zeilen(POP) – 1 POPj,i ← ⏐POPj,i – 1 ⏐ if rnd(1) ≤ MUTPROB POP
Quelle: Thiemer 2005
Abb. 4-19: Programmiercode für die Erzeugung von Mutationen (Beispiel)
Im Anfangsstadium des Algorithmus verfügt die Population über Individuen, deren Merkmalsausprägungen sich mehrheitlich zwischen den beiden Maximumstellen befinden. Die Effizienz des GA entscheidet nun darüber, wie schnell das suboptimale Niveau verlassen und das globale Maximum detektiert werden kann. Dazu ist eine maximale Anzahl von Iterationsschleifen vorzugeben (MAXITER), welche die neu zu schaffenden Generationen begrenzt. (UJHEQLVVHGHU'HVLJQRSWLPLHUXQJ
Das Hauptprogramm kann bei Thiemer (2005) nachvollzogen werden. Es ist in MathCad R8 programmiert und setzt sich aus mehreren Unterprogrammen zusammen. Für jede Generation werden die durchschnittliche Zielgröße, also im 68
I.d.R. beträgt CROSSPROB = 1, d.h. die Kreuzung findet bei allen Paaren mit 100% Wahrscheinlichkeit statt. Die Vermischung des genetischen Materials erfolgt ebenfalls mit einem Unterprogramm, in dem für jedes Paar die Bits auf der rechten Seite des Crossover-Position ausgetauscht werden, so dass zwei neue Individuen entstehen.
4.3 Evolutionäre Algorithmen
227
Beispiel die durchschnittliche Länge⎯y des Kugelschreibers, sowie der zugehörige Fitnesswert ILW ( \ 7LPH ) berechnet. Für die Ausführung des GA sind insgesamt sechs Parameter zu spezifizieren: POPSIZE, BITS, KEEP, CROSSPROB, MUTPROB und MAXITER, die bei der projektbezogenen Umsetzung des Algorithmus in Unterkapitel 5.2 unmittelbar Berücksichtigung finden. Für die Parameterwerte 100, 10, 6, 1, 0,01 und 10 ergibt sich der in Abb. 4-20 dargestellte Kurvenverlauf der Fitness ILW ( \ 7LPH ) über mehrere Generationen. Wie ersichtlich ist, hat der GA bereits nach vier Generationen (Iterationsschleifen) das globale Maximum aufgespürt. Aufgrund der S-R-M-Operatoren kann das Plateau zu Beginn relativ schnell überwunden werden; so tritt nach der ersten Kindergenerationen ein kontinuierlicher Anstieg der Fitnesswerte ein. Nach der Maximierung der Fitnessfunktion mithilfe des GA beträgt die optimale Länge des Kugelschreibers y* = 13,3 [cm]. Dies entspricht dem Chromosom* = (1 1 0 0 1 0), welches durch Invertierung der Decodierungsformel ermittelt werden kann. Für das Design des Kugelschreibers ergeben sich die folgenden konkreten Gestaltungsempfehlungen: Oberteil – lang, Unterteil – lang, Druckknopf – kurz, Schreibmine – kurz, Feder – lang und Distanzring – kurz. Fitness fit(y) ILW\ ILW\
Quelle: Eigene Darstellung
GenerationTime
Abb. 4-20: Entwicklung der durchschnittlichen Fitness über die Zeit
=ZLVFKHQID]LW Wie das Zahlenbeispiel verdeutlicht, stellen GAs eine interessante Alternative zu den klassischen Optimierungsverfahren dar (vgl. Unterkapitel 4.2). Anstelle der schrittweisen Verbesserung einer einzelnen Lösung tritt die systematische Optimierung der Fitness einer gesamten Population von Lösungskandidaten. Bei „richtiger“ Wahl des Suchraums ist die Wahrscheinlichkeit groß, das
228
4 Mathematische Vorgehensmodelle zur funktionellen Optimierung
globale Optimum einer gegebenen Ziel- bzw. Bewertungsfunktion zu finden. Die Weiterentwicklung der Lösungskandidaten in Richtung maximale Fitness erfolgt dabei S-kurvenförmig, wie sie im Rahmen des Technologie-/ Innovationsmanagements geläufig ist (vgl. Abschnitt 3.1.2). 'DPLWHUJLEWVLFKGLH0|JOLFKNHLWGLH (YROXWLRQWHFKQLVFKHUWHFKQRORJLVFKHU6\VWHPHQLFKWQXUDOVEHREDFKWEDUHV3Kl QRPHQ KLQ]XQHKPHQ VRQGHUQ VLH ÄLP /DERU³ DXI H[SHULPHQWHOOHU %DVLV JH]LHOW YRUDQ]XWUHLEHQXQGGHQ) (3UR]HVVLQVJHVDPW]XEHVFKOHXQLJHQ Für die Managementwissenschaften stellt sich vor diesem Hintergrund die Frage, ob und wie der (mathematische) Algorithmus, für die Lösung betrieblicher Problemstellungen, z.B. in F&E, nutzbar ist. Nach den Ausführungen zu den Forschungstypologien in Abschnitt 1.2.1 gilt: Die auf abstrakter Ebene gefundenen Algorithmen sind nicht ohne Weiteres auf die reale Ebene, d.h. in die Unternehmenspraxis, übertragbar. Es ist eine Spezifizierung bzw. Operationalisierung vorzunehmen, aus denen praxistaugliche (Management-)Konzepte hervorgehen. Zu diesem Zweck ist – nach allgemeiner Auffassung – ein effektives Schnittstellenmanagement aufzubauen, um die bidirektionale Kommunikation zwischen Theorie und Praxis zu fördern. Im vorliegenden Fall ist deshalb – entsprechend der +\SRWKHVH + – zu analysieren, inwieweit sich das GA-Prinzip durch die Verwendung von möglichst einfachen, bekannten und in der Praxis akzeptierten Methoden und Vorgehensmodellen, z.B. aus dem Qualitäts- und Innovationsmanagement (vgl. Unterkapitel 3.2), simulieren bzw. „nachstellen“ lässt.
5
Theorie-Praxis-Transformation als deduktive Vorgehensweise: Vom abstrakten zum konkreten Vorgehensmodell der Problemlösung in F&E-Projekten
Aus den beschriebenen Ansätzen zur Lösung schwieriger mathematischer Probleme (vgl. Unterkapitel 4.2 und 4.3) lassen sich im Ergebnis zwei konkrete Vorgehensmodelle für die Unternehmenspraxis ableiten. Der DMAIDV-Zyklus stellt eine Weiterentwicklung des bisherigen DFSS-Problemlösungszyklus dar (vgl. Unterkapitel 5.1). Die Aufnahme einer zusätzlichen Phase nach Analyse basiert auf den in Abschnitt 4.2.3 gewonnenen Erkenntnissen über Lokale Suchverfahren, die der Gruppe der klassischen Algorithmen zugeordnet werden können. Aus den evolutionären Algorithmen, wie sie in Abschnitt 4.3.3 beschrieben sind, wird im Weiteren der IESRM-Zyklus abgeleitet (vgl. Unterkapitel 5.2). Bei diesem handelt es sich um ein für die „Six Sigma Welt“ völlig neues Vorgehensmodell, dessen Anwendbarkeit erst noch überprüft werden muss. Die Ergebnisse aus zwei Praxisstudien legen jedoch nahe, dass der Zyklus den eingangs formulierten Erwartungen an die Effizienz und Effektivität der Lösungssuche gerecht wird.
5.1
Abgeleitetes Vorgehensmodell 1: DMAIDV-Zyklus als erweiterter DFSS-Problemlösungszyklus
In diesem Unterkapitel wird das aus den klassischen Algorithmen abgeleitete Vorgehensmodell operationalisiert. Es unterscheidet sich vom DMADV-Zyklus um die zusätzliche Phase Innovate. Das Vorgehen und die Methoden dieser Phase orientieren sich sehr stark an der Problemlösungstechnik TRIZ, die bereits seit längerem im Zusammenhang mit Six Sigma bzw. Design for Six Sigma diskutiert wird. Der Einsatz wesentlicher Methoden wird beispielhaft dargestellt. 5.1.1
Vorgehensmodell mit 5+1 Phasen
Wie in Abschnitt 3.3.2 beschrieben wurde, wird am Ende der Analyse-Phase das beste High Level-Design nach einem vorgegebenen Kriterienraster ausgewählt. Dieses wird in der sich anschließenden Design-Phase detailliert ausgearbeitet und dabei auf Komponenten- und Teileebene herunter gebrochen. Welches Produkt am Ende des Entwicklungsprozesses steht, ist maßgeblich davon abhängig, welches High Level-Design am Ende der Analyse-Phase favorisiert wird. Der Prozess läuft unweigerlich in die falsche Richtung, wenn man nicht auf das richtige Produkt setzt. In diesem Fall kann es dazu kommen, dass ein suboptimales Designkonzept perfektioniert wird. Die Analyse auf übergeordneter Ebene hat ebenso gezeigt, dass ein relativ hohes Ausgangsniveau bei der Erfüllung der CTQs nicht allein für den Produkterfolg entscheidend ist. Mindestens genauso wichtig ist ein relativ hohes Verbesserungspotenzial, das sich im Rahmen der Design-Phase durch eine systematische Vorge-
230
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
hensweise aktivieren lässt. Aus diesem Grund sollte mit der Ausarbeitung/ Detaillierung des Konzeptentwurfs nur dann fortgefahren werden, wenn das am Ende der Analyse-Phase realisierte Qualitätsniveau zuzüglich der möglichen Steigerung im Verlauf der Design-Phase maximal wird. Im Rahmen des Prozessschrittes „High Level-Design evaluieren“ ist analog zum DMAIC-Zyklus eine Quantifizierung der Möglichkeiten vorzusehen. Dadurch ist eine stärkere Ausrichtung am langfristig erreichbaren Qualitätsniveau/ CTQErfüllungsgrad gegeben, die dazu führt, dass neue, innovative Konzepte im Zuge der Evaluierung in der Analyse-Phase ein höheres Gewicht erlangen. Um ein innovatives Produktkonzept mit einem hohen (Weiter-)Entwicklungspotenzial zu erhalten, sind i.d.R. weiterführende, über die reine Analyse und Umsetzung von Kundenanforderungen hinausgehende Aktivitäten erforderlich. Wie in Abb. 5-1 zu sehen ist, werden diese in einer separaten Phase gebündelt. Im Ergebnis liegt ein erweiterter DFSS-Zyklus mit maximal sechs Phasen vor. Unmittelbares Vorbild für die Erweiterung um die (optionale) Phase Innovate sind die in Abschnitt 4.2.3 erläuterten Lokalen Suchverfahren. Sie erlauben es, über eine flexible Schrittweitensteuerung „Täler“ in der Zielfunktion zu überspringen. Die Innovate-Phase ist zu durchlaufen, wenn die in der Analyse-Phase erstellten Designkonzepte nicht zu den gewünschten Ergebnissen führen, wenn also die analysierten Kundenanforderungen nicht erfüllt und/ oder die vergleichbaren Wettbewerbsangebote nicht erreicht werden können. In diesem Fall ist der Einsatz von Kreativitätstechniken, z.B. Brainstorming, oder weiterführenden Erfindungsmethoden, z.B. TRIZ, naheliegend (vgl. Abschnitt 3.1.2). 5.1.2
Vorgehen und Methoden der Innovate-Phase
Im Unterschied zum „klassischen“ Six Sigma hat Design for Six Sigma zum Ziel, einen erkannten Bedarf durch eine möglichst neuartige Lösung mit einem hohen Kundennutzen zu befriedigen. Nach dem Kano-Modell kann nur bei einer überdurchschnittlichen Erfüllung von ausgewählten Kundenanforderungen eine Kundenbegeisterung hervorgerufen werden. Infolgedessen kommt es darauf an, möglichst innovative Lösungsvorschläge für das identifizierte Kundenproblem zu finden. Wie in Abschnitt 3.3.2 ausgeführt wurde, ist der Einsatz von Kreativitätsund Erfindungsmethoden insb. in der Analyse-Phase des DMADV-Zyklus vorgesehen. Im Hinblick auf ihr systematisches Vorgehen bei der Ideenfindung können die Methoden grundsätzlich in drei Gruppen eingeordnet werden: (a) Intuitive Methoden, z.B. Brainstorming/ -writing, 6-3-5-Methode, N/3-Methode und Delphi-Methode, die einfach anzuwenden sind und an verschiedenen Stellen des Entwicklungszyklus zum Einsatz kommen können (b) Systematische Methoden, z.B. Synektik, Bionik, Morphologischer Kasten, Paarweiser Vergleich und Nutzwertanalyse, die sich durch eine strukturierte(re), gleichzeitig auch formalisierte(re) Vorgehensweise auszeichnen
Abb. 5-1: Der erweiterte DMADV-Zyklus
• VOC-CTQ-Analyse
• QFD (1. HoQ)
• Benchmarking
• Gantt-Diagramm
Quelle: Eigene Darstellung
• Clusteranalyse etc.
• Lasten-/ Pflichtenheft
Methoden
Methoden
• Projektcharter
• Projektplan erstellen
• Kundenbedürfnisse sammeln und analysieren
• Kunden identifizieren, priorisieren und segmentieren
• Marktdaten auswerten
Vorgehen
• Problem/ Ziel definieren
Measure
Vorgehen
Define
• Prozess übergeben
Methoden • Design Scorecard • Regelkarten/ SPC
• Implementierung vorbereiten Methoden • QFD/ FMEA • DOE nach Shainin/ Taguchi
Methoden • TRIZ
• High Level Design evaluieren Methoden • Brainstroming/ -writing
• Zuverlässigkeit • Prozess-/ Maschinenfähigkeit
• Outputsimulation • Target Costing
• QFD/ FMEA
• Verfahrensanweisung
• Implementierung vorbereiten
• Detailliertes Design evaluieren
• ARIZ
• Designkonzepte bestimmen • High Level Design entwickeln
Vorgehen
Vorgehen
• Pilotierung durchführen
Verify Vorgehen
Design
• Detailliertes Design entwickeln
Innovate Vorgehen
Analyse
5.1 DMAIDV-Zyklus als erweiterter DFSS-Problemlösungszyklus 231
232
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
(c) Widerspruchsorientierte Methoden, z.B. TRIZ und WOIS, denen ein systematisches Problemlösungskonzept zugrunde liegt, welches darauf abzielt, Konflikte in Systemen, Produkten usw. zu finden und sie zu lösen. Allen genannten Methoden ist gemeinsam, dass sie darauf ausgerichtet sind, möglichst viel kreatives Ideenpotenzial bei den Akteuren freizusetzen. Während die erste Gruppe mehrheitlich durch subjektive, spontane und wenig systematische Aktivitäten gekennzeichnet ist, finden sich in der zweiten Gruppe systematische Methoden, die durch objektivierte, planmäßig durchlaufene und jederzeit wiederholbare Denk- und Handlungszyklen gekennzeichnet sind. Die Methoden der dritten Gruppe verlangen neben einer systematischen Arbeitsweise das Ableiten und Lösen von administrativen, technischen und/ oder physikalischen Widersprüchen.1 Gegenüber den Erfindungsmethoden/ -verfahren der ersten beiden Gruppen besitzen sie den Vorteil, den Entscheidungsfindungsprozess zu strukturieren und zu beschleunigen, die Wahrscheinlichkeit von fehlerhaften Entscheidungen, z.B. aufgrund von Subjektivität im Bewertungsprozess, zu verringern und die Lösungsqualität im Hinblick auf Innovations- und Wettbewerbsfähigkeit insgesamt deutlich zu erhöhen (vgl. Töpfer/ Günther 2007b, S. 154f.). Aufgrund umfangreicher Patentrecherchen kamen Altschuller et al. (1984) zu der Schlussfolgerung, dass Innovation kein Zufall ist. Vielmehr geht, so die Hypothese, jeder Idee und jeder Erfindung ein systematischer Prozess voran, der sich durch universelle Grundregeln erklären lässt. Durch die Kenntnis und Anwendung dieser Regeln ist es im Umkehrschluss möglich, gezielt Innovationen hervorzubringen. Die grundlegende Voraussetzung hierfür ist das Vorhandensein eines Widerspruchs, der durch die Anwendung von TRIZ aufgedeckt, verschärft und schließlich überwunden wird. Durch die Verbindung von Kreativität und Systematik mit Widerspruchsorientierung hilft TRIZ technisch-wissenschaftliche Aufgabenstellungen methodisch und systematisch zu entwickeln und ohne Kompromisse in „robuste“ Lösungen zu überführen (vgl. Günther 2004, S. 1).2 Die Anwendung von TRIZ basiert auf einer Vielzahl von Methoden und Instrumenten, die – vor allem im deutschsprachigen Raum – in die vier Gruppen „Systematik“, „Wissen“, „Analogie“ und „Vision“ eingeteilt werden (siehe Abb. 5-2). 1
2
Die Ausnutzung von Widersprüchen zum Auffinden von Innovationen wird bei Toyota – als einem Nicht-Six-Sigma-Unternehmen – in Form von „konstruktiver Eskalation“ praktiziert (vgl. Mandl 1999, S. 55). Die Mitarbeiter am Fließband werden hier seit Jahren ermutigt, bei Entdeckung eines Fehlers am Produkt das Band unmittelbar anzuhalten. Dadurch wird die Situation eskaliert und aus einem System, das eher träge auf Fehler reagiert, wird ein System mit kurzer Reaktionszeit. Aus regelungstechnischer Sicht wirkt das Anhalten des Bandes als Verstärker, mit dem eine von einem Einzelnen wahrgenommene Abweichung für das Unternehmen als Ganzes bedeutsam wird. Im Gegensatz zu anderen Kreativitätstechniken werden bei der Anwendung der TRIZMethodik neue Ideen abstrahiert, selektiert und spezifiziert. Dadurch wird die Qualität der Ergebnisse, d.h. die Generierung von Lösungsansätzen und ihre Realisierung, deutlich erhöht (vgl. Teufelsdorfer/ Conrad 1998, S. 9).
5.1 DMAIDV-Zyklus als erweiterter DFSS-Problemlösungszyklus
233
Diese vier Gruppen werden auch als die 4 TRIZ-Säulen bezeichnet, da sie die elementaren Eigenschaften kennzeichnen, die einen „guten“ Forscher und Entwickler auszeichnen. Auf die Beschreibung der einzelnen Methoden wird an dieser Stelle nicht näher eingegangen, da sie in der einschlägigen Literatur ausführlich behandelt werden (vgl. z.B. Orloff 2002; Herb et al. 2000).
TRIZ 1 Systematik
2 Analogie
Strukturierung von Problemen
Erkenntnisse aus anderen Bereichen
• • • • • • • • • • • •
Innovationscheckliste Ressourcencheckliste Problemformulierung Idealität Funktionen-/ ObjektModellierung Trimmen Operator MZK Zwerge-Modellierung Inverte Fehlererkennung 40 Innovationsprinzipien 4 Separationsprinzipien ARIZ 1956ff./ Meta-ARIZ
• Widerspruchsanalyse: - Administrativer Widerspruch („Problem“)
3
Wissen
Problemorientierte Prinzipien
4
Vision
Weiterentwicklung des Systems
• Effekte-Lexikon
• S-Kurve
• Internetrecherche
• Evolutionsgesetze
• Patentrecherchen
- Technischer Widerspruch („Konflikt“)
• Innovationsebenen
- Physikalischer Widerspruch („Widerspruch“) • Stoff-Feld-Modell mit 76 Standardlösungen
Antizipierende Fehlererkennung
Direkte Entwicklung
Innovative Problemlösung Basis: Herb et al. 2000, S. 56
Abb. 5-2: Konzeption und Inhalte der 4 TRIZ-Säulen
Die bekannteste Methode aus dem TRIZ-Toolset ist die auf Altschuller (1984) zurückgehende Widerspruchsanalyse.3 Ihr liegt die Erkenntnis zugrunde, dass sich alle möglichen technischen Anforderungen mithilfe von 39 (allgemeingültigen) Parametern beschreiben lassen. Gleichzeitig geht sie von der Annahme aus, dass alle denkbaren Widersprüche (max. 1.482) zwischen zwei technischen Anforderungen mit Hilfe von „nur“ 40 (allgemeingültigen) Innovations-Prinzipien gelöst werden können. Die 40 Prinzipien technischer Konfliktlösung zusammen mit den 39 Parametern technischer Systembeschreibung sind in der auf Altschuller (1984) zurückgehenden Widerspruchstabelle/ -matrix zusammengefasst.
3
Zur erfolgreichen Anwendung der Widerspruchsmatrix und den Innovationsprinzipien nach Altschuller gibt es mittlerweile auch kritische Stimmen. So weist z.B. Shub (2007, S. 20f.) darauf hin, dass die vorstehend genannten TRIZ-Werkzeuge nicht universell einsetzbar und zur Ideengenerierung nur bedingt geeignet sind. Zudem verkomplizieren sie nach Meinung des Autors den Innovationsprozess anstelle ihn zu vereinfachen.
234
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
Der TRIZ-Anwender wird zielgerichtet von seinem speziellen technischen Problem über die allgemeinen Parameter auf die geeigneten innovativen Prinzipien geleitet, die zu seiner Aufgabenstellung passen. Die Philosophie und Vorgehensweise von TRIZ ähnelt sehr stark der grundsätzlichen „Denkweise von Six Sigma“: In beiden Konzepten werden mit der Realitäts- und der Abstraktionsebene zwei Ebenen der Problemlösung unterschieden. Bei Six Sigma wird das reale Problem in ein statistisches transformiert und gelöst; bei TRIZ führt eine konkrete Problemstellung zu einer abstrakten Lösungssuche. Erst wenn eine zufriedenstellende Lösung auf der Abstraktionsebene gefunden worden ist, erfolgt die Rücktransformation in die Realitätsebene, d.h. die Umsetzung der abstrakten Lösung in ein reales Lösungskonzept (vgl. Töpfer/ Günther 2007b, S. 158). Als zentrale Kenn- bzw. Optimierungsgröße wird der Idealitätsgrad definiert, der sich – bezogen auf ein System – als Quotient aus der Summe „nützlicher“ Effekte (Nutzen) geteilt durch die Summe „schädlicher“ Effekte (Kosten) ergibt. Das Ziel besteht darin, den Idealitätsgrad entsprechend dem generellen Extremumprinzip durch Minimierung der Kosten und Maximierung des Nutzens zu optimieren. Anhand der Änderung des Idealitätsgrades durch eine Neuerung im System lässt sich der Innovationsgrad einer bestimmten Entwicklung/ Erfindung ableiten. Je größer die Änderung des Idealitätsgrades ist, desto höher ist also auch der Innovationsgrad einer neuen Lösung.4 Im Hinblick auf die Problemlösung mithilfe der Methoden der 4 TRIZ-Säulen unterscheidet man folgende drei Grade: (a) Innovative Problemlösung (Methoden aller vier Säulen), (b) Antizipierende Fehlererkennung (Methoden der Säulen „Systematik“, „Analogie“ und „Wissen“) und (c) Direkte Entwicklung (Methoden der Säule „Vision“). Die übergeordnete Zielsetzung von TRIZ läuft im Wesentlichen darauf hinaus, sich durch die Lösungssuche auf der Abstraktionsebene bestmöglich dem Leitbild bzw. der Vision des Idealitätsgrades anzunähern.5 Deshalb steht nach der Transformation des realen in das abstrakte Problem die rein rational-funktionelle Betrachtungsweise bei der Lösungssuche im Vordergrund. Das ideale funktionelle Modell bei einem Kugelschreiber lautet z.B.: „Die Tinte soll dickflüssig sein, damit sie nicht ausläuft; sie soll nicht dickflüssig sein, damit sie leicht durch das Arbeitsorgan fließen kann“ (vgl. Orloff 2002, S. 9f.). Unter Anwendung der Analogieverfahren in Abb. 5-2 lässt sich der Widerspruch beseitigen, der beim Errei4
5
Bei seinen Patentrecherchen stellte Altschuller u.a. fest, dass nur etwa 1% aller Erfindungen einen hohen Innovationsgrad aufweisen und damit als wirkliche Innovationen gelten. Hingegen handelt es sich bei ca. drei Viertel aller sogenannten Innovationen um „einfache“ Problemlösungen, die i.d.R. mit keinem besonderen Methoden- und Wissenshintergrund verbunden sind (vgl. Mazur 1995, S. 5f.). Neben dem Vorhandensein von Widersprüchen ist die Definition eines idealen Endresultats eine weitere wichtige Anforderung zur Anwendung von TRIZ. So ist bspw. die „beste“ Maschine nicht eine „schöne“ oder „starke“ Maschine, sondern eine auf das rein Funktionelle beschränkte, die „von selbst“ arbeitet und im besten Fall „gar nicht mehr da ist“ und trotzdem ihre Funktion erfüllt (vgl. Zobel 2004, S. 2ff.).
5.1 DMAIDV-Zyklus als erweiterter DFSS-Problemlösungszyklus
235
chen des idealen Resultats – Tinte tritt nur beim Schreiben aus – stört. Konkret hatten die Erfinder des Kugelschreibers (1938) die Idee vor Augen, ein Schreibgerät zu bauen, das wie eine Miniaturdruckmaschine funktioniert. Anstelle einer (miniaturisierten) Druckwalze, welche die Tinte gleichmäßig verteilt, setzten sie eine Kugel ein. Die sich drehende Kugel verwirklicht das Prinzip der ununterbrochenen Übertragung der Farbe von der Walze auf das Papier. Um „erfinderische Problemlösungen“ systematisch zu generieren, entwickelten Altschuller et al. Vorgehensmodelle, die in der einschlägigen Literatur unter der Bezeichnung ARIZ6 bekannt sind. Der erste „klassische“ Handlungsleitfaden (Algorithmus) stammt aus dem Jahr 1956; die darauf basierende Version ARIZ-68 umfasst die folgenden fünf Schritte (vgl. u.a. Zobel 2004, S. 3f.): (1) Strukturierte Problembeschreibung: Im ersten Schritt ist zu klären, welches Ziel erreicht bzw. welches Problem gelöst werden soll. Dazu ist das „ideale Endresultat“ zu definieren und – über einen Vergleich mit der aktuellen Situation – der konkrete Verbesserungsbedarf abzuleiten. Wird das Problem von vornherein als schwierig zu lösen eingestuft, ist über eine Umkehrung der Aufgabenstellung nachzudenken, da diese u.U. leichter zu bearbeiten ist als die Originalaufgabe, z.B. „Motor von Auto startet auf keinen Fall“ anstelle von „Motor startet bei jeder Witterungslage“. (2) Abstrahierte Problembeschreibung: In zweiten Schritt geht es darum, abstrakte Modellformulierungen, z.B. „Von Ort A nach Ort B kommen“, zu finden, da Fachtermini das Denken in Richtung konventioneller Lösungsansätze „kanalisieren“. Zu diesem Zweck ist z.B. mittels Patentrecherche zu eruieren, ob und wie ähnliche Aufgaben in der Fach- bzw. Patentliteratur gelöst worden sind. Aufgrund des Vergleichs des eigenen Problems mit bereits gelösten Problemen ist es i.d.R. möglich, die Aufgabe ohne gängige Fachtermini zu beschreiben und vergleichbare Patent-/ Problemlösungen zu finden. (3) Ideale Lösungsbeschreibung: Mit dem dritten Schritt wird das analytische Stadium des Problemlösungsprozesses erreicht. Ziel ist es, auf abstrakter Ebene eine ideale Lösung für das Problem zu beschreiben. Dabei sind die Erkenntnisse aus bisherigen Optimierungsversuchen zu berücksichtigen, wobei u.a. zu klären ist, warum bisherige Lösungsansätze versagten. Im Weiteren ist der Kernkonflikt herauszuarbeiten, welcher der wahrscheinliche Schlüssel zur Lösungsfindung ist. Das Standardvorgehen besteht darin, administrative in technische Widersprüche umzuwandeln und sie anschließend zu lösen. (4) Abstrahierte Lösungsfindung: Im vierten Schritt von ARIZ werden die den 4 TRIZ-Säulen zugeordneten Methoden/ Instrumente systematisch angewendet, um eine Lösung des Problems auf abstrakter Ebene herbeizuführen. Der Einsatz richtet sich dabei nach der Art des unter (3) beschriebenen Problems. Handelt es sich um einen technischen Widerspruch (z.B. Geschwindigkeit
6
Russ. Akronym für „Algoritm Reshenije Izobretatjelskich Zadacz“
236
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
hoch/ niedrig), dann kann versucht werden, die 40 innovativen Grundprinzipien auf das Problem anzuwenden. Liegt hingegen ein physikalischer Widerspruch vor (z.B. Gewicht hoch/ niedrig), dann ist über eine Variation des Arbeitsmediums, der Umgebung und/ oder der Verfahren nachzudenken.7 (5) Konkrete Lösungsbeschreibung: Die endgültige Lösung, die sich auf die konkrete Problemstellung bezieht, wird im fünften Schritt festgelegt. Durch die Rücküberführung der abstrakten Lösung in die reale Welt wird das synthetische Stadium des TRIZ-Algorithmus erreicht. Liegen mehrere Lösungsansätze vor, ist die „beste“ Lösung mit dem höchsten Zielerfüllungsgrad auszuwählen. Bei der Implementierung der Lösung ist zu prüfen, ob sich weitere Veränderungen empfehlen und/ oder ob das grundlegend veränderte System/ Objekt u.U. ganz neue Anwendungsmöglichkeiten beinhaltet. Generell bietet sich die Anwendung von TRIZ in DFSS-Projekten an, wenn spezifische, auf der Basis bisheriger Denkmuster schwierig zu lösende Probleme bei der Konzepterstellung aufgedeckt worden sind. Als widerspruchsorientiertes Erfindungskonzept ist sein Einsatz insbesondere im Zusammenhang mit QFD gerechtfertigt, um Konflikte und Widersprüche, die in einer Dimension, z.B. zwischen unterschiedlichen Produktfunktionen (im „Dach“ des HoQ), und/ oder in mehreren Dimensionen, z.B. zwischen Kundenanforderungen und Produktfunktionen (in der „Matrix“ des HoQ) offengelegt worden sind, aufzulösen (vgl. Töpfer/ Günther 2007b, S. 151f.). Unabhängig davon, welcher Art das Entwicklungsprojekt ist und welchen Umfang es besitzt, führt das Vorgehen nach ARIZ mit einer hohen Wahrscheinlichkeit zu innovativen Lösungsansätzen. Der 5-phasige Innovations-Zyklus soll ebenfalls die Grundlage für die InnovatePhase des erweiterten DMADV-Zyklus bilden. Als Ausgangspunkt für den Durchlauf der Phase dienen die in der Analyse-Phase entworfenen und bewerteten Designkonzepte, welche die folgenden zwei Voraussetzungen erfüllen: •
Die Konzepte besitzen eine hohe Potenz zur Lösung des Kundenproblems.
•
Die Konzepte weisen mindestens einen signifikanten Widerspruch auf.
Während die erste Voraussetzung leicht nachvollziehbar ist, lautet die Begründung für die zweite, dass Designkonzepte mit einem hohen Neuigkeits-/ Innovationsgrad nur dann bewusst erzeugt werden können, wenn (gravierende) administrative, technische und/ oder physikalische Widersprüche vorliegen, die durch die Anwendung eines systematischen Vorgehensmodells (ARIZ) beseitigt werden können.8 Hier liegt der Hauptunterschied von TRIZ zu allen bisherigen Erfindungs7
8
Im Hinblick auf die Idealität der Lösung ist jeweils zu prüfen, ob es Umkehrmöglichkeiten gibt, die dazu führen, dass z.B. etwas Schädliches in etwas Nützliches oder etwas Gefährliches in etwas Harmloses verwandelt wird. Für den Fall, dass sich bei den ermittelten High Level-Designs keine Widersprüche entdecken lassen, sind entsprechende zu konstruieren. Nur so ist es nach der Theorie von Altschuller möglich, neue, innovative Produkt- bzw. Prozessdesigns zu finden.
5.1 DMAIDV-Zyklus als erweiterter DFSS-Problemlösungszyklus
237
methoden, deren Fokus vordergründig auf Kreativität und Intuition liegt. Nachteile von TRIZ ergeben sich zum einen aus dem umfangreichen Werkzeugkasten, dessen Beherrschung umfangreiche Schulungen mit vielen praktischen Beispielen erfordert. Zum anderen werden für die Anwendung von TRIZ kreative Mitarbeiter mit einem hohen Abstraktionsvermögen benötigt.
5.2
Abgeleitetes Vorgehensmodell 2: IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen
Analog zum vorangegangenen Unterkapitel wird das aus den Evolutionären Algorithmen abgeleitete Vorgehensmodell operationalisiert. Konzeption und Inhalte unterscheiden sich grundlegend vom DMADV-Zyklus. Allein der Fünf-PhasenAnsatz mit phasenspezifischem Methodeneinsatz wird beibehalten. Die Einordnung in das DFSS-Rahmenkonzept bleibt an dieser Stelle offen. Im Vordergrund steht die Entwicklung eines stringenten Verbesserungszyklus auf der Grundlage von Genetischen Algorithmen, wie sie zur Lösung von komplexen Optimierungsaufgaben eingesetzt werden (vgl. Abschnitt 4.3.3). Während es sich beim DMAIDV-Zyklus um eine eher inkrementale Weiterentwicklung des in der Praxis weit verbreiteten DMADV-Zyklus handelt, stellt der im folgenden Abschnitt abgeleitete IESRM-Zyklus ein völlig neues DFSS-Vorgehensmodell dar. 5.2.1
Vorgehensmodell mit 5 Phasen
Entsprechend den bekannten, primär technisch orientierten Qualitätsregelkreisen DMAIC und DMADV wird der IESRM-Zyklus nach dem Vorbild biologischer Evolutionsprozesse konzipiert. Ziel ist es, den abstrakten GA-Basisalgorithmus, wie er in Abb. 4–10 visualisiert worden ist, für betriebliche Verbesserungszwecke zu operationalisieren und eine konkrete Prozess- und Methodenbeschreibung für den vorstehend genannten Problemlösungszyklus zu geben. Das Akronym IESRM steht für die fünf wesentlichen Phasen, die bei der Bearbeitung von Optimierungsaufgaben nach evolutionärem Muster zu durchlaufen sind: Initialisierung, Evaluierung, Selektion, Rekombination und Mutation, wobei die drei letztgenannten Phasen zu einem Operator9 zusammengefasst werden können. Der IESRM-Zyklus lässt sich analog zum PDCA-Zyklus in Form eines Rades, welches einer schiefen Ebene hinauf gerollt wird, metaphorisch darstellen. Die schiefe Ebene in Abb. 5-3 wird in der Horizontalen durch die Dimension „Zeit“ und in der Vertikalen durch die Dimension „Verbesserung“ determiniert. Das aufwärts rollende Rad symbolisiert die kontinuierliche Verbesserung eines Objektes (z.B. Produkt, Dienstleistung oder Prozess) über die Zeit, indem die
9
Der S-R-M-Operator kennzeichnet die eigentliche Verbesserungsschleife, die aus einer nicht zufriedenstellenden Bewertung der vorhandenen Lösungsansätze in der Evaluierungs-Phase in Gang gesetzt wird (vgl. Abschnitt 4.3.3).
238
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
Evaluierungs-Phase sowie die drei Phasen des S-R-M-Operators iterativ durchlaufen werden. Die Initialisierungs-Phase ist zugleich Start- und Endpunkt der Verbesserungsaktivitäten. Sie lässt sich – bildlich gesprochen – mit einem Bremskeil vergleichen, der das Zurückrollen des ESRM-Rades am Hang verhindert. In Anlehnung an das Anwendungsbeispiel zum Design eines nutzenmaximalen Kugelschreibers in Abschnitt 4.3.4 sind im Rahmen der Prozessbeschreibung die folgenden sieben Parameter respektive Variablen zu operationalisieren: POPSIZE, BITS, FIT(Y), KEEP, CROSSPROB, MUTPROB und MAXITER. Rekombination
Selektion
Evaluierung Initialisierung
Quelle: Eigene Darstellung
Verbesserung
Mutation
Zeit
Abb. 5-3: Kontinuierliche Verbesserung mit IESRM-Zyklus
Im Gegensatz zu anderen Verfahren der Produktentwicklung, z.B. Conjoint-Analyse, beinhaltet der IESRM-Zyklus ein definiertes Schema zur (Re-)Kombination der Merkmale, um funktionsfähige Produkte mit einem hohen Nutzen für den Kunden zu generieren. Nach evolutionstheoretischem Ansatz handelt es sich bei den Produkten um Lebewesen, die nach einer Maximierung der individuellen Fitness streben. Je höher die Fitness ist, desto größer ist die Wahrscheinlichkeit, dass sie von den potenziellen Kunden gekauft werden. Um Produkte mit einer hohen Fitness zu erhalten, werden sie – genau wie in der Natur – „gezüchtet“. Dazu sind n Lösungsvarianten in einer Population zusammenzufassen und in einen evolutionären Entwicklungsprozess einzubringen.
5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen
239
Das Primärziel des Prozesses, der im Folgenden im Detail beschrieben wird, besteht darin, die durchschnittliche Fitness der Population zu maximieren.10 Initialisierungs-Phase Die Initialisierungs-Phase stellt den Ausgangspunkt für die Durchführung des Entwicklungsprojektes dar. Die Inhalte decken sich im großen und ganzen mit denen der Define-Phase des DMADV-Zyklus. Zu Beginn des Verbesserungsprojektes ist ein Projektauftrag bzw. eine Projektcharter zu definieren, in der u.a. der Business Case, also der Problemhintergrund, die Projektziele und der voraussichtlich erreichbare Projektnutzen (Net Benefit) spezifiziert werden. Weiterhin sind Angaben zum Projektumfang/ -rahmen, der Rollenverteilung/ Verantwortlichkeit sowie der anvisierten Projektlaufzeit zu machen. Nach Erstellung der Projektcharter sind die Zielgrößen des Projektes in Form von CTQs zu spezifizieren. Als unterstützende Methoden kommen hier die VOC-CTQ-Analyse aus dem DMAICZyklus und/ oder das 1. House of Quality (HoQ) aus dem DMADV-Zyklus zum Einsatz. Für die Messung der CTQs sind u.U. technische Messsysteme erforderlich, die im Vorfeld einer Messsystemanalyse (Gage R&R) zu unterziehen sind. Dadurch lässt sich die Wiederholbarkeit (Repeatability) und Reproduzierbarkeit (Reproducibility) der Messungen sicherstellen und ggf. verbessern. Im Unterschied zu den klassischen Six Sigma-Verbesserungszyklen kommen beim IESRM-Zyklus bereits in der Initialisierungs-Phase Kreativitätstechniken zum Einsatz, z.B. Brainstorming/ -writing und Morphologischer Kasten. Ziel ist es, bereits zu Beginn eine möglichst große Anzahl unterschiedlicher Problemlösungen „ins Rennen zu schicken“, um die Chance, die ideale Lösung zu finden, zu maximieren.11 Im übertragenen Sinn bedeutet dies, dass die Lösungskandidaten in der Ausgangspopulation relativ inhomogen zueinander sein sollten, damit die Problemlösungsfähigkeit der Population insgesamt steigt. Im Gegensatz zum DMAIC-/ DMADV-Zyklus geht es weniger darum, eine bestimmte Lösungsalter-native zu finden, welche die geforderten CTQs optimal erfüllt. Vielmehr soll die Population als Ganzes in Richtung Optimum verbessert werden. Zu diesem Zweck werden die individuellen Fitnesswerte aggregiert. Das Primärziel der Initialisierungs-Phase besteht vor diesem Hintergrund darin, möglichst viele Lösungsalternativen zu generieren, die im definierten Bit-String abbildbar sind. Ausgehend von der GA-Programmierung sind in der Initialisierungs-Phase zum einen die Populationsgröße (POPSIZE), also die Anzahl potenzieller Lösungen
10
11
Die Zielstellung ist anders gelagert als bspw. bei populationsökologischen Erklärungsansätzen im Rahmen der Organisations- und Managementwissenschaften. Hier geht es primär um die Beantwortung der Frage, warum bestimmte Unternehmen bzw. Unternehmenstypen überleben und andere nicht (vgl. Abschnitt 4.3.2). Dieser Ansatz deckt sich mit der Aussage des Fisher-Fundamentaltheorems der natürlichen Selektion, nach der die Verbesserung der durchschnittlichen Fitness einer Population proportional zur Varianz der Fitness innerhalb der Population ist.
240
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
für das definierte Kundenproblem, sowie zum anderen die Chromosomengröße (BITS) festzulegen, durch welche die reale Problemlösung in codierter Form erfasst wird. Während die Chromosomengröße bestimmt, wie viele unterschiedliche Lösungsvarianten maximal codierbar sind, ist die Populationsgröße ein Indikator dafür, mit wie vielen Lösungskandidaten der definierte Suchraum pro Runde parallel abgesucht wird. Für beide Parameter gilt: Je größer, desto besser. Der Suchraum (SOLUTION) ergibt sich aus der Anzahl unabhängiger Merkmale, welche bei der Optimierung Berücksichtigung finden, sowie der Größe ihrer Definitionsbereiche. Als Hilfsmittel zur Definition/ Abgrenzung des Suchraums12 eignen sich der Morphologische Kasten und das Ishikawa-Diagramm. Bei letzterem werden die (vermuteten) Ursachen-Wirkungsbeziehungen zwischen definiertem CTQ und relevanten Einflussgrößen in Form einer Fischgräte visualisiert. Für eine effektive und effiziente Lösungsfindung sollten Suchraum-, Populationsund Chromosomengröße in einem ausgewogenen Verhältnis stehen – sie bilden das „magische Dreieck“ der evolutionären Produktentwicklung (siehe Abb. 5-4). Große Suchräume ziehen i.d.R. große Populationen und lange Chromosomen nach sich, wobei der erforderliche F&E-Aufwand überproportional steigt, c.p. Suchraumgröße SOLUTION
F&EAufwand
Populationsgröße POPSIZE
Chromosomengröße BITS
Quelle: Eigene Darstellung
Abb. 5-4: Das „magische Dreieck“ der evolutionären Produktentwicklung
Die (De-)Codierung der Lösungen ist ein essentieller Bestandteil von GAs. Sie wird deshalb beim Layout des IESRM-Zyklus explizit berücksichtigt. Verfolgt man im Rahmen der Produktentwicklung reine Evolutionsstrategien (ES), dann kann auf die Codierfunktion prinzipiell verzichtet werden (vgl. Abschnitt 4.3.1). 12
Die Definition des Such-/ Lösungsraums wurde im Zusammenhang mit der beispielhaften Beschreibung der Funktionsweise von GAs in Abschnitt 4.3.4 nicht weiter thematisiert. Bei der Lösung praktischer Probleme stellt sie jedoch eine wesentliche Aufgabe zu Beginn des F&E-Projektes dar.
5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen
241
In diesem Fall findet die Evolution ausschließlich auf der Phänotypebene statt; die n unabhängigen Merkmale werden auf direktem Wege rekombiniert und mutiert. Genau wie bei DOE steigt aufgrund der Kombinatorik die Anzahl der möglichen Lösungen mit der Anzahl unabhängiger Merkmale exponentiell. Dadurch werden bereits in der Initialisierungs-Phase sowohl die Genauigkeit (Effektivität) als auch die Schnelligkeit (Effizienz) des Suchprozesses determiniert. Zwischen den genannten Größen besteht ein Trade-off, der im Zusammenhang mit dem Anwendungsbeispiel in Abschnitt 5.3.1 genauer analysiert wird. Wie fein/ grob der Suchraum nach der optimalen Lösung abgesucht wird, lässt sich an der Anzahl abgeleiteter Merkmale bzw. Einflussgrößen und zugehöriger Ausprägungen festmachen. Je differenzierter die Abstufung in den einzelnen Merkmalsausprägungen gewählt wird, desto mehr Stellen umfasst der Bit-String und desto feiner wird der Suchraum nach dem globalen Optimum abgesucht. Die Frage, wie schnell/ langsam bei der Lösungssuche vorgegangen werden kann, ist – neben der Effizienz der sich anschließenden Projektphasen – abhängig vom Pool der bestehenden Problemlösungen in der Ausgangssituation. Das Aufspüren des Optimums wird beschleunigt, wenn – wie oben ausgeführt – die Lösungen in der Ausgangspopulation möglichst heterogen sind, d.h. es existieren viele verschiedene Produktlösungen, die auf das gegebene Kundenproblem „passen“. Evaluierungs-Phase In dieser Phase ist der Bewertungsalgorithmus zu spezifizieren, auf dessen Basis die Lösungskandidaten jeweils vor bzw. nach einem Durchlauf der Phasen Selektion, Rekombination und Mutation (S-R-M-Operator) evaluiert werden. Nach den Ausführungen in Abschnitt 4.3.3 ist die Fitness13 der in der Population befindlichen Lösungen zu ermitteln. Um eine möglichst objektive Bewertung der Problemlösung aus Kundensicht zu erreichen, wird empfohlen, die Fitness anhand des realisierten Kundennutzens zu bestimmen. Es ist davon auszugehen, dass zu Projektbeginn die Erfüllung der Kundenanforderungen und damit der Nutzen- bzw. Fitnesswert der Lösungen im Durchschnitt relativ gering ist. Er steigt im Verlauf der Projektbearbeitung kontinuierlich an. Um die Weiterentwicklung in Richtung Optimum/ Idealität messbar zu machen, wird das erreichte Fitnessniveau nach jedem Durchlauf des S-R-M-Operators evaluiert. Dabei ist im Vorfeld, möglichst
13
Das Fitness-Konzept ist in der biologischen Evolutionstheorie von herausragender Bedeutung. Bei der Bewertung von ökonomisch-technischen Sachverhalten spielt es eine eher untergeordnete Rolle. In der englischsprachigen Literatur wurde der Begriff des „Strategic Fit“ geprägt; er steht für die Güte des Zusammenhangs zwischen Umwelt, Struktur und Strategie eines Unternehmens. Die Vorstellung einer „guten Passung“ (Fit) zwischen den drei genannten Größen entspricht der pragmatischen Ausrichtung und Zielstellung des situativen Ansatzes. Ein hoher Fit ist demnach die Voraussetzung für eine hohe Effizienz und Effektivität der Organisation (vgl. Bea/ Haas 2005, S. 378f.). Daraus lässt sich der Begriff der „Fitness“ ableiten, welcher – im übertragenen Sinn – die Höhe des erzielten System-Umwelt- bzw. Intra-System-Fit determiniert.
242
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
bereits in der Initialisierungs-Phase, eine genaue Spezifikation der Zielgröße(n) vorzunehmen, um die Objektivität der Messungen zu gewährleisten. Im Zuge der Projektdurchführung stellt sich immer wieder die Frage, wie gut einzelne Lösungen die Zielvorgaben des Unternehmens und/ oder die Erwartungen der Kunden erfüllen. Der Operational Fit ist ein Maß für die Annäherung der gefundenen Lösung(en) an die ideale Lösung, die in den Vorstellungen der Kunden/ des Unternehmens existiert. Wie bereits oben erwähnt, soll hier „Fitness“ in direktem Zusammenhang mit „Nutzen“, den ein Kunde aus dem Konsum eines Produktes/ einer Dienstleistung zieht, gesehen werden. Während die Fitness eines Individuums aus der „situationsgerechten Ausprägung“ gleich mehrerer (organischer) Merkmale resultiert, ergibt sich der Nutzen eines Konsumenten aus der „problemadäquaten Kombination“ von Merkmalen/ Merkmalsausprägungen, die sich zu Nutzenbündeln zusammenfassen lassen. Der Wert, den eine Problemlösung aus Sicht des Kunden besitzt, entspricht folglich dem Gesamtnutzen, der aus der Aggregation der Teilnutzenwerte resultiert. Letztere lassen sich sowohl progressiv (direkt) über ein metrisches Bewertungsverfahren als auch retrograd (indirekt) über ein ordinales Rangordnungsverfahren bestimmen. Nur in Ausnahmefällen wird die optimale Zielerreichung durch die zur Auswahl stehenden Handlungsalternativen erreicht. Häufig tritt der Fall auf, dass gleich mehrere Alternativen zu zulässigen, optimumnahen Ergebnissen führen, jedoch mit unterschiedlicher Ergebnishöhe, unterschiedlichem Eintrittszeitpunkt und/ oder unterschiedlicher Sicherheit. Der Entscheidungsträger prüft dabei die relative Vorteilhaftigkeit der Alternativen vor dem Hintergrund persönlicher Höhen-, Zeitund Sicherheitspräferenzen. Aus diesem Grund sind in der Praxis i.d.R. mehrere Nutzenbewertungen erforderlich, die schließlich zu einer einheitlichen Nutzenfunktion u(y) zusammengeführt werden. Die Entscheidungsregel, die vordergründig auf die Nutzenfunktion von Individuen abstellt, ist die Bernoulli-Regel (vgl. Wiese 2002, S. 14f.). Sie besagt, dass diejenige Handlungsalternative auszuwählen ist, die den höchsten Zielerreichungsgrad aufweist. In seiner allgemeinen Form fordert es die Maximierung des Erwartungswertes für die Zielerreichung. Dazu ist die Ergebnismatrix in eine Nutzenmatrix zu überführen, wobei jedem einzelnen Ergebnis yij ein Nutzen u(yij) zugeordnet wird. Im Ergebnis wird beim o.g. Prinzip über den Erwartungswert des Nutzens entschieden. Das Risikoverhalten des Entscheidungsträgers, welches von risikoavers über risikoneutral bis zu risikofreudig reicht, wird dabei implizit über den Verlauf der Nutzenfunktion berücksichtigt.14 Zur Ermittlung des Nutzwertes
14
Es kann gezeigt werden, dass ein Entscheidungsträger (z.B. Manager oder Kunde) genau dann risikoavers ist, wenn seine Nutzenfunktion konkav verläuft, wenn also ihr Anstieg mit zunehmender Merkmalsausprägung abnimmt. Demgegenüber zeichnet sich ein risikofreudiger Akteur dadurch aus, dass er jeweils die Alternative mit dem vermutlich höchsten Zielereichungsgrad wählt; bei ihm verläuft die Nutzenfunktion konvex.
5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen
243
gibt es einschlägige Verfahren, z.B. Nutzwertanalyse, Platzziffer-Verfahren und Paarweiser Vergleich; diese werden in Abschnitt 5.2.2 kurz vorgestellt. Außerdem wird auf die Fitness-Transformation eingegangen, die – analog zur Nutzenmatrix – erforderlich ist, um die ermittelten Merkmalswerte zu normieren. Das Konzept der Maximierung des individuellen Nutzens sowie das Konzept der Maximierung der individuellen Fitness basieren auf den gleichen mathematischstatistischen Prinzipien. Sie gehen auf den Mathematiker und Physiker DANIEL BERNOULLI (1738) zurück. Um Optimierungsprobleme bei unsicherem bzw. ungewissem Entscheidungsumfeld zu lösen, forderte er die Maximierung des geometrischen anstelle des arithmetischen Mittels. Ein solches Umfeld liegt sowohl in der Natur als auch in Unternehmen in der Mehrzahl der Fälle vor. Nach Stearns (2000, S. 224ff.) ist das geometrische dem arithmetischen Mittel bei Entscheidungen unter Risiko bzw. Ungewissheit jeweils vorzuziehen, da es neben dem Niveau auch die Streuung der Einzelwerte der Zielgröße berücksichtigt. Es kann mathematisch gezeigt werden, dass sich der geometrische Mittelwert einer Wahrscheinlichkeitsverteilung aus dem Erwartungswert μ und der Varianz σ2 ergibt (vgl. Young/ Trent 1969).15 In der Statistik wird die Schätzung des geometrischen Mittels häufig über das arithmetische Mittel als Schätzer für μ abzüglich eines Korrekturterms, der die Varianz σ2 berücksichtigt, vorgenommen. Danach ergibt sich die geometrische mittlere Fitness der Population wie folgt:
fit Pop = μ fit i −
σ 2fit i 2 ⋅ μ fiti
(5.1)
Aus dieser Beziehung leitet sich unmittelbar die Erkenntnis ab, dass bei der Maximierung des geometrischen Mittels das Risiko, falsche Entscheidungen zu treffen, minimiert wird. Gleichzeitig wird offensichtlich, dass zwischen Erwartungswert und Varianz eine Austauschbeziehung (Trade-off) besteht, die dazu führt, dass z.B. eine geringere erwartete Fitness der Population durch eine geringere Varianz der Fitnesswerte der einzelnen Lösungen kompensiert werden kann. Die Maximierung der geometrischen mittleren Fitness fit Pop setzt – entsprechend Gleichung (5.1) – die Maximierung von μ und die Minimierung von σ2 der ge& messenen Fitnesswerte fit i ( y ) innerhalb der Population voraus.
15
Ein Entscheidungsträger, bei dem die Nutzenfunktion geradlinig verläuft, ist risikoneutral (vgl. Sturm 2005, S. 56f.; Bültel/ Wiese 1996, S. 781ff.). μ wird – bei Entscheidungen unter Ungewissheit – über das ungewogene arithmetische Mittel aller Ursprungswerte geschätzt. σ2 wird – im gleichen Fall – über das ungewogene arithmetische Mittel der quadrierten Abstände aller Beobachtungswerte vom Mittelwert der Stichprobe geschätzt (vgl. Sturm 2005, S. 56f.).
244
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
S-R-M-Operator Die generelle Risikoeinstellung eines Individuums hat einen wesentlichen Einfluss darauf, welche Lösungen wie bewertet und infolgedessen selektiert werden. Um vermarktungsfähige Produkte zu erhalten, ist stets eine Bewertung aus Kundensicht vorzunehmen. Dabei sollten im Rahmen von Neuprodukt-/ Neuprozessentwicklungen nicht die Untersuchung von Kundenanforderungen/ -bedürfnissen im Vordergrund stehen, sondern die gezielte Analyse von Kundenproblemen. Wie in Abschnitt 3.1.1 ausgeführt wurde, ist es nur dadurch möglich, die latenten Gründe für den Kauf/ Nicht-Kauf eines Produktes offen zu legen (vgl. Shiba et al. 1993). Um ein möglichst umfassendes Bild über das bestehende und zu lösende Kundenproblem zu erhalten, sind in erster Linie die vier Dimensionen Kundenerwartung, Kundennutzen, Kundenvorteil und Kundenzufriedenheit zu messen und zu analysieren. Dies wird in der vorgelagerten Evaluierungs-Phase durchgeführt. Die differenzierte Messung und Analyse der Dimensionen bildet die Grundlage für eine effektive, d.h. zielgerichtete Selektion der bis dato gefundenen Lösungen. Die Wahrscheinlichkeit, mit der eine Lösung für die Reproduktion selektiert wird, ist davon abhängig, wie gut sie im Vergleich zu anderen Lösungen ein definiertes Problem – aus Kunden- und/ oder aus Unternehmenssicht – zu lösen vermag. Bezogen auf das „Weiterkommen“ eines einzelnen Lösungskandidaten i ist also & nicht die absolute, sondern seine relative Fitness fit irel ( y ) im Pool entscheidend. Sie wird allgemein nach folgender Gleichung ermittelt: & fit abs ( y ) & fit irel ( y ) = k i (5.2) abs & fit i ( y )
¦ i =1
Durch die Funktion KEEP wird sichergestellt, dass eine gefundene beste Lösung fit i*, g nicht durch Zufall in der nächsten Generation g verloren geht.16 Im Rahmen einer Elitismusoption ist zu überprüfen, ob der beste Lösungskandidat der aktuellen Generation (Kindergeneration) einen schlechteren Fitnesswert als der beste Lösungskandidat der vorhergehenden Generation (Elterngeneration) besitzt. Ist dies der Fall, wird die beste Lösung der Elterngeneration in die Kindergeneration sozusagen „hinübergerettet“. Infolgedessen ist der Verlauf der Fitnessfunktion des jeweils besten Lösungskandidaten über die Zeit monoton, d.h. die Bewertungspunktzahl der „Spitzenlösung“ ist nach jeder Iteration größer gleich der Bewertungspunktzahl der „Spitzenlösung“ in der Ausgangspopulation. Die Dauer des Suchvorganges, d.h. die Anzahl der Iterationen des S-R-M-Operators wird durch die Festlegung des Parameters MAXITER nach oben hin begrenzt.
16
Dies kann durchaus oft passieren, wenn die Population bei jedem Durchlauf des S-RM-Operators jeweils komplett ersetzt wird.
5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen
245
Die nach einem bestimmten Selektionsmechanismus ausgewählten Lösungen stellen die Intermediärpopulation dar. Aus dieser werden der Reihe nach je zwei Lösungen (Individuen) zur Rekombination zufällig ausgewählt. Unter der Voraussetzung, dass die ausgewählten Lösungskandidaten nicht identisch sind, wird durch Kreuzung der codierten Eigenschaftswerte eine Neustrukturierung der „genetischen Information“ und infolgedessen der produktbezogenen Merkmale/ Merkmalsausprägungen erreicht. Die systematische Veränderung der codierten Eigenschaftswerte führt dazu, dass sich die Lösungsalternativen der Kindergeneration von denen der Elterngeneration z.T. signifikant unterscheiden. Wie schon an anderer Stelle ausgeführt, findet die „Durchmischung des Erbgutes“ vor allem zwischen den Lösungen statt, die eine relativ hohe Fitness besitzen und deshalb von der Selektion bevorzugt werden (vgl. auch Abschnitt 4.3.3). Die Populationsgröße bleibt infolge des Reproduktionsvorganges unverändert, da die in der Elterngeneration befindlichen Lösungen jeweils paarweise zu zwei Nachkommen rekombiniert werden. Dabei ist im Bit-String mind. eine Kreuzungsstelle zufällig auszuwählen, an der ein Austausch der codierten Eigenschaftswerte der zwei Produkt- bzw. Prozesslösungen erfolgt. Mit welcher Wahrscheinlichkeit der Austausch der Bit-Zeichenfolgen an der ausgewählten Stelle tatsächlich stattfindet, wird durch den Parameter CROSSPROB festgelegt. Ist die Crossing-over-Wahrscheinlichkeit hoch, dann werden durch den Rekombinationsmechanismus eine Reihe von neuen Lösungen erzeugt, welche die Merkmalsausprägungen von jeweils zwei Vorgängerlösungen in sich vereinigen. Dadurch kommt es zum einen zur Bewahrung (Retention) von Merkmalen, die sich im Wettbewerb als vorteilhaft erwiesen haben. Zum anderen lässt sich auf diese Weise feststellen, ob die Kombination von Merkmalen/ Merkmalsausprägungen einen Einfluss auf die Höhe der Fitness besitzt. Während die Reproduktion zu einer mehr oder weniger gewollten Variation der Eigenschaftswerte von Individuen innerhalb der Population führt, kommt es infolge der Mutation zu ungewollten Veränderungen im Bit-String einzelner Lösungen. Zur Nachahmung der biologischen Mutation wird jedes Bit eines erzeugten Nachkommen mit einer sehr geringen Wahrscheinlichkeit MUTPROB invertiert bzw. mit einem anderen vertauscht. Genau wie bei der Rekombination gilt: Vor allem lange Schemata sind gefährdet, durch die Änderung von nur einer Stelle in der Bit-Zeichenfolge zerstört zu werden.17 Trotz dieser Tatsache sind Mutationen von entscheidender Bedeutung für das Auffinden innovativer Problemlösungen. Durch
17
Mutationen sind die Tastschritte der Natur, um i.d.R. über kleine, selten über große Änderungen im Genotyp ganz neue Wege der Problemlösung zu finden. Fisher (1930, S. 38ff.) beschreibt in diesem Zusammenhang einen einfachen, aber sehr eleganten Weg, um das Problem formal-analytisch zu erfassen. Seine Argumentation basiert auf einem geometrischen Modell, mit dessen Hilfe sich die Bedingungen für Mutationen, die zu einer verbesserten Anpassung des Individuums führen, spezifizieren lassen.
246
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
sie lassen sich u.a. die Sprungstellen in der Entwicklung von Technologien erklären, z.B. Übergang von mechanischen auf elektronische Systeme. 5.2.2
Phasenbezogener Methodeneinsatz
Die Methoden und Instrumente, die für den Einsatz im Rahmen des IESRMZyklus infrage kommen, entstammen zum großen Teil aus der DFSS- sowie TRIZ-Toolbox. Ihre Inhalte und Konzeptionen sind weitläufig bekannt und bedürfen keiner detaillierten Darstellung. Die Ausführungen konzentrieren sich deshalb auf die wesentlichen Ziele/ Inhalte sowie den vernetzten Einsatz. In Abb. 5-5 ist das phasenspezifische Vorgehen des IESRM-Zyklus zusammen mit den vorzugsweise anzuwendenden Methoden aufgeführt. Sie werden im Folgenden kurz beschrieben und – soweit sie nicht standardmäßig im Six Sigma-Konzept verankert sind – am Beispiel „Kugelschreiber“ ausgeführt (vgl. Abschnitt 4.3.4). Methoden der Initialisierungs-Phase Im Hinblick auf die Vorgehensschritte und den Methodeneinsatz ist die erste Phase des IESRM-Zyklus am umfangreichsten. Der Zeit- und Ressourcenbedarf für die Initialisierung des Projektes sind – im Vergleich zu den restlichen vier Phasen des Problemlösungszyklus – relativ hoch. Die Methoden, die zu Projektstart zum Einsatz kommen, entstammen zum überwiegenden Teil aus der klassischen Toolbox des Qualitäts- und Innovationsmanagements (vgl. Unterkapitel 3.1). Besonderheiten ergeben sich lediglich hinsichtlich ihrer phasenspezifischen Kombination, die dem Grunde nach neu ist und deshalb hier erklärt wird: •
Projektcharter: Die Projektcharter, die als Methode in der InitialisierungsPhase an erster Stelle steht, dient zur Problem- und Zielspezifikation. Sie hat sich im Rahmen von (Design for) Six Sigma-Projekten als Planungs- und Kontrollinstrument bewährt. Aufbau und Inhalte wurden bereits im Zusammenhang mit dem DMAIC-/ DMADV-Zyklus in Unterkapitel 3.3 erläutert. Eine spezifische Anpassung für die Durchführung des IESRM-Zyklus ist insoweit nicht erforderlich. Unter dem Punkt Net Benefit, der für Six SigmaProjekte essentiell ist, sind vorzugsweise Angaben zu Target Costs bzw. Costs of Design zu machen (vgl. Simon/ Dahlhoff 1998).
•
VOC-CTQ-Analyse: Nachdem die Projektinhalte und -ziele für alle Beteiligten klar definiert sind, geht es im zweiten Schritt um die Spezifizierung der Zielgröße(n). Es sind Metriken zu entwickeln, anhand derer der Projekterfolg, insb. der Zielerreichungsgrad des F&E-Vorhabens, nachvollzogen werden können. Im Sinne von DFSS ist ein Projekt dann erfolgreich, wenn mit dem neu konzipierten Produkt/ Prozess alle zukünftigen wesentlichen Kundenanforderungen – unter Beachtung des Wirtschaftlichkeitsprinzips – erfüllt werden. Eine einfache Methode, um herauszufinden, was dem Kunden an einem Produkt/ einer Dienstleistung (besonders) wichtig ist, ist die VOC-CTQAnalyse (vgl. Abschnitt 3.3.1). Aus den definierten CTQs lassen sich – direkt oder indirekt – die kritischen Qualitätsmerkmale ableiten.
• Lösungen bewerten • Fitness-Wert berechnen für einzelne Lösung für ges. Population
• Zielgröße(n) festlegen
Abb. 5-5: Die fünf Phasen des IESRM-Zyklus • Nutzwertanalyse • Platzziffer-Verfahren • Paarweiser Vergleich • Fitness-Transformation • S-Kurvenverlauf
• VOC-CTQ-Analyse
• Gage R&R
• Ishikawa-Diagramm
• Brainstorming/ -writing
Quelle: Eigene Darstellung
• Codier-Tableau
• Morphologischer Kasten
Methoden
Methoden
• Projektcharter
• Lösungen codieren (Æ Æ Genotyp)
• Lösungen generieren
• Suchraum definieren
• Messsystem prüfen
Vorgehen
• Problem/ Ziel definieren
Evaluierung
Vorgehen
Initialisierung
• Lösungen zufällig variieren
• Neue Lösungen durch „Kreuzung der Gene“ erzeugen (Kindergeneration)
• Attribute Listing
• n-Point-Crossover • Uniform-Crossover
• Codier-Tableau
• Swapmutation
• 1-Point-Crossover
• Proportionale Selektion • Rangbasierte Selektion
Methoden • Flipmutation
Methoden
Methoden
• Lösungen decodieren (Æ Æ Phänotyp)
Vorgehen
Vorgehen
Mutation
• Lösungen für „Fortpflanzung“ auswählen/ selektieren (Elterngeneration)
Rekombination
Vorgehen
Selektion
Iteration
5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen 247
248
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
In der Vergangenheit sind zur genaueren Bestimmung von Kundenanforderungen/ -bedürfnissen und deren Wichtigkeit eine Reihe von mehrstufigen Verfahren und Tools entwickelt und in der Unternehmenspraxis – mit mehr oder weniger großem Erfolg – angewendet worden, z.B. Quality Function Deployment (QFD) und Conjoint Measurement (CM) (vgl. Abschnitt 3.3.2). Hauptansatzpunkt ist die Bewertung von Produktalternativen und deren einzelne Bestandteile mit dem Kunden und durch den Kunden. Auf diesem Weg können Produkte/ Dienstleistungen mit einem hohen Nutzen für den Kunden identifiziert und ggf. ausgebaut werden. Für die wirkungsvolle Anwendung des IESRM-Zyklus sind diese Verfahren aber nicht zwingend erforderlich, wie an den Beispielen in Abschnitt 5.3 zu sehen ist. •
Gage R&R: Die CTQs sind so zu formulieren, dass sie direkt messbar sind oder – zumindest indirekt – über Outputmessgrößen erfasst und quantifiziert werden können. Die Herleitung der Beziehungen zwischen CTQs und Outputmessgrößen erfolgt in praxi standardmäßig über eine Matrix-Darstellung (vgl. Abschnitt 3.3.1). Durch die Sicherstellung der Messbarkeit aller CTQs wird die Voraussetzung geschaffen, dass im weiteren PEP auf den Kunden als Bewertungsinstitution für die (neu) generierten Lösungen verzichtet werden kann. Die Phasen Evaluierung, Selektion, Rekombination und Mutation laufen fortan automatisiert, ohne explizite Beteiligung des Kunden ab. Der Kunde kommt erst wieder am Ende des F&E-Projektes bei der Überprüfung des endgültigen Designs ins „Spiel“. In der Zwischenzeit kann das Projektteam relativ autonom arbeiten und Lösungen entwickeln.18 Auch beim IESRM-Zyklus ist es wichtig, dass die Mess- und Kennzahlensysteme, die zur Quantifizierung der CTQs herangezogen werden, vorab einer Analyse/ Überprüfung unterzogen werden. Nur dadurch lässt sich sicherstellen, dass tatsächlich das gemessen wird, was vorgegeben wird zu messen. Die Konzeption und Inhalte der Gage R&R wurden bereits in Abschnitt 3.2.4 erläutert. Für die Anwendung der Gage R&R für stetige Daten sei auf das Beispiel in Abschnitt 5.3.1 verwiesen. Eine Gage R&R für diskrete Daten ist im Fall des Kugelschreibers z.B. für das CTQ „Angenehme Griffform“ durchzuführen. Hierbei handelt es sich um ein attributives Merkmal.
•
18
Ishikawa-Diagramm: Das Ishikawa- oder auch Fischgrät-Diagramm (1943) ist ein weiteres wichtiges Instrument aus dem Bereich des Qualitätsmanagements. Hier dient es zur systematischen Ermittlung sowie strukturierten Darstellung von Fehlereinflussfaktoren (vgl. Kamiske/ Brauer 2006, S. 242). Die definierte Wirkung, z.B. Fehlerfolge oder Zielgröße, bildet – bildlich gesprochen – den Fischkopf; die vermuteten Einflussgrößen den Fischrumpf. Ziel ist es, über das Fischgrät-Diagramm sämtliche Haupt- und Nebeneinflussgrößen
Vor diesem Hintergrund ist es empfehlenswert, zu Beginn eines DFSS-Projektes ausreichend Zeit zu verwenden, um die CTQs für ein neues Produkt/ eine neue Dienstleistung vollständig und fehlerfrei abzuleiten. Ansonsten gilt der Ausspruch: „Garbage in, garbage out“ (vgl. Töpfer/ Günther 2007b, S. 117ff.).
5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen
249
im Team zu sammeln und zu strukturieren. Als Strukturierungshilfe bietet sich die Unterteilung in 7 M an – Mensch, Maschine, Messung, Material, Methode, Mitwelt und Management an. Diese stehen als Oberbegriffe für die tatsächlichen Ursachen und werden an den Hauptgräten abgetragen. Als „Faustregel“ für die Tiefenanalyse zu den einzelnen M´s gilt: Frage 5-mal „Warum?“. Die tieferliegenden Einflussgrößen werden dann in hierarchischer Form an den Untergräten abgetragen (vgl. Abschnitt 5.3.1). Weiterhin ist es zweckmäßig, den Grad der Beeinflussbarkeit der einzelnen Einflussgrößen zu kennzeichnen (constant, noise, variable), denn nur die variablen Größen sind unmittelbar unternehmensintern zu gestalten. Die konstanten Größen sind praktisch nicht, zumindest nicht kurzfristig beeinflussbar; sie bleiben bei der Ableitung von (kurzfristigen) Verbesserungsmaßnahmen außen vor. Einflussgrößen, die mit „noise“ gekennzeichnet werden, sind nur schwer über die Zeit bestimmbar und damit auch steuerbar. Analog zum Hintergrundrauschen in der Fernmeldetechnik sind sie nur mit deutlich erhöhtem Analyseaufwand extrahierbar und als Einflussgrößen quantifizierbar. Prinzipiell geht die Zielstellung dahin, dass alle als wesentlich erkannten Ursachengrößen einer hohen Beeinflussbarkeit unterliegen, also „variable“ sind. Nachdem die Wichtigkeit und der Beeinflussungsgrad von möglichen Ursachengrößen durch die Akteure festgestellt worden sind, besteht das weitere Vorgehen im Rahmen von klassischen (Design for) Six Sigma-Projekten darin, die Stärke des Einflusses mit geeigneten statistischen Methoden zu überprüfen, sprich zu verifizieren. Es soll festgestellt werden, ob die vermuteten Ursachen-Wirkungsbeziehungen statistisch signifikant sind. Erst auf dieser Grundlage ist es – nach strenger Six Sigma-Philosophie – möglich, konkrete Verbesserungsmaßnahmen zu planen und umzusetzen. Im Gegensatz hierzu liegt die Bedeutung des Einsatzes des Ishikawa-Diagramms im Rahmen des IESRM-Zyklus auf einem anderen Punkt: Hier sollen alle Lösungsmerkmale identifiziert werden, die mit der definierten Zielgröße in einem ursächlichen Zusammenhang stehen. Dabei wird davon ausgegangen, dass die Merkmale, zumindest im Entwicklungsstadium, in bestimmten Grenzen, unabhängig voneinander variiert werden können. Aus der Gesamtzahl identifizierter Merkmale und der zugehörigen Anzahl relevanter Ausprägungen ergibt sich letztendlich die Größe des Suchraums. Darüber hinaus wird durch die Erstellung des Ishikawa-Diagramms die Voraussetzung für eine eindeutige (De-)Codierung der Lösungsvarianten geschaffen. Nach dem Eingrenzen des Suchraums mithilfe des Ishikawa-Diagramms sind Lösungen zu sammeln respektive zu generieren, die auf das Problem passen. Im Gegensatz zur klassischen DFSS-Vorgehensweise steht dieser Schritt relativ am Anfang des Problemlösungszyklus. Dabei stellt das Auffinden neuer und innovativer Lösungsansätze in erster Linie eine Herausforderung an die Kreativität und den Ideenreichtum des Projektteams dar. Als Menschentypus für die Umsetzung wird der homo creativus gesucht, der mit einer vorgefundenen Situation nie (vollständig) zufrieden ist, d.h. „er akzeptiert Beschränkungen, denen sein Vorhaben
250
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
ausgesetzt sind, nicht einfach als Nebenbedingungen, sondern versucht, sie zu verändern, um so für sich zu besseren Lösungen zu kommen“ (Cantner/ Hanusch 1997, S. 779).19 Zur Unterstützung kommen sowohl spontan-intuitive als auch systematisch-analytische Methoden zum Einsatz (vgl. Abschnitt 3.1.2). Im Folgenden soll kurz auf die drei wesentlichen Methoden Brainstorming/ writing, Morphologischer Kasten und Codier-Tableau eingegangen werden. Die zwei erstgenannten Methoden sind in der Unternehmenspraxis weit verbreitet und werden vor allem bei F&E-Vorhaben angewendet, die das Auffinden innovativer Produktlösungen zum Ziel haben. Die drittgenannte Methode ist spezifisch für die evolutionäre Produktentwicklung, basierend auf Genetischen Algorithmen. Im Rahmen des IESRM-Zyklus spielt sie eine zentrale Rolle; daher sind die Ausführungen zum Einsatz und effizienten Vorgehen relativ ausführlich. •
Brainstorming/ -writing: Beim Brainstorming20 handelt es sich um eine intuitive Methode der Ideensammlung. Durch eine „ungezwungene Atmosphäre“ soll die Kreativität der Beteiligten im Ideenfindungsprozess gefördert werden. Dabei liegt die Auffassung zugrunde, dass eine Gruppe prinzipiell zu mehr Kreativität fähig ist als eine einzelne Person. Denn durch die Verknüpfung der Ideenpotenziale mehrerer Mitarbeiter werden i.d.R. bessere Ideen/ Lösungen gefunden als bei isolierter Suche (vgl. Ophey 2005, S. 110ff.). Das Brainstorming-Team setzt sich typischerweise aus drei bis acht Personen zusammen, die aus verschiedenen Abteilungen/ Bereichen im Unternehmen kommen und über ein breit gestreutes Fachwissen verfügen. Im Gegensatz zum Brainstorming werden beim Brainwriting die Ideen nicht ausgesprochen und im Team diskutiert, sondern zunächst von jedem Teilnehmer separat aufgeschrieben. Die Ideensammlung erfolgt in „ruhiger“ Atmosphäre. Der Fokus dieser Kreativitätstechnik liegt auf der Verbesserung von Ideen, weniger auf Spontaneität. Weil keine Möglichkeit zur direkten Kritik besteht, wird die Gefahr konformen Verhaltens der Akteure weitgehend ausgeschaltet. Die 6-3-5-Methode als typische Anwendungsform des Brainwritings verlangt eine Gruppenstärke von sechs Personen.21 Jede Person erhält ein Formular und notiert auf diesem drei Ideen bzw. Vorschläge. Nach
19
20
21
Diese Sichtweise entspricht in weiten Zügen dem Bild des „dynamischen Unternehmers“ mit bahnbrechenden Innovationen, wie er von Schumpeter (1912) propagiert wird, und/ oder dem des „findigen Unternehmers/ Entrepreneurs“ mit kleinen Verbesserungen/ Innovationen, wie er sich bei Kirzner (1973) wiederfindet. Ihre Bezeichnung geht auf den „Erfinder“ ALEX OSBORN (1953), welcher den Satz prägte: „Using the brain to storm a problem“. Auf Osborn geht ebenfalls eine gleichnamige Checkliste zurück, die zur Erweiterung des betrachteten Umfeldes eines Problems und dessen Lösung(en) dient (vgl. Backerra et al. 2002, S. 62ff.). Im Juli 2006 wurde von IBM das größte Brainstorming aller Zeiten durchgeführt. 140.000 Menschen aus 75 Ländern nahmen an dem 72 Stunden dauernden „Kreativitätsmarathon“ per Internet teil. Es war das 8. Online-Brainstorming von IBM dieser Art seit 2001 (vgl. Seiwert et al. 2006, S. 77).
5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen
251
Ablauf von fünf Minuten werden die Formulare an den jeweils nächsten Teilnehmer in der Runde zur Verfeinerung weitergegeben. •
Morphologischer Kasten: Während die Kreativitätstechniken Brainstorming und Brainwriting überwiegend auf intuitiven Assoziationen basieren, beschreibt die morphologische Methode22 eine logisch-systematische Vorgehensweise. Ihre Zielsetzung ist es, alle möglichen Lösungen eines Problems durch systematische Abwandlung zu finden. Dazu wird ein gegebenes Problem so in seine Parameter und Einzelteile zerlegt, dass es alle möglichen Lösungen in geordneter Form enthält. Zur Darstellung benutzt man den sog. Morphologischen Kasten, eine Matrix, die sowohl unveränderliche Grundbestandteile als auch mögliche Varianten enthält. Der Kasten ermöglicht die mehrstufige Klassifikation von Aufgaben und Problemstellungen (vgl. Teufelsdorfer/ Conrad 1998, S. 19). Indem bereits bekannte Teillösungen neu zusammengesetzt und miteinander verknüpft werden, entstehen im Ergebnis z.T. ganz neue, innovative Gesamtlösungen. Zu Beginn muss das Untersuchungsobjekt im Hinblick auf seine Merkmale/ Merkmalsausprägungen formal beschrieben werden. Um keine Lösungsmöglichkeit vorzeitig auszuschließen, sollte dies so allgemein wie möglich erfolgen. Nachdem das Gesamtproblem in seine Grunddimensionen (Parameter) zerlegt und eine Zuordnung möglicher Varianten (Komponenten) vorgenommen worden ist, erfolgt im dritten Schritt die Analyse sämtlicher Teillösungen. Durch die systematische Kombination der vorgegebenen Komponenten ergibt sich eine Vielzahl von möglichen Handlungsalternativen. Von diesen kann im Anschluss – nach einem im Vorfeld definierten Entscheidungsraster – die beste ausgewählt werden. Im Verlauf der Erstellung eines Morphologischen Kastens stößt man unweigerlich auch auf (zunächst) unsinnig erscheinende Kombinationen. Diese dürfen jedoch nicht gleich verworfen werden, da sie u.U. den Anstoß zu einer neuen, innovativen Lösung geben. In Abb. 5-6 ist das Vorgehen der morphologischen Methode am Beispiel Kugelschreiber visualisiert.23 Wie ersichtlich ist, erfolgt die Zuordnung der Komponenten zu den Parametern tabellarisch. Sind alle möglichen Varianten erfasst, erhält man durch die Kombination von je einer Komponente pro Parameter über alle aufgeführten Parameter des Morphologischen Kastens genau eine Lösungsvariante. Bei der Zerlegung muss darauf geachtet werden, dass die Parameter als Bestimmungsgrößen des Problems voneinander unab-
22
23
Der Morphologische Kasten wurde im Jahr 1956 von dem Schweizer Astrophysiker FRITZ ZWICKY entwickelt (vgl. u.a. Schweitzer 1999, S. 27ff.). Er gehört zu den 7 Kreativitätswerkzeugen (K 7), welche in Ergänzung zu den 7 Qualitätswerkzeugen (Q 7) und den 7 Managementwerkzeugen (7 M) dazu dienen, kreative Prozesse anzustoßen und Innovationen zu fördern (vgl. insb. Backerra et al. 2002, S. 42ff.). Die an der Erstellung des Morphologischen Kastens beteiligten Personen sollten möglichst aus unterschiedlichen Fachbereichen kommen, um zum einen eine breite Abdeckung von Anwendungsgebieten zu erreichen und zum anderen das Lösungsfeld nicht zu sehr zu beschränken (vgl. Gelbmann et al. 2003, S. 32ff.).
252
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
hängig sind, weil andernfalls die Kombinationsmöglichkeiten eingeschränkt werden. Prinzipiell ist es wichtig, die Phase der Ideen-/ Lösungsfindung von den Phasen der Bewertung und Auswahl zu trennen. Ansonsten werden u.U. Lösungen mit hohem Innovationsgehalt bereits in einem frühen Projektstadium schlecht bewertet und infolgedessen ausgeschlossen.
Merkmal
Ausprägung
1
Mechanismus
2
Art der Mine
3
Gehäuseform
4
Gehäusematerial
5
Gehäusefarbe
6
Geh.-Oberfläche
7
Griffform
8
Griffmaterial
(Edel-)Metall
Kunststoff
9
Griffstück (I)
Austauschbar
Nicht austauschbar
10
Griffstück (II)
Glatt
Profiliert
11
Pastenfarbe
Schwarz
Blau
12
Mehrsystem
Marker
Druckbleistift
13
Clip-Federung
Selbstfedernd
Abgefedert
Quelle: Eigene Darstellung
Starr
Druck
Drehung
Minimalmine
Standardmine
Maximalmine
Rechteck
Dreieck
Oval
(Edel-)Metall
Kunststoff
Aluminium
Holz
Einfarbig
Bunt
Transparent
Graphik
Eloxiert
Verchromt
Beschichtet
Mattiert
Ergonomisch
Nicht ergonomisch Aluminium
Holz
Mehrfarbig
Einsystem
Kuli „blau“
Rund
Kuli „schwarz“
Abb. 5-6: Morphologischer Kasten am Beispiel Kugelschreiber
Je nach Komplexität des Entwicklungsvorhabens kann es notwendig sein, die aus der Ideenfindung hervorgegangene große Anzahl von Lösungskandidaten auf einen handhabbaren Umfang zu reduzieren. In der Improve-Phase von Six SigmaProjekten kommt hier vor allem die N/3-Methode24 zum Einsatz, bei der die Lösungsvorschläge unmittelbar durch das Projektteam beurteilt werden. Auf dieser Basis wird – unter Herbeiführung eines Konsens – die Ausgangspopulation definiert. Für die Anwendung der genetischen Operationen im Rahmen des IESRMZyklus sind die Lösungen im Weiteren zu codieren. Ein einfaches Hilfsmittel, um
24
Jedes Teammitglied hat N/3 „Stimmen“ zu vergeben, wobei N die Anzahl der zur Verfügung stehenden Alternativen bezeichnet. Alle Beteiligten treffen ihre Auswahl aufgrund ihrer persönlichen Einschätzung des Ergebnisbeitrages der jeweiligen Lösung. Nach der Stimmenabgabe werden die Lösungsalternativen in eine Rangfolge gebracht, in dem sie absteigend, nach der Anzahl der erhaltenen Stimmen, geordnet werden. Die Vorschläge mit den meisten Punkten verbleiben in der (Rest-) Auswahl, deren Anzahl ca. 1/3 der Lösungsvorschläge entspricht (vgl. Lunau et al. 2006, S. 224f.).
5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen
253
die Repräsentationen auf Phäno- und Genotypebene eindeutig zu verbinden, ist das Codier-Tableau, welches nachstehend beschrieben ist. •
Codier-Tableau: Die Codierung der Lösungen erfolgt üblicherweise unter Verwendung eines Binärcodes.25 Zu seiner Erstellung ist jede (mögliche) Merkmalsausprägung, die in die Untersuchung einbezogen wird, mit einem 0/1-Code zu deklarieren. Ein Codier-Tableau, wie es in Abb. 5-7 beispielhaft zu sehen ist, ist ein geeignetes Hilfsmittel, um die (De-)Codierung vorzunehmen. Die Länge der merkmalsbezogenen Binär-Codes BITS richtet sich danach, wie viele Ausprägungen A pro Merkmal maximal zu berücksichtigen sind. Die Berechnung erfolgt nach der Gleichung BITS = ln A / ln 2.
M1 Merkmal Mechanismus Bezeichnung Ausprägung Wert Code 1 Starr 00 2 Druck 01 3 Drehung 10 4 ? 11
M2 Art der Mine Wert Minimal Standard Maximal
Code 0 1 ?
M3 Gehäuseform Wert Rechteck Dreieck Oval Rund
Code 00 01 10 11
Quelle: Eigene Darstellung
Abb. 5-7: Codier-Tableau am Beispiel Kugelschreiber (Ausschnitt)
Wie schnell deutlich wird, ist die Bitlänge nur für den Fall, dass 2BITS = A mit A ∈ Z ist, geradzahlig, also für A = 2, 4, 8, ... – der Zusammenhang zwischen Codier- und Lösungsraum ist dann eindeutig beschrieben (1-to-1-Mapping). Im Kugelschreiber-Beispiel trifft dies für die Codierung von Merkmal M3 zu: jedem der vier Merkmalsausprägungen ist genau ein Bit-Code zugeordnet. In Abhängigkeit von der Problemstellung und der Lösungsstrategie existieren weitere Fälle, die jedoch im Hinblick auf eine effektive Lösungsfindung eher zu vermeiden sind (vgl. Gen/ Cheng 1997, S. 19): Bei 2BITS > A liegen mehr Codiermöglichkeiten vor als Lösungsmerkmale. Im Kugelschreiber-Beispiel ist dies beim erstgenannten Merkmal M1 gegeben (siehe Abb. 5-7). Der 2-stellige Bit-Code „11“ bleibt hier unbesetzt. Wird keine zusätzliche Repräsentation auf der Phänotypebene für 25
Die Codierung kann prinzipiell auch in nicht-binärer Form erfolgen, z.B. dekadische Zahlen-Codierung bei beschränkten Optimierungsproblemen und Integer-Codierung bei kombinatorischen Optimierungsproblemen (vgl. Abschnitt 4.3.3). In diesem Fall ist besonders darauf zu achten, dass keine Lösungen codiert werden, die auf der Phänotypebene unzulässig bzw. illegal sind (vgl. Gen/ Cheng 1997, S. 19). Die Effektivität des GA, sprich des Problemlösungszyklus, wird in konkreten Anwendungsfällen erhöht, wenn alle gefundenen Lösungen eindeutig spezifizierbar und über artkonforme Chromosomen, d.h. vergleichbare Bit-Strings, abbildbar sind.
254
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
diese spezielle Code-Kombination gefunden, z.B. „Ziehen“ als weitere Merkmalsausprägung für das Merkmal M1, ist entweder eine Ausprägung mehrfach zu codieren (n-to-1-Mapping), oder es sind sog. Reparaturstrategien auf der Genotypebene zu definieren, die unzulässige BitCodes, die im Zuge der Rekombination bzw. Mutation entstehen, wieder ausmerzen (vgl. Orvosh/ Davis 1994, S. 548ff.). Bei 2BITS < A existieren weniger Codiermöglichkeiten als Lösungsmerkmale. Dieser Fall tritt z.B. auf, wenn das Chromosom aufgrund von Komplexitätsbeschränkungen eine bestimmte Länge nicht überschreiten darf. Die Ausprägungen von mindestens einem Merkmal sind dann nur unvollständig im Bit-Code erfassbar. Konkret bedeutet dies, dass auf einen Bit-Code mehrere Merkmalsausprägungen kommen (1-to-n-Mapping). Es ist die ungünstigste Form der Lösungscodierung, da einer bestimmten Code-Kombination mehrere Repräsentationen auf der Phänotypebene gegenüber stehen – die konkrete Zuordnung ist dem Zufall zu überlassen. Im Kugelschreiber-Beispiel trifft dies für das Merkmal M2 zu, welches drei relevante Ausprägungen besitzt, die mit einem 1-stelligen Bit-Code erfasst werden (siehe Abb. 5-7). Methoden der Evaluierungs-Phase Zur Bewertung von Lösungsvorschlägen haben sich in der Unternehmenspraxis eine Reihe von Methoden etabliert. Sie unterscheiden sich vor allem im Hinblick auf die erzielbare Ergebnisqualität (Objektivitätsgrad) sowie das mit der Anwendung verbundene Methodenwissen (Komplexitätsgrad). Zwischen beiden Größen besteht eine Austauschbeziehung, die sich darin äußert, dass mit steigender Qualität der Ergebnisse der Bedarf an methodischem Know-how steigt. Die Six SigmaToolbox reicht deshalb vom einfachen Platzziffer-Verfahren, bei dem mehrere Personen unabhängig voneinander eine oder mehrere Lösungsvorschläge in eine Rangfolge bringen, bis zum anspruchsvollen Verfahren der Conjoint-Analyse, bei der Lösungsvorschläge hinsichtlich mehrerer Kriterien „gemeinschaftlich“ beurteilt werden. Daneben kommen Nutzwertanalyse und Paarweiser Vergleich zum Einsatz, welche zu einer mehr oder weniger genauen Bewertung der Lösungskandidaten führen. Auf die genannten Verfahren wird kurz eingegangen. •
Platzziffer-Verfahren: Dieses einfache Verfahren eignet sich zur Bewertung von Lösungsvorschlägen in multiattributiven Entscheidungssituationen. Dabei sind die Anwendungsvoraussetzungen prinzipiell geringer als bei der nachstehend beschriebenen Nutzwertanalyse. Die n Lösungen, die sich in der Population befinden, werden aufgelistet und von jedem Teilnehmer in eine Rangfolge gebracht. Die Lösung, die nach den individuellen Präferenzen am besten geeignet erscheint, erhält den höchsten Rang bzw. Platz. Aus der Platzziffer ergibt sich direkt die individuelle Bewertungspunktzahl je Lösung P [1; n]. Um zu einem Gesamturteil zu gelangen, werden die Punktzahlen – nach Abschluss der Bewertungsrunde – für jeden Lösungsvorschlag über alle Teilnehmer aufsummiert (vgl. Lunau et al. 2006, S. 248f.).
5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen
255
Im Ergebnis erhält man eine objektivierte Rangliste, bei der die Bewertungsabstände zwischen den einzelnen Lösungen metrisch interpretierbar sind. Die Objektivität des Bewertungsverfahrens erhöht sich, je mehr Personen (Probanden) in den Bewertungsprozess einbezogen werden. Conjoint-Analyse: Die Analyse ist ein weiterführendes und in der Marketingpraxis vielfach angewandtes mathematisch-statistisches Verfahren zur gemeinschaftlichen Messung des Nutzens von Produkten aus Kundensicht (vgl. Backhaus et al. 2006, S. 558ff.). Ziel ist es, die optimale, d.h. nutzenmaximierende Kombination von Merkmalen und Merkmalsausprägungen eines Produktes unter realistischen Kaufbedingungen zu bestimmen. Der Einsatz der Conjoint-Analyse im Rahmen des IESRM-Zyklus et al. hat den Vorteil, dass nicht alle Lösungskandidaten einzeln zu bewerten sind. Denn mithilfe des Verfahrens, das auf einem dekompositionellen Multi-Attributiv-Modell basiert, lässt sich der Nutzwert einer Lösung, die sich aus „bekannten Merkmalsattributen“ zusammensetzt, a posteriori bestimmen. Infolgedessen ist eine physische Bewertung durch den Kunden nicht mehr bei allen Lösungskandidaten der Population erforderlich, um zu einem aussagefähigen, d.h. intersubjektiv nachvollziehbaren Nutz-/ Fitnesswert zu gelangen. Aus Sicht der Conjoint-Analyse stellen die in Abb. 5-8 eingezeichneten Merkmalskombinationen Nutzenbündel dar, für die sich jeweils ein Gesamtnutzen bestimmen lässt. Das Standardvorgehen umfasst fünf Schritte: Zunächst sind die relevanten Merkmale und dazugehörigen Merkmalsausprägungen, die in die Analyse einbezogen werden, festzulegen. Dies ist mit dem Codier-Tableau in Abb. 5-7 geschehen. Auf dieser Basis können dann im zweiten Schritt Kombinationen von Merkmalsausprägungen (Stimuli) gebildet werden, welche den Kunden (Probanden) zur Beurteilung im dritten Schritt vorzulegen sind. Durch die Offenlegung der Präferenzen lassen sich die Teilnutzenwerte der einzelnen Merkmale/ Merkmalsausprägungen bestimmen.26 In der Sprache des IESRM-Zyklus geht es hier um die Generierung und Bewertung einer Population von Lösungskandidaten. Im vierten Schritt ist dann für jede Merkmalsausprägung ein Teilnutzenwert mittels statistischer Verfahren zu schätzen. Aus den Teilnutzenwerten kann im fünften Schritt der Gesamtnutzenwert für alle Stimuli sowie die relativen Wichtigkeiten der einzelnen Merkmale retrograd ermittelt werden. Die letzten beiden Schritten, in denen es um die Ableitung von funktionellen Zusammenhängen zwischen Input- und Outputfaktoren geht, sind beim
26
Dazu müssen die Probanden (Kunden) die ihnen vorgelegten Stimuli in eine Rangfolge bringen, wodurch sie ihre Nutzenvorstellungen offen legen.
256
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
IESRM-Zyklus in der Weise nicht vorgesehen. Hier steht vielmehr das Erreichen des globalen Optimums im Vordergrund, ohne dabei die bestehenden Ursachen-Wirkungsbeziehungen bei den einzelnen Lösungskandidaten explizit offen zu legen respektive offen legen zu wollen (vgl. Abschnitt 1.2.2). Die Conjoint-Analyse stellt deshalb im Rahmen des IESRM-Zyklus eher ein Ergänzungsverfahren dar, dessen Einsatz für alle die Fälle infrage kommt, in denen bestimmte Lösungskandidaten, z.B. aus Zeit- und Kostenrestriktionen, nicht generiert werden können. Der Gesamtnutzen dieser nicht generierbaren, aber für die Problemlösung insgesamt wichtigen Lösungskandidaten lässt sich rechnerisch ermitteln, und zwar über die additive Verknüpfung der normierten und gewichteten Teilnutzenwerte, die im Vorfeld über einen linearen Regressionsansatz geschätzt worden sind und den lösungsinhärenten Merkmalsausprägungen eindeutig zuordenbar sind.27 •
Nutzwertanalyse: Bei diesem kompositionellen Verfahren wird die Menge der zur Verfügung stehenden Lösungen mit Hilfe eines Bewertungssystems in eine Rangfolge gebracht, welche ihre Eignung bzgl. einer Anzahl von vorher fixierten Kriterien widerspiegelt. Die Bewertungen sind metrisch, so dass Aussagen hinsichtlich der Höhe des Unterschiedes zwischen einzelnen Lösungen getroffen werden können. Die Festlegung der Kriterien kann sowohl aus Kundensicht (Critical to Customer Characteristics) als auch aus Unternehmenssicht (Critical to Business Characteristics) vorgenommen werden. Möglich ist auch eine Mischung aus beiden. In diesem Fall wird das originäre Ziel von Six Sigma, alle wichtigen Kundenanforderungen vollständig und wirtschaftlich zu erfüllen, optimal berücksichtigt (vgl. Abschnitt 2.2.3). Für die Durchführung der Nutzwertanalyse (auch Kriterienbasierte Auswahl genannt) ist eine Liste mit Kriterien anzufertigen, die eine ganzheitliche Beurteilung der Leistungsfähigkeit/ Qualität bzw. Eignung des Produktes, einen bestimmten Zweck zu erfüllen, erlauben. In diesem Zusammenhang ist es naturgemäß von Vorteil, wenn bei der Anfertigung der Liste auf die Erfahrungen früherer F&E-Projekte und dabei ermittelter Kriterien zurückgegriffen werden kann. Im Weiteren wird eine Gewichtung der aufgestellten Kriterien vorgenommen. Diese kann in Form von Prozentangaben zwischen 0 und 100% erfolgen oder auch in Form von Punkten, bei der jedem Kriterium eine Zahl zwischen 1 (geringe Bedeutung) und 10 (hohe Bedeutung) zugewiesen wird.28 Im nächsten Schritt werden Kriterien zusammen mit den generierten Lösungen in eine Tabelle eingetragen. Die Anordnung von Zeilen und Spalten erfolgt dabei wie in Abb. 5-8 am Beispiel Kugelschreiber zu sehen ist.
27
28
Bei der Conjoint-Analyse besteht die unmittelbare Anforderung, aus den von den Befragten geäußerten ordinalen Gesamtnutzenurteilen metrische Teilnutzenwerte für die einzelnen Merkmalsausprägungen abzuleiten. Ziel ist es, die Teilnutzenwerte so zu bestimmen, dass die resultierenden Gesamtnutzenwerte „möglichst gut“ den empirischen Rangwerten entsprechen (vgl. Backhaus et al. 2006, S. 572). Durch die differenzierte Gewichtung wird eine Anpassung des Bewertungsmaßstabes an das Hauptziel des Verbesserungsprojektes ermöglicht.
5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen
Kuli „schwarz“
Kuli „blau“ Kriterium
257
Gewicht
Erfüllungsgrad
(1) Haltbarkeit
10%
3
0,3
4
0,4
(2) Ästhetik
25%
6
1,5
8
2,0
(3) Features
20%
3
0,6
2
0,4
(4) Schriftbild
30%
4
1,2
4
1,2
(5) Preis-Leistung
15%
5
0,8
7
1,1
Summe
100%
4,4
5,1
Rang
(2)
(1)
Teilnutzenwert
Erfüllungsgrad
Teilnutzenwert
Quelle: Eigene Darstellung
Abb. 5-8: Nutzwertanalyse am Beispiel Kugelschreiber
Wie gut die alternativen Lösungsvorschläge die formulierten Anforderungen entsprechend der Kriterienliste erfüllen, wird im mittleren Teil der Tabelle/ Matrix eingetragen. Hier wird üblicherweise eine Skalierung von 1 bis 10 verwendet, wobei 1 für den geringsten und 10 für den höchsten Erfüllungsgrad steht. Durch Multiplikation der vergebenen Punkte mit den kriterienbezogenen Gewichten ergeben sich sog. Teilnutzenwerte, die den anteiligen Wert einer Lösung bei einem bestimmten Kriterium zum Ausdruck bringen. Den Nutzwert einer Lösung erhält man durch Aufsummierung der gewichteten Punktzahlen je Spalte. Dabei gilt: Je höher die Punktzahl, also der Nutzwert, ist, desto besser ist die Eignung der Lösung hinsichtlich der Erfüllung der vorgegebenen Zielkriterien/ -größen. Im Beispiel beträgt der Nutzwert von Kuli „blau“ 4,4 Punkte und der von Kuli „schwarz“ 5,1 Punkte; letztgenannter erhält damit den besten bzw. ersten Rang. Der Vorteil von kriterienbasierten Verfahren liegt vor allem darin, dass sie eine objektivierte Lösungsbewertung erlauben und damit eine Vergleichbarkeit der Lösungen herbeiführen. Im Ergebnis wird ein „roher“ Nutz- bzw. Fitnesswert ermittelt, der im Weiteren ggf. noch zu transformieren ist, um eine effektive Selektion sicherzustellen. Von Nachteil ist der relativ große Zeitaufwand. Dieser begründet sich u.a. darin, dass die Ergebnisse für jeden Lösungsvorschlag im Team diskutiert werden, um eventuell auch Aspekte außerhalb der Kriterien bei der Lösungsbewertung einzubeziehen und eine möglichst einstimmige Entscheidung zu treffen. Nichtsdestotrotz wird das Verfahren bei der Anwendung des IESRM-Zyklus präferiert. •
29
Paarweiser Vergleich: Bei der Methode des Paarweisen Vergleichs handelt es sich um ein einfaches, psychometrisches Skalierungsverfahren, welches ursprünglich in der Psychologie eingesetzt worden ist.29 Ziel ist es, die Ent-
Das Grundprinzip des Paarweisen Vergleichs geht auf den Psychologen LOUIS L. THURSTONE (1927) zurück.
258
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
scheidungskomplexität durch direkten (paarweisen) Vergleich von Einzelkriterien/ -lösungen aufzulösen (vgl. Gelbmann et al. 2003, S. 78ff.). Zu Beginn des Verfahrens werden den Teammitgliedern unterschiedliche Handlungsalternativen – jeweils paarweise kombiniert – angeboten, z.B. A-B, A-C und BC. Nach kurzer Bedenkzeit werden die Teilnehmer aufgefordert, nach einem sich aus dem Projektziel ergebenden Kriterium eine Entscheidung für jeweils eine der beiden Möglichkeiten zu treffen. Auf diese Weise lässt sich die Rangordnung einer Reihe von Alternativen eindimensional bestimmen. Bei insgesamt n zur Auswahl stehenden Vorschlägen ergibt sich eine Gesamtanzahl von n! / 2! ⋅ (n-2)! durchzuführenden Paarvergleichen.30 Infolgedessen nimmt mit steigender Anzahl von auszuwählenden Alternativen der Umfang/ Aufwand der Methode exponentiell zu. Im Ergebnis wird eine Rangordnung mit metrischer Skalierung gebildet, auf deren Basis jede Lösungsalternative genau einordenbar ist und der Abstand zur nächstbesseren bzw. -schlechteren Lösung exakt gemessen werden kann. In praxi werden die Einzelbewertungen zu einer Rangziffer verknüpft. Ein Beispiel für dieses relativ einfache Vorgehen wird im Zusammenhang mit der rangbasierten Selektion im folgenden Unterabschnitt gegeben (siehe Abb. 5-11). Als Vorteil des Paarweisen Vergleichs ist anzuführen, dass er auch in Fällen, bei denen eine recht große Anzahl von Möglichkeiten zu beurteilen ist, die Teammitglieder durch die Reduzierung auf jeweils zwei Alternativen nicht überfordert. Dem steht der Nachteil gegenüber, dass Paarvergleiche nur dann zu verwertbaren Resultaten führen, wenn die Beurteilungen der Beteiligten konsistent sind. In Fällen, in denen bspw. die Lösung A besser als die Lösung B ist und B besser als C, jedoch A zugleich schlechter als C, kommt es zu Verzerrungen bzw. Ungenauigkeiten (vgl. o.V. 2005, S. 1f.). •
Fitness-Transformation: Mit der Skalierung und Normierung der metrischen Zielfunktionswerte, die sich z.B. aus einer Nutzwertanalyse ergeben, werden nach Gen/ Cheng (1997, S. 25) insb. die folgenden zwei Ziele verfolgt: Aufrechterhaltung einer eindeutigen Differenzierung zwischen den relativen Fitnesswerten, die den einzelnen Chromosomen zuordenbar sind Vermeidung einer zu schnellen Konvergenz der Lösungen, die durch einige „Super-Chromosomen“ zu Beginn des GAs bewirkt wird. Durch die Fitness-Transformation wird sichergestellt, dass die Überlebenswahrscheinlichkeit der Chromosomen proportional zu ihrer (relativen) Fitness ist. Dies ist ein wesentlicher Vorteil gegenüber der ordinalen Fitness-Bewertung, z.B. nach dem o.g. Verfahren des Paarweisen Vergleichs. Hier werden die Fitnesswerte – ohne Berücksichtigung ihrer relativen Unterschiede – in eine Rangordnung gebracht und die Lösungen auf dieser Basis i.A. ungewichtet selektiert. Als Nachteil kann bei der metrischen Fitness-Bewertung ange-
30
Die Berechnung erfolgt nach der Formel für „Kombination ohne Wiederholung“.
5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen
259
führt werden, dass zur Bestimmung der relativen Fitnesswerte geeignete Skalierungsparameter gefunden werden müssen, die von der zu bearbeitenden Problemstellung abhängig sind und i.d.R. nach dem Entwicklungsfortschritt gesetzt werden (vgl. Reeves 1993, S. 344ff.). In der einschlägigen Literatur werden verschiedene mathematische Ansätze diskutiert, um die ermittelten Zielwerte, die auch als „rohe“ Fitnesswerte bezeichnet werden, in skalierte Fitnesswerte zu überführen (vgl. Michalewicz 1995, S. 135ff.). Sie können im Wesentlichen in zwei Kategorien unterteilt werden, nämlich statische und dynamische Skalierungsverfahren. Bei letzteren besteht zum einen die Möglichkeit, den Skalierungsparameter (a, b) so zu wählen, dass in jeder Generation der gleiche Selektionsdruck herrscht.31 Zum anderen ist es möglich, den Skalierungsparameter (a, b) schrittweise so zu verändern, dass sich der Selektionsdruck mit zunehmender Generationenzahl erhöht. Im Folgenden sind fünf typische Verfahren der Fitness-Skalierung für den Fall, dass nur eine Zielgröße y existiert, benannt: Lineare Skalierung fit(y) = a + b ⋅ y: über die lineare Skalierung werden die Fitnesswerte der besten und schlechtesten Chromosomen relativiert, so dass sichergestellt wird, dass aus den besten nicht zu viele und aus den schlechtesten nicht zu wenige Nachkommen hervorgehen. Die lineare Skalierung ist die einfachste Form der Skalierung; sie wird beim ersten Anwendungsbeispiel in Abschnitt 5.3.1 zugrunde gelegt. Dynamische lineare Skalierung fit(y) = ag + b ⋅ y: Im Gegensatz zu oben variiert bei der dynamischen Skalierung der Absolutfaktor ag mit den Generationen g. Ein typisches Vorgehen ist die Verwendung der minimalen rohen Fitness der aktuellen Population zur Normierung: ag = -ymin. Potenzielle Skalierung fit(y) = ya: In Abhängigkeit von der Problemstellung erlaubt diese Skalierung eine progressive oder degressive Verzerrung der gemessenen rohen Fitnesswerte. Wenn a > 1 ist, dann steigt die Fitness mit zunehmendem y progressiv an. Die besseren Chromosomen werden dann gegenüber den schlechteren bevorzugt, c.p. Die Skalierung findet beim zweiten Beispiel in Abschnitt 5.3.2 Anwendung. Sigma-Skalierung fit(y) = y – (⎯y – c ⋅ σ ): Diese Methode der Skalierung basiert auf statistischen Kennzahlen und stellt vor diesem Hintergrund eine Verbesserung gegenüber der linearen Skalierung dar. Der Selektionsdruck ist abhängig von der Verteilung der Fitnesswerte. Neben dem Parameter c gehen der durchschnittliche Erfüllungsgrad⎯y und die gemessene Standardabweichung σ als Korrekturfaktoren ein.32
31 32
Unter dieser Voraussetzung müssen sich die Individuen in einer Population jeweils „gleich stark anstrengen“, um mit einer bestimmten Wahrscheinlichkeit zu überleben. Besonders schlechte Chromosomen, also Ausreißer nach unten, können durch dieses Vorgehen relativ leicht erkannt und ausgemerzt werden.
260
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
Boltzmann-Skalierung fit(y) = ey/T: Die Skalierung basiert auf der Boltzmann-Verteilung, die u.a. beim Optimierungsalgorithmus Simulated Annealing eine wichtige Rolle spielt (vgl. Abschnitt 4.2.3). Die Exponentialfunktion, die hier zugrunde gelegt wird, führt zu einer proportionalen Selektion entsprechend der Einstellung des Kontrollparameters T. •
S-Kurvenverlauf: Um das Ergebnis des evolutionären Entwicklungsprozesses zu verdeutlichen, bietet sich die Darstellung der durchschnittlichen Fitness der Population fit Pop in Abhängigkeit von der kumulierten Anzahl von Generationen g an. Zur Berechnung wird vorzugsweise das geometrische Mittel herangezogen (vgl. Abschnitt 5.2.1). Bei gerichteter Selektion steigt die geometrische mittlere Fitness der Population in Form eine S-Kurve über die Zeit bzw. in unserem Fall über die kumulierte Anzahl von Generationen an. Mittlere Fitness der Population fit fit* fitgmax
Abbruch des IESRM-Zyklus
Verbleibendes OptimierungsPotenzial fitg - fitg-n
fitgmax-n
fit0
SigmaKorrektur
0 0
Quelle: Eigene Darstellung
gmax-n
gmax Kum. Anzahl von Generationen g
Restliche Anzahl von Iterationen n
Abb. 5-9: Entwicklung der durchschnittlichen Fitness der Population (S-Kurve)
In Abb. 5-9 ist der idealtypische S-Kurvenverlauf angegeben. Im Rahmen der Projektdurchführung gibt die Entwicklung der geometrischen mittleren Fitness zum einen wichtige Hinweise auf das verbleibende Optimierungspotenzial und damit die Anzahl von Iterationen n, die (noch) notwendig sind, um das globale Optimum fit* (näherungsweise) aufzuspüren. Zum anderen können Rückschlüsse auf den rechtzeitigen Abbruch des IESRM-Problemlösungszyklus gezogen werden. Dadurch lässt sich sicherstellen, dass die Lö-
5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen
261
sungssuche nicht zu lange auf einem bestimmten Fitnessniveau verharrt und damit (zu stark) zu Lasten einer effizienten Projektbearbeitung geht. Nach dem Fundamentaltheorem der Natürlichen Selektion, welches auf den Begründer der modernen Evolutionstheorie SIR RONALD A. FISHER (1930) zurückgeht, gilt: „The rate of increase in fitness of any organism at any time is equal to its genetic variance in fitness at that time“. Die Standardinterpretation des Theorems läuft darauf hinaus, dass die Verbesserung der durchschnittlichen Fitness einer Population proportional zur (genetischen) Varianz der Fitness innerhalb der Population ist (vgl. Frank/ Slatkin 1992, S. 92). Dieser Zusammenhang wird mathematisch wie folgt beschrieben:
d fit Pop dt
~ σ 2fiti
(5.3)
Sind die Lösungskandidaten sehr ähnlich und damit die Fitnesswerte nur marginal unterschiedlich, dann nimmt die Fitness der Population im Durchschnitt nur geringfügig zu. Dies ist bei g ≥ gmax sowie in den ersten Generationen des IESRM-Zyklus der Fall. Bei g < gmax, also im mittleren Teil der SKurve, steigt die durchschnittliche Fitness relativ stark an; die Varianz der Merkmals- und damit Fitnesswerte in der Population ist entsprechend hoch. Nach Durchführung einer Sigma-Skalierung, bei der die rohen Fitnesswerte in Richtung Nulllinie verschoben werden, lässt sich die progressive Dynamik bzgl. der Entwicklung der Population durch folgende Differentialgleichung erfassen (in Anlehnung an Hofbauer/ Sigmund 1998, S. 5):
d fit Pop dt
= λ ⋅ fit Pop ⋅
fit * − fit Pop fit *
(5.4)
Die Gleichung (5.4) kennzeichnet ein exponentielles Wachstum der durchschnittlichen Fitness der Population mit der Steigerungsrate λ und der (oberen) Wachstumsgrenze fit*.33 Die Auflösung der Gleichung nach fit Pop mit der Anfangsbedingung fit Pop (t 0 ) = fit 0 ergibt die Wachstums- bzw. Entwicklungsfunktion fit Pop (t ) für die durchschnittliche Fitness der Population in einer bestimmten Generation g bzw. – allgemein – zum Zeitpunkt t: 34 33
34
Bereits Fisher (1930) bemerkte, dass die mittlere (absolute) Fitness einer Population nicht ins Unendliche ansteigen kann. Dies würde bedeuten, dass in der Natur eine bestimmte Art – aufgrund ihrer exponentiellen Vermehrung – über kurz oder lang den gesamten Lebensraum beherrscht und alle anderen Arten verdrängt. Die mathematischen Herleitungen der Gleichungen für exponentielles und logistisches Wachstum von Populationen sind u.a. bei Hofbauer/ Sigmund (1998, S. 3ff.) nachvollziehbar. Wie die beiden Autoren anmerken, bilden die vergleichsweise einfachen Differentialgleichungen komplexe Zusammenhänge, wie z.B. Bifurkation und Chaotisches Verhalten, ab. Sie bilden ein wichtiges Merkmal von ökologischen Systemen.
262
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell λ ⋅(t −t0 )
fit Pop (t ) =
fit * ⋅ e
fit * − fit 0 fit 0
(5.5) λ ⋅(t −t0 )
+e
Unter der Voraussetzung, dass das Ausgangsniveau fit 0 sowie die Parameter λ und fit* bekannt sind, lassen sich mithilfe der Gleichung (5.5) die Fragen zur Projektplanung und -steuerung exakt beantworten: Wann ist ein guter Zeitpunkt erreicht, um den Optimierungsalgorithmus – ggf. vorzeitig – abzubrechen? Wie viele Iterationen bzw. Generationen sind aus jetziger Sicht notwendig, um zum Optimum zu gelangen? Dabei gilt: Je größer die Rate λ ist, desto schneller wird das maximale Fitnessniveau fit* ausgehend von fit 0 erreicht. Die Differenz fit * − fit 0 spiegelt das vorhandene Verbesserungspotenzial wider. Die Rate λ ist ein Maß für die Geschwindigkeit, mit der sich besonders fitte Lösungskandidaten in einer Population durchsetzen können. Sowohl λ als auch fit * − fit 0 werden über die o.g. Fitness-Transformation beeinflusst.35 Um die S-Kurve in Abb. 5-9 nachzubilden, ist eine Sigma-Skalierung erforderlich. Insgesamt erlaubt das adaptierte S-Kurven-Konzept sowohl die Erklärung als auch die Prognose der Entwicklung der mittleren Fitness einer Population. Methoden des S-R-M-Operators Nachdem alle Lösungskandidaten der Population bewertet worden sind, werden sie im Rahmen des S-R-M-Operators selektiert, rekombiniert und mutiert. Hier kommen überwiegend Methoden zum Einsatz, die sich direkt am Vorgehen des Genetischen Algorithmus orientieren (vgl. Abschnitt 4.3.3). Sie lassen sich relativ einfach operationalisieren und in das Vorgehensmodell des IESRM-Zyklus integrieren. Aufgrund ihres starken evolutionstheoretischen Charakters, sind sie bis dato kein fester Bestandteil des klassischen Tool-Sets von IM-/ QM-Projekten. Bei der Darstellung der Methoden wird vor allem auf die Nutzwertanalyse als vorausgegangenes Evaluierungsverfahren Bezug genommen. Für die Selektion der in der Initialisierungs-Phase generierten und in der Evaluierungs-Phase bewerteten Lösungen sind zwei Vorgehensweisen gebräuchlich: •
35
Roulette-Wheel-Selection: Die Lösungsalternativen werden entsprechend ihrer relativen Fitness- respektive Nutzwerte (NW) selektiert. Der fitnessproportionalen Selektion liegt die bildliche Vorstellung eines Roulette-Rades zugrunde,
Auf diesen Punkt kommen wir im Zusammenhang mit der experimentellen Überprüfung an zwei Anwendungsbeispielen im Unterkapitel 5.3 zurück.
5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen
263
dass bei jeder Drehung eine zufällige Endposition erreicht und dadurch die Selektion der Individuen (Lösungen) bewirkt. •
Tournament-Selection: Die Lösungsalternativen werden nach der absoluten Höhe ihres Nutzwertes sortiert und durch paar-/ gruppenweisen Vergleich selektiert. Dazu wird eine Turnier-Situation erzeugt, in der sich die Individuen (Lösungen) gegeneinander behaupten müssen. Hierbei handelt es sich um ein rangbasiertes Selektionsverfahren.
In den folgenden Abbildungen sind die zwei Selektionsmechanismen am Beispiel Kugelschreiber nachvollziehbar. In beiden Fällen umfasst der Lösungspool zehn Kandidaten, die nach der im vorangegangenen Unterabschnitt beschriebenen Nutzwertanalyse bewertet worden sind. Im Hinblick auf die Problemlösungsfähigkeit stellt die Lösung 5 (NW = 6,1) die beste und die Lösung 7 (NW = 1,5) die schlechteste dar. Die Summe aller Fitness-/ Nutzwerte beträgt 35. Teilt man diesen Wert durch die Größe der Population, dann ergibt sich eine durchschnittliche Fitness von μ = 3,5 bei einer Standardabweichung von σ = 1,6. Für die fitnessproportionale Selektion ist die relative Fitness der Lösungen innerhalb der Population zu bestimmen. Je größer die relative Fitness, also der absolute Nutzwert bezogen auf die Summe aller Nutzwerte ist, desto größer ist die Wahrscheinlichkeit, dass der Lösungskandidat in den „Fortpflanzungspool“ aufgenommen wird. Die Selektions- respektive Fortpflanzungswahrscheinlichkeit lässt sich durch die Ermittlung der kumulierten Häufigkeitsverteilung (CDF – Cumulative Density Function) über alle Lösungen visualisieren. Gleichzeitig gibt die Funktion CDF(i) die Intervallgrenzen für die Selektion an (siehe Abb. 5-10). Lösungen Nutzwert (Individuen) (Fitness)
Relative CDF (i) Fitness 0,091
10
3,2
9
5,1
0,146
8
2,1
7
1,5
0,060 0,043
6
4,4
5
6,1
4
3,7
3
2,4
2 1
1,7 4,8 35,0
Quelle: Eigene Darstellung
Gleichverteilte Selektierte Zufallszahlen Lösungen 0,953
10
0,868
9
0,741
8
0,126
0,635 0,572
6 6
0,174
0,466
5
0,381
5
0,106
0,275
4
0,069 0,049
0,169
2
0,137
0,085
1
1,000
1 2
3 4
5 6 i
7 8
9 10
Abb. 5-10: Vorgehen bei proportionaler Selektion am Beispiel Kugelschreiber
264
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
Die Auslese erfolgt bei der proportionalen Selektion in der Weise, dass zehn Zufallszahlen gleichverteilt zwischen 0 und 1 ermittelt werden. Jede Zufallszahl liegt in einem bestimmten Intervall, deren Größe sich nach den relativen Fitnesswerten der Lösungskandidaten bestimmt. Dies bedeutet im Umkehrschluss, dass jeweils die Lösung selektiert wird, in dessen Intervall sich die aktuelle Zufallszahl befindet. Bei Populationen mit einer relativ großen Streuung der (absoluten) Fitnesswerte tritt regelmäßig der Fall auf, dass einzelne Lösungskandidaten gleich mehrfach zur Rekombination/ Reproduktion zugelassen werden. Im Beispiel betrifft dies die Lösungen 5 und 6 mit je zwei Auswahltreffern. Beim rangbasierten Auswahlprozess spielen nicht die relativen, sondern die absoluten Fitnesswerte eine Rolle. Um einen Lösungskandidaten zu selektieren, wählt man k Lösungen zufällig gleichverteilt aus der Population aus und nimmt davon jeweils die beste, also die mit der höchsten Fitness. Im einfachsten Fall werden jeweils zwei Lösungen (k = 2) ausgewählt und paarweise verglichen (siehe Abb. 5-11). Im Beispiel sind zu diesem Zweck 2 ⋅ 10 ganzzahlige Zufallszahlen im Intervall [1; 10] ermittelt worden. Die Rangordnung der absoluten Fitnesswerte entscheidet nun darüber, welche Lösung im „2er-Turnier“ weiterkommt, also selektiert wird. Genau wie bei der proportionalen Selektion besteht die Möglichkeit, dass eine Lösung mehrmals zur Auswahl steht. Lösungen Gleichverteilte Zufallszahlen
(Individuen)
Gleichverteilte Zufallszahlen
Nutzwert (Fitness)
1
4,8
2
1,7
3
2,4
4
3,7
5
6,1
6
4,4
7
1,5
8
2,1
9
5,1
10
3,2
1
2
3
4
5
6
7
8
9
10
4,8
1,7
2,4
3,7
6,1
4,4
1,5
2,1
5,1
3,2
4 3
5
Selektierte SelektierteLösung Lösungbei bei paarweisem paarweisemVergleich Vergleich
9 5 10 3
8 9
1
Quelle: Eigene Darstellung
Abb. 5-11: Vorgehen bei rangbasierter Selektion am Beispiel Kugelschreiber
Für die Rekombination kommen ebenfalls mehrere Methoden infrage. In Abhängigkeit von der Anzahl der Bruchstellen im Genom bzw. Bit-Code wird zwischen
5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen
265
1-Point-, 2-Point- und Uniform-Crossover (Kreuzung) unterschieden. Gegenüber den vorherigen Phasen – Evaluation und Selektion – finden die Rekombinationsund die sich anschließende Mutations-Phase ausschließlich auf der Genotypebene statt. Dazu werden alle Lösungen bereits in der Initialisierungs-Phase codiert. Die Codes der Lösungen, sprich Chromosomen, die sich im Rahmen der Selektion durchgesetzt haben, werden paarweise rekombiniert – aus zwei Chromosomen der Elterngeneration werden zwei Chromosomen der Kindergeneration. In der nachfolgenden Abbildung ist die Vorgehensweise für das 1-Point-Crossover – mit Auftritt einer Flipmutation – beispielhaft skizziert. Es bildet die Grundlage für die zwei Anwendungsbeispiele in Abschnitt 5.3.1 und 5.3.2. •
Beim 1-Point-Crossover wird von zwei Individuen der Elterngeneration zufällig eine Bruchstelle im Genom ermittelt. An dieser Stelle werden die hinteren Bruchstücke der beiden Elterngenome abgetrennt und an das vordere Bruchstück des jeweils anderen Genoms angehängt. Bezogen auf die Neuproduktentwicklung bedeutet dies, dass die Merkmale von zwei Lösungen, die einen relativ hohen Nutzen besitzen und für die Reproduktion von hohem Wert sind, per Zufallssteuerung rekombiniert werden. Dadurch entstehen zwei neue Lösungen, welche die Merkmalsausprägungen von zwei (ausgewählten) Elternteilen besitzen. In Abb. 5-12 ist das Vorgehen der punktuellen Rekombination sowohl auf der Geno- als auch der Phänotypebene nachvollziehbar. Der Merkmalsraum umfasst insgesamt 13 Dimensionen mit maximal vier Faktorstufen (Merkmalsausprägungen) je Dimension. Folglich beträgt die Länge des Bit-Codes je Merkmal maximal zwei Stellen; bei weniger als drei relevanten Ausprägungen je Merkmal ist nur eine Stelle erforderlich. Der BitString umfasst insgesamt 21 Stellen, mit denen jeder Lösungskandidat, hier im Beispiel „Kugelschreiber-Typ“, eindeutig erfasst werden kann. Die Kreuzung der Gene zwischen Eltern 1 und Eltern 2 erfolgt im Beispiel Kugelschreiber an der – per Zufallsprinzip ermittelten – Bit-Stelle 12. Die Endstücken des Bit-Codes der beiden Eltern werden im Übergang von 11. zu 12. Stelle getauscht. Es entstehen zwei Kinder, also zwei neue Lösungskandidaten, deren Genome zu jeweils ca. der Hälfte mit den ursprünglichen Lösungskandidaten übereinstimmen. Gänzlich neue Merkmalsausprägungen ergeben sich lediglich bei Merkmal (6), da die Soll-Bruchstelle genau innerhalb des relevanten Bit-Strings liegt. Aus den Eltern-Codes „0 1“ und „1 0“ gehen die Kinder-Codes „0 0“ und „1 1“ hervor. Die Auswirkungen des Rekombinationsprozesses auf der Phänotypebene können im unteren Teil der Abb. 5-12 nachvollzogen werden. Bei Merkmal (6) „Gehäuseoberfläche“ treten die Ausprägungen „Eloxiert“ und „Mattiert“ neu in Erscheinung.
•
Neben dem Verfahren mit einer Bruchstelle ist das 2-Point-Crossover das wohl am häufigsten verwendete Rekombinationsschema bei der GAProgrammierung. In der praktischen Umsetzung sind hier zwei Kreuzungspunkte im Genom bzw. Merkmalsraum zu wählen. Im Beispiel werden die Bit-Stellen 13 und 18 per Zufallsprinzip als Soll-Bruchstellen bestimmt. Zwischen diesen beiden Stellen wird der Bit-Code der Lösungskandidaten der El-
266
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
terngeneration vertauscht. Infolgedessen unterscheiden sich die Lösungskandidaten der Kindergeneration auf der Phänotypebene vor allem in den „Griff“-bezogenen Merkmalen (7) bis (10).
Me ch an i sm Ar us td er Mi ne Ge hä us efo Ge rm hä us em Ge ate hä ria us l efa rbe Ge h.Ob erf Gr läc ifff he orm Gr iffm ate Gr iffs rial tüc k( Gr I) iffs tüc k( Pa II) ste nfa r be Me hrs ys tem Cli p-F ed eru ng
- Rekombination auf der Genotypebene -
Merkmal
1
2
4
3
5
6
7
8
9
10
11
12
13
Eltern 1
01 00 11 00
00 0 1
1
00
1
0
1
11
1
Eltern 2
10 01 11 01
00 1 0
0
01
0
1
0
11
0
Kind 1
01 01 11 00
00 0 0
0
01
0
1
0
11
0
Kind 2
10 01 11 01
00 1 1
1
00
1
0
1
11
1
Crossover
Flipmutation
- Rekombination auf der Phänotypebene Merkmal
Ausprägung
1
Mechanismus
2
Art der Mine
3
Gehäuseform
4
Gehäusematerial
5
Gehäusefarbe
6
Geh.-Oberfläche
7
Griffform
8
Griffmaterial
(Edel-)Metall
Kunststoff
9
Griffstück (I)
Austauschbar
Nicht austauschbar
10
Griffstück (II)
Glatt
Profiliert
11
Pastenfarbe
Schwarz
Blau
12
Mehrsystem
Marker
Druckbleistift
13
Clip-Federung
Selbstfedernd
Abgefedert
Quelle: Eigene Darstellung
Starr
Druck Flipmutation Standardmine
Minimalmine
Drehung Maximalmine
Rechteck
Dreieck
Oval
(Edel-)Metall
Kunststoff
Aluminium
Holz
Einfarbig
Bunt
Transparent
Graphik
Eloxiert
Verchromt
Beschichtet
Ergonomisch
Nicht ergonomisch
Kind 1
Rund
Mattiert Crossover
Aluminium
Holz
Mehrfarbig
Einsystem
Kind 2
Abb. 5-12: 1-Point-Crossover mit Flipmutation am Beispiel Kugelschreiber
Gegenüber dem 1-Point-Crossover wird durch die Wahl von zwei oder mehr Kreuzungspunkten die Ähnlichkeit zwischen Vorgängern und Nachfolgern
5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen
267
eher verringert als erhöht. Um eine möglichst hohe Variation zu erhalten, wird bei der Genetischen Programmierung deshalb auch auf das Verfahren des Uniform-Crossover gesetzt, bei dem jedes Bit zufällig mit gleicher Wahrscheinlichkeit von einem der beiden Elternteile übernommen wird. Die Wahl von nur ein oder zwei Bruchstellen ist durch das Schema-Theorem nach Holland (1975) motiviert. Nach diesem sollen kurze Schemata, die eine hohe Fitness bewirken, mit hoher Wahrscheinlichkeit nicht aufgetrennt werden. Beim zufallsgesteuerten Rekombinationsvorgang kann es passieren, dass ein Schema zerstört wird, wenn der Crossover-Point innerhalb des ersten und des letzten definierenden Bits liegt. Im Beispiel wird der Griff des Kugelschreibers durch die vier Merkmale Griffform, Griffmaterial, Griffstück (1) und Griffstück (2) spezifiziert. Ist eine besonders vorteilhafte Kombination der Merkmalsausprägungen im Laufe des Entwicklungsprozesses gefunden worden, besteht das Ziel darin, dieses „Schema“ zu bewahren. Bei den weiteren Rekombinationsprozessen ist deshalb darauf zu achten, dass kein Crossover-Point innerhalb des Bit-String-Bereichs liegt, der das Griffdesign determiniert bzw. codiert. Nur so kann sichergestellt werden, dass das nutzenmaximale Design einer (Teil-)Lösung von einer zur nächsten Generation unverändert übernommen wird. Für die Mutation sind für die Praxis insb. folgende zwei Arten relevant: •
Bei der Flipmutation wird ein Bit (Gen) im Bitstring zufällig ausgewählt und negiert. Dadurch verändert sich nicht nur der Genotyp, sondern in den meisten Fällen auch der Phänotyp des Individuums. Im Beispiel Kugelschreiber ist bei einem Elternteil das Merkmal „Art der Mine“ von der Flipmutation betroffen (siehe Abb. 5-12). Durch die zufällige Veränderung des Bit-Codes an der 4. Bit-Stelle „springt“ die Merkmalsausprägung von „Minimalmine“ auf „Standardmine“. Beide Lösungskandidaten der Kindergeneration besitzen infolgedessen die gleiche Art von Mine – die Varianz der Lösungen wird durch die Mutation insgesamt reduziert. In der praktischen Anwendung würde dies bedeuten, dass es keinen Markt für kleine Minen gibt. Die Frage nach der Vorteilhaftigkeit der Flip-Mutation kann über die Ermittlung des Fitnesswertes beantwortet werden. Ist die Fitness/ der Nutzen der Lösung mit verändertem Merkmal größer als die ohne, dann handelt es sich um eine nutzenstiftende Mutation mit einer positiven Wirkung auf die durchschnittliche Fitness der gesamten Population. Im günstigen Fall wird durch die Mutation eine für die Lösungsfindung suboptimale Merkmalsausprägung bei einem der potenziellen Lösungskandidaten eliminiert. Sind die zugrunde liegenden Ursachen-Wirkungsbeziehungen bekannt, dann lässt sich der Mutationsvorgang auch per Hand durchführen. Zielgerichtete Eingriffe in das Genom der Lösungen sind vor allem dann wirkungsvoll, wenn der Suchraum für die optimale Lösung bereits (grob) eingegrenzt werden konnte.
•
Bei der Swapmutation wird der Inhalt der durch Zufall bestimmten Gene einfach vertauscht, d.h. an einer beliebigen Stelle des Bit-Strings springt der Wert von „0“ auf „1“, während er gleichzeitig an einer anderen Stelle von „1“
268
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
auf „0“ zurückgeht. Von der Swapmutation können maximal zwei Schemata betroffen sein. Dadurch sind die Auswirkungen dieser Mutation i.d.R. deutlich größer als beim Auftreten einer einfachen Flipmutation, die jeweils nur ein Schema betrifft. Je nachdem, wie viele Bits zur Codierung einer Entscheidungsvariable notwendig sind, können sich die Veränderungen im Phänotyp bei mehr als einer Merkmalsdimensionen niederschlagen. Von der Swapmutation sind immer zwei Merkmale betroffen, sofern die Merkmalsausprägungen der Lösungen, auf die sich die Mutation bezieht, dichotom codiert sind. Im Beispiel Kugelschreiber werden durch die Swapmutation die Werte des BitStrings an den Stellen 6 und 10 vertauscht. Dadurch ändern sich die Merkmalsausprägungen bei den Merkmalen (3) Gehäuseform und (5) Gehäusefarbe, die beide der Komponente „Gehäuse“ angehören. Die Ausprägungen, die durch die Mutation hervorgerufen werden, liegen bei keinen der beiden Vorgänger-/ Elternmodelle vor – eine Innovation ist entstanden. In Abhängigkeit von der Eindeutigkeit der Codierung (s.o.) können im Zuge des Mutationsprozesses Bit-Code-Kombinationen auftreten, die keine Repräsentationen auf der Phänotypebene besitzen, z.B. ist der Bit-Code „11“ bei Merkmal (1) unbesetzt. In diesem Fall bestehen folgende zwei Handlungsalternativen: Zum einen können Reparaturstrategien zum Einsatz kommen, durch welche die nicht zulässigen Codes direkt auf der Genotypebene ausgemerzt werden (= reaktives Vorgehen). Die Mutationen treten infolgedessen auf der Phänotypebene gar nicht erst in Erscheinung. Zum anderen kann über ein proaktives Vorgehen versucht werden, neue Merkmalsausprägungen zu finden, welche den bis dato nicht zulässigen Codes zugeordnet werden; z.B. ist bei Merkmal (1) in Abb. 5-6 „Schlagen“ als vierte Merkmalsausprägung für den Mechanismus des Minenausschubs denkbar. Ein strukturiertes Vorgehen besteht in Form des Attribute Listing, welches mit dem Morphologischen Kasten nahe verwandt ist.36 Das Attribute Listing dient vor allem dazu, Variationen bzw. Mutationen außerhalb des bestehenden Merkmalsraumes zu generieren (vgl. Schlicksupp 2004, S. 89ff.). Zwischenfazit: Die bisherigen Ausführungen zum DMAIDV- und IESRM-Zyklus konzentrierten sich auf das Beispiel Kugelschreiber. Auf dieses wird in der Literatur des Öfteren Bezug genommen; zudem wurde es bereits im Zusammenhang mit der Vorstellung des Genetischen Algorithmus in Abschnitt 4.3.4 referiert. Bei den Darstellungen ging es in erster Linie um die Demonstration der adaptierten Methoden, weniger um die Optimierung des Produktes selbst. Die empirische Überprüfung der Wirksamkeit der abgeleiteten Vorgehensmodelle, einschließlich ihrer Methoden, ist dem folgenden Unterkapitel vorbehalten.
36
Auf der Basis des Morphologischen Kastens werden in einer separaten Spalte interessante und bisher noch nicht berücksichtigte Merkmalsausprägungen aufgeführt. Per Zufallsauswahl sollte dann entschieden werden, welche Gestaltungsmöglichkeiten in den Lösungspool zusätzlich aufzunehmen sind; sie sind entsprechend zu codieren.
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
5.3
269
Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle an Beispielen
Um die Effektivität des DMAIDV- und IESRM-Zyklus empirisch zu überprüfen, werden die Problemlösungszyklen in zwei konkreten Anwendungsbeispielen zum Einsatz gebracht.37 Im ersten Beispiel geht es um die Optimierung der Flugzeit eines Papier-Rotors (vgl. Abschnitt 5.3.1). Das Laborexperiment gilt als Standardbeispiel zur Anwendung von DOE im Rahmen von (Design for) Six Sigma-Schulungen. Aufgrund einer Reihe von Vorerfahrungen ist ein direkter Vergleich mit den Ergebnissen des DMAIDV-Zyklus möglich. Im zweiten Beispiel wird auf die unternehmensbezogene Anwendung der zwei Vorgehensmodelle eingegangen (vgl. Abschnitt 5.3.2). In einem F&E-Projekt in einem mittelständischen Unternehmen besteht das Ziel darin, auf der Grundlage des IESRM-Zyklus die Kehreigenschaften von Straßenbesen zu optimieren. Zur Absicherung der Ergebnisse werden in beiden Beispielanwendungen Methoden/ Instrumente aus dem klassischen DFSS-Toolset als Benchmark zum Einsatz gebracht. 5.3.1
Optimierung der Flugzeit eines Papier-Rotors (Laborexperiment)
(a) Einführung in die Problemstellung Weltweit gibt es eine Vielzahl von Veröffentlichungen, vor allem in Fachzeitschriften und als Konferenzbeiträge, welche die erfolgreiche Anwendung der Statistischen Versuchsplanung (DOE) zeigen. Ein verbreitetes Übungsbeispiel im Rahmen von DFSS-Trainings, an dem die verschiedenen Versuchdesigns und Auswertungsmethoden, z.B. Screening-Design, Faktorielles Design und Taguchi Design, gut nachvollzogen werden können, ist die Maximierung der Flugzeit eines Papier-Rotor (siehe Abb. 5-13). Die Versuchsdurchführung ist relativ einfach. Als Materialien werden lediglich Papier, Stift, Lineal, Schere, Stoppuhr und ggf. Büroklammern benötigt.38 Allerdings ist die Zufallsstreuung erfahrungsgemäß relativ groß im Vergleich zu den Effekten, die aufgrund der Versuchsdurchführung nachweisbar sind.39 Um signifikante Effekte zu finden, sind deshalb viele Realisierungen erforderlich (vgl. Kleppmann 2006, S. 289ff.).
37
38 39
Im Vordergrund steht hier die Überprüfung der Effektivität, also der Wirksamkeit, der abgeleiteten Vorgehensmodelle. Diese lässt sich im Rahmen einer explorativen Untersuchung relativ leicht ermitteln. Aussagen zur Effizienz werden zwar ebenfalls getroffen; sie bedürfen jedoch einer weiterführenden empirischen Untersuchung. Bei den Rotor-Versuchen wurden die folgenden Materialien verwendet: Papier: 80 g/m2, weiß, ~ 5,0 g/Stck.; Büroklammer: 26 mm, spitz, ~0,5 g/Stck. Es gibt andere DOE-Übungsbeispiele, bei denen die Effekte größer und physikalisch leichter zu interpretieren sind als beim Rotor, z.B. Nürnberger-Trichter. Diesem Vorteil steht i.A. der Nachteil gegenüber, dass mit höherer Genauigkeit der Ergebnisse die Anforderungen an den Versuchsaufbau und die Durchführung steigen.
270
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
Das Beispiel Papier-Rotor kann als Modell für eine Produktoptimierung betrachtet werden: Aus einem DIN A4-Blatt Papier wird ein Rotor gemäß Abb. 5-13 ausgeschnitten. Das Rechteck mit der Länge e und der Breite f spiegelt den Schaft des Rotors wider. Die Flügel ergeben sich dadurch, dass man die ParallelogrammFlächen von der Länge c und der Breite a entlang der punktierten Linie um 90° nach vorne bzw. um 90° nach hinten knickt. Zwischen Schaft und Flügel liegt der Steg mit einer Fläche von 2⋅a ⋅ d. Wird das gefaltete Papierblatt aus einer bestimmten Höhe fallen gelassen, beginnt es sich als Rotor in der Luft zu drehen. Bei günstiger Wahl der Dimensionen rotiert der Rotor relativ stabil und sinkt langsam zu Boden. Dabei kann es je nach verwendetem Papier erforderlich sein, den Rotor am unteren Ende zu beschweren, z.B. mit Büroklammer(n). 21,0 cm a
b
Flügel
a
Flügel
c
2·a Steg
d
29,7cm
Schaft
f
e
Abb. 5-13: Abmessungen des Papier-Rotors40
Die Aufgabenstellung besteht darin, die Abmessungen a, b, c, d, e und f so zu wählen, dass die Zeit maximiert wird, die der Rotor benötigt, um aus einer vorge40
Bei dieser und allen folgenden Abbildungen handelt es sich um eigene Darstellungen.
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
271
geben Höhe zu Boden zu sinken (= Hauptziel). Als weitere Zielgrößen können z.B. die Absturzneigung (wie auch immer zu messen) oder die Drehzahl definiert werden. Bei der Konstruktion des Rotors ist als Randbedingung einzuhalten, dass das DIN A4-Blatt vollständig genutzt wird, d.h. die Gesamtbreite beträgt 2 ⋅ a + b = 21,0 cm und die Gesamtlänge c + d + e = 29,7 cm. Zusammen mit der Schaftbreite f erhält man dann vier Konstruktionsparameter, die frei wählbar sind. Die restlichen zwei ergeben sich aus den obigen Randbedingungen. (b) Anwendung des DMAIDV-Zyklus zur Optimierung Die Anwendung des DMAIDV-Zyklus zur Optimierung des Papier-Rotors kann in einem 2-Tages-Seminar erfolgen. Die Teilnehmerzahl sollte dabei auf max. 25 begrenzt werden. In Abhängigkeit von den Six Sigma-Vorerfahrungen der Teilnehmer werden am ersten Tag die Konzeption und Inhalte von Design for Six Sigma (DFSS) vermittelt. Am zweiten Tag sind – unter Anleitung eines erfahrenen (Master) Black Belts – die einzelnen Phasen des DMAIDV-Zyklus am Beispiel des Papier-Rotors zu durchlaufen. Wesentliche Tools, die sich in der Praxis bei F&E-Projekten bewährt haben, werden zum Einsatz gebracht. Für eine erfolgreiche Anwendung sind den Teilnehmern im Vorfeld einschlägige Kenntnisse in statistischen Methoden, insb. DOE, sowie vertieftes Wissen in Kreativitäts-/ Innovationstechniken, insb. TRIZ, zu vermitteln. Die Vorgehensbeschreibung und Analyseergebnisse, die im Folgenden kurz referiert werden, basieren auf einem 2-tägigen Six Sigma-Seminar, das am 20.04.21.04.2006 an der TU Dresden durchgeführt worden ist. Teilnehmer des Seminars waren Studenten der Fakultät Wirtschaftswissenschaften, die sich zu diesem Zeitpunkt im Hauptstudium befanden und – aufgrund der gewählten Studienrichtung und absolvierter Praktika – bereits über Vorerfahrungen/ -wissen im Bereich „Qualitätsmanagement/ Prozessoptimierung/ Six Sigma“ verfügten. Aus diesem Grund konnte relativ zügig mit der konkreten Optimierungsarbeit begonnen werden. Unter meiner Leitung als Black Belt wurden zu Beginn des Seminars 5 Gruppen á 5 Studenten gebildet, die getrennt voneinander mit der Optimierung der Flugzeit des Papierrotors beauftragt wurden. Als Grundlage diente die o.g. Beschreibung im Buch von Kleppmann (2006, S. 289ff.), die alle Beteiligten zu Beginn des Seminars als Basiswissen zur Verfügung gestellt bekamen. Nachdem die Inhalte und Methoden der einzelnen Phasen des Verbesserungszyklus hinreichend erläutert wurden, bestand die erste Aufgabe darin, 10 unterschiedliche Papier-Rotoren entsprechend den genannten Rahmenbedingungen anzufertigen und aus einer Höhe von 3,75 m jeweils mindestens 2-mal fallen zu lassen. Die Flugzeiten wurden jeweils von zwei Personen (ausgestattet mit Handy-Stoppuhr) gemessenen und in einer Excel-Tabelle notiert. Aus den Daten wurden im Nachgang die mittlere Flugzeit pro Rotor sowie die durchschnittliche Streuung (Standardabweichung) der Flugzeiten bestimmt. Pro Gruppe wurde – bezogen auf die vorstehend genannten Kriterien – jeweils der beste und schlechteste Rotor der Population ausgewiesen. Die besten Rotoren hatten eine mittlere Flugzeit von ca.
272
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
4,0 s mit einer Standardabeichung von 0,1 s. Die schlechtesten Rotoren wiesen eine mittlere Flugzeit von ca. 2,0 s auf; die Standardabweichung betrug bis zu 0,4 s. Einige Rotoren fielen dadurch „negativ“ auf, dass sie teilweise oder gar nicht rotierten und einfach zu Boden trudelten bzw. schwebten. Die Flugzeiten dieser Rotoren waren aber mitunter vergleichsweise hoch. Define-Phase: Aufstellen der Projektcharter Durch den Bau und das Fliegenlassen der ersten 10 Rotoren konnten die Teams erste Erfahrungen mit dem Neuprodukt „Papier-Rotor“ sammeln. Dadurch war es möglich, die Projektcharter zur Maximierung der Flugzeit des Rotors gezielt aufzusetzen. Am Ende der ersten Projektphase erstellte jede Gruppe eine Projektcharter analog Abb. 5-14. Wie nachvollziehbar ist, wurde bei der Formulierung der Charter darauf geachtet, die einzelnen Punkte möglichst genau zu spezifizieren, um den Projektfokus für alle Beteiligten klar abzugrenzen. Gleichzeitig waren die Teams bemüht, sich relativ nahe an der „DFSS-Praxis“ zu bewegen und der dabei geforderten Stringenz Rechnung zu tragen. Die Projektcharter plus weitere Ergebnisse der Methodenanwendungen sind Bestandteil eines ca. 5-seitigen Ergebnisprotokolls, das jede Gruppe nach Ende des Seminars erstellte. Projekt: „Optimierung der Flugzeit eines Papier-Rotors“ 1. Problembeschreibung
4. Marktanalyse & Benchmarking
Es ist ein Papier-Rotor zu entwickeln, der beim Loslassen aus einer bestimmten Höhe im Innenraum möglichst lange und gleichmäßig in der Luft rotiert. Die grundsätzliche Form und das Aussehen des Rotors sind vom Kunden vorgegeben (siehe Abb. 5–19). Die Flugzeit und das Rotationsverhalten der bis dato erstellten Rotoren ist unzureichend; Kundenunzufriedenheit war die Folge.
Es ist mit steigenden Absatzzahlen zu rechnen, wenn ein Papier-Rotor entwickelt werden kann, der signifikante Leistungsvorteile gegenüber den Wettbewerbsmodellen besitzt. Unter der Voraussetzung, dass die Geometrie des Zielmodells deutliche Veränderungen aufweist, eröffnen sich darüber hinaus Differenzierungspotenziale.
Die Ursachen-Wirkungsbeziehungen zwischen den einzelnen Gestaltungsparametern und der Flugdauer/ dem Flugverhalten als Zielgröße sind kaum determinierbar. Sie sind schwierig zu bestimmen, da nicht-lineare Zusammenhänge und Wechselwirkungen höherer Ordnung auftreten. Bisherige Verbesserungen, die zu einer Erhöhung der Flugzeit führten, entstanden nach dem Trial-and-Error-Prinzip.
2. Ziele • Hauptziel: Entwicklung eines Papier-Rotors mit maximaler Flugdauer (Sinkzeit) bei stabiler Fluglage • Unterziel: Entwicklung eines Papier-Rotors, der während des gesamten Fluges gleichmäßig rotiert
3. Nutzen • Prinzipiell höherer Kundennutzen/ höhere Kundenzufriedenheit durch bessere Flugeigenschaften • Maximale Flugdauer, die aufgrund eines wissenschaftlichen Verbesserungsansatzes erzielt worden ist, als einzigartiges Verkaufsargument (USP)
9. Unterschriften
5. Net Benefit keine Angabe
6. Projektumfang/ -rahmen IN: Veränderung der geometrischen Abmessungen des Papier-Rotors bei Ausnutzung eines DIN-AA-Blattes (80g), Nutzung von Beschwerungen (Büroklammer) zur Flugstabilisierung sowie Anbringen von Faltungen, um eine Versteifung der Konstruktion zu erreichen, sind erlaubt. OUT: Veränderung der Papierart (Größe & Gewicht), der örtlichen Bedingungen (Lufttemperatur, Feuchtigkeit etc.) und der Teamzusammensetzung werden ausgeschlossen.
7. Verantwortungen Champion: Swen Günther (Black Belt/ TU Dresden) Projektleitung: Silvio S. (TU Dresden) Team: Cornelia S., Theresa H., Peter L. und Matthias L. (Studenten der TU Dresden)
8. Zeitvorgaben START: 20.04.2006
Champion:
ENDE: 21.04.2006
Black Belt:
Abb. 5-14: Projektcharter für die Optimierung des Papier-Rotors
Measure-Phase: Durchführen der Gage R&R Ein wesentliches statistisches Verfahren im Rahmen der Measure-Phase ist die Messsystemanalyse (Gage R&R). Hierbei soll sichergestellt werden, dass die zu messenden Daten zuverlässig erhoben und durch das verwendete Messsystem nicht (zu sehr) verfälscht werden. Ziel ist es, dass der mithilfe des Standardverfah-
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
273
rens Gage R&R ermittelte relative Messsystemfehler unter 5% liegt, d.h. die Abweichung in den Messwerten ist zu mehr als 95% in der Variation der Produkte/ Prozesse begründet und nicht im Messsystem selbst (vgl. Abschnitt 3.3.1). Von einem noch „guten“ Messsystem kann ausgegangen werden, wenn die durch das System erklärte Varianz der gemessenen Daten weniger als 10% beträgt; in einem Bereich von 10-30% gilt das Messsystem als „akzeptabel“.41 Alle fünf Gruppen wurden in der zweiten Aufgabe damit beauftragt, eine Gage R&R mit Minitab R14 für die Messung der Flugzeit des Papier-Rotors durchzuführen. Dazu wurden im Vorfeld in jeder Gruppe Überlegungen zu den Anforderungen an den Messvorgang angestellt. Im Rahmen einer Operationalen Definition wurde anschließend festgelegt, was Gegenstand des Messvorgangs ist und wie dieser zu messen ist. Im vorliegenden Fall ist die (Flug-)Zeit zu messen, die ein Papier-Rotor vom Loslassen an der Zimmerdecke bis zum Aufschlagen auf dem Fußboden benötigt. Dabei ist der Messvorgang wie folgt zu gestalten: „Ein Teammitglied hält den Rotor mit geknickten Flügeln senkrecht an die Decke und zählt laut von 3 abwärts. Bei 0 lässt das Teammitglied den Papier-Rotor fallen; die Messzeit beginnt. Zwei (weitere) Teammitglieder erfassen unabhängig voneinander die Flugzeit des Rotors, und zwar mittels einer in ihrem Handy integrierten Stoppuhr. Sie betätigen bei 0 den Startknopf. Der Messvorgang endet, wenn der Rotor erstmals den Boden berührt. Die zwei Zeitnehmer betätigen dann unmittelbar den Stoppknopf auf ihrer Stoppuhr.“ Die Durchführung einer Gage R&R für stetige Daten, wie es hier der Fall ist, erfordert pro Rotor mindestens zwei Messvorgänge. Der Stichprobenumfang ist auf mindestens 10 unterschiedliche Papier-Rotoren festgelegt. Damit ist es den Gruppen möglich, auf die Messwerte aus der ersten Versuchsreihe zurückzugreifen, sofern der Messvorgang zu diesem Zeitpunkt bereits in geeigneter Weise definiert worden war. Die Auswertung der Daten erfolgt mit der Statistik-Software Minitab R14. Unter dem Menüpfad Stat/ Quality Tools/ Gage Study/ werden hier gleich zwei Gage R&R-Varianten für stetige Daten angeboten: •
Gage R&R Study (Crossed) steht für die Analyse von Messsystemen, bei denen die Prüfteile zerstörungsfrei geprüft werden können, d.h. die Prüfer können auf gleiche Teile zurückgreifen. Dies ist in unserem Fall gegeben, da ein und derselbe Rotor mehrmals Fliegen gelassen werden kann.
•
Gage R&R Study (Nested) bezeichnet die Analyse von Messsystemen, bei denen die Prüfteile nicht zerstörungsfrei geprüft werden können, d.h. eine bestimmte Auswahl von Teilen (Batch), die für die Messung vorgesehen sind, können von einem Prüfer nur einmal geprüft werden.
41
Bei höheren Werten ist eine Verbesserung des Messsystems dringend erforderlich, tatsächliche Unterschiede in den Produkt-/ Prozessvarianten können dann nicht mehr „statistisch sauber“ erfasst werden.
274
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
Bei beiden Verfahrensvarianten wird das Messsystem im Hinblick auf die Wiederholbarkeit (Repeatability) und Reproduzierbarkeit (Reproducibility) der Daten überprüft. Die Aggregation beider Werte ergibt die Variation des Messsystems (Total Gage R&R); sie wird ins Verhältnis zur Gesamtvariation (Total Variation) aller gemessenen Werte gesetzt. Die Differenz aus Total Variation und Total Gage R&R ergibt die durch die Verwendung unterschiedlicher Teile begründete Varianz der Messwerte (Part-To-Part). Im Seminar lag diese bei den einzelnen Gruppen zwischen 70 und 90%, d.h. maximal 30% der Varianz der gemessenen Flugzeiten wurde durch das verwendete Messsystem erklärt. Die Systeme waren damit zum überwiegenden Teil „akzeptabel“ mit Tendenz zu „gut“. Dieses Ergebnis steht im Einklang mit dem eingangs erwähnten Problem, dass die Zufallsstreuung erfahrungsgemäß relativ groß im Vergleich zu den Effekten ist. Zur Auswertung und Interpretation der Ergebnisse wird von der o.g. StatistikSoftware standardmäßig eine Graphik mit sechs Diagrammen angeboten. In Abb. 5-15 ist die Auswertung von Gruppe 5 beispielhaft angegeben. Gage R&R (ANOVA) for Flugzeit G age name: D ate of study :
Reported by : Tolerance: M isc:
M S A F lugzeit Rotor 20.04.2006
G ruppe 5
Components of Variation
Flugzeit by Rotor-Nr.
Percent
100 85
% Cont ribution
3,2
50 15 0
4,0
2,4 Gage R&R
Repeat
Reprod
0
Part-to-Part
1
2
2M
Sample Range
Matthias
Silvio
3
UCL=0,8440
0,4
_ R=0,2583
0,0
LCL=0
7
7M
8
8M
3,2 2,4 Matthias
Silvio Prüfer
Prüfer * Rotor-Nr. Interaction
Silvio
4,0
UCL=3,967
3,5
_ _ X=3,481 LCL=2,995
Average
Sample Mean
6
4,0
Xbar Chart by Prüfer
3,0
5
Flugzeit by Prüfer
0,8
Matthias
4
Rotor-Nr.
R Chart by Prüfer
4,0
Prüfer Matthias
3,5
Silvio
3,0 0
1
2 2M 3
4
5
6
7 7M 8 8M
Rotor-Nr.
Abb. 5-15: Gage R&R-Ergebnisse mit Minitab für Papier-Rotor
Wie nachvollziehbar ist, betrug die Total Gage R&R ca. 15%, wobei diese sich vollständig aus einer unzureichenden Repeatability ergibt (siehe Diagramm oben links). Das Diagramm oben rechts gibt den Mittelwert sowie die Streuung der Messwerte über die einzelnen Rotoren wieder. Relativ hohe Streuungen weisen die Rotoren 3 und 8 auf. Niedrige Streuungen sind bei den Rotoren 1, 2M und 5 zu verzeichnen (M = Rotor mit Büroklammer). Die höchsten mittleren Flugzeiten
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
275
besitzen die Rotoren 2M und 7M; diese rotieren aufgrund der Beschwerung auch relativ gleichmäßig, was zu einer sehr geringen Streuung der Messwerte führt. Wechselwirkungen zwischen Prüfer und gemessenen Rotoren liegen nicht vor, wie der gleichmäßige Verlauf der Kennlinien im Diagramm rechts unten verdeutlicht.42 Weiterhin fällt auf, dass die Lage der Mittelwerte über alle Rotoren sowie die Streuung der Messwerte nahezu identisch sind (siehe Diagramm rechts Mitte); dies begründet u.a. die hohe Reproducibility des Messsystems. Die abgebildeten Regelkarten (R- und Xbar-Chart) in den Diagrammen links unten geben Hinweise auf die Prozessstabilität; sie spielen hier eine untergeordnete Rolle. Analyse-Phase: Planung und Durchführung von DOE Nachdem die Güte des Messsystems überprüft und sichergestellt werden konnte, beginnt die eigentliche Entwicklungs- bzw. Verbesserungsarbeit. Aus Six SigmaSicht besteht die originäre Aufgabe der Analyse-Phase darin, die wesentlichen Einflussgrößen zu bestimmen, welche die Flugzeit des Rotors als CTQ maßgeblich beeinflussen. Dazu sind zunächst Vermutungen (Hypothesen) über mögliche und aus Entwicklungssicht plausible Ursachen-Wirkungszusammenhänge aufzustellen, die dann im zweiten Schritt – auf der Grundlage von statistischen Dependenzanalysen – überprüft werden. Ein häufig genutztes Instrument, um die vermuteten Zusammenhänge zwischen Einfluss- und Ergebnisgrößen zu systematisieren und zu visualisieren ist das Ishikawa-Diagramm (vgl. Abschnitt 3.3.1). In Abb. 5-16 ist die Ursachenanalyse für die Beeinflussung der Flugzeit des Rotors von einer der fünf Seminargruppen beispielhaft dargestellt. Mithilfe der Kreativitätstechnik Brainstorming wurden im Team mögliche Ursachengrößen in den sechs Kategorien Messung, Material, Maschine, Mensch, Mitwelt und Methoden (6 M) diskutiert und zugeordnet. Dabei war zunächst entscheidend, möglichst viele Haupt- und Nebeneinflussgrößen zu ermitteln, die in Bezug auf die Zielstellung von Relevanz sind. Im Weiteren wurden die hierarchisch angeordneten, potenziellen Einflussgrößen im Hinblick auf ihre Beeinflussbarkeit beurteilt. Mit „variabel“ sind diejenigen Größen gekennzeichnet, die aus Sicht der Teammitglieder kurz- bzw. mittelfristig beeinflusst werden können. Wie in Abb. 5-16 ersichtlich wird, ist der überwiegende Teil der Einflussgrößen veränderbar. Im Gegensatz dazu gelten die Größen, die „von der Natur“ gegeben sind und damit nicht unmittelbar veränderbar sind, als „constant“. Nach Einschätzung der Gruppe sind „nur“ die Bedingungen für das Fallenlassen des Rotors (Prüfraum) und die Herstellung (per Hand) konstant. Das Raumklima und die ungewollte Luftströmung werden als „noise“ charakterisiert. Hierbei handelt es sich um veränderliche Einflussgrößen, die jedoch nur schwer oder gar nicht kontrollierbar sind und zu einem sog. Hintergrundrauschen führen.
42
Dies bedeutet, dass die beiden Prüfer keine besonderen Präferenzen in Bezug auf die zu vermessenden Teile haben und nicht bestimmte Rotoren favorisieren.
Abb. 5-16: Ishikawa-Diagramm für Papier-Rotor
Mensch
Datenauswertung
v Analyst
Datenerfassung
Startzeichen geben Loslasser
v Prüfer
Zeichner
Varianz des Messsystems
c Prüfraum
v
v Fallenlassen
Normal
Raumn klima
n
(z.B.Tür offen)
Zugluft
3 Luftströmung
Ventilator
Gewollt v Offenes Fenster
Lufttemperatur
Kalt
Warm
Lineal Faltungen
Knick an Flügeln
Papierstärke Rotorfläche
Flügel Steg Schaft
Geometrie v 5
Siehe Abb. mit Rotor-Skizze
(z.B. mit Plotter)
automatisiert
Herstellung c
(z.B. mit Drucker)
Legende: v variable n noise c constant Punktbewertung
Messung v
Zuschneiden
per Hand
Methode
Zeit spez.
Ort spez.
per Hand
Zeichnen automatisiert
Flugzeit des Papier-Rotors
Löcher Hilfsmittel v v Gewicht Schere Aero(Messer) 2 dynamik Zusatzgewicht Zuschneiden v Rundungen (z.B. Büroklammer)
Bleistift
Armbewegungen
Klimaanlage
Art
Knick am Schaft
Steifigkeit
Maschine Klebeband am Flügel
Verstärkungen Klebeband am Schaft
Zeichnen
2
Ungewollt Luft- Luftfeuchte druck
Mitwelt
Grundfläche
Raumhöhe
Exakte Richtige Zeichnung AufschlagMaße punkt Hersteller erkennen Korrekte Fehlerfreier Faltung Startpunkt Zuschnitt einhalten Zuschneider (Zeit & Ort)
Zeitnehmer
HandyBedienung
Gage R&R
Büroklammer
Anzahl
Wiederholbarkeit v Reproduzierbarkeit
Varianz der Prüfteile
Rotor v
Art
Material
Papier Mess- v geräte Stärke
Länge
Handy
Lineal
Stoppuhr
Material
Operationale QualifiDefinition für kation Loslassen Loslasser
v Prüfer
Zeitnehmer Operationale Definition für QualifiZeitmessung kation
3
Ende definieren
Messung
Stopp Start festlegen Uhr festlegen Zeitmessung
v Messvorgang
Fallhöhe Anfang definieren
276 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
277
Die anschließende Aufgabe bestand darin, die gesammelten Einflussgrößen im Hinblick auf ihre Bedeutung bzgl. der Maximierung der Flugzeit zu bewerten. Dazu erhielt jeder der fünf Teammitglieder 3 Klebepunkte, die er auf dem Ishikawa-Diagramm beliebig verteilen konnte. Zulässig war es, die Punkte sowohl auf Haupteinflussgrößen- als auch der Nebeneinflussgrößen-Ebene zu verteilen. Zudem konnten die Teilnehmer Mehrfachbewertungen vornehmen. Im Ergebnis entfielen insgesamt 9 von 15 Punkten auf die Kategorie Maschine (Rotor), wobei die geometrischen Maße mit 5 Punkten am bedeutsamsten erschienen. Als ebenfalls wichtig wurden – mit jeweils 3 Punkten – die Größen Messvorgang und Luftströmung eingestuft; ihr Einfluss wurde bereits im Zusammenhang mit der Messsystemanalyse thematisiert. Die Gruppen konzentrierten sich deshalb im Weiteren auf die Optimierung der konstruktiven Auslegung des Papier-Rotors. Nach Kleppman 2005 (S. 282) ist es im Prinzip gleichgültig, welche der sechs geometrischen Parameter (siehe Abb. 5-13) als Einflussfaktoren gewählt werden, um die Flugzeit des Rotors bei Fallenlassen aus einer gegebenen Höhe zu maximieren. Folgende Überlegungen sollten jedoch bei der Dimensionierung berücksichtigt werden, um den Versuchsaufwand in Grenzen zu halten: •
Das Gewicht des Rotors ist von der Gesamtfläche 2⋅a ⋅ (c + d) + e ⋅ f und ggf. dem Gewicht der Büroklammer abhängig. Das Gewicht zieht einerseits den Rotor nach unten (Flugzeit sinkt), andererseits erhöht es aber auch das Drehmoment, welches die Rotation bewirkt (Flugzeit steigt).
•
Die Fläche der Flügel F, die F = 2⋅a ⋅ c beträgt, behindert zum einen das Sinken (Flugzeit steigt). Zum anderen korreliert sie i.A. mit einem höheren Gewicht, so dass das Sinken des Rotors beschleunigt wird (Flugzeit sinkt).
•
Die Stabilität des Rotors beim Drehen wird vor allem durch die Lage des Schwerpunktes determiniert. Liegt er zu hoch, fängt er an zu trudeln.43 Gleichzeitig kann beobachtet werden, dass der Rotor instabil wird und wegknickt, wenn die Fläche 2⋅a ⋅ d im Verhältnis zur Flügelfläche relativ klein ist.
Diese Überlegungen verdeutlichen, dass bei der Konstruktion des Rotors eine Reihe von Widersprüchen bestehen, die durch eine geeignete Dimensionierung zu überwinden sind. Außerdem lässt sich das Flugverhalten aufgrund der Einflussgrößen und ihrer Wechselwirkungen nicht im Voraus berechnen. Als unabhängige Größen kommen z.B. die Längen a, c, d und f in Frage. Denkbar sind aber auch die Verwendung von F, a, d und f oder anderer Kombinationen. Aufgrund der formulierten Bedingungen hat e vermutlich geringeren Einfluss auf die Flugeigenschaften des Rotors und dürfte daher weniger gut als unabhängiger Faktor geeignet sein als bspw. c und d. Ausgehend von diesen Überlegungen wurden in den
43
Hier hilft die Befestigung einer Büroklammer o.ä. am Schaftende. Das Gewicht der Büroklammer beträgt – je nach Layout – ca. 1/5 des Papier-Rotor-Gewichts.
278
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
Teams Input-Variablen festgelegt, deren Zusammenhang mit der Output-Variable „Flugzeit“ im Folgenden statistisch überprüft werden sollte. Durch die Konzentration auf geometrische Maße war diese Aufgabe relativ leicht zu lösen; Einflussgröße und Messgröße sind i.d.R. identisch und bedürfen keiner weiteren Operationalisierung. Schwieriger gestaltet sich hingegen die empirische Überprüfung der vermuteten Ursachen-Wirkungsbeziehungen. Aufgrund des Vorhandenseins von mehreren Input-Variablen (Faktoren), die in Bezug auf die Output-Variable (Effekt) einzeln und gemeinsam wirken, z.B. Flügellänge und -breite, ist auf DOE als geeignete Untersuchungsmethode zurückzugreifen. In Seminaren bietet sich ein vollständiger faktorieller 23-Versuchsplan an, in dem die Effekte von drei Faktoren und ihren Wechselwirkungen untersucht werden. Dabei bleibt es den Teilnehmern überlassen, die Faktoren festzulegen, konkrete Stufenwerte für die Faktoren anzugeben, den Versuchsplan aufzustellen, die Einzelversuche durchzuführen und auszuwerten sowie Verbesserungsmaßnahmen abzuleiten. Aufgrund der Voranalysen mithilfe der Gage R&R und des IshikawaDiagramms kristallisierten sich in den verschiedenen Gruppen die folgenden fünf Einflussgrößen als „untersuchungswürdig“ heraus: Flügelbreite (a), Flügellänge (c), Stegbreite (d), Schaftbreite (f) und Büroklammer (ja/ nein). StdOrder RunOrder 1 1 2 2 3 3 4 4 5 5 6 6 7 7 8 8
Steg (d) 2 5 2 5 2 5 2 5
F-Länge (c) F-Breite (a) 8 5 8 5 12 5 12 5 8 8 8 8 12 8 12 8
Mittelwert 2,53 2,48 2,80 3,55 2,43 1,88 2,70 2,53
Stabwa 0,177 0,035 0,071 0,000 0,106 0,035 0,071 0,106
Abb. 5-17: Vollfaktorieller 23-Versuchsplan für Papier-Rotor
Für 3 der 5 Größen wurden in jeder Gruppe dichotome Ausprägungen festgelegt und Versuchspläne nach o.g. Muster aufgestellt. In Abb. 5-17 ist ein solcher Versuchsplan mit Angabe der Ergebniswerte exemplarisch aufgeführt. Es wurden 8 Rotoren entsprechend dem Versuchsplan, der in nicht-randomisierter Form vorlag, gefertigt und mind. jeweils 2-mal Fliegen gelassen.44 Als Faktoren gingen die 44
Aus statistischer Sicht wäre es ideal, dass für jede Realisierung ein neuer Rotor ausgeschnitten und gefaltet wird, der dann nur jeweils einmal fällt. Die zufälligen Abweichungen in den Sinkzeiten von nominell identischen Rotoren beinhalten nämlich u.a. zufällige Unterschiede im Material (Papier), in der ausgeschnittenen Form und Größe, in der Faltung, in Höhe und Haltung beim Loslassen des Rotors, in der Luftströmung und in der Zeitmessung (Stoppuhr). Nachteil sind der hohe Zeit-/ Kostenaufwand.
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
279
Flügelbreite und -länge sowie die Stegbreite in das Untersuchungsmodell ein. Um möglichst eindeutige Effekte zu erhalten, sind die Abstände zwischen hoher und niedriger Ausprägung zunächst relativ groß gewählt worden. Die mittleren Flugzeiten der Rotoren aus zwei Versuchsdurchführungen bewegen sich zwischen 1,88 s (Minimum) und 3,55 s (Maximum); dies deutet auf gravierende Unterschiede in der Designqualität der Rotoren hin. Die durchschnittliche Streuung (Standardabweichung) der Flugzeiten ist gleichzeitig über alle Faktorstufenkombinationen relativ gering, was u.a. auf ein zuverlässiges Messsystem schließen lässt. Eine detaillierte Auswertung der Versuchsergebnisse ist mithilfe von einschlägiger Statistik-Software möglich, z.B. Minitab R14. In Abb. 5-18 sind die ermittelten standardisierten Effekte der Variablen des Untersuchungsmodells in Form eines Pareto-Charts aufgeführt. Wie ersichtlich ist, sind die zwei Hauptfaktoren Flügellänge und -breite für die Maximierung der Flugzeit hoch signifikant (p-Wert < 0,001), die Stegbreite besitzt hingegen keine signifikante Wirkung auf die Zielgröße (p-Wert = 0,894). Im Hinblick auf die Optimierung des Rotors darf sie jedoch keinesfalls vernachlässigt werden, da sie in Wechselwirkung mit den anderen beiden Faktoren steht. So werden die Zwei-FaktorenWechselwirkungen (2FWW) Stegbreite x Flügellänge und Stegbreite x Flügelbreite als hoch signifikant ausgewiesen (je p-Wert < 0,001). Die 2FWW Flügellänge x Flügelbreite und die sich ergebende 3FWW zwischen allen drei Faktoren sind nach der Berechnung mit ANOVA gerade noch signifikant (p = 0,048). Graphisch ist dies über die eingezeichnete Linie bei 2,31 in Abb. 5-18 ablesbar, welche die Länge des ermittelten Konfidenzintervalls bei α = 0,05 angibt. Das Zielmodell wird durch ein Polynom 1. Grades beschrieben, wobei sich die (Regressions-)Koeffizienten direkt aus den Effekten der einzelnen Faktoren und Faktoren-Wechselwirkungen berechnen lassen (vgl. Minitab Session Command Help). Im vorliegenden Fall wird die Flugzeit der Rotoren (y) mit einem Bestimmtheitsmaß von 97,9% durch folgenden Term beschrieben:
y = f ( a, c, d ) = 2,609 − 0,228 ⋅ a + 0,284 ⋅ c − 0,003 ⋅ d − 0,053 ⋅ a ⋅ c − 0,178 ⋅ a ⋅ d + 0,147 ⋅ c ⋅ d − 0,053 ⋅ a ⋅ c ⋅ d
(5.6)
mit y in s; a, b, c und d in cm
Entscheidet man sich für die einfache Variante, also für Einzelversuche mit demselben Rotor auf jeder Faktorstufenkombination, dann genügt es, 8 Rotoren nach dem Versuchsplan auszuschneiden und zu falten. Nach systematischer Durchnummerierung können diese in den Einzelversuchen immer wieder verwendet werden. Dadurch wird der Versuchsaufwand wesentlich reduziert. Jedoch muss man sich im Klaren darüber sein, dass die Zufallsstreuung gegenüber Versuchen mit mehreren nominell identischen Rotoren i.A. unterschätzt wird, da die ersten drei Streuungsursachen (Material, Form, Größe und Faltung) nicht erfasst werden.
280
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
Die graphische Darstellung der Koeffizienten respektive Effekte erfolgt in Form des Main Effects Plot sowie Interaction Plot. Aus ihnen sind die Stärke und Richtung der analysierten Faktoren und ihrer Wechselwirkungen ablesbar. Der Zusammenhang zwischen Faktorausprägung und Effekthöhe wird über lineare Regressionsgeraden beschrieben, deren Anstieg dem jeweiligen Koeffizienten in Gleichung (5.6) entspricht. Während die beiden Flügelparameter a und c jeweils einen relativ großen Einfluss auf die mittlere Flugzeit des Papier-Rotors haben, geht der Haupteffekt, der durch die Stegbreite d begründet ist, gegen Null. Nach dem Pareto-Chart sind für die Zielgrößenmaximierung Rotoren mit langen, schmalen Flügeln zu bevorzugen. Jedoch ist hier zu beachten, dass die Wahl der Merkmalsausprägungen für a und c nicht unabhängig von d erfolgen darf. Die Wechselwirkungseffekte AB und AC im Zusammenhang mit der Stegbreite werden durch die gekreuzten Linien in den entsprechenden Interaction Plots verdeutlicht.
Pareto Chart of the Standardized Effects (response is Flugzeit, Alpha = ,05) 2,31 F actor A B C
B
N ame S tegbreite F lügellänge F lügelbreite
C
Term
AC AB ABC BC A 0
2
4
6 8 10 Standardized Effect
12
14
Abb. 5-18: Pareto-Chart der standardisierten Effekte beim Papier-Rotor
Über den Response Optimizer, der sich ebenfalls im Menüpunkt Stat/ DOE/ Factorial in Minitab R14 befindet, ist schließlich eine Optimierung der im Portfolio befindlichen Designvarianten möglich. Wie im Cube Plot in Abb. 5-19 ersichtlich ist, werden die höchsten durchschnittlichen Flugzeiten erzielt, wenn sich die Stegbreite und die Flügellänge auf hoher Ausprägung (d.h. 5 cm bzw. 12 cm) und die Flügelbreite auf niedriger Ausprägung (d.h. 5 cm) befinden. Das gegenwärtige Optimum (y* = 3,55 s) befindet sich damit an den Grenzen des definierten Untersuchungsraumes. Eine Erweiterung der Toleranzbereiche bzgl. der Einflussgrößen
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
281
ist empfehlenswert, um eine weitere Verbesserung der Flugzeiten zu erreichen. Es ist davon auszugehen, dass das Maximum von y bei a < 5 cm, c > 12 cm und d > 5 cm liegt. Folglich sollten in der nächsten Verbesserungsrunde z.B. folgende Einstellwerte für die drei Faktoren gewählt werden: a = [3; 6]; c = [11; 15] und d = [4; 7], um näher an das wahre Optimum heranzukommen.
Cube Plot (data means) for Flugzeit 2,700
2,525
2,800
3,550
12
Flügellänge
2,425
1,875 8
2,525
2,475
8
Flügelbreite 5
2
Stegbreite
5
Abb. 5-19: Cube Plot mit mittleren Flugzeiten der Papier-Rotoren
Zwischenfazit: Das Optimierungsproblem stellt sich – im Gegensatz zur ersten Einschätzung vieler Beteiligter – als relativ komplex dar. Aus der Vielzahl der potenziellen Einflussgrößen, die im Zuge der Ursachen-Wirkungsanalyse gefunden worden sind, ist jeweils nur ein kleiner Ausschnitt überprüfbar. Unter Berücksichtigung des Versuchsaufwandes lassen sich i.d.R. maximal fünf Größen in einem Durchgang analysieren. Nimmt man die Ergebnisse der einzelnen Gruppenarbeiten zusammen, dann ergibt sich folgendes Bild, welches die Komplexität und den Schwierigkeitsgrad der Problemstellung untermauert: •
Die Einflussgrößen, die insb. unter der Kategorie Material eingeordnet sind, können im großen und ganzen in ihrer Wirkung bestätigt werden. Sowohl die geometrischen Maße als auch die verwendeten Zusatzeinrichtungen, z.B. Büroklammer, haben einen signifikanten Einfluss auf die Flugzeit.
•
Die Signifikanz der ermittelten Effekte richtet sich in erster Linie danach, wie groß der Wertebereich der modellrelevanten Faktoren definiert ist, d.h. die Schrittweite zum Abtasten des Lösungsraumes darf nicht zu klein gewählt sein, da ansonsten das Rauschen (Noise) zu groß wird.
282
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
•
Die Hauptfaktorwirkungen fallen – je nach gewählter Versuchsanordnung – in ihrer Stärke und Richtung recht unterschiedlich aus. Dies legt den Schluss nahe, dass die Lage des Optimums nicht grenzwertig ist und sich „irgendwo“ im mittleren Bereich der zulässigen Faktorausprägungen befindet.
•
Die Faktoren-Wechselwirkungen besitzen eine außerordentlich hohe Bedeutung in Bezug auf die Maximierung der Flugzeit des Rotors. Aus diesem Grund sind teilfaktorielle Versuchspläne, bei denen Wechselwirkungen höher Ordnung überlagert werden, zur Untersuchung nur bedingt geeignet.
•
Die Ermittlung von optimalen Faktor-Einstellwerten gestaltet sich aufwendig und schwierig: Erstens wegen der hohen Anzahl benötigter Versuchsanordnungen/ -wiederholungen, zweitens wegen dem erforderlichen MethodenKnow-how, das erst im Zuge eines weiterführenden Studiums erlangt wird.
•
Die Maximierung der Flugzeit des Rotors erfordert das Aufdecken und Analysieren von nicht-linearen Zusammenhängen. Mit linearen Optimierungsansätzen lässt sich die Lage des Optimums i.d.R. nur (sehr) grob schätzen.
•
Die systematische Vorgehensweise im Rahmen von DOE führte bei allen Gruppen zum Auffinden einer verbesserten Lösung gegenüber dem ersten Versuchsdurchgang, bei dem das Trial-and-Error-Prinzip zugrunde lag.
•
Die Güte der Messsysteme verbesserte sich zusehends. So lagen am Ende der Analyse-Phase in allen Gruppen valide Ergebnisse zur Verifizierung respektive Falsifizierung der vermuteten Ursachen-Wirkungsbeziehungen vor.
Erweiterungen über die hier beschriebene Aufgabenstellung hinaus sind je nach Trainingsinhalt und -tiefe jederzeit möglich (vgl. Kleppmann 2006, S. 292). So sind u.a. weitere Faktoren denkbar, deren Einfluss auf die Flugzeit des Rotors untersucht werden kann, wie z.B. Form der Flügel, Abschrägungen an der Versteifung, Papierart und Verwendung unterschiedlicher Gewichte, z.B. Büroklammer, Heftklammer. Nichtlinearitäten lassen sich mit zentral zusammengesetzten Versuchsplänen, z.B. Central-Composite-Designs oder Box-Behnken-Pläne, untersuchen. Die Standardabweichung der Flugzeit kann als Maß für die Anfälligkeit des Rotors gegenüber Störungen als weitere Zielgröße definiert werden. Unter Nutzung von Versuchsdesigns nach Taguchi lassen sich auf diese Weise das SignalRausch-Verhältnis ermitteln und ggf. verbessern. Innovate-Phase: Lösen von Widersprüchen mit TRIZ Nachdem ein akzeptabler Papier-Rotor gefunden worden ist, der den in der Define-Phase formulierten Anforderungen entspricht, beginnt nach klassischem DFSSVerständnis die Design-Phase. Der Raum für Innovationen ist in diesem Fall relativ (stark) beschränkt. Für den besten Rotor, der in der Analyse-Phase experimentell ermittelt werden konnte, wird ein Feinkonzept ausgearbeitet. Innovative Lösungen werden im Zuge der Konfektionierung allenfalls zufällig gefunden. Aus
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
283
diesem Grund wird der Einschub einer zusätzlichen Phase empfohlen (vgl. Abschnitt 5.1.1), so dass sich ein insgesamt 6-phasiger DFSS-Zyklus ergibt. In der Innovate-Phase wird vordergründig nach innovativen Verbesserungsmöglichkeiten gesucht, die den Kundennutzen erhöhen. Aus mathematischer Sicht soll auf diese Weise sichergestellt werden, dass die ermittelte Lösung tatsächlich ein globales Optimum repräsentiert (vgl. Abschnitt 3.4.2). Unter Anwendung von TRIZ wird im Folgenden die Konstruktion des RotorSchaftes im Hinblick auf seine Optimalität überprüft. Die Funktion des Schaftes besteht darin, durch die Beeinflussung der Lage des Schwerpunktes des Rotors die Rotationen in der Luft zu stabilisieren. Erfahrungsgemäß reicht aber der reine Papierzuschnitt nicht aus, um eine stabile Rotation zu erreichen. Gängige Praxis ist deshalb ein Zusatzgewicht in Form von Büroklammern anzubringen, was zu einer signifikanten Verlagerung des Schwerpunktes des Rotors nach unten beiträgt. Im Vergleich zum Papier-Rotor ohne Klammer(n) wird i.d.R. eine deutlich höhere Rotationsstabilität erreicht. Diese äußert sich u.a. darin, dass der Rotor gleich von Beginn an rotiert sowie bei kurzeitigen Änderungen der Fallbedingungen, z.B. Luftströmung, nicht gleich ins Trudeln gerät. Die stabilisierende Wirkung aufgrund des Zusatzgewichtes geht jedoch zu Lasten der maximal erreichbaren Flugzeit. Denn je schwerer der Rotor ist, desto schneller sinkt er zu Boden. Es besteht folglich ein Trade-off zwischen der Verbesserung der Rotationseigenschaften und der Maximierung der Flugzeit. Im Hinblick auf die zwei genannten Ziele ist die optimale Gewichtsverteilung am Schaft für jeden Rotor einzeln zu bestimmen. Mittels geeigneter Experimentieranordnung lässt sich untersuchen, welches Zusatzgewicht am Rotor anzubringen ist, um bei (noch) akzeptablem Drehverhalten die maximale Flugzeit zu erreichen. In diesem Zusammenhang besitzt die bisher praktizierte Lösung den Nachteil, dass die Gewichts- und damit Schwerpunktbeeinflussung nur grob, d.h. über eine diskrete Änderung der Anzahl von Klammern erfolgen kann. Zudem verursacht das Anbringen und ggf. wieder Abnehmen der Klammern einen zusätzlichen Zeitund Kostenaufwand in der „Herstellung“ des Rotors. Diesen gilt es bei der Suche nach einer verbesserten Lösung zu vermeiden. Die Bewertung des Systems basiert bei TRIZ auf dem Konzept der Idealität. Bei diesem werden alle erwünschten Funktionen ins Verhältnis zu allen unerwünschten Funktionen gesetzt (vgl. Abschnitt 5.1.2). Die unerwünschte Funktion besteht im Fall des Papier-Rotors darin, dass der Schaft eine oder mehrere Büroklammern zu halten hat (Nebenfunktion = unerwünscht), um den Rotor stabil fliegen zu lassen (Hauptfunktion = erwünscht). Ein ideales System liegt nach der TRIZPhilosophie genau dann vor, wenn zur Ausübung der Hauptfunktion auf alle Nebenfunktionen verzichtet werden kann, d.h. der Rotor rotiert lange und stabil, ohne dass Klammer(n) notwendig sind. Um zu einem solchen ideal(er)en System zu gelangen, sind verschiedene Wege möglich. Eine gebräuchliche Vorgehensweise, die auch in unserem Fall zur Anwendung kommen soll, ist – entsprechend dem
284
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
Minimumprinzip der BWL – die sukzessive Beseitigung der Schwächen des Systems, ohne die Stärken desselbigen negativ zu beeinflussen. Ausgangspunkt für das Auffinden innovativer Lösungsideen ist das Vorhandensein von Konflikten. Dabei handelt es sich um technische Widersprüche, die sich aus administrativen Widersprüchen ergeben, wie sie vorstehend am Beispiel Papier-Rotor genannt sind. Das Vorliegen von technischen Widersprüchen erlaubt u.a. die Anwendung der Altschuller´schen Konflikte-Matrix zur innovativen Lösungsfindung (siehe Abb. 5-20). Grundlage hierfür bilden die 39 technischen Parameter, die – paarweise gegenübergestellt – direkt zu technischen Widersprüchen (Konflikte) führen. Das Auffinden innovativer Lösungen geht mit der Aufhebung dieser Konflikte einher, und zwar nach dem Motto „Verbessert man den einen Parameter, dann verschlechtert sich nicht der andere“. Hilfestellung bei der Lösungsfindung wird anschließend in Form der 40 innovativen Lösungsprinzipien gegeben, die den definierten Konfliktepaaren in der Matrix selektiv zugeordnet sind. Der „zu verbessernde Parameter“ sowie die „nicht erwünschte Veränderung“ lassen sich im Fall des Papier-Rotors wie folgt beschreiben: •
Der technische Parameter (15) soll verbessert werden.45 Bei diesem geht es um die „Haltbarkeit eines bewegten Objektes“, was der geforderten stabilen und gleichmäßigen Rotation des Papier-Rotors (ohne Zusatzgewicht) auf seiner Flugbahn sehr nahe kommt.
•
Der technische Parameter (01), der das „Gewicht eines bewegten Objektes“ definiert, soll gleichzeitig unverändert bleiben.46 Ziel ist es, die stabile Fluglage des Rotors zu gewährleisten, ohne das Gewicht durch Anbringen zusätzlicher Materialien am Schaft erhöhen zu müssen.
Die Gegenüberstellung der zwei Parameter in der Konflikte-Matrix führt zu den vier Lösungsvorschlägen aus der Liste der 40 Innovations-Prinzipien: •
Periodische Wirkung (19): (a) Von der kontinuierlichen Wirkung ist zur periodischen (Impulswirkung) überzugehen (Bsp.: Schlagbohrmaschine)/ (b) Wenn die Wirkung bereits periodisch erfolgt, ist die Periodizität zu verändern (Bsp.: Morse-Code)/ (c) Die Pausen zwischen den Impulsen sind für eine andere Wirkung auszunutzen (Bsp.: Musik in Telefonwarteschleife)
•
Vereinen (05): (a) Gruppiere gleichartige oder zur Zusammenarbeit bestimmte Objekte räumlich zusammen, d.h. kopple sie (Bsp.: Bicolor-Bleistifte)/ (b)
45
46
Der technische Parameter (15) ist wie folgt definiert (vgl. Herb et al. 2000, S. 268): „Die Zeitspanne, während der ein räumlich bewegendes Objekt in der Lage ist, seine Funktion erfolgreich zu erfüllen.“ Der technische Parameter (01) ist wie folgt definiert (vgl. Herb et al. 2000, S. 267): „Die messbare, von der Schwerkraft verursachte Kraft, die ein bewegter Körper auf die ihn vor dem Fallen bewahrende Auflage ausübt. Ein bewegtes Objekt verändert seine Position aus sich heraus oder aufgrund externer Kräfte.“
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
285
Vertakte gleichartige oder zur Zusammenarbeit bestimmte Objekte, d.h. kopple sie zeitlich (Bsp.: Radio-Cassettenrecorder)
1 2 3
Gewicht eines bewegten Objektes Gewicht eines stationären Objektes Länge eines bewegten Objektes
8
Länge eines station ären Objektes Fläche eines b ewegten Objektes Fläche eines stationären Objektes Volu men eines bewegten Objektes Volu men eines station ären Objektes
9
Geschwindig keit
4 5 6 7
10
Kraft
11
Druck oder Spannung
12
Form
13
Stabilität eines Objektes
14
Festig keit
16
Haltbarkeit eines bewegten Objektes Haltbarkeit eines st ationären Objektes
17
Temperatur
15
8, 15, 2 9, 34
15 , 1 7, 4
35, 8, 2, 14 7, 14 , 17, 4
26, 7, 9, 39 1, 7, 4, 35
3 5, 10 , 19, 14 19, 14
1, 7, 4, 17 35, 8, 2, 14
2, 8, 13, 14, 29 , 3 0, 28, 13, 8 34 38 8, 1, 1 8, 13 , 17, 19, 19 , 1 0, 1, 18, 28 , 1 0 37,18 1, 28 9, 36 15 36, 37
7, 29 , 34 15 , 9 , 1 2, 37
10, 14, 35, 40 13, 10, 29, 14 1, 8, 1, 8, 35 10, 29 1, 14, 13, 14, 35 15 , 7 10, 1 5, 5 , 34, 36, 28 29 , 4 10, 1 5, 36, 37 6, 35, 1 , 15, 36, 37 29 , 4
1 3, 28, 6, 18, 15 , 1 9 38, 40 18, 2 1, 11
35, 15, 28 , 3 3, 8, 3, 18, 34 1, 18 26, 14 10, 35, 35 , 1 0, 35, 10 , 40, 34 21 14, 27
3, 19 , 3 5, 5 1 9, 2
10, 36, 1 3, 29 , 35, 10, 35, 1, 10 , 1 5, 10, 15, 6, 35 , 6, 35, 3 6, 35, 3 5, 4, 35 , 3 3, 9, 18, 19 , 3 , 35, 24 3 7, 40 10, 18 36 14 , 1 6 36, 25 35, 37 10 36 21 15, 10 2, 40 3, 40 27 8, 10, 1 5, 10 , 29, 34, 1 3, 14, 5, 34, 14 , 4 , 35, 15, 3 5, 10, 34, 1 5, 33, 1 , 30, 14 , 14, 26, 7, 2, 35 2 9, 40 2 6, 3 5, 4 10, 7 4, 10 1 5, 22 34, 18 37 , 4 0 10, 14 18, 4 10, 40 9 , 2 5 21, 35, 2 6, 39 , 13, 15, 2, 11, 37 2, 39 1, 40 1, 28 13 1, 8, 4 0, 26 , 1 , 1 5, 1 5, 14, 3, 34, 4 0, 15 2 7, 1 8, 35 28 , 2 6 40, 29
39 9, 40,
28, 10, 34, 28 , 33, 15, 1 0, 35, 2, 35, 2 2, 1, 1 9, 39 35, 40 28, 18 21 , 1 6 40 18 , 4 10, 15, 9, 14, 8, 13, 1 0, 18, 10, 3, 10, 30, 13 , 1 7, 17, 15 26, 14 3, 14 18, 40 35, 40 35
Innovationsprinzipien 28 14, 7
19, 5, 3 4, 31
3, 17, 2, 19, 9 19 6, 27, 1, 10, 19, 16 35 36, 22, 2 2, 35 , 15, 19, 1 5, 19, 3, 35, 6, 38 32 9 9 39, 18
10 , 2 , 1 9, 30
17 Temperatur
15
28, 27 , 5, 34 , 18, 40 31, 35 28, 2, 10, 27 8, 35, 19 29, 34 15, 14 , 28, 26 3, 15, 6, 3 40, 14
Haltbarkeit eines stationären 16 Objektes
14
Haltbarkeit eines bewegten Objektes
13 1, 35 , 1 9, 39 26 , 3 9, 1, 40 1, 8, 1 5, 34 39 , 3 7, 35 11, 2 1 3, 39
Festigkeit
12
6, 20, 4, 38 2 8, 19, 32, 22 1 0, 15, 19 1, 4 0, 3, 35, 28 , 1 0 35 38, 18 29, 30, 1 9, 30, 2, 15, 4, 34 35, 2 16 2, 1 0, 3 5, 39, 1 , 1 8, 2, 38 40 19 , 3 0 38 35 , 3 6 29, 4, 1 5, 35, 28 , 1 0, 9, 14, 3 4, 39, 6, 35 , 4 38, 34 36 , 3 7 1, 39 15, 7 10, 18 2 , 1 8, 34 , 2 8, 9, 14, 35, 34, 24, 35 7 , 2 , 3 5 35, 6, 4 37 3 5, 40 17, 15 38
2, 36, 13, 28, 18, 37 15, 12
10, 3 6, 37, 40 13, 2 9, 10, 18
Stabilität eines Objektes
11
Form
10 Kraft
8 , 1 0, 18 , 3 7 8 , 1 0, 19 , 3 5 1 7, 10, 13, 4, 8 4
Druck oder Spannung
9
8
7 7, 17 , 4, 35
14, 15, 18, 4
Geschwindigkeit 2, 8, 15, 38
5, 35, 1 4, 2
17, 7, 10, 40
30, 2, 14, 18
Volumen eines stationären Objektes
6
29 , 2 , 4 0, 28 35, 30, 13, 2
3 5, 28 , 40, 29 2, 17, 29, 4
Volumen eines bewegten Objektes
5 29 , 1 7, 38, 34
10, 1, 29 , 3 5
2, 26, 2 9, 40
Fläche eines stationären Objektes
4
3 1 5, 8, 29, 34
Fläche eines bewegten Objektes
Zu verbessernder Parameter
Länge eines stationären Objektes
Nicht erwünschte Veränderung (Konflikt)
Länge eines bewegten Objektes
Technischer Parameter
Technischer Parameter
2
Poröse Materialien (31): (a) Das Objekt ist porös auszuführen, oder es sind zusätzlich poröse Elemente (Einsatzstücke, Überzüge usw.) zu benutzen (Bsp.: Filzstift)/ (b) Wenn das Objekt bereits porös ausgeführt ist, sind die Poren mit einem geeigneten Stoff zu füllen (Bsp.: Flaschenkorken) 1
•
Gewicht eines stationären Objektes
Beseitigung und Regeneration (34): (a) Teil eines Objekts, das seinen Zweck erfüllt hat oder unbrauchbar geworden ist, wird beseitigt (aufgelöst, verdampft o.ä.) oder unmittelbar im Arbeitsgang umgewandelt (Bsp.: Patronenhülse)/ (b) Verbrauchte Teile eines Objektes werden unmittelbar im Arbeitsgang wieder hergestellt (Bsp.: Autobatterie)
Gewicht eines bewegten Objektes
•
19, 3, 27
2 8, 30, 36, 2 3 5, 10, 21 3 5, 39, 19, 2 2 2, 14, 19, 32
13, 27, 39, 3, 35, 1, 10, 35 35 , 2 3 32 27 , 3 , 3 0, 10, 26 40
13, 3 , 27, 3, 1 9, 35, 35 10 39 39, 3 , 1 9, 18, 3 5, 23 36, 40 34, 39, 2, 28, 3 5, 10, 35, 3 9, 14, 22, 1, 35 , 10, 30 , 19, 13, 19, 18, 35, 38 35 , 6 , 4 36, 30 3, 21 19, 2 19, 32 32 22, 40 39 36 , 4 0 4 0, 18 3, 35, 5
1 9, 2, 16
17, 9, 15
2, 2 7, 19, 6
14, 26, 28, 25
35, 34 , 38
Abb. 5-20: Altschuller´sche Konflikte-Matrix (Auszug)
Nach ausführlicher Diskussion der vier Lösungsvorschläge im Team erwies sich das Prinzip (31) für die Aufhebung des genannten Konfliktes am vielversprechendsten. Denn die Verwendung von porösem Material liegt bereits vor; Papier hat Poren47 und ist – je nach Sorte und Beschichtung – mehr oder weniger gut
47
Papier besteht aus einem Netzwerk von Zell-/ Holzstofffasern verschiedener Länge, Dicke und Form. Aufgrund dieser Tatsache besitzt ein Papierblatt Luftzwischenräume (Poren), die durch Füllstoffteilchen z.T. aufgefüllt werden können, z.B. Feuchtigkeit.
286
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
saugfähig, es nimmt Flüssigkeiten, z.B. Wasser, auf und wird dadurch schwerer. Daraus ergab sich die folgende konkrete Lösungsidee: „Der Schaft des PapierRotors wird vor dem Fliegen lassen in ein Gefäß mit Wasser gehalten. In Abhängigkeit davon, wie lange er in das Gefäß getaucht wird, saugt er sich mit Flüssigkeit voll und wird schwerer. Der Schwerpunkt des Papier-Rotors verlagert sich entsprechend nach unten. Um eine stabile Rotation zu erreichen, kann im Weiteren auf das Anbringen von Büroklammern verzichtet werden.“ Gegenüber der „Büroklammer-Lösung“ besitzt die Verwendung eines flüssigen Mediums gleich mehrere Vorteile: Zum einen lässt sich die Wasseraufnahme des Schaftes dosieren, was zu einer kontrollierten Gewichtszunahme und damit definierten Verlagerung des Schwerpunktes führt. Die Lösung ist folglich flexibel einsetzbar, um die Flugzeit verschiedener Rotor-Typen zu maximieren. Zum anderen besitzt Flüssigkeit den Vorteil, dass es sich nach dem Flug quasi von selbst entfernt. Der Schaft trocknet und wird leichter, indem man das Wasser einfach verdunsten lässt. Damit sind sowohl die Bereitstellungs- als auch die Entsorgungskosten i.d.R. geringer als bei der Ausgangslösung. Alles in allem ist die „Wasser-Lösung“ innovativ, da die genannten Vorteile zu einer deutlichen Verbesserung der Idealität führen. Der Anteil unerwünschter Nebenfunktionen, z.B. Abnehmen der Büroklammer nach dem Flug, wird reduziert während die erwünschte Hauptfunktion, insb. Stabilisierung der Rotation durch Schwerpunktverlagerung, vollständig erhalten bleibt. Ein Vergleichstest von zwei Rotoren48 mit unterschiedlicher Schaftbeschwerung ergab folgendes Ergebnis: (1) Der Rotor, dessen Schaft mit zwei Büroklammern beschwert ist, weist – bei insgesamt 12 Flügen – eine mittlere Flugzeit von 2,67 s auf; die Standardabweichung beträgt 0,130 s. (2) Wird derselbe Rotor in Wasser getränkt, dann beläuft sich die mittlere Flugzeit – bei gleichem Versuchsumfang – auf 2,90 s bei einer Standardabweichung von 0,53 s. Die durchschnittliche Streuung der Flugzeiten ist nach der F-Teststatistik für Varianzhomogenität deutlich größer als im Ausgangszustand (p = 0,000), was unmittelbar auf einen weiteren Forschungs- und Entwicklungsbedarf schließen lässt. Z.B. ist die Operationale Definition für den Prozess der Wasseraufnahme zu verbessern. Die mittlere Flugzeit hat sich geringfügig verbessert, was für die grundsätzliche Tragfähigkeit des neuen Lösungsansatzes spricht. Der statistische Mittelwertvergleichstest – basierend auf dem Zweistichproben-t-Test mit einseitig nach oben begrenztem Konfidenzintervall – weist ein gering signifikantes Ergebnis aus (p =
48
Diese Eigenschaft wird als „porös“ bezeichnet. Die Porösität des Papiers ist umso größer, je höher das Verhältnis von Poren- zu Gesamtvolumen ist. Dabei existieren standardisierte Verfahren, z.B. nach DIN 53120 bzw. ISO 2965, um die Porosität eines Stoffes zu bestimmen (vgl. Austropapier 2006). Für den Vergleichstest wurde ein Papier-Rotor mit den folgenden geometrischen Maßen verwendet: a = 5,9 cm, c = 14,7 cm, e = 12,7 cm und f = 4,3 cm.
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
287
0,087). Dies bedeutet, das die mittlere Flugzeit der Rotoren, deren Schaft in Wasser getränkt ist, mit einer Irrtumswahrscheinlichkeit von kleiner 10% größer ist als bei den (gleichen) Rotoren, die mit Büroklammern ausgestattet sind. Um dieses Ergebnis mit einem höheren Signifikanzniveau abzusichern, sind weitere Versuchsreihen mit größerem Versuchsumfang notwendig. Im Projekt ging es primär darum, die Effektivität des neuen Lösungsansatzes nachzuweisen. Design-Phase: Auslegen des Papier-Rotors für die „Serienproduktion“ Durch die Anwendung der widerspruchsorientierten Problemlösungstechnik TRIZ konnte eine innovative Lösung gefunden werden. Das Design des Papier-Rotors ist im Weiteren unter Verwendung der „Wasser-Lösung“ zu detaillieren. Außerdem sind erste Überlegungen im Hinblick auf die Aufnahme der „Serienproduktion“ anzustellen. Dabei ist u.a. der Prozess der Flüssigkeitsaufnahme am Schaft genau zu beschreiben, um ein optimales Flugverhalten zu erzielen. Unter der Voraussetzung, dass bereits ein bestimmter Rotor-Typ zur weiteren Optimierung ausgewählt worden ist, kommt hier als Untersuchungsmethode die nicht-lineare Regressionsanalyse infrage. Bei dieser ist in inkrementellen Schritten die Höhe der Wasseraufnahme (= Einflussgröße) zu verändern und jeweils die Wirkung auf die Flugzeit des Rotors (= Zielgröße) zu überprüfen. Im Ergebnis sollte die Gewichtserhöhung am Schaft genau quantifiziert werden können, um so eine maximale Flugzeit zu erreichen. Liegt noch keine Entscheidung über die Verwendung eines bestimmten Rotor-Typs vor, ist die Durchführung eines weiterführenden DOE mit mehr als 4 Faktoren notwendig. Um das globale Optimum exakt zu bestimmen, ist nach Eingrenzen der einzelnen Faktorausprägungen auf nicht-lineare Optimierungsverfahren überzugehen (vgl. Abschnitt 4.2.2). Die Anwendung dieser Verfahren erfordert i.A. ein vertieftes Methoden-Know-how, welches im Rahmen von 2-Tages-Seminaren nicht bzw. nur ansatzweise vermittelbar ist. Aus diesem Grund wird an dieser Stelle auf eine detaillierte Auslegung und Evaluierung des Rotordesigns verzichtet. Verify-Phase: Sicherstellen der Qualität der Input-/ Prozessvariablen Da das Ziel des Projektseminars nicht darin besteht, Papier-Rotoren in Serie zu fertigen, ist die Verify-Phase ebenfalls rein hypothetischer Natur. Die Arbeitsschritte, die in der letzten Phase des DMAIDV-Zyklus durchzuführen sind, beziehen sich vor allem auf die Auslegung des Fertigungsprozesses. In praxi werden Verfahrensanweisungen für die Fertigung erstellt und zusammen mit den entworfenen Design Scorecards an den (zukünftigen) Prozesseigner übergeben (vgl. Abschnitt 3.3.2). Außerdem werden für die Überwachung und Steuerung der wesentlichen Input-/ Prozess-Variablen Regelkarten entwickelt, welche die Grundlage für die Statistische Prozesskontrolle (SPC) in der Fertigung bilden. Durch diese Maßnahme können Abweichungen in der Fertigungsqualität der Papier-Rotoren frühzeitig erkannt und Abstellmaßnahmen eingeleitet werden.
288
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
Zwischenfazit: Der erweiterte DMADV-Zyklus integriert – entsprechend der Forderung von Hypothese H3 – systematisch-analytische und intuitiv-kreative Prozesse und bringt sie in ein ausgewogenes Verhältnis. Dadurch werden die Effektivitätskriterien, die an F&E-Vorhaben gestellt werden, nämlich Generieren von Prozess-/ Produktinnovationen und Erreichen von Null-Fehler-Qualität, besser erfüllt als beim standardmäßig eingesetzten DMADV-Zyklus. Im Hinblick auf die Wirtschaftlichkeit ist beim DMAIDV-Zyklus ein höherer Zeit- und Kostenaufwand – vor allem begründet durch den Einsatz von TRIZ – zu erwarten. Dieser ist dem zusätzlich generierbaren Nutzen aus Kunden- und Unternehmenssicht, z.B. höhere Deckungsbeiträge, gegenüberzustellen. Alles in allem deuten die Ergebnisse des hier durchgeführten Fallbeispiels darauf hin, dass der DMAIDV-Zyklus als erweiterter Problemlösungszyklus im Rahmen von Design for Six Sigma effektiver, aber nicht effizienter als der ursprüngliche DMADV-Zyklus ist. (c) Anwendung des IESRM-Zyklus zur Optimierung In diesem Unterabschnitt wird das praktische Vorgehen zur Maximierung der Flugzeit des Papier-Rotors nach dem IESRM-Zyklus beschrieben (vgl. Abschnitt 5.2.1). Die empirischen Ergebnisse entstammen einem 2-Tages-Workshop, der am 13.07.-14.07.2006 gemeinsam mit Studenten der TU Dresden am Lehrstuhl für Marktorientierte Unternehmensführung durchgeführt worden ist. Im Vordergrund stand die Beantwortung der Frage, inwieweit der IESRM-Zyklus in der Produktentwicklung/ -optimierung praktisch anwendbar ist und somit eine echte Alternative zum technisch orientierten DMA(I)DV-Zyklus darstellt. Um eine Vergleichbarkeit der Ergebnisse zu gewährleisten, wurde der evolutionäre Optimierungsansatz am o.g. Produktbeispiel nachvollzogen. Dabei wurde auf die Erfahrungen, die im Zusammenhang mit dem vorangegangenen DOE-Seminar gesammelt werden konnten, zurückgegriffen. Dies betrifft insb. das erlangte Vorwissen über die Einrichtung eines funktionierenden Messsystems und die Begrenzung auf wesentliche Einflussfaktoren. Phasenablauf und Methodeneinsatz des IESRM-Zyklus werden im Folgenden produktbezogen beschrieben. Initialisierung: Spezifizieren der Ausgangspopulation Die Initialisierungs-Phase umfasst die drei Hauptschritte: (Ia) Festlegen des Lösungssuchraumes, (Ib) Generieren der Ausgangspopulation und (Ic) Codieren der Merkmalsausprägungen. (Ia) Festlegen des Lösungssuchraumes: Im ersten Schritt der Initialisierungs-Phase ist die Anzahl der zu variierenden Merkmale n festzulegen. Sie stehen im Zentrum des Lösungsfindungsprozesses. Ihre jeweiligen Ausprägungen determinieren – direkt oder indirekt – die maximale Flugzeit des Papier-Rotors. Im Weiteren sind pro Merkmal Mi die minimal und maximal zulässige Merkmalsausprägung anzugeben. Zusammen mit der Anzahl der einbezogenen Merkmale bestimmen sie die Größe des Lösungssuchraumes. Je mehr Merkmale variiert werden können und je größer der Definitionsbereich pro Merkmal ist, desto größer ist der Such-
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
289
raum. Die Suchraumgröße (SOLUTION) ist insofern von Relevanz, da sie unmittelbar mit dem Aufwand in Beziehung steht, der notwendig ist, um die optimale Lösung (in einer vorgegebenen Zeit) zu finden. Aus diesem Grund ist es in jedem Fall sinnvoll, gezielte Vorüberlegungen anzustellen und in die Auswahl der Merkmale und Bestimmung der Merkmalsgrenzen einfließen zu lassen. Beim Papier-Rotor beruht die Festlegung des Lösungssuchraumes zum einen auf den dokumentierten Ergebnissen in einschlägigen Fachbüchern (z.B. Kleppmann 2006) und zum anderen auf den gesammelten Erfahrungen bei Six SigmaSeminaren (z.B. DOE-Seminar). Wie in Abb. 5-21 nachvollziehbar ist, wurden insgesamt fünf Merkmale M1-M5 für die Optimierung des Rotors mittels IESRMZyklus ausgewählt. Neben der Variation der geometrischen Maße a, c, e und f erschien die Beschwerung des Papier-Rotors mit einer Büroklammer als (besonders) zielführend. Bei der Festlegung der minimalen und maximalen Merkmalsausprägung (Min in cm/ Max in cm) der Merkmale 1-4 wurde darauf geachtet, dass die Vorgabe, beim Zuschnitt jeweils ein DIN-A4-Blatt vollständig auszunutzen, nicht verletzt wird. In Bezug auf M5 wurde von einer dichotomen Ausprägung des Merkmals ausgegangen (0 = „nicht vorhanden“/ 1 = „vorhanden“). In der 5. Spalte der Tabelle in Abb. 5-21 ist die Auflösung A je Merkmal festegelegt. Sie gibt die Schrittweite an, mit welcher der definierte Merkmalsraum nach optimalen Einstellwerten abgesucht werden soll. Dabei gilt: Je größer die Auflösung ist, desto kleiner ist die Schrittweite. Aus mathematischer Sicht entspricht die Auflösung der Bit-String-Länge (BITS), welche für die Codierung der in dekadischer Form vorliegenden Merkmalswerte genutzt wird. Je größer die Bit-StringLänge ist, desto größer ist die maximale natürliche Zahl zmax, die in Binär-Form darstellbar ist. Über zmax erfolgt die Unterteilung des Definitionsbereichs je Merkmal. Bei metrisch-skalierten Merkmalen wird der Bereich in 2A-1 gleichgroße Intervalle unterteilt. Z.B. sind realisierbare Werte (gerundet) für M1 mit einer Auflösung von A = 3 [3,0; 3,6; 4,1; 4,7; 5,3; 5,9; 6,5; 7,0]. Bei ordinal-skalierten Merkmalen werden 2A Klassen gebildet, bei nominal-skalierten Merkmalen 2A unterschiedliche Merkmalsausprägungen. Bei zwei möglichen Ausprägungen [0; 1], wie es z.B. bei M5 der Fall ist, beträgt A = zmax = 1. Merkmal M1 M2 M3 M4 M5
Bezeichnung a - Flügelbreite c - Flügellänge e - Schaftlänge f - Schaftbreite K - Büroklammer
Min in cm 3,0 6,0 5,0 1,0 0
Max in cm 7,0 14,0 15,0 5,0 1
Auflösung 3 4 4 3 1
zmax 7 15 15 7 1
Abb. 5-21: Definierter Suchraum zum Auffinden des optimalen Papier-Rotors
(Ib) Generieren der Ausgangspopulation: Im zweiten Schritt der InitialisierungsPhase ist die Größe der Population (POPSIZE) zu spezifizieren. Für die Maximie-
290
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
rung der Flugzeit des Papier-Rotors wird eine Populationsgröße von 10 festgelegt. Letztere bleibt im Zuge der weiteren Optimierungsrunden unverändert, d.h. aus jeder Elterngeneration mit 10 Rotoren ergibt sich jeweils die gleiche Anzahl von Kindern (vgl. auch Abschnitt 4.3.3). In der Ausgangssituation werden gewöhnlich die Lösungskandidaten per Zufallsprinzip erzeugt. Dabei ist sicherzustellen, dass die Spezifikationen/ Merkmalsausprägungen innerhalb der oben festgelegten Merkmalsgrenzen liegen. Weiterhin ist darauf zu achten, dass entsprechend der gewählten Auflösung jeweils nur bestimmte Merkmalsausprägungen realisierbar sind; dies gilt insb. für metrisch-skalierte Merkmale (s.o.). Die Spezifikationen der ersten 10 Rotoren, die per Zufallsprinzip erzeugt wurden, sind in Abb. 5-22 ersichtlich. Die Lösungssuche wird prinzipiell begünstigt, wenn die Variation der Rotoren in der Ausgangspopulation relativ groß ist und keine identischen Rotoren vorliegen. Dies ist in unserem Fall gegeben: Jeweils zwei Rotoren unterscheiden sich in mind. einem Merkmal, die Merkmalsausprägungen in der Population streuen insgesamt relativ stark. (Ic) Codieren der Merkmalsausprägungen: Die zufällig erzeugten Merkmalsausprägungen je Rotor sind über einen geeigneten Bit-String zu codieren. Wie oben angesprochen, ergibt sich die Bit-String-Länge pro Merkmal entsprechend der gewählten Auflösung. Die binäre Darstellung der zufällig erzeugten Ausgangspopulation mit 10 Rotoren ist in Abb. 5-23 ersichtlich. Die Chromosomengröße (BITS) entspricht der Zeilenlänge. Der formale Zusammenhang zwischen dekadischer und binärer Darstellung wird für metrisch-skalierte Merkmale mit vorgegebenem Definitionsbereich durch Gleichung (4.18) beschrieben. Rotor-Nr. 1 2 3 4 5 6 7 8 9 10
M1 3,6 5,3 7,0 7,0 4,7 4,1 4,1 3,0 3,0 6,4
M2 9,7 13,5 13,5 8,1 10,8 6,0 12,9 11,3 9,2 10,3
M3 8,3 5,7 12,3 12,3 8,3 8,3 7,7 13,0 12,3 14,3
M4 5,0 5,0 1,6 5,0 2,7 3,9 2,7 4,4 3,3 4,4
M5 0 1 0 1 0 0 0 1 1 0
Abb. 5-22: Zufällig erzeugte Ausgangspopulation mit 10 Rotoren und dekadischer Darstellung der Merkmalsausprägungen
Ein alternatives Vorgehen zur Erzeugung der Ausgangspopulation besteht darin, zuerst den Bit-String je Papier-Rotor per Zufallsprinzip zu erzeugen und diesen anschließend mithilfe der invertierten Gleichung (4.18) in die dekadische Darstel-
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
291
lung zu transformieren. Dies hat den Vorteil, dass die zulässigen Merkmalsausprägungen, die sich aus dem definierten Merkmalsraum und der gewählten Auflösung ergeben, im Vorfeld nicht explizit ermittelt werden müssen. Besonders einfach ist die Vorgehensweise bei Vorliegen von nominal bzw. ordinal skalierten Merkmalen. Jeder Ausprägung wird eine Zahl zwischen 0 und zmax zugeordnet und nach entsprechender Vorschrift codiert. Rotor-Nr. 1 2 3 4 5 6 7 8 9 10
0 1 1 1 0 0 0 0 0 1
M1 0 0 1 1 1 1 1 0 0 1
M2 1 0 1 1 1 0 0 0 0 0
0 1 1 0 1 0 1 1 0 1
1 1 1 1 0 0 1 0 1 0
M3 1 1 1 0 0 0 0 1 1 0
1 0 0 0 1 0 1 0 0 0
0 0 1 1 0 0 0 1 1 1
1 0 0 0 1 1 1 1 0 1
0 0 1 1 0 0 0 0 1 1
1 1 1 1 1 1 0 0 1 0
1 1 0 1 0 1 0 1 1 1
M4 1 1 0 1 1 0 1 1 0 1
1 1 1 1 1 1 1 0 0 0
M5 0 1 0 1 0 0 0 1 1 0
Abb. 5-23: Zufällig erzeugte Ausgangspopulation mit 10 Rotoren und binärer Darstellung der Merkmalsausprägungen
Während die Festlegung der Merkmale und damit des Lösungssuchraumes zu einem Großteil auf Vorwissen und bereits gemachten Erfahrungen mit dem Untersuchungsobjekt basieren, ist die Ermittlung konkreter Merkmalsausprägungen zu Beginn des IESRM-Zyklus rein zufallsbedingt. Dadurch wird sichergestellt, dass die Maximierung der Flugzeit der Papier-Rotoren nicht von vornherein in eine bestimmte, ggf. suboptimale Richtung läuft (vgl. auch Abschnitt 4.3.3). Außerdem wird der in Gleichung (5.3) festgehaltene Grundsatz zur Maximierung der geometrischen mittleren Fitness der Population berücksichtigt. Evaluation: Bewerten der Fitness Zur Bewertung der Fitness der Population sind die drei Hauptschritte erforderlich: (Ea) Festlegen der Zielgröße, (Eb) Messen der individuellen Fitness und (Ec) Bestimmen der Fitness der Population. (Ea) Festlegen der Zielgröße: Nachdem der Problemlösungszyklus initialisiert ist, werden die 10 Rotoren der Ausgangspopulation nach den in Abb. 5-22 vorgegebenen Spezifikationen gefertigt und anschließend Fliegen gelassen. Die Messung der Flugzeit der Papier-Rotoren erfolgt unter den gleichen Rahmenbedingungen, wie sie bei der Durchführung der vollfaktoriellen Versuche vorherrschten. Insbesondere kann davon ausgegangen werden, dass die Datenerhebung auf einem verlässlichem Messsystem beruht, welches die Anforderungen an die Gage R&R
292
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
im Rahmen von Six Sigma erfüllt. Zur Evaluation wird jeder Rotor genau 2-mal hintereinander Fliegen gelassen. Aus beiden Werten wird der arithmetische Mittelwert berechnet. Durch dieses Vorgehen wird der Einfluss von zufälligen Umwelteinflüssen (Störgrößen) auf die Flugdauer reduziert. Beim Testen der Rotoren wurde festgestellt, dass eine Reihe von Lösungskandidaten eine relativ hohe Flugzeit besitzt, obwohl die betreffenden Objekte kaum oder gar nicht in der Luft rotieren. Stattdessen trudeln sie ganz oder teilweise zu Boden und verletzen damit die eingangs formulierte Nebenbedingung einer gleichmäßigen Rotation. Das vermehrte Auftreten von Rotoren, die nicht rotieren, ist die Folge der zufällig generierten Merkmalsausprägungen in der Ausgangspopulation. Durch die Realisierung von Extremwerten, z.B. sehr kurze Flügel (Min = 6,0 cm) und sehr langer Schaft (Max = 15 cm), sind z.T. sehr exotische Flugobjekte entstanden, die nach physikalischen Gesetzmäßigkeiten auf keinen Fall rotieren. Für das weitere Vorgehen wurde deshalb entschieden, neben der reinen Flugzeit yi als „A-Note“ eine „B-Note“ für das Flugverhalten einzuführen. Dabei wurde ein 3stufiges Bewertungsschema zugrunde gelegt: •
Grad „A“ = Der Rotor rotiert gleichmäßig über dem gesamten Sinkweg.
•
Grad „B“ = Der Rotor rotiert gleichmäßig über mind. dem halben Sinkweg.
•
Grad „C“ = Der Rotor rotiert gleichm. über weniger als dem halben Sinkweg.
Aus der A- und B-Note wird ein normierter Fitnesswert pro Rotor ermittelt, und zwar in der Weise, dass die gemessene Flugzeit mit einem Gewichtungsfaktor gi multipliziert wird, der sich an o.g. Einschätzung des Flugverhaltens orientiert:
fit ( y i ) = g ij ⋅ y i
mit i = 1,...,10 ∀ j = A, B, C
(5.7)
Bei Rotoren mit schlechtem Rotationsverhalten beträgt der Faktor gC = 1/3, bei mittlerem Verhalten gB = 2/3. Rotoren, die gut rotieren und mit dem Grad „A“ versehen sind, erhalten keinen Abschlag (Penalty) auf die Flugzeit; der Gewichtungsfaktor beträgt in diesem Fall gA = 1. Es ist davon auszugehen, dass sich nach n Runden nur noch gute Rotoren in der Population befinden. Die Bedeutung der „B-Note“ als Evaluationskriterium nimmt dann entsprechend ab. (Eb) Messen der individuellen Fitness: In Abb. 5-24 sind die Ergebniswerte der ersten 10 Rotoren im Überblick dargestellt. Wie ersichtlich ist, variiert die Flugzeit im Mittel zwischen 2,08 s und 3,24 s. Die meisten Rotoren besitzen ein eher schlechtes Rotationsverhalten (7 von 10); ihnen ist der Grad „C“ zugeordnet. Zwei Rotoren bekommen den Grad „B“; der Rotor mit der Nr. 8 erhält als einzigster den Grad „A“. Er gilt als Benchmark für die weitere Optimierung, da er neben einem guten Rotationsverhalten auch die längste Flugzeit besitzt. Die Skizze des jeweils besten Rotors ist im rechten Teil der Abb. 5-24 zu sehen. Aufgrund der „B-Note“ variiert die nach Gleichung (5.7) ermittelte Fitness der Rotoren deutlich stärker als die reinen Flugzeiten. Gegenüber dem besten Rotor, dessen Fitness fit8 = 3,24
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
293
beträgt, erreicht der schlechteste Rotor nur einen Fitnesswert von fit4 = 0,69; er wird mit hoher Wahrscheinlichkeit nicht in die nächste Runde kommen. (Ec) Bestimmen der Fitness der Population: Ausgehend von den individuellen Fitnesswerten wird pro Optimierungsrunde die Fitness der Population bestimmt. Sie ist ein Indikator dafür, wie gut die gefundenen Lösungen das (globale) Optimum eingrenzen und welche Verbesserungspotenziale ggf. noch bestehen (vgl. Abschnitt 4.3.3). Im Fall des Papier-Rotors beträgt die Fitness der Population in der Ausgangssituation⎯fit1 = 1,03. Der Wert ergibt sich als geometrisches Mittel über alle Fitnesswerte in der Population (vgl. Abschnitt 5.2.1). Runde Rotor-Nr.
1
Ges.-Note A-Note B-Note Zeit 1 Zeit 2 MW Rotat. Faktor (Fitness)
Kenndaten der Population
1
2,71
2,61 2,66
C
0,33
0,88
1,03 Geo-Mittel
2
2,31
2,50 2,41
C
0,33
0,79
1,19 Arith-Mittel
3
2,15
2,59 2,37
C
0,33
0,78
0,77 Standardabw.
4
2,19
2,02 2,11
C
0,33
0,69
5
2,37
2,33 2,35
C
0,33
0,78
6
2,06
2,09 2,08
C
0,33
0,68
7
2,44
2,21 2,33
C
0,33
0,77
8
3,37
3,10 3,24
A
1,00
3,24
9 10
2,33 2,89
2,21 2,27 2,68 2,79
B B
0,66 0,66
1,50 1,84
RotorNr. 09
K
Abb. 5-24: Bewertungsschema zur Ermittlung der Fitness der Rotoren in der Ausgangspopulation
Selektion: Auslesen der besten Rotoren Das Selektieren der Lösungen erfordert die zwei Hauptschritte: (Sa) Bestimmen der kumulierten relativen Fitnessfunktion und – auf dieser Basis – (Sb) Auswahl von Lösungskandidaten für die nächste Runde. (Sa) Bestimmen der kumulierten relativen Fitnessfunktion: Die kumulierte relative Fitnessfunktion (CDF) bildet die Grundlage für die fitnessproportionale Selektion von Lösungen, auf die hier abgestellt wird. Sie ist im oberen Diagramm in zu sehen. Die Ermittlung der CDF erfolgt in zwei Schritten: (1) Entsprechend dem Prinzip der Roulette-Wheel-Selection werden aus den absoluten Fitnesswerten relative Fitnesswerte bestimmt:
fit rel ( y i ) =
fit ( y i ) 10
¦ fit ( y ) i
i =1
mit i = 1,...,10
(5.8)
294
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
Nach Gleichung (5.8) beträgt die relative Fitness des besten Rotors in der 1. Runde fitrel(y8) = 0,27 und die des schlechtesten fitrel(y4) = 0,06. Je größer die berechnete relative Fitness eines Rotors ist, desto größer ist die Wahrscheinlichkeit, dass er in die Intermediärpopulation kommt. (2) Die relativen Fitnesswerte werden anschließend kumuliert. Dabei wird für jeden Rotor ein kumulierter relativer Fitnesswert ermittelt: kum fit rel ( yi ) =
k
¦ fit
rel ( y i )
mit i = 1,..., k ∀ k = 1,...,10
(5.9)
i =1
Die kumulierten relativen Fitnesswerte werden auf der Ordinate des CDFDiagramms nach aufsteigender Reihenfolge der Rotor-Nr. abgetragen. Der Anstieg der Funktion ist umso steiler, je größer der nach Gleichung (5.8) berechnete relative Fitnesswert des Rotors ist bzw. je größer die Differenz der kum kum kumulierten relativen Fitness fit rel ( y i ) − fit rel ( y i −1 ) ist.
Kum. rel. Fitness (CDF)
1,00 0,80 0,60 0,40 0,20 0,00 1
2 1
3 2
3
4 4
5 6 Rotor-Nr. 5 6 Rotor-Nr.
7
8
9
10
7
8
9
10
Abs. Häufigkeit der Rotoren für Selektion
0 1 2 3 4
Abb. 5-25: Fitnessproportionale Selektion der Rotoren mit Angabe der Häufigkeitsverteilung zur Bildung der Intermediärpopulation
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
295
(Sb) Auswahl von Lösungskandidaten für die nächste Runde: Zur Auswahl der Lösungskandidaten für die nächste Runde werden 10 Zufallszahlen zk im Bereich [0; 1] bestimmt und der vorstehend berechneten kumulierten relativen Fitnessfunktion gegenübergestellt. Die Auswahl erfolgt nach folgender Relation: kum kum fit rel ( y i −1 ) < z k ≤ fit rel ( yi )
mit i, k = 1,...,10
(5.10)
Ein bestimmter Rotor kann – in Abhängigkeit von der Höhe seiner relativen Fitness – prinzipiell mehrmals ausgewählt werden. Die absoluten Häufigkeiten sind im unteren Diagramm in Abb. 5-25 in Form eines Histogramms abgebildet. Der Rotor mit der höchsten Fitness (Nr. 8) wird am häufigsten selektiert. Die Rotoren mit den Nr. 2, 5, 6 und 9 bleiben für die weitere Optimierung außen vor. Die Elterngeneration für die zweite Runde wird aus den Rotoren mit den Nr. 1, 3, 4, 7, 8 und 10 gebildet. Einzelne Rotoren der Gruppe sind dabei – zufallsbedingt – gleich mehrmals vorhanden. Im Extremfall kann ein bestimmter Rotor in einer Runde maximal 10-mal ausgewählt werden. Dies ist möglich, wenn die Fitness des Rotors gegenüber anderen in der Population überproportional hoch ist. Eine sinnvolle Variation der Merkmalsausprägungen, die zur Weiterentwicklung der Population führt, kann hier nicht stattfinden. Ebenfalls ungünstig ist es, wenn alle Rotoren genau einmal ausgewählt werden. Die Effektivität des Selektions-Operators ist dann zu hinterfragen, insb. wenn keine der vorhandenen Lösungen die gewünschte Performance erfüllt (vgl. auch Abschnitt 5.2.2). Rekombination: Vermischen des genetischen Codes Die Rekombinations-Phase enthält die zwei Hauptschritte: (Ra) Bestimmen von je 2 Lösungen als Eltern und (Rb) Rekombination von dessen Bit-Strings. (Ra) Bestimmen von jeweils 2 Lösungskandidaten als Eltern: In der vorhergehenden Phase wurden 10 Rotoren als Eltern selektiert. Aus ihnen werden im Folgenden 10 Kinder generiert, die über teils gleiche, teils neue Merkmalsausprägungen verfügen. Dazu werden jeweils zwei Rotoren aus der Elterngeneration ausgewählt und – entsprechend dem Vorgehen in der Natur – „gekreuzt“. Da die Populationsgröße im Laufe der Optimierung unverändert bleiben soll, gehen aus 2 Eltern genau 2 Kinder hervor. Die paarweise Bestimmung der Eltern erfolgte im Fall des Papier-Rotors nach der Reihenfolge ihrer Selektion; eine erneute Zufallsauswahl erschien hier, insb. aus Kosten-Nutzen-Überlegungen, nicht zielführend. In Abb. 5-26 ist das Vorgehen zur Erzeugung der Kindergeneration beispielhaft aufgeführt. Die fünf Kreuzungspaare A–D sind dabei in alphabetischer Reihenfolge angeordnet. Aus den ersten 4 Paaren gehen jeweils 2 neue Kinder (a + b) hervor, die sich von den Merkmalsausprägungen der beiden Elternteile (1 und 2) mit hoher Wahrscheinlichkeit unterscheiden. Beim Paar D ist dies nicht der Fall, da die beiden Elternteile identisch sind (jeweils Rotor Nr. 8). Die Kreuzung der Gene führt zu keiner Änderung des Phänotyps, so dass bei dieser Konstellation Klone
296
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
entstehen. Der Rotor mit der Nr. 8, der nach Phase 2 die höchste Fitness besaß, wird also unverändert in die nächste Generation übernommen.49 Nr. Elternteil 1 A 3 B 8 C 1 D 7 E 8
Elternteil 2 4 1 10 3 8
x x x x x
= = = = =
Kinder a+b a+b a+b a+b Klone
Crossoverpoint 7 14 6 6 10
Abb. 5-26: Vorgehen zur Erzeugung der Kindergeneration am Beispiel Papier-Rotor
(Rb) Rekombination des Bit-Strings von je 2 Elternteilen: Während die Evaluation und Selektion jeweils auf der Phänotypebene durchgeführt wird, findet der (eigentliche) Kreuzungsprozess auf der Genotypebene statt. Entsprechend dem 1Point-Crossover-Verfahren wird pro Elternpaar ein Kreuzungspunkt (CrossoverPoint) im Gen- bzw. Bit-String festgelegt. Er wird per Zufallsgenerator ermittelt und ist für das Beispiel Papier-Rotor in der rechten Spalte der Tabelle in Abb. 5-26 aufgeführt. Der Kreuzungspunkt des ersten Elternpaares liegt z.B. an der 7. Stelle des 15-stelligen Bit-Strings. Genau an dieser Stelle werden die Codes (Genome) der zwei Rotoren vertauscht (siehe Abb. 5-27). Aus den Rotoren mit den Nr. 3 und 4 entstehen zwei Kinder mit neuem Genom. Die Rekombination führt zu einer Variation des Gen-Codes und folglich zu einer fitnesserhöhenden Variation der Merkmalsausprägungen der Rotoren (vgl. Abschnitt 4.3.3).
Rotor-Nr.
Rekombinationsschema A 10 9 8 7 6 5 4 3 2 1
Kind A1 Kind A2
1 2
3 4 5 6
7 8 9 10 11 12 13 14 15 Bit-Nr.
Ki d A1
Ki d A2
Abb. 5-27: 1-Point-Crossover-Verfahren am Beispiel Papier-Rotor
49
Ein alternatives Vorgehen, um den jeweils besten Rotor einer Generation als Benchmark zu erhalten, ist die Programmierung einer KEEP-Funktion (vgl. Abschnitt 4.3.3); diese wurde im vorliegenden Fall aber nicht realisiert.
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
297
Mutation: Verändern des Bit-Strings Die Mutationsphase ist durch folgende zwei Hauptschritte gekennzeichnet: (Ma) Hervorrufen von zufälligen und (Mb) gezielten Änderungen im Bit-String. (Ma) Hervorrufen von zufälligen Änderungen im Bit-String: Neben der Rekombination dient die Mutation zur Durchmischung des Erbgutes. Hier wird standardmäßig so vorgegangen, dass eine Mutationswahrscheinlichkeit (MUTPROB) festgelegt wird, mit der Änderungen im Bit-String der Kinder zufällig hervorgerufen werden. Für die Optimierung des Papier-Rotors wurde von einer konstanten Mutationswahrscheinlichkeit i.H.v. von 1,0% ausgegangen. Mit dieser Wahrscheinlichkeit kommt es zu einer zufälligen Änderung im Bit-String eines Rotors in der Kindergeneration; das Vorgehen entspricht der Flip-Mutation. In Abb. 5-28 sind die Codes der Kindergeneration, die aus der 1. Optimierungsrunde hervorgehen, dargestellt. Dabei ist an der 7. Stelle im Bit-String des Rotors mit der Nr. 5 (Kind E1) eine Flip-Mutation aufgetreten (Zelle schwarz gekennzeichnet). Auf der Phänotypebene äußert sich diese Veränderung direkt im Merkmal 2 „Flügellänge“ des betreffenden Rotors: Die Flügellänge beträgt jetzt 11,9 cm anstelle der ursprünglich vorgesehenen 11,3 cm. Rotor-Nr. Kind-Nr. Kind A1 1 Kind B1 2 Kind C1 3 Kind D1 4 Kind E1 5 Kind A2 6 Kind B2 7 Kind C2 8 Kind D2 9 Kind E2 10
1 1 0 0 0 0 1 0 1 1 0
2 1 0 0 1 0 1 0 1 1 0
3 1 0 1 0 0 1 1 0 1 0
4 1 1 0 1 1 0 0 1 1 1
5 1 0 1 1 0 1 1 0 1 0
6 1 1 0 1 1 0 1 1 0 1
7 0 0 0 0 1 0 1 1 1 0
8 1 1 1 1 1 1 0 0 0 1
9 0 1 1 0 1 0 1 1 1 1
10 1 0 1 1 0 1 0 0 0 0
11 1 0 0 1 0 1 1 1 0 0
12 1 1 1 0 1 0 1 1 0 1
13 1 1 1 0 1 0 1 1 1 1
14 1 1 0 1 0 1 0 1 1 0
15 1 0 0 0 1 0 1 0 0 1
Abb. 5-28: Population nach 1. Optimierungsrunde (Kinder) mit binärer Darstellung der Merkmalsausprägungen und zufälliger Flip-Mutation
(Mb) Hervorrufen von gezielten Änderungen im Bit-String: Bei Vorhandensein von ausreichenden Erfahrungswerten bietet es sich an, die Mutation nicht zufällig, sondern gezielt vorzunehmen. In diesem Fall werden die Veränderungen am Genom „per Hand“ gemacht. Unter Berücksichtigung der Decodier-Funktion werden 0 und 1 im Bit-String der Kinder so geändert, dass die aus Anwendersicht favorisierten Merkmalsausprägungen realisiert werden bzw. Merkmale, die aus Anwendersicht unvorteilhaft erscheinen, gar nicht erst zum Vorschein kommen. Bei der Optimierung des Rotors wurde auf diese Form der Mutationsgenerierung weitestgehend verzichtet, da Änderungen im Code, die auf den ersten Blick als günstig erschienen, sich in Wirklichkeit nicht bewahrheiteten. Exogen vorgenommene Flip-Mutationen führten i.d.R. zu einer Verschlechterung der Flugzeit/ des
298
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
Flugverhaltens bei den betroffenen Rotoren. Hierin zeigt sich u.a. die Komplexität der am Anfang als „einfach zu lösenden“ eingestuften Problemstellung. Selbst mit einer Reihe von Versuchen und Vorerfahrungen sind die bestehenden UrsachenWirkungsbeziehungen beim Papier-Rotor nicht ganzheitlich überschaubar. Viele Verbesserungsvorschläge im Team, die aus (vermeintlich) rationalen Überlegungen hervorgingen, erwiesen sich als falsch. Mutationen, die von Zeit zu Zeit auftreten, sind außerordentlich wichtig, da sie eine zu schnelle Konvergenz der Lösungen auf einem suboptimalen Niveau verhindern. Im Fall des Papier-Rotors kann es dazu kommen, dass sich – ohne Vorhandensein von Mutationen – bereits nach wenigen Runden ein Rotor-Typ durchsetzt, der im Hinblick auf die Maximierung der Zielgröße nicht optimal ist. Der Lösungsalgorithmus hat sich dann in einem lokalen Optimum „verheddert“, aus dem es ohne zufällige Änderungen im Gen-Code kein Entrinnen gibt. Die Gefahr des Verhedderns war bei den Papier-Rotor-Versuchen konkret in Runde 5 gegeben. Wie in Abbildung Abb. 5-29 dargestellt ist, erreichte die Fitness der Population zu diesem Zeitpunkt ein Plateau, das bei rund 2,50 s lag. Ein weiterer Anstieg der (durchschnittlichen) Flugzeit wäre ohne Mutation mit hoher Wahrscheinlichkeit ausgeblieben. In Runde 6 trat bei Rotor mit der Nr. 9 (an der BitStelle 13) eine (Flip-)Mutation auf, die dazu führte, dass die Fitness der Population in den nächsten drei Runden um weitere 0,48 s anstieg.
Fitness (Geo-Mittel)
3,5 3,0 2,5 2,0 1, 05 ⋅ ( g − 1)
1,5
fit Pop ( g ) =
1,0
1,95 ⋅ e 1,95 − 0 ,05 + 0 ,05
e
1, 05 ⋅ ( g − 1)
+ 0 ,95
0,5 0,0 1
2
3
4
5
6
7
8
9
10
Generation Tatsächliche Fitness
Geschätzte Fitness
Abb. 5-29: Entwicklung der Fitness der Rotoren-Population innerhalb von 10 Runden
Insgesamt wurden die Phasen Evaluation, Selektion, Rekombination und Mutation 10-mal nach dem beschriebenen Muster durchlaufen (MAXITER = 10). An der Schnittstelle von einer zur nächsten Runde war jeweils eine Decodierung des Bit-
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
299
Strings der neu generierten Lösungen (Kinder) notwendig. Am Ende des Optimierungszyklus betrug die durchschnittliche Fitness der Rotoren 2,98 s. 9 von 10 Rotoren, die sich in der Endpopulation befanden, besaßen ein gutes Flugverhalten, d.h. sie rotierten gleichmäßig über den gesamten Sinkweg zu Boden (Grad „A“). Die Rotoren mit schlechtem Flugverhalten wurden nach und nach selektiert. Unter dieser Voraussetzung ist der oben angegebene Fitnesswert⎯fit10 mit der durchschnittlichen Flugzeit⎯y10 der Rotoren nahezu identisch. Dadurch ist ein Vergleich mit den Ergebnissen, die sich nach der Anwendung von anderen einschlägigen Optimierungsverfahren ergeben, z.B. DOE, prinzipiell möglich. Auf konkrete Benchmarking-Resultate wird am Ende des Abschnittes näher eingegangen. Der beste Rotor in der Endpopulation wies eine mittlere Flugzeit von 3,55 s auf; die mittlere Flugzeit des schlechtesten Rotors betrug 2,74 s. Bei der Entwicklung der Fitness über die Zeit zeigt sich der für TechnologieLebenszyklen typische S-Kurvenverlauf. Nach einigen „Anlaufschwierigkeiten“ steigt die durchschnittliche Fitness der Population in den Runden 4 und 5 deutlich an (siehe Abb. 5-29). Eine eher inkrementelle Weiterentwicklung findet ab der Runde 6 statt. Das Design der Rotoren gleicht sich von Runde zu Runde immer mehr an. Entsprechendes gilt für den genetischen Code der Flugobjekte. Die angegebene Gleichung für die berechnete Fitness in Abb. 5-29 basiert auf einer graphischen Annäherung der beobachteten Fitnessentwicklung.50 Der Absolutterm der Gleichung i.H.v. 0,95 gibt den Sigma-Korrekturfaktor an; das vorhandene Verbesserungspotenzial wird auf Δ1,10 = 2,0 geschätzt. In der Endpopulation liegen nur noch zwei Typen von Rotoren vor. Der eine Typ lässt sich mit „Grazil“ beschreiben, der andere mit „Robust“ (siehe Abb. 5-30). Beide besitzen die gleiche Flügel- und Schaftlänge. Außerdem tragen alle Rotoren eine Büroklammer zur Beschwerung. Unterschiede bestehen „nur“ hinsichtlich der Breitenmaße, die zu den in skizzierten charakteristischen Proportionen führen. Die Veränderungen, die sich im Laufe des Verbesserungszyklus einstellen, sind nicht nur auf der Phänotypebene, sondern auch auf Genotypebene signifikant. So beträgt der mittlere Grad der Übereinstimmung des Genoms zwischen der ersten und letzten Generation 63%: Dieser Wert ergibt sich aus dem Bit-Stellen-weisen Vergleich der Häufigkeit von „0“ und „1“ in jeder Population. Trotz z.T. identischer Designs in den letzten Runden, ist es empfehlenswert, alle Rotoren einer Population zu bauen und Fliegen zu lassen. Dieses Vorgehen bietet zum einen die Möglichkeit, die Robustheit des Designs gegenüber möglichen Störgrößen in der Umwelt, z.B. Luftzug, zu objektivieren. Gleichzeitig wird dadurch das ggf. bereits lokalisierte globale Optimum statistisch besser abgesichert. Durch eine größere Anzahl von Versuchsdaten, die dann in die Berechnung der 50
Die mittlere quadratische Abweichung (MSE – Mean Square Error) über alle Wertepaare ist ein wesentliches Kriterium zur Beurteilung der Güte einer Schätzfunktion (vgl. Voß et al. 2004, S. 400f.). Sie beträgt im vorliegenden Fall MSE1 = 0,01.
300
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
mittleren Flugzeit einfließt, kann die Länge des Konfidenzintervalls für die Lage des Mittelwertes verringert werden. Gute und schlechte Rotoren können infolgedessen mit einer größeren statistischen Sicherheit voneinander getrennt werden. Zum anderen hat der Bau aller Rotoren, die der Spezifikation nach identisch sind, den Vorteil, dass u.U. weitere Einflussgrößen/ Merkmale, die bisher nicht im Betrachtungsfeld der Projektgruppe lagen, (zufällig) entdeckt werden. Diese können dann im Folgenden – durch eine Erweiterung des genetischen Codes – systematisch erfasst und in ihren Auswirkungen untersucht werden.51 Rotor-Typ 1: „Grazil (S)“
Rotor-Typ 2: „Robust (XXL)“
Rotor Nr. 92
Rotor Nr. 97
K
K
Abb. 5-30: Wesentliche Designtypen in der Endpopulation der Rotor-Optimierung
Eine Erweiterung des Bit-Strings erscheint ebenfalls angebracht, wenn die Optimierung an so genannte Designgrenzen stößt. Dies ist der Fall, wenn die Ausprägung eines bestimmten Merkmals bei vielen, wenn nicht allen Lösungskandidaten in der Population grenzwertig ist und aufgrund des vorgegebenen Minimums bzw. Maximums nicht weiter variiert werden kann. Es ist dann zu prüfen, inwieweit die vorgegebene Beschränkung des Suchraums nach oben oder unten „gelockert“ und die minimale bzw. maximale Merkmalsausprägung weiter nach außen verschoben 51
Möglicherweise besitzt ein Rotor, der nicht ganz nach Spezifikation gefertigt worden ist und z.B. eine kleine Rundung am Flügelende hat, ein besseres Rotationsverhalten als die bisherigen, „fehlerfrei“ zugeschnittenen Rotoren gleicher Bauart (Klone). Um diesen Einfluss zu quantifizieren, ist die „Rundung“ als neues Merkmal im Bit-String aufzunehmen und im Weiteren nach o.g. Vorgaben zu variieren.
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
301
werden kann. Für eine Erweiterung kommen vor allem Merkmale infrage, deren Definitionsbereiche in der Initialisierungs-Phase aufgrund unzureichender Erfahrungen zu klein gewählt worden sind. 52 Der zuletzt geschilderte Fall findet sich im Beispiel Papier-Rotor beim Merkmal „Büroklammer“ wider. Die Obergrenze wurde hier – mehr oder weniger willkürlich – auf 1 festgelegt. Diese wird von allen Rotoren in der Endpopulation erreicht, so dass in diesem Merkmal am Ende der 10. Optimierungsrunde keine Variation mehr vorliegt. Da es dem Kunden letztendlich egal ist, wie viele Klammern am Rotor zur Beschwerung angebracht sind, steht einer Erhöhung der Maximalzahl von Büroklammern nichts im Weg. Unter diesen veränderten Rahmenbedingungen wurde ein 2. Verbesserungszyklus gestartet. Die konkrete Zielsetzung bestand darin, die mittlere Flugzeit des als „robust“ gekennzeichneten Rotors vom Typ 2 weiter zu erhöhen. Gegenüber dem Rotor vom Typ 1 wird bei ihm das größere Optimierungspotenzial vermutet. Analog zum Vorgehen im 1. Verbesserungszyklus waren zunächst die untere und obere Grenze je Merkmal festzulegen (siehe Abb. 5-31). Aufgrund der im 1. Verbesserungszyklus gewonnenen Erkenntnisse konnte der Definitionsbereich bei den Merkmalen M1 bis M4 jeweils verkleinert werden. Bei unveränderter Auflösung bietet dies die Möglichkeit, das (globale) Optimum genauer zu detektieren. Im Hinblick auf Merkmal M5 wurde der Suchraum erweitert; es dürfen jetzt bis zu max. 3 Büroklammern am Rotor befestigt werden. Merkmal M1 M2 M3 M4 M5
Bezeichnung a - Flügelbreite c - Flügellänge e - Schaftlänge f - Schaftbreite K - Büroklammer
Min in cm 5,0 10,0 9,0 3,0 0
Max in cm 8,0 15,0 14,0 6,0 3
Auflösung 3 4 4 3 2
zmax 7 15 15 7 3
Abb. 5-31: Definierter Suchraum zum Auffinden des optimalen „robusten“ Papier-Rotors (2. Verbesserungszyklus)
Durch den größeren Definitionsbereich bei M5 erhöht sich die Länge des BitStrings gegenüber dem 1. Verbesserungszyklus um eine Stelle; er umfasst jetzt insgesamt 16 Stellen. Die per Zufallsprinzip erzeugte Ausgangspopulation des 2. Zyklus im Umfang von 10 Rotoren verfügt über eine durchschnittliche Fitness von 1,82. Sie liegt damit deutlich unterhalb der Fitness, die im letzten Durchgang des 1. Verbesserungszyklus ermittelt wurde. Die Variation der Merkmalsausprägungen ist in Bezug auf die Anzahl von Büroklammern (M5) am Anfang relativ groß. Der beste Rotor besitzt eine mittlere Flugzeit von 3,86 s und ist mit 1 Büroklammer beschwert. Die mittlere Flugzeit der schlechtesten Rotoren liegt bei knapp 52
Bei einer Reihe von Merkmalen geht dies üblicherweise nicht, da sie mit feststehenden Kundenanforderungen oder technisch-physikalischen Gegebenheiten direkt in Verbindung stehen. Hier ist allenfalls eine Verkleinerung des Suchraumes möglich.
302
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
über 2,0 s. Aufgrund der unzureichenden Dreheigenschaften (meistens Grad „C“) beträgt die Gesamtfitness der Flugobjekte aber z.T. weniger als 1,0. Das weitere Vorgehen zur Verbesserung der durchschnittlichen Fitness der Population gestaltet sich analog zum 1. Verbesserungszyklus. Insgesamt werden die Phasen Evaluierung, Selektion, Rekombination und Mutation 10-mal durchlaufen. Ziel ist es, unter den veränderten Rahmenbedingungen Papier-Rotoren mit noch besserem Flugverhalten „zu züchten“. Dabei steht die Maximierung der geometrischen mittleren Fitness der Population im Vordergrund.
Fitness (Geo-Mittel)
3,5 3,0 2,5 0 , 91 ⋅ ( g − 1)
2,0
fit Pop ( g ) =
1,5
1,68 ⋅ e 1, 68 − 0 ,18 + 0 ,18
e
6
7
0 , 91 ⋅ ( g − 1)
+ 1,72
1,0 0,5 0,0 1
2
3
4
5
8
9
10
Generation Tatsächliche Fitness
Geschätzte Fitness
Abb. 5-32: Entwicklung der Fitness der Rotoren-Population innerhalb von 10 Runden (2. Verbesserungszyklus)
Die Entwicklung der Fitness der Population über die 10 Optimierungsrunden ist in Abb. 5-32 nachvollziehbar.53 Die Fitness steigt S-förmig bis zu einem Wert von 3,52 an. Ab der 5. Runde befinden sich nur noch Rotoren mit gutem Rotationsverhalten (Grad „A“) in der Population. In der Endpopulation des 2. Zyklus sind die Unterschiede zwischen den einzelnen Rotoren – sowohl auf Geno- als auch auf Phänotypebene – marginal. Alle Rotoren sind am Ende mit 2 Büroklammern ausgestattet. Die mittleren Flugzeiten schwanken zwischen 3,19 s und 3,87 s. Damit liegt die mittlere Flugzeit des besten Rotors nur unwesentlich höher als in der Ausgangspopulation. Aufgrund der Beschwerung mit 2 Büroklammern sind die gemessenen Flugzeiten der Rotoren jedoch insgesamt stabiler.54 53 54
Für die Schätzung der Fitnessentwicklung in Abb. 5-32 wurde von einem Fitnessniveau von⎯fit10 = 3,4 ausgegangen. Der MSE der Schätzfunktion beträgt MSE2 = 0,008. So beträgt bspw. die durchschnittliche Streuung (Standardabweichung) der Flugzeiten des besten Rotors in der Endpopulation 0,04 s, gegenüber 0,21 s des besten Rotors in
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
303
Im Hinblick auf die Effektivität des IESRM-Zyklus lässt sich konstatieren, dass die Rotoren, die sich in der Endpopulation des 2. Zyklus befanden, in punkto Flugzeit den Rotoren, die nach Anwendung des DMADV- bzw. DMAIDV-Zyklus als Optimum hervorgingen, in nichts nachstehen. Beim direkten Vergleich der besten Rotoren aus den drei Verbesserungsansätzen stellte sich der Rotor, der nach dem evolutorischen Ansatz optimiert wurde, sogar als „Sieger“ heraus. Hält man die Entwicklungspfade (Trajektorien) der Fitness der beiden Populationen aneinander, dann wird deutlich, dass zwischen 1. und 2. Verbesserungszyklus ein S-Kurvensprung besteht. Beim Übergang vom 15- auf den 16-stelligen BitString fällt die durchschnittliche Fitness schlagartig ab. Erst nach fünf Optimierungsrunden wird das Endniveau des 1. Zyklus wieder erreicht. Nach weiteren fünf Runden beträgt der Unterschied der durchschnittlichen Flugzeiten zwischen den Papier-Rotoren des 1. und 2. Zyklus Δ1,2 = 0,89 s (p = 0,000). Dieses Szenario stimmt mit der Entwicklung der Leistungsfähigkeit/ Performance einer neuen Technologie, wie sie in Abschnitt 3.1.2 beschrieben worden ist, prinzipiell überein. Ausgangspunkt eines Technologiewechsels ist das Auftreten einer Basisinnovation, die in unserem Fall durch die Veränderung des Suchraums und infolgedessen der Erweiterung des Bit-Strings hervorgerufen wird. Letztere führt zu einem sog. Evolutionssprung, der sich auf der Phänotypebene in neuen Merkmalen sowie Merkmalsausprägungen manifestiert. Während Basisinnovationen aus evolutorischer Sicht mit strukturellen Änderungen des Genoms (Chromosomen-Länge) einhergehen, sind Verbesserungsinnovationen das Resultat von Ausprägungsänderungen im bestehenden Gen-Code (Allele-Wert). Sie werden durch bewusste und/ oder unbewusste, d.h. zufällige, Änderungen im Bit-String einzelner Lösungskandidaten hervorgerufen. Basisinnovationen beziehen sich hingegen jeweils auf die gesamte Population. Durch sie erfolgt eine diskontinuierliche (Weiter-)Entwicklung von Produkt- und Prozessdesigns. Das Verbesserungspotenzial, welches über die Änderungen im Genom aktiviert werden kann, ist im Vorfeld nur schwer zu quantifizieren. Sofern die Parameter λ, fit 0 und fit* bekannt sind, ist eine Schätzung auf Basis der Gleichung (5.5) möglich. Diese leitet sich aus dem Fisher-Theorem her, welches folgende allgemeine Aussagen zum Auftreten von Verbesserungs-/ Basisinnovationen erlaubt: •
Verbesserungsinnovationen sind umso wahrscheinlicher, je größer die relativen Unterschiede zwischen den gemessenen Fitnesswerten in einer Population sind. Dies ist i.A. zu Beginn des Verbesserungszyklus der Fall. Im Beispiel Papier-Rotor sind die Standardabweichungen der Fitnesswerte der Population in beiden Zyklen mit σ1,1 = 0,81 s und σ2,1 = 0,95 s zu Beginn relativ hoch.
der Ausgangspopulation. Die Standardabweichung der Fitnesswerte in der Population geht von 0,95 s auf 0,21 s zurück.
304
•
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
Basisinnovationen treten auf bzw. sind als solches zu generieren, wenn sich die Fitnesswerte der Lösungen kaum oder gar nicht unterscheiden. Dies ist üblicherweise am Ende des Verbesserungszyklus der Fall. Im Beispiel PapierRotor ist in beiden Zyklen ein deutlicher Abfall der Streuung der Fitnesswerte zu beobachten; sie beträgt am Ende σ1,10 = 0,47 s bzw. σ2,10 = 0,21 s.
Zwischenfazit: Auf der Basis des hier durchgeführten Fallbeispiels werden zum einen empirische Evidenzen für den Wahrheitsgehalt von Hypothese H7 gegeben (vgl. Abschnitt 1.2.3). Mit dieser werden die positiven (ökonomischen) Wirkungen von alternativen, am Vorbild von Evolutionären Algorithmen (EA) respektive Genetischen Algorithmen (GA) orientierten Problemlösungszyklen postuliert. Zum anderen zeigen sich die konzeptionellen Vorteile, die mit der Anwendung eines nach vorstehend genannten Prinzipien konzipierten Problemlösungszyklus einhergehen. Wie in Hypothese H8 gefordert, zeichnen sich fortschrittliche Problemlösungszyklen in F&E dadurch aus, dass sie – hinsichtlich der Zielgröße – endogen die aus dem Technologiemanagement bekannte S-Kurve nachzeichnen, inkl. der zufälligen, systemimmanenten Innovationssprünge. Wie die konkrete Anwendung zeigt, lässt sich mithilfe des IESRM-Zyklus die SKurve erzeugen und in ihrem Verlauf gut simulieren. Sie bildet eine wichtige Entscheidungsgrundlage/ -hilfe, um die Leistungsfähigkeit, sprich Fitness, eines neuen Produktes/ Prozesses in relativ kurzer Zeit zu maximieren. Bei „richtiger Wahl“ des Suchraums läuft die kontinuierliche Weiterentwicklung einer Population von Lösungskandidaten in Richtung maximale Fitness quasi von selbst ab. Inno-vative Designs lassen sich vor allem durch die sukzessive Erweiterung des Suchraums bzgl. einzelner Merkmale/ Merkmalsausprägungen generieren. Dazu ist der IESRM-Zyklus entsprechend oft zu durchlaufen. Durch Änderung der Rahmenbedingungen in der Initialisierungs-Phase wird mit jedem Zyklus jeweils eine neue S-Kurve – auf unterschiedlich hohem Niveau – in Gang gesetzt. Die Ergebnisse des Fallbeispiels zeigen im Weiteren, dass der IESRM-Zyklus als evolutionärer Problemlösungszyklus sowohl Effektivitäts- als auch Effizienzvorteile gegenüber dem konventionellen DMADV-Zyklus besitzt. So wird – aus modelltheoretischer Sicht – jeweils das globale Optimum bei einem gegebenen Suchraum mit hoher Wahrscheinlichkeit detektiert. Sofern der Kunde aktiv in der Evaluations-Phase beteiligt ist, werden mit dem IESRM-Zyklus die artikulierten Produkt- und/ oder Prozessprobleme zu seiner vollsten Zufriedenheit gelöst. Der Zielerreichungsgrad in Form der Übereinstimmung (Fit) zwischen Produkt-/ Prozessmerkmalen und kundenspezifischen Anforderungen ist im Endergebnis maximal. Gleichzeitig wird der wirtschaftliche Einsatz (Effizienz) des Problemlösungszyklus durch folgende Punkte positiv beeinflusst: •
Keine (Vor-)Kenntnisse über Ursachen-Wirkungsbeziehungen notwendig
•
Relativ geringer Schulungsaufwand, da einfach anwendbare Methoden
•
Niedrige Anforderungen an die Software-Unterstützung (Excel-Lösung!).
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
5.3.2
305
Optimierung der Kehreigenschaften eines Straßenbesens (Fallstudie)
In diesem Abschnitt werden die Durchführung und Ergebnisse eines F&E-Projektes skizziert, welches in einem mittelständischen Unternehmen der Bürstenindustrie auf der Basis des IESRM-Zyklus durchgeführt worden ist. Den Schwerpunkt der Ausführungen bildet die Optimierung der Kehreigenschaften von Straßenbesen. Obwohl sie eine wesentliche Erklärungsgröße des Gebrauchsnutzens aus Kundensicht darstellen, wurden sie bislang keiner systematischen Analyse sowie Optimierung unterzogen. Aus diesem Grund ist im Projektablauf ein ScreeningDesign zur Überprüfung der in praxi vermuteten Ursachen-Wirkungsbeziehungen vorgesehen. Außerdem werden erste Schritte mit TRIZ unternommen, um neue, innovative Lösungsansätze im Bereich des Besendesigns aufzuzeigen. Insgesamt handelt es sich bei Besen um relativ einfache Produkte, die sich aus wenigen Komponenten zusammensetzen. Der generelle Produktaufbau sowie der Herstellungsprozess sind hinlänglich bekannt und leicht kopierbar. Aufgrund dieser Tatsache sind die Unternehmen in der Branche ständig bemüht, ihre Produkte zu verbessern und gegenüber denen von Wettbewerbern abzugrenzen – Nicht nur Qualität, sondern auch Innovationen sind also gefragt. Unternehmensporträt Das Projekt wurde bei der Firma „Michael Jäckel Erzgebirgische Bürstenfabrik (EBF) GmbH“ durchgeführt, welche 1992 in Schönheide als Tochterunternehmen der Firma Walter Bretschneider gegründet worden ist. Mit anfänglich 7 Mitarbeitern, die an zwei Stanzautomaten arbeiteten, sind jetzt am neuen Produktionsstandort in Stützengrün über 100 Arbeitskräfte an CNC-Automaten beschäftigt. Täglich werden über 70.000 Handfeger, Stubenbesen, Saal- und Straßenbesen, WC- und Spülbürsten sowie Maler- und Deckenbürsten produziert.55 Der Industriezweig steht insgesamt unter einem starken Wettbewerbsdruck, so dass die Gewinnmargen bei den einzelnen Produkten relativ gering sind. Um die wirtschaftliche Situation in Zukunft zu verbessern, geht die Zielsetzung dahin, sich durch Produktinnovationen/ -optimierungen vom Wettbewerb zu differenzieren. Zu diesem Zweck soll ein systematischer Entwicklungsprozess implementiert werden. Dieser setzt im ersten Schritt in der Besenproduktion an, da hier aus Sicht des Managements der dringendste Handlungsbedarf besteht. Initialisierungs-Phase Die Initialisierungs-Phase ist aufgrund der geringen Voraussetzungen im F&EBereich relativ umfangreich. Sie umfasst die folgenden sechs Prozessschritte: (a) Definition der Projektcharter, (b) Ableiten der CTQs, (c) Einrichten des Messsys55
Weiterhin gehören zum Firmenverbund seit dem 01.01.1999 die neu gegründete Firma J&S Kunststofftechnik GmbH. Hier werden alle benötigten Kunststoffteile für die Farbroller- und Bürstenproduktion gespritzt (vgl. www.jaeckel-buersten.de).
306
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
tems, (d) Ermitteln der Einflussgrößen, (f) Festlegen der Ausgangspopulation mit integriertem DOE und (g) Codieren der Lösungen. (a) Definition der Projektcharter Die Projektcharter wurde im Rahmen eines 0,5-tägigen Workshops am 22.08.2006 gemeinsam mit der Geschäftsleitung der Michael Jäckel EBF erarbeitet (siehe Abb. 5-33). Sie wurde in dieser Form vom Champion und zuständigen Black Belt unterzeichnet (vgl. hierzu und im Folgenden Günther/ Jäckel 2007). Projekt: „Optimierung der Kehreigenschaften eines Straßenbesens “ 1. Problembeschreibung
4. Marktanalyse & Benchmarking
Das (Re-)Design von Straßenbesen basiert in erster Linie auf Erfahrungswerten. Ein systematischer F&E-Prozess existiert in diesem Umfeld nicht. Weiterentwicklungen sind vor allem inkrementeller Natur und folgen einem Trial-and-Error-Prozess. Der Einkäufer im Großhandel entscheidet nach Bemusterung über die Aufnahme einer neuen Serie. Der Nutzen aus (End-)Kundensicht fließt in die Bewertung implizit ein.
In den letzten Jahren ist der Markt für Straßenbesen insgesamt (stark) gewachsen. Vor allem in Asien und im Mittleren Osten steigt die Nachfrage rapide an; in Deutschland stagnieren die Absatzzahlen auf relativ hohem Niveau. Das Gesamtvolumen des Marktes beträgt ca. XX Mio. €. Die Michael Jäckel EBF GmbH konnte in der Vergangenheit deutlich Marktanteile gewinnen und zählt heute zu den 3 führenden Produzenten.
Die Qualitätsmerkmale von Straßenbesen werden in erster Linie produktorientiert bestimmt, d.h. die Qualität richtet sich nach dem Erfüllungsgrad von technischen Spezifikationen. Ein aus (End-)Kundensicht kritisches Qualitätsmerkmal (CTQ) ist die Kehreigenschaft des Besens. Sie wird bis dato nicht systematisch erfasst und bewertet. Die Einleitung eines darauf bez. Verbesserungsprozesses ist wünschenswert.
2. Ziele
Abzgl. prognostizierte Projektkosten: 5.000 €
• Hauptziel: Entwicklung eines Straßenbesens mit optimalen Kehreigenschaften ausgehend vom vorhandenen Portfolio und unter Berücksichtigung der spezifischen Designanforderungen/ -wünsche des Kunden • Unterziel: Entwicklung eines allgemeinen Messverfahrens zur Bestimmung der Kehreigenschaften von Straßenbesen, um in Zukunft angenommene Designverbesserungen eindeutig validieren zu können
3. Nutzen • • • • •
Mehr Objektivität bei der Beurteilung der Qualität von Straßenbesen Generierung eines UCVP: „Besen mit geprüften Kehreigenschaften“ Prinzipiell höherer Kundennutzen durch bessere Kehreigenschaften Ansatzpunkte für den Aufbau eines Value Marketings im Handel Steigender Unternehmensgewinn durch höhere Absatzzahlen
9. Unterschriften
5. Net Benefit Prognostizierter zusätzlicher Gewinn: 10.000 € - aufgrund Umsatzsteigerung: 200.000 € - aufgrund Kosteneinsparung: 0€
Champion:
Prognostizierte Netto-Einsparungen: 5.000 €
6. Projektumfang/ -rahmen IN: Besen zur Nutzung im Außenbereich OUT: Besen für Innenbereich, Saalbesen
7. Verantwortungen Champion: Michael Jäckel (Geschäftsführer, Erzgebirgische Bürstenfabrik GmbH) Projektleitung: Alexander Jäckel (Export Managing Director), Swen Günther (Black Belt, TU Dresden)
8. Zeitvorgaben START: 01.09.2006
ENDE: 31.01.2007
Black Belt:
Abb. 5-33: Projektcharter für die Optimierung von Straßenbesen
Für die Durchführung des Projektes wurden insgesamt 5 Monate geplant; Starttermin war der 01.09.2006. Als Champion des Projektes fungierte der Geschäftsführer des Unternehmens, Michael Jäckel. Die Projektleitung und -koordination im Unternehmen wurde vom Vertriebsmanager, Alexander Jäckel, übernommen. Für die inhaltlich-methodische Umsetzung zeichnete der externe Black Belt, Swen Günther, Verantwortung. Zu seinen Aufgaben gehörte u.a. die statistische Auswertung und Zusammenstellung der Messergebnisse. Die Durchführung der Messungen und Erstellung der Prototypen (Lösungskandidaten) erfolgte mit aktiver Unterstützung von Mitarbeitern der Produktion. Jede Projektphase wurde im Rahmen eines mind. 1-tägigen Workshop im Team vorbereitet. In gleicher Weise erfolgte nach jeder Verbesserungsrunde eine ausführliche Ergebnispräsentation und -diskussion. Der Champion wurde über den Fortgang des Projektes regelmäßig informiert. Das planmäßige Ende des Projektes bis zum 31.01.2007 konnte eingehalten werden.
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
307
Die Projektcharter umfasst insgesamt neun Punkte. Im linken Teil sind die Problembeschreibung sowie die Ziele und der Nutzen des Projektes aufgeführt. Problemschwerpunkt bildet zum einen die Tatsache, dass sich die Qualität von (Straßen-)Besen weniger nach Kundenbewertungen bemisst, sondern vielmehr von der Einhaltung technischer Spezifikationen abhängig ist. Zum anderen liegt bis dato kein geeignetes Messinstrumentarium vor, um die Kehreigenschaften von Straßenbesen – als wesentliches Qualitätsmerkmal aus Kundensicht (CTQ) – objektiv zu bestimmen. Folglich existiert auch kein systematischer F&E-Prozess, der sich auf die Messung und Verbesserung des Qualitätsmerkmals bezieht. Das vordergründige Ziel des Projektes besteht darin, einen Straßenbesen mit optimalen Kehreigenschaften ausgehend vom vorhandenen Portfolio und unter Berücksichtigung der spezifischen Designanforderungen/ -wünsche des (End-) Kunden zu entwickeln. In diesem Zusammenhang ist zunächst der Aufbau eines zuverlässigen Messsystems erforderlich, um die unterschiedlichen Qualitäten der Schmutzbeseitigung von Besen zu quantifizieren. Gegenstand der Verbesserung sind Besen, die vor allem zur Schmutzbeseitigung im Außenbereich zum Einsatz kommen, kurz: „Straßenbesen“ genannt. Besen, die zur Reinigung innerhalb von Gebäuden eingesetzt werden, kurz: „Saalbesen“ genannt, dienen lediglich als Benchmarking für die Messung und Beurteilung der Kehreigenschaften.56 Der Nutzen, der aus dem Projekt generiert wird, ist sowohl finanzieller als auch nicht-finanzieller Art. Zu berücksichtigende Aspekte hierbei sind: •
Einerseits ist die objektivierte Beurteilung der Kehreigenschaften von Straßenbesen Grundlage für ein erfolgreiches, kommunikatives Marketing. Für den Endkunden bedeutet ein „Besen mit geprüften Kehreigenschaften“ mehr Sicherheit beim Kauf. Aus Unternehmenssicht ergibt sich daraus unmittelbar ein zusätzliches Verkaufsargument gegenüber dem (Groß-)Handel in Form einer Unique Selling Proposition (USP).
•
Andererseits wird durch die nachweisbare Verbesserung der Kehreigenschaften ein höherer Kundennutzen erzeugt in Form einer Unique Customer Value Proposition (UCVP). Aus dieser resultiert für das Herstellerunternehmen mittelbar ein höherer Absatz und ein steigender Gewinn. Dies schlägt sich u.a. in
56
In der Branche existiert bis dato kein einheitliches Vorgehen zur Einteilung von Besen in verschiedene Produktsegmente. Geläufig ist eine Dreiteilung in Straßen-, Saal- und Stubenbesen. Diese orientiert sich primär an den Produkteigenschaften des Besens. Der bevorzugte Anwendungsbereich aus der Sicht des Kunden spielt hier eine untergeordnete Rolle. Der Unterschied zwischen Straßenbesen auf der einen Seite und Saal-/ Stubenbesen auf der anderen wird in erster Linie an der Form und Breite des Holzkörpers festgemacht. Sie beträgt bei Straßenbesen 6,5 cm, bei Saal- und Stubenbesen liegt sie standardmäßig bei 5,5 cm. Die in der Optimierung verwendeten Besen besitzen die kürzere Breite. Sie gehören damit – nach branchenüblicher Klassifikation – zur Gruppe der Saalbesen, obwohl ihr Anwendungsfeld eindeutig im Außenbereich liegt.
308
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
der Höhe des Net Benefit nieder. Nach einer konservativen Schätzung betragen die Netto-Einsparungen des Projektes ca. 5.000 €. Im rechten Teil der Projektcharter finden sich u.a. Angaben zur aktuellen Marktsituation, zum zu erwartenden Net Benefit und zum generellen Projektrahmen (siehe Abb. 5-33). Eine intern durchgeführte Marktanalyse ergab, dass in den letzten Jahren der Markt für Straßenbesen insgesamt um 30% gewachsen ist. Vor allem in Asien und im Mittleren Osten steigt die Nachfrage rapide an. In Deutschland stagnieren die Absatzzahlen auf relativ hohem Niveau. Die Firma Michael Jäckel EBF konnte in der Vergangenheit deutlich Marktanteile gewinnen und zählt heute zu den führenden Anbietern in den eingangs genannten Produktfeldern. (b) Ableiten der CTQs Die Kundenanforderungen, die an das Produkt „Straßenbesen“ gestellt werden, sind vielschichtig. Für eine erste Klassifizierung bieten sich die acht Dimensionen der Produktqualität von Garvin (1987, S. 101ff.) an (vgl. auch Abschnitt 3.1.1). Sie beziehen sich sowohl auf „harte“ Produkt- und Leistungsmerkmale als auch auf „weiche“ Qualitätskriterien. Es wird davon ausgegangen, dass sich einige Dimensionen der Produktqualität gegenseitig verstärken, also komplementär zueinander sind (z.B. Zuverlässigkeit und Haltbarkeit), andere Dimensionen hingegen in einer eher konfliktären Beziehung zueinander stehen und sich nur auf Kosten einer weiteren Qualitätsdimension verbessern lassen (z.B. Gebrauchsnutzen und Ästhetik). Im Folgenden sind die acht Dimensionen nach abnehmender Bedeutung für den Besen angeordnet. Die Liste mit produktspezifischen Ausführungen erhebt dabei keinen Anspruch auf Vollständigkeit : (1) Gebrauchsnutzen (Performance): Der Besen besitzt unter verschiedenen Anwendungsbedingungen, z.B. trockener vs. nasser Straßenbelag, eine jeweils hohe Kehr-/ Reinigungswirkung. Der Besen eignet sich sowohl für das Kehren von fein- als auch grobkörnigem Schmutz. Er ist leicht und handlich. Schmutz, der sich in schwer zugänglichen Bereichen befindet, z.B. Ecken und Kanten in/ an Gebäuden, lässt sich ebenfalls problemlos entfernen. (2) Haltbarkeit (Durability): Die Borsten des Besens sind im Holz- bzw. Plastekörper fest eingestanzt und fallen nicht ohne Weiteres aus. Bei Gebrauch des Besens nutzen sie sich kaum ab, d.h. ihre Länge wird mit der Zeit nicht wesentlich kürzer. Außerdem behalten sie langfristig ihre Form (Steifigkeit), und zwar unabhängig von der Art der Aufbewahrung des Besens, z.B. stehend auf dem Fußboden oder hängend an der Wand. (3) Zuverlässigkeit (Reliability): Der Straßenbesen ist immer griff- und einsatzbereit. Er ist robust gegen Umwelteinflüsse, z.B. Feuchtigkeit und Sonne. Der Besenstiel ist im Holzkörper fest verankert und löst sich auch bei starker Beanspruchung nicht (Robustheit). Der Stiel ist zudem sicher gegen Bruch. (4) Ausstattung (Features): Die Besengeometrie ist optimal auf die Größe des Bedieners anpassbar, z.B. durch ein zusätzlich angebrachtes Gelenk auf dem
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
309
Holzkörper, über den sich der Neigungswinkel des Stiels variabel einstellen lässt. Der Stiel kann einfach und schnell, d.h. ohne zusätzliche Hilfsmittel, montiert werden. Am oberen Ende befindet sich eine Aufhängevorrichtung. (5) Normgerechtigkeit (Conformance): Die Herstellung des Besens erfolgt über alle Wertschöpfungsstufen hinweg umweltschonend. Europäische und internationale Standards werden eingehalten, z.B. keine Kinderarbeit. Die verwendeten Materialien, z.B. Farben und Lacke, sind nicht gesundheitsschädlich. Der Anschluss und die Aufhängung des Besenstiels entsprechen der DIN-Norm. Alle vom (Groß-)Handel vorgegebenen Spezifikation, z.B. Besenlänge und -breite, werden ausnahmslos eingehalten. (6) Ästhetik (Aesthetics): Die Borsten des Besens sind gleich lang und farbtreu; einzelne Borsten stehen nicht ab. Die Löcher im Stanzfeld sind gleichmäßig verteilt sowie gleichmäßig mit Material bestückt. Zur Verbesserung der Kehreigenschaften können zwei Borstenarten verwendet werden; die Randborsten sind schräg eingestanzt. Am Holz des Besens, weder am Stiel noch am Körper, befinden sich Absplitterungen oder Ausbuchtungen. Alle Kanten und Ecken sind abgerundet und geschliffen, um Verletzungen zu vermeiden. (7) Qualitätsimage (Perceived Quality): Die wahrgenommene Qualität beim Endkunden wird durch das Anbringen von Etiketten mit Hinweisen zu verwendeten Materialien, eingesetzten Produktionsverfahren, bestehenden Zertifikaten/ Auszeichnungen etc. verbessert. Informationen über die Kehreigenschaften des Besens zur besseren Differenzierung und exakteren Bestimmung des Einsatzgebietes sind prinzipiell wünschenswert und zudem verkaufsfördernd, insb. bei Verhandlungen mit dem (Groß-)Handel. (8) Kundendienst (Serviceability): Aus Herstellersicht betrifft der Kundendienst in erster Linie die reibungslose Zusammenarbeit mit dem (Groß-)Handel. Hier geht es u.a. um eine schnelle und kundenorientierte Beschwerdeabwicklung sowie die zeitgerechte Bereitstellung von (Nach-)Lieferungen. Da es sich beim Besen um ein „Einwegprodukt“ handelt, sind Ersatzteillieferungen von untergeordneter Bedeutung. Garantieleistungen für den Endkunden bestehen darin, bei Ausfall/ Mängeln Ersatzprodukte zu liefern. Wie gut zu erkennen ist, ist die „Stimme des Kunden“ (VOC), selbst bei diesem einfachen Produkt, umfangreich und komplex. Es können eine Reihe von Anforderungen abgeleitet werden, die bei genauerer Betrachtung jeweils als „kritisch“ einzustufen sind, d.h. ein Nicht-Erfüllen der Anforderungen führt zu Kundenunzufriedenheit. Nach dem Kano-Modell der Kundenzufriedenheit handelt es sich bei den meisten Anforderungen um sog. Basisanforderungen (vgl. Abschnitt 3.2.4). Leistungs- und Begeisterungsanforderungen, bei denen mit steigendem Erfüllungsgrad die Kundenzufriedenheit steigt, sind bei Stuben-, Saal- und/ oder Straßenbesen kaum zu finden. Der Besen muss in erster Linie funktionieren, wenn man ihn braucht; ansonsten stellt sich schnell Unzufriedenheit ein.
310
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
Der größte Hebel, um den Kundennutzen und damit die Kundenzufriedenheit beim vorliegenden Produkt zu steigern, wird in der Dimension (1) „Gebrauchsnutzen“ gesehen. In diesem Punkt wurden zu Beginn des Projektes auch die meisten Defizite und infolgedessen Verbesserungsbedarfe registriert. Der Projektfokus liegt deshalb im Weiteren auf der Optimierung der Kehreigenschaften des Besens als eine wesentliche Kundenanforderung (CTQ), welche den Gebrauchsnutzen determiniert. In diesem Zusammenhang stellt sich vor allem die Frage nach der Quantifizierung des CTQ, also der Definition und Zuordnung von geeigneten Outputmessgrößen (Ys) zur Objektivierung der Kehreigenschaften. (c) Einrichten des Messsystems Voraussetzungen: Im Hinblick auf die Entwicklung eines validen und zuverlässigen Messsystems zur Bestimmung der Kehreigenschaften von Besen besteht die Zielsetzung darin, jeden Besentyp anhand einer charakteristischen Kennlinie bzw. Kennzahl eindeutig klassifizieren zu können. Dabei sollen die Prüf-/ Messbedingungen so realitätsnah wie möglich sein, z.B. Kehren von Schüttgut in unterschiedlicher Größe und Form auf rauhem Belag. Für diese Anforderung existieren bis dato keine standardisierten und dokumentierten Messverfahren. Anleihen aus anderen Bereichen können nur bedingt genommen werden, z.B. Reinigung von Metalloberflächen im technischen Bereich (vgl. Jancke 2004) oder Messung der Reinigungswirkung von Zahnbürsten im medizinischen Bereich (vgl. Becker 2004). Vor diesem Hintergrund wird für die Messung der Kehreigenschaften von Besen ein eigener Messansatz entwickelt. Dieser basiert zu großen Teilen auf dem Lern- bzw. Erfahrungskurven-Konzept (vgl. Baum et al. 2004, S. 89ff.), welches im betriebswirtschaftlichen Umfeld u.a. zur Bestimmung von Lerneffekten (Economies of Experience) in Produktionslinien genutzt wird. Messansatz: Es wird die Restschmutzmenge gemessen, die auf einer definierten Kehrfläche nach n-maligem Kehren verbleibt. Aus einschlägigen Erfahrungen ist bekannt, dass die auf einer Fläche verbleibende Schmutzmenge bei mehrmaligem Kehren exponentiell abnimmt. Liegt z.B. Schüttgut unterschiedlicher Korngröße auf einer Fläche vor, dann wird mit den ersten Zügen relativ viel Material beseitigt, mit den letzten Zügen relativ wenig. Dies liegt darin begründet, dass größere Steine (mit relativ viel Gewicht) gleich beim ersten Kehrvorgang erfasst werden; die Beseitigung von mittleren und kleineren Steinen (mit relativ wenig Gewicht) bedarf hingegen i.d.R. der Ausführung von mehreren Besenzügen. Dabei gilt: Je öfter ein und dieselbe Fläche gekehrt wird, desto weniger Material (in kg) wird pro Zug beseitigt – die erfasste Schmutzmenge nimmt sukzessive ab. Ein „guter“ Besen zeichnet sich dadurch es, dass es mit ihm gelingt, in relativ wenigen Zügen eine vorgegebene Fläche nahezu vollständig zu säubern. Je schneller die Restschmutzmenge gegen Null geht, desto besser ist ein Besen. Diese Eigenschaft lässt sich mathematisch wie folgt erfassen: Die auf einer definierten Fläche verbleibende Schmutzmenge (y) wird über die kumulierte Anzahl von Besenzügen bzw. Kehrvorgängen (x) abgetragen (siehe Abb. 5-34). Nach obigen
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
311
Ausführungen wird zwischen den beiden Größen ein potenzieller funktioneller Zusammenhang vermutet, der sich mit folgender Gleichung beschreiben lässt:
y = a ⋅ xb
mit a > 0 ∀ b < 0
(5.11)
Um die Parameter der Funktion empirisch zu bestimmen, sind a und b für eine ausreichend große Messreihe zu schätzen. a ist ein Skalierungsfaktor, welcher der Restschmutzmenge zu Beginn des Kehrversuchs entspricht also z.B. a = 5 kg. b kennzeichnet einen Degressionsfaktor, der angibt, wie stark die Schmutzmenge auf der Kehrfläche im Zuge der Reinigungsintensität abnimmt. Für eine effiziente Schätzung bietet es sich an, beide Seiten der Gleichung (5.11) zu logarithmieren:
lg( y ) = lg(a) + b ⋅ lg( x)
(5.12)
Durch die log-Transformation ist es möglich, a und b mithilfe einer einfachen linearen Regressionsrechnung zu bestimmen. Das Absolutglied lg(a) gibt dabei den Schnittpunkt der Regressionsgeraden mit der Ordinate an. Der Faktor b wird zum Korrelationskoeffizienten, der beschreibt, um wie viele Einheiten lg(y) sinkt, wenn lg(x) um eine Einheit steigt. Da b < 0 ist, gilt: Je kleiner b wird, desto größer ist der (negative) Anstieg der in Gleichung (5.12) beschriebenen Geraden.
Fitted Line Plot: Besen 1 logten(Y) = 0,6295 - 0,8573 logten(X) 5,0
Regression 95% C I
Restschmutzmenge (in kg)
4,5
S R-Sq R-Sq(adj)
4,0 3,5
0,0714909 92,3% 91,5%
p = 0,000
3,0 Charakteristische Kennlinie (bei allen Besen signifikant!)
2,5 2,0 1,5 1,0 0,5 0,0
1
2
3 4 Kum. Anz. Kehrvorgänge
5
6
Abb. 5-34: Kennlinie für die Kehreigenschaften eines Besens (Beispiel)
In Abb. 5-34 ist die Kennlinie für die Kehreigenschaft eines Straßenbesens beispielhaft bestimmt. Es handelt sich dabei um einen 6-reihigen Kokos-Besen mit
312
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
40 cm Länge; dieser gehört zum Standardsortiment der Firma EBF. Die Berechnung der Kennlinie basiert auf 2 unabhängigen Messreihen à 6 Messwerten. Die geschätzte Regressionsfunktion lautet in logarithmierter Form:
lg( y ) = 0,6295 − 0,8573 ⋅ lg( x)
(5.13)
Wie eingangs erwähnt, ist für die Quantifizierung der Kehreigenschaften eines Besens der Korrelationskoeffizient b entscheidend; er beträgt hier b = 0,8573.57 Nach dem Erfahrungskurven-Ansatz lässt sich aus dem Degressionsfaktor b eine Lern- bzw. Degressionsrate L bestimmen. Der mathematische Zusammenhang lautet: b = lg L / lg 2; danach beträgt die Verbesserungsrate im vorliegenden Fall L = 55,2%, d.h. bei einer Verdopplung der kumulierten Anzahl von Kehrvorgängen (x) sinkt bei dem untersuchten Besen die Restschmutzmenge (y) jeweils auf 55,2% des Ausgangsniveaus pro Kehrvorgang bzw. -zug. Das Ergebnis ist in allen berechneten Fällen hochsignifikant (p = 0,000), d.h. die verwendete logarithmische Funktion nach Gleichung (5.13) eignet sich aus statistischer Sicht „sehr gut“, um den Zusammenhang zwischen den zwei Größen y = „Restschmutzmenge (in kg)“ und x = „Kum. Anz. Kehrvorgänge“ mathematisch zu beschreiben. Das Bestimmtheitsmaß liegt bei über 90% (R-sq = 92,3%), d.h. die Vorhersagegenauigkeit bzw. statistische Erklärungskraft der berechneten Funktion ist im vorliegenden Fall ebenfalls „sehr gut“. Aus statistischer Sicht werden 92,3% der Gesamtvarianz der gemessenen Restschmutzmengen-Werte durch die geschätzte Funktion erklärt. Diese und weitere statistische Auswertungen sind mit der Statistik-Software Minitab R14 erstellt worden. Messsystem: Zur Datenerhebung wird standardmäßig die folgende Versuchsanordnung gewählt: Eine Europalette der Größe 120 cm x 80 cm, die mit Teer- bzw. Dachpappe vollständig bespannt ist, bildet die normierte Kehrfläche. Die Palette ist ca. 20 cm hoch und an drei Seiten mit Randleisten eingefasst; eine Längsseite ist offen. Vor dieser befindet sich ein Auffangbehälter, z.B. aus Wellpappe. Europalette und Auffangbehälter werden waagerecht aufgestellt (siehe Abb. 5-35). Als Kehrgut wird trockenes Schüttgut („Straßendreck“) mit unterschiedlicher Korngröße, ∅ 0,1 cm bis ∅ 3,0 cm, verwendet. Dadurch werden realitätsnahe Prüfbedingungen geschaffen: Es ist grob- und feinkörniger Schmutz, der sich auf einem straßenbelagsähnlichen Untergrund befindet, zu kehren. Zur Bestimmung der Kehreigenschaften sind vom Prüfer exakt 5 kg des Kehrgutes auf die Kehrfläche zu schütten und dort – per Augenmaß – gleichmäßig zu verteilen. Auftretende Abweichungen von der Gleichverteilung können später im Rahmen der Auswertung durch Sortieren der Messwerte „ausgeglichen“ werden.
57
Der Wert ist unabhängig von der Art des verwendeten Logarithmus, z.B. ln oder lg. Letztgenannter hat lediglich Einfluss auf die Höhe des Absolutgliedes der linearen Regressionsgleichung (5.12).
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
313
Prüfanweisung: Jeder Besen (= Prüfteil) wird von 2 Prüfern mit je 1 Wiederholung geprüft. Für die Durchführung eines Kehrvorganges gilt: „Der Prüfer steht mit dem zu prüfenden Besen an der Rückseite der Palette in ca. 0,5 m Entfernung von der Randbegrenzung hinten längs. Der Besen wird am Stiel mit zwei Händen festgehalten, und zwar rechtsseitig mit linker Hand vorne, etwa in der Mitte des Stiels, und rechter Hand hinten, im oberen Drittel des Stiels. Der Besen wird zum Kehren jeweils plan mit den Borsten auf die Kehrfläche aufgesetzt und mit einem kräftigen Schub nach vorne geschoben. Ein Besenschub bzw. -zug geht jeweils von der Rückseite der Palette bis zur gegenüberliegenden Seite (Vorderseite), die nicht durch eine Randleiste begrenzt ist; der Zug verläuft parallel zu den Randbegrenzungen quer.“ Das Kehrgut, welches beim Überstreichen der Fläche von ca. 80 cm ⋅ 40 cm (Besenlänge) erfasst wird, fällt an der Vorderseite der Palette herunter in den direkt anliegenden Auffangbehälter. Das aufgefangene Kehrgut wird nach jedem Kehrvorgang/ -zug in ein Gefäß geschüttet und gewogen. 1
= Nr. des Kehrvorgangs/ des Zuges
120 cm
1 m 80 c
4 2 3
5
6
Rechte äußere Kehrbahn
Mittlere Kehrbahn
Überlappung
Linke äußere Kehrbahn
Überlappung
Abb. 5-35: Ablaufschema zur Reinigung der normierten Kehrfläche
Die Kehrfläche ist mit insgesamt 6 Zügen zu reinigen. Das zugehörige Ablaufschema ist in Abb. 5-35 skizziert. Die Züge (1) und (4) gehen von der Mitte der Paletten-Rückseite aus; in der Ausgangsposition schlägt die Längsseite des Besenholzkörpers genau mittig an die hintere Randleiste. Die restlichen Züge gehen
314
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
jeweils von den Paletten-Ecken aus. Dabei wird der Besen in der Ausgangsposition so gehalten, dass der Holzkörper mit einer Längs- und einer Querseite rechtwinklig an die einschließenden Randbegrenzungen stößt. Bei den Zügen (2), (3), (5) und (6) wird der Besen – mit gleichmäßigem Druck – entlang der Begrenzung nach vorn bis zur Vorderseite der Palette geschoben. Jeder Flächenabschnitt wird auf diese Weise mind. 2-mal mit dem Besen überstrichen.58 Für die statistische Auswertung werden die gemessenen Schmutzmengen der Größe nach sortiert und anschließend aufsummiert. Die kumulierten Werte pro Zug (in kg) werden jeweils von dem Ausgangsgewicht i.H.v. 5 kg subtrahiert. Auf diese Weise ergeben sich insgesamt 7 Messpunkte pro zu testenden Besen. Gage R&R: Bevor das Messsystem in der vorstehend beschriebenen Weise eingesetzt wird, um die Kehreigenschaften von verschiedenen Besentypen zu bestimmen, ist in Verbesserungsprojekten standardmäßig eine sog. Gage R&R durchzuführen (vgl. auch Abschnitt 5.3.1). Um die Güte des verwendeten Messsystems (Gage) sicherzustellen, wird hier einerseits die Wiederholbarkeit des gleichen Messvorgangs durch die gleiche Person/ Maschine (R – Repeatability) analysiert und zum anderen die Reproduzierbarkeit des gleichen Messvorgangs durch zwei oder mehrere Personen/ Maschinen (R – Reproducibility). Ziel ist es, dass möglichst (deutlich) weniger als 30% der Gesamtvarianz der Messwerte durch das eingesetzte Messsystem hervorgerufen wird. Die Aggregation von Repeatability und Reproducibility ergibt die Variation des Messsystems (Total Gage R&R). Sie wird ins Verhältnis zur Gesamtvariation (Total Variation) aller gemessenen Werte gesetzt, hier Restschmutzmenge (in kg). Die Gage R&R für stetige Daten basiert statistisch auf der Durchführung einer einfachen Varianzanalyse (ANOVA). Sie ergab im vorliegenden Fall eine Total Gage R&R von 11%; die Berechnung wurde mit MINITAB R14 auf der Grundlage einer Stichprobe von 120 Messdaten durchgeführt (10 Besen ⋅ 6 Züge ⋅ 2 Prüfer). Die Güte des Messsystems kann damit im großen und ganzen als „gut“ bezeichnet werden. 89% der Gesamtvariation wird durch die Verwendung verschiedener Besen in Kombination mit einer abnehmenden Restschmutzmenge erklärt (Part-To-Part). Die detektierte Ungenauigkeit im Messsystem ist bei allen einbezogenen Fällen in einer unzureichenden Repeatability begründet.59
58
59
Es ergeben sich drei Kehrbahnen, die teilweise überlappend sind. Die Überlappungsfläche A zwischen mittlerer und äußerer Kehrbahn ist abhängig von der Länge des Borstenkopfes l und beträgt A = ((3 ⋅ l) – 120) / 2) ⋅ 80 cm2. Sie wird für die realitätsnahe (Prüf-)Bedingung, eine verschmutzte Fläche mit Begrenzungen zu reinigen, in Kauf genommen. Andernfalls, bei A = 0 cm2, würden die (Prüf-)Bedingungen dem Produkt angepasst werden und nicht umgekehrt. Eine Verbesserung der Repeatability lässt sich zum einen durch die genauere Definition der Prüfanweisung erreichen (Stichwort: Operationale Definition). Zum anderen trägt i.d.R. eine umfangreichere Schulung/ Einweisung der Prüfer zu einer Verringe-
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
315
(d) Ermitteln der Einflussgrößen Das verwendete Messsystem hat – direkt oder indirekt – einen wesentlichen Einfluss auf die Beurteilung der Kehrqualität eines Besens. Weitere wichtige Einflussgrößen (Xs), welche die Kehrwirkung des Besens determinieren, sind in dem Ishikawa-Diagramm in Abb. 5-36 zusammengetragen. Ziel ist es, einen ganzheitlichen Blick auf das zu untersuchende Thema im Team zu bekommen und dabei die Komplexität der (vermuteten) Ursachen-Wirkungsbeziehungen offen zu legen. Die Erstellung des Ishikawa-Diagramms erfolgte an einer Metaplanwand; die Darstellung erhebt keinen Anspruch auf Vollständigkeit. Die Klassifikation der Xs orientiert sich auf oberster Ebene an den „6 M´s“: Messung, Mitwelt, Maschine, Mensch, Material und Methode. Auf das 7. M Management wurde bewusst verzichtet, weil es vordergründig um technische Aspekte der Produktentwicklung geht. Die 6 M´s sind jeweils auf mind. zwei weiteren Ebenen detailliert, um die ursächlichen Größen, die zu einer hohen Kehrwirkung des Besens führen, zu erkennen. Die Einflussgrößen, die unter die Merkmalsdimension „Material“ fallen, betreffen vor allem die z.T. recht umfangreichen Produktbeschreibungen des Besens. Sie lassen sich auf übergeordneter Ebene in einigen wenigen Charakteristika zusammenfassen. Ihre Auflistung erfolgt im Zusammenhang mit dem Morphologischen Kasten in Abb. 5-39. Die Beurteilung der ermittelten Größen hinsichtlich der Beeinflussbarkeit wurde in vereinfachter Weise vorgenommen. So war für jedes „M“ auf oberster Ebene anzugeben, ob die zugehörigen Einflussgrößen überwiegend variable, noise oder constant sind. Wie in Abb. 5-36 ersichtlich ist, gibt es nur zwei Merkmalsdimensionen, die vom Team direkt beeinflussbar und damit variable sind, nämlich Messung der Kehreigenschaften und Design der Maschine (Besen). Die zu Mensch und Methode zugehörigen Größen wurden als noise eingestuft; sie sind allenfalls indirekt beeinflussbar. Aus Sicht des Teams ist es im Rahmen einer Produktbeschreibung möglich, dem Kunden Empfehlungen zu geben, unter welchen Bedingungen der Besen besonders gut bzw. besonders schlecht funktioniert. Als nicht beeinflussbar und damit constant gelten schließlich die Größen, die unter die zwei Merkmalsdimensionen Mensch und Methode fallen. Bei diesen geht das Team davon aus, dass nicht ex ante bestimmt werden kann, welcher Kunde den Besen kauft und wie er ihn nutzt. Bei der Festlegung des Messsystems wird deshalb vom gebräuchlichsten Anwendungsfall ausgegangen (siehe Gage R&R). Mit der Beschränkung auf zwei variable M´s ist der Suchraum für die weitere Produktoptimierung klar vorgegeben. Aus diesem Grund wurde auf eine Punktbewertung zur Fokussierung der kritischen Xs, wie es bei der Erstellung des IshikawaDiagramms sonst üblich ist (vgl. Abschnitt 5.3.1), verzichtet.
rung des Messsystemfehlers bei (Stichwort: Qualifikation der Prüfer). Beide Aspekte wurden bei der Optimierung des Messystems berücksichtigt.
Körpergewicht
Beobachtung
Aufrecht
Mensch c
Oberkörper
Gebeugt
Körpergröße
Eine
Warm
Windstille Regen
Hoch
Lange, langsame Züge
Kehrrythmus
Kehrwirkung des Besens
Vom Körper weg
Zum Körper hin
Kehrrichtung
Kurze, schnelle Züge
Wetter
Methode c
Niedrig
Anpresskraft Korngröße Grobkörnig, z.B. Kieselsteine
Feinkörnig, z.B. Quarzsand
Heterogen
Schmutzverteilung
Legende: v variable n noise c constant
Siehe Excel-Tabelle mit Merkmalsauflistung Kein Regen
Niederschlag
Feuchtigkeit
Nass
Untergrund
Warm
Maschine v
Lufttemperatur Raumklima (Innen)
Homogen
Material n
Mehrere
Trocken
Weich Windstärke
Härte
Trocken
Kalt
Rauhigkeit Temperatur
Kalt
Windig
Hart
Glatt
Rauh
n
Wenig
Flach
Viel Nass
Schmutzmenge
Feuchtigkeit
Kornarten
Körperhaltung
Nicht verdreht
Armhaltung
Arm- Beinlänge länge
Oberkörper
Reproduzierbarkeit
Gefälle
Ansteigend
Wellig
Mitwelt
Ebenheit Eben
Gage R&R
Kehrfläche Zuverlässigkeit
Schlank, ohne Bauch Verdreht
Dick, mit Bauch
Datenerhebung
Befragung Experiment
Subjektive Bewertung
Bewertung
Objektive KombinationsKenndaten verfahren
Feld (nicht standardisiert)
Bedingungen
Labor (standardisiert)
Messung v
316 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
Abb. 5-36: Ishikawa-Diagramm zur Beeinflussung der Kehrwirkung des Besens
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
317
(f) Festlegen der Ausgangspopulation Das Ishikawa-Diagramm bildet den Ausgangspunkt, um wesentliche Merkmale für die Verbesserung des Besens festzulegen. Unter die Dimension Material fallen insgesamt mehr als 10 produktbezogene Merkmale, die einen Einfluss auf die Kehreigenschaften des Besens haben (siehe Abb. 5-37). Dabei lassen sich alle aufgeführten Merkmale in bestimmten Grenzen variieren. Die Änderungen sind jedoch mit unterschiedlich hohem F&E-Aufwand verbunden. Z.B. zieht die Variation der Breite des Holzkörpers umfangreiche Produktionsumstellungen beim Hersteller- und Zulieferunternehmen nach sich und ist kurzfristig nicht realisierbar. Unter der Maßgabe der Wirtschaftlichkeit wurde deshalb in einem zweiten Filterprozess die Anzahl der relevanten Einflussgrößen von 13 auf 8 reduziert; sie sind in Abb. 5-37 mit (v) gekennzeichnet. Größen, die im Rahmen der Optimierung unverändert bleiben, erhielten entsprechend ein (c). Legende: a – Anzahl der Lochreihen (v) α – Winkelneigung des Stiels (v) b – Breite des Holzkörpers (c) b* – Breite des Borstenkopfes (c)
i b
β – Borstenneigung am Rand längs (v) β * – Borstenneigung am Rand quer (v) h – Dicke des Holzkörpers (c) h* – Länge der Borsten (v) i – Länge des Stils (c) l – Länge des Holzkörpers (v) l* – Länge des Borstenkopfes (v) M – Materialsorte (v) s – Bündelstärke (v)
l
M
<) α <) β s
<) β*
h
l*
h* b*
a
Abb. 5-37: Skizze zur Dimensionierung eines Straßenbesens
Quantifizieren der Haupteffekte mit DOE Bereits in diesem frühen Stadium des F&E-Projektes wurde ein statistischer Versuchsplan aufgestellt, um die Wirkungen (Effekte) der einbezogenen Merkmale (Faktoren) zu quantifizieren. Bei der Planung des DOE wurde zunächst davon ausgegangen, dass keine allzu starken Wechselwirkungen zwischen den Faktoren vorherrschen. Unter dieser Voraussetzung kam das Screening-Design nach Pla-
318
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
ckett/ Burman (1946) zum Einsatz. Mit ihm ist es möglich, mit einem Minimum an Versuchen eine Information über einen möglichen Einfluss von (sehr) vielen Faktoren zu erhalten (vgl. Breyfogle 2003, S. 574). Das Grundprinzip von stark reduzierten Versuchsplänen besteht darin, dass alle ermittelten (Haupt-)Effekte mit einem Grundversuch verglichen werden, bei dem sich alle Faktorstufen (Merkmalsausprägungen) auf dem unteren Niveau befinden. Im Zusammenhang mit der Besenoptimierung ging es in erster Linie darum, statistisch zu überprüfen, ob die definierten Merkmale in Abb. 5-37 tatsächlich einen signifikanten Einfluss auf den Korrelationskoeffizienten b als Indikator für die Fitness haben. Bei erkennbarer Nicht-Signifikanz kann der Suchraum ggf. noch verkleinert werden. Für die Überprüfung des Einflusses der 8 Besenmerkmale wurde ein Plackett-Burman-Design mit insgesamt 12 Versuchen und 1 Wiederholung vorgeschlagen. Bei diesem ist die Faktorstufenkombination des ersten Versuches nicht frei wählbar, sondern abhängig von der Größe des Gesamtversuchsplanes. Die Faktorstufenkombinationen der restlichen Versuche ergeben sich aus der Anordnung für den ersten Versuch, und zwar in der Weise, dass die Vorzeichenserie (+ / –) im Versuchsplan jeweils eine Spalte nach links gerückt wird. Die Auswertung von Plackett-Burman-Plänen erfolgt analog zu den teilfaktoriellen Versuchsplänen. Hierbei ist zu berücksichtigen, dass Faktoren-Wechselwirkungen (FWW) mit den Effekten der Faktoren zu einem gewissen Grad vermengt sind (vgl. Kleppmann 2006, S. 148ff.). Im vorliegenden Fall wurde ein PlackettBurman-Design mit einer Auflösung von III verwendet, bei dem eine Vermengung von 2FWW mit Haupteffekten auftritt (vgl. auch Minitab R14/ Help). Infolgedessen werden bei der statistischen Auswertung nur die Haupteffekte geschätzt; Nebeneffekte bzw. Wechselwirkungen bleiben unberücksichtigt. In Abb. 5-38 sind die standardisierten Effekte, die sich für die 8 Merkmale (Faktoren) des Besens nach dem o.g. Versuchsplan ergeben, der Größe nach aufgeführt. Wie leicht nachvollziehbar ist, hat der Faktor M4 (Materialsorte) den größten Einfluss auf die Höhe des gemittelten Degressionsfaktors⎯bi. Der standardisierte Effekt beträgt TM4 = 16,49. Er ergibt sich als Quotient aus dem mittleren Haupteffekt des Faktors (Coef) und dem Standardfehler über alle ermittelten Koeffizienten (SE Coef). Der mittlere Haupteffekt des Faktors beträgt CoefM4 = 0,245, d.h. ausgehend von einer Materialsorte mittlerer Härte (0-Niveau) steigt der Degressionsfaktor b im Durchschnitt um 0,245 Einheiten, wenn die Faktorstufe auf hoch (+), also M4 = „Hart“, gestellt wird, c.p. Der (Gesamt-)Effekt des Faktors berechnet sich mit EffectM4 = 2 ⋅ CoefM4 = 0,49. Dieser gibt an, um wie viele Einheiten sich die Ergebniswerte zwischen hoher und niedriger Faktorstufeneinstellung im Durchschnitt unterscheiden; die mittlere Kehrwirkung beträgt im konkreten Fall bei niedriger Faktorstufe⎯bM4- = -1,20 und bei hoher⎯bM4+ = -1,69.
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
319
Pareto Chart of the Standardized Effects (response is Fitness, Alpha = ,05) 2,14 M4 - Materialsorte M2 - Anz. d. Lochreihen
Term
M1 - Länge d. Holzes M3 - Winkelneigung Stiel M8 - Länge d. Borsten M7 - Bündelstärke M5 - Borstenneigung längs M6 - Borstenneigung quer 0
2
4
6 8 10 12 Standardized Effect
14
16
18
Abb. 5-38: Pareto-Chart der standardisierten Effekte beim Besen
Neben der Materialsorte haben die Faktoren M2 (Anzahl der Lochreihen) und M1 (Länge des Holzes) einen relativ hohen Einfluss auf die Höhe des Degressionsfaktors b. Ihre Haupteffekte betragen EffectM2 = 0,32 und EffectM1 = 0,22. Die standardisierten Effekte (Länge der Balken in Abb. 5-38) liegen bei TM2 = 10,72 und TM1 = 7,53. Mit geringem Abstand folgen die Effekte, die von den drei Faktoren M3, M7 und M8 ausgehen. Hier ist interessant, dass nach den gemessenen Daten die Kehrwirkung, die aus unterschiedlichen Einstellwerten für die Winkelneigung des Stiels (M3) resultiert, größer ist als die, die durch eine Variation der Länge der Borsten (M7) bzw. der Bündelstärke (M8) bedingt ist. Vom Team wurde insbesondere eine größere Bedeutung des Merkmals M8 erwartet.60 Bis auf M5 und M6 sind alle vorstehend genannten Merkmale auf einem Niveau von α = 0,05 signifikant. Sie überschreiten den kritischen Wert von Tkrit = 2,14 (siehe Linie in Abb. 5-38). Dieser ergibt sich aus einem Vergleich mit den Quantilen der t-Verteilung bei gegebener Anzahl von Freiheitsgraden und anvisiertem Signifikanzniveau. Nach der einfachen Varianzanalyse (ANOVA) sind die einbezogenen Faktoren (Factors) zur Erklärung der Kehrwirkung des Besens (Respon-
60
Die geringsten Effekte gehen, wie vermutet, von den Merkmalen M5 und M6 aus, d.h. die Borstenneigung spielt bei der Optimierung der Kehreigenschaften des Besens eine eher untergeordnete Rolle. Trotz dieser Tatsache werden sie in die weitere Optimierung einbezogen, da sie – nach Auswertung des zugehörigen Interaction-Plots – mit hoher Wahrscheinlichkeit in Wechselwirkung mit anderen Faktoren stehen.
320
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
se) in Summe hoch signifikant (p = 0,000). Das Bestimmtheitsmaß für das berechnete Regressionsmodell beträgt R-sq = 97,39%, d.h. die empirischen Werte des Degressionsfaktors werden nahezu vollständig durch das statistische Modell erklärt. Die einbezogenen Merkmale bilden alles in allem einen sehr guten Ausgangspunkt für die Optimierung der Kehreigenschaften des Besens. Auf der Basis der Ergebnisse des Ishikawa-Diagramms und der Auswertung des Plackett-Burman-Designs wurde ein Suchraum mit insgesamt 8 Merkmalen definiert (siehe Abb. 5-39). Die Merkmale können unabhängig voneinander variiert werden. Dabei sind die geforderten Ausprägungen für die Merkmale (1) Länge des Holzkörpers, (3) Winkelneigung des Stiels, (4) Materialsorte und (8) Länge der Borsten mit den Zulieferunternehmen zu vereinbaren. Alle anderen Merkmale können über entsprechende Maschineneinstellungen an den Stanzautomaten im Unternehmen direkt verändert werden. Die Anzahl der Ausprägungen je Merkmal beträgt 4 oder 8. Nach den Gesetzen der Kombinatorik (hier: „Variation mit Zurücklegen“) ergibt sich daraus eine Suchraumgröße von 54 ⋅ 38 = 524.288 Möglichkeiten, d.h. im Lösungsraum (SOLUTION) können max. 524.288 Besenvarianten erzeugt werden, die sich in mind. einem Merkmal unterscheiden. 1
Ausgangspopulation:
2
3
4
5
6
7
Nr
Merkmalsbezeichnung
Ausprägung 1
Ausprägung 2
Ausprägung 3
Ausprägung 4
1
Länge des Holzkörpers
34 cm
40 cm
50 cm
60 cm
2
Anzahl der Lochreihen
5
6
3
Winkelneigung Stiel
0°
4
Materialsorte
5
8
9
10
Ausprägung 5
Ausprägung 6
Ausprägung 7
Ausprägung 8
A-E-Mischung
Polymex
Basine
PPCopo
7
8
30°
35°
45°
Elaston
Kokos
Arenga
Naturhaar
Borstenneigung längs
0°
8°
16°
25°
6
Borstenneigung quer
0°
8°
16°
25°
7
Bündelstärke*
4,0 mm
4,5 mm
5,0 mm
5,5 mm
6,0 mm
6,5 mm
7,0 mm
7,5 mm
8
Länge der Borsten**
5,0 cm
5,5 cm
6,0 cm
6,5 cm
7,0 cm
7,5 cm
8,0 cm
8,5 cm
* Lochdurchmesser
** Sichtbare Länge
Abb. 5-39: Morphologischer Kasten zur Bestimmung der Ausgangspopulation
Für den IESRM-Zyklus wurde eine Populationsgröße (POPSIZE) von 10 gewählt. Die Besen, die sich in der Ausgangspopulation befinden, sind als einzelne Profillinien in der Matrix in Abb. 5-39 eingezeichnet. Dabei handelt es sich zum überwiegenden Teil um Besentypen, die sich im aktuellen Produktportfolio des Unternehmens befinden. Die Variation der Merkmalsausprägungen ist hier – bis auf die Merkmale M1 und M4 relativ gering. Dies wurde aber bewusst in Kauf genom-
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
321
men, um zum einen den F&E-Aufwand zu Beginn des Verbesserungszyklus möglichst gering zu halten. Zum anderen bestand ein vorrangiges Interesse des Teams darin, zunächst die aktuellen Modelle hinsichtlich ihrer Kehreigenschaften zu testen und daraus ein (internes) Ranking zu bestimmen.61 (g) Codieren der Lösungen Im Rahmen des IESRM-Zyklus werden die Lösungen nicht nur auf der Phänotypebene, sondern auch auf der Genotypebene dargestellt (vgl. Abschnitt 5.2.2). Dazu sind die Lösungskandidaten zu codieren. Um eine Besenvariante als Lösung eindeutig auf der Genotypebene abzubilden, ist bei gegebener Suchraumgröße eine Chromosomengröße (BITS) von 19 = ln 524.288 / ln 2 erforderlich. Die Zuordnung von Merkmalswerten auf der Phänotypebene zu Codierwerten auf der Genotypebene erfolgt vorzugsweise mithilfe eines Codier-Tableaus (siehe Abb. 5-40). Jeder Merkmalsausprägung wird hier genau ein Bit-String zugeordnet, dessen Länge sich nach der max. Anzahl möglicher Ausprägungen richtet. Mit der Darstellung der Lösungskandidaten der Ausgangspopulation auf der Geno- und Phänotypebene ist die erste Phase des IESRM-Zyklus abgeschlossen. M1 M2 Merkmal Anzahl der Bezeichnung Länge des Holzkörpers Lochreihen 2 2 Auflösung Metrisch Ordinal Typ Wert Code Wert Code Ausprägung 1 34 00 5 00 2 40 01 6 01 3 50 10 7 10 4 60 11 8 11 5 6 7 8 cm Einheit Minimum 34 5 60 8 Maximum
M3 Winkelneigung des Stiels 2 Metrisch Wert Code 0 00 30 01 35 10 45 11
° 0 45
M4 Materialsorte 3 Nominal Wert
Code
Elaston Kokos A-E-Mischung Naturhaar Arenga Polymex Basine PP-Copo -
000 001 010 011 100 101 110 111
Abb. 5-40: Codier-Tableau zur Lösungsrepräsentation auf der Genotypebene (Ausschnitt)
Evaluierungs-Phase In dieser Phase geht es darum, die Kehreigenschaften der Besentypen, die sich in der Population befinden, (a) einzeln zu bestimmen und auf dieser Grundlage (b) einen Fitnesswert der Gesamtpopulation zu ermitteln.
61
Wie eingangs erwähnt, lässt sich daraus ein wichtiges Verkaufsargument gegenüber dem Handel generieren. Gleichzeitig wird über ein objektiviertes Messverfahren die Voraussetzung für ein systematisches Benchmarking geschaffen.
322
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
(a) Bestimmen der Fitnesswerte der einzelnen Besen Im Zusammenhang mit der Messsystemanalyse wurde der Korrelationskoeffizient b der logarithmierten Regressionsgleichung als wichtiger Indikator zur Beschreibung des Kehrverhaltens identifiziert. Dieser lässt sich jedoch nicht direkt als Fitnesswert verwenden, da sein Wertebereich kleiner gleich Null ist. Aus diesem Grund ist eine Transformation bzw. Standardisierung vorzunehmen. Im einfachsten Fall besteht diese in der Ermittlung des Absolutwertes des Koeffizienten. Die Fitnesswerte, die sich entsprechend fiti(y) = ⏐bi⏐ für die Besen i ∈ [1, 10] der Ausgangspopulation ergeben, sind in Abb. 5-41 tabelliert. Wie leicht nachvollziehbar ist, sind die Unterschiede in den Fitnesswerten relativ groß, so dass auf die Anwendung einer Skalierungsfunktion verzichtet werden kann (vgl. Abschnitt 5.2.2). Ausgehend von den Fitnesswerten sind den Besen Ränge zugeordnet worden. Sie geben einen Hinweis auf die Selektionswahrscheinlichkeit. Besen-Nr. 1 2 3 4 5 6 7 8 9 10
Korrelations- Degressionskoeffizient rate Kokos-40 -0,86 55,2% Elaston-50 -1,51 35,1% A-E-Mischung-60 -1,80 28,7% Kokos-60 -1,44 36,8% Elaston-40 -2,07 23,9% A-E-Mischung-40 -1,19 43,8% Polymex-40 -0,48 71,9% Naturhaar-50 -0,46 72,6% Arenga-40 -1,08 47,2% PP-Copo-34 -1,02 49,2% Bezeichnung
Fitnesswert
Rang
0,86 1,51 1,80 1,44 2,07 1,19 0,48 0,46 1,08 1,02
8 3 2 4 1 5 9 10 6 7
Abb. 5-41: Daten zur Ermittlung der Fitnesswerte für die Besen der Ausgangspopulation
Als bester Straßenbesen erwies sich in der 1. Optimierungsrunde der Besen mit der Nr. 5 (Elaston, 40 cm, 7 Reihen). Ihm wird der Rang 1 zugeordnet. Aus seinem Korrelationskoeffizienten b ergibt sich eine Degressionsrate L von 23,9%.62 Gegenüber dem besten Besen mit einem Fitnesswert von 2,07 besitzt der schlechteste Besen eine Fitness von „nur“ 0,46; seine Degressionsrate beträgt über 70%. Es handelt sich dabei um den Besen mit der Nr. 8 (Naturhaar, 50 cm, 7 Reihen). Maßgebend für die weitere Optimierung ist die durchschnittliche Fitness über alle Besen; sie beträgt 1,07. Ziel ist es, dass sich dieser Wert infolge des mehrmaligen Durchlaufens der letzten vier Phasen des IESRM-Zyklus sukzessive erhöht.
62
Diese besagt, wie eingangs erwähnt, dass im Durchschnitt bei einer Verdopplung der kumulierten Anzahl von Kehrvorgängen (x) die Restschmutzmenge (y) auf den vorstehend angegebenen Prozentsatz des jeweiligen Ausgangsniveaus fällt, also hier z.B. von Punkt (2. Zug, 1,75 kg) auf Punkt (4. Zug, 0,42 kg).
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
323
(b) Berechnen der durchschnittlichen Fitness der Population Für die Berechnung der durchschnittlichen Fitness der Population wird die Formel für den geometrischen Mittelwert zugrunde gelegt (vgl. Abschnitt 5.2.1). Diese hat den Vorteil, dass neben dem Erwartungswert die Varianz der Fitnesswerte innerhalb der Population Berücksichtigung finden. Üblicherweise werden die Lösungskandidaten mit zunehmender Iterationszahl immer ähnlicher, so dass die Varianz minimiert und gleichzeitig der geometrische Mittelwert für die Gesamtfitness maximiert wird. Die Varianz beträgt in der Ausgangspopulation σ2 = 0,28. Im Durchschnitt schwanken die Fitnesswerte also um σ1 = 0,53 um den (arithmetischen) Mittelwert i.H.v. μ1 = 1,19. Aus beiden Werten ergibt sich nach Gleichung (5.1) eine geometrische mittlere Fitness von⎯fit1 = 1,07. Die Differenz zwischen arithmetischen und geometrischen Mittel von 0,12 liegt in der relativ großen Streuung der Fitnesswerte begründet. Nach Fisher´s Fundamentaltheorem ist dies im Hinblick auf eine effektive Selektion positiv zu bewerten. Selektions-Phase Die Selektion der Besen für die jeweils nächste Runde wird nach dem RouletteWheel-Verfahren durchgeführt. Dazu sind die relativen Fitnesswerte der einzelnen Lösungskandidaten zu bestimmen (vgl. Abschnitt 5.2.1). Sie sind in Abb. 5-42 in Form eines Kuchendiagramms dargestellt. Der Besen mit der höchsten relativen Fitness erhält das größte „Kuchenstück“, c.p. Der prozentuale Anteil am Kuchen ist gleichbedeutend mit der Wahrscheinlichkeit, dass ein Besen im Rahmen der Selektion ausgewählt wird und in den Fortpflanzungspool gelangt. Die Auswahl der Besen erfolgt per gewichtetem Zufallsprinzip, d.h. es werden 10 Zufallszahlen im Bereich [0, 1] erzeugt und den Werten, die sich nach der Bildung der kumulierten relativen Fitnessfunktion (CDF) ergeben, gegenübergestellt (vgl. Abschnitt 5.2.2). Durch dieses Vorgehen wird eine fitnessproportionale Selektion erreicht. Für die Fortpflanzung (Rekombination) wurden die folgenden sechs Besen ausgewählt: 3, 4, 5, und 6 je 2-mal sowie 7 und 9 je 1-mal. Rekombinations-Phase Die selektierten Besen bilden die Elterngeneration; sie werden auf der Genotypebene rekombiniert. Dazu sind die Genome von jeweils zwei Besen an einer zufällig gewählten Stelle des Bit-Codes im Bereich [1, 19] zu kreuzen. In Abb. 5-43 sind die fünf Elternpaare mit den zugehörigen Crossover-points dargestellt. Die Besen, deren Bit-Strings gekreuzt werden, sind per Zufallsprinzip bestimmt worden. Bei der Programmierung des Zufallsgenerators wurde darauf geachtet, dass die Wahrscheinlichkeit, zwei gleiche Elternteile auszuwählen und damit Klone zu bekommen, in jeder Runde minimiert wird. Im konkreten Fall gehen aus den 5 Paarungen mit der Nummerierung [A, E] 10 Kinder hervor, die sich in ihrem Gen-Code in jeweils mind. einer Bit-Stelle von ihren Eltern unter-
324
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
scheiden. Dadurch wird sichergestellt, dass eine möglichst hohe Variation der Merkmale/ Merkmalsausprägungen in der nachfolgenden Runde eintritt. Besen-Nr. 10 0,09 10 9% 1,00
1 0,07 1 7% 0,07
9 0,09
7
Kum. rel. Fitness
2 0,13 2 13%
9 9% 0,91 8
Rel. Fitness
0,20
0,04 8 0,82 4% 0,04 7
4% 0,78 3 0,15 3 15% 0,35
0,10 6
6 10% 0,74
4 0,12 4 12% 0,47
5 0,17
5 17% 0,64 Zufallszahl Selektierte Lösung
0,52
0,67
0,21
0,52
0,68
0,42
0,87
0,77
0,41
0,29
5
6
3
5
6
4
9
7
4
3
Abb. 5-42: Selektion der Besen nach dem Roulette-Wheel-Verfahren
Nr. Elternteil 1 A 5 B 6 C 3 D 5 E 6
x x x x x
Elternteil 2 3 4 7 9 4
= = = = =
Kinder a+b a+b a+b a+b a+b
Crossoverpoint 14 18 7 7 11
Abb. 5-43: Rekombination der Besen der 1. Elterngeneration per Zufallsprinzip
Mutations-Phase Die Mutations-Phase umfasst das manuelle und/ oder automatisierte Erzeugen zufälliger Änderungen im Bit-Code. Anschließend wird kurz auf die weitere Entwicklung der Fitness der Besen-Population sowie die Generierung von Produktinnovationen mit TRIZ eingegangen.
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
325
(a) Erzeugen zufälliger Änderungen im Bit-Code Die Merkmalsausprägungen der Besen sind in der Anfangspopulation in einigen Dimensionen zu einem hohen Grad deckungsgleich (siehe Abb. 5-39). Aus diesem Grund wurde die Mutationswahrscheinlichkeit (MUTPROB) zu Beginn des Verbesserungsprojektes vergleichsweise hoch gewählt; sie beträgt in der ersten Runde 10%. Die zufälligen Veränderungen des Bit-Codes werden per Flip-Mutation erzeugt (vgl. Abschnitt 4.3.3). Konkret bedeutet dies, dass sich bezogen auf ein Chromosom der Kindergeneration der Bit-Code an einer beliebigen Stelle mit einer Wahrscheinlichkeit von 10% verändert, d.h. von „0“ auf „1“ springt oder umgekehrt. Auf diese Weise treten in der ersten Kindergeneration genau zwei Mutationen im Chromosomensatz auf: (1) Besen mit der Nr. 4 (Kind D1) an der Bit-Stelle 15 und (2) Besen mit der Nr. 8 (Kinde C2) an der Bit-Stelle 18. Von den Mutationen sind auf der Phänotypebene das Merkmal M7 (Bündelstärke) bei Besen-Nr. 4 und M8 (Länge der Borsten) bei Besen-Nr. 8 betroffen. In Abb. 5-44 ist die Besen-Population für die zweite Runde in dekadischer und binärer Form dargestellt. Die Mutationen sind im Binär-Code durch entsprechende Markierungen hervorgehoben. Wie leicht nachvollziehbar ist, wurden bzgl. der genannten Merkmale zusätzlich zwei Mutationen „per Hand“ eingefügt. Sie beziehen sich auf die Besen mit der Nr. 2 (Kind B1) und der Nr. 9 (Kind D2). Aufgrund der Ergebnisse der ersten Mess- bzw. Evaluations-Phase versprach sich das Projektteam hiervon einen weiterführenden Erkenntnisgewinn, und zwar in Bezug auf die optimale Gestaltung von Borstenlänge und -stärke. Runde
2
Besen-Nr. Bezeichnung 1 2 3 4 5 6 7 8 9 10
Bit-Stelle
Besen-Nr. 1 2 3 4 5 6 7 8 9 10
M1
Bezeichnung Elaston-40 A-E-Mischung-40 Polymex-60 Arenga-40 A-E-Mischung-40 A-E-Mischung-60 Kokos-60 A-E-Mischung-40 Elaston-40 Kokos-60
M2
M3
M4
M5
Länge desAnzahl de Winkelne Materialsorte
Elaston-40 A-E-Mischung-40 Polymex-60 Arenga-40 A-E-Mischung-40 A-E-Mischung-60 Kokos-60 A-E-Mischung-40 Elaston-40 Kokos-60
40 40 60 40 40 60 60 40 40 60 1
2
M1
7 6 6 7 6 6 6 8 6 6 3
4
M2
35 35 35 35 35 35 35 35 35 35 5
6
7
M3
8
9
M4
M6
M7
M8
BorstenneBorstenneBündelstä Länge der
Elaston A-E-Mischung Polymex Arenga A-E-Mischung A-E-Mischung Kokos A-E-Mischung Elaston Kokos 10
16 8 16 8 8 8 8 8 16 8 11
M5
12
16 8 16 8 8 8 8 8 16 8 13
14
M6
15
6,0 4,0 4,0 7,0 6,0 6,0 6,0 6,0 6,0 6,0 16
17
M7
7,5 7,5 6,0 7,5 7,5 7,5 7,5 8,5 8,5 7,5 18
19
M8
Länge de Anzahl deWinkelneMaterialsorte Borstenn Borstenn Bündelstärke*Länge der Bor
0 0 1 0 0 1 1 0 0 1
1 1 1 1 1 1 1 1 1 1
1 0 0 1 0 0 0 1 0 0
0 1 1 0 1 1 1 1 1 1
1 1 1 1 1 1 1 1 1 1
0 0 0 0 0 0 0 0 0 0
0 0 1 1 0 0 0 0 0 0
0 1 0 0 1 1 0 1 0 0
0 0 1 0 0 0 1 0 0 1
1 0 1 0 0 0 0 0 1 0
0 1 0 1 1 1 1 1 0 1
1 0 1 0 0 0 0 0 1 0
0 1 0 1 1 1 1 1 0 1
1 0 0 1 1 1 1 1 1 1
0 0 0 1 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0
1 1 0 1 1 1 1 1 1 1
0 0 1 0 0 0 0 1 1 0
1 1 0 1 1 1 1 1 1 1
Abb. 5-44: Population für 2. Optimierungsrunde in dekadischer und binärer Darstellung
326
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
Trotz der „klonfreien“ Rekombination und der zahlreichen Mutationen ist die mittlere Übereinstimmung des Genoms zwischen Eltern- und Kindergeneration relativ hoch; sie beträgt 89% und ergibt sich aus einem Vergleich der kumulierten Anzahl von „0“ und „1“ je Bit-Stelle in der Matrix der Eltern- und Kindergeneration. Im weiteren Verlauf nimmt die Rate der Übereinstimmung tendenziell zu. Auf der Phänotypebene führt dies dazu, dass die Lösungskandidaten von Runde zu Runde immer ähnlicher werden; sie konvergieren in Richtung globales Optimum (vgl. Abschnitt 4.3.4). Letzteres ist nach 5 Runden erreicht, so dass der IESRMZyklus – entgegen der ursprünglichen Initialisierung – bereits nach der Hälfte der geplanten Rundenzahl abgebrochen wird (MAXITER). Die wesentlichen Ergebnisse sind im Folgenden zusammengefasst. (b) Zusammenfassung der Projektergebnisse Analog zum Papier-Rotor entwickelt sich die mittlere geometrische Fitness der Population in Form einer S-Kurve (vgl. Abschnitt 5.4.1). Der Wert steigt innerhalb von 5 Optimierungsrunden von ca. 1,0 auf über 2,0. Der beste Besen in Runde 5 besitzt eine Fitness von fit* = 2,23. Dabei zeigt die Selektion bereits nach zwei Runden ihre (volle) Wirkung – die Fitness der Population steigt in Runde 3 schlagartig an und verbleibt im Folgenden auf einem etwa gleich hohen Niveau. Zu diesem Zeitpunkt sind insgesamt 30 unterschiedliche Besenmodelle produziert und getestet worden. Ca. die Hälfte der angegebenen Modelle konnte auf der Grundlage von Modellen in Vorgängerrunden erstellt werden. Dadurch hielt sich der Aufwand für die Erstellung der Muster in Grenzen. Der angestrebte Net Benefit konnte in der in Abb. 5-33 ausgewiesenen Höhe generiert werden. In Abb. 5-45 ist die Steigerung der mittleren Fitness der Population innerhalb von 5 Optimierungsrunden (Generationen) nachvollziehbar. Ergänzend hierzu ist die geschätzte Fitnessfunktion63 über 10 Runden angegeben. Mit ihrer Hilfe lässt sich das verbleibende Optimierungspotenzial schätzen. Dieses ergibt sich als Differenz zwischen der angestrebten mittleren Fitness in Runde 10⎯fit10 = 2,22 und der tatsächlich erreichten mittleren Fitness in Runde 5⎯fit5 = 2,08; das Potenzial beträgt im vorliegenden Fall Δfit5, 10 = 0,14. Im Verhältnis zum insgesamt vorhandenen Optimierungspotenzial sind dies nicht mehr als 12%. Um in Zukunft einen weiteren signifikanten Anstieg der Fitness zu erreichen, sind Basisinnovationen erforderlich, die zu einem Technologiesprung führen (vgl. Abschnitt 3.1.2).
63
Die geschätzte Fitnessfunktion basiert auf folgenden Parametereinstellungen: (a) Derzeitige mittlere Fitness fit1 = 1,0; (b) Sigma-Skalierungsfaktor σS = 0,64; (c) Sigmaskalierte derzeitige mittlere Fitness fit1 – σS = 0,36; (d) Angestrebte mittlere Fitness fit10 = 2,22; (e) Sigma-skalierte angestrebte mittlere Fitness fit10 – σS = 1,58; (f) Formparameter Lambda λ = 1,02. Diese Einstellungen führen zu einem mittleren quadratischen Fehler bei der Schätzung i.H.v. MSEB = 0,005.
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
327
2,5
Fitness (Geo-Mittel)
Δfit5,10
2,0 1, 02 ⋅ ( g − 1)
1,5
fit
Pop
(g) =
1,0
1,58 ⋅ e 1,58 − 0 ,36 + 0 ,36
e
1, 02 ⋅ ( g − 1 )
+ 0 , 64
0,5 0,0 1
2
3
4
5
6
7
8
9
10
Generation Tatsächliche Fitness
Geschätzte Fitness
Abb. 5-45: Entwicklung der Fitness der Besen-Population
Das Design des optimalen Besens in der Endpopulation unterscheidet sich vom besten Besen (Nr. 5) in der Ausgangspopulation in 2 von 8 Merkmalen (siehe Abb. 5-46). Gegenüber letztgenannten konnte die Fitness bis zum Abschluss der 5. Runde um ca. 8% gesteigert werden. Die Erklärung für diesen eher geringen Unterschied geht zum einen dahin, dass das produktbezogene Know-how bereits sehr hoch ist. Besen dieser Art werden bereits seit mehr als 50 Jahren im Unternehmen produziert. Zum anderen wurde bei der Initialisierung des Entwicklungsprozesses vom bestehenden Produktportfolio ausgegangen. Dieses enthält Besenmodelle, deren Kehreigenschaften im Hinblick auf unterschiedliche Anwendungsbedingungen seit Jahrzehnten „optimiert“ worden sind. Damit war die Wahrscheinlichkeit hoch, gleich zu Beginn des IESRM-Zyklus einen Besen aufzunehmen, der die Anforderungen des o.g. Messsystems „sehr gut“ erfüllt. Im Umkehrschluss bedeutet das Ergebnis des F&E-Projektes aber auch, dass der IESRM-Zyklus ein effektives Vorgehensmodell beinhaltet, das bei systematischer Anwendung zu optimalen Lösungen führt. Ausgehend von einer Population mit Besen, die z.T. für ganz unterschiedliche Anwendungsbereiche konzipiert sind, werden nach und nach die auf die Messanordnung am besten „passenden“ Besen selektiert. Diese werden gleichzeitig über die Rekombination und Mutation ihres Bit-Codes kontinuierlich weiterentwickelt. Am Ende des Problemlösungszyklus liegt ein fitnessmaximaler Besen vor, der sich mit seinen spezifischen Merkmalsausprägungen noch nicht im Portfolio des Unternehmens befindet.
328
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
Bester Besen 1. Runde Fitness: 2,07
Bester Besen 5. Runde Fitness: 2,23
Nr.
Merkmalsbezeichnung
Ausprägung 1
Ausprägung 2
Ausprägung 3
Ausprägung 4
1
Länge des Holzkörpers
34 cm
40 cm
50 cm
60 cm
2
Anzahl der Lochreihen
5
6
7
8
3
Winkelneigung Stiel
0°
30°
35°
45°
4
Materialsorte
Elaston
Kokos
Arenga
Naturhaar
5
Borstenneigung längs
0°
8°
16°
25°
6
Borstenneigung quer
0°
8°
16°
25°
7
Bündelstärke*
4,0 mm
4,5 mm
5,0 mm
8
Länge der Borsten**
5,0 cm
5,5 cm
6,0 cm
* Lochdurchmesser
Ausprägung 5
Ausprägung 6
Ausprägung 7
Ausprägung 8
A-E-Mischung
Polymex
Basine
PPCopo
5,5 mm
6,0 mm
6,5 mm
7,0 mm
7,5 mm
6,5 cm
7,0 cm
7,5 cm
8,0 cm
8,5 cm
** Sichtbare Länge
Abb. 5-46: Morphologischer Kasten mit Profillinien für beste Besen
Vor diesem Hintergrund hat sich aus Unternehmenssicht die Anwendung des IESRM-Zyklus zur Entwicklung eines Straßenbesens mit optimierten Kehreigenschaften prinzipiell gelohnt. Die formulierten Ziele in der Projektcharter wurden in weiten Teilen erreicht. Als einziges Manko bleibt festzuhalten: Aufgrund des gewählten Lösungsraums, der sich primär auf traditionelle Vorstellungen über die zu optimierenden Merkmale bei einem Straßenbesen stützt, blieb das Auffinden eines wirklich innovativen Produktdesigns ohne Erfolg. Hierzu sind weiterführende Aktivitäten mit einem veränderten Fokus notwendig. Zu diesem Zweck wurde am Ende des Projektes ein halbtägiger Innovationsworkshop durchgeführt. (c) Generieren von Produktinnovationen mit TRIZ Das Ziel des Workshops bestand darin, unter Anwendung von einfachen intuitvkreativen Techniken aus dem Bereich TRIZ konkrete Produktinnovationen zu generieren. Nach einer kurzen Einführung zur widerspruchsorientierten Problemlösungstechnik wurde die Antizipierende Fehlererkennung (AFE) als zielführendes Werkzeug ausgewählt. Es bezieht sich auf drei von vier TRIZ-Säulen: Systematik, Analogie und Wissen (siehe Abb. Abb. 5-2). Auf der Basis von AFE soll ein kreativer Verständnis- und Lern-Prozess in Gang gesetzt werden (vgl. Herb 2003, S. 1ff.), bei dem die folgende Frage im Mittelpunkt steht: „Was muss getan werden, um das System/ Produkt zum Versagen zu bringen?“. Um System-/ Produktinnovationen zu generieren, wird – entsprechend der TRIZ-Philosophie – der Konflikt bewusst erzeugt und soweit wie möglich verstärkt (vgl. Abschnitt 5.1.2), d.h. man legt die Konstruktion so aus, dass eine
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
329
Fehlfunktion unausweichlich wird. Die Lösung des Ausgangsproblems/ -konflikts erfolgt nicht auf direktem Weg, sondern zunächst über die Lösung des invertierten Problems. Der Prozess läuft in sechs Schritten ab, die wie folgt am Beispiel Straßenbesen nachvollzogen werden können: (1) Problem beschreiben: Straßen- und Gehwegflächen, die rund ums Haus zu kehren sind, sind i.d.R. unterschiedlich stark verschmutzt. An manchen Stellen befindet sich viel Dreck, an anderen nur wenig. Außerdem weichen Korngröße und -beschaffenheit stark voneinander ab, so dass mehrere Kehrvorgänge notwendig sind, um alle Abschnitte gründlich zu reinigen. (2) Problem umkehren: Der Straßendreck/ -schmutz ist nach Korngröße und -beschaffenheit sortiert und jeweils gleichmäßig auf der zu reinigenden Fläche verteilt. Die Kehrfläche kann in mehrere Abschnitte unterteilt werden, auf der sich jeweils nur eine bestimmte Art und Menge von Dreck befindet. (3) Problemumkehrung verstärken: Der Dreck, der sich auf den einzelnen Flächenabschnitten befindet, ist hinsichtlich Art und Größe standardisiert und normiert. Die „Verschmutzung“ lässt sich bei Bedarf genau in der vorgegebenen Weise wiederherstellen. Zu diesem Zweck wird das Kehrgut in abgepackten Mengen – nach gewünschter Spezifika – zur Verfügung gestellt. (4) Umgekehrtes Problem lösen: In Abhängigkeit von Korngröße und -beschaffenheit des Straßendrecks wird jeder Abschnitt mit einem „passenden“ Besen gereinigt. „Passend“ bezieht sich in diesem Zusammenhang vor allem auf die gewählte Materialsorte, z.B. Elaston zum Beseitigen von Grobschmutz und Naturhaar zum Beseitigen von Feinschmutz. Allgemein gilt: Das verwendete Material sollte umso stärker sein, je grobkörniger der Dreck ist. (5) Lösung wieder umkehren: Es werden mehrere Besen mit unterschiedlichem Besteckmaterial (Borstenbündel und -stärke) aneinander gereiht. Durch die Kombination ist es möglich, Flächenabschnitte, die mit unterschiedlich grobkörnigem Material verschmutzt sind, mit einem Besenzug zu reinigen. (6) Endgültige Lösung finden: Die Innovation besteht darin, einen Besen zu konstruieren, der mit unterschiedlichem Material (z.B. Elaston und Naturhaar) bestückt ist. Die Anordnung der Materialien ist reihenweise, und zwar beginnend mit dem gröbsten Material an der Vorderseite des Holzkörpers. An der Rückseite befindet sich das Material mit den feinsten Haaren. Im Ergebnis dieser Analyse wurde ein erster Prototyp mit zwei Materialsorten – Elaston und Kokos – entwickelt. Beim Test der Kehreigenschaften stellte sich heraus, dass der hybride Besen eine höhere Fitness besitzt als die beiden originären Besenvarianten mit nur einer Materialsorte. Für den Besen (Elaston-Kokos, 50 cm, 6 Reihen), der auf den Besen mit der Nr. 2 und Nr. 4 in der Ausgangspopulation basiert, ergibt sich ein Degressionsfaktor b von -1,64 bzw. ein Fitnesswert von 1,64. Letzterer liegt um 7% bzw. 13% höher als der Wert, der bei den vorstehend genannten Varianten ermittelt wurde (siehe Abb. 5-41).
330
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
Für den Kunden resultieren aus der Kombination von zwei Materialsorten gleich zwei Vorteile: Zum einen erfährt er einen höheren Produktnutzen aufgrund der besseren Kehrwirkung des Besens. Zum anderen kommt er in den „Genuss“ eines Preisvorteils, wenn – wie im Fall des Besens mit der Nr. 2 – ein Teil des höherwertigen Materials (Elaston) durch ein geringwertigeres Material (Kokos) substituierbar ist und die Kosteneinsparungen für das Unternehmen – zumindest teilweise – an den Kunden weitergegeben werden. Die Verwendung von mehr als zwei Materialsorten in einem Besen ist aufgrund von technologischen Beschränkungen zum gegenwärtigen Zeitpunkt nicht möglich. Als Alternative bietet sich die Verwendung von Mischungen an, wie es z.B. bei den Besen mit der Nr. 3 und Nr. 6 in der Ausgangspopulation der Fall ist. Hier werden die Sorten Arenga (relativ dünn und flexibel) und Elaston (relativ dick und starr) als Mischung in den Holz-/ Plastekörper eingebracht.64 Der hybride Besen stellt sozusagen eine Produktinnovation dar, die im Weiteren zu optimieren ist. Analog zum Papier-Rotor in Abschnitt 5.3.1 lässt sich ein 2. Verbesserungszyklus65 mit einem leicht veränderten Lösungsraum unmittelbar anschließen. Für die Einbeziehung von zwei Materialsorten – mit jeweils 8 Merkmalsausprägungen – ist der bis dato verwendete Bit-Code um 3 Stellen zu erweitern. Die Chromosomengröße erhöht sich damit auf insgesamt 22 Bit-Stellen. Dabei wird davon ausgegangen, dass das Mengenverhältnis der zwei Materialsorten bei allen Besenvarianten konstant ist. Soll dies nicht der Fall sein, dann ist eine zusätzliche Merkmalsvariable einzuführen, in der das Verhältnis festgelegt wird, z.B. auf der Basis der Anzahl von Bündeln je Sorte. Die Größe des Bit-Codes steigt entsprechend der gewählten Auflösung in diesem Merkmal. Zwischenfazit: Die hohe Effektivität der deduktiv abgeleiteten Vorgehensmodelle – DMAIDV- und IESRM-Zyklus – kann auch anhand des zweiten Anwendungsbeispiels gut belegt werden. Ihre Wirksamkeit äußert sich in den Dimensionen Qualität und Innovation, die vor allem im Rahmen des Produktentstehungsprozesses (PEP) relevant sind. Im Hinblick auf die Beurteilung der Effizienz der abgeleiteten Vorgehensmodelle ist das Ergebnis differenzierter zu bewerten. Hierzu wird abschließend, anhand der explorativen Untersuchungen, eine Gegenüberstellung von DMADV-, DMAIDV- und IESRM-Zyklus vorgenommen; sie basiert auf der Grundlage von monetären und nicht-monetären Kriterien (siehe Abb. 5-47), deren Ausprägungen gleichzeitig die Anwendungsvoraussetzungen für den wirkungsvollen Einsatz der drei Problemlösungszyklen beschreiben. 64
65
Besen dieser Art werden z.B. von der Berliner Stadtreinigung genutzt. Nach Auskunft des Unternehmens EBF erfreuen sie sich immer größerer Beliebtheit, vor allem im gewerblichen Bereich. Ein 2. Verbesserungszyklus, bei dem insgesamt 10 Merkmale berücksichtigt werden, befand sich zum Ende dieses Projektes in Planung. Im Hinblick auf die Entwicklung der Fitness wird erwartet, dass die S-Kurve deutlich oberhalb der Kurve aus dem 1. Zyklus zum Liegen kommt.
5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle
PM-Zyklus
DMADV
DMAIDV
IESRM
2.500 € (5 Tage)
3.500 € (7 Tage)
1.500 € (3 Tage)
Projektkosten (1.500 € / Tag)
7.500 € (5 WS-Tage)
9.000 € (6 WS-Tage)
7.500 € (5 WS-Tage)
Kosten für Schulung mit Projekt
10.000 € / MA
12.500 € / MA
9.000 € / MA
Mittel QFD, DOE
Hoch QFD, DOE, TRIZ
Mittel EA, GA
SoftwareAnwendung
Mittel z.B. Minitab, Excel
Hoch Minitab, Excel, I-TRIZ
Gering Excel
PrototypenErstellung
Mittel 2k-q-Designs
Mittel 2k-q-Designs
Hoch n Generationen
331
Monetäre Kriterien Schulungskosten (500 € / Tag)
Nicht-monetäre Kriterien Methoden-Knowhow
Quelle: Eigene Darstellung
Abb. 5-47: Gegenüberstellung von DMADV-, DMAIDV- und IESRM-Zyklus
Für die monetäre Bewertung der Vorteilhaftigkeit von DMADV-, DMAIDV- und IESRM-Zyklus ist eine Kostenvergleichrechnung66 durchgeführt worden. Dabei wird von folgendem Szenario ausgegangen: Ein Mitarbeiter, der bereits eine 2wöchige Green Belt-Ausbildung absolviert hat und über verschiedene Projekterfahrungen verfügt, soll ein Six Sigma-Projekt im F&E-Bereich durchführen. Prozessablauf und Methodeneinsatz sind nach einem der o.g. Problemlösungszyklen zu gestalten. Die notwendige Trainingsmaßnahme erfolgt im Zuge der Projektbearbeitung, wobei ein Coaching durch einen erfahrenen (Master) Black Belt stattfindet. Bei der Ermittlung der Schulungskosten wird von einem qualifizierenden Black Belt-Training von 2 Wochen ausgegangen; die Teilnahmegebühr hierfür beläuft sich auf ca. 5.000 €, d.h. 500 € pro Tag und Teilnehmer. Für die Schulung des DMADV-Zyklus sind – je nach Kenntnisstand der Teilnehmer – mind. 5 Tage zu veranschlagen. Für eine fundierte TRIZ-Ausbildung im Rahmen des erweiterten DMAIDV-Zyklus sind zusätzlich mind. 2 Tage einzuplanen. Die praxisnahe Vermittlung der Inhalte des IESRM-Zyklus erfordert ca. 3 Tage. Pro Phase wird üblicherweise ein 1-tägiger Workshop (WS) durchgeführt, bei dem die phasenspezifischen Ergebnisse sowie das weitere Vorgehen gemein66
Für die Ermittlung der Vorteilhaftigkeit wird hier davon ausgegangen, dass die Anwendung der Problemlösungszyklen ergebnisneutral ist, d.h. die drei Vorgehensmodelle führen jeweils zum gleichen Produkt-/ Prozessergebnis mit demselben Gewinn. Bei den verwendeten Kostensätzen handelt es sich um Durchschnittswerte von einschlägigen Six Sigma-Beratungsunternehmen, z.B. M+M Consulting GmbH, Kassel, und Vorest AG, Pforzheim.
332
5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell
sam mit dem Coach (als Moderator) geplant und durchgesprochen werden. Der Tagessatz für einen Six Sigma-Coach liegt bei mind. 1.500 €.67 Unter diesen Voraussetzungen belaufen sich die Kosten für Schulung mit integriertem Projekt von max. 6-monatiger Dauer auf 10.000 € pro Mitarbeiter bei einem „klassischen“ DFSS-Projekt, das nach dem DMADV-Zyklus durchgeführt wird. Aufgrund der zusätzlichen Phase „Innovate“ sind die Kosten pro Mitarbeiter bei der zweiten Variante auf Basis des DMAIDV-Zyklus etwas höher und liegen bei 12.500 €. Wie in Abb. 5-47 aufgeführt ist, zieht die Durchführung eines Pilotprojektes nach dem IESRM-Zyklus tendenziell weniger Kosten pro Mitarbeiter nach sich; sie betragen ca. 9.000 €. Sowohl beim DMAIDV- als auch IESRMZyklus handelt es sich um eine erste qualifizierte Schätzung, die im Rahmen von (umfangreicheren) empirischen Untersuchungen zu überprüfen ist. Zur Festlegung der Ausprägungen bei den nicht-monetären Kriterien dient der DMADV-Zyklus als Vergleichsmaßstab. Die Kriterien umfassen zum einen das Methoden-Know-how, z.B. in Statistik, welches für die zielführende Umsetzung des jeweiligen Problemlösungszyklus erforderlich ist. Zum anderen stellt der Einsatz von IT & Software ein wichtiges Effizienzkriterium dar. Bei beiden Kriterien ist das Anforderungsniveau, welches beim DMAIDV-Zyklus zugrunde gelegt wird, relativ hoch. Neben der Durchführung von statistischen Analysen, z.B. auf der Basis von Minitab und Excel, sind hier spezielle TRIZ-Applikationen mit/ ohne Software-Unterstützung notwendig, z.B. I-TRIZ. Darüber hinaus ist als drittes Kriterium der Aufwand zu berücksichtigen, der sich aus der Erstellung von Prototypen und der Durchführung von Versuchen ergibt. Dieser ist beim IESRMZyklus vergleichsweise hoch, da hier eine systematische Reduktion von Versuchsanordnungen, wie sie z.B. bei DOE der Fall ist, nicht verfolgt wird.
67
Reisekosten und Spesen bleiben aufgrund ihrer individuellen Höhe bei der Kalkulation der Projekt- sowie Schulungskosten unberücksichtigt. Auch werden – im Sinne der Net Benefit-Berechnung bei Six Sigma-Projekten (vgl. Abschnitt 2.2.3) – keine Opportunitätskosten berücksichtigt, z.B. Ausfallszeiten der Mitarbeiter im Tagesgeschäft aufgrund von Schulungsmaßnahmen oder Projektaktivitäten.
6
Zusammenfassung, Schlussfolgerungen und Ausblick
Die Debatte, um den Aufwand und Nutzen von Six Sigma, hat sich in den vergangenen Jahren deutlich zugespitzt. Verschiedene Experten kommen heute zu dem Schluss, dass Six Sigma nicht länger ausreicht, um die hohen Erwartungen der Anleger und Investoren zu erfüllen. Diese beziehen sich vor allem auf die zu erwartenden Wachstumsraten eines Unternehmens. Eine kontinuierliche Gewinnzunahme über mehrere Jahre, die aus systematischen Prozessverbesserungen resultiert, ist häufig nicht genug. Aus diesem Grund sind die einschlägig bekannten Six Sigma-Unternehmen wie General Electric und Motorola unter Zugzwang. Zum einen geht es ihnen darum, die Effizienz ihrer Six Sigma-Aktivitäten zu erhöhen, z.B. durch eine stärkere Berücksichtigung des Lean-Gedankens. Zum anderen steht die Frage nach der Erhöhung der Effektivität von Six Sigma im F&E-Bereich im Raum. Um Umsatzsteigerungen zu erzielen, sind neue Produkte erforderlich, die in immer kürzeren Zeitabständen auf den Markt gebracht werden und die Bedürfnisse/ Anforderungen der Kunden bestmöglich erfüllen. Durch die Berücksichtigung der Six Sigma-Philosophie im Produktentstehungsprozess (PEP) soll bereits von Produktionsstart an 6σ-Qualität, d.h. 99,99966% Fehlerfreiheit, erreicht werden.1 Um F&E-Projekte möglichst ergebnisorientiert steuern und durchführen zu können, wurden in der Vergangenheit eine Reihe von phasenorientierten Vorgehensmodellen entwickelt, z.B. DMADV, DMEDI und DCCDI (vgl. Simon 2002). Heute konkretisiert sich die projektorientierte Ausrichtung von Six Sigma in zwei standardisierten Problemlösungszyklen, nämlich dem DMAIC-Zyklus als prozessbezogenes Six Sigma mit den fünf Phasen Define (D), Measure (M), Analyse (A), Improve (I) und Control (C) sowie dem DMADVZyklus als entwicklungsbezogenes Six Sigma mit den fünf Phasen Define (D), Measure (M), Analyse (A), Design (D) und Verify (V). Die Anwendung des Managementkonzepts Six Sigma im F&E-Bereich ist unter dem Begriff Design for Six Sigma (DFSS) bekannt. Es stellt – bildlich gesprochen – einen „Blick durch die Frontscheibe“ dar, da hier zukünftig wichtige Kundenanforderungen ermittelt und erfüllt werden (vgl. Töpfer/ Günther 2007a). Demgegenüber ermöglicht das prozessbezogene Six Sigma auf der Basis des DMAICZyklus einen „Blick durch den Rückspiegel“. Ziel ist es, den aktuellen Wertschöpfungsprozess im Hinblick auf eine höhere Kundenzufriedenheit/ -bindung sowie eine effizientere Aufbau-/ Ablauforganisation in kurzer Zeit signifikant zu verbessern. DMAIC-Projekte besitzen erfahrungsgemäß eine Dauer von 3 bis 6 Monaten; in diesem Zeitraum werden Netto-Einsparungen (Net Benefit) von mehr als 50.000 € erzielt. Aufgrund der Zurechnungs-/ Messproblematik liegen für die Durchführung von DMADV-Projekten keine entsprechenden Zahlen vor.
1
6σ ist eine statistische Kennzahl und steht für 3,4 Fehler pro 1 Mio. Fehlermöglichkeiten (DPMO – Defects per Million Opportunities), welches auch als praktikables Niveau für Null-Fehler-Qualität bezeichnet wird (vgl. Töpfer/ Günther 2007a).
334
6 Zusammenfassung, Schlussfolgerungen und Ausblick
Die Konzeption und Inhalte der Six Sigma-Problemlösungszyklen sind das Ergebnis von unternehmensbezogenen Forschungs- und Entwicklungsaktivitäten: So ist der DMAIC-Zyklus, basierend auf dem PDCA-Zyklus, bei Motorola Ende der 1980er Jahre entstanden; der DMADV-Zyklus geht maßgeblich auf General Electric Mitte der 1990er Jahre zurück. Beide Unternehmen realisierten mit dem Einsatz von Six Sigma zur Optimierung von bestehenden Produkten und Prozessen Netto-Einsparungen von mehreren 100 Mio. € p.a. Die strukturellen und prozessualen Veränderungen, die durch den Einsatz des DMADV-Zyklus erzielt werden, sind in Ausmaß und Reichweite i.d.R. deutlich größer als beim DMAIC-Zyklus. Jedoch zeigt sich gleichzeitig, dass die Umsetzung von DFSS häufig mit mehr Schwierigkeiten verbunden ist, als ursprünglich geplant, und zudem die Chancen eines erfolgreichen Projektabschlusses deutlich geringer sind. Aus heutiger Sicht hat sich der DMADV-Zyklus gegenüber dem DMAIC-Zyklus nicht bewährt. Obwohl viele Unternehmen die Bedeutung von Null-FehlerQualität im F&E-Bereich erkannt haben, läuft die konkrete Umsetzung von DFSS häufig ins Leere (vgl. Hammer 2002). Das Realisationsverhältnis von DMAIC- zu DMADV-Projekten wird von Experten auf bis zu 20 zu 1 geschätzt, d.h. auf 1 durchgeführtes DFSS-Projekt kommen ca. 20 „klassische“ Six Sigma-Projekte nach dem DMAIC-Zyklus. Die Anzahl von Dokumentationen/ Berichten über erfolgreiche DMADV-Projektanwendungen ist entsprechend gering. Gleichzeitig werden für die Bereiche Konstruktion/ Entwicklung sowie Service/ Vertrieb Defizite in der Anwendung von (Design for) Six Sigma ausgemacht. Der Methodeneinsatz ist gegenüber dem DMAIC-Zyklus weniger stark standardisiert, so dass sich der Vergleich von DFSS-Projekten i.A. schwierig(er) gestaltet. Zielverfehlungen im PEP äußern sich unmittelbar in Produktflops. Sie resultieren in erster Linie aus der Anforderung, alle zukünftigen wesentlichen Kundenanforderungen (CTQs) zu erkennen und durch die Umsetzung in wettbewerbsfähige Produkte/ Prozesse zu erfüllen. Vor diesem Hintergrund bedeutet 6σ als praktizierte Null-Fehler-Qualität im F&E-Bereich vor allem eins: „Die richtigen Dinge tun“. Dabei sind im Gegensatz zur Verbesserung von bestehenden Prozessen die CTQs als Zielwerte der Optimierung weniger klar vom Kunden kommuniziert und von Unternehmensseite generell schwieriger zu ermitteln. Hinzu kommt die Anforderung, möglichst viele Produkt- und Prozessinnovation zu generieren, um die Wettbewerbsfähigkeit in der Zukunft zu sichern. Der Qualitätssicherungsaspekt, Produkte nach vorgegeben Spezifikationen fehlerfrei zu fertigen, um Verluste zu minimieren, kommt erst an zweiter Stelle. Dies hat in jüngster Vergangenheit auch das „Six Sigma-Vorreiterunternehmen“ General Electric2 erkannt.
2
Unter dem CEO, Jeffrey Immelt, der seit 2000 bei GE im Amt ist, wurde das Ziel ausgegeben, 8% organisches Wachstum durch eigene, kundengetriebene Innovationen zu erreichen. Ein Ergebnis dieser Innovationsstrategie ist das Programm „Ecomagination“, im Rahmen dessen GE im Jahresrythmus neue, umweltfreundliche Technologien entwickeln und auf den Markt bringen will (vgl. Brady 2006, S. 60ff.).
6 Zusammenfassung, Schlussfolgerungen und Ausblick
335
Effektive Vorgehensmodelle der Produktentwicklung zeichnen sich dadurch aus, dass sie Kreativität und Systematik optimal verbinden (vgl. Günther 2004). Im Fall des DMADV-Zyklus ist diese Optimalität noch nicht gefunden; die einzelnen Phasen sind – bis auf die Design-Phase – durch ein stark analytisches Vorgehen geprägt. Dieses wird i.d.R. durch einen gezielten Methodeneinsatz gefördert, z.B. unterstützt der Einsatz der Fehler-Möglichkeits- und Einfluss-Analyse (FMEA) das systematische Aufdecken von Fehlern im Prozess und/ oder am Produkt. Die phasenspezifische Anwendung von Instrumenten und Methoden entscheidet letztendlich darüber, wie effizient der PEP abläuft. Im Fall des DMADV-Zyklus sind einschlägig bekannte QM-Methoden den einzelnen Phasen fest zugeordnet, z.B. statistische Testverfahren in der Analyse-Phase, so dass alles in allem von einer relativ hohen Effizienz ausgegangen werden kann. In der einschlägigen Literatur sind im Laufe der Zeit eine Reihe von Alternativ-/ Verbesserungsvorschlägen zum DMADV-Zyklus vorgestellt und analysiert worden. Sie sollen es erlauben, die übergeordneten Ziele im PEP – ein innovatives und gleichzeitig robustes Design zu erzeugen – besser zu erreichen. Die Vorschläge gehen i.d.R. auf in Six Sigma spezialisierte Consulting-Unternehmen zurück, welche die prozess- und/ oder methodenbezogenen Veränderungen auf der Basis ihrer häufig mehrjährigen Anwendungserfahrungen begründen (vgl. George 2003). Aus Beratersicht handelt es sich um Best practice-Konzepte, mit denen sich i.A. ein breites Spektrum von Praxisproblemen effizient lösen lässt. Ziel der vorliegenden Arbeit ist es, einen effektiveren DFSS-Problemlösungszyklus aus wissenschaftlicher Sicht zu entwickeln.3 Zu diesem Zweck werden fünf forschungsleitende Fragen in den Mittelpunkt der Analyse gestellt (vgl. Abschnitt 1.2.3). Auf diese beziehen sich die acht Hypothesen, die als vermutete UrsachenWirkungsbeziehungen das Kernelement des wissenschaftlichen Erklärungs- und Prognoserahmens (Theoriegebäude) bilden; sie sind in Abb. 6-1 aufgeführt. Wie leicht nachvollziehbar ist, bauen die Hypothesen inhaltlich aufeinander auf und stehen insgesamt in einem logisch-deduktiven Verhältnis zueinander (siehe auch Abb. 1-9).4 Nach wissenschaftlichen Maßstäben sind sie im Erkenntnisprozess nicht falsifiziert worden und geben damit einen vorläufig gesicherten Wissensbestand wider (vgl. Chalmers 1999, S. 59ff.). Dieser bezieht sich unmittelbar auf den Titel der vorliegenden Dissertation: „Kundenorientierte Produktentwicklung mit evolutionären Algorithmen im Rahmen des DFSS-Zyklus“. 3
4
Der Beitrag der Wissenschaft zur Verbesserung/ Weiterentwicklung von Six Sigma und DFSS bezog sich in der Vergangenheit vor allem auf organisationsbezogene Fragestellungen, z.B. Anwendung der Principal-Agent-Theorie bei der Auswahl von Six SigmaProjekten und Analyse des Anreiz-Beitrags-Gleichgewichts (vgl. Töpfer 2007). Ein deduktives System konstituiert sich aus einem Set von (a) bestimmten und/ oder unbestimmten Konzepten, (b) spekulativen Vermutungen und/ oder plausiblen Annahmen, (c) abgeleiteten Gesetzmäßigkeiten in Form falsifizierbarer Hypothesen sowie (d) unterstützenden empirischen Fakten (vgl. Ackoff et al. 1962, S. 22).
336
6 Zusammenfassung, Schlussfolgerungen und Ausblick
Plausibilität
Nr.
Hypothese
Art
Empirische Belege
H1
Wenn bei der Entwicklung von neuen Produkten/ Prozessen neben der Erzeugung von Null-Fehler-Qualität i.S.v. „robusten Produkten“ die Generierung von Innovation als weitere Zielgröße hinzukommt, dann sind durch Unternehmen die wesentlichen zukünftigen Kundenanforderungen (CTQs), die als Ausgangspunkt für die gezielte Ableitung von Produkt-/ Prozessmerkmalen dienen, überhaupt nicht oder nur unvollständig zu ermitteln.
W
Ja - Sekundärquellen (Abgeleitete Ergebnisse basierend auf Feldstudien)
Hoch
H2
Wenn die wesentlichen zukünftigen Kundenanforderungen als Zielwerte der Optimierung im Produktentstehungsprozesses (PEP) (a) nicht oder nur teilweise bekannt und/ oder (b) widersprüchlicher/ konfliktärer Natur sind, dann führen die in praxi bisher verwendeten Vorgehensmodelle/ Problemlösungszyklen zur Generierung von Null-Fehler-Qualität, z.B. DMADV-Zyklus von Design for Six Sigma (DFSS), nicht zum gewünschten Erfolg, nämlich robuste und innovative Produkte/ Prozesse hervorzubringen.
W
Ja - Sekundärquellen (Abgeleitete Ergebnisse basierend auf Feldstudien)
Mittel
H3
Wenn Problemlösungszyklen, die im Rahmen des PEP zum Einsatz kommen, in der Weise modifiziert werden, dass sie ein ausgewogenes Verhältnis von systematisch-analytischen und intuitiv-kreativen Prozessen/ Arbeitsschritten besitzen, dann führt ihre strukturierte Anwendung zu robusten und innovativen Produkt-/ Prozessdesigns.
W
Ja - Inhaltsanalyse (Qualitativ, selektiv, Eigene Untersuchung)
Mittel
H4
Wenn Unternehmen, welche DFSS im PEP anwenden, widerspruchsorientierte Innovations-Methoden in den Standard-Problemlösungszyklus integrieren, dann wird hierdurch (a) eine höhere Ausgewogenheit von systematisch-analytischen und intuitiv-kreativen Prozessen/ Arbeitsschritten erreicht und (b) ein höherer Zielerreichungsgrad von Projekten aufgrund der Erzeugung robuster und innovativer Produkt-/ Prozessdesigns.
U
Ja - Primärquellen (Quantitativ, explorativ, Eigene Untersuchung)
Hoch
H5
Wenn Vorgehensmodelle/ Problemlösungszyklen als Realobjekte von Managementkonzepten – ausgehend von ihren Teilaufgaben/ -zielen – auf abstrakter Ebene als Denkobjekte rekonstruiert werden, dann führt die theoriebasierte Suche nach Modellverbesserungen zu radikalen Neuerungen, die wissenschaftlichen Effizienzkriterien genügen.
W
Ja - Sekundärquellen (Abgeleitete Ergebnisse basierend auf Fallstudien)
Mittel
H6
Wenn reale Vorgehensmodelle/ Problemlösungszyklen nach wissenschaftlichen Effizienzkriterien zu beurteilen und – entsprechend der Aufgabenstellung – zu verbessern sind, dann sind die Transformation und der Vergleich mit mathematischen Algorithmen zur Optimierung einer einfachen Zielfunktion ein probates Mittel zur Erkenntnisgewinnung.
W
Ja - Meta-Analyse (Qualitativ, explorativ, Eigene Untersuchung)
Hoch
H7
Wenn der bei der mathematischen Optimierungsrechnung verwendete Evolutionäre Algorithmus (EA) in Form eines konkreten Problemlösungszyklus mit eindeutigem Phasenablauf und strukturiertem Methodeneinsatz operationalisiert wird, dann führt dessen Anwendung im Rahmen von DFSS zu Produkten/ Prozessen, die (a) eine maximale Übereinstimmung (Fit) mit den – explizit oder implizit – formulierten Kundenanforderungen aufweisen und (b) den mit dem Standard-Problemlösungszyklus (DMADV) gewonnenen Produkt-/ Prozessergebnissen klar überlegen sind.
U
Ja - Primärquellen (Quantitativ, explorativ, Eigene Untersuchung)
Hoch
H8
Wenn Unternehmen die Leistungsfähigkeit (Fitness) ihrer Produkte/ Prozesse mithilfe von Vorgehensmodellen, die sich am Vorbild Evolutionärer Algorithmen orientieren, optimieren, dann entwickelt sich die Zielgröße (a) endogen entsprechend der aus dem Technologiemanagement bekannten „S-Kurve“, also erst steigende und dann fallende Innovationserträge, und (b) zufällig aufgrund des Auftretens von Mutationen auf der Merkmalsebene, was systemimmanente (Technologie-)Sprünge nach sich zieht.
W
Ja - Primärquellen (Quantitativ, explorativ, Eigene Untersuchung)
Hoch
Quelle: Eigene Darstellung
Legende: W ... Wirkungshypothese U ... Unterschiedshypothese
Abb. 6-1: Übersicht der Hypothesen und empirische Belege
6 Zusammenfassung, Schlussfolgerungen und Ausblick
337
Da der Forschungsansatz zu überwiegenden Teilen exploratorisch-instrumenteller Natur (EI-Design) ist, sind in der letzten Spalte der Tabelle Plausibilitätseinstufungen zu den einzelnen Hypothesen vorgenommen worden. Sie sind ein Indikator für den Härtegrad bzw. die Belastbarkeit der Hypothesen im Hinblick auf ihren Aussagewert/ -gehalt und damit ihrem „Schutz“ vor Verwerfung bzw. Falsifikation. Für den Forschungsprozess bedeutet dies, dass – vor allem bei gering plausiblen Aussagen (Hypothesen) – weiterführende empirische Untersuchungen erforderlich sind, um den allgemeinen Geltungsanspruch in der Praxis zu bestätigen. Idealerweise knüpft hier ein konfirmatorisch-instrumentelles Forschungsdesign (KI-Design) an, mit dem eine systematische Überprüfung der entwickelten Konzepte und Modelle durchgeführt wird (vgl. Töpfer 2009, S. 126). Der Struktur nach sind alle Hypothesen positivistisch formuliert, d.h. das, was im Forschungsprozess bestätigt bzw. nicht falsifiziert werden soll, ist in der Wenndann-Aussage textlich verankert. Des Weiteren handelt es sich mehrheitlich um quasi-nomologische Wirkungshypothesen, also gerichtete Zusammenhangsaussagen mit räumlich und zeitlich begrenzter Gültigkeit. Wie in Abb. 6-1 gekennzeichnet, besitzen lediglich die Hypothesen 4 und 7 Unterschiedscharakter. Hierbei geht es jeweils um das Herausstellen der ökonomischen Vorteile der neu entwickelten und theoretisch fundierten Vorgehensmodelle/ Problemlösungszyklen (DMAIDV, IESRM) im Rahmen von Design for Six Sigma. Wie ist der Weg zu diesen konkreten Handlungs-/ Gestaltungsempfehlungen? Der Forschungsprozess basiert im Wesentlichen auf einem induktiv-deduktivinduktiven Wissenschaftsverständnis, wobei die o.g. Effizienz-/ Effektivitätsprobleme des DMADV-Zyklus den praxisbezogenen Ausgangspunkt der Arbeit bilden. Im wissenschaftlichen Analyseprozess wird der Methodenlehre des Kritischen Rationalismus nach KARL R. POPPER (1969) gefolgt. Sie umfasst zum einen ein zweigeteiltes Erkenntnisziel, im Rahmen dessen Erklärungs- und Prognosemuster für die empirisch festgestellten Zielsetzungen in der Unternehmenspraxis auf der Basis von Ursachen-Wirkungsbeziehungen herausgearbeitet werden, sowie zum anderen ein Gestaltungsziel, welches konkrete Hilfestellungen zum zweckrationalen Gestalten und Einsetzen von Mitteln/ Maßnahmen bereithält, um vorgegebene Zwecke/ Ziele zu erreichen (vgl. Töpfer 2007a, S. 40f.). Beide Zielsetzungen werden bei der Bearbeitung des Themas hinreichend berücksichtigt. Nach Hypothese 6 in Abb. 6-1 besteht die wissenschaftliche Herangehensweise zum Auffinden eines verbesserten DFSS-Vorgehensmodells darin, die verwendeten Problemlösungszyklen als Realobjekte – ausgehend von ihren Teilaufgaben/ -zielen – auf abstrakter Ebene als Denkobjekte zu rekonstruieren. Zu diesem Zweck sind die Mittel-Zweck-Relationen auf der Realitätsebene zu erkennen und in Ursachen-Wirkungsbeziehungen auf der Abstraktionsebene zu überführen. Durch diese induktiv begründete Praxis-Theorie-Transformation lassen sich neue Einblicke in die Wirkungsweise der Problemlösungszyklen generieren. Im vorliegenden Fall wurde die Vorgehensweise der realen Vorgehensmodelle – DMAIC-
338
6 Zusammenfassung, Schlussfolgerungen und Ausblick
und DMADV-Zyklus – auf die Lösung mathematischer Optimierungsprobleme übertragen und im Weiteren bzgl. ihrer Zielerreichung analysiert. Bei der mathematischen Optimierungsrechnung geht es vordergründig um das Auffinden des globalen Optimums einer analytisch oder numerisch gegebenen Zielfunktion des Typs y = f(x). In Abhängigkeit von der Art der zu lösenden Problemstellung (restringiert, unrestringiert) sowie den Eigenschaften der zu optimierenden Zielfunktion (stetig, diskret) ergeben sich eine Vielzahl von infrage kommenden Lösungsalgorithmen. Bei schwierig zu lösenden Optimierungsproblemen kommen heute verstärkt Heuristiken zum Einsatz. Sie zeichnen sich gegenüber exakten Lösungsverfahren durch eine schnelle Lösungsfindung aus, wobei jedoch die Optimalität der gefundenen Lösung i.d.R. nicht garantiert wird. Zur Programmierung der Heuristiken werden nicht selten Anleihen aus der Natur genommen, z.B. evolutionäre Entwicklung von Pflanzen- und Tierarten. Den Ausgangspunkt der Analyse bildete in der Dissertation die (Quasi)-NewtonVerfahren sowie die Lokalen Suchverfahren, welche beide den klassischen Verfahren der mathematischen Optimierung zugeordnet werden können. Ein Vergleich der prinzipiellen Vorgehensweisen dieser Algorithmen mit den o.g. Problemlösungszyklen verdeutlicht zum einen die Defizite existierender DFSS-Vorgehensmodelle. Hier ist vor allem das Fehlen von Prozessen/ Methoden zur systematischen Generierung von Innovationen zu nennen. Zum anderen lassen sich auf direktem Weg Verbesserungsvorschläge bezogen auf den bestehenden DMADV-Zyklus ableiten; diese betreffen die verstärkte Einbindung von intuitivkreativen Methoden/ Techniken vor bzw. in der Design-Phase. Als zweite Gruppe von mathematischen Optimierungsverfahren werden die evolutionären Verfahren näher analysiert. Sie bilden die Grundlage für einen alternativen, dem Vorgehen nach neuen Problemlösungszyklus im Rahmen von Design for Six Sigma. Aus der Theorie-Praxis-Transformation lassen sich – entsprechend einer deduktiv begründeten Vorgehensweise – zwei Vorgehensmodelle ableiten: Erstens wird der DMAIDV-Zyklus mit den sechs Phasen Define (D), Measure (M), Analyse (A), Innovate (I), Design (D) und Verify (V) abgeleitetet, bei dem die folgenden sechs Fragen nacheinander beantwortet werden: •
Define: Welche Produktlösung ist veraltet/ nicht mehr wettbewerbsfähig?
•
Measure: Was sind die wesentlichen zukünftigen Kundenanforderungen?
•
Analyse: Wie lassen sich die Kundenanforderungen bestmöglich erfüllen?
•
Innovate: Welche (technischen) Konflikte bestehen und lassen sich mithilfe von einschlägigen Methoden/ Werkzeugen innovativ lösen?
•
Design: Was sind die konkreten Gestaltungsmerkmale des Produktes?
•
Verify: Wie gut erfüllt das Produkt die Kundenanforderungen in praxi?
6 Zusammenfassung, Schlussfolgerungen und Ausblick
339
Der DMAIDV-Zyklus ist das Ergebnis eines Analogieschlusses von klassischen bzw. konventionellen mathematischen Optimierungsalgorithmen, z.B. Gradientenverfahren, auf praktische Problemlösungszyklen im Bereich des Qualitäts- und Innovationsmanagements. Grundlage ist das Vorhandensein einer Zielfunktion, in der (real) vorhandene und erkannte Ursachen-Wirkungsbeziehungen modelliert werden. Die klassischen Algorithmen bieten vor allem in wenig(er) komplexen Suchräumen die Möglichkeit einer schnellen Lösungsfindung. Diesem Vorteil steht der Nachteil gegenüber, dass die Exaktheit der Ergebnisse von der Art der Zielfunktion abhängig ist. So besteht bei Zielfunktionen, die über mehrere lokale Optima verfügen, die konkrete Gefahr, dass der Algorithmus auf einem suboptimalen Niveau „zum Liegen“ kommt. In der Mathematik sind zu diesem Zweck bestimmte Optimalitätsbedingungen, z.B. KKT-Bedingung, definiert. Die Erkenntnis, dass zum Auffinden des globalen Optimums u.U. mehrere lokale Optima zu überwinden sind, fließt in die praktische Gestaltung des erweiterten DMADV-Zyklus wie folgt ein: Bevor mit der Ausarbeitung eines in der AnalysePhase favorisierten Produktdesigns begonnen wird, ist die Optimalität der Lösung zu überprüfen. Dies geschieht in der Weise, dass in der Innovate-Phase gezielt nach Möglichkeiten für diskontinuierliche Verbesserungen gesucht wird. Den Ausgangspunkt hierfür bilden administrative, technische und/ oder physikalische Konflikte, deren Lösung i.d.R. zu Innovationen führt. Konkrete Hilfestellung zur Konfliktlösung bietet die TRIZ-Methodik, mit der es möglich ist, sprunghafte Veränderungen von Merkmalsausprägungen an bestehenden Produkten/ Prozessen hervorzurufen, die bis dahin für nicht realisierbar gehalten wurden. Die prozess- und methodenbezogenen Änderungen, die sich aus der Erweiterung des DMADV-Zyklus um die Phase Innovate (I) ergeben, sind eher marginaler Natur. Das Vorgehen orientiert sich primär an ARIZ, welches ein anerkanntes Ablaufschema im Rahmen der widerspruchsorientierten Problemlösungstechnik TRIZ ist. Letztere stellt den Kern der Innovate-Phase dar. Zweitens wird der IESRM-Zyklus mit den fünf Phasen Initialisierung (I), Evaluierung (E), Selektion (S), Rekombination (R) und Mutation (M) entwickelt. Die Konzeption und Inhalte der einzelnen Phasen lassen sich – auf aggregierter Ebene – durch die Beantwortung der folgenden Fragen kennzeichnen: •
Initialisierung: Was ist das Problem?/ Welche Produktlösungen existieren?
•
Evaluierung: Wie gut erfüllen die Lösungen die geg. Kundenanforderungen?
•
Selektion: An welchen Lösungsansätzen soll unbedingt festgehalten werden?
•
Rekombination: Wie können noch bessere Produktlösungen generiert werden?
•
Mutation: Welche zufälligen Merkmalsänderungen führen zum Optimum?
Mit dem IESRM-Zyklus ist eine prinzipiell andere Herangehensweise zur Lösung komplexer Probleme in der Unternehmenspraxis, speziell im Entwicklungsbereich, gegeben. Struktur und Ablauf des Problemlösungszyklus orientieren sich an
340
6 Zusammenfassung, Schlussfolgerungen und Ausblick
Genetischen Algorithmen (GA), wie sie zur Lösung schwieriger mathematischer Optimierungsprobleme genutzt werden: Statt eine einzelne Lösung schrittweise in Richtung Optimum zu verbessern, werden viele verschiedene Lösungen in einer Population zusammengefasst und simultan optimiert. Diese Strategie erweist sich bei der Lösung komplexer Probleme als sehr effektiv (vgl. Michalewicz/ Fogel 2000; Gen/ Cheng 1997; Goldberg 1989). GAs gehören zur Gruppe der stochastischen Such- bzw. Optimierungsverfahren, welche gegenüber konventionellen Algorithmen keine Restriktionen an die Zielfunktion stellen. Aus diesem Grund eignet sich ihr Einsatz vor allem in Situationen, in denen (a) das Problem nicht exakt (mathematisch) beschrieben werden kann, (b) die Komplexität sehr hoch ist (hochdimensionaler Suchraum), (c) die Umgebung dynamisch ist und wandernde Optima besitzt und (d) die Lösungsbewertung stochastischen Einflüssen unterliegt. Diese Problemlösungseigenschaften werden in dem 5-phasigen IESRM-Zyklus wie folgt konserviert: In der Initialisierungs-Phase geht es zunächst darum, das „richtige“ Kundenproblem zu fokussieren und durch z.T. mathematische Verfahren eindeutig zu beschreiben bzw. zu codieren. Ziel ist es im Weiteren, das nutzenmaximale Leistungsangebot aus Kundensicht durch mehrere Iterationen der folgenden vier Phasen zu generieren. In der Evaluations-Phase wird sichergestellt, dass die (Weiter-)Entwicklung der Lösungsideen in die „richtige” Richtung läuft. Zu diesem Zweck ist die Fitness der in der Population befindlichen Ideen zu bestimmen. Die durchschnittliche Fitness der Population, welche als Indikator für das erreichte Ziel-/ Nutzenniveau dient, wird durch das Durchlaufen der Phasen Selektion, Rekombination und Mutation schrittweise erhöht. Im Ergebnis liegt eine Population von Produktlösungen mit maximalen Fitnesswerten vor. Die ersten beiden Phasen des IESRM-Zyklus sind maßgeblich für eine hohe Effektivität des Problemlösungszyklus. Hier kommen zum überwiegenden Teil bekannte Verfahren des Qualitäts- und Innovationsmanagements zum Einsatz, z.B. Ishikawa-Diagramm. Die Konzeption und Inhalte der sich anschließenden Phasen orientieren sich relativ stark an den Standard-Vorgehensweisen zur GA-Programmierung. Die verwendeten Verfahren sind für den Anwendungsbereich (Design for) Six Sigma prinzipiell neu, z.B. Rangbasierte Selektion. DMAIDV- und IESRM-Zyklus sind rational begründete Vorgehensmodelle mit einem stringenten Methoden/ -Instrumenteneinsatz. Sie zeichnen sich gegenüber dem DMADV-Zyklus durch einen stärkeren Innovationsfokus aus. Ihre Effizienz und Effektivität wurde im Rahmen von zwei Fallstudien empirisch überprüft. Zum einen konnte in einem Laborexperiment die Flugzeit eines Papier-Rotors maximiert werden. Dabei zeigten sich z.T. bessere Ergebnisse als bei der Anwendung von Statistischer Versuchsplanung (DOE), die zum Standard-Toolset von Six Sigma zählt. Zum anderen wurden in einem unternehmensbezogenen Anwendungsbeispiel die Kehreigenschaften eines Straßenbesens optimiert. Im Ergebnis
6 Zusammenfassung, Schlussfolgerungen und Ausblick
341
konnte ein neues Besendesign entwickelt werden, welches die Anforderung eines Schüttgut-unabhängigen Einsatzes bestmöglich erfüllt. Die adaptierten Methoden aus dem GA-Toolset ließen sich leicht mit Standard-Software, z.B. Excel, realisieren und erwiesen sich alles in allem als sehr praktikabel. Während der DMAIDV-Zyklus bei der „Suche nach dem globalen Optimum“ auf radikale Neuerungen (Basisinnovationen) abstellt, zielt der IESRM-Zyklus primär auf inkrementelle Veränderungen (Veränderungsinnovationen) bestehender Lösungen ab. Die Zielsicherheit des Problemlösungszyklus beruht dabei auf der impliziten Anwendung von zwei grundlegenden evolutionären Prinzipien: Nach dem Prinzip der Risikominimierung wird durch die allmähliche Konvergenz der Lösungen innerhalb der Population das Risiko minimiert, das „falsche“ Optimum zu finden. Nach dem Prinzip der Risikostreuung gleichen sich die Fitnesswerte von guten und weniger guten Lösungskandidaten innerhalb der Population aus. Dadurch ist es möglich, den vorgegebenen Lösungsraum möglichst großflächig nach dem optimalen Design bzw. der idealen Lösung abzusuchen. Die durchschnittliche Fitness der Population entwickelt sich entsprechend einer S-Kurve. Wie die o.g. experimentellen Studien belegen, kommt es nach wenigen Iterationen zu einem sprunghaften Anstieg der geometrischen mittleren Fitness. Das klassische Vorgehen im Entwicklungsprozess entspricht dem „Filter- bzw. Trichterprinzip“. Dabei werden zunächst möglichst viele Designkonzepte als potenzielle Lösungen für das Kundenproblem erzeugt. Im anschließenden Evaluierungsprozess werden diese dann systematisch überprüft und schrittweise auf die beste Lösungsvariante reduziert. Dies geschieht vor dem Hintergrund des persönlichen, problemspezifischen Wissens der Projektbeteiligten. Der Grund, warum DFSS-Projekte immer wieder missglücken und nicht zum gewünschten Erfolg führen, liegt u.a. daran, dass der Vektor der psychologischen Trägheit nicht in Richtung der wahren, idealen Lösung zeigt und dadurch das Team von Anfang an in die falsche Richtung läuft (vgl. Löbmann 2003). Durch die Integration der Innovate-Phase in den DMADV-Zyklus wird dieses Phänomen insofern abgemildert, dass der Filter-/ Konzentrationsprozess noch einmal hinterfragt wird. Mit dem IESRM-Zyklus wird eine prinzipiell andere Herangehensweise gewählt, um die psychologische Trägheit zu umgehen. Der evolutionäre Problemlösungszyklus basiert nicht auf dem „Filter- bzw. Trichterprinzip“, sondern – bildlich gesprochen – auf dem „Cluster- bzw. Gruppenprinzip“. Ziel ist es, nicht ein einzelnes Produkt/ Leistungsangebot zu optimieren und zur Marktreife zu führen, sondern eine gesamte Population von potenziellen Lösungskandidaten. Dies erfolgt durch die Anwendung evolutionärer Operatoren. Produktvarianten, die relativ weit vom Optimum entfernt liegen, werden durch den Selektions-Operator herausgefiltert. Gleichzeitig werden Produktdesigns, die bereits eine relativ gute Anpassung an das angestrebte Endresultat aufweisen, zur Rekombination zugelassen. Die daraus hervorgehenden neuen Lösungskandidaten (Kindergeneration) besitzen im Mittel eine bessere Anpassung/ Annäherung an das Optimum als die der Ausgangspopulation (Elterngeneration). Durch den Mutations-Operator wird
342
6 Zusammenfassung, Schlussfolgerungen und Ausblick
verhindert, dass die Population in einem bestimmten Bereich des Suchraums „hängen“ bleibt und das ideale Endresultat dadurch verfehlt wird. Im Gegensatz zum DMAIDV-Zyklus liegen die Lösungen beim IESRM-Zyklus sowohl in codierter Form (Genotypebene) als auch in nicht-codierter Form (Phänotypebene) vor. Während die Evaluation und Selektion der Lösungen auf der Phänotypebene stattfinden, werden Rekombination und Mutation auf der Genotypebene durchgeführt. Durch diese Trennung lassen sich im Laufe des F&EProzesses völlig neue Lösungskandidaten erzeugen. Beim klassischen DFSS wird die Strategie der Lösungsrepräsentation auf unterschiedlichen Ebenen ebenfalls verfolgt. Das reale Produkt wird unter Anwendung von Computer Aided Design (CAD) im Computer zunächst modelliert. Anschließend werden Anwendungssituationen beschriebenen, für die gezielte Simulationen in der virtuellen Umgebung durchgeführt werden. Die Auswertung der Daten erfolgt mithilfe einschlägiger DFSS-Methoden (vgl. Finn 1999). Auf diese Weise praktiziert Motorola seit einigen Jahren ein sog. Digital Six Sigma im Entwicklungsprozess. Aus betriebswirtschaftlicher Sicht standen sowohl die Übertragung von evolutionären Prinzipien auf die Gestaltung von Unternehmensprozessen als auch die Anwendung von Genetischen Algorithmen zur Produktoptimierung bisher kaum im Interesse der Forschungsbemühungen. Vielmehr wurden theoretische Modelle zur Erklärung und Prognose von betriebs- und volkswirtschaftlichen Sachverhalten aufgestellt, z.B. auf der Basis populationsökologischer Überlegungen. Die Ableitung konkreter Gestaltungsempfehlungen als Technologien für die Unternehmenspraxis wurde allenfalls am Rande behandelt. Neben der Evolutorischen Ökonomik hat sich seit geraumer Zeit mit dem Evolutionären Management bzw. Evolutionsmanagement ein zweiter, eigenständige Forschungsansatz herauskristallisiert. Bei diesem tritt an die Stelle eines konstuktivistisch-technomorphen Managements ein systemisch-evolutionäres Management, welches sich insb. durch systemisches statt monokausales Denken auszeichnet (vgl. Malik 1986). Das Evolutionsmanagement basiert auf der Annahme, dass das Management heute nicht mehr in der Lage ist, die Komplexität der Unternehmen zu beherrschen und insb. mit der Vielfalt der Beziehungen zwischen den Elementen des Systems angemessen umzugehen. Aus diesem Grund ist der Übergang zu einer systemorientierten Managementtheorie, welche die Gestaltung und Lenkung von Gesamtsystemen (Institutionen) zum Gegenstand hat, unausweichlich. Im Lösungsansatz werden die Vorgänge in und zwischen Organisationen als Lebensprozesse betrachtet, die – per definitionem – nach gleichen oder ähnlichen Prinzipien/ Gesetzmäßigkeiten wie Prozesse in der Natur ablaufen (vgl. Otto et al. 2007). Bei dem Versuch, aus diesen vergleichbaren Naturprozessen Empfehlungen für die individuelle Handlungsebene des Managers und/ oder die organisationalen Abläufe/ Prozesse abzuleiten, treten z.T. gravierende Probleme auf. Sie liegen vor allem im gewählten Abstraktionsniveau des Forschungsprozesses begründet. Der hier gewählte Forschungsprozess folgt insgesamt einem pragmatischem Wissenschaftsverständnis (Pragmatic science). Nach diesem ist eine möglichst hohe
6 Zusammenfassung, Schlussfolgerungen und Ausblick
343
Ausgewogenheit zwischen theoretischer Exaktheit (rigour) und praktischer Relevanz (relevance) anzustreben (vgl. Nicolai 2004). Die theoretische Exaktheit bezieht sich auf den Prozess der Erkenntnisgewinnung, die in der Arbeit auf der Analyse mathematischer Optimierungsalgorithmen basiert. Über eine selbstentwickelte Perspektive werden den Alltagstheorien der Praxis alternative Deutungen gegenüber gestellt, z.B. evolutionäre Weiterentwicklung anstelle analytischer Problemzerlegung. Diese helfen in konkreten Beratungssituationen, neue Problemlösungen respektive Problemlösungszyklen zu finden. Die praktische Relevanz betrifft vor allem die Konzeption bzw. Ausgestaltung der entwickelten Vorgehensmodelle mit eindeutigen Phasenbeschreibungen und darauf abgestimmtem Methoden/ Instrumenteneinsatz. Da Wissenschaft nicht einfach durch Übersetzung in die Praxis „transferiert“ werden kann, sind sie durch ein geeignetes Rahmenkonzept bzw. übergeordnetes Managementkonzept zu ergänzen. DMAIDV- und IESRM-Zyklus kennzeichnen den „harten Kern“ eines nachhaltigen Managementkonzepts. Während im Fall des DMAIDV-Zyklus die Zuordnung zu DFSS als Derivat des Six Sigma-Konzeptes in F&E leicht nachvollziehbar ist, gestaltet sich die eindeutige Zuordnung des IESRM-Zyklus schwieriger. Prozessablauf und Methodeneinsatz unterscheiden sich z.T. deutlich vom traditionellen Six Sigma-Projektmanagement. Dies ist ein Resultat des gewählten Forschungsansatzes, der sich am Vorgehen des Erfinderischen Problemlösens orientiert. Mit der Trennung von Realitäts- und Abstraktionsebene wird bewusst darauf abgezielt, innovative Lösungsansätze – auch außerhalb des ursprünglich anvisierten Suchraumes – zu finden. Ausgangspunkt der Suche war hier die Entwicklung und Konzeption eines effektiveren Vorgehensmodells im Bereich DFSS. Durch Abstraktion und Analogieschluss wurde ein Problemlösungszyklus spezifiziert, der sich ebenfalls unter dem Begriff „Evolutionary Design“ subsumieren lässt.5 Unabhängig von der Zuordnung ist um den „harten Kern“ des Managementkonzeptes eine „weiche Hülle“ zu ziehen. Sie kennzeichnet das institutionalisierte Rahmenkonzept, welches dazu bestimmt ist, den harten Kern, also DMAIDV- und IESRM-Zyklus, vor der Falsifizierung zu schützen. Für eine erfolgreiche Implementierung und Umsetzung der vorstehend genannten Vorgehensmodelle in Unternehmen sind deshalb die folgenden vier Punkte zu berücksichtigen: •
Einbindung der Unternehmensleitung und Commitment der Führungskräfte: Diese Forderung gilt uneingeschränkt für die Implementierung aller Managementkonzepte und ist unabhängig von der Art des gewählten Vorgehensmodells. Für die effektive Umsetzung von DFSS ist zusätzlich zu beachten, dass ein neuer Typus von Manager benötigt wird, wie z.B. von GE gefordert. Dieser ist nicht nur auf Effizienzsteigerung „gepolt“, sondern erkennt Innovationen und Innovationspotenziale, die zu einer Steigerung des Kundennutzens
5
Die endgültige Zuordnung des IESRM-Zyklus soll der Praxis vorbehalten bleiben. Die wesentlichen Verfahren/ Algorithmen, die bei der IT-gestützten Produktentwicklung i.S.v. Evolutionary Design zum Einsatz kommen, beschreibt Bentley (1999).
344
6 Zusammenfassung, Schlussfolgerungen und Ausblick
führen. Entscheidend ist jeweils die Generierung von nachhaltigen Wettbewerbsvorteilen. Als Vorbild dient der Handelskonzern Metro, der im Jahr 2004 ein international besetztes Global Leadership Council gegründet hat, in dem ca. 20 Nachwuchsführungskräfte Ideen sammeln, bündeln, bewerten und in einem geordneten Prozess umsetzen (vgl. Biskamp 2006, S. 88). •
Auswahl und Qualifizierung von Akteuren/ Aufbau einer geeigneten Organisation: Für die Anwendung des DMAIDV-Zyklus kann ohne Weiteres auf die Abläufe und Strukturen der bestehenden Six Sigma-Organisation zurück gegriffen werden. Grundkenntnisse über das Vorgehen und die Methoden der Innovate-Phase lassen sich im Rahmen eines 1-Tages-Seminars den Black Belts vermitteln. Um Projekte nach dem erweiterten DMADV-Zyklus eigenständig bearbeiten zu können, ist ein Trainingsaufwand von mind. 3 Tagen erforderlich. Die gleichen Voraussetzungen gelten für die Anwendung des IESRM-Zyklus. Dieser lässt sich auch unabhängig von einer bestehenden Six Sigma-Organisation in der in der Arbeit beschriebenen Weise schulen und umsetzen. Für eine wirkungsvolle Anbindung an die Unternehmensleitung ist ein geeignetes Nachwuchsführungskräftetraining zu installieren.
•
Planung und Steuerung der Projekte/ Analyse der Ergebniswirkungen: Hierzu gehört zum einen die systematische Erfassung von Problemen inner- und außerhalb des Unternehmens, die für die Bearbeitung mit dem DMAIDV- oder IESRM-Zyklus geeignet sind. Dabei sollte die Dauer eines Projektes 6 Monate nicht überschreiten. Zum anderen ist für alle Projekte eine Wirtschaftlichkeitsbetrachtung in Form einer Net Benefit-Berechnung vorzusehen, wobei für die Anwendung des IESRM-Zyklus ggf. ein zusätzliches Kostenbudget für den Prototypenbau einzuplanen ist. Um einen systematischen Verbesserungsprozess in Gang zu setzen, ist der Aufbau eines WissensmanagementSystems empfehlenswert. Vorbild in dieser Hinsicht ist das Softwareunternehmen SAP (vgl. Seiwert et al. 2006, S. 86), bei dem jeweils mehrere sog. kreative Teams gleichzeitig und gleichberechtigt in einem Netzwerk, über den gesamten Erdball verteilt, zusammen arbeiten.
•
Konzeption eines Anreizsystems für die Durchführung von DFSS-Projekten: Damit Six Sigma-Projekte im F&E-Bereich in größerer Anzahl durchgeführt werden, ist ein adäquates Anreizsystem aufzubauen. Neben der Einhaltung vorgegebener Budgets sind in diesem vor allem neue, innovative Lösungsansätze, die im Rahmen der Projektbearbeitung generiert worden sind, zu prämieren. Darüber hinaus ist das System so zu gestalten, dass systematischanalytisches Denken und Handeln von Mitarbeitern genauso gefördert werden wie intuitiv-kreative Verhaltensmuster und -ansätze. Dies deckt sich mit den Forschungsergebnissen von Burgelman (1991). Nach diesen sind zur Steigerung der langfristigen Überlebensfähigkeit von Unternehmen prinzipiell zwei Arten von strategischen Prozessen notwendig, nämlich (a) Induzierte strategische Prozesse und (b) Autonome strategische Prozesse. Letztgenannte führen zu einer Erhöhung des organisationalen Kompetenzfeldes.
6 Zusammenfassung, Schlussfolgerungen und Ausblick
345
Die Probleme der Praxis bilden den Ausgangspunkt fruchtbarer wissenschaftlicher Diskurse über Sachverhalte, die von Praktikern so nicht mehr hinterfragt werden. D.h. neue Probleme werden durch den wissenschaftlichen Diskurs auf abstrahierter Ebene selbst konstatiert, ohne dass ein exogen gegebenes Problem der „realen Welt“ unmittelbar vorliegen muss (vgl. Nicolai 2004). Vor diesem Hintergrund stellt sich bezogen auf den hier behandelten Untersuchungsgegenstand zum einen die Frage, ob sich andere mathematische Optimierungsalgorithmen/ -heuristiken finden lassen, die als Vorbild für die Entwicklung und Konzeption von wirkungsvollen Vorgehensmodellen in der Praxis dienen können. Beispielhaft zu nennen sind die Verfahren Simulated Annealing und Ant Colony Optimization. Das Ziel besteht jeweils darin, leicht verständliche und schnell umsetzbare „Kochrezepte“ für die Unternehmenspraxis zu erstellen, anhand derer Prozess-/ Produktoptimierungen realisiert werden können. Zum anderen ist der Frage nachzugehen, ob sich das gewählte Vorgehen (siehe Abb. 1-7) generell eignet, um die Effizienz und Effektivität von in der Praxis verwendeten Managementkonzepten, z.B. Lean Six Sigma, aus wissenschaftlicher Sicht zu überprüfen und ggf. Handlungsempfehlungen zu ihrer Verbesserung abzuleiten. Neben der Ableitung und Überprüfung von generischen Vorgehensmodellen für die Unternehmenspraxis bestehen bezogen auf die hier entwickelten Problemlösungszyklen die folgenden weiterführenden Forschungsbedarfe: •
Um die Methoden, z.B. Flipmutation, (noch) besser auf die Belange von DFSS adaptieren zu können, ist das Sammeln weiterer Projekterfahrungen notwendig. In diesem Zusammenhang ist die Variation des Methodeneinsatzes wünschenswert, um die Praktikabilität der Excel-Anwendungen zur Generierung innovativer Lösungsansätze im Rahmen des IESRM-Zyklus zu überprüfen. Gleichzeitig ist beim DMAIDV-Zyklus zu untersuchen, welche Methoden aus dem (umfangreichen) TRIZ-Toolset im Rahmen der InnovatePhase „standardmäßig“ zum Einsatz kommen sollten. Eine Eingrenzung und Systematisierung der Methoden ist an dieser Stelle wünschenswert.
•
In der Arbeit wurden am Fallbeispiel „Papier-Rotor“ die Konzeption und Inhalte der entwickelten Vorgehensmodelle praxisnah aufgezeigt. Dabei zeigte sich, dass sich die Problemstellung relativ gut eignet, um die Effizienz und Effektivität einzelner Methoden/ Instrumente, aber auch ganzer Problemlösungszyklen, zu evaluieren. Als Forschungsobjekt im F&E-Bereich könnte deshalb das Papier-Rotor-Problem in Zukunft eine ähnlich bedeutsame Rolle übernehmen wie z.B. das Traveling Salesman-Problem (TSP) in Operation Research. TSP gilt als Standardproblem, um die Effektivität und Effizienz von (neuen) mathematischen Optimierungsverfahren zu testen.
•
Das Six Sigma-Konzept wird seit mehreren Jahren auch erfolgreich in Service- und Dienstleistungsunternehmen praktiziert, z.B. Citibank. Die Projektanwendungen konzentrieren sich auf prozessbezogene Verbesserungen nach dem DMAIC-Zyklus. Inwieweit sich hier der Entwicklungsprozess nach
346
6 Zusammenfassung, Schlussfolgerungen und Ausblick
DMAIDV- respektive IESRM-Zyklus gestalten lässt, ist noch offen. Die Bank of America, die seit 2000 Six Sigma anwendet, entwickelte z.B. ein Vorgehensmodell mit fünf Phasen, um Service-Innovationen systematisch zu generieren (vgl. Thomke 2003, S. 49). Wesentlicher Bestandteil der Planungs-, Entwurfs- und Testphase sind Experimente i.S.v. DOE. •
Neben Design for Six Sigma gilt Lean Six Sigma als aktuelle Weiterentwicklung im Bereich Six Sigma. Im Kern geht es um eine Beschleunigung (Acceleration) der Six Sigma-Initiative durch eine stärkere Verbindung der beiden Managementkonzepte Six Sigma und Lean Management. Die Übernahme der Lean-Philosophie in den F&E-Bereich ist ebenfalls seit langem Gegenstand der Diskussion. Der gezielte Einsatz des IESRM-Zyklus bietet hier die Möglichkeit, die beobachtete evolutionäre Entwicklung von technischen Systemen oder Teilen von selbigen „künstlich“ zu beschleunigen. Zu diesem Zweck sind die Projektaktivitäten nach evolutionärem Muster zu gestalten.
•
Nach dem Erklärungsansatz der Evolutionären Ökonomik handelt es sich bei den bekannten Problemlösungszyklen um (organisationale) Routinen, welche als regelmäßige und vorhersehbare Verhaltensmuster die kurzfristige Handlungsfähigkeit der Organisation sicherstellen (vgl. Nelson/ Winter 1982). Wie das Beispiel Six Sigma zeigt, unterliegen die Routinen aufgrund der Marktdynamik und des Verdrängungswettbewerbes einem kontinuierlichen Veränderungs-/ Anpassungsprozess. Dabei wird die Suche nach überlegenen Routinen (Technologien) in vielen Unternehmen selbst zu einer Routine, z.B. in Form standardisierter F&E-Prozesse und/ oder strategischer Planungsprozeduren. In diesem Zusammenhang stellt sich die Frage, inwieweit sich GAs bei der Ausgestaltung dieser Suchroutinen verwenden lassen.
•
In der Arbeit sind Ansatzpunkte für die Vernetzung mit anderen Konzepten/ Instrumenten im PEP aufgezeigt worden, die im Weiteren zu operationalisieren sind, z.B. Verbindung des IESRM-Zyklus mit dem Lead User-Konzept (vgl. von Hippel 1988), welches sich insb. für die Ermittlung und Bewertung von zukünftigen wesentlichen Kundenanforderungen eignet. Die Weiterentwicklung des Konzeptes geht in Richtung Open Innovation bzw. User Innovation, nach der Innovationsprozesse von den Anwendern selbst angestoßen und teilweise bis zur Prototypenreife vorangetrieben werden. Voraussetzung hierfür ist eine leistungsfähige und vernetzte IT-Infrastruktur (Internet).
•
Nicht nur beim IESRM-Zyklus stellt die Identifikation von Kundenbedürfnissen/ -anforderungen und die Bewertung von darauf ausgerichteten Produktangeboten eine wesentliche Herausforderung an die Projektbeteiligten dar. Eine schnelle und kostengünstige Evaluierung von Produktideen ist in Zukunft unter Einsatz verschiedener IT-/ Software-Lösungen möglich. Sie helfen insb. bei der Reduzierung der Kosten für Muster- und Prototypenbau, z.B. Künstliche Intelligenz bzw. Künstlich Neuronale Netze (vgl. z.B. Seiwert et al. 2006, S. 83), Closed Online Communities mit Endkunden (vgl. z.B. Lang 2006) und Open Online Communities im Web 2.0 (vgl. z.B. Martell 2007).
6 Zusammenfassung, Schlussfolgerungen und Ausblick
347
•
Die Bewertung von Prozess- und Produktverbesserungen basiert im Six Sigma-Konzept auf dem Sigma-Wert, der sich aus der Wahrscheinlichkeitsverteilung der Standard-Normalverteilung herleitet. Da es im F&E-Bereich nicht nur um die Erzeugung von Null-Fehler-Qualität geht, sondern auch um das Auffinden innovativer Produktdesigns, ist seine Anwendung als Top-Kennzahl in DFSS-Projekten eher fragwürdig. Die Entwicklung eines erweiterten Bewertungskonzeptes für den DMAIDV-Zyklus, welches den Innovationsaspekt stärker berücksichtigt, ist wünschenswert. Die TRIZ-Methodik, welche in der Innovate-Phase des vorstehend genannten Problemlösungszyklus zur Anwendung kommt, stellt auf das Konzept der Idealität ab. Im IESRMZyklus werden anstelle von Sigma-Werten individuelle Fitnesswerte berechnet, welche den Erfüllungsgrad von Kundenanforderungen indizieren.6
•
Neben einem geeigneten Bewertungskonzept stellt sich die Frage nach der wirkungsvollen Verknüpfung der betrieblichen Funktionsbereiche Qualitätsund Innovationsmanagement. Hierbei ist das Spannungsfeld zu lösen, welches sich aus einer naturgemäß gegenläufigen Schwerpunktsetzung ergibt. Während beim QM die Minimierung der Variation des Prozessoutputs im Vordergrund steht, fokussiert das IM auf eine Maximierung der Variation der Lösungsansätze. Als Benchmark für interne Organisationsstrukturen, welches zu einer Auflösung dieses Spannungsfeldes führt, gilt der Automobilkonzern BMW, der auf die Dynamisierung organisationaler Kompetenzen im Entwicklungsprozess setzt (vgl. Schreyögg/ Kliesch 2006, S. 455ff.).
Bei der Spezifikation von Handlungskonzepten für die Unternehmenspraxis ist zu beachten, dass sich Wissenschaftler nicht (blind) darauf verlassen können, dass ihr Wissen aufgrund von „überlegenen“ Erkenntnissen von allein in die Praxis diffundiert. Im Gegenteil: Die Differenzen/ Konflikte werden noch verstärkt, wenn Wissenschaftler versuchen, aus ihrer Sicht überlegene Problemlösungstechniken der Praxis „überzustülpen“. Trotz der analysierten und experimentell nachgewiesenen Vorteile von DMAIDV- und IESRM-Zyklus gegenüber dem DMADV-Zyklus ist ihre Anwendung in der Unternehmenspraxis – aus heutiger Sicht – keineswegs gesichert. Dazu ist eine bestimmte soziale Infrastruktur notwendig, die formell oder informell organisiert, die Verwendung wissenschaftlicher Erkenntnisse in der Praxis befördert (vgl. Nicolai 2004, S. 111). Vor diesem Hintergrund bleibt zu wünschen, dass die Ergebnisse der vorliegenden Dissertationsschrift über eine „gut funktionierende“ bidirektionale Kommunikation zwischen Wissenschaft und Praxis schnell Einzug in die Six Sigma-Community finden.
6
Die Definition der Fitnessfunktion ermöglicht die Berücksichtigung mehrer Ziele bzw. die Erfüllung mehrerer CTQs im Rahmen des Verbesserungsprozesses. Gleichzeitig wird über die Fitnessfunktion der Suchprozess so gesteuert, dass sich die Population zügig in Richtung des globalen Optimums bewegt sowie nach n Iterationen die „passende Lösung“ mit Sicherheit gefunden wird.
Literaturverzeichnis Aarts, E.H./ Korst, J./ van Laarhoven, P.J.M. (1997): Simulated Annealing, in: Aarts, E.H.L./ Lenstra, J.K. (Hrsg.): Local Search in Combinatorial Optimization, New York 1997. Abernathy, W.J./ Utterback, P.L. (1975): A Dynamic Model of Process and Product Innovation, in: Omega, 3. Jg., H. 6, S. 639-656. Accenture (2004) (Hrsg.): Was macht Innovationen erfolgreich?, im Internet unter: http://www.accenture.com/NR/rdonlyres/17C5FF31-9426-4030-B146-C8D EA756C6BB/0/innovationen_erfolgreich.pdf (Abruf: 18.03.2005). Ackoff, R.L./ Gupta, S.K./ Minas, J.S. (1962): Scientific method-optimizing applied research decisions, New York 1962. Akao, Y. (1992): QFD – Quality Function Deployment, Landsberg/ L. 1992. Aldrich, H.E. (1999): Organizations Evolving, London 1999. Aldrich, H.E./ Müller, S. (1982): The Evolution of organizational Forms: Technology, coordination, and control, in: Research in Organizational Behavior, 4. Jg., Greenwich 1982, S. 33-87. Altschuller, G.S. (1984): Erfinden – Wege zur Lösung technischer Probleme, Verlag Technik: Berlin 1984. Anderson, M.J. (2000): Software & Analysis: Success with DOE, in: Quality Magazine 04/2000: http://www.qualitymag.com/articles/2000/apr00/0400f2.bak (Abruf: 04.03.2002). Anderson, N./ Herriot, P./ Hodgkinson, G.P. (2001): The practitioner-researcher divide in Industrial, Work and Organizational Psychology: Where are we now and where do we go from there?, in: Journal of Occupational and Organizational Psychology, 74. Jg., H. 4, S. 391-411. Antony, J./ Bañuelas, R. (2002): Design for six sigma: A breakthrough improvement business strategy for achieving competitive advantage, in: Manufacturing Engineering, 81. Jg., H. 1, S. 24-26. Arifovic, J. (1994): Genetic Algorithm Learning and the Cobweb–Model, in: Journal of Economic Dynamics and Control, 18. Jg., H. 1, S. 3-28. Armijo, L. (1966): Minimization of functions having Lipschitz continuous first partial derivatives, in: Pacific Journal of Mathematics, 16. Jg., H. 1, S. 1-3. Armstrong, J.S. (1996): The Ombudsman: Management Folklore and Management Science – On portfolio Planning, Escalation Bias, and Such, in: Interfaces, 26. Jg., H. 4, S. 25-55.
350
Literaturverzeichnis
Arpagaus, J. (2002): Evolutorische Ökonomik, Seminar: Evolution und Diffusion in den Sozialwissenschaften, Universität Bern, in: www.soz.unibe.ch/studium/ss02/evolution.asp (Abruf: 05.03.2004). Arthur D. Little (Hrsg.) (2004): Innovation Excellence Studie 2004 – Mit Innovation gegen Stagnation, in: http://www.adlittle.ch/asp/artikel.asp (Abruf: 05.03.2006). Austropapier (Hrsg.) (2007): Was ist Porosität? in: http://www.austropapier.at/ index.php?id=127&L=0 (Abruf: 20.03.2007). Averboukh, E.A. (2004): Six Sigma Trends: Six Sigma Leadership and Innovation using TRIZ, in: http://www.isixsigma.com/library/content/c030908a.asp (Abruf: 04.03.2004). Bäck, T./ Hoffmeister, F. (1990): Adaptive Search by Evolutionary Algorithms, Dortmund 1990. Backerra, H./ Malorny, Ch./ Schwarz, W. (2002): Kreativitätstechniken (Pocket Power), 2. Aufl., München/ Wien 2002. Backhaus, K./ Erichson, B./ Plinke, W./ Weiber, R. (2006): Multivariate Analysemethoden: eine anwendungsorientierte Einführung, 11. Aufl., Berlin/ New York 2006. Baetke, M./ Hammer, L./ Zalesky, S. (2002): The History of Six Sigma, im Internet unter: http://www.isixsigma.com/library/content/c020815a.asp (Abruf: 29.12.2004). Bamberg, G./ Baur, F./ Krapp, M. (2007): Statistik, 13. Aufl., München 2007. Bateman, T.S./ Zeithaml, C.P. (1990): Management: function and strategy, Irwin: Homewood/ Ill. 1990. Bauer, H.H./ Sauer, N.E. (2004): Die Erfolgsfaktorenforschung als schwarzes Loch?, in: DBW, 64. Jg., H. 5, S. 621-625. Baum, H.-G./ Coenenberg, A.G./ Günther, Th. (2004): Strategisches Controlling, 3. Aufl., Stuttgart 2004. BCG (2006) (Hrsg.): Innovation 2006, im Internet unter: http://www.bcg.com/ publications/files/2006_Innovation_Survey_report.pdf (Abruf: 24.01.2007). Bea, F.X./ Haas, J. (2005): Strategisches Management, 4. Aufl., Stuttgart 2005. Becker, I.N.S. (2004): Führt die Verwendung eines Interdentalstimulators zusätzlich zu Zahnbürste, Zahnpasta und Zahnseide zu einer Verringerung vorhandener Plaque?, Diss., Universität Freiburg 2004. Benninghaus, H. (2005): Einführung in die sozialwissenschaftliche Datenanalyse, 7. Aufl., München 2005.
Literaturverzeichnis
351
Bentley, P.J. (1999): An Introduction to Evolutionary Design by Computers, in: Bentley, P.J. (Hrsg.): Evolutionary Design by Computers, Morgan Kaufmann: San Francisco/ CA 1999, S. 1-74. Bentley, P.J. (1999): From Coffee Tables to Hsopitals: Generic Evolutionary Design, in: Bentley, P.J. (Hrsg.): Evolutionary Design by Computers, Morgan Kaufmann: San Francisco/ CA 1999, S. 405-424. Bentley, P.J./ Wakefield, J.P. (1996): The Evolution of Solid Object Designs using Genetic Algorithms, in: Rayward-Smith, V. (Hrsg.): Modern Heuristic Search Methods, John Wiley & Sons: Uxbridge 1996, S. 199-215. Bergbauer, A. (2002/ 03): Six Sigma – Renaissance einer vergessenen Qualitätsmethode oder neuer Qualitätsstandard? (Teil 1-6), in: ZfP-Zeitung, o.Jg., H. 8085. Berger, C. et al. (1993): Kano’s methods for underAbrufing customer-defined quality, in: Center for Quality of Management Journal, 2. Jg., H. 4, S. 3-36. Berger, U./ Bernhard-Mehlich, I. (2002): Die Verhaltenswissenschaftliche Entscheidungstheorie, in: Kieser, A. (Hrsg.): Organisationstheorien, 5. Aufl., Stuttgart 2002, S. 133-168. Bernoulli, D. (1954): Exposition of a new theory on the measurment of risk, in: Econometrica, 22. Jg., H. 1, S. 23-36 (Erstveröffentlichung: 1738). Bertsche, B./ Lechner, G. (2004): Zuverlässigkeit im Fahrzeug- und Maschinenbau: Ermittlung von Bauteil- und System-Zuverlässigkeiten, 3. Aufl., Berlin et al. 2004. Beyer, H.-G. (2001): Evolutionäre Algorithmen – Begriffe und Definitionen, Dortmund 2001. Bhatti, M.A. (2000): Practical Optimization Methods: With Mathematica Applications, New York 2000. Bierfelder, W.H. (1994): Innovationsmanagement, 3. Aufl., München 1994. Birchenhall, C. (1995): Modular Technical Change and Genetic Algorithms, in: Computational Economics, 8. Jg., H. 3, S. 233-253. Biskamp, S. (2006): Offene Grenzen, in: WiWo, 02.10.2006, o.Jg., H. 40, S. 88. Bloomfield, B.P./ Danieli, A. (1995): The role of Management Consultants and the development of Information Technology: The indissoluble nature of socialpolitical and technical skills, in: Journal of Management Studies, 32. Jg., H. 1, S. 23-46. Bonabeau, E./ Meyer, C. (2001): Schwarm-Intelligenz: Unternehmen lernen von Bienen und Ameisen, in: HBm, 23. Jg., H. 6, S. 38-48.
352
Literaturverzeichnis
Bonanno, G./ Haworth, B. (1998): Intensity of competiton and the choice between product and process innovation, in: International Journal of Industrial Organization, 16. Jg., H. 4, S. 495-510. Börsch, A./ Simon, P. (1986): Abhandlungen zur Methode der kleinsten Quadrate von Carl Friedrich Gauß, Nachdruck, Berlin 1986 (Erstveröffentlichung: 1887). Box, G.E.P./ Draper, N.R. (1975): Das EVOP-Verfahren: Der industrielle Prozess, seine Kontrolle und mitlaufende Optimierung, München/ Wien 1975. Box, G.E.P./ Hunter, W.G./ Hunter, J.S. (1978): Statistics for Experimenters, New York 1978. Box, M.J. (1965): A new method of constrained optimization and a comparison with other methods, Computer Journal, 8. Jg., H. 1, S. 42-52. Boysen, O./ Juretzka, J./ Kimms, A. (2002): Ameisen-Systeme zur kapitalwertmaximierenden Projektplanung, in: Zeitschrift für Planung, 11. Jg., S. 289-305. Brady, D. (2003): Will Jeff Immelt´s New Push Pay Off for GE?, in: Business Week, European Ed., o.Jg., Issue 3853, S. 94-98. Breyfogle, W.F. (2003): Implementing Six Sigma – Smarter solutions using statistical methods, 2. Aufl., Hoboken 2003. Brockhoff, K. (1999): Forschung und Entwicklung: Planung und Kontrolle, 5. Aufl., München et al. 1999. Bronstein, I./ Semendjajew, K. (1977): Taschenbuch der Mathematik: Für Ingenieure und Studenten der technischen Hochschulen, 17. Aufl., Leipzig 1977. Brue, G./ Launsby, R.G. (2003): Design for Six Sigma, McGraw-Hill: New York et al. 2003. Bruhn, M. (1998): Wirtschaftlichkeit des Qualitätsmanagements: Qualitätscontrolling für Dienstleistungen, Berlin 1998. Bruhn, M./ Georgi, D. (1999): Kosten und Nutzen des Qualitätsmanagements, München/ Wien 1999. Bruhn, M./ Homburg, C. (Hrsg.) (2004): Gabler Lexikon Marketing, 2. Aufl., Wiesbaden 2004. Bulk. G./ Faulhaber, N. (2007): Six Sigma – The Way We Run Our Business – Umsetzungserfahrungen bei GE CompuNet, in: Töpfer, A. (Hrsg.): Six Sigma – Konzeption und Erfolgsbeispiele für praktizierte Null-Fehler-Qualität, 4. Aufl., Berlin/ Heidelberg 2007, S. 397-414. Bültel, D./ Wiese, H. (1996): Bernoulli-Prinzip und Nutzenaxiomatik, in: WISU, 25. Jg., H. 12/96, S. 781-787.
Literaturverzeichnis
353
Burell, G./ Morgan, G. (1979): Sociological Paradigms and Organizational Theory, London 1979. Burgelman, R.A. (1991): Intraorganizational ecology of strategy making and organizational adaptation – Theory and field research, in: Organization Science, 2. Jg., H. 3, S. 239-262. Burns, T/ Stalker, G.M. (1961): The management of innovation, London: Tavistock 1961. Burton, T.T./ Sams, J.L. (2005): Six Sigma for Small and Mid-Sized Organizations: Success Through Scaleable Deployment, J. Ross Publ.: Boca Raton/ Florida 2005. Bußmann, H. (1990): Lexikon der Sprachwissenschaft, 2. Aufl., Stuttgart 1990. Cantner, U./ Hanusch, H. (1997): Evolutorische Ökonomik – Konzeption und Analytik, in: WISU, 26. Jg., H. 8-9/97, S. 776-785. Carlson, S. (1951): Executive Behaviour, Stockholm 1951. Chalmers, A.F. (1999): What is this thing called Science?, 3. Aufl., Buckingham 1999. China, R. (2003): Totgesagte leben länger, in: Personalwirtschaft, 30. Jg., H. 12/2003, S. 45-47. Chmielewicz, K. (1979): Forschungskonzeptionen der Wirtschaftswissenschaft, 2. Aufl., Stuttgart 1979. Churchill, G.A./ Surprenant C. (1982): An Investigation into the Determinants of Customer Satisfaction, in: Journal of Marketing Research, 14 Jg., H. 4, S. 491504. Chvátal, V. (1983): Linear Programming, New York 1983. Clemens, C./ Riechmann, Th. (1996): Evolutionäre Optimierungsverfahren und ihr Einsatz in der ökonomischen Forschung, Diskussionspapier H. 195, Universität Hannover, Fachbereich Wirtschaftswissenschaften 1996. Coase, R. (1937): The Nature of the Firm, in: Economica, 4 Jg., H. 16, November 1937, S. 386-405. Cohen, D. (1966): Optimizing reproduction in a randomly varyiing environment, in: Journal of Theoretical Biology, 12. Jg., H. 1, S. 119-129. Cooper, R.G. (1983): A process model for industrial new product development, in: IEEE Transactions on Engineering Management, 30. Jg., S. 2-11. Cooper, R.G./ Kleinschmidt, E.J. (1990): New Products: The Key Factors in Success, Chicago 1990.
354
Literaturverzeichnis
Cornell, J.A. (1990): Experiments with mixtures: Designs, models, and the analysis of mixture data, 2. Aufl., New York 1990. Creveling, C.M./ Slutsky, J.L./ Antis jr., D. (2003): Design for Six Sigma in Technology and Product, New York 2003. Crosby, P.B. (1979): Quality Is Free, New York 1979. Dantzig, G.B./ Thapa, M.N. (1997): Linear Programming, Berlin et al. 1997. Davenport, T.H. (1993): Process Innovation – Reengineering work through information technology, Boston 1993. Dawkins, R. (1986): The Blind Watchmaker, Longman Scientific & Technical Publ.: Harlow 1986. Dawkins, R. (1989): The Evolution of Evolvability. Artificial Life, in: Langton, C. G. (Hrsg.): The Proceedings of an Interdisciplinary Workshop on the Synthesis and Simulation of Living Systems, 6. Jg., H. 09/ 1987, Addison-Wesley Pub.: Los Alamos/ New Mexico, S. 201-220. Deisenhofer, T. (1993): Marktorientierte Kostenplanung auf Basis von Erkenntnissen der Marktforschung bei der Audi AG, in: Horváth, P. (Hrsg.): Target Costing – Marktorientierte Zielkosten in der deutschen Praxis, Stuttgart 1993, S. 93-118. Deming, E. (1986): The Deming Management Method, Perigree 1986. Deming, W.E. (1982): Out of the Crisis, Cambridge/ Mass. 1982. Deshpande, P.B. (2004): Interview: Six Sigma enlightenment, im Internet unter: http://www.businessworld.in/oct0404/web_exclusive03.asp (Abruf: 05.03.2005). Deutsch, C. (2000): New economy, old-school rigor, in: The New York Times, 12.06.2000, o.Jg., S. C1. DGQ (Hrsg.) (2001a): FMEA – Fehlermöglichkeits- und Einflussanalyse, DGQBand 13-11, 2. Aufl., Berlin/ Wien 2001. DGQ (Hrsg.) (2001b): QFD – Quality Function Deployment, DGQ-Band 13-21, Berlin/ Wien 2001. Diller, H. (1977): Der Preis als Qualitätsindikator, in: DB, 37. Jg., S. 219-234. DiMaggio, P.J./ Powell, W.W. (1991): The iron cage revisited: Institutional isomorphism and collective rationality in organizational fields, in: Powell, W.W./ DiMaggio, P.J. (Hrsg.): The New Institutionalism in Organizational Analysis. Chicago 1991, S. 63-82. DIN EN ISO 8402 (Hrsg.) (1995): Qualitätsmanagement und Qualitätssicherung – Begriffe, Berlin 1995.
Literaturverzeichnis
355
Domschke, W. (1990): Logistik – Rundreisen und Touren, 3. Aufl., München/ Wien 1990. Dorff, E./ Töpfer, A. (2007): Positive Erfahrungen bei der Six Sigma Einführung und Projektumsetzung bei Whirlpool Europe, in: Töpfer, A. (Hrsg.): Six Sigma – Konzeption und Erfolgsbeispiele für praktizierte Null-Fehler-Qualität, 4. Aufl., Berlin/ Heidelberg 2007, S. 522-530. Dorigo, M./ Gambardella, L.M. (1997): Ant Colony System: A Cooperative Learning Approach to the Traveling Salesman Problem, in: IEEE Transactions on Evolutionary Computation, 1. Jg., H. 1, S. 53-66. Dorigo, M./ Maniezzo, V./ Colorni, A. (1991): Ant System: An autocatalytic optimizing process, Working Paper No. 91-016 Revised, Politecnico di Milano/ Italy 1991. Dosi, G. (1982): Technological paradigms and technological trajectories, in: Research Policy, 11. Jg., H. 3, S. 147-162. Dosi, G. (1991): The economics of technical change and international trade, 2. Aufl., New York 1991. Douma, S./ Schreuder, H. (2002): Economic Approaches to Organizations – Evolutionary approaches to organizations, 3. Aufl., London 2002. Downsland, K.A. (1993): Simulated Annealing, in: Reeves, C.R. (Hrsg.): Modern Heuristic Techniques for Combinatorial Problems, London et al. 1993, S. 20-69. Drucker, P.F. (1974): Management: tasks, responsibilities, practices. New York 1974. Durth, R. (2001): Die Diffusion von Innovationen, in: WISU, 30. Jg., H. 12/01, S. 1625-1629. DynCorp (Hrsg.) (2003): Six Sigma Benchmark Survey Results, in: http://www.dyncorp.com (Abruf: 09.01.2003). Ebel, B. (2002): Die Umsetzung der Normenreihe ISO 9000:2000, in: Töpfer, A. (Hrsg.): Business Excellence, Frankfurt/ M. 2002, S. 69-82. Eberhard, K. (1999): Einführung in die Erkenntnis- und Wissenschaftstheorie: Geschichte und Praxis der konkurrierenden Erkenntniswege, 2. Aufl., Stuttgart/ Berlin/ Köln: Kohlhammer 1999. Eby, D. et al. (1997): An Injection Island GA for Flywheel Design Optimization, in: 5th European Congress on Intelligent Techniques and Soft Computing EUFIT '97, 1. Jg., S. 687-691. Eckstein, P.P. (2000): Angewandte Statistik mit SPSS: Praktische Einführung für Wirtschaftswissenschaftler, 3. Aufl., Wiesbaden 2000.
356
Literaturverzeichnis
Edson, J./ Zoyhofski, A. (1999): Testing needs change for Six Sigma Processes, in: http://www.qualitymag.com/Common/print_article.asp (Abruf: 01.11.1999). Effinger, A./Layne, R. (2002): Immelt´s Way, in: http://www.bloomberg.com/marketsmagazine/cv_0208.pdf, August 2002. EFQM (Hrsg.) (2006): Die Grundkonzepte der Excellence, Brüssel 2006. Engelmann, T. (1995): Business Process Reengineering: Grundlagen – Gestaltungsempfehlungen – Vorgehensmodell, Wiesbaden 1995. Evered, R./ Louis, M.R. (1981): Alternative perspectives in the organizational science. “Inquiry from the inside” and “Inquiry from the outside”, in: AMR, 6. Jg., H. 3, 385-395. Fähnrich, K.-P./ Opitz, M. (2006): Service Engineering – Entwicklungspfad und Bild einer jungen Disziplin, in: Bullinger, H.-J./ Scheer, A.-W. (Hrsg.): Service Engineering, 2. Aufl., Berlin et al. 2006, S. 85-112. Fayol, H. (1916): Administration industrielle et générale, Paris 1916. Feigenbaum, A.V. (2006): The Importance of Consistent Management Innovation, in: Schnauber, H. (Hrsg.): Kreativ und konsequent: Walter Masing, ein Leben für die Qualität, München/ Wien 2006, S. 1-5. Feltl, H. (2003): Ein Genetischer Algorithmus für das Generalized Assignment Problem, Diss., Wien 2003. Fink, D. (2003): A Life Cycle Approach to Management Fashion: An investigation of management concepts in the context of competitive strategy, in: SBR, 55. Jg., H. 1, S. 46-59. Finn, G.A. (1999): Six Sigma in the Engineering Design Process, in: Prescient Technologies (Hrsg.): www.prescienttech.com, April 1999 (Abruf: 24.03.2004). Fisher, R.A. (1930): The Genetical Theory of Natural Selection – A Complete Variorum Edition, Oxford University Press: Oxford 1999 (Erstveröffentlichung: 1930). Fisher, R.A. (1948): Statistical Methods for Research Workers, London 1948 (Erstveröffentlichung: 1925). Fisher, R.A. (1951): The Design of Experiments, 6. Aufl., Edinburgh/ London 1951 (Erstveröffentlichung: 1935). Flaherty, M. (2004): Lifting the Lid: Six Sigma is no longer enough, im Internet unter: http://www.forbes.com/business/newswire/2004/05/13/rtr1371201.html (13.05.2004). Fletcher, R. (1987): Practical Methods of Optimization, 2. Aufl., John Wiley & Sons: Chichester 1987.
Literaturverzeichnis
357
Fletcher, R./ Powell, M.J.D. (1963): A rapidly convergent descent method for minimization, in: Computer Journal, 6. Jg., S. 163-168. Fogel, D.B. (1992): An analysis of evolutionary programming, in: Fogel, D.B./ Atmar, W. (Hrsg.): Proceedings of the First Annual Conference on Evolutionary Programming, Evolutionary Programming Society, San Diego/ CA, S.43-51. Fogel, L.J./ Owens, A.J./ Walsh, M.J. (1966): Articial Intelligence through Simulated Evolution, John Wiley & Sons: New York/ NY 1966. Foster, R.N. (1986): Innovation – The attacker's advantage, New York 1986. Frank, S.A./ Slatkin, M. (1992): Fisher's fundamental theorem of natural selection, in: Trends in Ecology and Evolution, 7. Jg., H. 3, S. 92-95. Freitag, M. (2004): Formel Toyota, in: MM, 34. Jg., H. 12/ 2004, S. 72-83. Frerichs, S. (2002): Nachhaltige Entwicklung als Forschungsziel – Fragen an die Soziologie der Wissenschaft, in: Schriftenreihe des Zentrums für europäische Studien (Hrsg.), Universität Trier 2002. Fritz, W. (1995): Marketing-Management und Unternehmenserfolg – Grundlagen und Ergebnisse einer empirischen Untersuchung, 2. Aufl., Stuttgart 1995. Fuchs, W. (2006): Kreativität und Innovationen, in: Schnauber, H. (Hrsg.): Kreativ und konsequent: Walter Masing, ein Leben für die Qualität, München/ Wien 2006, S. 143-152. Funke, J. (2000): Psychologie der Kreativität, in: Universitätsgesellschaft Heidelberg (Hrsg.): Heidelberger Jahrbücher 44.2000, Heidelberg 2000. Gack, G. (2003): DFSS and DMAIC – Similarities and Distinctions, in: http://www.sei.cmu.edu/sema/pdf/sdc/gack.pdf (Abruf: 05.06.2006). Garthe, E. (2002): Das Six Sigma Dogma bei General Electric, in: Töpfer, A. (Hrsg.): Business Excellence – Wie Sie Wettbewerbsvorteile und Wertsteigerung erzielen, Frankfurt/ M. 2002. Garvin, D.A. (1984): What does „Product Quality” realy mean?, in: Sloan Management Review, 26. Jg., H. 1, S. 25-43. Garvin, D.A. (1987): Competing on the Eight Dimensions of Quality, in: Harvard Business Review, 65. Jg., H. 6, S. 101-109. Gavin, A.F. (1999): Six Sigma in the Engineering Process, in: Prescient Technologies (Hrsg.): http://www.prescienttech.com (Abruf: 17.02.2000). Geiger, W. (2003): Der Begriff Qualität im Qualitätsmanagement, in: Masing, W./ Ketting, M./ König, W./ Wessel, K.-F. (Hrsg.): Qualitätsmanagement – Tradition und Zukunft: Festschrift zum 50-jährigen Bestehen der Deutschen Gesellschaft für Qualität e.V., München/ Wien 2003, S. 19-48.
358
Literaturverzeichnis
Gelbmann, U. et al. (2003): Innovationsleitfaden: Der Weg zu neuen Produkten, in: Projektteam Innovital (Hrsg.): Innovital, Eigenverlag, Graz 2003. Gen, M./ Cheng, R. (1997): Genetic Algorithms and Engineering Design, John Wiley & Sons: New York 1997. George, M.L. (2003): Lean Six Sigma for Service: How to Use Lean Speed and Six Sigma Quality to Improve Services, McGraw-Hill: New York et al. 2003. Gero, J.S. (1996): Computers and Creative Design, in: Tan, M./ The, R. (Hrsg.): The Global Design Studio, National University of Singapore 1996, S. 11-19. Gero, J.S./ Kazakov, V. (1996): An exploration-based evolutionary model of generative design process. Microcomputers, in: Civil Engineering, 66. Jg., H. 11, S. 209-216. Gerpott, T.J. (2005): Strategisches Technologie- und Innovationsmanagement, 2. Aufl., Stuttgart 2005. Geschka, H. (1986): Kreativitätstechniken, in: Staudt, E. (Hrsg.): Das Management von Innovationen, Frankfurt/ M., S. 147-160. Geschka, H./ Lantelme, G. (2005): Kreativitätstechniken, in: Albers, S./ Gassmann, O. (Hrsg.): Handbuch Technologie- und Innovationsmanagement, Wiesbaden 2005, S. 285-304. Gibbons, M./ Limoges, H./ Nowotny, S./ Schwartzman, P./ Scott, P./ Trow, M. (1994): The new production of knowledge – The dynamics of science and research in contemporary societies, London 1994. Gill, P.E./ Murray, W./ Wright, M.H. (1997): Practical Optimization, 11. Aufl., Academic Press: San Diego 1997. Gioia, D.A./ Pitre, E. (1990): Multiparadigm perspectives on theory building, in: AMR, 15. Jg., H. 1, 584-602. Gitlow, H.S./ Levine, D.M./ Popovich, E.A. (2006): Design for Six Sigma for Green Belts and Champions, New York 2006. Göggelmann, U. (2004): Strikte Optimierung, in: Capital, o.Jg., H. 12/ 2004, S. 96-99. Göhler, W. (1996): Formelsammlung: Höhere Mathematik, 13. Aufl., Thun/ Frankfurt/ M. 1996. Goldberg, D.E. (1989): Genetic algorithms in search, optimization and machine learning, Addison Wesley: Reading/ MA 1989. Goldstein, A.A. (1965): On steepest descent, in: SIAM J. Control, 3. Jg., H. 1, S. 147-151.
Literaturverzeichnis
359
Gonzalez, B./ Martinez, A./ Dale, B.G. (1999): Business process re-engineering to total quality management: An examination of the issues, in: Business Process Management Journal, 5. Jg., H. 4, S. 345-358. Gopinath, C./ Hoffman, R.C. (1995): A comment on the relevance of Strategy Research, in: Advances in Strategic Management, 12. Jg. (B), S. 93-110. Gordon, S. (1989): Darwin and Political Economy: The Connection Reconsidered, Journal of the History of Biology, 22. Jg., S. 473-459. Gordon, W.J.J. (1961): Synectics, New York 1961. Grabowski, B. (2003): Mathematische Statistik und Wahrscheinlichkeitsrechnung, in: Walz, G. (Hrsg.): Faszination Mathematik, Heidelberg/ Berlin 2003, S. 217225. Graebig, K. (2006): ISO 9000:2005 Terminologie, in: QZ, 51. Jg., H. 1, S. 28-30. Grafen, A. (1999): Formal Darwinism, the individual-as-maximizing-agent analogy and bet-hedging, in: The Royal Society, 266. Jg., H. 1421, S. 799-803. Graumann, M. (2004): Die Managementkonzepte von Ferdinand Piech und Jack Welch – Ein Rekonstruktionsansatz, in: ZfbF, 56. Jg., H. 5, S. 282-298. Greb, Th./ Erkens, E./ Kopfer, H. (1998): Naturadaptive Ansätze zur Lösung betrieblicher Optimierungsprobleme, in: WISU, 27. Jg, H. 04/98, S. 444-454. Green, P.E./ Krieger, A.M. (1985): Models and heuristics for product line selection, in: Marketing Science, 4. Jg., Nr. 1, S. 1-19. Groys, B. (1999): Über das Neue: Versuch einer Kulturökonomie, 3. Aufl., Frankfurt/ M. 1999. Guilford, J.P. (1967): The nature of human intelligence, New York 1967. Gumpp, G.B./ Wallisch, F. (1995): ISO 9000 entschlüsselt, Landsberg/ L. 1995. Günther, H. (2004): Methoden und Verfahren zur Erschließung von Optimierungspotenzial im Innovationsprozess, in: http://www.triz-online.de/triz_magazin/ ausgabe02_04/artikel_1.htm (Abruf: 10.06.2005). Günther, S. (2003): Von der Statistik zur Qualität, in: QZ, 48. Jg., H. 6, S. 1. Günther, S./ Jäckel, A. (2007): Entwicklung eines systematischen Messansatzes zur Bestimmung der Kehreigenschaften von Besen, in: BrossaPress, 81. Jg., Nr. 2/2007, S. 6-17. Günther, Th. (1997): Unternehmenswertorientiertes Controlling, München 1997. Gupta, P. (2004): Six Sigma Business Scorecard: Creating a Comprehensive Corporate Performance Measurement System, New York 2004.
360
Literaturverzeichnis
Gupta, P. (2005): Innovation for Six Sigma, in: Quality Digest über: http://www.accelper.com/pdfs/Innovation%20for%20Six%20Sigma.pdf (Abruf: 04.01.2006). Habermas, J. (1973): Wahrheitstheorien, in: Fahrenbach, H. (Hrsg.): Wirklichkeit und Reflexion, Festschrift für Walter Schulz zum 60. Geburtstag, Pfullingen 1973, S. 211-266. Hahn, D./ Buske, A./ Mayer, A./ Willms, K. (1999): Moderne Managementkonzepte – unter besonderer Berücksichtigung des Produktionsbereichs, in: Hahn, D./ Krüger, W. (Hrsg.): Schriftenreihe des Instituts für Unternehmungsplanung, Gießen/ Berlin 1999. Hall, G./ Rosenthal, J./ Wade, J. (1994): Reengineering: Es braucht kein Flop zu werden, in: HBm, 16. Jg., H. 4, S. 82-93. Haller, S. (2004): Gewinnen durch TQM?, in: DBW, 64. Jg., H. 1., S. 1-27. Hamel, G. (2000): Das revolutionäre Unternehmen, München 2000. Hammer, M. (2002): Process Management and the Future of Six Sigma, in: MIT Sloan Management Review, 43. Jg., H. 2, S. 26-31. Hammer, M./ Champy, J. (1994): Reengineering the corporation – A manifesto for business revolution, New York 1994. Hannan, M.T./ Freeman, J.H. (1984): Structural inertia and organizational change, in: American Sociological Review, 49. Jg., S. 149-164. Hannan, M.T./ Freeman, J.H. (1989): Organizational Ecology, Cambridge 1989. Hansen, U./ Emmerich, A. (1998): Sind zufriedene Kunden wirklich zufrieden? Eine Differenzierung des Kundenzufriedenheitskonstruktes auf der Grundlage organisationspsychologischer Erkenntnisse, in: Jahrbuch der Absatz- und Verbrauchsforschung, 44. Jg., H. 4, S. 220-238. Harmon, P. (2003): Business Process Change – A Manager´s Guide to Improving, Redesigning, and Automating Processes, San Francisco 2003. Harry, M./ Schroeder, R. (2005): Six Sigma – Prozesse optimieren, Null-FehlerQualität schaffen, Rendite radikal steigern, 3. Aufl., Frankfurt/ M. 2005. Hartmann, N. (1964): Der Aufbau der realen Welt, 3. Aufl., Berlin 1964. Harvey, I. (1997): Cognition is not Computation: Evolution is not Optimisation, in: Gerstner, W. et al. (Hrsg.): Artificial Neural Networks – ICANN97, Proc. of 7th International Conference on Artificial Neural Networks, 7-10.10.1997, Lausanne, Switzerland, Springer-Verlag LNCS 1327, S. 685-690. Hauschildt, J. (2004): Innovationsmanagement, 3. Aufl., München 2004.
Literaturverzeichnis
361
Hauschildt, J. (2005): Dimensionen der Innovation, in: Albers, S./ Gassmann, O. (Hrsg.): Handbuch Technologie- und Innovationsmanagement, Wiesbaden 2005, S. 23-39. Hauser, J.R./ Clausing, D.P. (1988): The House of Quality, in: HBR, 66. Jg., H. 3, S. 63-73. Hellriegel, D./ Slocum, J.W. (1996): Management, 7. Aufl., Cincinnati/ Ohio 1996. Hempel, C.G./ Oppenheim, P. (1948): Studies in the logic of explanation, in: Philosophy of Science, 15. Jg., 135-175. Herb, R. (2003): TRIZ und FUN: Antizipierende Fehlererkennung im Zusammenspiel mit TRIZ und FMEA, in: http://www.triz-online.de/triz_magazin/ausgabe 05_03/ artikel_3.htm (Abruf: 11.12.2006). Herb, R./ Herb, T./ Kohnhauser, V. (2000): TRIZ – Der systematische Weg zur Innovation, Augsburg 2000. Herold, H./ Lurz, B./ Wohlrab, J. (2006): Grundlagen der Informatik: praktisch – technisch – theoretisch, München 2006. Heyde, W. et al. (1991): Innovationen in Industrieunternehmen: Prozesse, Entscheidungen und Methoden, Wiesbaden 1991. Higgins, J.M. (1994): 101 Creative Problem Solving Techniques, Winter Park/ Florida 1994. Hodgkinson, G.P./ Herriot, P./ Anderson, N. (2001): Re-aligning the Stakeholders in Management Research: Lessons from Industrial, Work and Organizational Psychology, in: British Journal of Management, 12. Jg., 12/ 2001 (Special Issue), S. S41-S48. Hodgson, G. (1993): Economics and Evolution – Bringing Life Back into Economics, University of Michigan Press: Cambridge 1993. Hofbauer, J./ Sigmund, K. (1998): Evolutionary Games and Population Dynamics, Cambridge University Press: Cambridge 1998. Holland, J.H. (1975): Adaptation in natural and articial systems, The University of Michigan Press: Ann Arbor MI 1975. Holtmann, F. (1963): Mathematik (Bd. 1): Arithmetik, 7. Aufl., Leipzig 1963. Homburg, C./ Giering A./ Hentschel F. (1999): Der Zusammenhang zwischen Kundenzufriedenheit und Kundenbindung, in: DBW, 59 Jg., H. 99/02, S. 174-195. Hornung, A. (1996): Kreativitätstechniken, Köln 1996. Huczynski, A.A. (1993a): Explaining the succession of management fads, in: The International Journal of Human Resource Management, 4. Jg., H. 2, S. 443-463.
362
Literaturverzeichnis
Huczynski, A.A. (1993b): Management Gurus: What makes them and how to become one, London 1993. Huff, A.S. (2000): Citigroup´s John Reed and Stanford´s James March on management research and practice, by: A.S. Huff, in: Academy of Management Executive, 14. Jg., H. 1, S. 52-64. Hughes, G.D./ Chafin, D.C. (1996): Turning New Product Development into a Continuous Learning Process, in: Journal of Product Innovation Management, 13. Jg., H. 2, S. 89-104. Hunt, V.D. (1996): Process Mapping: How to reengineer your business process, New York 1996. Husbands, P./ Jermy, G./ McIlhagga, M./ Ives, R. (1996): Two Applications of Genetic Algorithms to Component Design, in: Fogarty, T. (Hrsg.): Selected Papers from AISB Workshop on Evolutionary Computing, Lecture Notes in Computer Science 1996, S. 50-61. IBM (Hrsg.) (2006): Global CEO Study 2006: Expanding the Innovation Horizon, in: http://www-5.ibm.com/e-business/at/ceostudy/index.html (Abruf: 05.02.2007). Imai, M. (1986): Kaizen (Ky´zen), New York/ Toronto 1986. Islam, K.A. (2003): Developing E-Learning The Six Sigma Way, in: http://healthcare.isixsigma.com/library/content/c030407a.asp (Abruf: 14.05.2003). ISO (Hrsg.) (2004): The ISO Survey – 2004, in: http://www.iso.org/iso/en/prodsservices/otherpubs/pdf/survey2004.pdf (Abruf: 05.10.2005). Jancke, G. (2004): Reinigung und Entschichtung von Metalloberflächen, in: Sonderabfallgesellschaft Brandenburg/ Berlin mbH (Hrsg.): Informationen zur Abfallvermeidung in Brandenburg und Berlin, VV-06, Juni 2004. Jarre, F./ Stoer, J. (2004): Optimierung, Berlin/ Heidelberg 2004. Jongen, H.Th./ Jonker, P./ Twilt, F. (1986): Nonlinear Optimization in Rn – II. Transversality, Flows, Parametric Aspects, Frankfurt/ M. et al. 1986. Jongen, H.Th./ Meer, K. (2003): Optimierung, in: Walz, G. (Hrsg.): Faszination Mathematik, Heidelberg/ Berlin 2003, S. 211-216. Juran, J.M. (1993): Der neue Juran – Qualität von Anfang an, Landsberg/ L. 1993. Kaiser, B./ Nowack, M.W. (1999): Nur scheinbar stabil: Neue Gesichtpunkte zur Prozessbeurteilung und Qualitätsregelkartentechnik, in: QZ, 44. Jg., S. 761-765. Kallen, H.M. (1973): Innovation, in: Etzioni-Halevy, E./ Etzioni, A. (Hrsg.): Social Change: Sources, Patterns, and Consequences, 2. Aufl., New York 1973. Kamiske, G.F. (Hrsg.) (2000): Der Weg zur Spitze, 2. Aufl., München 2000.
Literaturverzeichnis
363
Kamiske, G.F./ Brauer, J.-P. (2006): Qualitätsmanagement von A – Z: Erläuterungen moderner Begriffe des Qualitätsmanagements, 5. Aufl., München 2006. Kamiske, G.F./ Malorny, C. (1997): Führen – Bewußtsein entwickeln, Verhalten verändern, in: Kamiske, G.F./ Ehrhart, K.J./ Jacobi, H.-J. (Hrsg.): Bausteine des innovativen Qualitätsmanagements, München/ Wien 1997, S. 27-246. Kano, N./ Seraku, N./ Takashi, F./ Tsuji, S. (1994): Attractive Quality and MustBe-Quality, in: Hinshitsu, 14. Jg., H. 2, S. 39-48. Karmarkar, N. (1984): A new polynomial-time algorithm for linear programming, in: Combinatorica, 4. Jg., H. 4, S. 373-395. Katzensteiner, Th./ Leendertse, J. (2003): Blick in die Glaskugel, in: WiWo, 26.06.2003, o.Jg., H. 27, S. 60-65. Kestler, H.A. (1996): Kybernetik (Stichwort), in: Strube, G. (Hrsg.): Wörterbuch der Kognitionswissenschaft, Stuttgart 1996, S. 352f. Keuper, F. (2001): Strategisches Management, München/ Wien 2001. Keuper, F. (2004): Systemkomplexität (Stichwort), in: DBW, 64. Jg., H. 5, S. 637-641. Keuper, F./ Brösel, G. (2005): Zum Effektivitäts-Effizienz-Dilemma des öffentlichen Rundfunks, in: Zeitschrift für öffentliche und gemeinwirtschaftliche Unternehmen, Bd. 28, H. 1, S. 1-18. Khachiyan, L.G. (1979): A polynomial algorithm in linear programming, in: Soviet Mathematics Doklady, 20. Jg., S. 191-194. Kieser, A. (1996a): Moden und Mythen des Organisierens, in: DBW, 56. Jg., H. 1, S. 21-40. Kieser, A. (1996b): Business Process Reengineering – Neue Kleider für den Kaiser?, in: zfo, 65. Jg., H. 3, S. 179-185. Kieser, A./ Walgenbach, P. (2003): Organisation, 4. Aufl., Stuttgart 2003. Kieser, A./ Woywode, M. (2002): Evolutionstheoretische Ansätze, in: Kieser, A. (Hrsg.): Organisationstheorien, 5. Aufl., Stuttgart 2002, S. 309-352. Kilian, I. et al. (2006): Großes Buch der Biologie, München 2006. Kirner, E./ Armbruster, H./ Kinkel, S. (2007): Mit kleinen Schritten nach vorn, in: QZ, 52. Jg., H. 4, S. 25-29. Kirzner, M.I. (1973): Competition and Entrepreneurship, The University of Chicago Press: Chicago/ London 1973. Kleppmann, W. (2006): Taschenbuch Versuchsplanung, 4. Aufl., München 2006.
364
Literaturverzeichnis
Klockgether, J./ Schwefel, H.-P. (1970): Two-phase nozzle and hollow core jet experiments, in: Elliott, D.G. (Hrsg.): Proc. 11th Symp, Engineering Aspects of Magnetohydrodynamics, 24.-26.03.1970, California Institute of Technology, Pasadena/ CA, S.141-148. Koch, M./ Schlichter, J. (2002): Einführung in die Informatik, Vorlesungsskript, TU München, in: http://www11.in.tum.de/lehre/vorlesungen/ws2002-03/einfinfo/ (Abruf: 18.03.2005). Koons, G.F. (1992): Indices of Capability – Classical and Six Sigma Tools, Motorola University Press: Reading/ Mass. 1992. Korhonen, P./ Moskowitz, H./ Wallenius, J. (1992): Multiple Criteria Decision Support – A Review, in: European Journal of Operational Research, 63. Jg., H. 3, S. 361-375. Kotler, P./ Bliemel, F.W. (1992): Marketing-Management: Analyse, Planung, Umsetzung und Steuerung, 7. Aufl., Stuttgart 1992. Krafft, M. (1999): Der Kunde im Fokus: Kundennähe, Kundenzufriedenheit, Kundenbindung – und Kundenwert?, in: DBW, 59. Jg., H. 4, S. 511-530. Kramer, H.E. (1975): The philosophical foundation of management rediscovered, in: Management International Review, 15. Jg., H. 2/3, S. 47-54. Kriegesmann, B./ Kerka, F./ Kley, Th. (2006): Fehlerkulturen und Innovationserfolg: Eine vergleichende empirische Analyse, in: ZfP, 20. Jg., H. 2, S. 141-159. Kromrey, H. (2002): Empirische Sozialforschung, 10. Aufl., Opladen 2002. Kryssanov, V.V./ Tamaki, H./ Kitamura, S. (2005): Evolutionary Design: Philosophy, Theory, and Application Tactics, in: CIRP Journal of Manufacturing Systems, 34. Jg., H. 2, in: http://arxiv.org/abs/cs/0606039. Kuhn, T.S. (1962): The Structure of Scientific Revolutions, Chicago 1962. Külpe, O. (1909): Outlines of psychology, Translated by E. B. Titchener, London 1909 (Erstveröffentlichung: 1883). Kumar, U.D./ Crocker, J./ Chitra, T./ Sranga, H. (2006): Reliability and Six Sigma, New York 2006. Lakatos, I./ Musgrave, A. (Hrsg.) (1970): Criticism and the Growth of Knowledge, London 1970. Lang, A. (2006): „Closed Online Communities“: Innovation durch Austausch, in: IT, New Media & Software PR Agentur (Pressemitteilung von Communication Presse und PR) unter: www.openPR.de, 04.12.2006 (Abruf: 23.03.2007). Lang, G./ Reemtsema, K.-D. (2003): Konzept und Management des Veränderungsprozesses: Die Qualitätsinitiative Six Sigma der DB AG, in: ETR, 52. Jg., H. 1/2, S. 12-24.
Literaturverzeichnis
365
Lange, O. (1968): Optimale Entscheidungen: Grundriß der Optimierungsrechnung, Berlin/ Warschau 1968. Lee, R. (2004): ISSSP Session: Innovation and Six Sigma Go Hand in Hand, im Internet unter: http://www.isixsigma.com/library/content/c040617a.asp (Abruf: 01.06.2004). Leifeld, J. (2002): Methoden im Produktentstehungsprozess, in: Kooperationsbörse TU Dresden – BSH (Fachtagung), Präsentation mit Projektvorstellung an der TU Dresden am 02.12.2002. Lentrodt, A. (1997): Blind- und Fehlleistungsermittlung in Gemeinkostenbereichen, in: Hansen, W./ Kamiske, G.F. (Hrsg.): Grundlagen, Methoden und Werkzeuge (Praxisbeispiele), 14. Aufl., Berlin/ Heidelberg, Loseblattsammlung, Stand: 1998. Leupold, W. et al. (1971): Analysis für Ingenieure, 7. Aufl., Leipzig 1971. Levy, A./ Merry, U. (1986): Organizational transformation, New York 1986. Leyendecker, B. (2007): Ableitung von Six Sigma Projekten aus den Unternehmenszielen, in: Töpfer, A. (Hrsg.): Six Sigma – Konzeption und Erfolgsbeispiele für praktizierte Null-Fehler-Qualität, 4. Aufl., Berlin/ Heidelberg 2007, S. 490502. Liker, J. (2003): The Toyota Way – 14 Management Principles From The World's Greatest Manufacturer, New York 2003. Lindblom, C.E. (1975): Inkrementalismus: die Lehre vom „Sich-Durchwursteln“, in: Narr, W.-D./ Offe, C. (Hrsg.): Wohlfahrtsstaat und Massenloyalität, Köln 1975, S. 161-177. Lingscheid, A. (1997): Prozeßmanagement Stufe 2: Prozesse bewerten, in: Horváth & Partner (Hrsg.): Qualitätscontrolling: Ein Leitfaden zur betrieblichen Navigation auf dem Weg zum Total Quality Management, Stuttgart 1997, S. 173196. Lippe, W.-M. (2004): Evolutionäre Algorithmen und ihre Anwendung (Ausarbeitung im Rahmen des Seminars Neuroinformatik), in: www.uni-muenster.de/ SoftComputing/lehre/seminar/ss2004/vortraege/listess04 (Abruf: 05.03.2005). Little, J.D.C./ Murty, K.G./ Sweeney, D.W./ Karel, C. (1963): An Algorithm for the Traveling Salesman Problem, in: Operations Research, 11. Jg., H. 6, S. 972989. Liu, L.C./ Wu, Q. (2006): Six Sigma and its application in SCM, in: Technology & Economy in Areas of Communication, 35. Jg., H. 3, S. 119-121. Löbmann, A. (2003): Die TRIZ-Methode – ein immer währender InnovationsKreislauf, in: www.triz-online-magazin.de/ausgabe02_01/artikel_3.htm (Abruf: 02.03.2004).
366
Literaturverzeichnis
Lohn, J./ Reggia, J. (1995): Discovery of Self-Replicating Structures Using a Genetic Algorithm, in: 1995 IEEE Int. Conf. on Evolutionary Computation (ICEC '95), 1. Jg., Perth/ Western Australia, S. 678-683. Luhman, N. (1994): Die Wissenschaft der Gesellschaft, 2. Aufl., Frankfurt/ M. 1994. Lunau, S. (Hrsg.) (2006): Six Sigma + Lean Toolset – Verbesserungsprojekte erfolgreich durchführen, Berlin/ Heidelberg 2006. Magnusson, K./ Kroslid, D./ Bergman, B. (2004): Six Sigma umsetzen, 2. Aufl., München 2004. Malik, F. (1986): Strategie des Managements komplexer Systeme: Ein Beitrag zur Management-Kybernetik evolutionärer Systeme, 2. Aufl., Bern/ Stuttgart 1986. Malorny, C. (1999): TQM umsetzen, 2. Aufl., Stuttgart 1999. Mandl, Ch. (1999): Innovationsfähiger werden, in: io Management Zeitschrift Zürich, 69. Jg., H. 5, S. 52-57. March, J.G./ Sutton, R.I. (1997): Organizational performance as a dependent variable, in: Organization Science, 6. Jg., H. 6, S. 698-706. Marcus, A.A/ Goodman, R.S./ Grazman, D.N. (1995): The diffusion of strategic management frameworks, in: Advances in Strategic Management, 12. Jg. (B), S. 115-145. Marimon, R. (1993): Adaptive Learning, Evolutionary Dynamics and Equilibrium Selection in Games, in: European Economic Review, 37. Jg., H. 2-3, S. 603611. Marks, P. (2007): Darwin and the generation game, in: NewScientist, 195. Jg., H. 2614, 28.07.2007, S. 26-27. Martell, M. (2007): Deutsche Unternehmen entdecken Second Life, in: http://www.stern.de/computer-technik/internet/:Onlinewelten-Deutsche-FirmenSecond-Life/583766.html (Abruf: 04.03.2007). Masing, W. (1994): Einführung in die Qualitätslehre, 8. Aufl., Berlin 1994. Masing, W. (1999): Das Unternehmen im Wettbewerb, in: Masing, W. (Hrsg.): Handbuch Qualitätsmanagement, 4. Aufl., München/ Wien 1999, S. 3-16. Masing, W. (2004): Geleitwort, in: Töpfer, A. (Hrsg.): Six Sigma – Konzeption und Erfolgsbeispiele für praktizierte Null-Fehler-Qualität, 4. Aufl., Berlin/ Heidelberg 2007, S. 1-2. Masing, W. (Hrsg.) (1999): Handbuch Qualitätsmanagement, 4. Aufl., München 1999. Maslow, A.H. (1954): Motivation and Personality, New York et al. 1954.
Literaturverzeichnis
367
Mayo, D. (1996): Error and the Growth of Experimental Knowledge, Chicago 1996. Mazur, G. (1995): Theory of Inventive Problem Solving (TRIZ), in: http://www.mazur.net/triz/ (Abruf: 11.03.2004). McCaskey, M.B. (1982): The Executive Challenge, Boston 1982. McFarland, A.S. (1969): Power and Leadership in Pluralists Systems, Stanford 1969. McKelvey, B./ Aldrich, H.E. (1983): Populations, Natural Selection, and Applied Organizational Science, in: Administrative Science Quarterly, 28. Jg., S. 101-128. Meffert, H. (2000): Marketing – Grundlagen marktorientierter Unternehmensführung, Konzepte, Instrumente, Praxisbeispiele, 9. Aufl., Wiesbaden 2000. Meinardus, G. (2003): Approximationstheorie, in: Walz, G. (Hrsg.): Faszination Mathematik, Heidelberg/ Berlin 2003, S. 168-173. Messer J./ Töpfer, A. (2002): Drei harmonische Instrumente: Exzellente Ergebnisse mit Balanced Scorecard, Six Sigma und EFQM-Modell, in: QZ, 47. Jg., 2002, S. 1268-1271. Metzen, H. (1994): Zauberformel Reengineering – Was wirklich dahintersteckt, in: MM, o.Jg., H. 11/ 1994, S. 279-282. Michalewicz, Z. (1995): A survey of constraint handling techniques in Evolutionary computation methods, in McDonnell, J./ Reynolds, R./ Fogel, D. (Hrsg.): Evolutionary Programming IV, MIT Press: Cambridge/ MA 1995, S. 135-155. Michalewicz, Z. (1996): Genetic Algortihms Data Structures = Evolution Programs, 3. Aufl., Berlin et al. 1996. Michalewicz, Z./ Deb, K./ Schmidt, M./ Stidsen, T. (2000): Test-Case Generator for Nonlinear Continuous Parameter Optimization Techniques. IEEE Transactions on Evolutionary Computation, 4. Jg., H. 3, S. 197-215. Michalewicz, Z./ Fogel, D.B. (2000): How to Solve It: Modern Heuristics, Berlin/ Heidelberg/ New York 2000. Miller, D. (1982): Evolution and Revolution: A quantum view of structural change in organizations, in: J. Mgmt. Studies, 19. Jg., H. 2, S. 131-151. Miller, D./ Friesen, P.H. (1984): Organizations – A Quantum View, Englewood Cliffs, NJ 1984. Miller, D./ Hartwick, J. (2003): Schein oder Sein?, in: HBm, 25. Jg., H. 2, S. 1819. Mintzberg, H. (1979): The Structuring of Organizations: A Synthesis of the Research, Englewood Cliffs, New York 1979.
368
Literaturverzeichnis
Mitchell, W.F./ Kowalik, Th.F. (1999): Creative Problem Solving, 3. Aufl., in: http://ceo.binghamton.edu/kowalik/docs/CreativeProblemSolving.pdf (Abruf: 10.01.2007). Montgomery, D.C. (2000): Design and Analysis of Experiments, 5. Aufl., New York 2000. Müller-Stewens, G./ Lechner, Ch. (2003): Strategisches Management – Wie strategische Initiativen zum Wandel führen, 2. Aufl., Stuttgart 2003. Nakayama, M. (1988): Creative Thinking course Training, Text 4, Creative Engineering Institute, Tokyo 1988. Nelder, J.A./ Mead, R. (1965): A Simplex method for function minimization, in: Computer Journal, 7. Jg., S. 308-313. Nelson, R.R./ Winter S.G. (1982): An Evolutionary Theory of Economic Change, Cambridge (Mass.)/ London 1982. Neumann, R. (2000): Die Organisation als Ordnung des Wissens, Wiesbaden 2000. Nicolai, A.T. (2004): Der „trade-off” zwischen „rigour” und „relevance” und seine Konsequenzen für die Managementwissenschaften, in: ZfB, 74. Jg., H. 2, S. 99118. Nicolai, A.T./ Kieser, A. (2002): Trotz eklatanter Erfolglosigkeit: Die Erfolgsfaktorenforscher weiter auf Erfolgskurs, in: DBW, 62. Jg., H. 6, S. 513-540. Nissen, V. (1997): Einführung in Evolutionäre Algorithmen – Optimierung nach dem Vorbild der Evolution, Braunschweig/ Wiesbaden 1997. Nollau, V. (1993): Mathematik für Wirtschaftswissenschaftler, Leipzig 1993. Nürnberger, G./ Walz, G./ Zeilfelder, F. (2003): Splinefunktionen, in: Walz, G. (Hrsg.): Faszination Mathematik, Heidelberg/ Berlin 2003, S. 325-334. o.V. (2005): Abrufard-Methodenbeschreibung: Paarweiser Vergleich, in: archiv. tu-chemnitz.de/pub/2005/0025/data/Paar.pdf (Abruf: 18.06.2006). Ohno, T. (1993): Das Toyota-Produktionssystem, Frankfurt/ M. 1993. Ophey, L. (2005): Entwicklungsmanagement: Methoden in der Produktentwicklung, Berlin/ Heidelberg 2005. Orloff, M.A. (2002): Grundlagen der klassischen TRIZ: Ein praktisches Lehrbuch des erfinderischen Denkens für Ingenieure, Berlin/ Heidelberg 2002. Orvosh, D./ Davis, L. (1994): Using a Genetic Algorithm to optimize problems with feasability constraints, in: Fogel, D. (Hrsg.): Proceedings of the First Annual Conference on Evolutionary Computation, IEEE Press: Orlando/ FL 1994, S. 548552.
Literaturverzeichnis
369
Osborn, A.F. (1993): Applied imagination: Principles and procedures of creative problem-solving, 3. Aufl., Buffalo/ NY 1993 (Erstveröffentlichung: 1953). Ose, G. (1973): Ausgewählte Kapitel der Mathematik, 7.Aufl., Leipzig 1973. Osterloh, M./ Frost, J. (1994): Business Reengineering – Modeerscheinung oder „Business Revolution“?, in: zfo, 63. Jg., H. 6, S. 356-363. Otto, B. (2007): Liebesheirat Qualität und Innovation?, in: Quality Engineering, o.Jg., H. 7-8/2007, S. 10-11. Otto, K.-S./ Nolting, U./ Bässler, Ch. (2007): Evolutionsmanagement – Von der Natur lernen: Unternehmen entwickeln und langfristig steuern, München/ Wien 2007. Pande, P.S./ Neuman, R.P./ Cavanagh, R.R. (2000): The Six Sigma Way – How GE, Motorola, and other top companies are honing their performance, New York 2000. Panny, W. (1978): Verfahren zur Lösung des Traveling-Salesman-Problems unter besonderer Berücksichtigung der Methode „Branch-and-Bound“, Diss., Wien 1978. Parnes, S.J. (Hrsg.) (1992): Source book for creative problem-solving: A fifty year digest of proven innovation processes, Buffalo/ NY 1992. Peters, D./ Gorges-Schleuter, M./ Parodat, S. (1999): Modellbasierte Optimierung mit mathematischen Methoden – ein Vergleich von klassischen und evolutionären Verfahren, in: 7. GMM-WS „Methoden und Werkzeuge zum Entwurf von Mikrosystemen“, Paderborn, 21.-22. Jan. 1999, S. 127-136. Peters, T.J./ Waterman, R.H. (1982): In Search of Excellence – Lessons from America’s Best-run Companies, New York et al. 1982. Pfeifer, T. (2001): Qualitätsmanagement: Strategien, Methoden, Techniken, 3. Aufl., München/ Wien 2001. Pfeifer, T. (2002): Quality Management, München 2002. Pham, D.T./ Karaboga, D. (2000): Intelligent Optimization Techniques – Genetic Algorithms, Tabu Search, Simulated Annealing and Neural Networks, London 2000. Plackett, R.L./ Burman, J.P. (1946): The design of optimum multifactorial experiments, Biometrica, 33. Jg., S. 305-325. Pleschak, F./ Sabisch, H. (1996): Innovationsmanagement, Stuttgart 1996. Popper, K.R. (1969): Conjectures and refutations – The growth of scientific knowledge, London 1969.
370
Literaturverzeichnis
Popper, K.R. (1971): Logik der Forschung – Zur Erkenntnistheorie der modernen Naturwissenschaft, Tübingen 1971 (Erstveröffentlichung: 1935). Porter, M.E. (1988): Wettbewerbsstrategie, 5. Aufl., Frankfurt/ M. 1988. Price, G.M. (1970): The Practice of Creativity, New York 1970. Prisching, M. (2005): Irrtümer über Innovationen, in: zfo, 74. Jg., H. 4/2005, S. 238-239. ProcessTeam (Hrsg.) (2006): An Overview of DFSS and its application in CMMI programs, 19.11.2006, im Internet unter: http://processteam.org/?p=5, (Abruf: 25.06.2007). Pyzdek, Th. (2003a): The Six Sigma Handbook: The Complete Guide for Greenbelts, Blackbelts, and Managers at All Levels, 2. Aufl., McGraw-Hill: New York et al. 2003, S. 665-704. Pyzdek, Th. (2003b): DMAIC and DMADV, in: http://www.pyzdek.com/DMAICDMADV.htm (Abruf: 15.09.2005). Q-DAS (Hrsg.) (2002): Informationen zu Six Sigma, in: http://www.q-das.de/6sigma_ausbildung.htm (Abruf: 26.11.2002). Quality Digest (Hrsg.) (2003): Six Sigma Survey, im Internet unter: http://www.qualitydigest.com/feb03/articles/01_article.shtml (Abruf: 10.05.2005) Real, L.A. (1980): Fitness uncertainty and the role of diversification in evolution and behavior, in: American Naturalist, 115. Jg., H. 5, S. 623-638. Rechenberg, I. (1965): Cybernetic solution path o an experimental problem, Royal Aircraft Establishment, Library translation H. 1122, Farnborough/ Hants. 1965. Rechenberg, I. (1973): Evolutionsstrategie: Optimierung technischer Systeme nach Prinzipien der biologischen Evolution, Stuttgart 1973. Reeves, C. (1993): Diversity and Diversification in Algorithms: Some connections with Tabu Search, in: Albrecht, R./ Reeves, C./ Steele, N. (Hrsg.): Artificial Neutral Nets and Genetic Algorithms, Springer-Verlag: New York 1993, S. 344-351. Rehbehn, R./ Yurdakul, Z.B. (2005): Mit Six Sigma zu Business Excellence: Strategien, Methoden, Praxisbeispiele, 2. Aufl., München/ Erlangen 2005. Reinelt, G. (1994): The Traveling Salesman: Computational Solutions for TSP Applications, Vol. 840 of Lecture Notes in Computer Science, Berlin 1994. Rigby, D. (2003): Management Tools 2003, in: http://www.bain.com/management_tools/strategy_brief.pdf (Abruf: 12.01.2005). Role, P.G. (2002): Design For Six Sigma (DFSS): Example for Pump Design and Tolerance, in: http://www.isixsigma.com/library/content/c020320a.asp (Abruf: 25.03.2002).
Literaturverzeichnis
371
Rommel, G. et al. (1995): Qualität gewinnt: Mit Hochleistungskultur und Kundennutzen an die Weltspitze, Stuttgart 1995. Rosenbrock, H.H. (1960): An Automatic Method for finding the Greatest or Least Value of a Function, Computer Journal, 3. Jg., H. 3, S. 175-184. Rosenman, M. (1997): The Generation of form Using an Evolutionary Approach, in: Dasgupta, D./ Michalewicz (Hrsg.): Evolutionary Algorithms in Engineering Applications, Berlin et al. 1997, S. 69-86. Rosenthal, R.E. (1985): Concepts, Theory and Techniques, Principles of Multiobjective Optimization, in: Decision Sciences, 16. Jg., H. 2, S. 133-152. Rynes, S.L./ Bartunek, J.M./ Daft, R.D. (2001): Across the Great Divide: Knowledge creation and transfer between practioners and academics, in: Academy of Management Executive, 44. Jg., H. 2, S. 340-355. Saatweber, J. (1997): Kundenorientierung durch Quality Function Deployment, München/ Wien 1997. Sauerwein, E./ Bailom, F./ Matzler, K./ Hinterhuber, H.H. (1996): The Kano Model: How to delight your customers, in: Preprints Volume I of the IX. International Working Seminar on Production Economics, Innsbruck/ Igls, Austria, February 19-23 1996, S. 313-327. Scherer, A.G. (2002): Kritik der Organisation oder Organisation der Kritik? – Wissenschaftstheoretische Bemerkungen zum kritischen Umgang mit Organisationstheorien, in: Kieser, A. (Hrsg.): Organisationstheorien, 5. Aufl., Stuttgart 2002, S. 1-38. Scherer, A.G./ Dowling, M.J. (1995): Towards a reconciliation of the theory pluralism in strategic management: Incommensurability and the constructivist approach of the Erlangen School, in: Shrivasta, P./ Stubbart, Ch.I. (Hrsg.): Advances in Strategic Management II, Greenwich 1995. Scheuch, F. (2007): Marketing, 6. Aufl., München 2007. Schierenbeck, H. (2003): Grundzüge der Betriebswirtschaftslehre, 16. Aufl., München 2003. Schipp, B./ Töpfer, A. (2007): Statistische Anforderungen des Six Sigma Konzepts, in: Töpfer, A. (Hrsg.): Six Sigma: Konzeption und Erfolgsbeispiele für praktizierte Null-Fehler-Qualität, 4. Aufl., Berlin/ Heidelberg 2007, S. 196-204. Schittkowski K./ Zillober C./ Zotemantel R. (1994): Numerical Comparison of Nonlinear Programming Algorithms for Structural Optimization Structural Optimization, 7. Jg., H. 1, S. 1-28. Schittkowski, K. (1999): Mathematische Grundlagen von Optimierungsverfahren (Vorlesungsskript), Universität Bayreuth (1999), in: http://www.uni-bayreuth.de/ departments/math/~kschittkowski/skript.pdf (Abruf: 03.02.2007).
372
Literaturverzeichnis
Schlicksupp, H. (2004): Innovation, Kreativität und Ideenfindung, 6. Aufl., Würzburg 2004. Schmelzer, H.J./ Sesselmann, W. (2004): Geschäftsprozessmanagement in der Praxis – Produktivität steigern, Wert erhöhen, Kunden zufrieden stellen, 4. Aufl., München/ Wien 2004. Schmieder, M. (2003): Vorsichtige Annäherung – Studie: Anwendung von Six Sigma in Deutschland, in: QZ, Jg. 48, H. 7, S. 698-700. Schmieder, M. (2005): 100.000-mal gespart (Interview), in: CIO – IT-Strategie für Manager, 22.03.2005, im Internet unter: http://www.six-sigma-deutschland.de/ docs/Presse/CIO%20Artikel.pdf (Stand: 23.04.2007). Schmieder, M. (2005): Six Sigma in Deutschland – Eine aktuelle empirische Untersuchung, in: Moormann et al. (Hrsg.): Six Sigma in der Finanzbranche (Konferenzband), Frankfurt/ M., 10.02.2005. Schmitting, W. (1999): Das Traveling-Salesman-Problem – Anwendungen und heuristische Nutzung von Voronoi-/ Delaunay-Strukturen zur Lösung euklidischer, zweidimensionaler Traveling-Salesman-Probleme, Diss., Universität Düsseldorf 1999, in: http://www.ulb.uni-duesseldorf.de/diss/wiwi/1999/schmitting.html (Abruf: 08.07.2006). Schöning, U. (2006): Ideen der Informatik – Grundlegende Modelle und Konzepte, 2. Aufl., München/ Wien 2006. Schreyögg, G./ Geiger, D. (2003): Wenn alles Wissen ist, ist Wissen am Ende nichts?!, in: DBW, 63. Jg., H. 1, S. 7-22. Schreyögg, G./ Kliesch, M. (2006): Zur Dynamisierung Organisationaler Kompetenzen – „Dynamic Capabilities“ als Lösungsansatz?, in: ZfbF, 58. Jg., H. 6, S. 455-476. Schröder, H.-H. (2002): Paradigmen für das Management von Innovationen – Eine kritische Analyse, in: Strebel, H. (Hrsg.): Innovation und Umwelt, Graz/ Wien 2002, S. 23-76. Schumpeter, J.A. (1997): Theorie der wirtschaftlichen Entwicklung, 9. Aufl., Berlin 1997 (Erstveröffentlichung: 1912). Schurr, S. (2002): Magische 3,4 und mehr – Design for Six Sigma verwirklicht den integrierten Methodeneinsatz, in: QZ, 47. Jg., H. 3, S. 246-248. Schwefel, H.-P. (1981): Numerical Optimization of Computer Models, John Wiley & Sons: Chichester 1981. Schweitzer, P. (1999): Systematisch Lösungen finden, Zürich 1999.
Literaturverzeichnis
373
Seghezzi, H.D. (2006): Innovation als erstrangiger Erfolgsfaktor exzellenter Organisationen, in: Schnauber, H. (Hrsg.): Kreativ und konsequent: Walter Masing, ein Leben für die Qualität, München/ Wien 2006, S. 153-160. Seghezzi, H.D./ Fahrni,F./ Herrman, F. (1996): Integriertes Qualitätsmanagement – Das St. Galler Konzept, 2. Aufl., München 1996. Seiffge-Krenke, I. (1974): Probleme und Ergebnisse der Kreativitätsforschung, Bern 1974. Seiwert, M./ Bergemann, M./ Pecher, U. (2006): Es werde Licht!, in: WiWo, 02.10.2006, o.Jg., H. 40, S. 76-90. Seufferlein, R./ Kaps, M. (2004): Wie Six Sigma-Projekte sicher scheitern – oder gelingen (Teil 1-6), in: QZ, 49. Jg., H. 5-9. Seyffert, W. (2003): Lehrbuch der Genetik, 2. Aufl., Heidelberg/ Berlin 2003. Shenhar, A.J. (1998): From Theory to Practice: Towards a Typology of ProjectManagement Styles, in: IEEE-Transactions on Engineering Management, 45. Jg., H. 1, S. 33-48. Shingo, S. (1993): Das Erfolgsgeheimnis der Toyota-Produktion. Eine Studie über das Toyota-Produktionssystem – genannt die „Schlanke Produktion“, 2. Aufl., Landsberg/ Lech 1993. Shrivastava, P. (1987): Rigor and practical usefulness of research in Strategic Management, in: Strategic Management Journal, 8. Jg., H. 1, S. 77-92. Shub, L. (2007): Rote Karte für die Matrix, in: QZ, 52. Jg., H. 1, S. 20-21. Simon, H./ Dahlhoff, D. (1998): Target Pricing und Target Costing mit Conjoint Measurement – Wege zum Preiskonsens zwischen Controlling und Marketing, in: Controlling, 10. Jg., H. 2, S. 92-96. Simon, H.A. (1976): Administrative Behaviour – A study of decision-making processes in administrative organizations, 3. Aufl., New York 1976 (Erstveröffentlichung: 1945). Simon, K. (2002): What is DFSS, im Internet unter: http://www.isixsigma.com/library/content/c020722a.asp (Abruf: 12.12.2002). Simon, W./ Piroh, S. (2002): Moderne Managementkonzepte von A-Z – Strategiemodelle, Führungsinstrumente, Managementtools, Offenbach 2002. Simonton, D.K. (2000): Creativity – Cognitive, personal, developmental, and social aspects, in: American Psychologist, 55. Jg., H. 1, S. 151 –158. Sims, K. (1994): Evolving 3D Morphology and Behaviour by Competition, in: Brooks, R./ Maes, P. (Hrsg.): Artificial Life IV Proceedings, Cambridge 1994, S. 28-39.
374
Literaturverzeichnis
Sobottka, S./ Günther, S./ Großekatthöfer, J. (2007): Praktizierte Null-FehlerQualität im Krankenhaus durch Six Sigma, in: Klinikmanagement – Der Weg zum wirtschaftlichen wettbewerbsorientierten Unternehmen, Schriftlicher Management-Lehrgang, Euroforum-Verlag 2007, Lektion 8, S. 1-97. Sommerhoff, B./ Kaerkes, W. (2006): ExBa 2005 Spezial: Qualitätsmanagement in Deutschland – Den Spiegel vorhalten, in: QZ, 51. Jg., H. 2, S. 16-22. Spiegel-Online (Hrsg.) (2007): Neuer Auto-Weltmarktführer: Toyota ganz oben, ganz vorn, 24.04.2007, in: http://www.spiegel.de/wirtschaft/0,1518,479007,00. html (Abruf: 24.04.2007). Sponner, B./ Hoffmann, J./ Garba, M. (2000): Fehler erkannt – Kosten gebannt: Ganzheitliche System-FMEA unter Moderation senkt Kosten, in: QZ, 45. Jg., H. 10, S. 1279-1284. Sprave, J. (1999): Ein einheitliches Modell für Populationsstrukturen in Evolutionären Algorithmen, Diss., Universität Dortmund 1999, in: https://eldorado.unidortmund.de/dspace/bitstream/2003/2740/2/spravesig.pdf (Abruf: 06.03.2006). Staehle, W.H. (1999): Management: Eine verhaltenswissenschaftliche Perspektive, 8. Aufl., München 1999. Stahlberg, D./ Frey, D. (1996): Einstellungen: Struktur, Messung und Funktion, in: Stroebe, W./ Hewstone, M./ Stephenson, G.M. (Hrsg.): Sozialpsychologie: Eine Einführung, 3. Aufl., Berlin 1996, S. 219-252. Stearns, S.C. (2000): Daniel Bernoulli (1738): Evolution and Economics under Risk, in: Journal of Bioscience, 3. Jg., H. 25, S. 221-228. Steinbach, R.F. (1997): Integratives Qualitäts-, Zeit- und Kostenmanagement – Entwicklung und Implementierung eines ganzheitlichen Management-Konzepts, Frankfurt/ M. et al. 1997. Steiner, W./ Hruschka, H. (2003): Genetic Algorithms for product design: how well do they really work?, in: International Journal of Market Research, 45. Jg., Nr. 2, S. 229-240. Steiner, W.J./ Baumgartner, B. (2004): Conjoint-Analyse und Marktsegmentierung, in: ZfB, 74. Jg., H. 6, S. 611-635. Steinmann, H./ Scherer, A.G. (1994): Lernen durch Argumentieren: Theoretische Probleme konsensorientierten Handelns, in: Albach, H. (Hrsg.): Globale Soziale Marktwirtschaft. Festschrift für Santiago Garcia Echevaria, Wiesbaden 1994, S. 263-285. Stoner, J./ Freeman, R.E. (1989): Management, 4. Aufl., Englewood Cliffs: New York 1989. Straub, W./ Forchhammer, L. (1995): Berater können erfolgreicher werden, in: HBm, 17. Jg., H. 3, S. 9-12.
Literaturverzeichnis
375
Streim, H. (1975): Heuristische Lösungsverfahren – Versuch einer Begriffsklärung, in: Zeitschrift für Operations Research, Bd. 19 (1975), S. 143-162. Sturm, R. (2005): Entscheidungen und Entscheidungsmodelle, in: WISU, 34. Jg., H. 01/05, S. 56-59. Taguchi, G. (1989): Introduction to quality engineering, 7. Aufl., Hong Kong 1989. Takeda, H. (1995): Das synchrone Produktionssystem – Just-in-time für das ganze Unternehmen, Landsberg/ L. 1995. Teichert, T./ Talaulicar, T. (2002): Managementkonzepte im betriebswirtschaftlichen Diskurs: Eine bibliometrische Klassifizierung, in: DBW, 62. Jg., H. 4, S. 409-426. Tennant, G. (2002): Design For Six Sigma – Launching New Products and Services Without Failure, Gower Publishing: Aldershof 2002. Teufelsdorfer, H./ Conrad A. (1998): Kreatives Entwickeln und innovatives Problemlösen mit TRIZ/ TIPS, Erlangen/ München 1998. The Co-Creativity Institute (Hrsg.) (1995): Creative Problem Solving, in: http://www.stuart.iit.edu/courses/mgt581/filespdf/cps.pdf (Abruf: 18.03.2006). Thelen, E./ Koll, O./ Mühlbacher, H. (2000): Prozessorientiertes Management von Kundenzufriedenheit, in: Hinterhuber, H./ Matzler K. (Hrsg.): Kundenorientierte Unternehmensführung: Kundenorientierung – Kundenzufriedenheit – Kundenbindung, 2. Aufl., Wiesbaden 2000, S. 230-247. Thiemer, A. (2005): Genetischer Algorithmus, Ökonomik interaktiv, in: WISU, 34. Jg., 02/05 (Elektronisches Dokument: MathCad 8). Thom, N. (1980): Grundlagen des betrieblichen Innovationsmanagements, 2. Aufl., Königstein/ Ts. 1980. Thom, N./ Etienne, M. (2001): Business Reengineering, in: Zollondz, H.D. (Hrsg.): Lexikon Qualitätsmanagement: Handbuch des modernen Managements auf Basis des Qualitätsmanagements, München/ Oldenbourg 2001. Thomke, S. (2003): Innovationen für den Service, in HBm, 25. Jg., H. 7, S. 45-59. Thurstone, U. (1927): A law of comparative judgement, Psychol.Review, 34. Jg., S. 273-286. Todd, S./ Latham, W. (1992): Evolutionary Art and Computers, Academic Press: London 1992. Tomys, A.K. (1995): Kostenorientiertes Qualitätsmanagement – Qualitätscontrolling zur ständigen Verbesserung der Unternehmensprozesse, München/ Wien 1995.
376
Literaturverzeichnis
Töpfer, A. (1995): New Products – Cutting the Time to Market, in: Long Range Planning, 28. Jg., H. 2, S. 61-78. Töpfer, A. (1996): Das neue Denken in Geschäftsprozessen, in: Töpfer, A. (Hrsg.): Geschäftsprozesse: analysiert & optimiert, Neuwied/ Kriftel/ Berlin 1996, S. 1-22. Töpfer, A. (2000): TQM und BSC: Zwei sich ergänzende Managementkonzepte, in: Töpfer, A. (Hrsg.): Das Management der Werttreiber – Die Balanced Score Card für die Wertorientierte Unternehmenssteuerung, Frankfurt/ M. 2000, S. 311332. Töpfer, A. (2002): Entwicklungsstufen, Ergebnisse und Erfolge umgesetzter Business Excellence, in: Töpfer, A. (Hrsg.): Business Excellence – Wie Sie Wettbewerbsvorteile und Wertsteigerung erzielen, Frankfurt/ M. 2002, S. 27-65. Töpfer, A. (2006): Wertsteigerung durch Business Excellence und praktizierte Null-Fehler-Qualität, in: Schweickart, N./ Töpfer, A. (Hrsg.): Wertorientiertes Management, Berlin/ Heidelberg 2006, S. 411-420. Töpfer, A. (2007) (Hrsg.): Six Sigma – Konzeption und Erfolgsbeispiele für praktizierte Null-Fehler-Qualität, 4. Aufl., Berlin/ Heidelberg 2007. Töpfer, A. (2007a): Betriebswirtschaftslehre – Anwendungs- und prozessorientierte Grundlagen, 2. Aufl., Berlin/ Heidelberg 2007. Töpfer, A. (2007b): Der Einführungsprozess von Six Sigma, in: Töpfer, A. (Hrsg.): Six Sigma – Konzeption und Erfolgsbeispiele für praktizierte Null-FehlerQualität, 4. Aufl., Berlin/ Heidelberg 2007, S. 207-238. Töpfer, A. (Hrsg.) (2008): Handbuch Kundenmanagement – Anforderungen, Prozesse, Zufriedenheit, Bindung und Wert von Kunden, 3. Aufl., Berlin/ Heidelberg 2008. Töpfer, A. (2009): Erfolgreich Forschen – Ein Leitfaden für Bachelor-, MasterStudierende und Doktoranden, Berlin/ Heidelberg 2009. Töpfer, A./ Günther, S. (2007a): Steigerung des Unternehmenswertes durch NullFehler-Qualität als strategisches Ziel: Überblick und Einordnung der Beiträge, in: Töpfer, A. (Hrsg.): Six Sigma – Konzeption und Erfolgsbeispiele für praktizierte Null-Fehler-Qualität, 4. Aufl., Berlin/ Heidelberg 2007, S. 3-40. Töpfer, A./ Günther, S. (2007b): Six Sigma im Entwicklungsprozess – Design for Six Sigma, in: Töpfer, A. (Hrsg.): Six Sigma – Konzeption und Erfolgsbeispiele für praktizierte Null-Fehler-Qualität, 4. Aufl., Berlin/ Heidelberg 2007, S. 100171. Töpfer, A./ Günther, S. (2007c): Six Sigma im Wirkungsverbund mit ISO 9000: 2000, in: Töpfer, A. (Hrsg.): Six Sigma – Konzeption und Erfolgsbeispiele für praktizierte Null-Fehler-Qualität, 4. Aufl., Berlin/ Heidelberg 2007, S. 335-351.
Literaturverzeichnis
377
Töpfer, A./ Günther, S./ Garzinsky, B. (2007): Konzeption und Umsetzung von Six Sigma Trainings in einem mehrstufigen Einführungsprozess, in: Töpfer, A. (Hrsg.): Six Sigma – Konzeption und Erfolgsbeispiele für praktizierte Null-FehlerQualität, 4. Aufl., Berlin/ Heidelberg 2007, S. 250-277. Vahs, D./ Burmester, R. (2005): Innovationsmanagement, 3. Aufl., Stuttgart 2005. Voelpel, S./ Leibold, M. (2006): Mehr ist nicht gleich besser, in: Personalwirtschaft, 33. Jg., H. 12, S. 12-16. von der Oelsnitz, D. (1999): Marktorientierte Organisationsgestaltung – Eine Einführung, Stuttgart 1999. von Hippel, E. (1988): The sources of Innovation, Oxford: Oxford University Press: Oxford 1988. von Lanzenauer, C. H./ Huesmann, M. (2004): Gestern, heute und kein Morgen: Der schnelle Aufstieg und rasante Niedergang von TQM, in: zfo, 73. Jg., H. 5/ 2004, S. 253-259. von Regius, B. (2006): Qualität in der Produktentwicklung: Vom Kundenwunsch bis zum fehlerfreien Produkt, München/ Wien 2006. Voß, S./ Fiedler, C./ Greistorfer, P. (2000): Meta-Heuristiken als moderne Lösungskonzepte für komplexe Optimierungsprobleme, in: WISU, 29. Jg., 04/00, S. 552-566. Voß, W. et al. (Hrsg.) (2004): Taschenbuch der Statistik, 2. Aufl., München/ Wien 2004. Vriend, N.J. (1995): Self-Organization of Markets: An Example of a Computational Approach, in: Computational Economics, 8. Jg., H. 3, S. 205-231. Walgenbach, P. (2002): Institutionalistische Ansätze in der Organisationstheorie, in: Kieser, A. (Hrsg.): Organisationstheorien, 5. Aufl., Stuttgart 2002, S. 353-402. Walgenbach, P./ Beck, N. (2003): Effizienz und Anpassung. Das Erklärungspotenzial der neoinstitutionalistischen Organisationstheorie am Beispiel ISO 9000, in: DBW, 63. Jg., H. 5, S. 497-515. Wäscher, G. (1998): Local Search, in: WISU, 27. Jg., H. 11/98, S. 1299-1305. Watson, T.J. (1994): Management „flavours of the month“: Their role in managers´ lives, in: The International Journal of Management, 5. Jg., H. 4, S. 893-909. Waxer, Ch. (2002): Process Capability (Cp, Cpk) and Process Performance (Pp, Ppk) – What´s the Difference?, in: http://www.isixsigma.com/library/content/c010806a.asp (Abruf: 14.01.2002). Weckenmann, A./ Brenner, P.-F./ Geiger, D. (2006): Qualitätsbewertung von Innovationen – Neu! Aber auch gut?, in: QZ, 51. Jg., H. 4, S. 80-81.
378
Literaturverzeichnis
Weibull, W. (1951): A statistical distribution function of wide applicability, in: J. Appl. Mech., 18. Jg., H. 3, S. 293-297. Weicker, K. (2002): Evolutionäre Algorithmen, 2. Aufl., Stuttgart 2002. Wessel, G. (2002a): How Motorola managed the Change Process after ist massive Quality Problems in the early 80s, in: www.six-sigma-quality.de (Abruf: 18.06.2002). Wessel, G. (2002b): A Comparision of Traditional TQM Methodologies with the Six Sigma Approach for Quality Management, in: www.six-sigma-quality.de (Abruf: 18.06.2002). Wessel, K.-F. (2003): Qualität – ein Kulturbegriff in Geschichte und Gegenwart, in: Masing, W./ Ketting, M./ König, W./ Wessel, K.-F. (Hrsg.): Qualitätsmanagement – Tradition und Zukunft: Festschrift zum 50-jährigen Bestehen der Deutschen Gesellschaft für Qualität e.V., München/ Wien 2003, S. 1-18. Whitley, R. (1995): Academic Knowledge and Work Jurisdiction Management, in: Organization Studies, 16. Jg., S. 81-105. Wiese, H. (2002): Kooperative Spieltheorie und Koalitionsbildung, Berlin/ Heidelberg/ New York 2002. Wigand, K./ Schnopp, R. (2000): Schritte auf dem Weg zur Einführung der BSC bei Siemens, in: Töpfer, A. (Hrsg.): Das Management der Werttreiber – Die Balanced Score Card für die Wertorientierte Unternehmenssteuerung, Frankfurt/ M. 2000, S. 266-278. Wildemann, H. (1992): Kosten- und Leistungsbeurteilung von Qualitätssicherungssystemen, in: ZfB, 62. Jg., H. 7, S. 767-782. Wildemann, H. (1998): Entwicklungsstrategien zur Marktführerschaft, in: Wildemann, H. (Hrsg.): Strategien zur Marktführerschaft, Frankfurt/ M. 1998, S. 17-39. Williamson, O.E. (1975): Markets and Hierarchies. Analysis and Antitrust Implications, New York/ London 1975. Wimmer, D.A./ Chattergy, R. (1978): Introduction to Non-linear Optimization: A Problem Solving Approach, New York et al. 1978. Winter, S.G. (2003): Understanding Dynamic Capabilities, in: Strategic Management Journal 2003, 24. Jg., H. 10, S. 991-995. Wöhe, G./ Döring, U. (2005): Einführung in die Allgemeine Betriebswirtschaftslehre, 22. Aufl., München 2005. Womack, J.P./ Jones, D.T. (2003): Lean Thinking: Banish Waste and Create Wealth in Your Corporation, 2. Aufl., New York 2003. Womack, J.P./ Jones, D.T./ Roos, D. (1994): Die zweite Revolution in der Automobilindustrie, 8. Aufl., Frankfurt/ M. 1994.
Literaturverzeichnis
379
Wüst, C. (2008): Vom Feind gelernt, in: Der Spiegel, 3/ 2008, S. 116-117. Yang, K./ El-Haik, B. (2003): Design for Six Sigma: A Roadmap for Product Development, McGraw-Hill: New York et al. 2003. Young, W.E./ Trent, R.H. (1969): Geometric mean approximation of individual security and portfolio performance, in: Journal of Finance Quant. Anal., 4. Jg., H. 2, S. 179-199. Zahn, E./ Weidler, A. (1995): Integriertes Innovationsmanagement, in: Zahn, E. (Hrsg.): Handbuch Technologiemanagement, Stuttgart 1995, S. 351-376. Zetterberg, H.L. (1973): Theorie, Forschung und Praxis in der Soziologie, in: König, R. (Hrsg.): Handbuch der empirischen Sozialforschung, Bd. 1, 3. Aufl., Stuttgart 1973, S. 103-160. Zobel, D. (2002): Kreativität braucht ein System, in http://www.triz-online-maga zin.de/ausgabe02_02/artikel_3.htm (Abruf: 02.03.2004). Zollondz, H.-D. (2006): Grundlagen Qualitätsmanagement, 2. Aufl., München 2006. Zollondz, H.D. (Hrsg.) (2001): Lexikon Qualitätsmanagement: Handbuch des modernen Managements auf Basis des Qualitätsmanagements, München/ Oldenbourg 2001. Zucker, L.G. (1987): Institutional Theories of Organizations, in: Annual Review of Sociology, 13. Jg., S. 443-464. Zwicky, F. (1966): Entdecken, Erfinden, Forschen im Morphologischen Weltbild, München/ Zürich 1966.