Eva Best / Martin Weth Process Excellence
Eva Best / Martin Weth
Process Excellence Praxisleitfaden für erfolgreiche...
206 downloads
1279 Views
3MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Eva Best / Martin Weth Process Excellence
Eva Best / Martin Weth
Process Excellence Praxisleitfaden für erfolgreiches Prozessmanagement 4., überarbeitete und erweiterte Auflage
Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar.
Das Werk erschien bisher unter dem Titel: Geschäftsprozesse optimieren – Der Praxisleitfaden für erfolgreiche Reorganisation. 1. Auflage 2003 2. Auflage 2005 Nachdruck der 2. Auflage 2007 3. Auflage 2009 4. Auflage 2010 Alle Rechte vorbehalten © Gabler Verlag | Springer Fachmedien Wiesbaden GmbH 2010 Lektorat: Ulrike M. Vetter Gabler Verlag ist eine Marke von Springer Fachmedien. Springer Fachmedien ist Teil der Fachverlagsgruppe Springer Science+Business Media. www.gabler.de Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlags unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Umschlaggestaltung: KünkelLopka Medienentwicklung, Heidelberg Druck und buchbinderische Verarbeitung: MercedesDruck, Berlin Gedruckt auf säurefreiem und chlorfrei gebleichtem Papier Printed in Germany ISBN 978-3-8349-2211-3
5
Inhaltsverzeichnis Vorwort ............................................................................................................................ 9 1 Denkrahmen für Process Excellence ...................................................................... 11 1.1 Bausteine des Prozessmodells ........................................................................... 12 1.2 Impulse für die Reorganisation ......................................................................... 13 1.3 Methodenbaukasten für Process Excellence...................................................... 15 2 Vorbereitung – Ein guter Anfang ist die Hälfte des Ganzen................................ 17 2.1 Ausgangssituation – Schwäche oder Stärke? .................................................... 18 Zusammenfassung ............................................................................................. 20 2.2 Vision – Der Reorganisation ein Leitbild geben ............................................... 21 2.2.1 Den Namen der Reorganisation zum Programm erklären...................... 22 2.2.2 Der Weg zur richtigen Vision ................................................................ 23 Zusammenfassung ............................................................................................. 24 2.3 Winning Teams – Die richtige Mannschaft....................................................... 25 Zusammenfassung ............................................................................................. 28 2.4 Vorgehensmodell – Mit System zum Erfolg ..................................................... 28 3 Potenzialanalyse – Wer den eigenen Ausgangspunkt nicht kennt, dem nutzt die beste Landkarte nichts ...................................................................................... 33 3.1 Analyse der Kunden und Wettbewerber – Blick nach außen ............................ 34 3.1.1 Wer sind unsere Wettbewerber? ............................................................ 34 3.1.2 Kenne Deine Kunden ............................................................................. 39 Zusammenfassung ............................................................................................. 51 3.2 Analyse der eigenen Kernkompetenzen – Wo sind wir besser? ........................ 53 3.2.1 Generierung von Mehrwert für den Kunden .......................................... 54 3.2.2 Ansatzpunkte für die Prozessoptimierung.............................................. 56 3.2.3 Potenzielle Outsourcing-Kandidaten...................................................... 57 Zusammenfassung ............................................................................................. 59 3.3 Prozessanalyse – Nur wer in Prozessen denkt, blickt durch.............................. 60 3.3.1 Vorbereitung der Prozessanalyse ........................................................... 61 3.3.2 Durchführung der Prozessanalyse.......................................................... 73
6
Inhaltsverzeichnis 3.3.3 Nachbereitung der Prozessanalyse ......................................................... 75 Zusammenfassung ............................................................................................. 82 3.4 Problemdiagnose – Wo die größten Brocken liegen ......................................... 84 3.4.1 Identifikation von Schwachstellen ......................................................... 84 3.4.2 Aufdecken des Ursachen-Wirkungs-Zusammenhangs........................... 92 3.4.3 Identifikation des wirkungsvollsten Stellhebels für die Prozessoptimierung ................................................................................ 95 3.4.4 Mit welchem Problem fangen wir an? ................................................... 98 3.4.5 Erste Erfolge durch Sofortmaßnamen .................................................... 98 Zusammenfassung ........................................................................................... 100 3.5 Zielformulierung – Was nicht gemessen wird, wird nicht getan ..................... 101 3.5.1 Typische Schwachstellen bei der Zielformulierung ............................. 102 3.5.2 Was wohl formulierte Ziele ausmacht ................................................. 104 3.5.3 Wie können Sie die Plausibilität der Ziele überprüfen? ....................... 108 3.5.4 Der Weg zu wohl formulierten Zielen ................................................. 111
4 Redesign – Gratwanderung zwischen Kreativität und Faustregeln.................. 117 4.1 Denkrahmen für das Redesign......................................................................... 118 4.1.1 Tragweite des Redesigns...................................................................... 119 4.1.2 Impulse und Restriktionen für das Redesign........................................ 126 4.1.3 Ansatzpunkte für das Redesign ............................................................ 130 4.1.4 Gestaltungshilfen für das Redesign...................................................... 136 Zusammenfassung ........................................................................................... 139 4.2 Entwicklung von Redesign-Maßnahmen......................................................... 141 4.2.1 Korrespondierende Kundenprozesse.................................................... 141 4.2.2 Wertschöpfungsnetzwerke ................................................................... 145 4.2.3 Prozesseffizienz ................................................................................... 146 4.2.4 Sicherstellen der Prozessqualität.......................................................... 163 4.2.5 Entwurf der Organisationsstruktur ....................................................... 167 4.2.6 Outsourcing von Prozessen .................................................................. 174 Zusammenfassung ........................................................................................... 179 4.3 Analyse der Wirksamkeit – Redesign-Maßnahmen überprüfen...................... 180 4.3.1 Ziele erfassen und gewichten ............................................................... 181 4.3.2 Maßnahmen definieren und erfassen.................................................... 184 4.3.3 Maßnahmen im Target Activity Grid bewerten ................................... 185 4.3.4 Ziel-Index und Maßnahmen-Index ableiten ......................................... 186
Inhaltsverzeichnis
7
4.3.5 Welchen Beitrag leistet das Target Activity Grid?............................... 191 Zusammenfassung ........................................................................................... 192 5 Umsetzung – Die neuen Prozesse in der Organisation zum Laufen bringen .... 195 5.1 Unternehmenskultur – Grenzen der Veränderung ........................................... 196 Zusammenfassung ........................................................................................... 198 5.2 Change Manager – Den Wandel steuern ......................................................... 199 Zusammenfassung ........................................................................................... 201 5.3 Kraftfeld – Im Netz der Beziehungen.............................................................. 202 5.3.1 Beziehungsnetz – Stolpersteine erkennen ............................................ 203 5.3.2 Beziehungsmatrix – Einfluss messen ................................................... 205 Zusammenfassung ........................................................................................... 211 5.4 Umgang mit Widerstand – Gegenwind erzeugt Auftrieb ................................ 212 5.4.1 Keine Veränderung ohne Widerstand? ................................................ 212 5.4.2 Warum wir Widerstand leisten?........................................................... 214 5.4.3 Widerstand erkannt – Gefahr gebannt? ................................................ 216 Zusammenfassung ........................................................................................... 222 6 Nachbereitung – Erfolg messen und Wissen konservieren ................................ 225 6.1 Leistungsmessung – Messen mit System ........................................................ 225 6.1.1 Einseitige Messung vermeiden ............................................................ 227 6.1.2 Leistungsmessung nur mit Akzeptanz der Beteiligten ......................... 229 6.1.3 Effektiv messen mit Management Informations-Systemen.................. 231 Zusammenfassung ........................................................................................... 233 6.2 Wissensmanagement – Erfahrungen aus dem Projekt weitergeben ................ 234 Zusammenfassung ........................................................................................... 239 7 Schlusswort............................................................................................................. 241 Literaturverzeichnis .................................................................................................... 243 Stichwortverzeichnis ................................................................................................... 249 Die Autoren .................................................................................................................. 255
9
Vorwort Was in den Geschäftsberichten großer Aktiengesellschaften steht, ist für die betreffenden Unternehmen in aller Regel von Relevanz. Gemessen daran ist das Thema dieses Buches brandaktuell. Von den 30 DAX-Unternehmen heben 26 in ihren Geschäftsberichten 2008/2009 die Bedeutung des Prozessmanagements explizit hervor. So spricht beispielsweise der Energieriese E.ON davon, im Rahmen einer konzernweiten Initiative die kaufmännischen Prozesse effizienter zu gestalten. Fresenius unterstreicht, dass die Prozesse durch Kennzahlen überwacht und gelenkt werden. Und für die MunichRe sind effiziente Geschäftsprozesse sogar ein Erfolgsfaktor für das Erkennen von Risiken. Ein ähnliches Bild zeichnet sich in der Schweiz ab. 16 der 20 im SMI (Swiss Market Index) kotierten Unternehmen unterstreichen in ihren Geschäftsberichten die Relevanz des Prozessmanagements. So hat der Baustoffkonzern Holcim seine Geschäftsprozesse weltweit standardisiert, um Effizienzpotenziale zu realisieren. Der Schweizer Rückversicherer Swiss Re hat seine Prozesse optimiert, um die Rücklaufzeiten von Offerten zu verkürzen. Und Nestlé spricht sogar von einer „allgemeinen Orientierung hin zu schlankeren Prozessen.“ Die unverkennbare Zuwendung zum Thema des Buches ist nicht zuletzt Folge der Finanz- und Wirtschaftkrise. Diese ist einer der Gründe, weshalb sich die Mehrheit der Unternehmen gegenwärtig in einer großen Umstrukturierung und den damit einhergehenden Veränderungen in der Prozessorganisation befindet. Von der besagten Krise gehen spürbare Impulse aus. Wir haben in unseren Projekten Veränderungen umsetzen können, die noch vor zwei Jahren undenkbar gewesen wären. Diese Beobachtung zeigt umso mehr, dass krisenhafte Zustände wie ein Katalysator für Reorganisationsprojekte wirken. Doch Untersuchungen belegen, dass die Veränderungsbereitschaft nicht überall ausgeprägt ist. Der Widerstand gegen die Veränderungen formiert sich bereits auf der zweiten Hierarchieebene. Die Gestaltung des Wandels im Sinne eines systematischen Change Managements stellt mehr denn je eine zentrale Herausforderung in Veränderungsprojekten dar. Die positive Resonanz auf die ersten drei Auflagen dieses Buchs hat gezeigt, dass die kombinierte Darstellung von Methoden zur Prozessoptimierung in Verbindung mit zahlreichen Beispielen den Erwartungen der Unternehmenspraxis gerecht wird. In der vierten Auflage gehen wir verstärkt auf das Redesign ein. Wir haben in einer Vielzahl von Projekten die Erfahrung gesammelt, dass wirklich innovative Lösungen nicht gefunden werden, weil die Herangehensweise an das Redesign von Anfang an ein „out-of-theBox-Denken“ einschränkt oder sogar ausschließt. Daher stellen wir eine einfache Strukturierungshilfe vor, die es erlaubt, die Redesign-Vorschläge aus verschiedenen Blickwinkeln zu betrachten, und die so den Horizont für neue Ideen erweitert.
10
Vorwort
Wie in den ersten drei Auflagen berichten wir von unserer praktischen Erfahrung aus einer Vielzahl von Veränderungsprojekten. Wir erläutern projekterprobte Methoden und illustrieren diese mit einer Fülle von Beispielen. Unser Ziel ist es, einen praxistauglichen Leitfaden zu liefern, der hilft, Wettbewerbsvorteile durch optimierte Prozesse und Strukturen zu sichern. Wir, Eva Best und Martin Weth, beide Partner von Capitum, haben dazu das Wissen von Capitum zusammen getragen. Sowohl als Mitarbeiter als auch als Berater von Großunternehmen verfügen wir über mehrjährige Erfahrung in Reorganisationsprojekten. In Trainingsprogrammen für Manager vermitteln wir unser Wissen und begleiten Projektteams bei der Durchführung komplexer Veränderungsvorhaben. Besonderer Dank gilt den Kunden von Capitum, die wesentliche Impulse für diese vierte Auflage geliefert haben. Die Denkanstöße und Vorschläge wurden eingearbeitet und unterstreichen die Praxistauglichkeit dieses Buches.
Tägerwilen, Schweiz, im Juli 2010
Eva Best und Martin Weth
11
1 Denkrahmen für Process Excellence Wenn Sie sich einmal Ihre Erfahrungen mit Prozessoptimierungen vor Augen führen, gelangen Sie vermutlich zu einem ernüchternden Urteil: Häufig sind die Projekte gescheitert oder haben zumindest den „großen Wurf“ verfehlt – wie die folgenden Beispiele illustrieren. Da führt ein großer Finanzdienstleistungskonzern eine Initiative zur Prozessoptimierung durch, ohne dabei die relevanten Kennzahlen zur Messung der Prozess-Performance zu definieren. Mit dem Ergebnis, dass die Verbesserungen nicht messbar sind. Ein Energieversorger strebt eine konzernweite Optimierung der Prozesse an. Aus Sorge um Machtverlust sorgt die zweite Managementebene dafür, dass zunächst die neue Organisationsstruktur – und damit die Machtstruktur – zementiert wird und erst danach die Prozesse optimiert werden. Durch diese verkehrte Reihenfolge wird der Gestaltungsspielraum für die Prozessoptimierung derart eingeengt, dass lediglich minimale Verbesserungen realisiert werden können. Ein Elektronikkonzern investiert einen dreistelligen Millionenbetrag in die Reorganisation des Fertigungsprozesses und stellt hinterher fest, dass die Produkte durch ein völlig anderes Produkt am Markt substituiert werden. Diese Auflistung ließe sich durch unzählige Beispiele ergänzen. Alle haben gemein, dass der zu enge Betrachtungswinkel, mit dem die Verantwortlichen die Optimierung der Geschäftsprozesse angegangen sind, wesentliche Faktoren außer Acht lässt. Der Grund ist das Fehlen oder Ignorieren eines gemeinsam beschlossenen Denkrahmens – in der Managementsprache auch als „Shared Mental Model“ bezeichnet. Dieser erleichtert den Blick für das Ganze. Ein hervorstechender Grund für diese Ignoranz ist blinder Aktionismus. Ein Vorstand eines SMI-Unternehmens, der über eine lange Historie an Reorganisationserfahrung verfügt, äußerte uns gegenüber seine diesbezüglichen Eindrücke: „Wenn die Projektbeteiligten sagen, sie haben keine Zeit für die Entwicklung eines ‚Shared Mental Model’, dann ist das in etwa so, als ob der Waldarbeiter keine Zeit mit dem Schärfen der Axt verschwenden will, weil er ja schließlich noch den ganzen Wald abhacken muss.“ Diese Aussage pointiert unsere Erfahrung sehr anschaulich. Die Denkarbeit vor Beginn des eigentlichen Projekts wird häufig dem Ziel geopfert, vorschnell Ergebnisse präsentieren zu wollen. Das ist einer der Hauptgründe, warum viele Projekte scheitern oder eben nicht den gewünschten Erfolg bringen. Wir greifen dieses Defizit auf und stellen hier ein ganzheitliches Prozessmodell vor, mit dem Sie den Gesamtkontext stets im Auge behalten können und so die Gefahr mindern, vor lauter Einzelaktivitäten die große Linie aus den Augen zu verlieren. Der Denkrahmen für Process Excellence ist in Abbildung 1 dargestellt. In den grauen Feldern befinden sich die Bausteine des Prozessmodells: Prozessleistung, Prozesskette, Ressourcen und Führungssystem. Im Hintergrund sind die Impulsgeber für die Reorganisation abgebildet: Markt, Strategie und Rahmenbedingungen.
E. Best, M. Weth, Process Excellence, DOI 10.1007/978-3-8349-8950-5_1, © Gabler Verlag | Springer Fachmedien Wiesbaden GmbH 2010
12
Denkrahmen für Process Excellence
Abbildung 1: Denkrahmen für Process Excellence
1.1 Bausteine des Prozessmodells An den Bausteinen des Prozessmodells aus Abbildung 1 setzt die Optimierung an. Folglich müssen die Bausteine in allen Phasen der Veränderungsinitiative beachtet werden. Prozessleistung: Die Prozessleistung im Inneren der Abbildung bildet den Kern des Prozessmodells. Die Prozessleistung ist der Grund, weshalb der Prozess überhaupt durchgeführt wird. Sie ist Output eines Prozesses, der stets in einen anderen Prozess als Input einfließt. Dabei kann es sich um ein Produkt, eine Dienstleistung oder eine Kombination aus beidem handeln. Empfänger dieser Leistung können unternehmensinterne oder externe Kunden sein. Prozesskette: Ein weiteres Element des Prozessmodells ist die Prozesskette. Sie stellt den Prozessablauf dar: die Abfolge der in einem Prozess zu erledigenden Aufgaben. Letztere bezeichnen wir auch als Prozessschritte. Ressourcen: Ressourcen ermöglichen die Durchführung des Prozesses. Dabei handelt es sich um Mitarbeiter, Technologien wie Produktionsanlagen, Informationstechnologie und Software, aber auch um immaterielle Werte wie Patente oder Kernkompetenzen, die in dem Prozess zum Tragen kommen.
Bausteine des Prozessmodells
13
Führungssystem: Das Führungssystem besteht aus zwei wesentlichen Elementen. Zum einen messen Führungsgrößen, die aus der Geschäftsstrategie abgleitet werden, die Leistungsfähigkeit der Prozesse und ermöglichen eine quantitative Prozesssteuerung. Zum anderen liefert die Organisationsstruktur das „Gerüst“, in dem die Prozesse verankert sind. Die Organisationsstruktur ermöglicht die Zuordnung der Verantwortlichkeiten für den Prozess, legt die Berichtswege fest und bestimmt die Schnittstellen zwischen den Organisationseinheiten, an denen der Prozess unterbrochen wird. Mit diesen vier Bausteinen des Prozessmodells können Sie Ihre gesamte Prozesslandschaft beschreiben. Die idealtypische Beschreibung eines Vertriebsprozesses veranschaulicht diese Zusammenhänge: Das Führungssystem beschreibt, wie der Vertriebsprozess in der Organisationsstruktur verankert ist und enthält konkrete Führungsgrößen für die Kontrolle und die Steuerung wie beispielsweise angestrebter Marktanteil, Anteil neu gewonnener Kunden und die Vorgabe, dass eine Kundenanfrage innerhalb von 24 Stunden beantwortet sein muss. Die Prozessleistung ist ein abgeschlossener Kaufvertrag, der wiederum als Input in den Prozess der Auftragsabwicklung einfließt. Die Prozesskette legt fest, was in welcher Reihenfolge im Vertriebsprozess zu erledigen ist. Dazu gehören beispielsweise Prozessschritte wie „Kunden anrufen“, „Informationsmaterial versenden“, „Verkaufsgespräch durchführen“ und dergleichen. Eine prozessunterstützende Ressource könnte ein klassisches Customer Relationship Management-System sein, aus dem die Vertriebsmitarbeiter die entsprechenden Kundeninformationen erhalten und die Auftragsdaten eingeben. In der Praxis hat sich die konsequente Beschreibung von Prozessen anhand dieser vier Bausteine als besonders hilfreich erwiesen, weil damit rasch ein gemeinsames Verständnis für den Prozess entsteht. Wir beobachten in allen Projekten, dass sogar die am Prozess beteiligten Führungskräfte und Mitarbeiter häufig kein einheitliches Bild über diese vier grundlegenden Bausteine des betrachteten Prozesses haben, was fatal für den weiteren Fortgang des Projekts ist. Zudem legt die nüchterne Analyse dieser Komponenten bereits erste Hinweise auf Optimierungspotenziale offen, womit die Beschreibung dieser Bausteine einen ganz praktischen Nutzen mit sich bringt.
1.2 Impulse für die Reorganisation Veränderungsinitiativen werden nicht zufällig ins Leben gerufen. Die Impulse kommen aus drei Bereichen: der Strategie des Unternehmens beziehungsweise des Unternehmensbereichs, dem Markt oder den Rahmenbedingungen. Dabei gehen mit den Impulsen häufig auch Restriktionen einher. So legt die Unternehmensstrategie die Optimierung des Vertriebsprozesses nahe, engt aber zugleich den Handlungsspielraum ein, weil eine klare Orientierung an den regionalen Marktsegmenten erwünscht ist. Noch deutlicher
14
Denkrahmen für Process Excellence
wird der restriktive Charakter bei gesetzlichen Vorschriften, die hier unter dem Impulsgeber „Rahmenbedingungen“ subsumiert sind. Markt: Hierunter fassen wir alle Akteure im Markt zusammen, also Kunden, Lieferanten und Wettbewerber. Von allen Dreien können Impulse für Reorganisationen ausgehen. Strategie: Die Strategie des Unternehmens oder des Unternehmensbereichs legt zwar nicht konkret fest, wie bestimmte Prozesse optimiert werden sollen, dennoch enthält die Strategie häufig wertvolle Hinweise, die Sie beherzigen müssen. So spielt es für die Prozessgestaltung eine große Rolle, ob das Unternehmen auf bestimmte Kundensegmente oder auf Produktgruppen ausgerichtet werden soll. Es ist entscheidend, ob die Strategie eine regional spezifische oder eine weltweit einheitliche Marktbearbeitung vorsieht. Rahmenbedingungen: Zu den Rahmenbedingungen zählen wir sämtliche Akteure im Umfeld des Unternehmens, die keine Marktteilnehmer sind und dennoch Einfluss auf die Geschicke des Unternehmens haben. Dazu zählen Investoren oder Fremdkapitalgeber, die Öffentlichkeit oder der Gesetzgeber. Es kann sich dabei auch um Forschungsinstitute oder andere Unternehmen handeln, die Technologien zur Verfügung stellen, die wiederum für die Prozessgestaltung von Bedeutung sind. Ein hervorstechendes Beispiel liefert das Internet, das für viele Unternehmen die Grundlage für das Geschäftsmodell liefert. Es versteht sich von selbst, dass die Impulsgeber sich gegenseitig beeinflussen. Eine Vielzahl von Beispielen belegt dies. So entwickelte die Öffentlichkeit (Rahmenbedingungen) in den vergangenen Jahren mehr und mehr Sensibilität für Umweltthemen, was von der Politik (Rahmenbedingungen) aufgegriffen wurde. Die umweltfreundliche Produktion erneuerbarer Energien wurde aus Zwangsabgaben auf den Strompreis subventioniert. So entstand eine Fülle von Unternehmen (Markt), die Anlagen zur Erzeugung erneuerbarer Energien herstellen. Dass die Anzahl der Energieerzeuger (Markt) auf diese Weise sprunghaft gestiegen ist, lässt sich an der unübersehbaren Flut von Solaranlagen auf Gebäudedächern erkennen. Darüber hinaus gibt es gegenwärtig kaum ein Unternehmen, dass das Thema Umweltschutz nicht in seiner Unternehmensstrategie (Strategie) verankert hat – nicht zuletzt für die eigene Imagepflege. Bei Automobilherstellern (Markt) liegt dies auf der Hand. Hier dringt der Gesetzgeber (Rahmenbedingungen) auf einen geringeren CO2-Ausstoss. Aber auch andere Unternehmen, die aufgrund ihrer Geschäftstätigkeit nicht als umweltschädlich eingestuft werden, sind auf diesen Trend aufgesprungen. So wirbt die Deutsche Bank damit, den CO2-Ausstoß sowie den Energieverbrauch ihrer beiden Glastürme in Frankfurt um 50 Prozent zu reduzieren. Ein wesentlicher Impulsgeber für Reorganisationen sind technische Innovationen, die wir zu den Rahmenbedingungen zählen. Beispielsweise sahen die Kunden in den Anfängen des Mobilfunks darin eine völlig andere Art der Kommunikation, da sie – im Gegensatz zum herkömmlichen Telefonieren über das Festnetz – von überall telefonieren
Impulse für die Reorganisation
15
konnten, jedoch zu deutlich höheren Kosten. Diese wahrgenommene Trennung zwischen Mobil- und Festnetz spiegelte sich auch in der organisatorischen Eigenständigkeit der Mobilfunkunternehmen innerhalb der eingesessenen Telekommunikationsgesellschaften wider. Autarkie wurde unter anderem angestrebt, um die in dem neuen Geschäftsfeld Mobilfunk erforderliche Dynamik durch die tradierten Arbeitsweisen der ehemaligen Staatsmonopolisten nicht im Keim zu ersticken. Mittlerweile ist das mobile Telefonieren zu einem festen Bestandteil des alltäglichen Lebens geworden. Kunden betrachten Festnetzprodukte sowie Mobilfunk als eine Dienstleistung. Auch auf der Anbieterseite hat sich die Erkenntnis durchgesetzt, dass die organisatorische Trennung nicht mehr sinnvoll ist, weil diese einen einheitlichen Marktauftritt gegenüber den Kunden behindert. Die einst dynamischen Mobilfunkeinheiten sind längst zu großen – und teilweise auch unbeweglichen – Bereichen mutiert. So ist es nur logisch, dass sowohl die Telekom Austria als auch die Deutsche Telekom ihre Festnetzsparte mit ihrem Mobilfunkgeschäft fusionierten. Durch die Verschmelzungen werden Kosten eingespart, da Doppelstrukturen abgebaut und die Kundenbetreuung gebündelt wurden.
1.3 Methodenbaukasten für Process Excellence Die Optimierung von Geschäftsprozessen erfordert ein systematisches Vorgehen. Im Abschnitt 2.4 (Vorgehensmodell – Mit System zum Erfolg) beschreiben wir die Phasen des Vorgehensmodells, die mit den Kapiteln dieses Buchs korrespondieren: Vorbereitung, Potenzialanalyse, Redesign, Umsetzung und Nachbereitung. Um das Verständnis für die in den einzelnen Phasen beschriebenen Methoden zu erleichtern, haben wir jeweils am Ende der Unterkapitel eine tabellarische Zusammenfassung der Methodenkomponenten skizziert. Dabei betrachten wir die folgenden Aspekte: Aktivitäten Ergebnisse Rollen Techniken In den einzelnen Projektphasen (zum Beispiel Potenzialanalyse) werden bestimmte Aktivitäten (zum Beispiel Prozessanalyse) durchgeführt, die zu einem Ergebnis (zum Beispiel Prozessdokumentation) führen. Dabei werden verschiedene Techniken (zum Beispiel Pareto-Diagramm) durch Projektbeteiligte angewandt, die eine bestimmte Rolle (zum Beispiel Mitglied im Projektteam) ausüben.
16
Denkrahmen für Process Excellence
Die durchgängige Definition dieser vier Methodenkomponenten schafft Transparenz über das Geschehen im Projekt, insbesondere dann, wenn das Veränderungsvorhaben komplex ist. Dieses Vorgehen kann sowohl für ein einzelnes Projekt angewendet werden als auch innerhalb eines kontinuierlich angelegten Prozessmanagements.
17
2 Vorbereitung – Ein guter Anfang ist die Hälfte des Ganzen Ende 1998 wurde der italienische Flughafen Malpensa in der Nähe von Mailand eröffnet. Im Vorfeld wurde Malpensa als zukunftsweisend für andere Flughäfen gepriesen. Doch der Alltag bewies das Gegenteil: Im ersten Quartal 1999 waren 56 Prozent aller Starts in Malpensa durchschnittlich 48 Minuten verspätet. An heißen Sommertagen weichte der Teer auf den Rollbahnen so stark auf, dass einige Maschinen regelrecht stecken blieben. In einem anderen Fall mussten die Passagiere nach der Landung weitere 80 Minuten an Bord sitzen bleiben. Zuerst konnte die Bodenkontrolle dem Piloten keine endgültige Parkposition zuweisen. Nachdem diese gefunden war, dauerte es eine Weile, bis ein Bus für den Transfer zum Terminal bereitstand. Schließlich suchte man eine Treppe, über die die Passagiere das Flugzeug verlassen konnten. Als diese eintraf, stellte sich eine weitere Überraschung ein: Die Treppe war zu kurz. Und dies war kein Einzelfall. Horror stories about Italy’s newest airport are as hot as merger tips Doch nicht nur die Passagiere sollten unter dem neuen Flughafen leiden. Die Anflugrouten für Malpensa waren so konzipiert, dass die Flugzeuge in einer Höhe von 20 bis 30 Metern über die umliegenden Häuser hinwegdonnerten und die Luftverwirbelungen dabei die Dächer abdeckten. Das renommierte Wall Street Journal Europe kommentierte: „Horror stories about Italy’s newest airport are as hot as merger tips during boardroom meeting breaks.“ Malpensa ist ein Musterbeispiel für miserable Geschäftsprozesse. Da der Flughafen neu gebaut wurde, hatten die Planer etliche Freiräume und schufen dennoch ein Desaster. Wer optimale Geschäftsprozesse schaffen will, muss von Anfang an strukturiert vorgehen und eine Fülle gefährlicher Fallstricke beachten – und sollte nicht warten, bis das Desaster über ihn hereinbricht. In diesem Kapitel geben wir Ihnen einige Hinweise, die ganz am Anfang beherzigt werden sollten, damit Ihr Vorhaben in die richtige Richtung geleitet wird. Wir wollen zunächst über die Ausgangssituation einer Reorganisation sprechen. Wir gehen dann auf die Bedeutung eines Leitbildes für die Veränderung ein. Obwohl wir die Grundlagen des Projektmanagements nicht weiter erläutern, dürfen einige wichtige Anmerkungen über die richtige Mannschaft, die das Reorganisationsvorhaben umsetzen soll, nicht fehlen. Und schließlich beschreiben wir ein Vorgehen, dass unserer Erfahrung nach eine syste-
E. Best, M. Weth, Process Excellence, DOI 10.1007/978-3-8349-8950-5_2, © Gabler Verlag | Springer Fachmedien Wiesbaden GmbH 2010
18
Vorbereitung
matische Erfolgssicherung ermöglicht. Die weiteren Kapitel dieses Buches orientieren sich an diesem Vorgehensmodell.
2.1 Ausgangssituation – Schwäche oder Stärke? Voraussetzung für jede Veränderung ist, dass alle Beteiligten verstehen, warum diese gerade jetzt notwendig ist. So bildet die Drohkulisse einer wirtschaftlichen Krise eine vollkommen andere Ausgangssituation für Reorganisationsvorhaben als beispielsweise eine technische Innovation, die eine Anpassung der Prozesse erforderlich macht. Natürlich findet sich auch in wirtschaftlich guten Zeiten genügend Optimierungsbedarf. Und wer strategische Wettbewerbsvorteile und Innovationen realisieren will, tut gut daran, dies aus einer starken Position heraus zu tun, weil dann der Zeit- und Budgetdruck deutlich geringer ist als in der Krise. Ein Leitgedanke im Sport, der gerne auch in Unternehmen zitiert wird, lautet: Never Change a Winning Team. Warum sollte eine Footballmannschaft ausgetauscht werden, wenn sie ein Spiel nach dem anderen für sich entscheidet? Übertragen auf Geschäftsprozesse hieße diese Devise: Never Change a Winning Process. Wie stark der Widerstand ausfällt, wurde sichtbar an der empörten Reaktion der Öffentlichkeit auf die Ankündigung der Deutschen Bank – trotz eines Vorsteuergewinns von 4,1 Milliarden Euro für das Jahr 2004 – auch im Folgejahr circa 6.000 Stellen weltweit, davon 1.920 in Deutschland, abzubauen. Microsoft-Chef Steve Balmer kündigte an, der Konzern wolle im Geschäftsjahr 2004/2005 eine Milliarde US-Dollar an Einsparungen realisieren, weil die Kosten des Unternehmens schneller gestiegen seien als die Umsätze. Angesichts liquider Mittel in Höhe von 56 Milliarden US-Dollar dürfte hier einige Überzeugungsarbeit gegenüber der Belegschaft notwendig gewesen sein, auch wenn die Einsparungen nicht über Entlassungen, sondern über eine konsequentere Zielorientierung umgesetzt werden sollten. Aber genauso wie die Leistungsfähigkeit jedes erfolgreichen Sportlers immer wieder auf dem Prüfstand steht, müssen auch prosperierende Unternehmen ihre Prozesse regelmäßig in Frage stellen. Und das Ganze nicht trotz, sondern gerade wegen ihres Erfolgs. Wenn das, was sich gestern bewährte, heute als Dogma gepredigt wird, kann der Erfolg zum Verhängnis werden. Wen die Götter zerstören wollen, dem schicken sie 40 Jahre zuvor Erfolg Wer dieses indianische Sprichwort versteht, begreift auch, warum Unternehmen sich selbst und damit auch ihre Geschäftsprozesse in Frage stellen müssen. Dennoch zeigt die Realität, dass die Mehrzahl der Unternehmen erst in der Krise tiefgreifende Reor-
Ausgangssituation
19
ganisationen umsetzen. Dabei haben Krisen einen entscheidenden Vorteil: Sie rütteln uns erst richtig wach. Auch der Vorstand der KfW Bankengruppe wurde wachgerüttelt, nachdem die Bank am 15. September 2008 versehentlich 320 Millionen Euro an die damals bereits insolvente Investmentbank Lehman Brothers überwies. Ulrich Schröder, Vorstandsvorsitzende der KfW, räumte ein, dass dieser Vorfall „grundlegende Schwächen in der Aufbau- und Ablauforganisation der KfW“ offenlege. Bedauerlich für den deutschen Steuerzahler, dass die staatseigene Bank diese offensichtlichen Schwachpunkte nicht früher erkannte. Der Skandal um das cholesterinsenkende Medikament Lipobay zog Bayer 2001 in die größte Krise seiner Geschichte. Dieser folgte ein radikaler Umbau des Unternehmens, mit dem die Abspaltung der Chemiesparte unter dem neuen Firmennamen Lanxess einherging. Ohne Krise wäre es wohl kaum zu diesem dramatischen Schritt gekommen. Konnte die Deutsche Telekom im Jahr 2000 durch den Verkauf von Gesprächsminuten im Festnetz noch circa zehn Milliarden Euro umsetzen, werden es 2010 schätzungsweise 1,7 Milliarden Euro sein. Vor diesem Hintergrund sind die gravierenden Einschnitte im Personalbestand der Telekom sowie der Umbau des Konzerns nachvollziehbar. So unterschiedlich die geschilderten Beispiele auch sind, eines haben sie gemeinsam: Sie nutzen die Chance der Krise. Wenn der Leidensdruck groß genug ist, können Veränderungen, die wehtun, leichter umgesetzt werden. Weniger die Einsicht als vielmehr der ökonomische Zwang ist die Triebfeder für Wandelbereitschaft. Der Vorstand will diese Krise als Chance nutzen Der Vorstandsvorsitzende der Thyssen-Krupp AG, Ekkehard Schulz, pointierte 2009 das beflügelnde Moment der Krise mit den folgenden Worten: „Der Vorstand will diese Krise als Chance nutzen, um eine langfristige Unternehmenssicherung und damit auch eine langfristige Arbeitsplatzsicherung zu erreichen.“ Das bedeutete konkret, dass aus den bisherigen fünf Führungsgesellschaften unter dem Dach der Thyssen-Krupp-Holding zwei Divisionen gebildet wurden: Materials mit den Geschäftsfeldern Stahl, Edelstahl, Werkstoffhandel und Dienstleistungen sowie Technologies mit den Geschäftsfeldern Anlagen-, Maschinen-, Schiffs- und Aufzugsbau. Eine derart gravierende Änderung stößt in Zeiten der Krise tendenziell auf eine höhere Akzeptanz. Krisen entfalten ungeahnte Kräfte und schaffen Veränderungsbereitschaft. Damit sind zwei wichtige Voraussetzungen für Reorganisationen geschaffen. Eine erfolgreiche Umsetzung von Reorganisationsprojekten beansprucht eine enorme Kraftanstrengung und viel Zeit, die dem eigentlichen Geschäft des Unternehmens entzogen werden. Kollektiver Einsatz von Management und Mitarbeitern sowie die Einsicht auf beiden Seiten, dass es so nicht weiter geht, sind zwingende Voraussetzungen. Und zu dieser Einsicht gelangen offensichtlich die meisten Unternehmen nur, wenn der Schuh richtig drückt. Nimmt der Druck – aus welchen Gründen auch immer – plötzlich ab, so droht unmittelbare Gefahr für das Reorganisationsvorhaben.
20
Vorbereitung Unsere größte Bedrohung sind wir selbst
Charlie Bell, der im Januar 2005 verstorbene Chef von McDonald’s, brachte es auf den Punkt. In einer Pressekonferenz im September 2004 sagte er vor Journalisten: „Unsere größte Bedrohung sind wir selbst, nicht die Wettbewerber und auch nicht Dokumentarfilmer.“ Letzteres in Anspielung auf den Film „Super Size Me“, der die gesundheitsschädliche Wirkung von Fastfood anklagte und in der Öffentlichkeit auf beachtliche Resonanz stieß. Nachdem die Burgerkette mittlerweile die schwerste Krise in der Unternehmensgeschichte überwunden hatte, warnte Bell davor, sich auf dem Erreichten auszuruhen. Nach wie vor müsse die Qualität der Serviceprozesse erheblich verbessert werden. Der Appell verhallte offenbar nicht ungehört und mündete beispielsweise in Europa in Modernisierungen der Filialen sowie der erfolgreichen Verbreitung des McCafé’s Konzepts. Sinngemäß äußert sich Mikael Ohlsson, Chef des schwedischen Möbelriesen Ikea: „Die Krise hat uns im Endeffekt geholfen, besser zu werden.“ Ikea musste im Jahr 2009 rund 5.000 Stellen streichen und konnte seinen Umsatz um lediglich 1,4 Prozent steigern – ein krisenhaftes Szenario für den wachstumsverwöhnten Möbelhändler. Umso beachtlicher ist es, wenn Unternehmen aus der Situation der wirtschaftlichen Stärke heraus Veränderungen anstoßen, um die Effizienz zu verbessern. So startete der Energieriese E.ON Ende 2008 ein Effizienzsteigerungsprogramm mit dem einprägsamen Namen „Perform to win“, obwohl die Zahlen des Konzerns mit einem Überschuss von 1,6 Milliarden Euro 2008 und 8,6 Milliarden Euro 2009 nicht gerade auf ein krisenhaftes Szenario schließen lassen. Im Geschäftsbericht 2008 heißt es: „Doppelfunktionen und langwierige, bürokratische Entscheidungsprozesse können wir uns in Zukunft noch weniger leisten.“ Diese Voraussicht – aus der Situation der Stärke – ist ebenso bemerkenswert wie selten. Der Vorteil besteht darin, dass der Handlungsdruck für das Unternehmen nicht akut ist und in der Regel ausreichend Ressourcen für die Umsetzung von Redesign-Maßnahmen vorhanden sind. Welchen Einfluss eine Krise auf die Umsetzung von Projekten hat, diskutieren wir in Kapitel 5 (Umsetzung – Die neuen Prozesse in der Organisation zum Laufen bringen). Egal ob aus der Krise geboren oder aus der Position der Stärke, wir plädieren dafür, die Reorganisation als Startpunkt für ein langfristig angelegtes Prozessmanagement zu nutzen. Nur eine kontinuierliche Messung und Steuerung der Prozesse fördert die Wettbewerbsfähigkeit und reduziert den Aufwand künftiger Veränderungen. Wie ein Messsystem für Prozesse aussehen kann, skizzieren wir in Kapitel 6.1 (Leistungsmessung – Messen mit System). Zusammenfassung Die Frage, welche wirtschaftliche Ausgangssituation für tiefgreifende Reorganisationen optimal ist, legt ein Dilemma offen: Zwar wird die Veränderungsbereitschaft beim Management und der Belegschaft durch eine wirtschaftliche Krise gefördert.
Ausgangssituation
21
Damit geht aber zugleich der Nachteil einher, dass die finanziellen Ressourcen sowie die verfügbare Zeit limitiert und der Handlungsspielraum eingeengt sind. Bei Reorganisationen, die in der Situation der Stärke durchgeführt werden, ist die Ausgangssituation genau umgekehrt: Es stehen einerseits ausreichende zeitliche, personelle und finanzielle Ressourcen zur Verfügung, um wohldurchdachte Optimierungsmaßnahmen zu realisieren. Andererseits mangelt es häufig an der Einsicht, dass die Veränderungen überhaupt erforderlich sind. Die überwiegende Mehrzahl der Unternehmen führt tiefgreifende Veränderungen erst durch, wenn akuter Handlungsbedarf besteht. In diesen Fällen sollte die Krise als Chance genutzt werden, um ein kontinuierliches Prozessmanagement zu etablieren. Unternehmen, die ihre Prozesse auch ohne krisenhaftes Szenario hinterfragen, sind ebenso selten wie vorausschauend.
2.2 Vision – Der Reorganisation ein Leitbild geben Im Jahr 1961 formulierte John F. Kennedy die Vision „To have a man on the moon by the end of the decade – and get him back to earth”. Das Ergebnis ist bekannt. Im Jahr 1981 kündigte Michael Bloomberg, einst Wertpapierhändler, seinen Job als Partner bei der Investmentbank Salomon Brothers. Mit einer Abfindung von 10 Millionen USDollar als Startguthaben begann er, seine Vision zu verwirklichen: Er wollte den Händlern, seinen ehemaligen Kollegen, ein Finanzinformationssystem bauen, das nicht nur Finanzdaten und Nachrichten in Echtzeit zur Verfügung stellen kann, sondern auch ein analytisches Werkzeug für den Handel mit Anleihen enthielt. Canon, einst ein kleines japanisches Elektrounternehmen, wollte mit einfachen Kopiermaschinen den Weltmarktführer Xerox aus einer deutlich unterlegenen Position angreifen. Um den Mitarbeitern ein Leitbild für dieses kühne Vorhaben zu geben, formulierte das Management eine einprägsame Vision: Beat Xerox. Canon ist heute im Kopiermarkt mit Xerox gleich auf. Volkswagen schickt sich an, seine Vision zu verwirklichen, bis 2018 Toyota als größten Automobilkonzern der Welt abzulösen und besetzt mit seinen zehn breit aufgestellten Marken systematisch sämtliche Segmente im Automobilmarkt. Großen Veränderungen gehen große Visionen voraus. Die Beispiele zeigen, welche Bedeutung eine Vision bei der Bewältigung des vermeintlich Unmöglichen spielen kann. Die Vision schafft ein klares Bild in Bezug auf die Zielsetzung eines geplanten Vorhabens und hilft damit, das Ziel auch dann nicht aus den Augen zu verlieren, wenn der Weg lang und steinig ist.
22
Vorbereitung
Hinter jedem Veränderungsvorhaben stehen ein erkanntes Problem und eine Strategie, die das Unternehmen verfolgt. Doch gerade am Anfang scheinen die Hürden unüberwindbar und das Vorhaben noch sehr abstrakt zu sein, weil beispielsweise unbekanntes Terrain betreten wird. Gerade dann spielt eine griffige Vision eine entscheidende Rolle. Im Laufe des Projekts muss sie noch in präzise Ziele gefasst werden. Auf die Zielformulierung gehen wir im Abschnitt 3 .5 (Zielformulierung – Was nicht gemessen wird, wird nicht getan) ein.
2.2.1
Den Namen der Reorganisation zum Programm erklären
Die Vision wird in positiver Weise allgegenwärtig, wenn sie und das damit verbundene Ziel sich in dem Namen des Veränderungsvorhabens ausdrücken. Ein Beispiel dafür ist „Dolores“, was für „Dollar low rescue“ steht. Unter diesem Namen startete 1995 Manfred Bischoff, gerade zum Chef der DASA ernannt, ein Sanierungsprogramm. Damals machte ein US-Dollarkurs von umgerechnet 0,72 Euro dem Unternehmen zu schaffen und trug zu einem Verlust von 2,1 Milliarden Euro bei. Während der Verkauf von Flugzeugen in US-Dollar abgerechnet wurde, mussten die Löhne und Gehälter in D-Mark gezahlt werden. Insofern kennzeichnete der Bezug des Projektnamens Dolores zum niedrigen US-Dollar auch gleich das wesentliche Problem, weshalb das Sanierungsprogramm überhaupt erforderlich war. Die Ertragsprobleme in der Mercedes Car Group versuchte 2004 der damalige Chef der Nobelmarke, Eckhard Cordes, mit dem Sparprogramm „CORE“ gegenzusteuern. Auch hier ist der Name zugleich Programm und steht für „Cost down, Revenues up, Execution“. Dass der Begriff CORE mit dem Namen des Initiators fast deckungsgleich ist, mag Zufall sein, unterstreicht aber möglicherweise auch die individuelle Selbstverpflichtung des Managers gegenüber dem Einsparziel von drei Milliarden Euro. Die Lufthansa startete Mitte der neunziger Jahre eine Reorganisationsinitiative mit dem einprägsamen Namen „Programm 15“. Ziel war es, die Kosten pro Sitzkilometer auf unter 15 Pfennig zu drücken. Jeder Mitarbeiter wusste, was Programm 15 bedeutet. Die Lufthansa erreichte ihr Ziel – und ruhte sich nicht auf ihren Lorbeeren aus. Noch vor den Terroranschlägen im September 2001 legte die Airline eine neue, konzernweite Initiative zur Effizienzsteigerung mit dem Namen „D-Check“ auf. So wie Flugzeuge alle paar Jahre auf Herz und Nieren geprüft werden, durchleuchtete der Konzern seine Prozesse und Strukturen. Beim offiziellen Abschluss der Projektinitiative Anfang 2004 konnte die Lufthansa eine Verbesserung des Cash-Flows von 1,6 Milliarden Euro vermelden. Das 2009 gestartete Effizienzsteigerungsprogramm der Lufthansa lautet „Climb 2011“ und baut damit auf die Assoziation mit dem Steigflug, was in der Fachsprache als Climb bezeichnet wird.
Vision
23
Ähnlich wie mit Projektnamen verhält es sich mit Marken. Einer der Pioniere der so genannten Handheld-Computer oder „Persönlicher Digitaler Assistenten“ (PDA) ist das amerikanische Unternehmen Palm, das im April 2010 von Hewlett Packard übernommen wurde. Übersetzt bedeutet Palm Handfläche oder Handbreite. Beides passt zum gleichnamigen Produkt, weil dieses nicht größer als eine Handfläche ist. Und damit verkörpert selbst der Unternehmensname die Vision der eigenen Produkte: einen Computer, der auf eine Hand passt. Natürlich darf es nicht bei schönen Namen und Sinnbildern bleiben. Den Worten müssen Taten folgen. Wenn Sie Ihre Vision in den Namen des Veränderungsvorhabens packen, vergisst keiner, was das Vorhaben bewirken sollte. Daran wird auch Ihr Erfolg gemessen.
2.2.2
Der Weg zur richtigen Vision
Viele Visionen für großangelegte Reorganisationsvorhaben, die von den Unternehmen als solche betitelt werden, lesen sich wie das folgende Beispiel: „Die Optimierung unserer Geschäftsprozesse soll uns helfen, zum besten Anbieter in unserem Markt zu avancieren. Unsere hochqualifizierten Mitarbeiter gewährleisten innovative Produkte und Problemlösungen. Wir wollen maximale Servicequalität durch State-of-the-Art-Technologie bereitstellen. Wir schaffen Mehrwert für unsere Kunden, indem wir Beratungsleistung entlang der gesamten Wertschöpfungskette anbieten. Wir werden unser globales Netzwerk ausdehnen und eine überlegene Vertriebskraft als Wettbewerbsvorteil entwickeln. Im Fokus unseres Handelns stehen die Kunden, die Investoren und die exzellente Qualität unserer Serviceleistung.“ Würde Sie diese Vision wirklich mitreißen? Könnten Sie diese Ihrem Kollegen erklären? Und wissen Sie, welcher Aspekt die höchste Priorität genießt? Ist es die Servicequalität, die State-of-the-Art-Technology oder vielleicht doch eher das globale Netzwerk? Vermutlich lautet Ihre Antwort auf all diese Fragen: Nein. Häufig sind Visionen – ebenso wie in unserem Beispiel – wohl formuliert, aber nichts weiter als eine Ansammlung von Worthülsen. Sie bieten keinerlei Ankerpunkt, an dem sich die Mitarbeiter orientieren können. Zudem sind sie austauschbar. Jedes Unternehmen könnte diese Vision wählen. „Beat Xerox“ dagegen besteht nur aus zwei Worten – und trotzdem dürfte jedem CanonMitarbeiter ohne große Erklärungen glasklar gewesen sein, wo das Unternehmen hin will. Bei General Electric wurden die oben dargestellten Worthülsen auf folgenden Nenner gebracht: „Passion for excellence, hating bureaucracy and all the nonsense that comes with it.“
24
Vorbereitung
Welche Voraussetzungen muss eine Vision oder ein griffiger Name nun für das Veränderungsvorhaben erfüllen? Wenn Sie sich über eine Vision oder den Projektnamen Gedanken machen, dann sollten Sie die folgenden Gesichtspunkte berücksichtigen: Faszinationskraft: Der Zweck einer Vision für die Optimierung der Geschäftsprozesse besteht nicht nur in der Beschreibung des gewünschten Zustands. Vielmehr geht es darum, die kritische Masse an Begeisterungsfähigkeit zu wecken. Es muss für den einzelnen erkennbar sein, warum es sich lohnt der Vision nachzustreben. Überprüfen Sie, ob Ihre Vision eine entsprechende Faszinationskraft auf die betroffenen Mitarbeiter ausübt. Vielleicht wollen die Beteiligten überhaupt nicht, dass die Vision wahr wird? Oder sie erkennen nicht, welchen Vorteil sie selbst davon haben, wenn das Unternehmen beispielsweise die Nummer eins in diesem oder jenem Markt wird. Einprägsamkeit: Eine Vision kann nur so gut sein, wie sie in den Köpfen der Mitarbeiter verankert ist. Achten Sie auf eine klare und verständliche Sprache. Fassen Sie sich kurz. Kein Mitarbeiter wird eine Vision aus mehreren Sätzen herunterbeten. Weder für sich selbst, noch wenn er danach gefragt wird. Schlimmer noch, er wird sie sich noch nicht einmal einprägen. Fokus: Eine Vision muss klar fokussiert sein. Jeder Mitarbeiter muss wissen, wo die Prioritäten liegen. Vermeiden Sie es, in Ihre Vision alles reinpacken zu wollen. Ansonsten verkommt Ihre Vision schnell zu einer Auflistung durchaus wünschenswerter Zustände. Ziellinie: Aus der Vision muss hervorgehen, wann sie erreicht ist. So wie beim Bergsteigen das Gipfelkreuz, muss es einen Punkt geben, der die Verwirklichung der Vision markiert. Zusammenfassung Jede große Veränderung braucht eine Vision. Sie vermittelt ein verständliches Leitbild für die verfolgte Zielsetzung und schafft damit die Grundlage für die durchgängige Unterstützung in der Organisation. Die Vision wird allgegenwärtig, wenn sie sich im Namen des Reorganisationsvorhabens widerspiegelt. Eine gute Vision ⎯
hat Faszinationskraft,
⎯
ist einprägsam sowie
⎯
fokussiert und
⎯
definiert die Ziellinie.
Winning Teams
25
2.3 Winning Teams – Die richtige Mannschaft Wenn Porsche aus mäßigen Einzelteilen ein Vehikel zusammenschrauben würde, wäre das Ergebnis sicherlich kein Luxusauto. Das Gleiche gilt für die Zusammensetzung der Mannschaft, die das Reorganisationsvorhaben durchführen soll. Ein schnell zusammengeflicktes Team produziert höchst wahrscheinlich nur mäßige Ergebnisse. Nur diejenigen zu nehmen, die in der täglichen Arbeit ohnehin entbehrlich sind, ist keine gute Strategie. Was alles schief laufen kann, wenn die Akteure offensichtlich überfordert sind, wurde durch die Flopserie beim so genannten „Virtuellen Arbeitsmarkt“ (VAM) der Bundesagentur für Arbeit mehr als deutlich. Der Bundesrechnungshof kam 2005 zu dem vernichtenden Urteil, dass der VAM schwere Mängel aufweist: Ein Drittel der Suchabfragen führt zu fehlerhaften Ergebnissen, Bewerberprofile sowie Stellenangebote sind unvollständig oder nicht aussagekräftig und die Funktionalität sowie Benutzerfreundlichkeit weisen erhebliche Defizite auf. Nach Berichten der Frankfurter Allgemeine Zeitung stellten die Rechnungsprüfer eine mangelhafte Kompetenz der Projektleitung fest. Letztere sei nicht in der Lage gewesen, die Werk- und Dienstleistungen der Auftragnehmerin, der Unternehmensberatung Accenture, zu beurteilen und abzunehmen. Und dabei ist der VAM nicht gerade ein Schnäppchen. Nach offiziellen Angaben sollen die Kosten rund 100 Millionen Euro betragen. Das Beispiel verdeutlicht, wie wichtig eine wohlüberlegte Auswahl des geeigneten Teams ist. Dabei begeht man häufig einen Spagat. Zum einen braucht das Projektteam einen starken Leiter. Zum anderen sollte das Team aus Mitarbeitern bestehen, die den Mut haben, ihre Ideen zu äußern und Dinge in Frage zu stellen – und sich damit nicht jedem willenlos unterordnen. Wir haben in Abschnitt 1.3 beschrieben, dass Mitarbeiter und Teams die verschiedenen Aktivitäten in unterschiedlichen Rollen ausführen. Diese Rollen werden größtenteils durch die Projektorganisation bestimmt, auf die wir hier nicht weiter eingehen wollen, da deren Definition eine klassische Projektmanagement-Aufgabe darstellt. Ein erheblicher Erfolgsfaktor für das Projekt ist die Auswahl des Projektleiters und der Projektmitarbeiter. Nur wenn diese geeignet sind, ihre Rolle in allen Phasen des Projekts auszufüllen, kann das Projekt erfolgreich durch eventuelle unruhige Fahrwasser gesteuert werden.
26
Vorbereitung
Projektleiter Bei der Auswahl des Projektleiters sollte man große Sorgsamkeit walten lassen. Jede tiefgreifende Reorganisation ist eine aufreibende Angelegenheit. Ähnlich wie beim Frisörbesuch weiß am Anfang keiner so recht, wie die Sache hinterher aussieht. Deshalb bedarf es einer Persönlichkeit mit Stehvermögen und Weitblick. Auch für den Fall, dass der Wind eisig wird, was eigentlich in jedem ernstzunehmenden Veränderungsvorhaben der Fall ist. Um Missverständnissen vorzubeugen: Mit Weitblick meinen wir nicht, dass der Projektleiter aus seiner Helikopter-Perspektive solange über die Details hinwegschwebt, bis ihm der Sprit ausgeht. Vielmehr muss er über eine hohe Fachkompetenz verfügen, die ihn in die Lage versetzt, die Problemstellungen zumindest einordnen und bewerten zu können. Wir haben schlechte Erfahrungen mit Projektleitern gemacht, denen diese Kenntnisse fehlen. Dies gilt für Manager des jeweiligen Unternehmens ebenso wie für externe Berater. Und lang ist die Liste der Szenen, in denen ahnungslose Projektmanager von Reorganisationsgegnern soweit über den Tisch gezogen wurden, bis das Projekt endgültig zum Erliegen kam. Neben Führungserfahrung muss der Projektleiter natürlich auch über genügend Projektmanagement-Know-how verfügen, um das Projekt richtig strukturieren und leiten zu können. Weitere Methodenkompetenzen wie die Kenntnisse von Analyseverfahren gehören dazu. Profunde Kenntnisse hierzu können aber auch von internen oder externen Beratern eingebracht werden. Auch ein Stardirigent kann mit einer Dorfkapelle nicht viel ausrichten Aber damit nicht genug. Ausreichende Fachkenntnis und Methodenkompetenz sind notwendige, aber keinesfalls hinreichende Qualifikationen. Der Kopf der Reorganisation muss zudem über eine hohe soziale Kompetenz verfügen, nach innen und außen. Er muss sein Team zusammenhalten, auch wenn sich die Widersacher auf das Projekt eingeschossen haben und die Motivation der Mannschaft am Boden liegt. Nach außen hin muss er das Projekt unentwegt vorantreiben und sich die Unterstützung des Managements sichern, um die Reorganisation nicht auf halber Strecke versiegen zu lassen. Eine hohe Sozialkompetenz ist insbesondere in der Umsetzungsphase sehr wichtig, worauf wir im Kapitel Umsetzung noch genauer eingehen werden. Es wird nicht leicht sein, eine solche Person zu finden. Aber selbst wenn das geglückt ist, fehlt noch das passende Projektteam. Denken Sie daran, auch ein Stardirigent wird mit einer Dorfkapelle nicht viel ausrichten können.
Winning Teams
27
Projektteam Das Projektteam sollte eine Mischung aus Fach- und Methodenkompetenz sowie ein gesundes Quäntchen Skepsis mitbringen. Mehrere Teammitglieder sollten selbst von der Reorganisation betroffen sein. Erstens steigt die Akzeptanz des Vorhabens, wenn Betroffene von Anfang an beteiligt sind. Und zweitens benötigen Sie deren spezifisches Fachwissen, um die neuen Abläufe auf ihre Praxistauglichkeit zu prüfen. So entziehen Sie sich dem Vorwurf, dass die Prozesse praxisfern seien und Sie doch besser jene Mitarbeiter gefragt hätten, die sich in den Prozessen auskennen. Wenn Sie fachkundige Mitarbeiter für das Projektteam gefunden haben, stehen Sie vermutlich vor dem Problem, dass diese nicht über die erforderliche Methodenkompetenz verfügen. Häufig haben die Kollegen noch nie ein Projekt durchgeführt, ganz zu schweigen davon, dass sie das erforderliche Handwerkszeug für Analysen, Redesign und Projektmanagement souverän anwenden können. Deshalb sollten Sie dem Projektteam ein entsprechendes Training zukommen lassen. Damit verringern Sie nicht nur das Wissensdefizit, sondern schaffen auch das Selbstvertrauen, die anstehende Herausforderung bewältigen zu können. Dieses Training ist selbst dann hilfreich, wenn Sie dem Team einen internen oder externen Berater mit Methodenkompetenz zur Seite stellen. Schließlich schafft ein gemeinsames Training Verständnis für die fachlichen und methodischen Aspekte der Reorganisation und schweißt das Team bereits vor Beginn des Projekts zusammen. Für den Fall, dass das Projektteam im Rahmen einer internen oder externen Ausschreibung besetzt wird, was oft bei langfristig angelegten Projekten der Fall ist, sollten explizit getrennte Stellen für Fachkompetenz- und für Methodenkompetenz-Träger geschaffen werden. Advocatus diaboli: Das Gegebene in Frage stellen Wenn Sie wirklich neue Wege mit Ihrer Reorganisation gehen wollen, dann müssen Sie auch das, was vermeintlich gut läuft und Ihre eigenen Ideen kritisch hinterfragen. Die Abkehr von traditionellen Denkweisen kann gerade bei tiefgreifenden Reorganisationen von großer Bedeutung sein. Sinnvoll ist es, wenn einer im Team die Rolle eines „Advocatus diaboli“ wahrnimmt und konstruktiv immer wieder das Vorgehen des Teams und die etablierten Prozesse in Frage stellt. Eine solche Person braucht einen unbelasteten Blick für das Ganze und darf sich nicht mit Aussprüchen wie „Das haben wir doch schon immer so gemacht“ begnügen, was in der Regel gegen Mitarbeiter der betroffenen Bereiche spricht. Egal wie gut sich alle im Projektteam ergänzen, die üblichen Erkenntnisse zur Teamentwicklung greifen auch hier. Am Anfang wird die Teamarbeit vielleicht noch etwas chaotisch laufen, bis sich alle in ihrer Rolle gefunden haben. Das sollte Sie nicht weiter beunruhigen. Ideal ist es, wenn eine gewisse Einarbeitungszeit gegeben wird, bevor das Team an die Unternehmens-Öffentlichkeit tritt und Taten zeigen muss. Nicht nur, um
28
Vorbereitung
sich inhaltlich einzuarbeiten, sondern vor allem, um die teaminternen Arbeits- und Kommunikationsprozesse zu entwickeln. So schaffen Sie die Voraussetzung für eine konsistente Außenwirkung des Projektteams und vermeiden, dass der Eindruck eines zusammen gewürfelten Haufens von Personen entsteht, die nicht miteinander korrespondieren. Sollte sich herausstellen, dass ein Mitglied eine Fehlbesetzung ist und sich nicht integriert, dann müssen Sie diese Person austauschen. Zusammenfassung Die Auswahl der geeigneten Personen, die mit der Durchführung der Reorganisation betraut werden, ist ein kritischer Erfolgsfaktor für das Vorhaben und sollte genauso sorgfältig wie eine klassische Stellenbesetzung vorgenommen werden. Die benötigte Fachkompetenz darf im Falle des Projektleiters nicht unterschätzt werden. Dieser sollte neben der erforderlichen Fach- und Methodenkompetenz eine durchsetzungs- und führungsstarke Persönlichkeit sein, die auch über genügend Sozialkompetenz verfügt, um die verschiedenen Interessengruppen auszubalancieren. Das Team sollte sich aus Fachleuten und Mitgliedern mit Methodenkompetenz zusammensetzen. Unter den Fachleuten sollten auch Mitarbeiter aus den von der Reorganisation betroffenen Bereichen sein. Mindestens ein „Advocatus diaboli“ sollte sich im Team befinden. Seine Aufgabe ist es, die Ideen des Teams und die aktuellen Prozesse konstruktiv zu hinterfragen.
2.4 Vorgehensmodell – Mit System zum Erfolg Der britische Ökonom Cyril Northcote Parkinson beobachtete, dass die Zahl der Mitarbeiter in der Marineverwaltung in den Jahren von 1914 bis 1928 um 80 Prozent anstieg, obwohl die Anzahl der Schiffe um zwei Drittel und die Anzahl der Marinesoldaten um ein Drittel zurückging. Basierend auf dieser und ähnlichen Beobachtungen formulierte Parkinson das nach ihm benannte Gesetz: Arbeit dehnt sich immer so weit aus, dass sie die verfügbare Zeit oder auch jede andere Ressource voll in Anspruch nimmt. Parkinson begründete sein Gesetz damit, dass Menschen bestrebt sind, durch das Aufblähen von Aktivitäten die eigene Bedeutung zu demonstrieren. Arbeit dehnt sich so weit aus, dass die verfügbare Zeit oder andere Ressourcen voll in Anspruch genommen werden Was bedeutet das für Ihr Reorganisationsvorhaben? Wenn Sie Ihr Vorgehen konzipieren und die Ressourcen für die einzelnen Aktivitäten planen, dann sollten Sie sich Parkinsons Gesetz vor Augen führen. Auch wenn Sie in bester Absicht die Ressourcen üppig
Vorgehensmodell
29
planen, wird die Qualität der Arbeit nicht unbedingt besser. Wenn der Ansporn für ein zügiges Fortschreiten fehlt, besteht die Gefahr, dass sich das Projektteam auch mit weniger wichtigen Fragestellungen beschäftigt und dabei die Knackpunkte aus den Augen verliert. Planen Sie deshalb ein zügiges Vorgehen für die erforderlichen Aktivitäten und lasten Sie die verantwortlichen Mitarbeiter mit einem anspruchsvollen, aber machbaren Arbeitspaket aus. Wenn sich Erfolge erst nach Jahren einstellen, schwinden auch irgendwann die Aufmerksamkeit und die Motivation für das Veränderungsvorhaben. Konzipieren Sie ein umsetzungsorientiertes Vorgehen, das sich an den praktischen Erfordernissen ausrichtet. Dazu schlagen wir ein Vorgehensmodell vor, das sich in unserer Beratungspraxis in den unterschiedlichsten Unternehmen bewährt hat. Die folgenden Kapitel dieses Buches entsprechen diesem Vorgehensmodell: Kapitel 2
Kapitel 3
Vorbereitung Auslöser Vision Projektorganisation Vorgehensmodell
Potenzialanalyse Analyse der Kunden und Wettbewerber Analyse der eigenen Kernkompetenzen Prozessanalyse Problemdiagnose Zielformulierung
Kapitel 4
Kapitel 5
Redesign Denkrahmen für das Redesign Entwicklung von RedesignMaßnahmen Wirksamkeit des Redesigns
Umsetzung Unternehmenskultur Change Manager Kraftfeldanalyse Umgang mit Widerstand
Kapitel 6
Nachbereitung Leistungsmessung Wissensmanagement
Abbildung 2: Vorgehensmodell für Process Excellence Nachdem durch die Phase der Vorbereitung die Weichen für einen erfolgreichen Start des Reorganisationsvorhabens gestellt sind, geht es im dritten Kapitel, Potenzialanalyse, um die Frage nach dem Status quo. ⎯
Bevor Sie Prozesse verändern, müssen Sie wissen, was Ihre Kunden wollen und wie gut Ihre Wettbewerber diese Wünsche erfüllen können. Die Analyse der Kunden und Wettbewerber gibt darüber Aufschluss.
⎯
Zusätzlich legt die Analyse der eigenen Kernkompetenzen offen, auf welche Prozesse die Reorganisation ausgerichtet werden sollte. So wird sichergestellt, dass nur Prozesse mit strategischer Bedeutung optimiert werden.
⎯
Danach wenden wir uns der Prozessanalyse zu. Die Identifikation der einzelnen Prozessschritte und deren Abfolge (Prozesskette) sowie die Messung der Durchlaufzeiten und Prozesskosten nehmen hier einen zentralen Stellenwert ein.
⎯
Dann werden die gesammelten Analysedaten in der Problemdiagnose auf den Zusammenhang zwischen Ursache und Wirkung untersucht. Nur so vermeiden Sie, mit Ihrem Projekt lediglich Symptombekämpfung zu betreiben.
30
Vorbereitung Häufig werden Defizite identifiziert, die durch sehr einfache Sofortmaßnahmen abgestellt werden können. Diese „Quick Hits“ belegen in einer frühen Phase, dass die Reorganisation mit ersten Erfolgen aufwarten kann, womit Sie möglichen Widersachern die Luft aus den Segeln nehmen. ⎯
Als letzten Schritt in der Potenzialanalyse legen Sie mit einer präzisen Zielformulierung die Messlatte für das Redesign fest.
Im vierten Kapitel, Redesign, geht es um die Konzeption der neuen Prozesse. ⎯
Dafür liefern wir zunächst einen Denkrahmen für das Redesign, um die Suche nach Optimierungsansätzen zu erleichtern.
⎯
Für die Optimierung werden Gestaltungshilfen zur Entwicklung der notwendigen Reorganisationsmaßnahmen mit ihren Vor- und Nachteilen diskutiert.
⎯
Und wir zeigen, wie die Wirksamkeit der Redesign-Maßnahmen mit dem Target Activity Grid im Hinblick auf die zuvor definierten Ziele systematisch überprüft werden kann.
Im fünften Kapitel, Umsetzung, werden die neuen Prozesse mit Leben gefüllt. Hier beleuchten wir vor allem die mentalen Aspekte von Reorganisationen. ⎯
Wir gehen darauf ein, welche Rolle die Unternehmenskultur bei organisatorischen Veränderungen spielt.
⎯
Eine wichtige Komponente ist, welche Personen für die Umsetzung der Veränderungen verantwortlich sind. Durch den Einsatz geeigneter Change Manager kann der Wandel effektiv gesteuert werden.
⎯
Außerdem stellt der vorausschauende, sensible Umgang mit den unterschiedlichsten Interessengruppen eine wichtige Stellgröße für die erfolgreiche Umsetzung dar. Diese werden mit Hilfe einer Kraftfeldanalyse unter die Lupe genommen, deren Ergebnis das Beziehungsnetz und eine quantitative Beziehungsmatrix ist.
⎯
In aller Regel ruft die Konfrontation mit dem Neuen Widerstand hervor, weshalb wir erläutern, wie dieser frühzeitig identifiziert und kanalisiert werden kann.
Das sechste Kapitel, die Nachbereitung, trägt der Erfahrung Rechung, dass normalerweise eine Überprüfung des Projekterfolgs ausbleibt und dass oft das aus einem Projekt gewonnene Wissen verloren geht. ⎯
Wir geben konkrete Hinweise zur Leistungsmessung und wenden uns der Frage zu, wie Sie regelmäßig und längerfristig die Leistungsfähigkeit und Qualität Ihrer Prozesse mittels eines Management-Informationssystems messen können.
Vorgehensmodell ⎯
31
Und wir zeigen auf, wie durch aktives Wissensmanagement das erlangte Wissen in der Organisation weitergegeben werden kann.
Im siebten Kapitel, dem Schlusswort, geben wir einen vergleichenden Überblick über verschiedene, bekannte Optimierungs- und Reorganisationsmethoden.
33
3 Potenzialanalyse – Wer den eigenen Ausgangspunkt nicht kennt, dem nutzt die beste Landkarte nichts Mit der Potenzialanalyse beginnt die inhaltliche Arbeit. Im Kern geht es um die Analyse der gegenwärtigen Wettbewerbsposition des Unternehmens bzw. des betroffenen Unternehmensbereichs. Aber wozu der Aufwand für eine Analyse, wenn sowieso alles neu geschaffen werden soll? Nicht nur das. Führt die Analyse des Gegebenen nicht sogar zu einer mentalen Verinnerlichung des Status quo? Mit der Folge, dass der kreative Horizont derart eingeengt wird, dass das Redesign keine substanziellen Veränderungen bringen kann? Auf den ersten Blick klingt das plausibel. Doch die Zweifel derer, die großzügig auf eine Potenzialanalyse verzichten wollen, sind zu entkräften. Zunächst schafft die Potenzialanalyse die Informationsgrundlage für die folgenden Projektschritte. Theoretisch kann das Redesign auch ohne Potenzialanalyse durchgeführt werden. Die Praxis zeigt jedoch, dass ohne Transparenz über den aktuellen Status wichtige Detailinformationen fehlen, was spätestens bei der Umsetzung der neuen Prozesse zu erheblichen Schwierigkeiten führt. Zudem erfüllt die Potenzialanalyse eine politische Dimension. Wir kennen kein Projekt, in dem die Redesign-Maßnahmen von allen gleichermaßen wohlwollend begrüßt wurden. Ganz gleich in welchem Unternehmen. Mit Sicherheit werden einige Interessengruppen versuchen, das Vorhaben zum Erliegen zu bringen. Wer dann nicht belegen kann, dass die geplanten Veränderungen tatsächlich erforderlich sind, wird spätestens bei der Umsetzung scheitern. Die Potenzialanalyse beleuchtet den Status quo des Unternehmens aus verschiedenen Perspektiven. Die Perspektive des Kunden gibt Aufschluss über die Frage, welche Anforderungen der Kunde an die prozessrelevanten Leistungskriterien stellt. Die Perspektive der Wettbewerber zeigt, wie gut die wesentlichen Mitstreiter diese Leistungskriterien erfüllen. Die Perspektive des eigenen Unternehmens hilft, die Kernkompetenzen des Unternehmens zu identifizieren und sie macht die gegenwärtigen Prozesse transparent. Die gewonnenen Informationen werden in der Problemdiagnose ausgewertet, um den Zusammenhang zwischen Problemsymptomen und deren Ursachen zu verstehen. So stellen wir sicher, dass die Reorganisation an den richtigen Stellhebeln ansetzt und nicht nur Symptome kuriert. Das Ergebnis der Potenzialanalyse ist ein Katalog messbarer Ziele für das Projekt und Führungsgrößen für die Prozesse, was als Lastenheft für die Redesign-Phase zu verstehen ist. Nutzen Sie die Potenzialanalyse zur Schaffung einer Argumentationsbasis für die Notwendigkeit Ihres Vorhabens. Auf diese Weise schaffen Sie Akzeptanz für die anstehen-
E. Best, M. Weth, Process Excellence, DOI 10.1007/978-3-8349-8950-5_3, © Gabler Verlag | Springer Fachmedien Wiesbaden GmbH 2010
34
Potenzialanalyse
den Veränderungen und beugen der Gefahr vor, dass das Management plötzlich einknickt und Ihnen das Vertrauen entzieht
3.1 Analyse der Kunden und Wettbewerber – Blick nach außen Der erste Analyseschritt untersucht, welche Anforderungen die Kunden an unsere Produkte, Dienstleistungen und Prozesse stellen. Im Einzelnen untersuchen wir die Leistungsmerkmale, die der Kunde seiner Kaufentscheidung zugrunde legt und fragen nach, inwieweit die relevanten Anbieter in der Lage sind, die Kundenanforderungen zu erfüllen oder diese möglicherweise sogar zu übertreffen. Schließlich vergleichen wir, wie die Kunden unser Leistungsangebot im Vergleich zu dem unserer Mitstreiter bewerten. Zunächst gehen wir jedoch der scheinbar trivialen Frage nach, wer überhaupt unsere relevanten Wettbewerber sind.
3.1.1
Wer sind unsere Wettbewerber?
Wettbewerbsanalysen liefern häufig deshalb unbrauchbare Ergebnisse, weil erst gar nicht alle relevanten Mitstreiter als solche erkannt wurden. Der erste Schritt ist somit die exakte Identifikation des Wettbewerbsumfelds. Bevor wir damit beginnen, müssen wir zwei grundlegende Dinge klären: Erstens, die relevanten Wettbewerber kämpfen alle in ein und demselben Markt. Zweitens, als Markt verstehen wir die Gesamtheit aller Kunden, die sich ein Bedürfnis teilen. Diese Definition klingt zugegebenermaßen etwas hölzern. Aber sie beschreibt den Kern, den wir bei der Suche nach unseren Mitstreitern zugrunde legen müssen. Zur Illustration dieses Gedankens teilen wir die Wettbewerber in drei Kategorien ein. Dafür hat sich das Modell von Michael E. Porter bewährt: direkte Wettbewerber Market Newcomer Substituenten Diese Kategorisierung ist wichtig, weil sie den häufig begangenen Fehler verhindert, nur die offensichtlichen Wettbewerber zu beachten. Beschränken Sie Ihren Blick nicht auf die Anbieter, die Sie ohnehin schon kennen. Eine weitaus größere Gefahr geht von denen aus, die bislang nicht auf Ihrem Radarschirm erschienen sind. Dazu zählen die Market Newcomer und die Substituenten.
Analyse der Kunden und Wettbewerber
35
Direkte Wettbewerber – Mitstreiter, die jeder kennt Mit der Frage „Wer sind unsere Wettbewerber?“ verbinden die meisten Manager ganz intuitiv die Frage „Wer stellt Produkte her, die unseren am ähnlichsten sind?“. Die Antwort liefert eine Liste von Namen, die den Mitstreitern in aller Regel bekannt sind. Es versteht sich von selbst, dass Handyhersteller wie Nokia, Samsung, und Sony-Ericsson oder LG Electronics voneinander wissen. Wir nennen diese Mitstreiter direkte Wettbewerber, weil die Vergleichbarkeit ihrer Produkte zwangsläufig zum Wettbewerb um die Gunst des Kunden führt. Wenn wir auf unsere Definition des Markts zurückgreifen – der Markt bildet die Gesamtheit aller Kunden ab, die sich ein Bedürfnis teilen – wird ein weiterer Punkt klar. Der Käufer eines Porsches teilt sich nur zu sehr geringen Teilen ein Bedürfnis mit dem Käufer eines Seats. Die Stuttgarter Nobelmarke ist kein direkter Wettbewerber von Seat. Diese traditionellen Grenzen zwischen den Marken werden allerdings durch eine Ausdehnung der Modellpolitik zunehmend aufgeweicht. Bislang war eine klare Differenzierung zwischen Marken wie Mercedes-Benz auf der einen und Volkswagen auf der anderen Seite möglich. Mit der Einführung des Phaeton bei VW findet der typische SKlasse-Kunde auch statusadäquate Vehikel bei Volkswagen. Aber auch die Luxusmarken wie Mercedes mit der A-Klasse und BMW mit der Einser-Reihe konkurrieren mit dem VW-Golf. Die Bestimmung der direkten Wettbewerber im Automobilmarkt wird folglich erschwert, weil die Herstellermarken per se kein Garant mehr für eine klare Abgrenzung sind. Market Newcomer – Eindringlinge im Club Market Newcomer (Markteinsteiger) sind Unternehmen, die bislang nicht in dem betrachteten Markt aktiv waren. Zum einen handelt es sich um Unternehmen, die bereits in ihrem Heimatmarkt eine starke Stellung erreicht haben und geografisch expandieren wollen. Zum anderen geht es bei Newcomern auch um Anbieter, die in einem anderen Markt positioniert sind und ihre Marktpräsenz komplementär erweitern wollen. So unterhalten mittlerweile praktisch alle Handelsketten, Automobil- und Computerhersteller eigene Banken. Im juristischen Sinne sind diese Tochterunternehmen zwar Banken, da sie ansonsten die entsprechenden Leistungen nicht anbieten dürften. Doch werden sie von den Kunden nicht immer als Bank im klassischen Sinne wahrgenommen. Obwohl sie bislang nur einen kleinen Ausschnitt des Markts bedienen, können sie dort zu einer spürbaren Gefahr für die etablierte Elite avancieren. Die Banken-Sprösslinge der Automobilfirmen, ursprünglich zum Zweck der Absatzfinanzierung gegründet, greifen mittlerweile die traditionellen Banken nicht nur in dem klar umrissenen Markt der Finanzierung von Autos an. Volkswagen Financial Services, BMW Financial Services und Mercedes-Benz Bank haben längst eine so genannte Vollbank-Lizenz und drängen mehr und mehr in das standardisierte Privatkundengeschäft. Der erste markante Schritt in diese Richtung ist erkennbar, wenn die Kunden nicht nur als Debitor agieren, also als Schuldner im Falle der Finanzierung eines Autos.
36
Potenzialanalyse
Wenn sie darüber hinaus die Möglichkeit haben, zum Kreditor durch Einlagen auf Girokonto oder Sparbuch zu werden, dann schwinden die Grenzen zu einer traditionellen Vollbank. Häufig wagen Unternehmen, die in ihrem traditionellen Markt bereits positioniert sind, den Schritt in einen neuen Markt, beispielsweise der chinesische Haushaltsgerätehersteller Haier. Das in Deutschland noch weitgehend unbekannte Unternehmen erzielte im Jahr 2008 weltweit immerhin einen Umsatz von umgerechnet 14 Milliarden Euro und drängt nun spürbar in europäische Märkte. In der „Rangliste der Haushaltsgerätemarken 2009“ des Marktforschungsunternehmens Euromonitor landete Haier auf Platz Eins der größten globalen Haushaltsgerätemarken nach Marktanteilen gemessen an der Verkaufsmenge. Die Firma Erak, 1959 in der Türkei gegründet, arbeitete sich zum größten Denim-Hersteller der Türkei hoch. Unter den Kunden finden sich Markennamen wie Guess, Calvin Klein und Mustang. 1991 entsprang daraus die Firma Mavi, türkisch für „blau“, die Jeans und junge Mode unter diesem Markennamen mittlerweile weltweit vertreibt und jährlich 11 Millionen Jeans herstellt. Alleine in den Vereinigten Staaten, dem Geburtsland der Jeans, konnte Mavi zur populärsten Marke unter den Jugendlichen aufrücken. Wie viele Modefirmen hätten zu Beginn der neunziger Jahre des letzten Jahrhunderts gedacht, dass ihnen ihre Zulieferfirmen aus Niedriglohnländern so schnell Marktanteile streitig machen werden? Neben Unternehmen, die bereits in einem anderen Markt positioniert sind, können Market Newcomer auch völlig neu gegründete Unternehmen sein. Diese trifft man häufig in ursprünglich regulierten Märkten an wie Telekommunikation, Energieversorgung, Postdienste, Luftverkehr. Die Neulinge differenzieren sich in der Regel vom Establishment durch einen unkonventionellen Marktauftritt und innovative Vertriebswege. Häufig bedienen sie kleine und hochprofitable Nischensegmente. Bei den Ex-Monopolisten, die das komfortable Polster eines regulierten Umfelds gewohnt sind, entdecken findige Newcomer relativ leicht eine offene Flanke. Überraschungsangriffe öffnen teilweise Marktsegmente, die bislang überhaupt nicht bedient wurden. Die etablierten Unternehmen verharren dabei häufig in den alten Denkmustern oder nehmen die neuen Wettbewerber nicht ernst. Wenngleich kaum Fälle bekannt sind, in denen wahre Neulinge bei den Etablierten existenzielle Schäden hinterlassen haben, sind die wirtschaftlichen Erfolge nicht selten bemerkenswert. So lag beispielsweise 2007 der Marktanteil von Billig-Fluglinien in Europa in einigen europäischen Ländern bereits bei 40 Prozent, in Deutschland bei rund 20 Prozent. Mit unkonventionellen Methoden zielen sie unter anderem auf eine Klientel ab, die beim Fliegen in erster Line auf das Preisschild schaut und bringen so Bewegung in das Marktumfeld. Nach den Terroranschlägen in den USA verkaufte Ryanair einen Flug von Hahn nach Stansted (U.K.) für 15 Euro. Im November 2001 kündigte die Fluggesellschaft an, in den folgenden zwei Monaten 300.000 Tickets zu verschenken. Die Airline wollte nach den Verängstigungen durch die Terroranschläge einen Anreiz zum Fliegen schaffen und zudem das große Segment der Nicht-Flieger ansprechen. Der
Analyse der Kunden und Wettbewerber
37
messbare Erfolg blieb nicht aus: Ryanair kam 2004 auf eine Umsatzrendite von rund 20 Prozent, was für diese Branche ein wahres Traumergebnis ist. Ob die Iren auch in Zukunft ihre Erfolgsgeschichte fortführen können, steht in den Sternen. Auch wenn der Take-off als Market Newcomer gelungen ist, werden diese innovativen Unternehmen mit zunehmender Größe auch kostentreibende Formalismen nicht gänzlich umgehen können. Zudem trifft das Preishoch des Öls in den Jahren 2007 und 2008 die ganze Branche. Im Bankensektor gibt es ein ebenso spektakuläres wie ernüchterndes Beispiel für einen Market Newcomer, der bislang in keinem Markt etabliert war. Als Karl-Matthäus Schmidt im Alter von 25 Jahren in einem Investment-Club an der Universität Nürnberg seine ersten Aktien kaufte, konnte er nicht verstehen, warum die Gebühren der Banken so hoch und die Marktinformationen so schlecht waren. Schmidt entschloss sich, eine eigene Bank zu gründen. Das war die Geburtsstunde der ConSors Discount-Broker AG. Schmidt stammt aus einer traditionellen Bankerfamilie. Sein Vater, Karl Gerhard Schmidt, stand der 1828 gegründeten Schmidt Bank vor, die bis zu ihrer Insolvenz im Jahr 2002 die drittgrößte deutsche Privatbank war. Die Schmidt Bank hielt 70 Prozent des Aktienkapitals von ConSors. Das Aufeinandertreffen von Markteinsteiger und etablierten Banken kann in diesem Beispiel sogar anhand von Vater und Sohn illustriert werden. Während Schmidt senior noch nicht einmal einen PC auf seinem Schreibtisch stehen hatte, basierte der anfänglich grandiose Geschäftserfolg von Schmidt junior im Wesentlichen auf der konsequenten Nutzung des Internets als innovativem Vertriebskanal. Und das zu einer Zeit, als etablierte Banken mit so gut wie keiner Dienstleistung im Internet vertreten waren. Der Erfolg von ConSors und damit das Bedrohungspotenzial für die alt eingesessenen Institute war zunächst beeindruckend. ConSors erzielte im ersten Quartal 1999 einen Markanteil von 34 Prozent im Wertpapier-Onlinehandel und galt als der profitabelste Online-Broker in Deutschland. Nach dem Börsengang am Neuen Markt im April 1999 erzielte das Unternehmen eine Marktkapitalisierung von 3,2 Milliarden Euro und avancierte – gemessen am Börsenwert – zur fünftgrößten Bank Deutschlands. Als Market Newcomer legte ConSors zwar einen hervorragenden Start hin, reagierte jedoch auf die im Frühjahr 2000 einsetzende Börsenflaute nicht flexibel genug. Als dann auch die Schmidt Bank im Jahr 2002 in Bedrängnis kam, geriet ConSors ins Wanken und wurde mehrheitlich von der französischen BNP Paribas im Mai 2002 für 9,08 Euro pro Aktie übernommen. Im Frühjahr 2000 lag der Kurs noch bei über 140 Euro. Heute firmiert die Bank unter dem Namen Cortal Consors S.A. Ein jüngeres Beispiel für Market Newcomer liefern Google und Apple. Beide Unternehmen drängen massiv in den neuen Markt für Handy-Werbung und werden so zu Wettbewerbern. Apple integrierte 2010 in sein neues Betriebssystem für iPhone und iPad eine Werbeplattform mit dem Namen iAd. Damit können die Entwickler von Softwareanwendungen und Applikationen – in der Apple-Sprache Apps genannt – Werbung in ihre Produkte integrieren. Die Entwickler erhalten 60 Prozent der erlösten Werbeeinnahmen und Apple die restlichen 40 Prozent. Wenn auch nur in ein Bruchteil der mittlerweile 185.000 Apps Werbung integriert wird, kann Apple daraus lukrative Einnahmen verbu-
38
Potenzialanalyse
chen. Um das Geschäft mit mobiler Werbung voranzutreiben, hat Google 2009 das amerikanische Unternehmen Admob für 750 Millionen US-Dollar übernommen. Admod ist auf die Platzierung von Anzeigen auf Mobilfunkgeräten spezialisiert. In Kombination mit seinem Betriebssytem Android sowie dem hauseigenen Smartphone mit dem Namen „Nexus One“ entwickelt sich Google mehr und mehr zum Wettbewerber von Apple. Substituenten – Die heimliche Gefahr Die zentrale Frage zur Identifikation der Substituenten lautet: Wer stiftet mit seinem Angebot einen ähnlichen oder sogar identischen Nutzen wie wir? Auf den ersten Blick klingt das eher theoretisch, hat aber eine große Bedeutung für die Praxis. Wenn Sie gefragt werden, ob Sie jemals eine Waschmaschine kaufen wollten, antworten Sie vermutlich spontan mit „Ja“. Es dürfte jedoch kaum jemanden geben, der sich tatsächlich gerne eine Waschmaschine kaufen will. Kein Mensch will eine Waschmaschine kaufen. Die Anforderung ist saubere Wäsche. Mit Ausnahme der wenigen Waschmaschinen-Fetischisten dürfte die Mehrzahl in erster Linie nicht an der Maschine als solche interessiert sein. Die Anforderung ist vielmehr saubere Wäsche, also der Nutzen, den eine Waschmaschine stiftet. Dieses einfache Beispiel zeigt, dass eine nutzenorientierte Betrachtung des Wettbewerbsumfelds weitaus umfassender und präziser ist als die Frage: „Wer verkauft ein ähnliches Produkt?“ Insofern greift auch unsere Begriffsdefinition, dass ein Markt die Gesamtheit aller Kunden ist, die sich ein Bedürfnis teilen. Das Bedürfnis eines Kunden bezieht sich stets auf den Nutzen und nicht auf das Produkt oder die Dienstleistung per se. Führt man die Überlegungen über den Nutzen der sauberen Wäsche unter wettbewerbsstrategischen Gesichtspunkten fort, so müssen die Waschmaschinenhersteller in letzter Konsequenz auch Wäschereien zu ihren potenziellen Wettbewerbern zählen und umgekehrt. Warum sollten Sie sich eine Waschmaschine kaufen, wenn die Wäscherei um die Ecke Ihnen den gleichen Nutzen zu akzeptablen Preisen stiftet? Die Fokussierung der Wettbewerbsanalyse auf den gestifteten Nutzen – und nicht etwa auf das Produkt oder die Dienstleistung – macht deutlich, wie problematisch die Identifikation von Substituenten sein kann. Ihre direkten Wettbewerber erkennen Sie relativ leicht an der vergleichbaren Angebotsleistung. Die Market Newcomer sind Ihnen spätestens dann bekannt, wenn vergleichbare Produkte von einem neuen Hersteller angeboten werden. Die Substituenten hingegen sind heimtückisch, weil diese in sehr subtiler Form in Märkte eindringen. Schlimmer noch: Das Gefahrenpotenzial der Substituenten wird häufig selbst dann unterschätzt, wenn sie von den übrigen Mitstreitern bereits erkannt wurden. Der Grund dafür liegt in der mentalen Barriere, die den Betrachtungshorizont auf die besagte Produktkategorie einengt und somit den Blick für die Bedrohung durch Substitute versperrt.
Analyse der Kunden und Wettbewerber
39
Wie wir im Kapitel Redesign sehen werden, liefert die Substitution von Produkten, Dienstleistungen und Prozessen eine Fülle von Ansatzpunkten für die Entwicklung von Redesign-Maßnahmen.
3.1.2
Kenne Deine Kunden
Ohne die genaue Kenntnis, was Ihre internen und externen Kunden von Ihnen erwarten, laufen Sie Gefahr, Veränderungen zu schaffen, die aus Kundensicht keinerlei Mehrwert bieten – vielleicht sogar die aktuelle Kundenzufriedenheit zunichte machen. Dazu ein Beispiel aus der Welt des Automobils: In den neunziger Jahren kam der europäische Markt für Minivans in Schwung. Um in diesem profitablen Segment mit einem lukrativen Angebot präsent zu sein, brachte Fiat 1998 das Modell Multipla auf den Markt. Obwohl Platzangebot und Ausstattung von den Testern ausdrücklich gelobt wurden, war das Design offensichtlich so skurril und gewöhnungsbedürftig, dass sich nur wenige Käufer fanden. Selbst die Fiat-Werbetexter sprachen vom „Reiz des Ungewöhnlichen“, der sich mit der „Vernunft des Praktischen“ verbindet. Unpraktisch waren für den Fiat-Konzern hingegen die Zulassungszahlen im deutschen Markt: Selbst ein Relaunch mit gemäßigtem Design konnte die Kunden nicht überzeugen. Für das Jahr 2004 führt das Kraftfahrt-Bundesamt insgesamt 999 Neuzulassungen des Multipla in der Statistik. Dabei hatte man allein für das neue Modell einen Absatz von 1.300 Einheiten von September bis Dezember 2004 geplant. Zum Vergleich: Allein für den Scénic, das Konkurrenzprodukt von Renault, entschieden sich 31.854 Käufer. Die Zahlen belegen eindrucksvoll, dass hier offensichtlich – trotz eines Facelift – an den Kundenbedürfnissen vorbei entwickelt wurde und der „Reiz des Ungewöhnlichen“ nicht auf den Kunden überspringen konnte. Vielleicht hatten die Fiat-Designer vermeintliche Kundenwünsche erfüllt, die jedoch ausschließlich in ihrer Vorstellung existierten? Wenn die Kundenanforderungen nicht erhoben werden oder es an deren konsequenten Umsetzung mangelt, sind derartige Flops nicht ausgeschlossen. Wer die Kundenanforderungen an die Prozesse nicht erhebt, landet ebenso leicht einen Flop wie mit unpassenden Produkten Was lernen wir aus diesem Beispiel? Baut der Fiat-Konzern etwa keine schönen Autos? Mitnichten. Schließlich finden sich unter dem Dach der norditalienischen Autoschmiede so renommierte Marken wie Ferrari, Maserati und Alfa Romeo, deren legendäres Image nicht zuletzt auf ihr Design zurückzuführen ist. Und dennoch kann ein designerfahrenes Unternehmen wie Fiat einen Flop landen. Wer glaubt, die Analyse der Kundenanforderungen durch Erfahrung ersetzen zu können, läuft Gefahr, seine Produkte und Dienstleistungen am Markt vorbeizuentwickeln. Ganz gleich, ob es sich um interne oder ex-
40
Potenzialanalyse
terne Kunden handelt. Die Analyse der Kundenanforderungen ist ein Muss – ohne das Sie möglicherweise Ihre Reorganisation in die falsche Richtung navigieren. Ebenso wie die Eigenschaften Ihrer Produkte und Dienstleistungen müssen auch die wichtigsten Leistungsmerkmale Ihrer Prozesse stimmen. Wenn Sie per Flugzeug von Frankfurt nach New York fliegen, besteht der Kern dieser Dienstleistung aus einem Prozess, der mit dem Check-in am Frankfurter Flughafen beginnt und mit der Kofferausgabe in New York endet. Die Kundenanforderungen sind in diesem Fall besonders hoch, weil Sie als Passagier in den Prozess unmittelbar eingebunden sind und folglich jedes Problem hautnah miterleben. Die Analyse der Kundenanforderungen ist für die Gestaltung eines physischen Produkts ebenso von Bedeutung wie für das Design einer Dienstleistung. Aus beidem ergeben sich Anforderungen an die Prozesse. Sollten Sie diesen Grundsatz ignorieren, geht möglicherweise auch von Ihren Prozessen der „Reiz des Ungewöhnlichen“ aus. Zur Bestimmung der Kundenanforderungen schlagen wir ein einfaches Verfahren vor, das zwar nicht jeder wissenschaftlichen Prüfung standhält, dafür aber praktikabel ist: Im ersten Schritt werden die kaufentscheidenden Leistungsmerkmale bestimmt. Dabei handelt es sich um Eigenschaften Ihrer Produkte, Dienstleistungen und Prozesse, die ein Kunde vor seiner Kaufentscheidung bewertet. Dann werden die kaufentscheidenden Leistungsmerkmale gewichtet. Nicht jedes Leistungsmerkmal ist für alle Kundensegmente gleichermaßen wichtig. Einige Kunden machen Zugeständnisse gegenüber der Qualität, um so in den Genuss eines günstigeren Preises zu gelangen. Andere wiederum akzeptieren einen hohen Preis, wenn die gewünschte Exklusivität gegeben ist. Im dritten Schritt erfolgt eine Bewertung der kaufentscheidenden Leistungsmerkmale. Dann schlägt die Stunde der Wahrheit. Wie beurteilt der Kunde die Leistungsfähigkeit Ihrer Produkte, Dienstleistungen und Prozesse? Erkennt er deren Vorteile? Oder bevorzugt er das Konkurrenzangebot? Die Informationsgewinnung können Sie je nach Erfordernis unterschiedlich gestalten. Unsere Erfahrung zeigt, dass bereits einfache Erhebungsmethoden zu brauchbaren Ergebnissen führen, ohne sich dabei zu verzetteln. Wählen Sie zwischen Repräsentativbefragungen, strukturierten Interviews oder auch Workshops mit aktuellen und potenziellen Kunden. Aktuelle Kunden sind solche, die das betrachtete Produkt bereits erworben oder die entsprechende Dienstleistung in Anspruch genommen haben. Von diesem Personenkreis gewinnen Sie wertvolle Einsichten über die Erfahrungen sowie über das Kaufmotiv. Potenzielle Kunden haben Ihr Angebot bislang nicht in Anspruch genommen, gehören jedoch zu Ihrer Zielgruppe. Diese geben wertvolle Hinweise darüber, was sie bislang vom Kauf abhielt und welche Vorzüge die Wettbewerber bieten.
Analyse der Kunden und Wettbewerber
41
Bestimmung der kaufentscheidenden Leistungsmerkmale Erfragen Sie zunächst, welche Leistungsmerkmale der Kaufentscheidung zugrunde gelegt werden. Dabei sind unmittelbare Produkteigenschaften wie Funktionalität, Größe, Preis und Marke ebenso von Bedeutung wie prozessbezogene Eigenschaften, die auf die Kaufentscheidung erheblichen Einfluss haben: Lieferzeit, Reparaturservice, Flexibilität im Garantiefall etc. In der Regel gibt es eine Vielzahl von Leistungsmerkmalen, die Sie in Ihre Analyse einbinden wollen. Häufig geht dabei der Überblick verloren und die Gefahr ist groß, dass weniger wichtige Aspekte zu detailliert erfasst werden und wichtige Aspekte unter den Tisch fallen. Um diesen Fehler zu vermeiden, sollten die Leistungsmerkmale in Kategorien eingeordnet werden. Dies hilft beim systematischen Vorgehen und schafft Transparenz über die Vollständigkeit der Analyse. Die folgenden Kategorien sollten Sie beherzigen: Produktfunktionalität, Produktdesign, Produktqualität, Servicequalität, Prozessqualität, Markenimage und Preis Zur Veranschaulichung erläutern wir im Folgenden zu diesen Kategorien einige konkrete Beispiele für Leistungsmerkmale von Produkten, Dienstleistungen und Prozessen. Beim Fliegen besteht die eigentliche Produktfunktionalität im Transport von A nach B. Die Kaufentscheidung hängt jedoch von weiteren Leistungsmerkmalen ab. Bei Langstreckenflügen ist die Art der Bestuhlung ein wichtiges Leistungsmerkmal, die der Kategorie Produktqualität zuzuordnen ist. Zwischen Entspannung und Qual liegen oft nur wenige Zentimeter. Großgewachsene Passagiere bekommen hier die Unterschiede im so genannten „Seat Pitch“, dem Abstand zwischen den Sitzen, am ehesten zu spüren. In der Regel beträgt dieser in der Economy Class zwischen 79 und 86 Zentimetern, je nachdem, ob die betreffende Airline auf Masse oder Klasse setzt. Neben dem Sitzabstand entscheidet auch die Bequemlichkeit der Sitze über die wahrgenommene Produktqualität – ganz besonders beim Schlafen. Hierfür verantwortlich ist vor allem der Neigungswinkel der Rückenlehne. Für das umkämpfte Segment der Geschäftsreisenden wurden daher in den vergangenen Jahren wahre Sitz-Verwandlungskünstler entwickelt, die sich leicht vom Arbeitssessel zum Bett verzaubern lassen. So bieten immer mehr Airlines in ihrer First- und Business-Class Sitze mit einem Neigungswinkel von 150 bis 180 Grad an, und das, obwohl damit die Sitzkapazität sinkt. British Airways beispielsweise bettet bereits seit 2001 nicht nur seine First Class-Passagiere, sondern auch die Gäste in der Business Class auf Schlafsitzen. Letztere sind in einer platzsparenden “Ying-Yang-Konfiguration” angeordnet. Zwar schauen nun die Hälfte der Passagiere entgegen der Flugrichtung, dafür kann der Sitz zum Schlafen komplett in eine Horizontalposition gebracht werden. Emirates bietet seit 2008 den First Class-Passagieren private Suiten mit extragroßen Sesseln an, die sich in ein flaches Bett verwandeln lassen. Wie das Produktdesign den ursprünglichen Zweck von Produkten in den Hintergrund treten und neue Käuferschichten erobern lässt, zeigt Puma eindrucksvoll seit Jahren. Aus
42
Potenzialanalyse
dem einst verstaubten, fränkischen Sportartikelhersteller ist ein Lifestyle-Konzern geworden, der mehr die Modetrends einer jungen Käuferschicht als die Spitzenzeiten von Athleten bestimmt. Die Servicequalität ist nicht nur bei Dienstleistungen ein entscheidendes Leistungsmerkmal. Bei standardisierten Sachgütern beeinflusst sie die Kaufentscheidung und damit die Kundenbindung. So sind selbstklebende Etiketten sicherlich kein Produkt, bei dem man ein hohes Potenzial an „aufregendem“ Zusatznutzen erwartet. Etiketten sollen eben kleben und leicht beschriftbar sein. Der Büromittelhersteller Avery-Zweckform hat als einer der Ersten elektronische Formatvorlagen für seine Etiketten im Internet angeboten, die man sich gratis herunterladen und einfach mit dem PC ausfüllen kann. Jeder, der jemals Etiketten per Computer ohne eine solche Hilfe korrekt und formgerecht beschriftet hat, wird eine solche Vereinfachung des Prozesses zu schätzen wissen. Wie eingangs erwähnt, spielt bei Dienstleistungen die Prozessqualität eine große Rolle, weil der Kunde – anders als bei der Produktion von Waren – häufig unmittelbar in den Leistungserstellungsprozess eingebunden ist. Obwohl der Kunde beim Fliegen, im Restaurant, beim Zahnarzt oder Frisör Bestandteil des Prozesses ist, hat er jedoch in der Regel kaum Möglichkeiten, auf die Prozessqualität Einfluss zu nehmen. Würde man Ihnen in einem Restaurant das Essen vor den Getränken servieren, weil Bar und Küche nicht optimal zusammenarbeiten, dann hätten Sie wahrscheinlich das letzte Mal dort gegessen. Suboptimale Prozesse sind gerade im Dienstleistungssektor fatal, weil sie die wahrgenommene Servicequalität erheblich beeinflussen, auch dann, wenn Sie als Anbieter keinen direkten Einfluss auf einzelne Prozessschritte haben. Flugpassagiere beschweren sich bei Befragungen durch die Fluggesellschaften immer wieder über den zermürbenden Weg vom Check-in bis zum Abflug-Gate. Dieser wird durch Sicherheitsund Passkontrollen unterbrochen, und dies teilweise mit häufigem Schlangestehen. Die Fluggesellschaften haben hierzulande jedoch kaum Einfluss auf diese Prozessbrüche. Eine besondere Art von Leistungsmerkmal in der Automobilindustrie ist der Klang eines Autos. Brummen, Summen oder Knattern sind von großer Bedeutung für das Produkterlebnis und damit für das Markenimage. Ein Porsche, der leise dahinrauscht und nicht charakteristisch röhrt, wäre eine große Enttäuschung für den Porsche-Fan. Der Sportwagenhersteller unterhält eigens eine Entwicklungsabteilung mit 50 Akustikingenieuren, die sich ausschließlich mit dem Sound der neuen Modelle beschäftigt. Die endgültige Entscheidung über den richtigen Klang trifft der Vorstand. Und für jene, die sich den exklusiven Klangkörper nicht leisten können, gibt es eine virtuelle Lösung. Auf der Website der Stuttgarter Autoschmiede findet der Porsche-Fan eine Soundgalerie, von der sich jedermann umsonst den Sound der verschiedenen Porsche-Modelle herunterladen kann. Auf den richtigen Ton kommt es nicht nur bei Produkten an. Als die Banken die surrenden Nadeldrucker in den Selbstbedienungsgeräten zunächst durch Thermo- und später durch Laserdrucker ersetzten, beschwerte sich die Kundschaft über die angeblich defekten Geräte. Es fehlte das gewohnte Geräusch, das dem Wartenden signalisierte, dass die
Analyse der Kunden und Wettbewerber
43
gewünschten Dokumente gegenwärtig gedruckt werden. Das Problem wurde durch entsprechend auffällige Hinweise auf den Bildschirmen beseitigt. Die Kategorie Preis nimmt eine Sonderstellung ein, da dem Preis eine relativ große Bedeutung im Vergleich zu den übrigen Leistungsmerkmalen zukommt. Als beeindruckender Beleg dafür dienen die bemerkenswerten Erfolge der Billig-Fluglinien wie Ryanair. Der vergleichsweise geringe Preis ist das zentrale Differenzierungsmerkmal gegenüber den konventionellen Anbietern. Zwar hinkt der Vergleich etwas, weil die Passagiere der Billigflieger längere An- und Abfahrten zugunsten eines geringen Preises in Kauf nehmen müssen, während die etablierten Airlines in der Regel stadtnahe Flughäfen anfliegen. Dennoch gerät das gesamte Preisniveau unter Druck, wenn vereinzelt derart niedrige Preise verlangt werden. Die 2007 eingesetzte und lang erwartete Konsolidierung der Branche zeigte dann auch, dass nicht alle Airlines dem Preiskampf ökonomisch gewachsen waren. Grundsätzlich bildet der Preis sozusagen einen Gegenpol zu den übrigen Leistungsmerkmalen. Werden Preis und Leistung von den Kunden als gleichwertig bewertet, liegt ein ausgeglichenes Preis-Leistungsverhältnis vor. Ganz gleich, ob es sich dabei um ein exzellentes Produkt zu einem hohen Preis oder ein Produkt mit akzeptabler Leistung zu einem günstigen Preis handelt. Steigt der Preis ohne eine Verbesserung der Leistung, gerät das Gleichgewicht ins Wanken. Der Nutzen sinkt, weil sich das Preis-Leistungsverhältnis zu Ungunsten des Kunden verändert. Der Kunde wird sich vermutlich gegen den Kauf entscheiden. Gleiches gilt in umgekehrter Richtung. Hierbei verschenkt der Anbieter Leistung. Werden Leistungsmerkmale wie kürzere Durchlaufzeiten bei der Auftragsabwicklung oder verbesserte Nutzerfreundlichkeit von Produkten gestärkt und bleibt der Preis unverändert, steigt zwar der Nutzen für den Kunden, jedoch muss der Anbieter möglicherweise sein Angebot zurückziehen. Denn kein Anbieter kann über einen längeren Zeitraum exzellente Produkte zu minimalen Preisen anbieten – zumindest ist das ökonomisch nicht sinnvoll. Der Kundennutzen schwankt also bei gegenläufigen Veränderungen des Preises in Relation zu den übrigen Leistungsmerkmalen. Damit verraten wir nichts Neues. Und dennoch beobachten wir, dass diese einfachen Zusammenhänge häufig ignoriert werden. Bei der Analyse der Kundenanforderungen werden Leistungsmerkmale abgefragt, ohne die Kunden mit der Frage zu konfrontieren, welchen Preis sie dafür zu zahlen bereit sind. Denn schließlich bestimmt der Preis das Opfer, das der Kunde für den Nutzen eines Produkts oder einer Dienstleistung erbringen muss. Wenn die Analyse der Kundenanforderungen nur Leistungsmerkmale berücksichtigt, aber nicht den Preis, ist das Bild unvollständig. Muss der Kunde für bestimmte Leistungsmerkmale kein Opfer erbringen, will er natürlich alles, was Sie ihm anbieten. Im Vertrauen auf Ihre Analyse schaffen Sie dann möglicherweise Leistungsmerkmale, für die der Kunde nicht bereit ist, einen höheren Preis zu zahlen. Es bleibt noch die Frage offen, wie das optimale Verhältnis zwischen diesen beiden Polen bestimmt werden kann. Diesem Punkt wenden wir uns im nächsten Abschnitt zu: Gewichtung der kaufentscheidenden Merkmale.
44
Potenzialanalyse
Der Preis nimmt neben seiner Bedeutung für die Kaufentscheidung eine Rolle als Indikator für das Markenimage ein. Am Beispiel von Ryanair und Easy-Jet wird diesem Aspekt durch den mittlerweile etablierten Begriff „Billig-Airline“ Rechnung getragen. Ein anderes Beispiel für die Wechselwirkung zwischen Preis und Markenimage liefert der Handel. Levi Strauss wollte der britischen Supermarktkette „Tesco“ gerichtlich verbieten lassen, Jeans der Marke „Levi’s“ zu einem um 47 Euro geringeren Preis als andere Einzelhändler zu verkaufen. Der Bekleidungshersteller sah darin die Gefahr, durch die Tiefpreispolitik das Markenimage eines Billiganbieters zu erhalten. Und dies zu einem Zeitpunkt, in dem Levi Strauss versuchte, sein angeschlagenes Image wieder aufzupolieren. Der Europäische Gerichtshof gestattete jedoch Tesco dennoch seine Preispolitik im April 2001. Es muss nicht immer der Preis sein, der den Gegenpol zu den wünschenswerten Eigenschaften eines Produkts oder eines Prozesses bildet. Häufig haben bestimmte Produkteigenschaften einen unmittelbaren Einfluss auf die Leistungsmerkmale des Anwendungsprozesses. Darunter verstehen wir den Prozess, wie der Kunde das Produkt nutzt. In besonderen Fällen sind es der Zeitbedarf, der Einarbeitungsaufwand oder andere Parameter, die den positiven Seiten der Leistungsmerkmale entgegenwirken. Das fängt bei scheinbar trivialen Aspekten an, die jedoch in der Wahrnehmung des Kunden negative Spuren hinterlassen können. So nutzen die schönsten Produkteigenschaften nichts, wenn die Lektüre der Gebrauchsanweisung zur Qual wird. Ist das Produkt schlicht zu kompliziert und die Bedienungsanleitung unverständlich, hat dies natürlich Einfluss auf den Anwendungsprozess. Nicht selten stellt der Kunde das Produkt sogar einfach in die Ecke, was kein gutes Indiz für eine hohe Kundenzufriedenheit ist. Wer will schon mit einer Stereoanlage durch den Wald joggen? Je unterschiedlicher die Leistungsmerkmale, umso schwerer ist deren Identifikation. Besonders schwierig gestaltet sich die Identifikation, wenn es sich um latente Leistungsmerkmale handelt, die selbst dem Kunden nicht bewusst sind. Zum Beispiel bei innovativen Produkten, über die sich die befragten Personen noch keine Gedanken gemacht haben. Wer hat schon vor der Einführung des Walkman den Wunsch geäußert, mit einer Stereoanlage durch den Wald zu joggen? Wie sollte sich Anfang der neunziger Jahre ein Kunde vorstellen, seine Bankgeschäfte über ein Handy abzuwickeln? Wir nennen diese Art von Leistungsparametern latente Anforderungen, da der Kunde diese seiner Kaufentscheidung nicht bewusst zugrunde legt. Wird ihm das Merkmal jedoch geboten, so entsteht aus einer latenten Kundenanforderung eine bewusste, und diese muss fortan als kaufrelevantes Entscheidungskriterium eingestuft werden. Die Herausforderung besteht nun darin, Indikatoren zu finden, die auf latente Kundenanforderungen hindeuten. Hierzu zwei Beispiele: Die U-Bahn SMRT (Singapore Mass Rapid Transport) reagierte auf die Zunahme der durchschnittlichen Körpergröße seiner Fahrgäste mit einer Verbreiterung der Bestuhlung von 43 auf 48 Zentimeter. Im Jahr
Analyse der Kunden und Wettbewerber
45
1997 fanden Forscher von Colgate-Palmolive heraus, dass die untersuchten Personen während des Zähneputzens unbewusst den Halt der Zahnbürste bis zu 100 Mal wechselten. Daraufhin entwickelte man Zahnbürsten mit einem größeren Durchmesser der Griffe und beschichtete die Griffflächen mit einer rutschfesten Gummioberfläche. Diese Produktmerkmale werden in der Regel nicht von Kunden aktiv eingefordert. Dennoch bieten sie Möglichkeiten zur Verbesserung der Kundenzufriedenheit. Die Analyse der latenten Leistungsmerkmale erfordert viel Fingerspitzengefühl und Fantasie. Manchmal besteht die Gefahr, dass die Fantasie dabei die Überhand gewinnt und wirtschaftliche Flops die Folge sind. Nehmen wir das Beispiel des Satelliten-Telefonsystems Iridium. Offensichtlich wurde die Möglichkeit, auch auf dem Süd- oder Nordpol telefonieren zu können, fälschlicherweise als latente Kundenanforderung eingeschätzt. Der Megaflop verschlang die stattliche Summe von 6 Milliarden US-Dollar. Dennoch sollten Negativbeispiele nicht über die Tatsache hinwegtäuschen, dass gerade die latenten Kundenanforderungen enorme Chancen für Innovationen und damit die Basis für die Schaffung von Wettbewerbsvorteilen bieten. Gewichtung der kaufentscheidenden Leistungsmerkmale Wenn Sie Ihre Kunden fragen, ob sie einen besseren Service, mehr Flexibilität und ein exzellentes Qualitätsniveau erwarten, so werden Sie ein eindeutiges Ja hören. Anders wird die Antwort auf die Frage nach einer höheren Preisbereitschaft ausfallen. Natürlich wollen Kunden möglichst viel bekommen und dafür wenig zahlen. Lebensmittel aus dem Feinkostladen und Automobile von Porsche zu Preisen wie bei Aldi und Skoda lassen sich jedoch nicht realisieren. Kein Anbieter wird langfristig beste Qualität zu niedrigen Preisen anbieten können. Dieses Dilemma lösen Sie, wenn Sie exakt herausfinden, wo die Kunden zu Zugeständnissen bereit sind. Kein Kunde kauft ein Produkt, nur weil es billig ist Der typische Aldi-Kunde entbehrt die Feinkostqualität, kommt dafür aber in den Genuss eines sehr günstigen Preises. Bei der Frage nach der Gewichtung der kaufentscheidenden Leistungsmerkmale durch den Kunden ermitteln Sie nichts anderes, als dessen Bereitschaft, bis zu einem bestimmten Grad auf ein Merkmal zu Gunsten eines anderen Merkmals zu verzichten. Der Einschränkung „bis zu einem bestimmten Grad“ kommt ein besonderer Stellenwert zu. Würde Aldi die Qualität seiner Produkte ins Bodenlose fallen lassen, dafür aber auch die Preise entsprechend senken, dann würde trotzdem die Nachfrage deutlich zurückgehen. Wichtig ist, dass die Qualität mindestens akzeptabel sein muss, weil kein Kunde ein Produkt kauft, nur weil es billig ist. Eine Verringerung des Preises bei extrem geringem Leistungsniveau führt nicht automatisch dazu, dass der Kundennutzen zunimmt. Ist die Leistung unakzeptabel gering, verhält sich die Nachfrage nach diesem Produkt unelastisch. Eine weitere Preissenkung hätte keine Nachfragesteigerung zur Folge.
46
Potenzialanalyse
Das Beispiel zeigt, dass Sie bei der Gewichtung der Leistungsmerkmale durch die Kunden deren Akzeptanzgrenzen ausfindig machen müssen. Die Kernfrage an die Kunden lautet dabei immer gleich: Wie wichtig ist das betreffende Leistungsmerkmal im Vergleich zu den übrigen Leistungsmerkmalen aus Sicht des Kunden? Damit ist automatisch die Frage verknüpft, inwieweit der Kunde bereit ist, für eine bessere Leistung mehr zu zahlen? Oder anders herum, auf was verzichtet er, um den Vorteil eines geringeren Preises zu erhalten? Zur Gewichtung empfehlen wir eine Skala von 1 bis 3, wobei die Gewichtungsziffern die Bedeutung des jeweiligen Leistungsmerkmals im Vergleich zu den übrigen Leistungsmerkmalen zum Ausdruck bringen. Gewichtet ein Befragter ein Leistungsmerkmal mit 1, so deutet dies auf eine relativ geringe Bedeutung des Merkmals hin. Der Befragte ist vermutlich bereit, auf dieses Merkmal zu verzichten, wenn ihm dafür andere mit 2 oder 3 gewichtete Merkmale geboten werden. Der Käufer eines Ford-Fiestas wird den Klang des Fahrzeugs mit 1 gewichten, weil er von einem Fiesta keinen gehaltvollen Sound erwartet. Dafür möchte er in die Gunst eines geringen Preises kommen. Leistungsmerkmale, die mit 1 gewichtet werden, sind dem Befragten mehr oder minder egal. Er wird zugunsten dieses Merkmals auf keinen Fall einen höheren Preis akzeptieren oder einen anders gearteten Nachteil in Kauf nehmen. Das Leistungsmerkmal ist im Vergleich zu den anderen . . . 1
2
3
. . . weniger wichtig
. . . gleich wichtig
. . . deutlich wichtiger
Abbildung 3: Skala für die Gewichtung von kaufrelevanten Leistungsmerkmalen
Niemand schwärmt von seinem Urlaub, nur weil das Hotelzimmer sauber war Die Gewichtung 2 wird typischerweise für Leistungsmerkmale vergeben, die dem Befragten zwar wichtig sind, die er jedoch als selbstverständlich voraussetzt. Damit werden in der Regel grundlegende Produktfunktionalitäten angesprochen. Dass eine Bank in der Lage ist, normale Überweisungen auszuführen und den gewünschten Betrag auf das korrekte Konto gutschreibt, ist zwar grundsätzlich wichtig, aber nichts Besonderes. Niemand schwärmt von seinem Urlaub, nur weil das Hotelzimmer sauber war. Trotz dieser lebensnahen Erkenntnis beobachten wir, dass Selbstverständlichkeiten als besondere Leistung anpriesen werden. Wenn ein Gasthof den potenziellen Gast mit „gepflegten Speisen und Getränken“ lockt, sollten die Erwartungen der Gäste nicht allzu hoch sein. Ganz gleich, was Ihr Produkt kann oder Ihre Dienstleistung bietet, auf Leistungsmerkmale mit der Gewichtung 3 sollten Sie Ihr Augenmerk richten. Hier finden Sie Hinweise auf mögliche Alleinstellungsmerkmale gegenüber anderen Anbietern. Häufig handelt es
Analyse der Kunden und Wettbewerber
47
sich hierbei um Leistungen, die über das Selbstverständliche hinaus den Ausschlag für die Kaufentscheidung geben. So der Geschäftsreisende, der die Fluglinie mit den kürzesten Umsteigezeiten wählt – ganz gleich, wie teuer das Ticket ist. Bewertung der kaufentscheidenden Leistungsmerkmale Jetzt schlägt die Stunde der Wahrheit. Die befragten Personen bewerten die Produkte, Dienstleistungen und Prozesse der verschiedenen Anbieter. Somit treten die Wettbewerber, die wir im Abschnitt „Wer sind unsere Wettbewerber?“ identifiziert haben, wieder in das Blickfeld unserer Betrachtung. Inwieweit erfüllen die unterschiedlichen Konkurrenzangebote die kaufentscheidenden Leistungsmerkmale? Die Einbindung der Wettbewerber in die Bewertung ist geboten, weil wir wissen wollen, ob unsere Mitstreiter die Kundenanforderungen erfüllen. Kurz: Welches Angebot verfügt aus Kundensicht über die meisten Vorteile? Möglicherweise wird das von uns angestrebte Leistungsniveau bereits heute übertroffen? Wir sprechen von der „Stunde der Wahrheit“, weil hier die Wahrnehmung der befragten Personen ausschlaggebend ist. Es reicht nicht aus, sich vom Wettbewerber durch bestimmte Leistungsmerkmale abgrenzen zu wollen, wenn der Kunde diese nicht zur Kenntnis nimmt. Kein Medikament oder Kräuterbad kann die Infektion verkürzen Ganz gleich, was Ihr Produkt leistet oder nicht, es gilt stets: Nur was der Kunde als Vorteil einstuft, ist ein Vorteil. Das trifft selbst dann zu, wenn Ihr Produkt nichts leistet – außer einen vertrauenerweckenden Eindruck beim Kunden zu hinterlassen. Die Stiftung Warentest untersuchte im Jahr 2001 24 Erkältungsmittel für die Selbstmedikation und kam zu einem ernüchternden Schluss: „Kein Medikament, kein Kräuterbad oder -tee kann die Infektion verkürzen“. Ein Jahr später stellten die Warentester fest: 40 Prozent aller rezeptfreien Medikamente sind vollkommen nutzlos – mitunter sogar schädlich. Der Verkaufsschlager Doppelherz ist umgeben vom Mythos des Allheilmittels gegen das Älterwerden. In Wahrheit ist der Saft mit der Kraft der zwei Herzen ebenso wirkungslos wie das Erkältungsmittel Wick MediNait. Nach dem Motto „Ohne Alkohol ist auch keine Lösung“ dürfte die angebliche Linderung von Wick MediNait nach Ansicht der Tester in erster Linie auf einen Alkoholanteil von 18 Prozent zurückgeführt werden. Ansonsten enthält das Placebo nichts, was heilen könnte. Unser Urteil: In beiden Fällen haben die Anbieter ihre MarketingKompetenz eindrucksvoll unter Beweis gestellt. Konnten sie die Wahrnehmung der Kunden doch so manipulieren, dass diese einen Nutzen sehen, wo überhaupt keiner ist. Jeder Anbieter ist bestrebt, besser dazustehen als seine Wettbewerber. Jeder möchte ein Alleinstellungsmerkmal – eine USP (Unique Selling Proposition) – erlangen und so in den Augen der Kunden im Vorteil sein. Doch in der Realität ist das ein schwieriges Unterfangen.
48
Potenzialanalyse
In zahlreichen Produktkategorien finden die Kunden Massenware mit CommodityCharakter vor. Diese sind – ähnlich wie Kies oder Sand – beliebig austauschbar, weil keine nennenswerten Unterschiede zwischen den Konkurrenzprodukten zu erkennen sind. Dann entscheidet nur noch der Preis. Es gibt kein Markenbewusstsein für Streusalz Machen wir die Nagelprobe: Wenn Sie Streusalz einkaufen, wie stark denken Sie über die Vor- und Nachteile der unterschiedlichen Marken nach? Vermutlich überhaupt nicht. Denn Sie haben gar kein Markenbewusstsein für Streusalz. Es ist egal, ob Streusalz rot oder gelb ist. Manch einer behauptet, das Gleiche gälte auch für Strom. Womit er vermutlich auch Recht hat. Für den Kunden ist es nahezu unmöglich, signifikante Unterschiede zwischen den Konkurrenzangeboten zu erkennen. Die Kunst ist nun, die substanziellen Vorteile aus Sicht der Befragten herauszufiltern. Dafür schlagen wir eine Skala von 1 bis 5 vor. Die Ziffern verdeutlichen, wie gut die einzelnen Leistungsmerkmale im Vergleich zu den Konkurrenzangeboten erfüllt sind. Damit schaffen wir Transparenz über die relative Leistungsfähigkeit der Anbieter. Das Leistungsmerkmal ist im Vergleich zu den relevanten Wettbewerbern . . . 1
2
3
4
5
. . . deutlich schlechter
. . . etwas schlechter
. . . vergleichbar
. . . etwas besser
. . . deutlich besser
Abbildung 4: Skala für die Bewertung der kaufrelevanten Leistungsmerkmale
Jeder Befragte bewertet die einzelnen Anbieter bezüglich der jeweiligen Leistungsmerkmale. Es ist wichtig, den Befragten klar zu machen, dass nicht die absolute Leistungsfähigkeit bewertet wird. Vielmehr geht es um den Vergleich zwischen den angebotenen Produkten und Dienstleistungen. Leistungsmerkmale, die bei keinem Angebot als besser oder schlechter beurteilt werden, erhalten eine 3, ganz gleich, ob das Leistungsniveau hoch oder gering ist. Davon dürften wir bei Streusalz ausgehen, weil kaum Unterschiede zwischen den Anbietern auszumachen sind. Die Bewertung 1 und 2 deuten auf Schwachstellen hin, wohingegen 4 und 5 substanzielle Vorteile zum Ausdruck bringen. Nach der Gewichtung und Bewertung der kaufentscheidenden Leistungsmerkmale stellen wir die Ergebnisse in einer Matrix dar. In der folgenden Abbildung haben wir das exemplarisch für die fiktiven Leistungsmerkmale A bis F getan. Der graue Balken entlang der Diagonalen deutet den Konsistenzbereich an. Hier stimmen Gewichtung und Bewertung überein. So wird Leistungsmerkmal F im Vergleich zu den anderen Leistungsmerkmalen als weniger wichtig eingestuft. Die Positionierung von F ist insofern konsistent, weil das Leistungsmerkmal auch nur relativ schwach ausgebaut ist und als etwas schlechter be-
Analyse der Kunden und Wettbewerber
49
urteilt wird. Das ist – trotz der dürftigen Bewertung – unbedenklich, weil dies der Gewichtung entspricht. Ähnlich sieht die Situation beim Leistungsmerkmal D aus. Durch die hohe Gewichtung signalisieren die Befragten, dass D unbedingt erfüllt sein muss und dem ist auch so. Schließlich erhält D die Bewertung „deutlich besser“. Auch hier stimmen Gewichtung und Bewertung überein. Gleiches gilt für A und C. Leistungsmerkmale, die sich im Konsistenzbereich befinden, lassen keinen akuten Handlungsbedarf erkennen. Dahingegen ist das Leistungsmerkmal E zu schlecht und B zu gut. Bei B werden Leistungen verschenkt.
Gewichtung der Leistungsmerkmale
Zu Zu schlecht schlecht
3
E
D
e b z n e t A
2
1
K 1
h c i re
is s on
C
F
2
Zu Zu gut gut
B
3
4
5
Bewertung der Leistungsmerkmale
Abbildung 5: Die Matrix aus Gewichtung und Bewertung von Leistungsmerkmalen zeigt, wo Kundenerwartungen nicht erfüllt und Leistungen verschenkt werden.
Nehmen wir ein Beispiel: Im Auftrag eines international tätigen Anlagenbauers führten wir eine Kundenanalyse für die Service-Sparte des Unternehmens durch. Der Anlagenbauer stellt technisch komplexe Aggregate her, die in regelmäßigen Abständen gewartet und im Schadenfall repariert werden müssen. Die Strategie des Anlagenbauers sah vor, die Service-Sparte in den kommenden Jahren kontinuierlich auszubauen. Es wurden Szenarien entwickelt, unter denen die Produktion der Anlagen sogar an externe Auftragshersteller ausgelagert werden sollte, um sich voll und ganz auf den Service konzentrieren zu können. Das Ziel der Marktuntersuchung bestand darin, die relevanten Leistungsmerkmale des angebotenen Services durch einen ausgewählten Kreis von Kunden
50
Potenzialanalyse
bewerten zu lassen. Die Matrix in der folgenden Abbildung zeigt einen Ausschnitt der Analyseergebnisse. Was verrät uns die Matrix? Welche Konsequenzen können aus den Analyseergebnissen abgeleitet werden? Wo befinden sich Optimierungsansätze für die Service-Sparte? Die Mehrzahl der Kunden wünschte sich eine höhere Flexibilität bei der Tarifanpassung in laufenden Wartungsverträgen (A). Diesbezüglich verhielt sich der Anlagenbauer jedoch vollkommen unflexibel. Somit wurde für die Kunden keinerlei Anreiz geschaffen, die Wartungsintensität der Anlagen durch vorausschauende Planung oder Eigenleistungen zu reduzieren. Auch mit kundenspezifischen Lösungen (B), so beispielsweise die Wartung während der Nachtstunden oder am Wochenende, konnte unser Anlagenbauer nicht auftrumpfen. Häufig mussten die Kunden ihre Anlagen stilllegen, damit die Wartungsarbeiten tagsüber durchgeführt werden konnten.
A
Tarifanpassung im laufenden Vertrag
B Kundenspezifische Lösungen C Qualität des Call Centers D Preis E
Aktuelle Informationen
Gewichtung der Leistungsmerkmale
Leistungsmerkmale der ServiceSparte eines Anlagenbauers
A 3 B C D
2
1
Ko 1
e is t s n 2
i e r be z n
3
ch
E
4
5
Bewertung der Leistungsmerkmale
Abbildung 6: Die Gegenüberstellung der Gewichtung und Bewertung kaufrelevanter Leistungsmerkmale der Service-Sparte eines Anlagenbauers legt konkrete Optimierungsansätze offen. Der Anlagenbauer unterhielt seit einigen Monaten ein Call Center, an das sich die Kunden richteten, um beispielsweise technische Fragen zu klären, Ersatzteile zu bestellen oder Wartungstermine zu vereinbaren. Zwar begrüßten die Kunden die Einrichtung eines Call Centers (C), stuften die Qualität jedoch als gering ein. Insbesondere erhielten die telefonische Erreichbarkeit und das technische Know-how der Call Center-Mitarbeiter schlechte Noten.
Analyse der Kunden und Wettbewerber
51
Die Gewichtung und Bewertung des Preises (D) machte zwei Aspekte klar. Zum einen ist der Preis keinesfalls das alles entscheidende Kriterium. Sonst hätten die Kunden den Preis mit 3 gewichtet. Zum anderen wird der Anlagenbauer weder als besonders teuer, noch als besonders günstig wahrgenommen. Auf Nachfrage wurde klar, dass die Mehrzahl der Kunden sogar einen höheren Preis akzeptieren würde, wenn dafür andere Leistungsmerkmale aufgewertet würden. Eindeutig war die Bewertung der aktuellen Informationen (E). Diese wurden als schlichtweg überflüssig eingestuft, wenngleich die Qualität als sehr gut bewertet wurde. Eine genauere Analyse ergab, dass alle Kunden die gleichen Informationen in Form von Newslettern, Werbebroschüren und dergleichen erhielten. Dieses Gießkannenprinzip hatte zur Folge, dass Kunden mit Informationen überschüttet wurden, die für sie größtenteils irrelevant waren. Das wiederum machte es für den Kunden sehr schwierig, die für ihn relevanten Informationen herauszufiltern. Auf der Grundlage der stark verkürzt dargestellten Analyseergebnisse führte der Anlagenbauer eine Reihe von Maßnahmen ein, die mittlerweile zu einer spürbaren Verbesserung der Kundenzufriedenheit geführt haben. In erster Linie wurde die Preis- und Konditionenpolitik grundlegend überarbeitet. Heute werden die Preise für die Wartung der Anlagen während der Vertragslaufzeit angepasst. Ausschlaggebend ist der tatsächliche Aufwand für die Wartungsarbeiten. Insbesondere beim Angebot von kundenspezifischen Lösungen wurden große Anstrengungen unternommen. Gemeinsam mit dem Kunden werden individuelle Wartungskonzepte erarbeitet, die je nach Anforderung des Kunden mit sehr unterschiedlichen Preisen berechnet werden. Vergleichbar mit einer kapazitäts- beziehungsweise zeitabhängigen Preisdifferenzierung, wie sie in der Luftfahrtindustrie, bei der Bahn oder im Hotelsektor bekannt ist, werden die Wartungsarbeiten je nach dem Zeitpunkt der Durchführung preislich differenziert. So sind Wartungsarbeiten während der Nachtstunden oder am Wochenende deutlich teurer als während der gewöhnlichen Betriebsstunden. Ebenso wurde die Versorgung der Kunden mit aktuellen Informationen umgestellt. Das Gießkannenprinzip wurde ersetzt durch eine gezielte Informationsversorgung, die je nach Branche des Kunden und der von ihm betriebenen Anlagen spezifiziert wurde. Zusammenfassung Beim ersten Analyseschritt Ihres Reorganisationsvorhabens geht es um die Frage, was Ihre Kunden wollen und wie gut Ihre Wettbewerber diese Wünsche erfüllen können. Beachten Sie dabei die folgenden Punkte: Identifizieren Sie zunächst Ihr Wettbewerbsumfeld. Seien Sie sich darüber im Klaren, dass es Wettbewerber gibt, die Sie noch nicht einmal kennen. Berücksichtigen Sie deshalb in Ihrer Wettbewerbsanalyse nicht nur die direkten Mitstreiter, sondern auch potenzielle Markteinsteiger und Substituenten. Letztere sind heimtückisch, weil
52
Potenzialanalyse diese mit einem anderen Produkt einen vergleichbaren oder sogar identischen Nutzen stiften.
Bestimmen Sie die aus Kundensicht kaufentscheidenden Leistungsmerkmale Ihrer Produkte, Services und Prozesse. Achten Sie darauf, dass Sie den wünschenswerten Leistungsmerkmalen mindestens einen Gegenpol entgegensetzen wie beispielsweise den Preis. Befragen Sie einen ausgewählten Kreis von aktuellen und potenziellen Kunden nach der Wichtigkeit, die sie den Leistungsmerkmalen in Relation zu den jeweils anderen beimessen. Auf diesem Weg können Sie erkennen, bei welchen Merkmalen die Kunden bereit sind, Zugeständnisse zu machen. Achten Sie darauf, dass die befragten Personen nicht einfach alles als „sehr wichtig“ einstufen, da Sie sonst keine brauchbaren Ergebnisse erzielen. Wenn jedes Leistungsmerkmal wichtig ist, müssen Sie exzellente Produkte zu niedrigsten Preisen anbieten. Das halten Sie nicht lange durch. Fragen Sie anschließend für jedes Leistungsmerkmal, wie Ihre Produkte, Dienstleistungen und Prozesse im Vergleich zu denen Ihrer Wettbewerber bewertet werden. Während die Gewichtung der Leistungsmerkmale Aufschluss über deren Bedeutung für die Kaufentscheidung gibt, können wir aus der Bewertung ablesen, welcher Anbieter am besten abschneidet. Beherzigen Sie dabei, dass nur die wahrgenommene Leistungsfähigkeit zählt und nicht unbedingt jene, die Sie sich wünschen: Perception is Reality. Beachten Sie auch hier, dass die befragten Personen nicht allen Wettbewerbsangeboten dieselbe Bewertung geben. Fragen Sie nach und versuchen Sie, die Skala voll auszuschöpfen. Nur so können Sie die Unterschiede erkennen und letzten Endes Handlungsfelder ableiten. Stellen Sie Ihre Ergebnisse in einer Matrix dar. So wird unmittelbar sichtbar, welche Leistungsmerkmale Sie justieren müssen, um das optimale Verhältnis zwischen Preis und Leistung zu schaffen. Sollten alle Leistungsmerkmale im Konsistenzbereich liegen, dann sind Sie optimal positioniert, vorausgesetzt Ihre Analyseergebnisse sind korrekt. Leistungsmerkmale, die sich als zu schlecht herausstellen, müssen verbessert oder durch entsprechende Werbebotschaften ins rechte Licht gerückt werden. Leistungsmerkmale mit dem Gütesigel „zu gut“ deuten auf Zugeständnisse der Befragten hin, die eine Reduktion des Leistungsmerkmals zugunsten eines anderen nahe legen. Es sei denn, es gelingt Ihnen, die Gewichtung des Leistungsmerkmals zu erhöhen, indem Sie das Bedürfnis danach stimulieren. Die Methodenkomponenten der Wettbewerbs- und Kundenanalyse fassen wir wie folgt zusammen:
Analyse der Kunden und Wettbewerber
53
Tabelle 1: Methodenkomponenten der Wettbewerbs- und Kundenanalyse Komponente Vorgehensphase
Potenzialanalyse
Aktivitäten
Wettbewerbsanalyse
Kundenanalyse
Ergebnisse
Transparenz über Wettbewerber und inwieweit diese in der Lage sind, die Kundenanforderungen zu erfüllen
Transparenz über die Kundenanforderungen an die Prozesse des Unternehmens
Techniken
Markt-Modell von Michael E. Porter
• Kundenbefragung: kaufrelevante Leistungsmerkmale • Matrix aus Gewichtung und Bewertung kaufrelevanter Leistungsmerkmale
Rollen
• Projektteam
• Projektteam
• Evtl. externe Experten
• Ausgewählte Kunden
3.2 Analyse der eigenen Kernkompetenzen – Wo sind wir besser? Mit der Analyse der Kunden und Wettbewerber konnten wir feststellen, bei welchen kaufrelevanten Leistungsmerkmalen Stärken und Schwächen vorliegen. Damit ist die Frage nach dem „Was“ aus Kundensicht beantwortet. Bei der Analyse der Kernkompetenzen geht es um das „Wie und Warum“. Als eine Kernkompetenz wird das bezeichnet, was ein Unternehmen substanziell besser macht als seine relevanten Wettbewerber. Sei es die Beherrschung einer Technologie oder die Fähigkeit der Organisation, sich rasch an die wechselnden Rahmenbedingungen anzupassen. Eine Kernkompetenz ist die Voraussetzung für einen strategischen Wettbewerbsvorteil, ohne den ein Unternehmen langfristig nicht bestehen kann. Wir treffen im Rahmen unserer Beratungsprojekte häufig auf Manager, die seit vielen Jahren hervorragende Ergebnisse vorweisen können, aber nicht wissen, woran das liegt. „Ich weiß nicht, wie wir das machen, aber es funktioniert“, bekommen wir zu hören. Unsere Frage nach den Kernkompetenzen – also dem „Wie und Warum“ – lässt dann allgemeines Schweigen und verwunderte Gesichter aufkommen. Und genau darin sehen wir eine große Gefahr. Die Unkenntnis dessen, warum man etwas besser kann als seine
54
Potenzialanalyse
Wettbewerber, mag in Zeiten hoher Gewinne nicht interessieren. Gerät das Unternehmen jedoch in Turbulenzen – beispielsweise durch den Markteintritt eines neuen Anbieters oder das Auftauchen eines Substituenten – wird es eng. Aber warum ist die Analyse der Kernkompetenzen von Bedeutung, wenn es eigentlich um die Optimierung der Prozesse geht? Der Antwort liegen drei Fragen zugrunde, die wir im Folgenden detailliert betrachten wollen: Welche Prozesse generieren einen substanziellen Mehrwert für den Kunden? Welche Prozesse bieten die besten Ansatzpunkte für die Prozessoptimierung? Welche Prozesse sind potenzielle Outsourcing-Kandidaten?
3.2.1
Generierung von Mehrwert für den Kunden
Der Prozessgestaltung sollte stets die Frage nach dem Mehrwert für den Kunden vorausgehen. Ansonsten optimieren Sie möglicherweise Prozesse, generieren jedoch kein Ergebnis, das den Kunden zum Kauf bewegt oder Ihnen einen anderen Wettbewerbsvorteil verschafft. Denkbar ist auch, dass bereits etablierte Wettbewerber diese Prozesse so gut beherrschen, dass Sie nicht besser sein können, weil Ihnen schlicht die erforderlichen Kernkompetenzen dazu fehlen. Unterbleibt eine kritische Analyse der eigenen Kernkompetenzen, so kann das fatale Folgen haben. Nehmen wir den Fall eines spektakulären Dot-com-Flops: Die Direktkauf AG wurde 1998 gegründet und war bereits nach zwei Jahren pleite. Das Unternehmen lieferte Waren des täglichen Bedarfs in ganz Deutschland an private Haushalte. Dieter Brandes, selbst mehrere Jahre in der Geschäftsleitung bei Aldi, wunderte sich zu Recht darüber, wie die Gründer von Direktkauf „auf die Idee kommen, ein solch komplexes Geschäft aufzubauen“. Woher nehmen Unternehmen vom Schlage Direktkauf das Selbstbewusstsein, im Versandhandel gegen erfahrene Branchenriesen wie Otto oder Tchibo anzugehen, ohne über jegliche Erfahrungen auf diesem Gebiet zu verfügen? Wie wollte Direktkauf es schaffen, ein attraktives Sortiment zusammenzustellen und obendrein auch die komplette Supply Chain sowohl kaufmännisch als auch logistisch zu optimieren – ohne über entsprechende Kernkompetenzen in diesen Prozessen zu verfügen? Direktkauf ist kein Einzelfall. Boo.com – gegründet von dem damals 28 Jahre alten Model Kajsa Leander und dem gleichaltrigen Literaturkritiker Ernst Malmsten – wollte das größte virtuelle Kaufhaus der Welt werden. Mit dieser großen Vision ging boo.com im Mai 1999 online. Nach gerade mal zwölf Monaten war der Traum zu Ende. Das Unternehmen musste seine virtuellen Tore wieder schließen, trotz eines stattlichen Startkapitals von 150 Millionen US-Dollar, die das Gründerpaar von so namhaften Investoren wie Alessandro Benetton, Bernard Arnault, dem Chef der französischen Nobelmarke
Analyse der eigenen Kernkompetenzen
55
LVMH, sowie der amerikanischen Investmentbank Goldman Sachs erhielt. Im Gegensatz zu Direktkauf wollte boo.com die Kunden nicht mit Waren des täglichen Bedarfs beliefern, sondern mit hochwertiger Sport- und Freizeitbekleidung. Zudem beschränkte man sich keinesfalls auf einen regionalen Markt, sondern wandte sich über eine attraktive Website in sechs Sprachen an Kunden in Europa und Nordamerika. Dank einer anspruchsvollen Technik konnten die potenziellen Käufer die Produkte von allen Seiten betrachten. Den großen Ambitionen standen jedoch kärgliche Erträge gegenüber. Die Umsätze beliefen sich pro Monat auf 150.000 bis 200.000 Euro. Zu wenig, um zu überleben. Das zu beherrschen, was viele können, ist keine Kernkompetenz Auch bei boo.com fehlte es an den erforderlichen Kernkompetenzen, die für die Schaffung eines strategischen Wettbewerbsvorteils unerlässlich sind. Warum hätten die Kunden bei boo.com kaufen sollen? Nur weil sie dort eine peppige Website vorfinden? Das reicht nicht. Hätten die Gründer von Direktkauf oder boo.com die Fehler in ihrem Geschäftskonzept im Vorfeld erkennen können? Wir meinen, ja. Wie können Sie feststellen, ob in Ihren Prozessen eine Kernkompetenz schlummert, die Ihnen ein Alleinstellungsmerkmal bietet? Welche Prozesse generieren in Ihrem Unternehmen Vorteile für den Kunden, die das Wettbewerbsangebot substanziell übertreffen? Bevor Sie nun Ihre Kernkompetenzen aufspüren, müssen wir vor einem weitverbreiteten Irrtum warnen. Wir haben die Erfahrung gemacht, dass Manager wichtige Fähigkeiten ihrer Unternehmen mit Kernkompetenzen gleichsetzen. Es geht aber nicht um das, was ein Unternehmen einfach nur beherrscht, sondern was es substanziell besser kann als seine Wettbewerber. Das zu beherrschen, was alle können, ist keine Kernkompetenz – selbst wenn man damit bereits eine hohe Leistungsfähigkeit dokumentiert. Aus Kundensicht ergeben sich aus diesen Fähigkeiten keine Vorteile gegenüber den übrigen Anbietern. Selbstverständlich bedeutet das nicht, dass solche Prozesse unwichtig sind oder gar zu vernachlässigen wären. Sie tragen nur keine Kernkompetenz in sich. Wir haben bewusst diesen Aspekt pointiert, um Sie vor dem Fehler zu bewahren, ausgeprägte Fähigkeiten mit Kernkompetenzen gleichzusetzen. Führen Sie die Analyse der Kernkompetenzen anhand von drei Checkpunkten durch: Wahrnehmbarkeit, Wichtigkeit und Imitierbarkeit. Mit dieser Nagelprobe können Sie vermeintliche Kernkompetenzen von den tatsächlichen trennen, vorausgesetzt, Sie lügen sich nicht selbst in die Tasche. Wahrnehmbarkeit: Schafft die vermeintliche Kernkompetenz einen Vorteil, der durch die Kunden überhaupt wahrgenommen wird? Oder handelt es sich um etwas, was zwar tatsächlich besser ist als das Konkurrenzangebot, jedoch derart versteckt ist, dass kein Mensch den Vorteil erkennen kann?
56
Potenzialanalyse
Wichtigkeit: Selbst wenn die Kernkompetenz einen wahrnehmbaren Vorteil schafft, ist zu klären, ob dieser dem Kunden wichtig ist. Mitunter wird die Technikkompetenz von Produktentwicklern als Kernkompetenz verstanden. Dabei werden häufig technische Spielereien kreiert, auf die kein Kunde Wert legt. Vielleicht schaffen Sie sogar einen Vorteil, der dem Kunden nicht nur unwichtig ist, sondern ihn sogar vom Kauf abhält. Imitierbarkeit: Sollte die von Ihnen auserkorene Kernkompetenz wahrnehmbare und wichtige Vorteile generieren, dann prüfen Sie, wie leicht die relevanten Wettbewerber diese Kompetenz imitieren können. Es gibt keine festgelegte Frist, ab wann eine Kernkompetenz dauerhaft ist. Dies hängt von der Branche und den jeweiligen Produktlebenszyklen ab. Hinter der Analyse der eigenen Kernkompetenzen steht im Grunde die profane Frage: Warum sind wir erfolgreich? Welche Fähigkeiten schaffen einen Mehrwert, den andere Anbieter nicht liefern können? Wenn Sie diese Fragen anhand der drei Checkpunkte aufrichtig beantwortet haben, können Sie gravierende Fehlentscheidungen vermeiden. Führen Sie diesen Check nicht im stillen Kämmerlein durch, sondern diskutieren Sie die Einschätzungen mit Ihrem Management-Team. Es geht vor allem darum, dass Sie sich über Ihre tatsächlichen Stärken bewusst werden und sich nicht blindlings auf die Optimierung von irgendwelchen Geschäftsprozessen stürzen. Sicherlich kann es sinnvoll sein, Prozesse zu optimieren, die keine Kernkompetenzen in sich tragen. Dann bleibt die Wirkung aus wettbewerbsstrategischer Perspektive jedoch überschaubar. Und Ihre Eignung als vorausschauender Manager möglicherweise auch.
3.2.2
Ansatzpunkte für die Prozessoptimierung
Wollen Sie die geeigneten Ansatzpunkte für die Prozessoptimierung herausfinden, dann müssen Sie jene Prozesse erkennen, in denen Ihre Kernkompetenzen zum Tragen kommen. Kernkompetenzen fallen nicht vom Himmel. Vielmehr kommen sie in den Prozessen des Unternehmens zum Tragen. Geschäftsprozesse bilden mitunter selbst eine Kernkompetenz oder schaffen die Grundlage für den Aufbau einer Kernkompetenz. Häufig hören wir, dass sämtliche Prozesse mit unmittelbaren Schnittstellen zum Kunden über eine Kernkompetenz verfügen. Das kann sein, muss aber nicht. Nehmen wir das Beispiel McDonald’s. Der amerikanische Fastfood-Gigant betreibt rund 30.000 Restaurants überall dort, wo die Erde Land hat. Alleine in Deutschland waren es 2007 genau 1.302 Restaurants, die von 927 Millionen Gästen besucht wurden. Was macht McDonald’s so erfolgreich? Welche Prozesse tragen die Kernkompetenzen des Unternehmens? Ist es die Herstellung und der Verkauf von Hamburgern und Pommes Frites? Mitnichten. Die Antwort klingt abstrakt: Die Fastfood-Kette beherrscht die Kunst, weitgehend vereinheitlichte Produkte auf hohem Qualitätsniveau schnell und
Analyse der eigenen Kernkompetenzen
57
preiswert überall dort anzubieten, wo Kunden danach suchen. Egal ob in Frankfurt, New York oder Katmandu. Das homogene Produktspektrum und die standardisierten Restaurants vermindern letzen Endes das Kaufrisiko. Wir wissen, was uns in den Restaurants mit dem gelben M erwartet. Im Gegensatz zu anderen Anbietern, mit deren Markennamen wir möglicherweise nichts verbinden und deren Qualität wir nicht einschätzen können. Der hohe Bekanntheitsgrad hat seinen Preis. Der Markenwert von McDonald’s lag 2009 gemäß dem Marktforschungsinstitut Interbrand bei stattlichen 32 Milliarden USDollar. McDonald’s beherrscht natürlich die Prozesse der Zubereitung und des Verkaufs von Fastfood. Aber das können andere auch. Die Meisterschaft gewinnt der Fastfood-Gigant in anderen Bereichen wie Facility-Management, Logistik, Durchsetzen von Standards – und das Ganze wahrhaft global. McDonald’s verfügt über die Kernkompetenz, stets an die besten Standorte für Restaurants zu gelangen. Die Beherrschung des Logistikprozesses ist sicherlich eine Kernkompetenz. Haben Sie sich als Gast jemals Gedanken darüber gemacht, wie diese Mengen an Lebensmitteln, Verpackungsmaterial und sonstigen Verkaufsartikeln zum richtigen Zeitpunkt an den richtigen Ort gelangen? Wahrscheinlich nicht. Würden diese Prozesse nicht funktionieren, dann könnten Sie nicht darauf vertrauen, dass Ihr Hamburger in Peking so schmeckt wie in London. Die Mehrzahl der Restaurants (ca. 70 Prozent) befindet sich im Besitz von Franchise-Nehmern, die natürlich nicht immer an einem Strang ziehen. Es gehört zur Kunst, in allen Ländern ein einheitliches Erscheinungsbild aufzubauen und dennoch die lokalen Begebenheiten zu berücksichtigen. Dazu gehören extreme Disziplin und eine konsequente Unternehmensführung. Wenn dies alles funktioniert, läuft der Prozess der Hamburgerproduktion fast von selbst. Was lernen wir aus dem Beispiel McDonald’s? Die Kernkompetenzen eines Unternehmens sind nicht zwingend in den Prozessen anzutreffen, für die der Kunde eigentlich zahlt. Nicht die Produktions- und Verkaufsprozesse der Hamburger oder Pommes Frites stellen die Herausforderung dar. Die Kernkompetenzen – und damit die strategisch relevanten Ansatzpunkte für die Prozessoptimierung – liegen im Fall von McDonald’s in den vor- und nachgelagerten Prozessen. Diese sind dem Kunden zwar nicht transparent, dennoch schaffen sie einen wichtigen und wahrnehmbaren Vorteil, ohne den das Konzept von McDonald’s nicht aufginge.
3.2.3
Potenzielle Outsourcing-Kandidaten
Wenn Sie feststellen, dass vermeintliche Kernkompetenzen den Lackmustest nicht bestehen, haben Sie zwei Möglichkeiten. Entweder Sie investieren Zeit und Geld, um eine tatsächliche Kernkompetenz daraus zu entwickeln oder Sie lagern die entsprechenden Prozesse aus. Besinnen Sie sich bei Ihrer Entscheidung darauf, dass ein Unternehmen nur über wenige Kernkompetenzen verfügen kann, weil deren Aufbau und Erhalt extrem
58
Potenzialanalyse
aufwändig ist: Wer wirklich gut sein will, konzentriert sich auf wenige Kernkompetenzen. Häufig ist die Auslagerung (Outsourcing) bestimmter Tätigkeiten auf externe Dienstleistung die beste Lösung. Sie widmen sich der Pflege Ihrer tatsächlichen Kernkompetenzen und stärken so Ihre Wettbewerbsfähigkeit. Das soll natürlich nicht heißen, dass Sie Probleme lösen können, indem Sie diese anderen über den Zaun werfen. Selbstverständlich müssen Sie suboptimale Prozesse auch dann verbessern, wenn sie ausgelagert werden. In diesem Fall sollte jedoch der Outsourcing-Partner eingebunden werden, um nicht von Anfang an eine Lösung zu schaffen, die sich später nicht realisieren lässt. Der italienische Autokonzern Fiat übertrug die Betreuung seiner gesamten Informationstechnik an die IBM Global Services, die Dienstleistungssparte des amerikanischen Computer-Riesen. Geschätzter Auftragswert: circa sechs Milliarden US-Dollar. Im Dezember 2002 gab die Deutsche Bank die Auslagerung ihrer kontinentaleuropäischen Rechenzentren an die IBM bekannt. Welche Kernkompetenz besitzt eine Bank im Betreiben eines Rechenzentrums? Keine. Versperrt sich die Bank ein wichtiges Marktsegment, wenn es derartige Prozesse auslagert? Die Antwort liegt auf der Hand und lautet: Nein. Dennoch ist Vorsicht geboten, wie unsere Ausführungen im Subkapitel „Outsourcing von Prozessen“ noch zeigen werden. Andererseits können Dienstleister, die diese Aufgaben übernehmen, ihre eigenen Kernkompetenzen besser entfalten. Es werden Skaleneffekte realisiert, die durch ein einzelnes Unternehmen – selbst in der Größenordnung der Deutschen Bank – nicht machbar wären. Die Auslagerung von Prozessen hat viele Gründe. Letzten Endes dreht es sich jedoch immer darum, dass sich das Unternehmen auf eine oder zwei Kernkompetenzen konzentrieren kann und so den Freiraum gewinnt, diese kontinuierlich auszubauen. Häufig verbleiben nur jene Phasen im Wertschöpfungsprozess, die der eigentlichen Erstellung des Produkts oder der Dienstleistung vor- bzw. nachgelagert sind. Siemens, Xerox oder Dell lassen ihre Produkte zunehmend von Auftragsherstellern fertigen. Diese Elektronikschmieden tragen Namen, die kaum einer kennt, wie beispielsweise Foxconn, ein taiwanesischer Elektrokonzern, der in der südchinesischen Stadt Shenzhen unter anderem das E-Book „Kindle“ für Amazon, Notebooks für HP, Smartphones für Nokia sowie das iPhone und iPad von Apple herstellt.
Analyse der eigenen Kernkompetenzen
59
Zusammenfassung Die Analyse der eigenen Kernkompetenzen liefert Erkenntnisse über die Leistungsfähigkeit des Unternehmens. Und sie zeigt, welche Prozesse aus wettbewerbsstrategischer Sicht für eine umfassende Prozessoptimierung überhaupt in Frage kommen. Beachten Sie die folgenden Punkte: Eine Kernkompetenz ist etwas, was ein Unternehmen substanziell besser kann als seine Wettbewerber. Die Analyse der Kernkompetenzen gibt Aufschluss darüber, ob und welche Prozesse einen wahrnehmbaren und wichtigen Vorteil für den Kunden schaffen, der von den Wettbewerbern nicht unmittelbar imitiert werden kann. Die Transparenz über Ihre Kernkompetenzen legt Ansatzpunkte für die Reorganisation offen. Unter wettbewerbsstrategischen Aspekten sollten nur jene Prozesse Beachtung finden, in denen mindestens eine Kernkompetenz verankert ist. Analysieren Sie Ihre eigenen Kernkompetenzen. Unterliegen Sie nicht der Fehleinschätzung, dass diese strategische Fragestellung ausschließlich dem Vorstand vorbehalten sein sollte. Seien Sie sich im Klaren darüber, dass jedes Unternehmen, jeder Geschäftsbereich, jede Abteilung und letzten Endes auch jeder Mitarbeiter über mindestens eine Kernkompetenz verfügen muss. Denn diese bilden die Grundlage für den Aufbau eines strategischen Wettbewerbsvorteils, der wiederum – das wissen wir spätestens seit Darwin – für den Erhalt einer jeden „Spezies“ unabdingbar ist. Die Methodenkomponenten der Kernkompetenzanalyse lauten wie folgt: Tabelle 2: Methodenkomponenten der Kernkompetenzanalyse Komponente Vorgehensphase
Potenzialanalyse
Aktivitäten
Kernkompetenzanalyse
Ergebnisse
Transparenz über die Kernkompetenzen des Unternehmens und die Prozesse, in denen die Kernkompetenzen zum Tragen kommen
Techniken
Kernkompetenzanalyse
Rollen
Projektteam
60
Potenzialanalyse
3.3 Prozessanalyse – Nur wer in Prozessen denkt, blickt durch Die Prozessanalyse stellt eine der aufwändigsten Aktivitäten dar – und zudem eine der kritischsten. Sie schafft Transparenz über die betrachteten Prozesse und die beteiligten Organisationseinheiten, legt Schnittstellen zu anderen Prozessen offen und misst prozessrelevante Führungsgrößen wie beispielsweise Zeiten, Kosten und Qualitätsparameter. Theoretisch kann ein Prozess auch ohne eine Analyse des Ist-Zustands optimiert werden. Dann gehen allerdings wichtige Detailinformationen verloren, was die Praxistauglichkeit der neuen Prozesse gefährdet. Zudem bildet die Prozessanalyse die Grundlage für eine systematische Diagnose der Problemursachen, die ihrerseits die Basis für die Formulierung der Redesign-Ziele und aller weiteren Projektschritte ist. Wenn Sie bei der Prozessanalyse unsauber arbeiten, stellen Sie Ihr gesamtes Optimierungsvorhaben auf ein wackliges Fundament. Deshalb sollten Sie sich keine handwerklichen Fehler leisten. Als Vorgehensweise für die Prozessanalyse schlagen wir die folgenden Schritte vor: Vorgehensschritte Vorbereitung
1.
Erstellung einer Prozesslandkarte
2.
Ausgrenzen des Prozesses
3.
Definition des Detaillierungsgrads
4.
Identifikation der prozessrelevanten Organisationseinheiten
5.
Definition des Analyseverfahrens
6.
Formulierung eines Leitfadens
7.
Identifikation der geeigneten Experten
Durchführung
8.
Durchführung der Interviews bzw. Workshops
Nachbereitung
9.
Grafische und verbale Dokumentation
10. Berechnung der Durchlaufzeit und Prozesskosten 11. Verifizierung der Ergebnisse
Prozessanalyse
3.3.1
61
Vorbereitung der Prozessanalyse
Bevor wir mit der inhaltlichen Arbeit beginnen, sollten wir zunächst eine grundsätzliche Frage klären: Was verstehen wir überhaupt unter einem Prozess? Es mag banal klingen, darüber nachzudenken. Doch wir beobachten, dass die Vorstellungen von einem Prozess so unterschiedlich sind wie die an der Reorganisation beteiligten Personen. Daher schaffen wir zunächst ein einheitliches Verständnis der wichtigsten Prozessmerkmale: Ein Prozess stellt die Abfolge von Prozessschritten (Aufgabenkette) dar, die ihrerseits beliebig detailliert in einzelne Tätigkeiten herunter gebrochen werden können. Jeder Prozess kann wiederholt durchgeführt werden, sukzessiv und teilweise parallel zu anderen Prozessen ablaufen. Durch das Zusammenwirken von Mitarbeitern, Betriebsmitteln, Materialien und Informationen leistet jeder Prozess einen klar bestimmbaren Wertschöpfungsbeitrag (Output) zum Gesamterfolg des Unternehmens. Jeder Prozess hat einen klar definierten Start- und Endpunkt. Zwischen zwei aufeinander folgenden Prozessen besteht eine Leistungsverknüpfung, die durch ein Input-Output-Verhältnis zwischen unternehmensinternen Einheiten und auch externen Organisationen wie Kunden und Lieferanten definiert ist. An den Schnittstellen zwischen End- und Startpunkt fließt der Output des einen Prozesses als Input in einen oder sogar mehrere darauf folgende Prozesse ein. 1. Erstellung einer Prozesslandkarte Ausgehend von diesem Prozessverständnis beginnen wir mit der Erstellung einer Prozesslandkarte, die aufzeigt, wo der betrachtete Prozess in der gesamten Prozesslandschaft eingebettet ist und welches Input-Out-Verhältnis zwischen den einzelnen Prozessen besteht. Abbildung 7 zeigt eine Prozesslandkarte, die ausschließlich unternehmensinterne Prozesse berücksichtigt. Die Erstellung einer Prozesslandkarte ist nicht nur wichtig, um die Grenzen des Prozesses abzustecken, sondern auch um den Aktionsradius des Projektteams festzulegen. Bei Unschärfen besteht die Gefahr, dass man Ihnen mehr Arbeit auflädt, die Sie nicht leisten können, oder dass plötzlich andere Bereiche Hoheitsansprüche auf den gleichen Prozess anmelden. Bei der Darstellung der Prozesslandkarte ist es häufig notwendig, die Prozesse über die Unternehmensgrenzen hinweg darzustellen. So wird ersichtlich, welche korrespondierenden Prozesse auf der Kundenseite oder auch bei den Lieferanten bestehen.
62
Potenzialanalyse 1.1 Verkaufsförderung Werbung / Event / Messen 2.1 Verkauf Kundenanfrage (Request for Proposal) 2.2 Bearbeitung Kundenanfrage Technisches Konzept 2.3 Angebotserstellung Angebot (Proposal) 2.4 Vertragsgestaltung Auftrag (Contract) 3.1 Arbeitsvorbereitung
Stücklisten
3.2 Disposition Produktionsanlagen
9. Beschaffung Vorprodukte
3.3 Fertigung
Maschinenbelegungsplan
Vorprodukte
Komponenten 3.4 Montage
Fertigprodukte 4.1 Lagerung & Logistik
Produkt beim Kunden 13. Rechnungswesen
5.1 Fakturierung
6.1 Ersatzteilbelieferung
Kommerzielles Zahlenwerk
Zahlung erhalten
Ersatzteile beim Kunden
Abbildung 7: Beispiel einer unternehmensinternen Prozesslandkarte
Abbildung 8 enthält eine unternehmensübergreifende Prozesslandkarte, die sowohl die Prozesse des Herstellers, des Großhändlers als auch die des Kunden enthält. Bei der Darstellung geht es um die Produktion, den Vertrieb sowie den Einkauf von standardisierten Maschinen. Jedes Kästchen repräsentiert einen Prozess als Ganzes, ohne diesen im Detail darzustellen. Die Prozesse sind symbolisch mit Pfeilen verbunden. An den Pfeilen ist das Input-Output-Verhältnis zwischen den Prozessen markiert. So generiert beispielsweise der Vertriebsprozess beim Maschinenbauer den Output „Auftrag“, der seinerseits als Input in den Engineeringprozess einfließt. Dieser erstellt eine Zeichnung als Output, der wiederum in den Produktions- und Versandprozess eingeht. Die hier gewählte Darstellung einer Prozesslandkarte unterscheidet sich von der Wertschöpfungskette von Michael E. Porter. Diese stellt zwar auch Prozesse dar, jedoch beschränkt sie sich auf die internen Prozesse mit dem Ziel, die primären und sekundären Prozesse zur Leistungserstellung unabhängig von deren Verknüpfungen aufzuzeigen.
Prozessanalyse
63
Maschinenbauer
Vertrieb
Großhändler
Vertrag
Einkauf
MarketingUnterlagen
Kunde
Marketing
Vertrag
Einkauf
Auftrag
Bedarf
Engineering
Bedarf
ProduktInfo
Versandanweisung
Produktspezifikation
Produktion / Versand
Vertrieb
Produkt
Lagerdaten
Lagerung- und Versand
Produktentwicklung
Produktspezifikation
Produkt
Produktion (Weiterverarbeitung)
Abbildung 8: Beispiel einer unternehmensübergreifenden Prozesslandkarte
2. Ausgrenzen des Prozesses Nachdem Sie sich mit Hilfe der Prozesslandkarte einen Überblick verschafft haben, müssen Sie den Prozess, den Sie optimieren wollen, zunächst ausgrenzen. Legen Sie dazu den Start- und Endpunkt des Prozesses exakt fest. Den Startpunkt nennen wir auch Prozessauslöser, da er den betrachteten Prozess anstößt. Der Endpunkt stellt den letzten Schritt des Prozesses dar, der unter Umständen weitere Prozesse auslöst. Im Zuge der Prozessausgrenzung sollten Sie auch die Voraussetzungen für den Prozess im Sinne eines Inputs exakt festlegen. Das können Informationen, Produkte oder erbrachte Dienstleistungen sein, ohne die der Prozess nicht durchgeführt werden kann: Liegt bereits ein unterschriebener Kundenauftrag vor? Handelt es sich um die Produktion eines Serienprodukts oder um eine kundenspezifische Anfertigung? Welche Ressourcen stehen zur Verfügung: Systeme, Personal, Rohstoffe etc.? Je präziser Sie die Voraussetzungen für die operative Durchführung des Prozesses beschreiben, umso übersichtlicher wird Ihre Prozessdarstellung. Nehmen wir ein Beispiel. Stellen Sie sich vor, Sie wollen lediglich den Prozess der Auftragsabwicklung für Neukunden betrachten, weil hier beispielsweise die meisten Probleme auftreten. Wenn Sie diesen Aspekt von Anfang an festlegen, können Sie bei der Prozessaufnahme auf die Erhebung des Bestandskundenfalls gänzlich verzichten. So ersparen Sie sich überflüssige Arbeit und nähern sich direkt Ihrem eigentlichen Problem.
64
Potenzialanalyse Prozessausgrenzung
Prozesslandkarte
Der Der„Auftrag“ „Auftrag“ist ist der derOutput Output des des Vertriebsprozesses Vertriebsprozesses und undfließt fließt als alsInput Inputund und Auslöser Auslöserin in den denProduktionsprozess Produktionsprozessein ein
1 Marketing Marketing-Strategie / -Konzept
Auftrag (Contract) Die DieAV AV ist istder der Startpunkt Startpunktdes des Produktionsprozesses Produktionsprozesses
2 Vertrieb 3 Produktion
Auftrag (Contract)
3.1 Arbeitsvorbereitung (AV) 3 Produktion Stücklisten Fertigprodukte Die Die Übergabe Übergabeder der Fertigprodukte Fertigproduktean an die die Distribution Distribution stellen stellen den Endpunkt dar. den Endpunkt dar.
Die Die„Fertigprodukte“ „Fertigprodukte“ sind sindder derOutput Outputdes des Produktionsprozesses. Produktionsprozesses.
3.2 Fertigung Komponenten
4 Distribution
3.3 Montage
Produkt beim Kunden
Fertigprodukte
5 Fakturierung
4 Distribution
Zahlung erhalten
6 After Sales Betriebsbereitschaft beim Kunden
Abbildung 9: Ausgrenzen eins Prozesses aus der Prozesslandkarte
Häufig, jedoch nicht zwingend, sind Startpunkt und Input identisch. Gleiches gilt für Endpunkt und Output. Nehmen wir das Beispiel eines unterschriebenen Kaufauftrags. Dieser stellt für den Auftragsabwicklungsprozess sowohl den Startpunkt dar und ist zugleich ein wichtiger Input für die Abwicklung des Auftrags, weil er relevante Informationen über das bestellte Produkt, den Preis, den Liefertermin etc. enthält. Sobald der Kaufauftrag vorliegt, startet der Prozess. Anders sieht die Sache aus, wenn bestimmte Input-Faktoren zwar erforderlich sind, deren Vorhandensein jedoch keinesfalls den Prozess von alleine auslöst, zum Beispiel beim Bau eines Verkehrsflugzeugs. Noch lange bevor die erste Schraube montiert wird, sammeln die Flugzeugbauer Bestellungen von ihren Kunden ein. Damit ist eigentlich der Startpunkt für die Auftragsabwicklung gegeben. Wenn jedoch das neue Flugzeug von den Luftfahrtbehörden keine Verkehrszulassung erhält, weil beispielsweise bestimmte Sicherheitsanforderungen nicht erfüllt sind, dann sind die Voraussetzungen für die Produktion des Flugzeugs nicht gegeben. Andererseits führt die Verkehrszulassung alleine noch nicht zum Produktionsstart, wenn keine Bestellungen vorliegen. Ähnlich verhält es sich im Fall einer Versicherung. Voraussetzung für den Prozess der Schadenabwicklung ist das Vorliegen eines Versicherungsvertrags (Input), ohne den ein Versicherungsnehmer natürlich keine Ansprüche geltend machen kann. Die Schadenabwicklung wird jedoch erst angestoßen, wenn ein Schaden (Startpunkt) gemeldet wird. Das Gleiche gilt für Output und Endpunkt. So kann der
Prozessanalyse
65
Output des Prozesses bereits vor Beendigung des Prozesses fertig gestellt sein. Schauen wir uns auch hierzu ein Beispiel an: Wenn die Entscheidung über einen Kreditantrag getroffen ist, liegt der Output des Prozesses in Form einer Zu- oder Absage an den Antragsteller vor. Werden im Nachgang dazu noch Systemeingaben aus administrativen Gründen durchgeführt, so folgt der Endpunkt des Prozesses erst später und ist nicht identisch mit dem Output des Prozesses. Vermutlich erwarten Sie, dass die Festlegung von Start- und Endpunkt eigentlich keine Probleme aufwerfen dürfte. Doch in der Praxis entfacht sich mitunter eine heftige Diskussion darüber, wo der Prozess tatsächlich anfängt und wo er schließlich aufhört. So könnten Sie beispielsweise unterstellen, dass der Endpunkt des Auftragsabwicklungsprozesses mit der Auslieferung des Produkts und der Begleichung der Rechnung erreicht ist. Dem halten wir entgegen, dass die Auftragsabwicklung eigentlich erst abgeschlossen ist, wenn der Kunde das Produkt erneut bestellt und durch seine Wiederkaufentscheidung einen weiteren Auftragsabwicklungsprozess angestoßen hat. Je nach Situation können beide Varianten denkbar und sinnvoll sein. Letzten Endes hängt es jedoch von Ihnen ab, wo Sie die Grenzen ziehen. Das Beispiel zeigt, dass die Prozessausgrenzung durchaus Interpretationsspielräume offen lässt, die im Vorfeld der Prozessanalyse geklärt werden müssen. All das mag Ihnen auf den ersten Blick ein wenig wie Haarspalterei vorkommen. Doch das ist es keinesfalls. Wenn die Mitglieder im Projektteam von unterschiedlichen Rahmenbedingungen ausgehen, dann wird die Angelegenheit chaotisch. Das Problem verschärft sich, wenn zudem der Projektauftraggeber eine andere Ausgangslage zugrunde legt. Deshalb sollten Sie – wenn erforderlich – eine klare Trennung zwischen Startpunkt und Input bzw. Endpunkt und Output vornehmen, um Missverständnisse von vorneherein auszuschließen. Für den Fall, dass Sie zwar einen Endpunkt des Prozesses festlegen, jedoch keinen eindeutigen Output erkennen können, haben Sie ein gutes Indiz dafür gefunden, dass der Prozess überflüssig ist. 3. Definition des Detaillierungsgrads Die Festlegung des Detaillierungsgrads der Prozessanalyse und deren Dokumentation ist ebenso wie die Prozessausgrenzung eine elementare und knifflige Frage. Damit legen Sie nicht nur eine wichtige Stellgröße für den Informationsgehalt der Analyseergebnisse fest, sondern auch den dafür erforderlichen Aufwand. Deshalb muss der Ausgangspunkt der Überlegung stets die Frage nach dem Informationsbedarf sein. Versuchen Sie erst gar nicht, sämtliche Kleinigkeiten zu erfassen. Sie werden vermutlich verzweifeln. Es gibt keine allgemeingültige Definition für die Bestimmung des optimalen Detaillierungsgrads. Vielmehr hängt dieser von verschiedenen Faktoren ab. Einerseits ist eine Dokumentation, die alle Einflussfaktoren berücksichtigt, die beste Grundlage für weiterführende Analysen wie beispielsweise die Problemdiagnose. Andererseits verschlingt eine zu detaillierte Vorgehensweise unnötig viel Zeit und Ressourcen. Zudem verwirrt sie die Zielgruppe und trägt damit kaum zu einem besseren Pro-
66
Potenzialanalyse
zessverständnis – geschweige denn zu einer verstärkten Prozessorientierung – bei. Demgegenüber schafft eine zu grobe Prozessbeschreibung keine Transparenz über den Prozess, die neue Erkenntnisse sowie eine zielführende Problemdiagnose erlauben. Bevor Sie sich über den geeigneten Detaillierungsgrad Gedanken machen können, muss eine klare, einheitliche Definition der unterschiedlichen Prozessebenen vorliegen. Soweit in Ihrem Unternehmen bereits eine einheitliche Nomenklatur verwendet wird, sollten Sie sich auf diese stützen, um Missverständnisse zu vermeiden. Letztere sind vor allem deshalb möglich, weil es reine Definitionssache ist, in welchen Fällen Sie von Geschäftsprozessen, Subprozessen, Teilprozessen, Prozessschritten oder Tätigkeiten sprechen. Selten jedoch hat es sich als sinnvoll erwiesen, mehr als vier oder fünf Detailebenen festzulegen. Im Folgenden beschreiben wir eine mögliche Differenzierung der verschiedenen Ebenen von Prozessen in Prozesslandkarte, Geschäftsprozesse, Teilprozesse und technische Details.
Detaillierungsgrad
grob
fein
1
Prozesslandkarte Einzelne Prozesse • beteiligte Organisationseinheiten • wesentliche Leistungsbeziehungen
2
Geschäftsprozesse Übergeordnete Teilprozesse • ausführende organisatorische Einheiten • Verknüpfung zwischen Teilprozessen Teilprozesse Einzelne Bearbeitungsvorgänge • Start- und Endpunkt • Input und Output • ausführende Teams oder Stellen • Prozessvarianten und Verzweigungen Technische Details Zusätzliche Detailinformationen: Bearbeitungsaufwand • Materialeinsatz • Informationsfluss • Menüzugriffe • eingesetzte Maschinen • Hilfsmittel • Hard- und Software • Fehlerquellen • Risiken • statistische Verteilung der Prozessvarianten
3
4
Abbildung 10: Mögliche Definitionen des Detaillierungsgrads der Prozessanalyse
Bei der Festlegung der einzelnen Prozessebenen hilft die Berücksichtigung einiger Faktoren, die einen Einfluss auf den geeigneten Detaillierungsgrad haben und die gegeneinander abgewogen werden müssen: Zielsetzung: Die Zielsetzung der Prozessanalyse ist natürlich der Haupteinflussfaktor. Formulieren Sie daher präzise, was Sie mit der Prozessanalyse erreichen wollen. In der folgenden Auflistung sind die möglichen Zielsetzungen nach zunehmendem Detaillierungsgrad entsprechend der oben gegebenen Definitionen sortiert: ⎯
Aufsichtsrechtliche Vorschrift: Sofern eine Prozessdokumentation gesetzlich bzw. durch Aufsichtsbehörden vorgeschrieben ist, zum Beispiel durch die Bundesanstalt für Finanzdienstleistungsaufsicht (Bafin) oder den Sarbanes-Oxley Act, muss Ihre Dokumentation mindestens den dort geforderten Detaillierungsgrad abdecken. In der Regel entspricht dieser den Ebenen 1 oder 2 der vorangegangenen Abbildung.
Prozessanalyse
67
⎯
Know-how-Transfer: Zur Weitergabe des prozessbezogenen Know-hows, zum Beispiel zur Einarbeitung neuer Mitarbeiter, ist ein Detaillierungsgrad von 2 oder 3 in aller Regel ausreichend. Noch mehr Details führen eher zur Verwirrung.
⎯
Zertifizierung/Qualitätsmanagement: Falls die Prozessdokumentation als Grundlage für eine Zertifizierung bzw. andere Qualitätsmanagement-Systeme dienen soll, wird in der Regel ein höherer Detaillierungsgrad von 3 oder 4 gefordert sein. Erst auf dieser Ebene werden Determinanten für die Prozessqualität sichtbar.
⎯
Optimierung: Für eine erstmalige Geschäftsprozessoptimierung ist tendenziell ein Detaillierungsgrad von 3 ausreichend. Um nach erfolgter Optimierung weitere Potenziale aufzuspüren, müssen Sie einen höheren Detaillierungsgrad abdecken.
⎯
Outsourcing/Insourcing/Service-Level-Agreements: Sobald komplexe Tätigkeiten oder ganze Geschäftsprozesse im Rahmen einer Vertragsbeziehung wie beim Outsourcing etc. gemanagt werden müssen, sollten Sie einen Detaillierungsgrad von mindestens 3, teilweise sogar 4 wählen. Bedenken Sie, dass insbesondere Business Process Outsourcing-Projekte häufig deshalb scheitern, weil das aufnehmende Unternehmen kein ausreichendes Verständnis für den betrachteten Prozess hat.
⎯
Systementwicklung: Soll auf Basis der Prozessdokumentation ein IT-System entwickelt werden, so spricht dies für einen sehr hohen Detaillierungsgrad von 4.
⎯
Leistungsmessung: Zur Messung der Prozessleistung sollte ebenfalls ein hoher Detaillierungsgrad (4) gewählt werden. Dies gilt insbesondere, wenn der Prozess sehr häufig wiederholt wird, weil in diesen Fällen bereits kleine Abweichungen von den gewünschten Führungsgrößen wie Durchlaufzeit, Prozesskosten etc. große Auswirkungen haben können.
Standardisierungsgrad: Sind Ihre Produkte und Leistungen weitgehend standardisiert, so sollten Sie einen hohen Detaillierungsgrad wählen (3 bis 4), damit Sie auch in den Prozessen eine entsprechende Standardisierung erreichen und so Skaleneffekte realisieren können. Dieser Aspekt spiegelt sich auch in der Häufigkeit wider, mit der ein Prozess abläuft. Häufigkeit: Wenn Ihr Prozess nur ein paar Mal pro Jahr abläuft, lohnt sich eine detaillierte Dokumentation nicht, es sei denn, es handelt sich um einen hoch sicherheitsrelevanten Prozess, wie beispielsweise die Revision eine Kernkraftwerks. In der Regel lohnt die detaillierte Prozessdokumentation immer dann, wenn ein Prozess sehr häufig abläuft. So wurden beispielsweise über die Finanzgenossenschaft SWIFT im Jahr 2008 insgesamt mehr als 1,9 Milliarden Zahlungsverkehrstransaktionen durchgeführt. Hier zählt jedes Detail.
68
Potenzialanalyse
Ressourcenbindung: Eine hohe Bindung von Mitarbeiterkapazitäten oder kapitalintensiven Produktionsmitteln sind ein Indiz für einen hohen Detaillierungsgrad (3 bis 4), da sie in der Regel eine Tendenz zur Standardisierung nach sich ziehen. Wettbewerbsumfeld: Ein statisches Wettbewerbsumfeld schlägt sich unter anderem in langen Produktlebenszyklen nieder. In diesem Fall können Prozesse sehr detailliert dokumentiert werden, da die Tendenz zur Veränderung gering ist. Je dynamischer das Wettbewerbsumfeld, umso aufwändiger wird es, Prozesse detailliert zu dokumentieren und auf dem aktuellen Stand zu halten. Prozessorientierung: Der Detaillierungsgrad Ihrer Prozessdokumentation hängt auch vom Grad der Prozessorientierung in Ihrer Organisation ab. Je mehr Sie Ihre Unternehmensorganisation an den Geschäftsprozessen ausgerichtet haben, umso höher ist das Prozessverständnis der Mitarbeiter und entsprechend gering ist die Notwendigkeit, Prozesse umfassend zu beschreiben. Ist die Unternehmensorganisation hingegen durch eine ausgeprägte funktionale Arbeitsteilung gekennzeichnet, so werden die Geschäftsprozesse nach dem Prinzip identischer Verrichtungen (z. B. Dreherei, Fräserei, Schleiferei) zergliedert und auf unterschiedliche organisatorische Einheiten aufgeteilt. Damit entziehen sich die Prozesse weitgehend einer intuitiven Vorstellung der Mitarbeiter. Die fehlende Transparenz muss dann durch umfassende Prozessdokumentationen kompensiert werden. 4. Identifikation der prozessrelevanten Organisationseinheiten Bei der Prozessanalyse müssen sämtliche Organisationseinheiten, die der Prozess durchläuft, berücksichtigt werden. Deshalb müssen diese zuerst identifiziert werden. Bei kleinen Prozessen ist dies relativ einfach. Handelt es sich jedoch um einen komplexen Prozess, der mehrere Konzernbereiche durchläuft oder sogar die Kunden und Lieferanten tangiert, so wird die Sache schon etwas schwieriger. Häufig verfügt das Projektteam über einen zu geringen Einblick und wird sich zunächst schwer tun, die relevanten Einheiten zu identifizieren. Oft hören wir, dass man einige Organisationseinheiten bewusst ausklammern möchte. Als Grund wird beispielsweise genannt, dass dieser oder jener Bereich ohnehin keinen Beitrag für das Prozessergebnis generiert. Eine ebenso beliebte Ausrede ist der Vorwand, dass sich die Prozessanalyse zu sehr in die Länge ziehe, wenn alle Bereiche berücksichtigt würden. Und schließlich wird gesagt, dass der eine oder andere derart gegen die Prozessoptimierung gewettert habe, dass die Analyse dort überhaupt keinen Sinn machen würde, weil sowieso nur falsche Informationen zu erwarten seien. Vergessen Sie diese Ausreden und prägen Sie sich ein, dass sämtliche Organisationseinheiten, die der Prozess durchläuft, in der Analyse berücksichtigt werden müssen. Ohne Ausnahme. Wenn Sie gegen diese Grundregel verstoßen, laufen Sie Gefahr, gleich zwei Flops zu landen. Erstens, wenn ein Bereich keinen Wertschöpfungsbeitrag leistet, dann muss dieser erst recht in der Analyse berücksichtigt werden, weil hier erhebliche
Prozessanalyse
69
Optimierungspotenziale schlummern. Zweitens gibt es einen politischen Fettnapf, den es zu umgehen gilt. Ganz gleich, welche Absicht Sie tatsächlich hegen: Man wird Ihnen vorwerfen, Sie verfolgten eine verdeckte Agenda, weil Sie ganz bewusst bestimmte Bereiche ignorierten. Achten Sie auf solche Stolpersteine und beziehen Sie alle Bereiche in Ihre Analyse mit ein. 5. Definition des Analyseverfahrens Für die Prozessanalyse bieten sich vor allem zwei klassische Verfahren an: strukturierte Interviews und Workshops. Das Mittel Workshop sollte dann gewählt werden, wenn eine hohe Interaktion zwischen den Prozessschritten, zum Beispiel in Form von Schleifen, existiert und wenn das Prozess-Know-how der Beteiligten ungefähr gleich ist. Andernfalls könnte die Detaillierungstiefe der Prozessanalyse in den einzelnen Teilprozessen voneinander abweichen, was zu einem hohen Korrekturbedarf führt. Zudem schafft ein Workshop bei allen Teilnehmern Transparenz über den gesamten Prozess, auch wenn diese „nur“ als Experten für bestimmte Prozessabschnitte teilnehmen. Ein weiterer Vorteil eines Workshops besteht darin, dass Sie ohne zusätzlichen Zeitaufwand ein einheitliches Verständnis für den Prozess, bereits identifizierte Schwachstellen und das weitere Vorgehen herbeiführen können. Der Nachteil von Workshops zeigt sich, wenn die Ergebnisse durch politische „Ränkespiele“ verzerrt werden. Insbesondere können Schwachstellen absichtlich kaschiert und von den eigentlichen Problemen abgelenkt werden, wenn die Teilnehmer versuchen, keine Angriffsfläche zu bieten. Verdeckte gegenseitige Schuldzuweisungen lassen sich daher in Einzelinterviews eher aufdecken und lösen, weil alle Seiten unabhängig voneinander betrachtet werden – vorausgesetzt, Sie haben die richtige Auswahl an Interviewpartnern getroffen, worauf wir später noch zu sprechen kommen. Interviews bieten sich besonders dann an, wenn Sie verschiedene Hierarchiestufen und Experten mit unterschiedlichen Sichtweisen auf den Prozess befragen möchten. Müssen nur wenige befragt werden, circa drei bis fünf Experten, liefern die Interviews schneller detailliertere Ergebnisse als ein Workshop, der ausführlich vor- und nachbereitet werden muss. Doch bieten sich Interviews auch für eine größere Anzahl von zu Befragenden an. Dann muss aber für Durchführung, Auswertung und Abstimmung der Ergebnisse erheblich mehr Zeit eingeplant werden als bei der Durchführung eines Workshops. Der mit Abstand häufigste und fatalste Fehler bei der Durchführung von Interviews ist das Hineininterpretieren von Halbwahrheiten durch den Prozessanalysten selbst. Wenn Sie einen Prozess analysieren, den Sie einigermaßen kennen, kann Ihnen dieses Halbwissen zum Verhängnis werden. Deshalb sollten Sie nur und ausschließlich jene Informationen aufnehmen, die Ihnen Ihr Interviewpartner mitteilt. Das fällt manchmal schwer, weil die Informationen vielleicht widersprüchlich oder lückenhaft sind – mitunter sogar falsch. Aber was passiert, wenn Sie diese Lücken eigenständig füllen? Möglicherweise haben Sie aufgrund Ihres Wissens einen wesentlich besseren Prozess im Kopf als er in der Realität existiert. Wenn Sie dann Ihre Prozessanalyse mit Ihren eigenen Kenntnissen
70
Potenzialanalyse
– im wahrsten Sinne des Wortes – aufbessern, kaschieren Sie damit nicht nur den Status quo, sondern vor allem wichtige Optimierungspotenziale. Denn eins sollte Ihnen sehr bewusst sein: Bei der Prozessanalyse geht es nicht darum, einen optimalen Prozess aufzunehmen. In einem Reorganisationsprojekt müssen Sie sich sozusagen über jeden Schwachpunkt freuen, weil damit umso mehr deutlich wird, dass Ihr Vorhaben notwendig ist. Sie sehen, die Frage, ob Sie die benötigten Informationen über Interviews oder Workshops erhalten, ist nicht einfach zu beantworten. Es gilt stets, die Vor- und Nachteile der Verfahren gegenüber den Zielen der Prozessanalyse abzuwägen. Eine knappe Zusammenfassung finden Sie in Abbildung 11. Natürlich können Sie die beiden Methoden auch kombinieren. Sie können zum Beispiel den Prozess über Interviews aufnehmen und in einem Workshop mit allen Interviewten und ggf. weiteren Teilnehmern das Gesamtbild verifizieren und verfeinern.
Bewertung Vorteile
Workshop Interview
Erhebungsmethode
• Ergebnisse tendenziell schneller, da keine statistische Auswertung • Teilnehmer agieren gemeinsam, daher schneller konsensfähig • Gesamtzusammenhang des Prozesses wird allen transparent • Schwachstellen werden bereits für alle sichtbar
Nachteile • Gegenseitige Beeinflussung möglich • Wichtige Erfahrungen einzelner können übergangen werden • Tendenz zum Kaschieren von Problemen • Durch zeitliche Begrenzung Tendenz zu unsauberem Arbeiten
• Erfahrungen jedes Einzelnen werden ausführlich aufgenommen
• Erneuter Abstimmungszyklus zum Schaffen von Konsens nötig
• Prozessaufnahme auf hoher Detaillierungsebene möglich
• Auswertung tendenziell aufwendiger
• Unterschiedliche Sichtweisen auf den Prozess und daraus ableitbare Probleme werden erfasst
• Interviewpartner bekommt kein Gefühl für den eigenen Beitrag zum Gesamtprozess • Fehlinformationen aufgrund von Interpretationen des Interviewers möglich
Abbildung 11: Vor- und Nachteile von Workshop und Interview bei der Prozessanalyse
Unabhängig davon, ob Sie die Prozesse über Workshops oder Interviews aufnehmen, bietet nur das Beobachten unter Live-Bedingungen ein realistisches Abbild der Prozesse. Als alleiniges Verfahren für die Prozessanalyse eignet sich das Beobachten unserer Erfahrung zwar nicht, es ist aber eine sehr sinnvolle Ergänzung. Erstens verbessert es
Prozessanalyse
71
das Prozessverständnis der Interviewer erheblich und zweitens erlaubt es eine Validierung der Analyseergebnisse in der Praxis. Und wenn Sie Durchlaufzeiten messen wollen, kommen Sie am Beobachten und Messen im praktischen Prozessauflauf selten vorbei. Falls die Prozessanalyse als Basis für die Systementwicklung gilt, müssen Sie sogar die zukünftigen Nutzer genau beobachten und jeden Schritt aufzeichnen. 6. Formulierung eines Leitfadens Damit weder Interview noch Workshop zu einer gemütlichen Plauderei werden, sollten Sie einen Moderations- bzw. Gesprächsleitfaden formulieren, der den benötigten Wissensbedarf strukturiert wiedergibt. Dabei stehen Sie vor einem Dilemma: Bevor Sie konkrete Fragen für die Prozessanalyse formulieren können, müssen Sie eigentlich einiges über den Prozess wissen. Um aber etwas über den Prozess zu erfahren, müssen Sie zunächst konkrete Fragen stellen. Daher sollte in Ihrem Projektteam ein Mindestmaß an Fachkenntnissen vorhanden sein. Ansonsten laufen Sie Gefahr, den Prozess nie zu verstehen. Das gilt besonders für Prozesse, die abstrakt und zudem kompliziert sind, so wie dies häufig bei Abwicklungsprozessen der Finanzdienstleistungsbranche der Fall ist. Der Leitfaden muss wie eine Checkliste nicht nur Ihren konkreten Wissensbedarf abdecken, sondern auch einen einheitlichen Detaillierungsgrad der Analyse garantieren. Es macht keinen Sinn, den einen Prozessschritt in jeder Einzelheit zu beleuchten und den anderen lediglich zu erwähnen. Damit verzerren Sie das Gesamtbild und erhalten unbrauchbare Ergebnisse. Zudem hilft der Leitfaden, die Prozessanalyse zu strukturieren und die Konsistenz der Fragen sicherzustellen. Insbesondere wenn mehrere Analyseteams sowohl bei den Interviews als auch im Workshop am Werk sind, müssen immer die gleichen Aspekte abgefragt werden. Wie wollen Sie sonst die Vergleichbarkeit der Ergebnisse gewährleisten? Inhaltlich müssen Sie mindestens die folgenden Aspekte abdecken: Prozess-Input und -Output: Welche Voraussetzungen müssen erfüllt sein, damit der Prozess durchlaufen werden kann (Input)? Welche Dokumente oder Informationen müssen beispielsweise vorliegen bzw. welche Outputs vorangegangener Prozesse müssen vorliegen? Welche Ergebnisse (Output) werden durch den Prozess geschaffen und in welche Prozesse fließen diese als Input ein? Prozesskette: Welche Prozessschritte werden durch wen durchgeführt und durch welche Ereignisse werden sie ausgelöst? Zudem muss klar werden, was bei der Durchführung der jeweiligen Aufgabe eigentlich passiert und welche Informationen oder Materialien transportiert werden. Schnittstellen: Durch welches Input-Output-Verhältnis sind die Prozesse untereinander verknüpft? Werden an den Schnittstellen Sachgüter oder Informationen ausgetauscht und in welcher Form geschieht dies? Wie lassen sich die Ergebnisse der einzelnen Prozessschritte beschreiben, insbesondere im Hinblick auf deren Wertschöpfungsbeitrag für das Ergebnis des Gesamtprozesses?
72
Potenzialanalyse
Abfolge und Häufigkeit: Laufen die Aufgaben parallel oder sequentiell ab und wie häufig wiederholen sie sich pro Zeiteinheit? Verzweigungen und Varianten: Verzweigt sich der Prozess an bestimmten Stellen, abhängig davon, ob bestimmte Bedingungen eintreten oder Restriktionen greifen? Welche Prozessvarianten ergeben sich daraus und mit welcher Wahrscheinlichkeit treten diese ein? Informationssystem: Da Prozesse weitestgehend durch ein oder mehrere Informationssysteme unterstützt werden, gilt es auch diese zu analysieren und deren Auswirkungen auf den Prozess zu messen. Kennzahlen: Es müssen zumindest die wichtigen prozessrelevanten Kennzahlen wie der Zeitbedarf für die einzelnen Aufgaben und – je nach Anforderung an das Analyseergebnis – auch die Kosten sowie andere Ressourcen erhoben werden. Dabei kann man häufig lediglich auf Schätzungen zurückgreifen. Erfahrungsgemäß ist es für Prozess-Experten am einfachsten „ihren“ Prozess darzustellen, wenn sie die einzelnen Schritte in ihrer natürlichen Abfolge im Sinne eines „Undwas-folgt-dann“ darlegen können. Wenn Sie die oben genannten Aspekte alle sauber abfragen, haben Sie bereits eine Menge zu tun. Dennoch wird Ihr Leitfaden möglicherweise noch mehr Punkte abdecken müssen. Sie sollten die Sache jedoch nicht überfrachten. Für Interviews sind erfahrungsgemäß kurze und gut strukturierte Gesprächsleitfäden deutlich effektiver und fördern ein brauchbareres Ergebnis zutage als ausufernde Dokumente, die häufig das Gleiche mehrmals erfassen. In einem Workshop können Sie die Abfrage bzw. Analyse der einzelnen Punkte des Leitfadens dagegen auf verschiedene Teamarbeiten verteilen und so die Analyse sequentiell vertiefen. Hier ist ein neutraler Moderator, der keinen wichtigen Aspekt in Diskussionen untergehen lässt und gleichzeitig überflüssige Diskussionen unterbindet, mindestens so wichtig wie ein durchdachter Leitfaden für die Moderation. Sie werden feststellen, dass Sie in zwanzig Minuten problemlos vierzig Punkte für Ihren Leitfaden finden können. Wenn Sie jedoch fünf wohldurchdachte Punkte in eine konsistente Logik bringen wollen, brauchen Sie möglicherweise Stunden. Deshalb sollten Sie sich ausreichend Zeit nehmen. 7. Identifikation der geeigneten Experten Nun haben Sie Ihren Informationsbedarf im Leitfaden definiert und festgelegt, wie Sie die Prozessanalyse durchführen. Aber wie kommen Sie jetzt an die benötigten ProzessExperten als Interviewpartner bzw. Workshop-Teilnehmer? Experten können nur Mitarbeiter sein, die in den Prozess involviert sind. Denken Sie daran, dass eine Prozessanalyse nur so gut sein kann wie die Interviewpartner bzw. Teilnehmer, die Ihnen als Auskunftsquelle zur Verfügung stehen. Es sind nicht automatisch jene dafür geeignet, die in ihrem Bereich ohnehin zu entbehren sind. Häufig erleben wir auch, dass sich Vorge-
Prozessanalyse
73
setzte als Interviewpartner anbieten. Das Motiv ist zwar verständlich: Sie wollen natürlich genau kontrollieren, welche Informationen aus ihrem Bereich in die Analyse einfließen. Das Problem ist jedoch, dass Vorgesetzte häufig über wenig oder gar keine operative Erfahrung mit dem Prozess verfügen. Eine Prozessanalyse kann nur so gut sein wie die Interviewpartner Haben Sie bei der Auswahl der Interviewpartner ein genaues Auge darauf, ob die ausgewählten Kandidaten tatsächlich über die erforderliche Detailkenntnisse verfügen. Das setzt natürlich voraus, dass in Ihrem Projektteam Mitarbeiter sind, die über entsprechende Fachkenntnisse verfügen. Neben der fachlichen Qualifikation sollten Sie die hierarchische Stellung, das Tätigkeitsspektrum und die Persönlichkeitsmerkmale des Interviewpartners berücksichtigen. Von jemandem, der als sachlicher Typ bekannt ist, werden Sie wahrscheinlich mehr über die Realität erfahren, als von jemanden, der mit blumigen Übertreibungen glänzt. Falls Sie die Prozessanalyse mittels Workshops durchführen, müssen Sie zudem auf die richtige Zusammensetzung des Teilnehmerkreises achten. Unterschiedliche Hierarchiestufen oder Kunden und Lieferanten in einem Teilnehmerkreis bergen Konfliktpotenzial und zudem die Gefahr, dass nicht alle Fakten auf den Tisch kommen. Andererseits kann niemand aus einem „feindlichen Lager“ nach einem so durchmischten Workshop behaupten, die Ergebnisse entsprächen nicht der Realität.
3.3.2
Durchführung der Prozessanalyse
Jetzt kommen wir zum praktischen Teil der Prozessanalyse. Wie bereits erläutert, haben sowohl die Durchführung von strukturierten Interviews als auch von Workshops ihre Vor- und Nachteile. Ein typisches Erlebnis mit einem Interviewpartner stellt die folgende Situation dar: Unterstellen wir einmal, dass es sich dabei um einen Mitarbeiter handelt, der seit zwanzig Jahren an derselben Stelle sitzt und einen sehr guten Job macht. Mittlerweile verfügt er über exzellente Detailkenntnisse und kennt den Prozess in- und auswendig. Insofern qualifiziert sich die Person ganz hervorragend als Auskunftsquelle für Ihre Prozessanalyse. Nun arbeiten Sie gemeinsam Ihren wohl strukturierten Gesprächsleitfaden ab. Währenddessen Ihr Interviewpartner jede Einzelheit erläutert und sämtliche Prozessvarianten beschreibt, sind Ihre Finger vom Aufzeichnen der Notizen wund und Ihr Kopf brummt. Den Blick für das Ganze haben Sie längst verloren. Was ist passiert? Auf diese Frage gibt es vier mögliche Antworten:
74
Potenzialanalyse
Die erste lautet: Der Prozess ist tatsächlich so kompliziert und vielseitig, dass die Erläuterungen notwendig sind, um die Problematik überhaupt verstehen zu können. Die zweite mögliche Antwort: Ihr Interviewpartner ist überglücklich, dass nach Jahren der Anstrengung sich endlich jemand für seine Arbeit interessiert. Da er nicht weiß, wann sich eine solche Gelegenheit ein zweites Mal bietet, hört er gar nicht mehr auf, Sie mit Informationen zu überschütten. Die dritte Antwort könnte lauten: Die Fülle von Informationen soll Ihnen verdeutlichen, dass Ihr Interviewpartner die entscheidende Säule bildet, deren Zusammenbruch den gesamte Prozess unmittelbar ins Chaos stürzt. Und schließlich die vierte Antwort: Er versucht Sie in die Irre zu leiten, damit Sie unter keinen Umständen verstehen, was in seinem Bereich wirklich passiert. Auf diese Weise – so hofft Ihr Gegenüber – kann er mögliche Nachteile durch die Reorganisation für sich von vornherein ausschließen. 8. Durchführung der Interviews bzw. Workshops Sie mögen vielleicht über das eben dargestellte Beispiel schmunzeln. Doch jeder erfahrene Prozessanalyst kennt diese Szenarien, die sich unabhängig von der Branche und dem Unternehmen in der einen oder anderen Form abspielen. Dies führt uns zur ersten Regel, die Sie im Interview und Workshop beherzigen sollten: Zwei Analysten: Führen Sie die Interviews bzw. Workshops für die Aufnahme der Prozesse stets mit zwei Prozessanalysten durch. In der Praxis hat es sich bewährt, dass sich der eine Prozessanalyst auf die Gesprächsführung konzentriert, während der andere die Dokumentation übernimmt. Dies gilt insbesondere dann, wenn es sich um komplizierte und erklärungsbedürftige Prozesse handelt. Status quo: Vermeiden Sie unter allen Umständen eine Diskussion darüber, wie der Prozess sein sollte. Achten Sie darauf, dass es zunächst ausschließlich um die Erfassung der Ist-Situation geht. Eine Vermischung von Ist und Soll führt in aller Regel zu Missverständnissen und kaschiert Optimierungspotenziale. Besondere Vorsicht ist geboten, wenn Prozess-Experten komplexe Zusammenhänge erläutern. Fragen Sie als Interviewer oder Moderator immer wieder nach, ob die Schilderungen Realität oder Wunschdenken wiedergeben. Eintrittswahrscheinlichkeit: In der Regel gibt es nicht „den einen“ Prozess. Vielmehr werden sich die Know-how-Träger schwer damit tun, ihr gesamtes Arbeitsspektrum in einem einzigen Standardfall darzustellen. Stattdessen werden möglicherweise eine Vielzahl von Varianten – gespickt mit spektakulären Fällen – skizziert. Wenn die Prozessvarianten zu abenteuerlich werden, dann sollten Sie nachfragen. Nicht selten stellt sich heraus, dass der beschriebene Fall nur alle zwanzig Jahre eintritt. Diesen können Sie getrost vernachlässigen. Es sei denn, die Prozessvariante,
Prozessanalyse
75
sollte sie trotz ihrer geringen Eintrittswahrscheinlichkeit dennoch eintreten, verursacht gravierende Schäden. So beispielsweise einen Flugzeugabsturz. Visualisieren: Visualisieren Sie den Prozess bereits während des Interviews bzw. Workshops. Damit schaffen Sie nicht nur eine Möglichkeit, den Prozess so darzulegen, wie er verstanden wurde, sondern können ihn sofort gemeinsam verifizieren. Im Workshop ist das Visualisieren naheliegend, aber auch ein Interview gewinnt damit eine Atmosphäre, in der Sie gemeinsam mit dem Interviewpartner den Prozess erarbeiten. Damit dämmen Sie die Gefahr, dass sich die Befragten wie in einem Verhör fühlen. Planen Sie ausreichend Zeit für die Durchführung der Interviews ein. Natürlich ist die Länge des Interviews von Ihrem Informationsbedarf abhängig. Beachten Sie jedoch auch die Belastbarkeit des Interviewpartners, die keinesfalls unbeschränkt ist. Es ist wichtig, dass Sie Ihre Aufzeichnungen nach jedem Interview mit den bereits vorliegenden Informationen abgleichen und Ihr Prozess-Puzzle kontinuierlich aktualisieren, weil ansonsten die Details verloren gehen. Ein Workshop ist unserer Erfahrung nach am effektivsten, wenn maximal acht bis zwölf Prozess-Experten teilnehmen. Mehrere Workshops mit verschiedenen Teilnehmern sind nur dann sinnvoll, wenn Sie den Prozess in Teilprozesse aufteilen und für jeden Teilprozess einen Workshop mit den jeweiligen Experten ansetzen. Für einen Workshop sollten Sie mindestens ein bis zwei Tage ansetzen und gegebenenfalls einen Follow-up-Workshop nach einiger Zeit dranhängen.
3.3.3
Nachbereitung der Prozessanalyse
Die besten Interviews und Workshops nutzen Ihnen nichts, wenn Sie die erhobenen Informationen nicht systematisch nachbereiten. Diese Fleißarbeit ist wichtig, weil Sie sonst Gefahr laufen, dass wertvolle Informationen verloren gehen und Sie möglicherweise erneut nachfragen müssen. 9. Grafische und verbale Dokumentation Neben der grafischen Dokumentation, die das Kernergebnis der Prozessanalyse bildet, kann eine verbale Dokumentation erforderlich sein. Das trifft zu, wenn der Prozess so kompliziert ist, dass die grafische Dokumentation durch die Details überfrachtet wäre. In die verbale Dokumentation gehören Erläuterungen von besonders komplexen Prozessschritten sowie sämtliche Ausgangsbedingungen bzw. Voraussetzungen des Prozesses. So zum Beispiel, welcher Geschäftsvorgang dem Prozess zugrunde liegt, um welches Produkt es sich handelt oder ob ein Rahmenvertrag mit dem Kunden vorliegt. Die grafische Dokumentation ist je nach Umfang und Komplexität des Prozesses eine arbeitsintensive Angelegenheit. So wie bei der Durchführung der Interviews und Workshops sollten Sie einige Hinweise beherzigen. Zur Veranschaulichung haben wir in
76
Potenzialanalyse
Abbildung 12 ein stark vereinfachtes Beispiel für eine Prozessdokumentation abgebildet, anhand derer die wichtigsten Punkte ersichtlich werden: Zuordnung der Prozessschritte: Achten Sie darauf, dass aus der grafischen Darstellung eindeutig ersichtlich wird, welche Aufgaben durch welche organisatorischen Einheiten ausgeführt werden. Neben einer klaren Zuordnung der Aufgaben zu den ausführenden Einheiten werden damit auch sämtliche Schnittstellen zwischen den organisatorischen Einheiten unmittelbar ersichtlich, nämlich immer dann, wenn der Prozess in horizontaler Richtung nach links oder rechts ausschert. Das ist wichtig für die Problemdiagnose, weil Sie so erkennen können, wo es beispielsweise zu Abstimmungsproblemen kommen kann. Leider ist die grafische Zuordnung der Aufgaben zu den Organisationseinheiten in einigen Modellierungs-Tools nicht vorgesehen. Über diesen Nachteil müssen Sie sich bei der Auswahl des Tools bewusst sein. Zumindest sollte dadurch nicht vergessen werden, die Organisationseinheit in der verbalen Dokumentation zu nennen. Reihenfolge: Achten Sie darauf, dass die Reihenfolge der einzelnen Aufgaben (Prozessschritte) der Realität entspricht. Durch Pfeile zwischen den einzelnen Aufgaben machen Sie die Abfolge der Aufgabenkette deutlich. In jede Aufgabe – mit Ausnahme der ersten – muss mindestens ein Pfeil hineinlaufen und aus jeder Aufgabe – mit Ausnahme der letzten – muss mindestens ein Pfeil herauslaufen. Jede Aufgabe muss durch irgendetwas ausgelöst werden bzw. muss in irgendetwas münden. Nummerierung: Je nach Detaillierungsgrad kommen Sie in komplexen Prozessen rasch auf 300 oder 400 Aufgaben. Deshalb sollten Sie die einzelnen Prozessschritte nummerieren, so wie das in der Zeichnung durch die Nummern in den Klammern angedeutet ist. Verzweigungen: Kommt es im Prozess zu Verzweigungen, so müssen diese dargestellt und die jeweiligen Eintrittswahrscheinlichkeiten der nachfolgenden Prozessvarianten erfasst werden. Die Eintrittswahrscheinlichkeiten sind besonders wichtig für die Berechnung von Durchlaufzeit und Kosten des Prozesses. Dokumentationshilfen: Im Prinzip können Sie Ihren Prozess handschriftlich auf großen Papierwänden dokumentieren. Das macht vor allem dann Sinn, wenn Sie noch ganz am Anfang stehen und Sie zunächst einen groben Überblick gewinnen wollen. Doch mit fortschreitender Analyse werden Sie kaum um den Einsatz eines Softwaretools für die Modellierung umhinkommen. Die Praxis zeigt, dass die meisten Prozesse viel zu kompliziert sind, als dass eine ausschließlich papierbasierte Dokumentation den Anforderungen genügt. Deshalb empfehlen wir Ihnen, sich genau zu überlegen, welche Anforderungen Sie an eine Software stellen. Begehen Sie dabei nicht den Fehler, das Tool mit den meisten Funktionen einzusetzen, sondern jenes, dass Ihren Ansprüchen am besten gerecht wird. Wenn sich Ihre Mitarbeiter erst einmal sechs Wochen mit dem Erlernen einer Software beschäftigen, bevor mit der Prozessanalyse begonnen werden kann, werden
Prozessanalyse
77
Sie Ihre Projektziele möglicherweise nie erreichen. Überlegen Sie sich genau, ob Sie ein datenbankbasiertes Tool benötigen, oder ob ein reines Grafikprogramm auch seine Dienste tut. Denken Sie daran, dass Ihr Projekt nicht automatisch deshalb erfolgreich sein wird, weil Sie ein exquisites Softwaretool zum Einsatz bringen. Wägen Sie Aufwand und Ergebnis sorgfältig gegeneinander ab.
Kundenbetreuung
Produktion
Versand
(1) Kundenauftrag entgegennehmen Datenbanksymbol DB 1
(2) Prüfen, ob Kundendaten in Auftragssystem hinterlegt Verzweigung Daten hinterlegt ja (70%)
nein (30%) DB 1
(3) Kundendaten in Auftragssystem erfassen DB 2
(4) Auftrag in Auftragssystem erfassen
(5) Auftrag in Produktionsplanung einsteuern
(8) Info an Kunde über Liefertermin
(6) Fertigung und Montage
(10) Verpackung
(7) Info über Fertigstellung an Kundenbetreuung
(11) Auslieferung an Kunde
DB 1
(9) Rechnungsstellung aus Auftragssystem erstellen
Abbildung 12: Stark vereinfachte Darstellung einer Prozessdokumentation
10. Berechnung der Durchlaufzeit und Prozesskosten Wir werden in den Abschnitten „Zielformulierung“ sowie „Leistungsmessung – Messen mit System“ noch ausführlich darauf eingehen, dass Sie nicht umhinkommen, Ihr Wirken messbar zu machen. Das gilt auch für die Prozessanalyse. Da die grafische und verbale Dokumentation eine qualitative Ergebnissicht aufzeigt, müssen Sie diese um eine quantitative Basis ergänzen. Insbesondere deshalb, weil zwei wesentliche Ziele der Prozessoptimierung in aller Regel die Reduktion der Durchlaufzeiten und der Prozesskosten sind. Beide Kennzahlen erlauben Rückschlüsse auf die Effizienz eines Prozesses.
78
Potenzialanalyse
Die Durchlaufzeit stellt den gesamten Zeitbedarf dar – vom Start- bis zum Endpunkt des Prozesses. Sie lässt sich im Vergleich zu den Kosten relativ einfach messen: durch verschiedene Formen von Zeitaufnahmen, Schätzungen, Befragungen und Selbstaufschreibung. Die Ermittlung der Kosten ist weit schwieriger, weil mehrere Aspekte berücksichtigt werden müssen. So beispielsweise die Anzahl der Mitarbeiter, unterschiedliche Stundenlöhne und der Zeitbedarf. Die Erkenntnisse der Prozessanalyse macht sich auch die Prozesskostenrechnung zu Nutze, bei der die Gemeinkosten verursachungsgerecht einem Prozess bzw. Prozessschritten zugerechnet werden. Auf die Frage, welche Kosten eine zusätzliche Produktvariante im Vergleich zum Standardprodukt verursacht, kann die herkömmliche Kostenrechnung keine befriedigende Antwort geben, weil hier die Gemeinkosten nur kalkulatorisch den einzelnen Produkten zugeschlagen werden. Erst die Erhebung der Prozesskosten zeigt, dass insbesondere die Erstellung von Kleinserien oder Sondermaßen zu extrem hohen Prozesskosten führt. Das ist unter anderem darin begründet, dass bei der Abweichung vom Standardfall die Prozesse keiner einstudierten Routine folgen und deutlich mehr Managementkapazität binden. Sofern der betrachtete Prozess noch nicht in einer Prozesskostenrechnung erfasst wurde, müssen Sie die Kosten jedes einzelnen Prozessschritts ermitteln. Selbst wenn Sie diese nicht für jeden Prozessschritt exakt ermitteln können, sollten Sie zumindest für die wichtigsten Schritte die Kosten kalkulieren. Die Personalkosten lassen sich durch eine einfache Rechnung auf eine Arbeitsstunde herunterbrechen. Vorsicht ist allerdings geboten, wenn stattdessen leichter zugängliche Zahlen aus Statistiken oder Benchmarks herangezogen werden. Die Kosten für die jeweiligen Mitarbeiter unterliegen selbst innerhalb derselben Branche erheblichen Unterschieden. Tabelle 3 zeigt ein praxistaugliches Vorgehen zur Berechnung der Prozesskosten. Dazu greifen wir erneut auf unseren fiktiven Beispielprozess aus der letzten Abbildung zurück und erläutern die Spalten der Tabelle. A bis C: Diese Spalten bezeichnen die Nummer (A) und die Bezeichnung des jeweiligen Prozessschritts (B) sowie die ausführende Organisationseinheit (C). D: Hier wird die gemessene Durchlaufzeit für den jeweiligen Prozessschritt abgetragen. E: Ein wesentlicher Anteil der Durchlaufzeit eines Prozessschritts kann aus der Wartezeit bestehen. Wartezeiten ergeben sich immer dann, wenn der Vorgang unterbrochen wird, weil der jeweilige Mitarbeiter auf eine Information vom Kunden wartet oder das Produkt in der Fertigung bis zum nächsten Bearbeitungsschritt zwischengelagert wird, ohne dass dabei irgendein Fortschritt zu erkennen ist.
Produktion Produktion
6 Fertigung und Montage
7 Info über Fertigstellung an Kundenbetreuung
5 Auftrag in Produktionsplanung Produktion einsteuern 0
0,1
0
240 200
0,5
Kundenbetreu. 0,5
Auftrag in Auftragssystem erfassen 0
0,5
Kunden1,5 betreu.
3 Nein – Kundendaten in Auftragssystem erfassen
4
0
Kunden0,1 betreu.
Prüfen, ob Kundendaten in Auftragssystem hinterlegt
2
0
Kunden- 0,2 betreu.
Kundenauftrag entgegennehmen
Org.Einheit
Durchlaufzeit (Std.)
1
Nr. Prozessschritt Wartezeit (Std.)
∅ Durchlaufzeit (Std.)
Eintrittswahrscheinlichkeit (%)
Bearbeitungszeit (Std.)
0
0,5
0
0,1 100 0,1
0
100 240 200
0,5 100
40
0
0
0,1
0,2
0,1
40
0,5
0,5
30 0,45 0,15 0,3
1
0,5 100 0,5
1
0,1 100
0,2 100 0,2
∅ Bearbeitungszeit (Std.)
J
K
1
3
2
1
1
1
1
Anzahl Facharbeiter
I ∅ Zeiten
∅ Wartezeit (Std.)
H
L
0,1
0,1
40
0,5
0,5
1
M
N
Facharbeiter
0,2
Zeitbedarf pro MA (Std.)
G
42
42
42
42
42
42
42
Personalkosten pro Std. (¤)
F
42,0
21,0
12,6
4,2
8,40
∅ Personalkosten (¤)
0,1
4,2
40 5.040,0
0,5
0,5
0,3
0,1
0,2
O P
0
1
1
0
0
0
0
Anzahl Ingenieur
E ∅ Zeitbedarf pro MA (Std.)
Messung
Q
0
40
0,5
0
0
0
0
Zeitbedarf pro MA (Std.)
D
R
S
56
56
56
56
56
56
56
0
0
0
0
T
∅ Personalkosten (¤)
28,0
0,0
0,0
0,0
0,0
U
70,0
21,0
12,6
4,20
8,40
∅ Kosten des Prozessschritts (¤)
0
0,0
4,2
40 2.240,0 7.280,0
0,5
Ingenieur Personalkosten pro Std. (¤)
C ∅ Zeitbedarf pro MA (Std.)
A B
Prozessanalyse 79
Tabelle 3: Einfaches Beispiel zur Berechnung der Prozesskosten
80
Potenzialanalyse
F: Als Bearbeitungszeit bezeichnen wir jene Zeitabschnitte der Durchlaufzeit, in der an der Lösung des Problems oder Fertigung des Produkts tatsächlich gearbeitet wird. Das Produkt wird sozusagen seiner Verkaufsreife näher gebracht. Die Summe aus Warte- und Bearbeitungszeit ergibt die Durchlaufzeit (D = E + F). Daher können wir aus der Differenz von gemessener Durchlauf- und Wartezeit die Bearbeitungszeit berechnen. G: Da es in Prozessen zu Verzweigungen kommt, muss die Eintrittswahrscheinlichkeit bei der Berechnung der Kosten berücksichtigt werden. Nach einer Verzweigung könnte beispielsweise entweder Prozessschritt X mit einer Wahrscheinlichkeit von 55 Prozent oder Prozessschritt Y mit einer Wahrscheinlichkeit von 45 Prozent eintreten. Werden beide Prozessschritte in der Kostenkalkulation fälschlicherweise mit 100 Prozent gewichtet, sind die ermittelten Kosten höher als die tatsächlich anfallenden Kosten. In unserem Beispiel sind die Daten des Kunden in 30 Prozent der Fälle nicht im Auftragssystem erfasst und müssen deshalb vor der Erfassung des Auftrags eingegeben werden (siehe Prozessschritt Nr. 3). H, I und J: Die durchschnittliche (∅) Durchlaufzeit ergibt sich aus dem Produkt aus Durchlaufzeit und Eintrittswahrscheinlichkeit (H = D x G). Gleiches gilt für die durchschnittliche Wartezeit (I = E x G) sowie die Bearbeitungszeit (J = F x G). Die durchschnittliche Gesamtdurchlaufzeit des Prozesses ist die Summe aller durchschnittlichen Durchlaufzeiten der Prozessschritte. K, M, P und R: Wenn Mitarbeiter mit deutlich unterschiedlichen Stundenlöhnen in den Prozess involviert sind, ist es sinnvoll, diese getrennt voneinander darzustellen, damit die verschiedenen Kostensätze für die Personalkosten pro Stunde in die Berechnung einfließen können. Im Beispiel unterscheiden wir Facharbeiter (K) mit einem fiktiven Vollkostensatz von 42 Euro pro Stunde (M) und Ingenieure (P) mit 56 Euro (R). L, N, Q und S: Der Zeitbedarf, den die Facharbeiter (L) und die Ingenieure (Q) für jeden jeweiligen Prozessschritt benötigen, wird ebenfalls mit der Eintrittswahrscheinlichkeit des Prozessschritts (G) multipliziert, woraus sich der durchschnittliche (∅) Zeitbedarf für die Facharbeiter (N = G x L) sowie für die Ingenieure (S = G x Q) ergibt. Bitte beachten Sie, dass die Summe der Bearbeitungszeiten der Facharbeiter und Ingenieure größer sein kann als die Durchlaufzeit, weil möglicherweise mehrere Mitarbeiter parallel arbeiten. Ob dem so ist, geht in unserem einfachen Beispiel aus der Tabelle nicht hervor.
Prozessanalyse
81
O, T und U: Schließlich ergibt die Summe der durchschnittlichen Personalkosten der Facharbeiter (O) und Ingenieure (T) die durchschnittlichen (∅) Kosten für den gesamten Prozessschritt (U = O + T). Wenn wir die durchschnittlichen Kosten jedes Prozessschritts addieren, erhalten wir die gesamten durchschnittlichen Kosten des betrachteten Prozesses. Interessant wird es, wenn die Kalkulation Transparenz über sonst verborgene Kosten schafft, wie zum Beispiel die Kosten für ein einstündiges Management-Meeting. Sie werden vermutlich überrascht sein. Neben den vom Prozess verursachten Kosten erhalten wir einen detaillierten Überblick über die Durchlaufzeiten, getrennt nach Bearbeitungs- und Wartezeiten. Insgesamt liefert die Tabelle eine wertvolle Grundlage für das Redesign, um Stellhebel bei Zeiten und Kosten zu erkennen und die Auswirkungen von Änderungen dieser Stellhebel direkt messen zu können. 11. Verifizierung der Ergebnisse Es wird Ihnen nicht gelingen, eine fehlerfreie Prozessanalyse auf Anhieb zu erarbeiten. Doch stellen Sie sich vor, Sie würden die anschließende Problemdiagnose auf einem Analyseergebnis basieren, das unvollständig oder gar fehlerhaft ist. Möglicherweise würden Sie dann Problemfelder herausarbeiten, die nur in Ihrer Dokumentation, aber nicht in der Realität existieren. Eine solche Luftnummer können Sie vermeiden, indem Sie Ihre Ergebnisse gemeinsam mit den betroffenen Bereichen verifizieren. Erfahrungsgemäß nimmt die Qualität deutlich zu. Legen Sie Ihren Interviewpartnern die Prozessdokumentation vor, die Sie im Nachgang der Interviews erarbeitet haben. Wie bereits erwähnt, können Sie dies auch in einem Workshop gemeinsam mit allen Interviewpartnern tun. Selbst wenn die Prozessanalyse bereits in einem Workshop durchgeführt wurde und alle Teilnehmer dem Ergebnis zugestimmt haben, kann es sinnvoll sein, den Prozess mit den Teilnehmern und eventuell weiteren Know-how-Trägern zu verifizieren. Häufig sind es nur Kleinigkeiten, die jedoch den Gesamteindruck Ihrer Arbeit eintrüben würden, wenn sie unerkannt blieben. Inhaltliche Fehler müssen aber auch eliminiert werden, um ein konsensfähiges Ergebnis zu schaffen und damit die politische Unterstützung für das Optimierungsvorhaben zu sichern. Eine Möglichkeit, die Akzeptanz für die Reorganisation bei den Mitarbeitern zu verbessern, besteht in der Veröffentlichung Ihrer Analyseergebnisse, sofern diese keine vertraulichen Informationen enthalten. Damit räumen Sie den Mitarbeitern und Vorgesetzten die Möglichkeit ein, sich über den aktuellen Stand des Projekts und die gewonnenen Erkenntnisse zu informieren. Ferner schaffen Sie eine Plattform für Verbesserungsvorschläge. Auf jeden Fall wird man Ihnen nicht vorwerfen können, Sie würden mit Ihren Erkenntnissen hinter dem Berg halten.
82
Potenzialanalyse
Zusammenfassung Die Prozessanalyse stellt in weiten Teilen eine Fleißarbeit dar. Dabei sollten Sie die Hinweise dieses Kapitels beherzigen. Ansonsten besteht die Gefahr, dass Sie Ihr Reorganisationsvorhaben auf ein sehr weiches Fundament bauen. Arbeiten Sie sich vom Groben ins Feine. Beginnen Sie mit einer Prozesslandkarte, die Ihnen zunächst einen Überblick verschafft. Grenzen Sie dann Ihren Prozess genau aus, damit jeder versteht, wo Ihr Wirkungsbereich anfängt und wo er aufhört. Legen Sie abhängig von der Zielsetzung der Prozessanalyse den korrespondierenden Detaillierungsgrad fest und halten Sie sich bei der Prozessaufnahme daran. Führen Sie zur Prozessaufnahme Interviews oder Workshops mit Mitarbeitern aller Organisationseinheiten durch, die der Prozess durchläuft. Gehen Sie mit Hilfe eines Leitfadens ans Werk, der den Wissensbedarf widerspiegelt. Hüten Sie sich vor gefährlichem Halbwissen. Achten Sie darauf, dass Sie Ihre eigenen Kenntnisse nicht mit den Aussagen der Prozess-Experten vermischen und dadurch die Wirklichkeit verzerren. Freuen Sie sich über jeden Schwachpunkt, den Sie finden können. Dokumentieren Sie Ihre Ergebnisse, so wie es das Projekt erfordert. Erstellen Sie keine Kunstwerke, aber unterschätzen Sie auch nicht die Bedeutung einer transparenten Darstellung. Der Einsatz komplexer Softwaretools zur Unterstützung der Prozessanalyse kann einerseits sehr hilfreich sein, andererseits von der inhaltlichen Arbeit ablenken. Stellen Sie Ihre Analyse auf eine quantitative Basis, indem Sie in einer Prozesskostenanalyse die Prozesskosten und Durchlaufzeiten unter Beachtung von Eintrittswahrscheinlichkeiten für die jeweiligen Prozessschritte exakt ermitteln. Die Prozesskostenanalyse liefert Transparenz über die Kosten der einzelnen Prozessschritte (Aufgaben) und des ganzen Prozesses, die aus der konventionellen Kostenrechnung nicht herausgelesen werden können. Nehmen Sie die Betroffenen mit ins Boot. Achten Sie darauf, dass Sie nicht der einzige sind, der Ihren Ergebnissen vertraut. Verifizieren Sie Ihre Dokumentation gemeinsam mit den betroffenen Bereichen.
Prozessanalyse
83
Zusammenfassung Methodenkomponenten der Prozessanalyse: Tabelle 4: Methodenkomponenten der Prozessanalyse Komponente Vorgehensphase
Potenzialanalyse
Aktivitäten
Prozessanalyse
Ergebnisse
Transparenz über Prozess, beteiligte Organisationseinheiten, Schnittstellen und Prozessleistung durch: • Prozesslandkarte • Prozessdokumentation • Kennzahlen zur Prozessleistung wie Prozesskosten und -durchlaufzeiten
Techniken
• Strukturierte Interviews • Prozessexperten-Workshops • Ist-Prozessaufnahme • Organisationsstrukturanalyse • Kennzahlensysteme zur Prozessleistung (Durchlaufzeit, Kosten, Ressourcenbindung etc.)
Rollen
• Projektteam (Prozessanalysten) • Prozessexperten (Vertreter aller betroffenen Organisationseinheiten)
84
Potenzialanalyse
3.4 Problemdiagnose – Wo die größten Brocken liegen Wer kennt das nicht? Sie haben eine Fülle von Informationen zusammengetragen. Sie haben eine vage Vorstellung, aber Sie wissen nicht so richtig, was Sie eigentlich wissen. Wenn Ihnen die Ergebnisse der Analysen vorliegen, dann könnte genau dieser Fall eingetreten sein. Jetzt kennen Sie zwar die Anforderungen, die Kunden an die Leistungsfähigkeit Ihrer Prozesse stellen, und es liegt Ihnen die mühsam erarbeitete Prozessdokumentation vor. Aber was leiten Sie für das weitere Vorgehen daraus ab? In der Problemdiagnose müssen Sie den Berg von Informationen systematisch durchforsten und zu konkreten Problemfeldern verdichten, um so Ansatzpunkte für die Prozessoptimierung zu erkennen. Dies erfolgt in drei Schritten: Identifikation von Schwachstellen Aufdecken des Ursachen-Wirkungs-Zusammenhangs Identifikation des wirkungsvollsten Stellhebels für die Prozessoptimierung Die Analyseergebnisse liefern bereits zahlreiche Hinweise auf mögliche Problemfelder. Checklisten helfen Ihnen dabei, weitere Schwachstellen aufzuspüren. Dies ist zwar eine mühselige Kleinarbeit, sie wird aber durch eine gute Ausbeute belohnt. Da die Symptome wie lange Durchlaufzeiten häufig an einer anderen Stelle zu Tage treten als deren Ursachen, beispielsweise eine funktionale Arbeitsteilung, ist die Aufdeckung des Ursachen-Wirkungs-Zusammenhangs wichtig. So vermeiden Sie es, lediglich Symptome zu beseitigen, anstatt Ursachen zu bekämpfen. Danach sollte der wirkungsvollste Stellhebel für die Prozessoptimierung identifiziert werden, was wiederum die Basis für die Zielformulierung bildet. Bei diesem Vorgehen werden Sie einige Schwachpunkte entdecken, die durch Sofortmaßnahmen zügig beseitigt werden können.
3.4.1
Identifikation von Schwachstellen
Auch wenn Ihnen in den drei Analyseschritten (Kunden und Wettbewerber, Kernkompetenzen, Prozesse) bereits einige Probleme mehr oder minder zufällig aufgefallen sind, müssen Sie Ihre Problemsuche nun systematisieren. Durchleuchten Sie die Analyseergebnisse nach weiteren Schwachstellen. Stellen Sie die Frage zunächst zurück, ob es sich dabei um Symptome oder Ursachen handelt oder welche Kausalzusammenhänge bestehen. Zu groß ist die Gefahr, dass man sich mit endlosen Diskussionen um ein oder zwei Probleme verzettelt und dabei andere, wichtige Schwachstellen übersieht. Wichtig ist zunächst nur, dass sämtliche Probleme identifiziert werden. Um einen möglichst breiten Blickwinkel zu erhalten, sollten Sie dabei unterschiedliche Perspektiven beleuchten:
Problemdiagnose
85
Prozesse und Organisationsstruktur Technologie Erfolgsmessung Personal Unternehmenskultur Stellen Sie zu jeder dieser Perspektiven die folgende Frage: Welche möglichen Schwachstellen existieren unter dieser Perspektive? Oder auf einen einfachen Nenner gebracht: Was hindert uns daran, unsere Arbeit noch besser zu machen? Zur Beantwortung dieser Frage hat sich ein strukturiertes Vorgehen mit Hilfe von Checklisten bewährt. Sie sollten für Ihr Projekt eine eigene Checkliste erstellen, um damit alle Problemfelder aufzuspüren. Wir erläutern hier für jede Perspektive einige Beispiele. Die aufgeführten Checklisten erheben zwar keinesfalls den Anspruch auf Vollständigkeit, dennoch geben sie einen Überblick, wo mögliche Symptome und Ursachen im Verborgenen liegen können. Perspektive Prozesse und Organisationsstruktur Eine bereits erwähnte Schwachstelle ist die Durchlaufzeit. Häufig stehen Warte- und Bearbeitungszeit in einem krassen Missverhältnis zueinander. So nimmt die Wartezeit mitunter 90 Prozent der Durchlaufzeit in Anspruch. Wenn Produkte auf dem Fließband stehen oder Vorgänge liegen bleiben, ist die Wertschöpfung gleich Null. Das Bundesverkehrsministerium beziffert den volkswirtschaftlichen Schaden durch Staus auf Deutschlands Straßen – eine spezifische Art nicht-wertschöpfender Durchlaufzeit – auf rund 100 Milliarden Euro pro Jahr. Die Folgen sind eine hohe Kapitalmittelbindung und unzufriedene Kunden, die auf die bestellte Ware warten. In der Exportabteilung eines Automobilkonzerns haben wir die Durchlaufzeit für die Erstellung von Dokumenten zur Zahlungsabsicherung von internationalen Handelsgeschäften gemessen. Die Bearbeitungszeit betrug ganze drei Prozent der Durchlaufzeit. In der restlichen Zeit lagen die halbfertigen Dokumentensätze auf Wiedervorlage, weil die Sachbearbeiter auf Informationen aus unternehmensinternen und externen Quellen warteten. Dies zeugt nicht nur von einer ineffizienten Arbeitsweise, sondern birgt auch erhebliche finanzielle Risiken. Wenn die Dokumente aufgrund der zeitlichen Verzögerungen – wie in diesem Fall – nicht rechtzeitig bei den beteiligten Kreditinstituten eingereicht werden, erfolgt eine Zahlungsabsicherung nur unter Vorbehalt. Damit ist es für den Exporteur immer noch fraglich, ob er wirklich sein Geld bekommt. Auch Schnittstellen zwischen den Prozessschritten, die zum Beispiel aus einer ausgeprägten funktionalen Arbeitsteilung resultieren, führen zu Problemen. Wenn der Koordinationsaufwand hoch ist, kommt es zu Verzögerungen, weil sich sämtliche Prozessbeteiligte in dieselben Sachverhalte einarbeiten müssen.
86
Potenzialanalyse
Problematisch ist auch eine streng hierarchische Ausrichtung der Entscheidungs- und Berichtswege, weil dadurch die Durchlaufzeit erheblich verlängert wird. Wie in der Abbildung skizziert, erfolgt die Koordination und Kommunikation zwischen den verschiedenen Bereichen der Wertschöpfungskette über mehrere Hierarchiestufen hinweg. Das verlängert nicht nur die Durchlaufzeiten, sondern führt unweigerlich zu einem „Stille-Post-Effekt“, der die Informationen verwässert und Missverständnisse zur Folge hat.
Vorstand Vorstand Bereichsleiter Forschung & Entwicklung
Bereichsleiter Finanzen
Bereichsleiter Vertrieb & Marketing
Bereichsleiter Produktion
Koordination / Kommunikation Leiter Fertigung
Oberflächenbearbeitung
Leiter Montage
Vor-Montage
End-Montage
Wertschöpfung
Abbildung 13: Eine ausgeprägte funktionale Arbeitsteilung im Wertschöpfungsprozess und eine hierarchische Ausrichtung der Entscheidungs- und Berichtswege führen zu einer langwierigen Koordination zwischen den verschiedenen Bereichen.
Ein weiteres Problemfeld bilden Abstimmungsprobleme, die auftreten, wenn Entscheidungsprozesse aus politischen Gründen in unzähligen Schleifen so viele verschiedene Bereiche durchlaufen müssen, dass überhaupt kein Konsens entstehen kann. Ob die Ursache hierfür in der Unternehmenskultur liegt oder schlichtweg in schlecht organisierten Abläufen, ist zunächst unerheblich. Andererseits führt eine mangelnde Abstimmung zu Doppelarbeiten, wenn bewusst – oft aus machtpolitischen Beweggründen – oder unbewusst – wegen der mangelnden Prozesstransparenz – ein und dieselbe Tätigkeit von mehreren Mitarbeitern ausgeführt wird. Checkliste zu Prozesse und Organisationsstruktur Ineffiziente Schnittstellen: Schnittstellen zwischen den Prozessschritten, die zum Beispiel aus einer stark funktionalen Arbeitsteilung resultieren, führen zu einem hohen Abstimmungs- und Koordinationsaufwand.
Problemdiagnose
87
Lange Durchlaufzeit: Wenn ein Missverhältnis zwischen wertschöpfenden und nicht-wertschöpfenden Zeitabschnitten besteht oder aufgrund von Nachbesserungen oder Feedbackschleifen Zeitverzögerungen entstehen, wird die Durchlaufzeit unnötig verlängert. Transaktionsfehler: Beispielsweise durch die Falscheingabe von Daten in ITSysteme. Kontrollfehler: Diese führen zu Qualitätsmängeln und können nachgelagerte Prozessschritte verzögern. Streng hierarchische Ausrichtung der Entscheidungs- und Berichtswege: Sie kann zu einer erheblichen Verlängerung der Durchlaufzeiten führen. Abstimmungsprobleme: Organisatorisch oder politisch begründete lange Abstimmungszyklen können zu einer erheblichen Verlängerung der Durchlaufzeiten führen oder die Konsensfindung ganz verhindern. Doppelarbeit: Zum Beispiel, weil am Prozess beteiligte Mitarbeiter nicht wissen, dass bestimmte Tätigkeiten bereits in anderen Prozessschritten durchgeführt wurden. Fragmentierung der Arbeit: Diese liegt vor, wenn die Verrichtung der einzelnen Prozessschritte durch eine starke Spezialisierung und Arbeitsteilung gekennzeichnet ist. Die Folge kann ein hoher übergeordneter Abstimmungsbedarf sein. Trennung zwischen dispositiven und operativen Tätigkeiten: Wenn die Koordination der Aufgabenerfüllung und die Verrichtung der Aufgaben nicht durch dieselben Mitarbeiter geschehen, bedarf es der Koordination durch eine übergeordnete Einheit, was zu Kommunikationsproblemen und einer langen Durchlaufzeit führen kann. Ressourcenbeschränkungen: Diese verhindern eine optimale Gestaltung der Prozesse, wenn beispielsweise die erforderlichen Fertigungsmittel oder IT-Systeme nicht beschafft werden können. Fehlen von Standards: Dadurch werden die Mitarbeiter zum Improvisieren gezwungen, was die Realisierung von Erfahrungskurveneffekten und eine gleichbleibend hohe Produktqualität erschwert. Dokumentationsfehler: Sie können zur Falschinformation führen. Schwankende Kapazitätsauslastung: Diese führt dazu, dass für Spitzenzeiten eigens Kapazitäten geschaffen werden müssen oder Engpässe entstehen. Die Ursache dafür kann eine schwankende Nachfrage sein oder eine auf bestimmte Zeitabschnitte konzentrierte Nachfrage, zum Beispiel eine hohe Buchungsauslastung von Hotels zu Messezeiten.
88
Potenzialanalyse
Inkonsistenter Arbeitseinsatz: Zum Beispiel wenn Mitarbeiter permanent neue Aufgaben bekommen. Dann bleibt die Lernkurve flach und die Kunden kommen nie in den Genuss einer perfekten Service-Leistung. Ungenauer Arbeitseinsatz: Dieser liegt vor, wenn die Aufgabeninhalte den Mitarbeitern nicht bekannt sind oder diese sie nicht ausreichend verstehen. Dies ist beispielsweise der Fall, wenn neue Dienstleistungen geschaffen werden und die in der Vergangenheit gewonnenen Erfahrungen keine Hilfe sind. Inhaltliche Komplexität: Sie führt zu Verzögerungen, wenn die Mitarbeiter beispielsweise kein ausreichendes Know-how besitzen. Papierflut: Wenn eine Vielzahl von Dokumenten nicht in digitaler Form vorliegt, werden die Informationswege durch den physischen Transport verlängert und Informationen können verloren gehen. Perspektive Technologie Zur Technologie zählen wir die Informations- und Produktionstechnologie, auf die zur Schaffung von Produkten und Dienstleistungen zurückgegriffen wird. Medien- beziehungsweise Systembrüche sind eine typische Schwachstelle bei der Informationstechnologie (IT). Medienbrüche entstehen, wenn anstelle eines durchgängigen Systems verschiedene Medien genutzt werden. Ergebnisse aus Datenbanken werden ausgedruckt, per Fax verschickt, neue Daten über E-Mail empfangen und dann wieder in ein anderes System eingegeben. Abgesehen von dem hohen Ressourcen- und Zeitbedarf können dabei auch wichtige Daten verloren gehen. Systembrüche bedeuten, dass existierende Systeme nicht miteinander verbunden sind und deshalb die Daten eines Systems einem anderen nicht zur Verfügung stehen, obwohl sie dort benötigt werden. Häufig werden aufgrund fehlender Abstimmung oder mangelnder Kooperation zwischen Bereichen auch „Insellösungen“ geschaffen, mit der Folge, dass sich jeder Bereich sein eigenes System schafft, das den eigenen Bedürfnissen optimal angepasst ist. Jedoch bleiben Synergiepotenziale zwischen Bereichen ungenutzt und dieselben Daten werden gegebenenfalls mehrfach in verschiedenen Systemen erhoben. Nach der Einführung des neuen Preissystems der Bahn im Dezember 2002 führten Systembrüche dazu, dass am Schalter lediglich die Preise für die Züge der Bahn verfügbar waren, jedoch nicht jene für die regionalen Verkehresverbünde oder die so genannten Ländertickets. Für die Gäste hatte das zur Folge, dass sie am Bahnschalter nur die bis zu 30 Prozent höheren Bahnpreise für Fahrten innerhalb der Region erfuhren. Bei Kundenservicesystemen ist die technische Verfügbarkeit eine mögliche Schwachstelle. Wenn die Telefonleitungen im Call Center permanent überlastet sind oder die
Problemdiagnose
89
Website schon bei einigen 1.000 Zugriffen pro Stunde zusammenbricht, wird die Geduld der Kunden auf eine Belastungsprobe gestellt. Checkliste zur Technologie Medien- und Systembrüche: Diese führen dazu, dass unterschiedliche Medien genutzt werden und dieselben Daten in verschiedenen Systemen eingegeben werden. Solche Tätigkeiten sind nicht-wertschöpfend und können fehlerhafte Eingaben oder den Verlust von Informationen begünstigen. Unzureichende Datenaktualisierung: Werden Datenbestände nicht zeitgleich aktualisiert, können diese nur unzureichend zur Entscheidungsunterstützung genutzt werden. Geringe Verfügbarkeit: Zum Beispiel wegen Serverausfällen und zu gering ausgelegten Kapazitäten von Hosting-Systemen oder Leitungen. Hoher Wartungsaufwand: Veraltete Maschinen oder komplexe, nicht standardisierte Software- und IT-Systeme bedingen einen hohen Wartungsaufwand. Keine Qualitätskontrolle: Das „blinde” Vertrauen in Informationen, die aus der IT gewonnen werden, kann zu gravierenden Fehlentscheidungen führen. Fehlen von Workflow-Handling: Dies kann dazu führen, dass Informationen nicht sach- und zeitgerecht ihre Empfänger erreichen. Die Folge ist ein unterschiedlicher Informationsstand zwischen den beteiligten Personen (Informationsasymmetrie), der regelmäßig zu Missverständnissen führt. Perspektive Erfolgsmessung Die wunden Punkte der Erfolgsmessung tauchen auf, wenn gar nicht oder falsch gemessen wird. Der Verzicht auf die Erhebung der Kundenzufriedenheit ist umso kritischer, je mehr Mitarbeiter ohne direkten Kundenkontakt an der Erstellung der angebotenen Leistung mitwirken. Wenn die Messlatte fehlt und keinerlei Rückkopplung über die Kundenzufriedenheit erfolgt, werden Schwachstellen im Prozess erst sehr spät erkannt. Eine falsche Messung wegen falscher Kennzahlen kann sogar noch mehr in die Irre führen. Auf die Definition der passenden Kennzahlen gehen wir im Subkapitel Zielformulierung noch ausführlich ein. Checkliste zur Erfolgsmessung Keine Analyse der Kundenzufriedenheit: Wird die Zufriedenheit des Kunden mit dem Ergebnis des gesamten Prozesses nicht erhoben, gibt es keine Messlatte für die Qualität, an der der Prozess ausgerichtet werden kann. Erfolgsmessung anhand der falschen Kennzahlen: Wird die Leistungsfähigkeit eines Prozesses beispielsweise an Kennzahlen wie „Stückzahl“ gemessen, ohne dabei
90
Potenzialanalyse die Fehlerquote zu betrachten, werden die Prozesse auf die Schaffung von Quantität – statt Qualität – ausgerichtet.
Inkonsistente Anreizsysteme: Korrespondieren die Anreizsysteme nicht mit den relevanten Erfolgsgrößen des Unternehmens so kommt es zu Fehlsteuerungen. So zum Beispiel, wenn trotz Verluste Boni gezahlt werden. Keine einheitliche Definition der Kennzahlen: Häufig sind die Kennzahlen nicht eindeutig definiert, und nicht allen beteiligten Personen sind die Definitionen verständlich. So können scheinbar objektive Kennzahlen missbraucht werden. Unvollständige Datenbasis: Werden bestimmte Daten bei der Erfolgsmessung nicht erhoben, besteht die Gefahr, dass der untersuchte Prozess nicht wirklichkeitsgetreu dargestellt ist. Perspektive Personal Zur Perspektive Personal zählen wir Schwachstellen, die aus der Qualifikation, der Mitarbeitermotivation sowie dem Führungsverhalten resultieren. Auch wenn die Prozesse und Strukturen in Ihrem Unternehmen bereits optimiert wurden, kann es dennoch sein, das sie nicht funktionieren, weil Mitarbeiter für bestimmte Tätigkeiten nicht über die passende Qualifikation verfügen. Wenn Sie beispielsweise Ihren Prozessen eine stärkere Kundenorientierung geben wollen und deshalb jenen Organisationseinheiten, die bislang nur im Hintergrund gewirkt haben, plötzlich eine Vertriebsaufgabe übertragen, sind die Mitarbeiter damit schlicht überfordert. Ein wesentlicher Schwachpunkt in Prozessen kann die geringe Motivation der Mitarbeiter sein. Hier darf man die Augen vor der Realität nicht verschließen. Mitarbeiter lassen sich mit Geld immer noch am besten motivieren. Zu diesem Schluss kam das Marktforschungsunternehmen Forsa bei einer in 2002 durchgeführten Befragung unter Personalleitern in Deutschland. Demnach hielten mehr als 90 Prozent der befragten Unternehmen materielle Anreize wie Weihnachtsgeld, Geldprämien und Bonuszahlungen für wichtig, wenn es darum geht, die Mitarbeiter zu mehr Leistung anzuspornen. Finanzielle Anreize machen jedoch keinen Sinn, wenn das Vergütungssystem die Leistungsanforderungen nicht adäquat abbildet. Wenn Mitarbeiter sich nicht mehr ausschließlich an ihrer individuellen Leistung orientieren sollen, sondern an der Gesamtleistung ihres ganzen Teams, hinken die Vergütungssysteme oft hinterher und belohnen weiterhin den Einzelkämpfer. Ein weiteres kritisches Problemfeld stellt eine hohe Personalfluktuation dar. Sie deutet darauf hin, dass Mitarbeiter mit den gebotenen Perspektiven oder der eingeschlagenen Unternehmensstrategie nicht zufrieden sind. Und sie kann einen erheblichen Einfluss auf die Produktqualität haben, wenn zu viel Know-how abfließt.
Problemdiagnose
91
Checkliste zum Personal Inadäquate Qualifikation: Die Qualität der Prozesse leidet, wenn Mitarbeiter bestimmte Tätigkeiten nicht richtig ausführen können, weil sie dafür nicht die passende Qualifikation besitzen. Überqualifikation: Sind Mitarbeiter für eine Tätigkeit überqualifiziert, kann darunter ihre Motivation leiden und damit die Qualität der verrichteten Tätigkeit sinken. Mangelnde Motivation: Dadurch werden Aufgaben nachlässig, gar nicht oder mit einer hohen Fehlerrate erfüllt. Hohe Fluktuation: Zum Beispiel, weil die Mitarbeiter mit den gebotenen Perspektiven oder der eingeschlagenen Unternehmensstrategie nicht zufrieden sind. Dies bedeutet einen Abfluss von Know-how und einen hohen Aufwand für die Personalsuche und -einarbeitung. Fehlende Orientierung an den Prozessergebnissen: Ist die Vergütung der Mitarbeiter auf ihre funktionsorientierte Aufgabe ausgerichtet, konzentrieren sich diese ausschließlich auf die Erfüllung ihrer Aufgabe und messen dem Ergebnis des gesamten Prozesses – für das der Kunden letztendlich zahlt – einen geringen Stellenwert bei. Inkonsistente Bewertung: Wechseln die Bewertungsmaßstäbe für die Festlegung der variablen Vergütung immer wieder, so verlieren die Mitarbeiter die Motivation. Unzureichende Klarheit und Verständlichkeit der Kennzahlen: Werden in den Zielvereinbarungen Kennzahlen (Führungsgrößen) festgelegt, deren Bewertungsmaßstäbe nicht transparent sind, dann fehlt die klare Orientierung und es kommt zwangsläufig zu Problemen. Führungsstil: Dieser ist problematisch, wenn beispielsweise aufgrund eines autoritären Stils keine Verantwortung delegiert wird und alle Entscheidungen nur von einem Vorgesetzten getroffen werden oder wenn der Prozess ins Stocken gerät, weil Entscheidungen nicht durchgesetzt werden. Perspektive Unternehmenskultur Probleme, die von der Unternehmenskultur herrühren, sind ebenso schwer zu greifen wie die Unternehmenskultur selbst. Man spürt sie, aber man kann sie nicht beschreiben. Unausgesprochene Regeln bestimmen den Umgang miteinander und nehmen so erheblichen Einfluss auf die Leistungsfähigkeit einer Organisation. Auf die Frage nach dem Warum bekommen wir dann häufig die Antwort: „Das ist eben so bei uns.“ Die Stärke der Unternehmenskultur ist zugleich auch ihre Schwäche: Einerseits ist sie der Garant für Kontinuität, weil sie aus einem langen Prozess des gemeinsamen Lernens entsteht. Andererseits mutiert der Fels in der Brandung zum Klotz am Bein, wenn der
92
Potenzialanalyse
eigentliche Grund für die identifizierten Schwachstellen in der Unternehmenskultur liegt. Diese mit einem einzigen Projekt verändern zu wollen, ist ein utopisches Unterfangen. Ohnehin ist die Veränderung der Kultur eine langfristige Aufgabe, die sich das TopManagement auf seine Fahne schreiben muss und die keinem einzelnen Projektmanager aufgebürdet werden kann. Wenn Sie hier Problemsymptome oder -ursachen identifizieren, müssen Sie sich darauf einstellen, dass Sie diese im Rahmen Ihres Projekts nicht verändern können. Wenn bestimmte Bereiche sich traditionell nicht austauschen, liegt der Grund für ineffiziente Schnittstellen nicht beim Design der Prozesse, sondern an der mangelhaften Kooperation zwischen den Akteuren. Selbst wenn Sie keinen direkten Einfluss auf die Unternehmenskultur haben, ist die genaue Kenntnis darüber und der daraus resultierenden Gepflogenheiten sehr wichtig, um die Reorganisation insgesamt effektiv zu steuern. Checkliste zur Unternehmenskultur Bereichsegoismen: Diese resultieren oft in einer mangelnden Kooperation zwischen Bereichen und verhindern eine prozessorientierte Arbeitsweise. Versteckte „Spielregeln“: Versteckte und unausgesprochene Regeln des Umgangs erschweren es, „frischen Wind” in alte Seilschaften zu bringen. Dies gilt insbesondere für junge und neue Mitarbeiter in der Organisation. Festhalten an Traditionen: Das Verharren in alten Denkweisen und Abläufen kann dazu führen, dass die Organisation mit der schnellen Veränderung im Wettbewerbsumfeld nicht Schritt halten kann und Veränderungen per se als schlecht angesehen werden. Konzentration auf die Führungsspitze – statt auf den Kunden: Die interne Orientierung der Mitarbeiter auf das Wohlgefallen des Managements kann dazu führen, dass der Kunde – zu dem häufig kein unmittelbarer Kontakt besteht – aus den Augen der Mitarbeiter verloren geht.
3.4.2
Aufdecken des Ursachen-Wirkungs-Zusammenhangs
Das systematische Sammeln der Schwachstellen deckt eine Vielzahl von Problemen auf, ohne dass zwischen Symptomen und Ursachen unterschieden wird. Jetzt geht es darum, die Ursachen von ihren Wirkungen zu trennen. Wenn Sie darauf verzichten, besteht die Gefahr, dass Sie im Redesign lediglich an Symptomen „herumdoktern“. Langfristige Erfolge bleiben dann aus, weil die Ursachen unverändert neue Problemsymptome schaffen und Ihr Handeln wird letztendlich als purer Aktionismus wahrgenommen. Mangelnde Ursachenforschung musste sich auch die Bundesregierung vom Bundesrechnungshof vorwerfen lassen. Dieser rügte unter anderem in seinem Jahresbericht 2002,
Problemdiagnose
93
dass das „Gesetz zur Beschleunigung von Genehmigungsverfahren“, das die Bürokratie abbauen soll, nicht angewendet werden kann, weil die Ursachen für langwierige Genehmigungsverfahren gar nicht erforscht worden seien. Zur Strukturierung ist das Ursachen-Wirkungsdiagramm hilfreich, auch Fischgrätenoder Ishikawa-Diagramm genannt.
Unternehmenskultur
Erfolgsmessung
Traditionelles Bereichsdenken
Uneinheitliche Definition von Kennzahlen
Prozesse / Struktur
Fehlende Standards Viele Schnittstellen
Führungspositionen nach Seniorität besetzt
Keine Erhebung der Kundenzufriedenheit
Hohe Durchlaufzeit Geringe Kundenzufriedenheit
Orientierung an funktionalen Tätigkeiten Demotiviertes Service-Personal Schlecht qualifiziertes IT-Personal
Personal
Systembrüche IT
Hoher Wartungsaufwand Unzureichende Datenaktualisierung
Technologie
Abbildung 14: Ursachen-Wirkungsdiagramm für das Ausgangsproblem „geringe Kundenzufriedenheit“
In den „Kopf des Fisches“ wird zuerst das Problem eingetragen, das letztendlich den Bedarf für die Reorganisation ausgelöst hat. Sei es ein sprunghafter Anstieg der Gemeinkosten oder die drastische Zunahme der Ausschussquote in der Fertigung. In unserem Beispiel gehen wir von einer geringen Kundenzufriedenheit aus. So wie in der Abbildung dargestellt, spiegeln die „Hauptgräten“ des Diagramms die Problemkategorien der Checklisten aus dem vorherigen Abschnitt wieder, mit denen wir die Schwachstellen erhoben haben. Wie entsteht ein solches Diagramm? Versuchen Sie die Probleme, die Sie bereits identifiziert haben, in einen Kausalzusammenhang zu bringen und grafisch darzustellen. Fragen Sie für jedes Problem nach den dahinterstehenden Ursachen und ordnen Sie diese Ursachen den Problemen der ersten Ebene in Form von nachfolgenden Verzweigungen hinzu. Fragen Sie auch für die so entstandene zweite Ebene nach den dahinterstehenden
94
Potenzialanalyse
Ursachen und nehmen Sie diese dritte Ursachenebene in Ihre grafische Darstellung auf. Führen Sie dies so lange fort, bis Sie keine weiteren Ursachen mehr identifizieren können. Zur Verdeutlichung des Vorgehens greifen wir in unserem Beispiel die „Systembrüche IT“ heraus, die neben dem hohen Wartungsaufwand und der unzureichenden Datenaktualisierung als eine wesentliche Ursache für die geringe Kundenzufriedenheit erkannt und der Perspektive Technologie zugeordnet wurden. In der folgenden Abbildung haben wir dazu die Ursachen für die Systembrüche IT im Detail dargestellt.
Führungspositionen nach Seniorität besetzt Geringer Stellenwert der IT im Unternehmen Schlecht qualifiziertes IT-Personal
„Verkrusteter“ IT-Bereich Geringe Innovationskraft
Veraltete IT Geringe Kundenzufriedenheit
Geringe ITBudgets Geringe ITBudgets
Wenig ITArbeitsplätze
Systembrüche IT
Bereichsdenken Funktionale Organisation Hohe Durchlaufzeit bei IT-Entwicklung
Insellösungen Wenig Lösungskompetenz
Technologie
Abbildung 15: Ursachen für das Problem „Systembrüche IT“
Die Frage hierzu lautet: Welche der erkannten Probleme sind Ursachen für die Systembrüche in der IT? In unserem Beispiel haben wir als wesentliche Ursachen in der zweiten Ebene die veraltete IT, zu wenige IT-Arbeitsplätze sowie Insellösungen identifiziert. Dann haben wir auch nach deren Ursachen gefragt. So erkannten wir, dass beispielsweise die Insellösungen unter anderem auf die funktionale Organisation zurückgeführt werden können, die ihrerseits das Ergebnis eines ausgeprägten Bereichsdenkens ist. Es ist sehr wahrscheinlich, dass einzelne Problemursachen innerhalb des Diagramms mehrfach auftauchen können, da sie unter Umständen durch die Checklisten mehrmals erfasst werden. Diese Redundanz ist ein guter Indikator dafür, dass Sie auf den wahren Kern der Ursachen gestoßen sind.
Problemdiagnose
95
Wenn die Kausalzusammenhänge aufgedeckt wurden, müssen im nächsten Schritt die wirkungsvollsten Stellhebel bestimmt und dementsprechend die Prioritäten für das weitere Vorgehen gesetzt werden.
3.4.3
Identifikation des wirkungsvollsten Stellhebels für die Prozessoptimierung
In diesem Abschnitt geht es um die Frage, wo wir ansetzen müssen, um den größten Effekt mit der Prozessoptimierung zu erzielen. Während das Fischgrätendiagramm und vergleichbare Strukturierungsmethoden im Rahmen einer qualitativen Analyse den Zusammenhang zwischen Ursachen und Symptomen herstellen, steht hier eine quantitative Bewertung des Optimierungspotenzials im Vordergrund. Damit ziehen wir nicht nur eine inhaltliche Perspektive in Betracht, sondern auch eine taktische. Schließlich ist jeder daran interessiert, einen möglichst großen Wurf zu landen. Möglicherweise halten Sie diesen Schritt für überflüssig, weil man in aller Regel längst auf die wichtigsten Ansatzpunkte gestoßen ist. Dennoch empfehlen wir ein systematisches Vorgehen, weil ansonsten die Gefahr eines Fehltritts hoch ist. Durch den Verzicht auf die quantitative Analyse der Ursachen bleiben die „größten Brocken“ unentdeckt. Dies führt dazu, dass die Projektressourcen auf die Behebung von Problemen konzentriert werden, die nicht viel Optimierungspotenzial bergen. Bedenken Sie auch, dass der eine oder andere versuchen wird, die von Ihnen als besonders kritisch herausgestellten Problemursachen zu bagatellisieren, weil er sich durch Ihre Analyse bedroht fühlt. Sie dürfen nicht vergessen, dass Sie auf Probleme hinweisen, für deren Entstehung letzten Endes irgendjemand die Verantwortung trägt. Wenn Sie dann nicht belegen können, warum ausgerechnet an diesem oder jenem Punkt Veränderungen notwendig sind, kommen Sie in Erklärungsnot. Deshalb sollten Sie Ihrem Bauchgefühl noch etwas Systematik verleihen. Zudem erlaubt die quantitative Ermittlung des größten Stellhebels eine zumindest grobe Abschätzung des Verbesserungspotenzials. Dazu ein paar Beispiele. Nehmen wir einmal an, der Stellhebel soll an den Prozessschritten mit den höchsten Kosten ansetzen. In diesem Fall schlagen wir die Darstellung mit Hilfe eines ParetoDiagramms vor. Bezogen auf die hier durchgeführte Betrachtung lautet die Kernidee wie folgt: In jedem Prozess befindet sich ein vergleichsweise kleiner Anteil von Prozessschritten, der die Kosten des gesamten Prozesses stark beeinflusst. Umgekehrt gibt es einen relativ großen Anteil von Prozessschritten, der einen relativ geringen Einfluss auf die Prozesskosten hat. Zur Erstellung des Pareto-Diagramms werden in unserem Beispiel die Prozessschritte zunächst nach der Höhe der durch sie verursachten Kosten von links nach rechts auf der X-Achse abgetragen. Die Prozessschritte mit den höchsten Kosten stehen links. Dann werden die kumulierten Kosten auf der Y-Achse abgetragen. Das folgende Pareto-Dia-
96
Potenzialanalyse
gramm gibt ein typisches Bild wieder: 30 Prozent der kostenintensivsten Prozessschritte verursachen immerhin 80 Prozent der Kosten. Wenn wir davon ausgehen, dass sich die Kosten für die einzelnen Prozessschritte im Zeitablauf relativ konstant verhalten, dann können wir aus dieser Abbildung den folgenden Schluss ableiten: Das Redesign sollte sich nur auf die 30 Prozent der Prozessschritte konzentrieren, die als Kostentreiber identifiziert wurden. Alle anderen Prozessschritte können unter dem Gesichtspunkt Prozesskosten weitestgehend vernachlässigt werden, weil sie nur vergleichsweise geringe Möglichkeiten zu Kostenreduktion bieten.
100
Prozesskosten in Prozent
90 80
Kumulierte Prozesskosten
70 60 50 40 30 20 10
Prozessschritte mit den höchsten Kosten
10
20
30
40
50
60
70
80
Prozessschritte in Prozent
90
100
Prozessschritte mit den geringsten Kosten
Abbildung 16: Das Pareto-Diagramm zeigt, dass 30 Prozent der kostenintensivsten Prozessschritte 80 Prozent der gesamten Prozesskosten verursachen.
Eine ganz andere Darstellung mit einer ähnlichen Aussage liefert Abbildung 17. Exemplarisch haben wir hier die Kernprozesse einer Transaktionsbank gewählt. Bei der Abwicklung von Wertpapieren und Zahlungsvorgängen ist die so genannte STP-Rate (Straight Through Processing-Rate) eine wichtige Kenngröße für die Qualität der Prozesse. Straight Through Processes sind Prozesse, die fehlerfrei und meist vollautomatisch ablaufen. Kommt es zu einer Störung, weil das Abwicklungssystem beispielsweise eine Unstimmigkeit nicht selbständig lösen kann, so erfordert dies einen manuellen Eingriff. Wir bezeichnen diese problembehafteten Transaktionen als Non-STP. In unserem Beispiel haben wir unterstellt, dass das Verhältnis STP zu Non-STP bei 80 zu
Problemdiagnose
97
20 liegt. Ein Blick auf die mittlere Säule zeigt, dass – trotz des geringen Anteils der NonSTPs – die durch sie verursachten Prozesskosten bei 85 Prozent liegen. Eine weitere Unterteilung der Kosten nach Personal und IT macht deutlich, dass 70 Prozent der NonSTP-Kosten Personalkosten sind. Dies ist darauf zurückzuführen, dass die Behebung der Probleme, die den Non-STP-Prozess verursacht haben, sehr viele Personalressourcen bindet. Dieses von uns frei gewählte Beispiel wird in seiner Grundaussage durch Studien bestätigt: So liegt beispielsweise bei grenzüberschreitenden Wertpapiergeschäften die Fehlerquote zwischen 15 und 20 Prozent. Die Fehlerbehebung kostet circa eine Milliarde Euro und beträgt damit circa ein Drittel der gesamten Abwicklungskosten. Als wirkungsvollster Stellhebel wird hier eindeutig die Verringerung der Non-STP-Prozesse identifiziert – eine Erkenntnis, die den fachkundigen Banker zwar nicht überrascht, deren Bedeutung jedoch durch die grafische Darstellungen entsprechend Nachdruck verliehen werden kann. Nutzen Sie dieses oder vergleichbare Mittel, damit jedem klar wird, warum Sie diesem Stellhebel eine hohe Priorität zuweisen.
Prozessschritte in Prozent
Prozesskosten in Prozent
Personal- und IT-Kosten in Prozent 100
100 90
Non-STP
90 80
80 70 60 50 40 30 20 10
STP
Prozesskosten für Non-STP
Personalkosten für Non-STP
70 60 50
Straight Through Processes
40 30
IT für Non-STP
20 10
Abbildung 17: Obwohl ihr Anteil an den Prozessen nur bei 20 Prozent liegt, verursachen die Non-STPs 85 Prozent der Prozesskosten, von denen 70 Prozent auf das Personal entfallen.
98
3.4.4
Potenzialanalyse
Mit welchem Problem fangen wir an?
Jetzt kennen Sie die Ursachen der Probleme und wissen, in welchen Prozessschritten die größten Optimierungspotenziale liegen. Es ist wichtig, dass Sie die Ergebnisse der Ursachen-Wirkungs- und der ABC- bzw. Stellhebel-Analyse gemeinsam betrachten, wenn Sie wirkungsvolle Ansatzpunkte für die Optimierung ableiten wollen. Beide liefern wertvolle Hinweise. Durch die ABC-Analyse konnten Sie die größten Stellhebel in Bezug auf quantitative Kennzahlen wie Kosten, Zeiten, Fehlerquoten etc. identifizieren. Sie können daraus aber nicht unmittelbar ersehen, welche Ursachen Sie anpacken müssen, weil die ABC-Analyse keine Ursachen aufzeigt. Hier hilft der erneute Blick auf die Ergebnisse Ihrer Ursachen-Wirkungs-Analyse. Denken Sie daran, dass Sie sich im Redesign auf die Beseitigung der Ursachen konzentrieren sollten. Nehmen wir das bereits erwähnte Beispiel der STP-Kosten aus dem vorangegangen Abschnitt. Ergebnis der Analyse war, dass die Non-STP-Prozesse nur 20 Prozent der Prozesse ausmachen, aber 85 Prozent der Prozesskosten verantworten, von denen der Löwenanteil von 70 Prozent auf die Personalkosten entfiel. Somit wissen wir, dass wir uns im Redesign auf lediglich 20 Prozent der Prozesse konzentrieren müssen, um die Kosten spürbar zu senken. Da Non-STP-Prozesse als fehlerhafte Prozesse unerwünscht sind, muss deren Anteil gesenkt werden. Dafür müssen wir die Ursachen kennen, warum automatisierte Prozesse nicht nach Plan ablaufen und von Hand nachgebessert werden müssen. Antworten auf diese Frage lassen sich in der korrespondierenden Ursachen-Wirkungs-Analyse finden. Während es kaum Fälle gibt, in denen kein Ursachen-Wirkungs-Diagramm erstellt werden kann, kommt es häufig vor, dass keine quantitative Ermittlung der Stellhebel möglich ist, weil die dafür benötigten Kennzahlen nicht vorliegen oder nicht vollständig erhoben werden können. Oder Sie können eine ABC-Analyse für den betrachteten Prozess durchführen, die Ergebnisse lassen aber keine Anhaltspunkte für die Beseitigung des Ausgangsproblems zu. Wenn zum Beispiel Ihr Hauptanliegen ist, die Kundenzufriedenheit drastisch zu erhöhen, dann liegt der Schlüssel zur Optimierung nicht zwingend an der unmittelbaren Kundenschnittstelle, sondern häufig in anderen Bereichen. Hier hilft das Ursachen-Wirkungs-Diagramm weiter.
3.4.5
Erste Erfolge durch Sofortmaßnamen
In der Regel tauchen bei der Problemanalyse Schwachstellen auf, die sich mit wenigen Maßnahmen zügig beseitigen lassen. Setzen Sie diese Sofortmaßnahmen so schnell wie möglich um, damit erste Ergebnisse, so genannte „Quick Hits“, sichtbar werden. Damit erzielen Sie mehrere Effekte:
Problemdiagnose
99
Erstens tragen Sofortmaßnahmen kurzfristig zur Linderung der akuten Krisensymptome bei und sichern so die Existenz des Unternehmens oder des betreffenden Bereichs. Zweitens vergrößern „Quick Hits“ das Vertrauen in die eingeschlagene Richtung und den Erfolg Ihres Vorgehens. Das ist ganz besonders wichtig, wenn das Reorganisationsvorhaben auf lange Zeit angelegt ist. Für die Mitarbeiter entsteht leicht der Eindruck, dass sich nach der ersten Welle des Agierens und Kommunizierens nichts mehr tut. Diese Ahnung wird häufig durch die Erfahrung bestärkt, dass es sich mal wieder um ein Projekt handelt, bei dem mehr geredet als erreicht wird. Auf jeden Fall mindert die Signalwirkung von Sofortmaßnahmen die Befürchtung der Mitarbeiter, dass wichtige Dinge irgendwo hinter verschlossenen Türen passieren – oder schlicht verschleppt werden. Deshalb sollten Teilerfolge schnell sichtbar werden. Drittens fördern Sie die mentale Einbindung der beteiligten Mitarbeiter, wenn diese sehen, dass ihre vorgeschlagenen Sofortmaßnahmen umgesetzt werden. Auch damit erhöhen Sie Ihre Akzeptanz und die des Projekts erheblich. Die Sofortmaßnahmen können unterschiedliche Aktionsfelder betreffen. Im Folgenden nennen wir einige einfache Beispiele: Prozesse: Häufig entsprechen die Berichtswege den Anforderungen der Vergangenheit und können kurzfristig vereinfacht werden – ohne irgendwelche Nachteile in Kauf nehmen zu müssen. Möglicherweise fehlt es an einer klaren Prozessbeschreibung, was dazu führt, dass die Arbeiten unkoordiniert ausgeführt werden. Hier hilft die Definition einfacher Verhaltensregeln zumindest kurzfristig. Wenn erkannt wird, dass ein und dieselben Daten an zwei verschiedenen Stellen eingegeben werden, helfen kurzfristig Interimslösungen, diese Redundanz zu beseitigen. Informationstechnologie (IT): Häufig bedarf es kleinerer Anpassungen der Software („Requests for change“), die den Mitarbeitern das Arbeiten damit erheblich vereinfacht. In einem unserer Projekte konnten die Mitarbeiter im Auftragsverwaltungssystem keine Sonderpreise eingeben. Allerdings wurden in mehr als 70 Prozent der Verkaufsabschlüsse Sonderpreise gewährt. Die Beseitigung dieses Nachteils dauerte nur wenige Tage und erhöhte die Akzeptanz des Systems bei den Vertriebsmitarbeitern erheblich. In einem anderen Projekt konnten wir durch den Einsatz von leistungsfähigen Scannern mit Texterkennung die manuelle Eingabe von Daten fast vollständig eliminieren und damit die Kosten um bis zu 90 Prozent reduzieren. Die Maßnahme war innerhalb von Tagen umgesetzt. Administration: Häufig hat sich im Laufe der Jahre der eine oder andere Formalismus eingeschlichen, der nicht mehr zeitgemäß ist. Beim Durchforsten von Formularen oder dem Ablagesystem findet man fast immer Ansatzpunkte für Sofortmaßnahmen wie die Vereinfachung oder Eliminierung von Formularen. Dies ist insbesondere
100
Potenzialanalyse
dann ein Ansatzpunkt, wenn bei einer erfolgten Elektrifizierung der Formulare diese Eins zu Eins übernommen wurden, ohne die Gründe für bestimmte, vielleicht veraltete Abfragen zu hinterfragen. Personal: Möglicherweise müssen Sie bereits zu diesem Zeitpunkt des Reorganisationsvorhabens personelle Einschnitte vornehmen. Wenn Sie erkennen, dass der eine oder andere auf dem falschen Platz sitzt und definitiv überfordert ist, sollten Sie diese Person austauschen. Es versteht sich von selbst, dass damit die Probleme in aller Regel nicht automatisch gelöst sind. Der Vorteil einer erfolgreichen Umsetzung von Sofortmaßnahmen kann sich rasch in eine akute Gefahr umkehren. Hüten Sie sich vor zuviel Euphorie. Sollten die Sofortmaßnahmen zu einer außerordentlichen Verbesserung der Situation führen, nimmt der Leidensdruck rapide ab. Damit schwinden automatisch auch die Akzeptanz und die Unterstützung für die anstehenden Veränderungen. Das ist besonders kritisch, wenn zeitgleich exogene Faktoren, die in keinerlei Zusammenhang mit der Reorganisation stehen, zusätzlich positive Wirkung zeigen. So paradox es klingt: Eine konjunkturelle Belebung der Nachfrage kann das Ende für Ihr Reorganisationsvorhaben bedeuten. Als Boeing Mitte der neunziger Jahre nach einer der schwersten Krisen der Luftfahrtgeschichte eine stetige Zunahme der Aufträge verbuchen konnte, atmete das Management auf, beklagte aber zugleich die schwindende Unterstützung für ein unternehmensweit angelegtes Reorganisationsvorhaben. Damit wird klar, dass Sie sich bei der Umsetzung von Sofortmaßnahmen auf einem schmalen Grat bewegen. Balancieren Ihr Handeln geschickt aus und stellen Sie möglicherweise bereits erkannte Sofortmaßnahmen bewusst zurück. Zusammenfassung Die Problemdiagnose dient der systematischen Problemsuche. Durchforsten Sie dazu die Ergebnisse, die Sie im Rahmen der Analyse der Kunden und Wettbewerber, der Analyse der eigenen Kernkompetenzen sowie der Prozessanalyse gewonnen haben. Erstellen Sie eine detaillierte Checkliste zum Aufspüren möglicher Problemursachen und deren Wirkungen. Beleuchten Sie dabei unterschiedliche Perspektiven. Machen Sie den Kausalzusammenhang zwischen Problemursache und -wirkung transparent, um so die Gefahr einer reinen Symptombehandlung zu vermeiden. Setzten Sie Prioritäten, indem Sie die Problemursachen mit der größten Wirkungskraft identifizieren. So wird offengelegt, an welchen Stellhebeln Sie ansetzen müssen und wie groß das Verbesserungspotenzial in etwa ist. Zeigen Sie durch die Umsetzung von Sofortmaßnahmen, dass Ihr Reorganisationsvorhaben bereits erste Früchte trägt. Achten Sie darauf, dass der Leidensdruck dabei nicht zu stark abnimmt, so dass Sie auch weiterhin auf die Unterstützung für Ihr Projekt bauen können.
Problemdiagnose
101
Die dargestellten Techniken zur Problemdiagnose sind nur eine kleine Auswahl aus einer Fülle von Methoden. Bitte beachten Sie, dass Sie je nach Situation komplexere Instrumente einsetzen müssen, beispielsweise statistische Verfahren, deren Darstellung den Umfang dieses Buches sprengen würde. Eine Zusammenfassung der Problemdiagnose gibt die folgende Tabelle: Tabelle 5: Methodenkomponenten der Problemdiagnose Komponente Vorgehensphase
Potenzialanalyse
Aktivitäten
Problemdiagnose
Ergebnisse
Transparenz über Problemsymptome, deren Ursachen und Stellhebel für die Optimierung
Techniken
• Checklisten für typische Schwachstellen • Ursachen-Wirkungsdiagramme • ABC-Analyse (Pareto-Analyse)
Rollen
Projektteam
3.5 Zielformulierung – Was nicht gemessen wird, wird nicht getan Wenn ein Reorganisationsprojekt beginnt, sind damit immer auch Ziele verbunden. Worin liegt der Unterschied zwischen den Zielen, die mit dem Projekt von Anfang an verfolgt werden, und den Zielen, die in diesem Subkapitel formuliert werden sollen? Im Kern ist es der Präzisierungsgrad. Denn wer glaubt, zu Beginn einer Reorganisation die Ziele umfassend und präzise formulieren zu können, der irrt. Woher wollen Sie beispielsweise wissen, wie lang die Durchlaufzeit für den Kreditprüfungsprozess sein darf, wenn weder die Kundenanforderungen noch die Leistungsfähigkeit der Wettbewerber bekannt sind? Wie vermeiden Sie es, Energie in eine unternehmensinterne Prozessoptimierung zu stecken, wenn das Ergebnis einer detaillierten Analyse der eigenen Kernkompetenzen den Schluss nahe legt, die betrachteten Prozesse an externe Unternehmen auszulagern? Diese Fragen sind während der Vorbereitung noch offen und werden erst
102
Potenzialanalyse
im Laufe der Potenzialanalyse beantwortet. Daher kann die Formulierung messbarer Ziele erst an deren Ende stehen.
3.5.1
Typische Schwachstellen bei der Zielformulierung
Bevor Sie dieses Kapitel lesen, sollten Sie sich selbst die folgenden Fragen beantworten: Wie lauteten die Ziele des letzten Projekts, an dem Sie beteiligt waren? Wie wurde die Zielerreichung präzise gemessen? Welche Prognosen wurden herangezogen, um die Plausibilität Ihrer Ziele zu prüfen? Eventuell sind Sie schon beim Beantworten der ersten Fragen ins Grübeln gekommen. Zunächst ist die Angelegenheit ebenso banal wie dramatisch: Vielleicht fällt es Ihnen schwer, sich an die Ziele zu erinnern, weil überhaupt keine Ziele formuliert wurden. Vielleicht wurden Ziele formuliert, sind aber gleich wieder in Vergessenheit geraten, weil sich ohnehin keiner darum geschert hat. Denkbar ist auch, dass die Ziele so nichtssagend waren, dass Sie sich nur mit großer Mühe erinnern können. Und damit kommen wir auch gleich zur zweiten Frage. Bei einer inhaltslosen Formulierung der Ziele können Sie gar keine Aussage darüber treffen, wie die Zielerreichung gemessen wurde. Und wenn doch, dann sind die Messkriterien vermutlich qualitativer Natur und entziehen sich einer objektiven Messbarkeit. Wenn Sie an diesem Punkt angekommen sind, dann erscheint die Frage nach den Prognosen zur Überprüfung der Plausibilität der Ziele nahezu rhetorisch. Sollte es Ihnen so ergangen sein, dann befinden Sie sich zumindest in guter Gesellschaft. Kaum ein Projekt, in dem die Ziele wirklich etwas hergeben. Wenngleich beachtliche Investitionen in Form von Mitarbeiterressourcen und monetären Mitteln getätigt werden, fehlt die Messlatte für den Erfolg der Reorganisation. Mitunter werden Projektvorhaben durch das Top-Management ohne konkrete Zielvorgaben nach unten delegiert. Um den Eindruck zu vermeiden, man habe nicht verstanden, worum es geht, unternimmt die untergeordnete Managementebene erst gar nicht den Versuch, die Ziele zu klären. Wenn das Top-Management dann auch noch ein zu kleines Budget freigibt, sind mittelmäßige Ergebnisse die zwingende Folge. Immanuel Kant sagte: „Wenn wir Ziele wollen, wollen wir auch die Mittel.“ Eine Umkehrung dessen könnte auch lauten „Wenn wir keine Ziele haben, brauchen wir auch kein Budget.“ Womit ein weiterer Grund für das Fehlen konkreter Zielvorgaben benannt ist. Häufig erhalten wir auf unsere Frage nach den Zielen die lapidare Antwort, dass man keine Zeit mit der Formulierung von Zielen verschwenden wolle, weil diese sowieso allen Beteiligten klar sein dürften. Das trifft auch zu. Allerdings hat jeder seine eigene Vorstellung. Und ob alle in die gleiche Richtung marschieren, hängt einzig vom Zufall und den herrschenden Machtverhältnissen ab. Wer ohne messbare und verbindliche
Zielformulierung
103
Ziele in die Redesign-Phase einsteigt, ist ständig unterwegs – kommt aber niemals an. Wilhelm von Oranien sagte: „Es gibt keinen günstigen Wind für den, der nicht weiß, wohin er segeln will.“ Das Projektteam sollte Bonbons und Luftballons verschenken. Das findet jeder toll. Ein weiterer Schwachpunkt zeigt sich in der Greifbarkeit von Zielen. Wenn überhaupt Ziele vorliegen, sind diese häufig so unpräzise, dass das Projektteam alles und nichts tun kann – ohne die Ziele verfehlen zu können. Beispielsweise finden wir nicht selten die Formulierung: „Das Projekt soll zu einer höheren Kundenzufriedenheit führen.“ Ohne Frage ein achtbares Ziel. Aber wie wollen Sie messen, ob die Projektmittel nicht einfach vergeudet werden? Es fehlt der Hinweis, um welches Kundensegment es sich handelt, an welchen Parametern die Kundenzufriedenheit festgemacht wird und bis wann das Ziel erreicht werden soll. In diesem Fall können wir nur raten: Verschenken Sie Bonbons, Luftballons oder bunt bedruckte T-Shirts an Ihre Kunden. Das findet jeder toll, und verbessert mit Sicherheit die Kundenzufriedenheit. Und schon haben Sie Ihr Ziel erreicht und können das Projekt erfolgreich abschließen. Ein weiterer Grund für die Zielmisere ist die Formulierung von Zielen als Maßnahmen: die Weiterbildung von Mitarbeitern, die Durchführung einer Prozesskostenanalyse oder die schrittweise Erhöhung der Preise. Das alles sind keine Ziele. Damit wird zwar eine gewisse Richtung vorgegeben, aber der eigentliche Zweck der Zielformulierung wird verfehlt, nämlich die Definition eines angestrebten Zustands. Ziele sind – etwas akademisch formuliert – nichts anderes als normative Aussagen, die den Zustand definieren, der mit der Reorganisation erreicht werden soll. Dem ein oder anderen mag dies als Haarspalterei vorkommen, aber das ist es keinesfalls. Kein Manager will seine Mitarbeiter weiterbilden Mit welchen Maßnahmen wollen Sie das angebliche Ziel „Weiterbildung von Mitarbeitern“ erreichen? Vermutlich mit der Maßnahme „Mitarbeiter weiterbilden“. Aber wie wollen Sie den Erfolg der Maßnahme messen? Kein Manager will seine Mitarbeiter ziellos weiterbilden. Er will jedoch Mitarbeiter, die über ein exakt zu definierendes Qualifikationsniveau verfügen, um den betrieblichen Anforderungen gerecht zu werden. Ebenso wenig ist irgendjemand an der Durchführung einer Prozesskostenanalyse interessiert. Die Schaffung von Transparenz über die Kosten eines Prozesses, die mit einer solchen Analyse erreicht wird, ist jedoch ein wichtiges Ziel, weil damit mögliche Ansatzpunkte für die Prozessoptimierung freigelegt werden. Auf den Punkt gebracht heißt das: Die Leistung wird nicht daran gemessen, wie sehr jemand bemüht war, möglichst viele Maßnahmen umzusetzen, die keinem Ziel dienen. Nur das Ergebnis zählt. Und das sollte sich in präzise formulierten und ausschließlich
104
Potenzialanalyse
messbaren Zielen widerspiegeln. Damit mindern Sie die Gefahr von Aktionismus und lenken das Augenmerk von einer Input- auf eine Output-Orientierung in Ihrem Projekt.
3.5.2
Was wohl formulierte Ziele ausmacht
Warum sind wohl formulierte Ziele nötig? Weil sonst – wie die oben genannten Schwachstellen zeigen – keiner weiß, wo die Reise hingeht. Die Ziele müssen klar machen, was Sie eigentlich erreichen wollen. Sie dienen als Messlatte für die Bewertung der Projektmaßnahmen und bilden die Grundlage für die spätere Erfolgsmessung. Damit sprechen wir die Informationsfunktion der Ziele an. Stellen Sie sich vor, Sie möchten mit einer Gruppe die Alpen überqueren. Erst wenn allen in der Gruppe dieses Ziel klar ist, und nicht etwa, dass sie vielleicht nur in einer zünftigen Hütte einkehren wollen, können Sie losmarschieren. Damit aber alle in dieselbe Richtung marschieren und Ihnen nicht die Hälfte der Gruppe vom Weg abkommt, müssen alle dasselbe Zielverständnis haben. Natürlich können Sie es nicht jedem recht machen. Aber wenn Sie Ziele formulieren, mit denen sich kein Mensch identifizieren kann, werden Sie kaum die notwendige Unterstützung erfahren. Gleichzeitig müssen die Reorganisationsziele auch mit den übergeordneten Unternehmenszielen im Einklang stehen. Wer hier nicht auf Konsistenz achtet, sät Verwirrung. Somit haben Ziele auch eine Koordinationsfunktion zur Steuerung der Projektaktivitäten und tragen zur Konfliktvermeidung zwischen den beteiligten Bereichen bei. Nun kommt es noch darauf an, dass auch der Anreiz hoch genug ist, dieses Ziel mit dem erforderlichen Einsatz zu verfolgen. Ziele müssen eine Motivationsfunktion haben und die betreffenden Mitarbeiter dazu aktivieren, Lösungen zum Füllen der Lücke zwischen Ist- und Soll-Zustand zu erarbeiten und umzusetzen. Und das Ziel muss so erstrebenswert sein, dass die Mitarbeiter auch auf den unausweichlichen Durststrecken durchhalten. Der Langsamste, der sein Ziel nicht aus den Augen verliert, geht noch immer geschwinder, als der ohne Ziel umherirrt – Lessing Das erste Gebot bei der Formulierung von Zielen lautet jedoch: Ziele müssen messbar sein. Das Problem liegt darin, die richtige Messlatte für das Ziel zu definieren. Für quantitative Ziele wie Umsatz-, Absatz-, oder Kostenziele mag das auf den ersten Blick recht einfach erscheinen. Michael Dell, der Chef des nach ihm benannten texanischen Computerherstellers, verkündete 2002, das Umsatzziel von 60 Milliarden US-Dollar bis 2006 erreichen zu wollen. Dieses konnte allerdings erst im Geschäftsjahr 2007/2008 mit einem Umsatz von 61 Milliarden Dollar umgesetzt werden. Toyota wollte bis zum Jahr 2010 General Motors – gemessen in verkauften Stückzahlen – den Rang des größten
Zielformulierung
105
Autokonzerns der Welt abjagen. Das gelang den Japanern bereits 2008. Die Deutsche Bank strebt seit 2005 eine Eigenkapitalrendite von 25 Prozent vor Steuern an, was ihr in den Geschäftsjahren von 2005 bis 2007 auch gelang. Klarer geht es nicht. Doch der Teufel steckt häufig im Detail. Bei qualitativen Zielen wie der Kundenzufriedenheit wird es erheblich schwieriger. Hier müssen Indikatoren herangezogen werden, die das qualitative Ziel mit quantitativen Daten untermauern. Miele, bekannt für die hohe Qualität seiner Produkte, kann einen beeindruckenden Beleg für eine hohe Kundenzufriedenheit vorweisen: Der Anteil der Wiederkäufer liegt bei 62 Prozent und damit um 18 Prozent über dem Branchendurchschnitt. Es gibt keinen besseren Indikator für die Kundenzufriedenheit als eine hohe Wiederkaufrate. Noch anspruchsvoller ist die Messung der Leistungsfähigkeit von Managern. Mario Vaupel entwickelte das Leadership Asset System (LAS), ein Verfahren mit dem eine ergebnisorientierte Erfassung und Steuerung der strategischen Führungsperformance möglich ist. Mit diesem Verfahren kann identifiziert werden, an welchen Punkten die strategische Führung optimiert werden muss, um beispielsweise die erfolgreiche Umsetzung von Reorganisationsvorhaben sicherzustellen. Das LAS erfasst die Führungsperformance über Indikatoren, die aus den wichtigsten Erfolgsfaktoren für die jeweilige Führungsaktivität abgeleitet wurden. Die Führungsaktivitäten sind bestimmten Performancebereichen zugeordnet. So kann beispielsweise für den Performancebereich „Technik, Prozesse, Organisation“ erfasst werden, ob der auditierte Manager oder der Unternehmensbereich moderne Arbeits- und Organisationsformen einführt und diese effektiv nutzt, um so die Qualität und die Flexibilität von Prozessen zu steigern und die Kosten zu minimieren. Eine weitere Führungsaktivität, die in diesem Performancebereich gesichtet wird, richtet sich auf die Sicherung optimaler Durchlaufzeiten von Prozessen. Hier wird geprüft, ob diese mit den Variablen Kundenerwartungswert, Kosten, Technik und Kompetenzen abgestimmt ist. Mit Hilfe eines leicht handhabbaren Softwaretools werden Kennziffern gebildet, die eine objektive und vergleichbare Aussage über die Führungsleistung liefern. Das gemessene Niveau eines gesamten Performancebereichs wird mit Hilfe bestimmter Kennzahlen (Benchmarks) validiert. Die Quantifizierung der Führungsperformance liefert unter anderem für Reorganisationsprojekte zwei wesentliche Vorteile: Zum einen legt das LAS konkrete Ansatzpunkte für Intervention offen, die speziell auf den betrachteten Manager abgestimmt werden können. Zum anderen erlaubt das LAS eine systematische Wirksamkeitsmessung im Zeitablauf anhand konkreter Ziele und mindert das Risiko, dass eine Reorganisationsmaßnahme an der mangelnden Leistungsfähigkeit des verantwortlichen Managers scheitert. Auch bei Zielen, die Ihnen auf den ersten Blick präzise erscheinen, ist ein zweiter Blick geboten. So sagt beispielsweise das Ziel, den absoluten Marktanteil in den nächsten zwölf Monaten von 10 auf 15 Prozent zu steigern, nicht unbedingt viel aus. Wenn der
106
Potenzialanalyse
stärkste Wettbewerber einen absoluten Marktanteil von 60 Prozent hat, sind Sie mit 15 Prozent noch lange nicht Klassenbester. Mehr Aussagekraft liefert der relative Marktanteil. Dieser ist definiert als der Quotient aus dem eigenen absoluten Marktanteil und dem absoluten Marktanteil des stärksten Wettbewerbers. Liegt der relative Marktanteil bei 2, so wissen wir, dass das betrachtete Unternehmen Marktführer und sogar doppelt so stark ist wie der zweitgrößte Wettbewerber. Ein relativer Marktanteil von 0,5 verrät umgekehrt, dass der absolute Marktanteil des betrachteten Unternehmens halb so groß ist wie der des Markführers. Die Winterhalter Gastronom GmbH, ein mittelständisches Unternehmen mit Sitz in Meckenbeuren, stellt ausschließlich Spülmaschinen für die Gastronomie und Hotellerie her. In dieser Marktnische hält das Unternehmen gemessen am Umsatz einen absoluten Weltmarktanteil von 20 Prozent, was für sich genommen noch nicht sonderlich beeindruckend ist. Doch der Blick auf den relativen Marktanteil von vier zeigt, dass Winterhalter viermal mehr Umsatz einfährt als der nächst größere Wettbewerber, der folglich über einen absoluten Marktanteil von fünf Prozent verfügt. Dieses Rechenbeispiel zeigt, dass sich die wahre Wettbewerbsstärke eines Unternehmens durchaus vernebeln lässt, je nachdem, ob man den absoluten oder relativen Marktanteil angibt. Im Grunde genommen kann jeder Weltmarktführer sein Die Zielgröße Marktanteil hält noch eine weitere Falle bereit. Im Grunde genommen kann sich jeder zum Weltmarktführer machen, vorausgesetzt, er grenzt den Markt geschickt ab. Ist der definierte Markt beliebig klein, dann steigt der absolute Marktanteil automatisch an. Ihre Wettbewerber schwinden sozusagen mit der Marktdefinition. Insofern ist die geschickte Marktabgrenzung bereits ein Erfolgsfaktor, für den Sie sich nicht sonderlich anstrengen müssen. Wenn Sie alle wichtigen Wettbewerber identifizieren, können sie auch einen realistischen Marktanteil ermitteln und als Zielgröße definieren. Im Subkapitel „Wer sind unsere Wettbewerber?“ haben wir hierzu schon Hinweise gegeben. Bei Prozessoptimierungen kommt man nicht umhin, sich die Durchlaufzeit als wichtige Zielgröße genau anzusehen. Wir sprechen hier auch von einer Führungsgröße als Bestandteil des Führungssystems des Prozesses. Sie stellt eine der wichtigsten Kennzahlen für die Qualität des Prozesses und dient zu dessen Steuerung. Eine ausgedehnte Durchlaufzeit geht in der Regel mit einer erhöhten Ressourcenbindung einher, was direkte Auswirkungen auf die Prozesskosten hat. Zudem quittieren die Kunden lange Durchlaufzeiten häufig mit einer geringeren Zufriedenheit. Wenn ein Käufer sehr lange auf die Auslieferung der bestellten Ware warten muss, ist er alleine deshalb unzufrieden, selbst wenn er an den Produkten als solches nichts auszusetzen hat. Ob der Grund dafür in Verzögerungen bei der Herstellung oder der Auslieferung liegt, wird ihn nicht sonderlich interessieren. Für ihn ist nur von Belang, dass die Ware möglichst zeitnah ausgeliefert wird.
Zielformulierung
107
Ganz anders sieht die Sache aus, wenn der Kunde selbst in den Prozess eingebunden ist und jeden Prozessschritt einzeln erlebt. Das ist beispielsweise beim Reisen, im Restaurant, beim Frisör oder Arztbesuch der Fall. Nehmen wir das Beispiel Reisen. Befragungen haben ergeben, dass über 30 Prozent der Bahnkunden den Zeitaufwand als die wichtigste Nutzendimension einer Bahnreise empfinden. Demnach sind die Reisenden vornehmlich an einer Verkürzung der Reisezeit interessiert. Für die Bahn bedeutet das, Milliarden in neue Strecken und Züge zu investieren. Betrachtet man nur die Durchlaufzeit der Reise, so schneidet im Vergleich zur Bahn meistens das Flugzeug besser ab. Dennoch bevorzugen viele Reisende die Bahn, auch dann, wenn sie keinen preislichen Vorteil bietet. Der Grund dafür liegt in den unterschiedlichen Möglichkeiten der Zeitverwendung im Vergleich zwischen Bahn- und Flugreise. Die Forschungsstelle Bahnmarketing konnte anhand empirischer Studien nachweisen, dass über 80 Prozent der Bahnreisenden die Nutzbarkeit der Reisezeit im Vergleich zu anderen Verkehrsmitteln am höchsten einschätzt. So gaben beispielsweise 73 Prozent der Befragten an, die Reisezeit zum Lesen zu nutzen, 34 Prozent arbeiten Unterlagen durch und 16 Prozent telefonieren – Letzteres nicht immer zur Freude der Mitreisenden. Unter den Geschäftsreisenden arbeiten 82 Prozent am Notebook, 71 Prozent arbeiten Unterlagen durch und 64 Prozent telefonieren. Führt man sich den Reiseprozess im Vergleich zwischen Schiene und Luft vor Augen, wird der systemimmanente Wettbewerbsvorteil der Bahn offensichtlich. Der Anteil der eigentlichen Fahrzeit ist bei der Bahn deutlich größer als beim Fliegen auf vergleichbaren Strecken. Auf der Strecke zwischen Frankfurt und Zürich muss der Flugpassagier rund 50 Minuten Flugzeit einplanen, die schnellste Bahnverbindung dauert hingegen knapp vier Stunden. Jedoch hat der Bahnreisende einen weitaus geringeren zeitlichen Aufwand für die An- und Abreise, da die Bahnhöfe in den jeweiligen Städten liegen. Hinzu kommt, dass der Reisende bei der Bahnfahrt den größten Teil der Zeit an seinem Platz sitzen und insgesamt circa 80 Prozent der Gesamtreisedauer produktiv nutzen kann. Der Vergleichswert bei Flugreisen liegt mit durchschnittlich 37 Prozent deutlich niedriger. Der Grund ist die starke Zersplitterung des gesamten Reiseprozesses beim Fliegen für Check-in, Warten, Sicherheitskontrollen, Einsteigen etc. Die produktive Zeitverwendung wird beim Fliegen zudem durch die eingeschränkte Nutzung elektronischer Geräte begrenzt. Der Betrieb von Mobilfunktelefonen ist bislang sogar vollkommen untersagt. Unser Beispiel zeigt, dass die Durchlaufzeit als wichtige Kenngröße für die Qualität von Prozessen keinesfalls isoliert betrachtet werden darf. Da sowohl die Verkürzung der Reisezeit als auch die Verbesserung der Zeitverwendungsmöglichkeiten einen positiven Einfluss auf die Kundenzufriedenheit haben, besteht zwischen beiden in bestimmten Grenzen eine kompensatorische Beziehung, die berücksichtigt werden muss. Unsere Ausführungen sind zudem kein Plädoyer für eine einseitige Verkürzung der Durchlaufzeit von Prozessen, in die der Kunde eingebunden ist. So wird eine als zu kurz empfundene Behandlung beim Arzt oder ein knappes Beratungsgespräch bei der Bank die Kun-
108
Potenzialanalyse
denzufriedenheit negativ beeinflussen. Ob kurz oder lang, die Durchlaufzeit ist fast immer ein wichtiger Indikator für die Kundenzufriedenheit und damit eine wichtige Führungsgröße für Prozesse. Bei der Formulierung des Zielkatalogs ist auch auf Abhängigkeiten zwischen den Zielen zu achten. Solange diese sich positiv ergänzen und im Einklang mit übergeordneten Unternehmenszielen stehen, ist die Angelegenheit unkritisch. Kommt es jedoch zu Zielkonflikten, müssen Prioritäten gesetzt werden. Eng mit der Frage nach möglichen Zielkonflikten ist die Forderung nach einem ausgeglichenen Zielkatalog verbunden. Hier erfreut sich zum Beispiel die Balanced Scorecard immer noch großer Beliebtheit, worauf wir im Subkapitel „Einseitige Messung vermeiden“ noch genauer eingehen werden.
3.5.3
Wie können Sie die Plausibilität der Ziele überprüfen?
Wenn Ihre Ziele ernst genommen werden sollen, dann müssen diese plausibel sein. Plausibel bedeutet, dass die Ziele erreichbar sind, ohne dass die Mitarbeiter grenzenlos überoder auch unterfordert werden. Und sie müssen sich an einem realistischen Zukunftsszenario orientieren. Daher werden zur Plausibilitätsprüfung gerne Prognosen herangezogen. Wenn die Prognosen für einen bestimmten Markt einen massiven Nachfragerückgang voraussagen, dann sind zweistellige Wachstumsziele in der Regel nicht plausibel und werden von vorneherein nicht ernst genommen. Noch schlimmer ist, sie werden erst gar nicht verfolgt, weil es aus der Sicht des einzelnen Mitarbeiters keine Rolle spielt, ob das Ziel um 40 oder 60 Prozent verfehlt wird. Denn er erwartet so oder so eine schlechte Bewertung durch seinen Vorgesetzten. Das Problem mit Prognosen liegt nun darin, dass sie häufig danebenliegen. Und daran ändern auch ausgeklügelte statistische Verfahren nichts. Musterbeispiele hierfür liefern Jahr für Jahr die Kapitalmarktprognosen der Finanzinstitute. Diese Fehleinschätzung der Aktienmärkte wundert heute vielleicht niemanden mehr, dennoch ist das Ergebnis erschreckend. Markus Spiwoks nahm in einer statistischen Analyse 46 Prognosezeitreihen für die Vermögensverwaltung unter die Lupe. In ausnahmslos allen Fällen lagen die Prognosen der Markteinschätzung so daneben, dass Spiwoks sie für das aktive Portfoliomanagement für absolut ungeeignet hält. Die Prognostiker hatten in Wirklichkeit keinerlei Vorstellung von der zukünftigen Marktentwicklung, stattdessen projizierten sie die Gegenwart in die Zukunft, indem sie sich zum Zeitpunkt der Prognose an der aktuellen Marktlage orientierten. So sah beispielsweise der Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung in Deutschland im November 2007 kein Indiz dafür, dass der Aufschwung in 2008 zum Erliegen kommen sollte. Das Ergebnis ist bekannt. Solche Fehler unterlaufen nicht nur im Finanzbereich. Für die Expo 2000 hatten die Veranstalter mit 40 Millionen Besuchern gerechnet. Am Ende waren es 18 Millionen und
Zielformulierung
109
ein Schuldenberg von 1,2 Milliarden Euro blieb zurück. Da Prognosen die Zukunft häufig nur ungenügend vorhersagen, kann man sich vor derartigen Fehleinschätzungen kaum schützen. Noch fataler sind falsche Prognosen, wenn sie das Unternehmen in den Ruin treiben. Einen der teuersten Megaflops der Wirtschaftsgeschichte lieferte das Sattelitentelefonsystem Iridium. Getragen von der Vision, auch von den entlegensten Punkten der Erde telefonieren zu können, investierten Motorola, General Motors und Kyocera mehr als fünf Milliarden US-Dollar in das Gemeinschaftsunternehmen Iridium. Eine beeindruckende Infrastruktur mit 66 Satelliten stellte die technischen Voraussetzungen für die Kommunikation sicher, auch dort, wo keine konventionellen Mobilfunksysteme zur Verfügung standen. Im November 1998 ging Iridium an den Start. Doch der Erfolg blieb aus. Im August 1999 war Iridium zahlungsunfähig. Dank einer Finanzspritze des Pentagons wurde Iridium über einige Jahre weiterbetrieben. Alleine die sachgerechte Entsorgung der Satelliten für mehr als 50 Millionen US-Dollar Kosten dürfte eine gewichtige Marktaustrittsbarriere gewesen sein. Was waren im Zeitalter der mobilen Kommunikation die Gründe für dieses ökonomische Desaster? Im Kern haben sich die Iridium-Visionäre vor allem in der Prognose des Kundennutzens verschätzt. Im Vergleich zu konventionellen terrestrischen Mobilfunksystemen bot Iridium nur für ein begrenztes Anwendungsfeld Vorteile: Expeditionen, Ölförderung, abgelegene Bauprojekte und dergleichen. Zudem waren Satellitentelefongeräte mit etwa zwei Kilogramm Gewicht schlicht zu schwer und der Stückpreis von circa 3.000 Euro sowie die Telefongebühren von stattlichen fünf Euro pro Minute eindeutig zu teuer. Ungeachtet dieser Nachteile wurde das Marktpotenzial viel zu hoch angesetzt. Die für das Jahr 2000 ursprünglich prognostizierte Zahl von fünf Millionen Kunden wurde weit verfehlt. Nach Schätzungen des Wall Street Journals waren es circa 20.000. Nach dem Relaunch konnten bis September 2008 305.000 Kunden gewonnen werden. Prognosen können zur Manipulation des Kundenverhaltens missbraucht werden Je nachdem, welche Prämissen man für richtig hält, zum Beispiel im Hinblick auf das zukünftige Kundenverhalten, kommen Prognosen zu unterschiedlichen Ergebnissen. Problematisch wird die Sache dann, wenn Prognosen zur Manipulation des Kundenverhaltens missbraucht werden. Die Diskussion zwischen Boeing und Airbus über den Bedarf an Großraumflugzeugen liefert ein solches Beispiel. Im Jahr 1999 kündigte Airbus an, bis 2006 den A380 zu bauen, der das bis dahin größte Passagierflugzeug der Welt, die Boeing 747-400, von seiner Spitzenstellung verdrängen soll. Während der Boeing-Jumbo knapp 400 Passagiere transportieren kann, fasst der A380 je nach Bestuhlung zwischen 481 und 656 Passagiere. Zwischen den Flugzeugbauern ist seit Jahren ein Streit über die Frage entfacht, ob überhaupt ein Markt für ein solches Mega-Flugzeug existiert. Die jeweiligen Prognosen der beiden Konkurrenten liegen
110
Potenzialanalyse
zwar um Dimensionen auseinander, liefern dennoch ein klares Bild von der jeweiligen Intention, die natürlich die Planungsstrategen der Airlines beeinflussen soll: Während Boeing gerade einmal einen Bedarf von rund 300 Maschinen in den nächsten 20 Jahren sah, wollte Airbus eine Nachfrage von circa 1.500 Maschinen dieser Größenklasse ausgemacht haben. Der US-Hersteller ging davon aus, dass die Passagiere mehr von Punkt zu Punkt (Point-to-Point) reisen werden, ohne in großen Verkehrsdrehscheiben (Hubs) wie Frankfurt oder Chicago umzusteigen. Airbus favorisierte indes das so genannte Hub-Konzept, nach dem Passagiere aus dezentralen Flughäfen in die Hubs eingeflogen werden und von dort aus auf großes Langstreckengerät umsteigen. Für die beiden Hersteller ging es beim Jonglieren mit ihren Prognosen darum, Trends im Luftverkehrsmarkt aufzuzeigen, nach denen die Airlines ihre Flottenpolitik ausrichten sollen. Die großen internationalen Airlines setzen schon seit einigen Jahren erfolgreich auf das Hub-Konzept, was die Annahme von Airbus stützte. Gleichzeitig bekam auch Boeing durch die steigende Anzahl erfolgreicher Billig-Airlines Rückenwind, die ausschließlich Point-to-Point-Strecken mit kleineren Flugzeugtypen bedienen. Noch gilt abzuwarten, wer Recht behält. Genauer betrachtet handelt es sich um eine gigantische Wette. Denn wer will ernsthaft behaupten, er könne voraussehen, wie sich der Luftverkehr in den nächsten 20 Jahren entwickelt? Was schließen wir daraus? Die Wahrscheinlichkeit, dass Sie mit oder ohne ausgeklügelten Prognosen auf das richtige Pferd setzen, ist offensichtlich gleich groß. Sollten wir deshalb auf Prognosen gänzlich verzichten, wenn wir geeignete Zielgrößen suchen? Mitnichten, aber ein gehöriges Maß an Skepsis ist angebracht. Und wenn immer möglich, unterziehen Sie Ihre Prognosen einer Überprüfung, beispielsweise durch die Gegenüberstellung mehrerer Prognosen. Möglicherweise liegt die tatsächliche Anzahl der verkauften Großraumflugzeuge irgendwo zwischen den Prognosewerten von Airbus und Boeing? Auch wenn zahlreiche Unternehmen aufgrund des volatilen Markumfelds überhaupt keine Prognose mehr wagen – zumindest keine, die sie mit Blick auf die Entwicklung des eigenen Aktienkurses veröffentlichen – sollten Sie diesem Beispiel in Ihrem Reorganisationsvorhaben nicht folgen. Es ist zwar nachvollziehbar, dass man sich angesichts der zahlreichen Unsicherheitsfaktoren, wie Währungsrisiken, Börsenflaute und der Einflüsse aus politischen Entwicklungen nicht die Blöße einer vollkommenen Fehlprognose geben möchte. Aber gerade in schwierigen Zeiten sind Prognosen als Grundlage für eine vernünftige Zielformulierung unverzichtbar, wenngleich große Sorgfalt bei der Bewertung der Prognosen angebracht ist. Das gilt auch für Ihr Projekt. Alternativ oder zusätzlich zu Prognosen lassen sich Zielwerte mit Hilfe von Benchmarking oder der Entwicklung verschiedener Szenarios bestimmen. Wenn Sie im Rahmen einer Best Practice-Analyse sich mit Ihren besten Wettbewerbern vergleichen, stellen Sie unter Umständen fest, dass diese bereits Ihre Ziele übertreffen. Wenn Sie im Privatkundengeschäft die Durchlaufzeit des Kreditprüfungsprozesses von fünfzehn auf fünf Tage
Zielformulierung
111
senken wollen, Ihr stärkster Konkurrent jedoch nur zwei Tage braucht, dann liegt Ihre Messlatte definitiv falsch. Benchmarking liefert aber nicht nur für prozessbezogene Ziele wertvolle Vergleichszahlen. Während die amerikanische Fluglinie US Airways 2004 durchschnittlich 11 Dollar-Cent Kosten pro Sitz und Flugmeile hatte, kam die Billig-Airline JetBlue mit knapp 6 Dollar-Cent aus. Das sind 54 Prozent weniger. Auch wenn sich die Geschäftsmodelle von traditionellen Fluglinien im Vergleich zu den meist jungen BilligAnbietern stark unterscheiden, sollten die etablierte Airlines diesen Vergleichswert nicht ignorieren. Schließlich ist die 1998 gegründete JetBlue keine „Flugklitsche“, sondern avancierte bis 2007 mit einer Flotte von 134 Flugzeugen zur achtgrößten Fluggesellschaft der USA. Ein Grund für die geringen Kosten der Billig-Airlines liegt unter anderem in deren Prozessen begründet. So benötigt beispielsweise Southwest Airlines oder auch Ryanair lediglich 25 Minuten, um ein Flugzeug „umzudrehen“, also nach der Landung abzufertigen und mit neuen Passagieren abheben zu lassen. Im Branchenvergleich ist das ein hervorragender Wert, der bei etablierten Airlines häufig doppelt so hoch ist. Oftmals müssen Sie nicht einmal zu Ihren Wettbewerbern schauen, sondern sich nur mit anderen Einheiten in Ihrem Unternehmen vergleichen. Peugeot Citroën hat in einem internen Benchmarking festgestellt, dass einige seiner 14 Produktionsstätten für die Ersatzteilbelieferung doppelt so viel Kosten produzieren wie andere konzerneigene Produktionsstätten. Daraus folgte unter anderem die Zielsetzung, 350 Millionen Euro durch Prozessoptimierungen in der Produktion bis zum Jahr 2006 einzusparen. Eine ausgefeilte Szenarioanalyse, bei der mehrere denkbare Zukunftszustände in ausgeklügelten Modellen bewertet werden, wird zwar von der Fachwelt aufgrund ihrer fraglichen Treffsicherheit genauso bemängelt wie statistische Prognosemodelle. Dennoch können Szenarien sehr hilfreich sein. Ermitteln Sie zum Beispiel die möglichen Ergebnisse für den besten, einen mittelguten und den schlechtesten aller denkbaren Zustände. Damit verschaffen Sie sich ein Bild darüber, was passieren könnte, und Sie können eine Zielgröße definieren, die Sie plausibel vertreten können. Nicht zuletzt kann ein gutes Gespür für die Marktentwicklung besser sein als jede Prognose. Henry Mintzberg kommt nach der Analyse von Prognosen seiner Kollegen in „The Rise and Fall of Strategic Planning“ zu einem solchen Ergebnis. Trotzdem wendet er ein, dass Prognosen eine gute Argumentationshilfe sind, weil wir offensichtlich lieber unsicheren Zahlen vertrauen, als dem Bauchgefühl eines Managers. Und an dieser Erkenntnis ist sicherlich viel Wahres.
3.5.4
Der Weg zu wohl formulierten Zielen
Wie leiten Sie Ziele für Ihr Reorganisationsprojekt ab? Welche Mindestanforderungen müssen diese Ziele erfüllen? Und wie sehen Beispiele für wohl formulierte Ziele aus?
112
Potenzialanalyse
Die erste Frage, wie Sie Ziele für Ihr Projekt ableiten, wird in der folgenden Abbildung skizziert. Leiten Sie aus der Unternehmens- oder Unternehmensbereichsstrategie übergeordnete Ziele ab. Diese bezeichnen wir als Key Performance Indicator. Um einen ausgewogenen Zielkatalog zu erreichen, definieren Sie Zielkategorien in Analogie zu den Dimensionen der Balanced Scorecard, die wir im Abschnitt „Einseitige Messung vermeiden“ erläutern. Formulieren Sie zu jeder Zielkategorie Detailziele, die als Führungsgrößen für die Steuerung und das Controlling von Prozessen dienen.
Übergeordnetes Übergeordnetes Ziel Ziel
Key Performance Indicator Zielkategorie Zielkategorie Finanzen • Prozesskosten • Umsatz mit Prozessleistung • Kapitalmittelbindung im Prozess • RessourcenVerbrauch
Markt / Kunde • Marktanteil • Anzahl Kontaktpunkte zum Kunden / Lieferanten • Reklamationsquote
Prozesse
Innovation
• Qualität der Prozessleistung • Durchlaufzeit • Termintreue • Verfügbarkeit der Prozessleistung
• Innovationsgrad der Prozesse • Innovationsgrad der Prozessleistung • Innovationsgrad der unterstützenden Technologie
Prozesse Prozesse
Führungsgrössen Führungsgrössen (Detailziele) (Detailziele)
Steuerung Steuerung und und Controlling Controlling der der Prozesse Prozesse
Abbildung 18: Ableiten von Zielen für die Prozessoptimierung
Bei der Formulierung der Ziele müssen Sie folgende Mindestanforderungen beachten: Ihre Ziele müssen ausnahmslos quantifizierbar und plausibel sein. Geben Sie einen Zeitpunkt an, bis zu dem die Ziele erreicht werden müssen. Achten Sie darauf, dass Ihre Reorganisationsziele mit den übergeordneten Unternehmenszielen im Einklang stehen. Das Projektteam muss über die erforderlichen Stellhebel verfügen, um die geeigneten Maßnahmen zum Erreichen der Ziele ergreifen und durchsetzen zu können.
Zielformulierung
113
Grenzen Sie Ihre Ziele klar von Maßnahmen ab. Verwenden Sie bei der Zielformulierung die Sprache der Mitarbeiter, die es betrifft. Nichts ist irritierender als unverständliche Ziele. Achten Sie auf einen ausgewogenen Zielkatalog. Ihre Ziele sollten unterschiedliche Kategorien wie Prozesse, Finanzen, Mitarbeiter und dergleichen umfassen. Achten Sie auf Interdependenzen zwischen den Zielkategorien. Überprüfen Sie die Plausibilität Ihrer Ziele, aber vertrauen Sie nicht blind auf jede Prognose. Ignorieren Sie nicht – trotz aller Rechnerei – Ihr Bauchgefühl. Eine Auswahl typischer Kategorien, dazugehöriger Ziele sowie möglicher Kennzahlen zur Messung sind in Tabelle 6 beispielhaft dargestellt. Dass sich die Mühe, wohl formulierte Ziele zu definieren, lohnt, belegt eine globale Studie der Unternehmensberatung McKinsey aus dem Jahr 2006: Von jenen Unternehmen, die angaben, ihre Change Management-Maßnahme erfolgreich umgesetzt zu haben, gaben 76 Prozent an, dass sie klare, eindeutige Ziele für das Veränderungsvorhaben für die nächsten ein bis zwei Jahre formuliert hatten.
114
Potenzialanalyse
Tabelle 6: Beispiele für Ziele und Kennzahlen zur Messung der Zielerreichung Kategorie Prozess / Struktur
Finanzen
Qualität
Technologie
Mitarbeiter
Markt / Kunde
Ziele
Kennzahlen
Durchlaufzeit
Gesamt-Durchlaufzeit / Durchlaufzeit von Prozessschritt X / Verhältnis zwischen Bearbeitungszeit sowie Liege- und Transportzeit
Bereichsübergreifende Schnittstellen im Prozess
Anzahl Schnittstellen für einen Prozessschritt
Kosten
Sach- / Personal- / Prozesskosten der Einheit / Rentabilität des Produkts
Umsatz
Umsatz pro Produkt / Segment
Ertrag
Beitrag der Einheit zu Gewinn / EBIT
Ausschuss (Produkt)
Ausschussrate
Gewährleistungen (Produkt)
Anzahl Reparaturen während Gewährleistungspflicht
Beratungsqualität (Service)
Anzahl wertsteigender Anlageempfehlungen im Private Banking
Zuverlässigkeit
Technische Verfügbarkeit in Prozent
Wartungsaufwand
Anzahl der Programmierstunden für eine Software-Änderung / Anzahl der Wartungsstunden für eine Maschine
Kompatibilität
Anzahl von Schnittstellen in einem Software-System
Qualifikation
Anteil bestimmter Berufsabschlüsse / definierter Index für Führungsqualität
Mitarbeiterzufriedenheit
Definierter Mitarbeiterzufriedenheitsindex
Marktanteil
Marktanteil pro Produkt / Segment
Absatz
Absatz pro Produkt / Segment
Kundenzufriedenheit
Definierter Kundenzufriedenheitsindex / Reklamationsquote
Kundentreue
Anzahl Wiederkäufe
Zielformulierung
115
Wir fassen die Methodenkomponenten der Zielformulierung wie folgt zusammen: Tabelle 7: Methodenkomponenten der Zielformulierung Komponente Vorgehensphase
Potenzialanalyse
Aktivitäten
Zielformulierung
Ergebnisse
Zielkatalog mit ausgewogenen, messbaren Zielen für das Redesign
Techniken
• Checklisten für die Zielformulierung • Balanced Scorecards • Plausibilitätscheck durch Prognosen, Benchmarking, Best Practice oder Szenario-Analyse
Rollen
• Projektauftraggeber • Projektsponsor • Steuerungsgremium (muss „hinter den Zielen stehen“) • Projektleiter • Projektteam
117
4 Redesign – Gratwanderung zwischen Kreativität und Faustregeln Das Redesign wäre einfach, wenn Sie Ihre aktuellen Prozesse in ein Computerprogramm eingeben könnten und es nach einer kurzen Rechenpause den optimalen Prozess auswerfen würde. Das funktioniert nur, wenn die Prozessoptimierung einer klar definierten Logik folgt. Aber das hieße, Kreativität müsste nach Faustregeln ablaufen – was ein Widerspruch in sich ist. Kreativität und Regeln schließen sich in letzter Konsequenz gegenseitig aus. Die Arbeit im Redesign stellt eine Gratwanderung zwischen beiden Polen dar, was im Projektalltag zu einem Dilemma führt: Einerseits ist kreatives Denken unabdingbar, um wahrhaft neue Lösungen zu schaffen. Andererseits darf das Vorgehen nicht chaotisch und die daraus resultierenden Prozesse müssen praktikabel sein. Beides schränkt die Kreativität wiederum ein. Die unreflektierte Aufforderung zum radikalen Umbruch belegt lediglich ein gutes Gespür für das, was begeistert Die Kunst besteht darin, die vorhandenen Restriktionen nicht aus dem Auge zu verlieren, ohne dabei die Kreativitätspotenziale im Keim zu ersticken. Markante Sprüche wie beispielsweise jener der beiden Erfolgsautoren Michael Hammer und James Champy in ihrem legendären Buch „Reengineering the Corporation“, der da lautet: „Radical redesign means, disregarding all existing structures and procedures“, belegen zunächst nur eins: Die Autoren verfügen über ein ausgezeichnetes Gespür dafür, was sich als Heilslösung für jedes Unternehmen verkaufen lässt. Der Ruf nach radikalen Lösungen – ungeachtet jeglicher Restriktionen – scheitert aber nicht nur häufig an den dafür erforderlichen Ressourcen, sondern ist zudem weder praktikabel noch politisch durchsetzbar. Trotzdem steckt darin ein wichtiger Kern: Käme es nie zu radikalen Veränderungen, gäbe es keine bahnbrechenden Innovationen. Bankgeschäfte würden immer noch in der Filiale getätigt, Flugpassagiere würden zum Check-in immer noch in der Schlange vor dem Schalter stehen und Musikfreunde müssten nach wie vor die konventionellen Tonträger im Laden kaufen. Diese drei Beispiele skizzieren nur einen kleinen Ausschnitt, wie sehr sich die Prozesse in den vergangenen Jahren – auf der Anbieter- wie auch auf der Kundenseite – verändert haben. Dies alles wäre nicht ohne das grundsätzliche Überdenken des Gegebenen machbar. Um diesem Spagat aus erforderlicher Kreativität und Faustregeln Rechnung zu tragen, haben wir einen Denkrahmen für das Redesign entworfen, der hilft, den Blickwinkel auf die verschiedenen Ebenen der Veränderung zu richten und so die Entwicklung der Redesign-Maßnahmen entsprechend auszurichten. Danach zeigen wir auf, wie Lösungen für die Optimierung gefunden und ausgebaut werden können. Bereits während der Suche
E. Best, M. Weth, Process Excellence, DOI 10.1007/978-3-8349-8950-5_4, © Gabler Verlag | Springer Fachmedien Wiesbaden GmbH 2010
118
Redesign
nach geeigneten Redesign-Maßnahmen müssen diese auf ihr Zielerreichungspotenzial überprüft werden. Die Wirksamkeit des Redesigns ermitteln wir mit Hilfe des Target Activity Grid: Es erlaubt eine systematische Einschätzung, inwieweit die zuvor formulierten Ziele mit den bislang geplanten Redesign-Maßnahmen erreicht werden können oder ob die Maßnahmen möglicherweise sogar kontraproduktiv sind. Niemand sollte dem Irrtum verfallen, die optimale Lösung irgendwo abschreiben zu können. Trotz aller praktischen Vorschläge hängt diese von den spezifischen Anforderungen des jeweiligen Unternehmens und den aktuellen Rahmenbedingungen ab. Entsprechend ist die Entwicklung von Redesign-Maßnahmen stets ein „Unikat“, das nur schwerlich auf andere Unternehmen übertragen werden kann. Andererseits bietet die Entwicklung von unternehmensspezifischen Maßnahmen die Chance, innovative Lösungen zu finden, die einen strategischen Wettbewerbsvorteil schaffen können.
4.1 Denkrahmen für das Redesign Der Denkrahmen für Process Excellence aus Kapitel 1 hilft, während des Redesigns den Blick für das Ganze im Auge zu behalten. Hier unterscheiden wir zwischen den Bausteinen des Prozessmodells (Prozessleistung, Prozesskette, Ressourcen, Führungssystem) sowie den Impulsgebern für die Reorganisation (Markt, Strategie, Rahmenbedingungen). Bevor sich das Projektteam auf die Entwicklung von Redesign-Maßnahmen stürzt, müssen die folgenden Fragen geklärt werden: Tragweite des Redesigns: Welche Tragweite der Veränderungen soll durch das Redesign erreicht werden? Wie tiefgreifend soll das Redesign gehen: Veränderung im Rahmen des Gegebenen oder grundlegendes Überdenken der aktuellen Prozesse und Organisationsstruktur? Sollen die Lieferanten und gegebenenfalls sogar Wettbewerber in die Reorganisation einbezogen werden? Inwieweit werden die korrespondierenden Kundenprozesse von der Optimierung der eigenen Prozesse tangiert? Impulse und Restriktionen: Woher kommen einerseits Impulse für das Redesign? Wodurch wird andererseits der Gestaltungsspielraum bei der Entwicklung von Redesign-Maßnahmen eingeschränkt? Ansatzpunkte: An welchen Bausteinen des Prozessmodells setzen die RedesignMaßnahmen an: Prozessleistung, Prozesskette, Ressourcen oder Führungssystem? Gestaltungshilfen: Welche Gestaltungshilfen für die Entwicklung von RedesignMaßnahmen sind geeignet? Mit der Antwort auf diese Fragen werden nicht nur wichtige inhaltliche Aspekte für die konkrete Ausrichtung des Redesigns festgelegt, sondern auch das Mandat und die damit verbundenen Kompetenzen für das Projektteam definiert. Bleiben diese Fragen unge-
Denkrahmen für das Redesign
119
klärt, ist es so gut wie sicher, dass das Projektteam sich auf operative Redesign-Maßnahmen beschränkt, die eine durchaus positive Wirkung in den betrachteten Prozessen haben können – jedoch nicht zu dem „großen Wurf“ für das Unternehmen führen werden.
4.1.1
Tragweite des Redesigns
Die richtige Herangehensweise an das Redesign beginnt somit mit der Frage, welche Tragweite die Veränderungen haben sollen. In der Praxis hat sich die Unterscheidung auf drei Ebenen bewährt: Prozess: Hier geht es um operative Anpassungen, ohne dabei die gegebene Prozesslandschaft grundlegend in Frage zu stellen. Betroffen sind ausschließlich unternehmensinterne, häufig sogar nur bereichsinterne Einheiten. Kunden und Lieferanten nehmen diese Veränderungen, wenn überhaupt, nur indirekt wahr. Wertschöpfung: Tiefgreifender sind Anpassungen in der Art und Weise, wie ein Unternehmen seine Wertschöpfung betreibt. Dabei werden in der Regel die Prozesse der Lieferanten und in Einzelfällen sogar die der Wettbewerber einbezogen. Geschäftsmodell: Anpassungen des Geschäftsmodells sind von grundsätzlicher Natur und führen zu gravierenden Veränderungen, weil sie häufig die Positionierung des Unternehmens im Markt prägen. In aller Regel haben diese Einfluss auf jene Prozesse, die Schnittstellen zu den korrespondierenden Kundenprozessen aufweisen. Auf Letztere werden wir bei der Entwicklung von Redesign-Maßnahmen in Abschnitt 4.2.1 (Korrespondierende Kundenprozesse) noch ausführlich eingehen. Im Folgenden erläutern wir die drei genannten Ebenen und zeigen anhand von Beispielen auf, wie diese in der Praxis umgesetzt werden können: Prozess In Reorganisationsprojekten findet die Mehrzahl der Veränderungen auf der Ebene der Prozesse statt. Dabei geht es beispielsweise um das Parallelisieren von Prozessschritten, das Eliminieren von nicht-wertschöpfenden Tätigkeiten oder das Zusammenlegen von zuvor getrennten Funktionen. Die Veränderungen können zwar spürbare Verbesserungen wie kürzere Durchlaufzeiten oder geringere Kosten bewirken. Jedoch wird das Gegebene nicht grundsätzlich in Frage gestellt, weshalb das Verbesserungspotenzial begrenzt ist. Sinnvoll sind rein prozessbezogenen Anpassungen, wenn bereichs- oder abteilungsinterne Prozesse mit wenigen Schnittstellen zu anderen Bereichen optimiert werden sollen. Im Rahmen eines kontinuierlichen Prozessmanagements können solche marginalen Verbesserungen angestoßen werden, wenn beispielsweise bestimmte Prozesskennzahlen von zuvor definierten und erhobenen Toleranzwerten abweichen.
120
Redesign
Ein Grund für diesen engen Betrachtungswinkel kann darin liegen, dass das Projektteam den Ist-Prozess „mental verinnerlicht“ hat. Die intensive Auseinandersetzung fördert einerseits eine Fülle von Ideen für kleinere Veränderungen zutage. Andererseits führen diese selten zu einem grundlegenden Überdenken des Status quo. Dies trifft umso mehr zu, je mehr Mitarbeiter aus betroffenen Bereichen im Projektteam agieren. Ein weiterer Grund für die Entwicklung rein operativer Redesign-Maßnahmen resultiert aus dem limitierten Kompetenzrahmen des Projektteams. Häufig liegt kein Mandat vor, Veränderungen über Bereichsgrenzen hinweg zu entwickeln. Wertschöpfung Veränderungen, die die Wertschöpfung des Unternehmens betreffen, gehen weit über die operativen Veränderungen innerhalb einer gegebenen Prozesslandschaft hinaus. Hier geht es um die Frage, wie ein Unternehmen die Leistungserbringung grundsätzlich gestaltet: Welche Fertigungsverfahren werden eingesetzt? Wie hoch soll der Automatisierungsgrad sein? Welche Leistungen werden selbst erstellt, welche werden fremdbezogen? Redesign-Maßnahmen, die diese Aspekte berücksichtigen, tangieren häufig die Lieferanten und mitunter sogar die Wettbewerber – was sich gegenwärtig verstärkt in der Automobilindustrie abzeichnet. Ein Beispiel für Veränderungen in der Wertschöpfung liefert die Energiebranche. Hier vollzieht sich ein Wandel von der zentralen Energieproduktion in Großkraftwerken hin zu dezentralen Einheiten. Laut einer Erhebungen des Bundesverbandes der Energie- und Wasserwirtschaft (BDEW) haben Anfang 2009 in Deutschland 470.000 Erzeugungsanlagen für erneuerbare Energien Strom erzeugt. Dabei betrug die installierte Leistung erneuerbarer Energien gut 38.100 Megawatt (MW). So wird bereits heute ein nennenswerter Teil der Energie in kleineren Systemen wie Solaranlagen, Windkraftparks oder kleineren Kraftwerken erzeugt. Um die Energie zu verteilen, sind vollkommen neue Technologien für den Energietransport erforderlich – insbesondere, wenn die Energieproduktion von unsteten Quellen wie Wind und Sonne abhängt. Wie volatil die Windenergie ist, zeigt die Statistik für den Januar 2010. Hier kam es innerhalb weniger Tage zu Schwankungen zwischen einigen hundert bis zu 18.000 Megawatt in der Spitze. Sogenannte „Smart Grids“, intelligente Stromnetze, sollen helfen, den Bedarf der Stromabnehmer wie Haushalte und Industriebetriebe optimal mit dem Angebot der Energieerzeugungseinheiten in Einklang zu bringen. Als Vorbild dient das Internet, das Millionen von Nutzern miteinander verbindet. Die Deutsche Telekom hat eine eigene Abteilung mit 150 Mitarbeitern für die „Machine-2-Machine“-Kommunikation eingerichtet. Dabei geht es unter anderem darum, elektrische Geräte wie beispielsweise Spülmaschinen mit einer Internetadresse auszustatten. Die Maschinen können bei einem Überangebot an Energie über das Internet gestartet werden und so zu einem Ausgleich zwischen Angebot und Nachfrage im Strommarkt beitragen. Das Beispiel verdeutlicht, wie stark sich die Wertschöpfung im Energiesektor geändert hat und in Zukunft noch ändern wird. Die Prozesse etablierter Anbieter, neuer Marktteilnehmer und der Kunden
Denkrahmen für das Redesign
121
vernetzen sich zunehmend. Zudem entstehen vollkommen neue Prozesse, wie das Beispiel der dezentralen Energieproduktion zeigt. Veränderungen in der Wertschöpfung sind auch in der Automobilindustrie zu beobachten. Hier kommt es vermehrt zu Kooperationen zwischen Wettbewerbern. So entwickeln beispielsweise die Erzfeinde BMW und Daimler gemeinsam einen Hybridantrieb. Skaleneffekte werden auch durch die gemeinsame Produktion erzielt: PSA Peugeot Citroën baut zusammen mit Toyota die Modelle Toyota Aygo, Citroën C1 und Peugeot 107. Das jüngste Beispiel liefert die 2010 beschlossene Kooperation zwischen Daimler, Renault und Nissan. Renault und Nissan sind bereits seit Jahren eng miteinander verbunden und teilen sich sogar einen Konzernchef, Carlos Ghosn. Das europäisch-asiatische Bündnis wird mit Daimler eine Reihe von Projekten eingehen: Für den Smart und den Renault Twingo soll eine gemeinsame Fahrzeugarchitektur entwickelt werden. Renault wird die kleinvolumigen Motoren für die nächste Smart-Generation sowie die neue Mercedes A- und B-Klasse liefern. Daimler produziert die großen Motoren für das Flagschiff von Nissan, den Infiniti. Und die Marke Mercedes wird auf der Basis des Renault Kangoo einen eigenen Lieferwagen anbieten. Die Gründe für die eher unfreiwilligen und häufig schwierigen Kooperationen zwischen Wettbewerbern liegen in den ökonomischen Zwängen, denen die Autobauer heute ausgesetzt sind. Dabei stehen sowohl der Zugang zu neuen Märkten als auch die Realisierung von Skaleneffekten im Vordergrund. So kaufte VW einen 20-Prozent-Anteil des japanischen Autobauers Suzuki, ergänzte damit seine Produktpalette im Kleinstwagensegment und verbesserte seine Marktposition im aufstrebenden Automobilmarkt in Indien. Während VW im Jahr 2009 mit einem Prozent Marktanteil im indischen Markt faktisch nicht wahrgenommen wurde, verfügte Suzuki dort über einen Marktanteil von 53 Prozent. Fiat bezahlte den Erwerb eines 35-Prozent-Aktienpakets an Chrysler unter anderen mit seinem Fachwissen über den Bau von Kleinwagen – ein Feld, das amerikanische Autobauer notorisch verschlafen haben und in dem die Italiener von jeher eine führende Position haben. Im Gegenzug öffnet Chrysler für die Italiener den US-amerikanischen Automarkt, in dem Fiat unterrepräsentiert ist. Die Realisierung von Skaleneffekten wird für die einzelnen Unternehmen immer schwieriger. Weltweit verfügen die Autoschmieden über erheblichen Überkapazitäten und begegnen diesem Problem durch die Ausdehnung ihrer Modellpaletten bis in die kleinste Nische. Die Konsequenz daraus sind verhältnismäßig geringe Stückzahlen pro Modellvariante, was zu relativ hohen Stückkosten führt. Auf der anderen Seite steigen die Entwicklungskosten – insbesondere für die Erforschung neuer Antriebstechnologien – in Dimensionen, die selbst für finanzstarke Konzerne im Alleingang nicht mehr zu stemmen sind. Vor diesem Hintergrund wird es in Zukunft verstärkt zu Kooperationen zwischen Wettbewerbern kommen – auch wenn diese eher unfreiwilligen Zweckgemeinschaften ähneln. Die Beispiele verdeutlichen, welche Tragweite Veränderungen auf der Ebene der Wertschöpfung haben können. Es liegt auf der Hand, dass diese unternehmensübergreifenden
122
Redesign
Kooperationen mit Lieferanten und Wettberbern besonders hohe Anforderungen an die Prozesse stellen – bei allen Beteiligten. Geschäftsmodell Die größte Tragweite der Veränderungen haben Redesign-Maßnahmen, die das Geschäftsmodell des Unternehmens tangieren. Hier werden mitunter neue Märkte geschaffen oder neue Kundensegmente geöffnet. Es werden Produkte und Services generiert, die bislang nicht existierten. Häufig kristallisieren sich dabei Wesensmerkmale heraus, die das Produkt, die Marke oder sogar das gesamte Unternehmen in besonderer Weise prägen und damit ein Differenzierungsmerkmal zu den Wettbewerbern schaffen. Darin liegt der wesentliche Unterschied zu Veränderungen auf der Ebene der Wertschöpfung. Während Letztere zwar durchaus grundlegend für das Unternehmen, seine Lieferanten und gegebenenfalls Wettbewerber sein können, wird die Veränderung auf der Ebene des Geschäftsmodells vom Kunden explizit wahrgenommen. Dies nicht zuletzt, weil der Ansatzpunkt der Veränderung sehr häufig die korrespondierenden Kundenprozesse sind. Die folgenden Beispiele illustrieren diese Art der Veränderung. Am 23. Oktober 2001 fand in Cupertino in Kalifornien eine Pressekonferenz statt, die mit großer Spannung erwartet wurde und angesichts der großen Erwartungen eher zu Enttäuschung führte. Die Welt konnte sich damals noch nicht vorstellen, dass dieses kleine, reduzierte Gerät, das Steve Jobs, der CEO von Apple, vorstellte, bald die Prozesse in der Musikindustrie von Grund auf ändern würde. Doch der iPod sollte ein Verkaufsschlager und das herausragende Produkt von Apple im neuen Jahrtausend werden – und das trotz seines hohen Einführungspreises von 400 US-Dollar. Verantwortlich dafür war nicht nur das klare Design mit der innovativen Nutzerführung über das später entwickelte Click Wheel, sondern die dazugehörige Strategie. Diese sah die Kopplung von Hardware- und Content-Lieferant vor: Apple wollte nicht nur das Gerät zum Abspielen von digitaler Musik und Videos liefern, sondern die Inhalte gleich dazu. Die Plattform dafür lieferte Apple im Sommer 2003 mit der Software iTunes und dem dazugehörigen Online-Store für digitale Musik, Videos und Filme. Durch dieses vollkommen neue Geschäftsmodell konnte Apple später den Preis für den iPod senken und zum dominierenden Player werden. iTunes führt zu radikalen Veränderungen in den korrespondierenden Kunden- und Lieferantenprozessen Dass diese Strategie so erfolgreich wurde, ist umso bemerkenswerter, wenn man die Tatsache in Betracht zieht, dass die Nutzung von iTunes-Inhalten sehr eingeschränkt wurde. Die Inhalte konnten bis 2009 durch das proprietäre AAC-Format ohne Umwege nur auf dem iPod und seinen „kleinen Brüdern“ wie dem iPod Nano abgespielt werden. Auch der Kopierschutz über das so genannte Digital Rights Management (DRM) war bis 2007 sehr hoch. Letzteres war aber vor allem ein Eingeständnis an die Musikindustrie.
Denkrahmen für das Redesign
123
Es liegt auf der Hand, dass dieser neue Aspekt von Apple’s Geschäftsmodell nicht ohne Auswirkungen auf die Prozesse geblieben ist. Die korrespondierenden Kunden- und Lieferantenprozesse haben sich gravierend verändert: Mit der Musikindustrie als Content-Lieferant sind neue Lieferanten hinzugekommen, die hohe Ansprüche an die Wahrung ihrer immateriellen Rechte stellen. Gegenüber den Endkunden hat Apple über iTunes eine neue Kundenschnittstelle gewonnen. Dort müssen Millionen von Mikrobeträge abgewickelt werden, was beim Start von iTunes noch keine Selbstverständlichkeit war. Um den iPod herum entstand eine ganze Reihe von Weiterentwicklungen bis hin zum iPhone, von Accessoires und Software. Dies hat Einfluss auf die Entwicklungs- und Einkaufsprozesse gehabt. Letztes i-Tüpfelchen auf diesem Pfad war die Entwicklung des iPads. Da Apple für diesen Mini-Computer keine Mikrochips auf dem Markt fand, die für eine lange Batterielaufzeit leistungsfähig und effizient genug waren, wurden über den Zukauf eines Chip-Herstellers eigene Chips entwickelt. Damit ist Apple in eine weitere Domäne seiner Lieferanten eingedrungen. Hier wurden also Prozesse nach der klassischen Make-or-Buy-Entscheidung „ingesourcet“. Gleichzeitig hat Apple indirekt auf die Prozesse seiner Lieferanten und Partner Einfluss genommen. Auf der einen Seite musste die Musikindustrie durch die Digitalisierung in wenigen Jahren eine enorme Wandlung ihres Geschäftsmodells durchmachen. Im Jahr 2009 wurden 25 Prozent des digitalen Musikumsatzes in den USA über iTunes abgewickelt. Insgesamt stieg der Weltmarkt für Musikdownloads in den Jahren 2005 bis 2009 von 1,2 Milliarden US-Dollar auf 4,2 Milliarden US-Dollar. Zugleich schrumpfte die Tonträgerindustrie. Alleine in Deutschland sank deren Umsatz in den Jahren 2002 bis 2009 von 2,2 Milliarden Euro auf 1,53 Milliarden Euro, was einem Rückgang von rund 30 Prozent entspricht. Auf der anderen Seite erfuhr die Software-Industrie neue Impulse: Durch iPod, iPhone & Co. entstanden neue Absatzquellen für Spiele und weitere Software. Mittlerweile ist gerade durch das iPhone mit seinen legendären „Apps“ eine neue Sparte von kleinen Entwicklern entstanden, die diese für Cent-Beträge verkaufen. Der Erfolg blieb nicht aus: Zeitgleich mit dem Verkaufsstart des iPad Ende Mai 2010, konnte Apple den Erzrivalen Microsoft als weltgrößtes Technologieunternehmen – gemessen am Börsenwert – überholen. Der Genfer Autosalon 2010 zeigte sich im Vergleich zu den Vorjahren ganz „grün“. 16 Prozent der präsentierten Modelle setzten auf Hybrid-, Elektro- oder andere alternative Antriebe. Ob Hersteller wie BMW, Mercedes oder Volkswagen Hybrid-Antriebe einbauen oder wie Renault eine pure Elektromotor-Strategie fahren, eines haben alle Strategien gemein: Die Hersteller sind gefordert, rund um das Elektroauto neue Dienstleistungen anzubieten, um den Absatz ihrer Elektromodelle zu fördern. Dies bedingt nicht nur neue Geschäftsmodelle und damit neue Prozesse, sondern bringt auch neue Player in den Automobilmarkt. Chemiekonzerne wie BASF oder Evonik arbeiten mit Hochdruck an der Entwicklung geeigneter Batterien. Das größte noch ungelöste Problem ist nämlich die im Vergleich zu Verbrennungsmotoren geringe Reichweite der eingesetzten Batterien, die bei ungefähr 200 Kilometern liegt. Zudem erhöhen die Kosten für die Batterien den Preis der Autos um circa 10.000 Euro im Vergleich zu den konventionell angetrie-
124
Redesign
benen Fahrzeugen. Die größte Hürde ist jedoch, dass den Fahrern von Elektroautos bislang kein flächendeckendes Netz von Ladestationen zur Verfügung steht. Hier kommen Erzeuger elektrischer Energie ins Spiel, die zur Lösung dieses Problems vollkommen neue Geschäftsmodelle entwickeln. So ist eine Alternative der Aufbau von Ladestationen – ähnlich wie die Tankstellennetze, die wir als Autofahrer gewohnt sind. Renault geht diesen Weg mit dem Service-Anbieter Better Place. VW, BMW und Mercedes testen in Kooperation mit der Politik, Herstellern von Ladestationen und Energieerzeugern Modelle, die das Beladen teils zu Hause, teils an öffentlichen Ladestationen vorsehen. Allen Lösungen ist gemein, dass die Anbieter – Autohersteller wie Energieerzeuger und Dritt-Anbieter – sich in die Position des Kunden versetzen und ihre eigenen Prozesse an den korrespondierenden Kundenprozessen ausrichten müssen. Dabei geht es nicht um die ihnen vertrauten Prozesse ihres traditionellen Geschäfts, sondern um neue Prozesse unmittelbar an der Kundenschnittstelle. Bisher mussten sich die Autokonzerne nicht darum kümmern, wie Kunden ihre Autos betanken können und konzentrierten sich auf ihr etabliertes Kerngeschäft, die Fahrzeuge zu entwickeln, herzustellen und zu vertreiben. Die einzige After Sales-Schnittstelle bestand in der Wartung und Reparatur, nicht in der Betankung. Dabei muss eine Fülle von prozessbezogenen Aspekten berücksichtigt werden. Die Ladestationen müssen für alle Fahrzeugtypen geeignet sein, was eine Standardisierung der für den Ladevorgang erforderlichen Technik voraussetzt. Sollten Industrie und Politik sich nicht auf einen – zumindest europaweiten – Standard der Steckverbindungen, Spannungen etc. einigen, so wäre dies ein Beleg für eine gravierende Ignoranz der korrespondierenden Kundenprozesse. Schließlich würde sich der Ladeprozess und die Suche nach einer geeigneten Ladestation erheblich erschweren. Ähnlich wie bei Mobilfunkgeräten, für die es heute circa 200 verschiedene Trafos gibt, wären die Kunden die Leittragenden und die Akzeptanz der Elektromobilität würde erheblich leiden. Neben der Kompatibilität von Fahrzeug und Ladestation muss die Durchlaufzeit des Ladevorgangs als ein weiterer prozessbezogener Parameter in die Überlegung einbezogen werden. Während das Tanken von Sprit lediglich einige Minuten in Anspruch nimmt, benötigen die heute verfügbaren Batterien einige Stunden. Das bereits erwähnte Unternehmen Better Place denkt deshalb über flächendeckende Batteriewechselstationen nach. Somit würden die Autofahrer ihre Fahrzeuge nicht aufladen, sondern bei jedem Tankvorgang per Roboter eine neue Batterie einsetzen lassen. Elektroautos sind die Energiespeicher von morgen. Für die Stromkonzerne öffnen sich im Betrieb von Ladestationen neue Marktpotenziale mit neuen Perspektiven direkt beim Endkunden. Letzterer besteht dann nicht mehr aus einem Haushalt mit einem festem Stromanschluss, sondern aus einem Kunden mit einem Auto, das überall – also dezentral – mit Strom versorgt werden muss. Aus dieser Dezentralität versuchen die Stromkonzerne zusätzlich in umgekehrter Weise zu profitieren.
Denkrahmen für das Redesign
125
Auch hier spielen Smart Grids – Stromnetze, die „mitdenken“ – eine entscheidende Rolle. Diese sorgen dafür, dass die aufgeladene Batterie eines Autos ihre gespeicherte Energie in Zeiten mit hohem Stromverbrauch teilweise wieder ins Netz zurückgibt. Da ein Auto statistisch gesehen 23 Stunden pro Tag parkt, könnten Elektroautos in Summe als gigantische Energiespeicher fungieren, die Strom laden, wenn ein Überangebot besteht und diesen bei hoher Nachfrage wieder ins Netz abgeben. Dies trägt zur Lösung eines der größten Probleme bei der Nutzung regenerativer Energien bei: der zeitlichen Kluft zwischen Energienachfrage und Energiegewinnung. Letztere hängt von der Windstärke beziehungsweise der Sonneneinstrahlung ab. Auch wenn die oben geschilderten Szenarien noch Zukunftsmusik sind, die Energiekonzerne haben sich ernsthaft auf diesen Weg gemacht – und müssen bereits heute über neue Geschäftsmodelle und deren Prozesse nachdenken. Die Ziele sind hoch gesteckt. So hat beispielsweise die französische Regierung angekündigt, bis 2015 insgesamt 75.000 öffentliche Ladestationen und 900.000 Ladestationen in privaten Haushalten zu installieren. Das Beispiel verdeutlicht, dass der Erfolg der Elektromobilität einerseits von der Überwindung technischer Probleme wie der Entwicklung geeigneter Batterien abhängt, andererseits die Anforderungen an die zu etablierenden Prozesse sehr hoch sind. Dies trifft umso mehr zu, als dass bislang kaum Erfahrungen auf diesem Gebiet vorliegen. Ein Blick über den Tellerrand lässt erahnen, dass die Tendenz zum Elektroauto langfristig auch weitreichende Auswirkungen auf andere Branchen haben wird. Zunächst liegt es auf der Hand, dass das Geschäft der klassischen Tankstelle leiden wird. Darüber hinaus werden indirekte Auswirkungen auf Branchen wie beispielsweise dem Immobilienmarkt zu beobachten sein. Heute verhält sich die Höhe der Miete quasi proportional zur Entfernung von der nächst größeren Straße. Das war vor der Automobilisierung der Städte grundlegend anders. Wer damals etwas auf sich hielt, wohnte innerstädtisch an den großen Boulevards, nicht in Nebenstraßen. Mit einer zunehmenden Elektrifizierung des Autos wird die Lärm- und Emissionsbelastung nach und nach abnehmen, was dazu führen könnte, dass die Mieten an verkehrsreichen – aber dennoch ruhigen Straßen – wieder steigen. Es steht zu erwarten, dass unser Leben durch die Elektromobilisierung ähnlich grundlegend verändert wird wie durch andere Innovationen, zum Beispiel durch das Internet oder den Mobilfunk. Die geschilderten Beispiele wie iTunes und Elektroauto machen deutlich, dass grundlegend neue Technologien Redesign-Maßnahmen erfordern, die weit über die Ebene der Prozesse und der Wertschöpfung hinausgehen. Dabei beschränkt sich die Veränderung nicht auf das Geschäftsmodell der Hersteller – wie in unseren Beispielen Apple und die Automobilkonzerne. Vielmehr durchlaufen alle Beteiligten erheblicher Veränderungen, die mit besonders hohen Anforderungen an das Prozessmanagement einhergehen.
126
Redesign
Wir haben in diesem Abschnitt aufgezeigt, wie die Tragweite des Redesigns kategorisiert werden kann. Dabei haben wir unterschiedenen nach den Ebenen, auf denen Veränderungen wirken: Prozess, Wertschöpfung und Geschäftsmodell. Selbstverständlich sind die Grenzen zwischen diesen drei Ebenen nicht immer trennscharf. Ikea zum Beispiel hat von Anbeginn die Montage und den Transport der Möbel an den Kunden „ausgelagert“. Entsprechend unserer Kategorisierung entspricht dies der Ebene der Wertschöpfung. Wir ordnen es aber der Ebene des Geschäftsmodells zu, weil der Eigenleistungsanteil des Kunden ein so zentrales Wesensmerkmal von Ikea ist, dass dadurch das Geschäftsmodell in der Wahrnehmung der Kunden ganz entscheidend geprägt wird. Weitere „Zwitterbeispiele“, deren Zuordnung nicht eindeutig ist, finden wir im Banking oder in der Fliegerei. Für die reinen Online-Banken ist der Zugang des Kunden über die Webseite der Bank prägend für ihr Geschäftsmodell. Hingegen wird bei einer Filialbank das Angebotsspektrum durch den Online-Zugang lediglich ergänzt. Hier werden sogar wesentliche Elemente der Wertschöpfung, die in der Filiale geleistet werden, auf den Kunden übertragen. Dies entspricht einer Veränderung auf der Ebene der Wertschöpfung. Ähnlich verhält es sich in der Passagierluftfahrt. Während für viele Billig-Airlines der ausschließliche Verkauf von Tickets über das Internet ein prägnantes Merkmal ihres Geschäftsmodells ist, stellt der Online-Vertrieb für traditionelle Airlines lediglich eine Erweiterung dar. Auch hier werden – wie beim Online-Banking – Bestandteile der Wertschöpfung auf den Kunden verlagert. Die Beispiele provozieren die Vermutung, dass die differenzierte Betrachtung der Tragweite des Redesigns und die Kategorisierung in die drei Ebenen Prozesse, Wertschöpfung und Geschäftsmodell lediglich eine akademische Übung ist. Das Gegenteil trifft jedoch zu: Die Praxis zeigt, dass die Projektteams an die Entwicklung von RedesignMaßnahmen wesentlich ambitionierter herangehen, wenn sie wissen, welche Tragweite von ihren Vorschlägen erwartet wird. Bleibt dieser Aspekt offen, kommt dies dem unausgesprochenen Appell gleich, sich nicht zu weit mit innovativen Ideen aus dem Fenster zu lehnen.
4.1.2
Impulse und Restriktionen für das Redesign
In diesem Abschnitt erläutern wir die Bedeutung der Impulsgeber im Denkrahmen für Process Excellence aus Kapitel 1 und zeigen zugleich auf, dass durch diese auch Restriktionen für das Redesign gesetzt werden, beispielsweise durch rechtliche Auflagen. Anhand ausgewählter Beispiele zeigen wir auf, welche Anregungen die Impulse geben und welche Grenzen durch Restriktionen vorgegeben werden. Markt Zum Markt zählen wir die Kunden, Lieferanten und Wettbewerber.
Denkrahmen für das Redesign
127
Zur übergreifenden Einbindung der Kunden in die Prozessoptimierung liefert Ikea ein anschauliches Beispiel. Wie bereits oben erwähnt, stellt der Eigenleistungsanteil der Kunden einen Eckpfeiler der Erfolgsstrategie des schwedischen Möbelgiganten dar. Akademisch gesprochen vollzogen die Schweden eine Rückwärtsintegration aus der Wertschöpfungskette. Wenn die Kunden die Möbelstücke selbst montieren, dann bedeutet das nichts anderes, als dass sie einen Teil des Prozesses selbst übernehmen. Dies gehört offensichtlich auch zu Ikeas Konzept des „demokratischen Designs“. Mit dieser besonderen Art des Outsourcings spart Ikea zum einen die Kosten für die Endmontage und senkt zum anderen die Lager- und Transportkosten, weil die Waren meist in handlichen Kisten verpackt sind. Die Idee, dem Kunden die Montage zu überlassen, ist nicht neu. In der Nachkriegszeit hatten die alliierten Mächte in Deutschland den Verkauf von Radios verboten. Diese gab es nur auf Bezugsschein. Aus der Not heraus verkaufte Max Grundig anstelle von Radios Rundfunk-Bausätze. Grundig landete damit einen bahnbrechenden Erfolg, der den Anfang seines bis in die siebziger Jahre erfolgreichen Unternehmens bildete.
Rahmenbedingungen Gesetzgeber, Öffentlichkeit, interne und externe Forschungsinstitute
Markt Kunden, Lieferanten und Wettbewerber
Strategie Unternehmens- bzw. Unternehmensbereichsstrategie
Abbildung 19: Impulse und Restriktionen für das Redesign Wichtige Impulse für die Prozessoptimierung gehen von Lieferanten aus. In der Automobilindustrie werden seit Jahren ganze Fertigungs- und Montageabschnitte ausgegliedert. Nicht selten sind diese in die Prozesse auch physisch vor Ort einge-
128
Redesign
bunden. Der Lackierspezialist Dürr produziert nicht nur Lackieranlagen für die Automobilindustrie, er betreibt diese auch mit eigenen Mitarbeitern vor Ort beim Kunden und stellt die Anlagen zur Verfügung. Die Bezahlung erfolgt auf der Grundlage der lackierten Stückzahlen. Von den Lieferanten können jedoch auch Restriktionen gesetzt werden, die – wie im folgenden Beispiel geschildert – sehr konkret Einfluss auf prozessbezogene Leistungsparameter haben. Domino’s Pizza gilt als weltgrößter Pizza-Lieferservice. Jeden Tag werden mehr als eine Million Pizzen ausgeliefert. In den USA wurde Domino’s in den achtziger Jahren mit dem Versprechen bekannt, die Pizza innerhalb von 30 Minuten zu liefern – andernfalls mussten die Kunden nichts bezahlen. Diese Form einer garantierten Durchlaufzeit von der Bestellung bis zur Auslieferung erzeugt naturgemäß einen erheblichen Druck auf die am Prozess beteiligten Mitarbeiter. So kam es wegen des rücksichtslosen Fahrstils der Fahrer zu schwerwiegenden Unfällen. Der kalifornische Versicherer Fireman’s Fund, ein Tochterunternehmen des Allianz-Konzerns, musste in den neunziger Jahren einem Unfallopfer 78 Millionen US-Dollar zahlen, weil ein Fahrer von Domino’s Pizza eine rote Ampel überfuhr und dadurch einen Unfall verursachte. Daraufhin zog der Pizza-Lieferservice seine auf die Durchlaufzeit bezogene Garantie zurück. Die Versicherungsunternehmen, die für derartige Schäden aufkommen müssen, zwingen mittlerweile ihre Versicherungsnehmer, solche Versprechen nicht mehr einzugehen. Das Beispiel zeigt, wie Lieferanten konkret Einfluss auf Kundenprozesse nehmen können – in diesem Fall auf die Festlegung von Durchlaufzeiten und deren verbindliche Einhaltung. Domino’s hat deshalb zwar nicht die Durchlaufzeit per se erhöht, jedoch den wirtschaftlichen Druck auf deren Einhaltung reduziert. Beim Redesign lohnt sich auch der Blick auf die Wettbewerber, wie wir das bereits in der Potenzialanalyse im Rahmen der Analyse der Kunden und Wettbewerber getan haben. So können beispielsweise Einkaufskooperationen zwischen Konkurrenten zur Senkung der Beschaffungskosten beitragen. Dabei sind die Anpassungen in den Beschaffungsprozessen relativ einfach zu bewerkstelligen. Komplizierter wird die Angelegenheit, wenn Sie durch eine Kooperation mit Ihren Wettbewerbern das Leistungsspektrum erweitern wollen wie in den bereits erwähnten Beispielen aus der Automobilindustrie. Allianzen in der Luftfahrtindustrie wie beispielsweise Star Alliance oder One World basieren auf diesem Gedanken. Für eine Airline ist der Aufbau eines weltumspannenden Streckennetzes schlicht zu teuer. Auch transatlantische Fusionen helfen hier nicht weiter, da die Fluggesellschaften einen Teil ihrer Verkehrsrechte einbüßen würden. Je intensiver jedoch die Kooperation, desto komplexer die Harmonisierung der Prozesse. So können die Mitarbeiter der Airlines Bände darüber füllen, wie kompliziert die Abstimmung von Flugplänen und Service-Konzepten ist, zum Beispiel die Harmonisierung von Zugangsberechtigungen zu Lounges. Alleine die Star Alliance hat mittlerweile 27 Mitgliedsgesellschaften, die es unter eine Hut zu bringen gilt.
Denkrahmen für das Redesign
129
Rahmenbedingungen Die Rahmenbedingungen werden durch verschiedene Interessengruppen beziehungsweise Impulsgeber definiert. Dazu zählen wir vor allem den Gesetzgeber und die Öffentlichkeit. Es kann sich jedoch auch um Forschungsinstitute handeln, wobei wir hier nicht unterscheiden, ob es sich um einen unternehmensinternen Forschungsbereich oder um ein externes Institut handelt: Auflagen des Gesetzgebers oder der Regulierungs- und Aufsichtsbehörden spielen bei vielen Reorganisationen eine maßgebliche Rolle. Dadurch wird ein optimales Design der Prozesse oft erheblich eingeschränkt. Diese Restriktionen müssen von Anfang an berücksichtigt werden, um nicht unnötig Zeit durch nachträgliche Anpassungen zu verlieren. Eine Nichtbeachtung ruft nicht nur die Behörden auf den Plan, es kann sogar noch schlimmer kommen. So geschehen im Jahr 1995 bei der Barings Bank: Ihr wurde der Verstoß gegen den gesetzlichen Grundsatz zum Verhängnis, dass bei Bankgeschäften eine strikte räumliche und organisatorische Trennung zwischen Handels- und Abwicklungsprozessen bestehen muss, um Missbrauch zu verhindern. In der Filiale der Barings Bank in Singapur spekulierte zu dieser Zeit Nick Leeson mit hochriskanten Terminkontrakten – und das lange Zeit äußerst erfolgreich, was ihm den Ruf eines Star-Bankers einbrachte. Weil Leeson sowohl für den Handel als auch für die Abwicklung verantwortlich war, konnte er angefallene Verluste unbemerkt auf ein Fehlerkonto buchen und mit späteren Gewinnen wieder ausgleichen. Dadurch konnte er Misserfolge vor dem zentralen Controlling vertuschen und berichtete stattdessen nur üppige Gewinne. So gelang es ihm, aus der Zentrale in London noch mehr Geld für seine spekulativen Machenschaften zu erhalten. Das Ergebnis ist bekannt: Als am 27. Februar 1995 die immensen Fehlspekulationen aufflogen, ging die Barings Bank – einst Englands älteste Handelsbank – in Konkurs und der ehemalige Star-Banker für knapp vier Jahre ins Gefängnis. Anfang der 70er Jahre war Spence Silver, ein Mitarbeiter im Forschungsbereich des amerikanischen Technologie-Unternehmens 3M, auf der Suche nach einer verbesserten Haftsubstanz für Klebebänder. Bei seinen Arbeiten stieß er zufällig auf eine klebrige Substanz, die sich ohne Rückstände wieder ablösen ließ. Silver verfügte über eine interessante Lösung, jedoch fehlte ihm noch das passende Problem. Seinen Kollegen Art Frey hatte es schon lange gestört, dass ihm während des Gottesdienstes die Lesezeichen immer wieder aus dem Gesangsbuch fielen. Als er von Silvers Ergebnissen hörte, kam ihm der Gedanke, dass abziehbare Lesezeichen eine gute Lösung für sein Problem wären. Das war die Geburtsstunde der Haftnotizen. Spencer und Frey schufen mit ihrer Idee eines der bekanntesten Büromittelprodukte. Die Markteinführung der gelben „Post-It’s“ erfolgte 1980. Der Markenname Post-It gilt längst als allgemein übliche Produktbezeichnung, ähnlich wie „Tempo“ für Papiertaschentücher oder „Nivea“ für Hautcreme. Das amerikanische Wirtschaftsmagazin
130
Redesign
Fortune kürte die Haftzettel zu einer der 99 wichtigsten Erfindungen des 20. Jahrhunderts. Impulse für das Redesign, die durch die Öffentlichkeit gegeben werden, folgen häufig allgemeinen Trends. Im neuen Jahrtausend stehen beispielsweise Umweltbewusstsein und Nachhaltigkeit im Vordergrund. Hieraus ergeben sich häufig eine Fülle von Möglichkeiten zur Prozessanpassung, die diese Trends aufgreifen. Das Beispiel Elektromobilität und die dafür erforderliche Anpassung der Prozesse zum Aufladen der Elektroautos haben wir bereits oben skizziert. Strategie Reorganisationen können auch direkt durch die Umsetzung einer neuen Strategie angestoßen werden, beispielsweise wenn sich der Unternehmenszweck ändert. Die Preussag AG war einst ein Industriekonzern mit Geschäftsfeldern wie Stahl und Anlagenbau. Ende des letzten Jahrtausends begann das Unternehmen, sich ausschließlich auf Touristik und Schifffahrt zu konzentrieren. Nicht nur das Produktspektrum, sondern auch der Name und das Logo haben sich geändert: Aus Preussag wurde 2002 die TUI AG mit der Tourismus-Dachmarke „World of TUI“. Der in 2008 beschlossene Verkauf der Container-Reederei Hapag-Lloyd, eines TochterunternehmenV der TUI AG, markiert einen weiteren Schritt in Richtung Konzentration auf das Tourismusgeschäft. Ähnliches widerfuhr Mannesmann. Einst weltbekannt für Stahlröhren, mutierte das Unternehmen zu einem äußerst erfolgreichen Telekommunikationskonzern, lange bevor es von Vodafone übernommen wurde. Dass derartige Veränderungen Reorganisationsbedarf gerade auf der Prozessebene schaffen, liegt auf der Hand.
4.1.3
Ansatzpunkte für das Redesign
In diesem Abschnitt zeigen wir exemplarisch auf, wie das Redesign an den Bausteinen des Prozessmodells ansetzt. Dafür greifen wir erneut auf den Denkrahmen für Process Excellence aus Kapitel 1 zurück. Prozessleistung Erinnern wir uns: Die Prozessleistung ist Output eines Prozesses, der in einen anderen Prozess als Input einfließt. Dabei kann es sich um ein physisches Produkt, eine Dienstleistung oder eine Kombination aus beidem handeln. Das Redesign kann bei der Prozessleistung sehr unterschiedlich ansetzen, wie die folgenden Beispiele zeigen: Relevanz: Die erste Frage bei der Prozessoptimierung muss lauten: Benötigen wir die Prozessleistung überhaupt? Diese auf den ersten Blick merkwürdig erscheinende Frage ist berechtigt, weil wir in einer Fülle von Projekten feststellen konnten, dass bestimmte Prozessleistungen in keinen anderen Prozess als Input einfließen. Das ist
Denkrahmen für das Redesign
131
der ultimative Beleg dafür, dass diese Prozessleistung überflüssig ist. Der Grund dafür liegt häufig darin, dass die Prozessleistung zu einem früheren Zeitpunkt erforderlich war, das Erfordernis jedoch heute nicht mehr existiert.
Prozesskette Abfolge der Prozessschritte
Ressourcen Technologien, Mitarbeiter und Kernkompetenzen
Prozessleistung Produkte und Dienstleistungen
Führungssystem Organisationsstruktur und Kennzahlensysteme
Abbildung 20: Ansatzpunkte für das Redesign Substitution: Die Bedeutung von Substitutionen haben wir bereits im Abschnitt 3.1.1 (Wer sind unsere Wettbewerber?) im Zusammenhang mit der Identifikation der relevanten Wettbewerber skizziert. Hier betrachten wir die Substitution der Prozessleistung als eine besonders innovative Redesign-Maßnahme, die häufig mit der Chance verbunden ist, sich vom Wettbewerber zu differenzieren oder sogar neue Kundensegmente zu öffnen. Nicht selten stiften die Substitute neben dem eigentlichen Kernnutzen einen zusätzlichen Vorteil, der mitunter sogar kaufentscheidend ist – wie das folgende Beispiel zeigt: Sie können Ihren Durst auf prickelndes Wasser stillen, indem Sie eine Kiste Sprudel beim Getränkehändler kaufen oder Leitungswasser mithilfe eines sogenannten „Trinkwassersprudlers“ zu Mineralwasser umwandeln. Frische Getränke – ohne lästiges Kistenschleppen Dabei handelt es sich im Kern um eine Kohlensäureabfüllvorrichtung für den Hausgebrauch, die Leitungswasser mit dem prickelnden Gas aus einer kleinen Druckflasche anreichert. Das Ergebnis ist – je nach subjektivem Geschmacksempfinden – kaum von konventionellem Mineralwasser zu unterscheiden. Die Substitution einer Prozessleistung durch eine andere hat in diesem speziellen Fall einen substanziellen Vorteil, der werbewirksam hervorgehoben wird. Ein Werbeslogan von Soda-Club
132
Redesign
brachte es auf den Punkt: „Frische Getränke einfach auf Knopfdruck. Sprudeln Sie los und vergessen Sie das mühsame Kistenschleppen!“. Video on Demand ermöglicht den Kunden auf Knopfdruck Filme nach Wunsch aus dem Internet beziehungsweise Kabel herunterzuladen. Damit werden Videotheken mehr und mehr substituiert. Die Swisscom bietet ihren Kunden über 1.000 Titel. Der Schweizerische Telekommunikationskonzern konnte die Anzahl der TV-Kunden im Jahr 2009 auf 230.000 steigern und damit im Vergleich zum Vorjahr nahezu verdoppeln . Die Penetration von über 80 Millionen Handys hat in Deutschland zu einer deutlichen Reduktion von Telefonzellen geführt. Waren es 1994 noch 165.000, fiel ihre Anzahl 2009 auf 100.000. Das entspricht einem Minus von 40 Prozent. Ein ähnliches Schicksal könnte die 14.000 Notrufsäulen entlang von Deutschlands Autobahnen heimsuchen. Erweiterung des Leistungsspektrums: Veränderungen der Prozessleistung werden häufig durch die Erweiterung des Leistungsspektrums bewirkt. Dabei geht es sowohl um die Erschließung neuer Geschäftsfelder als auch um die Differenzierung vom Wettbewerber durch die Ergänzung des Kernprodukts durch zusätzliche Leistungen. Mit dem Slogan „Nutzen statt besitzen“ testet Daimler ein neues Geschäftsfeld: In Ulm bietet der Autokonzern Mietautos zur Selbstbedienung an. Die Nutzer müssen sich vorher registrieren lassen und können dann in den nächst gelegenen Smart einsteigen, losfahren und das Fahrzeug danach an jedem beliebigen Ort innerhalb der Stadtgrenzen abstellen. Die Identifikation des registrierten Fahrers erfolgt über einen im Führerschein eingebauten Chip, der an ein Lesegerät hinter der Windschutzscheibe gehalten wird. Die Mieter finden dann den Zündschlüssel sowie eine Tankkarte zum Gratistanken im Handschuhfach. Die Abrechnung erfolgt minutengenau, die Kosten liegen bei 20 Eurocent pro Minute. Die Differenzierung vom Wettbewerber wird durch die zunehmende Angleichung der Konkurrenzangebote erzwungen, da sich die Eigenschaften der Kernprodukte immer mehr angleichen. Dieser „Commodity-Falle“ begegnen die Anbieter beispielsweise durch die Ergänzung ihrer Produkte mit zusätzlichen Dienstleistungen wie Wartungstätigkeiten oder der Vermietung von Produktionsanlagen. Solche Leistungsbündel werden auch als Produkt-Service-Kombinationen bezeichnet. In der Bauindustrie verlagern Unternehmen wie Hochtief oder Bilfinger Berger sogar ihren geschäftlichen Schwerpunkt auf die Planung, Finanzierung und das Betreiben von Flughäfen, Autobahnen, Tunnels und öffentlichen Gebäuden. Die eigentliche Bautätigkeit wird an Subunternehmer vergeben. Die Konsequenzen für das Prozessmanagement sind erheblich, weil diese Dienstleitungen häufig durch Prozesse geschaffen werden, in die der Kunde unmittelbar eingebunden ist. Dies trifft beispielsweise auf Wartungsservices für Produktionsanlagen zu, die während des lau-
Denkrahmen für das Redesign
133
fenden Betriebs eines produzierenden Unternehmens durchgeführt werden müssen. Fehler im Prozess werden folglich unmittelbar durch den Kunden wahrgenommen. Die Definition von Produkt-Service-Kombinationen wird von zwei Aspekten bestimmt: dem Grad der Abhängigkeit sowie dem Grad der Ergänzung zwischen Produkt und Service. Die Abhängigkeit ist besonders hoch, wenn das Produkt nicht ohne den Service funktioniert. Dies trifft beispielsweise auf komplexe Unternehmenssoftware zu, die ohne zusätzliche Beratungsleistungen nicht auf die spezifischen Belange des Kunden angepasst werden kann. Die Ergänzung ist gegeben, wenn Produkt und Service zwar unabhängig voneinander einen Mehrwert bieten, ihre Kombination jedoch den Mehrwert deutlich erhöht. Das trifft beispielsweise auf das gesamte Leistungsspektrum eines Flughafens zu. Das Kernprodukt – der Betrieb von Landebahnen sowie das Be- und Entladen von Flugzeugen – funktionieren auch ohne die zahlreichen Einzelhandels- und Restaurantbetriebe. Beides ergänzt sich jedoch besonders gut. Fraport, der Betreiber des Frankfurter Flughafens, erwirtschaftet mit dem sogenannten Non-Aviation-Geschäftszweig zwar nur 20 Prozent seines Umsatzes, erzielt damit jedoch 60 Prozent seines Gewinns. Prozesskette Die Prozesskette stellt die Abfolge der in einem Prozess zu erledigenden Aufgaben dar. Veränderungen in der Prozesskette werden insbesondere durch operative RedesignMaßnahmen herbeigeführt. Dazu zählen wir das Eliminieren, Parallelisieren, Automatisieren oder Standardisieren von Prozessen. An dieser Stelle verzichten wir auf weitere Ausführungen zu diesem Aspekt. Insbesondere im Abschnitt 4.2.3 (Prozesseffizienz), schildern wir einige Beispiele für das Redesign der Prozessketten. Ressourcen Die Ressourcen ermöglichen die Durchführung des Prozesses. Redesign-Maßnahmen, die an den Ressourcen ansetzen, führen zu Veränderungen bei Mitarbeitern, den eingesetzten Technologien wie Produktionsanlagen, Hard- und Software oder bei immateriellen Werten wie Patenten oder Kernkompetenzen, die in dem Prozess zum Tragen kommen. Technische Innovationen: Der Einsatz technischer Innovationen kann zu massiven Veränderungen in den Prozessen führen. Dabei spielt das Internet eine herausragende Rolle. Elektronische Marktplätze, Online-Banking, Online-Check-in oder OnlineShopping wären ohne das Internet undenkbar. Dabei steckt der Online-Vertrieb noch in den Kinderschuhen. Während im stationären Einzelhandel in Deutschland circa 400 Milliarden Euro umgesetzt werden, belief sich das Online-Handelvolumen der privaten Haushalte im Jahr 2009 auf 21,9 Milliarden Euro, was einem Verhältnis von circa eins zu zwanzig entspricht. Allerdings sind die Wachstumsraten im Internet rasant: Seit dem Jahr 2000 stiegen die privaten Online-Einkäufe um rund 800 Prozent. In der Schweiz lag der wertmäßige Umsatzanteil des Online-Vertriebs von Heim-
134
Redesign
elektronik im Jahr 2007 bei 8,1 Prozent und stieg bis 2009 auf 15,3 Prozent, was nahezu eine Verdopplung innerhalb von zwei Jahren ist. Trotz dieser enormen Wachstumsraten besteht auf der Anbieterseite noch Nachholbedarf: Im Jahr 2008 haben lediglich elf Prozent der Unternehmen in Deutschland ihre Produkte und Dienstleistungen im Internet angeboten. Das Internet wird somit auch in Zukunft eine wichtige Rolle bei der Optimierung der eigenen Vertriebsprozesse spielen. Neue Kernkompetenzen: Im Abschnitt 3.2 wurde der Zusammenhang zwischen Kernkompetenzen und Prozessmanagement bereits skizziert: Prozesse, in denen Kernkompetenzen zum Tragen kommen, sind für den Unternehmenserfolg von strategischer Bedeutung. Insbesondere in Märkten, die einen starken Wandel durchlaufen, müssen die Unternehmen neue Kernkompetenzen entwickeln. Wie wir weiter oben beschrieben haben, bauen die Automobilbauer eine Kernkompetenz im Bereich Elektromobilität auf. Die Euphorie um die Produkte von Apple zeigen, dass Elektronikhersteller heute eine Kernkompetenz im Bereich Lifestyle haben müssen. In einigen Branchen spielen auch übergeordnete Kernkompetenzen eine zunehmend wichtige Rolle wie beispielsweise die Fähigkeit, mit sehr unterschiedlichen Unternehmen neue Produkte und Dienstleistungen gemeinsam zu entwickeln und diese zu vermarkten. So wachsen Energiekonzerne und Softwarehersteller für die Entwicklung der bereits erwähnten Smart Grids immer mehr zusammen. Mitarbeiter: Eine zentrale Rolle beim Redesign spielen die Mitarbeiter. Das betrifft nicht nur die Beachtung möglicher Widerstände, was wir im Kapitel 5 (Umsetzung – Die neuen Prozesse in der Organisation zum Laufen bringen) ausführlich behandeln werden. Es verändern sich auch die Anforderungen an die Mitarbeiter. In einigen Projekten haben wir die funktionale Arbeitsteilung durch eine prozessorientierte Ausrichtung ersetzt. Dabei wurde die strikte Trennung zwischen den einzelnen Funktionsbereichen wie beispielsweise Drehen, Fräsen, Schleifen und Montieren aufgehoben. Für die Mitarbeiter hatte das zur Konsequenz, dass das Tätigkeitsspektrum verbreitert wurde. Statt wie bisher nur eine Funktion wie Schleifen oder Drehen auszuführen, wurden in den einzelnen Arbeitsstellen ganze Produkte oder zumindest Baukomponenten hergestellt. Das hatte zur Folge, dass der Koordinationsaufwand zwischen den zuvor getrennten Funktionseinheiten deutlich verringert wurde. Die Mitarbeiter waren außerdem wesentlich motivierter, weil sie – statt eine einzige Verrichtung auszuführen – ein in sich geschlossenes Prozessergebnis produzierten, für dessen Qualität sie selbst verantwortlich sind. Die Nachteile dieser Erweiterung des Tätigkeitsspektrums liegen in einer deutlich gestiegenen Leistungsanforderung. Die Mitarbeiter müssen zum einen die Fähigkeiten besitzen, mehrere Funktionen zu beherrschen, teilweise Koordinationsaufgaben zu übernehmen und zudem die Qualitätssicherung selbst durchzuführen.
Denkrahmen für das Redesign
135
Produktionstechnologie: Die Leistungsfähigkeit von Prozessen hängt elementar von den eingesetzten Produktionstechnologien ab. Seien es Flugzeuge, Kernkraftwerke oder Fertigungs- und Montageanlagen. Für die Optimierung der Prozesslandschaft sind dabei zwei Aspekte von Bedeutung: die Kapazität der eingesetzten Technologie sowie deren Flexibilität. Eine Kapazitätssteigerung der eingesetzten Technologie kann zur Verbesserung der Leistungsfähigkeit des Prozesses führen, ohne dass dabei der Prozess als solches stark verändert wird. Die operativen Prozesse rund um den Airbus A380 sind vergleichbar mit dem anderer Langstreckenflugzeuge. Dennoch wird die Leistungsfähigkeit dieser Prozesse alleine durch die größere Zahl der Passagiere erhöht, ohne dass sich dafür die Prozesse als solche grundlegend ändern müssten. Der zweite Aspekt, die Flexibilität der eingesetzten Produktionstechnologien, hat ebenso einen hohen Einfluss auf die Effizienz der Prozesse. Produktionsanlagen, die zwar hohe Stückzahlen herstellen können, jedoch einen hohen Umrüstungsaufwand bei Variantenwechsel aufweisen, können die Effizienz von Prozessen in den Keller drücken. Gerade an diesem Punkt setzen Optimierungsmaßnahmen an. Häufig müssen die eingesetzten Produktionsanlagen durch flexiblere Technologien ersetzt werden, um die Prozesse optimal unterstützen zu können. Führungssystem Das Führungssystem besteht aus zwei Elementen: Führungsgrößen für die Leistungskontrolle und Steuerung von Prozessen sowie der Organisationsstruktur, in der die Prozesse verankert sind. Redesign-Maßnahmen, die an diesen beiden Elementen ansetzen, führen in aller Regel zu Veränderungen im Anreizsystem. Definition einer Organisationsstruktur: Auf die Frage, wie wir das „Prozessproblem“ zu lösen gedenken, antworten wir unseren Kunden gerne provokativ: Indem wir die Prozesse so belassen, wie sie sind, und dafür die Organisationsstruktur an die Prozesse anpassen. Oft sind Prozesse durchaus sinnvoll konzipiert, ihre reibungslose Durchführung wird jedoch durch eine von den Prozessen losgelöste Organisation behindert. Der Grund dafür ist ebenso einfach wie weit verbreitet: Die Organisationsstruktur steht – fälschlicher Weise – in den meisten Redesign-Projekten an erster Stelle. Zunächst werden die Machtverhältnisse durch die Festlegung von Bereichsgrenzen und Berichtswegen zementiert. Sobald das geschehen ist, wenden sich die Machtpromotoren den Prozessen zu. Damit wird der Gestaltungsspielraum für die Prozessoptimierung von vorneherein eingeschränkt. Das richtige Vorgehen ist, dass zuerst die Prozesse optimiert werden. Erst wenn diese feststehen, kann die Organisationsstruktur definiert werden. Kennzahlensystem für die Leistungsmessung: In Abschnitt 3 .5.4 (Der Weg zu wohl formulierten Zielen) haben wir beschrieben, wie ein Zielkatalog für das Redesign entwickelt werden kann. Dabei stehen Zielgrößen wie Durchlaufzeit, Kosten
136
Redesign
und Qualität im Fokus. Darauf aufbauend können im Redesign Kennzahlensysteme definiert werden, die diese Zielgrößen in ihren sachlogischen und mathematischen Zusammenhang bringen. Damit wird die Basis für ein nachvollziehbares Anreizsystem für die am Prozess beteiligten Führungskräfte und Mitarbeiter geschaffen. Diese Maßnahmen sind besonders wichtig, wenn durch andere Redesign-Maßnahmen die Kompetenzen der Mitarbeiter und operativen Führungskräfte gestärkt werden. Hier übernehmen die Kennzahlensysteme eine wichtige Kontrollfunktion, die als Basis für eine wirkungsvolle Prozesssteuerung dient. Transmission zwischen Prozess- und Finanzkennzahlen: Die Etablierung eines Transmissionsmechanismus legt den Zusammenhang zwischen den operativen Prozesskennzahlen, die im oben beschriebenen Kennzahlensystem integriert sind, und den übergeordneten Finanzkennzahlen des Unternehmens offen. Damit wird die Antwort geliefert, welche Auswirkungen die Redesign-Maßnahmen auf die im Unternehmen gängigen Finanzkenngrößen haben. Der Transmission liegt der Gedanke zugrunde, dass das gehobene Management letzten Endes nicht an operativen Kennzahlen wie Durchlaufzeiten von Prozessen interessiert ist. Vielmehr will das Management die Frage beantwortet wissen, welche messbaren Vorteile das Unternehmen oder der Unternehmensbereich als Ganzes von den Reorganisationsmaßnahmen hat. Auf diese Frage gibt die Transmission eine Antwort.
4.1.4
Gestaltungshilfen für das Redesign
Wie bereits im Anfang dieses Kapitels beschrieben, schließen sich Regeln für das Redesign und wahrhaft kreative Lösungen in letzter Konsequenz gegenseitig aus. Deshalb dürfen die im Folgenden dargestellten Gestaltungshilfen für das Redesign nicht als Kochrezepte mit Erfolgsgarantie missverstanden werden. Vielmehr stellen diese eine Art Werkzeugkasten dar, der die Entwicklung von Redesign-Maßnahmen erleichtert. Wir haben diese Gestaltungshilfen in einer Vielzahl von Projekten angewendet. Allerdings konnten wir dabei keine einfachen „Wenn-Dann-Heuristiken“ ableiten, die von der Architektur des Ist-Prozesses zwingend auf die Praktikabilität einer bestimmten Gestaltungshilfe schließen lassen. Die Erläuterung der Gestaltungshilfe kann somit lediglich Anregungen liefern, um die Entwicklung von Redesign-Maßnahmen zu unterstützen. Abbildung 21 stellt die Gestaltungshilfen für das Redesign im Überblick dar. Eliminieren: Nicht-wertschöpfende Prozessschritte werden eliminiert. Damit wird eine Verkürzung der Durchlaufzeit und höhere Effizienz der eingesetzten Ressourcen erreicht. Parallelisieren: Prozessschritte, die gegenwärtig sequentiell ablaufen, werden parallelisiert. Dabei kommt es zu einer Verkürzung der Durchlaufzeit und mögliche Unstimmigkeiten werden frühzeitig erkannt.
Denkrahmen für das Redesign
137
Integrieren: Prozessschritte, die gegenwärtig auf unterschiedliche Organisationseinheiten verteilt sind, werden in einem Bereich oder sogar in einem Arbeitsplatz gebündelt. Damit werden Schnittstellen abgebaut und der übergeordnete Koordinationsaufwand wird verringert. Eliminieren Eliminieren nichtwertschöpfender Prozessschritte
8 8
Substituieren Substituieren von Prozessen durch andere Prozesse
8
Outsourcen Auslagerung von Prozessschritten bzw. Prozessen an Lieferanten
Vernetzen Vernetzen von Prozessen zwischen unterschiedlichen Unternehmen
Parallelisieren Parallelisieren von sequentiellen Prozessschritten
Automatisieren Automatisieren von manuellen Prozessschritten durch Maschinen oder IT
,,
Insourcen Eingliederung von Prozessschritten bzw. Prozessen von Kunden oder Lieferanten
Entflechten Trennung von Prozessen zwischen unterschiedlichen Unternehmen
Integrieren Integrieren verschiedener Prozessschritte in eine oder wenige Organisationseinheiten (OE)
88
Standardisieren
Flexibilisieren
Modularisieren
Qualität sichern
M1 M1
M2 M2
Etablierung einer Qualitätssicherung im Prozess
M3 M3
Dezentralisieren Verteilung von Kompetenzen und Aufgaben auf dezentrale Einheiten
OE1 OE2 OE3 OE4
Aufteilung der Prozessschritte auf unterschiedliche Organisationseinheiten (OE)
Prozessdurchführung wird durch die prozessbeteiligten Mitarbeiter fallspezifisch festgelegt
Prozessdurchführung folgt einem vorgegebenen Regelwerk
Definition von Prozessmodulen, die in verschiedenen Prozessen eingesetzt werden
Separieren
OE1 OE2 OE3 OE4
Zentralisieren
Z
Konzentration von Kompetenzen und Aufgaben in Zentralbereichen
Z
Abbildung 21: Gestaltungshilfen für das Redesign im Überblick Separieren: Im Gegensatz zum Integrieren werden beim Separieren Prozessschritte auf unterschiedliche organisatorische Einheiten verteilt. Damit steigen zwar die Anzahl der Schnittstellen und der damit verbundene Koordinationsaufwand zwischen den einzelnen Prozessschritten. Aber dafür besteht für die ausführenden Mitarbeiter die Möglichkeit, das spezifische Wissen zu vertiefen, weil das Spektrum der Aufgaben kleiner ist. Ein Grund für das Separieren von Prozessen oder Prozessschritten sind rechtliche Auflagen, die die Abwicklung von bestimmten Tätigkeiten in ein und derselben organisatorischen Einheit nicht zulassen. Das trifft beispielsweise auf die bereits in Abschnitt 4.1.2 (Impulse und Restriktionen für das Redesign) erwähnte Trennung zwischen Handels- und Abwicklungsprozessen im Investmentbanking zu. Substituieren: Wie in Abschnitt 4.1.3 (Ansatzpunkte für das Redesign) am Beispiel der Kohlensäureabfüllvorrichtung beschrieben, können Prozessschritte durch andere Prozesse substituiert werden. Der Grund dafür können sowohl andere Prozessleistungen als auch andere Prozesse – wie beispielsweise beim Online-Banking – sein. Automatisieren: Beim Automatisieren von Prozessen werden zuvor manuell verrichtete Prozessschritte durch Maschinen oder Informationssysteme unterstützt
138
Redesign
oder sogar vollständig durchgeführt. Werden Prozesse automatisiert, in die der Kunde eingebunden ist, steht und fällt dessen Akzeptanz mit dem für ihn unmittelbar wahrnehmbaren Vorteil. Standardisieren: Die Standardisierung von Prozessen ist die Voraussetzung für deren Automatisierung. Dabei folgt die Prozesskette einem mehr oder minder starren Regelwerk. Die Standardisierung ist immer dann von Vorteil, wenn die Anzahl der Prozessdurchläufe sehr hoch ist. Flexibilisieren: Bei der Flexibilisierung von Prozessen erhalten die Prozessbeteiligten einen gewissen Entscheidungsspielraum, um situationsspezifisch reagieren zu können. Flexibilisierung ist immer dann geboten, wenn die Prozesse heterogen sind und eine geringe Wiederholungsrate aufweisen. Dies trifft beispielsweise auf Managementprozesse zu. Outsourcen: Beim Outsourcing von Prozessen oder Prozessschritten werden bestimmte Tätigkeiten an externe Lieferanten ausgelagert. Das ist immer dann von Vorteil, wenn die betrachteten Prozesse für das Unternehmen nicht strategisch relevant sind. Insourcen: Beim Insourcing werden Prozesse oder Prozessschritte von Kunden oder auch Lieferanten übernommen. Dies ist immer dann von Vorteil, wenn das Unternehmen in diesem Bereich über eine Kernkompetenz verfügt oder das Insourcing das eigene Leistungsspektrum sinnvoll ergänzt. Modularisieren: Dabei werden ganze Prozessmodule – ähnlich wie Baukomponenten in Autos – definiert, die dann in den unterschiedlichen Prozessketten integriert werden. Die Modularisierung ist immer dann von Vorteil, wenn bereichsübergreifende Tätigkeiten – wie Controlling, Personalwesen, Beschaffung – in zentralen Bereichen, sogenannten Shared Services, integriert werden sollen. Qualität sichern: Die Etablierung einer Qualitätssicherung in den Prozessen folgt dem Prinzip, Fehler unmittelbar an der Fehlerquelle zu entdecken und die Ursachen zu beseitigen. Damit steigen die Prozessstabilität und die Qualität der Prozessleistung. Vernetzen: Zunehmend komplexere Angebotsbündel erfordern eine intensivere Kooperation zwischen Unternehmen. Voraussetzung dafür ist die Vernetzung der Prozesse, die weit über eine konventionelle Kunden-Lieferanten-Beziehung hinausgeht. Beispiele dafür liefert die Verschmelzung von Internet und Fernsehen, die Bündelung von Hardware und Content (wie Anwendungen, Inhalte, Filme etc. auf Smartphones) oder die Bereitstellung von Elektroautos und einer flächendeckenden Infrastruktur zum Aufladen der Batterien. Entflechten: Beim Entflechten werden die ursprünglich von unterschiedlichen Unternehmen gemeinsam ausgeführten Prozesse getrennt. Dies ist beispielsweise der Fall, wenn eine Fusion von zwei Unternehmen – wie beispielsweise Daimler und
Denkrahmen für das Redesign
139
Chrysler – rückgängig gemacht werden. Ähnliches gilt im Falle von Veräußerung von Unternehmensteilen. Dezentralisieren: Bei Dezentralisierung werden Entscheidungskompetenzen auf Landesgesellschaften oder Unternehmenstöchter verteilt. Zudem werden zuvor zentrale Aufgaben wie Forschung und Entwicklung, Einkauf, Personalwesen etc. in den Verantwortungsbereich dezentraler Einheiten gelegt. Dezentralisierung ist ein probates Mittel, die Flexibilität von Landesgesellschaften oder Tochterunternehmen zu erhöhen. Zentralisieren: Bei der Zentralisierung wird der entgegengesetzte Weg beschritten. Entscheidungskompetenzen und diverse Aufgaben werden aus den dezentralen Einheiten herausgenommen und in zentrale Organisationseinheiten integriert. Der Vorteil können Skaleneffekte sein, da die Zentraleinheiten in der Tendenz über eine höhere Wissenstiefe verfügen. Zusammenfassung In diesem Kapitel haben wir den Denkrahmen für das Redesign ausführlich beschrieben. Sie sollten für Ihr Projekt einen spezifischen Denkrahmen definieren, damit sich das Projektteam bei seiner Suche nach innovativen Lösungen nicht mit der erstbesten Alternative zufriedengibt. Legen Sie zunächst die Tragweite des Redesigns fest. Sollen die Veränderungen auf der Ebene der Prozesse liegen, sich auf die Art und Weise beziehen, wie ein Unternehmen seine Wertschöpfung betreibt oder zur Anpassung des Geschäftsmodells führen? Führen Sie sich vor Augen, woher Impulse und Restriktionen für das Redesign kommen können. Dabei beachten Sie den Markt, zu dem wir Kunden, Lieferanten und Wettbewerber zählen. Weitere Impulse und Restriktionen kommen aus der Strategie des Unternehmens und aus den Rahmenbedingungen. Zu letzterem zählen wir vor allem den Gesetzgeber und die Öffentlichkeit sowie interne oder externe Forschungseinrichtungen. Legen Sie dann fest, an welchen Bausteinen des Prozessmodells die Redesign-Maßnahmen ansetzen sollen. Dafür kommen in Frage: Prozessleistung, Prozesskette, Ressourcen, Führungssystem. Schließlich führen Sie sich die Gestaltungshilfen für das Redesign vor Augen und versuchen Sie, mit deren Hilfe konkrete Redesign-Maßnahmen zu definieren. Bitte beachten Sie, dass der Denkrahmen für das Redesign noch kein Garant für innovative Redesign-Maßnahmen ist. Vielmehr hilft er, den Spagat aus erforderlicher Kreativität für die Entwicklung wahrhaft innovativer Lösungen und dem Wunsch nach Faustregeln für die Arbeit im Redesign zu überwinden, indem er Randbedingungen exakt definiert und konkrete Orientierungshilfen gibt. Einen Überblick gibt die folgende Tabelle:
140
Redesign
Tabelle 8: Methodenkomponenten des Denkrahmens für das Redesign Komponente Vorgehensphase
Redesign
Aktivitäten
Denkrahmen für das Redesign
Ergebnisse
Exakt definierte Rahmenbedingungen, an denen sich die Entwicklung von Redesign-Maßnahmen orientiert
Techniken
Elemente des Denkrahmens für das Redesign: • Tragweite des Redesigns • Impulse und Restriktionen für das Redesign • Ansatzpunkte für das Redesign • Gestaltungshilfen für das Redesign
Rollen
• Steuerungsgremium • Projektleiter • Projektteam
Entwicklung von Redesign-Maßnahmen
141
4.2 Entwicklung von Redesign-Maßnahmen Nachdem wir im vorausgegangenen Abschnitt den Denkrahmen für das Redesign ausführlich skizziert haben, schildern wir im Folgenden an ausgewählten Beispielen, wie die Entwicklung von Redesign-Maßnahmen in der Unternehmenspraxis konkret umgesetzt wird. Wir machen deutlich, dass es keinen Königsweg gibt. Was für ein bestimmtes Unternehmen zu einer bestimmten Zeit von Vorteil ist, kann für ein anderes Unternehmen zur gleichen Zeit unbrauchbar sein. Wenn Sie diesen Gesichtspunkt berücksichtigen, finden Sie im Folgenden viele praktische Ideen für die Optimierung von Prozessen und Strukturen.
4.2.1
Korrespondierende Kundenprozesse
Wer in den vom Schweizer Gastronomiekonzern Marché betriebenen Restaurants auf deutschen Autobahnraststätten ein Essen bestellt, findet auf der Rechnung den folgenden Hinweis: „Rückreise schon geplant? Mit Abgabe Ihres Kassenbeleges erhalten Sie 10% Rabatt auf Speisen & Getränke. Im Marché Restaurant gegenüber.“ Das Kreditkartenunternehmen Mastercard bietet an, unmittelbar nach der Bezahlung mit der Kreditkarte eine Kurznachricht auf das Handy des Karteninhabers zu senden. Im Falle eines Diebstahls kann dieser die gestohlene Karte sofort sperren lassen. Ein weiterer Service ermöglicht eine automatische Sperrung der Kreditkarte, wenn der Nutzungsort der Karte von dem des Mobiltelefons abweicht. Die Deutsche Bank bietet ihren Firmenkunden nicht nur die finanzielle Absicherung von Export- und Importgeschäften an, sondern übernimmt auch die Erstellung komplexer Akkreditiv- und Inkassodokumente. Mit diesem Angebot bietet die Bank etwas an, in dem die meisten Unternehmen keine Kernkompetenz haben. Was ist den geschilderten Beispielen gemein? Im Kern bieten die erwähnten Unternehmen nützliche Zusatzleistungen, die sie aus der genauen Betrachtung der Kundenprozesse entwickelt haben. Letztere bezeichnen wir als „korrespondierende Kundenprozesse“, weil diese parallel oder zeitlich versetzt zu den Prozessen des eigenen Unternehmens ablaufen. Das korrespondierende Element sind diverse Schnittstellen zwischen den Prozessen auf der Kundenseite und denen des jeweiligen Anbieters. Die genaue Kenntnis dieser korrespondierenden Kundenprozesse vorausgesetzt werden sämtliche aktuellen und potenziellen Schnittstellen identifiziert und zusätzliche Leistungen entwickelt, die an diesen Schnittstellen andocken können. Macht ein Autofahrer in einem Marché-Restaurant in einer Raststätte halt, so besteht die Möglichkeit, dass in diesem korrespondierenden Kundenprozess „Reise“ eine zweite Schnittstelle mit einem Marché-Restaurant aufgebaut werden kann, nämlich, wenn der Reisende auf dem Rückweg an der gegenüberliegenden Autobahnraststätte vorbeikommt. Vom Prinzip her gilt das gleiche für den
142
Redesign
korrespondierenden Kundenprozess „Einkaufen und Bezahlen“. Viele Konsumenten meiden Kreditkarten, weil sie befürchten, die Karte könnte nach einem Diebstahl unbemerkt genutzt werden. An diesem Punkt setzt Mastercard an und schafft eine nützliche Schnittstelle mit der Benachrichtigung des Karteninhabers per Handy. Weitaus komplexer – aber von der Grundidee identisch – entlastet die Deutsche Bank insbesondere mittelständische Firmenkunden an diversen Schnittstellen des korrespondierenden Kundenprozesses „Abwicklung Auslandsgeschäft“ mit der Erstellung von Exportdokumenten. Transparenz über korrespondierende Kundenprozesse Das Verständnis der korrespondierenden Kundenprozesse stellt die Voraussetzung für die Entwicklung entsprechender Redesign-Maßnahmen dar. Zu diesem Zweck müssen Sie sich Transparenz über die relevanten Prozesse auf der Kundenseite verschaffen. Der Betrachtungshorizont beginnt bereits vor der Kaufentscheidung durch den Kunden. Hier geht es um die Frage, welche Informationen der Kunde wo sucht, um zu einer Kaufentscheidung zu gelangen. Vor allem müssen Sie ein genaues Verständnis dafür entwickeln, auf welche Art und Weise der Kunde Ihr Produkt oder Ihre Dienstleistung nutzt. Zur Erhebung dieser Informationen haben wir sehr gute Erfahrung mit Kundenworkshops gemacht, bei denen die Kunden ihre Prozesse skizzieren und genau beschreiben, wo es auf der Lieferantenseite Verbesserungsmöglichkeiten gibt. Häufig verfügen Unternehmen auch ohne gesonderte Erhebung über relativ intime Kenntnisse der Kundenprozesse, weil der ein oder andere Mitarbeiter die Seiten gewechselt hat. Zudem liefert der eigene Vertrieb Informationen, wobei dieses Wissen mit Vorsicht zu genießen ist. Wir beobachten, dass die Vertriebsmitarbeiter ihre eigenen Kenntnisse über die korrespondierenden Kundenprozesse oft überschätzen. Aktuelle und potenzielle Schnittstellen Als nächsten Punkt müssen Sie die bestehenden Schnittstellen zwischen den Prozessen auf der Kundenseite und Ihren eigenen exakt herausarbeiten. Darüber hinaus sollten sie potenzielle Schnittstellen definieren, die zwar gegenwärtig noch nicht bestehen, die jedoch mögliche Ansatzpunkte für neue Service-Leistungen bieten. Das setzt voraus, dass Sie ein sehr genaues Verständnis über die Probleme haben, mit denen der Kunde in seinem Prozess konfrontiert ist. Das bereits erwähnte Beispiel der Deutschen Bank ist dafür ein Musterfall: Insbesondere mittelständische Unternehmen, die nicht über eine professionelle Exportabteilung verfügen, tun sich mit der Erstellung komplexer Exportdokumente schwer. Internationale Geschäftsbanken verfügen hingegen über detaillierte Kenntnisse in diesem Bereich und können die Kunden diesbezüglich leicht unterstützen. Damit wird eine bislang nicht bediente Schnittstelle neu besetzt. Definition von Service-Leistungen Definieren Sie für jede bestehende und potenzielle Schnittstelle konkrete ServiceLeistungen. Gehen Sie dabei vor allem der Frage nach, wie Sie Ihren Kunden an bislang
Entwicklung von Redesign-Maßnahmen
143
nicht bestehenden Schnittstellen zusätzliche Leistungen anbieten könnten, die einen Mehrwert stiften. Führen Sie sich zu diesem Zweck erneut die Ausführungen aus Abschnitt 4.1.3 (Ansatzpunkte für das Redesign) über die Prozessleistung vor Augen. Die dort geschilderten Beispiele – die Kohlensäureabfüllvorrichtung von Soda-Club, das Video-on-Demand-Angebot der Swisscom, das Selbstbedienungs-Mietauto von Daimler oder die diversen Produkt-Service-Kombinationen – zeigen: Die Anbieter dieser Leistungen haben sich ein genaues Bild von den korrespondieren Kundenprozessen gemacht haben und basierend auf dieser Kenntnis innovative Ideen zum Markterfolg geführt. Weitere Anhaltspunktspunkte für die Definition von Leistungen, die an diversen Schnittstellen der korrespondierenden Kundenprozesse andocken, liefert das Informationssuchverhalten der Kunden vor der Kaufentscheidung. Dieses liefert konkrete Hinweise, wie Ihre eigenen Prozesse gestaltet sein müssen, um auf das Kaufverhalten Ihrer Kunden Einfluss nehmen zu können. Trivialerweise beginnt es mit der Frage, welche Informationen dem Kunden über welche Informationskanäle zur Verfügung gestellt werden sollten. Auch hier kommt dem Internet eine gravierende Bedeutung zu: Gemäß der Allensbach Computer- und Technik-Analysen nutzten 78 Prozent der deutschen Bevölkerung im Jahr 2009 das Internet. 97 Prozent der Internetnutzer recherchieren nach Produkten und Dienstleistungen. Google ist beispielsweise bei der Auswahl des richtigen Arztes in 86 Prozent der Fälle die wichtigste Informationsquelle. Gesucht wird generell auf Internetseiten potenzieller Anbieter, in Suchmaschinen und Internetforen sowie auf Produkt- und Preisvergleichsseiten. Dabei gilt: Je komplexer das Produkt und je weniger die Käufer dieses selbst beurteilen können, desto häufiger orientieren sie sich an den Kommentaren anderer Kunden. Ähnliches gilt für Produkte und Dienstleistungen, die der Kunde vor dem Kauf nicht selbst bewerten kann wie beispielsweise Hotels, da diese sich aus der Ferne kaum bewerten lassen. Deshalb vertrauen circa die Hälfte aller Kunden, die eine Hotelreservierung per Mausklick durchführen, auf die Kommentare anderer Nutzer. Nutzen Sie die Kenntnisse über das Informationssuchverhalten Ihrer aktuellen und potenziellen Kunden und flanschen Sie an den relevanten Abschnitten der korrespondierenden Kundenprozesse geeignete Schnittstellen an, um so die Kunden optimal über Ihre Produkte informieren zu können. Redesign-Maßnahmen Entwickeln Sie Redesign-Maßnahmen, um diese zusätzlichen Service-Leistungen darstellen zu können. Denken Sie daran, dass insbesondere bei Service-Prozessen der Kunde häufig in die Leistungserstellung eingebunden ist und infolge dessen jede Störung im Prozess unmittelbar wahrnimmt. Deshalb sind die Anforderungen an die Prozessqualität besonders hoch. Eine mögliche Redesign-Maßnahme besteht darin, die existierenden Vertriebskanäle zu ergänzen, weil die korrespondierenden Kundenprozesse einem Wandel unterliegen. Ein Beispiel ist der Trend zum Zusammenwachsen von Online- und stationärem Handel.
144
Redesign
Bislang verwiesen die beiden Metro-Töchter Saturn und Media-Markt auf ihren Webseiten lediglich auf ihre Filialen, ohne dass der Kunde im Web Artikel bestellen konnte. Jetzt steigen die Elektronikhändler auch in den Online-Vertrieb ein. Dabei werden die Vorzüge von Web- und Filialhandel kombiniert. Beispielsweise sollen Online-Kunde Umtausch- und Serviceleistungen in den Märkten in Anspruch nehmen können. Der Schweizer Luxusgüterkonzern Richemont, der unter seinem Dach so klangvolle Namen wie Cartier, Jaeger-LeCoultre, IWC oder Montblanc vereint, hat im Jahr 2010 Net-aPorter übernommen, ein Online-Händler, der 300 Luxusmarken im Sortiment führt. Richemont verspricht sich davon, neue Kundengruppen für seine Luxusprodukte gewinnen zu können. Gleichzeitig eröffnen reine Online-Händler wie die auf Elektronikartikel spezialisierte Schweizer Digitec eigene Filialen und kommen damit dem Bedürfnis der Kunden nach, die Artikel nicht nur sofort abzuholen, sondern auch in die Hand nehmen zu können. Die reinen Online-Händler stehen hier unter Druck: Viele Kunden wollen die Produkte vor dem Kauf gerne sehen und lassen sich vom Verkaufspersonal beraten, um es dann wenige Minuten später über ihr Smartphone beim günstigsten Web-Händler zu bestellen. Die Beispiele machen deutlich, dass die Anbieter gut daran tun, auf den Wandel in den korrespondierenden Kundenprozessen mit der Anpassung der eigenen Organisation zu reagieren. Wenn Sie mit Ihren Redesign-Maßnahmen an den korrespondierenden Kundenprozessen ansetzen wollen, dann sollten Sie die folgenden Aspekte beherzigen: Prozesstransparenz: Verschaffen Sie sich ein ausreichend exaktes Bild über die korrespondierenden Kundenprozesse. Dabei geht es vor allem um jene Prozesse, mit denen Ihre eigenen Prozesse interagieren. Denken Sie dabei auch an Prozessabschnitte, die Sie bislang noch nicht ins Auge gefasst haben wie die Informationssuche vor der Kaufentscheidung. Schnittstellen: Arbeiten Sie die aktuellen Schnittstellen zwischen den Kundenprozessen und Ihren eigenen Prozessen heraus. Definieren Sie darüber hinaus potenzielle Schnittstellen, die zwar gegenwärtig noch nicht bestehen, die jedoch mögliche Ansatzpunkte für neue Service-Leistungen bieten. Service-Leistungen: Definieren Sie für jede aktuelle und potenzielle Schnittstelle konkrete Service-Leistungen. Gehen Sie dabei vor allem der Frage nach, wie Sie Ihren Kunden an bislang nicht bestehenden Schnittstellen zusätzliche Leistungen anbieten können, die dem Kunden einen Mehrwert bieten. Redesign-Maßnahmen: Entwickeln Sie Redesign-Maßnahmen für Ihre eigenen Prozesse, um diese zusätzlichen Service-Leistungen darstellen zu können. Wenn Sie die korrespondierenden Kundenprozesse als Ausgangspunkt für die Entwicklung Ihrer Redesign-Maßnahmen zugrunde legen, dann werden Sie eine Fülle guter Ideen für die Optimierung Ihrer eigenen Prozesse erhalten. Und obendrein haben Sie die
Entwicklung von Redesign-Maßnahmen
145
Chance, einen substantiellen Mehrwert für Ihre Kunden zu schaffen und sich vom Wettbewerber zu differenzieren.
4.2.2
Wertschöpfungsnetzwerke
Während die korrespondierenden Kundenprozesse ein wichtiger Ausgangspunkt für das Redesign der kundenbezogenen Prozesse sind, zeichnet sich bei der Leistungserstellung ein klarer Trend zu Wertschöpfungsnetzwerken ab. Dabei spielt die Vernetzung der Prozesse der beteiligten Netzwerkpartner eine entscheidende Rolle. Vorläufer einer solchen Entwicklung sind die aus der Luftfahrt bekannten Allianzen. Allen voran die Star Alliance unter der Führung der Lufthansa. Wertschöpfungsnetzwerke zeichnen sich dadurch aus, dass die klaren Grenzen zwischen Kunden und Lieferanten sowie zwischen Wettbewerbern in einer zunehmend arbeitsteiligen Wirtschaft schwinden und die Prozesse komplexer werden. Dabei kooperieren Netzwerkpartner innerhalb in sich geschlossener Prozesse oder sogar Teilprozesse über die eigenen Unternehmensgrenzen hinweg. So rücken beispielsweise in der Werbebranche die Anbieter im wahrsten Sinne des Wortes enger mit ihren Kunden zusammen. Die Werbeagentur Grey hat in München ein neues Agenturteam aufgebaut, in dem sowohl eigene Mitarbeiter sowie Mitarbeiter des Kunden, dem Versicherungskonzern Allianz, gemeinsam arbeiten. Allianz@Grey lautet der Name dieser integrierten Zusammenarbeit, von der sich die Allianz eine höhere Einflussnahme und ein besseres Verständnis der Marke verspricht. „Wir wollen ein durchgängiges Team mit einem tiefen Verständnis innerhalb von Grey herstellen“, so der Marketingleiter der Allianz, Steven Althaus. Das Beispiel lässt erahnen, dass solche Kooperationen nicht reibungslos funktionieren. Einen kritischen Erfolgsfaktor stellt die Definition einheitlicher Prozesse zwischen den Partnern dar. Unserer Erfahrung nach bestehen meist gravierende Unterschiede in der Auffassung, wie die gemeinsamen Prozesse auf der Arbeitsebene gestaltet sein sollten. Wie schwierig eine verstärkte Prozessintegration zwischen Lieferanten und Kunden sein kann, lässt sich eindrucksvoll an dem neuen Flagschiff des amerikanischen Flugzeugbauers Boeing illustrieren. Der Jungfernflug der Boeing 787, des sogenannten „Dreamliner“, musste mehr als zwei Jahre verschoben werden, weil das Zusammenspiel zwischen Boeing und seinen weltweit verstreuten Lieferanten nicht funktionierte. Die Entscheidung Boeings, mehr Teile und deren Entwicklung von Zulieferern zuzukaufen, basierte auf der Annahme, dadurch die Kosten zu senken. Wie viel Mehrkosten durch Konventionalstrafen dem Flugzeugbauer entstanden sind, ist nicht bekannt. Doch dürfte eine Kosteneinsparung gegenüber früheren Flugzeugmodellen in weite Ferne gerückt sein. Die Beispiele für Wertschöpfungsnetzwerke ließen sich beliebig erweitern. Die wirtschaftlichen Rahmenbedingungen werden diese intensive Art der Kooperation über
146
Redesign
Unternehmensgrenzen hinweg verstärken. So werden in der Automobilindustrie insbesondere die Premiumhersteller mit vergleichsweise geringen Stückzahlen aus Kostengründen darauf angewiesen sein, in den Bereichen Einkauf, Forschung und gegebenenfalls auch Vertrieb enger zu kooperieren. Einkaufskooperationen helfen, die Einkaufsvolumina zu erhöhen und sind besonders bei so genannten „nicht-markendifferenzierenden“ Teilen sinnvoll. Das bereits erwähnte Beispiel der Entwicklung neuer Antriebstechnologien zwingt aufgrund der hohen Investitionen zu Kooperationen – auch zwischen Erzrivalen wie BMW und Mercedes. Auf der Vertriebsseite werden sich nicht alle Autokonzerne ein eigenes weltweites Vertriebsnetz leisten können, was dafür spricht, mit andere Konzernen in bestimmten Märkten Vertriebskooperationen einzugehen. Bei der Bildung von Wertschöpfungsnetzwerken sollten Sie die folgenden Aspekte beachten: Kernkompetenzen: Besinnen Sie sich Ihrer eigenen Kernkompetenzen, deren Analyse wir im Abschnitt 3.2 (Analyse der eigenen Kernkompetenzen – Wo sind wir besser?) beschrieben haben. Sollten Sie für die anstehenden Herausforderungen nicht über die erforderlichen Kernkompetenzen verfügen, so ist die Bildung eines Wertschöpfungsnetzwerks eine mögliche Alternative. Wertschöpfungspartner: Sie sollten sich jedoch sicher sein, dass die potenziellen Wertschöpfungspartner über komplementäre Kernkompetenzen verfügen. Das Beispiel DaimlerChrysler hat eindruckvoll gezeigt, dass der Know-how-Transfer auch eine Einbahnstraße sein kann. Neben den technischen Kompetenzen spielen auch Aspekte wie regionale Marktpräsenz oder die Ergänzung des Leistungsspektrums eine entscheidende Rolle. Gegenstand der Kooperation: Führen Sie sich genau vor Augen, in welchen Punkte Sie zusammen arbeiten wollen und welche Aspekte Sie – beispielsweise aus wettbewerbsstrategischen Punkten – bewusst ausklammern sollten. Gemeinsames Prozessverständnis: Definieren Sie gemeinsam mit Ihren Netzwerkpartnern ein gemeinsames Prozessverständnis. Ein Wertschöpfungsnetzwerk ist nur so gut, wie die Arbeit auf der operativen Ebene funktioniert. Und dabei dreht es sich vor allem um Prozesse.
4.2.3
Prozesseffizienz
Nicht nur in wirtschaftlichen Krisenzeiten steht die Prozesseffizienz ganz oben auf der Management-Agenda. Im Folgenden greifen wir auf die wichtigsten Gestaltungshilfen aus Abschnitt 4.1.4 (Gestaltungshilfen für das Redesign) zur Steigerung der Prozesseffi-
Entwicklung von Redesign-Maßnahmen
147
zienz zurück und skizzieren anhand ausgewählter Beispiele deren Anwendung in der Praxis. Eliminieren Die radikalste Gestaltungshilfe ist das Eliminieren von Prozessschritten. In aller Regel sind Sie bereits während der Potenzialanalyse auf viele augenscheinlich überflüssige Prozessschritte gestoßen wie Abstimmungsschleifen und Doppelarbeiten. Hier fällt die Entscheidung über eine Elimination einzelner Schritte noch leicht. In den meisten Fällen muss allerdings erst der Wertschöpfungsbeitrag des Prozessschritts zum Prozessergebnis systematisch geprüft werden, um festzustellen, ob ein Prozessschritt tatsächlich überflüssig ist. Zur Erinnerung: Wertschöpfende Tätigkeiten an der Dienstleistung oder dem Produkt bringen letzten Endes einen Mehrwert für den Kunden. Die zentrale Frage lautet: Welchen Unterschied macht es für den internen oder externen Kunden, ob der betrachtete Prozessschritt durchgeführt wird oder nicht? Das Eliminieren überflüssiger Prozessschritte bringt viele Vorteile mit sich: Die Prozesse werden vereinfacht. Die Durchlaufzeit wird verkürzt. Die Qualität des Prozessergebnisses steigt, weil die Mitarbeiter ihre Aufmerksamkeit nur noch den wertschöpfenden Prozessschritten widmen können. Die Mitarbeiterzufriedenheit steigt, da sinnlose Arbeitsschritte wegfallen. Eine systematische Überprüfung der Wertschöpfung des betrachteten Prozessschritts mag zwar zu Diskussionen führen, weil eine Antwort oft nicht eindeutig auf der Hand liegt. Überprüfung und Diskussion sind aber notwendig, um nicht in einem „Schnellschuss“ wertschöpfende Prozessschritte zu entfernen. Dann haben Sie zwar die Durchlaufzeit verkürzt, aber die Frage bleibt offen, ob der Prozess dann überhaupt noch funktioniert oder ob sich andere Prozesse deshalb verlängern, zum Beispiel aufgrund zusätzlicher Kontrollvorgänge oder Nacharbeiten. Eine mögliche Systematik zur Überprüfung des Wertschöpfungsbeitrags eines Prozessschritts ist im folgenden Flussdiagramm dargestellt. Nach dieser Systematik werden so lange die folgenden Fragen gestellt, bis eine Frage nicht mehr mit Nein beantwortet wird oder klar ist, dass der Prozessschritt überflüssig ist: 1. Erbringt der Prozessschritt eine Hauptleistung für das Prozessergebnis? 2. Erbringt der Prozessschritt eine wichtige Zusatzleistung für das Prozessergebnis? 3. Erbringt der Prozessschritt eine Unterstützungsleistung für einen anderen Prozessschritt? 4. Ist der Prozessschritt aus gesetzlichen Gründen erforderlich?
148
Redesign
Wird die erste Frage bereits mit Ja beantwortet, dann ist der betrachtete Prozessschritt eindeutig wertschöpfend. Der Prozessschritt erbringt dann eine Hauptleistung für das Prozessergebnis und darf nicht aus dem Prozess entfernt werden. Bei der Herstellung von Pkws stellt zum Beispiel das Lackieren des Fahrzeugs einen wertschöpfenden Schritt dar, weil ein Pkw ohne Korrosionsschutz und Wunschfarbe des Käufers unvollständig wäre. Aus einem Nein auf die erste Frage ergibt sich aber noch lange nicht, dass der Schritt nicht wertschöpfend ist. Das zeigen die Fragen 2 bis 4.
Prozessschritt XY
Erbringt der Prozessschritt eine Hauptleistung für das Prozessergebnis? JA
NEIN
Erbringt der Prozessschritt eine wichtige Zusatzleistung für das Prozessergebnis? JA
NEIN
Erbringt der Prozessschritt eine Unterstützungsleistung für einen anderen Prozessschritt? JA
NEIN
Ist der Prozessschritt aus gesetzlichen Gründen erforderlich?
Hauptleistung
Zusatzleistung
Unterstützungsleistung
JA
NEIN
Per Gesetz erforderlich
Überflüssig
Abbildung 22: Eine systematische Überprüfung, ob ein Prozessschritt eliminiert werden kann, erfolgt in mehreren Schritten.
Die zweite Frage nach der Zusatzleistung überprüft, ob der Prozessschritt eine Leistung erbringt, die zwar nicht unmittelbar wertschöpfend ist, aber dennoch von Nutzen für den internen oder externen Kunden. Dies ist der Fall, wenn das fertige Produkt vom Werk zum Händler transportiert wird. Durch diesen Prozessschritt wird das Produkt als solches zwar nicht besser, aber ohne ihn würde der Kunde das Produkt nicht kaufen. Ein weiteres Beispiel für eine Zusatzleistung ist, wenn ein Joghurt für einen bestimmten Absatzmarkt in einer anderen als der Standardverpackung abgefüllt wird, weil damit der Markt besser bedient werden kann. Auch dabei bleibt die Hauptleistung, das Joghurt, unverändert.
Entwicklung von Redesign-Maßnahmen
149
Ist der Prozessschritt weder eine Haupt- noch eine Zusatzleistung, dann stellt sich als dritte Frage, ob er eine Unterstützungsleistung erbringt. Eine solche Leistung trägt zur Wertsteigerung in einem anderen Prozessschritt bei. Werden Produktnummern in einem Warenwirtschaftssystem erfasst, wird das Produkt nicht wertvoller, es wird auch keine Zusatzleistung für den Kunden erbracht. Dennoch können dadurch die Kontrolle und die Logistik erleichtert werden. Die Frage darf allerdings nicht als Alibi für jedes System verstanden werden. Eine IT-Lösung unterstützt nur dann, wenn auch Bedarf dafür besteht und das System den Erfordernissen der Prozesse entspricht. Letzteres ist nicht gegeben, wenn die Nummern aufgrund von Systembrüchen mehrfach erfasst werden müssen. Wurden die ersten drei Fragen mit Nein beantwortet, dann bleibt als letzte und vierte Frage, ob der Prozessschritt aus gesetzlichen Gründen erforderlich ist. Lautet die Antwort Ja, ist der Prozessschritt unabdingbar, obwohl er weder für den Kunden noch für das Unternehmen einen realen Wertschöpfungsbeitrag leistet. Ist die Antwort auf die letzte Frage allerdings Nein, dann haben Sie den Beweis erbracht, dass der betrachtete Prozessschritt überflüssig ist und daher ohne Verlust aus dem Prozess eliminiert werden kann. Typische Tätigkeiten, die auf überflüssige Prozessschritte schließen lassen, sind: Kontrollieren, Nachforschen, Überwachen, Warten, Abstimmen, Suchen, Kopieren, Sortieren, Ablegen, Transportieren, mehrmalige Dateneingabe, Zweitunterschriften leisten etc. Bei der Eliminierung von Prozessschritten müssen folgende Aspekte bedacht werden: Wertschöpfung: Der Wertschöpfungsbeitrag sollte der einzige Parameter bei der Entscheidung sein, ob ein Prozessschritt eliminiert wird oder nicht. Ausnahmen bilden Prozessschritte, die der Gesetzgeber vorschreibt. Nachvollziehbarkeit: Machen Sie Ihre Entscheidung nachvollziehbar. Die systematische Abfrage, ob es bei der Prozessleistung um eine Haupt-, Zusatz- oder Unterstützungsleistung handelt, vereinfacht die Entscheidung. Politische Dimension: Die systematische Vorgehensweise darf nicht darüber hinwegtäuschen, dass die Diskussion um den Wertschöpfungsbeitrag erheblichen „politischen Sprengstoff“ enthält, weil die Eliminierung von Prozessschritten möglicherweise die Existenz ganzer Abteilungen auf den Prüfstand stellt. Daher sollten Sie Ihre Folgerungen nur auf der Basis von Fakten und nicht auf der Basis von Sympathien oder Antipathien ableiten. Parallelisieren Da die Durchlaufzeit eine wichtige Leistungsgröße für Prozesse darstellt, ist es sinnvoll, möglichst viele Prozessschritte parallel laufen zu lassen. Dies hat nicht nur positive Effekte, weil die Durchlaufzeit des betrachteten Prozesses insgesamt verringert wird, son-
150
Redesign
dern weil durch eine sinnvolle Parallelisierung frühzeitig Fehlerquellen erkannt und eingedämmt werden können. Ein Klassiker dieses Vorgehens ist das so genannte Simultaneous Engineering. Wurden in der traditionellen Produktentwicklung die erforderlichen Aufgaben wie Marketing, Konstruktion, Einkauf, Fertigung und After Sales sukzessive geplant und durchgeführt, so laufen diese Tätigkeiten nach dem Prinzip des Simultaneous Engineerings weitgehend parallel ab. In der Regel verlangsamt sich der Prozess zwar anfänglich, weil schließlich eine ganze Reihe von Abteilungen und deren Interessen zusammengebracht werden müssen. Aber die Durchlaufzeit des gesamten Prozesses verkürzt sich. Zusätzlich werden durch Rückkoppelungen zwischen den Prozessschritten mögliche Fehlentwicklungen frühzeitig erkannt. So wird beispielsweise bereits während der Produktentwicklungsphase geprüft, ob die Herstellung eines geplanten Produkts technisch überhaupt machbar oder sinnvoll ist. Dabei wird auch der Bereich After Sales einbezogen, um die Bedürfnisse der Kunden nach dem Kauf nicht außer Acht zu lassen. Kunden sind zum Beispiel an wartungsfreundlichen Produkten interessiert, was während der Produktentwicklung berücksichtigt werden muss. Bei dem beschriebenen Parallelisieren der Prozesse werden durch das frühzeitige Erkennen von möglichen Fehlentwicklungen das Risiko von eskalierenden Fehlerbehebungskosten in nachgelagerten Prozessschritten und die Produktentwicklungszeit deutlich reduziert. Das Parallelisieren von Prozessschritten ist natürlich nicht nur auf die Produktentwicklung beschränkt. Unsere Erfahrung zeigt, dass in praktisch allen Prozessen Parallelisierungspotenziale schlummern. Häufig bleiben diese jedoch ungenutzt. In einem Projekt bei einem Finanzdienstleister schlugen wir vor, dass einzelne Tätigkeiten zur Freigabe von Projektbudgets parallel ablaufen sollten. Dieser Prozess war durch eine bürokratische Regelung über Gebühr in die Länge gezogen: Es mussten acht Unterschriften von Managern unterschiedlicher Hierarchiestufen geleistet werden, wobei der rangniedrigste Manager zuerst und der ranghöchste zuletzt unterschrieb. Wir untermauerten unseren Vorschlag mit der Begründung, dass sich bei einem parallelen Vorgehen kein Manager mehr davon beeinflussen lassen konnte, dass andere bereits unterschrieben hatten und er dadurch seine Unterschrift quasi blind ohne erneute Prüfung geben konnte. Mit Nachdruck wurde uns entgegnet, dass der sukzessive Abzeichnungsvorgang eine wichtige Kontrollfunktion erfülle. Doch unsere Analyseergebnisse überzeugten die Verantwortlichen. Insgesamt benötigte man für den Freigabevorgang 16 Tage. Schließlich wurden von den acht Unterschriften vier eliminiert, weil die Analyse auch zeigte, dass die Freigabe ab einer bestimmten Hierarchieebene nur noch einem Automatismus folgte, der in erster Linie auf der Prüfung beruhte, ob die darunter liegenden Hierarchieebenen bereits abgezeichnet hatten oder nicht. Die vier verbleibenden Unterschriften wurden parallel geleistet. Damit wurde die Budgetfreigabe auf drei Tage verkürzt. Bei der Bewertung, ob und wie sich Prozessschritte parallelisieren lassen, helfen die folgenden Fragen: Abhängigkeiten: Wie sind die einzelnen Prozessschritte miteinander verknüpft?
Entwicklung von Redesign-Maßnahmen
151
⎯
Gibt es Abhängigkeiten, die sich aus einer Input-Output-Beziehung zwischen den Prozessschritten ergeben, wodurch diese Schritte sequenziell ablaufen müssen?
⎯
Könnten bestimmte Prozessergebnisse simultan erstellt werden, obwohl die Prozesse gegenwärtig eine sequenzielle Abhängigkeit aufweisen?
Restriktionen: Gibt es technische oder juristische Restriktionen, die den parallelen Ablauf bestimmter Prozessschritte verhindern? Rückkopplung: Welche Schritte zur Überprüfung der Ergebnisse der einzelnen Tätigkeiten müssten bei einer Parallelisierung der Prozessschritte zusätzlich erfolgen? ⎯
Welche Organisationseinheiten müssten diese Schritte ausführen?
⎯
Welchen Effekt haben die Rückkopplungsschritte auf die gesamte Durchlaufzeit?
⎯
Welchen Effekt haben sie auf die Qualität?
Standardisieren Heinz Nixdorf war davon überzeugt, dass einfache und hoch standardisierte Strukturen und Prozesse einen kritischen Erfolgsfaktor für sein Unternehmen bilden. So waren nicht nur die Leiterplatten der Computer oder die Abmessungen der Computergehäuse, sondern auch die Gebäude stets durch 30 teilbar. Ein Rastermaß von 1,80 Meter dominierte die Architektur der gleich aussehenden Nixdorf-Büros. Standardisierte Angebote sind immer dann erfolgversprechend, wenn die Kunden von der Produktvielfalt genervt sind. Einen überzeugenden Beleg lieferte 2004 der Hamburger Kaffeeröster Tchibo im damals weitgehend unüberschaubaren Tarifdschungel der Telefonkonzerne. Mit einem einfachen Handy für 40 Euro sowie mit einem ebenso simplen 24-Stunden-Einheitstarif – für 35 Cent pro Minute ins deutsche Festnetz und jedes inländische Mobilfunknetz – erfuhr das Unternehmen eine überwältigende Resonanz. Der Lebensmittel-Discounter Aldi verkörpert Standardisierung wie kaum ein anderes Unternehmen. Während das Sortiment bei Real oder Toom im Durchschnitt aus circa 28.000 Artikeln besteht oder bei einem amerikanischen Supermarkt aus circa 40.000 Artikeln, sind es bei Aldi gerade einmal 750. Gemäß einer Studie der Unternehmensberatung McKinsey aus dem Jahr 2004 bietet ein durchschnittlicher Supermarkt 128 verschiedene Säfte an. Aldi-Süd beschränkt sich auf 29 und Aldi-Nord kommt sogar mit 17 aus. Kein Wunder, dass erfahrene Aldi-Kunden in jeder beliebigen Filiale mit verbundenen Augen einkaufen können. Die Artikel stehen fast immer an der gleichen Stelle – egal in welcher Filiale man einkauft. Auch das ist eine Form der Standardisierung von Prozessen. Der wirtschaftliche Erfolg dieser ausgeprägten Standardisierung ist bekannt.
152
Redesign
Im Jahr 2007 gab es in Deutschland alleine 200.000 unterschiedliche Finanz-Zertifikate. Dass diese auch banktechnisch abgewickelt werden müssen, wird häufig übersehen. Eine entsprechende Prozessvielfalt ist die logische Folge. Die Standardisierung von Prozessen ist nur möglich, wenn auch die Produkte und Dienstleistungen bis zu einem gewissen Grad standardisiert werden. Produkt- und Dienstleistungsvielfalt bedeutet auch immer Vielfalt in den Prozessen, die das Leistungsangebot schaffen. Der finnische Mobilfunkhersteller Nokia ist nicht nur Weltmarktführer – mit einem Marktanteil von knapp 40 Prozent in 2009 – sondern auch Kostenführer bei der Herstellung von Mobilfunkgeräten. Der Grund liegt in der konsequenten Standardisierung der Produktvarianten und der Produktionseinrichtungen. Während das Außenleben unterschiedlich aussieht, befinden sich im Inneren die gleichen Komponenten mit den gleichen Abmessungen. Damit können die Produktionsanlagen ohne lange Rüstzeiten für unterschiedliche Modellvarianten genutzt werden. Im finnischen Salo, dem Hauptwerk von Nokia, benötigt man für den Wechsel von einer Produktvariante auf eine andere gerade einmal zehn Minuten. Eine ähnliche Strategie verfolgen die Automobilhersteller. Auf den gleichen Produktionsanlagen werden unterschiedliche Modelle gebaut und diese enthalten baugleiche Teile. Das Stichwort lautet Plattformstrategie. Durch die Verwendung baugleicher Teile werden Skaleneffekte realisiert. Im Januar 2008 wurde Sepa, ein europäischer Standard für den bargeldlosen Zahlungsverkehr eingeführt, der die nationalen Grenzen im Zahlungsverkehr aufhebt. Mit standardisierten Überweisungsträgern können gewerbliche sowie private Kunden ihre Zahlungen abwickeln. Kernpunkte der Standardisierung sind die internationale Bankkontonummer (IBAN) und die internationale Bankleitzahl (BIC). Der entscheidende Vorteil für die Kunden sind geringere Gebühren und eine Beschleunigung des Zahlungseinganges. Die Geschäftskunden können zudem ihre Kosten erheblich senken, weil sie mit Sepa alle grenzüberschreitenden Zahlungen im Sepa-Raum über eine Bank abwickeln können. Bislang mussten die Unternehmen bei einer Vielzahl von Instituten eine Bankverbindung unterhalten. Dass sich diese Form der Standardisierung lohnt, zeigt ein Blick auf die enorme Prozesshäufigkeit an Vorgängen. Von den 490 Millionen Bürgern in den zum Sepa-Raum gehörenden 30 europäischen Staaten – einschließlich der Schweiz, Liechtenstein, Norwegen und Island – werden jährlich 73 Milliarden Überweisungen über circa 9.000 Banken und 326.000 Bankautomaten durchgeführt. Bei dieser extrem hohen Zahl von Prozessdurchläufen kann eine Standardisierung zu enormen Kostenersparnissen führen. Standardisierung spielt auch in Dienstleistungsprozessen eine erhebliche Rolle. Bleibt sie aus, steigen die Kosten. Statt sich auf eine einzige Amtssprache zu einigen, werden in den Institutionen der Europäischen Union sämtliche Dokumente seit 2007 in 23 Amtssprachen übersetzt – bei 27 Mitgliedsstaaten. Allein die Mehrkosten für Übersetzungen nach der EU-Erweiterung 2004 wurden mit 650 Millionen Euro veranschlagt. Das Heer der Übersetzer und Dolmetscher stieg damals kurzfristig von rund 4.000 auf 6.000 an.
Entwicklung von Redesign-Maßnahmen
153
Standardisierung bringt in der Regel dann Vorteile, wenn der Kunde nicht auf die gewünschte Vielfalt verzichten muss. Solange Nokia seine Variantenvielfalt aufrecht hält, spielt es für den Kunden keine Rolle, ob das Innenleben der Mobilfunktelefone aus identischen Baukomponenten besteht. Das Gleiche gilt für Prozesse, die keinen unmittelbaren Einfluss auf das haben, was der Kunde wahrnimmt. Die drei großen deutschen Privatbrauereien Bitburger, Krombacher und Warsteiner haben ein Gemeinschaftsunternehmen zur Sicherung des Absatzwegs gegründet. Die Standardisierung der Distributionsprozesse bringt für diese Unternehmen nicht nur eine deutliche Reduktion der Vertriebskosten mit sich. Vor allem erschwert es ausländischen Getränkegiganten, den deutschen Biermarkt durch die Übermacht auf der Distributionsseite in den Würgegriff zu nehmen. Und auf der Kundenseite führt diese Prozessharmonisierung zu keinerlei Nachteil. Standardisierung ist keine Einbahnstraße. Wer mit der Standardisierung von Prozessen über das Ziel hinausschießt, begibt sich in die Gefahr, an den Erfordernissen der Praxis vorbei zu agieren. Dies ist immer dann der Fall, wenn Prozesse durch ein aufgeblähtes Regelwerk so weit eingeengt werden, dass jegliche Flexibilität verloren geht. Ein anschauliches Beispiel liefert der „Streichelerlass“ des Landes Nordrhein-Westfalen aus dem Jahr 2002. Die damalige Landesumweltministerin Bärbel Höhn drangsalierte die Bauern mit dem so genannten „Kuschelparagraphen“, nach dem sicherzustellen war, dass jedes Tier mindestens einmal morgens und abends individuell betreut werde. Damit nicht genug: Die Bauern im Nordwesten der Republik wurden auch dazu verpflichtet, den Tieren Spielzeuge wie beispielsweise Bälle oder Spielketten zur Verfügung zu stellen. Das komische Moment dieses Landesgesetzes darf nicht den Blick dafür versperren, dass derartiger Unfug die praktische Durchführung von Geschäftsprozessen erheblich erschwert. Wenn Ihre Prozesse so eingekeilt sind, dass die Mitarbeiter überhaupt keine Möglichkeit mehr haben, flexibel zu reagieren, können Sie nur darauf hoffen, dass die Kundenanforderungen ebenso standardisiert sind wie Ihre Prozesse. „Wir haben Probleme, Paragraph 34a computermäßig in den Griff zu kriegen.“ Prozesse können durch zu komplexe Regelwerke regelrecht zum Erliegen kommen. Im Jahr 2009 forderte ein Finanzamt aus Niedersachsen die Steuerpflichtigen nicht nur auf, gegen die von diesem Finanzamt erstellten Steuerbescheide Einspruch einzulegen, sondern übertrug auch die Berechnung der Steuerlast auf die Steuerpflichtigen und deren Berater. Der Grund für diese absurden Vorkommnisse: Die Finanzverwaltung war nicht in der Lage, die Komplexität des Steuerrechts – in diesem Fall den Paragraph 34a des Einkommenssteuergesetzes – in der Software für die Bearbeitung von Steuerbescheiden abzubilden. Der Sprecher der Oberfinanzdirektion Hannover bestätigte gegenüber der Frankfurter Allgemeinen Zeitung: „Wir haben Probleme, Paragraph 34a computermäßig in den Griff zu kriegen.“ Die Liste der absurden Vorschriften ließe sich unendlich fortsetzen. Das Gemeinsame daran ist, dass deren Umsetzung so hohe Anforderungen an das
154
Redesign
Prozessmanagement stellt, dass Verzögerungen, Fehler, extrem hohe Koordinations- und Kommunikationskosten unvermeidbar sind. Die Tendenz zur Reglementierung von Prozessen besteht immer dann, wenn besondere Ereignisse dazu Anlass geben. In der Folge der Bilanzskandale in den USA erließ die US-amerikanische Regierung den Sarbanes-Oxley Act. Dieser sollte durch die Schaffung von mehr Transparenz massive Bilanzmanipulationen wie beispielsweise bei Enron und Worldcom vermeiden. Die Folge für die an US-Börsen notierten Aktiengesellschaften war unter anderem ein enormer administrativer Aufwand zur Erstellung der erforderlichen Dokumentationen und Testate. Als Konsequenz daraus zogen zahlreiche internationale Konzerne ihre Präsenz von US-Börsen zurück. Von den 16 deutschen Konzernen, die im Jahr 2006 an der Wall Street notiert waren, blieben 2010 nur fünf übrig. Die Unternehmen, die der Wall Street den Rücken kehrten, bezifferten die zusätzlichen Kosten auf fünf bis 15 Millionen Euro pro Jahr. Auch an dieser Stelle möchten wir an Parkinson erinnern: Es ist eine Pointe der Bürokratie, dass man mit Dienst nach Vorschrift die Urheber der Vorschriften lächerlich machen kann Beachten Sie die folgenden Aspekte: Standardisierung ist eine wichtige Gestaltungshilfe für das Prozess-Redesign. Durch Standardisierung wird ein einheitliches Prozessverständnis gefördert, was einen beschleunigten Erfahrungszuwachs der Mitarbeiter bewirkt. Die erhöhte Regelmäßigkeit in den Arbeitsabläufen verbessert die Prozessstabilität und führt zu Produktivitätssteigerungen. In einer einheitlichen Prozesslandschaft können Optimierungsmaßnahmen relativ leicht von einem Prozess auf andere Prozesse übertragen werden. Gegenüber den Kunden und Lieferanten werden die Schnittstellen vereinheitlicht. Um diese Vorteile zu generieren, sind die folgenden Hinweise hilfreich: Beurteilung des Leistungsspektrums: Betrachten Sie zunächst die Prozessleistungen (Produkte, Zwischenprodukte, interne und externe Dienstleistungen). Untersuchen Sie, ob eine Fülle von Produkten und Dienstleistungen überhaupt erforderlich ist und reduzieren Sie gegebenenfalls die Variantenvielfalt. Bewertung der Standardisierungspotenziale: Prüfen Sie dann, welche Prozesse auf eine standardisierte Plattform gestellt werden können. Das ist zum Beispiel bei Prozessen der Fall, die ein ähnliches oder gleiches Ergebnis liefern. Standardisierung: Versuchen Sie die Prozesse und Ressourcen zur Leistungserstellung so weit wie möglich zu vereinheitlichen. Verlieren Sie jedoch nicht die Notwendigkeit zur Differenzierung aus dem Auge. Es macht keinen Sinn, wenn Sie Ihre Prozesse soweit standardisiert haben, dass Ihre Produkte und Services ihre Identität einbüßen. Berücksichtigung von Freiheitsgraden: Beachten Sie bei der Standardisierung der Prozesse, dass Sie ausreichend Freiraum für flexible Anpassungen lassen. Wer seine
Entwicklung von Redesign-Maßnahmen
155
Prozesse in einem Dickicht von Regeln erstickt, kann nicht erwarten, dass Mitarbeiter flexibel auf Kundenwünsche reagieren. Detaillierungsgrad der Prozessbeschreibung: Standardisierung setzt voraus, dass die Mitarbeiter wissen, wie sie die Prozesse abwickeln sollen. Aus diesem Grund müssen sie entsprechende Prozesshandbücher an die Hand bekommen. Zur Beantwortung der Frage, wie detailliert die Prozessbeschreibung sein muss, gilt die folgende Daumenregel: Je stärker die operative Durchführung der Prozessschritte von einer übergeordneten Steuerung getrennt ist, desto detaillierter muss die Prozessbeschreibung sein. Steuern die Mitarbeiter den Prozess weitestgehend selbst, so reicht eine grobe Beschreibung der Prozesse aus, ohne dass Standardisierungseffekte verloren gehen. Die Standardisierung ist eine wichtige Voraussetzung für die Automatisierung von Prozessen. Wir gehen im nächsten Abschnitt auf die Frage ein, was dabei zu beherzigen ist. Automatisieren Wenn man an Automatisierung von Prozessen denkt, dann stechen vor allem die endlosen Beispiele aus dem Produktionsbereich ins Auge. Menschenleere Fabrikhallen, in denen Roboter die Arbeit verrichten, untermauern diesen Eindruck. Während die Fertigung von Produkten bereits seit Jahrzehnten zu einem sehr hohen Grad automatisiert ist, liegen in Dienstleistungsprozessen noch gewaltige Potenziale. Zaghafte Versuche von Einzelhandelsunternehmen, das Kassenpersonal durch Kassenautomaten zu ersetzen, zeigen, wohin die Reise geht. Die selbstverständliche Nutzung von Geldautomaten, die zunehmende Akzeptanz von Check-in per Automat oder Smartphone lässt vermuten, dass wir in einigen Jahren im Supermarkt am Automaten bezahlen werden. In Deutschland setzen 13 Prozent aller Händler die sogenannten SelfCheckout-Systeme ein, so eine Umfrage des Eurohandelsinstituts. Die Supermarktkette Real hat in 60 seiner bundesweit 340 Filialen entsprechende Geräte installiert. Ikea – der Vorreiter in der Auslagerung von Aufgaben an die Kunden – hat in allen 45 deutschen Filialen Kassenautomaten stehen. Auch hier zeigt Ikea ein gutes Verständnis für die korrespondierenden Kundenprozesse. Der Möbelriese weiß aus hauseigenen Untersuchungen, dass die Kunden ihre Schwierigkeiten mit dem Auffinden der Barcodes haben. Deshalb beschränken die Schweden die Menge der Artikel, die am Kassenautomaten bezahlt werden können, auf 15 Stück. Bei Tesco, der drittgrößten Supermarktkette der Welt, bezahlen bereits heute ein Viertel der britischen Kunden am Automaten. Das Londoner Markforschungsinstitut Retail Banking Research schätzt, dass Ende 2008 circa 16.000 Kassenautomaten in Europa installiert waren. Das würde in etwa einem Prozent aller Supermarktkassen entsprechen. Unter dem Eindruck eines massiven Preiswettbewerbs im Einzelhandel werden die Unternehmen die Kosten für die Selbstbediendungsgeräte in Höhe von circa 16.000 Euro nicht scheuen, um so die Personalkosten zu senken. Schließlich entfallen circa 30 Prozent der Personalkosten eines Supermarkts auf den Kassenbereich.
156
Redesign
Im Bankenbereich führen Automatisierungen zum Beispiel dazu, dass physische Transportprozesse durch technische Neuerungen ersetzt werden. Im grenzüberschreitenden bargeldlosen Zahlungsverkehr für Privatkunden verdrängte die EC-Karte den Euroscheck. Dadurch kam es zu einer erheblichen Vereinfachung der Prozesse, weil der physische Transport entfällt. Mussten 1989 noch 42 Millionen Euroschecks in Europa bewegt werden, so lag diese Zahl 1999 nur noch bei knapp 11 Millionen. Seit Anfang 2002 geben die Banken überhaupt keine Euroschecks mehr aus. Beim Redesign geht es nicht darum, das Falsche schneller zu machen Beim Redesign geht es darum, die Abläufe der Prozesse grundsätzlich zu hinterfragen – statt die Prozesse schlicht zu „elektrifizieren“. Erst wenn Prozesse optimiert sind, sollte die Frage geklärt werden, welche technischen Möglichkeiten für eine weiterreichende Verbesserung genutzt werden können und welche Konsequenzen dies möglicherweise nach sich zieht. Ansonsten besteht die Gefahr, dass ein suboptimaler Prozess lediglich automatisiert und damit sozusagen das Falsche schneller gemacht wird. Automatisierung von Prozessschritten hat in der Regel mehrere Facetten: Auf der Unternehmensseite werden manuelle Tätigkeiten durch den Einsatz von Computern und Maschinen ersetzt, was zu Produktivitätsvorteilen führt. Für den Kunden geht damit häufig eine Verkürzung der Durchlaufzeiten einher. So beispielsweise, wenn Selbstbedienungsgeräte eingesetzt werden. Vorreiter des Selfservice waren in Deutschland die Banken. Auszahlungen, Einzahlungen und Überweisungen können bei vielen Banken mittlerweile mit einem einzigen Automaten abgewickelt werden. Die Geldautomaten haben einen klassischen Geschäftsprozess am Bankschalter fast vollständig ersetzt. Ungefähr 80 Prozent aller Geldauszahlungen in Deutschland erfolgten 2008 an den rund 55.500 Geldautomaten. Bei den restlichen 20 Prozent nahm der Kunde in der Regel zusätzlich einen nicht automatenfähigen Service in Anspruch, beispielsweise die Auszahlung von Devisen. Natürlich bringt die Automatisierung auch Kosten mit sich. Bei den Geldautomaten stehen den Einsparungen für Personal und Filialflächen monatliche Kosten in Höhe von rund 2.000 Euro für Abschreibung, Wartung, Geldbestückung, Abwicklung der Transaktion etc. gegenüber, was sich für alle Geldautomaten in Deutschland auf einen Betrag von 110 Millionen Euro pro Jahr summiert. Neue Technologien erlauben es, Prozesse komplett zu überdenken und Einsparungen mit gleichzeitig verbessertem Kundenservice zu realisieren. Im November 2004 startete die International Air Transport Association (IATA) das weltweite Programm „Simplifying the Business“, das insbesondere dem geplagten Vielflieger rosige Zeiten verspricht. Ziel war es, mit einer drastischen Neuausrichtung der Prozesse im Luftverkehr jährlich mindestens 6,5 Milliarden US-Dollar einzusparen und den Kunden ein simpleres, reibungsloses Reiseerlebnis zu bieten. Hierzu wurden mehrere Aktionsfelder definiert und 2008 erweitert, die – sollten sie entsprechend der IATA-Vision realisiert werden – die Prozesse vom Ticket-Kauf über den Check-in und Sicherheits-Checks bis hin zur Ankunft
Entwicklung von Redesign-Maßnahmen
157
am Zielflughafen ohne technologische und aus Kundensicht unnötige Brüche abwickeln: Elektronische Tickets, mit Barcodes versehene Boarding Pässe, Airline-unabhängige Selbstbedienungsautomaten, so genannte Common-Use Self Service Kioks (CUSS) sowie berührungslose Gepäckerkennung über Radio-Frequenz-Identifikation (RFID). Alleine bei den elektronischen Tickets sollte die Abdeckung von 19 Prozent in 2004 auf 100 Prozent bis Ende 2007 ansteigen. Die erfolgte Umsetzung dieses Ziels spart der Industrie jährlich 3 Milliarden US-Dollar ein. Dahinter steht eine ebenso ambitionierte Vision für die Prozesse: Der Kunde erhält eine Smart-Card, auf der seine persönlichen Daten, Pass- und Visa-Informationen sowie biometrische Daten gespeichert werden. Er bucht im Internet für den gewünschten Flug ein elektronisches Ticket, dessen Daten mit den persönlichen Informationen des Kunden auf dem Server der Fluggesellschaft hinterlegt werden. Über den Common-Use Self Service Kiosk kann der Gast nun mit seiner Smart-Card einchecken – und das nicht nur am Abflughafen, sondern beispielsweise im Hotel oder in seiner Firma. Seine biometrischen Daten wie beispielsweise Fingerabdruck oder Iris werden gescannt und damit seine Identität verifiziert. Dann werden die gebuchten Flugdaten abgerufen und, wenn nötig, Visa- und Pass-Informationen geprüft. Gleichzeitig werden diese Daten an die Einreisebehörden des Ziellandes übermittelt, so dass der Gast bei der Einreise wiederum über seine Smart-Card und biometrischen Daten schneller die dortigen Formalitäten hinter sich bringen kann. Nun kann noch Gepäck eingecheckt werden. Anstelle des Papier-Gepäckanhängers wird ein RFID-Anhänger mit den Flug- und Passagierdaten versehen, der am Gepäckstück angebracht wird. Idealerweise muss der Passagier nun keine Sicherheits-Checks mehr über sich ergehen lassen, die biometrischen Daten haben bereits alles verraten, und er kann sich direkt ans Gate begeben. In diesem Szenario klingt zwar noch viel Zukunftsmusik mit, doch zeigt es, wie Prozesse mit verschiedenen Beteiligten wie Flughäfen, Fluggesellschaften, Kunden, Behörden und deren unterschiedliche Interessenlagen durch neue Technologien und Automatisierung immer mehr vernetzt werden können. Voraussetzung für die Umsetzung dieser Vision sind standardisierte Prozesse in den betrachteten Bereichen und die Nutzung der gleichen Technologien bei allen beteiligten Unternehmen. Daher treibt die IATA nach eigenem Bekunden die Etablierung von Standards voran. Selbst wenn nur ein einzelnes Unternehmen betroffen ist, sind standardisierte Prozesse notwendig, bevor über deren Automatisierung nachgedacht werden kann. Automatisierung ist für Prozesse sinnvoll, die regelmäßig und in großen Mengen auftreten oder deren Bewältigung einen hohen Einsatz an Personalressourcen erfordern. Automatisierung stößt immer dann an Grenzen, wenn die Prozesse keine Regelmäßigkeit aufweisen. Aus diesem Grund nehmen Managementprozesse wie beispielsweise der Strategieprozess eine Sonderstellung ein, da sie in der Regel keiner Regelmäßigkeit unterliegen. Ganz anders als bei Produktions- oder Vertriebsprozessen sind hier die Planbarkeit und damit die Möglichkeiten zur Automatisierung wesentlich geringer. Der technische Fortschritt wird auch in Zukunft zahlreiche Möglichkeiten zur Automatisierung von Prozessen schaffen. Beachten Sie jedoch den Grundsatz, dass die beste
158
Redesign
Automatisierungsstrategie nichts taugt, wenn der Kunde diese nicht akzeptiert. Aus diesem Grund müssen Sie einen Vorteil für den Kunden aus der Automatisierung ableiten können. Die Unternehmensberatung Gapgemini untersuchte 200 Banken in 26 Ländern und kommt in ihrem sechsten „World Retail Banking Report“ aus dem Jahr 2009 zu dem Schluss, dass die Kunden durchschnittliche Kostenersparnisse von circa einem Drittel erzielen, wenn sie ihre Bankgeschäfte statt in der Filiale online abwickeln: Anstelle von durchschnittlich 91 Euro fallen lediglich 60 Euro Gebühren pro Jahr an. Das ist ein handfestes Argument für die Schaffung von Kundenakzeptanz. Die Automatisierung von Prozessen ist eine wichtige Maßnahme zur Steigerung der Produktivität. Beachten Sie die folgenden Hinweise: Optimierte Prozesse: Bevor Sie Ihre Prozesse automatisieren, müssen Sie zunächst prüfen, ob die Prozesse optimal ablaufen. Es macht keinen Sinn, einen unbrauchbaren Prozess schlicht zu automatisieren, weil Sie so nur das Falsche beschleunigen. Regelmäßigkeit: Die Automatisierung von Prozessen setzt voraus, dass diese eine gewisse Regelmäßigkeit aufweisen. Deshalb sollten Sie zunächst die unterschiedlichen Prozessvarianten soweit wie möglich standardisieren. Achten Sie darauf, dass Prozesse mit singulärem Charakter nicht automatisiert werden können, weil diese keine Regelmäßigkeit aufweisen. Strategische Entscheidungsprozesse seien hier als Beispiel erwähnt. Automatisierungsregeln: Definieren Sie Regeln, nach denen der Prozess ablaufen soll. Dies muss auf einem detaillierten Niveau erfolgen, weil Sie diese Regeln bei der Entwicklung von Automatisierungshilfen wie Software oder Maschinen zugrunde legen müssen. Ausnahmen: Prüfen Sie genau, in welcher Häufigkeit Ausnahmen in den optimierten Prozessen auftreten können und welcher Aufwand damit verbunden ist. In Ausnahmen muss in der Regel händisch nachgebessert werden und dieser Ressourcenaufwand muss möglichst gering gehalten werden. Legen Sie die Prozesse und Regeln für die Ausnahmen eindeutig fest. Vorteile: Die Akzeptanz der Kunden hängt ganz wesentlich davon ab, ob die Automatisierung einen Vorteil für den Kunden bringt. Dabei stehen geringere Kosten, mehr Bequemlichkeit und ein breiteres Angebot im Fokus des Interesses. Wenn Sie Automatisierungshilfen in Ihren Prozessen verankern, beginnt eine kritische Phase. Sie sollten sich vor Augen führen, dass die gewünschten Produktivitätsvorteile möglicherweise nicht eintreten, weil die Automatisierung aus technischen Gründen nicht funktioniert, die Mitarbeiter diese nicht mit Leben füllen oder Kunden sie schlicht ablehnen.
Entwicklung von Redesign-Maßnahmen
159
Flexibilisieren Haben wir in den beiden vorausgehenden Abschnitten über Standardisierung und Automatisierung von Prozessen gesprochen, geht es jetzt um das Gegenteil. Dieser Widerspruch belegt ein weiteres Mal, dass es keine generell optimale Redesign-Maßnahme gibt, erst recht nicht, wenn sie in extremer Ausprägung angewandt wird. Zunehmender Wettbewerbsdruck zwingt die Unternehmen zum Ausbau ihrer Variantenvielfalt. Im Jahr 1902 trat Aspirin mit dem Wirkstoff Acetylsalicylsäure seinen Siegeszug als Schmerzmittel an. Einhundert Jahre später listete die Stiftung Warentest 149 Präparate mit demselben Wirkstoff auf. Beim Nahrungsmittelhersteller Pfanni stieg die Anzahl der Artikel zwischen 1970 und 1990 von 200 auf 710 und die Verpackungsvarianten von 170 auf 1.400. Einer unserer Kunden klagte darüber, dass er die Verpackungsgröße seiner Produkte je nach Region unterschiedlich gestalten müsse, um den Kundenanforderungen gerecht zu werden. Die Folge sind kleinere Seriengrößen und häufiges Umstellen der Maschinen. Kein Wunder, dass die Prozesse komplizierter werden. Zudem verkürzen sich Produktlebenszyklen, was eine Anpassung der Produktionsprozesse in immer kleineren Zeitabständen notwendig macht. Die Deutsche Grammophon brachte die erste Langspielplatte 1951 auf den Markt. Im Jahr 1990 wurden 44 Millionen der schwarzen Scheiben in Deutschland verkauft, ein Jahr später waren es nur noch 24 Millionen und 1995 nicht mehr als 400.000. Damit konnte sich die Langspielplatte immerhin über vier Jahrzehnte behaupten, bevor sie von der CD verdrängt wurde. Im Jahr 2003 wurden weltweit noch 200 Millionen Musik-CDs pro Jahr verkauft, doch zeichnet sich das Ende ihres Produktlebenszyklus bereits nach circa zwanzig Jahren ab. Und das vor allem wegen neuer Speichermedien und der Möglichkeit, Musik und Filme aus dem Internet herunterladen zu können. Fehlende Flexibilität aufgrund einer zu stark automatisierten Fertigung kann auch zu Qualitätsproblemen führen. Bis zum Jahr 2000 mussten im General Motors-Werk Fort Wayne bei 70 Prozent der Fahrzeuge Mängel behoben werden, nachdem diese das Montageband bereits verlassen hatten. Als GM flexiblere Fertigungs- und Montageverfahren nach dem Vorbild japanischer Autobauer einführte, fiel diese Quote auf zehn Prozent. Wie erklären sich diese Unterschiede? Eine weitgehend automatisierte Fertigung basiert auf der Annahme eines unterbrechungsfreien Prozesses. Die Produktivitätsvorteile einer starren Automatisierung können nur generiert werden, wenn immer wieder die gleichen Prozessschritte durchgeführt werden. Das setzt wiederum voraus, dass die gefertigten Produkte mit wenigen Varianten in großen Fertigungslosen produziert werden. Diese „Homogenitätshypothese“ steht jedoch in krassem Widerspruch zur Wirklichkeit. Wenn Sie sich die Fertigung von Autos, Werkzeugmaschinen, Flugzeugen oder die Erstellung von Dienstleistungen im Bankgewerbe, in der Beratungsbranche oder dergleichen anschauen, dann wird eins überdeutlich: In jeder Produktklasse gibt es zwischen jedem Produkt und jeder Dienstleistung Abweichungen. Auch bei klassischer Massenware wie Konsumgütern des täglichen Bedarfs ist dieser Trend zu beobachten. Selbst wenn die eigentlichen Kernprodukte weitgehend gleich bleiben, so werden diese Artikel
160
Redesign
in unterschiedlichen Varianten und mit unterschiedlichen Markennamen angeboten. All das führt im Produktionsprozess zu Unruhe und zwingt zu mehr Flexibilität. Betrachten Sie die Prozesse in Ihrem eigenen Arbeitsumfeld. Sicherlich hat sich auch in Ihrem Bereich der Trend zur größeren Variantenvielfalt ebenso durchgesetzt wie der Zwang, schneller auf Kundenwünsche reagieren zu müssen. Der stark strapazierte Satz, dass nicht die Großen die Kleinen, sondern vielmehr die Schnellen die Langsamen fressen, gilt mehr denn je, ganz gleich, ob Sie Schrauben oder Büromaterial verkaufen. Wichtig ist, dass Sie flexibel und schnell auf Kundenwünsche reagieren können. Der amerikanische Baumaschinenhersteller Caterpillar bietet seit Jahren seinen Kunden einen 24-Stunden-Service bei der Belieferung von Ersatzteilen. Was nutzt eine millionenschwere Baumaschine, wenn man mehrere Tage auf ein Ersatzteil warten muss? Büromittelversender verkaufen alle mehr oder weniger das Gleiche. Entscheidend ist, wie viel Zeit zwischen Bestellung und Lieferung vergeht. Der Spielwarenhersteller Lego produziert seine Kunststoffbausteine auf Lager und stellt sogenannte „Sets“ erst zusammen, wenn entsprechende Bestellungen vorliegen. Lego-Chef Jörgen Vig Knudstorp erläutert diese Strategie wie folgt: „So können wir schneller auf die Wünsche unserer Kunden reagieren, denn auch in der Spielwarenbranche ist Geschwindigkeit entscheidend“. In dieses Bild passt die Vorstellung von starren Prozessen nicht mehr. In der Zeit von Henry Ford war die von ihm eingeführte Art der Massenfertigung ein optimales und für die damalige Zeit geniales Mittel zur Steigerung der Produktivität. Vermutlich wäre der Automobilmarkt erst viel später zu einem Massengeschäft geworden, wäre Ford nicht schon damals dem mutigen Weg einer hoch standardisierten Montage gefolgt. Doch Ford hatte nicht mit der Forderung nach individueller Ausstattung zu kämpfen. Sein Credo, jedem Kunden die Farbe seines Wunsches zu ermöglichen – so lange diese schwarz ist – zeigt, wie klar Ford erkannte, dass Veränderungen im Produktionsprozess zu Pannen führen können. Sind die Prozesse zu starr, werden Teile gefertigt, die keiner will Nicht nur in der Automobilbranche haben sich die Marktbedingungen so geändert, dass mehr Flexibilität geboten ist. Dennoch herrscht in zahlreichen Unternehmen noch immer das Prinzip der tayloristischen Arbeitsteilung vor. Ein Kernaspekt dieser Organisationsform besteht in einem starren Produktionsprozess und der funktionsspezifischen Zuordnung von Tätigkeiten zu Arbeitsplätzen und Abteilungen. Jegliche Abänderung dieses Prinzips führt zu Störungen. So ist beispielsweise der Materialfluss häufig so umständlich und unflexibel, dass die Produktion unterbrochen werden muss. Mitunter werden Teile gefertigt, ohne dass es dafür Aufträge gibt. Die marktbedingte Zunahme der Variantenvielfalt und die damit einhergehende Notwendigkeit zur Flexibilisierung von Prozessen haben in den vergangenen Jahren mehr und mehr Unternehmen dazu bewogen, ihre Abläufe auf den Prüfstand zu stellen und eine konsequente Prozessorientierung einzuführen. Prozessorientierung bedeutet, dass anstelle einzelner Funktionen ganze
Entwicklung von Redesign-Maßnahmen
161
Prozesse oder Teilprozesse in organisatorischen Einheiten – teilweise sogar in einer einzigen Arbeitsposition – integriert werden. Die Produktion wird auftragsbezogen organisiert, damit sichergestellt ist, dass nur das produziert wird, was auch verkauft werden kann. Da eine Organisationseinheit den gesamten Prozess der Herstellung eines Produkts verantwortet, steigt die Flexibilität, weil die Abhängigkeit von anderen Bereichen und der damit verbundene Abstimmungsaufwand schwinden. Bereits Anfang der neunziger Jahre hob der schwäbische Waagenhersteller Mettler-Toledo die funktionale Arbeitsteilung auf. In der neuen Organisation war jeweils ein Monteur für die vollständige Herstellung eines Geräts zuständig. Dass damit der Koordinationsbedarf gegenüber einer auf Spezialisierung ausgerichteten Arbeitsteilung dramatisch abnimmt und die Flexibilität steigt, liegt auf der Hand. Die Produkte von Mettler-Toledo lassen sich aufgrund ihrer technischen Komplexität und Größe von einem Team oder gar einem einzigen Mitarbeiter montieren. Diese Art der Flexibilisierung von Prozessen ist jedoch nicht geeignet, wenn es um die Montage eines Großraumflugzeugs oder einer kompletten Chemieanlage geht. Hier stehen der Integration eines gesamten Prozesses in eine einzige organisatorische Einheit technische Sachzwänge im Weg, die sich mit der Prozessorientierung in Reinkultur nicht vereinbaren lassen. Es würde Jahre dauern, bis ein einziges Team ein derart komplexes Produkt fertig gestellt hätte. Zudem würde das Mehr an Flexibilität mit einem drastischen Produktivitätsverlust einhergehen. Schließlich ist der Erfolg von Unternehmen in hohem Maße davon abhängig, inwieweit es gelingt, Größeneffekte durch die Konzentration betrieblicher Funktionen zu realisieren. Werden sämtliche Tätigkeiten, die zur Erstellung eines Produkts erforderlich sind, in einer organisatorischen Einheit integriert, können folglich auch keine Verbundeffekte genutzt werden. In letzter Konsequenz würden sich die einzelnen Organisationseinheiten kaum mehr von Handwerksbetrieben unterscheiden und die Kostenvorteile größerer Organisationen gingen verloren. Ein weiterer Nachteil einer überzogenen Prozessorientierung besteht in dem Verlust an Spezialistenfähigkeiten. Dies gilt insbesondere dann, wenn es sich um spezifische und lernintensive Tätigkeiten handelt. Wenn ein Mitarbeiter eine ganze Reihe unterschiedlicher Tätigkeiten beherrschen muss, so steigt zwar einerseits die Flexibilität des Einzelnen. Andererseits geht mit der Verbreiterung des Tätigkeitsspektrums automatisch ein Verlust von Spezialwissen einher. Auch dazu ein Beispiel: Mercedes-Benz führte 1992 im Werk Rastatt die Gruppenarbeit ein. Die Autos wurden in kleinen Werkstätten von einem Team montiert. Jeder Mitarbeiter führte eine Fülle von Aufgaben aus anstatt eine einzelne Funktion, wie dies in der traditionellen Autofertigung üblich war. All das führte zu mehr Flexibilität. Die vollkommene Loslösung von der funktionalen Arbeitsteilung hatte jedoch auch gravierende Nachteile. Die einzelnen Verrichtungen waren derart umfangreich und erforderten eine entsprechende Wissensbreite, dass die Mitarbeiter sich nach langen Arbeitspausen wie beispielsweise Urlaub oder Krankheit immer wieder einarbeiten mussten, um die erforderliche Produktivität zu erzielen. Nachdem die Automanager dieses Problem erkannt hatten, wurden die Prozesse neu organisiert. Heute
162
Redesign
herrscht eine Kombination vor, die die Vorteile der reinen Fließbandarbeit mit jenen der prozessorientierten Gruppenarbeit verbindet. Beachten Sie: Die Flexibilisierung von Prozessen wird durch die Reduktion von Abhängigkeiten zwischen den prozessbeteiligten Einheiten herbeigeführt. Abhängigkeiten können verschiedene Gründe haben: Sei es, dass ein Bereich auf ein Vorprodukt aus einem anderen Bereich wartet oder dass der Prozess durch eine andere übergeordnete Stelle gesteuert wird. Die Abhängigkeiten können reduziert werden, wenn möglichst viele Prozessschritte in den Tätigkeitsbereich einer organisatorischen Einheit, einem Team oder gar einer einzelnen Arbeitsposition integriert werden. Dabei sind die folgenden Gesichtspunkte zu berücksichtigen: Vor- und Nachteile überprüfen: Überprüfen Sie zunächst, ob die Integration des gesamten Prozesses in einer organisatorischen Einheit zu einer Flexibilisierung des Prozesses beitragen kann und welche Vor- und Nachteile dies hat. Dabei sind die Komplexität und der Umfang der Prozessleistung ausschlaggebend. Beachten Sie zudem gesetzliche Vorschriften, die ein Zusammenlegen von Prozessschritten möglicherweise untersagen. Einen solchen Fall haben wir bereits mit dem Beispiel der Trennung von Handels- und Abwicklungsprozessen im Investmentbanking erwähnt. Subprozesse definieren: Wenn die Prozessleistung – sei es ein Produkt oder eine Dienstleistung – zu komplex und zu umfangreich ist, sollten Sie einzelne Subprozesse auf mehrere organisatorische Einheiten aufteilen. Definieren Sie dazu in sich geschlossene Teilleistungen, beispielsweise einzelne Baukomponenten, die in nachfolgenden Prozessschritten weiterverarbeitet werden. Prozesseigner festlegen: Definieren Sie für jeden Prozess einen Mitarbeiter pro Team als Prozesseigner, der sowohl für die Durchführung des Prozesses als auch für die Prozessleistung verantwortlich ist. Dem Prozesseigner kommt eine koordinierende Funktion zu, sobald es beispielsweise zu Verzögerungen kommt, die ihrerseits die Arbeit anderer Bereiche beeinträchtigen. Ist der Prozess auf mehrere Einheiten verteilt, so sollten Sie für jeden Subprozess einen Prozesseigner bestimmen. Die Koordination der Prozesseigner muss – je nach Komplexität – über eine übergeordnete Stelle erfolgen. Abläufe definieren: Jedes Team legt selbst die Abläufe seiner Tätigkeiten fest. Dadurch entfällt die Notwendigkeit einer übergeordneten Koordination, die Kommunikations- und Entscheidungswege werden deutlich verkürzt. Im Ergebnis steigt die Flexibilität. Bedenken Sie dabei, dass die Delegation der Verantwortung für die Prozessleistung an eine organisatorische Einheit immer ein Dilemma offenbart: Einerseits sind Sie auf die Kreativität und Flexibilität autonomer Teams angewiesen, andererseits liegt die Befürchtung nahe, dass sich die Autonomie in Anarchie umkehrt. Der scheinbare
Entwicklung von Redesign-Maßnahmen
163
Widerspruch lässt sich durch die Delegation von Entscheidungskompetenzen, die gleichzeitige Vorgabe von Zielen sowie deren konsequenter Überwachung lösen. Die Ausführungen zur Standardisierung, Automatisierung und Flexibilisierung machen deutlich, wie schwierig es ist, den optimalen Mittelweg für das jeweilige Unternehmen zu finden. Einerseits müssen Prozesse so angelegt sein, dass sie ein rasches Reagieren auf Kundenanforderungen ermöglichen. Andererseits darf die Produktivität dabei nicht unter die Räder kommen. Das Ganze klingt ebenso banal wie unkonkret. Das ist so, weil es keine Standardlösung gibt. Wer versucht, ein noch so erfolgreiches Konzept von einem Unternehmen auf ein anderes zu übertragen, wird scheitern.
4.2.4
Sicherstellen der Prozessqualität
Tief und demütig gebeugt konnte die interessierte Weltöffentlichkeit Akio Toyoda, den Chef des nach Absatzzahlen weltgrößten Autobauers Toyota, im Februar 2010 vor den Kameras sehen. Das war die in Japan übliche Reaktion auf die gravierenden Probleme, die Toyotas Kunden mit fehlerhaften Gaspedalen und Bremsen erleben mussten. Alleine in Amerika und Europa wurden 4,5 Millionen Fahrzeuge wegen klemmender Gaspedale in die Werkstätten gerufen. Im Jahr 2005 startete die damalige DaimlerChrysler AG eine Rückrufaktion für 1,3 Millionen Fahrzeuge, bei denen es zu Problemen mit Spannungsreglern der Lichtmaschine und der Batteriesteuerung gekommen war. Im Jahr 2002 rief BMW 20.500 Fahrzeuge der 3er-Reihe, 38.000 Minis und 56.000 Geländewagen X5 zurück. Beim 3er bestand die Gefahr, dass sich der Airbag auch ohne Aufprall öffnete. Der Mini hatte Probleme mit einem Stahlseil, so dass ein Gang zu blockieren drohte, und beim X5 löste sich unter bestimmten Umständen das Bremspedal. Im Jahr 2005 lieferte der weltgrößte Autombilzulieferer Bosch defekte Einspritzpumpen an seine Kunden und brachte damit die Montagebänder einiger Automobilhersteller zum Stehen. Qualitätsprobleme treten indes nicht nur bei europäischen Autobauern auf. Philips musste im Jahr 2009 sieben Millionen von insgesamt 25 Millionen verkauften SenseoKaffeeautomaten zurückrufen, weil bei stark verkalkten Geräten die Gefahr bestand, dass ein Sicherheitsmechanismus versagte und Benutzer sich verletzen konnten. Es ist kein Geheimnis, dass die Qualität von Produkten und Dienstleistungen von der Qualität der Prozesse abhängt, aus denen sie hervorgehen. Wer seine Prozesse nicht im Griff hat, kann nicht erwarten, zufriedenstellende Services und einwandfreie Produkte zu schaffen. Wie man die Qualität letztendlich sicherstellt, ist offensichtlich in vielen Unternehmen noch ein Mysterium. Unerkannte Fehler führen auch in administrativen Prozessen zu eskalierenden Kosten. In einem Beratungsprojekt identifizierten wir in der Kundendatenbank eines Handelsunter-
164
Redesign
nehmens 17 Prozent Dubletten, also mehrfach registrierte Personen beziehungsweise Unternehmen. Mehrmals pro Jahr erhielten die Kunden umfangreiches Werbematerial per Post. Die „Dubletten-Kunden“ wurden entsprechend mehrfach versorgt, was zusätzliche Kosten von immerhin sechs Millionen Euro verursachte. Der Grund für die kostspieligen Doppelgänger lag am Anfang der Prozesskette: Bei der Registrierung der Kundendaten fand keine Prüfung statt, ob der Kunde bereits erfasst war oder nicht. Dadurch konnten sich diese beliebig oft in verschiedenen Filialen registrieren lassen, wovon Betrüger reichlich Gebrauch machten. So kam es zu Mehrfachregistrierungen von unseriösen Kunden, die eine Lastschrift im Rahmen des Bankeinzugsverfahrens wieder zurück buchen ließen. Diese so genannten Rücklastschriften führten in fast allen Fällen zu Zahlungsausfällen. Hinzu kamen immense Kosten für das Debitorenmanagement. Zu Mehrfachregistrierungen kam es jedoch auch bei Kunden, die schlicht vergessen hatten, dass sie bereits registriert waren. Das Beispiel zeigt, dass eine mangelhafte Qualitätskontrolle zu gravierenden Kosten in späteren Prozessschritten führen kann. Über den finanziellen Schaden hinaus besteht zudem die Gefahr, dass auch das Image des Unternehmens in Mitleidenschaft gezogen wird, was in der Regel noch gravierender ist, sich jedoch nicht beziffern lässt. Das wird noch schlimmer, wenn vorhandene Kontrollen versagt haben. Auch dazu ein Beispiel: Zwischen 1994 und 2000 unterschlug Eduardo Del Rio, ein bis dahin unauffälliger Mitarbeiter der Deutschen Bank in New York, insgesamt 8,5 Millionen US-Dollar von Konten vermögender Privatkunden des Geldinstituts, unter anderem auch Gelder der Familie Thyssen. So stellte er den Kunden fiktive Gebühren in Rechnung und überwies diese auf seine Privatkonten bei anderen Banken. Während Del Rio sich zwei Appartementgebäude, eine luxuriöse Eigentumswohnung sowie ein paar Nobelautos zulegte, blieben die Lücken im Prozess unentdeckt. Erst als im April 2000 im Zuge der Übernahme von Bankers Trust durch die Deutsche Bank eine umfassende Prüfung der Privatkundenkonten erfolgte, flog der Schwindel auf. Der Bankangestellte wurde zu vier Jahren Haft und zu einer Entschädigungszahlung von 9,2 Millionen US-Dollar verurteilt. Wie konnte der Aderlass immerhin acht Jahre unentdeckt bleiben? Der Impuls zur Unterschlagung war ein Zufall. Im Jahr 1994 teilte Del Rio einem Kunden versehentlich einen zu geringen Kontostand mit. Nach einiger Zeit fiel zwar Del Rio der Fehler auf, aber der Kunde merkte offenbar nichts. Aus diesem Vertrauen in die Bank konnte Del Rio Kapital schlagen. Über die Jahre hinweg berechnete er seinen Kunden erfundene Gebühren, fingierte Zahlungen und ließ sogar kleinere Beträge von deren Konten abbuchen. Er unterlief mit einem einfachen Trick das etablierte Vier-Augen-Prinzip, das besagt, dass jede Transaktion durch einen weiteren Mitarbeiter kontrolliert und gegengezeichnet werden muss. Da die von Del Rio betreuten Kunden in Lateinamerika ansässig waren – auch die besagten Mitglieder der Familie Thyssen –, waren der Schriftverkehr und die Zahlungsaufträge in spanischer Sprache verfasst. Für die Zweitunterschrift nach dem Vier-Augen-Prinzip bat Del Rio Kollegen, die der spanischen Sprache nicht mäch-
Entwicklung von Redesign-Maßnahmen
165
tig waren. Offenbar mit Erfolg. Denn keiner der Kollegen verweigerte die Unterschrift. So können Kontrollen ad absurdum geführt werden. Ein ebenso ungeheuerliches wie spektakuläres Ereignis trug sich 2004 zu. Ein Neunzehnjähriger beantragte bei einem deutschen Internet-Dienstleister die Übertragung der Webadresse von ebay auf seinen Namen. Der Antrag wurde offensichtlich ungeprüft an die Adressregistrierungsstelle Denic weitergeleitet, die ihrerseits den Antrag ungeprüft an den Internet-Dienstleister von eBay sendete. Als dieser nicht widersprach, wurde die ebay-Website kurzum auf den Rechner des neunzehnjährigen Antragstellers umgeleitet. Die Folge: Die ebay-Website war für Stunden nicht erreichbar. Was für den distanzierten Betrachter als witziger Jungenstreich anmutet, stellt in Wahrheit ein markantes Beispiel für fehlende Kontrollmechanismen in Prozessen dar. Die vorangegangenen Beispiele zeigen, wie wichtig Kontrollen als Qualitätssicherungsmaßnahmen in Prozessen sind. Das gilt auch dann, wenn bislang kein Grund zur Besorgnis bestand. Der Schaden wird natürlich nicht immer durch vorsätzliches Fehlverhalten verursacht. Wenn beispielsweise eine Vielzahl von Daten in komplizierten Rechenoperationen verarbeitet wird, dann sind Fehler nicht auszuschließen. Wie auch immer die Kontrollmechanismen aussehen, eine hundertprozentige Qualität ist nicht zu erreichen. Zudem ist zu beachten, dass auch Qualität dem ökonomischen Prinzip unterliegt. Demnach muss der Nutzen höher sein als die anfallenden Kosten für die Qualitätssicherung. Es geht also nicht um das maximale, sondern das optimale Qualitätsniveau. Von diesem Grundsatz gibt es jedoch auch Ausnahmen. Diese liegen immer dann vor, wenn ein Fehler in einem Prozess zu einer Katastrophe führen kann. Wenn Kontrollmechanismen in Prozessen installiert werden, müssen deshalb stets zwei Fragen beantwortet werden: Wie hoch ist die Wahrscheinlichkeit für einen Schadenfall? Wie hoch könnte der Schaden ausfallen und welche Konsequenzen hat dies? Auch bei extrem geringer Wahrscheinlichkeit ist es denkbar, dass der Negativfall so verheerende Konsequenzen mit sich bringt, dass das maximal mögliche Qualitätsniveau geboten ist. Dies zeigt ein weiteres Beispiel, bei dem deutlich wird, dass eine Einschränkung der Kontrollen aus wirtschaftlichen Erwägungen sogar an ethische Grenzen stoßen würde. Früher folgten Flugzeuge ausschließlich Leitstrahlen der am Boden montierten Funkfeuer. Zur Standortbestimmung dienten Flugkarten, in denen die Peilungen der Funkfeuer manuell eingetragen wurden. In den letzten Jahren haben sich die Flugführungstechnologien grundlegend geändert. Insbesondere das satellitengesteuerte Global Positioning System (GPS), das auch für Navigationssysteme in Fahrzeugen genutzt wird, erlaubt eine wesentlich exaktere Positionsbestimmung. Zudem ermöglichen komplexe Flugführungsrechner, so genannte Flight Management Systeme, eine deutlich präzisere Flugführung. Ein Kernelement bildet dabei eine Navigationsdatenbank, in der auch die
166
Redesign
Positionen und die Größe von Hindernissen gespeichert sind. Naturgemäß ist die Genauigkeit dieser Daten von großer Wichtigkeit, um insbesondere bei schlechter Sicht im An- und Abflugbereich Hindernissen wie Bergen und Hochhäusern rechtzeitig ausweichen zu können. Zu diesem Zweck wird ein enormer Aufwand betrieben, um die Fehlerfreiheit der Daten zu garantieren. Die Navigationsdatenbank wird alle 28 Tage aktualisiert, komplizierte Softwaretools überprüfen die Wirklichkeitstreue der Daten und ein umfangreiches Regelwerk standardisiert die Prozesse. Der Nutzen dieser Qualitätssicherungsmaßnahmen lässt sich nicht in monetären Größen zum Ausdruck bringen und entzieht sich insofern einer Kosten-Nutzen-Optimierung. Das Beispiel stellt nur auf den ersten Blick einen Sonderfall dar. Auch in anderen Branchen finden sich Geschäftsprozesse, die für die betrachteten Unternehmen und die involvierten Menschen einen so wichtigen Lebensnerv darstellen, dass jeder Aufwand für die Qualitätssicherung gerechtfertigt ist. Alle Beispiele verdeutlichen, wie wichtig eine gute und klug konzipierte Qualitätskontrolle ist. Die Maxime lautet: nicht Fehlererkennung – sondern Fehlervermeidung. Wenn die Öl-Kontrolllampe im Auto aufleuchtet, ist das Problem zwar erkannt, jedoch sind gravierende Schäden am Motor meist schon eingetreten. Ihre Kontrollmechanismen sollten besser funktionieren. Dabei hilft die folgende Checkliste: Zur Integration geeigneter Qualitätssicherungsmaßnahmen sollten Sie die folgenden Schritte beachten: Definition der Prüfschritte: Planen Sie Prüfschritte immer in den Prozessschritten, in denen die Ursachen für folgenreiche Fehler liegen könnten. Damit wird auch klar, dass Qualitätskontrollen am Ende eines Fertigungsprozesses nicht ausreichend sind. Achten Sie bei der Definition der Prüfschritte darauf, dass die Möglichkeit zum Zurückverfolgen der Fehlerursachen besteht. Die Prüfung sollte nicht auf die Identifikation von Fehlersymptomen beschränkt werden. Definition der Fehler: Bestimmen Sie, welche Fehler durch die Prüfschritte festgestellt werden sollen. Achten Sie darauf, dass eine sinnvolle Qualitätskontrolle nicht in Überwachung ausartet, was das Gegenteil von dem bewirken würde, was Sie erreichen wollen. Bestimmung der Fehlerkosten: Berechnen Sie auf der Grundlage historischer Daten eines angemessenen Zeitraums, welche Kosten in der Vergangenheit durch diese Art von Fehlern entstanden sind, und ermitteln Sie die Fehlerkosten pro Jahr. ⎯
Vergleichen Sie die Fehlerkosten mit den Kosten für den beabsichtigten Prüfschritt und bewerten Sie die Wirtschaftlichkeit der Qualitätskontrolle.
⎯
Auch wenn in den vergangenen Jahren keine Fehlerkosten entstanden sind, sollten Sie sich ein Bild davon machen, ob durch das Eintreten eines Fehlers möglicherweise existenzielle Probleme entstehen könnten.
Entwicklung von Redesign-Maßnahmen ⎯
167
Bei der Entscheidung über die Durchführung des Prüfschritts sollte beachtet werden, dass ein Maximum an Kontrolle ungeachtet der Kosten geboten sein kann und sich Imageschäden nicht beziffern lassen.
Definition von Auslösern: Legen Sie fest, wer die Prüfschritte zu welchem Zeitpunkt oder bei welchem Ereignis durchführen soll. Insofern aufsichtsrechtliche Vorschriften nicht widersprechen, sollte die Verantwortung für die Qualitätssicherung bei jenen Mitarbeitern liegen, die auch die übrigen Tätigkeiten im Prozess verrichten. Damit werden die Aufmerksamkeit für eine hohe Prozessqualität und die aktive Fehlervermeidung gestärkt. Qualifizierung von Mitarbeitern: Sorgen Sie dafür, dass die verantwortlichen Mitarbeiter über die erforderlichen Kenntnisse zur Qualitätssicherung verfügen. Trainingsmaßnahmen, Checklisten, Handbücher und Anweisungen sind wichtige Hilfsmittel. Maßnahmen für den Störfall: Minimieren Sie die Auswirkungen von Fehlern. Es wird Ihnen nicht gelingen, alle Fehlerursachen zu beseitigen. Legen Sie Prozesse und Systeme so aus, dass die Auswirkungen von Fehlern möglichst einfach und schnell begrenzt werden können. Denken Sie an einfache Funktionen zum Stornieren oder Abbrechen eines Prozessschritts.
4.2.5
Entwurf der Organisationsstruktur
Das Jahr 2004 war für den Ölmulti Royal Dutch Shell ein zwiespältiges Jahr. Einerseits erwirtschaftete das Unternehmen aufgrund des für damalige Verhältnisse hohen Ölpreises von rund 50 US-Dollar pro Barrel einen Gewinn in Höhe von 14,2 Milliarden Euro, den bis dahin höchsten der Konzerngeschichte. Andererseits musste der Energiekonzern Anfang 2004 eingestehen, die eigenen Ölreserven erheblich überschätzt zu haben. Binnen Jahresfrist korrigierte die Ölfirma ihre Reserven fünfmal in Folge um insgesamt mehr als ein Viertel. Statt 18 Milliarden Barrel verfüge Royal Dutch Shell über lediglich knapp 13 Milliarden Barrel. Daraufhin stürzte der Aktienkurs beider Gesellschaften und auch Konzernchef Philip Watts. Um zu verstehen, wie es dazu kommen konnte, werfen wir einen Blick auf die außergewöhnliche Organisationsstruktur des Unternehmens. Royal Dutch Shell leistete sich nicht nur eine Doppelspitze, deren Erfolge erfahrungsgemäß überschaubar sind. Zudem wurde der Ölkonzern von zwei Holdinggesellschaften gesteuert, ähnlich wie der Konsumgüterhersteller Unilever, was besonders anfällig für politisch motivierte Grabenkämpfe ist. Die eigenwillige Konstruktion des Unternehmens, von dem die Royal Dutch Petroleum Company mit Sitz in Den Haag 60 Prozent des Firmenwertes und die Shell Transport and Trading Company in London die restlichen 40 Prozent hält, entstand durch den Zusammenschluss der einstigen Rivalen im
168
Redesign
Jahr 1907. Angesichts der nunmehr aufgedeckten Schwachstellen erstaunt es, dass diese offensichtlich ineffiziente Organisationsstruktur immerhin fast 100 Jahre gehalten hat. Das ist ein weiterer Beleg für das Beharrungsvermögen erfolgsverwöhnter Unternehmen. Doch in der Vergangenheit hatten institutionelle Investoren die mangelhafte Kommunikation und lange Entscheidungswege in der schwerfälligen Doppelstruktur vermehrt beklagt. In der zersplitterten Unternehmenssteuerung wird auch der Hauptgrund gesehen, warum die Korrektur der nachgewiesenen Ölreserven so lange ausblieb und die korrekten Zahlen von den verantwortlichen Managern seit zwei Jahren bewusst verschleiert wurden – so das Ergebnis einer Untersuchung externer Prüfer. Mittlerweile hat der niederländisch-britische Ölkonzern seine beiden Konzernteile in einer Gesellschaft zusammengeführt und die Leitung einem gemeinsamen Vorstand übertragen. Das Unternehmen ist an der Londoner Börse notiert und hat seinen Sitz in Den Haag.
Alte Organisationsstruktur
Royal Dutch Petroleum Company (NL)
Shell Transport & Trading Company (GB)
60% Beteiligung
40% Beteiligung
Shell Petroleum N.V. (NL)
Shell Petroleum Company Ltd. (GB)
Neue Organisationsstruktur
Royal Dutch Shell plc
Royal Dutch Petroleum Company (NL)
Shell Transport & Trading Company (GB)
Geschäftsfelder Förderung und Produktion – Gas und Energie – Ölprodukte – Chemie
Operative Gesellschaften
Abbildung 23: Alte und neue Organisationsstruktur von Royal Dutch Shell (Quelle: Unternehmensangaben, Frankfurter Allgemeine Zeitung 1. November 2004)
Das Beispiel Royal Dutch Shell zeigt, wie bedeutsam die Organisationsstruktur für das Funktionieren der Prozesse ist. Deshalb kann die Optimierung des einen nicht getrennt von der Optimierung des anderen gesehen werden. Unserer Beobachtung nach haben zahlreiche Unternehmen weniger ein Prozess- als vielmehr ein Strukturproblem, was sich darin zeigt, dass in sich gute Prozesse durch die Organisationsstruktur regelrecht „zerhackstückt“ werden. Beim Entwurf einer Organisationsstruktur stellen sich grundsätzlich zwei Fragen: Wie wird die Macht verteilt: zentral oder dezentral?
Entwicklung von Redesign-Maßnahmen
169
Nach welchem Prinzip sollte die Organisation ausgerichtet sein: nach Kunden, Regionen oder Produkten? Die erste Frage nach der Macht bewegt sich in dem ewigen Spannungsfeld zwischen Zentralisierung und Dezentralisierung. Die im folgenden geschilderten Beispiele zeigen, dass diese Frage nie abschließend beantwortet werden kann. Es gibt ebenso gute Gründe für wie gegen eine Zentralisierung beziehungsweise Dezentralisierung. Bei der zweiten Frage nach der Ausrichtung geht es darum, ob sich die Organisationsstruktur an Kunden, Regionen oder Produkten orientieren soll. Auch auf diese Frage gibt es kein generelles Richtig oder Falsch, wie die Beispiele zeigen werden. Spannungsfeld zwischen Zentralisierung und Dezentralisierung Dass es nicht eine richtige oder falsche Organisationsform gibt, zeigt sich daran, dass erfolgreiche Unternehmen in derselben Branche mal zentral, mal dezentral organisiert sind. So ist der Schweizer Einzelhandelsriese Coop seit der Fusion seiner 14 Genossenschaften im Jahr 2001 zentral aufgestellt, während der Wettbewerber Migros mit seinen zehn regionalen Genossenschaften an einer dezentralen Organisationsstruktur festhält. Grundsätzlich können wir in Zeiten von wirtschaftlichen Krisen eine verstärkte Tendenz zur Zentralisierung erkennen. Im Geschäftsjahr 2009 litt der Düsseldorfer Kranbauer Demag Cranes unter einer stark rückläufigen Nachfrage nach Industrie- und Hafenkränen. Der Auftragseingang verringerte sich um 36,4 Prozent auf 841,9 Millionen Euro und der operative Gewinn ging von 135,8 Millionen Euro in 2008 auf bescheidene 13,2 Millionen zurück. Unter dem Eindruck dieser akuten Krisen entzog der Konzern seinen beiden Tochtergesellschaften, Gottwald und Demag Cranes & Components, die Verantwortung für die operativen Bereiche wie Produktion, Vertrieb und Entwicklung und zentralisierte diese in einer neuen Führungsebene unmittelbar unter dem Konzernvorstand. Zudem wurden die Querschnittsfunktionen wie Einkauf, Personal und IT in der Zentrale konzentriert. Als Begründung für diese Restrukturierung nannte der Vorstandsvorsitzende Aloysius Rauen, das Bestreben effizienter zu werden. Neben dem Kostenaspekt ist die Zentralisierung von Verantwortlichkeiten immer dann sinnvoll, wenn ein Unternehmen eine neue strategische Initiative mit besonders großer Schlagkraft umsetzen will. So bündelte beispielsweise Siemens 2009 die Steuerung des Zukunftsgeschäfts rund um das Thema „Umwelt“ in einem sogenannten „Sustainability Board“. Dieses Gremium untersteht dem Vorstandsmitglied Barbara Kux und koordiniert die Vermarktung, Forschung und Entwicklung sowie den Ausbau des Produktportfolios mit energiesparenden Produkten über alle Konzernbereiche hinweg. Bereits viel früher haben der amerikanische Elektronikriese General Electric und die niederländische Philips ihre Umweltaktivitäten unter den Namen „Ecomagination“ beziehungsweise „Ecovision“ zentral gebündelt. Wir dürfen gespannt sein, wann diese Zentralisierung – zumindest für operative Funktionen – wieder rückgängig gemacht wird. Denn Zentralisierungen verringern grundsätzlich die Flexibilität, da den zuvor autarken Einheiten Entscheidungskompetenzen entzo-
170
Redesign
gen werden, was die Abstimmung mit der Zentrale verlängert und zu Reibungsverlusten führt. Genau aus diesem Grund geht der Einzelhandelsriese Metro – mit circa 68 Milliarden Euro Umsatz nach Wal Mart und Carrefour die Nummer drei im internationalen Handel – den umgekehrten Weg. Die konzernweite Reorganisationsinitiative „Shape 2012“ verfolgt das Ziel einer deutlichen Verbesserung der Kundennähe durch schlankere und schnellere Prozesse. Der Grundgedanke lautet so dezentral wie möglich, so zentral wie nötig. Zu diesem Zweck werden beispielsweise Querschnittsgesellschaften für den Konzerneinkauf, das Informationsmanagement und die Logistik aufgelöst und die entsprechenden Funktionen auf die einzelnen Gesellschaften wie Metro Cash & Carry, Real, Media Markt und Saturn sowie Galeria Kaufhof dezentral verteilt. Jede dieser Vertriebslinien erhält somit die ungeteilte Verantwortung für die gesamte Wertschöpfungskette vom Lieferanten bis zum Kunden. Auch die Eigenverantwortung der Ländergesellschaften wird gestärkt, damit diese besser auf die jeweiligen Kundenbedürfnisse eingehen können. Die Nachteile einer so konsequenten Dezentralisierung sind geringere Skaleneffekte oder Doppelarbeiten in den verschiedenen Gesellschaften. Um diese unerwünschten Auswirkungen zu verringern, werden alle Gesellschaften über harte Renditevorgaben geführt. Nicht zuletzt deshalb werden die Bereiche Finanzen, Controlling und Risikomanagement zentral in der Konzernholding angesiedelt. Eine sehr starke Dezentralisierung kann unserer Erfahrung nach zur Folge haben, dass die gewonnene Flexibilität teilweise durch die dezentralen Einheiten selbst untergraben wird. So könnten die unterschiedlichen Gesellschaften sich beispielsweise gezwungen sehen, den Einkauf zu koordinieren, um entsprechende Volumina gegenüber den Lieferanten preismindernd geltend zu machen. Führen wir diesen Gedanken fort, so ist der Trend zur Zentralisierung nur eine Frage der Zeit. In den neunziger Jahren erfuhr der schwedisch-schweizerische Industriekonzern ABB nur Lob für seine Organisationsstruktur. Percy Barnevik, der damalige ABB-Chef wurde viermal in Folge zum „Chairman of Europe’s most respected Company“ gekürt. Danach trübte sich das Bild erheblich ein. Zwei erfolglose Manager folgten Barnevik: Göran Lindahl und Jürgen Centermann. Beide konnten die Krise nicht abwenden. Im September 2002 übernahm dann Jürgen Dormann das Ruder. Der reorganisationserfahrene Manager baute einst das Chemiekonglomerat Hoechst mit großem Erfolg um, bevor das Unternehmen 1999 in der Fusion mit Rhône-Poulenc zu Aventis und 2004 mit dem französischen Pharmariesen Sanofi verschmolz. Dormann saß bei ABB auf einem Schuldenberg von rund 30 Milliarden US-Dollar. Seit dem Höhepunkt des Aktienkurses im Jahr 2000 brach die Marktkapitalisierung von ABB von circa 40 Milliarden Euro um 95 Prozent auf etwa 2,2 Milliarden Euro im ersten Quartal 2003 zusammen. ABB galt als Paradebeispiel für die erfolgreiche Dezentralisierung eines Konzerns. Aber gerade die dezentralen Strukturen, einst als der eigentliche Grund für den erfolgreichen Aufstieg in den neunziger Jahren gefeiert, wurden dem Konzern letzten Endes zum Verhängnis. Die lokalen Manager verfügten über weitreichende Handlungsspielräume. Das
Entwicklung von Redesign-Maßnahmen
171
brachte ABB zunächst den Ruf eines global agierenden Technologiekonzerns ein, der trotz seiner Größe in regionalen Märkten individuell auf die lokalen Kundenbedürfnisse reagieren konnte. Hinter den Kulissen erwiesen sich diese Freiheiten jedoch schon sehr früh als ein Hauptgrund für Kommunikationsprobleme und den enormen innerbetrieblichen Koordinationsaufwand. Die Autonomie führte beispielsweise dazu, dass ABB über 600 verschiedene Kalkulationsprogramme verfügte, die einen Austausch von Daten unmöglich machten. Die finnische Niederlassung von ABB verkaufte Transformatoren nach Afrika, obwohl der schwarze Kontinent überhaupt nicht zum eigenen Verkaufsgebiet gehörte. Das, was einen Konzern eigentlich ausmacht, nämlich das schlagkräftige Ganze, zerbröselte bei ABB zunehmend in ein Stückwerk aus autonomen Einheiten. Die Exide Corporation, der weltgrößte Hersteller von Autobatterien, löste 1998 aus einem ähnlichen Grund seine regionale Struktur sogar auf. Die Landesgesellschaften lieferten sich untereinander einen Wettstreit, indem sie in den jeweils anderen Ländern Kampfpreise anboten. So verkauften die Briten Batterien nach Österreich zu einem Preis, der um zehn Prozent unter dem dortigen Landespreis lag. Das Gesamtergebnis des Unternehmens ging zugunsten einzelner Länderorganisationen zurück und die Kunden freuten sich über die Möglichkeit, die Niederlassungen von ein und demselben Lieferanten gegeneinander ausspielen zu können. Ich arbeite in der Zentrale und möchte Ihnen helfen Was lernen wir aus diesen Beispielen? Wenn aus schlagkräftigen lokalen Einheiten im Laufe der Zeit kleine Fürstentümer entstehen, in denen die Chefs allzu selbstherrlich regieren, dann ist es an der Zeit, die Macht der Zentrale zu stärken. Das gilt auch für Unternehmen, die dabei ihre dezentrale Organisationsphilosophie im Grundsatz beibehalten wollen. Wie kommt es zu einer solch ungeliebten Dominanz der lokalen Statthalter? Wenn sich die Zentrale ausschließlich auf die Vorgabe finanzieller Zielgrößen beschränkt, dann entkoppelt sie sich zunehmend vom operativen Geschäft. In der Folge schwindet das erforderliche Wissen, um die Arbeit in den dezentralen Einheiten überhaupt beurteilen zu können. Dann steht dem Aufbau eines lokalen Fürstentums nichts mehr im Weg, weil die Abhängigkeit vom Know-how des dezentralen Managements zunimmt und die Zentrale nur noch auf schlechte Zahlen reagieren kann, aber längst die Fähigkeit verloren hat, das Ruder selbst in die Hand zu nehmen. Warten Sie nicht bis zu dem Tag, an dem Ihre Mitarbeiter den folgenden Satz nicht nur als Witz kolportieren, sondern als doppelte Lüge empfinden: „Ich arbeite in der Zentrale und möchte Ihnen helfen.“ Das soll nicht heißen, dass auf eine zu ausgeprägte Dezentralisierung nun eine ebenso überzogene Zentralisierung der Macht folgen sollte. Wie die folgenden Beispiele zeigen, ist Vorsicht immer dann geboten, wenn die ein oder andere Form extrem ausgeprägt ist: Home Depot, mit rund 2000 Filialen die weltweit größte Baumarktkette, unterhielt bis zum Jahr 2000 insgesamt neun regionale Einkaufsabteilungen, die unabhängig vonein-
172
Redesign
ander die Beschaffung für die Baumärkte in den jeweiligen Regionen durchführten. Zwar schwächte das Unternehmen damit seine Einkaufsmacht gegenüber den Lieferanten, konnte dafür aber individuell auf die lokalen Anforderungen der Baumärkte eingehen. Mittlerweile ist der gesamte Einkauf in Atlanta zentralisiert. Ein deutlich gestrafftes Produktsortiment sowie die höheren Einkaufsvolumina führten zu besseren Konditionen bei den Lieferanten. Allein mit der Senkung der Kapitalmittelbindung – eine Folge der Eliminierung von Ladenhütern – sparte das Unternehmen nach eigenen Angaben in den Jahren 2000 bis 2004 vier Milliarden US-Dollar ein. Auf der anderen Seite haben die regionalen Manager keine Möglichkeit mehr, auf lokale Begebenheiten einzugehen. Auch im Konsumgüterbereich sind die lokalen Besonderheiten sehr unterschiedlich. Das ist der Grund, weshalb Procter & Gamble mit dem Versuch scheiterte, Ende der neunziger Jahre die Verantwortung für das Markenartikelgeschäft in der Konzernzentrale in Cincinnati zu konzentrieren. Anstelle einer länderspezifischen Aufgliederung entschied man sich 1998, die Verantwortung für jeweils eine Produktgruppe wie Waschmittel, Schönheitspflege oder Getränke Managern in der Zentrale zu übertragen. Die Ländergesellschaften wurden zu reinen Vertriebsgesellschaften herabgestuft und die amerikanischen Manager saßen in der Zentrale und versuchten Produkte zu entwickeln, die in allen Regionen Käufer finden sollten. Das Ergebnis war überschaubar: Der Konzern verlor Marktanteile und Geld. Von 1998 bis Ende 2001 schmolz die Bruttomarge – gemessen als Vorsteuergewinn bezogen auf den Umsatz – von Procter & Gamble von 15,3 auf 11,8 Prozent. Sind die Entscheidungskompetenzen ausschließlich auf die Zentrale beschränkt, verkommen die lokalen Einheiten zu reinen Befehlsempfängern. Das erschwert zudem die Suche nach qualifizierten Managern. Wer will schon eine Niederlassung ohne Entscheidungsbefugnis leiten? Und weshalb sollte ein fähiger Manager Ergebnisverantwortung übernehmen, wenn er die Stellhebel für das Erreichen der Ziele nicht beeinflussen kann? Besonders kritisch ist es, wenn eine Organisationsstruktur beschlossen wird, die Prozesse auseinanderreißt, die eigentlich zusammen gehören. Im Rahmen einer umfassenden Restrukturierung vollzog Xerox 1999 in den USA eine Trennung zwischen dem Vertrieb und dem Bereich, der für die Erstellung der Kundenrechnungen zuständig war. Der Vertrieb wurde – statt wie bisher nach Regionen – nunmehr nach Produktlinien ausgerichtet. Die Abrechnungseinheiten hingegen wurden in drei Standorten zentralisiert und waren für bestimmte geografische Regionen zuständig. Diese Zweigleisigkeit führte zu einem Desaster, weil für beide Bereiche die Transparenz über die Zuständigkeiten vollkommen verloren ging. Teilweise verbrachten Vertriebsmitarbeiter bis zu 80 Prozent ihrer Arbeitszeit mit der Klärung von Unstimmigkeiten bei der Rechnungsstellung. Damit trat genau das Gegenteil von dem ein, was durch die Reorganisation eigentlich hätte erreicht werden sollen, nämlich die Entlastung des Vertriebs von vertriebsfremden Aufgaben.
Entwicklung von Redesign-Maßnahmen
173
Ausrichtung der Organisation nach Kunden, Regionen oder Produkten Neben der Frage nach einer dezentralen oder zentralen Ausrichtung stellt sich die Frage, ob die Einheiten nach Kundensegmenten, Regionen oder Produkten ausgerichtet werden sollen. Der Softwarekonzern SAP baute 2003 seine Forschungs- und Entwicklungsabteilung um. Wurde dieser Bereich bis dahin nach dem Anwendungsbereich der Software ausgerichtet, so zum Beispiel Personalverwaltung oder Lagerwesen, sah die neue Organisation eine Gliederung nach Branchen wie produzierende Industrie, Finanzdienstleistung etc. vor. Zwischen diesen Einheiten wurde zudem eine Koordinationsstelle etabliert, um Doppelarbeiten zu vermeiden und möglichst viele Softwaremodule in unterschiedlichen Bereichen einzusetzen. Mit der Reorganisation trug SAP dem Erfordernis Rechnung, schneller auf branchenspezifische Kundenanforderungen reagieren zu müssen. Nachdem Dell im Jahr 2008 seinen Rang als weltgrößter Computerhersteller an HewlettPackard abtreten musste, führte das Unternehmen eine grundlegende Restrukturierung durch. Die Organisation wurde auf Kundengruppen – statt wie bisher auf Regionen – ausgerichtet. Es entstanden Sparten für Großunternehmen, Mittelstandskunden, öffentliche Behörden und für das Endverbrauchergeschäft. Michael Dell, der Gründer und Vorstandschef, begründete diesen Schritt damit, dass die Anforderungen durch die Art der Nutzung definiert wird und nicht durch die Region, in der sich die Kunden befänden. Einigen Unternehmen ist sogar der Spagat zwischen diesen unterschiedlichen Organisationsphilosophien gelungen. Oracle liefert ein Beispiel für eine kombinierte Ausrichtung der Organisationseinheiten nach Produkten, Regionen und Kundensegmenten. Anfang 2003 reorganisierte der Softwarehersteller seine nordamerikanische Vertriebseinheit. Der Vertrieb wurde von einer reinen Produktorientierung auf vier unterschiedliche Standbeine gestellt: Eine Gruppe betreute danach die 250 größten Kunden, zwei weitere Einheiten wurden für die westlichen, respektive östlichen Regionen in Nordamerika zuständig und schließlich sollte sich eine vierte Einheit um Kleinkunden kümmern, die in erster Linie über Telemarketing und Internet bedient wurden. Innerhalb dieser vier Einheiten sind Mitarbeiter jeweils auf die unterschiedlichen Produkte spezialisiert, beispielsweise auf Buchhaltungssoftware für Finanzdienstleister. Unserer Erfahrung nach sind solche und ähnliche Kombinationen ein guter Mittelweg, der die Vorteile der unterschiedlichen Alternativen miteinander verknüpft. Zusammenfassend halten wir fest: Zur Prozessoptimierung gehört auch die Frage nach der optimalen Organisationsstruktur, woran sich die Geister der Unternehmensarchitekten scheiden. Unsere Beispiele zeigen nicht nur, dass unterschiedliche Unternehmen dieses Problem auf verschiedene Weise gelöst haben. Zudem wird klar, dass ein ursprünglich eingeschlagener Weg nach einer Weile wieder verlassen und das Gegenteil getan wird. Beachten Sie beim Entwurf der Organisationsstruktur die folgenden Hinweise:
174
Redesign
Zentral: Für eine zentrale Struktur spricht, wenn der Marktauftritt einheitlich sein muss, die Produkte standardisiert sind und das Kundenverhalten weitgehend homogen ist. Zudem sollte die Größe der Einheit überschaubar sein. Dezentral: Umgekehrt sollte die Organisationsstruktur dezentral ausgerichtet sein, wenn der Erfolg in erster Linie von der Anpassungsfähigkeit auf lokale Begebenheiten abhängt und der einheitliche Marktauftritt keine dominierende Rolle spielt. Produkt: Wenn Ihre Produkte und Dienstleistungen kompliziert und infolgedessen erklärungsbedürftig sind, dann empfiehlt sich eine Ausrichtung der vertriebsnahen Organisationseinheiten nach Produktbereichen. Ansonsten besteht die Gefahr, dass die Mitarbeiter nicht genügend Know-how über die eigenen Produkte ansammeln können. Kunden: Sind Ihre Produkte und Dienstleistungen hingegen relativ einfach zu verstehen, so sollten ihre vertriebsnahen Organisationseinheiten nach Kundensegmenten organisiert sein. Durch den stärkeren Kundenfokus können sich die Mitarbeiter mehr mit den spezifischen Anforderungen der jeweiligen Segmente auseinander setzen. Mittelweg: Da die Bedingungen in der Regel nicht immer so klar vorliegen, kommen Sie an einer Kombination nicht vorbei. Achten Sie auf jeden Fall darauf, dass Ihre Organisationsstruktur es überhaupt zulässt, dass die Prozesse optimal ablaufen können. Es gilt der Grundsatz: Structure follows Processes.
4.2.6
Outsourcing von Prozessen
Im Kapitel Potenzialanalyse haben wir in der Analyse der Kernkompetenzen bereits gesehen, dass bestimmte Tätigkeiten oder gar Prozesse ausgelagert werden sollten, wenn diese aus wettbewerbsstrategischer Sicht nur eine untergeordnete Rolle spielen. Sie sollten jedoch nicht dem Irrglauben verfallen, dass Sie mit Outsourcing Prozesse in den Griff bekommen, die Sie bislang nicht beherrscht haben. Wenn Sie Prozesse auslagern, stellt deren Optimierung beim aufnehmenden Unternehmen eine kritische Erfolgsgröße dar. Das Gleiche gilt für jene Prozessabschnitte, die Sie in Ihrem Unternehmen belassen. Diese Tatsache wird von vielen Unternehmen unterschätzt: Gemäß einer Umfrage im Auftrag der Software- und Beratungsgesellschaft IDS Scheer aus dem Jahr 2004 gaben mehr als 70 Prozent der 145 befragten Unternehmen an, dass das Thema Outsourcing beim Geschäftsprozessmanagement keine oder lediglich eine geringe Bedeutung hat. Dieser Ansicht steht unsere Erfahrung entgegen, dass ein Hauptgrund für das Scheitern von Outsourcing-Projekten gerade darin besteht, dass die zugrunde liegenden Geschäftsprozesse nur unzureichend optimiert wurden.
Entwicklung von Redesign-Maßnahmen
175
In diesem Abschnitt erläutern wir, welche Möglichkeiten das Outsourcing bietet, welche Gefahren damit verbunden sind und was Sie dabei beachten sollten. Outsourcing kann in verschiedenen Ebenen stattfinden: Die einfachste und auch unkritischste Art ist die Auslagerung von Aktivitäten, die so weit von der eigentlichen Geschäftstätigkeit entfernt sind, dass mit einer möglichen Minderleistung des Lieferanten keinerlei Gefahr für das eigene Unternehmen einhergeht. In diese Kategorie fallen typischerweise Kantinenbewirtschaftung, Sicherheitsdienstleistungen oder Logistikdienste. In der Regel lassen sich entsprechende Anbieter auch mühelos austauschen. Die nächste Ebene sind Unterstützungsprozesse. Dazu gehören unter anderem die Bereitstellung und Wartung der IT-Infrastruktur sowie die Personaladministration. Diese Prozesse weisen zwar keinen unmittelbaren Bezug zur Leistungserstellung des Unternehmens auf. Kommt es jedoch zu einer Minderleistung, kann dies zu einer empfindlichen Störung in den Kernprozessen des Unternehmens führen. Noch weitreichender und damit auch riskanter ist die Auslagerung von Leistungen oder Prozessen, die unmittelbar im Kerngeschäft des Unternehmens liegen. Puma produziert weder Schuhe noch Sportbekleidung, sondern konzentriert sich ausschließlich auf den Ausbau der Marke, die Produktentwicklung und den Vertrieb. Die Produktion der Ware ist vollständig ausgelagert. Qualitätsmängel bei Produzenten haben dann direkte Auswirkungen auf das Geschäft von Puma. Gründe für Outsourcing Die überwiegende Zahl der Unternehmen betreibt Outsourcing, um Kosten zu sparen. Dabei ist der Stellhebel die Konzentration auf die eigenen Kernkompetenzen. Was veranlasst einen Kunden, eine Digitalkamera der Marke Sony zu kaufen? Welche Kompetenz misst der Kunde dieser Marke bei? Bei der Antwort auf diese Fragen spielt es eine untergeordnete Rolle, ob Sony das Produkt selbst produziert hat. Auslagernde Unternehmen versprechen sich Kostenvorteile durch den Fremdbezug. Aber wieso sollte ein Lieferant kostengünstiger sein? Die Antwort liegt wieder in der Konzentration der eigenen Tätigkeiten. Denn nicht nur das auslagernde Unternehmen konzentriert sich auf seine Kernkompetenzen, sondern auch der Outsourcing-Partner (Insourcer). Ein weiteres Motiv für Outsourcing ist die Reduktion der Kapitalmittelbindung beim auslagernden Unternehmen. Kostenintensive Produktionsanlagen oder IT-Infrastrukturen werden in die Hand von Lieferanten gegeben. Fixkosten, beispielsweise für das Vorhalten von Personal, werden in variable Kosten umgewandelt. Das alles führt letzten Endes auch zu einer Verringerung der bilanziellen Risiken, was die Kreditwürdigkeit stärkt.
176
Redesign
Probleme beim Outsourcing Outsourcing ist freilich kein Garant für Erfolg. Trotz anhaltender Euphorie, mehren sich die kritischen Stimmen. Einer der häufigsten Schwachpunkte ist das fehlende Verständnis für die auszulagernden Tätigkeiten und die entsprechenden Prozesse – sowohl beim abgebenden als auch beim aufnehmenden Unternehmen. Als Folge davon weisen die vertraglichen Regelungen (Service-Level-Agreements) mit dem Insourcer erhebliche Lücken auf. Wie sollte auch eine brauchbare Regelung zustande kommen, wenn das Verständnis für die Detailprobleme nicht vorhanden ist? Dem schließt sich zwangsläufig eine unzureichende Qualitätsüberwachung an. Wer die Prozesse, die ausgelagert werden sollen, nicht versteht, der hat auch keine Vorstellung von den relevanten Messpunkten. Diese Ursachenkette endet notgedrungen in Problemen, die mitunter erheblichen Adjustierungsbedarf mit sich bringen und die erhofften Kostenersparnisse zumindest mittelfristig zunichte machen. Hier haben insbesondere Unternehmen, die früh auf den Outsourcing-Trend aufgesprungen sind, Lehrgeld bezahlt. Niemand kann Legosteine besser und günstiger herstellen als wir selbst Besondere Gefahren birgt die Auslagerung in weit entfernte Billiglohnländer, das so genannte Offshoring. Lego-Chef Jörgen Vig Knudstorp sieht es heute als einen Fehler an, die Produktion der Kunststoffsteine in Billiglohnländer und dort an einen externen Lieferanten vergeben zu haben. Mittlerweile produziert Lego 85 Prozent seiner Produkte wieder in Dänemark im eigenen Unternehmen. Dieser Insourcing-Strategie liegt die Erkenntnis zugrund, dass die erforderliche Qualität und Wirtschaftlichkeit nur mit den eigenen Mitarbeitern erreicht werden kann, was der Lego-Chef mit der Aussage unterstreicht: „Niemand kann Legosteine besser und günstiger herstellen als wir selbst.“ Noch problematischer ist die Auslagerung von Dienstleistungen ins Ausland. Allen voran haben Finanzdienstleister und Softwarekonzerne Teile ihrer IT-Entwicklung und sogar ganze Geschäftsprozesse (Business Process Outsourcing) beispielsweise nach Indien, China oder Malaysia ausgelagert. Zwar konnten einige Unternehmen dabei Kosteneinsparungen in Höhe von zehn oder zwanzig Prozent erzielen, doch ist uns kein einziger Fall bekannt, in dem die euphorisch prognostizierten 50 bis 70 Prozent Kostenreduktion auch nur annähernd einer nüchternen Überprüfung standhielten. Auf eine einfache Formel gebracht: Qualität hat ihren Preis – egal, wo sie erbracht wird. Nur wenigen Unternehmen ist es tatsächlich gelungen, das erforderliche Qualitätsniveau dauerhaft sicher zu stellen und dabei die erhofften Kosteneffekte zu erzielen. Neben den meist unterschätzten alltäglichen Problemen wie Sprachbarrieren und Zeitzonen, bleiben die hohe Fluktuation des Personals, das stetig steigende Gehaltsniveau sowie Qualitätsprobleme in den Business Cases unberücksichtigt: Personalfluktuation: Nach Schätzungen der Infosys Technologies Ltd., eines großen indischen Softwareunternehmen, beträgt die Personalfluktuation in der indischen
Entwicklung von Redesign-Maßnahmen
177
Softwareindustrie circa 20 Prozent. Dies bedeutet, dass Jahr für Jahr jeder fünfte Mitarbeiter in die spezifischen Kundenprobleme eingearbeitet werden muss, bis er auf den erforderlichen Kenntnisstand kommt. Wer will angesichts dieser Zahlen ernsthaft an den Aufbau von substantiellem Erfahrungswissen glauben? Personalkosten: Eine Folge der hohen Personalfluktuation führt zu einem spürbaren Anstieg der Personalkosten. Anfang 2004 lag das jährliche Durchschnittsgehalt eines Softwareentwicklers im indischen Hochtechnologie-Mekka Bangalore bei umgerechnet 8.000 Euro. Seit dem sind die Gehälter jährlich um 12 Prozent gestiegen. Preis-Leistungsverhältnis: Unsere Erfahrung zeigt, dass an dem in Aussicht gestellten Preis-Leistungsverhältnis erhebliche Zweifel angebracht sind. Zwar bieten einige Unternehmen eine exzellente Qualität an. Diese hat jedoch ihren Preis, was die Kostenvorteile signifikant verkleinert. Dass dennoch der Eindruck entsteht, dass Offshoring eine Art Wundermittel zur Kostensenkung ist, mag auch daran liegen, dass die Wirklichkeit häufig verklärt wird. Dem Mythos eines nahezu unbegrenzten Personalreservoirs mit akzentfreien Englischkenntnissen auf dem indischen Arbeitsmarkt stellen wir eine einfache Analyse entgegen: Pro Jahr graduieren etwas mehr als eine Million Studenten an indischen Universitäten, von denen maximal zehn Prozent tatsächlich akzentfrei Englisch sprechen. Doch interessieren sich wiederum nur ein Bruchteil derer für die relativ minderwertigen Call-Center-Jobs, wo gerade die Sprachkenntnisse von besonderer Bedeutung sind. Die nüchterne Analyse der Situation in den klassischen Offshoring-Regionen ist möglicherweise auch der Grund dafür, warum die Royal Bank of Scottland sich Anfang 2004 dazu entschloss, keine Prozesse ins Ausland zu verlagern. Der Computerhersteller Dell hat seine Call Center-Aktivitäten sogar teilweise wieder nach Amerika zurück verlagert, nachdem das Unternehmen mit der Qualität unzufrieden war. Gravierende Qualitätsprobleme können selbst dann auftreten, wenn die Leistungen im Inland ausgelagert werden, dem so genannten „Onshoring“. In einer Studie des renommierten englischen Magazins The Economist aus dem Jahr 2004 begründeten 74 Prozent der befragten Manager aus der chemischen Industrie ihre Zurückhaltung gegenüber Outsourcing mit der Befürchtung, die Qualität könne sich verschlechtern, selbst dann, wenn diese im Inland erbracht würde. Bei der zweitgrößten britischen Supermarktkette Sainsbury’s entpuppte sich das Outsourcing-Projekt mit einem namhaften IT-Anbieter als Desaster. Im Jahr 2000 lagerte der Einzelhandelskonzern seinen IT-Betrieb an den ITDienstleiter aus. Der Deal hatte ein Volumen von stattlichen 3,25 Milliarden US-Dollar. Allerdings lieferten die Systeme inkonsistente Daten über Bestellprognosen, Regalbestände sowie Bestandswerte. Derartige Probleme treffen ein Unternehmen in Mark und Bein. Sainsbury’s musste alleine 2004 260 Millionen Pfund seiner IT-Investitionen abschreiben. Besonders grotesk mutet an, dass der Konzern danach ein Unternehmen für 553 Millionen Pfund kaufte, um seine IT-Aktivitäten mit dem Outsourcing-Partner zu koordinieren. Das zeugt nicht gerade von einer gut funktionierenden Kooperation. Von den ursprünglich erhofften Einspareffekten dürfte sowieso niemand mehr sprechen.
178
Redesign
Ängste der Mitarbeiter: Ein weiteres Problem beim Outsourcing sind die Ängste der Mitarbeiter. Naturgemäß ist mit erheblichen Irritationen zu rechnen. Schließlich gehen mit der Auslagerung bestimmter Leistungen in aller Regel Personalmaßnahmen einher, was nicht gerade zu einer positiven Resonanz auf der Arbeitnehmerseite führt. Verbleibt die Leistungserstellung im Land, so haben die Mitarbeiter häufig die Möglichkeit und sogar das Recht, einen neuen Job bei dem aufnehmenden Unternehmen zu erhalten. Bei der Auslagerung ins Ausland ist der Joberhalt dahin. Wissensabfluss: Je länger bestimmte Tätigkeiten bereits ausgelagert sind, desto weniger ist das Unternehmen in der Lage, diese Prozesse wieder selbst zu übernehmen, weil das erforderliche Know-how nicht mehr vorhanden ist. Ebenso kritisch ist die Tatsache zu würdigen, dass der Outsourcing-Partner auch für die Konkurrenz arbeitet, weil er sonst die erforderlichen Skaleneffekte nicht erzielen könnte. Somit schwindet nicht nur das Wissen im eigenen Unternehmen, sondern es besteht auch die Gefahr, dass wertvolles Wissen in die falschen Kanäle laufen kann. Nicht von ungefähr kommt es, dass asiatische Märkte voll von Plagiaten sind, die ein Laie kaum von den Originalen unterscheiden kann. Zusammenfassend halten wir fest, dass Outsourcing – trotz der hier aufgeführten Probleme – durchaus eine sehr wirkungsvolle Maßnahme zur Optimierung der Prozesslandschaft sein kann. Die Praxis zeigt jedoch auch, dass die Auslagerung wesentlich problematischer ist, als einige Outsourcing-Protagonisten dies glaubhaft machen wollen. Das trifft erst recht zu, wenn ganze Geschäftsprozesse ausgelagert werden. Ganz gleich, wie Ihre „Make-or-Buy“-Entscheidung aussieht: Für ein erfolgreiches Outsourcing sollten Sie die folgenden Hinweise beherzigen: Strategie: Bevor Sie den Verheißungen von eingeschworenen Outsourcing-Befürwortern Glauben schenken und so ziemlich alles auslagern, was nicht niet- und nagelfest ist, sollten Sie Ihre Outsourcing-Strategie überdenken. Unserer Erfahrung nach, sind Kosteneinsparungen das Hauptmotiv für Outsourcing. Die Praxis zeigt, dass die direkt messbaren Lohnkostenvorteile mitunter durch die weniger leicht messbaren Koordinations-, Kontroll- und Fehlerkosten überkompensiert werden. Kernkompetenz: Prüfen Sie zunächst, ob Sie Tätigkeiten oder Prozesse auslagern wollen, die eine Kernkompetenz darstellen. Wenn dem so ist, sollten Sie von einer Fremdvergabe Abstand nehmen. Wie die eigenen Kernkompetenzen analysiert werden können, haben wir in Abschnitt 3.2 detailliert beschrieben. Gefahren: Handelt es sich nicht um eine Kernkompetenz, müssen Sie die Frage klären, inwieweit die ausgelagerten Leistungen zu einer Behinderung des Geschäfts führen können. Vorsicht ist geboten, wenn Ihre Kernprozesse durch eine mangelhafte Fremdleistung negativ beeinflusst werden können. Outsourcing-Partner: Wenn Sie sich zum Outsourcing entschieden haben, müssen Sie sich nach einem geeigneten Outsourcing-Partner (Insourcer) umsehen. Prüfen
Entwicklung von Redesign-Maßnahmen
179
Sie, ob dieser Ihre Prozesse wirklich versteht und ob er das heutige und zukünftige Leistungsniveau erbringen kann. Prozessanalyse und Optimierung: Analysieren und dokumentieren Sie Ihre Prozesse sehr genau, bevor Sie diese auslagern. Bildhaft gesprochen: Werfen Sie auf keinen Fall ein Problem über den Zaun. Wenn Sie Ihre Prozesse nicht im Griff haben, wird das noch weniger Ihrem Outsourcing-Partner gelingen. Korrespondierende Prozesse: Bevor Sie dann die Tätigkeiten endgültig auslagern, müssen Sie sich Gedanken über die korrespondierenden Prozesse zwischen dem Lieferanten und Ihrem eigenen Unternehmen machen. Wenn diese nicht harmonisieren, steht Ihnen ein gewaltiger Koordinationsaufwand ins Haus, der schon so manches Outsourcing-Abenteuer in ein Insourcing-Projekt verwandelt hat. Service Level Agreement: Die vertragliche Regelung zwischen Ihnen und dem Insourcer stellt einen Ankerpunkt Ihrer Outsourcing-Maßnahme dar. Die Formulierung einer solchen Vereinbarung setzt voraus, dass Sie Ihre Prozesse und die damit verbundenen Probleme exakt verstanden haben und wissen, was Ihnen eine entsprechende Leistung Wert ist. Definieren Sie eindeutige Messpunkte und entsprechende Kennzahlen, die eine kontinuierliche Qualitätskontrolle erlauben. Beachten Sie, dass eine Fülle von juristischem und – im Falle von Offshoring – auch kulturellem Knowhow erforderlich ist. Statthalter etablieren: Auch dann, wenn das Service Level Agreement wasserdicht und Ihr Vertrauen in den Outsourcing-Partner hoch ist, sollten Sie darauf bestehen, dass Sie jederzeit Mitarbeiter in seiner Organisation zumindest temporär platzieren dürfen. Sollte er sich dagegen sträuben, ist die Gefahr groß, dass er kein vertrauensvoller Partner ist. Seien Sie sich darüber im Klaren, dass insbesondere indische oder asiatische Unternehmen damit ihre Probleme haben, weil sie sich nicht gerne über die Schulter schauen lassen. Hier spielen kulturelle Eigenarten eine gravierende Rolle. Diese müssen Sie verstanden haben – bevor Sie Ihre Outsourcing-Maßnahmen umsetzen. Zusammenfassung Wir haben in den vorangegangenen Abschnitten die Aktivitäten und Techniken zur Entwicklung von Redesign-Maßnahmen beschrieben. Die folgende Tabelle fasst die jeweiligen Methodenkomponenten zusammen:
180
Redesign
Tabelle 9: Methodenkomponenten der Optimierung Komponente Vorgehensphase
Redesign
Aktivitäten
Entwicklung von Redesign-Maßnahmen
Ergebnisse
Detaillierter Maßnahmenkatalog zur Optimierung der betrachteten Prozesse und Organisationsstrukturen
Techniken
Entwicklung von Redesign-Maßnahmen in der Unternehmenspraxis: • Korrespondierende Kundenprozesse • Bildung von Wertschöpfungsnetzwerken zwischen Unternehmen • Verbesserung der Prozesseffizienz • Sicherstellen der Prozessqualität • Entwurf einer geeigneten Organisationsstruktur • Outsourcing von Prozessen
Rollen
• Steuerungsgremium • Projektleiter • Projektteam
4.3 Analyse der Wirksamkeit – Redesign-Maßnahmen überprüfen Wie können Sie feststellen, ob Sie mit den Redesign-Maßnahmen, die Sie erarbeitet haben, wirklich Ihre Redesign-Ziele erreichen? Wie bereits im Subkapitel „Zielformulierung – Was nicht gemessen wird, wird nicht getan“ angesprochen, können Ziele und Maßnahmen untereinander Interdependenzen haben. Eine Maßnahme, die das Erreichen von Ziel 1 unterstützt, könnte gleichzeitig Ziel 2 konterkarieren. Oder Maßnahme A wirkt ausschließlich auf die Erreichung eines Ziels, während Maßnahme B positiv auf mehrere Ziele wirkt. Es kann also sein, dass die Redesign-Ziele nicht so schnell wie erwartet erreicht werden, weil die falschen Maßnahmen ergriffen wurden. Da aus Kosten- und Zeitgründen nicht alle Maßnahmen gleichzeitig ergriffen werden können, sollte mit der Umsetzung der effizientesten Maßnahmen begonnen und uneffiziente Maßnah-
Analyse der Wirksamkeit
181
men von vornherein aussortiert werden. Diese lassen sich mit einem Bewertungsverfahren ermitteln, dem Target Activity Grid (TAG), das die Interdependenzen zwischen Zielen und Maßnahmen erfasst. Beim Target Activity Grid stehen drei zentrale Fragen für ein effektives Redesign im Vordergrund: Werden die gesteckten Ziele durch die Redesign-Maßnahmen erreicht oder sind weitere Maßnahmen erforderlich? Welche Redesign-Maßnahmen tragen am stärksten zur Zielerreichung bei und sollten deshalb besonders gefördert werden? Behindern bestimmte Maßnahmen, die zur Erreichung eines Zieles beitragen, möglicherweise die Verwirklichung anderer Ziele? Nehmen wir ein anonymisiertes Beispiel: Ein Hersteller von Baumaschinen hatte sich zum Ziel gesetzt, die Umsatzrentabilität sowie die Kundenzufriedenheit zu erhöhen. Dazu sollten zwei kundennahe Prozesse optimiert werden: die Auftragsabwicklung und die Ersatzteilbelieferung. Die Auftragsabwicklung beginnt mit der Bestellung der Baumaschine durch den Kunden und endet, sobald die bestellte Maschine dem Kunden ausgeliefert und die Rechnung beglichen ist. Die Ersatzteilbelieferung wird durch die Bestellung der Ersatzteile durch den Kunden ausgelöst und endet, sobald der Kunde die Teile erhalten hat. In den folgenden Abschnitten erläutern wir, wie wir in diesem Projekt das Target Activity Grid eingesetzt haben und zeigen die einzelnen Schritte auf. Wir haben die Ziele und Maßnahmen aus Gründen der Anschaulichkeit etwas vereinfacht und uns auf die wichtigsten Punkte beschränkt.
4.3.1
Ziele erfassen und gewichten
In der Potenzialanalyse wurden 13 Ziele für das Redesign definiert, die den Kategorien Prozess, Finanzen, Markt / Kunde und Mitarbeiter zugeordnet wurden. In einem zweiten Schritt priorisierte das Projektteam die Ziele nach deren Wichtigkeit von drei für „sehr wichtig“ bis eins für „weniger wichtig“. Sowohl die Ziele als auch die Gewichtungen wurden vom Lenkungsausschuss abschließend genehmigt. Die Ergebnisse sind in der folgenden Tabelle dargestellt:
182
Redesign
Tabelle 10: Ziele und deren Gewichtung für das Redesign im Projekt „Optimierung der Prozesse Auftragsabwicklung und Ersatzteilbelieferung“ Nr.
Ziel
Gewichtung
Kategorie
1
Durchlaufzeit (DLZ) Auftragsabwicklung minus 30%
3
Prozess
2
Durchlaufzeit (DLZ) Ersatzteilbelieferung max. 24 Stunden
3
Prozess
3
Beteiligte Organisationseinheiten der Auftragsabwicklung von 12 auf 8
1
Prozess
4
Umsatz-Rentabilität plus 15%
3
Finanzen
5
Kapitalmittelbindung minus 30%
2
Finanzen
6
Zahlungsausfälle max. 2% vom Umsatz
3
Finanzen
7
IT-Wartungskosten minus 20%
2
Finanzen
8
IT-Investitionen von max. 250.000 Euro
1
Finanzen
9
Systembrüche minus 100%
2
Technologie
10
Wiederkaufsentscheidung bei 70% der Kunden
3
Markt/Kunde
11
Garantieleistung bei max. 5% der Produkte
3
Markt/Kunde
12
Fluktuationsrate Vertrieb max. 2%
2
Mitarbeiter
13
Krankenstand Vertrieb max. 3%
2
Mitarbeiter
Gewichtung: 1 = weniger wichtig, 2 = wichtig, 3 = sehr wichtig
In der Potenzialanalyse wurde festgestellt, dass die Auftragsabwicklung durchschnittlich 20 Prozent länger dauerte als bei den zwei stärksten Wettbewerbern. Daher wollte man die Durchlaufzeit um 30 Prozent verringern (Ziel Nr. 1) und so die Wettbewerber um zehn Prozent übertreffen. Die Durchlaufzeit der Ersatzteilbelieferung, die bislang im Schnitt drei Tage dauerte, sollte zukünftig maximal 24 Stunden in Anspruch nehmen (Ziel Nr. 2). Den Zielen Nr. 1 und Nr. 2 wurde mit einer Gewichtung von drei die höchste Bedeutung beigemessen. Im Ziel Nr. 3 wurde dem Zustand Rechnung getragen, dass mit zwölf Organisationseinheiten zu viele „Köche“ in der Auftragsabwicklung mitmischten. Unklar war bislang, welche Bereiche ausgeklammert werden sollten. Das Ziel Nr. 4 benennt eines der beiden Hauptanliegen des Projekts: Die Steigerung der Umsatz-Rentabilität aller Produkte um 15 Prozent. Die hohe Durchlaufzeit der betrachteten Prozesse führte zu einer unverhältnismäßig starken Bindung der Produktionsmaschinen und Mitarbeiter. Daher sah Ziel Nr. 5 die Verringerung der Kapitalmittelbindung um 30 Prozent vor.
Analyse der Wirksamkeit
183
Ziel Nr. 6 begrenzte die Zahlungsausfälle auf maximal zwei Prozent gemessen am Umsatz. In den zurückliegenden Jahren waren die notleidenden Forderungen auf einen bedrohlichen Anteil von acht Prozent angewachsen, was auf die gestiegene Exportrate in Schwellenländer, vornehmlich im Ostblock und in Südostasien, zurückgeführt wurde. Das Ziel hatte daher auch die Priorität von drei. Zu den Finanz-Zielen wurde auch die Senkung der IT-Wartungskosten um 20 Prozent (Ziel Nr. 7) eingeordnet. Hintergrund war, dass sowohl in der Produktion als auch im Vertrieb unterschiedliche und teils veraltete Systeme eingesetzt wurden, die Unmengen an Wartungskosten verschlangen. Hier zeigt sich, dass die Zuordnung der Ziele zu Kategorien nicht in jedem Fall eindeutig ist. Ziel Nr. 8 hätte auch den Technologie-Zielen zugeordnet werden können. Da hier hauptsächlich die Kostensenkung im Fokus stand, wurde das Ziel als Finanz-Ziel kategorisiert. Die Zuordnung von Zielen zu Kategorien ist keinesfalls eine akademische Übung. Vielmehr geht es darum, in komplexen Projekten mit zahlreichen Zielen den Überblick zu behalten und zudem die unterschiedlichen Schwerpunkte wie Finanzen, Personal, Prozesse etc. ausgewogen zu berücksichtigen. Das Ziel Nr. 9, die Eliminierung der Systembrüche, fällt unter die Kategorie Technologie-Ziel. Da es kein einheitliches System zur Verwaltung von Kundendaten gab, arbeiteten beispielsweise die Betreuungsteams im Vertrieb und die Akquisiteure mit diversen selbstgestrickten Anwendungen. Die Folge war, dass die Mitarbeiter weder bei der Auftragsabwicklung noch bei der Ersatzteilbelieferung auf einen einheitlichen, leicht auffindbaren Datenbestand zurückgreifen konnten. Nur mit großem manuellen Aufwand konnte Transparenz darüber geschaffen werden, wie viele und welche Maschinen ein bestimmter Kunde in der Vergangenheit geordert hatte. Dieses Manko stand auch mit dem Ziel Nr. 10 in Verbindung, eine Wiederverkaufsrate von 70 Prozent zu erreichen. Abgesehen von Problemen bei der Produktqualität hatten die Kunden mehrere Ansprechpartner im Unternehmen, die über widersprüchliche Informationen verfügten. Welcher Kunde kommt da gerne wieder? Insofern sollte die Wiederverkaufsrate als Indikator für die Kundenzufriedenheit dienen, ebenso wie die reklamierten Produktmängel durch die Rate der Garantieleistungen gemessen wurden. Letztere lag zu Beginn des Projekts bei 15 Prozent und sollte mit dem Ziel Nr. 11 auf maximal fünf Prozent beschränkt werden. Die Erhöhung der Kundenzufriedenheit war das zweite Hauptziel der Reorganisation und wurde daher auch mit drei gewichtet. Die Ziele Nr. 12 und Nr. 13 gehören zur Kategorie Mitarbeiter-Ziele. Die Begrenzung der Fluktuation und des Krankenstands wurden zusätzlich als Ziele aufgenommen, weil man bereits zu Beginn des Projekts plante, den Vertrieb – statt wie bisher auf Produkte – auf Kundensegmente auszurichten. Damit hätte jeder Kunde einen einzigen Ansprechpartner im Vertrieb, unabhängig davon, welches Produkt er kauft. Hiervon versprach man sich einen einheitlichen Auftritt gegenüber den Kunden, was letzten Endes zur Stärkung der Kundenbindung beitragen sollte. Zugleich stellte sich das Projektteam auf spürbaren Widerstand aus dem Vertriebsbereich ein. Schließlich verlangte die Ausrichtung der Vertriebsorganisation auf Kundensegmente von jedem Vertriebsmitarbeiter,
184
Redesign
dass er in Zukunft über die gesamte Produktpalette informiert sein musste und sich nicht nur für ein einziges Produkt zuständig fühlt. Es wurde befürchtet, dass die Abkehr vom Expertentum hin zum Generalisten als Kompetenzverlust empfunden werden könnte und dies genug Grund für Widerstand geben würde.
4.3.2
Maßnahmen definieren und erfassen
Nachdem alle Ziele und ihre Gewichtung abgestimmt waren, erarbeitete das Projektteam auf der Basis der Ergebnisse der Potenzialanalyse insgesamt elf Maßnahmen für das Redesign. Diese sind in der folgenden Tabelle aufgelistet. Ein Ergebnis der Potenzialanalyse war, dass eine Verkürzung der Durchlaufzeit in den tatsächlich wertschöpfenden Prozessschritten kaum mehr möglich war. Diese wurden in den vergangen Jahren bereits mehrfach erfolgreich optimiert. Deshalb fokussierte man sich auf die Eliminierung nicht-wertschöpfender (NW) Prozessschritte wie beispielsweise die Hauspost oder die innerbetriebliche Logistik (Maßnahme Nr. 1). Die Prozessanalyse machte zudem deutlich, dass die erheblichen Qualitätsmängel der Produkte schneller erkannt worden wären, wenn die Qualitätskontrolle in der Fertigung an mehreren Messpunkten erfolgte. Stattdessen wurde die Qualitätskontrolle erst nach der Endmontage durchgeführt. Das hatte den Nachteil, dass zum einen das Zurückverfolgen der Fehlerursachen kaum möglich war und zum anderen einige Mängel an den Baumaschinen vor der Auslieferung erst gar nicht erkannt wurden. Aus diesem Grund sah die Maßnahme Nr. 2 vor, eine durchgängige Qualitätskontrolle in den jeweiligen Fertigungsfolgen zu etablieren. In der Problemdiagnose wurden Systembrüche in der EDV des Produktions- und Vertriebsbereichs als ein Hauptgrund für die chaotische „Zettelwirtschaft“ ausgemacht. Durch die Einführung eines Workflow Management- und eines Customer Relationship Management Systems (CRM) sollten diese Schwachstellen beseitigt werden (Maßnahmen Nr. 3 und Nr. 4). Notebooks mit Remote-Access (Maßnahme Nr. 5) sollten dem Außendienst die Abfrage von aktuellen Kundendaten im CRM-System ermöglichen. Eine verbesserte Datenversorgung sollte auch die Umsetzung der Maßnahme Nr. 6 vereinfachen, bei der es um die Umstellung des Vertriebs von der Produkt- hin zur Kundenorientierung ging. Die erwähnten Zahlungsausfälle sollten durch die Maßnahmen Nr. 7 und Nr. 8 drastisch verringert werden. Eine Zahlungsabsicherung durch eine Bank, zum Beispiel durch Akkreditive, erfolgte bisher nur bei vereinzelten Kunden, sollte nun aber bei allen Kunden in risikobehafteten Ländern sowie bei Neukunden durchgeführt werden. Für die übrigen Kunden sollten Bonitätsauskünfte eingeholt werden. Beide Maßnahmen brachten mit sich, dass sowohl die Export- als auch die Finanzabteilungen erheblich stärker als bisher in den Prozess eingebunden werden mussten. Insgesamt wurde ein spürbar negativer
Analyse der Wirksamkeit
185
Effekt auf die Durchlaufzeit erwartet, was sich bei der Bewertung der Maßnahmen noch zeigen sollte. Tabelle 11: Maßnahmen für das Redesign im Projekt „Optimierung der Prozesse Auftragsabwicklung und Ersatzteilbelieferung“ Nr.
Maßnahme
1
Nicht-wertschöpfende (NW) Prozessschritte eliminieren
2
Qualitätskontrollen in Fertigung etablieren
3
Workflow Management System einführen
4
Customer Relationship Management (CRM) System einführen
5
Außendienst mit Remote Notebooks ausstatten
6
Vertrieb auf Kundensegmente ausrichten
7
Zahlungen durch Bank absichern
8
Bonitätsprüfung einführen
9
Lagerbestände für Ersatzteile erhöhen
10
Regional mobiles Wartungsteam einführen
11
Wartungs-Knowledge Management (KM) System einführen
Die Erhöhung der Lagerbestände für Ersatzteile (Maßnahme Nr. 9) sollte eine Verringerung der Durchlaufzeit bei der Ersatzteilbelieferung bewirken. Zudem sollten mit Maßnahme Nr. 10 regionale Wartungsteams eingeführt werden, die relativ schnell vor Ort zum Einsatz kommen könnten. Die Wartungsteams sollten durch externe Dienstleister gestellt werden. Um das Erkennen und das Beheben von Fehlern zukünftig zu beschleunigen, sollten die Mängel von den Wartungsteams in einem Wartungs-Knowledge Management System dokumentiert werden (Maßnahme Nr. 11). Als sämtliche Ziele und Maßnahmen definiert waren, stand im nächsten Schritt die Frage an, wie effektiv die Maßnahmen insgesamt zur Zielerreichung beitragen können.
4.3.3
Maßnahmen im Target Activity Grid bewerten
Isoliert betrachtet können bestimmte Redesign-Maßnahmen einzelne Ziele hundertprozentig unterstützen. In Kombination mit mehreren Maßnahmen und Zielen kann es allerdings zu unerwünschten Interdependenzen kommen. Das Problem ist, dass man diese
186
Redesign
Nebenwirkungen gerne übersieht. Stellen Sie sich vor, Sie formulieren für Ihr Projekt lediglich zehn Ziele und nur zehn Maßnahmen. Bei dieser eher geringen Zahl erhalten Sie immerhin schon 100 mögliche Wirkungskombinationen. Wenn Sie dann nur eine vage Vorstellung von dem Zusammenspiel zwischen Zielen und Maßnahmen haben, geht der Überblick rasch verloren. Deshalb ist eine systematische Überprüfung des Wirkungszusammenhangs zwischen Zielen und Redesign-Maßnahmen unabdingbar. Zu diesem Zweck hat sich in der Praxis das Target Activity Grid bewährt. Wir nutzen dafür eine einfache Software, die das Vorgehen deutlich erleichtert. Im Kern handelt es sich um eine Bewertungsmatrix, in der der Einfluss jeder Maßnahme auf jedes einzelne Ziel separat überprüft wird. Dafür werden zunächst alle Ziele in der linken Spalte und alle Maßnahmen in der oberen Zeile – wie in Abbildung 24 dargestellt – eingetragen. Rechts neben der Spalte mit den Zielen finden Sie die jeweilige Zielgewichtung. Sobald alle Maßnahmen und Ziele eingegeben sind, wird es spannend. Jetzt muss der Reihe nach für jedes Ziel jede Maßnahme im Hinblick darauf bewertet werden, inwieweit die Maßnahme zur Erreichung des Ziels beiträgt. Stellen Sie sich bei jeder einzelnen Maßnahme die folgende Frage: "Wie gut unterstützt die betrachtete Maßnahme die Erreichung des jeweiligen Ziels?" Zur Bewertung nutzen wir eine Skala von –3 bis +3. Bei einer Bewertung von +3 wird die Zielerreichung maximal durch die betrachtete Maßnahme unterstützt. Umgedreht bedeutet eine Bewertung von –3, dass die betrachtete Maßnahme die Realisierung des jeweiligen Ziels verhindert. Ist der Einfluss der Maßnahme auf das Ziel als neutral einzustufen, so ist die Bewertung null. In unserem Beispiel des Baumaschinenherstellers ergab sich das in Abbildung 24 dargestellte Ergebnis, das wir im nächsten Abschnitt etwas genauer betrachten.
4.3.4
Ziel-Index und Maßnahmen-Index ableiten
Nachdem alle Maßnahmen bewertet wurden, werden zwei Kennzahlen berechnet, die ein Urteil über die Wirksamkeit der Redesign-Maßnahmen zulassen: Der Ziel-Index und der Maßnahmen-Index. Der Ziel-Index (Z-Index) gibt an, inwieweit das betroffene Ziel durch die Umsetzung aller Maßnahmen erreicht wird. Er wird für jede Zeile, also jedes Ziel, einzeln berechnet und stellt den Durchschnitt aller Maßnahmen dar, die ungleich null bewertet sind, im Vergleich zum maximal möglichen Durchschnitt. Der maximal mögliche Durchschnitt tritt auf, wenn alle Maßnahmen mit +3 bewertet wurden und beträgt dann +3. Pro Ziel wird folgende Berechnung durchgeführt und das Ergebnis in die Spalte Z-Index eingetragen:
Analyse der Wirksamkeit Ziel-Index =
187 Durchschnitt aller Maßnahmen ungleich null
x 100
3
Der Ziel-Index erreicht maximal die Zahl +100 und minimal –100. Bei einem Ziel-Index von +100 wird das betrachtete Ziel durch die Maßnahmen voll erreicht. Bei –100 wird das Ziel durch das Ergreifen der Maßnahmen nicht nur verfehlt, sondern sogar das Gegenteil erreicht. Ein Ziel-Index von null zeigt, dass die Maßnahmen überhaupt keine Wirkung haben. Der Maßnahmen-Index (M-Index) wird pro Spalte, also für jede Maßnahme, berechnet. Er gibt an, inwieweit die Umsetzung der betrachteten Maßnahme zur Erreichung aller Ziele beiträgt. Der M-Index ist damit ein Maß für die Güte der jeweiligen Maßnahme. Für die Berechnung wird das Summenprodukt aus der jeweiligen Gewichtung und Bewertung zum maximal möglichen Summenprodukt ins Verhältnis gesetzt. Das maximal mögliche Summenprodukt ergibt sich, wenn die betrachtete Maßnahme ausschließlich mit +3 bewertet wird.
Maßnahmen-Index =
Summe aller Produkte aus Gewichtung und Bewertung
x 100
Summe aller Gewichtungen x 3
Der Maßnahmen-Index reicht wie der Ziel-Index von +100 bis –100. Ein MaßnahmenIndex von +100 besagt, dass alle Ziele mit der betrachteten Maßnahme voll erreicht werden. Liegt der Maßnahmen-Index bei –100, dann behindert die betrachtete Maßnahme massiv das Erreichen der Ziele. Auch wenn die Bewertung lediglich eine subjektive Einschätzung der Wirksamkeit von Maßnahmen darstellt, so erlauben die Indizes dennoch Rückschlüsse auf die Qualität der angedachten Redesign-Maßnahmen. Für wie gut wurden nun die Maßnahmen in unserem Beispiel eingeschätzt? Glaubte das Projektteam alle wichtigen Ziele erreichen zu können? Oder gab es allen Grund, nach weiteren Maßnahmen zu suchen? Betrachten wir zunächst die Ziel-Indizes. Ins Auge fällt sofort das Ziel Nr. 8, dessen Ziel-Index den schlechtesten Wert von –50 erreicht. Das Ziel der Beschränkung von IT-Investitionen auf 250.000 Euro wird daher nicht nur verfehlt, sondern sogar noch ins Gegenteil verkehrt. Die IT-Investitionen steigen bei der Durchführung der geplanten Maßnahmen weit über 250.000 Euro. Im Hinblick auf das Erreichen dieses Ziels wurde keine einzige Maßnahme positiv bewertet. Um die ITInvestitionen zu beschränken, müssten entweder weitere Maßnahmen definiert werden,
188
Redesign
die mehr zur Zielerreichung beitragen, oder die am schlechtesten bewerteten Maßnahmen dürften nicht umgesetzt werden. Als dritte Möglichkeit bliebe, alle Maßnahmen ungeachtet des Ergebnisses zu ergreifen und das Ziel damit zu vernachlässigen. Ein Blick auf die Gewichtung des Ziels, zeigt dessen geringe Priorität. Der Lenkungsausschuss entschied daher, keine weiteren Maßnahmen zu ergreifen und einen Anstieg der IT-Investitionen über 250.000 Euro in Kauf zu nehmen. Im Gegenteil zu dem gerade diskutierten Ziel wird die Limitierung der Garantieleistung auf fünf Prozent (Ziel Nr. 11) voll erreicht – und das beachtenswerter Weise mit einer einzigen Maßnahme, nämlich der Einführung der Qualitätskontrolle in der Fertigung. Dies stellt einen Idealzustand dar, den Sie nicht allzu häufig antreffen dürften. Die Senkung der IT-Wartungskosten um 20 Prozent (Ziel Nr. 7) wird dagegen nicht erreicht. Der Ziel-Index liegt bei null. Entweder müssten noch weitere Maßnahmen zur Zielerreichung gefunden oder das Risiko eingegangen werden, dass das Ziel nicht erreicht wird. Da es mit 2 gewichtet wurde, entschied der Lenkungsausschuss auch hier, dieses Risiko kalkuliert einzugehen und zunächst keine zusätzlichen Maßnahmen zu suchen. Alle anderen Ziele werden mehr oder weniger stark erreicht und – was noch wichtig ist – kein Ziel mit hoher Priorität (Gewichtung von 3) wird verfehlt. Allerdings hat die als sehr wichtig eingestufte Erhöhung der Umsatz-Rentabilität (Ziel Nr. 4) einen vergleichsweise geringen Wert von 20 erreicht. Trotzdem wurde im Projekt entschieden, keine zusätzlichen Maßnahmen zu definieren, da man andernfalls wieder negative Effekte auf andere Ziele befürchtete. Positiv hervorzuheben sind noch die Ziele Nr. 2, 6, 9 und 11 da keine einzige Maßnahme negative Auswirkungen auf diese hatte. Die Bewertungen der Maßnahmen sind entweder positiv oder neutral. Schauen wir uns nun die Maßnahmen-Indizes an. Außer Maßnahme Nr. 8 sind sämtliche Indizes positiv. Maßnahme Nr. 1 und Nr. 2 erreichen nicht nur die höchsten positiven Werte im Vergleich zu den anderen Maßnahmen, sie haben zudem keinerlei negativen Einfluss auf die Ziele. Ihnen sollte daher bei der Umsetzung eine hohe Priorität beigemessen werden. Auf den hinteren Rängen finden sich die Maßnahmen Nr. 7 und Nr. 8, mit denen vor allem eine Verringerung der Zahlungsausfälle erreicht werden sollte. Während Maßnahme Nr. 7, die Zahlungsabsicherung durch die Bank, einen schwach positiven Index erreicht, liegt der Index von Maßnahme Nr. 8 bei –7. Folglich werden durch die Einführung von Bonitätsprüfungen die meisten Ziele konterkariert. Deshalb entbrannte im Projektteam eine heftige Diskussion darüber, ob Maßnahme Nr. 8 aus dem MaßnahmenKatalog möglicherweise gestrichen werden sollte. Trotz des negativen M-Indexes hatte die Maßnahme dennoch eine positive Wirkung auf die Beschränkung der Zahlungsausfälle (Ziel Nr. 6) sowie die Erhöhung der Umsatz-Rentabilität (Ziel Nr. 4), die beide immerhin als „sehr wichtig“ (3) eingestuft waren.
$XVZHUWXQJ
"
M-Index Rang
Ziel & Gewichtung '/=$XIWUDJVDEZLFNOXQJ± '/=(UVDW]WHLOEHOLHIHUXQJPD[K 2UJ(LQKHLWHQ$XIWUDJVDEYRQDXI 8PVDW]5HQWDELOLWlW .DSLWDOPLWWHOELQGXQJ± =DKOXQJVDXVIlOOHPD[ ,7:DUWXQJVNRVWHQ± ,7,QYHVWLWLRQHQPD[(XUR 6\VWHPEUFKH± :LHGHUNDXIHQWVFKHLGXQJ *DUDQWLHOHLVWXQJPD[ )OXNWXDWLRQ9HUWULHEPD[ .UDQNHQVWDQG9HUWULHEPD[
M-Index-Grafik erstellen
Nr. 1 2 3 4 5 6 7 8 9 10 11 12 13
Alle
Kategorie:
TARGET ACTIVITY GRID
%HDUEHLWHQ
3 3 1 3 2 3 2 1 2 3 3 2 2 37 2
1 3 1 3 1 3 0 0 0 1 1 0 1 1
1:3UR]HVVVFKULWWH HOLPLQLHUHQ
Maßnahme
Capitum AG • Target Activity Grid • TAG Baumaschinen
'DWHL
4XDOLWlWVNRQWUROOHLQGHU )HUWLJXQJHWDEOLHUHQ 42 1
2 1 1 1 1 1 0 0 0 0 3 3 2 2 32 3
23 4
:RUNIORZ0DQDJHPHQW 6\VWHPHLQIKUHQ 4 2 1 0 1 0 0 2 –3 3 2 0 1 1
&506\VWHPHLQIKUHQ
3 2 1 1 1 0 0 1 –1 2 1 0 0 0
5HPRWH1RWHERRNVIU $XHQGLHQVWEHVFKDIIHQ 10 9
5 1 0 0 0 0 0 –2 –1 2 1 0 1 1
9HUWULHEDXI.XQGHQ DXVULFKWHQ 14 7
6 1 1 2 2 0 1 0 0 0 2 0 –2 –3
=DKOXQJHQGXUFK%DQN DEVLFKHUQ 3 10
7 –1 0 –2 1 0 3 0 0 0 0 0 –1 –1
%RQLWlWV&KHFN HLQIKUHQ –7 11
8 –3 0 –2 1 0 3 0 0 0 –1 0 –1 –1
/DJHUEHVWlQGHIU (UVDW]WHLOHHUK|KHQ 14 7
9 2 3 0 –2 –3 0 0 0 0 2 0 1 1
5HJLRQDOPRELOHV :DUWXQJVWHDP HLQIKUHQ 19 5
10 2 2 –2 –1 0 0 0 0 0 2 0 1 1
19 5
11 2 2 0 1 0 0 –1 –1 1 1 0 0 0
—
Rang 6 4 11 7 8 2 12 13 3 5 1 8 10
c
X
M-Index-Grafik erstellen
Index 36 50 4 11 5 20 7 11 8 78 2 12 0 –50 13 60 3 47 5 100 1 11 8 10 7
capitum. :DUWXQJV.06\VWHP HLQIKUHQ
c
Analyse der Wirksamkeit 189
Abbildung 24: Target Activity Grid für das Projekt „Optimierung der Prozesse Auftragsabwicklung und Ersatzteilbelieferung“
190
Redesign
Zur Strukturierung der Entscheidung berechnete das Team daher einen zweiten ZielIndex, in dem Maßnahme Nr. 8 nicht berücksichtigt wurde. Das Ergebnis war vielversprechend, wie der Vergleich der beiden Indizes in der folgenden Tabelle zeigt. Tabelle 12: Vergleich der Ziel-Indizes im Projekt „Optimierung der Prozesse Auftragsabwicklung und Ersatzteilbelieferung“ mit und ohne Maßnahme Nr. 8 Nr.
Ziel
Ziel-Index mit Maßnahme 8
Ziel-Index ohne Maßnahme 8
Veränderung
1
Durchlaufzeit (DLZ) Auftragsabwicklung minus 30%
36
50
39%
2
Durchlaufzeit (DLZ) Ersatzteilbelieferung max. 24 Stunden
50
50
0%
3
Beteiligte Organisationseinheiten der Auftragsabwicklung von 12 auf 8
5
17
240%
4
Umsatz-Rentabilität plus 15%
20
19
-5%
5
Kapitalmittelbindung minus 30%
11
11
0%
6
Zahlungsausfälle max. 2% vom Umsatz
78
67
-14%
7
IT-Wartungskosten minus 20%
0
0
0%
8
IT-Investitionen von max. 250.000 Euro
-50
-50
0%
9
Systembrüche minus 100%
60
60
0%
10
Wiederkaufsentscheidung bei 70% der Kunden
47
56
19%
11
Garantieleistung bei max. 5% der Produkte
100
100
0%
12
Fluktuationsrate Vertrieb max. 2%
11
17
55%
13
Krankenstand Vertrieb max. 3%
7
12
71%
Der Vergleich der beiden Ziel-Indizes mit und ohne Maßnahme Nr. 8 offenbarte ein Dilemma. Wie vermutet, werden die Ziele Nr. 4 und Nr. 6 ohne Maßnahme Nr. 8 schlechter erreicht als mit dieser Maßnahme. Die Veränderung, in der Tabelle hervorgehoben, liegt bei –5 Prozent, respektive –14 Prozent. Dagegen wird aber die Erreichung von Ziel Nr. 3 um 240 Prozent verbessert, wenn Maßnahme Nr. 8 entfällt. Allerdings wurde Ziel Nr. 3 lediglich mit „weniger wichtig“ eingestuft. Bei den übrigen Zielen, Nr. 1, 2, 5 und 7 bis 14 tritt eine spürbare Verbesserung oder ein neutraler Effekt durch das Ausblenden der Maßnahme ein.
Analyse der Wirksamkeit
191
Was war nun zu tun? Sollte Maßnahme Nr. 8 ergriffen werden oder nicht? Das Projektteam legte dem Lenkungssausschuss die Entscheidung nahe, die besagte Maßnahme nicht zu ergreifen, da dies nur auf die Ziele Nr. 4 und Nr. 6 einen negativen Effekt haben würde. Der Lenkungsausschuss ging auf den Vorschlag ein, mit der Einschränkung, dass die Zahlungsabsicherung durch die Bank für sämtliche Kunden aus risikokritischen Ländern einzuholen sei. Da der Lenkungsausschuss sich von einer Bonitätsprüfung Synergieeffekte für andere Bereiche erhoffte, sollte das Controlling diese Maßnahme in einem späteren Projekt aufgreifen. Mit Hilfe des Target Activity Grid konnte sich das Projektteam ein realistisches Bild davon machen, wie gut die Ziele tatsächlich mit den geplanten Redesign-Maßnahmen erreicht werden und wo Interdependenzen liegen. In diesem Projekt legten die Auswertungsergebnisse des Grids nahe, auf das Erreichen von zwei weniger wichtigen Zielen zugunsten anderer zu verzichten und eine Maßnahme zunächst zurückzustellen.
4.3.5
Welchen Beitrag leistet das Target Activity Grid?
Bitte bedenken Sie, dass es sich bei dieser Bewertungsmatrix um ein „kognitives Vehikel“ handelt: Das Target Activity Grid ist kein mathematisch exaktes Modell. Die Zahlenwerte zeigen eine Tendenz auf, ob Ziele erreicht werden können oder nicht. Sie sollten aber nicht als alleinige Grundlage zur Entscheidung über die Umsetzung einer Maßnahme herhalten. Dafür muss stets eine Plausibilitätsprüfung durchgeführt werden. So wie in unserem Projektbeispiel, bei dem eine Maßnahme wegen ihrer negativen Auswirkungen zwar in diesem Projekt gestrichen wurde, jedoch nicht komplett von der Unternehmens-Agenda verschwand. Das Modell nimmt Ihnen die letztendliche Entscheidung über die Umsetzung von Maßnahmen nicht ab, hilft jedoch, keinen Aspekt unberücksichtigt zu lassen und strukturiert vorzugehen. Das Erstellen eines Target Activity Grid bringt folgende Vorteile: Team-Zusammenhalt: Das Projektteam setzt sich durch die intensive Diskussion strukturiert mit den Vor- und Nachteilen der einzelnen Maßnahmen-Ziel-Kombinationen auseinander. Unterschiedliche Sichtweisen treten frühzeitig zutage und können geklärt werden. Das Team ist gewappnet für die kritischen Fragen in der Umsetzungsphase. Bessere Abdeckung von Problemfeldern: Durch die unterschiedlichen Sichtweisen im Team verringern Sie die Gefahr, dass wesentliche Faktoren und Interdependenzen unberücksichtigt bleiben. Einschätzung der Zielerreichung: Sie erlangen Klarheit darüber, welche Ziele wie stark erreicht werden und welche möglicherweise durch die Maßnahmen behindert werden.
192
Redesign
Leistungsfähigkeit der entwickelten Maßnahmen: Nach Fertigstellung des Target Activity Grid können Sie einschätzen, ob Ihre Maßnahmen ausreichen und welche Maßnahmen in der Umsetzungsphase Priorität genießen sollten. Für den Fall, dass die Maßnahmen nicht ausreichen, um alle Redesign-Ziele zu erfüllen, sollten Sie auf Basis der Ergebnisse neue Maßnahmen definieren und diese erneut mit dem Target Activity Grid bewerten. Zusammenfassung Im Target Activity Grid werden alle Ziele mit ihrer Gewichtung und alle Maßnahmen abgetragen und der Zielerreichungsgrad systematisch bewertet. Pro Ziel wird bewertet, wie gut oder schlecht jede Maßnahme auf das Ziel einwirkt. Aus den Zeilen wird der Ziel-Index gebildet, der angibt, wie gut das Ziel mit der Gesamtheit aller geplanten Maßnahmen erreicht wird. ⎯
Durch die Maßnahmen geförderte Ziele haben einen hohen positiven Ziel-Index. Sie werden durch die Redesign-Maßnahmen am meisten unterstützt, was vor allem bei den Zielen mit hoher Priorität wünschenswert ist.
⎯
Benachteiligte Ziele weisen einen sehr geringen oder gar negativen Ziel-Index auf. Diese werden mit hoher Wahrscheinlichkeit nicht erreicht oder sogar ins Gegenteil verkehrt. Bei Zielen mit niedriger Gewichtung kann man eventuell negative Folgen in Kauf nehmen. Für benachteiligte Ziele mit hoher Gewichtung sollten jedoch weitere Maßnahmen definiert oder andere gestrichen werden, um die Zielerreichung sicherzustellen.
Aus den Spalten wird der Maßnahmen-Index als Summenprodukt aus Gewichtung und Bewertung berechnet. Der M-Index ist ein Maß für die Güte der jeweiligen Maßnahme im Hinblick auf deren Zielerreichungspotenzial. ⎯
Effektive Maßnahmen mit einem hohen positiven Maßnahmen-Index leisten einen hohen Beitrag zur Zielerreichung. Solche Maßnahmen sollten Sie priorisieren und so früh wie möglich und konsequent umsetzen.
⎯
Kontraproduktive Maßnahmen haben einen negativen M-Index. Sie leisten nicht nur keinen Beitrag zur Zielerreichung, sondern konterkarieren Ihre Ziele sogar. Solche Maßnahmen sind kritisch zu hinterfragen. Wenn Sie die Maßnahmen dennoch als wichtig oder unverzichtbar einstufen, müssen Sie in Kauf nehmen, dass einzelne Ziele nicht voll erreicht werden.
Ziel- und Maßnahmen-Index legen damit Abhängigkeiten zwischen den Zielen und Maßnahmen offen, die in einer isolierten Bewertung von Maßnahmen oder gar einer rein intuitiven Einschätzung übersehen werden.
Analyse der Wirksamkeit
193
Wir fassen die Methodenkomponenten wie folgt zusammen: Tabelle 13: Methodenkomponenten – Analyse der Wirksamkeit der Redesign-Maßnahmen Komponente Vorgehensphase
Redesign
Aktivitäten
Analyse der Wirksamkeit der Redesign-Maßnahmen
Ergebnisse
• Transparenz über Zielerreichungsgrad der Redesign-Maßnahmen und weiteren Handlungsbedarf • Maßnahmen-Katalog ist im Hinblick auf die Umsetzung priorisiert und eventuell zur Erhöhung der Zielerreichung erweitert worden
Techniken
Target Activity Grid
Rollen
• Projektsponsor • Projektauftraggeber • Steuerungsgremium • Projektleiter • Projektteam
195
5 Umsetzung – Die neuen Prozesse in der Organisation zum Laufen bringen Jetzt wird es also ernst. In der Umsetzung werden die neu entworfenen Prozesse mit Leben gefüllt. Dass Reorganisationsprojekte gerade in dieser Phase häufig scheitern, ist kein Geheimnis. Jeder erfahrene Projektmanager rechnet mit Widerstand und Unwegsamkeiten bei der Umsetzung. Beides lässt sich nicht ohne weiteres aus dem Weg räumen. Welche unsichtbare Hand ist am Werk, wenn ein Projekt – trotz ausgezeichneter Sacharbeit – einfach nicht gelingen will? Die Antwort auf diese Frage ist ebenso profan wie wahr. Der Mensch ist der kritische Erfolgsfaktor in der Umsetzungsphase. Allein die Ankündigung von organisatorischen Veränderungen führt automatisch zu Veränderungen des Verhaltens bei den betroffenen Mitarbeitern. Deshalb muss der Wandel systematisch gesteuert werden – damit die Widersacher das Projekt nicht zum Erliegen bringen. Die Aktivitäten hierzu werden in der Praxis häufig unter dem Begriff Change Management zusammengefasst. Wer nun hofft, dass wir die perfekte Rezeptur für die Lösung von verhaltensbezogenen Problemstellungen bereithalten, mit der sämtliche Projekte reibungslos ablaufen, wird enttäuscht sein. Obwohl wir versuchen, diese weichen Facetten so greifbar wie möglich darzustellen, gibt es keine allgemeingültige Standardlösung. Und Sie sollten sich vor jedem hüten, der versucht, Ihnen eine solche anzudienen. Stattdessen möchten wir aufzeigen, dass eine nachhaltige Veränderung in der Umsetzungsphase nur durch die aktive Einbeziehung der Mitarbeiter und eine hohe persönliche Involvierung des Managements erfolgreich sein kann. Welche Schritte benötigen wir dafür? Zunächst befassen wir uns mit der Unternehmenskultur als einem wichtigen Stellhebel für die Veränderungsbereitschaft von Organisationen. Wir gehen der Frage nach, welche Voraussetzungen die Personen mitbringen müssen, die die Umsetzung vorantreiben. Im Abschnitt Projektumfeld stellen wir eine Technik vor, wie Sie die machtpolitischen Einflüsse auf das Projekt systematisch messen können, um mögliche Stolpersteine frühzeitig zu erkennen. Gegenwind erzeugt Auftrieb. Dieses Gesetz aus der Aerodynamik trifft auch auf Veränderungsprojekte zu. Doch in beiden Fällen müssen wir mit Widerstand konstruktiv umgehen, um Unglücke zu meiden. Dazu zeigen wir konkrete Handlungsempfehlungen auf. Danach werden die neuen Prozesse dann endgültig im betrieblichen Alltag verankert.
E. Best, M. Weth, Process Excellence, DOI 10.1007/978-3-8349-8950-5_5, © Gabler Verlag | Springer Fachmedien Wiesbaden GmbH 2010
196
Umsetzung
5.1 Unternehmenskultur – Grenzen der Veränderung Jede Reorganisationsinitiative agiert in einem Korsett von Restriktionen. Dabei sind limitierte Budgets oder administrative Hürden weitgehend planbar und damit auch steuerbar. Dagegen sind Stolpersteine, die sich aus dem Verhalten der Menschen ergeben, weder planbar noch verlässlich steuerbar, sondern entwickeln sich dynamisch und in Abhängigkeit von der jeweiligen Situation. Das Ganze spielt sich auf der Ebene der Mikropolitik ab, dort, wo persönliche Interessen und informelle Netzwerke mit dem Ziel der Erweiterung des persönlichen Machtbereichs wirken. Und sie gehen von der Veränderungsbereitschaft der Mitarbeiter aus, die direkt von der Reorganisation betroffen sind. Das Ausmaß, inwieweit sich Veränderungen in einer Organisation umsetzen lassen, hängt letzten Endes von zwei wichtigen Rahmenbedingungen ab: Wie viel Veränderung lässt die Unternehmenskultur zu? Wie groß ist der wirtschaftliche Druck zur Veränderung? Trotz der zahlreichen Reorganisationen in den vergangenen Jahren herrscht nur in wenigen Unternehmen eine Kultur der permanenten Veränderung, auch wenn viele das Gegenteil behaupten. Das ist auch normal, besser gesagt: es ist vollkommen menschlich. Jede Form von Veränderung erzeugt erst einmal Unsicherheit, geht es doch darum, liebgewonnene Gewohnheiten aufzugeben. Das führt mal mehr, mal weniger zu Widerstand, selbst wenn im Nachhinein alle mit den neuen Gegebenheiten zufrieden sind. Es ist allemal besser, an Gewohntem festzuhalten, als etwas Unbekanntes zu unterstützen, von dem man nicht weiß, ob es einem selbst einen Vorteil bringt. So zumindest ist die vorherrschende Grundeinstellung. Natürlich, Veränderung bringt auch neue Chancen, ein spannenderes Aufgabenfeld, einen sicheren Arbeitsplatz, persönliche Weiterentwicklung etc. Wer davon überzeugt ist, dass er selbst Veränderungen gegenüber grundsätzlich positiv eingestellt ist, sollte sich einmal seine Reaktion auf kleine Veränderungen vorstellen, beispielsweise morgen in ein vermeintlich hässlicheres Büro ziehen zu müssen – oder gar das der eigenen Sekretärin. In der Regel wird es also in jeder Organisation Vorbehalte gegen Veränderungen geben. Wie schnell und wie tiefgreifend Reorganisationen möglich sind, hängt von der Unternehmenskultur ab und davon, welche positiven und negativen Erfahrungen die Betroffenen mit vorangegangenen Reorganisationen gemacht haben. So hat der eine oder andere bereits erlebt, dass hinter den eigentlichen Projektzielen eine „versteckte Agenda“ stand. Oder die Erfahrungen mit vorangegangenen Projekten waren so schlecht, dass an ein neues gar nicht zu denken ist. Ein Unternehmen der Pharmaindustrie beauftragte uns mit der Optimierung der Vertriebs- und Produktionsprozesse. Obwohl Einigkeit über die Notwendigkeit des Projekts bestand, musste der Beginn mehrmals verschoben werden. Die betroffenen Bereichsleiter befürchteten, dass die angedachte Veränderung ein ähnliches Chaos auslösen könnte wie ein vorausgegangenes Projekt. Wenn Projekte aus dem
Unternehmenskultur
197
Ruder laufen, weil sie dem Zeitplan hinterherhinken und das Budget bereits überschritten ist, dann sinkt die Kooperationsbereitschaft der Mitarbeiter auf Null. Umso wichtiger ist es, dass Sie Ihre Maßnahmen im Einklang mit der Unternehmenskultur planen, damit Sie nicht blind in ein Mienenfeld hineinlaufen. Aber woran kann man sich dabei orientieren? Ein wesentlicher Aspekt spiegelt sich im Kommunikationsstil des Unternehmens wider. Hier müssen die vorherrschenden Regeln respektiert werden. Und das fängt schon bei Begriffsdefinitionen an. Wir haben große Reorganisationen erlebt, die zwar unter der Hand als „Projekt“ betitelt wurden, aber offiziell nicht so bezeichnet werden durften, weil damit angeblich eine negative Konnotation verbunden wurde. Solche Feinheiten führen zu den kuriosesten Begebenheiten, die durchaus komödiantischen Charakter haben, auf die Dauer jedoch sehr lästig sind. Ein weiterer wesentlicher Punkt ist die Konsensbedürftigkeit. In hierarchischen Organisationen können Verhaltensweisen über Anordnungen von oben gesteuert werden, während Sie in konsensorientierten Unternehmen erst einmal mit allen diskutieren müssen, die sich selbst als Beteiligte einstufen – ganz gleich, ob das objektiv zutrifft oder nicht. Nicht nur Mitarbeiter stoßen bei Veränderungen an ihre Grenzen. Auch die Auftraggeber, das Management, können das Projekt nur bis zu gewissen Grenzen unterstützen. Oft neigen Projektmanager dazu, die Standhaftigkeit ihrer Auftraggeber zu überschätzen, was fatale Folgen hat. Solange man sich der Unterstützung durch das Management sicher wähnt, scheint es so, als ob jeder Widerstand mit der Macht von oben zu brechen sei. Dabei kann sich das Top-Management zuviel Widerstand auf Dauer nicht leisten. Fängt die eigene Position an zu wanken oder gerät der betriebliche Friede durch zu viel Druck der Arbeitnehmervertreter in Gefahr, wägt das Management sehr genau ab, ob die Umsetzung der Reorganisation das Risiko rechtfertigt. Wir springen nur ins kalte Wasser, wenn es brennt Neben der Unternehmenskultur spielt der wirtschaftliche Druck zur Veränderung eine gewichtige Rolle wie bereits im Unterkapitel 2.1 „Ausgangssituation – Schwäche oder Stärke?“ skizziert. Wenn der Abgrund in Sicht ist, merkt jeder, dass eine Kursänderung erforderlich wird. Wir beschreiben dieses Szenario mit dem Sinnbild einer Burning Platform: Vor die Wahl gestellt, von einer brennenden Ölplattform in die eiskalte See zu springen oder im Flammenmeer zu verbrennen, zieht jeder das kalte Wasser vor. Zum Glück steht der Mehrzahl der Unternehmen ein solches Katastrophenszenario nicht bevor. Eher herrscht die Situation vor, dass überall kleinere Feuer lodern, die noch weitgehend unentdeckt sind. Sei es durch ineffiziente interne Prozesse, technologische Neuerungen oder veränderte Kundenwünsche. Hier liegt die Herausforderung für das Management darin, eine grundsätzliche Akzeptanz für Veränderungen zu schaffen – auch ohne eine akute Existenzgefahr. Bei erfolgsverwöhnten Unternehmen fällt es allerdings selbst dem Management schwer, die Notwendigkeit für einen Kurswechsel zu erkennen.
198
Umsetzung
In diese Falle tappte Levi Strauss & Co. mit der Marke Levi’s. Mit seinen 501-Jeans hatte Levi’s geradezu generationsübergreifend Kult-Status erreicht. Eine Levi’s-Jeans galt bei Teenagern lange Zeit als „cool“. Als in den 90er Jahren die Jugendlichen anfingen, in sackartigen Jeans herumzulaufen, die so aussahen, als würden sie jeden Moment von den Hüften rutschen, mussten selbst die Levi’s-Mitarbeiter feststellen, dass ihre Kinder keine Levi’s-Jeans mehr tragen wollten. Jetzt war Levi’s „uncool”. Was war geschehen? Das Unternehmen hatte den Trend ganz einfach verschlafen. Offenbar auf eine ungebrochene Anziehungskraft der 501 vertrauend, hatte das Management keine Notwendigkeit gesehen, wie sonst in der Modebranche üblich, neue Trends zu erspüren und die komplette Produktlinie sowie die Werbung darauf abzustimmen. Die Rechnung für diese Nachlässigkeit war hoch: Nach einem Umsatzhoch von umgerechnet 7,1 Milliarden Euro 1996 sackte der Umsatz kontinuierlich bis 2001 auf 4,25 Milliarden Euro. Sämtliche Werke in Nordamerika wurden geschlossen und die Produktion ist heute an ausländische Auftragshersteller ausgelagert. Das Beispiel von Levi’s zeigt, dass eine Burning Platform helfen kann, die Wachsamkeit in der Organisation aufrecht zu halten. Dazu muss die Notwendigkeit der Reorganisation transparent argumentiert werden, bis sie jedem Mitarbeiter klar ist. Das dauert zwar seine Zeit, dafür werden diese Veränderungen aber schneller akzeptiert als jene, die mit der Brechstange in kürzester Zeit erzwungen werden. Grenzen der Veränderung liegen auch hier wieder in der Vergangenheit begründet. Wird eine Reorganisation nach der anderen durchgepeitscht, werden die Mitarbeiter reorganisationsmüde und nehmen dem Management die Ernsthaftigkeit der neuen Initiative gar nicht mehr ab. Es wird gerne gesagt und geschrieben, dass kontinuierliche Veränderung in den Unternehmen an der Tagesordnung bleiben muss, wenn sie wettbewerbsfähig bleiben wollen. Das trifft zu, so lange der erkennbare Nutzen von Veränderung mit den erforderlichen Anstrengungen Schritt halten kann. Wird die Burning Platform als Alibi für Aktionismus zur Regel, dann ist das Top-Management gut beraten, selbst von der Plattform zu springen und fähigeren Kollegen Platz zu machen. Zusammenfassung Der wirkliche Flaschenhals von Reorganisationen liegt nicht in der Technik, der Zeit oder dem Budget begründet, sondern in den Menschen, die später einmal diese Reorganisation mit Leben füllen sollen. Das Ausmaß, inwieweit die betroffenen Mitarbeiter Veränderungen mittragen, hängt von mehreren Faktoren ab: ⎯
der Unternehmenskultur;
⎯
dem wirtschaftlichen Druck, der auf dem Unternehmen lastet;
⎯
den spezifischen Erfahrungen, die jeder Mitarbeiter im Umgang mit Veränderungen und dem Management im Unternehmen bereits gemacht hat;
Unternehmenskultur ⎯
199
davon, wie viel Angst und Schrecken das Projektteam durch eine unachtsame Kommunikation verbreitet.
Es ist Aufgabe des Projektteams, mit diesen Grenzen verantwortungsvoll umzugehen und sich bei Widerstand nicht (nur) darauf zu berufen, dass da mal wieder die notorischen Nörgler am Werk waren.
5.2 Change Manager – Den Wandel steuern Bei einer 2003 von Emnid und der Unternehmensberatung Celerant unter 100 TopManagern durchgeführten Umfrage zur internationalen Wettbewerbsfähigkeit deutscher Unternehmen nannten 47 Prozent eine mangelhafte Führung bei Veränderungsprozessen als einen der Hinderungsgründe für eine verbesserte Wettbewerbsfähigkeit: Wenn Restrukturierungen umgesetzt werden sollen, stellt sich die Frage, wer hierzu am besten geeignet ist. Auf einen einfachen Nenner gebracht ist die erfolgreiche Umsetzung eine Frage der richtigen Leute, die mit der Umsetzung beauftragt sind. Zum einen benötigen wir eine Leitfigur mit klassischen Führungseigenschaften: durchsetzungsstark, fachlich kompetent, ergebnisorientiert, konsequent, nicht zimperlich, ohne Angst vor Konflikten. Jemand mit diesen Qualitäten dürfte kaum die anvisierten Projektziele aus den Augen verlieren. Aber die Gefahr ist auch groß, dass er oder sie diese Ziele ohne Rücksicht auf die Betroffenen durchzusetzen versucht und damit den nachhaltigen Projekterfolg gefährdet. Zum anderen sollte die gesuchte Person sehr gut mit der Unsicherheit der betroffenen Mitarbeiter umgehen können, Empathie zeigen, für die Ziele begeistern, wenig Widerstand erzeugen und eine Integrationsfigur sein. So jemand wird als guter Projektmanager sicherlich nicht den Projekterfolg aus den Augen verlieren, könnte aber durchaus Zieladjustierungen auf der Basis von Kompromissen zwischen Belegschaft und Management herbeiführen. Change Manager – Hartnäckigkeit und Sensibilität in einer Person Ideal wäre eine Person die alle oben beschriebenen Eigenschaften vereint. Die optimale Balance zwischen dem richtigen Umgang mit Menschen und einer hartnäckigen Zielverfolgung wäre damit gefunden. Wir bezeichnen diesen Typus als Change Manager, jemand, der Veränderungen gezielt so steuern kann, dass sie ohne große Reibungsverluste und mit einer hohen Lebenserwartung umgesetzt werden. Natürlich ist es schwierig, den optimalen Change Manager mit allen idealen Eigenschaften zu finden. Erfolgreiche Veränderungsinitiativen werden jedoch von Change Managern dieser Art angeführt. Sie bringen diese entgegengesetzten Eigenschaften von einfühlsamer Mitarbeiter- sowie gnadenloser Ergebnisorientierung zusammen.
200
Umsetzung
Welche Wesensmerkmale zeichnen Change Manager noch aus? Zum einen ist ihre erhöhte Risikobereitschaft hervorzuheben. Sie haben weniger Angst vor möglichen Misserfolgen und erwarten erst gar nicht, dass jede Reorganisations-Maßnahme sofort greift. Nicht dass sie alles dem Schicksal überlassen. Vielmehr steuern sie die Gemengelage sehr flexibel und variieren ihr Verhalten – je nach Erfordernis der Situation. Dabei kommt ihnen eine zweite wichtige Eigenschaft zugute: Change Manager verfügen über eine hohe Sensibilität für ihre Umwelt. Sie sind sich bewusst, dass sie nicht nur bei ihren Vorgesetzten bzw. dem Projektauftraggeber punkten müssen, sondern auch bei ihren ranggleichen Kollegen und den Mitarbeitern, die von der Reorganisation unmittelbar betroffen sind. Sie agieren genauso geschickt in der formellen wie auch in der informellen Organisation. Und sie stecken relativ gelassen weg, was jedem von uns Bauchschmerzen bereitet: Was auch immer sie tun, bei einzelnen Interessengruppen werden sie sich unbeliebt machen und das nehmen sie in Kauf. Ihnen ist klar, dass der abstrakte Wunsch, allen das Paradies zu bereiten, der beste Weg zur Erzeugung der konkreten Hölle ist. In einem Punkt heben sich erfolgreiche Change Manager jedoch sehr wesentlich von gewöhnlichen Managern hervor: Sie leben eine kompromisslose Selbstverpflichtung gegenüber den Reorganisationszielen explizit vor. Auch deutschsprachige Manager benutzen in diesem Zusammenhang lieber den Begriff „Management Commitment“ – statt von Selbstverpflichtung zu sprechen. Kommt der Anglizismus einem doch leichter über die Lippen, weil man sich über dessen Verbindlichkeit nicht so recht im Klaren ist. “The problem of commitment lies in making the commitment credible.” Für Change Manager ist Selbstverpflichtung nicht nur eine Sache der persönlichen Einstellung, sondern wird durch das eigene Handeln glaubwürdig vermittelt. Der britische Wirtschaftswissenschaftler John Kay bringt die Sache auf den Punkt: „The problem of commitment lies in making the commitment credible.“ Kay liefert ein anschauliches Beispiel aus dem Spielfilm „Stand by Me“: Zwei Fahrer rasen mit ihren Autos aufeinander zu. Wer zuerst ausweicht, hat verloren. Die Kunst dabei ist nicht, einfach nur geradeaus zu fahren. Die Herausforderung für beide Fahrer besteht darin, dem jeweils anderen den absoluten Gewinnwillen – sozusagen die Selbstverpflichtung zum Sieg – unmissverständlich glaubhaft zu machen. Als mögliche Lösung schlägt Kay vor, einer von beiden könnte sein Lenkrad aus dem Fenster werfen. Ein Manager müsste danach einen Weg finden, der gleichbedeutend mit dem Herauswerfen des Lenkrads ist, damit wirklich jedem Mitarbeiter klar wird, wie ernst er seine Ankündigungen meint. Bleiben wir beim Beispiel Auto. Eckhard Cordes, der ehemalige Chef der Mercedes Car Group, beließ es bei seinem Amtsantritt im Herbst 2004 nicht nur bei warmen Worten, als er eine verstärkte Zuwendung zum Thema Qualität ankündigte. Es folgten auch konkrete Taten, die sein Commitment gegenüber dem Vorhaben unterstrichen. So verlängerte die Nobelmarke die Gewährleistung für fehlerhafte Elektronikteile über die vorgesehene Frist von
Change Manager
201
zwei Jahren hinaus. Zweifelsohne ging es dabei in erster Linie darum, das ramponierte Image infolge der erheblichen Probleme mit der E-Klasse aufzupolieren. Darüber hinaus senden solche millionenschweren Gesten klare Signale – nach innen und außen. Die Glaubwürdigkeit des Change Managers ist eine wesentliche Stellgröße für den Erfolg der Umsetzung. Glaubwürdig wird „Commitment“, wenn jeder sieht, dass Sie genau das tun, was Sie angekündigt haben. Auf Neudeutsch könnte man sagen „walk the talk“, was so viel bedeutet wie: Tun Sie das, was Sie sagen. Versprochene Unterstützung, die Sie nicht leisten, frustriert die gesamte Mannschaft. Das Gleiche gilt für negative Botschaften wie die Ankündigung von Freisetzungsmaßnahmen. Wer hier einen Rückzieher macht, wird nie mehr ernst genommen. Auch hierfür gibt es positive Beispiele. Jack Welch, der ehemalige CEO von General Electric (GE), wurde zu Beginn seiner Ära „Neutronen Jack“ genannt. Eine Anspielung auf die massiven Entlassungen bei GE, die – wie eine Neutronenbombe – menschenleere Fabrikhallen zurückließen. Doch in späteren Jahren wurde er dafür bekannt, dass er großen Wert auf motivierte Mitarbeiter legte. Welch vertrat die Meinung, dass das Management seine „Soft Skills“ erst glaubwürdig demonstrieren kann, wenn er zuvor harte Entscheidungen wie die Schließung von Fabriken umgesetzt hat. Wie auch immer man darüber denken mag, die Erfolge gaben ihm Recht: Als Welch 1981 das Ruder bei GE übernahm, lag der Umsatz des Konzerns bei 25 Milliarden US-Dollar. Zwei Jahrzehnte später, zum Ende seiner Amtszeit, waren es 130 Milliarden US-Dollar. In derselben Periode wuchs die Marktkapitalisierung von GE von 13 Milliarden auf über 400 Milliarden US-Dollar. Dies entspricht einer Steigerung um den Faktor dreißig. Zusammenfassung Die erfolgreiche Umsetzung von Reorganisationen hängt von den Menschen ab, die mit der Umsetzung beauftragt sind. Erfolgreiche Umsetzer müssen die Eigenschaften eines Change Managers besitzen: ⎯
Sie verfügen über eine hohe soziale Kompetenz, Empathie und Integrationskraft.
⎯
Gleichzeitig haben sie eine klare Ergebnis- und Zielorientierung.
⎯
Sie nehmen das Risiko eines möglichen Misserfolgs auf sich.
⎯
Ihre Selbstverpflichtung zu den Zielen ist absolut glaubwürdig.
⎯
Sie setzen um, was sie ankündigen, selbst wenn es für die Organisation unangenehm ist.
⎯
Ein Change Manager alleine reicht in der Regel nicht aus. Je wichtiger und umfangreicher das Projekt, umso mehr muss das Management bis zum Top-Management als Change Manager agieren und den Wandel vorleben.
202
Umsetzung
5.3 Kraftfeld – Im Netz der Beziehungen Da hat man sich so angestrengt, jedes Detail analysiert, alle Betroffenen ins Boot geholt und obendrein nachweislich gute Ergebnisse geschaffen und trotzdem läuft bei der Umsetzung vieles nicht wie geplant. Bereits abgestimmte Ergebnisse werden nochmals diskutiert, das Budget soll gekürzt werden, ein Teilprojektleiter wird nicht mehr akzeptiert und ein klarer Fürsprecher der Reorganisation meldet urplötzlich Bedenken an. Jeder Projektmanager kann diese Liste beliebig fortsetzen. Was ist passiert? Wer zieht da unerkannt die Fäden im Hintergrund? Bei jeder Veränderung ist klar, dass es nicht nur Fürsprecher gibt. Leider wird gerne vergessen, die potenziellen Widersacher aufzuspüren. Die meisten Gegner werden – sofern sie das notwendige Instrumentarium für eine Konzernkarriere beherrschen – im Verborgenen agieren. Unerkannt entwickeln die Machenschaften der Widersacher eine Eigendynamik, die sich der Kontrolle durch das Projektteam entzieht. Kein Kriegsherr würde jemals seine Angriffstaktik vor der Schlacht offenbaren, denn schließlich soll der Gegner überrascht werden. Geschickt wird das eigene Netzwerk im Unternehmen aktiviert, um informelle Bündnisse gegen das Projekt zu schmieden. Dieser Kollektivismus verhindert, dass der individuelle Anteil am Scheitern des Projekts jemals negative Auswirkungen auf die eigene Karriere haben wird. Im Unterschied zum wahren Krieg sind Gegner und Verbündete bei Veränderungsvorhaben in Unternehmen allerdings nicht immer eindeutig auszumachen. Umso wichtiger ist es dann, sich immer wieder Transparenz darüber zu verschaffen, wer das Projekt unterstützt und wer es zu Fall bringen könnte. Kurzum: Das Kraftfeld muss offen gelegt werden. Darauf aufbauend kann entschieden werden, welche Handlungsstrategien im Umgang mit diesen Interessengruppen angebracht sind. Bei kleineren Projekten hilft dabei bereits die Beantwortung weniger Fragen weiter: Mit wem haben wir innerhalb des Projekts direkt zu tun? Wer könnte darüber hinaus ein Interesse an einem positiven oder negativen Ausgang des Projekts haben? Wer ist ein möglicher Unterstützer des Projekts? Wer ist ein möglicher Gegner des Projekts? Wie und über wen könnte ein Gegner versuchen, das Projekt zu behindern? Wie können wir das verhindern? Wie können wir noch mehr Unterstützer ins Boot holen? Je größer und komplexer das Projekt und je umfangreicher die vom Projekt betroffenen Organisationseinheiten, umso mehr Interessengruppen gibt es. Wir sprechen dann von einem komplexen Kraftfeld. Dann ist eine systematische Analyse unerlässlich, um in
Kraftfeld
203
jeder Projektphase die unterschiedlichen Einflüsse auf das Projekt zu analysieren und geeignete Strategien im Umgang mit den einzelnen Interessengruppen zu definieren. In diesem Fall erfolgt die Kraftfeldanalyse in zwei Schritten. Zunächst müssen wir das Beziehungsnetz zwischen den verschiedenen Interessengruppen im Projektumfeld identifizieren. Dann können wir jede Beziehung in einer Matrix einzeln quantitativ bewerten, um so die Gefahr von Stolpersteinen voraussagen zu können. In den beiden nächsten Abschnitten beschreiben wir dieses Vorgehen anhand eines Beispiels.
5.3.1
Beziehungsnetz – Stolpersteine erkennen
Ein Investitionsgüterunternehmen hatte sich zum Ziel gesetzt, den Bestellprozess für Werkzeugmaschinen zu optimieren. Dem eigentlichen Kauf der jeweiligen Maschine ging ein komplizierter Entscheidungsprozess mit vielen Beteiligten in zahlreichen Organisationseinheiten voraus. Im Laufe der Zeit hatte sich einer dieser oft bemängelten Prozesse gebildet, mit dem alle unzufrieden waren, aber für dessen Verbesserung keiner etwas tat. Einen Prozesseigner gab es nicht, obwohl nur ein Bereich, nämlich das Engineering, für das Budget und die technische Spezifikation verantwortlich war. Trotzdem war das Engineering gezwungen, die technischen Details der Kaufentscheidung in unzähligen Schleifen mit kompetenten und weniger kompetenten Abteilungen unterschiedlicher Ressorts wie Produktion, Controlling, Einkauf und Vertrieb abzustimmen. Im Rahmen einer unternehmensweiten Initiative zur Kostenoptimierung erteilte schließlich der Technikvorstand den Projektauftrag, den besagten Beschaffungsprozess erheblich zu verkürzen. Es wurde ein bereichsübergreifendes Projektteam gebildet, dass diese nebulöse Anforderung des Vorstands zunächst in messbaren Zielen präzisierte: Die Durchlaufzeit sollte von neun auf drei Monate gesenkt werden. Es sollten maximal vier Bereiche in den Bestellprozess einbezogen sein. Und schließlich sollte der Leiter Fertigung als Prozesseigner mit bereichsübergreifendem Weisungsrecht etabliert werden. Nach den ersten bilateralen Gesprächen ahnte das Projektteam bereits, dass es nicht auf ungeteilte Begeisterung stoßen werde. Jedoch war nicht klar, wie man dieses „mulmige Gefühl“ eines politisch komplexen Umfelds mit Fakten füllen könnte. Vor dem geplanten Kick-off-Workshop ging das Projektteam daher einen halben Tag in Klausur und führte eine Kraftfeldanalyse durch. Ziel war es, Widersacher und Befürworter auszumachen und geeignete Handlungs- und Kommunikationsstrategien abzuleiten. In einem ersten Schritt wurden zunächst alle Interessengruppen und Personen identifiziert, die irgendeinen Einfluss auf das Projekt ausüben konnten oder bereits ausübten. Dies beinhaltete einzelne Personen oder Gruppen im direkten Umfeld des
204
Umsetzung
Projektteams, innerhalb des ganzen Unternehmens sowie bei Kunden, Lieferanten oder anderen externen Einheiten. Dann wurde diskutiert, inwieweit die identifizierten Interessengruppen in einer Beziehung zueinander und zum Projektteam standen. Dies wurde grafisch festgehalten, indem das Projektteam sich selbst in der Mitte platzierte und die Beziehungen mittels Verbindungslinien zwischen den Interessengruppen und sich selbst verdeutlichte. Die Analyse des Beziehungsnetzes ergab das in der folgenden Abbildung dargestellte Bild.
Aufsichtsbehörden Fertigung
Finanzvorstand
Controlling Fertigung
Bereichsleiter Produktion
Projektteam Leiter Engineering
Vertriebsbereich Vertriebsvorstand
Technikvorstand
Leiter Fertigung
Einkaufsteam
Leiter Einkauf
Lieferanten
Abbildung 25: Beziehungsnetz aus Sicht des Projektteams zu Beginn des Projekts „Bestellprozess Werkzeugmaschinen“
Einheiten, die gemäß dieser subjektiven Einschätzung sehr wichtig für den Fortgang des Projekts waren und daher viel eingebunden werden mussten, wurden im inneren Oval direkt um das Projektteam angeordnet. Entsprechend geringer musste die Einbindung der Einheiten sein, die in den äußeren Ovalen dargestellt sind.
Kraftfeld
205
Besser subjektiv als gar nicht Der Begriff Analyse darf nicht darüber hinweg täuschen, dass es sich um eine subjektive Einschätzung durch das Projektteam handelt. Aber gerade das war in diesem Fall wichtig, weil neben dem formellen vor allem das informelle Beziehungsnetzwerk mit Einfluss auf das Projekt offengelegt werden musste. Während die formelle Ebene meist im Organigramm des Unternehmens zu erkennen ist, lassen sich die informellen Kräfte nur aus dem subjektiven Blickwinkel der Erfahrungen und Einschätzungen bewerten. Umso wichtiger war es, dass alle Teammitglieder an der Analyse teilnahmen, um in der Diskussion die unterschiedlichen Sichtweisen und unterschiedlich wahrgenommenen Facetten von Personen kennen zu lernen. Sollten Sie unter Hinweis auf die subjektive Note einer solchen Analyse gänzlich darauf verzichten, begehen Sie einen großen Fehler. Wichtig ist nicht absolute Objektivität, sondern dass man sich über alle möglichen Interessengruppen Klarheit verschafft. Im Netz der Beziehungen ist es allemal besser, einem Bauchgefühl zu folgen, als blind auf ein gutes Ende zu vertrauen. Der Leser wird jetzt einwenden wollen, dass die Informationsdichte darüber, wer welche Interessen im Umfeld verfolgt insbesondere zu Beginn der Reorganisation noch so gering ist, dass die Kraftfeldanalyse zu keinem befriedigendem Ergebnis führen kann. Aber gerade dann, wenn noch vieles im Nebel liegt, tun Sie gut daran, Ihre Wissenslücken exakt zu identifizieren. Im Laufe des Projekts können Sie dann gezielt nach den fehlenden Informationen suchen, um Widersacher und Befürworter zu erkennen.
5.3.2
Beziehungsmatrix – Einfluss messen
Während das Beziehungsnetz lediglich Transparenz über die Interessengruppen und deren Verbindungen untereinander schafft, erlaubt die Beziehungsmatrix sogar eine quantitative Aussage. Deshalb bewertete das Projektteam im nächsten Schritt die Stärke des negativen und positiven Einflusses jeder Interessengruppe auf die jeweils anderen Interessengruppen mit Hilfe der Beziehungsmatrix. Nun ist auch die Definition von „Stärke des Einflusses“ eine subjektive Sache. Deshalb muss vor der Bewertung eine klare Definition abgesprochen werden. In unserem Falle definierte das Projektteam die Stärke des Einflusses als eine Kombination aus mehreren Faktoren: Können: zum Beispiel durch die hierarchische Stellung (Macht) oder die Intensität des Kontakts durch persönliche Beziehungen (Netzwerk) Wollen: positives oder negatives Interesse am Projekt
206
Umsetzung
1 –2 1
7
Vertriebsbereich
–1 0
8
Controlling Fertigung
1
9
Technikvorstand
2 –1 –1
1 –1
1
9
2
11
4
0
6 10 –6
4 1 13
12 14 –3
2 1 13
5 –4 0
6 12 9
8 –5 2
7 14 9
6 5 2
4 6 8
12 9 –2
2 6 11
–6 0 7
13 9 3
–2 4 10
11 8 5
0
9
0
10
–1 –1 0
2 2
0
10 Lieferanten
1
11 Leiter Einkauf
–3
0
2 1
1 –3
0
12 Vertriebsvorstand
2
1
13 Finanzvorstand
0 2
0 2
14 Aufsichtsbehörden
0
Gesamtbeeinflussung
2
6
4
3
3
–1
2
6
4
–4
2
4
3
0
9
1
3
6
6
13
9
1
3
14
9
3
6
12
(wird beeinflusst durch . . .)
Rang (Gesamtbeeinflussung)
0
(Stärke der Einflussnahme)
0
2
0 1
Rang (Saldo aus Einfluss und Beeinflussung)
3
1 2
Saldo aus Einfluss und Beeinflussung
2
Rang (Gesamteinfluss)
1
Finanzvorstand
2
Vertriebsvorstand
2
3
Leiter Einkauf
0
Gesamteinfluss
Einkaufsteam
2 2 2 –2
Aufsichtsbehörden
6
10 11 12 13 14
Lieferanten
Bereichsleiter Produk.
9
Technikvorstand
Leiter Engineering
5
8 Controlling Fertigung
4
7
Vertriebsbereich
Leiter Fertigung
6
Einkaufsteam
3
5 Bereichsleiter Produk.
Fertigung
4
Leiter Engineering
Projektteam
2
3
Leiter Fertigung
1
2
Fertigung
Stärke des Einflusses auf . . .
1
Projektteam
Handeln: Bereitschaft, beispielsweise durch das Ausnutzen von Macht bzw. persönlichen Beziehungen, seine Interessen in Bezug auf das betrachtete Projekt durchzusetzen
Abbildung 26: Beziehungsmatrix aus Sicht des Projektteams zu Beginn des Projekts „Bestellprozess Werkzeugmaschinen“
Die kombinierte Betrachtung dieser unterschiedlichen Faktoren war möglich, weil die Auswirkung auf das Projekt in allen Fällen identisch ist. Egal, ob jemand das Projekt deshalb bremst, weil er sich nicht durchsetzen kann, sich nicht durchsetzen will oder gezielt dagegen handelt: Der Effekt bleibt der Gleiche. Die Stärke des Einflusses wurde auf einer Skala von –3 für „extrem hinderlichen Einfluss“ bis +3 für „extrem förderlichen Einfluss“ quantifiziert. Die hierbei entfachte Diskussion war entscheidend dafür, dass alle Informationen sowie Meinungen ausgetauscht wurden und so im Team eine große Transparenz über die eingeschätzten Interessen der betrachteten Gruppen und möglichen Gefahrenquellen entstand. Die konsolidierte Bewertung stellte sicher, dass alle Meinungen im Konsens in einer Kennziffer gebündelt
Kraftfeld
207
werden konnten. Dabei war es letzten Endes nicht so wichtig, ob die Bewertung bei zwei oder drei liegt. Es geht bei dieser Vorgehensweise vielmehr um Tendenzaussagen. Ein Vergleich mit dem Beziehungsnetz aus dem vorausgegangenen Abschnitt macht deutlich, dass in den Spalten und Zeilen der Matrix alle Interessengruppen inklusive des Projektteams abgetragen sind. Die Stärke des Einflusses, den eine Interessengruppe auf die anderen ausübt, lässt sich in der Matrix in einer Zeile jeweils von links nach rechts ablesen. Die grau unterlegten Zellen können nicht bewertet werden, weil zwischen diesen Interessengruppen – entsprechend der Darstellung im Beziehungsnetz – keine direkte Verbindung besteht. Wir erläutern die in der Matrix dargestellte Bewertung der Einflussnahme durch die verschiedenen Interessengruppen anhand der herausragenden Beispiele. Dazu rufen wir uns noch einmal in Erinnerung, worin das erklärte Ziel des Projekts bestand: den Bestellprozess zu verkürzen und den Leiter Fertigung als Prozesseigner mit bereichsübergreifendem Weisungsrecht zu etablieren. Hieraus folgte, dass andere Einheiten eine Beschneidung ihrer Mitspracherechte befürchten mussten. Wer davon besonders betroffen sein könnte und wie diese aus der Sicht des Projektteams darauf reagieren könnten, machte die Bewertung durch das Team deutlich. Projektteam: Wie nicht anders zu erwarten, bewertete das Projektteam seine eigene Einflussnahme auf die anderen Interessengruppen durchweg positiv. Zu den Aufsichtsbehörden, die beispielsweise zur Überwachung der Betriebssicherheit zuständig waren, hatte das Team zwar Kontakt, konnte aber keinen Einfluss auf diese ausüben. Fertigung und Leiter Fertigung: Ebenso wie beim Projektteam war der Einfluss der Fertigung und von dessen Leiter auf die übrigen Interessengruppen positiv, sollte doch der Leiter Fertigung durch die Übernahme der Rolle des Prozesseigners deutlich an Einfluss gewinnen. Leiter Engineering: Ganz anders wurde der Einfluss des Leiters Engineering eingeschätzt. Dieser beanspruchte bereits im Vorfeld des Projekts eine intensive Einbindung in den Bestellprozess, da die Entscheidung über den Kauf von Werkzeugmaschinen seiner Einschätzung nach die Arbeit im Engineering ganz wesentlich bestimme. Entsprechend negativ fiel die Einschätzung der Einflussnahme aus. Leiter Einkauf und Einkaufsteam: Auch der Einfluss des Leiters Einkauf und des Einkaufsteams wurde negativ eingestuft. Aus der Vergangenheit war bekannt, dass das Einkaufsteam in allen Phasen des Bestellprozesses eingebunden werden wollte. Dies ging sogar soweit, dass der Leiter Fertigung dem Einkauf technische Grundlagen der Maschinen in zahlreichen Schleifen detailliert erklären musste, obwohl diese für die Abwicklung der Beschaffung nicht von Belang waren. Allen Beteiligten war klar, dass ein Redesign des Prozesses hier ansetzen musste. Insofern ging das Projektteam davon aus, dass der Leiter Einkauf in der Erwartung eines drohenden Machtverlusts alles tun würde, um das Projekt scheitern zu lassen.
208
Umsetzung
Grundsätzlich sah man beim Einkaufsteam auch eine negative Einflussnahme, diese war jedoch nicht so ausgeprägt wie beim Leiter Einkauf, weil das Einkaufsteam in seiner Arbeit durch die stärkere Einbindung des Leiters Fertigung in den Bestellprozess auch entlastet würde. Aufsichtsbehörden: Zwar wurden die Aufsichtsbehörden vom Projektteam als Interessengruppe identifiziert. Doch stellte sich bei der quantitativen Bewertung heraus, dass diese keinerlei Einfluss hatten. Nach der vollständigen Bewertung wurden für jede Interessengruppe zwei prägnante Kennziffern gebildet, an denen das Projektteam deren jeweiligen Einfluss auf das Projekt ablesen konnte: Die Spalte „Gesamteinfluss“ liefert als Zeilensumme ein Maß für die Stärke der Einflussnahme jeder Interessengruppe bezogen auf das Projekt. In der Zeile „Gesamtbeeinflussung“ ist die Spaltensumme abgetragen. Sie gibt an, wie stark die Unterstützung bzw. der Widerstand ist, den eine betrachtete Interessengruppe durch die jeweils anderen im Hinblick auf das Projekt erfährt. Betrachten wir zunächst die Kennziffer „Gesamteinfluss“: Eine starke Behinderung des Projekts ergab sich durch den Leiter Engineering (–6), das Einkaufsteam (–4) und den Leiter Einkauf (–6). Dagegen wurden neben dem Leiter Fertigung (10) das Projektteam selbst (9) und der Finanzvorstand (7) als stärkste Unterstützer des Projekts identifiziert. Der Finanzvorstand erhoffte sich eine deutliche Kostenreduktion durch das Redesign des Bestellprozesses. Besondere Beachtung verdienten jene Interessengruppen mit einem Gesamteinfluss nahe Null, weil diese durch die Beeinflussung der anderen Interessengruppen leicht in eine positive oder auch eine negative Richtung gelenkt werden konnten. So zeigt der vergleichende Blick auf die Kennziffer „Gesamtbeeinflussung“, dass beispielsweise die Lieferanten durch die anderen Einheiten negativ beeinflusst wurden (–4), obwohl ihr Gesamteinfluss positiv war (2). Im umgekehrten Fall wurde die ohnehin positive Einflussnahme des Controllings Fertigung durch die positive Beeinflussung (6) der anderen Bereiche noch zusätzlich verstärkt. Dieser Vergleich zeigt, dass der Gesamteinfluss einer Interessengruppe durch die Beeinflussung anderer sowohl verstärkt als auch kompensiert werden kann. Wir können also noch eine dritte Kennziffer bilden, den „Saldo aus Einfluss und Beeinflussung“, der in der rechten Spalte der Matrix abgetragen ist. Diese gibt an, wie effektiv die jeweilige Interessengruppe ihren Einfluss letzten Endes geltend machen kann. Hier wird die Befürchtung bestätigt, dass die Lieferanten von ihrer insgesamt leicht positiven Position (2) zu einem hinderlichen Einfluss getrieben wurden. Der Saldo aus Gesamteinfluss und Beeinflussung ist –2. Dagegen kann der extrem hinderliche Einfluss des Leiters Engineering (–6) durch eine positive Beeinflussung gemindert werden, der Saldo beträgt „nur noch“ –3.
Kraftfeld
209
Das Projektteam war jetzt an einem sehr wichtigen Punkt angelangt. Jedes einzelne Teammitglied hatte Transparenz darüber, wer die größten Behinderer und Unterstützer des Projekts sein könnten. Damit war eine gemeinsame Basis geschaffen, um sich geeignete Handlungs- und Kommunikationsstrategien für den Umgang mit diesen Interessengruppen zu überlegen. Fassen wir noch einmal zusammen: Als größte Gefahrenquelle für das Projekt wurden der Leiter Engineering, das Einkaufsteam und dessen Leiter sowie von externer Seite die Lieferanten ausfindig gemacht. Jetzt überlegte das Projektteam, wie es diesen negativen Einfluss umkehren könnte. Es wurde der Vorschlag ausgearbeitet, ein Projektsteuerungsgremium einzuberufen, in das unter anderem sowohl der Leiter Engineering als auch der Leiter Einkauf als Mitglieder berufen werden sollten. Das Steuerungsgremium sollte durch den Bereichsleiter Produktion geführt werden und in regelmäßigen Abständen über die nächsten Schritte im Projekt beschließen. Man befürchtete zwar kurzfristig zeitliche Verzögerungen im Projektablauf, erhoffte sich aber mittelfristig Zeitgewinne aufgrund einer erhöhten Akzeptanz. Im Hinblick auf das Einkaufsteam wurde beschlossen, dieses durch direkte Kommunikation mehr in das Projekt einzubinden. Dafür wurden konkrete Maßnahmen festgelegt, die auch darauf hinwirken sollten, dass das Projektteam seinen Einfluss auf das Einkaufsteam ausbauen konnte. Gleichzeitig wurde auch klar, dass das Verhalten der übrigen Bereiche im Auge behalten werden musste und das Projektteam alles tun musste, um sich deren Unterstützung zu wahren. Denn eine positive Einstellung zum Projekt konnte leicht revidiert werden. Um das Projekt effektiv steuern zu können, wiederholte unser Projektteam die Kraftfeldanalyse nach drei Monaten. Nur so konnte überprüft werden, ob die ergriffenen Maßnahmen zur positiven Einflussnahme auf die Einstellungen und Aktionen der einzelnen Interessengruppen Früchte trugen. Außerdem verdichteten sich die Informationen über mögliche Förderer und Behinderer im Laufe des Projekts und die Zusammenhänge wurden immer transparenter. In der zweiten Kraftfeldanalyse, in der folgenden Abbildung dargestellt, kam das Projektteam zu einem erfreulichen Ergebnis: Dem Projektteam war es gelungen, die Interessengruppen so geschickt zu beeinflussen, dass mit Ausnahme des Leiters Einkauf alle das Projekt unterstützten. Das Projektteam hatte beobachtet, dass der Leiter Einkauf zwar nicht mehr Sturm gegen das Projekt lief, weil die übrigen Einheiten der Reorganisation sehr positiv gegenüber standen. Dennoch blieb seine grundsätzlich negative Haltung bestehen. Der Grund lag unverändert in der Angst vor dem Machtverlust. Zudem versuchte der Leiter Einkauf nach wie, vor die Lieferanten stark negativ zu beeinflussen (–3), was jedoch ohne besondere Wirkung blieb, weil die Lieferanten keinen nennenswerten Einfluss auf das Projekt hatten.
3
1 1 1
7
Vertriebsbereich
2 0
8
Controlling Fertigung
1
9
Technikvorstand
2 0
1 2
9
2
17
1
0
6 10 2
4 1 8
12 17 6
3 1 8
1
5 2 0
6 8 11
9 4 2
6 9 11
6 5 2
4 6 8
12 9 –1
3 6 14
–4 0 7
14 11 3
0 4 10
12 9 5
0
11
0
12
2 0
0 0
2 2
0
10 Lieferanten
1
11 Leiter Einkauf
–1
0
2 1
1 –3
0
12 Vertriebsvorstand
2
1
13 Finanzvorstand
0 2
0 2
14 Aufsichtsbehörden
0
Gesamtbeeinflussung
8
6
7
4
4
2
2
6
4
–3
3
4
3
0
1
3
2
5
5
11 11
3
5
14
9
5
9
13
(wird beeinflusst durch . . .)
Rang (Gesamtbeeinflussung)
0
(Stärke der Einflussnahme)
0
0
1 0 0
1
Rang (Saldo aus Einfluss und Beeinflussung)
2
Saldo aus Einfluss und Beeinflussung
1
Finanzvorstand
2
Vertriebsvorstand
2
3
Leiter Einkauf
0
Rang (Gesamteinfluss)
Einkaufsteam
2 2 2 1
Gesamteinfluss
6
10 11 12 13 14
Aufsichtsbehörden
Bereichsleiter Produk.
9
Lieferanten
Leiter Engineering
5
8
Technikvorstand
4
7
Controlling Fertigung
Leiter Fertigung
6
Vertriebsbereich
3
5
Einkaufsteam
Fertigung
4
Bereichsleiter Produk.
Projektteam
2
3
Leiter Engineering
1
2
Leiter Fertigung
Stärke des Einflusses auf . . .
1
Fertigung
Umsetzung
Projektteam
210
Abbildung 27: Zweite Beziehungsmatrix des Projekts „Bestellprozess Werkzeugmaschinen“ aus Sicht des Projektteams
Die neue Bewertung zeigte dem Team eindringlich auf, dass sofort eine Krisenkommunikation bis zum Vorstand eingeleitet werden musste. Denn es war allen Beteiligten klar, dass eine Optimierung des Bestellprozesses nicht ohne Unterstützung des Leiters Einkauf funktionieren konnte. Viel zu groß wäre die Gefahr gewesen, dass dieser nach Beendigung des Projekts den neuen Prozess unterlaufen würde, um Belege für dessen Unbrauchbarkeit zu erbringen. Diese klare Sicht der Dinge wurde dem Projektteam jedoch erst durch die gemeinsame Kraftfeldanalyse bewusst. Wenn Sie eine Kraftfeldanalyse durchführen, werden Sie möglicherweise im Laufe des Reorganisationsprojekts auf neue Gefahrenquellen stoßen, die Sie vorher übersehen oder zumindest unterschätzt hatten. Häufig liegt der Grund dafür in einer für Sie verborgenen informellen Verbindung zwischen zwei Interessengruppen. Würde in unserem Fall beispielsweise der Leiter Einkauf regelmäßig mit dem Technikvorstand eine Partie Golf spielen, könnte die Sache ganz anders ausgehen. Es ist durchaus denkbar, dass das Projektteam bei solchen Konstellationen gegen Windmühlen kämpft. Dann besteht nur die
Kraftfeld
211
Möglichkeit, sich einen ebenso starken Verbündeten zu suchen, der in der Lage wäre, den Technikvorstand umzustimmen. Die Chancen auf Erfolg sind nicht schlecht, denn es dürfte kaum einen Vorstand geben, der sich mit seinen Vorstandskollegen anlegt, nur um einen Schützling zu decken. Die Darstellung des Kraftfelds in der Projektumgebung ist wie eine Wetterkarte, auf der Schlechtwettergebiete von Schönwettergebieten unterschieden werden können. Unser Beispiel verdeutlicht die wichtigsten Ziele der hier dargestellten Kraftfeldanalyse: Die Informationstransparenz über mögliche Einstellungen und Handlungen von Interessengruppen innerhalb des Teams wird vergrößert. Diese eher subjektiv bewerteten Informationen werden zur Erhöhung der Transparenz in Kennzahlen objektiviert. Anhand drei einfacher Kennzahlen lassen sich Gegner und Gönner des Projekts rasch identifizieren. Darauf aufbauend können geeignete Handlungs- und Kommunikationsstrategien abgeleitet werden. Dem fachkundigen Leser ist natürlich klar, dass die so ermittelten Kennzahlen der Matrix keine mathematisch eindeutige Berechtigung haben. Ob der Gesamteinfluss einer Gruppe mit 3 oder 4 bewertet wurde, ist nicht relevant. Wichtig ist, ob sich ein negativer, positiver, starker und weniger starker Trend der Einflussnahme ablesen lässt. In der konkreten Anwendung werden Sie sehen, dass der größte Vorteil der Bewertung mit Zahlen darin besteht, dass innerhalb des Teams eine Diskussion entsteht, die allen Teammitgliedern den gleichen Informationsstand verschafft und ein gemeinsamer Nenner für die Bewertung gefunden wird. Wie detailliert Sie letztendlich die Kraftfeldanalyse durchführen, bleibt Ihnen überlassen. Wichtig ist, dass Sie sich überhaupt die Zeit nehmen, über alle Interessengruppen und deren Einflussmöglichkeiten auf das Projekt nachzudenken. Dies sollten Sie zumindest in kurzer Form möglichst zu Beginn des Reorganisationsvorhabens tun und während des Projekts wiederholen – bevor Ihnen wichtige Fürsprecher abhanden kommen und Ihre Reorganisation im Dschungel der politischen Machtkämpfe für immer und ewig verschwindet. Zusammenfassung Verschaffen Sie sich schon beim Start der Reorganisation Klarheit über das Kraftfeld: Welche Interessengruppen in Bezug auf Ihr Projekt gibt es? Wer von diesen kann einen positiven oder negativen Einfluss auf das Projekt ausüben? Wiederholen Sie diese Analyse im Laufe des Projekts. Bei komplexen Reorganisationsvorhaben empfiehlt sich eine detaillierte Kraftfeldanalyse:
212
Umsetzung
⎯
Zuerst werden im Beziehungsnetz alle Interessengruppen und ihre Beziehungen untereinander einschließlich des Projektteams erfasst und grafisch veranschaulicht.
⎯
Dann werden in den Zeilen und Spalten der Beziehungsmatrix jeweils alle Interessengruppen abgetragen und die Stärke der Einflussnahme bewertet, die jede Interessengruppe auf die jeweils andere ausüben kann.
⎯
Daraus lassen sich drei Kennzahlen ableiten: Als Zeilensumme der Gesamteinfluss, den jede Gruppe auf das Projekt ausübt, als Spaltensumme die Gesamtbeeinflussung, der jede Interessengruppe durch die anderen unterliegt, und als Saldo dieser beiden Kennzahlen die Effektivität, mit der jede Interessengruppe letztendlich ihren Einfluss auf das Projekt geltend machen kann.
Aus den Ergebnissen jeder Form einer Kraftfeldanalyse müssen konkrete Handlungsund Kommunikationsstrategien abgeleitet werden, um Unterstützer positiv für das Projekt zu nutzen und um mögliche Behinderungen durch die Feinde einzudämmen.
5.4 Umgang mit Widerstand – Gegenwind erzeugt Auftrieb Veränderungen wurden häufig als Ketzerei angesehen. Die Kirche prangerte Galileo Galilei als Ketzer an, als dieser im 17. Jahrhundert herkömmliche Dogmen widerlegte. Diese Beobachtung können wir auch heute noch in Unternehmen machen. Jede Veränderung beschwört automatisch Widerstand herauf. Es gibt keine Veränderung ohne Widerstand. Die physikalischen Gesetze der Trägheit von Gegenständen finden auch hier im mentalen Bereich ihre Anwendung: Gegenüber einer Veränderung unserer vermeintlich sicheren Lage im Unternehmen reagieren wir zunächst mit Widerstand. Dahinter stecken Unsicherheit und Angst vor dem Ungewissen, also Emotionen, die wir im Berufsleben eigentlich gerne ausklammern. Hinzu kommt noch, dass jeder anders auf Unsicherheit reagiert.
5.4.1
Keine Veränderung ohne Widerstand?
Ein erster Schritt im Umgang mit Widerstand ist bereits getan, wenn man sich vor dem Projekt darauf einstellt, dass es Widerstand geben wird und dass dieser nie ohne Grund auftritt. Fatal ist es, sich auf detaillierte Projektpläne und vorzeigbare Inhalte zu verlassen, dabei jedoch die Interessen der Mitarbeiter nicht zu berücksichtigen und die Mannschaft mit dem Neuen schlicht zu überfordern. Untersuchungsergebnisse belegen immer
Widerstand
213
wieder die an sich banale Erkenntnis, dass der wichtigste Grund für das Scheitern von Veränderungsprojekten der Widerstand der Mitarbeiter ist. Bei einer Umfrage haben drei Viertel der befragten Manager eine Verschlechterung des Betriebsklimas aufgrund eines Veränderungsprojekts beobachtet und nur die Hälfte der Befragten war mit den Ergebnissen des Projekts zufrieden. Diese Fakten machen klar, dass Sie sich frühzeitig mit Widerstand in Ihrem Projekt auseinander setzen sollten. Widerstand hat auch etwas Positives Bei alledem hat Widerstand auch einen eindeutigen Vorteil: Dahinter steht die klare Botschaft, dass jemand mit bestimmten Teilen der Reorganisation nicht einverstanden ist. Es gibt der Projektleitung die Möglichkeit, gegenzusteuern und gegebenenfalls Fehler in der Planung oder den Ergebnissen zu korrigieren. Dafür muss man Widerstand erst einmal erkennen, was nicht immer leicht ist. Denn Widerstand kann sichtbar und verdeckt zu Tage treten. Sichtbarer Widerstand ist unmissverständlich als solcher zu erkennen und äußert sich beispielsweise in Drohungen oder klar ablehnenden Aussagen. Verdeckter Widerstand dagegen ist leicht zu übersehen, weil das Verhalten der Mitarbeiter nicht direkt darauf hindeutet. Man kann nie wissen, ob jemand plötzlich schlechte Qualität produziert, weil er persönliche Probleme hat oder weil er das Projekt sabotieren möchte. Neben der Unterscheidung nach der Erkennbarkeit, also sichtbar oder verdeckt, ist es hilfreich, Widerstand nach seiner Ausprägungsform zu unterscheiden. Danach kann er sich in Taten oder Worten äußern. Verbal ausgedrückter Widerstand steckt zum Beispiel hinter der beliebten Aussage „Das haben wir doch noch nie so gemacht.“ In Taten äußert sich Widerstand beispielsweise in Form von erhöhten Fehlzeiten oder Streik. Kombiniert man die Erkennbarkeit und die Ausprägungsform von Widerstand, so lassen sich die unterschiedlichen Formen von Widerstand systematisch ermitteln. Einige Beispiele sind in der Abbildung dargestellt. Greifen wir einige Beispiele heraus: Wer in einer Projektbesprechung immer wieder vom Thema ablenkt, die Sinnhaltigkeit der Agenda andauernd in Frage stellt und ansonsten nichts zu den Inhalten sagt, übt verdeckten Widerstand in Worten. In der Regel neigen wir dazu, ein solches Verhalten als Unkonzentriertheit und Zerstreutheit zu entschuldigen, insbesondere, wenn sich der betreffende Kollege des Öfteren mit diesen Eigenschaften hervorgetan hat. Sehr beliebt ist unter Führungskräften auch die Taktik, das Projektteam so lange zu loben, bis es sich der Unterstützung aller absolut sicher wähnt und die wahren Motive des Kollegen nicht mehr hinterfragt. Sein verdeckter Widerstand wird nicht wahrgenommen und er kann in aller Ruhe sein Beziehungsnetz gegen das Projekt aktivieren. Dagegen ist sichtbarer – oder besser gesagt – hörbarer Widerstand unmissverständlich zu erkennen: „Mit mir nicht!“
214
Umsetzung
Erkennbarkeit des Widerstands
Worte
sichtbar
Vom Thema ablenken Übereifriges (= unglaubwürdiges) Lob der Änderungen Sarkasmus / Ironie „Das ist wirklich gut, aber mir sind leider die Hände gebunden.“
c
Taten
Ausprägungsform des Widerstands
verdeckt
Plädoyer gegen die Veränderung Drohungen „Nicht mit mir!“ „Das habt Ihr das letzte Mal auch gesagt, aber dann...“ „Das haben wir schon immer so gemacht!“
d
Arbeitsverweigerung Organisation von Betriebsversammlungen Mobbing Streik Kündigung
Höhere Fehlzeiten Höhere Ausschussrate Verzögerungstaktik Dienst nach Vorschrift Intrigen Sabotage
e
f
Abbildung 28: Erkennbarkeit und Ausprägungsformen von Widerstand
Verdeckter Widerstand in Taten lässt sich vermuten, wenn ein ansonsten engagierter Mitarbeiter auf einmal nur noch das Notwendigste, also Dienst nach Vorschrift, macht. Sichtbar in Taten ist Widerstand dagegen in Arbeitsverweigerung oder Streik. Die Grenzen zwischen verdeckt und sichtbar sowie Worten und Taten sind natürlich nicht immer so trennscharf. Mobbing und Sabotage können sowohl verdeckt als auch sichtbar sein. Dennoch sollten Sie bemüht sein, eine klare Unterscheidung durchzuführen. Das schärft den Blick für Gefahrenpotenziale und beflügelt das Team, immer wieder über diese Fallstricke nachzudenken.
5.4.2
Warum wir Widerstand leisten?
Die in Abschnitt 5.3 beschriebene Kraftfeldanalyse deckt mögliche Quellen für Widerstand auf. Bevor Sie sich aber in das Abenteuer stürzen, Maßnahmen gegen Widerstand zu ergreifen, sollten Sie sich über die dahinter liegenden Ursachen Klarheit verschaffen. Kritisch wird es, wenn das Management ein bestimmtes Verhalten für vermeintlich verdeckten Widerstand hält, aber in Wirklichkeit überhaupt kein Widerstand vorliegt, son-
Widerstand
215
dern lediglich ein Missverständnis über die Projektziele. Stellen Sie sich vor, welche Schäden entstehen könnten, wenn nun das Management mit Gegendruck reagiert. Die eigentliche Ursache liegt dann nicht bei den Mitarbeitern, sondern eher in der Unfähigkeit des Managements, in der Sprache der Mitarbeiter zu kommunizieren. Die typischen Ursachen von Widerstand haben Klaus Doppler und Christoph Lauterburg in ihrem Standardwerk „Change Management“ prägnant auf drei verschiedene Nenner zusammengefasst: nicht verstehen, nicht glauben, nicht mitmachen wollen oder können. Danach entsteht Widerstand entweder, weil die Ziele und Hintergründe der Reorganisation nicht verstanden werden oder weil man diese nicht glaubt oder weil man für sich persönlich nur negative Konsequenzen aus der Reorganisation erwartet und diese daher nicht mitträgt. In die Kategorie „nicht verstehen“ ist die häufige Ursache einzuordnen, dass Mitarbeiter keine sachliche Notwendigkeit für das Projekt sehen. In einem unternehmensweiten Projekt mit dem Ziel der Kostenoptimierung in einem Dienstleistungsunternehmen trafen wir zum Beispiel von Anfang an auf starke Widerstände. Es stellte sich heraus, dass die Mitarbeiter keine Notwendigkeit für weitere Einsparungen sahen. Das Unternehmen hatte in den neunziger Jahren kurz vor der Insolvenz gestanden und einen jahrelangen Sparkurs hinter sich. Damit konnten vor allem Entlassungen verhindert werden, aber Neueinstellungen, Gehälter und Weiterbildung waren zu Lasten der Belegschaft eingefroren. Die erneute Initiative zur Kostenoptimierung kam in einer Zeit, in der zum ersten Mal seit Jahren wieder Gewinne geschrieben wurden. Insofern sahen die Mitarbeiter eine Lockerung der Ausgabenpolitik, die ihnen persönlich zu Gute kommen sollte, als logisch an, nicht jedoch einen erneuten Sparkurs. Hier fehlte die „Burning Platform“. Das Management wählte den einzig richtigen Weg, in dem es über offene Kommunikationsveranstaltungen direkt in den Dialog mit den Mitarbeitern trat und stetig versuchte, die Hintergründe für den erneuten Sparkurs offen zu legen. Man wollte sich in einem durch Deregulierungen stärker werdenden Wettbewerb langfristig auf dem Weltmarkt positionieren. Wenn betroffene Mitarbeiter nicht glauben, was man ihnen sagt, also eine versteckte Agenda vermuten, sind die Ursachen eher im Verhalten des Managements in der Vergangenheit zu suchen. Mitarbeiter vermuten in der Regel eine versteckte Agenda dann, wenn sie das Gefühl haben, bei vergangenen Reorganisationen angelogen worden zu sein. Nach dem Motto: „Dass sich für uns nichts ändert, habt Ihr das letzte Mal auch gesagt, aber dann kam alles ganz anders.“ Schwieriger wird es, wenn die Betroffenen negative Konsequenzen für sich erwarten und deshalb die Veränderung nicht mittragen wollen oder können. Hierunter fallen die typi-
216
Umsetzung
schen Ängste vor Verlust von Stabilität, finanzieller Sicherheit, Freiheit, Macht und Anerkennung: Von der Angst mit neuen Kollegen zusammenarbeiten oder neue Arbeitsabläufe erlernen zu müssen über die Angst, an Ansehen in der Organisation zu verlieren bis hin zur Befürchtung, den Arbeitsplatz zu verlieren. Gegen diese „Urängste“ ist es schwierig vorzugehen. Bloßes Argumentieren, welche Vorteile die Veränderung bringt, reicht nicht aus. Bis sich die Ergebnisse der Reorganisation für jeden Einzelnen manifestiert haben, wird immer eine gewisse Unsicherheit bleiben. Hier ist es wichtig, durch eine Kombination verschiedener Maßnahmen kontinuierlich die Glaubwürdigkeit der anvisierten Ziele zu stärken und damit das Vertrauen der Mitarbeiter in ein „gutes Ende“ der Veränderung zu festigen. Eine negative Konsequenz für die Betroffenen zeigt sich auch darin, dass Werte und Standards, die über Jahrzehnte im Unternehmen galten, auf einmal in Frage gestellt werden. Externe Berater, die mit der jeweiligen Unternehmenskultur kaum vertraut sind, tappen leicht in diese Falle. Selbst dann, wenn Sie in bester Absicht die Mitarbeiter über die Veränderungen informieren, besteht die Gefahr, dass Sie den falschen Ton treffen. Gerade in operativen Bereichen, in denen weitgehend nach Standards und Routinen gearbeitet wird, begegnen wir der folgenden Reaktion: „Seit 20 Jahren arbeiten wir genau so, wie es uns beigebracht wurde. Jetzt auf einmal soll das alles falsch sein?“ Es muss klar herausgestellt werden, dass neue Prozesse aufgrund veränderter Rahmenbedingungen notwendig sind, zum Beispiel wegen einer veralteten Technologie und nicht durch eine vermeintlich schlechte Arbeitsqualität der Mitarbeiter. Wenn das versäumt wird, beschäftigt man sich länger mit den alten als mit den neuen Prozessen. Wie wir gesehen haben, kann es durchaus gute Gründe für Widerstand geben. Letztendlich zeigt sich im Widerstand unser Streben nach Stabilität und Sicherheit. Natürlich gibt es auch die so genannten notorischen Nörgler. Doch erstens sind diese in der Regel Einzeltäter und zweitens sind sie schnell erkannt. Diese können sie nicht bekehren. Entweder versuchen Sie, diese zu ignorieren, so lange sie keine Gefahr für das Projekt darstellen, oder beschäftigen sie mit vermeintlich wichtigen, aber irrelevanten Aufgaben. Wenn ein notorischer Widerständler allerdings die Stimmung im Team so negativ beeinflusst, dass sie zu kippen droht, muss allen unmissverständlich klar gemacht werden, dass ein solches Verhalten nicht mehr geduldet wird. Hier ist Führungsstärke gefragt und in der Regel erwartet ein Team diese in einer solchen Situation von seinem Vorgesetzten.
5.4.3
Widerstand erkannt – Gefahr gebannt?
Was ist die natürlichste Reaktion, wenn sich uns etwas entgegenstellt? Reflexartig bauen wir eine Gegenkraft auf. Damit demonstrieren wir zwar eindrucksvoll unsere Standhaftigkeit, was aber selten dazu führt, dass der Widerstand verschwindet. Vielmehr verstärken wird diesen noch.
Widerstand
217
Dabei zwingt uns Widerstand dazu, über kreative Lösungen nachzudenken – ähnlich wie starke Wettbewerber. Goethe sagte dazu: „Das Gleiche lässt uns in Ruhe, aber der Widerspruch ist es, der uns produktiv macht.“ Produktive Kreativität ist gefragt, um Widerstand zu entkräften. Ideal wäre eine einfache Checkliste, bei welcher Art von Widerstand welche Strategie greift, aber das ist utopisch. Es kann sein, dass eine Maßnahme bei einem Projekt greift, bei einem anderen aber nicht, obwohl die Ursachen für das Verhalten der Mitarbeiter dieselben sind. Dennoch lassen sich aus der Fülle der möglichen Handlungsstrategien zum Umgang mit Widerstand drei typische Ansätze grob klassifizieren: Kommunikation Mitarbeiterbeteiligung sichtbare Erfolge Eines der bekanntesten Zitate des österreichischen Psychotherapeuten Paul Watzlawick lautet: „Man kann nicht nicht kommunizieren.“ Ganz gleich, wie Sie sich verhalten, Sie senden immer eine Botschaft aus. Deshalb ist es wichtig, dass Sie bei Ihrer Kommunikation den Interpretationsspielraum möglichst klein halten, um der Gerüchteküche von vorneherein Einhalt zu gewähren. Nur so entfalten Sie die Wirkung der Kommunikation als einen der wichtigsten Erfolgsfaktoren für die reibungslose Umsetzung von Reorganisationsvorhaben. Fatalerweise werden bei der Kommunikation die meisten Fehler gemacht. Das Ergebnis einer Untersuchung der Personalberatung ISR aus Chicago belegt, dass 61 Prozent der befragten Mitarbeiter in deutschen Unternehmen nicht durch ihre Vorgesetzen über wichtige Neuigkeiten informiert werden, sondern durch den „Flurfunk“. Das einfache Fazit lautet: Schweigen verschlimmert alles. „Man kann nicht nicht kommunizieren“ Im Jahr 2000 erwog der britisch-niederländische Konsumgüterhersteller Unilever, die Anzahl seiner damals 1.600 Marken auf rund 450 zu reduzieren. Die Philosophie hinter dem mit „Path to Growth“ beschriebenen Konzepts bestand darin, die Ressourcen des Konzerns auf weniger Marken zu konzentrieren, um diese entsprechend zu stärken. Was ökonomisch ausgesprochen sinnvoll ist, scheiterte an der Unfähigkeit des Vorstands, richtig zu kommunizieren. Zwar kündigte der damalige Unternehmenschef Antony Burgmans an, dass bis 2005 drei Viertel der Unilever-Marken aus dem Portfolio verschwinden sollten – er versäumte jedoch zu sagen, welche. Was nun geschah, musste geschehen: Einige Markenmanager versuchten, mit massiven Marketingbudgets ihre eigenen Marken aufzuwerten, andere wiederum wechselten zu Marken, die sie als besonders stark einstuften. Produktentwicklung, Innovationen oder andere zukunftsichernde Maßnahmen gerieten dabei zur Nebensache. Das Kommunikationsdesaster machte an den Unternehmensgrenzen nicht halt. Die mächtigen Einzelhandelskonzerne nutzen die Schwäche der Markenmanager und verhandelten die Preise der Unilever-
218
Umsetzung
Produkte in Grund und Boden. Das Beispiel zeigt, wie selbst inhaltlich korrekte Konzepte scheitern, wenn die kommunikativen Maßnahmen versagen. „Bitte drücken Sie das Bremspedal im Zweifel schön kräftig herunter, dann hält das Auto auf jeden Fall an.“ Ein jüngeres Beispiel für einen kommunikativen Megagau lieferte der japanische Automobilhersteller Toyota. Was für den interessierten Beobachter wie ein Satirebeitrag klingt, war für die einst hoch geachtete Autoschmiede der mediale Tiefpunkt im Kontext der Pannenserien mit klemmenden Gaspedalen. Akio Toyoda, Toyota-Chef und ältester Enkel des Unternehmensgründers Kiichiro Toyoda, trat vor die Presse und gab den betroffenen Kunden den Ratschlag, das Bremspedal kräftig herunter zu drücken, sollte das Auto ungewollt beschleunigen. Erst einige Tage später – viel zu spät, wie Toyoda selbst zugab – entschuldigte er sich bei den betroffenen Kunden für die Unfälle, an denen Toyota-Fahrzeuge beteiligt waren. Alleine in Amerika wurden mindestens 89 Unfalltote mit der unbeabsichtigten Beschleunigung der Autos von Toyota in Verbindung gebracht. Dieses Beispiel zeigt, wie durch eine mangelhafte Kommunikation in Krisenzeiten das über Jahrzehnte aufgebaute Vertrauen in eine Marke zusätzlich torpediert werden kann. Achten Sie auf eine aktive und sachgerechte Kommunikation – nach innen und außen. Wenn aus dem Projekt Ergebnisse hervorgehen, die für Presse und Öffentlichkeit relevant sind, müssen Sie auch externe Kommunikationsaktivitäten als Meilensteine in Ihrer Planung berücksichtigen und mit den internen abstimmen. Denn Informationen, die Mitarbeiter aus externen Quellen erhalten, werden oft als glaubwürdiger eingeschätzt als die aus internen Quellen. Das gilt umso mehr, wenn die Mitarbeiter glauben, dass etwas „nach außen gesickert“ ist, was geheim gehalten werden sollte. Wir möchten hier die wichtigsten Aspekte herausstellen, die sich in der praktischen Projektarbeit bewährt haben. Die Maxime lautet: Kommunikationsaktivitäten müssen sich an der Zielgruppe orientieren, nicht an den Vorstellungen des Projektteams, des Managements oder des Projektsteuerungsgremiums. Ferner muss Kommunikation kontinuierlich erfolgen und konsistente Botschaften vermitteln. Idealerweise planen Sie Kommunikationsaktivitäten in Form eines Kommunikationsplans parallel zu Ihrem Projektplan. Denn jede Projektphase produziert Ergebnisse, die für verschiedene Zielgruppen in unterschiedlichen Formen relevant sind. Zudem schwanken die Reaktionen der betroffenen Mitarbeiter während des Projektfortschritts von Schock oder Unverständnis über kritisches Hinterfragen bis hin zur Akzeptanz der neuen Arbeitsabläufe. Insofern müssen die Kommunikationsmaßnahmen in den verschiedenen Projektphasen den unterschiedlichen Zielgruppen, Gewinnern wie Verlierern, und ihrer jeweiligen Stimmung angepasst sein. Die Kommunikation als solches darf niemals einzig dem Projektteam überlassen werden. Sie ist vor allem auch eine Aufgabe des Managements und ist eng verknüpft mit dem bereits beschriebenen Management Commitment, womit wir nochmals auf die hohe
Widerstand
219
Bedeutung der Glaubwürdigkeit der Kommunikationsinhalte hinweisen wollen. Insbesondere in Krisen erwarten Mitarbeiter, dass das Top-Management demonstriert, dass die Beseitigung der Ängste der Mitarbeiter ganz oben auf seiner Agenda steht. USUnternehmen, die direkt oder indirekt von den Anschlägen des 11. Septembers betroffen waren, haben wiederholt berichtet, dass ihre Mitarbeiter gerade in dieser Situation extremer Unsicherheit von ihrem Management Führungsstärke erwarteten und regelrecht geführt werden wollten. Was können wir hieraus für Reorganisationen lernen? Umbrüche brauchen Leitfiguren. Diese entstehen nur durch eine geschickte Kommunikation, die das Vertrauen in die Führungsfähigkeit des Managements und in die persönliche Zukunft der betroffenen Mitarbeiter stärken. In der Management-Literatur und der Wirtschaftspresse sind hierzu zum Teil widersprüchliche Forderungen zu finden, die sich nicht leicht vereinen lassen, aber beide ihre Berechtigung haben: Zum einen wird die Vermittlung einer motivierenden, zielgebenden Vision gefordert, zum anderen eine klare, bei Mitarbeitern verständliche Sprache. Letzteres schließt eigentlich eine visionäre Sprache aus, weil sie Interpretationsspielräume lässt. Dieses Dilemma mag sich lösen lassen, indem man die an Anglizismen überfrachtete und zu Phrasen verdichtete Sprache der Strategen und externen Berater für die Mitarbeiter aller Stufen regelrecht „übersetzt“ – in eine authentische Sprache, die Widerstände nicht schon aufgrund einzelner technokratischer Begriffe aufkommen lässt. Besonders in Krisen ist auch die externe Kommunikation als vertrauensbildende Maßnahme elementar. Wie durch intensive Kommunikation Vertrauen aufgebaut werden kann, hat auch Mercedes-Benz 1996 nach dem so genannten „Elch-Test“ eindrucksvoll demonstriert. Nachdem die neue A-Klasse bei einem Fahrtest umgekippt war, schwappte eine Welle an negativer Berichterstattung über Mercedes-Benz hinweg, die das Unternehmen bis dahin nicht erlebt hatte. Das Image der hohen Qualität und Sicherheit der Mercedes-Automobile war schwer angekratzt. Neben einer kostenintensiven Rückrufund Nachrüstaktion wurde eine langfristig angelegte Kommunikationsstrategie gestartet, um die Verbesserungen der A-Klasse zu verdeutlichen und das angeschlagene Markenimage von Mercedes-Benz wieder ins rechte Licht zu rücken. Die Strategie erwies sich als richtig und die Marke Mercedes-Benz ging sogar gestärkt aus dieser Krise hervor. Nach einer Leserbefragung der Zeitschrift „auto motor und sport“ erhöhte sich die Markensympathie um sechs Prozent, die Sicherheit wurde bei der A-Klasse lediglich um einen Prozentpunkt abgewertet. Das Imageprofil von Mercedes-Benz hatte schon sechs Monate später wieder sein altes Niveau erreicht und es ein Jahr später sogar übertroffen. Neben Vertrauen in die eingeschlagene Strategie müssen die Kommunikationsaktivitäten Transparenz über die Projektinhalte, Ziele sowie Ergebnisse schaffen. Vor allem wenn der Projekterfolg durch Gerüchte bedroht wird, müssen Ergebnisse und Entscheidungen zeitnah kommuniziert werden. Fangen Sie am besten schon vor dem offiziellen Start der Reorganisation damit an, die Mitarbeiter umfassend über Hintergründe, Daten und Fakten zu informieren, die zu dem Entschluss geführt haben, dieses Projekt anzugehen. Versuchen Sie vor allem, den Nutzen für die betroffenen Mitarbeiter präzise herauszuarbeiten – ohne daraus eine Mogelpackung zu machen. Verzichten Sie bewusst auf
220
Umsetzung
hochpolierte Vorstandspräsentationen, sondern sprechen Sie die Sprache der Adressaten. Führungskräfte verstehen phrasenhafte Präsentationen, weil Sie in der Regel mit den gegebenen Zusammenhängen vertraut sind, der normale Mitarbeiter tut sich damit schwer. Und dann besteht die bereits beschriebene Gefahr von Missverständnissen. Führungspersönlichkeiten wie Winston Churchill beherrschten die Kunst, die wichtigsten Prinzipien einfach zu formulieren und unverändert immer wieder zu predigen. Achten Sie darauf, unterschiedliche Kommunikationsmedien einzusetzen, damit die Informationen wirklich jeden Mitarbeiter erreichen und verstanden werden. Möglicherweise wird man diesem Vorgehen mit dem Vorwurf begegnen, die Mitarbeiter würden mit Informationen überflutet. Das ist aber allemal besser, als aus der Presse zu erfahren, was im eigenen Unternehmen los ist. Sollten Sie auch in externen Medien über die Restrukturierung berichten, so müssen die Inhalte konsistent zu denen sein, die über interne Medien berichtet werden. Informieren ist nicht gleich kommunizieren Kommunikation bedeutet in den Dialog zu treten, nicht nur einseitig zu informieren. Das heißt, es müssen Möglichkeiten geschaffen werden, Feedback von den Mitarbeitern einzuholen, ob und wie Informationen aufgenommen und wie die Ergebnisse der Projektaktivitäten bewertet wurden. Neben den klassischen Methoden wie MitarbeiterWorkshops, Roadshows des Managements oder projektspezifischen Seiten im Intranet sollten Sie zudem Alternativen in Betracht ziehen. Die Möglichkeiten des Web 2.0 bieten mittlerweile unter dem Stichwort „Social Media“ einen großen Korb von Kommunikationskanälen, die sich nicht nur für die externe Kommunikation eignen, sondern auch für die interne – und damit ganz besonders für die Projektkommunikation. Microsoft bietet zum Beispiel ein spezielles Tool für Sharepoint an, der Plattform zum Informationsaustausch und der Zusammenarbeit von Teams. Mit dem Zusatz-Tool können themenbezogene interne Netzwerke ähnlich wie bei Facebook aufgebaut werden können. Andere Anbieter bieten Tools zum Micro-Blogging, mit denen wie bei Twitter eine registrierte „Anhängerschaft“ mit Kurznachrichten in Echtzeit erreicht werden kann. Mag der ein oder andere im Lebensalter über 30 all diese Medien als Plattformen für sinnfreie Kommunikation junger Leute halten – viele Unternehmen, beispielsweise Lufthansa, setzten diese bereits für die externe und interne Kommunikation ein. Bieten sie doch die Möglichkeit, in einen konstanten Dialog mit den Mitarbeitern zu gehen, zeitnah zu informieren, positive Botschaften zu senden und auch Gerüchten früh entgegenzutreten. Und die Mitarbeiter können bezogen auf die Projektumsetzung ihre Verbesserungsvorschläge kommunizieren – ähnlich wie beim betrieblichen Vorschlagswesen, nur eben schneller und direkter. Alles in allem ist Kommunikation also nicht nur das Vehikel, die mentale Veränderung zu steuern, sondern auch das Medium, mit dem überprüft werden kann, ob Projektergebnisse Akzeptanz finden und wo vielleicht nachgebessert werden muss.
Widerstand
221 Häufig ist die einzig wahre Strategie, offen zu sagen, dass man nicht mehr sagen darf
Die Maxime der offenen Kommunikation, die Sie hier und in so vielen anderen Management-Büchern lesen können, hat allerdings in der Realität auch ihre Grenzen. Nicht selten treffen wir auf verantwortungsbewusste Manager, die ihre Mitarbeiter sofort, umfassend und offen über alle Ziele und Maßnahmen informieren wollen. Sobald aber Arbeitsplätze in ihrer Ausgestaltung oder gar ihrer Existenz bedroht sind, greifen weitreichende Regelungen. Achten Sie dabei auf juristische Falltüren. Es ist legitim, dass Mitarbeitervertretungen Sturm laufen, wenn Arbeitsplätze in Gefahr sind. Da sind kleine Formfehler oder das Verletzen von vereinbartem Stillschweigen ein gefundenes Fressen. Im Endeffekt verhindern dann taktische Manöver zwischen Management und Betriebsrat, die häufig allerdings mehr der jeweiligen Machtdemonstration denn der Bedürfnisse der Mitarbeiter dienen, eine zeitnahe, offene Kommunikation. Eine Studie der Unternehmensberatung Roland Berger aus dem Jahr 2003 belegt, dass 55 Prozent der befragten Unternehmen, die mit ihren Betriebsräten bei Kostensenkungsprojekten eng kooperieren, den Projekterfolg als hoch einstufen. Von den Unternehmen, die auf diese Zusammenarbeit verzichtet haben, waren lediglich acht Prozent erfolgreich. Gerüchte und Unsicherheit, oft auch Wut, machen sich dann bei den potenziell Betroffenen breit, während andernorts in geheimen Sitzungen über deren vermeintliches Wohl verhandelt wird. Dies kann man nicht verhindern. Ebenso wenig gibt es eine geeignete Strategie, die in dieser Phase den Mitarbeitern ihre Ängste nimmt. Die einzig wahre Strategie ist dann, offen zu sagen, dass man nicht mehr sagen darf oder sogar nicht mehr weiß als die Betroffenen selbst und die Gründe dafür zu nennen. Erfahrungsgemäß gelingt es verantwortungsbewussten Managern, die eine hohe Akzeptanz bei den Mitarbeitern genießen, die Wogen zu glätten. Die bereits erwähnten Feedbackschleifen bedeuten, dass die Mitarbeiter in den Veränderungsprozess aktiv eingebunden werden. Damit sind wir bei der Technik der Mitarbeiterbeteiligung. Häufig erleben wir, dass im Management Bedenken gegen eine umfassende Mitarbeiterbeteiligung bestehen oder dass es nur als Alibi-Funktion für Mitarbeiterorientierung verstanden wird. Mitarbeiterbeteiligung darf dabei nicht als Basisdemokratie verstanden werden in dem Sinne, dass jeder seine Stimme gleichberechtigt in die Waagschale legen darf. Damit würden Sie jedes Projekt mit fruchtlosen Diskussionen zum Erliegen bringen. Vielmehr muss das Ziel sein, Kanäle zu schaffen, über die Mitarbeiter ihre Ideen sowie ihr Know-how einbringen können. Am besten funktioniert das, wenn kompetente Mitarbeiter als vollwertige Mitglieder der betroffenen Bereiche im Projektteam mitarbeiten. Noch besser funktioniert es, wenn diese Mitarbeiter bei ihren Kollegen als Meinungsführer akzeptiert werden und als Multiplikator Gehör finden, um die Inhalte des Projekts glaubhaft vermitteln zu können. Auf die Notwendigkeit von sichtbaren Erfolgen sind wir bereits im Subkapitel Problemdiagnose eingegangen. Jedes positive Ergebnis stärkt die Zuversicht der Mitarbeiter, dass
222
Umsetzung
sich die Veränderungen auch positiv für sie auswirken werden. Achten Sie daher darauf, dass frühzeitig Maßnahmen ergriffen werden, die in den Augen der Betroffenen eine wahre Verbesserung darstellen und tun Sie dies auch kund. Dies gilt besonders für die Umsetzungsphase, wenn die Mitarbeiter ganz besonders kritisch beobachten, was passiert. Eine Verbesserung, die keiner spürt, verfehlt diesen Zweck. Eine Erhöhung des Projektbudgets mag zwar eine wirkungsvolle Maßnahme sein, jedoch nehmen Mitarbeiter diese Veränderung nicht sofort wahr. Eine Verkürzung der Berichtswege spürt dagegen jeder sofort in seiner täglichen Arbeit. Ein bisschen Marketing kann nie schaden. Vermarkten Sie daher diese Erfolge in den Kommunikationsforen der Mitarbeiter – ohne allerdings mit Übertreibungen und Eigenlob die Realitäten zu verzerren. Zusammenfassung Es gibt keine Veränderung ohne Widerstand. Hinter Widerstand verstecken sich Ängste vor dem Neuen und der Unsicherheit. Widerstand kann verdeckt oder sichtbar und in Worten oder Taten auftreten. Warum Widerstand entsteht, ist individuell von Mensch zu Mensch und von Unternehmen zu Unternehmen verschieden. Bevor wir mit aller Gewalt gegen Widerständler vorgehen, sollten wir erst nüchtern analysieren, welche Ursachen hinter dem ablehnenden Verhalten liegen und dann eine geeignete konfliktmindernde Handlungsstrategie festlegen. Die wichtigsten Mittel, um Widerstand zu verhindern oder zu verringern, sind eine auf Transparenz, Glaubwürdigkeit und Dialog ausgelegte geplante Kommunikation sowie das Einbinden der betroffenen Mitarbeiter – und natürlich positive Ergebnisse. Diese Aktivitäten sollten durch einen Kommunikationsplan gesteuert werden, der parallel zu den geplanten Meilensteinen des Projekts Inhalte, Verantwortliche, Kommunizierende, Zielgruppen und Medien der Kommunikation festlegt. Die beschriebene Systematik der Widerstandsanalyse wird in der folgenden Tabelle mit einigen Beispielen verdeutlicht. Wenn Sie die in diesem Kapitel gegebenen Hinweise zum Umgang mit den betroffenen Mitarbeitern und der Projektumgebung beherzigen, haben Sie den Erfolg schon fast in der Tasche. Stellen Sie sich jedoch darauf ein, dass es aufgrund der neuen Rahmenbedingungen mit großer Wahrscheinlichkeit erst einmal zu einem Leistungsabfall kommen wird. Abgesehen von den beschriebenen Widerständen müssen sich die Mitarbeiter erst einmal mit den neuen Arbeitsroutinen vertraut machen, Fehler werden gemacht und gegebenenfalls muss der Umgang mit einer neuen Software in der alltäglichen Arbeit erprobt werden. Letztendlich hängt der Erfolg auch von den vielen kleinen schrittweisen Verbesserungen ab, die für sich gesehen noch keinen Quantensprung darstellen, in der Summe jedoch
Widerstand
223
über das langfristige Funktionieren der neuen Prozesse entscheiden. Theodore Levitt fasste dies treffend zusammen: „Sustained success is largely a matter of focusing on the right things and making a lot of uncelebrated little improvements every day.” Tabelle 14: Ursachen von Widerstand und Strategien zum Umgang (Widerstandsanalyse) Verhalten, in dem sich Widerstand ausdrückt
Mögliche Ursachen für Widerstand
Dienst nach Vorschrift
Notwendigkeit für Veränderung wird nicht gesehen
Handlungsstrategie zur Entkräftung • Konsens für Notwendigkeit der Veränderung in Auftakt-Veranstaltungen schaffen: −
Daten zur Unternehmensentwicklung vermitteln
−
Unternehmensstrategie erläutern
−
Szenario aufzeigen: „Was passiert, wenn wir nichts tun?“
• Teilerfolge durch erste zügig umgesetzte Maßnahmen demonstrieren (Quick Hits) Kampagne des Betriebsrats: „Die Geschäftsleitung will uns schon wieder an der Nase herumführen.“
Versteckte Agenda wird vermutet
• Ziele und Inhalte durch Top-Management kommunizieren • Mitarbeiterbeteiligung: Forum (offener Projektraum, Intranet-Chats) schaffen, über das sich Mitarbeiter jederzeit über Projektinhalte und -fortschritt informieren können • Reale Ziele durch Quick Hits manifestieren
Höhere Fehlzeiten
Kompetenzverlust wird befürchtet
• Als Meinungsführer allgemein akzeptierte Mitarbeiter als Multiplikatoren im Projekt einsetzen • Liste der wichtigsten Fragen und Antworten (FAQ) zum künftigen Arbeitsplatz im Intranet veröffentlichen • Reale Zukunftsperspektive formulieren und in allen internen Kommunikationsmedien veröffentlichen
224
Nachbereitung
Die in diesem Kapitel beschriebenen Techniken bilden nur eine Facette der systematischen Steuerung der Veränderung durch Reorganisationen ab. Wir fassen diese unter der Aktivität Change Management zusammen. Selbstverständlich muss abhängig von den zu erwartenden Auswirkungen des Veränderungsprojekts ein Change Management frühzeitig geplant und begonnen werden, das heißt eventuell bereits ab Projektstart. Allerspätestens in der Umsetzungsphase, wenn die Veränderungen für die gesamte Organisation real werden, ist eine systematische Steuerung unabdingbar. Tabelle 15: Methodenkomponenten des Change Management Komponente Vorgehensphase
Umsetzung
Aktivitäten
Change Management
Ergebnisse
• Hohes Maß an Involviertheit und Rückhalt von betroffenen sowie nur indirekt betroffenen Führungskräften bei der Umsetzung der RedesignMaßnahmen • Hohes Maß an Beteiligung und Zustimmung betroffener Mitarbeiter • Weitgehend reibungslose, unverzögerte Umsetzung
Techniken
• Kraftfeldanalyse (Beziehungsnetz, Beziehungsmatrix) • Widerstandsanalyse (Verhalten, Ursachen, Handlungsstrategien) • Kommunikationsplan • Mitarbeiterbeteiligung (heterogene Teams, Feedbackschleifen, Multiplikatoren etc.) • Sichtbare Erfolge (Quick Hits)
Rollen
• Change Agent • Steuerungsgremium • Auftraggeber • Projektleiter • Projektteam • Multiplikatoren
225
6 Nachbereitung – Erfolg messen und Wissen konservieren Angenommen, Sie haben soeben ein großes Projekt mit einem stattlichen Budget von circa 100 Millionen Euro abgeschlossen. Würden Sie jetzt nicht gerne wissen wollen, wie erfolgreich das Vorhaben war? Die Antwort liegt eigentlich auf der Hand. Dennoch hat unsere Frage keinesfalls nur rhetorischen Charakter, wie die Bundesagentur für Arbeit mit ihrem „Virtuellen Arbeitsmarkt“ (VAM) belegte. Der Bundesrechnungshof bemängelte 2005 in seinem Prüfbericht, dass nicht nachvollziehbar sei, ob und wann die von der Bundesagentur geplanten Einsparungen von 1,1 Milliarden Euro realisiert werden könnten. Ferner sei nicht erkennbar, ob der 100 Millionen Euro teure VAM überhaupt zu einer Entlastung am Arbeitsmarkt beitragen könne. So wie in diesem Beispiel stellen wir in vielen Projekten fest, dass eine systematische Erfolgs- und Leistungsmessung in aller Regel unterbleibt. Ganz zu schweigen von der Etablierung einer kontinuierlichen Messung, beispielsweise durch ein modernes Management InformationsSystem (MIS), das ein zeitnahes Bild von der Leistungsfähigkeit der Prozesse garantiert. Ebenso häufig wird großzügig darauf verzichtet, die im Projekt gewonnenen Erfahrungen zu konservieren. Wenn sich die beteiligten Personen wieder anderen Aufgaben zuwenden und externe Berater abgezogen werden, geht dieser wertvolle Wissensschatz verloren und muss im nächsten Reorganisationsvorhaben erneut aufgebaut werden. Im ersten Abschnitt dieses Kapitels werden wir aufzeigen, was Sie beachten müssen, um eine punktuelle und dauerhafte Leistungsmessung erfolgreich zu etablieren. Wir werden im zweiten Abschnitt auf die elementare Bedeutung eines effektiven Wissensmanagements eingehen, um zu vermeiden, dass Sie das Rad in jedem Projekt neu erfinden müssen.
6.1 Leistungsmessung – Messen mit System Im Subkapitel „Zielformulierung – Was nicht gemessen wird, wird nicht getan“ haben wir bereits wichtige Aspekte der Erfolgs- und Leistungsmessung angesprochen. Dabei ging es um die Definition der Messlatte für das Redesign. Im Subkapitel „Target Activity Grid – Ein Instrument, um das Redesign wirksam zu überprüfen“ konnten wir zeigen, wie die Wirksamkeit von Redesign-Maßnahmen im Hinblick auf deren Zielerreichungspotenzial systematisch abgeschätzt werden kann. Nachdem nunmehr die Erfolg versprechenden Maßnahmen umgesetzt wurden, müssen wir zunächst feststellen, ob das
E. Best, M. Weth, Process Excellence, DOI 10.1007/978-3-8349-8950-5_6, © Gabler Verlag | Springer Fachmedien Wiesbaden GmbH 2010
226
Nachbereitung
projektauslösende Problem überhaupt beseitigt oder zumindest gelindert werden konnte. Dazu ist eine Erfolgsmessung erforderlich. Falls das Ergebnis nicht zufrieden stellend ausfällt, ist es noch nicht zu spät, um weitere Maßnahmen zur Adjustierung zu ergreifen. Hier erkennen Sie, wie wichtig die Definition präziser Ziele ist. Wenn Ihre Ziele ungenau oder nicht messbar sind, können Sie den Projekterfolg nicht glaubhaft belegen. Dies gilt umso mehr, wenn der tatsächliche Erfolg von Gegnern des Projekts aus machtpolitischen Interessen heraus verzerrt dargestellt wird. Dann können nur nachvollziehbare Messungen Ihren Projekterfolg ins rechte Licht rücken. Sinnvoll ist es auch, bereits während der Potenzialanalyse ein Kennzahlensystem zur Prozessleistungsmessung und späteren Erfolgsmessung anzulegen. Damit legen Sie die Basis für ein langfristig kontinuierliches Prozessmanagement. Eine wesentliche Frage ist natürlich, ob zum Zeitpunkt des Projektabschlusses eine Aussage über das Erreichen der Ziele überhaupt getroffen werden kann. Viele Maßnahmen sind langfristig angelegt und zeigen die gewünschte Wirkung erst später, beispielsweise die Erfolge der Mitarbeiter-Qualifizierung. Ebenso beanspruchen IT-Lösungen lange Entwicklungszeiten. Selbst dann, wenn der Erfolg bereits bei Projektabschluss gemessen werden kann, stellt sich die Frage, wie Sie erkennen können, ob Führungsgrößen wie Durchlaufzeiten, Prozesskosten oder Fehlerraten die Zielmarken im Zeitablauf erfüllen? Zur Beantwortung dieser Fragen ist die Verankerung einer kontinuierlichen Leistungsmessung unabdingbar. Diese bringt zudem eine Reihe anderer Vorteile mit sich. So wird beispielsweise eine Datengrundlage für die effiziente Allokation von Mitarbeiterkapazitäten oder anderen Ressourcen sowie für eine verbesserte Steuerung der Prozesse geschaffen. Der wichtigste Vorteil einer systematischen und kontinuierlichen Leistungsmessung spiegelt sich jedoch in der Lernfähigkeit der Organisation wider: Veränderungen können durchgeführt und die Auswirkungen von Management-Entscheidungen überprüft werden, was wiederum Rückschlüsse auf zukünftige Entscheidungen zulässt. Nach der Umsetzungs-Phase sind die Voraussetzungen gut, um die erlangten Erfahrungen für die dauerhafte Leistungsmessung und Steuerung zu nutzen. Das hat im Wesentlichen zwei Gründe: Zum einen besteht nun Klarheit über die Prozesslandschaft, die Organisationsstrukturen sowie die IT-Systeme. Zum anderen können die Erfahrungen genutzt werden, zum Beispiel wenn es um die Eignung von Leistungsfaktoren als Messgrößen geht. Stößt die Leistungsmessung auf technische Hindernisse, weil beispielsweise wichtige Ausgangsdaten nicht sinnvoll erhoben werden können, sind auch diese spätestens jetzt bekannt. Die Beteiligten des Reorganisationsprojekts haben mittlerweile ein gutes Gespür dafür gewonnen, wo eine Leistungsmessung ansetzen kann und welche Hindernisse zu erwarten sind. Für die kontinuierliche Leistungsmessung ergeben sich besonders hohe Anforderungen, die häufig unterschätzt werden. Auf die wichtigsten gehen wir hier ein: Einseitigkeit: Erstens ist in der kontinuierlichen Leistungskontrolle eine einseitige Ausrichtung der verwendeten Messgrößen zu vermeiden. Das muss bei der Formulierung des Kennzahlensystems berücksichtigt werden.
Leistungsmessung
227
Akzeptanz: Zweitens stößt eine kontinuierliche Leistungsmessung in der Regel auf noch mehr Widerstand als eine projektbezogene und punktuelle Evaluierung. Das Ganze kann jedoch kaum gegen den Widerstand der beteiligten Interessengruppen erfolgreich implementiert werden. Optimierung: Und Drittens gilt es langfristig auch die Messung selbst zu optimieren. Das lässt sich in der Regel ohne eine leistungsfähige IT nicht bewerkstelligen. In diesem Bereich hat sich der Begriff Management Informations-Systeme (MIS) etabliert, den wir noch erläutern werden.
6.1.1
Einseitige Messung vermeiden
Leistungsmessung ist kein Selbstzweck, sondern die Grundlage für fundierte und nachvollziehbare Management-Entscheidungen. Deshalb muss die folgende Frage zunächst beantwortet werden: „An welchen Stellschrauben wollen Sie drehen, um die Leistungsfähigkeit Ihrer Prozesse zu optimieren?“ Wenn Sie diese Frage gewissenhaft beantwortet haben, kommen Sie automatisch zu der Erkenntnis, dass es nicht den einen großen Hebel gibt, dessen Adjustierung den gewünschten Erfolg bringt. Vielmehr werden Ihnen eine Reihe von Erfolgsvariablen einfallen. So unterschiedlich diese sind, so verschieden müssen auch die Kenngrößen sein, die in die Leistungsmessung einfließen. Intel, Weltmarktführer für Mikroprozessoren, liefert ein Beispiel dafür, welche Nachteile die Fokussierung auf einen einzigen Leistungsparameter mit sich bringt. Das Unternehmen propagierte über Jahre eine klare Botschaft: Je höher die Taktfrequenz eines Rechners, desto besser. Sowohl die Computerbranche als auch ihre Kunden folgten und verfielen der Jagd nach immer mehr Gigahertz. Wer wollte sich schon im Bekanntenkreis mit einem Rechner blamieren, der eine Rechengeschwindigkeit der vorletzten Generation hatte? Die Fähigkeit von Intel, gegenüber dem Konkurrenten AMD bei diesem Parameter die Nase vorn zu haben, war ein entscheidender Grund für die marktbeherrschende Stellung des Unternehmens. Deshalb richtete Intel seine Forschungs- und Entwicklungsprozesse weitgehend auf die Steigerung der Taktfrequenz aus. Für Konkurrent AMD war das jedoch nur einer von vielen Leistungsindikatoren, die es im Entwicklungsprozess zu berücksichtigen galt. Ende 2004 war deutlich abzusehen, wohin die „Gigahertz-Hatz“ Intel führte: Konkurrent AMD gewann Marktanteile durch zukunftsweisende Technologien, die mit Gigahertz wenig zu tun hatten. Schließlich gab Intel die Entwicklung des Vier-Gigahertz-Rechners auf und schwenkte die Kapazitäten auf Technologien um, die AMD bereits im Markt eingeführt hatte. Die Mercedes Car Group lieferte ein weiteres Beispiel für die Gefahren einer einseitigen Leistungsmessung. Anfang 2005 war bei der damaligen DaimlerChrysler-Tochter Sand im Getriebe. Über Jahre hinweg galt die Anzahl der verkauften Autos als das Maß aller Dinge. Während die Stückzahlen stiegen, ging die Rendite in den Keller. Der damalige
228
Nachbereitung
Mercedes-Chef Eckhard Cordes sah sich zu einem Strategiewechsel gezwungen. Bevor über einschneidende Maßnahmen entschieden wurde, waren neue Kennzahlen Boten der Veränderung. Die Bedeutung verkaufter Stückzahlen ging zugunsten einer verstärkten Renditeorientierung zurück. Es ist jedoch davon auszugehen, dass Mercedes sich in Zukunft nicht ausschließlich auf die Renditeziele konzentrieren wird. Selbstverständlich spielen Stückzahlen stets eine große Rolle, denn schließlich beeinflussen sie in erheblichem Maße die Rendite. Gleiches gilt für die Zufriedenheit der Kunden mit der Qualität der Produkte. Die Beispiele zeigen, dass die Leistungsmessung realitätsnah und damit möglichst ausgewogen erfolgen muss, um gravierende Verzerrungen durch eine falsche Gewichtung von Kenngrößen zu verhindern. Sonst besteht die Gefahr einer einseitigen Zielverfolgung zu Lasten anderer Aspekte. Vor diesem Hintergrund sind Kennzahlenkonzepte wie die Balanced Scorecard zur Steuerung von Unternehmen oder das Leadership Asset System (LAS) zur Steuerung der Führungseigenschaften entstanden. Letzteres haben wir bereits im Abschnitt „Was wohlformulierte Ziele ausmacht“ erläutert. Die Leitidee der Balanced Scorecard ist die Ergänzung der einseitigen Fokussierung auf finanzielle Kenngrößen um drei weitere Kategorien: Markt bzw. Kunde, Prozessleistung und Innovationsstärke. Traditionell werden bevorzugt Finanzkennzahlen zur Leistungsmessung herangezogen. Diese sind ohne Zweifel wichtig und zudem allgemein akzeptiert. Sie reichen allein jedoch nicht aus, um das tatsächliche Leistungsniveau zu messen. So können Sie zwar aus Finanzkennzahlen ersehen, ob Sie in der Vergangenheit erfolgreich waren, nicht jedoch, was Sie in Zukunft zu erwarten haben. Im Gegensatz dazu erlauben die übrigen Kategorien den Blick nach vorne und geben häufig auch Hinweise auf die Gründe für gute oder schlechte Leistung. So wird beispielsweise geprüft, welche Kundenanforderungen sich in der Leistungsmessung widerspiegeln müssen. Oder welche prozessbezogenen Leistungsmerkmale eine Aussagekraft für die Leistungsfähigkeit des Unternehmens haben können. Die Innovationsstärke, zum Beispiel gemessen an der Anzahl der Patente, erlaubt einen Blick auf die zukünftigen Erfolge des Unternehmens. Ausgangspunkt für die Formulierung einer Balanced Scorecard muss die Strategie des Unternehmens sein, weshalb das Top-Management aktiv beteiligt sein muss. Das Kennzahlensystem muss die Umsetzung der Strategie aufzeigen. Dabei werden die strategischen Ziele eines Unternehmens bzw. die der Unternehmensbereiche durch Kennzahlen unterlegt. Die Halbherzigkeit, mit der manche Unternehmen ihre Balanced Scorecard mit Leben füllen, lässt sich daran ablesen, dass die verwendeten Kenngrößen häufig nicht quantifiziert werden. In diesem Fall können Sie sich die Mühe sparen. Auch hier gilt das bereits Gesagte: Was nicht gemessen wird, wird nicht getan.
Leistungsmessung
229
Kunde • Wiederkaufquote • Relativer und absoluter Marktanteil • Anzahl Neukunden
Finanzen
Prozesse
• Umsatz • Gewinn • Deckungsbeitrag • Cash Flow
• • • •
Strategie
Durchlaufzeit Bearbeitungszeit Prozessqualität Stückkosten
Innovation • Anteil Neuprodukte • Angemeldete Patente
Abbildung 29: Unternehmensstrategie als Ausgangspunkt für die Formulierung der Balanced Scorecard
6.1.2
Leistungsmessung nur mit Akzeptanz der Beteiligten
Der Wirtschaftspresse entnehmen wir täglich Meldungen über Optimierungsprogramme, Stellenstreichungen, Verlagerung von Arbeitsplätzen ins Ausland und dergleichen mehr. Wen mag es da verwundern, dass Mitarbeiter verunsichert sind, wenn das Management die Etablierung einer kontinuierlichen Leistungsmessung ankündigt? Deshalb gelten in besonderem Maße unsere Ausführungen aus dem Subkapitel „Umgang mit Widerstand – Gegenwind erzeugt Auftrieb“. Andere Zahlen – oder andere Gesichter Auch wenn mit der Leistungsmessung zunächst keine direkten Auswirkungen auf die tägliche Arbeit einhergehen, so kann jeder Mitarbeiter spätere Folgen zumindest erahnen. Nicht nur die Mitarbeiter sind betroffen. Die Leistungsmessung lässt auch Rückschlüsse auf die Fähigkeit von Managern zu. In zahlreichen Projekten konnten wir eklatante Leistungsunterschiede zwischen Einheiten innerhalb eines Unternehmens durch die Einführung einer konsequenten Messung offen legen, was unangenehme Fragen für die weniger erfolgreichen Manager zur Folge hatte. Wenn Verbesserungen ausbleiben, können auch personelle Konsequenzen folgen – getreu dem Motto „Andere Zahlen – oder andere Gesichter.“ Deshalb verwundert es nicht, dass zuviel Transparenz keinesfalls auf
230
Nachbereitung
ungeteilte Euphorie im Management stößt. Nicht selten hat der eine oder andere über Jahre hinweg eine ausgeklügelte Vernebelungsstrategie erfolgreich umgesetzt. Nehmen wir als Beispiel eine Vertriebseinheit, die von der Produktion immer wieder neue Produktvarianten mit der Begründung verlangt, die Wettbewerbssituation erzwinge dies. Wenn die Produktion dann nicht in der Lage ist, die damit verbundenen Kostentreiber zu belegen, begibt man sich in eine unendliche Spirale der Variantenvielfalt mit der Konsequenz explodierender Komplexitätskosten. Um dem Eigenleben von Gerüchten zu begegnen, muss das Management die beteiligten Interessengruppen von Anfang an einbinden. Das wichtigste Instrument dabei ist eine konsequente und vor allem konsistente Kommunikation. Diese muss Antworten auf immer dieselben Fragen geben: Warum wird gemessen? Was und wie wird gemessen? Welche Konsequenzen haben die Messergebnisse für mich persönlich? ⎯
Besteht die Gefahr, dass ich finanzielle Nachteile erleide oder sogar meinen Arbeitsplatz verliere?
⎯
Habe ich andererseits die Chance, Vorteile zu erzielen, weil meine Leistungsfähigkeit endlich transparent gemacht wird?
Gelingt es nicht, Widerstände zu überwinden oder gar nicht erst aufkommen zu lassen, kann die Leistungsmessung nach unseren Erfahrungen nicht erfolgreich sein. Dabei sind vor allem die Mitbestimmungsgremien über die Ziele zu informieren. Die Brisanz kann verringert werden, wenn die Messung auf der Basis von Teams anstelle einzelner Mitarbeiter erfolgt. Das reicht häufig völlig aus, weil für eine verbesserte Prozesssteuerung nicht unbedingt der Einzelausweis der individuellen Leistungsfähigkeit erforderlich ist. Eine der Grundbedingungen für jedes Kennzahlensystem ist eine klare, unmissverständliche Definition der einzelnen Kennzahlen. Zudem ist dies ein wichtiges Mittel, um die Akzeptanz der Leistungsmessung sowohl beim Management als auch bei den Mitarbeitern zu erhöhen. Was sich anhört wie übertriebener Formalismus, spiegelt sich im gesunden Menschenverstand wider: Wie sollen die Beteiligten ihre Leistungen optimieren, wenn nicht klar ist, was eigentlich genau gemessen wird. Mit einer klaren Definition der Kennzahlen verringern Sie den Interpretationsspielraum, was schon für sich dazu beiträgt, das Vertrauen und die Akzeptanz der Beteiligten zu erhöhen. Die Ausarbeitung der Kennzahlendefinitionen bietet die Gelegenheit, alle aktiv einzubinden sowie Widerstände abzubauen und damit das Vertrauen in die zukünftige Messung zu erhöhen. Eine nicht leicht zu lösende Frage bei der Definition der Kennzahlen ist allerdings die Frage nach dem richtigen Berechnungsverfahren. Ein Beispiel soll dies verdeutlichen: Herkömmliche Konzepte zur Bewertung von Unternehmen wie der Economic Value Added (EVA) ziehen zur Berechnung der Kapitalkosten einen risikoangepassten Zins-
Leistungsmessung
231
satz heran, zum Beispiel die Weighted Average Cost of Capital (WACC). Darin kommt eine Erwartungskomponente zum Ausdruck, denen dann – wie beim EVA – die realisierten Gewinne gegenübergestellt werden. Die Universität Frankfurt hat 2004 in Zusammenarbeit mit der Wirtschaftsprüfungsgesellschaft KPMG eine Kennzahl für den Unternehmenswert entwickelt, dem ein risikoloser Zinssatz zugrunde liegt: die Kennzahl ERIC für „Earnings less riskfree interest charge“. Die Unterschiede in der Bewertung von Unternehmen sind verblüffend: Nach herkömmlicher Messung hat zum Beispiel E.ON 2003 705 Millionen Euro an Wert vernichtet. Bewertet mit ERIC hat der Energiekonzern dagegen über eine Milliarde Euro an Wert geschaffen. Der Wertzuwachs der Deutschen Bank liegt nach ERIC im gleichen Zeitraum bei 928 Millionen Euro gegenüber vernichtetem Wert von über 1,3 Milliarden Euro nach herkömmlicher Bewertung. Das hier aufgezeigte Dilemma der „richtigen“ Definition kann nur dadurch vermieden werden, dass die Definition nicht im Schnellschussverfahren festgelegt und das Bewertungsverfahren nachvollziehbar sowie transparent aufgezeigt wird.
6.1.3
Effektiv messen mit Management InformationsSystemen
Sollte es Ihnen gelungen sein, ein ausgewogenes Kennzahlensystem zu definieren und die Akzeptanz der Beteiligten zu gewinnen, so stellt sich nunmehr die Frage, wie die Leistungsmessung mit wirtschaftlich vertretbarem Aufwand bewerkstelligt werden kann. So überzeugend die Konzepte auf dem Papier auch aussehen mögen, in der Praxis ergeben sich nahezu immer die gleichen Schwierigkeiten: Überwiegend manuell: Immer wieder scheitert eine Leistungsmessung an dem Aufwand zur Gewinnung der Ausgangsdaten. Überraschend wenig Informationen können auch heute einfach per Knopfdruck generiert werden. Die manuelle Erhebung von Daten ist jedoch selten auf Dauer praktikabel und zudem sehr anfällig für Manipulationen. Zu unflexibel: Die vorhandenen IT-Systeme bieten lediglich standardisierte Berichte. Anpassungen der Auswertungen an die aktuelle Situation des Unternehmens sind nur mit großem Aufwand möglich. Nicht integriert: Häufig wird zur Zählung auf Datenbestände in unterschiedlichen Systemen zurückgegriffen. Das hat zur Folge, dass häufig die Daten nicht vergleichbar sind, da zeitlich, räumlich oder organisatorisch jeweils andere Abgrenzungen vorgenommen werden. Nicht lernfähig: Gut konzipierte Systeme zur Leistungsmessung generieren äußerst wertvolle Informationen als Entscheidungsgrundlage für das Management. In den seltensten Fällen sind die Systeme in der Lage, diese Informationen durch Auswertungen zu veredeln.
232
Nachbereitung
Treffen solche Punkte zu, können sich die Gegner einer Leistungsmessung genüsslich auf die Schwachstellen einschießen. Sie haben Gelegenheit, das Vorhaben wirksam zu torpedieren und brauchen in der Folge keine Konsequenzen aus der Leistungsmessung zu befürchten. Moderne Management Informations-Systeme (MIS) helfen, diese Schwierigkeiten zu überwinden. Ein MIS deckt alle Funktionen ab, um aus verschiedenen Datenquellen eine konsistente und flexible Sicht auf die Daten zu erhalten. Dazu verfügt ein MIS über eine modulare Architektur. Zur Übernahme der Rohdaten aus den Quellsystemen, zum Beispiel dem Produktions- oder Warenwirtschaftssystem, dienen so genannte Data Hubs. Sie übernehmen die Daten, sammeln und filtern diese. Ein wichtiger Bestandteil eines MIS sind Basisdaten (Base Data). In diesem Modul sind Rahmendaten hinterlegt, die für die strukturierte Auswertung äußerst wichtig sind: Angaben zur Aufbauorganisation, deren Gliederung, zum Beispiel Sparten und Kostenstellen, sowie Produktstrukturen, geografische Gliederungen und so weiter. Im Modul Data-Integration werden alle Informationen plausibilisiert, zusammengefasst und eventuell bereinigt, bevor die Daten ins Data Warehouse, der umfassenden und langfristigen Datenbank des MIS, überführt werden. Auf das Data Warehouse greifen die verschiedenen Reporting Tools zu. Dazu zählen vordefinierte Berichte für wiederkehrende Reports. Andere Tools wie das Online Analytical Processing (OLAP) unterstützen das flexible Reporting und bedienen damit Auswertungen zu Ad-hocAnfragen.
Intern
Quellsysteme Auftragsbearbeitung
Abrechnungssystem
Ergebnissichten
Data Hub
DataIntegration
Data Warehouse
Reporting Tools
• Strukturieren • Verdichten
Data Hub
• Zusammenführen • Filtern • Plausibilisieren • Bereinigen • Anreichern
• Vordefinierte Berichte • Data Mining • OLAP
Transaktionssysteme Bestellsystem
Extern
MIS (Management Informations-System)
• Aufnehmen • Filtern • Sammeln
Andere
@
Base Data (Bereiche, Strukturen, Produkte, Kunden)
Abbildung 30: Komponenten eines Management Informations-Systems (MIS)
Aufgrund ihrer Architektur bieten MIS eine Fülle von Möglichkeiten zur flexiblen sowie intelligenten Auswertung und verringern erheblich den Aufwand für die Datensammlung und die Bereitstellung von Standardberichten. Sie ermöglichen darüber hinaus aktuelle, angepasste Sichten auf die Unternehmensdaten. Die Vorteile wiegen hier den in der Regel verhältnismäßig hohen Implementierungs-Aufwand auf.
Leistungsmessung
233
Zusammenfassung Verzichten Sie keinesfalls darauf, den Erfolg Ihres Projekts zu messen. Nur so können Sie feststellen, ob die gewünschte Wirkung tatsächlich eingetreten ist und der Aufwand gerechtfertigt war. Dies sollte in erster Linie auf Basis der in der Potenzialanalyse definierten Ziele erfolgen. Nutzen Sie die Gunst der Stunde für die Etablierung einer kontinuierlichen Leistungsmessung. Wenn Sie die neuen Prozesse und Strukturen erfolgreich umgesetzt haben, dann sind die Voraussetzungen dafür günstig. Verhindern Sie, dass die Leistungsmessung ein verzerrtes Bild von der Wirklichkeit aufzeigt. Definieren Sie ein ausgewogenes Kennzahlensystem, das sich an der Unternehmensstrategie ausrichtet und alle relevanten Perspektiven abdeckt. Sichern Sie sich die Unterstützung der beteiligten Interessengruppen durch deren frühzeitige Einbindung und eindeutige sowie plausible Definitionen der Kenngrößen. Treten Sie Widerstand entgegen, indem Sie glasklar erläutern, welche Ziele Sie mit der Leistungsmessung verfolgen und welche nicht. Achten Sie darauf, dass Aufwand und Nutzen der Leistungsmessung in einem wirtschaftlich vertretbaren Verhältnis stehen. Dazu sind moderne Management Informations-Systeme geeignet, die eine weitgehend automatisierte Erhebung der Daten und eine flexible Auswertung ermöglichen.
234
Nachbereitung
Tabelle 16: Methodenkomponenten der Leistungsmessung Komponente Vorgehensphase
Nachbereitung
Aktivitäten
Messung der Projektergebnisse
Etablierung der Basis für eine kontinuierliche Leistungsmessung
Ergebnisse
Transparenz, inwieweit die Redesign-Ziele durch die Umsetzung der Maßnahmen erreicht sind
Voraussetzungen für kontinuierliche und zeitnahe Messung der Leistungsfähigkeit der Prozesse geschaffen
Techniken
Kennzahlensysteme
• Balanced Scorecards • Management InformationsSysteme
Rollen
• Projektleiter
Z.B.
• Projektteam
• Prozessmanager • Process Owner
6.2 Wissensmanagement – Erfahrungen aus dem Projekt weitergeben Obwohl ein systematisches Wissensmanagement während und nach Abschluss des Projekts für die Weitergabe der Projekterfahrungen wichtig ist, wird dieses Erfordernis vielerorts ignoriert. Die Gründe dafür liegen auf der Hand: Während des Projekts ist dafür keine Zeit und am Ende des Projekts widmen sich viele Beteiligte schon wieder anderen Aufgaben. Der Auftraggeber ist nicht bereit, für die systematische Aufbereitung des Wissens zu zahlen. Oder die Beteiligten halten Wissensmanagement für überflüssig oder behalten die eigenen Erfahrungen bewusst für sich, um so ihren Wissensvorsprung gegenüber Kollegen auszunutzen. Es geht uns hier nicht darum, gleich ein unternehmensweites Wissensmanagement zu etablieren. Das wäre ein großes Projekt für sich. Wissensmanagement fängt schon an, wenn man sich systematisch über die gewonnenen Projekterfahrungen austauscht, mit dem Ziel, die Ressource Wissen effizienter zu nutzen und anderen Gruppen – auch über das Projekt hinaus – zugänglich zu machen. Damit bleibt das Know-how selbst dann erhalten, wenn interne Projektmitarbeiter oder externe Berater das Unternehmen verlas-
Wissensmanagement
235
sen. Zudem mindern Sie die Gefahr, das Rad immer wieder neu zu erfinden und vermeiden Fehler, die andere bereits gemacht haben. Bevor die Frage beantwortet wird, wie das Wissen gemanagt werden kann, müssen wir prüfen, in welcher Form das Wissen vorliegt. Im Wissensmanagement wird hier zwischen explizitem und implizitem Wissen unterschieden. Explizites Wissen kann problemlos sprachlich artikuliert werden, lässt sich einfach dokumentieren und damit kodifizieren. Handbücher, Arbeitsanweisungen oder Marktstudien sind Ausdruck von explizitem Wissen. Implizites Wissen dagegen ist personengebunden und nicht einfach artikulierbar. Es hängt in hohem Maße von Erfahrungen ab und steuert unser intuitives Handeln, weshalb es auch als „tacit knowledge“ bezeichnet wird. Nicht selten äußert es sich in dem nicht beschreibbaren „Bauchgefühl“. Die Art und Weise, wie ein Produktionsarbeiter seine Arbeit ausführt, zählt ebenso dazu wie Ihre persönliche Verhandlungsstrategie mit Kunden. Welches Wissen gewinnen wir im Laufe eines Projekts, in dem intensiv an den unterschiedlichsten Aufgabenstellungen mit verschiedenen Gruppierungen gearbeitet wird? Eine Unterscheidung trifft die folgende Tabelle. Da sich explizites und implizites Wissen in der Praxis nicht immer scharf trennen lassen, gibt die Tabelle an, welche Form des Wissens unserer Einschätzung nach überwiegt. Tabelle 17: Art und Inhalt von Wissen, das während der Reorganisation gewonnen wurde, getrennt nach explizit und implizit Art des Wissens
Inhalt
Form des Wissens
Fachwissen
Detailwissen über die Abläufe von Prozessen, Tätigkeiten, IT-Systemen sowie über Produkte
überwiegend explizit
Hintergrundwissen
Wissen über Kunden-, Marktanforderungen, Wettbewerber sowie zur Performance des eigenen Unternehmens
überwiegend explizit
Methodenkompetenz
Wissen über Methoden und deren Anwendbarkeit bei unterschiedlichen Rahmenbedingungen
implizit und explizit
Informelles Wissen
Wissen über Netzwerke und die informelle Organisation
überwiegend implizit
Da Fach- und das Hintergrundwissen überwiegend explizit sind, lässt es sich weitgehend durch eine umfassende Projektdokumentation konservieren. Hier sollte auch die erworbene Methodenkompetenz einfließen. Für den kodifizierbaren Teil ist dies relativ einfach. So können Sie leicht darstellen, wie Sie im Projekt vorgegangen sind, welche
236
Nachbereitung
Methoden Sie zur Informationsgewinnung und zur Analyse angewandt haben und wie fachliche Probleme gelöst wurden. Zur Methodenkompetenz gehört auch die Erfahrung, also das implizite Wissen, welche Methoden in welchen Situationen gegriffen haben und welche nicht. Es ist wichtig, dass das Team bewusst versucht, sein implizites Wissen zu externalisieren, also in explizites Wissen zu verwandeln. Dies kann zum Beispiel dadurch geschehen, dass alle Beteiligten sich in regelmäßigen Jour Fixes über ihre Erfahrungen austauschen, wie das Vorgehen im Einzelnen gegriffen hat und wo Fehler gemacht wurden, und die Ergebnisse systematisch dokumentieren. Damit schaffen Sie auch die Grundlage für den Aufbau eines praxiserprobten Referenzmodells. Am Ende des Projekts sollten in einem Workshop Ihre persönlichen Lehren (Lessons Learnt) erarbeitet werden. Wenn an diesem Workshop zudem Mitarbeiter teilnehmen, die zwar nicht an diesem Projekt beteiligt waren, deren eigene Arbeit jedoch von den Erfahrungen profitieren kann, ist ein erster Schritt zur Wissensvermittlung vollzogen. Die Weitergabe des überwiegend impliziten informellen Wissens ist natürlich deutlich schwieriger. Zudem wird die subjektive Einschätzung von Personen durch Sympathien und Antipathien so stark eingefärbt, dass diese Wissenskomponente mit großer Vorsicht zu genießen ist. Dennoch ist das Wissen über das Verhalten und die Netzwerke von Personen wichtig, um innerhalb der informellen Organisation handlungsfähig zu sein. Ein Teil dieser Kenntnisse kann im Rahmen der oben beschriebenen Jour Fixes weitergegeben werden. Viel von diesem Wissen fließt auch in die Kraftfeldanalyse ein, die wir im Subkapitel „Kraftfeld – im Netz der Beziehungen“ beschrieben haben. Es kann daher sinnvoll sein, das Beziehungsnetz sowie die Beziehungsmatrix in die Projektdokumentation aufzunehmen und die Gründe für die Bewertungen der Interessengruppen zu erläutern. Dies setzt allerdings eine offene Kommunikationskultur voraus, in der das Projektteam nicht befürchten muss, dass ihm seine Offenheit zum Verhängnis wird. Oder es muss darauf vertrauen können, dass der Empfänger die Informationen mit Diskretion behandelt. Der Diskurs zeigt, dass aufgrund der Personengebundenheit des impliziten Wissens eine Eins-zu-eins-Dokumentation davon nicht möglich ist. Im persönlichen Austausch können diese Informationen viel authentischer dargestellt und erklärt werden. Deshalb greifen viele Unternehmen auf den Aufbau eines Expertennetzwerks zurück. Wer viel Erfahrung zu einem bestimmten Thema hat, zum Beispiel zu einer Branche, einem Prozess oder einem bestimmten Projekt, der wird als Ansprechpartner für dieses Thema benannt. Wenn Kollegen entsprechende Informationen brauchen, können sie sich in einem persönlichen Gespräch von den Erfahrungen berichten lassen oder sich hilfreiche Anregungen bei mehreren Kollegen holen. So viel Offenheit beim Wissensaustausch funktioniert nur bei einer entsprechend offenen Kultur, die nicht nach dem Prinzip „Wissen ist Macht“ die freiwillige Weitergabe von Wissen unterbindet. Das Vertrauen in die Effektivität vom Wissensaustausch muss erst aufgebaut werden. Prinzipiell ist bei der Weitergabe des impliziten Wissens zu bedenken, dass der Empfänger dieses Wissen im Kontext seiner eigenen Erfahrungen weiterverarbeitet und dadurch
Wissensmanagement
237
wieder neues Wissen entsteht. Das heißt, unabhängig davon, wie authentisch Sie Ihr Wissen vermitteln, Ihr Leser oder Gesprächspartner macht daraus unbewusst etwas Neues. Ein ganz anderer Weg zur Vermittlung von implizitem Wissen ist, den Anteil der Träger dieses Wissens zu erhöhen, indem von Anfang an Potenzialträger in das Projekt eingebunden werden, die für künftige Projekte als Verantwortliche in Frage kommen. Die Erfahrungen dieses „training by doing“ beziehungsweise „knowing by doing“ fließen in die künftige Arbeit ein, ohne dass der Versuch einer verbalen Dokumentation des schwer Dokumentierbaren unternommen werden muss. Leider ist dies eine relativ begrenzte Maßnahme, da Sie Ihr Projektteam nicht unendlich aufblähen können. Es ist eine große Herausforderung, Wissensmanagement zwischen Projekten und über das ganze Unternehmen hinweg zu etablieren. Dieses Thema wird ausführlich in der einschlägigen Literatur diskutiert, weshalb wir hier nur auf zwei weitere effektive Mittel zum Wissensaustausch und gemeinsamen Lernen verweisen wollen: den Einsatz von bereichsübergreifenden Experten-Gruppen, so genannten Communities of Practice, die gemeinsam ein bestimmtes Wissensgebiet weiterentwickeln und für das ganz Unternehmen nutzbar machen. Dazu stehen mittlerweile auch genügend Tools des Web 2.0 zur Verfügung, die einen gruppen- und themenbezogenen Informationsaustausch ermöglichen. Ein weiteres Mittel ist der Einsatz von so genannten „Wikis“: unternehmensinternen Online-Lexika, die wie Wikipedia von ihren Nutzern gespeist werden und ein kollaboratives Arbeiten ermöglichen. Die hier diskutierten Beispiele für Wissensmanagement in Projekten zeigen deutlich, dass man nicht dem Irrglauben erliegen sollte, dass Wissensmanagement sich mit der Einführung eines Wissens- oder Dokumentenmanagement-Systems erledigt. Die Informationstechnologie bietet lediglich ein nützliches Handwerkszeug zur Unterstützung der Wissensspeicherung und des Wissensaustauschs. Wenn weder eine entsprechende Kultur noch Anreize zum kontinuierlichen Austausch existieren, bleiben auch spitzentechnologische Tools in ihren Möglichkeiten unausgeschöpft. Im Ergebnis sollte Ihre Projektdokumentation mindestens die folgenden Punkte abdecken: Beschreibung der Ausgangssituation und des Problems Nennung aller Hilfsmittel wie Fragebögen, Checklisten, Software etc. und gegebenenfalls deren Vor- und Nachteile Beschreibung der Vorgehensweise bei der Reorganisation und der damit verbundenen Vor- und Nachteile grafische und verbale Darstellung der analysierten Prozesse und relevanten Organisationsstrukturen mit dem jeweiligen Status vor und nach der Reorganisation Schilderung aller Ziele und Kennzahlen, die dafür erarbeitet wurden
238
Nachbereitung
Erläuterung aller Maßnahmen, die ergriffen wurden und inwieweit diese bereits umgesetzt wurden Darstellung der Ergebnisse des Projekts und inwieweit die Ziele erreicht wurden alle Präsentationen über Ergebnisse und Zwischenergebnisse Damit insbesondere das implizite Wissen herausgearbeitet werden kann, sind weitere Inhalte sinnvoll: Beschreibung des Kraftfelds (Beziehungsnetz und -matrix) Darlegung der kritischen Erfolgsfaktoren des Projekts Die kritischen Erfolgsfaktoren sollten exakt herausgearbeitet werden. Das ist zwar etwas aufwändig, davon profitieren aber Ihre Kollegen am meisten. Dabei helfen die folgenden Fragen: Welchen Einfluss hatte das Verhalten des Auftraggebers auf den Projektfortschritt? War die Kooperation zwischen dem Projektsteuerungsgremium (Steering Committee) und dem Projektteam förderlich für den Projektfortschritt? Bestand bei Auftraggeber und Auftragnehmer ein einheitliches Verständnis über den Projektauftrag? War die Vorgehensweise für alle Beteiligten eine nützliche Orientierungshilfe? Haben Sie alle Informationen erhalten, die benötigt wurden? Welche Widerstände traten auf und wie sind Sie damit umgegangen? Traten unerwartete Probleme auf, die bereits zu einem früheren Zeitpunkt hätten erkannt werden können? Wurden die beteiligten Personen ausreichend in das Projekt eingebunden? War die Zusammenstellung des Projektteams geeignet? Wurde die Zeit- und Ressourcenplanung eingehalten? Waren die eingesetzten Hilfsmittel (Software, Beratungstools etc.) hilfreich für den Projekterfolg? Brachte der Einsatz externer Berater den gewünschten Erfolg? Welche persönlichen Lehren (Lessons Learnt) hat das Team aus dem Projekt gezogen? Die Projektdokumentation hilft freilich nur, wenn Außenstehende wissen, dass es sie gibt und diese leicht finden können. Das kann zum Beispiel über das Intranet geschehen, spezielle Wissensmanagement-Tools wie Filesharing-Plattformen oder durch einen dafür explizit benannten Ansprechpartner. Das hört sich banal an, aber leider erleben wir
Wissensmanagement
239
immer wieder, dass sehr viel Engagement in die Erstellung der Dokumentation gesteckt wird, nur nicht in deren Vermarktung, so dass diese später in einem realen oder virtuellen Ablagesystem in Vergessenheit gerät. Zusammenfassung Die Bewahrung und Weitergabe des bei der Reorganisation erworbenen Wissens ist wichtig, um einen unerwünschten Wissensabfluss zu vermeiden und diese Erfahrungen sowohl in laufenden als auch in künftigen Projekten gewinnbringend zu nutzen. Es kann auch zum Aufbau eines Referenzmodells („Methoden-Framework“) dienen. Wir unterscheiden zwischen explizitem, das heißt leicht kodierbarem und transferierbarem Wissen, und implizitem Wissen, das personengebunden ist und viel von persönlichen Erfahrungen abhängt. Letzteres ist schwierig zu verbalisieren und weiterzugeben. Das explizite Wissen fließt in Form einer ausführlichen Darstellung der Hintergründe, Ziele, Maßnahmen, Vorgehensweisen und der Ergebnisse in die Projektdokumentation ein. Zur Weitergabe des impliziten Wissens bieten sich abhängig von der Unternehmenskultur verschiedene Methoden an, die allerdings für sich alleine dieses Wissen nicht hundertprozentig abbilden können: ⎯
direkter Austausch mit dem Projektteam oder den benannten Experten aus dem Projekt in Jour Fixes, Workshops und persönlichen Gesprächen
⎯
Darstellung der persönlichen Bewertung durch die Teammitglieder in der Projektdokumentation: Vor- und Nachteile der Vorgehensweise, Probleme und deren Lösung, Lessons Learnt etc.
⎯
Erhöhung des Multiplikatoreffekts durch Wissensträger, die als Vorbereitung für eine zukünftige Reorganisation in das Projekt eingebunden werden
240
Nachbereitung
Tabelle 18: Methodenkomponenten des Wissensmanagement Komponente Vorgehensphase
Nachbereitung
Aktivitäten
Wissensmanagement
Ergebnisse
• Detaillierte Projektdokumentation • Bereitstellung des expliziten und impliziten Wissens, das durch das Projekt erworben wurde
Techniken
• Checkliste für die Projektdokumentation • Lessons Learnt-Projektabschluss (z.B. Workshops) • Projekt-Jour-Fixe zum Methodenaustausch • Experten-Gruppen (Communities of Practice) • Experten-Marktplätze („Yelow pages“)
Rollen
• Projektleiter • Projektteam
241
7 Schlusswort Wir haben in diesem Buch eine praktische Vorgehensweise zur Reorganisation von Geschäftsprozessen vorgestellt und diese mit zahlreichen Beispielen untermauert. Konzepte mit klangvollen Namen, die das Thema „Prozessoptimierung“ ins Blickfeld rücken, gibt es viele. Im Wechselbad der Management-Moden schwammen beispielsweise Business Process Reengineering, Total Quality Management (TQM) oder Lean Management. Mitte der neunziger Jahre erreichte die Six Sigma-Welle den deutschsprachigen Bereich, eine Methodik, die schon seit den achtziger Jahren in amerikanischen Unternehmen praktiziert wurde. Wir haben bewusst auf das Hervorheben einer dieser Worthülsen verzichtet. Sobald die Modewelle einmal übergeschwappt ist, werden diese Begriffe intensiv genutzt, ohne dass der wahre Kern und die Bedeutung der dahinter stehenden Methoden auf ihre spezifische Anwendbarkeit gründlich überprüft werden. Ein wesentlicher Kritikpunkt an diesen Modeerscheinungen bezieht sich nicht auf die Konzepte als solche, sondern vielmehr auf den oft unreflektierten Aktionismus, mit dem sie in Unternehmen umgesetzt werden. Und darin liegt auch ein Hauptgrund, warum die versprochenen Erfolge nicht selten ausbleiben. Trotz aller Mystifizierung durch geschickte Namensgebung und Neukombinationen alt hergebrachter Methoden geben Management-Konzepte wie die oben genannten auch positive Impulse. Ein enormer Vorteil ist das Motivationspotenzial, durch das sich sowohl die Mitarbeiter als auch die Management-Ebene leichter mobilisieren lassen. Freilich klingt „Business Process Reengineering“ vielsprechender als der bedrohlich wirkende „Strukturwandel“. Gleichsam fördert das Sprachgebilde „Six Sigma“ den Corpsgeist stärker als das spröde Ziel „Nahezu null Fehler“. Ein zweiter Vorteil derartiger Konzepte liegt in ihrer klaren Vorgehensweise, wodurch sie häufig den Charakter einer „Gebrauchsanweisung“ bekommen. Davon unbenommen steckt bei näherer Betrachtung der Teufel im Detail. Die erfolgreiche Umsetzung ist stets das Ergebnis von Fleißarbeit und erfordert viel Disziplin und Ausdauer, beispielsweise, wenn es um die Erhebung von Daten oder die Dokumentation von Prozessen geht. Aber wie unterscheiden sich die verschiedenen Management-Konzepte? Im Wesentlichen sind die angewandten Tools fast immer die gleichen: Prozessanalyse, ParetoDiagramm, Ursachen-Wirkungsdiagramm etc. Der Unterschied ergibt sich vielmehr aus einer Fokussierung auf bestimmte inhaltliche Facetten. So konzentriert sich Six Sigma auf die Erhebung und Auswertung statistischer Daten, während Business Process Reengineering bei der Prozessoptimierung stärker qualitativ vorgeht. Beim Beispiel Six Sigma ist der Name Programm: Ziel ist nicht nur die Optimierung, sondern die Maximierung von Qualität bis zu einer Fehlerrate von 3,4 in einer Million pro Service oder Produkt, was 99,99966 Prozent Fehlerfreiheit bedeutet. Dieser Wert entspricht statistisch einer Standardabweichung (ı) von sechs in einer Normalverteilung und muss natürlich
E. Best, M. Weth, Process Excellence, DOI 10.1007/978-3-8349-8950-5_7, © Gabler Verlag | Springer Fachmedien Wiesbaden GmbH 2010
242
Schlusswort
entsprechend mit statistischen Verfahren erhoben werden. Wie bei anderen Konzepten, preisen die Anwender von Six Sigma die dadurch erzielten Ergebnisverbesserungen. Offen bleibt indes der nachvollziehbare Beleg, das ein Qualitätsniveau von 6ı einen ökonomischen Vorteil gegenüber einer geringeren Zielmarke aufweist. Wie auch immer, statistische Verfahren tragen dazu bei, der unterschätzten Bedeutung des Themas „Quantifizierung und Messung“ spürbar mehr Rechnung zu tragen. TQM hingegen, das in weiten Teilen Übereinstimmungen mit Six Sigma aufweist, rückt eine ganzheitliche Sicht auf Qualität in den Fokus. Insgesamt beobachten wir, dass sich hinter neuen Management-Floskeln zwar immer wieder die gleichen Methoden und Handwerkzeuge verstecken, dass aber deren Reifegrad im Laufe der Zeit deutlich fortgeschritten ist. Dies betrifft sowohl die konzeptionelle Substanz als auch deren Akzeptanz bei den Mitarbeitern. Somit kann die Begriffsvielfalt weniger auf die inhaltlichen Unterschiede zurückgeführt werden, als vielmehr auf das Differenzierungsbestreben von Unternehmensberatern und Buchautoren. Welche Methode Sie oder Ihr Unternehmen auch immer favorisieren: Die hier dargestellten Handwerkzeuge und Praxisbeispiele sind aus unserer Sicht auch isoliert betrachtet oder anders kombiniert eine wertvolle Hilfestellung – ganz gleich, welchen Namen Sie Ihrer Reorganisation geben. Letzten Endes lässt sich die Wahrheit über das Thema „Process Excellence“ auf einen schlichten Nenner bringen: Its all about common sense . . . but unfortunately common sense isn't common at all.
243
Literaturverzeichnis Abrahams, Jeffrey: The Mission Statement Book. Toronto, Ontario 1995 Allen, Paul H.: Reengineering The Bank. Chicago 1994 Andrews, Dorine C. / Stalick, Susanne K.: Business Reengineering. Englewood Cliffs 1994 Bach, Volker / Brecht, Leo / Hess, Thomas / Österle, Hubert: Enabling Systematic Business Change. Braunschweig, Wiesbaden 1996 Bach, Volker: Rechnerunterstützung für den Entwurf von Geschäftsprozessen. Bamberg 1997 Baumgartner, Irene / Häfele, Walter / Schwarz, Manfred / Sohm, Kuno: OE-Prozesse. Bern, Stuttgart, Wien 2000 Brandes, Dieter: Einfach managen. Frankfurt am Main 2002 Brandes, Dieter: Konsequent einfach. Frankfurt am Main 1998 Brecht, Leo: Process Leadership. Methode des informationsgestützten Prozessmanagements. Hamburg 2002 Carr, David K. / Johansson, Henry J.: Best Practices in Reengineering. New York 1995 Carrington, Mark ST.J. / Langguth, Philip W. / Steiner, Thomas D.: The Banking Revolution Salvation Or Slaughter? London 1997 Champy, James: Reengineering Management. London 1995 Cross, Rob / Prusak, Laurence: The People Who Make Organizations Go – or Stop. In: Harvard Business Review, June 2002, 105-112 Davenport, Thomas H. / Prusak, Laurence: Working Knowledge. Massachusetts 1998 Davenport, Thomas H.: Process Innovation. Massachusetts 1993 De Bono, Edward: Der kluge Kopf. München 2005 De Bono, Edward: Six Thinking Hats. London 2000 Doppler, Klaus / Lauterburg, Christoph: Change Management. Frankfurt am Main 2002 Doz, Yves L. / Hamel, Gary: Alliance Advantage. Massachusetts 1998 Drucker, Peter F.: Managing for Results. New York 1964 Drucker, Peter F.: The Effective Executive. New York 1967
244
Literaturverzeichnis
Drucker, Peter F.: The Practice of Management. New York 1954 Eversheim, Walter: Prozeßorientierte Unternehmensorganisation. Berlin, Heidelberg 1995 Finkelstein, Sydney: Why smart executives fail and what you can learn from their mistakes. New York 2003 Fox, Jürgen: Integration des Controlling in den Entscheidungsprozeß bei Auslandsinvestitionen. Frankfurt am Main 1999 Franz, Klaus-Peter / Kajüter, Peter (Hrsg.): Kostenmanagement. Stuttgart 1997 Gadatsch, Andreas: Entwicklung eines Konzeptes zur Modellierung und Evaluation von Workflows. Frankfurt am Main 2000 Gaitanides, Michael / Scholz, Rainer / Vrohlings, Alwin / Raster, Max: Prozessmanagement. München, Wien 1994 Gaitanides, Michael: Prozeßorganisation. München 1983 Ghemawat, Pankaj: Commitment. New York 1991 Gleißner, Werner: Faustregeln für Unternehmer. Wiesbaden 2000 Gouillart, Francis J. / Kelly, James N.: Business Transformation. Wien 1995 Grafmüller, Maximilian H.: Prozeßmanagement in der Automobilindustrie. Wiesbaden 2000 Gronau, Norbert: Modellierbarkeit wissensintensiver Geschäftsprozesse mit herkömmlichen Werkzeugen. In: Horster, Patrick (Hrsg.): Elektronische Geschäftsprozesse 2004, Syssec, 2004, 408-421 Grunberg, Bastian: Zeitbezogene Nutzenkomponenten von Verkehrsdienstleistungen. Frankfurt am Main 2004 Haasters, Karsten: Innovative Instrumente der prozeßorientierten Personalarbeit. Frankfurt am Main 1999 Hamel, Gary / Prahalad, C.K.: Wettlauf um die Zukunft. Wien 1995 Hammer, Michael / Champy, James: Reengineering The Corporation. New York 1993 Hammer, Michael / Stanton, Steven A.: The Reengineering Revolution. New York 1995 Hansen, Morten T. / Nohria, Nitin / Tierney, Thomas: What’s Your Strategy for Managing Knowledge? In: Harvard Business Review, March-April 1999, 105-116 Hardy, Robert E. / Schwartz, Randy: The Self-Defeating Organization. Reading 1995 Harmon,Roy L.: Reinventing the Business. New York 1996
Literaturverzeichnis
245
Hess, Thomas / Brecht, Leo: State of the Art des Business Process Redesign. Wiesbaden 1996 Hess, Thomas: Entwurf betrieblicher Prozesse. Wiesbaden 1996 Hölzle, Philipp: Prozeßorientierte Personalarbeit. Frankfurt am Main 1999 Kaplan, Robert S. / Norton, David P.: Balanced Scorecard. Stuttgart 1997 Kaib, Berthold (Hrsg.): Outsourcing in Banken. Wiesbaden 2003 Katzenbach, Jon R. / Smith, Douglas K.: The Wisdom Of Teams. New York 1994 Katzenbach, Jon R.: Real Change Leaders. New York 1996 Kay, John: Foundations of Corporate Success. New York 1993 Kay, John: The Business of Economics. New York 1996 King, Mervyn J.: Bank & Brokerage – Back Office Procedures & Settlements. Chicago, London 2000 Knieß, Michael: Kreativitätstechniken. Methoden und Übungen. München 2006 Koenigsmarck, Otfried von / Trenz, Carsten: Einführung von Business Reengineering. Frankfurt am Main 1996 Lawrence, Paul R.: How to Deal With Resistance to Change. In: Harvard Business Review, January-February 1969, 1-10 Levitt, Theodore: Betterness. In: Harvard Business Review, November-December 1988, 9 Malkiel, Burton G.: A Random Walk Down Wall Street. New York 1996 Martin, James: The Great Transition. New York 1995 McNair, C.J. / Leibfried, Kathleen H.J.: Benchmarking. London 1994 Micklethwait, John / Wooldridge, Adrian: The Witch Doctors. London 1996 Mintzberg, Henry: Structure In Fives. Englewood Cliffs 1993 Mintzberg, Henry: The Rise and Fall of Strategic Planning. London 1994 Mohr, Niko / Woehe, Jens Marcus: Widerstand erfolgreich managen. Frankfurt am Main 1998 Nippa, Michael / Picot Arnold: Prozeßmanagement und Reengineering. Frankfurt am Main 1995 Nonaka, Ikujiro / Takeuchi, Hirotaka: The Knowledge-Creating Company. New York 1995
246
Literaturverzeichnis
Nordsieck, Fritz: Betriebsorganisation – Lehre und Technik, Textband, Stuttgart 1961, Spalte 9 Obolensky, Nick: Practical Business Re-Engineering. Houston 1995 Porter, Michael E.: Competitive Advantage. New York 1985 Porter, Michael E.: Competitive Strategy. New York 1980 Ramhorst, Dirk: Knowledge Management / Sharing in Projects. Veröffentlicht in den PMI Global Congress Proceedings. Prag 2004 Reitmeyer, Thorsten: Qualität von Entscheidungsprozessen der Geschäftsleitung. Wiesbaden 2000 Rosenstiel, Lutz von: Grundlagen der Organisationspsychologie. Stuttgart 2000 Schadt, Jürgen: Flugführung: Weniger Zickzack bei An- und Abflug. Spektrum der Wissenschaft, Januar 1999 Schein, Edgar H.: Organizational Culture And Leadership. San Francisco 1992 Schmelzer, Hermann J. /Sesselmann, Wolfgang : Geschäftsprozessmanagement in der Praxis. 3. Auflage, München 2003 Schmitt, Eckart: Strategien mittelständischer Welt- und Europamarktführer. Wiesbaden 1997 Scholz, Rainer: Geschäftsprozeßoptimierung. Bergisch Gladbach 1994 Schönborn, Gregor / Fischer, Holger / Langen, Ralf: Corporate Agenda. Neuwied, Kriftel 2001 Schrader, Ulf: Konsumentenakzeptanz eigentumsersetzender Dienstleistungen. Frankfurt am Main 2001. Scott-Morgan, Peter / Hoving, Erik / Smit, Henk / Slot, Arnoud van der: Stabilität durch Wandel. Frankfurt am Main 2001 Scott-Morgan, Peter: The Unwritten Rules of the Game. New York 1994 Servatius, Hans-Gerd: Reengineering-Programme umsetzen. Stuttgart 1994 Seyfarth, Dieter: Praxiswissen Auslandsgeschäft. Frankfurt am Main 2004 Shankar, Venkatesh / Berry, Leonard L. / Dotzel, Thomas: A practical guide to combining products and services. In: Harvard Business Review, November 2009, 95-99 Simon, Hermann: Das große Handbuch der Strategiekonzepte. Frankfurt am Main 2000 Simon, Hermann: Hidden Champions. Massachusetts 1996 Simon, Hermann: Preis Management. Wiesbaden 1992
Literaturverzeichnis
247
Spalink, Heiner: Werkzeuge für das Change Management. Frankfurt am Main 1999 Spencer, John / Pruss, Adrian: How To Implement Change In Your Company. London 1993 Spiwoks, Markus: Vermögensverwaltung und Kapitalmarktprognose. Frankfurt am Main 2002 Straub, Walter G. / Forchhammer, Lorenz S. / Brachinger-Franke, Ludovica: Bereit zur Veränderung? Hamburg 2002 Strebel, Paul: Why Do Employees Resist Change? In: Harvard Business Review, MayJune 1996, 86-92 Suntrop, Carsten: Die Implementierung eines Prozeßmanagements. Frankfurt am Main 1998 Tapscott, Don / Caston, Art: Paradigm Shift. New York 1993 Thobe, Wiltrud: Externalisierung impliziten Wissens. Frankfurt am Main 2003 Thunig, Klaus: Erfolgsfaktoren für die Zielerreichung in Teams. Frankfurt am Main 1999 Vaupel, Mario / Helmut Ahr: Entwicklung der wertorientierten Führungsperformance in der ERGO Versicherungsgruppe AG. In: Horváth, Péter (Hrsg.): Performance Controlling: Strategie, Leistung und Anreizsystem effektiv verbinden, Stuttgart 2002, 153-178 Vaupel, Mario: Leadership Asset Approach – Von den Herausforderungen der Führung zur Steuerung der Führungsperformance. Wiesbaden 2008 Vaupel, Mario: Steuerung strategischer Führungsperformance. In: Schwuchow, K.H. u. Gutmann, J. (Hrsg.): Jahrbuch Personalentwicklung und Weiterbildung 2003, Neuwied 2002, 83-92 Warnecke, Hans-Jürgen: Revolution der Unternehmenskultur. Berlin, Heidelberg 1993 Weber, Jürgen / Reitmeyer, Thorsten / Frank, Stefan: Erfolgreich entscheiden. Wiesbaden 2000 Weth, Martin: Reorganisation zur Prozessorientierung. Frankfurt am Main 1997 Wiesehahn, Andreas: Geschäftsprozessoptimierung für Versicherungsunternehmen. München 2001 Wildemann, Horst: Die modulare Fabrik. St. Gallen 1992 Womack, James P., Jones, Daniel T., Roos, Daniel: The Machine that Changed the World. New York, 1990
249
Stichwortverzeichnis 3M 129 ABB 170 Abstimmungsaufwand 161 Admod 38 Advocatus diaboli 27 Airbus 109, 110 Akzeptanzgrenzen 46 Aldi 45, 54, 151 Alfa Romeo 39 Allianz 128, 145 Allianz@Grey 145 Allianzen 128 AMD 227 Ängste 216 Anreizsystem 90 Apple 37, 122 Arbeitsteilung Funktionale 85 Tayloristische 160 Arnault, Bernard 54 Aspirin 159 Autobanken 35 Aventis 170 Avery-Zweckform 42 Balanced Scorecard 108, 112 Barings Bank 129 Barnevik, Percy 170 BASF 123 Bayer 19 Benchmarking 110 Benetton, Alessandro 54 Beschaffungsprozess 203 Best Practice 110 Better Place 124 Beziehungsmatrix 205, 207, 212 Beziehungsnetz 204, 212 Bilfinger Berger 132 Bischoff, Manfred 22 Bitburger 153 Bloomberg, Michael 21
BMW 121, 123, 163 BMW Financial Services 35 Boeing 100, 109, 110, 145 boo.com 54 Bosch 163 Brandes, Dieter 54 British Airways 41 Bundesagentur für Arbeit 25, 225 Bundesanstalt für Finanzdienstleistungsaufsicht 66 Burning Platform 197, 198, 215 Business Process Outsourcing 176 Business Process Reengineering 241 Canon 21, 23 Caterpillar 160 Centermann, Jürgen 170 Change Manager 199, 201 Churchill, Winston 220 Colgate-Palmolive 45 Commitment 201 Commodity 48 Common-Use Self Service Kiosk (CUSS) 157 Communities of Practice 237 ConSors Discount-Broker 37 Coop 169 Daimler 121, 132 DaimlerChrysler 163 DASA 22 Delegation 162 Dell 58, 104, 173, 177 Demag Cranes 169 Detaillierungsgrad der Prozessbeschreibung 155 Deutsche Bahn 51, 88, 107 Deutsche Bank 14, 58, 105, 141, 164 Deutsche Grammophon 159 Deutsche Telekom 15, 19 Dezentralisierung 170, 171 Differenzierung 35, 154
250 Direkte Wettbewerber 35 Direktkauf 54 Domino’s Pizza 128 Dormann, Jürgen 170 Dreamliner 145 Dubletten 164 Dürr 128 Durchlaufzeit 77, 85, 87, 106, 184 E.ON 20, 231 Earnings less riskfree interest charge (ERIC) 231 Easy-Jet 44 ebay 165 EC-Karte 156 Economic Value Added (EVA) 230 Elch-Test 219 Elektroauto 123 Erfolgsfaktoren 238 Erfolgsmessung 89, 90, 104, 225 Europäische Union 152 Euroscheck 156 Evonik 123 Exide 171 Experten 237, 239 Expo 2000 108 Facebook 220 Ferrari 39 Fiat 58 Multipla 39 Fireman’s Fund 128 Fischgräten-Diagramm 93 Flexibilität 160 Flight Management Systeme 165 Flugführung 165 Flughafen Malpensa 17 Ford 46 Ford, Henry 160 Foxconn 58 Führungsgröße 106, 226 Führungssystem 13, 106 Galeria Kaufhof 170 Geldautomaten 156 General Electric 23, 201 General Motors 109, 159 Global Positioning System 165
Stichwortverzeichnis Goldman Sachs 55 Google 37 Grey 145 Grundig 127 Haier 36 Hochtief 132 Hoechst 170 Home Depot 171 Hybrid-Antrieb 123 IATA 156 IBM 58 IDS Scheer 174 Ikea 20, 127, 155 Informationstechnologie Schwachstellen der 88 Infosys 176 Input-Output-Verhältnis 62 Insourcer 175, 176, 179 Intel 227 Interdependenzen von Zielen und Maßnahmen 180, 185 Interessengruppen 28, 202, 203, 208 Interviewpartner 73 Investment Banking 162 iPad 123 iPhone 123 iPod 122 Iridium 45, 109 Ishikawa 93 iTunes 122 Kapitalmittelbindung 175 Kay, John 200 Kennedy, John F. 21 Kennzahlen 113 Kernkompetenz 53, 57, 59, 178 Analyse der 55 KfW Bankengruppe 19 Kommunikation 217 Kommunikationsplan 218, 222 Koordinationsaufwand 85, 86, 171, 179 Kostenführer 152 Kostentreiber 96 KPMG 231
Stichwortverzeichnis Kraftfeldanalyse 203, 211, 214, 236 Krise 18 Krombacher 153 Kunden Aktuelle 40 Potenzielle 40 Kundenanforderungen Analyse der 39 Kundenzufriedenheit 89 Kuschelparagraph 153 Kyocera 109 Lanxess 19 Leadership Asset System 105, 228 Lean Management 241 Lego 160, 176 Lehman Brothers 19 Leistungsabfall 222 Leistungsmerkmale Bestimmung der kaufentscheidenden 41 Bewertung der kaufentscheidenden 47 Gewichtung der kaufentscheidenden 45 Latente 44 Leistungsmessung 67 Levi Strauss 44, 198 Levi’s 44, 198 Levitt, Theodore 223 LG Electronics 35 Lindahl, Göran 170 Lufthansa 22 LVMH 55 Management Informations-Systeme (MIS) 227, 232 Mannesmann 130 Marché 141 Markenbewusstsein 48 Markenimage 42, 44, 219 Markt 14 Definition 34 Marktanteil Absoluter 105 Relativer 106 Marktaustrittsbarriere 109
251 Maserati 39 Massenfertigung 160 Maßnahmen-Index 187 Mastercard 141 McDonald’s 20, 56, 57 Media Markt 170 Medienbrüche 88 Mercedes Car Group 22, 200, 227 Mercedes-Benz 35, 123, 161, 219 Metro 170 Mettler-Toledo 161 Miele 105 Migros 169 Mintzberg, Henry 111 Mitarbeiterbeteiligung 221 Motivation 90 Motorola 109 Net-a-Porter 144 Nissan 121 Nixdorf, Heinz 151 Nokia 35, 152, 153 Nutzerfreundlichkeit 43 One World 128 Oracle 173 Organisationseinheit Identifikation der prozessrelevanten 68 Organisationsstruktur 13, 170 Dezentrale 174 Zentrale 174 Otto 54 Outsourcing 54, 57, 58, 174, 175 Offshoring 176 Onshoring 177 Probleme beim 176 Pareto-Diagramm 96 Parkinson, Cyril Northcote 28, 154 Personalfluktuation 90, 176 Personalkosten 177 Pfanni 159 Plattformstrategie 152 Plausibilitätsprüfung 108, 191 Porsche 25, 35, 42, 45 Porter, Michael 34, 62 Portfoliomanagement 108
252 Post-It 129 Potenzialanalyse 33 Preis 43 -Leistungsverhältnis 177 Preussag 130 Problemdiagnose Checklisten 85 Process Excellence Denkrahmen für 11, 130 Procter & Gamble 172 Produkt -design 41 -qualität 41, 90, 183 -varianten 152 Produkt-Service-Kombination 132 Prognosen 108 Kapitalmarkt- 108 Projektdokumentation 237 Projektleiter Auswahl des 26 Prozess 61 Dienstleistungs- 152 -eigner 162, 203 korrespondierender Kunden- 141 -landkarte 61 -orientierung 68, 160, 161 -qualität 42, 163, 167 Start- und Endpunkt 63 Sub- 162 Verzweigungen im 76 Prozessanalyse 73 Analyseverfahren 69 Detaillierungsgrad 65 Dokumentation der 75 Dokumentationshilfen 76 Leitfaden 71 Prozessausgrenzung 63 Vorgehensweise 60 Prozesskette 12 Prozesskosten 77, 80 -rechnung 78 Prozessleistung 12, 130 Prozessmodell Bausteine des 11, 12, 130 Führungssystem 13, 135
Stichwortverzeichnis Prozesskette 12, 133 Prozessleistung 12, 130 Ressourcen 12, 133 Prozessschritt Eintrittswahrscheinlichkeit 74, 76, 79 Schnittstellen 85 wertschöpfender 184 Prozessschritts Leistung eines 148 PSA Peugeot Citroën 121 Puma 41, 175 Quick Hits 30, 98, 99, 223 Radio-Frequenz-Identifikation (RFID) 157 Rahmenbedingungen 14 Real 151, 155, 170 Redesign 156 Ansatzpunkte für das 131 Bewertung des 186 Gestaltungshilfen für das 137 Impulse und restriktionen für das 127 -Maßnahmen 180, 186 -Ziele 180 Renault 121, 123 Scénic 39 Reorganisation 22 Impulse für die 13 Impulsgeber für die 11 Namen der 22 Ressourcen 12 Restrukturierung 172 Rhône-Poulenc 170 Richemont 144 Roland Berger 221 Royal Bank of Scottland 177 Royal Dutch Shell 167 Rückrufaktion 163 Rüstzeiten 152 Ryanair 36, 43, 44, 111 Sainsbury’s 177 Samsung 35 SAP 173 Sarbanes-Oxley Act 66, 154
Stichwortverzeichnis Saturn 170 Seat 35 Service-Level-Agreement 176, 179 Servicequalität 42 Siemens 58, 169 Simultaneous Engineering 150 Singapore Mass Rapid Transport 44 Six Sigma 241 Skaleneffekte 58, 178 Skoda 45 Smart Grids 120, 125, 134 Social Media 220 Soda-Club 131 Sony 175 Sony-Ericsson 35 Southwest Airlines 111 Standardisierung 151, 154 Star-Alliance 128 Stiftung Warentest 47, 159 Stille-Post-Effekt 86 Straight Through Processing 96 Strategie 14 Streusalz 48 Substituenten 38 Supply Chain 54 Swisscom 132 Systembrüche 88 Szenarioanalyse 111 Tacit knowledge 235 Target Activity Grid 181, 189 Beitrag des 191 Maßnahmen bewerten 186 Maßnahmen-Index 187 Ziele gewichten 181 Ziel-Index 186 Tchibo 54, 151 Team 25 Telekom Austria 15 Tesco 44 The Economist 177 Thyssen-Krupp 19 Toom 151 Total Quality Management (TQM) 241 Toyota 104, 121, 163, 218 TUI 130
253 Twitter 220 Unilever 217 Unique Selling Proposition 47 Unternehmenskultur 91, 196 Ursachen-Wirkungsdiagramm 93 US Airways 111 Variantenvielfalt 159, 160 Verfügbarkeit 88 Video on Demand 132 Vier-Augen-Prinzip 164 Virtueller Arbeitsmarkt 25, 225 Vision 21 Volkswagen 35, 123 Phaeton 35 Volkswagen Financial Services 35 Vorgehensmodell 29 Warsteiner 153 Web 2.0 220, 237 Weighted Average Cost of Capital (WACC) 231 Welch, Jack 201 Wertschöpfung 147 Wertschöpfungskette 62 Wettbewerber Direkte 35 Substituenten 38 Wettbewerbsvorteil 23, 53, 54 Wettbwerbsfähigkeit 199 Wick MediNait 47 Widerstand 212 Ausprägungsform 213 Erkennbarkeit 213 in Taten 213 Sichtbarer 213 Umgang mit 217 Ursachen von 215 Verbaler 213 Verdeckter 213 Widerstandsanalyse 222 Winterhalter Gastronom 106 Wissen Explizites 235 Externalisieren 236 Implizites 235 Wissensmanagement 234, 237
254 Xerox 21, 23, 58, 172 Zeitverwendung 107 Zentralisierung 171 Ziele 101, 113 Informationsfunktion der 104
Stichwortverzeichnis Koordinationsfunktion der 104 Mindestanforderungen an 111 Motivationsfunktion der 104 Ziel-Index 186
255
Die Autoren Eva Best ist seit 2000 Partner bei Capitum und seit 2009 Managing Partner bei Capitum Consulting in der Schweiz. Nach ihrem Doppel-Diplomstudium der Betriebswirtschaftslehre in Frankfurt am Main und Paris ging sie zur Deutschen Lufthansa. Dort war sie nach einem Trainee-Programm als Projekt- sowie Teamleiterin tätig und beschäftigte sich über Jahre mit der Optimierung und IT-Unterstützung von kundennahen Dienstleistungsprozessen. Danach beriet sie als Senior Consultant bei Siemens Großunternehmen in Reorganisations- und Wissensmanagement-Projekten. Zu ihren Beratungsschwerpunkten bei Capitum gehören Geschäftsprozess-, Kosten- und Change Management sowie die IT-Unterstützung von Prozessen. Zudem moderiert sie Management-Programme zu den Themengebieten Prozessmanagement und Entscheidungsfindung.
Martin Weth leitet als Partner seit 1999 den Beratungsbereich von Capitum. Dem Betriebswirtschaftsstudium mit Schwerpunkt Maschinenbau an der RWTH Aachen folgte die Promotion zum Thema „Reorganisation zur Prozessorientierung“. Danach war er als Senior Consultant im Bereich Organisation der Deutschen Bank für die Durchführung von Projekten und Workshops zur Prozessoptimierung im In- und Ausland verantwortlich. Es folgte eine Tätigkeit als Projektleiter im IT-Bereich der Lufthansa Passage. Bei Capitum liegen seine Schwerpunkte u.a. in den Bereichen Strategieentwicklung sowie Geschäftsprozess- und Kostenmanagement. Er verfügt über mehr als 15 Jahre Erfahrung als Referent.