Große Netze der Logistik
Peter Buchholz • Uwe Clausen Herausgeber
Große Netze der Logistik Die Ergebnisse des Sonderforschungsbereichs 559
13
Prof. Dr.-Ing. Uwe Clausen Fraunhofer-Institut für Materialfluss und Logistik (IML) Joseph-von-Fraunhofer-Str. 2-4 44227 Dortmund Deutschland
[email protected]
Prof. Dr. Peter Buchholz Technische Universität Dortmund Fakultät für Informatik August-Schmidt-Str. 12 44227 Dortmund Deutschland
[email protected]
ISBN 978-3-540-71047-9
e-ISBN 978-3-540-71048-6
DOI 10.1007/978-3-540-71048-6
Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © 2009 Springer-Verlag Berlin Heidelberg Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Einbandgestaltung: WMXDesign GmbH, Heidelberg Gedruckt auf säurefreiem Papier 987654321 springer.de
Vorwort
Logistik spielt eine entscheidende Rolle für das Funktionieren unserer modernen Volkswirtschaft. Funktionierende Netze in der Logistik sind für die Verfügbarkeit von Waren und Gütern unverzichtbar, werden aber auf Grund steigender Anforderungen, neuer Organisationsformen und des Einsatzes moderner Informations- und Kommunikationstechnik immer größer, oft auch komplexer und dynamischer. Solche großen Netze können nur dann die an sie gestellten Anforderungen zuverlässig erfüllen, wenn die auftretenden Komplexitäten beherrscht werden. Dazu müssen die Potenziale moderner Methoden der Planung, Analyse und Optimierung genutzt werden. Die Forschung hat in den letzten Jahrzehnten ein breites Portfolio an theoretischen Grundlagen, neuen Methoden und Algorithmen zur Modellbildung, Analyse und Optimierung großer Netze der Logistik hervorgebracht. Diese Arbeiten verteilen sich über viele Bereiche, die sich mit großen Netze der Logistik befassen und deren Kombination und Integration wissenschaftlich wie praktisch eine besonders spannende Aufgabe darstellt. Das vorliegende Buch fasst wesentliche Resultate aus den Forschungsarbeiten im Sonderforschungsbereich 559 an der TU Dortmund zusammen. In diesem von der deutschen Forschungsgemeinschaft von 1998 bis 2008 finanzierten Forschungsprojekt arbeiteten Wissenschaftler aus der Logistik, der Informatik, der Betriebswirtschaftslehre, der Statistik und der Soziologie zusammen, um neue Methoden zur Planung und zum Betrieb großer Netze der Logistik zu entwickeln und auf praxisnahe Beispiele anzuwenden. Die durchgeführten Arbeiten gliederten sich in methodisch und in anwendungsorientierte Projekte, deren Resultate in übergeordneten Arbeitsgruppen integriert wurden. Durch diese interdisziplinäre Zusammenarbeit ist es gelungen, einen formalen Rahmen zu entwickeln, in dem große und komplexe Modelle anschaulich beschrieben und einer Analyse und Optimierung zugänglich gemacht werden. In insgesamt 15 Kapiteln werden wesentliche Resultate der Arbeiten im Sonderforschungsbereich (SFB) verständlich dargestellt. Das Buch gliedert sich in 4 Teile, die jeweils spezifische Aspekte beleuchten und insgesamt einen umfassenden Ansatz zur Modellierung, Analyse und Optimierung großer Netze der Logistik vorstellen. Im ersten Teil steht die Analyse und Modellierung großer Netze der Logistik im Mittelpunkt. Es werden Methoden und Softwarewerkzeuge vorgestellt, die im Rahv
vi
Vorwort
men des SFB neu entwickelt oder adaptiert wurden. Das erste Kapitel widmet sich Methoden zur Informationsgewinnung in logistischen Netzen. Es wird ein Methodennutzungsmodell entwickelt, das es dem Modellierer ermöglicht, verschiedene Verfahren der Datenerhebung und Datenmodellierung für die Modellbildung großer Netze der Logistik in abgestimmter Form einzusetzen. Von zentraler Bedeutung für eine umfassende Modellierung großer Netze der Logistik ist ein breit einsetzbares Modellierungsparadigma. Im Sonderforschungsbereich wurde ein hierarchisches Prozesskettenparadigma verwendet, das eine problemangepasste Modellierung auch komplexer Systeme erlaubt und in simulier- und analysierbaren Modellen resultiert. Im zweiten Kapitel werden das Prozesskettenparadigma und die zugehörige Modellierungsumgebung eingeführt. Die kollaborative Planung und Steuerung von unternehmensübergeifenden Supply Chains ist notwendig, um die gestiegenen Kundenanforderungen zu erfüllen. Verschiedene Steuerungsstrategien lassen sich in komplexen Systemen, wie sie logistische Lieferketten und -netzwerke darstellen, am besten per Simulation analysieren. Im dritten Kapitel wird ein im SFB entwickelter Simulationsansatz vorgestellt, mit dessen Hilfe gezeigt werden kann, dass eine beschleunigte Informationsweitergabe in der Supply Chain zu einer deutlichen Verbesserung der Zielgrößen wie Termintreue und Bestandsminimierung führt. Im vierten Kapitel wird schließlich ein Ansatz vorgestellt, um unternehmensübergreifende Kooperationen quantitativ zu bewerten und damit den Akteuren in einem Netzwerk Methoden an die Hand zu geben, Individualziele und auf das Gesamtnetzwerk bezogene Ziele zu bewerten und so Verbesserungspotenziale durch die Zusammenarbeit in Logistik-Netzwerken transparent zu machen. Der zweite Teil beleuchtet die Optimierung und Verbesserung von Netzen. In großen Netzen der Logistik treten unterschiedliche Optimierungsprobleme auf, von denen viele in die Klasse der schwierig zu lösenden Probleme fallen, so dass nur durch den Einsatz effizienter heuristischer Algorithmen überhaupt Lösungen bestimmt werden können. Kapitel 5 beschäftigt sich mit der Optimierung von Wechselbrückentransporten. Es wird nachgewiesen, dass dieses Problem sich von den in der Literatur behandelten Standardproblemen unterscheidet, so dass die Entwicklung angepasster Optimierungsalgorithmen notwendig ist, um das Potenzial aus der Kombination einzelner Wechselbrückentransporte voll nutzen zu können. Ein Standardproblem beim Aufbau von Service-Netzen ist die Erstellung eines optimalen Hauptlaufnetzes zwischen Depotstandorten. Für dieses aus der Literatur bekannte Problem existieren zahlreiche exakte und heuristische Optimierungsalgorithmen, deren wichtigste Vertreter im sechsten Kapitel experimentell verglichen und bewertet werden. In Kap. 7 wird eine praxisnahe Modellierung verschiedener VehicleRouting Probleme vorgestellt. Für die Optimierung der resultierenden Modelle können moderne Metaheuristiken genutzt werden. An Hand realitätsnaher Beispiele wird die gute Eignung dieser Optimierungsverfahren für große und komplexe Probleme nachgewiesen. Während sich die drei vorherigen Kapitel mit statischen Optimierungsproblemen beschäftigen, die durch deterministische Zielfunktionen und deterministische Nebenbedingungen gekennzeichnet sind, behandelt Kap. 8 Optimierungsverfahren für stochastische Simulationsmodelle, die als Prozesskettenmodelle spezifiziert werden. Neben verschiedenen Optimierungsalgorithmen wird
Vorwort
vii
auch das Werkzeug OPEDo zur Optimierung von Simulationsmodellen eingeführt, das im Rahmen des Sonderforschungsbereichs entwickelt wurde. Teil 3 des Buches ist der Planung von großen Netzen gewidmet. Ein zentraler Aspekt in allen Planungsfragen ist das Zusammenspiel zwischen menschlichen Planern und Entscheidern und den zur Planungsunterstützung vorhandenen Softwaresystemen. Kapitel 9 beschäftigt sich aus techniksoziologischer Sicht mit dem Menschen und seinen vielfältigen Rollen in großen Netzen der Logistik. Diese Sichtweise wird in Kap. 10 um die Einbindung von Assistenzsystemen zur Entscheidungsunterstützung erweitert. Im nachfolgenden elften Kapitel wird die im Rahmen des Sonderforschungsbereichs entwickelte Workbench zur Entscheidungsunterstützung vorgestellt. Exemplarisch wird an Hand eines Güterverkehrszentrums gezeigt, wie logistisches Planungswissen systematisch aufbereitet und in einem Softwaresystem bereitgestellt werden kann. Kapitel 12 führt die Netzwerk-Balanced Scorecard als Instrument zur betriebswirtschaftlichen Planung und Steuerung großer Netze der Logistik ein und erweitert die Sicht um eine betriebswirtschaftliche Perspektive. Der letzte Teil des Buches ist der praktischen Anwendung der entwickelten Verfahren auf reale Probleme gewidmet. In den Kapiteln werden drei unterschiedliche Szenarien vorgestellt und analysiert. Dazu betrachtet Kap. 13 die Planung, Analyse und Steuerung von Mehrwegsystemen. Daran anschließend wird in Kap. 14 die Modellierung von Lufttransportnetzen beschrieben. Es wird dargelegt, wie sich durch eine standortübergreifende Frachtflusssteuerung deutliche Kapazitätssteigerungen und Kostenreduktionen erreichen lassen. Das letzte Kapitel des Buches beschäftigt sich schließlich mit der Modellierung und Bewertung trimodaler Transportketten für Seehafenhinterlandverkehre und zeigt auf, mit welchen Daten, Modellierungselementen und Verfahren konkrete Aussagen zu Kombinationen von Binnenschiff, Schiene und Straße in verkehrslogistischen Netzen zu den stark wachsenden Seehäfen abgeleitet werden können. Das vorliegende Buch richtet sich an Studierende der Logistik und anderer Studiengänge wie angewandte Informatik, Statistik, Wirtschaftsingenieurwesen und Wirtschaftsinformatik mit einem Schwerpunkt in der Logistik, an Fachhochschulen und Universitäten. Ferner werden Wissenschaftler angesprochen, die in diesem Bereich arbeiten, sowie Praktiker, die am Einsatz neuer Methoden bei Analyse, Planung und Betrieb großer Netze der Logistik interessiert sind. Die Erstellung eines Buches mit einer Vielzahl von Autoren erweist sich als komplexer Prozess, der von allen Beteiligten ein hohes Maß an Disziplin und Kooperation verlangt. Wir bedanken uns bei allen Autoren, dass sie diese Disziplin aufgebracht haben und ihre Kapitel pünktlich geliefert haben. Ferner möchten wir Frau Andrea Berger für ihre unermüdliche Formatierungs- und Korrekturarbeit am fast fertigen Manuskript danken.
Dortmund September 2008
Peter Buchholz Uwe Clausen
Inhalt
1
2
3
Methodennutzungsmodell zur Informationsgewinnung in großen Netzen der Logistik. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Dirk Jodin, Sonja Kuhnt und Sigrid Wenzel 1.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Aufbau des Methodennutzungsmodells. . . . . . . . . . . . . . . . . . . . . . . 1.2.1 Vorgehensmodell zur integrativen Methodennutzung . . . . . . 1.2.2 Bedeutung und Inhalt der Taxonomien . . . . . . . . . . . . . . . . . 1.2.3 Methoden. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.4 Metainformationsschicht. . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Anwendung des Methodennutzungsmodells . . . . . . . . . . . . . . . . . . . 1.4 Ausblick. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ProC/B: Eine Modellierungsumgebung zur prozessketten-orientierten Beschreibung und Analyse logistischer Netze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Falko Bause, Heinz Beilner und Jan Kriege 2.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 ProC/B-Modelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Analysetechniken und Tools . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.1 Ereignisorientierte Simulation . . . . . . . . . . . . . . . . . . . . . . . 2.3.2 Numerische Analyse von zeitkontinuierlichen Markov-Ketten . . . . . . . . . . . . . . . 2.3.3 Algebraisch-numerische Analyse von Produktformnetzen . . 2.4 Weitere Modellstudien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4.1 Ausfälle und Wartung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4.2 Passive Ressourcen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4.3 Mobile Ressourcen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5 Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Simulation von SCM-Strategien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Markus Witthaut und Bernd Hellingrath 3.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 SCM-Strategien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1 1 2 4 8 10 13 14 15
19 19 21 31 33 37 42 46 46 49 50 53 59 60 61 ix
x
Inhalt
3.2.1 Definition des Begriffs SCM-Strategie . . . . . . . . . . . . . . . . . 3.2.2 Klassifizierung von SCM-Strategien. . . . . . . . . . . . . . . . . . . 3.2.3 Bewertungsgrößen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3. Modellierung von SCM-Strategien . . . . . . . . . . . . . . . . . . . . . . . . 3.3.1 Anforderungen an die Modellierung . . . . . . . . . . . . . . . . . . 3.3.2 Bewertung von SCM-Strategien mittels Simulation . . . . . . 3.4 Simulation der SCM-Strategie Information Sharing. . . . . . . . . . . . 3.4.1 Stand der Forschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.2 Untersuchungsszenario . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.3 Durchgeführte Experimente . . . . . . . . . . . . . . . . . . . . . . . . 3.4.4 Untersuchungshypothesen. . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.5 Beschreibung ausgewählter Ergebnisse . . . . . . . . . . . . . . . 3.5 Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
5
Kosten- und leistungsoptimierter Betrieb kooperativer Logistiknetzwerke . . . . . . . . . . . . . . . . . . . . . . . Iwo V. Riha 4.1 Ausgangssituation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.1 Folgen der Bildung von Netzwerken . . . . . . . . . . . . . . . . . 4.1.2 Neue Herausforderungen durch partizipative Steuerung von Netzwerken: verstehen – bewerten – teilen . . . . . . . . . . . . . . . . . . . . . . . 4.2 Netzwerke verstehen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.1 Unternehmensübergreifende Effekte in Netzwerken . . . . . 4.2.2 Unternehmensübergreifende Sicht darf lokale Phänomene nicht vernachlässigen . . . . . . . . . . 4.3 Netzwerke bewerten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.1 Bewertung durchführen: Transparenz schaffen durch Cost Benefit Sharing . . . . . . . 4.4 Netzwerkgewinne verteilen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.1 Neue Wirtschaftlichkeitskriterien für Netzwerkprojekte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.3 Reallokationsstrategien in Netzwerken. . . . . . . . . . . . . . . . 4.4.4 Strategieauswahl und -empfehlung . . . . . . . . . . . . . . . . . . . Optimierung des Wechselbrückentransports – ein Spezialfall der Tourenplanung . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hans-Werner Graf 5.1 Wechselbrücken im Gütertransport . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Transportnetze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3 Aufgabenstellung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4 Modellbildung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.5 Optimierungsansätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.6 Lösungsansätze aus dem Bereich des OR . . . . . . . . . . . . . . . . . . . . 5.7 Bewertung der Optimierungsansätze. . . . . . . . . . . . . . . . . . . . . . . .
61 61 63 64 64 64 65 65 65 66 68 70 73
75 75 76
77 78 78 79 80 84 88 89 92 95
101 102 103 104 106 107 108 112
Inhalt
5.8 5.9 5.10 5.11 5.12 5.13 5.14 5.15 6
7
xi
Mathematische Problemformulierung. . . . . . . . . . . . . . . . . . . . . . . Exakte Lösungsansätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Heuristischer Lösungsansatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Problemreduktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Savings-Ansatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sternoptimierung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Beispielergebnisse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zusammenfassung und Ausblick. . . . . . . . . . . . . . . . . . . . . . . . . . .
Leistungsbewertung verschiedener Optimierverfahren für das p-Hub-Problem . . . . . . . . . . . . . . . . . . . . Hilmar Heinrichmeyer 6.1 Service-Netze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2 P-Hub-Problem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3 Bewertungsmodell. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.4 Kennzahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.5 Beschreibung der untersuchten Optimierungsmethoden. . . . . . . . . 6.5.1 Vollständige Enumeration . . . . . . . . . . . . . . . . . . . . . . . . . . 6.5.2 Neighborhood Search-Verfahren nach Klincewicz . . . . . . . 6.5.3 Individuenbasierter evolutionärer Algorithmus. . . . . . . . . . 6.5.4 Populationsbasierter evolutionärer Algorithmus. . . . . . . . . 6.6 Probleminstanzen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.7 Auswertungsumfang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.8 Leistungsbewertung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.9 Einordnung der Ergebnisse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.10 Komplexitätsklassen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.11 Anwendung auf weitere Probleminstanzen . . . . . . . . . . . . . . . . . . . 6.12 Zusammenfassung und Ausblick. . . . . . . . . . . . . . . . . . . . . . . . . . . Ein prozess- und objektorientiertes Modellierungskonzept für praxisnahe Rich Vehicle Routing Problems. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Andreas Reinholz und Holger Schneider 7.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2 Vehicle Routing Problem. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2.1 Definition: Capacitated Vehicle Routing Problem . . . . . . . 7.2.2 Definition: Tour. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2.3 Definition: Tourenplan . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3 Modellierungskonzept . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3.1 Aufbau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3.2 Verbrauchsberechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3.3 Operationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.4 Risikomanagement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.5 Optimierungsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.5.1 Variable Nachbarschaftssuche und Hybride Evolutionsstratgie . . . . . . . . . . . . . . . . . . . . . . . . .
113 117 117 118 119 121 125 125
129 130 130 131 132 136 136 137 137 138 139 139 141 144 145 148 149
153 153 154 154 155 155 157 157 164 164 166 167 168
xii
Inhalt
7.6
7.7 8
9
7.5.2 Verwendete Nachbarschaftssuchen . . . . . . . . . . . . . . . . . . . 7.5.3 Beschleunigte Funktionsauswertung durch das Superkunden-Konzept. . . . . . . . . . . . . . . . . . . . . . . . . . . . . Leistungsbewertung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.6.1 VRP mit offenen Touren . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.6.2 VRP mit Rückläufen und Zeitfenstern . . . . . . . . . . . . . . . . 7.6.3 VRP mit mehreren Depots . . . . . . . . . . . . . . . . . . . . . . . . . Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Optimierung ereignis-diskreter Simulationsmodelle im ProC/B-Toolset . . . . . . . . . . . . . . . . . . . . . . . . Markus Arns, Peter Buchholz und Dennis Müller 8.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2 Optimierverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2.1 Die Response Surface Methode . . . . . . . . . . . . . . . . . . . . . . . 8.2.2 Pattern Search . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2.3 Evolutionäre Algorithmen. . . . . . . . . . . . . . . . . . . . . . . . . . 8.2.4 Kriging-Metamodelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2.5 Kombination globaler und lokaler Suchverfahren . . . . . . . 8.2.6 Einbeziehung von Nebenbedingungen . . . . . . . . . . . . . . . . 8.2.7 Berücksichtigung stochastischer Resultate . . . . . . . . . . . . . 8.3 Das Optimierwerkzeug OPEDo . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.4 Benchmark der Optimierungsverfahren anhand einer multimodalen Benchmarkfunktion. . . . . . . . . . . . . . . . . . . . . 8.4.1 Versuche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.5 Optimierung der Stückgutumschlaghalle eines GVZ . . . . . . . . . . . 8.5.1 Versuchsaufbau und Ergebnisse . . . . . . . . . . . . . . . . . . . . . 8.6 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Der Mensch als Planer, Operateur und Problemlöser in logistischen Systemen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Doris Blutner, Stephan Cramer und Tobias Haertel 9.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.2 Techniksoziologie und Prozesskettenparadigma (Stephan Cramer). . . . . . . . . . . . . . . . . . . 9.2.1 Der soziotechnische Systemansatz und die systemische Perspektive des Prozesskettenparadigmas. . . . . . . . . . . . . . 9.2.2 Zur Steuerung komplexer Systeme . . . . . . . . . . . . . . . . . . . 9.2.3 Steuerungsmodi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.2.4 Hybridität und veränderte Akteurskonstellationen . . . . . . . 9.2.5 Aspekte des Prozesskettenparadigmas in techniksoziolo-gischer Perspektive, Gemeinsamkeiten und Unterschiede . . . . . . . . . . . . . . . . . . 9.2.6 Anschlussmöglichkeiten zum Prozesskettenparadigma . . .
169 171 173 173 174 176 176
181 181 183 184 190 192 193 196 197 198 200 202 203 205 207 208
211 211 212 212 212 213 214
214 215
Inhalt
9.3
9.4
9.5
9.6 9.7 9.8 9.9
xiii
Sozialwissenschaftliche Befunde zur Mensch-Maschine Interaktion (Tobias Haertel) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.3.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.3.2 Die Rolle der Menschen bei der Entwicklung neuer Technologien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.3.3 Verfahren zur „optimalen“ Gestaltung der Mensch-Maschine-Interaktion. . . . . . . . . . . . . . . . . . . . . . . 9.3.4 Gestaltungsalternativen . . . . . . . . . . . . . . . . . . . . . . . . . . . . Das Containerterminal Altenwerder (CTA) als hybrides System und die Rolle des Menschen als Problemlöser (Stephan Cramer) . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.4.1 Einleitung: Containerterminals, Automation und die techniksoziologische Hybridperspektive. . . . . . . . . . . . 9.4.2 Die Prozesskette auf dem Terminal. . . . . . . . . . . . . . . . . . . 9.4.3 Die Selbststeuerung autonomer Fahrzeuge. . . . . . . . . . . . . 9.4.4 Flexibilität, Problembehebung und die Rolle des Menschen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.4.5 Fazit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Der Mensch als aktiver Mitspieler. Mensch-MaschineInteraktionen im Luftfrachtterminal (Doris Blutner) . . . . . . . . . . . 9.5.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.5.2 Zeit als Leitressource im logistischen System Luftfracht im Luftfrachtterminal. . . . . . . . . . . . . . . . . . . . . 9.5.3 Informationstechnisch gestützte Disponentenarbeit vor Ort: Wer das Problem hat, hat die Lösung . . . . . . . . . . 9.5.4 Fazit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Der Mensch als Problemlöser in logistischen Prozessketten im Straßengüterverkehr (Tobias Haertel) . . . . . . . . . . . . . . . . . . . . . . . Zusammenfassung der Fallstudien . . . . . . . . . . . . . . . . . . . . . . . . . Eine techniksoziologische Variante der Parametervariation . . . . . . Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10 Assistenzsysteme für die Entscheidungsunterstützung . . . . . . . . . . . Doris Blutner, Stephan Cramer, Sven Krause, Tycho Mönks, Lars Nagel, Andreas Reinholz und Markus Witthaut 10.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.2 Konzeptioneller Rahmen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.2.1 Fokus: Entscheidungsunterstützung . . . . . . . . . . . . . . . . . 10.2.2 Assistenzsysteme zur Entscheidungsunterstützung: Definition und Merkmale . . . . . . . . . . . . . . . . . . . . . . . . . 10.2.3 Vorhandene Taxonomien für Assistenzsysteme, Automatisierungsstufen und die Verteilung von Entscheidungen zwischen Menschen und Rechnern. . . . . 10.2.4 Art der Entscheidungsunterstützung . . . . . . . . . . . . . . . . .
217 217 217 219 220
221 221 222 223 225 226 227 227 227 228 231 231 233 234 235 241
241 241 241 242
243 244
xiv
Inhalt
10.2.5 Arbeitsteilung zwischen Mensch und Maschine . . . . . . . . 10.2.6 Einsatzzweck. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.2.7 Qualität und Quantität der Entscheidung . . . . . . . . . . . . . 10.3 Fallbeispiele. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.3.1 Beladung von Frachtflugzeugen . . . . . . . . . . . . . . . . . . . . 10.3.2 Schiffsführung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.3.3 Produktionsprogrammplanung . . . . . . . . . . . . . . . . . . . . . 10.3.4 Tourenplanung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.3.5 Rohstoffbeschaffung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.3.6 Ressourcenplanung von Güterverkehrszentren. . . . . . . . . 10.4 Fazit und Ausblick. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
12
Nutzungsmöglichkeiten der Workbench zur Unterstützung des Planungsprozesses von Güterverkehrszentren . . . . . . . . . . . . . . . Lars Nagel 11.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2 Rahmenkonzept zur Modellierung von Planungswissen. . . . . . . . . 11.3 Referenz-Vorgehensweise zur Lösung von Planungsaufgaben in GNL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.4 Vorstellung des internetbasierten Informationssystems „Workbench“ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.5 Planung von GVZ als intermodale Knotenpunkte . . . . . . . . . . . . . 11.6 Nutzung der „Workbench“ zur Unterstützung der GVZ-Planung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.7 Fazit und Ausblick. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Integration des Kosten-, Finanz- und Risikomanagements in die Netzwerk-Balanced-Scorecard . . . . . . . . . . . . . . . . . . . . . . . . . . Egon Jehle und Britta von Haaren 12.1 Forschungslücken in der Netzwerk-Balanced Scorecard . . . . . . . . 12.2 Einbindung kostenmäßiger, finanzieller und risikoorientierter Elemente in die SC-Balanced Scorecard als wichtigster Realtyp der NW-BSC . . . . . . . . . . . . . . . . . . . . . . . 12.2.1 Einbindung des SC-Kostenmanagements in die SC-BSC in Form der Simulationsgestützten Prozesskostenrechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.2.2 Erweiterung der SC-BSC um das Supply Chain Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.2.3 Einbindung des SC-Risikomanagements in die SC-BSC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.3 Integration des SC-Costing, des SC-Finance und des SC-Risikomanagements in die SC-BSC . . . . . . . . . . . . . . . . . . . . . 12.4 Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
244 245 246 246 246 250 252 256 261 264 267
271 271 272 274 279 284 286 292
297 297
300
300 301 312 314 319
Inhalt
13 Analyse und Modellierung von Redistributionsnetzen. . . . . . . . . . . . Rolf Jansen, Jan Hustadt und Stefan Pietzarka 13.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.1.1 Mehrwegtransportverpackungen. . . . . . . . . . . . . . . . . . . . 13.1.2 Mehrwegsysteme. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.2 Modellierung und Simulation von Redistributionsnetzen. . . . . . . . 13.2.1 KOMPASS-Modell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.2.2 Dortmunder Prozesskettenparadigma und ProC/B . . . . . . 13.2.3 Systemdynamische Modellierung . . . . . . . . . . . . . . . . . . . 13.3 Die Kreislaufwirtschaft als redistributionsähnliches System . . . . . 13.3.1 Analyse redistributionsähnlicher Systeme . . . . . . . . . . . . 13.3.2 Konzepte einer kreislaufbezogenen Modellierung . . . . . . 13.4 RFID zur Informationsgewinnung . . . . . . . . . . . . . . . . . . . . . . . . . 13.4.1 Grundlagen der RFID-Technologie. . . . . . . . . . . . . . . . . . 13.4.2 Vorgehen zur Implementierung von RFID-Infrastruktur. . 13.5 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
15
Modell zur Bewertung der Kostenreduktion im Luftfrachttransportnetz durch eine angepasste, standortübergreifende Frachtflusssteuerung . . . . . . . . . . . . . . . . . . . Uwe Clausen und Harald Sieke 14.1 Einführung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.1.1 Überblick Luftfracht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.1.2 Problemstellung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.1.3 Typisches Luftfrachtnetz . . . . . . . . . . . . . . . . . . . . . . . . . . 14.2 Grundlagen und Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.3 Stand der Wissenschaft . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.4 Entwicklung des Simulationsmodells . . . . . . . . . . . . . . . . . . . . . . . 14.4.1 Strategieauswahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.4.2 Experimentierreihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.4.3 Systemlast . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.4.4 Modellbildung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.5 Simulationsergebnisse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.5.1 Belegung der Ressourcen . . . . . . . . . . . . . . . . . . . . . . . . . 14.5.2 Berücksichtigte Prozesskosten an den Hubs . . . . . . . . . . . 14.6 Zusammenfassung und Ausblick. . . . . . . . . . . . . . . . . . . . . . . . . . . Modellierung und Analyse trimodaler Seehafenhinterlandverkehre unter Einsatz eines intermodalen geographischen Informationssystems. . . . . . . . . . . . . . Florian Schwarz 15.1 Einführung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15.2 Zielsetzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
xv
323 323 323 325 328 328 331 332 333 334 337 345 345 348 350
355 356 356 357 358 359 363 363 364 365 367 369 371 371 376 377
381 382 383
xvi
Inhalt
15.3 Modellierungsansätze für intermodale Transporte . . . . . . . . . . . . . 15.3.1 Geographische Informationssysteme (GIS) für intermodale Transporte . . . . . . . . . . . . . . . . . . . . . . . . 15.3.2 Neuer Modellierungsansatz für intermodale Transporte. . 15.4 Ergebnisse der Szenarienrechnungen . . . . . . . . . . . . . . . . . . . . . . . 15.5 Zusammenfassung und Ausblick. . . . . . . . . . . . . . . . . . . . . . . . . . .
384 387 389 394 398
Sachverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
403
Kapitel 1
Methodennutzungsmodell zur Informationsgewinnung in großen Netzen der Logistik Dirk Jodin, Sonja Kuhnt und Sigrid Wenzel
Zusammenfassung Die Analyse und Planung großer Netze der Logistik (GNL) basiert zunehmend auf modellgestützten Verfahren wie Simulation und Optimierung. Dies ist jedoch nur erfolgreich, wenn Informationen und Daten über das zu modellierende System in angemessener Qualität, Quantität und Granularität schnell zur Verfügung stehen. Bei der Anwendung modellgestützter Analyseverfahren besteht jedoch oft Unsicherheit und Unkenntnis über geeignete Vorgehensweisen und Methoden der Informationsgewinnung. In diesem Beitrag wird daher ein speziell entwickeltes Methodennutzungsmodell als methodenintegrierte und disziplinübergreifende Arbeitsumgebung zur Gewinnung von Eingangsdaten für die Modellierung von GNL vorgestellt.1
1.1
Einleitung
Große Netze in der Logistik (GNL) besitzen bedingt durch die Einbeziehung der Restriktionen mehrerer unterschiedlicher Unternehmen und aufgrund der bestehenden Wechselwirkungen zwischen den beteiligten Akteuren in der Regel eine hohe Komplexität. Die Nutzung von Modellen bei der Gestaltung, Planung und Bewirtschaftung von logistischen Netzen erlaubt die Abstraktion der Strukturen und Prozesse in den Netzen und damit die Analyse und Planung von Teilaspekten des Netzes. Allerdings nur dann, wenn valide Informationen und Daten über die realen Gegebenheiten des Netzes vorliegen, lässt sich das Modell so gestalten, dass nutzbare 1
Diese Arbeit wird durch die Deutsche Forschungsgemeinschaft im Rahmen des Sonderforschungsbereichs 559 „Modellierung großer Netze in der Logistik“ der Technischen Universität Dortmund unterstützt.
S. Wenzel ( ) Universität Kassel, Fachbereich Maschinenbau Fachgebiet Produktionsorganisation und Fabrikplannung Kurt-Wolters Straße 3, 34125 Kassel, Deutschland E-mail:
[email protected] P. Buchholz und U. Clausen (Hrsg.), Große Netze der Logistik, DOI 10.1007/978-3-540-71048-6_1, © Springer-Verlag Berlin Heidelberg 2009
1
2
D. Jodin et al.
Erklärungen und tragfähige Entscheidungen abgeleitet werden können. Die Güte der verwendeten Information und der daraus extrahierten Eingangsdaten bestimmt letztendlich die erzielbare Ergebnisqualität der modellgestützten Analyse. Die Gewinnung von validen Eingangsdaten in der richtigen Qualität, Quantität und Granularität für die Modellierung von GNL kann jedoch nur gelingen, wenn eine geeignete methodische Unterstützung zur Verfügung steht. Für das Informationsmanagement lassen sich heute einzelne Ansätze zur Modellierung von Entscheidungsprozessen innerhalb eines Unternehmens finden (vgl. u. a. [Mül92, DPr98, VGu01, Wey01]). Die Modellierung von GNL ist jedoch gekennzeichnet durch unternehmensübergreifende Fragestellungen. Arbeiten zur Entwicklung eines Systems, das einen systematischen, einheitlichen Zugriff auf Betriebsdaten heterogener Datenquellen ermöglicht und diese zur Nutzung in einem Simulationsmodell bereitstellt, sind u. a. bei [FRZ03] zu finden. [DGJ+02] behandeln für einen eingegrenzten Problembereich den methodisch orientierten Prozess der Integration und Interpretation von Daten aus heterogenen, verteilten Quellen sowie die daraus aufbauende Konstruktion von Datenmodellen mit dem Ziel, Information in einer neuen, höheren Qualität zu gewinnen. Die Extraktion von Information aus großen Datenbanken sowohl mit Methoden des maschinellen Lernens als auch mit computergestützten statistischen Verfahren ist inzwischen allgemein anerkannt [HTF01, Fri01] und wird zunehmend auch auf informationstheoretischer Basis untersucht [Cop02]. Jedoch liegen bisher nur für spezifische Anwendungen Forschungsergebnisse vor, die sich auf den Einsatz von Methoden der Informationsverarbeitung beziehen und eine Zusammenlegung und Verknüpfung der verschiedenen methodischen Ansätze unterstützen. So erweitert zum Beispiel van Bonn [Bon01] die Planungsbasis für Aufgaben in der Verkehrslogistik um projektunabhängige Planungsdaten mit dem Ziel der Verbesserung der Informationsqualität. Die Notwendigkeit des systematischen Umgangs mit dem Prozess der Informationsgewinnung wird in [WBe08] am Beispiel der Systemlastdaten für logistische Systeme erläutert. Im Rahmen der hier vorgestellten Forschungsarbeiten wurde erstmals ein übergreifendes ganzheitliches Konzept der Informationsgewinnung für GNL in Form eines Methodennutzungsmodells entwickelt. Anwendungs- und zielorientiert können damit die notwendigen Informationen bestimmt, die Informationsquellen anhand von Gütekriterien ausgewählt und die benötigten Informationen extrahiert und weiterverarbeitet werden.
1.2 Aufbau des Methodennutzungsmodells Das Gesamtkonzept des Methodennutzungsmodells orientiert sich an den Aufgaben und den einzusetzenden Methoden für die Informationsgewinnung bei der Modellierung von GNL. Die Konzeption ist so gestaltet, dass es sowohl eine Synthese zwischen einzusetzenden Methoden und einem Vorgehensmodell zur Nutzung dieser Methoden als auch eine synergetische Nutzung verschiedener Methoden unterschiedlicher Disziplinen sicherstellt. Der Aufbau des Methoden-
1 Methodennutzungsmodell zur Informationsgewinnung in großen Netzen der Logistik
Abb. 1.1
3
Methodennutzungsmodell
nutzungsmodells (siehe Abb. 1.1) spiegelt diese Forderungen über ein Dreiebenenkonzept wider: • Ebene 1: Vorgehensmodell • Ebene 2: Taxonomien • Ebene 3: Methoden Das Vorgehensmodell führt den Nutzer durch die Prozessschritte der Informationsgewinnung für die modellgestützte Analyse (hier: Simulation), zu denen die Zieldefinition, die Informationsidentifikation, die Erhebung & Erfassung, die Strukturierung & statistische Analyse sowie die abschließende Nutzbarkeitsprüfung der Daten für die geforderte modellgestützte Analyse gehören. Das Vorgehensmodell selbst ist zwangsläufig in ein übergeordnetes Vorgehensmodell zur modellgestützten Analyse beispielsweise der Simulation eingeordnet. Die einzelnen Prozessschritte im Vorgehensmodell definieren die Anforderungen an die Auswahl einer oder mehrerer geeigneter Methoden. Die Methodenauswahl wird über sogenannte Methodentaxonomien gesteuert, die ihrerseits Kriterien zur Klassifizierung der einzusetzenden Methoden bereitstellen. Aus der Zusammenfassung von Methoden ähnlicher oder gleicher Merkmalsausprägungen ergeben sich dann die sogenannten Methodenkategorien, die eine Auswahl an geeigneten Methoden für eine konkrete Anwendung darstellen.
4
D. Jodin et al.
Entsprechend der Bedarfe aus dem Vorgehensmodell werden Methoden unterschiedlicher Fachdisziplinen zur Verfügung gestellt. Hierzu zählen primär Methoden für die Identifikation der geeigneten Information [BHJ05, HHJ+07], für die Informations- und Datenerhebung [HJL04, JMa05], für die statische Analyse und Bewertung [FKK05] und die Informations- und Datenvisualisierung [WJB03, BDW05]. Eine synergetische, disziplinübergreifende Anwendung der Methoden wird durch geeignete Auswahlmechanismen seitens der Anwender und damit durch eine vernetzte Nutzung der Taxonomien erreicht. Wichtiges Element des Methodennutzungsmodells ist daher eine Metainformationsschicht. Diese Schicht dient der Formulierung der Nutzeranforderungen an das Methodennutzungsmodell aus der konkreten Anwendung heraus und steuert die Methodennutzung aufgrund des vorgegebenen Informationsbedarfs und des vorliegenden Datenmaterials sowie der hinterlegten Kriterien der Informationsauswahl und -güte. In den folgenden Abschnitten werden die einzelnen Ebenen des Methodennutzungsmodells sowie die verbindende Metainformationsschicht im Detail vorgestellt.
1.2.1 Vorgehensmodell zur integrativen Methodennutzung Das Vorgehensmodell zur Informationsgewinnung beinhaltet im Gegensatz zum heute üblichen Vorgehen der Datenbeschaffung und -aufbereitung eine veränderte Sichtweise. Im Fokus steht die notwendige, richtige und gültige Information bezüglich einer Aufgabenstellung, nicht das Datum selbst (zur Differenzierung zwischen Wissen, Information und Daten sei auf [NTa97] sowie [BDW05] verwiesen). Der gedankliche Ansatz liegt in der Erweiterung des Aufgabenspektrums der Datenbeschaffung und -aufbereitung durch die Aufgaben der Informationsbeschaffung und -bewertung. Nicht mehr die Frage: „Welche Daten werden benötigt?“ wird formuliert, sondern es wird primär abgefragt, wie sich der Informationsbedarf für die Aufgabenstellung unter Berücksichtigung der gewählten Modellierungsmethode darstellt. Die Einbindung des Informationsgewinnungsprozesses in die modellgestützte Analyse erfordert die Festlegung des jeweiligen übergeordneten Vorgehensmodells, in das die Informationsgewinnung einzuordnen ist. Im Rahmen dieses Beitrags wird die Informationsgewinnung beispielhaft in den Kontext der ereignisdiskreten Ablaufsimulation (discrete event simulation – DES, [Rob04, Law07]) eingeordnet. Basis der Einordnung ist das in [RSW08] entwickelte Vorgehensmodell, das sich in seinen Grundzügen an das Simulationsvorgehensmodell der VDI 3633 [VDI08] anlehnt. Dieses Simulationsvorgehensmodell ist insbesondere durch die konsequente Einführung von Phasenergebnissen als Basis für die durchgängige und iterative Verifikation und Validierung (V&V) sowie der gesonderten Behandlung von Modellbildung und Datengewinnung gekennzeichnet, integriert aber noch nicht die
5
1 Methodennutzungsmodell zur Informationsgewinnung in großen Netzen der Logistik
objektiver Informationsbedarf
Zieldefinition (Informationsgewinnung)
potenziell nutzbare Information
Informationsidentifikation
nutzbare Information mit assoziierten, digitalen Daten
Erhebung & Erfassung
potenziell nutzbare Eingangsdaten
Strukturierung & statistische Analyse
nutzbare Eingangsdaten
Datennutzbarkeitsprüfung
Aufgabendefinition definition
Aufgabenspezifikation spezifikation
Systemanalyse Systemanalyse
Konzeptmodell
Modellformalisierung formalisierung
Formales Modell
ImplemenImplemen tierung tierung
Ausführbares Modell
Experimente Experimente undAnalysen Analysen und
Simulationsergebnisse
V & V der Modelle
V & V der Information & Daten
Zielbeschreibung
Abb. 1.2 Integration der Informationsgewinnung in das Simulationsvorgehensmodell (vgl. [BHK+07])
weiter oben motivierte Gesamtsicht der Informationsgewinnung. Für eine detaillierte Beschreibung des Simulationsvorgehensmodells sei auf [RSW08] verwiesen. Abbildung 1.2 stellt das erweiterte Simulationsvorgehensmodell vor, in dem die Informationsgewinnung mit ihren Prozessschritten im Anschluss an die Aufgabendefinition zeitlich und organisatorisch parallel zur Modellbildung integriert ist. Dies impliziert jedoch nicht eine vollständig unabhängige Bearbeitung von Modellerstellung und Informationserhebung. Vielmehr stehen die Phasenergebnisse in engem Zusammenhang, da die verfügbaren Informationen und Daten das Modell beeinflussen und umgekehrt. Die Vernetzung der Phasenergebnisse ist aus Einfachheitsgründen ebenso wenig in Abb. 1.2 dargestellt wie die ggf. notwendige Durchführung von Iterationsschritten während der Modellbildung und Informationsgewinnung, die letztendlich zu einer Überarbeitung der Aufgabenspezifikation als Ausgangsdokument führen kann.
6
D. Jodin et al.
Die Vernetzung der Ergebnisse der einzelnen Phasen erfolgt darüber hinaus implizit durch die jeweiligen Schritte der V&V. Hierbei werden nicht nur intrinsische Prüfungen der Phasenergebnisse durchgeführt, sondern auch die Transformation eines Phasenergebnisses aus dem jeweils vorherigen Phasenergebnis sowie der Bezug zwischen den Ergebnissen der Informationsgewinnung und Modellerstellung einer V&V unterzogen. In Ergänzung zur durchgängigen V&V erfolgt als letzte Phase der Informationsgewinnung darüber hinaus explizit eine Datennutzbarkeitsprüfung, um die abschließende Vernetzung der Ergebnisse zu den Phasen der Modellbildung zu gewährleisten. Wesentlich für den die Informationsgewinnung beendenden Prozessschritt ist die abschließende Datenvalidierung (Sind es die richtigen Daten?), die im Abgleich mit dem ursprünglichen subjektiven Informationsbedarf sowie der Interpretation der statistischen Analyseergebnisse prüft, ob die potenziell nutzbaren Eingangsdaten dem subjektiven Informationsbedarf hinsichtlich der Anforderungen Plausibilität, Vollständigkeit, Glaubwürdigkeit und Richtigkeit für die Anwendung genügen. Zum anderen erfolgt die eigentliche Nutzbarkeitsbewertung, die beispielsweise die Eignung und Genauigkeit der ermittelten Daten in Bezug auf ihr Zusammenspiel mit dem Simulationsmodell (Detaillierungsgrad) und die hinreichende Nachbildung des Systemverhaltens klären soll. Die zeitliche Abfolge der Schritte zur Informationsgewinnung erfolgt anhand eines prozessorientierten Vorgehensmodells in Anlehnung an das Prozesskettenparadigma nach [Kuh95]. In diesem Modell wird durch die explizite Differenzierung in eine Informations- und Datensicht innerhalb der Prozesse die Möglichkeit geschaffen, den gesamten Handlungsspielraum ausgehend von einem objektiven Informationsbedarf in der Zieldefinition über die Ermittlung des notwendigen Informationsbedarfs bis hin zu den tatsächlich nutzbaren Eingangsdaten aufzuspannen. Eine Darstellung des Vorgehensmodells mit seinen Prozessschritten (dargestellt durch sechseckige Prozesspfeile), deren inhaltliche Ausrichtung (aufgelistete Unterpunkte) und den zugehörigen Prozessergebnissen (viereckige Kästchen an den Prozessschritten) ist Abb. 1.3 zu entnehmen. Die einzelnen Prozessschritte sind je nach ihrem inhaltlichen Fokus auf der Informations- oder Datenebene eingeordnet. Eine mögliche zeitparallele Abwicklung einzelner Prozessschritte wird durch ihre parallele Anordnung im Bild verdeutlicht. Notwendige Iterationen in der Prozessabfolge werden aus Übersichtlichkeitsgründen nicht dargestellt. Für eine detaillierte Beschreibung des Vorgehensmodell sei auf [BHK+07] verwiesen. Ein wichtiges Merkmal des Vorgehensmodells ist die durchgängige V&V aller Zwischenergebnisse am Ende jedes einzelnen Prozessschrittes. Basierend auf den V&V-Ergebnissen lassen sich dann Kriterien zur Bewertung der Güte der erzielten Information ableiten (vgl. [BDW07]). Als Qualitätskriterien werden üblicherweise z. B. Zugänglichkeit, Bedeutsamkeit, Objektivität und Korrektheit der Informationen herangezogen [KSW02, Epp06]. Aber auch sich auf die Datenqualität auswirkende Einflüsse aufgrund der Anwendung von speziellen Methoden der Datenerhebung und Statistik sind zu berücksichtigen und werden als ergänzende Kriterien innerhalb der Metainformationsschicht für die weitere Methodenauswahl genutzt.
Information
Informationsidentifikation
• Informations• Analyse der bedarfsanalyse Aufgabenstellung • Informations• Ableitung der Ziele angebotsanalyse für die Informations• Nutzbarkeitsgewinnung prüfung der InfoQuellen
potenziell nutzbare Eingangsdaten
nutzbare Eingangsdaten
Erhebungsplanung • Auswahl adäquater Informationsquellen • Auswahl der Erhebungsmethoden • Vorbereitung der Erhebung Erhebung • Aufnahme • Transformation • Erhebungsvalidierung
DatenDaten
Prozessorientiertes Vorgehensmodell der Informationsgewinnung [BHK+07]
Zieldefinition
nutzbare Information mit assoziierten, digitalen Daten
potenziell nutzbare Information
erfassung
• • • • •
Statistische
Abschließende
Datenanalyse
Validierung
• Deskriptive Analyse • Datenvalidierung • Verfahrensauswahl • Nutzbarkeitsprüfung Daten• Verfahrensanwendung strukturierung • Ergebnisüberprüfung Syntaktische Formatierung Definition von Relationen Fehlerbereinigung Anpassung der Granularität Plausibilitätsprüfung
1 Methodennutzungsmodell zur Informationsgewinnung in großen Netzen der Logistik
Abb. 1.3
objektiver Informationsbedarf
7
8
1.2.2
D. Jodin et al.
Bedeutung und Inhalt der Taxonomien
„Taxonomie ist der Bereich, der sich mit Methoden, Techniken und Prinzipien der Beschreibung, Benennung und Anordnung der Organismen in ein System befasst. Taxonomie ist also Schaffen von Ordnung. Manchmal wird Taxonomie mit Systematik gleichgesetzt“ [SWe97]. Im Rahmen des Methodennutzungsmodells werden Taxonomien als klassifizierende Systematiken verstanden. Die Taxonomienebene dient der zielorientierten Auswahl von Methoden und Werkzeugen zur Informationsgewinnung. Sie stellt dabei das Bindeglied zwischen Vorgehensmodell und Methodenebene dar. Aus dem aktuellen Prozessschritt im Vorgehensmodell werden über die Metainformationsschicht bereits vorliegende Informationen und Anforderungen bezüglich der auszuwählenden Methode an die Taxonomienebene weitergegeben. Die Taxonomien selber setzen sich aus Klassifikationskriterien für die Kategorisierung von Methoden zusammen, die sich sowohl über den Einsatz- und das Verarbeitungsziel innerhalb der Informationsgewinnung bestimmen als auch aus spezifischen Kriterien der jeweiligen Methodendisziplin zusammensetzen. Die sich für eine vorliegende Problemstellung ergebenden Ausprägungen der Klassifikationskriterien führen den Anwender zu Methodenkategorien auf der Methodenebene und damit zur Auswahl einer oder ggf. mehrerer für die Aufgabenstellung nutzbarer Methoden. Die Taxonomienebene enthält Taxonomien zur Unterstützung aller Prozessschritte des Vorgehensmodells und damit für alle relevanten Methoden im Rahmen der Informationsgewinnung bei GNL. Nachfolgend werden Taxonomien aus dem Bereich der Datenerhebung, Visualisierung und Statistik vorgestellt. Die Taxonomie für Erhebungsmethoden dient zur kontextorientierten Auswahl einer oder mehrerer geeigneter Erhebungsmethoden. Sie basiert auf einer Matrix (siehe Abb. 1.4), die in den Zeilen die systematisch angeordneten Methoden aus [HJL04] und [JMa05] in einer gekürzten Darstellung beinhaltet. Die Spalten der Matrix enthalten die für die Einsatzentscheidung im Informationsgewinnungsprozess wichtigen Kriterien, die grob in Aufwands- und Nutzenkriterien unterschieden werden. Die fünfstufige Bewertung in den Kreuzungspunkten der Matrix gibt Auskunft über den Grad der Kriterienerfüllung und ist Grundlage der eigentlichen Taxonomie. Diese greift über entsprechende Filter- und Auswahlfunktionen auf die Bewertungsmatrix zu und grenzt schrittweise die möglichen Methoden ein. Sucht der Anwender beispielsweise Methoden, die bei mittlerem Personal- und Zeitaufwand in der Durchführung eine durchschnittliche Datenquantität liefern, schlägt die Taxonomie eine Methodenkategorie vor, die zunächst eine strukturierte mündliche Befragung und die Multimomentanalyse als alternative Methoden beinhaltet. Wird als weiteres Kriterium eine hohe Datenqualität gewünscht, ist die Befragung weniger geeignet und die Taxonomie wird die Multimomentanalyse präferieren und vorschlagen. In [FKK05] wird eine Taxonomie für statistische Methoden speziell für den Einsatz im Methodennutzungsmodell entwickelt. Ineinandergreifend werden dabei
Komplexität des Verfahrens
Fehleranfälligkeit
Quantität
Qualität
Granularität
Komplexität der Daten
zusätzliche Informationen
Durchführung
Auswertung
2
3
3
1
2
5
1
2
2
3
3
2
3
2
3
2
2
4
4
3
4
3
2
5
1
2
2
3
3
3
2
2
4
4
4
unstrukturiert
5
5
5
5
5
5
2
5
1
2
3
3
5
5
1
2
4
5
5
Hilfsmittelbedarf
Auswertung
3
Auswertung
Vorbereitung
Vorbereitung
Auswertung
Durchführung
Vorbereitung
BetriebsDurchführung beeinflussung
Durchführung
3 4
Zeitaufwand
Vorbereitung
strukturiert teilstrukturiert
Personalaufwand
Beobachtung
Primärerhebung
Befragung
Methodenklassifikation
mündlich
Nutzbarkeit der erhobenen Daten
schriftlich
strukturiert
3
1
2
4
3
2
2
1
1
2
4
3
3
2
5
3
3
2
1
elektronisch
strukturiert
4
1
1
4
2
1
2
1
1
4
3
3
3
3
5
1
3
2
1
Laufzettelverfahren
3
2
1
2
3
1
2
4
1
2
2
3
1
4
4
4
4
1
1
Berichtsmethode
3
2
1
2
3
1
3
5
1
3
3
3
2
3
4
3
4
2
2
Zeitaufnahme
5
5
4
4
5
4
1
1
1
4
4
2
4
5
4
5
2
4
1
4
3
3
3
3
3
1
1
1
2
2
2
2
2
3
4
2
3
1
1
2
1
1
3
1
1
2
1
1
4
2
1
2
4
5
4
1
2
optische Dokumente
3
4
3
3
4
3
1
1
1
2
3
2
4
3
4
3
4
4
5
elektronische Dokumente
2
2
1
3
1
1
1
1
1
2
4
3
2
1
5
5
5
3
5
Selbstbeobachtung
Fremdbeobachtung Multimomentaufnahme Messen und Zählen
Dokumentenanalyse
Sekundärerhebung
Merkmalsausprägung 1 2 3
sehr niedrig niedrig
1 Methodennutzungsmodell zur Informationsgewinnung in großen Netzen der Logistik
Abb. 1.4
Aufwand der Informations- und Datenerhebung
durchschnittlich hoch
5
sehr hoch
9
4
10
D. Jodin et al.
die Aspekte „Information“, „Variablen-Symmetrie“ und „Daten-Input“ eingesetzt, um statistische Methoden zu klassifizieren. Primärer Zweck einer statistischen Datenanalyse ist die Erlangung bestimmter Informationen, dem durch den Klassifikationsfokus „Information“ Rechnung getragen wird. Der Fokus kann in Anlehnung an [BEP96] weiter differenziert werden nach Strukturerkennung, -modellierung und -überprüfung. Der Fokus „Variablen-Symmetrie“ dient der Unterscheidung von erklärenden Variablen und Zielvariablen. Die Art der Daten in Bezug auf Skalenniveau, Vollständigkeit etc. wird durch den Fokus „Daten-Input“ abgedeckt. Diese Klassifikationskriterien greifen insofern ineinander, dass die Aufgabe Informationen zu gewinnen eine übergeordnete Position einnimmt und zusammen mit der „Variablen-Symmetrie“ bereits zu einer Auswahl an statistischen Verfahren führt. Je nach Art des vorhandenen „Daten-Inputs“ findet dann eine weitere Eingrenzung der anwendbaren Verfahren statt. Zur Einordnung von Visualisierungsverfahren steht eine zweistufige Taxonomie zur Verfügung. Die Klassifikationskriterien aus generischer bzw. graphischer Sicht basieren auf Vorarbeiten des Fachausschusses „Simulation und Visualisierung“ des Fachbereichs A5 „Modellierung und Simulation“ des VDI-FML (Fördertechnik Materialfluss und Logistik) [Wen02, VDI03], der sich mit der Nutzung der Visualisierungsverfahren in der Simulation in Produktion und Logistik auseinandersetzt, und umfassen vor allem Kriterien der Computergraphik zur Bewertung eines Verfahrens. Diese Kriterien wurden bezüglich der Informationsgewinnung zur modellgestützten Analyse von Produktions- und Logistiksystemen angepasst und verallgemeinert. Die Taxonomie genügt dem Informationsbegriff und damit dem wissenschaftlichen Verständnis zur Informationsvisualisierung und trägt den Aspekten der graphischen Gestaltung, der visuellen Codierung von Information sowie der Präsentation und Interaktion Rechnung. In Ergänzung zu den Kriterien aus graphischer Sicht vervollständigen die Kriterien aus Informationssicht die Taxonomie für Visualisierungsverfahren. Als Basis zur Entwicklung der Taxonomie aus Informationssicht dienen verschiedene Arbeiten zur Klassifikation und Taxonomiebildung für Visualisierungsverfahren (vgl. z. B. [Chi00, Fri98, SMü00, PHP02]). Diese fokussieren allerdings maßgeblich eine Systematisierung aus Sicht der zu visualisierenden Daten. Begründet durch den Einsatz der Verfahren im Kontext der Informationsvisualisierung unterscheidet die hier vorgestellte Klassifizierung explizit zwischen Information und Daten (codierte Informationen): Die Taxonomie aus Informationssicht ist in Abb. 1.5 dargestellt. Eine ausführliche Beschreibung der Taxonomien findet sich in [WJB03, BDW05].
1.2.3
Methoden
Die Methodenebene als unterste und dritte Ebene des Methodennutzungsmodells dient dazu, die für die Informationsgewinnung in GNL einsetzbaren Methoden abzulegen. Hierzu zählen insbesondere Methoden des Informations- und Datenmanagements [Epp06, Kro06, Kuc05], der Statistik [Har05, BCK04, FHT96, BEP96] und der Visualisierung [FDF+94, Har99, SMü00].
Identifikation Lokalisierung
Korrelation
Assoziation
Vergleich
Art der darzustellenden Information
qualitativ
quantitativ
qualitativ und quantitativ
Informationsstruktur
unabhängig
relational
kreisförmig
hierarchisch
netzwerkartig
Messniveau
kein
nominal diskret
ordinal diskret
ordinal kontinuierlich
intervallskaliert diskret
Dimension der abhängigen Variablen
keine
1-D
2-D
3-D
n-D
Informationskodierung
Klassifizierung von Visualisierungsverfahren aus Informationssicht [BDW05]
Primäre Funktion
Struktur und Muster
intervallskaliert kontinuierlich
Gruppierung Klassifikation
verhältnisskaliert diskret
verhältnisskaliert kontinuierlich
1 Methodennutzungsmodell zur Informationsgewinnung in großen Netzen der Logistik
Abb. 1.5
Ausprägung
Kriterium
11
12
D. Jodin et al.
Über die Taxonomienebene kann dann auf diese Methoden zugegriffen werden. Dabei wird in der Regel nicht nur eine Methode angesprochen, sondern es wird eine Kategorie von Methoden bestimmt. Einerseits lassen sich hierzu Methoden mit ähnlichen Klassifizierungskriterien in Bezug auf eine Taxonomie zu typischen Methodenkategorien zusammenfassen. Andererseits liegen solche Methodenkategorien in der Regel bereits im entsprechenden Methodenbereich vor, wie z. B. die Faktoranalysemethoden oder die Regressionsverfahren in der Statistik. Die Taxonomien- und Methodenebenen unterstützen somit die Methodenauswahl, indem über sie eine geeignete Methodenkategorie bestimmt wird. Sie befreien letztendlich aber nicht davon, die individuelle Entscheidung selbst treffen zu müssen. So ist es zum Beispiel die Entscheidung des Anwenders, im Fall einer Befragung den hohen Personalaufwand einer mündlichen Befragung mit der Komplexität der zu erhebenden Daten zu begründen oder doch besser eine schriftliche Befragung mit höherer erfasster Datenmenge durchzuführen. Zur Unterstützung ist jede abgelegte Methode mit einer Kurzbeschreibung versehen, in der nach einem standardisierten Aufbau entscheidungsrelevante Informationen enthalten sind [HJR07]. Die einzelnen Methodenkategorien der Methodenebene werden über verschiedene Taxonomien angesprochen und finden in den unterschiedlichen Schritten des Vorgehensmodells ihre Anwendung. So kann z. B. eine bestimmte Visualisierungsmethode dazu geeignet sein, sowohl Informationen im Schritt der Erhebungsplanung als auch im Schritt der statistischen Datenanalyse darzustellen. Die Taxonomien- und Methodenebenen sind so aufgebaut, dass sie nicht nur klassische Methoden aus den unterschiedlichen Methodenbereichen beinhalten, sondern auch erweiterbar sind, um speziell für die Anforderungen im Rahmen von GNL entwickelte Methoden aufzunehmen. So ist zum Beispiel im Prozessschritt „Erhebungsplanung“ des Vorgehensmodells die aufgabenorientierte Eingrenzung der erhebungsrelevanten Daten effizienzsteigernd. [BHJ05, HHJ+07] entwickeln daher basierend auf neu definierten Basisprozessen eine Methode, mit der vermieden wird, für die aktuelle Fragestellung nicht relevante Daten bzw. Daten in einer unangemessenen Granularität oder Quantität zu erheben. Die verwendeten Basisprozesse „Ortswechsel“, „Liegen“ und „Behandlung“ sind die kleinsten, inhaltlich und strukturell beschriebenen Prozesseinheiten, die für die Modellierung verwendet werden können. Der Realprozess wird mittels Prozessketten dieser Basisprozesse nachgebildet, wobei unterschiedliche Konkretisierungsstufen wählbar sind. Den Basisprozessen sind stufenspezifisch standardisierte Datenbedarfe zugeordnet, so dass bei der abschließenden Auswertung die für die Modellierung des Prozesses in der gewünschten Konkretisierungsstufe notwendigen, zu erhebenden Daten aufgelistet werden. Häufig dient die Informationsgewinnung im Rahmen der Modellierung von GNL der Festlegung von Systemlastverteilungen. Innerhalb eines Simulationsmodells können Systemlasten gemäß einer ermittelten Verteilung simuliert werden. [SKK06] vergleichen hierzu den Einsatz der empirischen Verteilungsfunktion als Methode mit Verteilungen basierend auf robusten und nicht-robusten Parameterschätzern. [KSi09] untersuchen die Auswirkung von nicht zutreffenden Verteilungsannahmen bezüglich der Nachfrage nach Artikeln eines Lagers
1 Methodennutzungsmodell zur Informationsgewinnung in großen Netzen der Logistik
13
auf den erreichten Servicelevel und entwickeln aufbauend eine neue nichtparametrische Methode. Für die Visualisierung von umfassenden Daten im Kontext der Simulation sind einfache Verfahren z. T. nicht hinreichend, da unterschiedliche Zustandsgrößen im Zusammenhang erfasst werden müssen. Vor diesem Hintergrund sind in [BWe06] Verfahren zur Visualisierung mehrdimensionaler Ergebnisdaten entwickelt worden; in [BWW+07] werden verschiedene neue Visualisierungsverfahren für Logistiksysteme sowie deren Steuerungsinformationen vorgestellt, die auch auf Eingangsdaten für die Modellierung und Simulation übertragbar sind.
1.2.4
Metainformationsschicht
Die Metainformationsschicht innerhalb des Methodennutzungsmodells (siehe Abb. 1.1) verbindet das Vorgehensmodell mit den Taxonomien sowie den Methoden und Techniken. Sie gewährleistet die Prozessstabilität beim Wechsel zwischen den Ebenen des Methodennutzungsmodells sowie die Güte der ausgetauschten Daten und Informationen. Metainformationen sind beschreibende Informationen über Informationen, um diese einfacher und effektiver zugänglich zu machen und in ihnen gezielt zu navigieren [Bil99, DGü95]. Metainformationen enthalten typischerweise Angaben zur Datenquelle, zur Erhebungs- und Auswertungsmethode, zur Informations- und Datenqualität sowie Regeln zu ihrer Verwendung. Sie dienen generell der Interpretation der Originärdaten und damit der besseren Datennutzung, der Qualitätskontrolle und auch der besseren Verknüpfung der Originärdaten mit anderen Daten. Im Methodennutzungsmodell verbindet die Metainformationsschicht den gesamten Prozess von der Zieldefinition über die Erhebung und statistische Datenanalyse bis hin zur Bereitstellung der Eingangsdaten für die Modellierung von GNL, so dass der Prozess für den Anwender transparent und auch zu einem späteren Zeitpunkt nachvollziehbar ist. Wichtige Bewertungskriterien wie Qualität, Gültigkeit, Aktualität, Verantwortlichkeit und Quellen der Daten werden erfasst und über den gesamten Prozess der Informationsgewinnung fortgeschrieben. Zusätzlich sind ergänzende Kriterien für die Bildung von Informationskategorien – wie beispielsweise in Abb. 1.5 dargestellt – eingebunden und mit den Methodenkategorien zur kontextabhängigen Methodennutzung vernetzt. Die Vernetzung erfolgt hierbei zunächst separat entsprechend der Taxonomien für die Methoden. Darüber hinaus beinhaltet die Metainformationsschicht ebenfalls Kommunikations- und Steuerungsfunktionalitäten zur Anwendung der Methoden. Der Nutzer erhält hierdurch über alle Prozessschritte des Vorgehensmodells hinweg eine Unterstützung zur synergetischen Nutzung der Methoden unter Berücksichtigung der identifizierten Informationskategorien sowie möglicher Querverweise, Abhängigkeiten und Kausalzusammenhängen der Methoden- und Informationskategorien. Ziele sind die Bewertung und Fortschreibung der Informationsgüte als ergänzende Metainformation für die ermittelten Eingangsdaten (vgl. [BDW07]).
14
D. Jodin et al.
1.3 Anwendung des Methodennutzungsmodells Anhand einer Aufgabenstellung aus dem Bereich der Organisation und Lenkung des Frachtumschlags in einem Luftfrachtnetz (vgl. [SVö05]) werden nachfolgend exemplarisch konkrete Ausprägungen des Methodennutzungsmodells erläutert. Detaillierte Ausführungen zu diesem Anwendungsbeispiel sind in [BFe03, BBF+03] zu finden. Mittels Simulationen sollen die Beziehungen und Wechselwirkungen zwischen mehreren Flughäfen auf Frachtumschlagebene analysiert werden. Ziel ist es, den Einfluss und die Auswirkung von Parameteränderungen an einem der Hubknoten auf die jeweils anderen Knoten zu untersuchen. Hierbei steht die flughafenübergreifende Optimierung der standortinternen Umschlagaktivitäten hinsichtlich Kosten, Durchlaufzeiten und Ressourcenverbrauch im Vordergrund. Für die Modellbildung werden Informationen zum zeitpunktgeführten Frachtumschlag einzelner Sendungen für alle betrachteten Hubs benötigt. Diese oder eine ähnliche Zieldefinition steht gemäß dem Vorgehensmodell am Anfang des Informationsgewinnungsprozesses, ihr schließt sich die Informationsidentifikation an. Innerhalb einer Informationsbedarfsanalyse wird mittels einer Auflistung von Charakteristika der Sendungen (z. B. Startflughafen, Startzeitpunkt oder Gewicht), des Flugplans und der eingesetzten Flugzeugtypen der notwendige Informationsbedarf konkretisiert. Gleichzeitig werden Angaben wie Herkunft, Aktualität oder auch Glaubwürdigkeit der Informationen und Daten als Metainformationen abgelegt, so dass in späteren Prozessschritten darauf zurückgegriffen werden kann, z. B. um erhobene Daten hinsichtlich ihrer Nützlichkeit zu beurteilen. Dem Informationsbedarf steht das Informationsangebot gegenüber. So sind z. B. für einen ausgewählten Hub nur Informationen bezüglich der Sendungen für einen Carrier vorhanden. Zudem fehlen Informationen zum Startzeitpunkt einer Sendung, Informationen zur Abflugzeit am Startflughafen sind jedoch aus Flugplänen erhältlich. Ein Abgleich von Informationsbedarf und -angebot sowie eine Prüfung der Nutzbarkeit der Informationsquellen führen zu einer Beschreibung der potenziell nutzbaren Informationen. Die anschließende Informations- und Datenerhebung umfasst die Spezifikation der zu erhebenden Informationen aus den vorliegenden Informationsquellen sowie ggf. die Speicherung der relevanten Daten in einer separaten Datenbank. Im Anschluss liegen nutzbare Informationen mit assoziierten, digitalen Daten vor, die mittels spezifischer Aufbereitungsfunktionen in ein einheitliches Datenformat überführt und einer Fehlerbereinigung und Plausibilitätsprüfung unterzogen werden (Datenstrukturierung). Anhand des innerhalb des Vorgehensmodells dann folgenden Prozessschrittes „Statistische Datenanalyse“ soll beispielhaft das Zusammenspiel der verschiedenen Schichten des Methodennutzungsmodells genauer erläutert werden: Die zu Beginn der statistischen Datenanalyse vorliegenden nutzbaren Daten enthalten zum Beispiel eine Flugbewegungsdatenbank mit über 300 Flugzeugtypen. Entscheidend für die Modellierung von ankommenden und abfliegenden Flugzeugen ist jedoch vor
1 Methodennutzungsmodell zur Informationsgewinnung in großen Netzen der Logistik
15
allem die Frachtkapazität, die durch die vorliegenden Informationen zum Frachtgewicht, zu Gepäck- und Postgewichtsdaten und zu der Anzahl der Passagiere abbildbar ist. Anhand dieser Kenngrößen werden daher die Flugzeugtypen zu Gruppen mit vergleichbarer Frachtkapazität zusammengefasst. Hierzu ist die Wahl einer geeigneten statistischen Methode über die Taxonomieebene erforderlich. Neben der Festlegung der zu ermittelnden Information („Zusammenfassung von Objekten in Ähnlichkeitsklassen“) beinhaltet die verwendete Taxonomie statistischer Methoden noch die Beschreibung der Variablen-Symmetrie (hier: „gleichwertige/ symmetrische Behandlung aller Variablen“) und des Skalenniveaus („kardinal“ für das Frachtgewicht und „ordinal“ für die Anzahl der Passagiere). Eine entsprechende Abfrage über die Taxonomieebene liefert Methoden der Clusteranalyse, aus denen eine anhand der auf der Methodenebene begleitend abgelegten Informationen ausgewählt wird. In diesem Anwendungsfall wird aufgrund der Vielzahl an fehlenden oder unplausiblen Datenwerten das robuste Klassifizierungsverfahren CLARA [KRo90] bevorzugt. Um die Ergebnisse der Analyse anhand einer graphischen Darstellung zu verdeutlichen und durch den Fachexperten zu validieren, werden in diesem Beispiel über die Methodentaxonomie für Visualisierungsverfahren dreidimensionale Punktwolken als geeignetes Visualisierungsverfahren ermittelt. Im Anschluss wird die Wahrscheinlichkeitsverteilung des Auftretens der so gebildeten Frachtkapazitätsgruppen als potenziell nutzbares Eingangsdatum für die Simulation geschätzt. Innerhalb des letzten Prozessschrittes des Vorgehensmodells findet die abschließende Validierung statt. Liegt zu diesem Zeitpunkt bereits ein experimentierbares Modell vor, können auch Simulationsläufe mit Erzeugung von Frachtkapazitäten zur Validierung herangezogen werden. Sollten sich innerhalb der abschließenden Validierung die gewählten Frachtklassen als zu grob herausstellen, ist es denkbar, sowohl den Schritt der statistischen Datenanalyse zu wiederholen, als auch bereits mittels der abgelegten Metainformationen zur durchgeführten Clusteranalyse eine feinere Gruppeneinteilung auszuwählen. Zum Abschluss der Informationsgewinnung liegen die als nutzbare Eingangsdaten geeigneten Frachtklassen mit zugehörigen geschätzten Auftretenswahrscheinlichkeiten vor.
1.4 Ausblick Das vorgestellte Methodennutzungsmodell ermöglicht ein strukturiertes Vorgehen bei der Informationsgewinnung im Rahmen der Modellierung von GNL. Besonders hervorzuheben sind dabei die disziplinübergreifende Nutzung von Methoden in den einzelnen Schritten des Vorgehensmodells zur Informationsgewinnung und die Schaffung einer konzeptionellen Basis für eine durchgängige Bewertung der Informationsgüte im Beschaffungsprozess. Die Zusammenführung, Klassifikation und Einbindung relevanter Erhebungs-, Statistik- und Visualisierungsmethoden in das vorgestellte Methodennutzungsmodell
16
D. Jodin et al.
unterstützt den Anwender, strukturiert den Prozess und stellt die für die Anwendung jeweils geeigneten Methoden zielorientiert zur Verfügung. Das Methodennutzungsmodell ist allerdings in seiner Anwendung nicht als einmalig festgelegte Implementierung zu verstehen, sondern muss vielmehr kontinuierlich anhand von Praxisanwendungen ausgebaut werden. Insbesondere die Methodenschicht lässt sich aufgrund der Vielfalt von existierenden Methoden kaum vollständig entwickeln. Sie erfordert vielmehr die kontinuierliche Ergänzung oder auch Entfernung von Methoden und orientiert sich sowohl an neuen Praxisanforderungen als auch an der wissenschaftlichen Entwicklung von Methoden. Unter dem Internetauftritt des Sonderforschungsbereichs 559 „Modellierung großer Netze in der Logistik“ (http://www.sfb559.uni-dortmund.de) ist eine Handlungsanleitung für ein vollständiges Vorgehensmodell zur Informationsgewinnung bei der Modellierung von GNL zu finden. Das Konzept des Methodennutzungsmodells lässt sich aufgrund seiner Allgemeingültigkeit problemlos auf andere Anwendungen in Produktion und Logistik übertragen.
Literatur [BBF+03] Baum N, Bernhard J, Fender T, Hömberg K, Wenzel S, Clausen U, Frye H, Quick A, Sieke H (2003) Kooperation A5, M9 – Simulation des Frachtumschlages im Flugverkehrsnetz. Technical Report – Sonderforschungsbereich 559 „Modellierung großer Netze in der Logistik“ 03003, ISSN 1612-1376 [BCK04] Burkschat M, Cramer E, Kamps U (2004) Beschreibende Statistik – Grundlegende Methoden. Springer, Berlin [BDW05] Bernhard J, Dragan M, Wenzel S (2005) Evaluation und Erweiterung der Kriterien zur Klassifizierung von Visualisierungsverfahren für GNL. Technical Report – Sonderforschungsbereich 559 „Modellierung großer Netze in der Logistik“ 05001, ISSN 1612-1376 [BDW07] Bernhard J, Dragan M, Wenzel S (2007) Bewertung der Informationsgüte für die Informationsgewinnung in der modellgestützten Analyse großer Netze der Logistik. Technical Report – Sonderforschungsbereich 559 „Modellierung großer Netze in der Logistik“ 07006, ISSN 1612-1376 [BEP96] Backhaus K, Erichson B, Plinke W, Weiber R (1996) Multivariate Analysemethoden – Eine anwendungsorientierte Einführung, 8. Aufl. Springer, Berlin [BFe03] Bernhard J, Fender T (2003) Experimentelle Anwendung statistischer Verfahren und Visualisierungsmethoden zur Gewinnung ausgesuchter Eingangsdaten im Kontext von GNL. Technical Report – Sonderforschungsbereich 559 „Modellierung großer Netze in der Logistik“ 03014, ISSN 1612-1376 [BHJ05] Bernhard J, Hömberg K, Jodin D (2005) Standardprozesse als Grundlage für die Informationsbedarfsanalyse zur Modellierung von Großen Netzen der Logistik. In: Universität Magdeburg (Hrsg) Magdeburger Schriftenreihe zur Logistik, Logistikprozesse entwerfen, führen, bewerten. Nr 21, S 3–14 [BHK+07] Bernhard J, Hömberg K, Jodin D, Kuhnt S, Schürmann C, Wenzel S (2007) Vorgehensmodell zur Informationsgewinnung – Prozessschritte und Methodennutzung. Technical Report – Sonderforschungsbereich 559 „Modellierung großer Netze in der Logistik“ 06008, ISSN 1612-1376 [Bil99] Bill R (1999) Grundlagen der Geo-Informationssysteme. Analysen, Anwendungen und neue Entwicklungen, Bd 2, 2. Aufl. Wichmann Verlag, Heidelberg
1 Methodennutzungsmodell zur Informationsgewinnung in großen Netzen der Logistik
17
[Bon01] Bonn B, van (2001) Konzeption einer erweiterten Distributionsmethodik mittels standardisierter Geographiedatenmodelle. Dissertation, Universität Dortmund, Fakultät Maschinenbau. In: Jünemann R (Hrsg) Reihe Logistik für die Praxis. Verlag Praxiswissen, Dortmund [BWe06] Bockel B, Wenzel S (2006) Visualisierung von zeitabhängigen mehrdimensionalen Ergebnisdaten in der Materialflusssimulation. In: Wenzel S (Hrsg) Simulation in Produktion und Logistik 2006, Tagungsband zur 12. ASIM-Fachtagung in Kassel, Society for Modeling and Simulation International, SCS Publishing House e.V., Erlangen, 26.–27. September 2006, S 371–380 [BWW+07] Bockel B, Wenzel S, Wannagat A, Pantförder D, Vogel-Heuser B (2007) Development and application of visualisation techniques for logistics systems. IFAC Workshop on Manufacturing, Modelling, Management and Control, Budapest, 14.–16. November 2007, pp 14–16 [Chi00] Chi EH (2000) A taxonomy of visualization techniques using the data state reference model. In: Proc. of the IEEE Symposium on Information Visualization, pp 69–75 [Cop02] Coppi R (2002) A theoretical framework for data mining: The „Informational Paradigm“. Comput Stat Data Anal 38(4):501–515 [DGJ+02] Dunemann O, Geist I, Jesse R, Saake G, Sattler KU (2002) Informationsfusion auf heterogenen Datenbeständen. Inform Forsch Entwickl 17(3):112–122 [DGü95] Denzer R, Güttler R (1995) Integration von Umweltdaten. In: Page B, Hilty LM (Hrsg) Umweltinformatik – Informatikmethoden für Umweltschutz und Umweltforschung, 2. Aufl. R. Oldenbourg Verlag, München, S 165–189 [DPr98] Davenport TH, Prusak L (1998) Wenn Ihr Unternehmen wüsste, was es alles weiß. Das Praxishandbuch zum Wissensmanagement. Verlag Moderne Industrie, Landsberg/Lech [Epp06] Eppler MJ (2006) Managing information quality. Springer, Berlin [FDF+94] Foley JD, van Dam A, Feiner SK, Hughes JF, Phillips RL (1994) Grundlagen der Computergraphik – Einführung, Konzepte, Methoden. Addison-Wesley, Bonn [FHT96] Fahrmeir L, Hamerle A, Tutz G (1996) Multivariate statistische Verfahren, 2. Aufl. de Gruyter, Berlin [FKK05] Fender T, Kuhnt S, Krampe A (2005) Kriterien für die Kategorisierung statistischer Methoden im Rahmen eines Methodennutzungsmodells zur Informationsgewinnung in GNL. Technical Report – Sonderforschungsbereich 559 „Modellierung großer Netze in der Logistik“ 05005, ISSN 1612-1376 [Fri98] Frick A (1998) Visualisierung von Programmabläufen. Fortschritt-Berichte VDI, Reihe 10, No 561 [Fri01] Friedmann JH (2001) The role of statistics in the data revolution. Int Stat Rev 69(1):5–10 [FRZ03] Feldmann K, Reinhart G, Zäh M (2003) Bayerischer Forschungsverbund Simulationstechnik (FORSIM). Simulationsbasierte Werkzeuge für die Produktionstechnik. Abschlussbericht 2000–2003. Gruner Druck GmbH, Erlangen [Har99] Harris RL (1999) Information graphics. A comprehensive illustrated reference. Visual tools for analyzing, managing, and communicating. University Press, Oxford [Har05] Hartung J (2005) Statistik, Lehrbuch-Handbuch der angewandten Statistik, 14. Aufl. R. Oldenburger Verlag, München [HHJ+07] Hömberg K, Hustadt J, Jodin D, Kochsiek J, Nagel L, Riha I (2007) Basisprozesse für die Modellierung in großen Netzen der Logistik. SFB 559 „Modellierung [HJL04] Hömberg K, Jodin D, Leppin M (2004) Methoden der Informations- und Datenerhebung. Technical Report – Sonderforschungsbereich 559 „Modellierung großer Netze in der Logistik“ 04002, Dortmund, ISSN 1612-1376 [HJR07] Hömberg. K, Jodin D; Reineke T (2007) Bewertung und Kategorisierung der Datenerhebungsmethoden. Technical Report – Sonderforschungsbereich 559 „Modellierung großer Netze in der Logistik“ 07005, Dortmund, ISSN 1612-1376 [HTF01] Hastie T, Tibshirani R, Friedman J (2001) The elements of statistical learning. Data mining, inference, and prediction. Springer, New York [JMa05] Jodin D, Mayer A (2005) Automatisierte Methoden und Systeme der Datenerhebung. Sonderforschungsbereich 559 „Modellierung großer Netze in der Logistik“ Technical Report 05004, Dortmund, ISSN 1612-1376
18
D. Jodin et al.
[KRo90] Kaufman L, Rousseeuw PJ (1990) Finding groups in data: An introduction to cluster analysis. Wiley, New York [Kro06] Kromrey H (2006) Empirische Sozialforschung – Modelle und Methoden der standardisierten Datenerhebung und Datenauswertung, Bd 1040, 11. Aufl. UTB, Stuttgart [KSi09] Kuhnt S, Sieben W (ist im Logistics Journal eingereicht) The effect of demand distributions on the performance of inventory policies [KSW02] Kahn B, Strong D, Wang R (2002) Information quality benchmarks. Commun ACM 45(4):184–192 [Kuc05] Kuckartz U (2005) Einführung in die computergestützte Analyse qualitativer Daten, Lehrbuch VS Verlag für Sozialwiss., Wiesbaden [Kuh95] Kuhn A (1995) Prozessketten in der Logistik – Entwicklungstrends und Umsetzungsstrategien. Verlag Praxiswissen, Dortmund [Law07] Law AM (2007) Simulation modeling and analysis, 4 edn. McGraw-Hill, Boston [Mül92] Müller A (1992) Informationsbeschaffung in Entscheidungssituationen. Dissertation, Universität Hohenheim, Schriftenreihe Wirtschafts- und Sozialwissenschaften, Bd 5. Verlag Wissenschaft & Praxis, Berlin [NTa97] Nonaka I, Takeuchi H (1997) Die Organisation des Wissens. Campus Verlag, Frankfurt [PHP02] Pfitzner D, Hobbs V, Powers D (2002) An unified taxonomic framework for information visualization. In: Proc. Australian Symposium on Information Visualization, Adelaide, Australia, S 57–66 [Rob04] Robinson S (2004) Simulation: The practice of model development and use. Wiley, Chichester [RSW08] Rabe M, Spieckermann S, Wenzel S (2008) Verifikation und Validierung für die Simulation in Produktion und Logistik – Vorgehensmodelle und Techniken. Springer, Berlin [SKK06] Schürmann C, Kuhnt S, Krampe A (2006) Modelling system load for simulation in logistics. In: Wenzel S (Hrsg) Simulation in Produktion und Logistik 2006, Tagungsband zur 12. Fachtagung in Kassel, Society for Modeling and Simulation International, SCS Publishing House e.V., Erlangen, 26.–27. September 2006, pp 125–132 [SMü00] Schumann H, Müller W (2000) Visualisierung – Grundlagen und allgemeine Methoden. Springer, Berlin [SVö05] Sieke H, Völker M (2005) Process-oriented simulation of air cargo flows within an airport network. In: Hülsemann F, Kowarschik M, Rüde U (Hrsg) Simulationstechnique 18th Symposium in Erlangen, Frontiers in Simulation, Society for Modeling and Simulation International, SCS Publishing House e.V., Erlangen, Erlangen, S 248–253 [SWe97] Storch V, Welsch U (1997) Systematische Zoologie. Springer, Berlin [VDI03] VDI 3633 Blatt 11 (2003) Simulation und Visualisierung. Gründdruck. VDI-Handbuch Materialfluss und Fördertechnik, 8. Aufl. Verein Deutscher Ingenieure, Düsseldorf, Beuth Verlag, Berlin [VDI08] VDI 3633 Blatt 1 (2008) Simulation von Logistik-, Materialfluss- und Produktionssystemen. Verein Deutscher Ingenieure, Düsseldorf, Beuth Verlag, Berlin [VGu01] Voß S, Guttenschwager K (2001) Informationsmanagement. Springer, Berlin [WBe08] Wenzel S, Bernhard J (2008) Definition und Modellierung von Systemlasten für die Simulation logistischer Systeme. In: Nyhuis P (Hrsg) Beiträge zu einer Theorie der Logistik. Springer, Berlin, S 487–509 [Wen02] Wenzel S (2002) VDI 3633, Blatt 11 Simulation und Visualisierung – Ein Statusbericht. In: Tavangarian D, Grützner R (Hrsg) Tagungsband zum 16. Symposium ASIM 2002 Simulationstechnik, Rostock, Fortschrittsberichte Simulation, Frontiers in Simulation, SCS-Europe BVBA, Ghent, S 492–497 [Wey01] Weyerke M (2001) Entwicklung eines rechnergestützten, benutzerorientierten Systems zur Informationsgewinnung in Produktionsunternehmen. Reihe VDI: Fortschritt-Berichte 16, Nr 134, VDI Verlag, Düsseldorf [WJB03] Wenzel S, Jessen U, Bernhard J (2003) A taxonomy of visualization techniques for simulation in production and logistics. In: Chick S, Sánchez PJ, Ferrin D, Morrice DJ (eds) Proceedings of the 2003 Winter Simulation Conference, New Orleans, 7–10 December 2003, pp 729–736
Kapitel 2
ProC/B: Eine Modellierungsumgebung zur prozessketten-orientierten Beschreibung und Analyse logistischer Netze Falko Bause, Heinz Beilner und Jan Kriege
2.1
Einleitung
Heutige Logistik-Systeme und -Netze sind menschgeschaffene („künstliche“) Systeme beträchtlicher Größe und Komplexität. Entwurf, Realisierung, Betrieb komplexer künstlicher Systeme (nicht nur des Logistik-Bereichs) sind ohne Einsatz geeigneter Beschreibungen, geeigneter „Modelle“, kaum vorstellbar: Beschreibungen/Modelle betrachteter Teilsysteme und Systeme sind Grundlage der Kommunikation und kritischen Diskussion von Realisierungs-Vorschlägen und -Varianten, sind Mittel der Fixierung und Weitergabe getroffener Entscheidungen. Zu dieser – wesentlichen – „deskriptiven“ Rolle von Beschreibungen/Modellen gesellt sich ihre Rolle als Ausgangspunkt „analytischer“ Betrachtungen, in deren Rahmen Untersuchungen von Systemeigenschaften (wie etwa von Korrektheit, Effektivität, Effizienz, Kosten, u. a. m.) bereits anhand eines beschreibenden Modells und nicht erst anhand des de fakto realisierten Systems – angestrebt und durchgeführt werden. Vielerlei Formen von Beschreibungen/Modellen komplexer künstlicher Systeme existieren und sind in Gebrauch – nicht verwunderlich angesichts des breiten Rollenspektrums solcher Modelle. Sie überdecken den gesamten Bereich von informellen, verbalen Formen bis hin zu streng formalisierten, mathematischen Formen. Es ist zu beobachten, und nahe liegend, dass Beschreibungen/Modelle für deskriptive Zwecke vorwiegend geringere Formalisierungsgrade aufweisen als Modelle für analytische Zwecke, wobei allerdings völlig informelle oder rein verbale Systembeschreibungen angesichts ihrer naturgegebenen Missverständlichkeit und potentiellen Mehrdeutigkeit nicht den Anforderungen an brauchbare deskriptive Modelle genügen können. Vielmehr ist zu deskriptiven Zwecken typischerweise, oft im Rahmen und als Bestandteil einer einschlägigen „Entwurfsdisziplin“, ein spezifisches Geflecht von Begrifflichkeiten, Verabredungen, textuellen und graphischen DarstelF. Bause ( ) Technische Universität Dortmund, Fakultät für Infomatik, Informatik IV August-Schmidt-Str.12, 44227 Dortmund, Deutschland E-mail:
[email protected] P. Buchholz und U. Clausen (Hrsg.), Große Netze der Logistik, DOI 10.1007/978-3-540-71048-6_2, © Springer-Verlag Berlin Heidelberg 2009
19
20
F. Bause et al.
lungselementen im Gebrauch, eine auf den jeweiligen Anwendungsbereich zugeschnittene, wohldefinierte (nicht notwendig streng formalisierte) „Modellwelt“. Ein solches „Modellierungsparadigma“ verspricht, im Kreis kooperierender Ingenieure und Fachleute, generelle Verständlichkeit und weitgehende Eindeutigkeit vorliegender Systembeschreibungen. Im hier gegebenen Kontext der Logistik-Systeme und Netze stellt das „Prozesskettenparadigma“ nach Kuhn et al. [Kuh95, Kuh99] eine derartige, häufig und erfolgreich eingesetzte Modellwelt dar. Modelle, die zum Zweck der (modellgestützten) Analyse erstellt werden, bedürfen i. Allg. eines höheren Formalisierungsgrades. Sie sind in ihrer Form vornehmlich auf die konkret einzusetzende Analysetechnik ausgerichtet, wo die Wahl letzterer wiederum vom Analyseziel (von der „interessierenden Systemeigenschaft“) bestimmt ist. Geht es um statische Optimierungsprobleme, welche den Techniken (und damit Modellbeschreibungen) des Operations Research zugeführt werden sollen? Um Fragen der Korrektheit, Widerspruchsfreiheit, Vollständigkeit, die Techniken der formalen Logik benötigen? Um die Bestimmung von Ressourcen-Dimensionierungen und -Auslastungen, Systemdurchsatz, Termintreue, welche mittels Techniken der Verfolgung/Beurteilung dynamischer Abläufe zu untersuchen sind? Mit gleichzeitigem Interesse an beiden „Rollen“ von Modellen, sowohl als Mittel deskriptiver Systembeschreibung als auch als Grundlage analytischer Untersuchungen, entsteht ein (als geradezu typisch zu bezeichnendes) Dilemma: Wo deskriptive Modellierungsparadigmen auf hohe Verständlichkeit im konkreten Anwendungsbereich angewiesen sind, ihre Begrifflichkeiten und Beschreibungsmittel daher weitestgehend auf die Begriffswelt von Fachleuten dieses Anwendungsbereichs abgestimmt sein sollten, sind formal analysierbare Modelle in ihren Begrifflichkeiten und Beschreibungsmitteln vorrangig auf spezifische Analysetechniken ausgerichtet, daher nicht auf konkrete Anwendungsbereiche und deren Begriffswelten abgestimmt und für Fachleute des Anwendungsbereichs nicht notwendig verständlich. Eine „händische“ Übersetzung wird in der Regel nötig, vom verständlichen deskriptiven Modell in ein (oder mehrere verschiedene) formal analysierbare Modelle. Nachteile dieser Notwendigkeit liegen auf der Hand: Die „Identität“ von deskriptivem und analysierbarem Modell lässt sich bei manuellen Übersetzungsvorgängen nicht absichern; wo, wie oft praktiziert, der Übersetzungsvorgang nicht in Händen des Anwendungsfachmanns liegt, sondern in denen eines Spezialisten der benötigten Analysetechnik, verstärkt sich diese Gefahr nochmals deutlich. Wieder im hier gegebenen Kontext der Logistik-Systeme und -Netze: Ist ein in Planung befindliches Logistik-System einmal (übersichtlich und verständlich) mit den graphischen und textuellen Ausdrucksmitteln des Kuhn’schen Prozesskettenparadigmas beschrieben, und besteht ein Interesse etwa an Ressourcendimensionierung und Termineinhaltung (so dass eine Analyse der definierten dynamischen Abläufe erforderlich wird), und ist als Analysetechnik (wie üblich, obgleich nicht zwingend) die ereignisorientierte Simulation ausgewählt, dann muss das Prozesskettenmodell zunächst händisch in eine konkrete Simulationssprache (wie z. B. Simula [Poo87]), bzw. in die graphisch/textuellen Notationen einer konkreten Simulationsumgebung (z. B. Dosimis, Arena [KSS03]) übersetzt werden.
2 ProC/B
21
Die Modellierungsumgebung „ProC/B“ wurde mit dem Ziel entworfen und realisiert, das beschriebene „Dilemma“ zwischen einerseits verständlichen (aber nicht unmittelbar analysierbaren) und andererseits formal analysierbaren (aber nicht allgemein verständlichen) Modellbeschreibungen zu mildern. ProC/ B konzentriert sich auf Modelle, die eine Beurteilung und Bewertung dynamischer Abläufe anstreben. Beschreibungstechnisch nutzt ProC/B den hierfür relevanten Ausschnitt des Kuhn’schen Prozesskettenparadigmas, analyseseitig werden eine Reihe existierender Techniken zur Untersuchung „ereignisorientierter Systeme“ (DEDSs: Discrete Event Dynamic Systems) eingebunden. Automatisch ablaufende Übersetzungsvorgänge übertragen die Modelle des Prozesskettenparadigmas in die spezifischen Modellwelten der formalen DEDS-Techniken und „verbergen“ diese vor dem Benutzer der Modellierungsumgebung. Um diese automatische Übersetzung zu ermöglichen, war es allerdings erforderlich, das ursprüngliche (deskriptive) Prozesskettenparadigma zu präzisieren und als sog. „ProC/B-Paradigma“ [BBF+02] eindeutig zu definieren. Dieser Beitrag führt in die Modellierung und modellgestützte Analyse von Logistik-Systemen mittels des ProC/B-Instrumentariums ein. Kapitel 2.2 bietet einen ersten Überblick über die ProC/B-Notation, analysiert erste Beispielmodelle und kommentiert die gewonnen Resultate. Kapitel 2.3 skizziert Grundlagen der einsetzbaren, in ProC/B zugreifbaren Analysetechniken. Die Beispiele des Kap. 2.2 werden in Kap. 2.4 in verschiedener praxisorientierter Hinsicht erweitert und ihre Analyse fortgeführt.
2.2
ProC/B-Modelle
Prozessketten [Kuh95] bieten eine semiformale Notationsmöglichkeit, um (unter anderem) das für eine Leistungsbewertung relevante dynamische Verhalten zu erfassen. Eine Prozesskette beschreibt die einzelnen Aktivitäten einer Klasse von Prozessen und deutet den zeitlichen Ablauf durch Verknüpfung dieser Aktivitäten an. Abbildung 2.1 zeigt ein Beispiel einer solchen Prozessketten-Beschreibung. Prozesse werden an einer Quelle generiert, führen eine Reihe von Aktivitäten aus und terminieren abschließend an einer Senke. Eine einzelne Aktivität wird durch ein Prozesskettenelement (PKE) beschrieben, und alternative Abläufe (vgl. Abb. 2.2), sowie parallel stattfindende Aktivitäten (vgl. Abb. 2.8) können mittels ODER- bzw. UND-Konnektoren dargestellt werden. Typischerweise beeinflussen sich die Aktivitäten in einem logistischen Netz dadurch, dass zu ihrer Durchführung nur eine begrenzte, oft knappe Anzahl an Ressourcen verfügbar ist bzw. zur Verfügung gestellt werden soll, um die damit verbundenen Kosten niedrig zu halten. Speziell bei Planungsfragen ist daher die Dimensionierung von Ressourcen ein zentraler Untersuchungspunkt. Konkrete Antworten lassen sich auf Basis von Prozessketten-Beschreibungen, ähnlich der in Abb. 2.1 dargestellten, allerdings nur mit viel Erfahrungswissen, zusätzlicher Information und zusätzlichem Aufwand ableiten. Wie einleitend angesprochen, wurde ProC/B
22
F. Bause et al. Fork
parallele Aktivitäten
Join
alternative Aktivitäten Senke
Quelle
Aktivitaten
Prozesskettenelement (PKE)
Abb. 2.1 Eine semiformale Prozessketten-Beschreibung
mit dem Ziel entwickelt, diese Probleme abzumildern. Die grundlegende Idee ist, Teile des Prozessketten-Paradigmas [Kuh95, Kuh99] so zu präzisieren, dass zum einen der Anwender eine vertraute Notationsmöglichkeit vorfindet und zum anderen die Option zu einer automatisierten Analyse besteht [BBT04]. Im Folgenden werden wir schrittweise in Details des ProC/B-Paradigma einführen. Als Anwendung wird ein Güterverkehrszentrum (GVZ) betrachtet. Die durch Lkws und Züge angelieferten Güter werden in einem KV-Terminal (KV = kombinierter Verkehr) bzw. einer Stückgut-Umschlaghalle (SUH) auf andere Verkehrsträger umgeschlagen oder zwischengelagert. Wir nehmen an, dass wir uns in der Planungsphase befinden, dass anfangs grobe Richtwerte für die Durchlaufzeiten von Lkws und Zügen bekannt seien, und dass wir eine Dimensionierung der Ressourcen vornehmen möchten. Ein einfaches ProC/B-Modell des GVZ zeigt Abb. 2.2. Ein ProC/B-Modell besteht grundsätzlich aus zwei Bereichen. Einem Bereich, in dem das Verhalten des Modells durch Angabe einer oder mehrerer Prozessketten (PKs) beschrieben wird und einem Bereich, der die Struktur des Modells in Form von so genannten Funktionseinheiten definiert. Funktionseinheiten (FEs) können ein oder mehrere Dienste anbieten, die in den Prozessketten zur Durchführung einer Aktivität genutzt werden können. Das Modell in Abb. 2.2 besitzt zwei FEs: KV_Terminal und SUH. Beide FEs sind Standard-Funktionseinheiten, auch Basis-Funktionseinheiten genannt, welche ein vordefiniertes internes Verhalten aufweisen. Sie bieten jeweils einen Dienst request an und arbeiten einen Dienstaufruf ähnlich einer Bedienstation ab. Je nach Bediendisziplin entstehen dadurch Wartesituationen für die aufrufenden Prozesse. Die in Abb. 2.2 dargestellten FEs KV_Terminal und SUH bedienen gemäß der Disziplin IS (Infinite Server), welche für jede Anfrage einen eigenen Bediener zur Verfügung stellt, so dass keine Wartesituationen entstehen. Die Wahl einer solchen Bediendisziplin ist beispielsweise dann sinnvoll, wenn Durchlaufzeiten (ungefähr) bekannt sind und bestimmt werden soll, wie viele anfragende Prozesse sich im Mittel zeitgleich in der FE befinden, um entsprechende
2 ProC/B
23
GVZ
0.5
0.2 1
KV_Umschlag (600) KV_Terminal. request
fahren (480.0) DELAY
S_Umschlag (960) SUH. request
S_Umschlag (960) SUH. request
fahren (480.0) DELAY
KV_Umschlag (600) KV_Terminal. request
LKW ()
EVERY negexp(1.0/360.0)
0.2
0.1
1
S_Umschlag (960) SUH. request
Zug ()
EVERY negexp(1.0/3600.0)
KV_Umschlag (600) KV_Terminal. request
KV_Umschlag (10140) KV_Terminal. request
DIS=IS
DIS=IS
KV_Terminal request (amount:REAL)
SUH request (amount:REAL)
Abb. 2.2 Beispiel eines flachen ProC/B-Modells
Ressourcen einzuplanen. In einem GVZ müssen z. B. Flächen für Lkws und Züge bereitgestellt werden. Verhalten im GVZ-Modell aus Abb. 2.2 wird durch die Prozessketten Lkw und Zug definiert. Einer der Vorteile von ProC/B und Prozessketten im Allgemeinen ist, dass sie Verhalten graphisch beschreiben, wodurch das Modell für den Anwender leichter verständlich ist. Züge in Abb. 2.2 führen beispielsweise nur eine Aktivität (KV_Umschlag) durch, bevor sie an der Senke terminieren. Lkws weisen unterschiedliche Verhaltensweisen auf, welche probabilistisch (spezifiziert durch einen ODER-Konnektor) ausgewählt werden. Mit Wahrscheinlichkeit 0,5 erfolgt beispielsweise ein Stückgut-Umschlag in der FE SUH und mit Wahrscheinlichkeit 0,2 wird ein Lkw erst die Aktivität KV_Umschlag (durch Aufruf des Dienstes request der FE KV_Terminal) ausführen, gefolgt von der Aktivität fahren (welche als Verzögerung modelliert ist) und abschließendem Stückgut-Umschlag in der FE SUH.
24
F. Bause et al.
Tabelle 2.1 Ergebnisse für das Modell aus Abb. 2.2 SUH Lkw KV_Terminal Lkw KV_Terminal Zug
Bestand N
Durchlaufzeit T
Durchsatz D
2,4 0,834 2,819
960 600 10.140
0,0025 0,00139 0,000278
Alle Aktivitäten in Abb. 2.2 sind parametrisiert. Die Aktivität fahren ist beispielsweise eine Verzögerung, welche 480 Zeiteinheiten (ZE) dauert.1 Die Aktivität S_ Umschlag ruft den Dienst request der FE SUH mit dem Wert 960 auf, welches im Kontext dieser Funktionseinheit bedeutet, dass der aufrufende Prozess einen Bedienbedarf von 960 ZE hat. Für den Spezialfall der IS Bedienstrategie entspricht dies der Durchlaufzeit. Prozesse der Prozessketten Lkw und Zug werden durch Quellen erzeugt. Die Spezifikation erfolgt durch Angabe der Zwischenankunftszeiten und der Anzahl der zu erzeugenden Prozesse. So wird z. B. ein Lkw gemäß einer Exponentialverteilung mit Rate 1/360, also im Mittel alle 360 ZE erzeugt. Das vorliegende ProC/B-Modell gehört einer speziellen Klasse von Modellen an, da es sich auf ein so genanntes Produktform-Warteschlangennetz abbilden lässt. Produktform-Warteschlangennetze (Product Form Queueing Networks; PQNs) bieten zwei wesentliche Vorteile: Zum einen existieren sehr effiziente Analysealgorithmen, zum anderen können exakte Ergebnisse ermittelt werden und nicht nur statistische, also mit einer gewissen Unsicherheit behaftete Ergebnisse. Kapitel 2.3 wird ausführlicher auf PQNs eingehen. Die Analyse mittels PQN-Verfahren erfordert für das Modell aus Abb. 2.2 weniger als eine hundertstel CPU-Sekunde auf durchschnittlich ausgestatteten Rechensystemen (z. B. einer Sun Blade 100, 500 MHz, 2 GB RAM). Die zugehörigen Ergebnisse sind in Tabelle 2.1 aufgeführt. Aufgrund der IS Bediendisziplin entsprechen die mittleren Durchlaufzeiten T erwartungsgemäß den bei den Dienstaufrufen angegebenen Parametern. Die Ergebnisse für die FE KV_Terminal sind geschlüsselt nach den das Terminal nutzenden Prozessketten. Erwartungsgemäß entsprechen die mittleren Durchsätze für die Züge 1/3.600 und die der Lkws in der FE SUH 0,9/360, da durchschnittlich 90% aller ankommenden Lkws die Stückgut-Umschlaghalle aufsuchen, wohingegen nur 50% zum KV-Terminal fahren, so dass sich hier ein Durchsatz von 0,5/360 ergibt. Hinsichtlich einer Dimensionierung geben die errechneten mittleren Bestände an Verkehrsträgern einen ersten Hinweis auf die zur Verfügung zu stellenden Flächen, z. B. in Form von Gleisen oder Parkplätzen. Da nach Bediendisziplin IS bedient wird, sind die Bestände eine untere Schranke für die Anzahl im Mittel gleichzeitig vorhandener Verkehrsträger: Selbst wenn jeder ankommende Lkw ohne Verzögerung bedient, also ent- und beladen wird, befinden sich im Mittel 2,4 Lkws gleichzeitig in der Stückgut-Umschlaghalle. Selbstverständlich wird in der Praxis nicht jeder Lkw sofort bedient werden können, sondern die Bedienkapazität der Stück1
In allen Modellen entspricht hier 1 ZE = 1 Sekunde.
2 ProC/B
25
GVZ
0.5
0.2 1
EVERY negexp(1.0/360.0)
LKW
0.1
EVERY negexp(1.0/3600.0)
DIS=IS
KV_Umschlag (600) KV_Terminal. request
fahren (480.0) DELAY
S_Umschlag (960) SUH. request
S_Umschlag (960) SUH. request
fahren (480.0) DELAY
KV_Umschlag (600) KV_Terminal. request
() 0.2
1
S_Umschlag (960) SUH. request
KV_Umschlag (600) KV_Terminal. request
Zug KV_Umschlag (10140) KV_Terminal. request
()
SDSPEEDS=[1,2,3][1.0,2.0,3.0], DIS=PS
KV_Terminal
SUH
request (amount:REAL)
request (amount:REAL)
Abb. 2.3 Modifiziertes ProC/B-Modell
gut-Umschlaghalle wird beschränkt sein. Um einen Eindruck zu erhalten, welche Bestandsänderung eintritt, wenn die Bedienkapazität reduziert wird, nehmen wir an, dass maximal drei Lkws gleichzeitig be- und entladen werden können. Hinsichtlich der bisherigen Analyseresultate (s. Tabelle 2.1) scheint dies eine plausible Dimensionierung zu sein. In ProC/B lässt sich diese Art der Bedienung durch die Processor Sharing (PS) Disziplin unter Angabe bestandsabhängiger Bediengeschwindigkeiten modellieren (s. Abb. 2.3). Bei Processor Sharing wird die verfügbare Bedienkapazität gleichmäßig auf die zu bedienenden Prozesse aufgeteilt. Die verfügbare Bedienkapazität ist in unserem Beispiel bestandsabhängig, welches durch die beiden Vektoren [ABa01, AEF+03, BCM+75] ausgedrückt wird. Sie legen fest, dass die Bedienkapazität 1,0 oder 2,0 ist, falls ein
26
F. Bause et al.
Tabelle 2.2 Ergebnisse für das Modell aus Abb. 2.3 SUH Lkw KV_Terminal Lkw KV_Terminal Zug
Bestand N
Durchlaufzeit T
Durchsatz D
4,988 0,834 2,819
1.995,5 600 1.0140
0,0025 0,00139 0,000278
oder zwei Lkws sich zur Bedienung in der FE SUH befinden und, dass ab einem Bestand von drei die Bedienkapazität 3,0 beträgt. Auch dieses Modell erfüllt die Bedingungen für ein PQN und lässt sich ebenso effizient analysieren. Die zugehörigen Ergebnisse befinden sich in Tabelle 2.2. Es zeigt sich, dass der Bestand an Lkws in der Stückgut-Umschlaghalle auf knapp 5 anwächst und dass sich die mittlere Durchlaufzeit im Vergleich zur IS Bedienstrategie mehr als verdoppelt. Sicherlich kann man im realen System vorsehen, mehr als drei Lkws gleichzeitig abzufertigen, so dass die Ergebnisse aus Tabellen 2.1 und 2.2 Schranken für die zu erwartende Anzahl an Lkws aufzeigen, sofern nicht weitere, bisher unbeachtete Effekte relevant werden. Die Ergebnisse aus den Tabellen 2.1 und 2.2 zeigen einen interessanten Zusammenhang zwischen den betrachteten Größen auf, nämlich N = T * D. Die Gleichung ist in leicht abgewandelter Form als Gesetz von Little bekannt und gilt unter sehr allgemeinen Annahmen für viele Systeme. Eine Voraussetzung ist, dass das System stationär, also beispielsweise nicht dauerhaft überlastet ist. In einem solchen Fall entspricht die mittlere Ankunftsrate (λ) dem mittleren Durchsatz D und die obige Gleichung wird zu N = T * λ, der üblicheren Formulierung für Littles Gesetz. Dieser Zusammenhang zeigt ferner, dass zur Bestimmung des mittleren Bestandes N in diesem Fall eine Modellierung nicht notwendig gewesen wäre, da die Größen T und λ von uns vorgegeben wurden. Ähnliche Zusammenhänge werden in der so genannten Operationalen Analyse [Kow89, LZG+84] betrachtet und ermöglichen die Ableitung erster Ergebnisse mittels Papier und Bleistift. Bisher haben wir ein abstraktes Modell eines GVZ betrachtet. Die stark vereinfachte Beschreibung des KV-Terminals und der Stückgut-Umschlaghalle reichte aus, um erste Ergebnisse zu erhalten. Im Folgenden sollen beide FEs genauer betrachtet werden. ProC/B bietet die Möglichkeit, Verhaltens- und Struktur-Beschreibungen zu verfeinern und damit detaillierter zu spezifizieren. Der Modellierer hat die Option eigene, benutzerdefinierte Funktionseinheiten anzulegen. Abb. 2.4 bis 2.6 zeigen das GVZ-Modell aus Abb. 2.2 mit benutzerdefinierten FEs KV_Terminal und SUH. Analog Standard-Funktionseinheiten bieten auch benutzerdefinierte FEs Dienste an, die von den Aktivitäten einer Prozesskette genutzt werden können. Auch Dienste benutzerdefinierter FEs können Parameter besitzen; in den Beispielen aus Abb. 2.4 bis 2.6 haben wir darauf vorerst verzichtet. Benutzerdefinierte FEs weisen analog zu einem flachen ProC/B-Modell (vgl. Abb. 2.2) zwei Bereiche auf: einen Verhaltens- und einen Struktur-Bereich. Im Verhaltens-Bereich (vgl. z. B. Abb. 2.5) werden die angebotenen Dienste durch Prozessketten definiert. Die einzelnen Aktivitäten können sich auf die Dienste eingebetteter Funktionseinheiten abstützen (vgl. FEs Reach_Stacker und Kraene in Abb. 2.5). Wiederum hilft die graphische Notation von Verhalten, die Dienstbeschreibung zu
2 ProC/B
27
GVZ
S_Umschlag 0.5 SUH. LKW_Abfertigung KV_Umschlag
fahren (480.0)
KV_Terminal. LKW_Abfertigung
DELAY
0.2 1
LKW
S_Umschlag SUH. LKW_Abfertigung
() EVERY negexp(1.0/360.0)
S_Umschlag 0.2 SUH. LKW_Abfertigung
fahren (480.0) DELAY
KV_Umschlag KV_Terminal. LKW_Abfertigung
KV_Umschlag 0.1 KV_Terminal. LKW_Abfertigung
1
Zug
KV_Umschlag
() EVERY negexp(1.0/3600.0)
KV_Terminal LKW_Abfertigung
KV_Terminal. Zug_Abfertigung
SUH LKW_Abfertigung
Zug_Abfertigung
Abb. 2.4 Beispiel eines ProC/B-Modells mit benutzerdefinierten FEs
kommunizieren. Die Abfertigung eines Lkws durch den Dienst Lkw_Abfertigung der FE KV_Terminal (s. Abb. 2.5) bedeutet, dass der Lkw anfangs fährt (modelliert durch eine gemäß einer Gleichverteilung ermittelten Verzögerung des Prozesses), anschließend ablädt (wobei er einen von drei Reach_Stackern nutzt), und nachfolgend wiederum fährt, auflädt und fährt. Mit Beendigung dieser letzten Aktivität „verlässt“ der durch den Dienst Lkw_Abfertigung bediente Lkw die FE KV_Terminal. Ähnlich den Lkws werden auch Züge durch einen Dienst des KV_Terminal bedient. Der Dienst Zug_Abfertigung nutzt zur Be- und Entladung eines Zuges die FE Kraene. Vereinfachend wird angenommen, dass diese Funktionseinheit 3 Portalkräne modellieren soll, welche zeitgleich die Ladung eines Zuges bearbeiten können. Diese dreifache Bedienkapazität wird durch die Definition eines dreifach schnelleren Bedieners (SPEED = 3,0) erreicht. Unter der Annahme, dass ein Zug im Mittel 40 Container ab- und belädt und ein Portalkran ca. 120 ZE je Container
28
Abb. 2.5 FE KV_Terminal
KV_Terminal
LKW_Abfertigung ()
fahren (uniform(60,180)) DELAY
Zug_Abfertigung ()
fahren (uniform(60,180)) DELAY
abladen (negexp(1/120.0)) Reach_Stacker. request
abladen (120 * 40.0) Kraene. request
CAP=3
SPEED=3.0, DIS=PS
Reach_Stacker request (amount:REAL)
Kraene request (amount:REAL)
fahren (uniform(60,180)) DELAY
rangieren (uniform(240,360)) DELAY
beladen (negexp(1/120.0)) Reach_Stacker. request
fahren (uniform(60,180))
beladen (120 * 40.0)
fahren (uniform(60,180))
Kraene. request
DELAY
DELAY
F. Bause et al.
2 ProC/B
29
benötigt, ergibt sich ein Bedienbedarf von 4.800 ZE, welcher durch die FE Kraene in 4.800/3 = 1.600 ZE erbracht werden kann, sofern keine Wartesituationen auftreten. Die Modellierung der Bedienung entspricht zwar nicht ganz dem realen Ablauf, da im Modell drei Kräne zeitgleich den „letzten“ Container bedienen (da 40/3 = 13 Rest 1). Es wird sich aber zeigen, dass die Ergebnisse für die derzeitige Phase der Untersuchung genügend genau sind. Der wesentliche Vorteil der hier nicht ganz realitätsgetreuen Modellierung der Be- und Entladung von Zügen liegt in der Anwendbarkeit von PQN-Algorithmen für das Gesamtmodell. Neben der FE KV_Terminal wurde auch die FE SUH durch eine benutzerdefinierte FE verfeinert. Die FE bietet einen (parameterlosen) Dienst Lkw_Abfertigung an, welcher in 50% aller Dienstaufrufe einen Gabelstapler aus Pool 1 und in 50% der Fälle einen aus Pool 2 benutzt. Die Definition der Standard-FEs Gabelstapler_Pool1 und Gabelstapler_Pool2 entspricht der der FE SUH aus Abb. 2.3, so dass in Summe maximal 6 Lkws innerhalb der Stückgut-Umschlaghalle gleichzeitig bedient werden können. Benutzerdefinierte Funktionseinheiten ermöglichen die Beschreibung hierarchischer ProC/B-Modelle (vgl. Abb. 2.7) und unterstützen so die Übersicht in komplexen Modellbeschreibungen. Die Hierarchie endet an vordefinierten Standard-Funktionseinheiten. Das ProC/B-Modell der Abb. 2.4 bis 2.6 ist wieder so beschaffen, dass es sich auf ein PQN abbilden und daher effizient analysieren lässt. Einige der ermittelten Ergebnisse sind in Tabelle 2.3 aufgeführt. Die Ergebnisse lassen folgende Schlussfolgerungen zu: SUH
0.5 LKW_Abfertigung
laden (uniform(500,700)) Gabelstapler_Pool1. request
Dokumente_bearbeiten (uniform(300,420)) DELAY
laden (uniform(500,700)) Gabelstapler_Pool2. request
Dokumente_bearbeiten (uniform(300,420)) DELAY
()
0.5
Abb. 2.6
SDSPEEDS=[[1,2,3],[1.0,2.0,3.0]], DIS=PS
SDSPEEDS=[[1,2,3],[1.0,2.0,3.0]], DIS=PS
Gabelstapler_Pool1 request (amount:REAL)
Gabelstapler_Pool2 request (amount:REAL)
FE SUH
30
F. Bause et al.
Tabelle 2.3 Ergebnisse für das Modell aus Abb. 2.4–2.6 (CPU-Zeit < 0,02 s)
SUH Lkw Gabelstapler Pool 1 bzw. 2 KV_Terminal Lkw Reach_Stacker Lkw KV_Terminal Zug Kraene Zug
Bestand N
Durchlaufzeit T
Durchsatz D
2,429 0,765 0,834 0,334 8,15 8
971,763 611,763 600,45 120,224 29.340,6 14.400,3
0,0025 0,00125 0,00139 0,00278 0,000278 0,000556
Auslastung U
0,75 0,333 0,889
Das detaillierte Modell weist eine dem Modell der Abb. 2.2 ähnliche Leistungsfähigkeit hinsichtlich der Abfertigung von Lkws auf. Die mittlere Durchlaufzeit durch die FE SUH liegt bei 971,76 und damit nur geringfügig über den im abstrakten Modell (Abb. 2.2) festgelegten Wert. Die Durchlaufzeit durch das KV-Terminal ist sogar nahezu unverändert geblieben. Im Gegensatz zu den Lkws treten bei den Zug-Abfertigungen größere Verzögerungen auf, so dass die ursprünglich geplanten 10.140 ZE um fast das Dreifache überschritten werden. Die Auslastung der Kraene sowie die zugehörigen Durchlaufzeiten zeigen, dass diese Ressource zu knapp dimensioniert ist. Durch den Einsatz schnellerer oder zusätzlicher Kräne könnte nun modellbasiert eine akzeptable Dimensionierung bestimmt werden. Wie erläutert, wurde die Bedienung eines Zuges durch die FE Kraene nicht exakt abgebildet, um weiterhin PQN-Algorithmen nutzen zu können. Der Leser könnte den Verdacht hegen, dass die zu hohe Durchlaufzeit der Züge durch die ungenauere Abbildung der Abladevorgänge hervorgerufen wird. Dass diese Ungenauigkeit das Ergebnis nur geringfügig beeinflusst, zeigt die Analyse des Modells aus Abb. 2.8. Hier wurde die Abladung jedes einzelnen Containers durch einen Kran modelliert, in dem durch einen so genannten UND-Konnektor 40 Sub-Prozesse erzeugt werden, die nach Beenden ihrer jeweiligen Aktivität abladen wiederum synchronisiert werden. Erst nach dieser Synchronisation führt ein Zug die Aktivität rangieren aus. Sub-Prozesse in ProC/B teilen sich die Variablen mit dem sie erzeugenden Prozess. Der UND-Konnektor wird auch zur Modellierung der GVZ KV_Terminal Reach_Stacker Kraene SUH Gabelstapler_Pool1
Abb. 2.7 Hierarchie des ProC/B-Modells aus Abb. 2.4–2.6
Gabelstapler_Pool2
2 ProC/B
31
Beladevorgänge eingesetzt. Wird das Modell aus Abb. 2.8 anstelle des KV_Terminal aus Abb. 2.5 verwendet, so ist das resultierende Modell nicht mehr auf PQNs abbildbar und muss mittels Simulation analysiert werden. Die Ergebnisse in Tabelle 2.4 geben im Vergleich zu den Ergebnissen aus Tabelle 2.3 keine neue Information und konnten nur mit wesentlich höherem Aufwand ermittelt werden. Die relativ hohe CPU-Zeit von über 400 s. (also dem ca. 20.000-fachen im Vergleich zum PQN-Modell!) ist hier erforderlich, um genügend genaue Ergebnisse zu erhalten (abgesichert durch kleine Konfidenzintervalle; vgl. Kap. 2.3). Tabelle 2.4 zeigt ferner, dass die Simulation nur in der Lage ist, statistische Ergebnisse zu ermitteln, deren Genauigkeit mit einer gewissen Unsicherheit behaftet ist. So ist aus den Werten aus Tabelle 2.4 beispielsweise das Gesetz von Little nicht mehr eindeutig erkennbar. Die Unterschiede in den CPU-Zeiten für die bisher vorgestellten Modelle erscheinen auf den ersten Blick für die Praxis unbedeutend zu sein. Sie werden allerdings relevant, wenn solche Modelle Basis für Optimierungsuntersuchungen sind, da jede (!) Auswertung der Zielfunktion des Optimierungsproblems einen Simulations-/ Analyselauf erfordert. Im folgenden Kapitel werden wir in einige Analysetechniken einführen, welche innerhalb der ProC/B-Modellierungsumgebung verfügbar sind und ihre spezifischen Vor- und Nachteile schildern.
2.3 Analysetechniken und Tools Als Basis analytischer Untersuchungen sind Modelle zwangsläufig auf die konkret interessierenden Typen von Zielgrößen ausgerichtet. Stehen (wie hier angenommen) benötigte Zeitspannen, erzielte Durchsätze, erforderliche Speicherumfänge und ähnliche Zielgrößen im Zentrum des Interesses, so gilt es, den zeitlichen Ablauf des zu analysierenden Systemgeschehens im zugehörigen Modell zu erfassen. Dies ist die Domäne „dynamischer“ Modelle, welche in der Lage sind, den Verlauf des Systemzustands (bzw. ausgewählter Zustandskomponenten) über der Zeit zu verfolgen, kurz: „Zustandstrajektorien“ zugreifbar zu machen. Hinsichtlich des Charakters der Dynamik bietet sich im vorliegenden Anwendungsbereich der Logistik-Systeme die Vorstellung der „ereignisorientierten“ Systeme/Modelle (Discrete Event Dynamic Systems: DEDSs [CLa99]) besonders an: Bearbeitungen, Transporte, Speicherbelegungen beginnen zu bestimmten (Ereignis-) Zeitpunkten, dauern eine gewisse Zeit an und enden zu bestimmten Zeitpunkten; abstrakter: Zustände bleiben für endliche Zeitspannen konstant, wechseln „spontan“ zu Ereigniszeitpunkten; Zustandstrajektorien sind „stückweise konstant“. Des weiteren wird man bei der modellseitigen Festlegung insbesondere von Zeitdauern (welche direkt oder indirekt die Zwischenereigniszeiten bestimmen), gerne von den Annehmlichkeiten „stochastischer Spezifikation“ profitieren – also davon, etwa eine Transportdauer nicht auf (z. B.) 200, 65 min festlegen zu müssen, sondern (realitätsnäher!) auf (z. B.) „gleichverteilt zwischen 3h und 4h“.
32
Abb. 2.8 FE KV_Terminal mit UND-Konnektor
KV_Terminal
LKW_Abfertigung ()
Zug_Abfertigung ()
fahren (uniform(60,180)) DELAY
fahren (uniform(60,180)) DELAY
abladen (negexp(1/120.0)) Reach_Stacker. request
40
abladen (120) Kraene. request
CAP=3
SPEED=3.0, DIS=PS
Reach_Stacker request (amount:REAL)
Kraene request (amount:REAL)
40
fahren (uniform(60,180)) DELAY
rangieren (uniform(240,360)) DELAY
beladen (negexp(1/120.0)) Reach_Stacker. request
40
beladen (120) Kraene. request
fahren (uniform(60,180)) DELAY
40
fahren (uniform(60,180)) DELAY
F. Bause et al.
2 ProC/B
33
Tabelle 2.4 Ergebnisse für das Modell mit KV_Terminal aus Abb. 2.8 (CPU-Zeit > 400 s, 90% Konfidenzintervalle) KV_Terminal Zug
Bestand N
Durchlaufzeit T
Durchsatz D
7,8668 +/– 11,4%
28.620,94 +/– 11,2%
0,000275 +/– 1,02%
ausweichen zu können. Formal gesprochen definiert ein solches (stochastisches, dynamisches) Modell einen „stochastischen Prozess“, eine ganze Familie möglicher Zustandstrajektorien (jede von ihnen eine „Realisierung“ des Prozesses). Das Modell beschreibt damit nicht (mehr) einen einzelnen Betriebsablauf, sondern (realitätsnäher!) die Menge aller möglichen Betriebsabläufe. Die (angenehme und realitätsnahe) stochastische Spezifikation hat allerdings gravierende Auswirkungen auf den Charakter der erfragbaren Resultatgrößen, und damit (erschwerend) auf die Techniken der Modellauswertung: Der Zustand des Modells, zu irgendeinem festen Zeitpunkt t, ist (quer zu allen Zustandstrajektorien) als „Zufallsvariable“ (ZV) aufzufassen, die ihrerseits durch ihre „Wahrscheinlichkeitsverteilung“ charakterisiert ist. Die Frage nach diesem Modellzustand, zum Zeitpunkt t, erfordert als (vollständige) Antwort die Angabe dieser Wahrscheinlichkeitsverteilung. Der Charakter dieser Antwort darf erneut als realitätsnäher bezeichnet werden: Er erfasst das Typische des Systemzustands zum Zeitpunkt t, keinen festen Wert (kein Betriebsablauf wird sich exakt so wiederholen!), sondern eine Menge möglicher Werte samt ihrer Auftretenswahrscheinlichkeiten (quer zu allen Betriebsabläufen). Für den somit eingegrenzten Typ der stochastischen ereignisorientierten Modelle existiert eine ganze Reihe von Analysetechniken, für jede dieser Techniken eine ganze Reihe zugehöriger (Software-) Tools, mit ihren – vgl. Kap. 2.1 – jeweils spezifischen Beschreibungs-Paradigmen und -Formen. Die folgenden Absätze werden einige praktisch relevante Analysetechniken, insbesondere die unter ProC/B zugreifbaren, skizzieren und charakterisieren.
2.3.1
Ereignisorientierte Simulation
Im Anwendungsbereich am verbreitetsten ist die Technik der ereignisorientierten Simulation, bei welcher bekannterweise ein Programm („der Simulator“) während seines Ablaufs die erwähnten Zustandstrajektorien generiert und so zur Beobachtung bereitstellt. Angenehmerweise unterliegt die Programmierung/Spezifikation eines Simulators keinerlei methodisch bedingten Beschränkungen hinsichtlich Art oder Charakter der berücksichtigbaren Systemeigenschaften. Die Freizügigkeit der Spezifikation ist allerdings begleitet von der Schwierigkeit/Unmöglichkeit, das Modell (das Programm „Simulator“) auf seine Korrektheit (in ablauftechnischem, nicht in syntaktischem Sinne) zu überprüfen – es sei denn durch „menschliche Inspektion“. So wird man beispielsweise einem komplexen Simulator kaum „ansehen“, dass der durch ihn beschriebene dynamische Ablauf
34
F. Bause et al.
Deadlock-(Verklemmungs-) Gefahren enthält, und wird erst anhand „unsinniger“ Ergebnisse auf diese Inkorrektheit hingewiesen werden. Des Weiteren muss sich die Beurteilung/Bewertung simulativ gewonnener Beo-bachtungen der stochastischen Natur dieser Beobachtungen stellen, muss zum Zwecke der Beurteilung geeignete Techniken der mathematischen Statistik einsetzen (vgl. z. B. [Lke00]). Dies übrigens in weitgehender Analogie zur Beurteilung eines de fakto in Betrieb befindlichen Systems auf Basis hierbei erhobener Beobachtungen, welche vor den gleichen Schwierigkeiten steht (kein Betriebsablauf wird sich exakt so wiederholen!) und identischer statistischer Techniken bedarf. Sei beispielsweise der Füllungszustand n eines bestimmten Lagers zu einem bestimmten Zeitpunkt t* nach Beginn eines Betriebstages gefragt. Die vollständige Antwort auf diese Frage liefert, wie erwähnt, die Verteilung der (quer zu allen Betriebsabläufen, ob simuliert oder real) zugeordneten Zufallsvariablen N(t*). Es bedarf ganz offensichtlich der Beobachtung mehr als eines Simulator-/Betriebs-Ablaufes, bedarf hinreichend vieler „Realisierungen“ der ZV N(t*), um geeignete Informationen über die gesuchte Verteilung zu gewinnen. Und ebenso offensichtlich: Da sich lediglich endlich viele Abläufe beobachten lassen, ein Modell des Typs „stochastischer Prozess“ aber in der Regel unendlich viele alternative Abläufe beschreibt (bereits eine einzige kontinuierliche ZV der Modellbeschreibung führt dazu), kann die gesuchte Verteilung von N(t*) auf dem Beobachtungswege (prinzipiell) nicht präzise ermittelt werden. An die Stelle der präzisen Ermittlung rückt die „statistische Schätzung“, deren Resultate aber (prinzipiell) mit „statistischen Unsicherheiten“ behaftet sind. Zur konkreteren Anschauung: Interessiere vom Füllungszustand n des Lagers zum Zeitpunkt t* (bescheidenerweise, statt der gesamten Verteilung:) nur dessen mittlerer Wert (quer zu allen Betriebsabläufen), dann erzielen statistische Schätzverfahren, auf Grundlage einer konkret vorliegenden Anzahl von Beobachtungen, typischerweise Antworten in Form • einerseits eines „Schätzwertes“ n* für diesen mittleren Wert, d. h. für den zu schätzenden „Erwartungswert“ E[N(t*)], • andererseits eines „Konfidenzintervalls“ [n*–d, n*+d] für einen Wertebereich, in dem E[N(t*)] mit einer gewissen (Konfidenz-)Wahrscheinlichkeit liegt. Breite dieses Intervalls und Betrag dieser Wahrscheinlichkeit stehen dabei in fester Beziehung, hängen gemeinsam von der „Stichprobengröße“ (BeobachtungsAnzahl) ab, wo wachsende Stichprobengrößen zu schmaleren Konfidenzintervallen und/oder höheren Konfidenzwahrscheinlichkeiten führen. Zusammenfassend drücken sich statistische Unsicherheiten aus durch: • Schätzwert und (verbessernd:) Wertebereich für Schätzwert – statt präzisem Resultat; • Abhängigkeit der Resultatgrößen, untereinander und von der Beobachtungszahl – statt frei wählbarer Aussagegenauigkeit; • letztlich verbleibendes Fehlerpotential (eine Konfidenzwahrscheinlichkeit von 0,95 beinhaltet als Kehrseite die Aussage, dass 5% der Schätzvorgänge unrichtige Resultate liefern) – statt sicherem Ergebnis.
2 ProC/B
35
Zusätzliche Schwierigkeiten ergeben sich bei der Auswahl des „gewünschten“ Beobachtungszeitpunktes. In obiger Fragestellung hatte der Füllungszustand n eines Lagers (bzw. der mittlere Füllungszustand, bzw. ein Schätzwert für den Erwartungswert des Füllungszustands) zu einem bestimmten Zeitpunkt t* nach Beginn eines Betriebstages interessiert. Es ist offensichtlich, dass für unterschiedliche „bestimmte“ Zeitpunkte mit unterschiedlichen Resultaten zu rechnen ist – N(t) ist, bei variablem t, eine Familie von Zufallsvariablen (ein stochastischer Prozess). Es ist darüber hinaus offensichtlich, dass für jeden zu Betriebsbeginn vorliegenden „Anfangszustand“ a (nicht nur des betrachteten Lagers, sondern des gesamten Systems) mit einem spezifischen, a-abhängigen Prozess N(t|a) gerechnet werden muss. Liegt, bei dieser Sachlage, unser Interesse bei Aussagen für (einen oder mehrere oder „alle“) bestimmte Zeitpunkte t, bei bestimmtem Anfangszustand a, dann ist eine sog. „transiente Analyse“ gefragt, bei mehreren unterschiedlichen „bestimmten“ Anfangszuständen je eine transiente Analyse mit jeweils festem a. Durchführungstechnisch betrachtet erfordert eine transiente Analyse die Ausführung mehrerer Simulatorläufe („Replikationen“), alle mit identischem Anfangszustand, und jeder mit anderer „Saat“ für den/die notwendigerweise involvierten Zufallszahlengenerator(en). Aus jedem Lauf (für jede Beobachtungsgröße und jeden interessierenden Zeitpunkt) ist ein Beobachtungswert in die zugehörige Stichprobe einzugliedern, welche insgesamt als Grundlage zugehöriger statistischer Schätzvorgänge dient. Die verwendete Bezeichnung „transient“ erklärt sich daraus, dass das beschriebene (komplizierte) Verhalten von (hier:) N(t) unter Umständen nur für eine „Übergangszeit“ vorliegt. In der Tat gibt es stochastische Prozesse, welche sich nach hinreichend langer Zeit zunehmend einem „stationären Verhalten“ nähern, einem Verhalten, bei dem die Verteilungen der N(t) nicht mehr mit t variieren, d. h. identisch sind (und sogar, damit eng verknüpft, vom Anfangszustand nicht mehr abhängen, d. h. für alle Anfangszustände identisch sind). Solche „gutartigen“ Prozesse bieten die Option der „stationären Analyse“ – bei Interesse am „Langzeitverhalten“ („eingeschwungenen Verhalten“, „Gleichgewichtsverhalten“) der zu analysierenden Eigenschaften, also am Verhalten für/ab hinreichend großem t. Durchführungstechnisch betrachtet kann sich eine stationäre Analyse erneut der Replikationsmethode (für großes t*) bedienen. Zusätzlich eröffnet sich aber die Möglichkeit, die benötigten Stichproben (eine je Beobachtungsgröße) aus einem einzelnen Simulatorlauf (sequentiell, ab „großem“ t*) aufzusammeln: Wo die Zeitabhängigkeit der Verteilung einer Beobachtungsgröße ab t* praktisch verschwindet, sammeln wir ja sequentiell aus der gleichen „Grundgesamtheit“. Die Durchführung nur eines Simulatorlaufs (statt vieler Replikationen) verspricht Effizienz-Vorteile. Andererseits ist die Ermittlung des Zeitpunktes t*, ab dem ein eingeschwungenes Verhalten hinreichend gut approximiert ist, seinerseits nur mittels (relativ aufwendiger) heuristischer Verfahren möglich. Zusätzlich erfordert die Auswertung sequentiell aufgesammelter Stichproben den Einsatz aufwendigerer statistischer Schätzverfahren, den Einsatz von „Zeitreihenverfahren“: Innerhalb der sequentiellen Stichproben vorliegende „Autokorrelationen“ (Kurzfristabhängigkeiten) führen bei Nichtbeachtung zu fehlerhaften Schätzergebnissen.
36
F. Bause et al.
Insgesamt relativiert sich damit das Effizienzversprechen der sequentiellen Stichproben-Erhebung; fallweise können sich Replikationsansätze sogar als effizienter darstellen (vgl. [BEi02, BEi03]). Ereignisorientierte stochastische Simulation: • Hohe Verständlichkeit im Anwendungsbereich; • weitestgehende Freiheit der Modellbildung hinsichtlich Art oder Charakter der berücksichtigbaren Systemeigenschaften; • keine direkte Erkennung ablauftechnischer Modellierungsfehler, schwierige Erkennung langfristiger Stationarität; • Tendenz zur Aufwendigkeit bei der Durchführung (Stichprobenumfänge!); • prinzipiell verbleibende statistische Unsicherheit der Ergebnisse; • Notwendigkeit der Berücksichtigung vieler methodischer Details. Die ProC/B-Modellierungsumgebung bietet als eine der Analyse-Optionen die ereignisorientierte Simulation an, im Falle stochastischer Simulation unter Einschluss geeigneter statistischer Techniken für Ergebnis-Auswertung und Darstellung. Für ein zu analysierendes Modell des ProC/B-Paradigmas werden (auf Anforderung:) automatisch • ein zugehöriger Simulator erzeugt, • die simulative Analyse durchgeführt (Exekution des Simulators, Aufzeichnung und statistische Teiluntersuchung der – als Teil der Modellspezifikation geforderten – Ergebnisdaten, Beendigung des Simulatorlaufs entsprechend der Vorschriften der Modellspezifikation, Abschluss der statistischen Auswertungen), • die ermittelten Ergebnisse in die ProC/B-Welt überführt. Die Durchführung dieser Schritte stützt sich auf das verfügbare SoftwareTool HIT [BMW94], das ursprünglich für Aufgaben der modellgestützten quantitativen Analyse von Rechen- und Kommunikations-Systemen entwickelt worden war. HIT ist eine eigenständige Modellierungsumgebung, mit eigenem Modellierungs-Paradigma, eigenen Modell-Spezifikationshilfen – unter ihnen eine Spezifikationssprache namens Hi-Slang, sowie verschiedenen optional wählbaren Modellanalysetechniken – unter ihnen die ereignisorientierte Simulation samt zugeordneter statistischer Auswertung und Ergebnisdarstellung. HIT bot sich zur Nutzung an, da seine Modellwelt dem hier betrachteten ProC/B-Paradigma ähnelt: Sie ist prozessorientiert und bietet hierarchische Schachtelungs- und Aufruf-Strukturen an (vgl. Kap. 2.2). In Durchführung der genannten Schritte wird ein simulativ zu analysierendes ProC/B-Modell in seine Hi-Slang-Fassung transformiert, eine HITgestützte Simulation durchgeführt, die gewonnenen Ergebnisse in die ProC/B-Welt zurücktransformiert. Bei der simulativen Analyse setzt HIT in Standardnutzung auf stationäre Ergebnisse, die im Verfahren der Einzel-Replikation (single replication) – unter Abstützung auf Techniken der Zeitreihenanalyse – gewonnen werden. Standardmäßig vorbereitet sind Auswertungen für Ergebnisgrößen der Typen Verweilzeiten, Durchsätze, Auslastungen und Populationen/Füllungen. Als Charakteristika dieser Größen werden im Standardfall Mittelwerte, Varianzen, Konfidenzintervalle und Histogramme statistisch geschätzt.
2 ProC/B
2.3.2
37
Numerische Analyse von zeitkontinuierlichen Markov-Ketten
Alternativ zur Analysetechnik der Simulation existieren Techniken, welche das stochastische ereignisorientierte Modell (d. h. die Beschreibung des zu analysierenden Systems) insgesamt als Spezifikation eines stochastischen Prozesses verstehen und interessierende Systemeigenschaften (Zielgrößen) auf mathematischem Wege aus dieser Spezifikation ableiten. Generell weist diese Alternative, im Vergleich zur Simulation, sowohl prinzipielle Vorteile als auch prinzipielle Nachteile auf. Zu den Vorteilen zählt, dass die erzielten Ergebnisse jeweils präzise sind, von statistischen Unsicherheiten unbelastet. Der wesentliche Nachteil der „mathematischen“ Alternative besteht darin, dass nicht für alle denkbaren Modelle effektive einschlägige Analysetechniken bekannt sind, darüber hinaus auch existierende Analysetechniken nicht allesamt hinreichend effizient sind, um sie praktisch nutzen zu können. Praktisch gesprochen: Die mathematische Alternative ist nur einsetzbar unter spezifischen Beschränkungen hinsichtlich Art oder Charakter der berücksichtigbaren Systemeigenschaften. Andererseits resultieren aus solchen Beschränkungen wieder Vorteile: Gewisse Modellierungsfehler lassen sich bereits syntaktisch (am formulierten Modell) automatisch erkennen, weitere Klassen von Modellierungsfehlern können (aufgrund der mathematischen Modellform) unter Einsatz formaler Techniken erkannt und ausgeschlossen werden. Erinnert sei hier an die Klasse der „zeitkontinuierlichen Markov-Ketten“ (Continuous Time Markov Chains: CTMCs [Ste91]), eine Klasse stochastischer Prozesse im Rahmen der DEDS-Vorstellung, mit diskretem Zustandsraum. Für CTMCs ist eine Vielzahl effektiver (und oft hinreichend effizienter) Analysetechniken bekannt. CTMCs beruhen zunächst auf dem (ausschließlichen) Gebrauch exponentiell verteilter Zeitspannen, wo bekannterweise eine (negativ) exponentiell verteilte Zufallsvariable X charakterisiert ist durch ihre Verteilungsdichte
f X (t ) = a ⋅ exp (−a ⋅ t )
mit Parameter (genannt „Rate“) und (dementsprechend) Mittel-(Erwartungs-)Wert
1/a
a
Der stringenten Beschränkung auf exponentiell verteilte Zeitspannen lässt sich dadurch begegnen, dass benötigte nicht-exponentielle Zeitspannen modellseitig durch Verteilungen beschrieben werden, welche „aus exponentiellen Stücken zusammengesetzt“ sind. Mit derartigen „Phasenverteilungen“[Cox55] lassen sich praktisch alle kontinuierlichen Verteilungen hinreichend genau approximieren. Ein Miniatur-Modell als Beispiel für die Vorgehensweisen der CTMC-Analyse: Unterliege ein System wiederholten Ausfällen und anschließenden Reparaturen,
38
F. Bause et al.
Abb. 2.9 Zustandsübergangsraten-Diagramm des Miniatur-Modells
i
int
rep
r
wechsle also (immer wieder) von seinem „Intakt“-Zustand int zu einem „Reparatur“-Zustand rep, nach Reparatur zurück in den Intakt-Zustand, u. s. f. Sei ferner angenommen (bzw., von der Realität her: Sei es berechtigt, anzunehmen), die Intaktphase sei exponentiell verteilt mit Parameter i, die Reparaturphase exponentiell verteilt mit Parameter r (Festlegungen der Dauern von Intaktzeiten und Reparaturzeiten!), dann liegt ein Modell der CTMC-Klasse vor. Das Modell wird in der „CTMC-Modellwelt“ gerne wie folgt durch ein („Zustandsübergangsraten“) Diagramm beschrieben/„spezifiziert“ (Abb. 2.9): Das Diagramm zeigt die möglichen Zustände des Modells (hier: int und rep), die möglichen Zustandsübergänge (hier: von int nach rep bzw. von rep nach int), sowie die zugehörigen Übergangsraten (hier: i bzw. r). Die Analyseziele des CTMC-Ansatzes bestehen primär darin, die Zustandsverteilung des modellierten Systems abzuleiten, • entweder (transiente Analyse:) wählbare t* Zeiteinheiten nach Start des Systems, bei wählbarem Anfangszustand (hier: intakt oder in Reparatur), • oder (stationäre Analyse:) nach hinreichend langer Laufzeit des Systems, so dass sich ein „eingeschwungener“ Zustandsverlauf einstellen konnte (falls dieser existiert), sekundär darin, zusätzlich interessierende Ergebnisse aus den Zustandsverteilungen zu berechnen. Sei in weiterer Verfolgung unseres Miniaturmodells die stationäre Zustandsverteilung gefragt (die technisch einfacher zu beantwortende Frage), dann lässt sich aus dem CTMC-Diagramm das diese Zustandsverteilung beherrschende Gleichungssystem direkt ablesen zu: i ⋅ pint = r ⋅ prep pint + prep = 1 und lösen zu: pint =
r i+r
prep =
i i+r
2 ProC/B Abb. 2.10 Zustandsübergangsraten-Diagramm des M/M/1-FCFS-Modells
39 λ
λ 1
0
μ
λ ...
μ
λ n-1
μ
λ n
μ
λ n+1
μ
...
μ
bzw., mit der mittleren Intaktzeit I := 1/i, und der mittleren Reparaturzeit R := 1/r, zu: pint =
I R+I
prep =
R R+I
„Auf mathematischem Wege“ ist damit als unmittelbares Resultat die Aussage ermittelt: Wird das Mini-System (lange nach System-Start) zu zufälligem (vom Systemgeschehen unabhängigem) Zeitpunkt beobachtet, dann findet es sich mit Wahrscheinlichkeit pint in intaktem Zustand, mit Wahrscheinlichkeit prep in Reparatur. Oder praktisch-experimentell (mit entsprechender statistischer Unsicherheit) gesprochen: Wird das System, lange nach System-Start, immer wieder zu Zeitpunkten beobachtet, die vom Systemgeschehen unabhängig sind (z. B. zu äquidistanten Zeitpunkten), dann beträgt die relative Häufigkeit der Intakt-Beobachtungen pint, die der in-Reparatur-Beobachtungen prep (wobei das Mini-System so einfach gestaltet ist, dass man letztere Aussage offensichtlich auch „ohne Mathematik“ hätte treffen können). Wohlbekannt sind auch diverse (der CTMC-Klasse zugehörende) „Warteschlangen“-Modelle (s. z. B. [Kle75]): Einer Bedienstation werden in bestimmten zeitlichen Abständen neue Aufträge (Kunden) zugeführt, deren Bearbeitung jeweils eine bestimmte Arbeitszeit (Bedienzeit) der Station erfordert. Nach Abschluss der Bearbeitung verlassen die Aufträge die Station. Zur Erinnerung das wohl bekannteste dieser Warteschlangenmodelle, das sog. M/M/1-FCFS-Modell: Die Zeitabstände zwischen aufeinander folgenden Kundenankünften sind exponentiell verteilt mit Rate λ (Mittelwert der Zwischenankunftszeiten also 1/λ), die Bedienzeiten exponentiell verteilt mit Rate μ (Mittelwert demnach 1/μ); anwesende Kunden werden je einzeln, sequentiell, in Reihenfolge der Ankunftszeitpunkte (First Come First Served: FCFS) bedient; vor ihrer Bedienung warten sie u. U. in einer (räumlich unbegrenzten) Warteschlange. Das zugehörige Zustandsübergangsratendiagramm (Abb. 2.10) zeigt wieder • die möglichen Zustände: „0“ für das leere System (keine Kunden anwesend), „1“ für 1 Kunde anwesend – und dieser in Bedienung, „2“,…, „n“,… für 2,…, n,… Kunden anwesend – der Erstankömmling unter ihnen in Bedienung; aufgrund des unbegrenzten Warteraums ist auch der Zustandsraum unbeschränkt;
40
F. Bause et al.
• sowie die möglichen Zustandsübergänge mit den zugehörigen Raten: in jedem Zustand Ankünfte (Rate ), Übergang zum nächsthöheren Zustand, bei nichtleerem System Bedienende (Rate μ), nächstniedriger Zustand. Das für die stationäre Zustandsverteilung maßgebliche Gleichungssystem lässt sich aus dem Diagramm ablesen zu: p0 ⋅ = p1 ⋅ μ pn ⋅ (μ + ) = pn−1 ⋅ + pn+1 ⋅ μ ∞
∑p
n
n = 1, 2,...
=1
n =1
und (unter der Bedingung /μ < 1) explizit lösen zu: pn = ρ n ⋅ (1 − ρ )
n = 0,1, 2,..
wo ρ := /μ gesetzt ist, mit ρ als „Auslastung“ des Systems. Die „Stationaritätsbedingung“ ρ <1 drückt in ihrer physikalischen Interpretation die offensichtliche Tatsache aus, dass ein überlastetes System (mehr Arbeit pro ZE gefordert als leistbar) keine stationäre Phase besitzt: Die Füllung n des Systems kann mit fortlaufender Zeit immer nur wachsen. Ist die Bedingung allerdings erfüllt, lassen sich leicht diverse aggregiertere Resultate ermitteln, so etwa: die mittlere Füllung:
E[ N ] = ρ (1 − ρ )
oder, über Little’s Formel, die mittlere Verweilzeit:
E[V ] = 1 (μ − )
Die Analyse komplexerer CTMC-Modelle verläuft im Prinzip identisch, siehe z. B. [BGM+06, Kle75]. Bei Interesse an der stationären Zustandsverteilung ist, analog zu den obigen Beispielmodellen, ein lineares Gleichungssystem p ⋅Q = 0
∑ pi = 1 i
nach den stationären Zustandswahrscheinlichkeiten pi zu lösen. Die „Generatormatrix“ Q enthält dabei in ihren Einträgen sämtliche Zustandsübergangsraten des Modells, erfasst sämtliche Eigenschaften/Charakteristika dieses Modells. Eine explizite Lösung des linearen Gleichungssystems (wie in Miniatur- und M/M/1-Modell vorgeführt) gelingt allerdings eher selten; vielmehr muss das Gleichungssystem in der Regel auf numerischem Wege gelöst werden (vgl. [Ste91]), was seinerseits nur bei endlichem Zustandsraum gelingen kann. So einfach diese Lösungsmethodik für CTMC-Modelle erscheinen mag, ist sie doch von erheblichen praktischen Schwierigkeiten begleitet: Der (diskrete, endliche) Zustandsraum neigt bei praktisch interessanten Modellen zur sog. „Zustandsraumexplosion“. Dies ist unmittelbar einsehbar: Enthalte ein interessierendes Logistik-System beispielsweise 2 Läger mit je 1.000 einzelnen Lagerplät-
2 ProC/B
41
zen, deren Füllung im einzelnen nachzuhalten sei, dann weist der zugehörige Gesamt-Zustandsraum bereits (mindestens) 103 ⋅ 103 = 106 Zustände auf. Auch die Verwendung von Phasenverteilungen führt zu einer raschen Vergrößerung des Zustandsraums: Wird etwa eine Zeitspanne durch eine 2-(bzw. n-)Phasenverteilung erfasst, dann verdoppelt (bzw. ver„n“facht) sich der Gesamt-Zustandsraum im Vergleich zu jenem bei Verwendung einer Exponentialverteilung. Praktisch interessierende Modelle erreichen schnell Zustandsraumgrößen von 1012, 1018, … ! Aus diesen immensen Zustandsräumen resultieren praktische Schwierigkeiten insbesondere bei • der Spezifikation des Modells: Bei einer Zustandsraumgröße N weist die Generatormatrix Q im Prinzip N2 Elemente auf, deren praktische Setzung offensichtlich nur unter Zuhilfenahme „höherer“ Modellierungsparadigmen möglich ist; hier sind zeitbehaftete Petri-Netze in breitem Einsatz [BKr02], bzw. vorzugsweise noch deutlich strukturiertere Modellwelten (wie etwa, im vorliegenden Kontext, das ProC/B-Paradigma); • der rechnerinternen Darstellung des Modells: Die Speicherung von N2 Elementen ist bei den genannten Zustandsraumgrößen auch für Größtrechner schwierig bis unmöglich; hier bieten, basierend auf der Modellstruktur, vor allem Notationen der Kronecker-Algebra (Tensor-Algebra) deutliche Abhilfe (vgl. [Buc96]); • der numerischen Lösung des Modells: Lineare Gleichungssysteme der genannten (Zustandsraum-) Dimension erfordern den Einsatz besonderer Lösungstechniken, wobei fast ausschließlich iterative Verfahren Anwendung finden (vgl. [Ste91]). CTMC-Analyse • begrenzte Verständlichkeit im Anwendungsbereich, daher (wie hier vorliegend) nur unter Nutzung höherer Modellierungsparadigmen praktisch einzusetzen; • weitgehende Freiheit der Modellbildung; • (automatische) Erkennung gewisser Modellierungsfehler durch Abstützung auf funktionale Analysetechniken, insbesondere auch mittels Transformation der zu analysierenden Modelle in die Darstellungswelt der Petri-Netze; • exakte Ergebnisse hinsichtlich verschiedenster detaillierter und aggregierter Zielgrößen; • Einsetzbarkeit durch Größe des Zustandsraums praktisch begrenzt, so dass CTMC-Techniken vornehmlich zur exakten (Vor-)Analyse von Modellteilen moderater Größe genutzt werden sowie, damit im Zusammenhang, zur Unterstützung von (Modell-)Aggregierungstechniken; Die ProC/B-Modellierungsumgebung bietet als eine der Analyse-Optionen die numerische Analyse von CTMC-Modellen an. Für ein zu analysierendes Modell des ProC/B-Paradigmas werden (auf Anforderung:) automatisch • die interne Beschreibung eines CTMC-Modells erzeugt, wobei die Bedingungen der Abbildbarkeit (exponentiell bzw. phasenverteilte Zeitspannen, eingeschränkter Gebrauch von Parametern/Variablen und Countern/Lagerbausteinen) überprüft werden;
42
F. Bause et al.
• eine stationäre oder transiente CTMC-Analyse durchgeführt, wobei der potentiell unendlich große Zustandsraum des ProC/B-Modells durch geeignete Kurzschlüsse von Senken und Quellen in einen endlichen Zustandsraum des CTMC-Modells transformiert wird; • die ermittelten Ergebnisse in die ProC/B-Welt überführt. Die Durchführung dieser Schritte stützt sich auf das verfügbare Software-Tool APNN-Toolbox [BBK98, Kem00], das ebenfalls im Kontext der Analyse von Rechen- und Kommunikations-Systemen entwickelt worden war. Die APNNToolbox ist eine eigenständige Modellierungsumgebung, lässt als ModellierungsParadigma verschiedene Versionen zeitbehafteter Petri-Netze zu, besitzt eigene Modell-Spezifikationshilfen – unter ihnen sprachliche Notationen für (hier vornehmlich genutzte) farbige „superposed generalized stochastic Petri nets“ (SGSPNs, s. [BKr02, MBC+95]), und bietet eine Reihe einschlägiger Analysetechniken zur Auswahl an – unter ihnen effiziente strukturnutzende Verfahren zur stationären und transienten Analyse von Markov-Ketten sowie Petri-Netz-basierte Techniken zur funktionalen Analyse, und damit zur Aufdeckung bestimmter Modellierungsfehler (wie beispielsweise Deadlocks). Die APNN-Toolbox bot sich zur Nutzung an, da ähnlich ProC/B auch SGSPNs die Beschreibung und Analyse interagierender Prozesse unterstützen. Die verfügbaren Techniken der CTMC-Analyse erlauben eine exakte Bestimmung interessierender Zielgrößen, wie etwa der Mittelwerte und Varianzen von Beständen und Durchsätzen. Des Weiteren ermöglicht die APNNToolbox funktionale Beurteilungen auf Basis von Algorithmen für Petri-Netze und von so genannten „model checking“-Verfahren (vgl. [BKK03]). Mit dem aktuellen Instrumentarium erweisen sich Modelle mit Zustandsraumgrößen bis in den Bereich 107–108 auf heutigen Rechensystemen lösbar.
2.3.3 Algebraisch-numerische Analyse von Produktformnetzen In der Menge der CTMC-Modelle als Sonderfall enthalten ist die Klasse der sog. „Produktformnetze“ (Product Form Queueing Networks: PQNs; Originalartikel [BCM+75], s. auch [BGM+06] u. a.), welche die angenehmen Eigenschaften aufweist, einerseits (nahezu) explizite stationäre Lösungen aufzuweisen, andererseits viele im vorliegenden Anwendungsbereich praktisch relevante Modelle einzuschließen (zumindest realistisch zu approximieren).
Umgebung Kette
Abb. 2.11 Skizze zur PQN-Modellwelt
Zugänge
Stationsnetzwerk Station Station
Abgänge
2 ProC/B
43
Die Modellwelt der PQNs sieht (und spezifiziert) ein zu analysierendes System als Netzwerk von Warteschlangenstationen verschiedenen Typs (Abb. 2.11). Die zugelassenen Stationstypen unterscheiden sich durch ihre „Bediendisziplin“; im vorliegenden Anwendungskontext interessant sind einige Disziplinen mit sequentieller Kundenbedienung, unter ihnen die in Kap. 2.3.2 besprochene M/ M/1-Disziplin, sowie Disziplinen mit „gleichzeitiger, gleichmäßiger“ Bedienung, bei denen die Arbeitskapazität der Station allen anwesenden Kunden (gleichzeitig, in gleichen Anteilen) zugute kommt. In diesem Netz von Stationen bewegen sich Kunden (alle Kunden einer „Kundenkette“) nach vorgegebenem Muster: Bei einer „offenen“ Kundenkette betreten Kunden das Netz aus der Umgebung (Ankunft), bewegen sich zu einer bestimmten Station, dann zu einer weiteren Station, …, letztlich von einer Station in die Umgebung (Abgang). Die Netzankünfte erfolgen (bei PQNs) mit exponentiell verteilten Ankunftsabständen. An jeder besuchten Station stellt der Kunde einen Bedienwunsch bestimmten zeitlichen Umfangs, verlässt die Station nach abgeschlossener Bedienung. Der Weg durch das Netz kann (durch diskrete Wahrscheinlichkeiten gesteuerte) Alternativen zulassen. Es können mehrere (unterschiedliche) Kundenketten vorgesehen werden. Kundenketten dürfen auch „geschlossen“ sein, wo eine geschlossene Kette keine Kunden-Ankünfte oder Abgänge aufweist, sondern eine feste Anzahl ihrer Kunden fortlaufend durchs Netz zirkuliert. Für die stationäre Zustandsverteilung von PQN-Netzen sind, wie bereits erwähnt, (nahezu) geschlossene Lösungen bekannt. Wir betrachten zur Illustration dieser Lösungen den einfachen Fall einer einzigen offenen Kundenkette. Alle zugelassenen Stationstypen, in Isolation betrachtet, besitzen geschlossene stationäre Lösungen analog der stationären M/M/1-Lösung. Seien die Stationen des Netzes durchnummeriert (von 1 bis N), und ihre Unterscheidung durch entsprechende Indizierung vorgenommen. Sei etwa die i-te Station vom M/ M/1-Typ. Für eine solche Station, in Isolation betrachtet, ergab sich als stationäre Zustandsverteilung: pi (n) = ρin ⋅ (1 − ρi )
n = 0,1, 2,...
Die Verteilungen der anderen Stationen (zugelassenen Typs), wieder in Isolation, haben analoge Form (identisch, wenn es sich um M/M/1-Stationen handelt; „ähnlich“ bei Stationen der anderen zugelassenen Typen, unter denen insbesondere Stationen mit „gleichzeitiger Bedienung“ im vorliegenden Anwendungskontext von Interesse sind, d. h. Stationen, bei denen alle anwesenden Kunden simultan bedient werden). Die stationäre Zustandsverteilung des gesamten Netzes umfasst alle Wahrscheinlichkeiten P(n1 , n2 ,..., nN ); in Worten: die Wahrscheinlichkeiten dafür, dass sich (gleichzeitig) n1 Kunden in Station 1 befinden, n2 in Station 2, …, nN in Station N, für alle „Populationen“ n1, n2,…, nN. Diese Verteilung weist eine (eben:) „Produktform“ auf; sie ergibt sich als Produkt der Verteilungen der isolierten Stationen zu: N
P(n1 , n2 ,..., nN ) = 1 ⋅ ∏ pi (ni ) G 1
44
F. Bause et al.
wo G eine „Normalisierungskonstante“ bezeichnet, die im vorliegenden Fall einer einzigen offenen Kette angenehmerweise den Wert 1 besitzt. Die tatsächliche Berechnung der Verteilung bedarf allerdings eines vorbereitenden Schrittes: Die Verteilungen der isolierten Station war ja von deren Auslastung ρi = i μi abhängig, damit von ihrem Durchsatz λi, der als Ankunftsrate bekannt (gegeben) war. Die Durchsätze der (im Netz) eingebetteten Stationen sind zunächst nicht bekannt, lassen sich aber über die Lösung eines kleineren linearen Gleichungssystems (basierend auf der Netzankunftsrate und den Wahrscheinlichkeiten alternativer Wegewahlen im Netz) leicht berechnen. Im einfachsten Fall, wenn keine Wegealternativen vorgesehen sind, der Kundenweg durchs Netz demnach deterministisch eindeutig ist, sind alle Stationsdurchsätze im Netz offensichtlich identisch, und identisch zur Netzankunftsrate, d. h. zum Netzdurchsatz. Der allgemeine Fall von Modellen der PQN-Klasse • lässt mehrere (offene und/oder geschlossene) koexistierende Kundenketten zu, mit jeweils exponentiell verteilten Ankunftsabständen der offenen Ketten; • erlaubt die Berücksichtigung einer festliegenden Menge von Stationstypen, wo für Stationen mit sequentieller Bedienung (à la M/M/1) ausschließlich exponentiell verteilte, für alle Kundenbesuche identische Bedienwünsche erlaubt sind, während für Stationen mit gleichzeitiger Bedienung allgemein verteilte, auch unterschiedliche Bedienwünsche zugelassen sind; • gestattet es, den Stationen „Bediengeschwindigkeiten“ zuzuordnen, welche die tatsächliche Bearbeitungsdauer eines Bedienwunsches verkürzen bzw. verlängern (besitzt etwa eine Station die konstante Geschwindigkeit 2, dann bewältigt sie 2 Bedienwunscheinheiten je Zeiteinheit, und die tatsächliche Bearbeitungsdauer jedes Bedienwunsches halbiert sich); • lässt darüber hinaus „zustandsabhängige“ Bedienungen zu, in welchem Falle die Bediengeschwindigkeit einer Station nicht konstant ist, sondern in Abhängigkeit vom vorliegenden Zustand (d. h.in Abhängigkeit von der Zahl anwesender Kunden) variiert. Unter geschickter Nutzung des Mechanismus’ zustandsabhängiger Bedienung gelingt es, eine Vielzahl interessanter realitätsnaher Bediendisziplinen zu erfassen. So ergibt sich beispielsweise • die reine „Processor Sharing“ (PS)-Station als Station gleichzeitiger Bedienung mit konstanter Bediengeschwindigkeit 1 (hier wird die konstante Arbeitskapazität von 1 Arbeitseinheit (AE) je Zeiteinheit (ZE) gleichmäßig auf alle anwesenden Kunden aufgeteilt, so dass während der Anwesenheit von n Kunden jeder einen Arbeitsfortschritt von 1/n AE je ZE erfährt); • die „Infinite Server“ (IS) Station als Station gleichzeitiger Bedienung mit zustandsabhängigen Bediengeschwindigkeiten, die der Zahl anwesender Kunden entsprechen (hier wächst die Arbeitskapazität proportional zur Stationspopulation, so dass während der Anwesenheit von n Kunden jeder einen Arbeitsfortschritt von n/n = 1 AE je ZE erfährt, als ob also jeder Kunde einen eigenen Bediener voller Arbeitskapazität besäße);
2 ProC/B
45
• ein Mehrbedienersystem mit M Bedienern als Station gleichzeitiger Bedienung mit zustandsabhängigen Bediengeschwindigkeiten, welche proportional zur Zahl anwesender Kunden bis auf M anwachsen, um dann konstant zu bleiben (hier wächst die Arbeitskapazität mit der Stationspopulation bis auf M, so dass während der Anwesenheit von ≤ M Kunden jeder einen Arbeitsfortschritt von 1 AE je ZE erfährt, und bei höheren Populationen Kundenabfertigungen so erfolgen, wie es bei genau M Bedienern der Fall wäre; vgl. Abb. 2.3 für M=3). Verglichen mit den zu Illustrationszwecken betrachteten einfachen Fällen zeigen im allgemeinen Fall sowohl die Stationsverteilungen als auch die Netzverteilung deutlich komplexere Formen. Auch ist der Berechnungsgang im allgemeinen Fall aufwendiger, wobei insbesondere die Normalisierungskonstante G der Produktform bei Vorliegen geschlossener Ketten einen gewissen Aufwand erfordert. Als Gemeinsamkeit verbleibt • die Verfügbarkeit „nahezu“ geschlossener Lösungen mit einem Berechnungsgang, der zunächst die numerische Lösung je eines linearen Gleichungssystems pro Kundenkette erfordert, dann die Berechnung der explizit bekannten Zustandsverteilung des Netzes, letztlich darauf basierend die Ermittlung weiterer interessierender Zielgrößen (Füllungen, Durchsätze, Verweilzeiten); • der insgesamt sehr geringe Berechnungsaufwand, insbesondere verglichen mit den Alternativen Simulation und numerische CTMC-Analyse; • eine weitgehende Verträglichkeit der PQN-Modellwelt mit der ProC/B-Modellwelt (vgl. Kap. 2.2), wobei − PQN-Kundenketten mit ProC/B-Prozessketten korrespondieren; − PQN-Stationen mit ProC/B-(Basis-)Funktionseinheiten korrespondieren; − die Mechanismen der PQN-Netzankünfte mit den ProC/B-Quellen korrespondieren; − eine PQN-Stationsankunft mit einer ProC/B-Dienstnutzung korrespondiert. Analyse von Produktformnetzen • Hinreichende Verständlichkeit im Anwendungsbereich samt nahe liegender Übertragbarkeit von ProC/B-Modellen, • allerdings mit Einschränkung der berücksichtbaren Systemeigenschaften auf die Charakteristika der PQN-Klasse, mit automatischer Überprüfbarkeit der Einhaltung dieser Einschränkungen, • wobei (vielfältig vorliegende) praktische Erfahrungen erfreulicherweise eine erhebliche „Robustheit“ gegenüber Verletzungen der Bedingungen zeigen, so dass die erzielten Ergebnisse auch bei Nichteinhaltung der PQN-Bedingungen als gute Approximation dienen können; die Robustheit der Ergebnisse liegt auch den Techniken der sog. „Operational Analysis“ (vgl. [Kow89]) zugrunde, welche unter (scheinbar) schwächeren Bedingungen zu identischen Resultaten führt wie die strenge PQN-Analyse; • äußerst effizienter Berechnungsablauf; • exakte Ergebnisse hinsichtlich Mittelwerten interessierender Zielgrößen.
46
F. Bause et al.
Die ProC/B-Modellierungsumgebung bietet als eine der Analyse-Optionen die algebraisch-numerische Analyse von Produktformnetzen an. Für ein zu analysierendes Modell des ProC/B-Paradigmas werden (auf Anforderung:) automatisch • die Einhaltung der Produktformnetz-Bedingungen überprüft; • eine interne Beschreibung des zugehörigen Produktformnetzes erzeugt; • die Berechnungen der PQN-Analyse durchgeführt; • die ermittelten Ergebnisse auf Ebene der ProC/B-Welt bereitgestellt. Die Durchführung dieser Schritte stützt sich auf das Software-Tool HIT [BMW94], welches (neben der bereits skizzierten Simulationsoption) auch die Option der PQN-Analyse bereitstellt. Dabei wird das zu analysierende ProC/BModell nach Überprüfung in seine Hi-Slang-Fassung transformiert und seine stationäre Lösung unter Einsatz effizienter PQN-Algorithmen ermittelt. Wie beim Einsatz der PQN-Techniken üblich, konzentriert sich HIT (in Standardnutzung) hierbei auf die Ermittlung der Erwartungswerte von Verweilzeiten, Durchsätzen, Auslastungen und Populationen/Füllungen. Eine Besonderheit der in HIT implementierten PQN-Techniken besteht darin, dass sämtliche Ergebnisse „geschlüsselt“ erfragt werden können, d. h.nach „Verursachern“ (in den hierarchischen ProC/BStrukturen) aufgeteilt.
2.4 Weitere Modellstudien Anhand zusätzlicher Verfeinerungen des Beispielmodells aus Kap. 2.2 sollen nun weitere Möglichkeiten zur Modellierung und Analyse von ProC/B-Modellen vorgestellt werden. Dabei wird das Modell des Güterverkehrszentrums in unterschiedliche Richtungen erweitert und die bisher präsentierte ProC/B-Notation ergänzt.
2.4.1 Ausfälle und Wartung Bisher haben wir angenommen, dass aktive Ressourcen jederzeit verfügbar sind. In der Praxis wird dies in der Regel nicht der Fall sein, da beispielsweise Ausfälle auftreten können. Teilweise lassen sich Ausfälle durch Wartung der Ressourcen vermeiden, allerdings ist in beiden Fällen, also während der Ausfall- sowie der Wartungszeit, die Ressource nicht für ihren eigentlichen Einsatzzweck verfügbar. Im Folgenden betrachten wir den Fall, dass die Gabelstapler in der FE SUH ausfallen können. Um Ausfällen entgegenzuwirken, werden die Gabelstapler in regelmäßigen Abständen gewartet. Wir nehmen an, dass zwei Wartungstechniker jeweils zeitgleich die Gabelstapler in Pool 1 und 2 warten. Damit der laufende Betrieb möglichst wenig beeinflusst wird, soll nur jeweils ein Gabelstapler in einem Bereich gewartet werden. Wie bereits angesprochen, stehen somit einige Gabelstapler während der Ausfall- bzw. Wartungszeit nicht zur Be- und Entladung von Lkws zur Ver-
2 ProC/B
47
fügung, allerdings lassen sich modellseitig Ausfälle und Wartungen wie „normale Belastungen“ der Gabelstapler auffassen. Abbildung 2.12 zeigt das zugehörige erweiterte ProC/B-Modell. Die Wartungen werden durch zwei Prozessketten modelliert. Jede der beiden PKs ist für die Gabelstapler eines Pools zuständig. Eine Wartung findet im Mittel alle 400.000 Zeiteinheiten, also etwa alle 4,6 Tage, (exponentialverteilt) statt. Dabei wird der Server Gabelstapler_Pool1 bzw. Gabelstapler_Pool2 für 10.800 ZE (dies entspricht 3 Stunden) belegt. Die genannten Werte sind in globalen Variablen (z. B. WZ, WZ1) abgelegt, um den Aufwand für Änderungen z. B. bei Optimierungen zu reduzieren. Werden Gabelstapler nicht rechtzeitig gewartet, können diese ausfallen. Die Frage ist, was rechtzeitig in diesem Zusammenhang bedeutet und wie man dies modellieren kann. Wir nehmen an, dass Störungen gemäß einer Exponentialverteilung (für jeden Bereich) eintreten, deren Parameter die mittlere Zeit bis zum Ausfall (Time To Failure; TTF) angibt. In dem Beispielmodell sollen Störungen im Mittel alle fünf Tage auftreten. Wurde nicht rechtzeitig gewartet, tritt die Störung ein und einer der Gabelstapler steht während der notwendigen Reparaturzeit RZ nicht zur Verfügung. Im Modell wird dieser Sachverhalt durch die Belastung des Pools mit einem Reparaturauftrag modelliert, so dass sich die Bedienkapazität für Be- und Entladungen von Lkws entsprechend reduziert. Eine rechtzeitige Wartung liegt vor, wenn die Wartung vor dem nächsten Ausfall stattgefunden hat. Unter der Annahme, dass alle WZ Zeiteinheiten eine Wartung durchgeführt wird, tritt dieser Fall im Mittel mit Wahrscheinlichkeit e(–WZ/TTF) ein. Mit der Restwahrscheinlichkeit ist die Störung vor der nächsten Wartung „eingetroffen“ und ist somit zu berücksichtigen. Die Prozessketten Ausfall1 und Ausfall2 in Abb. 2.12 modellieren diese unterschiedlichen Verhaltensweisen im Störungsfall durch einen ODER-Konnektor, an dem probabilistisch eine der beiden Verhaltensweisen ausgewählt wird. Die hier vorgenommene Modellierung der Ausfälle und Wartungen (s. Abb. 2.12) durch zusätzliche Belastungen der Gabelstapler erlaubt es, PQN-Techniken weiterhin zur Analyse einzusetzen. Da im Modell aus Abb. 2.12 nun nicht mehr alle Gabelstapler ununterbrochen für das Be- und Entladen der Lkws zur Verfügung stehen, sondern zusätzlich durch Ausfälle und Wartungen belastet sind, erhöht sich wie erwartet die Durchlaufzeit der Lkws in der SUH. Die Ergebnisse der Analyse sind in Tabelle 2.5 aufgelistet. Tabelle 2.6 stellt verschiedene Konfigurationen für die Stückgutumschlaghalle gegenüber. Bei den Ergebnissen aus der ersten Zeile wurde davon ausgegangen, dass bei einem Wartungsintervall von 400.000 ZE keine Ausfälle auftreten. Verglichen mit den Ergebnissen aus Tabelle 2.3 (mit einer DLZ von 971) erhöht sich die DLZ der Lkws durch reine Wartungen kaum. Die zweite Zeile in Tabelle 2.6 zeigt die Ergebnisse für die SUH, in der sowohl Wartungen als auch Ausfälle auftreten (dies entspricht dem Modell aus Tabelle 2.5). Bei den Ergebnissen der dritten Zeile wurde schließlich vollkommen auf Wartungen verzichtet, so dass alle in dem Modell erzeugten Störungsprozesse den jeweiligen Gabelstapler-Pool belasten. An den Ergebnissen in Tabelle 2.6 lässt sich erkennen, dass die Durchlaufzeit durch Wartungen verringert wird. Da die Pools mit je drei Gabelstaplern mehr als ausrei-
48
F. Bause et al.
SUH
laden (uniform(500,700))
0.5
Dokumente_bearbeiten (uniform(300,420))
Gabelstapler_Pool1. request
LKW_Abfertigung
DELAY
() laden (uniform(500,700))
0.5
Gabelstapler_Pool2. request
1
1-exp(-1.0/TTF1 * WZ)
Ausfall1 ()
Dokumente_bearbeiten (uniform(300,420)) DELAY
Gabelstapler_in_Pool1_stoeren (RZ1) Gabelstapler_Pool1. request
EVERY negexp(1.0/TTF1) exp(-1.0/TTF1 * WZ)
1
1-exp(-1.0/TTF2 * WZ)
Ausfall2 ()
Gabelstapler_in_Pool2_stoeren (RZ2) Gabelstapler_Pool2. request
EVERY negexp(1.0/TTF2) exp(-1.0/TTF2 * WZ)
1
Wartung1
Gabelstapler_in_Pool1_warten (WZ1) Gabelstapler_Pool1. request
() EVERY negexp(1.0/WZ)
1
Wartung2
Gabelstapler_in_Pool2_warten (WZ2) Gabelstapler_Pool2. request
() EVERY negexp(1.0/WZ)
TTF1:REAL=432000.0 TTF2:REAL=432000.0 {"mean time to failure" fuer jeweiligen Pool} RZ1:REAL=200000.0 RZ2:REAL=200000.0 {Reparaturzeit fuer Gabelstapler aus dem jeweiligen Pool} WZ:REAL=400000.0 {Wartungsintervall fuer Gabelstapler} WZ1:REAL=10800.0 WZ2:REAL=10800.0 {Wartungszeit im jeweiligen Pool}
SDSPEEDS=[[1,2,3],[1.0,2.0,3.0]], DIS=PS Gabelstapler_Pool1 request (amount:REAL) SDSPEEDS=[[1,2,3],[1.0,2.0,3.0]], DIS=PS Gabelstapler_Pool2 request (amount:REAL)
Abb. 2.12 Stückgutumschlaghalle mit Wartungen und Ausfällen der Gabelstapler
Tabelle 2.5 Ergebnisse für das Modell aus Abb. 2.12 (CPU-Zeit < 0,04 s) SUH Lkw KV_Terminal Lkw Gabelstapler_Pool_1 Lkw Gabelstapler_Pool_2 Lkw
Bestand N
Durchlaufzeit T
Durchsatz D
2,480 0,834 0,790 0,790
991,94 600,45 631,94 631,94
0,0025 0,00139 0,00125 0,00125
2 ProC/B
49
Tabelle 2.6
Gegenüberstellung einiger Szenarien für die SUH
SUH Lkw (nur Wartung) SUH Lkw (Wartung und Ausfälle) SUH Lkw (nur Ausfälle)
Bestand N
Durchlaufzeit T
Durchsatz D
2,433 2,480 2,522
973,04 991,94 1008,62
0,0025 0,0025 0,0025
chend dimensioniert sind, ist der Zeitgewinn allerdings gering. In der Praxis würde man hier eventuell auf Wartungen verzichten und nur die ausgefallenen Gabelstapler reparieren. Deutlicher wird die Verringerung der Durchlaufzeit, die durch Wartungen der Gabelstapler erzielt werden können, in Tabelle 2.7. Hier stehen pro Pool nur zwei Gabelstapler zur Verfügung, so dass ein ausfallender Gabelstapler größere Auswirkungen hat.
2.4.2
Passive Ressourcen
Bisher haben wir als Ressourcen nur Server betrachtet. Dies erlaubte den Einsatz effizienter PQN-Algorithmen. Die Beschreibung komplexer logistischer Systeme resultiert in größeren und umfangreicheren Modellen und erfordert Modellierungsmöglichkeiten, die über die bisher beschriebene Teilmenge des ProC/B-Formalismus hinausgehen. Derartige Modelle lassen sich in der Regel nicht mehr auf PQNs abbilden und können üblicherweise nur noch per Simulation analysiert werden (vgl. Kap. 2.3). Im Folgenden werden wir unser Modell weiter detaillieren und zusätzliche Elemente des ProC/B-Formalismus vorstellen, für die eine Abbildung auf PQNs nicht mehr möglich ist. Neben aktiven Ressourcen wie z. B. Gabelstapler oder Maschinen, die durch Server dargestellt werden, erfordern logistische Systeme in der Regel die Modellierung passiver Ressourcen wie z. B. Lager oder Laderampen. Hierzu ist im ProC/B-Formalismus der Storage genannte Lager-Baustein vorgesehen. Abbildung 2.13 zeigt eine erweiterte Version des KV-Terminals: Während bislang ein direkter Umschlag der Ladung zwischen Lkws und Zügen stattfand, verfügt das KV-Terminal nun über ein Lager, in dem Güter bis zum Umschlag zwischengelagert werden können. Wie zuvor fahren die Lkws bzw. Züge zunächst zur Entladeposition. Für den Entladevorgang folgt ein Zugriff auf das Lager und anschließend auf die Reach_Stacker bzw. Kraene. Danach folgt eine Fahrt zur Beladeposition. Hierbei wird zunächst die Menge an Gütern bestimmt, die der Lkw oder Zug laden
Tabelle 2.7 Ergebnisse für die SUH mit zwei Gabelstaplern pro Gabelstapler-Pool SUH Lkw (nur Wartung) SUH Lkw (Wartung und Ausfälle) SUH Lkw (nur Ausfälle)
Bestand N 2,667 2,978 3,273
Durchlaufzeit T 1.066,67 1.191,12 1.309,09
Durchsatz D 0,0025 0,0025 0,0025
50
F. Bause et al.
soll. Die Menge an entladenen Gütern und die Menge an eingeladenen Gütern müssen hierbei nicht übereinstimmen: Es ist also möglich, dass ein Lkw oder Zug das KV-Terminal nicht voll beladen erreicht oder verlässt. Das Laden der Güter erfolgt wieder durch Zugriffe auf das Lager und die Reach_Stacker bzw. Kraene. Das Lager verfügt über eine maximale Kapazität von 300 Einheiten. Von Interesse ist hier sicherlich, ob diese Kapazität ausreicht, um die zwischengelagerten Güter aufzunehmen. Bei der Simulation des Modells hat sich gezeigt, dass das Lager im Mittel nur mit knapp 54 Einheiten belegt, also mehr als ausreichend dimensioniert ist. Weitere Ergebnisse für das Modell sind in Tabelle 2.8 aufgelistet. Die Modellierung weist im Bereich der Züge eine Besonderheit auf. Die Auflademengen für Züge sind so definiert, dass sie im Mittel größer sind als die Ablademengen. Sind nicht genügend Einheiten im Lager, wird nur die vorhandene Anzahl an Einheiten auf den Zug verladen (s. alter_or_skip in Abb. 2.13), und dieser verlässt darauf das KV-Terminal. Alle anderen Zugriffe auf das Lager (durch Aufruf des Dienstes change) blockieren ggf. den aufrufenden Prozess, falls die gewünschte Änderung des Lagerbestandes nicht möglich ist. Die Blockierung erfolgt solange, bis die Änderung vorgenommen werden kann, da zwischenzeitlich der Bestand durch andere Prozesse geändert wurde. Durch diese nicht-blockierenden Aufladevorgänge ist es möglich, ein typisches Problem der Simulation, nämlich ein nichtstationäres Modell, zu vermeiden. Da in Modellen von logistischen Netzwerken häufig Situationen auftreten, die zu nicht-stationären Modellen führen können, wurde die ProC/B-Modellierungsumgebung dahingehend erweitert, dass derartige Situationen bereits vor der Simulation durch das Tool erkannt werden können (vgl. Kap. 2.3 und [BKr07]).
2.4.3
Mobile Ressourcen
In den bisher beschriebenen Modellen wurden Ressourcen verwendet, welche passiv sind oder ein lokal spezifizierbares (aktives) Verhalten aufweisen. Im Bereich der Logistik sind zusätzlich andere Arten von Ressourcen gebräuchlich, welche sich dadurch auszeichnen, dass sie nicht ortsgebunden sind und dass sie an verschiedenen Stellen des Aktivitätsablaufs der zu bedienenden Prozesse genutzt werden. So werden beispielsweise zur Be- und Entladung der Lkws in der Stückgut-Umschlaghalle Mitarbeiter benötigt, die die Gabelstapler der einzelnen Pools bedienen und die Ladevorgänge unterstützen. Eine Fragestellung könnte sich damit beschäftigen, ob die Anzahl der Mitarbeiter der Anzahl verfügbarer Gabelstapler entsprechen muss. Wie bereits angesprochen, können Gabelstapler ausfallen oder werden gewartet, und stehen somit nicht zur Verfügung, so dass dann Mitarbeiter untätig sein müssten. Andererseits sollten in den Bereichen möglichst jeweils alle 3 Gabelstapler einsetzbar sein, um Hochlastphasen, die eventuell nur in einem Bereich der SUH auftreten, besser bewältigen zu können. Um dies zu erreichen, werden die Mitarbeiter als mobile Ressource betrachtet, welche je nach Bedarf in einem der beiden Bereiche eingesetzt werden können und zwischen den Bereichen ggf. wechseln.
KV_Terminal Lkw Reach_Stacker Lkw KV_Terminal Zug Kraene Zug DELAY
fahren (uniform(60,180))
Kraene request
Reach_Stacker request (amount:REAL) (amount:REAL)
SPEED=3.0
CAP=3
(position:INT)->(content_value:INT)
(position:INT,by_value:INT) alter_or_skip (position:INT,from_value:INT, to_value:INT)->(achieved:INT) content
(amount:INT[]) alter
change
Lager
MAX=[300]
Lager. alter_or_skip
CODE
Lager. change
Lagerstand_aktualisieren ([data.Ladung])
DELAY
Kraene. request
DELAY
fahren (uniform(60,180))
rangieren (uniform(240,360))
DELAY
fahren (uniform(60,180))
DELAY
fahren (uniform(60,180))
beladen (abs(120 * data.Neue_Ladung))
Kraene. request
abladen (120 * data.Ladung)
Reach_Stacker. request
beladen (120 * data.Neue_Ladung)
Reach_Stacker. request
abladen (120 * data.Ladung)
Lagerstand_aktualisieren (1,-data.Neue_Ladung,0)-->(data.Neue_Ladung)
DELAY
fahren (uniform(60,180))
Lager. change
Lagerstand_aktualisieren ([-data.Neue_Ladung])
Lager. change
Lagerstand_aktualisieren ([data.Ladung])
Ladung_bestimmen (data.Neue_Ladung := randint(40,60);)
()
Zug_Abfertigung (Ladung:INT) --> (Neue_Ladung:INT)
CODE
Ladung_bestimmen (data.Neue_Ladung := randint(0,2);)
()
LKW_Abfertigung (Ladung:INT) --> (Neue_Ladung:INT)
KV_Terminal
2 ProC/B 51
Abb. 2.13 KV-Terminal mit Lager
ProC/B bietet die Möglichkeit durch die Synchronisation von Prozessketten diesen Sachverhalt abzubilden (vgl. Abb. 2.14). Das Verhalten der Mitarbeiter wird durch die Prozesskette Mitarbeiter beschrieben. Die Synchronisation mit (in diesem Beispiel) der Prozesskette Lkw_Abfertigung erfolgt durch so genannte Prozessketten-Konnektoren.
Tabelle 2.8 Ergebnisse für das Modell aus Abb. 2.13 (90% Konfidenzintervalle)
Bestand N
Durchlaufzeit T
Durchsatz D
1,0388 +/– 0,89% 0,335 +/– 0,53% 7,602 +/– 11,6% 7,441 +/– 12,3%
748,80 +/– 0,84% 120,782 +/– 0,27% 27.871,0 +/– 10,8% 1.333,7 +/– 10,6%
0,001387 +/– 0,854% 0,0027744 +/– 0,45% 0,0002787 +/– 0,85% 0,00055755 +/– 0,67%
52
Abb. 2.14 Stückgut-Umschlaghalle mit PK-Konnektoren zur Synchronisation
SUH
0.5
anmelden_Bereich1 (T[1]:=T[1]+1;)
laden (uniform(500,700))
CODE
Gabelstapler_Pool1. request
gehen DEST1 (negexp(1.0/180.0)) DELAY
LKW_Abfertigung (Ladung:INT) --> (Neue_Ladung:INT)
5
LOOP -->
DELAY
bearbeiten beginnen (T[1]:=T[1]-1;) CODE
Dokumente_aktualisieren (negexp(1.0/240.0)) DELAY
Ende_Bereich1 (until (T[1]=0)) <-- ENDLOOP
gehen (negexp(1.0/180.0)) DELAY
Ende_Arbeitsphase (until FALSE) <-- ENDLOOP
Mitarbeiter Start_Arbeitsphase
() AT 0
Start_Bereich1
Dokumente_bearbeiten (uniform(300,420))
DISPOSITION
() LOOP -->
CODE
andere_Taetigkeiten_durchfuehren (negexp(1/180)) DELAY
ELSE
Ladung setzen (data.Neue_Ladung := data.Ladung;) CODE
gehen DEST2 (negexp(1.0/180.0)) DELAY
0.5
T:INT[1..2]=[0,0] {Anzahl Auftraege im Pool i} DEST1:BOOL=FALSE DEST2:BOOL=FALSE {Zielbereich}
Start_Bereich2 LOOP -->
laden (uniform(500,700))
anmelden_Bereich2 (T[2]:=T[2]+1;) CODE
Gabelstapler_Pool2. request
CAP=3
CAP=3
Gabelstapler_Pool1 request (amount:REAL)
Gabelstapler_Pool2 request (amount:REAL)
Dokumente_aktualisieren (negexp(1.0/240.0)) DELAY
bearbeiten_beginnen (T[2]:=T[2]-1;) CODE
Ende_Bereich2 (until (T[2]=0)) <-- ENDLOOP
gehen (negexp(1.0/180.0)) DELAY
Dokumente_bearbeiten (uniform(300,420)) DELAY
F. Bause et al.
2 ProC/B
53
In Abb. 2.14 wurden die Störungen aus der SUH (vgl. Abb. 2.12) zur besseren Übersicht wieder entfernt. Die Quelle der PK Mitarbeiter erzeugt zum Zeitpunkt Null fünf Prozesse, die anschließend in einer Schleife bis zum Ende der Simulation Aktivitäten ausführen. Für jeden der fünf Mitarbeiter (also jeden Prozess) gibt es insgesamt drei Möglichkeiten Arbeit zu verrichten. Die Auswahl aus diesen Möglichkeiten erfolgt durch das Code-Element DISPOSITION (dessen durch den Benutzer spezifizierter Programmcode in Abb. 2.15 dargestellt ist) und den darauf folgenden ODER-Konnektor. Falls in der SUH Lkws be- oder entladen werden müssen, begibt sich der Mitarbeiter in den Bereich, in dem mehr Lkws warten. Falls keine Lkws warten oder in dem jeweiligen Bereich bereits genügend Mitarbeiter sind, nutzt der Mitarbeiter die Zeit, um andere Tätigkeiten durchzuführen. Die Prozessketten Lkw_Abfertigung und Mitarbeiter werden durch PK-Konnektoren synchronisiert. Nach der Ankunft eines Lkws in der SUH wird zunächst ein Zähler erhöht, der die Anzahl der wartenden Lkws in dem Bereich angibt. Anschließend muss der Prozess an dem PK-Konnektor warten, bis ein Prozess der Mitarbeiter diesen ebenfalls erreicht. Sind beide Prozesse am PK-Konnektor, findet wie bisher der Ent- bzw. Beladevorgang mit Hilfe eines Zugriffs auf einen Gabelstapler statt. Der Lkw-Prozess kann die FE danach wieder verlassen, während von dem Prozess des Mitarbeiters noch abschließende Arbeiten (modelliert durch ein Delay) durchgeführt werden. Erst wenn keine weiteren Lkws mehr in dem Bereich warten, verlässt der Mitarbeiter diesen wieder. Dies wird durch eine weitere innere Schleife dargestellt. Tabelle 2.9 zeigt die Ergebnisse für die Stückgutumschlaghalle. Der gestiegene Bestand und die gestiegene Durchlaufzeit deuten darauf hin, dass die SUH überlastet ist und ein Engpass vorliegt. Da die Durchlaufzeit für die Gabelstapler mit 600 ZE auf keine Überlastung schließen lässt, wird der Engpass vermutlich durch die fünf Mitarbeiter hervorgerufen. Deutlich wird dies, wenn die Anzahl der Arbeiter geändert wird. Bei einer Reduzierung auf vier Mitarbeiter steigen die Durchlaufzeit der Lkws auf 1.695,46 ZE und ihr Bestand auf 4,25, während die Werte für die Gabelstapler in etwa unverändert bleiben. Bei einer Erhöhung auf sechs Mitarbeiter sinkt die Durchlaufzeit auf 1.149,53 ZE, bei zehn sogar auf 1.021,15 ZE. Da die reine Abfertigung eines Lkws im Mittel bereits 960 ZE benötigt, sind die zusätzlichen Wartezeiten bei zehn Mitarbeitern nur noch sehr gering. Wie bereits erwähnt, wurde die Entscheidung, welche Tätigkeit durch die Arbeiter verrichtet werden soll, durch ein Code-Element modelliert (s. Abb. 2.15). In CodeElementen kann direkt Code in der Sprache des Simulationstools (hier: Hi-Slang) eingegeben werden. Während für die Modellierung normalerweise eine grafische Notationsmöglichkeit vorgesehen ist, zeigt dieses Beispiel, dass sich komplexe Vorgänge leicht als Simulatorcode in das ProC/B-Modell einbinden lassen.
2.5
Fazit
In der Logistik werden Prozessketten vielfach eingesetzt, um reale oder geplante Netze zu beschreiben. Sie dienen vornehmlich der Kommunikation unter Logis-
54
F. Bause et al.
Abb. 2.15 Code-Element DISPOSITION aus Abb. 2.14
DISPOSITION IF ( (T[1] >= T[2]) AND (T[1] > 0) ) THEN DEST1 := TRUE; DEST2 := FALSE; ELSE IF (T[2] >0) THEN DEST1 := FALSE; DEST2 := TRUE; ELSE DEST1 := FALSE; DEST2 := FALSE; END IF; END IF;
tikern. Eine Analyse, insbesondere eine quantitative Leistungsbewertung, erfolgt in der Regel mittels anderer Modellformalismen bzw. speziellen Beschreibungsformen als Eingabe für Simulationstools. ProC/B [BBF+02] wurde mit dem Ziel entwickelt, hieraus resultierende Aufwands- und Konsistenzprobleme zwischen semiformalem und formalem Modell abzumildern. ProC/B präzisiert eine Teilmenge des Prozessketten-Paradigmas nach Kuhn [Kuh95, Kuh99] und ermöglicht so die automatisierte Analyse von Modellen. Analyse bedeutet in diesem Kontext vornehmlich die Leistungsbewertung mittels stochastischer Modelle. Wie wir an Littles Gesetz gesehen haben, lässt sich die Analyse abstrakter Modelle teilweise mit Papier und Bleistift durchführen und ermöglicht so eine erste Einschätzung der Leistungsfähigkeit eines logistischen Knotens. Ähnliche Zusammenhänge werden in der so genannten Operationalen Analyse ausgenutzt, um erste Aussagen für Netzwerke ableiten zu können [Kow89]. Detailliertere ProC/B-Modelle erfordern elaboriertere Methoden. Wie gezeigt, lassen sich Techniken zur Analyse von Warteschlangennetzen zur Grob-Dimensionierung einsetzen. Eine wichtige Klasse bilden die so genannten Produktform-Warteschlangennetze, für welche hoch effiziente Algorithmen zur Berechnung von Mittelwerten der Leistungsgrößen bekannt sind [BGM+06]. Der Einsatz solcher Algorithmen ist beispielsweise bei der Optimierung von ProC/B-Modellen interessant, um vielversprechende Parameterbereiche zu identifizieren. Weiter verfeinerte ProC/B-Modelle, z. B. solche mit passiven oder mobilen Ressourcen, lassen sich in der Regel nur noch simulativ untersuchen. Die Simulation bietet den Vorteil, dass sie für alle Modelle anwendbar ist, hat allerdings den großen Nachteil, dass sie nur statistische Ergebnisse ermittelt (z. B. Konfidenzintervalle, [LKe00]). Dies macht sich besonders bemerkbar, wenn seltene Ereignisse berücksichtigt werden müssen, die einen signifikanten Einfluss auf das Verhalten haben. Beispiele hierfür sind selten auftretende, aber länger andauernde Ausfälle Tabelle 2.9 Simulationsergebnisse zu dem Modell aus Abb. 2.14 (90% Konfidenzintervalle) SUH Lkw Gabelstapler_Bereich1 Gabelstapler_Bereich2
Bestand N
Durchlaufzeit T
Durchsatz D
3,19 +/– 0,54% 0,7568 +/– 0,47% 0,7494 +/– 0,47%
1.276,79 +/– 0,27% 602,91 +/– 0,05% 602,57 +/– 0,05%
0,002498 +/– 0,32% 0,001255 +/– 0,47% 0,001244 +/– 0,47%
2 ProC/B
55
Prozesskette (ProC/B-Modell)
Simulative Modellwelt
Ereignisorientierte Simulation, Statistik Quantitative (und funktionale) Beurteilung
Generalisierte stochastische Petri-Netze
Warteschlangennetze
Analytische Techniken
Numerische Techniken
Quantitative Analyse
“Model Checking”
Funktionale Analyse
Abb. 2.16 ProC/B-Toolset
(wie gesehen, erlauben Warteschlangentechniken dagegen auch für solche Fälle die Berechnung der exakten Resultate) oder erst nach längerer Zeit eintretende totale oder partielle Systemverklemmungen („Deadlocks“, vgl. [BBe99]). In Modellen logistischer Netze kann es sogar dazu kommen, dass die in der Simulation verwendeten statistischen Schätzer Ergebnisse ermitteln, welche de facto gar nicht existieren, wie z. B. Steady-State-Resultate für nicht stationäre Modelle [ABa01, Bau03, BBe99, Kri07]. Dies zeigt, dass die Simulation der Unterstützung weiterer Analyseverfahren bedarf, um die Simulationswürdigkeit von Modellen abklären zu können. Daher wurde bei der (im SFB 559 vorgenommenen) Entwicklung einer Toolumgebung [AEF+03, BBF+02] zur Beschreibung und Analyse von ProC/B-Modellen der Einsatz mehrerer Techniken konzipiert und realisiert (vgl. Abb. 2.16). Neben der Simulation lassen sich analytische und numerische Techniken aus dem Bereich der Warteschlangennetze anwenden, sowie funktionale Untersuchungen auf Basis von Petri-Netz-Techniken vornehmen. Für den Logistiker bietet das ProC/ B-Toolset den wesentlichen Vorteil, dass er diese Techniken ohne Kenntnisse der zugehörigen Modellwelten anwenden kann. Durch geeignete Transformatoren werden ProC/B-Modelle automatisiert in die Modellwelten der Warteschlangennetze, der (stochastischen) Petri-Netze [BKr02] oder der von Simulationswerkzeugen übersetzt. Für die resultierenden Beschreibungen existiert geeignete Software, welche die den Logistiker interessierenden Leistungsmaße ermittelt. Durch die Möglichkeit, Simulatorcode in die Modellbeschreibung aufzunehmen (vgl. Abb. 2.15) erweist sich ProC/B als sehr flexibel einsetzbar. So wurde das ProC/B-Toolset im SFB 559 erfolgreich eingesetzt, um Systeme aus den unterschiedlichsten Anwendungsbereichen zu modellieren und zu bewerten (z. B. Güterverkehrszentren [DVö03], Luftfrachtknoten [SVö05], Supply Chains [BBu06, BKa01]).
56
F. Bause et al.
Literatur [ABa01] Arns M, Bause F (2001) An instructive example for pitfalls in simulation of logistic networks. ESS’2001, Marseilles, Frankreich, 18.–20. Oktober 2001 [AEF+03] Arns M, Eickhoff M, Fischer M, Tepper C, Völker M (2003) New features in the ProC/ B toolset. Performance Tools 2003, Illinois International Multiconference on Measurement, Modelling, and Evaluation of Computer-Communication Systems, Urbana-Champaign, IL, USA, 2.–7. September 2003 [Bau03] Bause F (2003) Simulation logistischer Netze. In: Rüdiger Hohmann (Hrsg) Tagungsband 17. Symposium Simulationstechnik ASIM 2003 an der Otto-von-Guericke-Universität Magdeburg, Magdeburg, 16.–19. September 2003, SCS-Europe BVBA, ISBN 3-936150-27-3, S 27–34 [BBe99] Bause F, Beilner H (1999) Intrinsic problems in simulation of logistic networks. 11th European Simulation Symposium and Exhibition (ESS99), Simulation in Industry, Erlangen, Germany, 26.–28. October 1999 [BBF+02] Bause F, Beilner H, Fischer M, Kemper P, Völker M (2002) The ProC/B Toolset for the modelling and analysis of process chains. Tools 2002, London (Großbritannien), 14.–17. April 2002 [BBK98] Bause F, Buchholz P, Kemper P (1998) A toolbox for functional and quantitative analysis of DEDS. Quantitative Evaluation of Comp. and Comm. Sys. Springer LNCS 1469, pp 356–359 [BBT04] Bause F, Buchholz P, Tepper C (2004) The ProC/B-approach: From informal descriptions to formal models. Proceedings of the 1st International Symposium on Leveraging Applications of Formal Methods, Paphos, Cyprus, 30. Oktober–2. November, Technical Report TR-2004-6, University of Cyprus, Department of Computer Science, S 328–334 [BBu06] Bause F, Buchholz P (2006) Modellierung von Supply Chains unter Berücksichtigung variierender Organisationsstrukturen. In: Wenzel S (Hrsg) Simulation in Produktion und Logistik 2006, ASIM, 12. Fachtagung, Kassel, 26.–27. September, SCS Publishing House e.V., ISBN 3-936150-48-6 [BCM+75] Baskett F, Chandy KM, Muntz RR, Palacios FG (1975) Open, closed and mixed networks of queues with different classes of customers. J ACM 22(2):248–260 [BEi02] Bause F, Eickhoff M (2002) Initial transient period detection using parallel replications. In: Verbraeck A, Krug W (eds) ESS’2002, Dresden, Germany, 23.–26. October 2002, in Simulation in Industry, 14th European Simulation Symposium and Exhibition, SCS-Europe BVBA Ghent, pp 85–92 [BEi03] Bause F, Eickhoff M (2003) Truncation point estimation using multiple replications in parallel. 2003 Winter Simulation Conference, New Orleans, LA, USA, 7.–10. December [BGM+06] Bolch G, Greiner S, de Meer H, Trivedi KS (2006) Queueing networks and Markov chains: Modeling and performance evaluation with computer science applications, 2nd edn. Wiley, ISBN 978-0-471-56525-3 [BKa01] Bause F, Kaczmarek M (2001) Modellierung und Analyse von Supply Chains. Wirtschaftsinformatik 6:569–578 [BKK03] Buchholz P, Katoen J-P, Kemper P, Tepper C (2003) Model-checking large structured Markov chains. J Log Algebr Program 56(1–2):69–97 [BKr02] Bause F, Kritzinger PS (2002) Stochastic petri nets. Vieweg Verlag [BKr07] Bause F, Kriege J (2007) Detecting non-ergodic simulation models of logistics networks. Proc. of 2nd International Conference on Performance Evaluation Methodologies and Tools (ValueTools) [BMW94] Beilner H, Mäter J, Wysocki C (1994) The hierarchical evaluation tool HIT. Short Papers and Tool Descriptions of the 7th International Conference on Modelling Techniques and Tools for Computer Performance Evaluation [Buc96] Buchholz P (1996) A framework for the hierarchical analysis of discrete event dynamic systems, Habilitation, Universität Dortmund [CLa99] Cassandras C, Lafortune S (1999) Introduction to discrete event systems. Kluwer
2 ProC/B
57
[Cox55] Cox DR (1955) A use of complex probabilities in the theory of stochastic processes. Proc Camb Philos Soc 51 [DVö03] Dilling C, Völker M (2003) Beispielmodellierung eines Güterverkehrszentrums im ProC/ B-Paradigma. SFB-Bericht 03016 [Kem00] Kemper P (2000) Logistic processes go petri nets. In: Philippi S (Hrsg) 7. Workshop Algorithmen und Werkzeuge für Petri Netze, Universität Koblenz-Landau, Koblenz, S 69–74 [Kle75] Kleinrock L (1975) Queueing systems vol 1 – theory. Wiley [Kow89] Kowalk W (1989) Operationale Wartetheorie, Bd 196. Springer IFB [Kri07] Kriege J (2007) Konsistenzprüfung von ProC/B-Modellen zur Vorbereitung einer simulativen Analyse. In: Schulze T, Prein B, Schumann H (Hrsg) Proceedings of the 18th Conference on Simulation and Visualization (SimVis 2007), Magdeburg, 8.–9. März, SCS Publishing House e.V., ISBN 3-936150-50-8, S 69–82 [KSS03] Kelton WD, Sadowski RP, Sturrock DT (2003) Simulation with Arena, 3. Ausg. McGraw-Hill [Kuh95] Kuhn A (1995) Prozessketten in der Logistik – Entwicklungstrends und Umsetzungsstrategien. Verlag Praxiswissen, Dortmund [Kuh99] Kuhn A (1999) Prozesskettenmanagement – Erfolgsbeispiele aus der Praxis. Verlag Praxiswissen, Dortmund [LKe00] Law AM, Kelton WD (2000) Simulation modeling and analysis, 3rd edn. McGraw-Hill, Boston, ISBN 0-07-059292-6 [LZG+84] Lazowska ED, Zahorjan J, Graham GS, Sevcik KC (1984) Quantitative system performance – computer system analysis using queueing network models. Prentice Hall [MBC+95] Marsan MA, Balbo G, Conte G, Donatelli S, Franceschinis G (1995) Modelling with generalized stochastic petri nets. Wiley [Poo87] Pooley RJ (1987) An introduction to programming in SIMULA. Blackwell [Ste91] Stewart WJ (1997) Numerical solution of Markov chains. Marcel Dekker [SVö05] Sieke H, Völker M (2005) Process-oriented simulation of air cargo flows within an airport network. In: Rimane R (Hrsg) Frontiers in Simulation – Simulationstechnique. ASIM 2005, 18th Symposium, Friedrich-Alexander Universität, Erlangen, 12.–15. September, SCS Publishing House e.V., ISBN 3-936150-41-9, S 248–253
Kapitel 3
Simulation von SCM-Strategien Markus Witthaut und Bernd Hellingrath
Zusammenfassung In den letzten Jahren wurden eine Reihe von Strategien für die kollaborative Planung und Steuerung von Supply Chains entwickelt. Diese Strategien zielen darauf ab, über einen geregelten Informationsaustausch und eine Verflechtung der Planungs- und Steuerungsprozesse der einzelnen Unternehmen einer Supply Chain die gestiegenen Kundenanforderungen zu erfüllen und dabei gleichzeitig die Kosten der einzelnen Unternehmen im Netzwerk zu minimieren. Die Umsetzung einer SCM-Strategie in einem oder mehreren Unternehmen zur verbesserten Integration in ein logistisches Netzwerk ist daher mit einer Neustrukturierung bestehender Prozesse und Organisationsstrukturen und möglicher Investitionen in IT-Systeme bei den einzelnen Unternehmen verbunden. Somit sind Verfahren zur Bewertung von Kosten und Nutzen der SCM-Strategien vor deren Einführung erforderlich. Bei einer detaillierten Kosten-Nutzen-Betrachtung der Materialflussund Informationsprozesse müssen viele Faktoren beachtet werden, wie z. B. der Zeitbedarf für Transporte und deren statistische Verteilung oder der Zeitbedarf für Planungsvorgänge und für die Informationsweitergabe, so dass eine dynamische zeitbehaftete Modellbildung sinnvoll ist. Mit Simulationssoftware wurden Experimente zur Untermauerung bzw. Widerlegung von Aussagen über die Auswirkungen einzelner SCM-Strategien bzw. deren Parametrisierung für eine dreistufige Supply Chain der Automobilzulieferindustrie durchgeführt. Insbesondere wurde die Strategie der konventionellen Bestellung von Stufe zu Stufe mit einer beschleunigten Informationsweitergabe (Information Sharing) verglichen. Es konnte mit diesen Experimenten die grundlegende Hypothese bekräftigt werden, dass eine Informationsweitergabe zwischen den Unternehmen der Supply Chain eine Optimierung der unternehmensinternen (Bestände, Auslastungsgrad), aber auch der netzwerkweiten Zielgrößen (Termintreue) ermöglicht. Die Simulationsergebnisse zeigen, dass durch die Strategie des Information Sharing vor allem die vorgelagerten Stufen der Supply Chain profitieren. Die Ergebnisse verdeutlichen zudem, dass das AusM. Witthaut ( ) Fraunhofer-Institut für Materialfluss und Logistik (IML) Josef-von-Fraunhofer-Str.2–4 44227 Dortmund, Deutschland E-mail:
[email protected] P. Buchholz und U. Clausen (Hrsg.), Große Netze der Logistik, DOI 10.1007/978-3-540-71048-6_3, © Springer-Verlag Berlin Heidelberg 2009
59
60
M. Witthaut und B. Hellingrath
maß der Auswirkungen des Information Sharing (IS) sowohl von der Schwankung des Endkundenbedarfs als auch von der Auslastungssituation der Unternehmen abhängig ist. Sind diese beiden gleichzeitig relativ hoch, so resultieren signifikante Verbesserungen aus der Strategie des IS für alle Unternehmen der Supply Chain.
3.1
Einleitung
Neben gestiegenen Anforderungen an die Qualität und den Preis von Produkten ist die Erwartungshaltung der Konsumenten hinsichtlich der Kürze der Lieferzeiten und insbesondere an die Einhaltung versprochener Liefertermine deutlich gestiegen. Dabei müssen die Unternehmen zur Sicherung ihrer Wettbewerbsfähigkeit auch kontinuierlich Potenziale zur Kosteneinsparung identifizieren und umsetzen. Dies bedeutet in der Folge, dass Wertschöpfungsschritte an andere Unternehmen ausgelagert werden. Zulieferer werden weltweit unter Kosten- und Qualitätsgesichtspunkten ausgewählt. Ergebnis dieser Bemühungen sind hochgradig arbeitsteilige Produktions- und Logistiknetzwerke, die sich über mehrere Stufen hinweg über die ganze Welt erstrecken können. Um in dieser Schere von Kundenansprüchen einerseits und kontinuierlichem Einsparungsdruck andererseits bestehen zu können, müssen Logistiknetzwerke mit einer hohen Flexibilität und Reaktionsfähigkeit realisiert werden, in denen wechselnde Kundenbedarfe möglichst schnell und bei geringen Kosten erfüllt werden. Mit der Umsetzung von Konzepten des Supply Chain Management versuchen die Unternehmen in einem Netzwerk einen höheren Integrationsgrad in ihren Planungs- und Steuerungsprozessen zu erreichen, um durch derartige kollaborative Ansätze den Anforderungen an Logistiknetzwerke gerecht zu werden [KHe02]. Vor diesem Hintergrund wurden in den letzten Jahren durch Standardisierungsgremien und einzelne Unternehmen eine Reihe von Strategien für die kollaborative Planung und Steuerung von Supply Chains entwickelt. Diese Strategien zielen darauf ab, über einen geregelten Informationsaustausch zwischen den Partnern eines Produktions- und Logistiknetzwerks und einer Verflechtung der Planungs- und Steuerungsprozesse der einzelnen Unternehmen, das übergeordnete Ziel der Befriedigung der Kundenanforderungen zu erfüllen und dabei gleichzeitig die Kosten der einzelnen Unternehmen im Netzwerk zu minimieren. Letztendlich führt dieses kollaborative Management zu einer optimierten Allokation der verschiedenen Produktions- und Logistikressourcen im Netzwerk. Allerdings ist dabei zu beachten, dass es nicht ein übergeordnetes Zielsystem gibt, an dem sich alle Unternehmen ausrichten, sondern die unterschiedlichen Ziele eines jeden Unternehmens mit den übergeordneten Zielen des Netzwerks harmoniert werden müssen. Die Koordination dieser Zielabstimmung ist im Wesentlichen abhängig von der Machtstruktur innerhalb des Netzwerkes und damit mit dem Autonomiegrad der einzelnen Unternehmen. Die einzelnen Strategien sind daher zwischen den Polen einer zentralen und einer dezentralen Koordination angesiedelt [HKW02].
3 Simulation von SCM-Strategien
3.2 3.2.1
61
SCM-Strategien Definition des Begriffs SCM-Strategie
Aus Sicht eines Unternehmens werden strategische Aufgaben auf unterschiedlichen Ebenen behandelt [HKr03]: Auf der Unternehmensebene werden die langfristigen Unternehmensziele festgelegt. Das Unternehmen definiert in verallgemeinerter Form in der Unternehmensstrategie welche Produkte bzw. Produktgruppen und Dienstleistungen es auf welchen Märkten anbieten will. Durch diese Entscheidung auf Unternehmensebene werden die Geschäftsfelder des Unternehmens bestimmt. Für diese Felder definiert das Unternehmen sogenannte Wettbewerbsstrategien. Porter nennt hier z. B. die Strategien Kostenführerschaft, Differenzierung und Nischenstrategie [Por99]. Auf der Funktionsebene werden schließlich die jeweiligen Wettbewerbsstrategien durch Funktionalstrategien in den einzelnen Geschäftsfeldern umgesetzt. SCM-Strategien sind nach unserem Verständnis in diesem Zusammenhang spezifische Funktionalstrategien. Sie betreffen Funktionen mit logistischen Aufgaben. Hierzu zählen, in Anlehnung an das SCM-CTC-Aufgabenmodell [LNH+03] insbesondere Planungs-, Steuerungs- und Abwicklungsaufgaben in den Bereichen Bedarfsermittlung (Absatzplanung), Beschaffung, Produktion, Distribution und Auftragsmanagement sowie die übergeordnete Netzwerkplanung. Ein weiteres wichtiges Definitionskriterium von SCM-Strategien ist die Überdeckung eines Netzwerkes; SCM-Strategien sind also unternehmens- oder zumindest betriebsübergreifend.
3.2.2
Klassifizierung von SCM-Strategien
Im Folgenden geben wir einen kurzen Überblick über die wichtigsten SCM-Strategien: • Unter der Bezeichnung konventionelle Strategie verstehen wir die nicht abgestimmte Zusammenarbeit zwischen Unternehmen. Jedes Unternehmen plant für sich und tauscht mit seinen Kunden und Lieferanten nur auftragsbezogene Daten (Auftrag, Auftragsbestätigung, Lieferavis) aus. Die konventionelle Strategie ist somit keine SCM-Strategie. Um den Nutzen von SCM-Strategien im Vergleich zur konventionellen Form der Zusammenarbeit untersuchen zu können, muss daher auch die konventielle Strategie betrachtet werden. • Auch die Strategie der zentralen Planung durch ein fokales Unternehmen ist keine SCM-Strategie im engeren Sinne, da es hier keine betriebs- oder gar unternehmensübergreifende Kooperation gibt. Stattdessen wird die Planung von Beständen, Kapazitäten und Aufträgen netzwerkweit durch ein fokales Unternehmen durchgeführt.
62
M. Witthaut und B. Hellingrath
• Beim Vendor Managed Inventory (VMI)1 plant und steuert ein Lieferant die Versorgung für einen Kunden für ein oder mehrere Produkte [BOl01]. Der Kunde nimmt hier keine Bestellungen mehr vor, sondern übermittelt an den Lieferanten seine Bestands- und Abverkaufsdaten. Der Lieferant übernimmt auf Grundlage dieser Informationen die Aufgabe, die Bestände in den Lagern beim Kunden in einem vorher vereinbarten Korridor zu halten. Ziel ist es, kurzfristig Fehlund Überbestände zu vermeiden und mittelfristig unnötige Sicherheitsbestände abzubauen. • Eine Erweiterung des VMI-Ansatzes ist CPFR (Collaborative Forecasting, Planning and Replenishment). Bei dieser SCM-Strategie stimmen sich Kunden und Lieferant nicht nur über Bestände ab, sondern ermitteln gemeinsam den erwarteten Bedarf des Kunden [VIC02]. • Beim Bedarfs- und Kapazitätsmanagement (BKM) werden zwischen den integrierten Unternehmen kurz- und mittelfristige Bedarfe an Materialien ausgetauscht, die mit den zur Verfügung stehenden Kapazitäten der Produktions- und Logistikressourcen abgeglichen werden. Im Falle eines Kapazitätsengpasses werden die Planungsprozesse der beteiligten Unternehmen zur Ermittlung von Gegenmaßnahmen miteinander abgeglichen. Ziel ist es, Engpässe und Überkapazitäten frühzeitig zu erkennen und zu vermeiden. Somit wird über das Netzwerk hinweg eine gleichmäßigere Kapazitätsauslastung angestrebt [KHe02, Boc03, KRK+02]. • Beim Information Sharing (IS) sind Unternehmen von mehreren Stufen einer Supply Chain beteiligt. In dieser Supply Chain übermittelt ein OEM seinen Bedarf bzw. seine Bedarfsprognose nicht nur an seinen Lieferanten sondern auch an die Lieferanten des Lieferanten usw. [SRo05]. • Das Lieferkettenmonitoring (LKM, auch Supply Chain Monitoring genannt [Ode03]) ist eine Erweiterung des Information Sharings durch eine Überwachung von Beständen und Aufträgen aller Partner im Netzwerk. • Für eine vergleichende Betrachtung der SCM-Strategien wurden im SFB559 die folgenden Beschreibungsdimensionen entwickelt: • In der Informationsdimension werden die Inhalt und Qualität der ausgetauschten Informationen beschrieben. Zu den wichtigsten Inhalten gehören (Kunden-) Auftrag, Auftragsbestätigung, Beschaffungsplan, Lieferavis, Lieferplan, Bedarf (Prognose), Bestand sowie Produktionsplan und Kapazität. Qualitative Aspekte sind in erster Linie bei den Plänen relevant, insbesondere die zeitliche Aggregation (Stunden-, Tages- oder Wochenebene) und der zeitliche Horizont der ausgetauschten Informationen sowie die Frequenz des Informationsaustauschs (unmittelbar, täglich, wöchentlich, etc.). • In der Aufgabendimension werden die durchgeführten Planungs- und Steuerungsaufgaben zur Bedarfs-, Netzwerk-, Beschaffungs-, Produktions-, Distributionsplanung und der Auftragsabwicklung gemäß dem SCM-Aufgabenmodell (vgl. [LNH+03]) behandelt. • Mit der Koordinationsdimension wird dargestellt, inwieweit die Planungs- und Steuerungsaufgaben zentral bzw. dezentral durchgeführt werden und in welcher Form sich bei dezentralen Ansätzen die Unternehmen abstimmen. 1
Die Bezeichnung Supplier Managed Inventory (SMI) wird ebenfalls verwendet.
3 Simulation von SCM-Strategien
63
Die Abbildung auf der folgenden Seite (Abb. 3.1) fasst die Betrachtung der SCM-Strategien zusammen.
3.2.3
Bewertungsgrößen
Für die Gestaltung und Bewertung von SCM-Strategien sind somit effiziente Instrumente für quantitative Kosten-Nutzen-Analysen erforderlich. Die für diese quantitative Bewertung besonders geeigneten simulationsgestützten Verfahren müssen auf der einen Seite die wesentlichen physischen Aspekte der Supply Chain, aber gerade auch die hinter den SCM-Strategien liegenden Informations- und Planungsprozesse abbilden. Für die Bestimmung der Kosten-Nutzen-Effekte einer SCM-Strategie
Beschreibungsdimension Strategie
Information
Aufgabe
Koordination
Konventionell
Auftrag, Auftragsbestätigung, Lieferavis
Beschaffungsplanung, Distributionsplanung, Auftragsmanagement
Keine Abstimmung der Partner
Zentrale Planung
Auftrag, Bestand, Kapazität
Absatzplanung, Netzwerkplanung, Beschaffungsplanung, Produktionsplanung, Distributionsplanung
Zentrale Planung/Optimierung eines Netzwerkes durch ein fokales Unternehmen.
VMI/SMI
Bestand und Verbrauch (beim Kunden), Lieferavis
Distributionsplanung, Auftragsmanagement
In größeren Zeitabständen Abstimmung über Zielbestände und Verbrauchsmengen
CPFR
Absatzprognose, Bedarfsplan, Lieferplan
Absatzplanung, Beschaffungsplanung; Produktionsplanung, Distributionsplanung
Enge Kooperation bei Prognose des Kundenbedarfs und der Planung der Belieferung
IS
Bedarf Bestand
Absatzplanung, Beschaffungsplanung, Produktionsplanung,
Ein fokales Unternehmen bestimmt seinen Bedarf und kommuniziert diesen über mehrere Stufen an die Lieferanten
LKM
Bedarf, Bestand, Auftrag
Absatzplanung, Beschaffungsplanung, Produktionsplanung, Auftragsmanagement
Erweiterung von IS um die Überwachung von Aufträgen der Lieferanten
BKM
Bedarf, Kapazität
Absatzplanung, Beschaffungsplanung, Produktionsplanung,
Ein Unternehmen kommuniziert seinen Bedarf; die Lieferanten stimmen ihre Kapazität entsprechend ab
Abb. 3.1 Übersicht über ausgewählte SCM-Strategien
64
M. Witthaut und B. Hellingrath
müssen darüber hinaus Leistungsgrößen wie Servicegrade, Bestandsverläufe und Kapazitätsauslastungen bei den betrachteten Unternehmen bestimmt werden.
3.3.
Modellierung von SCM-Strategien
3.3.1 Anforderungen an die Modellierung Die Umsetzung einer SCM-Strategie zur verbesserten Integration in ein logistisches Netzwerk ist nicht ohne die Neustrukturierung bestehender Prozesse und Organisationsstrukturen und möglicher Investitionen in IT-Systeme bei den einzelnen Unternehmen machbar. Somit sind Verfahren zur Bewertung von Kosten und Nutzen der SCM-Strategien vor deren Einführung erforderlich. Hierbei muss auch festgelegt werden, wie eine SCM-Strategie zu parametrisieren ist. So sind beispielsweise die Frequenz der Weitergabe und der Umfang der Bedarfsinformationen Strategieparameter, die wesentlichen Einfluss auf die Zielerreichung und die Prozesskosten haben. Dabei ist für die ersten Schritte der Untersuchung einer SCM-Strategie ein statischer, d. h. nicht zeitbehafteter Modellierungsansatz geeignet (vgl. z. B. [Arn02], [Ste00]). Mit der Detaillierung der Materialfluss- und Informationsprozesse kommen aber derart viele Zeitfaktoren ins Spiel, wie z. B. der Zeitbedarf für Transporte und deren statistische Verteilung oder der Zeitbedarf für Planungsvorgänge und für die Informationsweitergabe, dass mit den statischen Methoden keine aussagekräftigen Ergebnisse erzielt werden können. Hier ist eine dynamische zeitbehaftete Modellbildung und Untersuchung notwendig, wie sie das Instrument der Simulation anbietet. Für die Gestaltung und Bewertung von SCMStrategien sind somit effiziente Instrumente für quantitative Kosten-Nutzen-Analysen erforderlich. Entsprechende Verfahren müssen die wesentlichen physischen Aspekte der Supply Chain sowie die Informations- und Planungsprozesse abbilden. Für die Bestimmung der Kosten-Nutzen-Effekte einer SCM-Strategie müssen darüber hinaus Leistungsgrößen wie Servicegrade, Bestandsverläufe und Kapazitätsauslastungen bei den betrachteten Unternehmen bestimmt werden.
3.3.2
Bewertung von SCM-Strategien mittels Simulation
In den letzten Jahren wurden einige Systeme zur diskreten Simulation von Supply Chains entwickelt (für einen Überblick siehe [HAW04]). Doch auch diese Systeme sind zur Modellierung von SCM-Strategien nur bedingt geeignet, da in ihnen die Abbildung von Informations- und Abstimmungsprozessen nicht, bzw. nur mit Ergebnis verfälschenden Einschränkungen, möglich ist. Ausnahmen bilden hier der Supply Net Simulator (SNS) [BJo03] sowie das am Fraunhofer IML entwickelte System OTD-Net [WHT+04].
3 Simulation von SCM-Strategien
3.4 3.4.1
65
Simulation der SCM-Strategie Information Sharing Stand der Forschung
Einen guten Überblick über den Stand der Forschung zur simulativen Bewertung der SCM-Strategie Information Sharing gibt der Arbeitsbericht von Schmidt/Knolmayer „Ein Vergleich von Simulationsstudien zu Information Sharing und Vendor Managed Inventory“ [SKn06]. Allen Simulationsstudien ist gleich, dass sie jeweils eine relativ „einfache“ Supply Chain modellieren. So behandelt die eine Hälfte der Studien eine zweistufige, die andere Hälfte eine drei- bzw. vierstufige SC, wobei die Nachfrage generierende Stufe jeweils nicht mitgerechnet wird. Außerdem wird meistens angenommen, dass nur ein Produkt gekauft bzw. verkauft wird. In allen Modellen werden die Auswirkungen einer Weitergabe von Informationen in Richtung vorgelagerter Stufen (upstream) untersucht. Dies wird beispielsweise durch die Weitergabe von Bestands- oder Point-of-Sales-Daten (POS-Daten) an die betreffenden Geschäftspartner der SC umgesetzt. Einige Simulationsstudien untersuchen darüber hinaus die Effekte einer Weitergabe von Informationen in Richtung der jeweils nachgelagerten Stufe (downstream) – es werden somit Aspekte der SCMStrategie LKM (vgl. Abb. 3.1) modelliert. Die Simulationsstudien zum IS zeigen grundsätzlich, dass sich ein Nutzen für die einzelnen Partner der betrachteten Supply Chain ergibt. Jedoch variiert die Stärke der Effekte zum Teil erheblich. Aus Abb. 3.2 geht hervor, dass einige Studien lediglich Nutzensteigerungen für die Lieferanten analysieren, Vorteile für die Kunden ergeben sich laut ihnen jedoch nicht. Andere Studien wiederum zeigen, dass sich durch IS sehr wohl auch Vorteile für die Kunden ergeben, beispielsweise in Form von höheren Servicegraden. Diese konträren Ergebnisse der Simulationsstudien sind vermutlich auf die oft fehlende Verifikation und Validierung der Modelle, auf die Vernachlässigung von relevanten Messvariablen sowie auf das zum Teil stark vereinfachte Modelldesign zurückzuführen (vgl. [SKn06]). Der gegenwärtige Stand der Forschung zeigt also ein uneinheitliches Bild bezüglich der Bewertung des Information Sharings. Auch aus diesem Grund haben wir uns entschieden, im Rahmen des SFB 559 eine Betrachtung des Information Sharings mit dem Simulator OTD-Net durchzuführen.
3.4.2
Untersuchungsszenario
Es wurde eine mehrstufige, lineare Lieferkette aus der Automobilindustrie betrachtet. Sie besteht aus einem Händler, einem Werk, einem Zulieferer mit Kundenauftragsfertigung (BTO: engl. Built-to-order) und drei Zulieferern mit Lagerfertigung (BTS: engl. Built-to-stock). Das Werk stellt Fahrzeuge entsprechend dem Marktbedarf her. Der Marktbedarf wird vom Händler an das Werk in Form von Bestellungen weitergeleitet. Der Händler ist in diesem Modell also die Quelle des Informations-
66
M. Witthaut und B. Hellingrath
Bestände Mit IS wird der größere Anteil der Bestände in den Filialen gehalten [Yan02] Bestände können auf allen Stufen gesenkt werden [LHM04] Bestandsreduktionen für den Lieferanten [YWo04] Übermittlung von Bestandsdaten führt weder für den Hersteller noch für den Händler zu signifikanten Bestandsreduktionen [Yan02] Bullwhip-Effekt (Verstärkung der Bedarfsschwankung über die Stufen) Bullwhip-Effekt kann gesenkt, aber nicht ganz eliminiert werden [CKH04] Bullwhip-Effekt kann auf allen Stufen gesenkt werden [LHM04] Fehlmengen IS führt zu erheblichem Anstieg der Fehlmengen für vorgelagerte Stufen [LHM04] IS führt zu Anstieg der Fehlmengen des Lieferanten [YWo04] Kosten Kosteneinsparungen sind nur für den Lieferanten möglich [ZXL02] Kosteneinsparungen vor allem für den Hersteller [SRo05] Kosteneinsparungen sind sowohl für den Lieferanten als auch für den Kunden möglich [TLF03] Übermittlung von geplanten Bestellungen bringt größere Kosteneinsparungen als Nachfrageprognosen [ZXL02] Übermittlung von Point-of-Sales-Daten bringt größere Kosteneinsparungen als geplante Bestellungen [TLF03] IS downstream bringt keine Kosteneinsparungen [TLF03] Servicegrad IS erhöht den Servicegrad in den Filialen [Yan02]
Abb. 3.2 Ergebnisse von SCM-Studien über die Auswirkungen von IS
flusses und gleichzeitig die Senke des Materialflusses. Die Struktur des Modells ist einfach gewählt, um das grundlegende Verhalten der Akteure der Supply Chain gezielt analysieren zu können und auch einen Vergleich mit dem Stand der Forschung zu ermöglichen. Abbildung 3.3 zeigt die Netzwerk- und Produktstruktur des Untersuchungsszenarios. Im oberen Teil der Abbildung ist die Struktur des Wertschöpfungsnetzwerkes dargestellt. Der untere Teil der Abbildung zeigt hingegen die dem Modell zugrunde liegende Produktstruktur, dargestellt als Gozinto-Graphen. Der Simulationszeitraum umfasst ein Jahr. Die Simulation berücksichtigt zusätzlich Zeiträume für den Vor- und den Nachlauf, welche jedoch bei den Auswertungen nicht berücksichtigt werden. Die Datenbankausgaben beginnen also am 1. Januar 2007 und enden am 31 Dezember 2007.
3.4.3
Durchgeführte Experimente
Für das Untersuchungsszenario werden zwei verschiedene Experimente durchgeführt, um die Auswirkung der SCM-Strategien „Information Sharing“ im Vergleich zur „Konventionellen Strategie“ zu untersuchen. Der oben beschriebene Versuchs-
3 Simulation von SCM-Strategien
67
aufbau bleibt für beide Strategien erhalten. Jedoch unterscheiden sich die Experimente durch einige Modellierungsänderungen, welche im Folgenden kurz erläutert sind: • Konventionelle Strategie Hier wird von autonomen Akteuren bezüglich der Planung in der Wertschöpfungskette ausgegangen. Somit werden zwischen allen Beteiligten in der SC keinerlei Informationen, ausgenommen von den jeweiligen Aufträgen bzw. Bestellungen, ausgetauscht. Sowohl die jeweiligen Bedarfsprognosen und Produktionsprogramme als auch deren jeweilige Frequenz und Planungshorizonte, werden selbstständig und ohne Informationen der jeweiligen Zulieferern und Kunden angefertigt. Das Produktionsprogramm des betreffenden Akteurs wird also gemäß dessen Bedarfsprognose gesteuert. • Information Sharing Hier wird der Endkundenbedarf an allen Unternehmen der Supply Chain umgehend mitgeteilt. Die Unternehmen geben jeweils wöchentlich die prognostizierten Materialbedarfe an ihre Zulieferer weiter. Die Planungszeitpunkte der BTSZulieferer erfolgen wöchentlich an aufeinanderfolgenden Tagen (sequentiell). Hierbei kann das jeweilige Unternehmen die aktuellen Planungsinformationen des jeweiligen Kunden berücksichtigen. In den Simulationsexperimenten wurde davon ausgegangen, dass durch die Informationsübermittlung der jeweiligen Unternehmen in der Supply Chain eine effizientere Bereitstellung der jeweiligen Güter erfolgen kann: Die Reaktionszeit nach Transportaufforderung wurde von vier auf zwei Stunden (BTO-Zulieferer) bzw. von zwölf auf vier Stunden (BTSZulieferer) gesenkt. Außerdem können insbesondere die weiter vom Endkunden entfernten Partner der Supply Chain mehrere Wochen früher ihre Produktion an Änderungen des Endkundenbedarfs anpassen. Ziel der Experimente ist die Untersuchung der Auswirkungen der zwei unterschiedlichen SCM-Strategien (Konventionelle Strategie, Information Sharing) und verschiedener Parametrisierungen dieser auf die einzelnen Unternehmen des Wertschöpfungsnetzwerks. Hierbei wurden fünf unterschiedliche Verlaufsformen des Endkundenbedarfs betrachtet, um die Sensitivität einzelner Parameter Netzwerkstruktur
Teil C
Teil D
BTS 3
BTS 2
Teil B
BTS 1
Produkt
Teil A
BTO
Werk
Händler
Produktstruktur
1x Teil D
1x Teil C
1x Teil B
Abb. 3.3 Netzwerk- und Produktstruktur
1x
1x Teil A
Produkt A
68
M. Witthaut und B. Hellingrath
gegen Änderungen der Last zu untersuchen. Ein weiterer Variationsbereich ist das Verhältnis der verfügbaren Produktionskapazität zum durch den Endkunden induzierten Kapazitätsbedarf. Daher wurden Experimente bei nahezu Volllast (Endkundenbedarf = 98% und 95%) und bei entspannter Lastsituation (Endkundenbedarf = 80%) durchgeführt. Schließlich wurden zwei unterschiedliche Situationen bezüglich der Lieferzeit (kurze Lieferzeit von Stufe zu Stufe – weniger als zwölf Stunden – versus Lieferzeiten von einem Monat) betrachtet. Insgesamt wurden für die beiden SCM-Strategien jeweils 30 Simulationsexperimente durchgeführt. Zur Bewertung der Effekte der SCM-Strategien wurden in den einzelnen Simulationsexperimenten bei den betrachteten Unternehmen folgende Größen bestimmt: • Auslastung der Produktionskapazität der jeweiligen Engpassressource der einzelnen Unternehmen. Hierbei wurde die durchschnittliche Auslastung bestimmt. • Es wurden die durchschnittlichen Warenein- und -ausgangsbestände erhoben. Work-in-Progress-Bestände wurden nicht betrachtet. • Liefertermintreue (= Erfüllungsgrad der Bestellungen beim Händler). Hierzu wurde der Zeitpunkt des Eintreffens der bestellten Produkte A im Wareneingang beim Händler herangezogen.
3.4.4
Untersuchungshypothesen
Die Simulationsexperimente dienen der Bekräftigung bzw. Widerlegung von Aussagen über die Auswirkungen der beiden SCM-Strategien bzw. deren Parametrisierungen auf die beschriebene Supply Chain. Es lassen sich im Zusammenhang mit den beiden zu untersuchenden Strategien folgende Grundhypothesen formulieren: • Die Strategie des Information Sharing zeigt nur dann Vorteile gegenüber der Konventionellen Strategie, wenn Unternehmen der Supply Chain ihre Kapazitätsgrenze nahezu ganz ausschöpfen (95%–100%). Bei einer Auslastung der Kapazität von beispielsweise 80%, wird es keine bzw. kaum Verbesserungen der Zielgrößen Bestände, Auslastung und Termintreue geben. • Weiterhin wirkt sich die Strategie des Information Sharing lediglich dann aus, wenn der Endkundenbedarf eine starke Fluktuation aufweist. Ein nahezu konstanter Endkundenbedarf dagegen lässt das Information Sharing überflüssig erscheinen – die Konventionelle Strategie erzielt eine gleiche Effektivität. • Bestätigen sich diese beiden Grundhypothesen, wirkt sich die Strategie des Information Sharing wie folgt auf die Zielgrößen aus: • Bei einem stark schwankenden Endkundenbedarf lassen sich durch das Information Sharing die Termintreue sowie die Auslastung erhöhen. • Durch die zur Verfügung gestellten Informationen des jeweiligen Kunden, ist es den Unternehmen der Supply Chain möglich, ihre Auslastung dem Endkunden-
3 Simulation von SCM-Strategien
•
•
• •
•
69
bedarf anzupassen und ihr Produktionsprogramm gezielt zu glätten – unvorhersehbare Bedarfsspitzen werden weitestgehend vermieden. Auch die Bestände der Unternehmen können gesenkt werden, da diese durch die Information des Endkundenbedarfes ihre Lagerhaltung an verfügbaren Roh-, Hilfs- und Betriebsstoffen sowie an Bauteilen auf den zukünftigen Bedarf abstimmen können. Unnötige Sicherheitsbestände können somit reduziert werden. Information Sharing wirkt sich bei einer hohen Auslastung der Produktionskapazitäten der Unternehmen signifikant auf die Termintreue aus. Die Unternehmen haben einerseits die Möglichkeit den Liefertermin der Güter an ihre Kunden genauer zu bestimmen, andererseits lässt sich das Produktionsprogramm besser glätten. Beides führt zu einer weitestgehenden Vermeidung von Rückständen und damit zu einer Verbesserung der Termintreue der Unternehmen. Entsprechend wie bei einem starken Endkundenbedarf, lassen sich auch bei einer hohen Auslastung der Unternehmen die Lagerbestände durch das Information Sharing reduzieren. Es wird weiterhin davon ausgegangen, dass bei einer verlängerten Lieferzeit der BTS-Zulieferer 2 und 3 sich das Information Sharing positiv auf die Termintreue auswirkt. Ein potentieller Terminverzug kann so umgehend dem jeweiligen Kunden mitgeteilt werden. Dieser kann sich darauf einstellen und gegebenenfalls Anpassungen seines Produktionsprogramms vornehmen (z. B. andere Aufträge vorziehen) bzw. auf Sicherbestände zurückgreifen. Bei langen Lieferzeiten müssen die davon betroffenen Kunden in der Supply Chain große Sicherheitsbestände vorhalten, um bei eventuellen Lieferengpässen trotzdem ihre Produktionskapazitäten voll ausschöpfen zu können. Insbesondere aus monetären Gründen (Anlagen- und Produktionsstillstände führen zu hohen Kosten), zeigt sich das Information Sharing als Erfolgsfaktor. Die Produktionskapazitäten können somit aufgrund von Lieferinformationen der benötigten Bauteile, besser gesteuert und letztendlich ausgelastet werden.
Die Untersuchungshypothesen bezüglich der strategiebezogenen Variationsparameter sind: • Hypothese zur Endkundenbedarfsinformation: Eine Übermittlung des Endkundenbedarfs an alle Unternehmen der Supply Chain bringt Verbesserungen bezüglich der Termintreue, eine gleichmäßigere Auslastung sowie geringe Bestände bei den Unternehmen. Diese können die zukünftigen Bedarfe nun gezielt abschätzen. • Hypothese zur Materialbedarfsinformation: Eine Bereitstellung der Materialbedarfsinformationen macht die unternehmensinternen Materialbedarfsprognosen überflüssig und gewährleistet eine präzisere Prognose und damit zugleich eine geringere Bevorratung mit Verbrauchsmaterialien (Senkung der Bestände in der Supply Chain). • Hypothese zum Planungszeitpunkt: Durch die sequentielle Planung der Akteure können Informationen der aktuellen Woche verarbeitet werden. Dies wirkt sich wiederum auf die Termintreue, auf die Bestände und auf die Auslastung der Unternehmen aus.
70
M. Witthaut und B. Hellingrath
3.4.5
Beschreibung ausgewählter Ergebnisse
Die Analyse der Simulationsergebnisse bezüglich der Zielgröße „Bestände“ zeigt, dass die Strategie des Information Sharing Vorteile gegenüber der Konventionellen Strategie besitzt. Durch die Weitergabe von Informationen innerhalb der Supply Chain profitieren alle Unternehmen, wenn auch in unterschiedlichem Maße. Die Strategie des IS wirkt sich dabei am deutlichsten aus, wenn die Schwankung des Endkundenbedarfes stark und die Produktionsauslastung der Unternehmen relativ hoch ist. Die Untersuchungsergebnisse werden insbesondere im Hinblick auf die Kapazitätsauslastung und die Termintreue in [HWi08] detailliert beschrieben und diskutiert. Im Folgenden werden die beiden Strategien beispielhaft für eine durchschnittliche Bedarfsschwankung von 35% und einem Auslastungsgrad von 98% verglichen, da sich die Auswirkungen bei diesem Szenario gut verdeutlichen lassen. Die beiden nachfolgenden Abbildungen zeigen die Bestandssituationen der Unternehmen der SC sowohl mit Konventioneller Strategie (Abb. 3.4) als auch mit der Strategie des Information Sharing (Abb. 3.5). In Abb. 3.4 ist zu beobachten, dass die Höhe der Bestände bei allen betrachteten Zulieferern stark schwankt. Zu Beginn des Betrachtungszeitraumes steigen die Bestände der Zulieferer an und sinken wiederum jeweils um ca. drei Monate versetzt zum jeweiligen Zulieferer upstream. Die Steigung der Bestände beim BTOZulieferer in den Monaten Juni bis August verläuft nahezu linear. Auch zum Jahresende kann der BTO-Zulieferer seine Bestände nicht mehr senken. Das Werk hingegen hält einen nahezu konstanten und relativ geringen Bestand über das gesamte Jahr. Dies ist möglich, da der BTO-Zulieferer lediglich auf Auf-
Konventionelle Strategie 140
durchschnittlicher Bestand
120 100
Werk BTO
80
BTS 1 BTS 2
60 40 20 0 1
2
3
4
5
6 7 Monat
8
9
10
11
12
Abb. 3.4 Bestandsituation der Unternehmen mit Konventioneller Strategie (Szenario EK 35/L 98)
3 Simulation von SCM-Strategien
71 Information Sharing
140 Werk BTO BTS 1 BTS 2
durchschnittlicher Bestand
120 100 80 60 40 20 0 1
2
3
4
5
6
7
8
9
10
11
12
Monat
Abb. 3.5 Bestandsituation der Unternehmen mit Information Sharing (Szenario EK 35/L 98)
trag des Werkes produziert. Das Werk nutzt quasi die Lager des BTO-Zulieferers mit und kann dadurch die werksinternen Bestände relativ gering halten. Abbildung 3.5 zeigt hingegen die Bestandsituationen der Akteure bei Nutzung von netzwerkweiten Informationen. Es lässt sich deutlich erkennen, dass die Bestände bei allen Zulieferern im Durchschnitt niedriger sind, als bei der Konventionellen Strategie in Abb. 3.4 Während sich die Bestandssituation des Werkes kaum verändert, zeigt das IS bei den Zulieferern deutliche Verbesserungen bezüglich der Bestandsituationen. Der BTO-Zulieferer steigert seine Bestände über den Betrachtungszeitraum hinweg zwar weiterhin, jedoch gibt es nun keine Bestandsschwankungen mehr (im Gegensatz zu Abb. 3.4). Auch bei den beiden BTS-Zulieferern verlaufen die Bestandslinien über das gesamte Jahr hinweg relativ konstant – lediglich im August sinken die Bestände kurzfristig. Ihre Bestandssituation sieht insgesamt sehr ähnlich aus, lediglich mit kleinen Abweichungen. Abbildung 3.6 zeigt die Senkung der durchschnittlichen Bestände durch den Einsatz des Information Sharing bei einer Bedarfsschwankung von 35% und einem Auslastungsgrad von 98%: Bei den Auswertungen der Simulationsergebnisse für die anderen Untersuchungsszenarien fiel auf, dass sich die Bestandsituationen der Unternehmen, abhängig vom gewählten Szenario, unterschiedlich verhalten. So zeigt Abb. 3.7 für BTS-Zulieferer 2 exemplarisch, dass sich bei einer höheren Auslastung (95%, 98%) die Bestände durch eine Informationsübermittlung stärker senken lassen als bei einer geringeren Auslastung (80%) der Produktionskapazitäten, bei welcher speziell in diesem Fall keine Verbesserung durch IS zu erzielen ist. Analysen weiterer verschiedener Szenarienkombinationen bezüglich Bedarfsschwankung und Auslastungsgrad zeigen, dass sich die oben aufgestellten Grundhypothesen bestätigen lassen:
72
M. Witthaut und B. Hellingrath Information Sharing
Strategie Konventionelle Strategie durchschnittl. Bestand
Akteur
durchschnittl. Bestand Differenz absolut Differenz in Prozent
Werk
15,12
14,45
-0,67
-4,43%
BTO-Zulieferer
82,14
68,85
-13,29
-16,18%
BTS-Zulieferer 1
27,86
21,74
-6,12
-21,98%
BTS-Zulieferer 2
31,95
23,57
-8,37
-26,21%
Abb. 3.6 Bestandsveränderungen durch den Einsatz des IS
• Bei einem geringen Auslastungsgrad der Unternehmen der SC (beispielsweise 80%), wirkt sich die Strategie des IS weniger bis gar nicht auf die Bestandssituationen der Unternehmen aus. Bei einer hohen Produktionsauslastung dagegen zeigen sich deutliche Verbesserungen der durchschnittlichen Bestände. • Gleiches gilt für das Ausmaß der Bedarfsschwankung. Das Information Sharing zeigt lediglich dann Einfluss auf die Bestände, wenn die Bedarfsschwankung relativ stark ist. Dies bedeutet im Zusammenhang mit den simulierten Szenarien, dass bei einer Bedarfsschwankung von 10% und einem Auslastungsgrad in Höhe von 80% (Szenario EK 10/L 80) lediglich sehr geringe bis gar keine Veränderungen der Bestände durch IS zu erwarten sind. Im Vergleich hierzu hat das Information Sharing bei einer Bedarfsschwankung von 35% und einem Auslastungsgrad von 98% (Szenario EK 35/L 98) großen Einfluss auf die Bestandsituationen der Unternehmen.
30
Konventionelle Strategie Information Sharing
durchschnittlicher Bestand
25
20
15
10
5
0 A80
A95
Abb. 3.7 Durchschnittlicher Bestand BTS-Zulieferer 2 mit und ohne IS
A98
3 Simulation von SCM-Strategien Auslastungsgrad Akteur Werk
BTO-Zulieferer
BTS-Zulieferer 1
BTS-Zulieferer 2
Bedarfsschwankung 10% 25% 35% 45% 10% 25% 35% 45% 10% 25% 35% 45% 10% 25% 35% 45%
73 80% Differenz % -0,16% -0,98% -1,91% -3,01% -0,55% -1,36% -5,98% -6,93% -0,01% -4,91% -6,92% -9,49% -0,04% -6,15% -8,59% -10,48%
95% Differenz % -0,96% -1,65% -3,61% -6,18% -8,73% -10,47% -14,51% -17,43% -13,76% -16,07% -19,78% -22,08% -14,84% -19,00% -22,41% -24,98%
98% Differenz % -0,98% -1,71% -4,43% -7,19% -9,47% -12,46% -16,18% -19,59% -14,01% -18,03% -21,98% -24,37% -15,82% -22,43% -26,21% -29,18%
Abb. 3.8 Senkung der durchschnittlichen Bestände durch IS
3.5
Fazit
Die durchgeführte Modellierung der Szenarien und der SCM-Strategien zeigt, dass der entwickelte Modellierungsrahmen tragfähig für die dynamische Bewertung der verschiedenen Stufen von SCM-Strategien ist. Die Simulationsergebnisse zeigen – wie auch jene von Chatfield et al. sowie weiterer Simulationsstudien – dass durch die Strategie des Information Sharing vor allem die vorgelagerten Stufen der Supply Chain profitieren. Hier wiederum ist es insbesondere die Senkung der Bestände, die den größten Nutzen für die Zulieferer bringt. Das Werk dagegen zieht seinen Nutzen hauptsächlich aus einer gleichmäßigeren Produktionsauslastung sowie durch die Verbesserung der Termintreue. Die Simulationsergebnisse verdeutlichen zudem, dass das Ausmaß der Auswirkungen des Information Sharing sowohl von der Schwankung des Endkundenbedarfs, als auch von der Auslastungssituation der Unternehmen abhängig ist. Sind diese beiden gleichzeitig relativ hoch, so resultieren signifikante Verbesserungen aus der Strategie des IS für alle Unternehmen der Supply Chain. Grundsätzlich ist das Information Sharing im Hinblick auf eine effiziente Zusammenarbeit der Geschäftspartner der SC als nutzvoll einzustufen, es gilt jedoch auch die Kostenseite für die Planung, Implementierung sowie den Betrieb eines IS-Konzeptes zu berücksichtigen.
Literatur [Arn02] Arns M et al. (2002) Supply chain modelling and its analytical evaluation. J Oper Res Soc 53(8):885–894 [BJo03] Baumgärtel H, John U (2003) Combining agent-based supply net simulation and constraint technology for highly efficient simulation of supply networks using APS systems. In: Chick S et al. (eds) Proceedings of the Winter Simulation Conference, Lousianna, pp 1765–1773
74
M. Witthaut und B. Hellingrath
[Boc03] Bock D et al. (2003) Studie Supply Chain Collaboration 2003, Bremen [BOl01] Barratt M, Oliveira A (2001) Exploring the experience of collaborative planning initiatives. Int J Phys Distrib Logistics Manage 31(4):266–289 [CKH+04] Chatfield DC, Kim Jeon G, Harrison TP, Hayya JC (2004) The Bullwhip effect – impact of stochastic lead time, information quality and information sharing: A simulation study. Prod Oper Manage 13(4):340–353 [HAW04] Hellingrath B, Alberti A, Witthaut M (2004) Simulation von Verfahren zum Supply Chain Management. PPS Manage 1:44–47 [HKr03] Homburg C, Krohmer H (2003) Marketingmanagement: Strategien – Instrumente – Umsetzung – Unternehmensführung. Gabler, Wiesbaden [HKW02] Hellingrath B, Keller M, Witthaut M (2002) Klassifizierung von Dispositionsstrategien großer Logistiknetze, Interner Bericht 2002-1 des Teilprojekts M7 des SFB 559, Dortmund [HWi08] Hering N, Witthaut M (2008) Vergleich der SCM-Strategie Information Sharing mit Konventioneller Strategie, Interner Bericht 2008-08005 des Teilprojekts A15 des SFB 559, Dortmund [KHe02] Kuhn A, Hellingrath B (2002) Supply chain management – Optimierte Zusammenarbeit in der Wertschöpfungskette. Springer Berlin Heidelberg, New York [KRK+02] Krog EH, Richartz G, Kanschat R, Hemken M (2002) Kooperatives Bedarfs- und Kapazitätsmanagement der Automobilhersteller und Systemlieferanten. Logistik Manage 3:45–51 [LHM04] Lau JSK, Huang GW, Mak KL (2004) Impact of information sharing on inventory replenishment in divergent supply chains. Int J Prod Res 42(5):919–941 [LNH+03] Laakmann F, Nayabi K, Hieber R, Hellingrath B (2003) SCM Martkstudie 2003. scmCTC, Fraunhofer IPA, Fraunhofer IML, ETH Zürich, Dortmund, Stuttgart, Zürich [Ode03] Odette Recommendation Supply Chain Monitoring (SCMo) (2003) http://www.odette. org/html/scmopr.htm [Por99] Porter ME (1999) Wettbewerbsstrategie, Methoden zur Analyse von Branchen und Konkurrenten, 10. Aufl. Campus, Frankfurt a. M. [SKn06] Schmidt R, Knolmayer G (2006) Ein Vergleich von Simulationsstudien zu Information Sharing und Vendor Managed Inventory. Arbeitsbericht 185, Institut für Wirtschaftsinformatik, Universität Bern [SRo05] Sahin F, Robinson EP Jr (2005) Information sharing and coordination in make-to-order supply chains. J Oper Manage 23(6):1701–1708, December 1999 [Ste00] Sterman JD (2000) Business dynamics – systems thinking and modeling for a complex world. McGraw-Hill Higher Education, Boston [TLF03] Tu Y, Luh PB, Feng W (2003) Supply chain performance evaluation: A simulation study. Proceedings of the 2003 IEEE International Conference on Robotics & Automation, Taipei, September 2003, pp 1749–1755 [VIC02] Voluntary Interindustry Commerce Standards (VICS) Association (2002) Global Commerce Initiative Recommended Guidelines: Collaborative Planning, Forecasting and Replenishment (CPFR). Version 2.0. www.cpfr.org [WHT+04] Wagenitz A, Hellingrath B, Toth M, Motta M (2004) Simuliere und herrsche. Beschaffung Aktuell 10:32–33 [Yan02] Yang S (2002) Positioning inventory and information sharing. Proceedings of the 33th Annual Meeting of the Decision Sciences Institute, San Diego, November 2002, pp. 558–563 [YWo04] Yan L, Gek Woo T (2004) Information sharing in a supply chain with dynamic consumer demand pattern. Proceedings of the 37th International Conference on System Sciences, Hawaii, January 2004, pp 1–9 [ZXL02] Zhao X, Xie J, Leung J (2002) The impact of forecasting model selection on the value of information sharing in a supply chain. Eur J Oper Res 142(2):321–344
Kapitel 4
Kosten- und leistungsoptimierter Betrieb kooperativer Logistiknetzwerke Iwo V. Riha
Zusammenfassung Ein kosten- und leistungsoptimierter Betrieb von Netzwerken ist dann möglich, wenn Individualziele mit den Netzwerkzielen kombiniert werden können und sich individuell benachteiligte Akteure auf eine Kompensation verlassen können, wenn sie individuell unwirtschaftliche Investitionen für das Netzwerk tätigen. In diesem Beitrag wird ein Verfahren beschrieben, mit dem einerseits die Effekte einer unternehmensübergreifenden Kooperation systematisch bewertet werden können und andererseits die wirtschaftlichen Auswirkungen auf die benachteiligten Akteure durch Reallokationsmechanismen abgefedert werden können. Die differenzierte Betrachtung der Auswirkungen von vernetzen Entscheidungen auf unterschiedlichen Betrachtungsebenen führt zu dem Schluss, dass in der Praxis zwei von drei Projekten den Einsatz einer Reallokation erfordern, sofern eine Win-Win-Situation angestrebt wird. Damit eröffnen sich weitaus größere Verbesserungspotentiale für die Zusammenarbeit im Netzwerk, als wenn jedes Unternehmen selbst die Wirtschaftlichkeit einer Maßnahme nachweisen müsste. Mit dem Cost Benefit Sharing des SFB 559 existiert nun eine Methode, die vollständigen Potentiale einer unternehmensübergreifenden Zusammenarbeit auszuschöpfen.
4.1 Ausgangssituation Seit Jahren beobachtet man einen unternehmerischen Trend zur Fokussierung auf Kernkompetenzen [PHa90]. Dabei sinkt die Fertigungstiefe einzelner Unternehmen durch Ausgliederung von ehemaligen Geschäftsbereichen während gleichzeitig die
I. V. Riha ( ) Fraunhofer-Institut für Materialfluss und Logistik (IML) Abt. Unternehmensplanung 44227 Dortmund, Deutschland E-mail:
[email protected] P. Buchholz und U. Clausen (Hrsg.), Große Netze der Logistik, DOI 10.1007/978-3-540-71048-6_4, © Springer-Verlag Berlin Heidelberg 2009
75
76
I.V. Riha
Abb. 4.1 Wandel der Wertschöpfungskette
technische Komplexität der hergestellten Produkte stark ansteigt. Kompetenzen, die zuvor nicht erforderlich waren, werden heute benötigt [Hel02]. Mit Abnahme der Wertschöpfungstiefe bei den Herstellern und der damit einhergehenden Übertragung von Wertschöpfungsanteilen an die Zulieferer und Dienstleister steigt die Bedeutung der Zusammenarbeit. Direkt daraus folgt eine Änderung der relative Bedeutung von Unternehmen in einer Wertschöpfungskette zueinander (siehe Abb. 4.1): die Zusammenarbeit verschiebt sich in Richtung einer gleichberechtigten Zusammenarbeit.
4.1.1
Folgen der Bildung von Netzwerken
Die wechselseitigen Entwicklungen verstärken die Abhängigkeiten zwischen den Unternehmen in der Supply Chain und führen zur Bildung von Netzwerken zwischen den Unternehmen. Diese Abhängigkeiten zwischen den Unternehmen schüren häufig Ängste und verzerren den Blick auf die Chancen von Kooperationen. Anstatt offen und sachorientiert zusammenzuarbeiten, überwiegen politische Schachzüge, Egoismus und Opportunismus. Hierbei wird vorhandene Macht und Einfluss im Netzwerk zu Lasten der Geschäftspartner eingesetzt.1 Langfristig führt dieser Weg in eine Sackgasse und verringert die Effizienz der Zusammenarbeit und deren Nutzen. „Einige OEMs haben das bereits erkannt und beginnen, Wertschöpfungsstrukturen zu hinterfragen und konsequent neue Formen der Zusammenarbeit mit Zulieferern und Dienstleistern einzugehen. Zu diesem Zweck werden Abhängigkeiten positiv für alle Beteiligten 1
Vgl. die Darstellungen bei [HBW03, CBS99, REH+04, GSi98, Chr98, JLo04]
4 Kosten- und leistungsoptimierter Betrieb kooperativer Logistiknetzwerke
77
ausgestaltet, indem längerfristig, partnerschaftlich und vertrauensvoll zusammengearbeitet wird“ [DGH+04].
4.1.2
Neue Herausforderungen durch partizipative Steuerung von Netzwerken: verstehen – bewerten – teilen
Die beschriebenen Entwicklungstrends rücken zunehmend folgende kooperationsstrategische Fragestellungen in das Blickfeld: 1. Welchen Vorteil ergibt eine Zusammenarbeit? 2. Welche individuellen Vorteile hat das Unternehmen, und in welcher Weise profitiert das gesamte Netzwerk der Geschäftspartner? 3. Wie können Anreize gestaltet werden, damit Akteure trotz individueller Benachteiligung mitwirken? Diese Fragestellungen können an zwei Beispielen illustriert werden: Beispiel 1: Ein Händler und ein Lieferant diskutieren über die Einführung von wiederverwendbaren Kunststoffbehältern in der Supply Chain [Dek03]. Die Einführung der Kunststoffbehälter reduziert zwar die Gesamtkosten, wenn man die gesamte Supply Chain betrachtet. Die Verwendung der Behälter erhöht jedoch die Kosten für den Lieferanten, während der Händler durch die Behältereinführung die größte Kostenreduktion realisiert. Gleichzeitig erhöht sich für Händler und Lieferanten die Verpackungsvielfalt und damit die Komplexität der Abwicklung. Beispiel 2: Die Abwicklung der Versorgungslogistik eines Produktionsstandortes soll an einen Logistikdienstleister vergeben werden. Der Bau eines neuen Logistikzentrums wird dadurch notwendig [KRH+06]. Folgende Fragen müssen beantwortet werden: Welche Kosten kommen auf den Hersteller, welche auf den Logistikdienstleister zu? Welche Einsparungen stehen dem auf Seiten des Herstellers und des Logistikdienstleisters gegenüber? Wie kann eine Verteilung von Kosten und Nutzen aussehen, wenn netzwerkweit der Nutzen die Kosten dieser Zusammenarbeit deutlich übersteigt, jedoch nur für einen Partner? An diesen Beispielen zeigt sich das Kernproblem: zwar wirkt sich die Einführung neuer Technologien und Prozesse überaus positiv für die gesamte Supply Chain aus, aber die Supply Chain ist kein wirtschaftlich handelnder Akteur, der davon profitieren kann. Andererseits divergieren Kosten und verursachter Nutzen auf Akteursebene [Rad05]. Ausgehend von den am Anfang dieses Abschnitts formulierten Kernfragen lassen sich drei wichtige Prinzipien identifizieren, mit dem diesem Problem entgegengewirkt werden muss: 1. Verständnis schaffen durch Transparenz: Wie und wann profitieren die Unternehmen von einer kooperativen Zusammenarbeit? Stellen sie sich durch Kooperation besser als durch Wettbewerb? 2. Transparenz ermöglicht Bewertung: Wie erfolgt eine Quantifizierung der Vorund Nachteile der Kooperation auf Ebene des Netzwerks und des einzelnen
78
I.V. Riha
Unternehmens? Welche individuellen Vorteile hat das Unternehmen und in welcher Weise profitiert das Netzwerk? 3. Bewertung ermöglicht Ausgleich: Wie können benachteiligte Akteure von den realisierten Netzwerkeffekten profitieren und einen Anreiz bekommen, für den Netzwerkerfolg zu arbeiten? Diese drei Prinzipien bilden die Gliederung dieses Beitrags. Ergebnis der Betrachtung ist das im SFB 559 entwickelte Verfahren des „Cost Benefit Sharing“, welches in den nachfolgenden Kapiteln erarbeitet wird.
4.2
Netzwerke verstehen
In Netzwerken gehen Unternehmen eine begrenzte, kalkulierte Form der Zusammenarbeit ein. Dadurch werden Aufgaben, die ehemals von einem Unternehmen vollständig alleine bewältigt wurden, gemeinschaftlich mit anderen Unternehmen durchgeführt. Diese Verteilung von koheränten Aufgaben nennt sich Arbeitsteilung. Zur Sicherstellung des gewünschten Arbeitsergebnisses ist es daher erforderlich, die Bearbeiter der Aufgaben in ihren Funktionsbereichen zu koordinieren. Koordination in Netzwerken umfasst die Regelung der Kompetenzverteilung und die Festlegung der Aufgabenerfüllungsprozesse. In einer Kooperation wird über die Zuordnung von Aufgaben an die Akteure und die Art und Weise der Bearbeitung entschieden [Gro82]. Während eine populäre sozialwissenschaftliche Definition besagt, dass Netzwerke eine „[…] auf die Realisierung von Wettbewerbsvorteilen zielende Organisationsform ökonomischer Aktivitäten, die sich durch komplex-reziproke, eher kooperative denn kompetitive und relativ stabile Beziehung zwischen rechtlich selbstständige, wirtschaftlich jedoch zumeist abhängigen Unternehmen […]“ [Syd92] darstellen, so sind Supply Chains eine auf Logistikleistung spezialisierte Form eines Netzwerks. Die Konkretisierung bezieht sich auf die logistische Gestaltung unternehmensübergreifender Flüsse von Material, Informationen und Finanzmitteln [Göp05].2
4.2.1
Unternehmensübergreifende Effekte in Netzwerken
Der Nutzen und damit die ökonomische Existenzberechtigung von Netzwerken ist begründet in den unternehmensübergreifenden Effekten.3 Hierbei können bestimmte 2
3
Im Nachfolgenden findet daher der Begriff des „Netzwerkes“ Verwendung, wenn das generelle Phänomen der Vernetztheit wichtig ist. „Supply Chain“ werden hingegen genannt, wenn logistische Aspekte im Vordergrund stehen oder eine konkrete Versorgungskette betrachtet wird. Die Existenz von Unternehmen kann analog wie die von Netzwerken in der Neuen Institutionenökonomik mit Transaktionskostenersparnissen begründet werden (Vgl. [Seu01, Coa37]) Dabeireduziert eine verbesserte Koordination innerhalb des Unternehmens oder Netzwerkes die Transaktionskosten im Vergleich zu einer Handlung am Markt.
4 Kosten- und leistungsoptimierter Betrieb kooperativer Logistiknetzwerke
79
Verbesserungsmaßnahmen, die von einem Unternehmen des Netzwerks durchgeführt werden, auch bei anderen Unternehmen eine Auswirkung zeigen. So können beispielsweise Daten, die von einem Akteur in ein EDV-System eingegeben werden, ebenso von allen anderen Akteuren der Supply Chain verwendet werden. Dadurch werden Informationen über die Kundennachfrage, Produktionszahlen oder Bestandsmengen früher an die Partner propagiert. Diese anderen Akteure können diese Informationen zu einem weitaus geringeren „Bereitstellungspreis“ wiederverwenden. Sie schaffen damit die Voraussetzungen für eine verbesserte interne Prozesssteuerung und beeinflussen ihre individuelle Kostensituation positiv. Davon kann die gesamte Supply Chain profitieren, auch der informationsbereitstellende Akteur. Damit diese Effekte wirkungsabhängig abgegrenzt werden können, sind in Abb. 4.2 drei Effekte systematisiert. Ein Reflexionseffekt ist lokal auf ein Unternehmen begrenzt und gibt damit die unternehmensinterne Kostenveränderung wieder. Demgegenüber besitzt der Transitionseffekt Auswirkungen auf andere Akteure im Netzwerk (z. B. Verteilung von Lagerbestands- oder Abverkaufsinformationen in der Supply Chain). Aus Abb. 4.2 wird ebenfalls deutlich, dass diese Effekte nicht ausschließlich in der betrachteten Supply Chain auftreten müssen. Die Informationen können auch für andere Unternehmen, die einer anderen Supply Chain angehören, verfügbar gemacht werden und damit deren Kostensituation beeinflussen. Die Betrachtung unternehmensübergreifender Effekte erfordert die Erweiterung der Kostenrechnungsansätze auf die Betrachtung der Abhängigkeiten und Interaktionen zwischen mehreren Unternehmen.4
4.2.2
Unternehmensübergreifende Sicht darf lokale Phänomene nicht vernachlässigen
Die permanenten Veränderungen im Umfeld von Supply Chains, beispielsweise der veränderte Wettbewerb, technische oder regulatorische Neuerungen erfordern eine kontinuierliche Anpassung der Geschäftsprozesse. Jede Prozessveränderung lässt sich dabei auf Veränderungsmaßnahmen zurückführen, wobei diese Maßnahmen zwischen den Unternehmen aufeinander abgestimmt werden sollen, damit sie ihre Wirkungen nicht gegenseitig aufheben sondern fördern. Eine Veränderungsmaßnahme löst wiederum Effekte aus. Ein Effekt lässt sich als die bewertete und kategorisierte Wirkung einer Maßnahme beschreiben. Daher werden Effekte bewertet, um die Wirksamkeit von Maßnahmen im Netzwerk beurteilen zu können. In diesem Beitrag stehen die in Abb. 4.2 gezeigten quantitativen und qualitativen Auswirkungen durch Prozessänderungen und die daran gekoppelte 4
Ähnliche übergreifende Ansätze, die die gegenseitige Finanzierung von Unternehmen in Supply Chains betrachten, sind relativ neu, beispielsweise der Ansatz der „Supply Chain Finance Gesellschaft“ bei [PRG07, Hof05] und dort angegebene Quellen.
80
I.V. Riha
Abb. 4.2 Wirkungsweisen von Effekten in Netzwerken
finanzielle Lastenverteilung im Zentrum der Betrachtung. Diese Effekte können erwünscht oder unerwünscht sein und damit zu Kostensenkungen oder Kostensteigerungen führen. Dabei muss das Spannungsfeld zwischen einer lokalen Entscheidung und den entfernten Auswirkungen berücksichtigt werden. Die Beispiele in Kap. 4.1.2 verdeutlichen, dass von einer unternehmensinternen Investition automatisch andere Unternehmen des Netzwerks betroffen sind. Bei Anwendung traditioneller Kostenrechnungsansätze wird jedes Unternehmen eine solche Investition scheuen, wenn die eigenen Kosten den eigenen Nutzen übersteigen. Das Unternehmen wird in seiner Kosten/Nutzenbetrachtung die unternehmensübergreifenden Effekte so lange vernachlässigen, wie es an ihnen nicht partizipieren kann. Grundlage jeder weiteren Diskussion muss daher eine Transparenz über die wechselseitigen Abhängigkeiten von Entscheidungen und eine einheitliche Bewertung der Effekte in Netzwerken sein, die die unternehmensinterne Sichtweise zugunsten einer unternehmensübergreifenden Systembetrachtung aufgibt.
4.3
Netzwerke bewerten
Eine umfassende Bewertungssystematik für die unternehmensübergreifenden Auswirkungen von Maßnahmen wurde im SFB 559 mit dem Effektraum geschaffen, dargestellt in Abb. 4.3 Der Effektraum stellt eine ganzheitliche Bewertung der Effekte sicher.
4 Kosten- und leistungsoptimierter Betrieb kooperativer Logistiknetzwerke
81
Abb. 4.3 Effektraum zur ganzheitlichen Bewertung von Effekten in Netzwerken
Dabei werden sechs nachfolgend erläuterte Kategorien der Effektbewertung unterschieden. Monetarisierung Die erste Dimension dient der Unterscheidung von qualitativen und quantitativen Effekten. Quantitative Effekte können direkt der Inanspruchnahme einer Ressource des Prozesskettenparadigmas [Kuh95] zugeordnet werden. Es handelt sich hierbei um Effekte, für die eine direkte monetäre Bewertung möglich ist, z. B. reduzierter Zeitbedarf oder Investitionskosten. Quantitative Effekte werden beispielweise als Prozesskosten erfasst und in Zahlungsfolgen ausgedrückt und können unter Berücksichtigung ihres zeitlichen Auftretens durch Verfahren der Investitionsrechnung abgezinst werden.5 Auf der anderen Seite gilt es, qualitative Effekte zu differenzieren und diese bewertbar zu machen. Darunter werden solche Effekte verstanden, deren Wirkungen sich nicht aus einem Ressourcenverbrauch ableiten lassen. Da die Bewertung qualitativer Effekte oftmals strittig und sehr subjektiv ist, werden diese Effekte nicht selten vernachlässigt. Im Rahmen des Cost Benefit Sharing dienen sie vor allem einer ganzheitlichen Bewertung der Kooperation. Dies sind beispielsweise Imagegewinne durch Zusammenarbeit mit einem bekannten Unternehmen, ein verbesserter Zugang zu neuen Kunden etc. Eine monetäre Berechnung dieser Effekte ist dennoch über „Umwege“ möglich.6 Primär wird im CBS jedoch eine Punktbewertung anhand eines standardisierten Fragebogens vorgenommen. Der Subjektivität der Antworten kann Rechnung getra-
5 6
Vgl. Abschnitt Periodizität. In den letzten Jahren wurde hierfür die Methode des Supply Chain Value-Added von [Use05] vorgeschlagen, bei der die qualitativen Effekte relativ zu den quantitativen Effekten und einem Gewichtungsschlüssel in monetäre Equivalente umgerechnet werden.
82
I.V. Riha
gen werden, indem die qualitativen Faktoren nicht gleichgewichtet mit den quantitativen Effekten in die Bewertung eingehen. Kategorie Effekte können unterschieden werden in erwünschte Effekte, die Kosten senken oder die Leistung steigern, und unerwünschte Effekte, die entgegengesetzt wirken. Diese beiden Effektkategorien werden als positiv und negativ bezeichnet. Für die Berechnung der Effekte definiert die Kategorie das Vorzeichen, mit denen der Effekt in die Berechnung eingeht. Wirkungsweise Die Verursacher einer Maßnahme werden durch Urheberschaft, Betroffene durch die Prozesseignerschaft definiert. Dies wird im Effektraum über die Wirkungsweise unterschieden und als Reflexions- und der Transitionseffekt bezeichnet. Zeigen bestimmte Verbesserungsmaßnahmen, die von einem Akteur vorgeschlagen werden (Initiator) auch bei anderen Akteuren bzw. Eignern eines Prozesskettenelements eine Auswirkung, so spricht man von Transitionseffekten. Aggregationsebene Eine der wichtigsten Erweiterungen für das CBS stellen die Aggregationsebenen dar. Die Berücksichtigung der Maßnahmenwirkung über die Unternehmensgrenzen hinaus und die Vielzahl der Akteure im Netzwerk erfordert eine Erweiterung der Partialbetrachtungsweise, bei der nur die Wirkung einer Maßnahme bei einem Akteur bewertet wird. Im CBS sind zur vollständigen Abdeckung der Konstituenten vier Aggregationsebenen nach Akteuren und Maßnahmen zu unterscheiden: der Partialeffekt ePAR, der Maßnahmeneffekt eMAS, der Akteurseffekt eAKT sowie der Netzwerkeffekt eNET (Abb. 4.4). Auf einer Aggregationsebene werden positive, negative und Nettoeffekte festgestellt. Letztere ergeben sich als Summe von positiven und negativen Effekten. Grundlegende Betrachtungsebene ist zunächst der Partialeffekt einer Maßnahme. Dieser bezeichnet die Wirkung einer Maßnahme bei einem Akteur, und damit nur
Abb. 4.4 Aggregate von Effekten zur netzwerkweiten Bewertung im CBS
4 Kosten- und leistungsoptimierter Betrieb kooperativer Logistiknetzwerke
83
einen Bruchteil der Effekte für das Netzwerk. Da noch alle Transitionseffekte der Maßnahme unberücksichtigt sind, werden weitere Aggregationsebenen benötigt. Die zweite Art der Aggregation bildet der Maßnahmeneffekt eMAS. Dieser wird berechnet durch Summierung der Partialeffekte einer Maßnahme über alle Akteure. Das Netzwerk wird als virtueller Akteur in das Modell integriert. Der Maßnahmeneffekt betrachtet alle Partialeffekte einer Maßnahme bei allen Akteuren. Er ist damit ein Maß für die absolute Wirkung einer Maßnahme im Netzwerk. Dabei genügt es nicht, nur die Maßnahmen selbst im Rahmen des Maßnahmeneffektes zu betrachten, sondern es muss ebenfalls ihre individuelle Wirkung auf die Akteure, der Akteurseffekt eAKT, erfasst werden. Dabei werden die Partialeffekte aller Maßnahmen bei einem Akteur betrachtet. Der Akteurseffekt gibt an, welche Wirkung sich insgesamt bei Durchführung aller Maßnahmen bei einem Akteur ergibt. Er spiegelt damit die Effektverteilung, die Distribution von Lasten und Leistungen im Netzwerk wider und stellt ein sehr wichtiges Beurteilungskriterium für die Fairness und prognostizierte Akzeptanz des Projektes dar, denn der Akteur ist letztendlich Entscheider und wirtschaftlicher Wirkungsort einer Projektentscheidung. Schließlich ergibt sich der Netzwerkeffekt eNET als höchstes Aggregat durch die Summierung aller Partialeffekte bei allen Akteuren. Der Netzwerkeffekt, auch Gesamteffekt genannt, ist damit eine wichtige Größe zur Projektentscheidung. Alle Betrachtungsebenen können in der Basisallokation unterschieden werden (Abb. 4.5). Die Aggregationsebenen unterstützen die Analyse der Wirtschaftlichkeit einer Projektentscheidung, indem sie einerseits die Partialeffekte systematisch zum Netzwerkeffekt zusammenführen, andererseits aber die unterschiedlichen Sichtweisen von Einzelakteuren und Netzwerk transparent machen.
Abb. 4.5 Arten der Aggregation und Beispiel aus der Basisallokation
84
I.V. Riha
Periodizität Da sich die zumeist strategischen Kooperationen über einen längeren Zeitraum erstrecken, sind die Effekte auch über diesen Zeitraum zu betrachten. Die Effekte sind deshalb über die Zeit indiziert, um den Zeitpunkt des Auftretens zu berücksichtigen. Abhängig davon können sie mit Hilfe des Gegenwartswertes der Effekte auf den heutigen Zeitpunkt abdiskontiert werden. Weiterhin erfolgt durch die Einteilung in Perioden eine Diskretisierung der Zahlungsströme und damit eine Vereinfachung des Bewertungsmodells. Die Periodizität, das Auftreten und die Dynamik der Effekte über die Zeitskala, wird also durch Integration der Investitionsrechnung in das Bewertungsverfahren berücksichtigt. Ordnung Effekte treten regelmäßig in einer Wirkungskaskade auf, die als Ordnung bezeichnet werden soll. Beispiel: Die Verringerung einer Prozesszeit reduziert in erster Ordnung die Durchlaufzeit. In zweiter Ordnung wird Umlaufvermögen eingespart. Dies wiederum führt in dritter Ordnung zu einem verringerten Kapitalbedarf und reduzierten Zinslasten. Aufgrund der komplexen Wirkzusammenhänge und dem damit stark erhöhten Ermittlungsaufwand für die Daten werden hier nur Effekte erster Ordnung betrachtet, die direkt aus einer Maßnahme resultieren. Bei entsprechendem Detaillierungsbedarf ist es jedoch möglich, auch Effekte höherer Ordnung in die Bewertung einzubeziehen.
4.3.1
Bewertung durchführen: Transparenz schaffen durch Cost Benefit Sharing
Die Grundidee der Effektbewertung im Cost Benefit Sharing, wie sie im SFB 559 verfolgt und umgesetzt wird, ist die Kopplung des einperiodigen, prozessbezogenen Bewertungsinstrumentes der ressourcenorientierten Prozesskostenrechnung mit dem mehrperiodenbezogenen Instrument des Vollständigen Finanzplans. Anschließend werden die qualitativen Effekte mit einem Fragebogen evaluiert (Abb. 4.6). Dieses Bewertungsinstrument ermöglicht eine lebenszyklusorientierte, mehrperiodige Berechnung der quantitativen Effekte von netzwerkweiten Kooperationsprojekten, wie dies bereits in der Einleitung gefordert wird. Neben dem in Abb. 4.6 dargestellten Vefahren sind auch andere Bewertungsverfahren einsetzbar. Es besteht die Möglichkeit, Kennzahlensysteme wie die Netzwerk-Balanced-Scorecard [SSt03], Ansätze des Performance Measurement oder eine Kombination aus Simulation und Kennzahlensystemen als Bewertungsgrundlage einzusetzen. Die Ergebnisse der Bewertung müssen zur Schaffung der erforderlichen Transparenz im gesamten Netzwerk kommuniziert werden. Jeder Akteur des Netzwerkes muss seinen Beitrag zu den Prozessveränderungen und die Auswirkungen auch auf andere Akteure kennen und benötigt einen barrierefreien Zugriff auf diese Informationen. Diese Transparenz kann auch verwendet werden, um eine Abkehr von den bisher vorherrschenden, lokalen Verbesserungsmaßnahmen und dem lokalen Denken
4 Kosten- und leistungsoptimierter Betrieb kooperativer Logistiknetzwerke
85
Abb. 4.6 Gesamtmodell zur Bewertung im CBS
herbeizuführen: Ist bekannt, welche Wirkung eine Maßnahme im Netzwerk besitzt, kann darüber verhandelt werden, wer die Kosten für diese Maßnahme trägt.7 Notwendig sind dann sowohl ablauforganisatorische Prozesse, die das Verfahren (Cost Benefit Sharing) beschreiben, als auch die aufbauorganisatorischen Voraussetzungen, damit diese Prozesse ablaufen können. Beide Ebenen des Cost Benefit Sharing werden in Abb. 4.7 dargestellt.
4.3.1.1 Aufbauebene Ein wesentlicher Unterschied zu fokalen Netzwerken ist die Einbeziehung aller relevanten Akteure in die Entscheidungsfindung und die Entwicklung einer gemeinsamen Netzwerkstrategie. Wie Abb. 4.7 zeigt, basiert die Aufbauebene auf Teilen des physischen Netzwerkes und nimmt die Funktion des Netzwerkmanagements wahr. Die Aufbauebene verleiht dem Netzwerk eine institutionelle Struktur und schafft damit Aufbaustrukturen für ein Netzwerkmanagement. Durch die Einführung des Netzwerkmanagements findet eine freiwillige, begrenzte Unterordnung der Akteure gegenüber der gemeinsam entwickelten und personell besetzten Instanz statt.
7
Dies ist vor nur dann interessant, wenn Ursache und Wirkung nicht bei dem gleichen Akteur auftreten.
86
I.V. Riha
Abb. 4.7 Ebenenmodell des Cost Benefit Sharing
Die Unterordnung kann gerechtfertigt werden, da die Vorteile durch ein abgestimmtes Handeln der Akteure im Netzwerk die Vorteile einer unabgestimmten Handlungsweise übersteigen. Die Abstimmung, mithin Koordination, wird durch das Netzwerkmanagement erreicht. Sie ist wichtig, um eine Implementierung von Zielen, Strategien und Maßnahmen zu ermöglichen. Zeitverzögerungen durch Missverständnisse sowie Diskussionen werden aus mehrfachen bilateralen Verständigungen in einen institutionellen Rahmen verlegt. Dabei wird durch den Cost Benefit Sharing-Ansatz sichergestellt, dass der mögliche Gegensatz zwischen partikulären und gesamtwirtschaftlichen Interessen langfristig durch Kompensationsverfahren ausgeglichen und damit für alle Akteure wirtschaftlich nachhaltig tragbar ist. Zu diesem Zweck werden in der Aufbauebene mehrere Institutionen geschaffen, die die notwendige Koordination leisten und als strukturbildender Vorschlag zu verstehen sind. Je nach Notwendigkeit können neue Institutionen hinzugefügt oder entfernt werden. Anfallende Kosten für die Aufbauebene sind in der Effektberechnung gleichmäßig auf alle Akteure zu verteilen. Die Aufbauebene erfüllt mit diesen Institutionen eine Grundlage für die effektive, effiziente sowie koordinierte Zusammenarbeit der unterschiedlichen Akteure im Netzwerk und schafft Legitimation für das Netzwerk und die darin vereinbarten Maßnahmen. Auf eine genaue Beschreibung der Aufbauebene wird in diesem Beitrag verzichtet und stattdessen auf [Rih06] verwiesen.
4.3.1.2 Ablaufebene Das Vorgehensmodell des Cost Benefit Sharing verwendet die institutionelle Struktur der Aufbauebene und beschreibt die Aktivitäten zur Durchführung des Cost
4 Kosten- und leistungsoptimierter Betrieb kooperativer Logistiknetzwerke
87
Benefit Sharing. Sechs Teilschritte sind im Modell vorgesehen, die chronologisch durchzuführen sind (Abb. 4.8). Aufnahme des Istprozesses Der erste Schritt des CBS-Vorgehens startet mit einer Bestandsaufnahme der relevanten Prozesse zwischen den Akteuren des Netzwerks. Die Istprozessdarstellung muss von allen Akteuren verabschiedet und auf Richtigkeit geprüft werden. Sie bildet die gemeinsame Datenbasis für alle weiteren Arbeiten, insbesondere die Prozessanalyse und die Maßnahmendefinition. Prozessmodifikationen Auf Grundlage der Bestandsaufnahme der Prozesse werden nun Schwachstellen und Optimierungspotenziale im Istprozess identifiziert. Die Optimierungsmöglichkeiten in Prozess und Struktur werden von allen Akteuren gemeinsam erarbeitet und in einem Maßnahmenkatalog zusammengestellt. So wird sichergestellt, dass der Maßnahmenkatalog als Gesamtpaket vom Leitungskreis angenommen oder abgelehnt wird. Die Maßnahmen im Maßnahmenkatalog sind die später zu bewertenden Prozessmodifikationen. Planprozess Die im Maßnahmenkatalog definierten Prozessmodifikationen werden in den Istprozess integriert. Dies führt zu einem Modell des Planprozesses. Neben den modifizierten Prozesselementen bleiben alle anderen Prozesse wie im Istprozess bestehen. Die im Vergleich zum Istprozess veränderten Prozesselemente werden anschließend bewertet. Effektbewertung Die Bewertung der Prozessmodifikationen erfolgt gemäß der Methodik in Kap. 4.3 oder alternativer Bewertungsverfahren wie einer Simulation. Die Effekte der zum Basisprozess identischen Prozesselemente werden dabei nicht berücksichtigt. Sie haben auch im modifizierten Prozess eine unveränderte Effektstruktur und dienen daher nicht für die Bewertung des gemeinsamen Projektes (Differenz- oder Delta-Betrachtung).
Abb. 4.8 Cost Benefit Sharing-Vorgehensmodell
88
I.V. Riha
Darstellung der Basisallokation Die Ergebnisse des gemeinsamen Projektes werden in Form einer Basisallokation zusammengefasst. Die Basisallokation spiegelt die Effektverteilung im Netzwerk wieder und schafft vollständige Transparenz über Kosten und Nutzen bei allen beteiligten Akteuren (Abb. 4.9). Durchführung der Reallokation Mit Hilfe der Basisallokation erfolgt eine Interpretation und Bewertung der Wirtschaftlichkeit des Netzwerkprojektes anhand der notwendigen und hinreichenden Wirtschaftlichkeitsbedingung aus Kap. 4.4.2. Wird eine Win-Win-Situation festgestellt, so kann das Projekt ohne Reallokation durchgeführt werden. Andernfalls ist die Entscheidung über eine Projektdurchführung mit einer Auswahl einer Reallokationsstrategie zu koppeln. Die Auswirkungen auf die Akteure ist in Szenarien durchzurechnen. Auch muss eine Verständigung auf eine Reallokationsstrategie stattfinden (Abb. 4.12).
4.4
Netzwerkgewinne verteilen
Die Anwendung der im Vorfeld beschriebenen Bewertungsverfahren führt zur Basisallokation. Sie stellt die Situation, die sich nach Projektdurchführung ergeben würde, für alle Akteure transparent dar. Diese neue Transparenz sorgt dafür, dass auf einen Blick drei unterschiedliche Allokationsszenarien erkannt werden können, die die Verteilung der Gewinne aus dem Netzwerkprojekt unter den Akteuren widerspiegelt (Abb. 4.9). Diese Basisallokation kann auf eine Win-Win-Situation deuten, in der alle Akteurseffekte positiv sind und damit alle Akteure direkt vom Projekt profitieren. Demgegenüber stellen sich in Lose-Lose-Situationen alle Akteure schlechter, sodass
Abb. 4.9 Typische Ergebnisse bei der Interpretation der Basisallokation
4 Kosten- und leistungsoptimierter Betrieb kooperativer Logistiknetzwerke
89
Tabelle 4.1 Mögliche Effektdistributionen in Netzwerken Nr.
Einzelner Akteur
Andere Akteure
eNET
Projektdurchführung?
Bemerkung
1
+
+
+
Ja
2
+
+
-
Nein
3
+
-
-
Nein
4
-
-
-
Nein
5
-
+
+
Evtl.
6
-
-
+
Nein
7
-
+
-
Nein
8
+
-
+
Evtl.
Win-Win-Situation nach Pareto Theoretische Kombination Notw. Bed. nicht erfüllt Notw. Bed. nicht erfüllt Win-Lose nach Kaldor Hicks Theoretische Kombination Notw. Bed. nicht erfüllt Win-Lose nach Kaldor-Hicks
das Projekt wirtschaftlich unrentabel ist. In Win-Lose-Situationen hingegen realisieren einige Akteure Gewinne, während andere Verluste schreiben. Tabelle 4.1 systematisiert mögliche Nettoeffektdistributionen jeweils von der Sichtweise der Betrachtungsebenen eines Einzelakteurs, der übrigen Akteure und des Netzwerks. Ein + symbolisiert einen positiven, ein – einen negativen Nettoeffekt.
4.4.1
Neue Wirtschaftlichkeitskriterien für Netzwerkprojekte
Auf Basis der Tabelle 4.1 lassen sich zwei Bedingungen für die Wirtschaftlichkeitsbetrachtung von Projekten in Netzwerken ableiten (Abb. 4.10), die von den klassischen Wirtschaftlichkeitskriterien abweichen. Somit können klare Aussagen über die Anwendung von Cost Benefit Sharing getroffen werden können: 1. Die notwendige Wirtschaftlichkeitsbedingung zur Durchführung des Projektes ist ein positiver Netzwerkeffekt, eNET > 0. Ist die notwendige Projektbedingung verletzt, wird das Projekt nicht durchgeführt, denn die negativen Effekte übersteigen die positiven. Da die Distribution der Effekte in diesem Fall nicht von Bedeutung ist, entfällt eine weitere Betrachtung des Cost Benefit Sharing-Ansatzes. Ist die notwendige Bedingung jedoch erfüllt, so spielt die Effektdistribution wieder eine Rolle. Sie wird daher in der hinreichenden Bedigung untersucht: 2. Folglich ist durch die hinreichende Wirtschaftlichkeitsbedingung sicherzustellen, dass alle Akteure, die am Projekt beteiligt sind, auch einen wirtschaftlichen Vorteil aus ihm ziehen. Die Allokation der Effekte ist dabei maßgeblich. Voraussetzung für eine Akzeptanz des Projektes ist, dass entweder
90
I.V. Riha
Abb. 4.10 Bedingungen zur Beurteilung der Wirtschaftlichkeit von Netzwerkprojekten
(a) jeder einzelne Akteurseffekt eAKT(a) > 0 positiv ist und dadurch das Unternehmen bereits einen Anreiz zur Teilnahme besitzt. Dies stellt eine WinWin-Situation im Sinne des Pareto-Kriteriums dar (Pareto-Bedingung), (b) oder dass alle negativen Akteurseffekte durch Kompensationsmaßnahmen mindestens neutralisiert werden können, sodass die Akteure sich mindestens genauso stellen wie in der Initialallokation. Ein Ausgleich muss also bei Anwendung des Cost Benefit Sharings durch die Überschüsse der Profiteure gewährleistet werden können (Kaldor-Hicks-Bedingung).
4.4.2 Akzeptanzkriterien einer Reallokation in Kaldor-Hicks-Szenarien Sind nach Aufstellung der Basisallokation die Allokationsszenarien geprüft worden, so ist im Fall einer Win-Lose-Allokation gemäß Kaldor-Hicks eine Entscheidung
4 Kosten- und leistungsoptimierter Betrieb kooperativer Logistiknetzwerke
91
über die Reallokation zu treffen. In diesem Zusammenhang ist es maßgeblich, unter welchen Umständen ein Allokationsszenario akzeptiert wird. Neben den „harten“, im vorigen Kapitel geschilderten Wirtschaftlichkeitskriterien, die die Möglichkeit und Notwendigkeit einer Reallokation beschreiben, sind im Hinblick auf die Akzeptanz zusätzliche Aspekte zu berücksichtigen: qualitative Faktoren und die Perzeption von Fairness. Den geschilderten Untersuchungsbereich decken zwei wesentliche Forschungsrichtungen ab: die betriebswirtschaftliche Spieltheorie und die Equity Theory. Im Mittelpunkt beider Forschungsrichtungen steht u. a. die Ermittlung einer akzeptablen Allokation durch geeignete Koordinationsmechanismen [GWe06].
4.4.2.1
Spieltheorie
Die Spieltheorie ist eine mathematische Mehrpersonen-Entscheidungstheorie. Grundlegend wird in der Spieltheorie vorausgesetzt, dass die Akteure wirtschaftlich rational, also nach einem egoistischen Gewinnmaximierungskalkül handeln [LAm07]. Eines der bekanntesten Grundprobleme der Spieltheorie, das auch im Rahmen des CBS interessant ist, ist das „Gefangenendilemma“ [LAm07] oder das Chickens-Game [CHR+08]. Im Gefangenendilemma können die Spieler ihre eigenen Auszahlungen durch unkooperatives Verhalten jeweils maximieren. Addiert man jedoch diese beiden individuellen Gewinnsummen, so ist das Gesamtergebnis geringer als wenn beide Akteure kooperativ gehandelt hätten [LAm07]. Die Rationalitätsannahme der Spieltheorie bildet jedoch die Entscheidungssituationen in sozialen Netzwerken nicht immer ausreichend ab. Spieltheoretische Experimente setzen zur Untersuchung der Allokationseffizienz auch das Ultimatum-Spiel8 ein. Wichtige Erkenntnisse aus diesen Spielen sind, dass üblicherweise Angebote zurückgewiesen werden, in denen weniger als 20% der Summe angeboten werden; Angebote zwischen 30% und 50% aber werden in der Regel akzeptiert [DVe00, Jap01]. Im Mittel wurde jeweils von den Bessergestellten von sich aus die Hälfte der Verteilungsmasse angeboten. Dabei spielt es eine wichtige Rolle, ob die Akteure einander kennen und ob sie vermuteten, dass ihnen mit Absicht schlechte Angebote gemacht würden. Die Kenntnis des Gegenübers führt eher zu besseren Angeboten, während eine Vermutung über absichtlich schlechtes Verhalten dazu führt, dass Angebote eher abgelehnt werden.
4.4.2.2
Equity Theory
Neben der Spieltheorie, die möglichst mathematisch beschreibbare Verhaltensregeln ableitet, integriert die Equity Theory auch sozialwissenschaftliche Aspekte. Fairness ist dabei ein wichtiges Konzept, welches sich insbesondere bei Verwendung von Kompensations- und Beteiligungsmodellen in den Vordergrund drängt. 8
Bei diesem Spiel bietet ein Akteur den von ihm festgelegten Teil einer Verhandlungsmasse einem anderen Akteur an. Dieser kann das Angebot annehmen oder ablehnen. Nimmt er das Angebot an, erhalten beide den besprochenen Anteil. Akzeptiert er das Angebot nicht, gehen beide leer aus.
92
I.V. Riha
Mit der Equity Theory wurde erkannt, dass drei Komponenten das Fairnessempfinden beeinflussen9 (Abb. 4.11) [DVe00, LBT89]: • Der Bezugspunkt, von dem aus die Kompensation betrachtet wird. Der Bezugspunkt ist das derzeitige Nutzenniveau eines Akteurs zum Zeitpunkt der Entscheidung für eine Kompensation. • Die absolute Höhe der Kompensation für einen Akteur. Dies bezeichnet die eigene Besserstellung des Akteurs, ohne jedoch zu berücksichtigen, wie der absolute Betrag im Vergleich mit den anderen Akteuren ausfällt. • Die relative Höhe der Kompensation, die darstellt, wie die Höhe der eigenen Kompensation relativ zu der der anderen Beteiligten ausfällt. Dabei setzt man das eigene Abschneiden in Relation zu dem der anderen Akteure [ABV02]. Weiterhin beeinflusst die psychologische, physiologische und soziologische Position eines Akteurs das Fairnessempfinden [Kab91]. Ebenfalls scheint der Wille, eigene Abstriche zu machen, um einen anderen Akteur zu kompensieren, mit der absoluten Höhe der Ausgleichszahlungen zu sinken [Rab93]. Rein rationale Erklärungsansätze führen in der Entscheidung für eine Reallokationsstrategie daher nicht allein weiter.
4.4.3
Reallokationsstrategien in Netzwerken
Konkret sollen nachfolgend Strategien zur Reallokation vorgestellt werden. Unter einer Reallokation versteht man die Verteilung knapper Produktionsfaktoren (Kapital, Personal) einer Wirtschaft auf unterschiedliche Akteure oder Verwendungszwecke, um damit eine möglichst weitreichende Bedürfnisbefriedigung oder umfangreichen Wohlstand zu erreichen [Zwa06]. Eine Reallokationsstrategie beschreibt eine nachvollziehbare Berechnungsvorschrift, mit der die Höhe der Ausgleichzahlungen für jeden Akteur berechnet werden kann. Kennzeichnend für eine Reallokation ist, dass es nicht zu einer absoluten Vermehrung der Produktionsfaktoren kommt, sondern dass die vorhandenen Ressourcen neu auf die Akteure aufgeteilt werden. Obwohl keine Vergrößerung der Reallokationsmasse festgestellt werden kann, stellt sich insgesamt ein höherer Nutzen für die Akteure ein, der durch unterschiedliche Akteurspräferenzen erklärt werden kann. Diese Präferenzen sind im CBS zwar nicht explizit bekannt, können aber durch den Einsatz geeigneter Technologieplattformen, wie z. B. Assistenzsystemen und Verhandlungsmechanismen auch im Rahmen impliziten Wissens berücksichtigt werden. Eine Reallokation wirkt koordinierend und unterstützt eine verbesserte Zielerreichung einer Supply Chain. Die Einzelakteure treffen eine für das Netzwerk wirtschaftlichere Entscheidung und nehmen zunächst auch individuelle Nachteile in Kauf, verlassen sich aber darauf, dass im Gegenzug ihr individueller „Schaden“ nach abgesprochenen Regeln kompensiert wird. 9
Die Bedeutung der drei Komponenten wurde von [KTv79] in der Prospect Theory bewiesen, für die im Jahr 2002 der Nobelpreis verliehen wurde.
4 Kosten- und leistungsoptimierter Betrieb kooperativer Logistiknetzwerke
93
Abb. 4.11 Einflussgrößen für die Akzeptanz von Kompensationen [KTv79]
Grundsätzlich werden zwei verschiedene Hauptkategorien von Kompensationsstrategien unterschieden: leistungsunabhängige und leistungsabhängige Strategien (Abb. 4.12). Bei leistungsunabhängigen Strategien hängt die Höhe der Reallokation nicht mit den Leistungsbeiträgen eines Akteurs zusammen. Diese Verfahrensweise hat den Vorteil, dass zur Bestimmung des Reallokationsanspruches Nettobeträge ausreichen und die Betrachtung positiver und negativer Effekte im Detail entfallen kann. Reallokationsregeln ohne Leistungsbezug können jedoch auch vorteilhaft sein, wenn die
Abb. 4.12 Reallokationsstrategien im CBS
94
I.V. Riha
Mitwirkung eines Akteurs notwendig ist, dieser aber keinen Beitrag leisten kann oder die Berechenbarkeit oder Abgrenzung der Effekte schwierig ist. Leistungsabhängige Strategien hingegen koppeln die Höhe der Reallokation an den Leistungsbeitrag des Akteurs. Derjenige mit den größten Leistungsbeiträgen wird auch in der Reallokationsentscheidung am meisten berücksichtigt. Bei der Effekterfassung müssen also Leistungsbeitrag und bereits erhaltene Effekte klar differenzierbar sein. Der primäre Beweggrund für die Auswahl leistungsabhängiger Strategien dürfte das Ausreizen des Produktivitätspotentials sein, wobei eine saubere Trennung zwischen Ursache und Wirkung einer Maßnahme auf die Akteure gegeben sein muss, damit die Bestimmung des Leistungsbeitrags eines Akteurs widerspruchsfrei gelingen kann. Beispielhaft soll hier die Berechnung und Ergebnisse der ersten Reallokationsstrategie „Verluste ausgleichen“ demonstriert werden. Bei dieser leistungsunabhängigen Reallokationsstrategie einigen sich die Akteure darauf, dass alle Verlierer in der Basisallokation, d. h. alle Akteure mit einem negativen Akteurseffekt, durch die Gewinner exakt indifferent und damit mit der Initialallokation gleichgestellt werden, indem ihre Verluste ausgeglichen werden. Diese Strategie ist immer anwendbar, wenn der Netzwerkeffekt > 0 ist, weil dann die Möglichkeit zum Ausgleich aller negativen Akteurseffekte besteht und trotzdem das Kaldor-Hicks-Kriterium gewahrt bleibt. Abbildung 4.13 zeigt Beispiel und Operationalisierung.
Abb. 4.13 Reallokationsstrategie 1: Verluste ausgleichen
4 Kosten- und leistungsoptimierter Betrieb kooperativer Logistiknetzwerke
95
Berechnung Reallokationsanspruch: ra = −e AKT (a )
{
}
∀ a ∈ A e AKT (a ) < 0
Ergebnis Nach Anwendung dieser Strategie ist die Zielallokation jedes Akteurs mindestens so hoch wie in der Initialallokation. Hierdurch wird auch nach dem Reallokationsschritt das Kaldor-Hicks-Kriterium erfüllt, wobei die Gewinnrangfolge der Akteure unverändert bleibt: „Verlierer“ bleiben relativ gesehen Verlierer, umgekehrt gilt das gleiche für die Gewinner. Als leistungsunabhängige Strategie werden die Akteure, die bereits in der Basisallokation mit positivem Akteurseffekt als Gewinner hervorgegangen sind auch nach der Reallokation in Summe um den Netzwerkeffekt bessergestellt. Es wird somit ein Minimalausgleich durchgeführt, die aus einer Win-Lose-Situation gerade eben eine Win-Win-Situation erzeugt. Für eine Darstellung weiterer Strategien wird auf [Rih06] verwiesen.
4.4.4
Strategieauswahl und -empfehlung
Im Zusammenhang mit der Entscheidung für eine „richtige“ Reallokationsstrategie und die Durchführung der Reallokation wird häufig die Frage gestellt, welche Strategie die besten Ergebnisse liefert und daher die „optimale“ Reallokationsstrategie für das CBS-Netzwerk darstellt. Die Annahme wirtschaftlicher Rationalität als hinreichender Erklärungsansatz und als Akzeptanzkriterium ist, wie bereits beschrieben, nicht ausreichend. Was für den einen Akteur fair und akzeptabel ist, kann von einem anderen Akteur abgelehnt werden. Damit entfällt eine belastbare mathematische Basis für die Optimalitätsbedingung. Sehr subjektive, möglicherweise gar nicht explizit formulierte Faktoren prägen das Verhalten der Akteure. Eine Abfrage der vollständigen Präferenzen zum Zweck der Explizierung und Integration in ein umfassendes Entscheidungsmodell wird jedoch auf praktische Probleme stoßen. In dieser Arbeit wird deswegen nicht eine optimale Entscheidung gesucht, sondern vorgeschlagen, die Einigung über eine Verhandlungslösung zu erreichen, indem die Auswirkungen der unterschiedlichen Reallokationsstrategien auf die Akteure dargestellt werden. Dabei müssen sich die Verteilungsstrategien an den im Vorfeld beschriebenen Wirtschaftlichkeitskriterien orientieren und ihnen genügen. Wenn die exakte Bestimmung einer Lösung also unmöglich ist, sind die Akteure durch die Szenarienbetrachtung vielmehr in die Lage zu versetzen, eine Beurteilung der Situation für sich und für das Netzwerk auf den unterschiedlichen Ebenen durchführen zu können. Es liegt nahe, aufgrund der Komplexität der Entscheidungssituation daher auf Assistenzsysteme zu setzen, die die Komplexitäten reduzieren und das Finden einer Verhandlungslösung im Netzwerk unterstützen. Fünf Reallokationsstrategien wurden dazu im Rahmen des SFB 559 entwickelt und anhand von vier Kriterien evaluiert. Zunächst wird bewertet, wie gut die Strategie eine Win-Win-Situation erzielt. Darunter sind subsummiert Bewertungsaspekte
96
I.V. Riha
Tabelle 4.2 Bewertung der Reallokationsstrategien Strategie
Win-WinOrientierung
Umsetzungs- Robustheit Datenqualitätsanforkomplexität derungen
Verluste ausgleichen Identische Zielallokation Gewinnallokation nach Akteuren Gewinnallokation nach Maßnahmen Gleicher relativer Gewinn
3 4 2
1 2 2
5 5 3
1 2 1
1
2
1
2
5
5
5
5
wie einheitliche Höhe der Zielallokation, positive Akteurseffekte in der Zielallokation und eine klare Erkennbarkeit der Leistungsabhängigkeit, sofern die Strategie leistungsabhängige Aspekte belohnt. Zweites Bewertungskriterium ist die Umsetzungskomplexität. Eine einfache, nachvollziehbare Berechenbarkeit und eindeutige Bewertungsaspekte sind hierfür wichtig. Mit der Robustheit wird bewertet, inwiefern die Strategie anfällig ist für Manipulationen an den berechneten Effekten und ob die Akteure die Berechnungsergebnisse beeinflussen können, wenn sie eigennützig arbeiten. Die Datenqualitätsanforderungen berücksichtigen, in welcher Granularität die Effektdaten vorliegen müssen. Sofern nur Nettoeffekte oder offensichtliche Daten wie die Anzahl der Akteure, für die Reallokationsberechnung notwendig sind, ist die Anforderung geringer als wenn für jeden Partialeffekt positive und negative Komponenten einzeln ausgewiesen werden müssen. Die Bewertung der Kriterien erfolgt an einer ordinalen Skala von 1 = niedrig bis 5 = hoch (Tabelle 4.2). Zuverlässige Resultate liefert die Strategie 1, bei der alle negativen Effekte ausgeglichen werden. Sie erreicht eine Indifferentstellung der benachteiligten Akteure und ist dabei extrem robust gegen Fehler und Manipulationsversuche. Die Anforderungen an Berechnungs- und Datengenauigkeit sind relativ moderat. Diese Strategie sollte in jeder Verhandlung gerechnet werden und stellt die zur Akzeptanz notwendige Minimalkompensation dar. Sie ist leistungsunabhängig und markiert daher eine untere Grenze für eine Reallokation. Die Strategie 2 führt zu einer identischen Zielallokation und sorgt dafür, dass die Gewinne für jeden Akteur gleich hoch sind. Sie vernachlässigt die unterschiedlichen Beiträge und Leistungsfähigkeiten der Akteure und kann daher auch als robust und wenig komplex in der Anwendung bezeichnet werden. Ihre Leistungsunabhängigkeit kann ihr aber zum Vorteil gereichen, wenn die einzelnen Effekte nicht zweifelsfrei ausweisbar sind oder die Akteure ein ausgeglichenes Ergebnis ohne Diskussionsbedarf anstreben. Indem alle Akteure den gleichen absoluten Gewinn aus dem Projekt ziehen, können zudem Gleichheitsansprüche befriedigt werden. Die Strategien 3 und 4, die Reallokation nach Akteuren oder Maßnahmen, erweisen sich als wenig robust, weil die Zielallokation wesentlich mehr von der Verteilung in der Basisallokation abhängt, als bei Strategien 1 und 2. Außerdem wird eine Win-Win-Situation nicht sicher erreicht. Manipulationsversuche sind insbesondere bei der Reallokation nach Maßnahmen möglich, denn hier können unwirtschaftliche Maßnahmen vorgeschlagen werden, die zu einer Erhöhung des Reallokationsan-
Abb. 4.14 Bewertung der Reallokationsstrategien
98
I.V. Riha
spruches führen. Beide Strategien werden der Vollständigkeit halber hier aufgeführt, weil sie sich als erste Idee einer Reallokation in Gesprächen mit Forschungspartnern erwiesen haben. Deutlich divergierende Ausstattungen der Akteure in der Basisallokation werden auch nach der Reallokation beibehalten. Eine Anwendung kann nicht empfohlen werden, weil die Ergebnisse sehr stark schwanken und gleichzeitig hohe Anforderungen an die Datenqualität gestellt werden. Die Reallokation nach Strategie 5 und damit gleicher Projektrendite stellt sicher, dass jeder Akteur gleichermaßen vom Projekt profitiert. Die Zielallokation kann zuverlässig bestimmt werden und führt zu einer leistungsorientierten Win-WinSituation. Zur Berechnung müssen jedoch Kosten- und Leistungsdaten von guter Qualität vorliegen, weshalb hier die höchsten Anforderungen an die Datenqualität vorliegen. Strategie 5 führt nach gängigen Theorien zu einer fairen Zielallokation. Unter den beschriebenen Alternativstrategien stellt diese leistungsabhängige Strategie sicher, dass hohe Kosten auch durch hohe Ausgleichszahlungen kompensiert werden. Jeder Akteur erhält dadurch die gleiche Rendite wie das Projekt auf Netzwerkebene, was mit keiner anderen Strategie erzielt wird. Die Anwendung von Strategie 5 sollte damit die höchste Zustimmung unter den Akteuren erhalten, sofern eine Leistungsabhängigkeit angestrebt wird. Sie bildet damit den anspruchsvollen, oberen Benchmark für die Strategieauswahl. Die Bewertung der Reallokationen sind in einer Übersicht in Abb. 4.14 zusammengefasst.
Literatur [ABV02] Andreoni J, Brown PM, Vesterlund L (2002) What makes an allocation fair? Some experimental evidence. Games Econ Behav 40:1–24 [CBS99] Cullen J, Berry AJ, Seal W et al (1999) The contribution of management accounting. Manage Account Mag Chartered Manage Accountants 77:30–32 [CHR+08] Cramer S, Hertelendy T, Riha I et al (2008) Techniksoziologische Betrachtung des Cost Benefit Sharing am Beispiel eines Luftfrachtnetzes. Technische Universität Dortmund, Dortmund [Chr98] Christopher M (1998) Logistics and supply chain management – strategies for reducing cost and improving service. Prentice Hall, Harlow [Coa37] Coase RH (1937) The nature of the firm. Economica 16:386–405 [Dek03] Dekker HC (2003) Value chain analysis in interfirm relationships: A field studt. managw Account Res 14:1–23 [DGH+04] Dannenberg J, Gehr F, Hellingrath B et al (2004) Future automotive industry structure (FAST) 2015 – die neue Arbeitsteilung in der Automobilindustrie. In: Mercer Management Consulting, Fraunhofer G (Hrsg) Materialien zur Automobilindustrie. Verband der Automobilindustrie e.V., Frankfurt/Main [DVe00] Dijk E van, Vermunt R (2000) Strategy and fairness in social decision making: Sometimes it pays to be powerless. J Expo Soc Psychol 36:1–25 [Göp05] Göpfert I (2005) Logistik Führungskonzeption – Gegenstand, Aufgaben und Instrumente des Logistikmanagements und -controllings. Vahlen, München [Gro82] Grochla E (1982) Grundlagen der organisatorischen Gestaltung. Poeschel, Stuttgart [GSi98] Gulati R, Singh H (1998) The architecture of cooperation: Managing coordination costs and appropriation concerns in strategic alliances. Adm Sci Q 43:781–814
4 Kosten- und leistungsoptimierter Betrieb kooperativer Logistiknetzwerke
99
[GWe06] Gupta D, Weerawat W (2006) Supplier-manufacturer coordination in capacitated twostage supply chains. Eur J Oper Res 175:67–89 [HBW03] Harland C, Brenchley R, Walker H (2003) Risk in supply networks. J Purch Supply Manage 9:51–62 [Hel02] Hellingrath B (2002) Anlage zum Zwischenbericht des Fraunhofer IML [Hof05] Hofmann E (2005) Supply chain finance: Some conceptual insights. In: Lasch R, Janker CG (Hrsg) Logistik Management – Innovative Logistikkonzepte. Deutscher Universitätsverlag, Wiesbaden [Jap01] Jap SD (2001) Pie sharing in complex collaboration contexts. J Mark Res 38:86–99 [JLo04] Jordan J, Lowe J (2004) Protecting strategic knowledge: Insights from collaborative agreements in the aerospace sector. Technol Anal Strateg Manage 16:241–259 [Kab91] Kabanoff B (1991) Equity, equality, power and conflict. Acad Manage Rev 16:416–441 [KRH+06] Keller M, Riha I, Hellingrath B et al (2006) Bewertung und Verteilung von Kosten und Nutzen in Wertschöpfungsnetzwerken. In: Wimmer T, Pfohl HC (Hrsg) Wissenschaft und Praxis im Dialog: Steuerung von Logistiksystemen – auf dem Weg zur Selbststeuerung/[3. Wissenschaftssymposium Logistik in Dortmund], Bd 1. Deutscher Verkehrs-Verlag, Hamburg [KTv79] Kahneman D, Tversky A (1979) Prospect theory: An analysis of decision under risk. Econometrica 47:263–91 [Kuh95] Kuhn A (1995) Prozessketten in der Logistik, Entwicklungstrends und Umsetzungsstrategien. Praxiswissen, Dortmund [LAm07] Leininger W, Amman E (o.J.) (2007) Vorlesungsskript: Einführung in die Spieltheorie 1. Lehrstuhl Wirtschaftstheorie. http://www.wiso.uni-dortmund.de/mik/de/content/service/materialien/dateien/0708-ST1-Vorlesung-Skript.pdf, Zugriff 05. January 2008 [LBT89] Loewenstein GF, Bazerman MH, Thompson L (1989) Social utility and decision making in interpersonal contexts. J Pers Soc Psychol 57:426–441 [PHa90] Prahlad CK, Hamel G (1990) The core competence of the corporation. Harv Bus Rev 5–6:79–90 [PRG07] Pfohl HC, Röth C, Gomm M (2007) Die Supply Chain Finance Gesellschaft. Industrie Manage 23:11–14 [Rab93] Rabin M (1993) Incorporating fairness into game theory and economics. Am Econ Rev 83:1281–1303 [Rad05] Radermacher B (2005) Entwicklung von Ansätzen zur monetären Bewertung von Prozessveränderungen am Beispiel der Integration des Pickup Prozesses AMES-T – Die monetäre Bewertung der Vorteile von AMES-T. Diplomarbeit, Universität Dortmund [REH+04] Rinehart LM, Eckert JA, Handfield RB et al (2004) An assessment of supplier-customer-relationships. J Bus Logistics 25:25–62 [Rih06] Riha I (2006) Grundlagen des Cost Benefit Sharing. Universität Dortmund, Dortmund [Seu01] Seuring S (2001) Supply chain costing. Vahlen, München [SSt03] Schulze A im Hove, Stüllenberg F (2003) Die Netzwerk-Balanced Scorecard als Instrument des Netzwerk-Controlling. Universität Dortmund, Dortmund [Syd92] Sydow J (1992) Strategische Netzwerke: Evolution und Organisation. Gabler, Wiesbaden [USe05] Urban G, Seiter M (2005) What gets measured, gets done! – Nutzenbewertung in der Supply Chain. International Performance Research Institute GmbH, Stuttgart [Zwa06] Zwahr A (Hrsg) (2006) Brockhaus-Enzyklopädie. In 30 Bänden, Bd 21. Brockhaus, Mannheim
Kapitel 5
Optimierung des Wechselbrückentransports – ein Spezialfall der Tourenplanung Hans-Werner Graf
Zusammenfassung Zu den Standardaufgaben in großen Transportnetzen gehört die Fahrzeugdisposition und Umlaufplanung. Diese Aufgabenstellung ist mit der Tourenplanung verwandt, unterscheidet sich aber in einigen Punkten. So werden nicht Waren von einem Depot an viele Kunden verteilt, sondern der Transport erfolgt zwischen den Depots eines Transportnetzes. Die einzelnen Transportmengen sind dabei größer, so dass sich oftmals Direktverkehre ergeben. Allerdings ergeben sich durch Restmengen und durch kleinere Depotstandorte – oder generell bei Netzen mit nicht so hohem Sendungsvolumen – viele Relationen, die keinen ganzen LkwZug füllen. Aus diesem Grund spielen die Transportbehälter eine besondere Rolle in diesen Netzen, denn geeignete Transportbehälter beeinflussen in erheblichem Maße die Gestaltung der Netze. Zumindest in Deutschland sind Wechselbrücken ein Standardhilfsmittel im Transport und werden in Transportnetzen intensiv genutzt. Der Transport mit Wechselbrücken weist gegenüber anderen Lkw-Transporten eine Besonderheit auf, die dazu führt, dass Standardverfahren zur Tourenplanung nicht das volle Optimierungspotenzial erschließen können. Das besondere an dem Transport mit Wechselbrücken besteht darin, dass der Lkw nicht nur den Anhänger wechseln kann, sondern auch die Brücke, die er selbst mitführt. Somit ergeben sich Kombinationsmöglichkeiten, die bei einer reinen Motorwagen-Anhänger-Konstellation nicht vorhanden sind. In der Speditionswelt ist die Konstellation des Dreiecksverkehrs bekannt, die verwendet wird, um den Transport mit Wechselbrücken zu optimieren. In dem vorliegenden Beitrag wird aufgezeigt, dass die Aufgabenstellung der Wechselbrückenoptimierung sehr viel umfassendere Optimierungsmöglichkeiten bietet. Es wird gezeigt, dass die in der OR-Literatur verwendete Darstellung dieses Problems als Pickup-and-Delivery-Problem mit Zeitschranken (PDPTW) ebenfalls nicht adäquat ist, um alle Optimierungsmöglichkeiten des Wechselbrückentransports zu erschließen. H.-W. Graf ( ) BiTS – Business and Information Technology School Iserlohn, Deutschland E-mail:
[email protected] P. Buchholz und U. Clausen (Hrsg.), Große Netze der Logistik, DOI 10.1007/978-3-540-71048-6_5, © Springer-Verlag Berlin Heidelberg 2009
101
102
H.-W. Graf
Insbesondere wird auf die Optimierungsmöglichkeit der Sternbildung eingegangen. Hierbei handelt es sich um eine Systematik, die dem Hub-and-Spoke-Prinzip entspricht, dabei jedoch nicht festgelegte Standorte – sprich: Hubs – nutzt, sondern eine größere Zahl von Umschlagstandorten mit minimaler Infrastruktur verwendet und dadurch ein größeres Optimierungspotenzial erschließt.
5.1 Wechselbrücken im Gütertransport Wechselbrücken, auch als Wechselbehälter bezeichnet, sind – zumindest in Deutschland – ein Standardhilfsmittel im Transport und werden in großen Transportnetzen intensiv genutzt. Wechselbrücken gehören zu den Wechselaufbauten. Darunter versteht man Ladungsträger, die sich vom Fahrzeug trennen lassen und zwischen Fahrzeugen getauscht werden können. Die Besonderheit der Wechselbrücke besteht darin, dass Sie klappbare Ständer besitzt, auf die sie abgestellt werden kann. Nach dem Aufstellen der Stützen kann das Fahrzeug bzw. der Anhänger unter der Wechselbrücke herausfahren, nachdem er Luft aus der Federung abgelassen hat, wodurch die Brücke nicht mehr auf dem Rahmen aufliegt. Ein Wechsel des Ladungsträgers ist also ohne die Zuhilfenahme weiterer Umschlaggeräte möglich. Durch die Stützen können Wechselbrücken z. B. vor einem Ladetor abgestellt und tagsüber beladen werden. Am Abend kann dann ein Speditionstransporter eine neue leere Wechselbrücke anliefern und die beladene Wechselbrücke abziehen. Ein weiterer Vorteil der Wechselbrücken besteht darin, das sie im Gegensatz zu Containern auf Palettenmaße abgestimmt sind. In den späten 60er-Jahren des 20. Jahrhunderts wurden im deutschen Straßengüterverkehr Wechselbrücken, damals als Wechselkasten bezeichnet, mit der vollen nach der Straßenverkehrsordnung zulässigen Breite eingeführt. Dieses System wurde dann in den 70er-Jahren in Ländern wie Schweden, Norwegen und Frankreich eingeführt. 1992 verabschiedete das Comité Européen de Normalisation (CEN/TC119) eine Standardvorgabe für die Abmessung von Wechselbrücken. Die Breite beträgt einheitlich 2,50 m in der Außen- und 2,44 m in der Innenabmessung [Egy00]. Die Länge der Wechselbrücke variiert in dieser Norm zwischen 6.250 und 13.600 mm. Sehr gebräuchlich sind die Wechselbrücken mit 7.150 mm Länge, die als C715 bezeichnet werden, und die Brücken mit 7.450 m Länge (C745), die Stellplätze für 17 bzw. 18 Europaletten bieten. Diese Wechselbrücken werden in der Regel von einem Lkw mit Anhänger transportiert, so dass zwei Wechselbrücken bei einem Transport mitgeführt werden können. Wechselbrücken haben den Vorteil, dass eine Konsolidierung von Sendungsmengen mehrerer Standorte möglich ist. Der Tausch der Wechselgefäße ist wesentlich einfacher und weniger zeitaufwendig als das Umladen der einzelnen Sendungen. Ist das Sendungsaufkommen eines abgebenden Standortes zu gering, um einen ganzen Zug oder Sattelauflieger zu füllen, aber doch so groß, dass es annähernd eine Wechselbrücke füllt, so können die Wechselbrücken mehrerer Standorte mit einem Trans-
5 Optimierung des Wechselbrückentransports
103
port bewegt werden. Dies entspricht zunächst den Möglichkeiten, die ein Lkw mit Anhänger besitzt, geht aber darüber hinaus, da auch die Brücke des Motorwagens getauscht werden kann. Auf diesen nicht unerheblichen Unterschied wird später noch detaillierter eingegangen. Die Besonderheiten der Wechselbrücke führen nun dazu, dass sich der betriebliche Ablauf und die Einsatzplanung für Fahrzeuge und Wechselbrücken von der entsprechenden Planung bei Fahrzeugen mit festen Aufbauten unterscheidet. Zunächst muss natürlich eine Buchführung und Standortverfolgung der einzelnen Behälter erfolgen. Im einfachsten Falle erfolgt ein permanenter, gleichbleibender Austausch zwischen vollen und leeren Brücken bei festliegenden Ladestellen. Dies ist aber nur bei kontinuierlichem Ladungsaufkommen möglich und bleibt somit in der Praxis der Ausnahmefall. Da das Transportaufkommen in aller Regel auch nicht paarig auftritt, ist also der Leerbehälterausgleich eine der Aufgabenstellungen, die bei der Verwendung von Wechselbrücken anfällt. Dabei stellt sich die Frage, ob Motorwagen und Anhänger immer mit Behältern bestückt sind, oder ob Strecken auch mit leeren Motorwagen oder Lafetten gefahren werden. Eine andere Möglichkeit, die sich beim Einsatz von Wechselbrücken bietet, ist der Tausch von Brücken zwischen zwei Fahrzeugen. Diese Vorgehensweise, die beim sogenannten Begegnungsverkehr praktiziert wird, hat vor allem zum Ziel, dass die Fahrer mit ihren Fahrzeugen zum Ausgangsstandort der Fahrt zurückkehren können und so keine Übernachtung an einem anderen Standort erforderlich wird. Bei diesem Tausch ist allerdings zu beachten, dass dies nach der Straßenverkehrsordnung nicht am Straßenrand zulässig ist. Im Gegensatz zu Sattelaufliegern kann auch nicht jeder Parkplatz genutzt werden, um das sogenannte Umbrücken durchzuführen. Da der Tausch von Wechselbrücken, insbesondere bei Lkws mit Anhängern, einiges an Rangieraufwand erfordert, muss genügend Platz für diesen Vorgang vorhanden sein. Gut geeignet sind hierfür z. B. die Speditionshöfe, aber auch auf Autobahn-Rastplätzen wird in der Praxis umgebrückt (Zu den rechtlichen Rahmenbedingungen siehe z. B.: [BHS05]). Wechselbrücken eignen sich im Übrigen besonders im kombinierten Ladungsverkehr (KLV) und stellen deshalb ein Standardtransportgefäß in diesem Bereich dar. 1985 betrug der Anteil der Wechselbehälter am unbegleitenden kombinierten Verkehr Schiene-Straße in Europa bereits über 50% (vgl. [Wen01, S. 147]).
5.2 Transportnetze Transportnetze sind idealtypische Beispiele großer Netze der Logistik. Bei der Optimierung dieser Netze hat das verwendete Transport-Equipment einen entscheidenden Einfluss auf die Netzstruktur, da diese durch die beiden Faktoren: Größe der Transportbehälter im Verhältnis zu den Sendungsgrößen und Kosten des Umschlags wesentlich geprägt werden (vgl. [Gra99, S. 65]). Auf diesem Grund ist bei der Optimierung dieser Transportnetze zwischen unterschiedlichen Anwendungsfällen zu differenzieren. Die Gestaltung eines Netzes im Schienengüterverkehr oder bei einer
104
H.-W. Graf
Spedition, die sich auf Ladungsverkehre spezialisiert hat, unterliegt anderen Randbedingungen als z. B. die Optimierung eines Stückgut-Netzes. Der Einsatz von Wechselbrücken ist insbesondere bei Transportnetzen von Express- und Paketdiensten sowie von Stückgutspeditionen von Bedeutung. Dieses Einsatzgebiet ist für die folgenden Ausführungen von besonderer Bedeutung, da hier eine große Anzahl von Aufträgen vorliegt, aus denen sich ein größeres Optimierungspotenzial ergibt. Darüber hinaus ergeben sich in diesen Netzen auch zeitliche Restriktionen, die bei der Optimierung von Bedeutung sind. Diese Transportnetze verbinden die physischen Standorte der Transportunternehmen, also Depots und Umschlagstandorte. Der typische Transportablauf in diesen Netzen sieht so aus, dass innerhalb der Depotgebiete Sendungen von Kunden abgeholt oder von den Kunden direkt beim Depot eingeliefert werden. Diese Sendungen werden dann zu größeren Ladungen gebündelt und im sogenannten Hauptlauf zwischen den Depots transportiert. Wenn nicht genügend Transportaufkommen zwischen zwei Depots vorliegt, um für diese Relation ein eigenes Transportgefäß, also eine eigene Wechselbrücke vorzusehen, werden die Sendungen häufig zu zentralen Sortierstandorten, sogenannten Hubs, befördert und dort umgeschlagen. Der Hauptlauf erfolgt in vorgegebenen Zeitfenstern, die sich aus dem insgesamt angestrebten Serviceniveau ergeben, z. B. 24 oder 48 Stunden (vgl. [Gra99, S. 40 f.]). Innerhalb dieser Transportnetze ist insbesondere die Gestaltung des Hauptlaufs eine zentrale Optimierungsaufgabe für die Transportnetzbetreiber. Diese Aufgabe, auch als Fernverkehrsplanung bezeichnet, gehört zum Bereich der taktischen Planung. Hierbei wird ein Fahrplan erarbeitet, in dem alle Linienverkehre eingebunden sind, die täglich zwischen den Depots stattfinden. Diese Planung wird in regelmäßigen Zeitabständen aktualisiert, wobei derzeit in der Regel keine tägliche Optimierung durchgeführt wird. Die Anpassung der Transportkapazität an die Tagesschwankungen des Transportaufkommens ist Aufgabe der Tagesdisposition. Hierbei erfolgt lediglich eine geringe Anpassung des Fahrplans, z. B. durch Sonderfahrten. Es kann dabei jedoch auch flexibel entschieden werden, ob eine Linie zwei Depots verbindet, weil jedes dieser Depots nur eine Wechselbrücke für ein Zieldepot abzugeben hat, oder ob jedes dieser Depots einen kompletten Zug an Sendungsaufkommen hat und deshalb keine Kombination der Transporte erfolgt. Diese Aufgabenstellung der Fahrplanoptimierung im Hauptlauftransport, in dem Wechselbrücken zum Einsatz kommen, soll im Folgenden näher analysiert werden.
5.3 Aufgabenstellung Die Aufgabenstellung der Fahrplanoptimierung für Wechselbrückentransporte soll zunächst etwas genauer beschrieben werden. Für die Planung wird eine Menge von Standorten oder Depots zu Grunde gelegt, zwischen denen der Transport erfolgt. Die Standorte können dabei Versand- und oder Empfangsorte von Sendungen sein. Ein Standort kann auch als Sortierzentrum
5 Optimierung des Wechselbrückentransports
105
fungieren. Dies bedeutet, dass die Sendungen, die in den Wechselbrücken enthalten sind, an diesen Standorten umgeladen und in andere Wechselbrücken verladen werden. Für die Aufgabenstellung der Hautlaufplanung spielt dies keine Rolle, da hier lediglich die zu transportierenden Wechselbrücken relevant sind. Ein zentrales Sortierzentrum wird jedoch andere Zeitvorgaben für die Transporte haben, als ein Abgangs- oder ein Empfangsdepot. Selbstverständlich haben die Depots auch vorgegebene Betriebszeiten, aus denen sich die Zeiten für die späteste Abholung und früheste Zustellung von Sendungen bei den Kunden ergeben. Deshalb müssen die Start- und Ankunftszeiten für die einzelnen Transporte mit berücksichtigt werden, wobei die Ankunftszeit als späteste zulässige Ankunftszeit oder als zulässiges Ankunftszeitfenster betrachtet wird, während die Abfahrtzeit den frühestmöglichen Abfahrtszeitpunkt angibt. Das Mengenaufkommen wird aus dem mittleren Tages-Sendungsaufkommen zwischen Start- und Zieldepotstandorten ermittelt. Hieraus wird die Anzahl von Wechselbrücken ermittelt, die für diese Sendungsmenge benötigt wird. Die Planung erfolgt in der Regel so, dass eine Sicherheitsreserve auf den einzelnen Relationen verbleibt. Eine mögliche Vorgehensweise besteht darin, die Kapazität so auszulegen, dass an 80% der Tage die Kapazität ausreichend ist. Dies ergibt das Mengengerüst der Planung. Daraus ergeben sich Wechselbrücken-Transportaufträge mit Start- und Zieldepot sowie dem zulässigen Transportzeitfenster. Als nächster Schritt sind die Fahrzeugeinsätze zu planen. Jeder Wechselbrücken-Transportauftrag muss innerhalb des zulässigen Transportzeitfensters vom Start- zum Zieldepot transportiert werden. Dabei kann ein Fahrzeug maximal zwei Wechselbrücken gleichzeitig transportieren. Es ist allerdings möglich, dass ein Fahrzeug eine Linie oder Tour fährt und dabei mehr als zwei Depots mit einem Transport verbindet. Da diese Planung nicht tagesaktuell erfolgt, gibt es keine Restriktion bezüglich der einzusetzenden Fahrzeuganzahl. Bei der Planung sind die Lenkzeitvorschriften zu berücksichtigen. In diesem Teilschritt ist jedoch noch nicht unbedingt die Planung des Rundlaufs der Fahrzeuge erforderlich. Auf Grund der Zeitfenstervorgaben und der Unpaarigkeit der Transportaufträge ist ein Rundlauf in vielen Fällen nur durch zusätzliche Leerfahrten möglich. Eine Ausnahme bilden paarige Verkehre, also Konstellationen, bei denen gleich viele Wechselbrücken zwischen zwei Depots ausgetauscht werden. Hierfür werden in der Regel Begegnungsverkehre vorgesehen. Dabei treffen sich die Fahrzeuge in der Mitte der Strecke und es werden Brücken zwischen den Fahrzeugen getauscht. Damit können sowohl Fahrer als auch Fahrzeuge zu ihrem jeweiligen Ausgangsdepot zurückkehren. Die eigentliche Umlaufplanung wird – zusammen mit der Planung der Wechselbrückenausgleiche – im Anschluss an die Planung für die Transportaufträge durchgeführt. Durch unpaarige Transportmengen kann die Rückführung von leeren Wechselbrücken in größerem Umfang erforderlich werden. Dies kann unter Umständen auch zur Erweiterung der Transportaufträge für die Transporteinsatzplanung führen. Alternativ dazu kann der Ausgleich der Leerbehälter in der Zeit zwischen der Durchführung zweier Hauptläufe erfolgen. Die Durchführung der Hauptläufe erfolgt in der Regel im sogenannten Nachtsprung in einem Zeitfenster zwischen
106
H.-W. Graf
z. B. 17:00 Uhr und 8:00 Uhr des Folgetages. Der Wechselbrücken- und Fahrzeugausgleich kann dann in der Zeit zwischen 8:00 Uhr und 17:00 Uhr des Folgetages erfolgen, bevor der Fahrplan ab 17:00 Uhr des Folgetages erneut gefahren wird. Da die Unternehmen bestrebt sind, Fahrzeuge und Brücken möglichst durchgängig einzusetzen, kommt es jedoch häufig vor, dass die Fahrzeuge und ggf. auch die Brücken tagsüber für andere Transportaufgaben eingesetzt werden, die sich dem Fokus der Hauptlaufplanung entziehen. Dabei werden die Fahrzeuge nicht nur lokal eingesetzt, sondern können wiederum zu anderen Standorten fahren. Eine gängige Vorgehensweise besteht deshalb darin, die Umlaufplanung von der Hauptlaufplanung zu trennen. In diesem Fall werden bei der Hauptlaufplanung nur die Lastfahrten – also die Fahrten mit den vorgegebenen Transportaufträgen – geplant, gegebenenfalls unter Berücksichtigung der regelmäßig durchzuführenden Leerbehälterrückführungen.
5.4
Modellbildung
Um die Aufgabenstellung einer Optimierung zuführen können, ist eine mathematische Modellbildung erforderlich. Bei der Optimierung von Transportnetzen bietet sich das Modellierungsinstrument der Graphentheorie an. Da diese Modellbildung die Grundlage für alle weiteren beschriebenen Optimierungsansätze bildet, soll sie hier kurz eingeführt werden. Zur grundlegenden Einführung siehe z. B. das Buch: Graphentheorie von Reinhard Diestel [Die00]. Ein gerichteter Graph oder Digraph G=(V, E) bezeichnet eine Menge von Knoten V und eine Menge von Kanten E. Eine Kante ist dabei eine gerichtete Verbindung zwischen zwei Knoten i und j aus V und wird mit (i,j) beschrieben. Für einen Knoten i ∈V bezeichnet V+(i) die Menge der Knoten j, für die eine Kante (i,j) ∈ E existiert; also die Nachfolgerknoten des Knotens i. Analog bezeichnet V–(i) die Menge der Knoten j, für die (j,i) ∈ E, also die Vorgängerknoten. Die Knotenmenge V steht für Standorte des Transportnetzes, also für Depots oder Umschlagstellen. Die Kanten symbolisieren Transporte zwischen diesen Standorten, wobei in der Regel nicht der einzelne Transportvorgang, sondern die prinzipielle Transportverbindung z. B. im Rahmen eines Fahrplans, gemeint ist. Mit den Kanten sind in der Regel Zusatzinformationen verbunden, z. B. die Transportdauer, die Transportentfernung oder die Kosten eines Transportes. Diese Zusatzinformationen führen zu sogenannten bewerteten Graphen. Die Bewertung erfolgt durch eine (oder mehrere) Funktion(en) f : E → R , die jeder Kante (i,j) ∈ E einen Funktionswert aus R zuordnen. Z. B. wird mit D(i,j) die Länge der Kante (i,j) (bzw. die Distanz zwischen i und j) beschrieben. Zur Vereinfachung der Notation wird an Stelle der Schreibweise D(i,j) auch die Schreibweise dij verwendet. Bei Transportnetzen ist vor allem die Frage von Interesse, ob eine Verbindung gefahren wird oder nicht. Dies wird im Rahmen der Modellierung durch Entscheidungsvariablen xij ∈ {0,1} dargestellt. Ein Wert xij = 1 bedeutet, dass die Kante (i,j) für einen Transport genutzt wird. Durch diese Darstellung lassen sich z. B. die
5 Optimierung des Wechselbrückentransports
107
Gesamtkosten eines Netzes leicht ausdrücken: betragen die Kosten für eine Verbindung von i nach j cij, so lassen sich die Gesamtkosten k des Netzes als Summe über alle theoretisch möglichen Verbindungen formulieren: k = ∑ cij xij i , j ∈E
5.5
Optimierungsansätze
Bei der Optimierung von Wechselbrückeneinsätzen gibt es eine in der Praxis übliche Vorgehensweise, die unter anderem bei Wlþek [Wlþ98, S. 10 ff. und S. 143 ff.] und bei Stumpf [Stu98, S. 52] beschrieben wird. Diese Optimierung wird manchmal als Dreiecksverkehr oder Dreieckskonsolidierung bezeichnet. Bei dieser Form der Optimierung werden mit einem Transport drei Wechselbrücken bewegt. Ausgehend von einem einzelnen Transport (in Abb. 5.1 als horizontaler Pfeil dargestellt) von einem Abgangsdepot zu einem Zieldepot wird ein ergänzendes Zwischendepot gesucht, welches sowohl von dem Abgangsdepot eine Wechselbrücke bekommt als auch zu dem Zieldepot eine Wechselbrücke zu versenden hat. In diesem Fall fährt der Lkw durchgängig voll beladen. Da diese Konstellation nicht immer anzutreffen ist, kann auch eine abgangs- oder zielseitige Konsolidierung vorgenommen werden. Diese ähnelt der Dreieckskonsolidierung, nur gibt es dabei lediglich einen Auftrag von dem oder ab dem Zwischendepot. Dabei werden also nur zwei Wechselbrücken zwischen den beteiligten drei Depots bewegt, ein Teil der Strecke legt das Fahrzeug mit unbeladener Lafette zurück. Um diesen Leerfahrtenanteil gering zu halten, wird bei der abgangsseitigen Konsolidierung (das Fahrzeug fährt mit einer Wechselbrücke vom Startdepot los und nimmt die zweite Brücke beim Zwischendepot auf) darauf geachtet, dass Start- und Zwischendepot möglichst nahe beieinander liegen. Bei der zielseitigen Konsolidierung fährt der Lkw mit zwei Wechselbrücken vom Startdepot los und lädt die erste Wechselbrücke beim Zwischendepot, die Zweite beim Zieldepot ab. Hierbei sollten Zwischen- und Zieldepot nahe beieinander liegen. Diese Dreieckskonsolidierung gehört neben dem Begegnungsverkehr, bei dem der Tausch der Wechselbrücken – wie bereits weiter oben beschrieben – zur Fahrzeugumlaufbildung dient, zu den üblichen Planungsansätzen, die bei Speditionen und KEP-Diensten angewendet werden. Aufträge, die sich nach diesem Muster nicht mit anderen Aufträgen kombinieren lassen, werden dann mit nur einer Brü-
Abb. 5.1 klassische Dreieckskonsolidierung
Transportauftrag Fahrstrecke
108
H.-W. Graf
cke gefahren; die verbleibende Transportkapazität wird dann ggf. für den Leerbehälterausgleich verwendet. Da es sich bei der Planung nicht um eine tägliche Einsatzplanung, sondern um eine Fahrplanerstellung handelt, können die freien Transportkapazitäten auch zum Ausgleich von Mengenschwankungen oder für ad hoc Einsätze verwendet werden, wobei jedoch auf Grund der vorgegebenen Zeiten, die aus dem Fahrplan resultieren, die Einsatzmöglichkeiten sehr stark eingeschränkt sind.
5.6
Lösungsansätze aus dem Bereich des OR
Die Optimierung des Fahrzeugeinsatzes ist eine im klassischen Operations Research (OR) oft behandelte Optimierungsaufgabe. Als einfachste Problemformulierung aus diesem Bereich dient das sogenannte Vehicle Routing Problem (VRP), eine Erweiterung des Travelling Saleman Problems (TSP), bei dem im Unterschied zum TSP mehrere Fahrzeuge und eine Zuladung zu verplanen sind. Es handelt sich dabei um ein Problem der ganzzahligen linearen Optimierung, so dass prinzipiell Schnittebenenverfahren, Entscheidungsbaumverfahren und heuristische Lösungsansätze für die Aufgabenstellung angewendet werden können (vgl. z. B. [EBL03, S. 149 ff.]). Eine Erweiterung der Problemstellung um Zeitschranken wird als VRPTW (Vehicle Routing Problem with Time Window Constraints) bezeichnet. Bei dem VRP-Problem wird allerdings davon ausgegangen, dass alle Sendungen von einem Depot aus verteilt werden müssen. Steht man vor der Frage, Sendungen nicht nur auszuliefern sonder auch während der Tour aufzuladen, wie es bei der hier betrachteten Aufgabenstellung der Fall ist, so wird diese Problemstellung im Bereich des OR als Pickup-and-Delivery-Problem (PDP) bezeichnet, von dem es wiederum eine Variante mit Zeitfensterrestriktionen gibt, die als PDPTW bezeichnet wird. Die Frage liegt nahe, ob diese Problemformulierung auch für die Optimierung des Wechselbrückentransports anwendbar ist und in wieweit diese Problemstellung schon in der Literatur behandelt worden ist. Ein Recherche über die Schlüsselworte „Wechselbrücke“, „Wechselbehälter“ bzw. „Swap body“ liefert jedoch nur ganz wenige Quellen. Überwiegend wird der Wechselbrückentransport im Zusammenhang mit dem Multimodalen Transport gesehen. In diesen Arbeiten wird der hier angesprochene Optimierungsansatz nicht behandelt; es geht um andere Fragestellungen, wie z. B. die organisatorische oder technische Realisierbarkeit des Intermodalen Verkehrs (siehe z. B. [Vas06]). Nur wenige OR-Arbeiten greifen das Thema der Wechselbrückenoptimierung unter dem Aspekt der Fahrzeugeinsatzoptimierung auf. In der zuvor zitierten Arbeit von Wlþek stellt dieser einen Optimierungsansatz vor, der die Wechselbrücken-Optimierung als Teilproblem der Gestaltung von Sammelgutnetzwerken behandelt und der unter dem Stichwort Ladegefäßkonsolidierung ausgeführt ist [Wlþ98, S. 143 ff.]. Hierbei werden zunächst alle Wechselbrücken im Direkttransport befördert. Anschließend werden die Transportaufträge nach absteigender Länge untersucht und geprüft, ob die Einzelbrücke auf einen anderen Transport verlagert werden
5 Optimierung des Wechselbrückentransports
109
kann, um dadurch ein Fahrzeug einzusparen. Auf Grund der möglichen Alternativen, die für den Transportweg der Wechselbrücke betrachtet werden, ergeben sich als Ergebnis dieser Optimierung die Varianten der Dreieckskonsolidierung. Da im Rahmen der Arbeit von Wlþek die Wechselbrücken-Optimierung nur als eines von vielen Teilproblemen der Gesamtgestaltung von Transportnetzen betrachtet wird, geht er nicht näher darauf ein, ob sein Optimierungsansatz erschöpfend ist und ob es weitere, dabei nicht betrachtete Optimierungsvarianten gibt. Auch Stumpf geht über den bei Wlþek beschriebenen Optimierungsansatz nicht hinaus und beschreibt das Ganze als Teilproblem der speditionellen Tourenplanung. Auch der „Deutsche Post Lehrstuhl für Optimierung von Distributionsnetzwerken“ beschäftigt sich mit der Themenstellung. Zu der speziellen Frage der Optimierung von Wechselbehältern sind dazu bisher allerdings nur die Vortagsfolien des Vortags „Tourenplanung mit Leerbehälterausgleich im kombinierten Ladungsverkehr, Modelle und Methoden für die Praxis“, vorgetragen auf dem FORA-Symposium „Distribution, Transport und Operations Research“ am 7.06.2002 in Aachen veröffentlicht worden [Grü02]. In diesem Vortrag wird unter anderem dargestellt, wie eine Zuordnung von Wechselbrücken zu vorgegebenen Rahmentouren mit Hilfe eines Verfahrens zur Netzwerkflussoptimierung gelöst werden kann. Es wird leider nicht näher darauf eingegangen, wie die Rahmentouren ermittelt werden. Das kombinatorische Planungsproblem wird bei diesem Ansatz deutlich vereinfacht, aber es wird nicht klar, ob die Potenziale der Optimierung ausgeschöpft werden. Eine andere, sich dem Thema sehr umfassend widmende Arbeit ist die MasterArbeit von Rapaël Tardy: Optimization Models and Algorithms for the LargeScale, Capacity Constrained Pick-up and Delivery Problem with Time Windows Constraints [Tar05]. Diese Arbeit befasst sich nicht mit Wechselbrücken, sonder mit Zugmaschinen und Anhängern: Dabei wird aber die Konstellation betrachtet, dass eine Zugmaschine keine eigene Ladung mitführt, sonder zwei kurze Anhänger (an Stelle eines langen Anhängers, was ebenfalls möglich ist). In dieser Konstellation entspricht die Aufgabenstellung genau dem Wechselbrücken-Optimierungsproblem, denn auch bei zwei Anhängern kann die Beladung zwischen zwei Fahrzeugen nach Belieben getauscht werden, ohne dass eine manuelle Umladung der einzelnen Sendungen erforderlich wird. Tardy modelliert das Problem als Pick-Up and Delivery Problem with Time Windows (PDPTW) und schlägt zwei alternative Lösungsansätze für das von ihm analysierte Problem vor. Dabei berücksichtigt er allerdings eine größere Zahl praxisrelevanter Restriktionen, z. B. einen heterogenen Fuhrpark (Es existieren unterschiedliche Zugmaschinen; nicht jeder Hänger ist mit jedem anderen Hänger bzw. mit jeder Zugmaschine kompatibel. In seinem Ansatz werden längere Touren geplant, die wieder zum Depot zurückkehren und über mehrere Tage dauern können. Dabei sind auch Pausen und maximale Einsatzzeiten der Fahrer zu berücksichtigen). Auf Grund der hohen Komplexität vereinfacht Tardy die Problemstellung allerdings. So schreibt er: „Our last simplification, and the one with the greatest consequences, is that we do not allow drivers to exchange loads. Our analysis shows that this restrictions do not affect the feasibility of the problem, but they do reduce the set of feasible solutions. Although this simplification might hamper the quality of the solution,
110
H.-W. Graf
it simplifies the structure of the problem by making routes independent one from one another and by linking path to routes […]. Route independence and linkage with paths enhance our ability to find a solution, at the cost of reduced solution quality.“1 [Tar05, S. 28]. Auf Grund des anders gelagerten Schwerpunkts der Arbeit von Tardy soll der von ihm gewählte Lösungsansatz hier nicht näher vertieft werden, sondern zunächst untersucht werden, in wie weit das PDPTW als Lösungsansatz für die Aufgabenstellung geeignet ist. Einen guten Ansatzpunkt bietet der Übersichtsartikel von Berbeglia, Cordeau, Gribkovskaia und Laporte: Static Pickup and Delivery Problems: A Classification Scheme and Survey [BCG+07]. In diesem Artikel werden verschiedene Ausprägungen des statischen Pick-Up and Delivery Problems vorgestellt. Diesen Problemstellungen ist gemeinsam, dass es sich um sogenannte statische Probleme handelt. Diese haben als Voraussetzung, dass alle Planungsdaten vor Beginn der Planung vorliegen und unterscheiden sich bezüglich der Problemstruktur und den Lösungsansätzen erheblich von den dynamischen Problemen, bei denen neue Aufträge während der Durchführung der Touren hinzukommen und deshalb keine vollständige Berechnung im Vorfeld der Transportdurchführung erfolgen kann. Bei dem hier untersuchten Problem handelt es sich ebenfalls um ein statisches Problem, deshalb fällt es in die Kategorie der bei [Ber07] untersuchten Probleme. Ein Pick-up and Delivery-Problem (PDP) ist durch die folgenden Eigenschaften gekennzeichnet: es handelt sich um ein kombinatorisches Optimierungsproblem, bei dem eine Menge von Objekten oder Personen von einem Startort zu einem Zielort transportiert werden müssen. Es gibt eine gegebene Anzahl M an Fahrzeugen, die diese Transporte ausführen können. Das PDP besteht nun darin, eine Anzahl von höchstens M Touren zu bilden, mit denen alle Transportaufträge befriedigt werden können, wobei kein Fahrzeug über seine zulässige Kapazität hinaus beladen werden darf und die Summe der Wegekosten minimiert wird. Eine etwas präzisere, mathematische Formulierung wird weiter unten vorgestellt werden. Berbeglia et al. untersuchen verschiedene Ausprägungen der Problemstellung, die sich vor allem darin unterscheiden, ob es sich um one-to-one, one-to-many-toone oder um many-to-many-Probleme handelt. Bei one-to-one-Problemen hat jeder einzelne Transportauftrag seinen eigenen Start- und Zielort, wie z. B. bei Kurieraufträgen. Bei One-to-many-to-one-Problemen werden Produkte von einem Depot aus an Kunden ausgeliefert und von diesen wieder eingesammelt, wie z. B. bei der 1 Unsere letzte Vereinfachung, und die mit den größten Konsequenzen, besteht darin, dass wir Fahrern nicht erlauben, Ladung zu tauschen. Unsere Analyse zeigt, dass diese Einschränkung nicht die Lösbarkeit des Problems berührt, aber sie reduziert die Anzahl zulässiger Lösungen. Obwohl diese Vereinfachung möglicherweise die Qualität der Lösung vermindert, vereinfacht es doch die Struktur des Problems dadurch, dass die Routen wechselseitig unabhängig voneinander werden und durch die Verbindung von Pfaden zu Routen. Routenunabhängigkeit und Verbindung mit Pfaden erhöht unsere Fähigkeit, zulässige Routen zu finden, zu Lasten der Qualität der Lösung [Übersetzung durch den Autor].
5 Optimierung des Wechselbrückentransports
111
Auslieferung von Getränkekisten bei gleichzeitiger Einsammlung des Leergutes. Bei many-to-many-Problemen, die in der Praxis wohl recht selten vorkommen, müssen gleichartige Objekte oder Produkte zwischen unterschiedlichen Abgabeund Zielstandorten ausgetauscht werden. Eine weitere Unterscheidung der Probleme besteht darin, ob bei einem Stop des Fahrzeuges immer ein gemeinsamer Ablade- und Aufladeprozess erfolgt, ob sowohl ab- als auch aufgeladen werden kann, aber nicht muss, oder ob nur entweder auf- oder abgeladen wird. Schließlich unterscheiden sich die Problemstellungen darin, ob sie für ein oder mehrere Fahrzeuge formuliert sind. Als letzte der vorgestellten Kategorien in dem Übersichtsartikel wird das Vehicle Routing Problem with Pickups, Deliveries and Transshipments (VRPPDT) vorgestellt. Dieses unterscheidet sich von den anderen PDP-Problemen dadurch, das Objekte auf ihrem Weg vom Start- zum Zielort von unterschiedlichen Fahrzeugen befördert werden können. Bei dieser Art von Problemstellung existieren Umschlagpunkte, an denen die Objekte von einem Fahrzeug auf ein anderes Fahrzeug umsteigen können. Dies entspricht der Aufgabenstellung bei der WechselbrückenOptimierung, auch hier können die Brücken während ihres Transportes das Fahrzeug wechseln. Es werden insgesamt zwei Artikel vorgestellt, die sich mit dieser Klasse von Problemen auseinandersetzen: Cortés, Matamala und Contardo: The pickup-and-delivery problem with transfers: Formulation and solution approaches [CMC06] sowie Mitroviü-Miniü und Laporte: The pickup and delivery problem with time windows and transshipment [MLa06]. Cortés und seine Kollegen stellen dabei einen Lösungsansatz eines sogenannten Dial-a-Ride-Problems vor. Hierbei können Fahrgäste ein öffentliches Transportmittel bestellen, dass sie zwischen bestimmten vorgegebenen Start- und Zielorten transportiert. Die Routen dieser Fahrzeuge müssen auf Basis der vorliegenden Transportanforderungen optimiert werden und die Fahrgäste möglichst zeit- und kosteneffizient befördern. In dem Modell der Autoren wird im Gegensatz zu den sonstigen Dial-a-Ride-Modellen die Möglichkeit zugelassen, dass die Passagiere während des Transportes einmal umsteigen müssen. Die Autoren haben einen Branch-und-CutAlgorithmus auf Basis eines Dekompositionsverfahrens implementiert, mit dem sie allerdings nur sehr kleine Probleminstanzen von 8 Passagieren bei einem zentralen Umschlagpunkt lösen können. Es wird jedoch an diesen kleinen Beispielen aufgezeigt, dass durch die Einführung des Umschlagpunktes Kosteneinsparungen bis zu 50% gegenüber der besten möglichen PDP-Lösung ohne Transitpunkt erzielt werden können. In der Arbeit von Mitroviü-Miniü und Laporte wird der Einsatz von Umschlagpunkten bei Kurierdiensten untersucht. Die Arbeit hat zum Ziel, den Nutzen von solchen Umschlagpunkten zu untersuchen und beleuchtet deshalb verschiedene Vorgehensweisen zur Festlegung von Umschlagpunkten in zufällig generierten Probleminstanzen. Die Fahrzeugkapazität wird dabei als unbegrenzt angenommen und es wird eine relativ einfache zweistufige Heuristik für die Entscheidung verwendet, welche Transporte über einen Umschlagpunkt und welche direkt durchgeführt werden. Auch die Problemstellung dieser Arbeit unterscheidet sich deutlich von der Problemstellung der Wechselbrücken-Optimierung.
112
5.7
H.-W. Graf
Bewertung der Optimierungsansätze
Es gibt also bisher sehr wenige wissenschaftliche Arbeiten, die sich dem Problem der Wechselbrücken-Optimierung annehmen. In einem Teil der Arbeiten wird das Problem als Teilproblem der Tourenplanung betrachte, welches sich mit gängigen Tourenplanungsansätzen behandeln lässt. Da – zumindest bei Speditionen und KEP-Diensten – die Wechselbrücken zwischen fest vorgegebenen Start- und Zielorten transportiert werden müssen (bei reinen Distributionssystemen können Transporte unter Umständen von verschiedenen Abgangsorten aus stattfinden, wenn die gleichen Artikel z. B. an unterschiedlichen Lagerstandorten vorrätig sind), handelt es sich in jedem Falle um ein Pick-up and Delivery-Problem. Wie die Arbeiten von Cortés und eigene Überlegungen zeigen, schränkt die Behandlung des Wechselbrücken-Optimierungsproblems als reines PDP die Optimierungsmöglichkeiten jedoch unnötigerweise – und in nicht geringem Umfang – ein. Dies soll an einem einfachen Beispiel demonstriert werden. In Abb. 5.2 ist dargestellt, welches Einsparpotenzial sich beim Wechselbrückentransport ergibt, wenn die Transporte nicht direkt durchgeführt werden, sondern ein Transitpunkt verwendet wird, an dem die Brücken getauscht werden. In der dargestellten Konstellation gibt es drei Depots, die in einem gleichseitigen Dreieck jeweils 100 km auseinanderliegen. Jedes Depot hat dabei für jedes andere Depot genau eine Brücke im Abgang und eine Brücke im Eingang, es sind also insgesamt sechs Transporteinheiten zu bewegen. Die naheliegende Lösung besteht darin, drei Lkws zu verwenden; jeder startet von einem der Depots mit einer Brücke, und kehrt mit einer Brücke beladen wieder zurück. Je nach Zeitfenster müssen auch sechs Lkws verwendet werden, die dann alle zeitgleich losfahren. In beiden Fällen werden 600 km als Lastkilometer zurückgelegt. Nach dem Prinzip der Dreieckskonsolidierung kann, sofern die Zeitfenster dafür ausreichen, ein Lkw von einem Depot mit einem Umweg über ein zweites Depot zum
Abstand zwischen Depots = 100 km Durchführung mit jeweils einem FZ mit einer Wechselbrücke im Pendelverkehr = 600 km
Treffpunkt im Mittelpunkt, Durchführung mit jeweils einem FZ im Pendelverkehr mit zwei Wechselbrücken = 346 km
Abb. 5.2 Einsparpotenzial durch Einführen eines Transitpunktes
5 Optimierung des Wechselbrückentransports
113
dritten Depot fahren und dabei auf jeder Teilstrecke zwei Wechselbrücken mitführen. Dann kann er auf dem Rückweg – oder, falls das Zeitfenster dafür nicht ausreicht, ein zweiter Lkw in entgegengesetzter Richtung zum Ersten – die andere Hälfte der Transportaufträge ausführen. Dabei werden insgesamt 400 km zurückgelegt. Eine deutliche Verbesserung ergibt sich durch die Einbeziehung eines Transitpunktes. Wie in dem einleitenden Abschnitt über den Wechselbrückeneinsatz erläutert, gibt es prinzipiell viele Standorte in Straßennetz, an denen einer solcher Transit durchgeführt werden kann, z. B. an einem Autobahnrastplatz. Existiert nun ein Transitpunkt in der Mitte des Dreiecks, so kann in jedem Depot ein Lkw mit zwei Wechselbrücken losfahren, beide Brücken im Transitpunkt abladen und von jedem der anderen beiden im Transitpunkt ankommenden Lkws eine Brücke mit zurück nehmen. Jeder Lkw fährt einmal zum Mittelpunkt des Dreiecks und wieder zurück. Die Entfernung beträgt 100·1/3·√3 km ≈ 57,7 km für die einfache Entfernung zum Transitpunkt und damit ≈ 364 km in Summe. Damit ergibt sich eine Ersparnis von 42,3% gegenüber der Direktverkehrslösung und immerhin noch von 13,5% gegenüber dem Dreiecksverkehr. Darüber hinaus ist der Umweg gegenüber dem Direktverkehr, und damit die Wahrscheinlichkeit, dass der Transport innerhalb des zugelassenen Zeitfensters erfolgen kann, mit ca. 15% relativ gering; deutlich niedriger als der Umweg von 100% gegenüber dem Direktverkehr, der für zwei der sechs Brücken beim Dreiecksverkehr erforderlich wird. Darüber hinaus besitzt diese Lösung den Vorteil, dass die Fahrer mit ihrem Fahrzeug zum Ausgangsdepot zurückkehren. Dieses Beispiel zeigt deutlich, dass eine Herangehensweise mit Standard-Tourenplanungsverfahren, bei denen eine Sendung immer von einem Fahrzeug vom Start- zum Zielort gebracht wird, für die Problemstellung der Wechselbrücken-Brückenoptimierung nur suboptimale Ergebnisse liefern kann.
5.8
Mathematische Problemformulierung
Um die Aufgabenstellung für die weitere Betrachtung des Problems zu präzisieren, soll nun zunächst eine genauere mathematische Formulierung erstellt werden. Grundlage hierfür bieten die Modelle zur Beschreibung des Pick-up and DeliveryProblems, die allerdings abgewandelt werden müssen, um den Besonderheiten des Wechselbrücken-Transportes Rechnung zu tragen. Wie im Abschnitt Modellierung beschrieben, erfolgt die Planung auf der Basis eines Digraphen G=(V, E). Die Knotenmenge enthält die Depots, die Start- und Zielknoten einzelner Wechselbrücken-Transporte sind, wobei nicht zwischen allen Depots Wechselbrücken-Aufträge vorliegen müssen. Es kann im Extremfall ein Depot auch ausschließlich als Abgangs- oder Zielknoten fungieren. Um im Weiteren, insbesondere bei der Formulierung der zeitlichen Restriktionen, auf zusätzliche Indizes verzichten zu können, wird für jeden Wechselbrückenauftrag ein eigener Start- und Zielknoten modelliert, auch wenn mehrere Wechselbrücken von dem Depot aus starten oder dasselbe Depot als Zielort haben. Dies dient der Vereinfachung der Modellierung und ist unproblematisch, da die zusätzlichen Knoten einfach mit den gleichen Entfernungen
114
H.-W. Graf
zu allen anderen Knoten eingefügt werden können, wie der ursprüngliche Depotknoten. Wir bezeichnen mit W die Wechselbrückenaufträge und mit N = {w+, w−: w ∈ W} die Knotenmenge der Start- und Zielorte der Wechselbrücken. W+ steht für die Menge der Abgangsknoten und W− für die Menge der Zielknoten. Da die Touren in der betrachteten Aufgabenstellung offene Touren sind, fügen wir zwei spezielle virtuelle Knoten 0+ und 0− hinzu, die Start- und Zielpunkt der Touren sind. Dieser geläufige technische Trick wird angewendet, um die übliche VRP-Problemformulierung anwenden zu können. Die Kosten c0+i bzw. ci0− für alle i∈V\{0+, 0−} betragen M0, ein konstanter Wert, der größer als der größte sonstige Kostenwert zwischen den einzelnen Knoten des Netzes ist. Dies stellt sicher, dass jede Tour die virtuellen Knoten nur einmal berührt. Zusätzlich definieren wir eine Menge von Transitknoten T. Das Umbrücken kann auf den Depothöfen erfolgen, es können aber auch zusätzliche Standorte sein, auf denen ein Umbrücken möglich ist. Bei der Modellierung wird ein Transitknoten grundsätzlich als eigener Knoten modelliert, auch wenn die geographische Position mit dem eines Depots übereinstimmt. In Anlehnung an Cortés, Matamala und Contardo wird jeder Transitknoten t darüber hinaus durch einen Eingangsknoten t+ und einen Ausgangsknoten t− modelliert. Dadurch lassen sich insbesondere die Zeitfenstervorgaben an den Transitknoten formulieren, die im Falle des Wechselns von Brücken zwischen Fahrzeugen zu beachten sind. Die Menge T zerfällt also in zwei disjunkte Teilmengen T := T+ ∪ T−, wobei für jedes t+ ∈ T+ gilt, V+(t+) = {t−}. Neben der Knotenmenge existiert eine Menge M von (gleichartigen) Fahrzeugen. Damit jeder Auftrag, sofern die Zeitfenster dies zulassen, auch transportiert wird, genügt eine Menge von |W+| Fahrzeugen. Bei der Optimierung müssen Zeitschranken beachtet werden. Für jeden Startund Zielknoten i ∈ N bezeichnet [ei, li] das Zeitfenster, in dem eine Abholung bzw. Zustellung erfolgen darf. Die Entscheidungsvariablen Di beschreiben die konkreten Abfahr- bzw. Ankunftszeiten am Knoten i. Da für jeden Transportauftrag ein eigener Abhol- bzw. Ankunftsknoten existiert, reicht eine Variable je Knoten. Bei den Transitknoten müssen jedoch die Ankunftszeiten der einzelnen Fahrzeuge unterschieden werden. Deshalb müssen die Entscheidungsvariablen zusätzlich mit dem Fahrzeugindex versehen werden; es bezeichnet also Dik die Ankunftszeit des Fahrzeuges k am Transitknoten i, falls i ∈ T–, oder die Abfahrtzeit bei i, falls i ∈ T+. Die Transportzeit zwischen zwei Knoten i und j wird mit tij bezeichnet. Für die virtuellen Knoten 0+ und 0− gibt es ein unbeschränktes Zeitfenster und die Transportzeit zu jedem anderen Knoten beträgt 0. Um in dem Modell aber keine gesonderten Restriktionen einbauen zu müssen, die kostenfreie Zyklen eliminieren, werden alle tij als strikt größer 0 angenommen. Dazu wird eine minimale Zeitdauer ε>0 eingeführt, die als kleinster Wert für tij verwendet wird. Für den Umschlag einer Wechselbrücke im einem Transitknoten wird außerdem die Zeit Δ angesetzt. k Als Entscheidungsvariablen für den Transport werden die Binärvariablen xij eingeführt, die anzeigen, dass das Fahrzeug k auf direktem Weg von Knoten i zu Knoten j fährt. Da die Brücken nicht auf einem einzelnen Fahrzeug bleiben müssen, werden bei der Modellierung der Wechselbrücken-Optimierung im Gegensatz zur Modellierung ki des PDP zusätzliche Entscheidungsvariablen z j eingeführt, die den Wert 1 annehmen, wenn die Wechselbrücke i bei Knoten j auf dem Fahrzeug k befindlich ist.
5 Optimierung des Wechselbrückentransports
115
Für die Zielfunktion des Modells werden Kostenwerte cij verwendet, die die Transportkosten für einen Streckenabschnitt von i nach j beschreiben. Wegen der virtuellen Knoten 0+ und 0− muss von dem Zielfunktionswert 2·|M|·M0 abgezogen werden, um den tatsächlichen Wert zu erhalten. Bei der Problemformulierung wird, um die Gleichungen übersichtlicher zu gestalten, das Symbol ⇒ für logische Bedingungen verwendet. Dies soll aussagen, dass die Ungleichung nur zum Tragen kommt, wenn die Entscheidungsvariable den Wert 1 annimmt. Man kann dies unter Verwendung einer großen Konstanten M in eine lineare Gleichung umformulieren, wie z. B. Desrosier et al. 1995 zeigen [Des95]. Die Formulierung des Wechselbrücken-Optimierungsmodells lautet: min
∑ ∑ cij xijk
k ∈M i , j ∈V
u. d. N.:
∑ x0k i = 1
∀k ∈ M
(5.1)
∑ xik0
∀k ∈ M
(5.2)
∀k ∈ M
(5.3)
+
i ∈V
−
=1
i ∈V
∑
j ∈V + (i )
xijk −
∑
j ∈V − (i )
x kji = 0
∑ ∑
x kji − = 1
∀i ∈ N
(5.4)
∑ ∑
xik+ j = 1
∀i ∈ N
(5.5)
k ∈M j ∈V − (i − )
k ∈M j ∈V + (i + )
Die Gl. (5.1) und (5.2) sorgen dafür, dass jedes Fahrzeug bei dem virtuellen Knoten 0+ die Tour beginnt und bei 0í beendet. Gleichung (5.3) beschreibt die Flussbedingung für einen Knoten. Da alle Touren in 0+ starten und in 0í enden, ist die Flussbilanz aller anderen Knoten gleich Null. Gleichungen (5.4) und (5.5) sorgen dafür, dass an jedem Start- und Zielort der Wechselbrücken ein Fahrzeug vorbeikommt. Im Gegensatz zum PDP muss hier nicht dafür gesorgt werden, dass dies von demselben Fahrzeug erfolgt. xijk = 1 ⇒ Di + tij ≤ D j xijk
= 1 ⇒ Di + tij ≤
D kj +
∀k ∈ M , ∀i ∈V \T − , ∀j ∈V \T + −
∀k ∈ M , ∀i ∈V \T , ∀j ∈T
−
(5.6) (5.7)
xijk = 1 ⇒ Dik+ + tij ≤ D kj +
∀k ∈ M , ∀i ∈ T − , ∀j ∈ T +
(5.8)
xijk = 1 ⇒ Dik− + tij ≤ D j
∀k ∈ M , ∀i ∈T − , ∀j ∈V \T −
(5.9)
Die Gl. (5.6) bis (5.9) formulieren die Zeitfensterbedingungen des Problems, indem Sie bei den Entscheidungsvariablen der Abfahrts- bzw. Ankunftszeiten für
116
H.-W. Graf
die Einhaltung der Fahrzeiten sorgen. Hierbei sind, wie schon oben erläutert, die Transitknoten gesondert zu behandeln (dies geschieht in (5.8) und (5.9)), da die Zeiten hier für jedes einzelne Fahrzeug festzulegen sind. ∀j ∈{0 + , 0 − }, ∀i ∈V , ∀k ∈ M
z kij = 0
∀k ∈ M , ∀i, j ∈V \T , i ≠ {i + , i − }, ∀l ∈W
xijk = 1 ⇒ zikl = z klj
(5.10) (5.11)
xik+ j = 1 ⇒ z kij = 1
∀k ∈ M , ∀j ∈V , ∀i ∈W
(5.12)
xik− j = 1 ⇒ z kij = 0
∀k ∈ M , ∀j ∈V , ∀i ∈W
(5.13)
∀j ∈T , ∀i ∈W
(5.14)
∀k ∈ M , ∀j ∈V
(5.15)
∑ z kij − ∑ z kij +
k ∈M
−
=0
k ∈M
∑ xijk = 0 ⇒ ∑ z kij ≤ 0
i ∈V
i ∈W
Die Gl. (5.10) bis (5.15) behandeln die Zuordnung von Wechselbrücken zu Fahrzeugen. Gleichung (5.10) besagt, dass keine Brücke von oder zu dem virtuellen Depot unterwegs ist. Gleichung (5.11) besagt, dass eine Brücke „unterwegs“ nicht absteigen darf. Gleichungen (5.12) und (5.13) besagen, dass die Brücken am Startort aufgenommen und am Zielort abgegeben werden. Gleichung (5.14) besagt, dass keine Brücke im Transitknoten stehen bleiben kann. Gleichung (5.15) stellt sicher, dass Brücken nur dann zugeordnet werden, wenn das Fahrzeug die Teilstrecke befährt. z kij + + z lij − = 2 ⇒ D kj + + Δ ≤ Dlj −
∀k , l ∈ M , ∀j ∈ T
(5.16)
z kij + + z lij − = 2 ⇒ D kj + + Δ ≤ D kj −
∀k , l ∈ M , ∀j ∈ T
(5.17)
Die Gl. (5.16) und (5.17) sorgen dafür, dass bei einem Umbrücken einer Brücke von Fahrzeug k auf Fahrzeug l die Fahrzeuge erst nach der Umbrückzeit D den Transitknoten verlassen.
∑ z kij ≤ 2
∀j ∈ V , ∀k ∈ M
i ∈W
(5.18)
Diese Gl. (5.18) stellt schließlich sicher, dass maximal zwei Brücken gleichzeitig von einem Fahrzeug auf einer Teilstrecke bewegt werden. ei ≤ Di ≤ li
∀i ∈ N
xijk ∈{0,1}, z kij ∈{0,1}, Di ≥ 0, Dik ≥ 0 ∀k ∈ M , ∀i, j ∈V
(5.19) (5.20)
Die Gl. (5.19) erzwingt die Einhaltung der Zeitfenster, die hier als starre Zeitschranken gehandhabt werden. Die Gl. unter (5.20) schränken die Wertemenge der Entscheidungsvariablen ein.
5 Optimierung des Wechselbrückentransports
5.9
117
Exakte Lösungsansätze
Das Pick-up and Delivery-Problem mit Zeitschranken ist für sich genommen schon ein sehr komplexes Optimierungsproblem. Bei dem VRPPD, bei dem Güter zu transportieren sind, sind die besten derzeit entwickelten exakten Algorithmen immerhin in der Lage, einzelne Problemstellungen mit bis zu 500 Aufträgen exakt zu lösen (vgl. [Rop05]). Dabei ist allerdings die Anzahl eingesetzter Fahrzeuge deutlich geringer, da die Problemstellung davon ausgeht, dass ein Fahrzeug viele Sendungen mitführen kann. Bei dem strukturell sehr ähnlichen Dial-a-Ride-Problem (DARP), bei dem Personen zu transportieren sind und im Unterschied zum VRPPD noch Restriktionen hinzukommen, die die Fahrzeit bzw. den Umweg für die transportierten Personen berücksichtigen, liegen die besten exakten Ergebnisse bei derzeit 35 Aufträgen und 4 Fahrzeugen. Das VRPPDT erhöht die Komplexität der Aufgabenstellung noch einmal deutlich. Dadurch, dass die Sendungen nicht mehr fest mit dem Fahrzeug gekoppelt sind, werden zusätzliche Entscheidungsvariablen benötigt, deren Anzahl von der Anzahl Transitpunkten, der Anzahl Fahrzeugen und der Anzahl der Bedarfsknoten abhängt. Cortés, Matamala und Contardo waren mit Hilfe eines Brach-and-CutVerfahrens in der Lage, sehr kleine Problemstellungen mit 6 Kunden, 2 Fahrzeugen und einem Transitpunkt exakt zu lösen. Diese Größenordnung lässt sich möglicherweise noch um einiges erhöhen, wenn wie bei den Arbeiten von Ropke (vgl. [Rop05]) zusätzliche Ungleichungen in die Problemformulierung mit aufgenommen werden, um den Lösungsraum einzuschränken. Betrachtet man aber das Problem der Wechselbrücken-Optimierung, so kommt erschwerend hinzu, dass die Anzahl möglicher Transitpunkte potenziell sehr groß werden kann und die Anzahl von Fahrzeugen ebenfalls recht groß ist. Eine Anzahl von mehr als hundert Wechselbrücken-Aufträgen ist ebenfalls nicht ungewöhnlich. Aus diesem Grund scheinen exakte Lösungsansätze für diese Problemstellung in absehbarer Zeit nicht verfügbar zu sein.
5.10
Heuristischer Lösungsansatz
Aus diesem Grund soll an dieser Stelle ein heuristischer Lösungsansatz vorgestellt werden, der sich auf die spezielle Problemstruktur stützt, die bei der Wechselbrücken-Optimierung vorliegt. Dieser Ansatz besteht aus zwei Teilverfahren, einem auf dem Savings-Verfahren der Tourenplanung basierenden Verfahren zur Ermittlung günstiger Kombinationen von Transportaufträgen sowie einem Sternoptimierung genannten Verfahren zur Ermittlung von Umschlag-Treffpunkten, die den Hubs in dem Hub-ans-Spoke-Ansatz der Transportnetze entsprechen. Das generelle Vorgehen ist so, dass nach einer Problemreduktion zunächst die Sternoptimierung durchgeführt werden sollte und anschließend die verbleibenden Transportaufträge mit dem Savings-Verfahren optimiert werden können.
118
5.11
H.-W. Graf
Problemreduktion
Bei dem heuristischen Lösungsansatz wird zunächst eine Problemreduktion vorgenommen, die sich an die gängige Praxis bei Speditionen anlehnt: zunächst werden alle Aufträge aus der Problemstellung eliminiert, bei der eine gerade Anzahl von Wechselbrücken von einem Start- zu einem Zielort zu befördern sind, da diese mit vollen Zügen auf direktem Weg vom Start zum Zielort befördert werden können. Diese Problemreduktion ist nicht unkritisch, da es spezielle Konstellationen geben kann, in denen es günstiger ist, diese Brücken mit separaten Fahrzeugen zu transportieren, wie Abb. 5.3 zeigt. In dieser Konstellation beträgt die Transportentfernung bei der günstigsten Transportdurchführung 2·d(A,B) + d(C,A) + d(E,A) + d(B,D) + d(B,F). Dies ist günstiger, als drei Fahrzeuge einzusetzen, die die Gesamtentfernung d(C,D) + d(A,B) + d(E,F) zurücklegen, sofern d(A,B)+d(C,A)+d(E,A)+d(B,D)+d(B,F) < d(C,D)+d(E,F) ist. Dies ist immer dann der Fall, wenn die Standorte A, C, E und B, D, F dicht beisammen liegen, während die Entfernung zwischen diesen beiden Gruppen von Standorten groß ist. Außerdem darf bei der Konstellation die Kombination der Aufträge C-D und E-F entweder aus zeitlichen Gründen nicht möglich sein, oder – wie in der Grafik – auf Grund der Geometrie ungünstiger sein, als die dargestellte Lösung. Weiterhin darf es keine anderen Wechselbrücken-Aufträge geben, die sich mit den Aufträgen C-D und E-F zu anderen kostengünstigen Kombinationen zusammenfügen lassen und nach einer Kombination von C-D und E-F mit A-B nicht mehr anderweitig kombiniert werden können. Diese letzte Einschränkung ist kombinatorisch recht komplex und kann nicht a priori geklärt werden. Die ersten beiden Randbedingungen lassen sich jedoch leicht überprüfen. Und wie man leicht zeigen kann, ist dies die einzige Konstellation, in der ein separater Transport paralleler Wechselbrücken-Aufträge Kosten einspart.2 Deshalb ist es möglich, bei der Problemreduktion die Parallel-Aufträge zu identifizieren, die potenziell zu einer Reduzierung des Gesamtergebnisses beitragen können. Dies ist in der Regel nur eine kleine Teilmenge der gesamten parallelen Wechselbrückenaufträge. Im Anschluss an die Optimierung der Einzelaufträge kann geprüft werden, ob eine höhere Kostenersparnis erzielt werden kann, wenn die ParallelAufträge wie in Abb. 5.3b gezeigt verplant werden. Der gesamte Planungslauf kann dann ohne diese Aufträge wiederholt werden.
2
Dies gilt allerdings nur in der hier gewählten Problemformulierung, in der die Minimierung der Fahrzeuganzahl kein Optimierungsziel darstellt. In dieser Konstellation werden zumindest zwei Einzelaufträge erforderlich, die mit dem Parallelauftrag A-B kombiniert werden können. Die maximale Ersparnis bei einer einzelnen Kombination beträgt d(A,B). Die Kombination der zweiten Brücke mit einem weiteren Einzelauftrag führt also nur dann zu einer Gesamtersparnis, wenn die Strecke A-B für diesen Einzelauftrag auf dem Weg liegt, wenn also die kombinierte Strecke kleiner ist als die Summe der beiden Einzelstrecken. Dann liegt aber die hier beschriebene Konstellation vor.
5 Optimierung des Wechselbrückentransports Abb. 5.3 (a) Transportaufträge, (b) Günstigste Transportdurchführung
119
a Transportaufträge C
D A
B
E F
b C
Günstigster Transport
A
D B
E F
5.12
Savings-Ansatz
Nach dieser Problemreduktion beruht der nächste Teil der hier vorgeschlagenen Heuristik auf einem an den Savings-Algorithmus angelehnten Ansatz. Das Savings-Verfahren wurde von Clarke und Wright für die Lösung des Tourenplanungsproblems vorgeschlagen [CWr64]. Die Grundidee besteht darin, für jede Auftragskombination auszurechnen, welche Einsparung im Vergleich zur Direkttransport jedes einzelnen Auftrages zu erzielen ist, wenn diese Aufträge in einer Tour kombiniert werden. Dieser Wert wird als Ersparnis (Savings) bezeichnet. Das weitere Verfahren beruht darauf, dass diese Savings-Werte nach Größe sortiert werden und dann die Aufträge nach absteigenden Savings-Werten zu Touren kombiniert werden. Bei der Wechselbrückenoptimierung stellt sich allerdings die Frage, wie genau ein Savings-Wert gebildet werden soll, da bei der oben dargestellten Dreieckskonsolidierung ja drei Aufträge kombiniert werden, und nicht nur zwei. Der hier vorgeschlagene Ansatz beruht auf einer etwas erweiterten Betrachtung der Problemstellung, die in der folgenden Abb. 5.4 dargestellt ist: Hier sind insgesamt sechs Aufträge beteiligt, wobei maximal vier dieser sechs Aufträge bei dem Transport mitgeführt werden können, weil das Fahrzeug auf jeder gestrichelt gezeichneten Teilstrecke des Fahrstrecke maximal zwei Brücken mitführen kann. Das Fahrzeug kann also z. B. die Aufträge 3, 4, 5, und 6 kombinieren. Auf der ersten Teilstrecke sind dann die Aufträge 3 und 4, auf der zweiten Teilstrecke die Aufträge 3 und 5 und auf der dritten Teilstrecke die Aufträge 3 und 6 auf dem Fahrzeug. Werden die Aufträge 1 und 2 kombiniert, führt das Fahrzeug auf der ersten
120
H.-W. Graf
Abb. 5.4 Grundschema des Wechselbrücken-SavingsVerfahrens
3 1
2
4
6 5 Fahrstrecke 1
Auftrag
Teilstrecke nur den Auftrag 1 mit, auf der zweiten Teilstrecke führt es die Aufträge 1 und 2 mit, auf der dritten Teilstrecke führt es dann nur noch den Auftrag 2 mit. Abbildung 5.5 zeigt die möglichen Auftragskombinationen. Die Fahrstrecke ist für jede dieser Kombinationen wie in Abb. 5.4 gezeigt. Diese Kombinationen zeichnen sich dadurch aus, dass zwei Aufträge das Grundgerüst der Kombination bilden, und gegebenenfalls ein oder zwei zusätzliche Aufträge dieses Gerüst ergänzen, weil sie dieses Gerüst passgenau ergänzen. Im Gegensatz zu der Dreieckskonsolidierung werden bei diesem Optimierungsansatz auch Konstellationen betrachtet, bei denen zwischen den Abgangs- und Zielorten der einzelnen Aufträge noch einzelne Zwischenstrecken zurückzulegen sind. Die klassische Dreieckskonsolidierung wird durch die Fälle 9 und 10 in Abb. 5.5 abgedeckt. Alle anderen dort dargestellten Konstellationen stellen Erweiterungen dar, die ebenfalls zu Transportkombinationen führen, bei denen eine Einsparung gegenüber dem Einzeltransport der Aufträge erzielt wird. Das Verfahren, das im folgenden Wechselbrücken-Savings-Verfahren oder kurz WB-Savingsverfahren genannt werden soll, geht wie folgt vor. Für jede Zweierkom-
Abb. 5.5 Mögliche Transportkombinationen des Optimierungsschemas
5 Optimierung des Wechselbrückentransports
121
bination von Aufträgen aij und bkl wird die günstigste Fahrtreihenfolge der Start- und Zielknoten i, j. k, und l ermittelt. Diese Reihenfolge sei i’, k’, l’, j’. Anschließend werden mögliche Ergänzungsaufträge ai’k’ und al’j’ bestimmt. Die Binärvariablen δ1 und δ2 werden zu Eins gesetzt, falls diese Zusätze existieren und sind andernfalls Null. Der Savings-Wert für zwei Aufträge wird dann wie folgt ermittelt:
(
)
SVG a ij , b kl := d ( i, j) + d ( k, l ) − δ1 ⋅ d ( i ′, k ′ ) − d ( k ′, l ′ ) − δ 2 ⋅ d ( l ′, j′ ) Bei der Berechnung wird gleichzeitig überprüft, ob die einzelnen Kombinationen die Zeitfenstervorgaben erfüllen. Erfüllt die beste Reihenfolge i’, k’, l’, j’ die Zeitfensterbedingungen nicht, wird die Kombination mit all ihren Varianten nicht weiter beachtet. Erfüllen die Ergänzungsaufträge die Zeitfenstervorgaben nicht, werden sie bei der Bildung des Savings-Wertes nicht berücksichtigt, also δ1 oder δ2 zu Null. Da bei der Bildung der Savings-Werte alle Zweierkombinationen von Aufträgen betrachtet werden, und nicht nur die sich überkreuzenden Aufträge, werden bis auf die letzten beiden alle in Abb. 5.5 dargestellten Kombinationen betrachtet. Das manche Konstellationen durch Symmetrie mehrfach betrachtet werden, stört bei dem Verfahren nicht, da bei der Bildung von Touren die Wechselbrücken-Aufträge natürlich nur einmal verplant werden können. Alle nachfolgenden Savings-Werte für eine bereits verplante Wechselbrücke werden ignoriert. Die letzten beiden Kombinationen in Abb. 5.5 stellen entartete Sonderfälle dar. Diese werden durch die WB-Savings-Heuristik nicht direkt mit abgedeckt, sondern erst durch einen nachgelagerten Verfahrensschritt gebildet, bei dem die ermittelten Teiltouren einzelnen Fahrzeugen zugeordnet werden. Dies dient der Reduzierung der Zahl benötigter Fahrzeuge, bringt allerdings keine Reduzierung der Kosten in der oben vorgestellten mathematischen Modellierung.
5.13
Sternoptimierung
Die WB-Savings-Heuristik liefert eine Reihe interessanter Transportkombinationen, die über die bei Wlþek beschriebenen Optimierungsansätze hinausgehen. Es handelt sich bei den Kombinationen immer um die Tour eines Fahrzeuges. Die Optimierungslösung bleibt also immer im Rahmen dessen, was mit einem PDPLösungsansatz erzielt werden kann. Deshalb wird dieser Ansatz erst in Verbindung mit einer zweiten Heuristik – der sogenannten Stern-Heuristik – interessant, die im folgenden vorgestellt werden soll. Wie bereits bei der Bewertung von Optimierungsansätzen beschrieben, kann durch einen Transitpunkt eine interessante zusätzliche Ersparnis erzielt werden. Für die Modellierung bedeutet dies, dass das Transportnetz um Transitpunkt-Kandidaten erweitert werden muss. Für praktische Anwendungen genügt es oftmals schon, die vorhandenen Depots als Transitpunkte zuzulassen. Eine Einbeziehung weiterer Standorte – große Parkplätze, Raststätten, Industriegelände mit Rangierflächen – erhöht aber das Optimierungspotenzial.
122
H.-W. Graf
Die Nutzung von Transitpunkten ist nicht nur bei der speziellen Konstellation mit drei Depots relevant, sondern gilt z. B. auch für vier Depots, wie Abb. 5.6 zeigt. Bei dieser Konstellation werden durch die Einführung eines Transitpunktes 30% bzw. 41% der Kosten gegenüber der Transportdurchführung im Pendelverkehr gespart. Durch die Dreieckskonsolidierung oder die WB-Savings-Heuristik lassen sich darüber hinaus in dieser Konstellation keine Optimierungen erzielen. Durch Betrachtung dieser Beispiele könnte man vermuten, dass eine Lösung mit Transitpunkten immer dann interessant ist, wenn paarige Aufträge zwischen einer Teilmenge der Depotstandorte vorliegen. Diese Annahme ist aber falsch, wie Abb. 5.7 zeigt. Man kann die Voraussetzung für eine Transitpunkt-Optimierung wie folgt formulieren: Gesucht ist eine Teilmenge von Depots und eine Teilmenge von Aufträgen zwischen diesen Depots, so dass jedes Depot innerhalb der Auftragsteilmenge genau zwei Wechselbrücken an die anderen Depots dieser Teilmenge abgibt und genau zwei Wechselbrücken von anderen Depots empfängt.
In Abb. 5.2 ist dargestellt, welches Einsparpotenzial sich beim Wechselbrückentransport ergibt, wenn die Transporte nicht direkt durchgeführt werden, sondern ein Transitpunkt verwendet wird, an dem die Brücken getauscht werden. In der dargestellten Konstellation gibt es drei Depots, die in einem gleichseitigen Dreieck jeweils 100 km auseinanderliegen. Jedes Depot hat dabei für jedes andere Depot genau eine Brücke im Abgang und eine Brücke im Eingang, es sind also insgesamt sechs Transporteinheiten zu bewegen. Die naheliegende Lösung besteht darin, drei Lkws zu verwenden; jeder startet von einem der Depots mit einer Brücke, und kehrt mit einer Brücke beladen wieder zurück. Je nach Zeitfenster müssen auch sechs Lkws verwendet werden, die dann alle zeitgleich losfahren. In beiden Fällen werden 600 km als Lastkilometer zurückgelegt. Diese Bedingung soll im Folgenden als Cliquen-Bedingung bezeichnet werden. Eine Teilmenge von Depots, für die eine korrespondierende Auftragsteilmenge existiert, die die Cliquen-Bedingung erfüllt, wird als Clique bezeichnet. Die Aufgabe, bei einer größeren Menge von Depots und Wechselbrücken-Aufträgen diese Teilmengen zu ermitteln, ist für sich genommen wiederum ein komplexes Optimierungsproblem. Für kleine Problemgrößen können diese Teilmengen über einen Backtracking-Algorithmus ermittelt werden. Für mittlere und große Transportnetze ist dieser Ansatz aber zu rechenintensiv. Deshalb wird auch für diesen Teilschritt eine heuristische Herangehensweise vorgeschlagen. Die Laufzeit des Algorithmus hängt wesentlich mit der Tatsache zusammen, dass für eine gegebene Clique nicht nur eine genau definierte Teilmenge von Wechselbrücken-Aufträgen existiert, sondern sehr viele unterschiedliche Kombinationen existieren können. Für jede dieser Kombinationen von Aufträgen, die die Cliquen-Bedingung erfüllen, ist zu untersuchen, ob die Zeitfensterrestriktionen für den Transport bei einem bestimmten Transitpunkt erfüllt werden. Dazu ist zunächst der bestgeeignete Transitpunkt zu ermitteln. Unter allen möglichen Cliquen ist dann wiederum diejenige zu identifizieren, die das größte Optimierungspotenzial bietet.
5 Optimierung des Wechselbrückentransports
123
Kanten des Vierecks = 100 km Durchführung mit jeweils einem FZ mit einer Wechselbrücke im Pendelverkehr = 800 km bzw. 966 km
Treffpunkt im Mittelpunkt, Durchführung mit jeweils einem FZ im Pendelverkehr mit zwei Wechselbrücken = 566 km
Abb. 5.6 Transitpunkt bei 4 Depots
Weiterhin ist nicht klar, welches die beste Cliquengröße ist. Es ist durchaus möglich, dass alle Depots eine einzige Clique bilden. Dies muss aber nicht die günstigste Lösung sein, da bei einer großen Clique der Umweg für die einzelnen Aufträge groß werden kann. Eine Aufteilung in geographisch begrenzte, kleine Cliquen kann effektiver sein. Es ist jedoch durchaus erstaunlich, wie groß eine Clique werden kann, bei der ein Umschlag an einem Transitpunkt ohne Verletzung der (allerdings relativ weiten) Zeitfenster möglich ist. Abbildung 5.8 zeigt ein Beispiel auf Basis von realen – allerdings verfremdeten – Projektdaten. Aus einer Gesamtmenge von 30 Depots ist eine Clique mit 24 Depots und 48 Wechselbrücken identifiziert worden, die in einem Transitpunkt umgeschlagen werden können.
Abb. 5.7 Unpaarige Aufträge, bei denen eine Transitpunkt-Optimierung möglich ist
124 Depot von/nach
1 1 2 3 4 1 5 6 1 7 8 1 9 10 11 12 13 14 15 16 1 17 1 18 19 1 20 21 22 1 23 24 1 25 1 26 27 28 29 30 1 Summe 10
H.-W. Graf 2
3 4 5 1 1 1
1 1 1
1
1 1 1 1
1 1
1
1
1 1 1 1
1 1 1
1 1 1 1
1
1
1
1
1
1
1 1
1 1 1 1 1
1 11 15 14
6 7 1 1
8 9 10 11 12 13 14 15 16 17 18 19 20 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 13 11 11 12 9 11 10 11 15 11 10 11 7 9 9 13
21 22 23 24 25 26 27 28 29 30 Summe 1 1 1 1 1 1 13 1 1 1 1 11 1 1 1 1 7 1 1 1 1 1 1 1 13 1 1 1 12 1 6 1 1 1 1 11 1 1 1 1 1 12 1 1 7 1 1 1 13 1 1 1 1 1 15 1 1 1 1 10 1 1 1 1 1 1 1 14 1 1 1 1 1 1 11 1 1 1 8 1 1 1 11 1 1 1 17 1 1 1 1 1 14 1 1 1 1 1 13 1 1 1 1 11 1 1 8 1 1 1 1 1 1 12 1 1 1 10 1 1 1 14 1 1 1 1 8 1 1 14 1 1 1 1 1 1 11 1 11 1 1 1 12 1 1 1 11 13 12 14 11 15 9 10 7 12 14 340
Abb. 5.8 Clique mit 24 Depots und 48 Wechselbrücken
Die Wechselbrücken-Cliquen-Heuristik funktioniert dabei wie folgt: Zunächst wird die maximale Anzahl von Depots in einer Clique begrenzt. Über ein Backtracking-Verfahren werden Depots ermittelt, für die die Cliquen-Bedingung erfüllt ist. Ist eine solche Clique gefunden, die die vorgegebene Anzahl von Depots enthält, wird für diese Clique der beste Transitpunkt in der Menge der Transitpunkt-Kandidaten gesucht. Dies wird durch vollständige Enumeration über alle Kandidaten ermittelt. Anschließend wird geprüft, ob für alle Wechselbrückenaufträge die Zeitfensterrestriktion eingehalten werden. Trifft dies zu, wird diese Kombination als Optimierungskandidat gespeichert. Die Kostenersparnis bei dem Transport über den Transitpunkt im Vergleich zu den Direkttransporten wird als Bewertung dieser Lösung gemerkt. Wird ein weiterer Optimierungskandidat gefunden, dessen Bewertung besser ist, als die des bisher gespeicherten Kandidaten, so wird der Kandidat ersetzt. Überschreitet die Anzahl der gefundenen Optimierungskandidaten eine zuvor festgesetzte Schranke n, so wird die Suche angebrochen. Außerdem wird für die Suche nach einem Kandidaten eine absolute Zeitschranke gesetzt. Nachdem eine Clique identifiziert worden ist und die Wechselbrücken-Aufträge aus der Auftragsmatrix entfernt worden sind, wird der Prozess wiederholt, um weitere Cliquen zu finden. Die verbleibenden Einzelaufträge werden dann anschließend mit der WB-Savings-Heuristik weiter konsolidiert.
5 Optimierung des Wechselbrückentransports
5.14
125
Beispielergebnisse
Die folgende Abbildung zeigt eine Vergleich beispielhafter Berechnungsergebnisse. Es wurden dabei einmal eine mittlere Depotanzahl von 30 Depots und einmal eine größere Depotanzahl von 52 Depots untersucht, wobei einmal mit 170 Wechselbrücken eine eher geringe Anzahl von Aufträgen und einmal eine etwas größere Anzahl mit 340 Aufträgen untersucht wurde. Für das zweite Szenario wurde eine größere Anzahl von Depots und zwei leicht differierende Auftragsmengen aus realen Auftragsdaten zu Grunde gelegt. Als Vergleichsbasis wurde die Direkttransportlösung zu Grunde gelegt. Die Lösung über einen Zentralhub ist eine weitere recht einfache Vergleichsbasis. Hierbei wurde ein zentral gelegener Standort als Transitpunkt definiert. Alle Aufträge, die sich innerhalb des Zeitfensters über diesen Transitpunkt konsolidieren lassen, werden über diesen Transitpunkt geführt. Alle anderen werden im Direktverkehr transportiert. Bei der traditionellen Lösung wurden nur Dreiecksverkehre berücksichtigt, die nach dem klassischen Vorgehen identifiziert werden. Dazu wurde die WB-Savings-Heuristik verwendet, wobei die Variablen δ1 und δ2 konstant 0 sind. Bei der Zeile Savings-Heuristik sind zusätzlich die ergänzenden Aufträge identifiziert und einbezogen worden. Bei der Stern-Heuristik wurden schließlich die Berechnungen mit verschiedenen Cliquen-Größen durchgeführt. Als Transitkandidaten wurden jeweils nur die vorhandenen Depotstandorte genutzt. Bei den Problemen mit 30 Depots wurden verschiedene Cliquen-Größen untersucht. Für die Problemstellung mit 170 Wechselbrücken erwies sich die Cliquengröße 8 als die beste Lösung, bei 340 Wechselbrücken war dagegen 12 die beste Lösung (siehe Tabelle 5.1). Bei 52 Depots wurden die Berechnungen nur mit der Cliquengröße 8 durchgeführt. Weitere systematische Untersuchungen zur Frage der besten Cliquengröße stehen noch aus. Diese Beispielrechnungen zeigen, dass die Stern-Heuristiken ein deutliches Optimierungspotenzial gegenüber den anderen Optimierungsvarianten aufweist. Die Optimierungsergebnisse liegen bei über 20% gegenüber der Direktverkehrslösung und sind immer noch um über 10% besser als die traditionellen Ansätze der Dreieckskonsolidierung, die hier – auf Grunde des algorithmischen Ansatzes – schon recht erschöpfend angewendet worden sind, wie Vergleiche mit manuell geplanten Transporten zeigen.
5.15
Zusammenfassung und Ausblick
Der vorliegende Artikel erhebt nicht den Anspruch, das Problem der Wechselbrücken-Optimierung erschöpfend behandelt zu haben. Es soll vielmehr aufgezeigt werden, dass in diesem Transportbereich noch ein größeres Optimierungspotenzial liegt, welches derzeit weder in der Forschung noch in der Praxis hinreichend beachtet wird.
126
H.-W. Graf
Tabelle 5.1 Berechnungsergebnisse für Beispielrechnungen Bewertung: Fahrzeit in Minuten 30 Depots 170 WB
30 Depots 340 WB
52 Depots 378 WB
52 Depots 408 WB
Einzelverkehre
93.264
100,0% 150.153 100,0% 111.874 100,0% 120.204 100,0%
Zentralhub*
89.741
96,2%
141.723 94,4%
110.768 99,0%
117.412 97,7%
Traditionell
85.688
91,9%
132.622 88,3%
101.618 90,8%
110.213 91,7%
Savings-Heuristik 84.149
90,2%
131.825 87,8%
101.116 90,4%
109.671 91,2%
Stern-Heuristik
79,5%
111.935 74,5%
87,507
94.655
Laufzeit**
74.166
0,548 s
1,54 s
78,2%
11,85 s
78,7%
15,14 s
* ohne weitere Konsolidierung der Brücken, die aus Zeitfenstergründen direkt fahren ** Pentium IV; 2,5 GHz, 512 MB Speicher
Dies liegt eventuell daran, dass der Transport mit Wechselbrücken, bei denen lediglich zwei Aufträge von einem Fahrzeug gleichzeitig ausgeführt werden können, eine vermeintlich einfache Aufgabenstellung darstellt. Durch die Möglichkeit, eine Brücke zwischen Fahrzeugen relativ einfach auszutauschen, bieten die Wechselbrücken jedoch eine Flexibilität, die nicht zu unterschätzen ist. Insbesondere der Umschlag in einem zentralen Transitpunkt, der stark an die Hub-and-Spoke-Charakteristik moderner Transportnetze angelehnt ist, bietet eine interessante Gestaltungsmöglichkeit, die neben der Wegeersparnis darüber hinaus den Vorteil bietet, dass die Fahrzeuge bei dieser Form des Transportes alle zu ihrem Ausgangsdepot zurückkehren, so dass das Problem der Fahrzeugumlaufbildung erheblich reduziert ist. Die hier vorgestellten Optimierungsalgorithmen stellen lediglich einen ersten Ansatz dar. Dieser lässt sich durch die Anwendung weiterer Verfeinerungen, wie z. B. einer anschließenden Nachoptimierung über lokale Tauschverfahren, noch deutlich ausweiten. Auch ist die Untersuchung der Wechselbrücken-Cliquen-Heuristik noch lange nicht abgeschlossen sondern lediglich ein erster praktikabler Lösungsansatz. Da der Transport von Wechselbrücken einen nicht unbedeutenden Anteil des Gütertransportes auf unseren Straßen ausmacht, sind sowohl Praktiker als auch Forscher aufgefordert, dieses Optimierungsproblem weiter zu erforschen und die Ergebnisse in der Praxis umzusetzen.
Literatur [BCG+07] Berbeglia G, Cordeau J-F, Gribkovskaia I, Laporte G (2007) Static pickup and delivery problems: A classification scheme and survey. TOP 15, S 1–31. http://neumann.hec.ca/ chairedistributique/common/PDP-TOP.pdf, Stand 7. Juli 2007
5 Optimierung des Wechselbrückentransports
127
[BHS05] Berr W, Hauser J, Schäpe M (2005) Das Recht des ruhenden Verkehrs. Eine systematische Erläuterung der Vorschriften über das Halten und Parken, 2. Aufl. Beck Juristischer Verlag [CMC06] Cortés C, Matamala M, Contardo C (2006) The pickup-and-delivery problem with transfers: Formulation and solution approaches. Preprint, submitted to European Journal of Operational Research 27th March 2008. Online im Internet: http://www.crt.umontreal. ca/~ccontard/pickup_and_delivery_problem_with_transfers.pdf [CWr64] Clarke G, Wright J (1964) Scheduling of vehicles from a central depot to a number of delivery points. Oper Res 12(4):568–581 [DDS+95] Desrosiers J, Dumas Y, Solomon M, Soumis F (1995) Time constrained routing and scheduling. In: Ball M, Magnanti T, Monma C, Nemhauser G (Hrsg) Handbooks in operations research, vol 8 of Network Routing. Elsevier Science Publishers B.V., S 35–139 [Die00] Diestel R (2000) Graphentheorie, 2. Aufl. Springer Verlag, Berlin [EBL03] Ellinger Th, Beuermann G, Leisten R (2003) Operations research. Eine Einführung, 6. Aufl. Springer Verlag, Berlin [Egy00] Egyedi TM (2000) The standardised container: Gateway technologies in cargo transport. In: Holler M, Niskanen E (Hrsg) EURAS yearbook of standardization, vol 3/Homo Oeconomicus XVII(3). München, S 231–262 [Gra99] Graf H-W (1999) Netzstrukturplanung: Ein Ansatz zur Optimierung von Transportnetzen. Dortmund [Grü02] Grünert T (2007) Tourenplanung mit Leerbehälterausgleich im kombinierten Ladungsverkehr, Modelle und Methoden für die Praxis. www.or.rwth-aachen.de/~fora/Veranstaltungen/ Symposium/2002/VortragGruenert02.pdf, Stand 7. July 2007 [MLa06] Mitroviü-Miniü S, Laporte G (2006) The pickup and delivery problem with time windows and transhipment. INFOR 44, S 217–227 [Rop05] Ropke S (2005) Heuristic and exact algorithms for vehicle routing problems. PhD thesis, Department of Computer Science (DIKU), University of Copenhagen [Stu98] Stumpf P (1998) Tourenplanung im speditionellen Güterfernverkehr. In: Schriftenreihe der Gesellschaft für Verkehrsbetriebswirtschaft und Logistik (GVB) e.V., Heft 39, Nürnberg [Tar05] Tardy R (2005) Optimization models and algorithms for the large-scale, capacity constrained pick-up and delivery problem with time windows constraints. MIT. http://hdl.handle. net/1721.1/31141 [Vas06] Vasiliauskas AV, Bazaras D (2006) Analysis of problems with containers as intermodal lading unit. Transp Telecommun 7(2):232–239 [Wen01] Wenger H (2001) UIRR 30 Jahre. Geschichte der Internationalen Vereinigung der Gesellschaften für den Kombinierten Verkehr Schiene-Straße (UIRR) und des Kombinierten Güterverkehrs Schiene-Straße in Europa 1970–2000, Brüssel [Wlþ98] Wlþek H (1998) Gestaltung der Güterverkehrsnetze von Sammelgutspeditionen. Schriftenreihe der Gesellschaft für Verkehrsbetriebswirtschaft und Logistik (GVB) e.V., Heft 37, Nürnberg
Kapitel 6
Leistungsbewertung verschiedener Optimierverfahren für das p-Hub-Problem Hilmar Heinrichmeyer
Zusammenfassung Eine Standardaufgabe bei der Planung und Optimierung von logistischen Service-Netzen ist der Aufbau des optimalen Hauptlaufnetzes zwischen den Depotstandorten. Dabei bedient man sich zwischengeschalteter Umschlagspunkte (Hubs) zur Konsolidierung nicht ausgelasteter Relationen. Neben dem Auswahlproblem der Entscheidung über die Nutzung einer optimalen Teilmenge von Hubs aus einer Kandidatenmenge gibt es das Zuordnungsproblem, bei dem jedes der Depots an einen der ausgewählten Hubs angeschlossen wird. Beides zusammen wird als p-Hub-Problem bezeichnet. Bei größeren Netzen mit vielen Depots und Hubs ist es zur Vermeidung langer Rechenzeiten erforderlich, ein möglichst effizientes Suchverfahren zu verwenden, das zuverlässig mit begrenztem Rechnereinsatz zu möglichst guten Ergebnissen kommt. Zu diesem Zweck wurden vier verschiedene Optimierverfahren für das p-Hub-Problem analysiert und hinsichtlich ihrer Leistungsfähigkeit miteinander verglichen. Neben der vollständigen Enumeration handelt es sich um eine Neighborhood Search-Heuristik nach Klinkewicz, individuenbasierte evolutionäre Algorithmen und populationsbasierte evolutionäre Algorithmen mit Rekombination. Die beiden letztgenannten können wiederum mit verschiedenen Parametern wie Generationsanzahl, Populationsgröße, Selektionsdruck und Mutationsrate benutzt werden, was die Analyse umfangreich macht. Die vier genannten Optimierverfahren wurden mit verschiedenen Parameterkombinationen einer Leistungsbewertung unterzogen, bei der für insgesamt 30 konkrete Probleminstanzen die Verfahren miteinander verglichen wurden, die bei insgesamt 100 Versuchen das beste Netz der jeweiligen Instanz mindestens einmal gefunden haben. Untersuchungsgegenstand war dabei, wie zuverlässig das beste Ergebnis gefunden wurde und wie viel Rechenkapazität dafür erforderlich war. Im letzten Schritt wurde eine Methodik zur Verallgemeinerung der Ergebnisse der 30 Probleminstanzen entwickelt, so dass sie auch für andere Probleminstanzen genutzt werden können. Unter Verwendung der jeweiligen Größe des Suchraumes H. Heinrichmeyer ( ) Fraunhofer-Institut Materialfluss und Logistik (IML) Joseph-von-Fraunhofer-Str. 2-4 44227 Dortmund, Deutschland E-mail:
[email protected] P. Buchholz und U. Clausen (Hrsg.), Große Netze der Logistik, DOI 10.1007/978-3-540-71048-6_6, © Springer-Verlag Berlin Heidelberg 2009
129
130
H. Heinrichmeyer
gelang es, verschiedenen Suchraum-Größenklassen das jeweils effizienteste Optimierverfahren mit der entsprechenden Parameterkombination zuzuweisen.
6.1
Service-Netze
Service-Netzwerke – oft auch Transportnetze genannt – führen den Transport zwischen Sendern und Empfängern von Paket- und Briefsendungen durch. Sie sind gekennzeichnet durch ein regelmäßiges Hauptlauf-Transportnetz, das die Sendungsströme zwischen den Start- und Zieldepots und den mit diesen verbundenen Hubs bewegt. Mit täglich neu zu planenden Flächenverkehren im Einzugsgebiet der Depots werden die Sendungen von den Kunden bzw. Sammelstellen wie Postfilialen oder Briefkästen abgeholt und den Empfängern zugestellt. Bei der Planung und Optimierung solcher Service-Netze geht es um den Aufbau eines Netzes mit möglichst kostengünstigen Transportverbindungen zwischen den einzelnen Punkten des Netzes, bei dem die Anforderungen an einen meist vorgegebenen LieferService eingehalten werden müssen [CBH05]. Typische Betreiber von Service-Netzen sind insbesondere Postgesellschaften sowie Kurier-, Express- und Paketdienste (KEP-Dienste). Das Aufgabenspektrum bei der Planung und Optimierung lässt sich in die drei Hauptaufgaben der Depot-Standortoptimierung, Netzoptimierung und der Tourenplanung unterteilen. Ziel der Depot-Standortoptimierung ist die Ermittlung der optimalen Anzahl und Lage von Depotstandorten einschließlich einer optimalen Zuordnung der Kunden zu den Depots. Die Anzahl und Lage der Depots als Schnittstelle zwischen Fernverkehr (Hauptlauf) und Nahverkehr (Vor- und Nachlauf) bestimmt maßgeblich die Kosten und den Servicegrad des gesamten Netzes. Ziel der Netzoptimierung ist eine optimale Struktur von Hauptlauf-Transportverbindungen zwischen den zuvor festgelegten Depotstandorten einschließlich der Auswahl geeigneter Hub-Standorte [Gra99]. Ziel der Tourenplanung ist die Bildung optimaler Touren für die Abholung und Zustellung von Packstücken im Einzugsgebiet der Depots. In diesem Beitrag wird die Netzoptimierung als Kernstück der Planung von Service-Netzen behandelt.
6.2
P-Hub-Problem
Die Netzoptimierung besteht aus den beiden Kern-Aufgabenstellungen „Ermittlung von Anzahl und Lage der Hub-Standorte“ und „Optimierung der Depot-Hub-Zuordnung“ [HRe00, HRe03]. Dabei handelt es sich beim ersteren um ein Auswahlproblem und beim letzteren um ein Zuordnungsproblem. Da mit jeder Entscheidung für eine veränderte Hub-Anzahl bzw. für eine nur veränderte Lage eines Hub-Standortes zumindest in Teilbereichen des Netzes – und zwar in allen von dieser Hub-Veränderung betroffenen Depots – eine neue Depot-
6
Leistungsbewertung verschiedener Optimierverfahren für das p-Hub-Problem
131
Hub-Zuordnung vorgenommen werden muss, wurde es als sinnvoll erachtet, die Bearbeitung der beiden Teilprobleme kombiniert vorzunehmen. In der Literatur wird diese Aufgabenstellung als das „p-Hub-Problem“ bezeichnet. Da für die Festlegung der p Hub-Standorte nur die n Depots zur Verfügung stehen, gibt es genau (np) verschiedene Möglichkeiten für die Hub-Auswahl. Die Codierung des Suchraumes kann somit über p Entscheidungsvariable realisiert werden, die ganzzahlige Werte von 1 bis n annehmen können und paarweise disjunkt sind. Jedes der n Depots kann jedem der p Hubs zugeordnet werden, so dass es genau pn Möglichkeiten für eine Depot-Hub-Zuordnung gibt. Die Codierung des Suchraumes kann somit über n Entscheidungsvariable realisiert werden, die ganzzahlige Werte von 1 bis p annehmen können. Der Suchraum der kombinierten Aufgabenstellung enthält damit genau (np) · pn Elemente. In der vorliegenden Arbeit wurde das Zuordnungsproblem gelöst, indem jedes Depot immer dem nächstgelegenen Hub-Standort zugeordnet wurde. Diese triviale Zuordnung wurde gewählt, weil sie in vielen Fällen auch in der Praxis angewandt wird, insbesondere aber, um die Komplexität der Aufgabenstellung zu reduzieren. Die in späteren Kapiteln beschriebenen Experimente zur Leistungsbewertung verschiedener Optimierverfahren hätten sonst in akzeptabler Zeit nicht zu einem Ergebnis geführt werden können.
6.3
Bewertungsmodell
Um mit Hilfe des Rechners die Wirkung von neuen und verbesserten Optimierverfahren überprüfen zu können, ist zunächst in der Kooperation der Teilprojekte A7 – Service-Netze und M8 – Optimierung des SFB 559 ein theoretisches Modell von Service-Netzen mit einem geeigneten Abstraktionslevel definiert worden, welches einerseits noch genug Nähe zum Anwendungsgebiet der Service-Netze aufweist, andererseits aber aus formaler Sicht für den Einsatz von Rechenmaschinen geeignet ist und der Anwendung von Optimierverfahren zugänglich ist. Bei der Definition des Modells ist ein modulartiger Aufbau gewählt worden, damit ein Zugriff einzelner Optimierverfahren auf Teilaspekte des Netzes vorgenommen werden kann. In diesem Modell wird die Optimierung der Hub-Standorte, Hub-Anzahl und Netzstruktur unter Berücksichtigung der konkurrierenden Zielsetzungen Servicegrad und Kosten betrachtet [Gra99, VHe02, HRe03]. Das entwickelte Modell besteht aus den beiden Elementarbausteinen „Strecken“ und „Verkehrsmittel“, welche wiederum durch mehrere Attribute gekennzeichnet werden, die im Folgenden in Klammern gesetzt sind: • Strecken (ID [=eindeutige Kennzeichnung], Start-Geo-ID, Ziel-Geo-ID, Startzeit, Verkehrsmittel, Transportmenge 1, 2, 3), • Verkehrsmittel (ID, Geschwindigkeit). Diese beiden Grundelemente des Modells machen deutlich, dass in dieser Arbeit der Schwerpunkt auf der Verknüpfung einzelner Netzknoten (Kunden, Depots,
132
H. Heinrichmeyer
Hubs) über Kanten liegt und nicht auf der Untersuchung der Knoten als solcher. Ein abgeleitetes elementares Objekt ist eine Linie AC, die definiert wurde als die Komposition von zwei Strecken AB und BC mit den Randbedingungen • Ziel-Geo-ID (AB) = Start-Geo-ID (BC) und • Ankunftszeit (AB) + Umschlagzeit (B) <= Startzeit (BC). Das Modell eines Service-Netzes besteht darüber hinaus aus folgenden Elementen, die für die Abbildung realer Service-Netze im Rechner benötigt werden und auf denen die einzelnen Optimierungs-Algorithmen aufzusetzen haben: • • • • • • • • • •
Geoknoten (ID, Länge, Breite, Typ, Land, PLZ, Name, etc.), Geokanten (ID-von, ID-nach, Länge, Richtung, Typ, Land, etc.), Depots (ID, PLZ, Geoknoten, Ort, Name, Funktion, U-zeit, etc.), Hubs (PLZ), Aufkommen (ID-von, ID-nach, Sendungen, Gewicht, Vol.), Fuhrpark (Name, VM, Kosten, Kapazität Sdg, Gew., Vol.), Fahrzeiten (PLZ-von, PLZ-nach, Entf., Fahrzeit Fz-Typ 1, 2, 3), Geschwindigkeitslevel (km/h Autobahn, Landstraße, Ortsstr.), Entfernungen (PLZ-von, PLZ-nach, km Straßentyp A, L, O), Umschlagzeiten (Funktion, Dauer).
Die hier verwendeten Optimierungsverfahren nutzen das Bewertungsmodell als Black Box, die bei einer konkreten Probleminstanz zu jedem möglichen Lösungsvorschlag die Transportkosten und den Servicegrad berechnet und in der Kennzahl Netzqualität zusammenfasst. Nachdem das Modell in Form geeigneter Datenstrukturen im Rechner abgebildet worden ist, hat es in zahlreichen Experimenten seine Praxistauglichkeit bei der Bearbeitung der beiden Optimierungsaufgaben „Ermittlung von Anzahl und Lage der Hub-Standorte“ und „Optimierung der Depot-Hub-Zuordnung“ bewiesen. Nach der Definition geeigneter Schnittstellen zu den dafür verwendeten Optimierungsverfahren und entsprechender Kennzahlen zur Bewertung der erzeugten Netzstrukturen konnten konkrete Ausprägungen von Service-Netzen im Rechner abgebildet werden, deren Netzqualität bewertet werden und diese in diversen Rechnerläufen durch Optimierung der Hub-Standorte und der Depot-Hub-Zuordnungen verbessert werden.
6.4
Kennzahlen
Damit während der Optimierung von Service-Netzen verschiedene Netz-Ausprägungen miteinander verglichen werden können, bedarf es eines geeigneten Vergleichsmaßstabes, anhand dessen die einzelnen Netze bewertet werden können. Für die Netzoptimierung ist insbesondere eine mehrere Kriterien zusammenfassende Kennzahl zu definieren, in welche die beiden konkurrierenden Ziele Kostenminimierung und Servicemaximierung einbezogen werden. Denn schließlich steht diese Arbeit unter dem Oberziel, Service-Netze nicht – wie bisher weitgehend üblich –
6
Leistungsbewertung verschiedener Optimierverfahren für das p-Hub-Problem
133
nur aus Kostensicht zu optimieren, sondern insbesondere die immer aktueller werdenden Anforderungen auch an eine gute Servicequalität zu berücksichtigen. Die Bewertung der Netze aus Kostensicht erfolgt durch Summation der Transportkosten. Die Transportkosten in Service-Netzen setzen sich zusammen aus den Vorlauf-Transportkosten, den Hauptlauf-Transportkosten und den Nachlauf-Transportkosten [Hei00]. Da bei der hier behandelten Aufgabenstellung ausschließlich der Hauptlauf eines Service-Netzes verändert wird, während die Verkehre innerhalb der Depotgebiete (Vorlauf und Nachlauf) von den Veränderungen der Hub-Standorte und der Depot-Hub-Zuordnungen unberührt bleiben, wurden für diese Arbeit ausschließlich die Hauptlauf-Transportkosten berücksichtigt. Die Kosten des Vorlaufs und des Nachlaufs als von der Hauptlauf-Struktur weitgehend unabhängige Kosten wurden aus Gründen der Komplexitätsreduktion vernachlässigt, können aber für andere – vor- bzw. nachlaufrelevante – Aufgabenstellungen problemlos in die Kennzahl Transportkosten aufgenommen werden. Die Hauptlauf-Transportkosten (HL-TK) setzen sich netzweit aus der Summe der Transportkosten jeder einzelnen Hauptlauf-Fahrt im Netz zusammen. Für eine Fahrt von A nach B (A, B sind Netzknoten) werden die Hauptlauf-Transportkosten (AB) in Abhängigkeit von der Transportentfernung und der Transportmenge wie folgt berechnet: HL − TK (AB) = Entfernung (AB) ⋅ Anzahl Fahrzeuge (AB) ⋅ Kosten / km. Die Entfernung (AB) zwischen zwei Netzknoten A und B wird mit Hilfe von Kürzeste-Wege-Algorithmen auf einem digitalisierten geografischen Kartenwerk berechnet, die zwischen den Netzknoten A und B einzusetzende Anzahl Fahrzeuge ergibt sich durch Ermittlung der minimal notwendigen Fahrzeug-Anzahl für die Transportmenge auf dieser Strecke auf Basis der Ladekapazität der einzelnen Fahrzeugtypen, deren Kilometerkosten wiederum in Absprache mit dem jeweiligen Netzbetreiber festgelegt werden müssen. Die Bewertung der Servicequalität von Transportnetzen kann auf sehr unterschiedliche Weisen erfolgen. Dabei ist grundsätzlich zu unterscheiden, ob die Servicequalität des Netzes bei den Zieldepots (Hauptlauf-Servicequalität) oder bei den Sendungsempfängern, also bei den Kunden gemessen werden soll. Dann spricht man von Nachlauf-Servicequalität. In beiden Fällen ergibt sich die Servicequalität von Transportnetzen aus der Einhaltung vorgegebener Ankunftszeiten der Sendungen bei den Zieldepots (Hauptlauf) bzw. bei den Kunden (Nachlauf). Bei der Nachlauf-Servicequalität wird noch danach unterschieden, ob der Nachlauf tatsächlich Gegenstand der Optimierung des Transportnetzes gewesen ist oder ob dies eventuell nur für den Hauptlauf galt. Der Unterschied liegt darin, dass im ersten Fall aufgrund der erfolgten Nachlauf-Tourenplanung konkrete Ziel-Ankunftszeiten bei den Kunden berücksichtigt werden können, während ansonsten lediglich theoretische Ziel-Erreichbarkeiten in die Kennzahl-Bildung eingehen können. Die für die Berechnung der Nachlauf-Servicequalität nach erfolgter Tourenplanung benötigte Ziel-Ankunftszeit bei allen Kunden (Sendungsempfängern) eines bestimmten Gebietes errechnet sich aus der Hauptlauf-Ankunftszeit beim jeweiligen Depot, der Umschlagszeit am Depot und den Fahrzeiten von Nachlauftou-
134
H. Heinrichmeyer
ren zu allen Kunden. Bei Nachlauf-Optimierungen, bei denen naturgemäß die Planung konkreter Zustelltouren im Vordergrund steht, wird also für die Berechnung der Nachlauf-Servicequalität die geplante Ankunftszeit beim jeweiligen Kunden berücksichtigt, also in Abhängigkeit von seiner Lage auf der Zustelltour. Erfolgt keine Nachlauf-Optimierung, sind auch keine Nachlauf-Zustelltouren bekannt und somit auch keine konkreten Ziel-Ankunftszeiten. Deshalb muss man sich in solchen Fällen mit den Ziel-Erreichbarkeiten bei den Kunden helfen. Diese berechnen sich aus der Hauptlauf-Ankunftszeit beim jeweiligen Depot, der Umschlagszeit am Depot und den Fahrzeiten von Nachlauf-Stichtouren zu jedem einzelnen Kunden. Auf diese Weise wird berechnet, wann eine Sendung frühestens beim Kunden sein kann, wenn sie eine Sonderbehandlung in Form einer Stichtour erfährt. Da eine solche Sonderbehandlung aus Kosten- und Durchführbarkeitsgründen in der Praxis nur für sehr wenige Kunden vorgenommen werden kann, handelt es sich bei dieser Form der Berechnung der Nachlauf-Servicequalität um einen eher theoretischen Wert, dessen Berechtigung sich aber daraus ergibt, dass die Stichtour in der Praxis nur zu den kritischen, also weit vom Zieldepot entfernten Kunden vorgenommen werden wird, während die näher gelegenen Kunden aufgrund ausreichender Zeitreserven auch in Form von Auslieferungstouren bedient werden können. Ein Vorteil der Berücksichtigung von Ziel-Erreichbarkeiten bei der Kennzahlbildung liegt in der einfachen Form der Berechnung dieser Zeiten, da keine konkreten Touren berechnet werden müssen. Andererseits sind bei täglich wechselnden konkreten Auftragsmengen und wechselnden Kunden die Ziel-Ankunftszeiten von den konkreten Auftragsdaten abhängig und bilden daher eine schlechte Grundlage für strategische Bewertungen des erreichbaren Servicegrades. Bei der hier bearbeiteten Aufgabenstellung ist der Nachlauf nicht von veränderten Hauptlauf-Strukturen betroffen, weil hier Gegenstand der Optimierung ist, das Hauptlauf-Netz so zu gestalten, dass die einzelnen Depots zu bestimmten vorgegebenen Zeiten erreicht werden. Die Einhaltung dieser Depot-Ankunftszeiten garantiert dann die Durchführung des Nachlaufes in der gewünschten Art und Weise. Deshalb reicht es aus, für diese Arbeit die Hauptlauf-Servicequalität zu berechnen. Für deren Berechnung wird die Ankunftszeit der einzelnen HauptlaufTransporte am jeweiligen Ziel-Depot zugrunde gelegt und mit der Soll-Ankunftszeit verglichen. Es werden für die weitere Kennzahl-Bildung alle Hauptlauf-Relationen mit Strafkosten belegt, die nicht bis zu der vorgegebenen Soll-Ankunftszeit an ihrem Zieldepot eingetroffen sind. Die allgemeine Formel für die Berechnung der Strafkosten einer verspäteten Hauptlauf-Relation A lautet: Strafkosten ( A) = x + Verspatungsminuten ( A) y (mit y ≥1) Dabei ist x ein konstanter Strafkosten-Anteil, der gewissermaßen für die Verspätung als solche anfällt, unabhängig von deren Dauer. Da aber auch berücksichtigt werden soll, ab eine Relation nur wenig oder gar stark verspätet ihr Ziel erreicht, geht auch die Größe der Verspätung in Form der Verspätungsminuten in die Berech-
6
Leistungsbewertung verschiedener Optimierverfahren für das p-Hub-Problem
135
nung ein. Je nachdem, ob in der jeweiligen Aufgabenstellung große Verspätungen als verhältnismäßig problematischer bewertet werden sollen als geringe oder ggf. beide gleich, können die Verspätungsminuten noch mit einer Zahl y potenziert werden. Je größer y, desto stärker werden große Verspätungen bestraft. Für die durchgeführten Modellrechnungen wurde die Strafkosten-Berechnungsformel konkret wie folgt parametrisiert: (A ) 2 Strafkosten ( A) = 1000 + Verspatungsminuten Bei der beschriebenen Berechnungsweise der Servicequalität wird diese durch die Hilfs-Kennzahl „Strafkosten“ ausgedrückt, wenn eine vorgegebene Zeit nicht eingehalten wird. Je größer dabei die Kennzahl ist, desto schlechter ist dementsprechend die Servicequalität. Alternativ könnte die Servicequalität aber auch berechnet werden, indem als Hilfs-Kennzahl die „Anzahl termingerecht am jeweiligen Ziel eingegangener Sendungen“ gezählt wird. Dabei würde eine große Kennzahl für eine gute Servicequalität sprechen. Auch bei dieser Art der Kennzahlbildung ist es möglich, die verspäteten Sendungen und deren Grad der Verspätung einzubeziehen. Beispielsweise könnten die verspäteten Sendungen von den pünktlichen subtrahiert werden und so die Kennzahl wieder verkleinern. Der Grad der Verspätung lässt sich berücksichtigen, indem die verspäteten Sendungen mit ihren jeweiligen Verspätungsminuten – ggf. unter Vorschaltung eines geeigneten Faktors – multipliziert werden. Auch könnten die Verspätungsminuten zu geeigneten Verspätungsklassen zusammengefasst werden, die dann – mit geeigneten Werten versehen – mit der Anzahl der zu dieser Verspätungsklasse gehörenden Sendungen multipliziert werden, bevor sie von den pünktlichen Sendungen subtrahiert werden. Grundsätzlich hat jedoch diese Methode der Berücksichtigung konkreter Sendungszahlen den Nachteil, dass eine starke Benachteiligung sendungsschwacher Regionen bzw. Depots vorgenommen wird, da diese – selbst wenn sie stark verspätet erreicht werden – aufgrund des geringen Aufkommens nur wenig Einfluss auf die Höhe der Kennzahl haben. Deshalb wurde für die konkreten Berechnungen die zuerst beschriebene Variante der Kennzahl Servicequalität gewählt, bei der die einzelne Relation als solche – unabhängig von ihrer Sendungszahl – in die Kennzahl eingeht. Nachdem die Berechnung der Transportkosten und der Servicequalität beschrieben worden ist, müssen nun diese beiden Werte geeignet in einer eingangs erwähnten Kennzahl integriert werden [BBH07]. Diese Kennzahl wird „Netzqualität“ genannt und wie folgt definiert: = Skalierungsfaktor / ((Transportkosten ⋅ TK − Gewichtsfaktor ) Netzqualitat + (Strafkosten ⋅ SK − Gewichtsfaktor )) Je nach konkreter Aufgabenstellung und der davon abhängenden Bedeutung der Kosten im Verhältnis zu der Bedeutung der Servicequalität können dabei die Transportkosten und die Strafkosten entsprechend gewichtet werden. Die eigentlich
136
H. Heinrichmeyer
relevante Summierung der Kosten erfolgt im Nenner, damit die Kennzahl Netzqualität dann ansteigt, wenn die Kosten sinken. Der Skalierungsfaktor im Zähler dient dazu, die ansonsten sehr kleinen Werte für die Netzqualität (kleiner als Eins) durch Multiplikation mit einer Konstanten in einen gewünschten und besser darstellbaren größeren Zahlenbereich zu überführen. Für die durchgeführten Modellrechnungen wurde folgende Parametrisierung gewählt: = 1.000.000 (TK ⋅ 2 + SK ⋅1). Netzqualitat
6.5
Beschreibung der untersuchten Optimierungsmethoden
Im Vordergrund der hier beschriebenen Arbeiten stand das Ziel, die Leistungsfähigkeit sowohl der von der Forschungsstelle für solche Fragestellungen bisher genutzten Neighborhood Search-Verfahren als auch die von evolutionären Algorithmen zu ermitteln, zu vergleichen und zu verbessern. Die Bearbeitung erfolgte gemeinsam mit dem Methodenteilprojekt M8 „Ganzheitliche Optimierung“ von Prof. Schwefel und Prof. Rudolph und wurde darüber hinaus von den Arbeiten und Diskussionen innerhalb des Arbeitsteams Optimierung befruchtet. In diesem Kapitel werden die vier untersuchten Optimierverfahren näher beschrieben.
6.5.1 Vollständige Enumeration Das Service-Netz mit der optimalen Netzqualität lässt sich nur durch vollständige Enumeration aller Hub-Standorte und aller Depot-Hub-Zuordnungen ermitteln. Bei n Depots und p Hubs müssen (np). pn–p Netze berechnet werden. Aus Laufzeitgründen ist das jedoch nur für sehr kleine n und p praktikabel. Bei 29 Depots mit 1 bis 10 Hubs wären bereits ca. 3,7·1026 Netze zu berechnen. Solche astronomischen Zahlen schließen aufgrund der dafür erforderlichen Dauer selbst beim Einsatz der schnellsten Rechner die Berechnung aller Möglichkeiten aus. Deshalb wurden Experimente mit der Optimierungsmethode „Vollständige Enumeration“ nur mit den kleinsten Probleminstanzen durchgeführt. Für die später beschriebene Leistungsbewertung der Optimierverfahren wurde diese Methode jedoch als Vergleichsbasis herangezogen, auch wenn teilweise keine tatsächlichen Ergebnisse (Netzqualitäten) ermittelt werden konnten. Durch die methodenimmanente Sicherheit, das absolute Optimum in jedem Fall mit einem einzigen Start dieser Methode zu finden, und die Möglichkeit, die Anzahl der dafür erforderlichen Netzberechnungen mit Hilfe oben genannter Formel zu berechnen, konnte diese Methode sehr wohl in die Leistungsbewertung integriert werden.
6
Leistungsbewertung verschiedener Optimierverfahren für das p-Hub-Problem
6.5.2
137
Neighborhood Search-Verfahren nach Klincewicz
Die benutzte Variation der Heuristik nach Klincewicz [Kli91] setzt voraus, dass die Zahl p der zu benutzenden Hub-Standorte (hier: 1 bis 10) vorgegeben ist. Sie startet mit einer zufälligen Initialisierung aller zu benutzenden p Hubs mit je einem der zur Verfügung stehenden Depots und einer eindeutigen Initialisierung der Depot-HubZuordnung, bei der jedes Depot dem geografisch nächstgelegenen Hub zugeordnet wird (Falls es mehrere nächstgelegene Hubs gibt, wird das nächstgelegene Hub mit dem kleinsten Index gewählt). Der eigentliche Verfahrensdurchlauf besteht aus einer Schleife, die für die HubAuswahl zuständig ist und die in der Anzahl zu benutzender Hub-Standorte p durchlaufen wird, wobei in jedem Durchlauf jedes Depot einmal als aktueller Hub-Standort getestet wird, während die anderen p-1 Hub-Standorte in diesem Durchlauf unverändert bleiben. Am Ende eines Durchlaufs wird das Depot, das für die beste Netzqualität sorgt, als aktueller Hub-Standort für den getesteten Hub ausgewählt. Als Depot-Hub-Zuordnung wird bei dieser Variation des Verfahrens immer die triviale Zuordnung zum nächstgelegenen Hub verwendet. Die Wiederholung des Schleifendurchlaufes wird so oft vorgenommen, bis sich in einem kompletten Durchlauf keine Verbesserung der Netzqualität mehr erzielen lässt.
6.5.3
Individuenbasierter evolutionärer Algorithmus
Bei der Bearbeitung der gleichen Aufgabenstellung unter Nutzung evolutionärer Verfahren wurde mit einer sehr primitiven Form der Evolutionsstrategie ohne Schrittweitenanpassung begonnen. Dabei wird in jeder Generation von einem Elter-Netz ein Kind-Netz erzeugt. Dabei überlebt das beste dieser beiden Netze, welches das mit der besseren Netzqualität der beiden miteinander verglichenen Netze ist (siehe Abb. 6.1). Für die Nutzung dieses individuenbasierten evolutionären Algorithmus (im Folgenden auch individuenbasierter EA genannt) wurde ein Mutationsoperator definiert, welcher dafür verantwortlich ist, dass sich Eltern- und Kinder-Generationen unterscheiden können.
Elter-Netz in Generation t
Netzqualität 8,5314
Erzeugung des Kind-Netzes durch Mutation
Abb. 6.1 Individuenbasierter evolutionärer Algorithmus
Kind-Netz in Generation t
Netzqualität 9,8832
Selektion des besten Netzes als Elter-Netz in Generation t+1
Netzqualität 9,8832
138
H. Heinrichmeyer
Die Basis für den hier verwendeten Mutationsoperator bildet der folgende Nachbarschaftsoperator (Neighborhood Generating Operator): Modifiziere die Auswahl der Hub-Standorte bei einem der p Hubs. Er ist insofern mit der Schleife beim vorgestellten Neighborhood Search-Verfahren zu vergleichen. Die Nachbarschaft (Ein-Schritt-Übergangsnachbarschaft) einer Lösung ist die Menge der Lösungen, die durch das einfache Anwenden des Operators erreicht werden kann. Dementsprechend ist die k-Schritt Übergangsnachbarschaft einer Lösung die Menge der Lösungen, die durch das k-fache Anwenden des Operators erreicht werden kann [RHe01]. In jedem Mutationsschritt wird nun die Schrittweite k binomialverteilt mit den Parametern „Anzahl der zugrunde liegenden Variablen“ und der Mutationsrate PMUT bestimmt. Das k-malige Anwenden des Nachbarschaftsoperators wird dann gleichverteilt im Raum der Freiheitsgrade durchgeführt. Der so erzeugte individuenbasierte EA kann hiermit als ein probabilistisches Variable Neigborhood Search-Verfahren [HMl01, MHa97] interpretiert werden, in dem die k-Schritt Übergangsnachbarschaft gemäß einer geeigneten Wahrscheinlichkeitsverteilung (hier Binomialverteilung) gewählt wird.
6.5.4
Populationsbasierter evolutionärer Algorithmus
Als vierte Klasse von Optimierverfahren wurden die populationsbasierten evolutionären Algorithmen (auch populationsbasierte EA genannt) in die Untersuchung einbezogen. Im Unterschied zu den individuenbasierten EA existiert dabei in jeder Generation nicht nur ein Individuum (Transportnetz), sondern mehrere davon, eine sogenannte Population. Bei der Mating Selection entscheidet sich,
Eltern-Population in Generation t Durchführung der Mating Selection
Durchführung der Rekombination und ggf. danach der Mutation Kinder-Population in Generation t Eltern-Population in Generation t Durchführung der Acceptance Selection Eltern-Population in Generation t+1
Abb. 6.2 Evolutionärer Algorithmus mit Populationsgröße 8
6
Leistungsbewertung verschiedener Optimierverfahren für das p-Hub-Problem
139
welche jeweils zwei Individuen (Transportnetze) aus der Eltern-Generation eine Rekombination mit anschließender Mutation durchführen und auf diese Weise neue Individuen für die Kinder-Population erzeugen. Bei den Testreihen mit verschiedenen Populationsgrößen wurden in der Kinder-Population jeweils genau so viele Individuen erzeugt wie in der Eltern-Population. Aus den Individuen beider Populationen wurde anschließend in der Acceptance Selection ausgewählt, welche Individuen in die Eltern-Population der nächsten Generation aufgenommen werden (siehe Abb. 6.2). Der für die Hub-Auswahl entwickelte populationsbasierte EA verwendet die gleiche Codierung und den gleichen Mutationsoperator wie der individuenbasierte EA. Als Selektionsverfahren wurde die so genannte elitist Truncation Selection ausgewählt. Für den Rekombinationsoperator wurde ein Uniform Crossover implementiert, das gültige Lösungen wiederum in gültige Lösungen transformiert, so dass hier auf laufzeitraubende Reparaturmechanismen verzichtet werden konnte [HRe02].
6.6
Probleminstanzen
Um einen guten Bezug zur Praxis sicherzustellen, erfolgten sämtliche Berechnungen mit den Daten dreier verschieden großer Service-Netze, die jeweils auf den Daten von Industriepartnern basieren. Die drei entsprechenden Netze beinhalten 10, 29 bzw. 84 Depots. Die Optimierungsläufe sollten die besten Netze mit 1, 2, 3, …, 10 Hubs ermitteln, wobei als Hubs nur einzelne der 10, 29 bzw. 84 Depots zugelassen waren. Somit standen 30 Probleminstanzen (3 Netzgrößen mit jeweils 10 Hub-Anzahlen) für die Optimierungsläufe zur Verfügung, wobei eine der 30 Instanzen nur eine einzige Lösung besaß und im Weiteren vernachlässigt werden kann. Bei der Aufgabe, 10 Hubs beim Netz mit den 10 Depots zu finden, wird jedes der zehn Depots auch Hub-Standort, so dass es hier nur eine einzige triviale Lösung gibt. Die Anzahl möglicher Lösungen reicht bei den Netzen mit 10 Depots von 1 bis 252 (5 Hubs aus 10 Depots), bei den Netzen mit 29 Depots von 29 (1 Hub aus 29 Depots) bis 20.030010 (10 Hubs aus 29 Depots) und bei den Netzen mit 84 Depots von 84 (1 Hub aus 84 Depots) bis 2,7 Billionen (10 Hubs aus 84 Depots). Die einzelnen Anzahlen werden in Tabelle 6.3 dargestellt [Hei06].
6.7 Auswertungsumfang Da außer bei der vollständigen Enumeration bei den drei anderen Optimierungsmethoden mit einer zufälligen Initialisierung der Hub-Standorte begonnen wird, war bei diesen für die Tests zu beachten, dass die jeweilige Initialisierung nicht zu
140
H. Heinrichmeyer
großen Einfluss auf das Testergebnis nehmen durfte. Aus diesem Grunde wurden hier sämtliche Testläufe für die 29 Probleminstanzen mit jeweils 100 zufällig ermittelten Startsituationen durchgeführt. Protokolliert wurden die erreichte Netzqualität jedes einzelnen der jeweils 100 Testläufe sowie die Anzahl der vorgenommenen Netzbewertungen (Ermittlungen der Kennzahl Netzqualität). Die vollständige Enumeration benötigt naturgemäß nur einen Start und keinerlei Verfahrensparameter. Auch die durchgeführte Neighborhood Search-Heuristik nach Klinkewicz kommt ohne Parameter aus. Anders verhält es sich jedoch bei den individuenbasierten EA. Hier wurden folgende Parameter verwendet: • Anzahl von Generationen: 1, 2, 4, 8, 16, 32, 64, 128, 256, 512, 1.024, 2.048, 4.096, 8.192, 16.384; • Mutationsrate: 1/(10n), 1/(3n), 1/(2n), 1/n, 2/n, 3/n. Um den Experimentierraum bei den populationsbasierten EA zu reduzieren, wurde für die vier Parameter Populationsgröße, Mutationsrate, Selektionsdruck und Abbruchkriterium (maximale Anzahl von Generationen) eine geeignete Vorauswahl zu untersuchender Parametereinstellungen getroffen, die auf Erfahrungen bereits bearbeiteter Optimierungsaufgaben basieren: • • • •
Populationsgröße: 2, 4, 8, 16, 32, 64, 128, 256; Mutationsrate: 1/(10n), 1/(3n), 1/(2n), 1/n, 2/n, 3/n; Selektionsdruck: 2, 4, 8, 16; Anzahl von Generationen: 1, 2, 4, 8, 16, 32, 64, 128, 256, 512.
Durch die Kombination dieser Parameter ergaben sich 8 · 6 · 4 = 192 verschiedene Einstellungen, mit denen die jeweils 100 Auswertungsläufe gestartet werden mussten. Alle Läufe gingen über 512 Generationen, wobei die Zwischenergebnisse nach jeder Zweierpotenz herausgeschrieben wurden, um für die Auswertung der entsprechenden Generationszahl zur Verfügung zu stehen. Bei dieser Vielfalt der Parameterkombinationen wird deutlich, dass die Untersuchungen für die populationsbasierten EA (PEA) im Vergleich zu denen für die Neighborhood Search-Heuristik (NSH) und die individuenbasierten EA (IEA) ein Vielfaches an Rechnerkapazität in Anspruch nahmen. Es ergaben sich für die 29 Probleminstanzen mit 10, 29 und 84 Depots insgesamt 577.100 durchgeführte Optimierungsläufe. Diese setzten sich wie folgt zusammen: • 10 Depots: 900 NSH + 5.400 IEA + 172.800 PEA = 179.100 Läufe • 29 Depots: 1.000 NSH + 6.000 IEA + 192.000 PEA = 199.000 Läufe • 84 Depots: 1.000 NSH + 6.000 IEA + 192.000 PEA = 199.000 Läufe Dabei beanspruchten die Rechnerläufe aufgrund unterschiedlicher Netzgrößen, Populationsgrößen und Generationsanzahlen sehr unterschiedliche Rechnerkapazitäten, so dass die obengenannte Anzahl von 577.100 durchgeführten Optimierungsläufen hinsichtlich der Laufzeit wenig aussagekräftig ist, aber einen guten Überblick über den Umfang der durchgeführten Experimente gibt, die die Grundlage für die anschließend vorgenommene Leistungsbewertung darstellten [Hei05].
6
Leistungsbewertung verschiedener Optimierverfahren für das p-Hub-Problem
6.8
141
Leistungsbewertung
Ziel der empirischen Untersuchungen war es, für die 29 Probleminstanzen die effizientesten Optimierverfahren und Parametereinstellungen zu ermitteln. Bei der zu diesem Zweck vorgenommenen Leistungsbewertung wurde jedoch nicht nur die erreichbare Lösungsqualität der Verfahren bewertet. Vielmehr wurden auch Faktoren wie Konvergenzgeschwindigkeit und Konvergenzsicherheit berücksichtigt. Als abstraktes Maß für die Laufzeit wurde die Anzahl der Netzberechnungen verwendet und nicht die Laufzeit gemessen, weil diese stark von der Leistungsfähigkeit der genutzten Rechner abhängig ist und zumindest in ihrer Höhe mit den Zahlen zukünftiger Rechnergenerationen nicht mehr vergleichbar ist. Da jedes vom jeweiligen Optimierverfahren erzeugte Netz anschließend bewertet wird, um es mit den zuvor erzeugten Netzen vergleichen zu können, entspricht die Anzahl Netzberechnungen der Anzahl erzeugter Netze und stellt somit eine Kennzahl dar, die die gleiche Aussagekraft wie die Laufzeit hat, im Gegensatz zu dieser jedoch rechnerunabhängig ist [RHe02]. Der Maßstab bei allen Untersuchungen war für jede der 29 Probleminstanzen jeweils das beste Ergebnis (die beste Netzqualität), das von allen Verfahren im Laufe der Untersuchung ermittelt werden konnte, wobei in keinem Fall mit Sicherheit gesagt werden kann, dass es sich dabei um das globale Optimum handelt. Ein Verfahren, das für eine Probleminstanz mit keinem der Läufe diese beste gefundene Netzqualität erreicht hat, wurde somit bei der Untersuchung der Effizienz der Lösungsfindung nicht weiter berücksichtigt. Anhand der letzten sieben Spalten von Tabelle 6.1, in der die Ergebnisse der verschiedenen Optimierverfahren und ihrer Parametereinstellungen gegenübergestellt sind, soll die Vorgehensweise bei der Leistungsbewertung beschrieben werden. Während die Spalten „beste erreichte Netzqualität aus 100 Läufen“, „durchschnittliche Anzahl Netzberechnungen für einen Lauf“, „Anzahl Läufe mit bester eigener Netzqualität“ sowie „Anzahl Läufe mit bester bekannter Netzqualität“ originäre Messergebnisse sind, wurden die Werte in den drei folgenden Spalten darTabelle 6.1 Detail-Leistungsbewertungstabelle
142
H. Heinrichmeyer
aus abgeleitet. Der Multistartfaktor für 90%-ige Wahrscheinlichkeit für das Finden der besten bekannten Lösung (hier 8,999685) gibt an, wieviele Testreihen gestartet werden müssen, damit mit 90%-iger Wahrscheinlichkeit mindestens eine davon die beste bekannte Lösung findet [Rei03]. Die Berechnung des Multistartfaktors soll am Beispiel der dritten Zeile erklärt werden. Der individuenbasierte EA mit der Mutationsrate 1/10n und der angegebenen Anzahl Generationen (512) erzielt die beste erreichte Netzqualität in 20 der 100 Läufe (20%). In 80 Läufen (80%) lagen die Ergebnisse dieses Verfahrens darunter (100– 20%). Mit einem einzigen Start erreicht man ein ausreichendes Ergebnis also nur mit 20%-iger Wahrscheinlichkeit. Diese steigt nach zwei Starts auf 36% (in 80% von 80% der Fälle – also in 64% – liegt man nach zwei Starts unter der besten erreichten Netzqualität, also in den verbleibenden 36% (100–64%) bei der erforderlichen Netzqualität. Es muss also die Wahrscheinlichkeit für eine schlechtere Lösung so oft mit sich selbst multipliziert werden, bis die Restwahrscheinlichkeit für die gute Lösung mindestens 90% beträgt. Im Beispiel beträgt 80%11 genau 8,59% und die Restwahrscheinlichkeit damit 91,41%. Also kann man erst nach 11 Starts zu 90% sicher sein, dass man mindestens einmal die gewünschte Netzqualität von 8,999685 erreicht hat. Diese Zahl 11 wird deshalb in der Spalte „Multistartfaktor“ angegeben. Analog würde der Multistartfaktor für z. B. eine 95%-ige Wahrscheinlichkeit berechnet, falls eine noch größere Sicherheit für erforderlich gehalten wird. Für den Vergleich der Verfahren untereinander wird der Multistartfaktor mit der durchschnittlichen Anzahl Netzberechnungen für einen Lauf multipliziert, also die beiden hellgelb markierten Spaltenwerte miteinander. Die Anzahl Netzberechnungen entspricht dabei der Anzahl der Zielfunktionsauswertungen und gibt an, wie oft die Kennzahl „Netzqualität“ berechnet worden ist. Das Ergebnis der Multiplikation findet sich in der zweitletzten Spalte und gibt die Anzahl Netzberechnungen an, die erforderlich ist, um mit dem jeweiligen Verfahren mit 90%-iger Sicherheit eine ausreichend gute Lösung zu erzielen. Eine eingetragene Null in dieser Spalte würde signalisieren, dass das jeweilige Verfahren in keinem der 100 Läufe das geforderte Ergebnis erreicht hat. Der Vergleich dieser vorletzten Spalte ergibt nun in der obigen Beispieltabelle, dass der individuenbasierte EA mit der Mutationsrate 1/10n und 512 Generationen für diese Probleminstanz am effizientesten ist. Hierfür müsste das Verfahren elfmal aufgerufen (Multistartfaktor) und 5,643 Netzrechnungen „investiert“ werden. Dargestellt werden bei den individuenbasierten EA für jede der sechs betrachteten Mutationsraten das effizienteste der 15 Abbruchkriterien (maximale Generationenanzahl). Für die populationsbasierten EA wurde für jede der 8 betrachteten Populationsgrößen die effizienteste Kombination aus den 9 Abbruchkriterien (maximale Generationenanzahl), 6 Mutationsraten und 4 Selektionsdrücken ermittelt. In der zugehörigen Tabelle ist diese effizienteste Kombination der Verfahrensparameter in der Zeile für die jeweilige Populationsgröße aufgeführt. Die Beschreibung des Vorgehens ist aus Gründen der besseren Verständlichkeit am konkreten Beispiel des Netzes mit 84 Depots und 3 Hubs erfolgt. Es ergeben sich bei anderen Netzen mit anderen Depotanzahlen, anderen Mengenbeziehungen
6
Leistungsbewertung verschiedener Optimierverfahren für das p-Hub-Problem
143
und anderen Hub-Anzahlen natürlich andere Werte bezüglich der erreichten Netzqualitäten und Anzahl Netzberechnungen, aber auch hinsichtlich der effizientesten Methode.
Tabelle 6.2 Die effizientesten Verfahren der 30 Probleminstanzen
144
6.9
H. Heinrichmeyer
Einordnung der Ergebnisse
Eine erste Verdichtung der Ergebnisse der Leistungsbewertung wird in Tabelle 6.2 dargestellt. Dazu sind die Ergebnisse jeder einzelnen Probleminstanz zu einem „Vierzeiler“ zusammengeführt worden. In der ersten Zeile stehen jeweils die Werte der vollständigen Enumeration und in der zweiten Zeile die Werte für die Neighborhood Search-Heuristik nach Klincewicz. Die Werte jeder einzelnen Probleminstanz sind unverändert der Detail-Leistungsbewertungstabelle dieser Instanz (analog zu Tabelle 6.1) entnommen worden. Demgegenüber handelt es sich bei den Werten in den Zeilen 3 und 4 um die Zeilen, die in der DetailLeistungsbewertungstabelle als die effizientesten der beiden Methodenklassen individuenbasierter bzw. populationsbasierter EA bereits farbig gekennzeichnet worden sind. Letztlich befindet sich in Tabelle 6.2 zu jeder Instanz und jeder der vier Methodenklassen die effizienteste Variante, wobei die insgesamt effizienteste dieser vier Methoden für die jeweilige Instanz mit der gewählten Farbe der Methodenklasse markiert ist (hellrot: vollständige Enumeration; blau: Neighborhood Search-Heuristik; hellgrün: individuenbasierter EA; dunkelgrün: populationsbasierter EA). Die Analyse der 30 Probleminstanzen zeigt zunächst, dass die hellrote Markierung bei vielen der Instanzen mit 10 Depots und bei allen Instanzen mit einem Hub dominiert. Der Suchraum all dieser Instanzen ist mit maximal 210 möglichen Lösungen so gering, dass hier die vollständige Enumeration problemlos durchgeführt werden kann und aufgrund des Multistartfaktors von 1 sehr effizient arbeitet. In den vier anderen dieser 12 einfachen Instanzen wird die vollständige Enumeration – teilweise nur knapp – von der Neighborhood Search-Heuristik geschlagen. Auch die Experimente mit den restlichen neun Instanzen mit 29 Depots haben gezeigt, dass die Aufgabenstellung zu einfach und damit der Suchraum zu klein ist, als dass sich Verfahren wie evolutionäre Algorithmen (individuenbasierte EA und populationsbasierte EA) lohnen würden, die nicht sofort in lokalen Optima stecken bleiben, sondern auch stärker im Suchraum springen. Hier reicht das Neighborhood Search-Verfahren mit zwei Ausnahmen (4 und 5 Hubs) immer aus. Erst bei den Instanzen mit 84 Depots wurde bis auf die einfachen Problemstellungen mit 1 bis 2 Hubs die beste bekannte Lösung mit populationsbasierten EA sehr effizient gefunden. In fünf dieser acht Instanzen waren die populationsbasierten EA allen anderen Verfahren überlegen, in den drei anderen wurden sie teilweise nur sehr knapp geschlagen. Insgesamt kann festgehalten werden, dass sich bei allen kleinen Instanzen dieser Aufgabenstellung mit den Problemgrößen 10 Depots und 29 Depots die modifizierte Neighborhood Search-Heuristik nach Klincewicz als effizient und ausreichend leistungsfähig erwiesen hat. Erst bei den komplexeren Instanzen mit 84 Depots und mindestens 4 Hubs sind die populationsbasierten EA den anderen Methoden jedoch teilweise deutlich überlegen.
6
Leistungsbewertung verschiedener Optimierverfahren für das p-Hub-Problem
6.10
145
Komplexitätsklassen
Offensichtlich hat die Problemgröße, also die Anzahl möglicher Lösungen, einen entscheidenden Einfluss darauf, welche Methodenklasse bei der jeweiligen Probleminstanz am effizientesten arbeitet. Damit bei der Analyse und Verallgemeinerung der Ergebnisse von den 30 konkret untersuchten Probleminstanzen abstrahiert werden kann, sind die Problemgrößen dieser 30 Probleminstanzen zunächst in sechs verschiedene Komplexitätsklassen eingeteilt worden. Dabei wurde als Abgrenzung der Komplexitätsklassen jeweils der Faktor 100 gewählt. Die kleinste Komplexitätsklasse 1 umfasst somit alle Probleminstanzen mit weniger als 100 möglichen Lösungen. Die sieben davon betroffenen der 30 untersuchten Probleminstanzen sind in Tabelle 6.5 hellgrün gekennzeichnet. Die nächste Komplexitätsklasse 2 besteht aus allen Instanzen mit 100 bis 9.999 möglichen Lösungen, die in Tabelle 6.2 grün markiert sind (8 Instanzen). Mit jeder Verhundertfachung der möglichen Netze ergibt sich die Grenze zur nächstgrößeren Komplexitätsklasse. Die sechste und größte Komplexitätsklasse wurde schließlich so definiert, dass alle Probleminstanzen mit 10.000.000.000 (10 Milliarden) und mehr möglichen Lösungen darin enthalten sind. Im konkreten Fall gehören die drei Probleminstanzen mit 8, 9 oder 10 Hubs aus 84 Depots zu dieser Komplexitätsklasse 6. Die Entscheidung für die Anzahl der Klassen und deren Abgrenzung ist willkürlich erfolgt und hat sich an den vorliegenden 30 Probleminstanzen orientiert, mit denen die Experimente durchgeführt worden sind. Selbstverständlich hätten auch mehr oder weniger Komplexitätsklassen als sechs definiert werden können und diese anders als beschrieben voneinander abgegrenzt werden können. Auf die im Folgenden beschriebene Methodik, mit der die Ergebnisse vorhandener Experimente verallgemeinert werden können, hätte das allerdings keinen Einfluss. Im Weiteren geht es darum, die durchgeführten Experimente derart auszuwerten, dass nicht mehr nur für jede einzelne der 30 Probleminstanzen die effizienteste Methode ermittelt werden kann, sondern für jede der sechs Komplexitätsklassen. Zu diesem Zweck wird auf die originären und nicht verdichteten Ursprungsergebnisse zurückgegriffen. Dazu wird noch einmal auf die Detail-Leistungsbewertungstabelle (Tabelle 6.1) verwiesen, die in den Zeilen 3 und folgende bereits eine Verdichtung darstellt. Die lila gekennzeichneten Parameterkombinationen geben dort lediglich die effizienteste Kombination für die sechs verschiedenen benutzten Mutationsraten bei den individuenbasierten EA bzw. für die acht verschiedenen Populationsgrößen bei den populationsbasierten EA an. Hinter jeder dieser Zeilen verbergen sich jeweils die Ergebnisse zahlreicher weiterer Parameterkombinationen, die mehr oder weniger weit entfernt von den hier dargestellten besten Ergebnissen liegen. Mit Hilfe der letzten Spalte der Detail-Leistungsbewertungstabelle wird nun erklärt, wie auch diese nicht optimalen Ergebnisse dennoch in die weiteren Analysen einbezogen werden können. Die in der letzten Spalte stehende Effizienz-Kennzahl gibt an, wie weit die Effizienz der jeweiligen Parameterkombination von der Effizienz der effizientesten Parameterkombination dieser Probleminstanz entfernt ist. Zu diesem Zweck wird der Anzahl Netzberechnungen
146
H. Heinrichmeyer
für die beste bekannte Lösung aus der Spalte davor die Effizienz-Kennzahl 100,00 zugeordnet – das entspricht einer Effizienz von 100 Prozent bzw. der maximalen Effizienz für diese Probleminstanz. Für jede einzelne Parameterkombination wird ihre Effizienz-Kennzahl ermittelt, indem die Anzahl Netzberechnungen der besten bekannten Lösung durch die Anzahl Netzberechnungen dieser Parameterkombination geteilt und mit 100 multipliziert wird. Am Beispiel von Zeile 4 bedeutet das: 100·5.643/12.294 = 45,90. Auf diese Weise liegen für alle Parameterkombinationen einer jeden Probleminstanz solche Effizienz-Kennzahlen vor, insgesamt 2.012 pro Probleminstanz [1 für vollständige Enumeration, 1 für Neighborhood Search, 90 für individuenbasierte EA (6 Mutationsraten·15 Generationsanzahlen) und 1.920 für populationsbasierte EA (8 Populationsgrößen·6 Mutationsraten·4 Selektionsdrücke·10 Generationsanzahlen)]. Im Weiteren werden nun die Effizienz-Kennzahlen aller Probleminstanzen zusammengeführt, die zur gleichen Komplexitätsklasse gehören. Im Fall der Komplexitätsklasse 1 sind das die sieben Probleminstanzen 1, 2, 8, 9, 10 Hubs aus 10 Depots sowie 1 Hub aus 29 Depots und 1 Hub aus 84 Depots. Aus den jeweils sieben Einzelwerten der insgesamt 2.012 verschiedenen Parameterkombinationen wird nun die durchschnittliche Effizienz-Kennzahl dieser Parameterkombination für diese Komplexitätsklasse gebildet. Die 2.012 durchschnittlichen EffizienzKennzahlen werden absteigend sortiert, und die jeweils besten drei Verfahren einer jeden Komplexitätsklasse werden mit ihren Parameterkombinationen in Tabelle 6.4 dargestellt. Der maximal erreichbare Wert der durchschnittlichen Effizienz-Kennzahl eines Verfahrens beträgt 100,00 und wird dann erreicht, wenn alle Probleminstanzen dieser Komplexitätsklasse von diesem Verfahren (bzw. dieser Parameterkombination) am effizientesten gelöst werden. Die vollständige Enumeration erreicht beispielsTabelle 6.3 Größenordnung der 6 Komplexitätsklassen und Zuordnung der 30 Probleminstanzen Effizienzkennzahl
6
Leistungsbewertung verschiedener Optimierverfahren für das p-Hub-Problem
147
Tabelle 6.4 Die effizientesten Verfahren der 6 Komplexitätsklassen
weise in Komplexitätsklasse 1 mit 94,29 den Maximalwert 100,00 deshalb nicht, weil die beiden Instanzen 2 aus 10 und 8 aus 10 am effizientesten mit dem Neighborhood Search-Verfahren gelöst werden (siehe Tabelle 6.2) und somit eben nicht mit der vollständigen Enumeration, die in den fünf anderen Instanzen dieser Komplexitätsklasse dominiert. Mit Hilfe dieser Methodik lässt sich jetzt für jede Komplexitätsklasse nicht nur ablesen, welches Verfahren hier am effizientesten arbeitet, sondern auch, um wieviel effizienter es gegenüber den nächsten Verfahren ist. Die Probleminstanzen der Komplexitätsklasse 1 sind allesamt so einfach und haben eine so kleine Anzahl möglicher Lösungen, dass hier die Methode der vollständigen Enumeration eingesetzt werden kann und dabei allen anderen deutlich überlegen ist. Doch bereits in Komplexitätsklasse 2 mit etwas schwierigeren Aufgabenstellungen wird die vollständige Enumeration auf Platz 2 verdrängt, und in den folgenden Klassen erscheint sie überhaupt nicht mehr auf vorderen Rängen. Auch die individuenbasierten EA erscheinen nur in den beiden kleinsten Komplexitätsklassen im Vorderfeld und kommen dabei über Rang 3 nicht hinaus. Für praktische Aufgabenstellungen mit realistischen Anzahlen von Depots und Hubs erscheinen beide Methoden als nicht effizient genug. Die Neighborhood Search-Heuristik nach Klincewicz erscheint in allen sechs Komplexitätsklassen im Vorderfeld und steht dabei viermal an erster Stelle. Dieses Verfahren kann somit als eindeutiger Gewinner der vorgenommenen Leistungsbewertung für die Hub-Auswahl bezeichnet werden. Wer Aufgabenstellungen mit maximal 100 Depots zu bearbeiten hat, von denen maximal 10 auch als Hub fungieren sollen, ist mit der Neighborhood Search-Heuristik nach Klincewicz auf der sicheren Seite. Das gilt umso mehr, wenn man lediglich ein einziges Verfahren verwenden möchte. Viele der berechneten Probleminstanzen sind von ihrem Lösungsraum her zu klein, als dass die populationsbasierten EA dort ihre Stärken ausspielen könnten. Erst in der schwierigsten Komplexitätsklasse 6 mit den drei Probleminstanzen 8, 9
148
H. Heinrichmeyer
oder 10 Hubs aus 84 Depots haben sie sich als am effizientesten erwiesen. Es kann davon ausgegangen werden, dass die Vorteile der populationsbasierten EA gegenüber den anderen Verfahren dann noch stärker zum Vorschein kommen würden, wenn noch schwierigere Problemstellungen zu lösen wären, beispielsweise solche mit mehr als 100 Depots oder mit mehr als 10 Hubs.
6.11 Anwendung auf weitere Probleminstanzen Mit den bisher beschriebenen Ergebnissen kann man nun anhand von Tabelle 6.3 ermitteln, zu welcher Komplexitätsklasse die 30 bearbeiteten Probleminstanzen mit den 10, 29 und 84 Depots gehören, und danach anhand von Tabelle 6.4 ablesen, welches Verfahren dafür empfohlen wird. Damit fehlen jedoch Empfehlungen, mit welchen Verfahren man andere als die bearbeiteten Probleminstanzen lösen sollte, so z. B. die Aufgabe, 4 Hubs aus 21 Depots oder 7 Hubs aus 65 Depots zu finden. Für diesen letzten Schritt auf dem Wege zu einer allgemeinen Anwendbarkeit der Ergebnisse wurde für jede Depotanzahl zwischen 10 und 100 und für jede HubAnzahl zwischen 1 und 10 ermittelt, zu welcher der sechs Komplexitätsklassen das jeweilige Problem gehört. Die Ergebnisse finden sich in Tabelle 6.5. Die allgemeine Anwendbarkeit der hier vorgenommenen Leistungsbewertung ergibt sich nun dadurch, dass für eine konkrete Aufgabenstellung zunächst aus Tabelle 6.5 die Komplexitätsklasse der Aufgabenstellung ermittelt wird und dann aus Tabelle 6.4 bei der jeweiligen Komplexitätsklasse das effizienteste Verfahren ausgelesen wird.
Tabelle 6.5 Zuordnung diverser Probleminstanzen zu den Komplexitätsklassen
6
Leistungsbewertung verschiedener Optimierverfahren für das p-Hub-Problem
6.12
149
Zusammenfassung und Ausblick
Am Beispiel des p-Hub-Problems wurde dargestellt, auf welche Weise verschiedene Optimierverfahren hinsichtlich ihrer Effizienz miteinander verglichen werden können. Die Vorgehensweise wurde mit vier verschiedenen Methodenklassen experimentell durchgeführt und beschrieben und lässt sich problemlos auf andere Optimierungsmethoden übertragen. Durch die Berücksichtigung der rechnerunabhängigen Einheit „Netzberechnungen“ ist es gelungen, eine Vergleichbarkeit der Ergebnisse auch mit solchen späteren Berechnungen zu gewährleisten, die mit deutlich leistungsstärkeren Prozessoren durchgeführt werden. Der Multistartfaktor als Maß für die erforderlichen Wiederholungen eines Experimentes mit unterschiedlichen Initialisierungen, um mit selbst gewählter Sicherheit ein ausreichend gutes Optimierungsergebnis zu erzielen, ergibt bei Multiplikation mit den durchschnittlich pro Experiment durchzuführenden Netzberechnungen für jede Methode mit ihrer jeweiligen Parameterkombination die für den Vergleich der Methoden erforderliche Kennzahl „Anzahl Netzberechnungen für ausreichende Sicherheit“, mit deren Hilfe die Weiterentwicklung zur Kennzahl „Effizienzbewertung“ und damit die Zusammenführung der Ergebnisse verschiedener Probleminstanzen möglich geworden ist. Die Zuordnung aller denkbaren Probleminstanzen zu sechs verschiedenen Komplexitätsklassen ermöglicht abschließend, auch für solche Probleminstanzen Empfehlungen zum Einsatz bestimmter Methoden auszusprechen, für die bislang keine Experimente durchgeführt worden sind. Diese Verallgemeinerung beruht auf den Experimenten mit 30 verschiedenen Probleminstanzen aus letztlich drei verschiedenen Netzgrößen. Für die Zukunft wäre es wünschenswert, Experimente mit anderen Netzgrößen durchzuführen, um auf diese Weise mehr verschiedene Probleminstanzen für die Herleitung der Empfehlungen für die sechs Komplexitätsklassen heranziehen zu können. Einschränkend sei darauf hingewiesen, dass sämtliche Experimente aus Laufzeitgründen mit Netzen durchgeführt worden sind, bei denen die Zuordnung jedes Depots ausschließlich an den nächstgelegenen Hub zugelassen war. In der Praxis kommen jedoch durchaus auch Zuordnungen zu anderen, weiter entfernten Hubs vor. Auf solche Netze lassen sich die Ergebnisse nicht übertragen, da verschiedene Depot-Hub-Zuordnungen die Anzahl möglicher Netze bei gegebener Anzahl von Depots und zu optimierender Hubs vervielfachen. Es wird erwartet, dass bei solchen Netzstrukturen aufgrund der gesteigerten Komplexität der Einsatz von populationsbasierten EA wesentlich effizienter ist als die verwendete Neighborhood SearchHeuristik, die für solche Aufgabenstellungen ohnehin erweitert werden müsste. Die vorgestellte Methodik der Leistungsbewertung wurde zwischenzeitlich auch bei der Aufgabe der Standortoptimierung gewinnbringend angewendet. Mit entsprechenden Anpassungen lässt sie sich für viele andere Optimierungsprobleme anwenden. Die fortschreitende Entwicklung der Rechnerkapazitäten lässt zudem erwarten, dass zukünftige Experimente deutlich schneller zu verwertbaren Ergebnissen führen, als es für die hier beschriebene Aufgabenstellung der Fall war.
150
H. Heinrichmeyer
Abschließend bleibt festzuhalten, dass die aufgezeigte Methodik zum effizienten Einsatz der bislang und zukünftig entwickelten Optimierverfahren für verschiedene logistische Aufgabenstellungen mit Optimierungscharakter beitragen und so dazu führen wird, dass die Planung und Optimierung von Service-Netzen zukünftig noch effizienter und mit noch besseren Ergebnissen vorgenommen werden kann.
Literatur [BBH07] Bernsmann A, Buchholz P, Heinrichmeyer H et al. (2007) Bewertungs- und Dimensionierungsmethoden im Sonderforschungsbereich 559. Technical Report – Sonderforschungsbereich 559 „Modellierung großer Netze in der Logistik“ 07002, ISSN 1612-1376 [CBH05] Clausen U, Bernsmann A, Heinrichmeyer H (2005) Entwicklungen und Erfolgsfaktoren für KEP-Dienste in Europa. Jahrbuch der Logistik. Verlag free beratung Gesellschaft für Kommunikation im Marketing mbH, Korschenbroich, S 28 [Gra99] Graf H-W (1999) Netzstrukturplanung – Ein Ansatz zur Optimierung von Transportnetzen. Dissertation, Universität Dortmund, Fakultät Maschinenbau, Verlag Praxiswissen, Dortmund, ISBN 3-932775-49-X [Hei00] Heinrichmeyer H (2000) Kennzahlen für die Beschreibung von Service-Netzen. Interner Bericht – Sonderforschungsbereich 559 „Modellierung großer Netze in der Logistik“, Dezember 2000 [Hei05] Heinrichmeyer H (2005) Performance evaluation of different methods for the p-hub problem. Vortrag, IFORS 2005, 17th Conference of the International Federation of Operational Research Societies, Honolulu, Juli 2005 [Hei06] Heinrichmeyer H (2006) Leistungsbewertung verschiedener Optimierverfahren für das p-hub-Problem. Proceedings der 37. Sitzung der Arbeitsgruppe „Logistik und Verkehr“ der Gesellschaft für Operations Research im Rahmen des Workshops zur Planung von großen Transportnetzen, Universitätsbibliothek Braunschweig, Braunschweig. http://www.digibib.tubs.de/?docid=00002467, S 225–236 [HMl01] Hansen P, Mladenovic N (2001) Variable neighborhood search. In: Pardalos PM, Resende MGC, Resende MGC (Hrsg) Handbook of applied optimization. Oxford University Press [HRe00] Heinrichmeyer H, Reinholz A (2000) Hub-Standortoptimierung und Depotzuordnung. Interner Bericht – Sonderforschungsbereich 559 „Modellierung großer Netze in der Logistik“, Dezember 2000 [HRe02] Heinrichmeyer H, Reinholz A (2002) Optimizing transport costs and service quality of a p-hub transportation network with neighbourhood search and evolutionary algorithms. Vortrag, IFORS 2002, 16th Conference of the International Federation of Operational Research Societies, University of Edinburgh, Edinburgh, UK, Juli 2002 [HRe03] Heinrichmeyer H, Reinholz A (2003) Leistungsbewertung von Optimierungsverfahren für die Hub-Auswahl und die Depot-Hub-Zuordnung bei Service-Netzen. Technical Report – Sonderforschungsbereich 559 „Modellierung großer Netze in der Logistik“ 03028, ISSN 1612-1376 [Kli91] Klincewicz JG (1991) Heuristics for the p-hub location problem. Eur J Oper Res 53(1):25–37 [MHa97] Mladenovic N Hansen P (1997) Variable neighborhood search. Comput Oper Res 24:1097–1100 [Rei03] Reinholz A (2003) Ein statistischer Test zur Leistungsbewertung von iterativen Variationsverfahren. Technical Report – Sonderforschungsbereich 559 „Modellierung großer Netze in der Logistik“ 03027
6
Leistungsbewertung verschiedener Optimierverfahren für das p-Hub-Problem
151
[RHe01] Reinholz A, Heinrichmeyer H (2001) Optimierung logistischer Systeme mit Evolutionären Algorithmen. Vortrag, 1. Workshop SFB 559 und SAP „Optimierung logistischer Systeme“, Walldorf, Januar 2001 [RHe02] Reinholz A, Heinrichmeyer H (2002) Optimierung logistischer Systeme mit Evolutionären Algorithmen. Vortrag, 4. Treffen des wissenschaftlichen und industriellen Beraterkreises des SFB 559, Fraunhofer IML, Dortmund, Dezember 2002 [VHe02] Vastag A, Heinrichmeyer H (2002) Planung komplexer Transportnetze im Spannungsfeld zwischen Kosten und Servicequalität. Logistik Manage 1(4):51–57
Kapitel 7
Ein prozess- und objektorientiertes Modellierungskonzept für praxisnahe Rich Vehicle Routing Problems Andreas Reinholz und Holger Schneider
7.1
Einleitung
Im Zuge der Globalisierung der Wirtschaft kommt es zu einem rapide anwachsenden Austausch von Waren auf der Erde. Um dem zunehmenden Aufkommen und Kostendruck zu begegnen, verwenden immer mehr Transporteure computergestützte Planungssoftware, in der die Tourenplanung eine wesentliche Komponente ist. Innerhalb der Tourenplanung müssen schwierige Optimierungsaufgaben gelöst werden, die in der einschlägigen Literatur als Vehicle Routing Problems (VRP) bezeichnet werden. Neben dem Traveling Salesman Problem (TSP) ist das Vehicle Routing Problem eine der meist untersuchten Optimierungsaufgaben. Seine Bedeutung als schwierige Optimierungsaufgabe mit Praxisbezug spiegelt sich in über 1.000 Veröffentlichungen wieder. Daher stehen viele spezielle Lösungsansätze für idealisierte Vehicle Routing Problems zur Verfügung, die in ihrer Ausprägung jedoch meistens sehr weit von realen Tourenplanungsproblemen entfernt sind. Im Gegensatz dazu zeichnet sich kommerzielle Tourenplanungssoftware teilweise dadurch aus, dass in ihr viele praxisrelevante Modellierungsaspekte und Restriktionen abgebildet werden können. Allerdings setzen diese vorwiegend veraltete Optimierungstechniken wie zum Beispiel das Savings-Verfahren von Clark&Wright ein. Um die Schere zwischen den Anforderungen der Praxis und der Leistungsfähigkeit aktueller Optimierungsverfahren zu schließen, soll im Rahmen dieser Arbeit ein breit angelegtes Konzept zur Modellierung verschiedenartiger, praxisrelevanter Vehicle Routing Problems vorgestellt, das den Einsatz moderner Metaheuristiken als Optimierungsverfahren ermöglicht.
A. Reinholz ( ) Technische Universität Dortmund Fakultät für Informatik, Informatik XI 44221 Dortmund, Deutschland E-mail:
[email protected] P. Buchholz und U. Clausen (Hrsg.), Große Netze der Logistik, DOI 10.1007/978-3-540-71048-6_7, © Springer-Verlag Berlin Heidelberg 2009
153
154
A. Reinholz und H. Schneider
7.2 Vehicle Routing Problem Das Vehicle Routing Problem (VRP) gehört zur Klasse der kombinatorischen Optimierungsprobleme und zählt zu dessen beliebtesten Aufgaben. Dabei werden, ausgehend von einem zentralen Lager, dem Depot, die notwendigen Touren für eine Fahrzeugflotte berechnet, so dass der individuelle Güterbedarf einer Menge von Kunden gestillt wird. Pro Fahrzeug wird eine separate Route berechnet, deren Startund Zielpunkt an ein und demselben Depot liegen. Daneben darf jeder Kunde nur einmal besucht werden. Ziel ist es, die Kosten der Touren zu minimieren. Dabei gelten verschiedene Kriterien, wie die zurückgelegte Fahrstrecke oder die Anzahl der benötigten Fahrzeuge. Wenn die maximale Ladungskapazität eines Fahrzeuges beim VRP beschränkt wird, so wird diese Variante das Capacitated Vehicle Routing Problem (CVRP) genannt. Es gibt verschiedene Problemdefinitionen für das CVRP, die teilweise an die algorithmische Herangehensweise angepasst sind (vgl. [LLR+85, BGo83]). Im Folgenden soll eine Definition vorgestellt werden, die den Algorithmen der vorliegenden Arbeit entsprechen.
7.2.1
Definition: Capacitated Vehicle Routing Problem
Das Capacitated Vehicle Routing Problem (CVRP) wird spezifiziert durch einen gerichteten Graph G = (V, E), eine (n+1 × n+1)-Matrix C, ein uniformes Kostenmaß Q und einen Bedarfsvektor D = {d1, …, dn}. Hier besteht G aus der Knotenmenge V = {v0, v1, …, vn}, für die v0 das Depot und V = V \ {v0} die Kundenmenge bezeichnet, sowie der Kantenmenge E={(vi,vj)|vi, vj ∈ V, i≠ j}. Q ist die nicht zu überschreitende uniforme Kapazitätsschranke eines Fahrzeuges. Die Elemente cij ∈ C geben die mit der Kante (vi, vj) assoziierten Kosten an. Das Element di, 1≤ i≤ n, des Vektors D gibt den Güterbedarf des Kunden vi an. Eine gültige Lösung des CVRP liegt genau dann vor, wenn eine Partition der MengeV in { R1 ,…, Rk } mit 1 ≤ k ≤ n existiert , alle Ri mit i = 1, … , k ein einfacher Zyklus ri existiert mit f ur
(
)
ri = v0 , vi1 , vi2 , … , vi R , v0 , vi j ∈ Ri und j = 1, … , Ri i
Ri
und ∑ di j ≤ Q ∀ i = 1,… , k gilt. j =1
Die Kosten einer Tour ri werden durch
(7.1)
(7.2)
(7.3)
7 Ein prozess- und objektorientiertes Modellierungskonzept
Ri
C (ri ) = ∑ ci j ,i j +1 j =0
mit i0 = i Ri +1 = 0
155
(7.4)
quantifiziert, so dass die Summe k
∑ C (ri )
(7.5)
i =1
der Kosten aller Touren minimiert werden. Die Begriffe Tour und Tourenplan werden in diesem Zusammenhang folgendermaßen abgegrenzt.
7.2.2
Definition: Tour
Eine Tour ist ein einfacher Zyklus, der gemäß Bedingung (7.2) definiert ist. Start und Ziel einer Tour liegen auf demselben Knoten, welcher ein Depot darstellt und o. B. d. A. v0 sei.
7.2.3
Definition: Tourenplan
Die Menge aller Touren, die gemäß der Bedingung (7.1) eine Partition des zugrunde liegenden Graphen bilden, werden als Tourenplan bezeichnet. Die Abb. 7.1 stellt einen möglichen VRP-Graphen dar. Wird das CVRP auf einem ungerichteten Graphen angewendet, in dem gilt, dass die Kosten der Kanten cij und cji für alle 0 ≤ i, j ≤ n gleich sind, handelt es sich um ein symmetrisches CVRP. Die Kapazitätsrestriktion Q differenziert das CVRP vom verwandten Multiple Travelling Salesperson Problem (MTSP) [BGo83, S. 97], welches wiederum eine Instanz des TSP ist, wenn k–1 Kopien des Depots inklusive der inzidenten Kanten in den Graphen eingefügt werden. Wenn jedoch die Kosten aller Kanten im Graphen gleich 0 sind, wandelt sich das Problem zu einer Instanz des Bin Packing Problems (BPP) [TRK+03, S. 2 f.]. Dann besteht die Aufgabe darin, den vorhandenen Güterbedarf aller Kunden optimal auf möglichst wenig Fahrzeuge zu verteilen, ohne die Kapazitätsschranke zu überschreiten. Ralphs et al. [TRK+03, S. 3 f.] stellen daher fest, dass das CVRP am Schnittpunkt dieser beiden bekannten Probleme liegt. Außerdem beschreiben sie die Schwierigkeit, dass beide Probleme unterschiedliche Optimierungsziele verfolgen, und dass das CVRP dadurch schwieriger gelöst werden kann. Im Allgemeinen wird beim CVRP die zurückgelegte Distanz optimiert, während die Anzahl der benutzten Fahrzeuge eine sekundäre Rolle spielt.
156
A. Reinholz und H. Schneider
Abb. 7.1 Graph eines VRP Die Darstellung zeigt den Graph einer potentiellen VRP-Lösung. Dabei bildet der als roter Punkt dargestellte Depot-Knoten den Ausgangspunkt einer Menge von Touren, in der jeder Kunde genau einmal bedient wird.
4
15
2
14
3 1 12
13
11
5 10 9
6 7
8 Kunde Depot Tour
Eine weitere standardmäßige Restriktion des CVRP, die als Strafterm in die Zielfunktion mit eingeht, ist die Beschränkung der Tourlänge, um beliebig lange Touren zu verhindern. In der Arbeit von Wegner [Weg03] werden sowohl das TSP als auch das BPP der Klasse der NP-harten Probleme zugeordnet, wodurch das CVRP ebenfalls in diese Klasse fällt. Laut Wegner [Weg03, S. 4 ff.] besteht für NP-harte Probleme die Annahme, dass es keinen Algorithmus gibt, der das Problem in polynomieller Laufzeit optimal lösen wird. Die eingangs erwähnten zusätzlichen Nebenbedingungen entschärfen dieses Verhalten nicht und daher gilt, wie Lenstra et al. in ihrer Arbeit [LRi81] beschreiben, dass alle gängigen Varianten des VRP NP-hart sind. Aufgrund der vielen praktischen Anwendungsmöglichkeiten wurden für das VRP eine große Zahl von Nebenbedingungen und Erweiterungen aufgestellt, die die verschiedenen VRP-Varianten prägen. Daher ist der Begriff des Vehicle Routing Problems ein Oberbegriff für eine ganze Klasse von Problemen, die sich in einem Spektrum von nur leichten Abstufungen bis deutlichen Abweichungen unterscheiden können. Im Folgenden seien drei VRP-Varianten beispielhaft erwähnt. Eine umfassendere Beschreibung verschiedener VRP-Varianten wird in den Arbeiten von Ropke [RPi07], Irnich [IGr05] und Toth [VTo01] gegeben. Eine verbreitete Erweiterung des VRP sind Zeitfenster, in denen Sendungen abgeliefert werden müssen, oder Kunden angefahren werden dürfen. Das VRP mit Zeitfenstern (VRPTW) wird ausführlich in der Arbeit von Cordeau et al. [SCD+02] diskutiert. Daneben wird beim Multi-Depot VRP (MDVRP) statt nur einem Depot eine Menge von Depots betrachtet. Jedes Depot kann dabei Ausgangspunkt von Touren sein, so dass die Belieferung der Kunden einer Tour von einem anderen Depot aus geschehen kann. Wasil et al. [CGW93] beschreiben das MDVRP in ihrer Arbeit genauer. Abschließend sei
7 Ein prozess- und objektorientiertes Modellierungskonzept
157
das VRP mit Pickup&Delivery (VRPPD) erwähnt, wobei während der Belieferung der Kunden auch Mengen von den Kunden zurück zum Depot aufgenommen werden dürfen. Dabei ist die Betrachtung von Rückläufen für die Praxis interessant, welches ein Spezialfall des VRPPD ist. Das VRP mit Rückläufen (VRPBH). Ropke [PRo06] beschreibt Touren, bei denen erst eine Ladung vom Kunden aufgenommen werden darf, wenn alle Belieferungen durchgeführt wurden.
7.3
Modellierungskonzept
Die Modellierung des VRP trägt substantielle Aspekte zur Optimierung bei, da jede Bewertung einer Lösung auf das zugrunde liegende Modell zugreift. Der Aufbau des Modells bestimmt maßgeblich, mit welcher Effizienz Lösungen ausgewertet werden können und wird in vielen Veröffentlichungen mit höchster Priorität bewertet. Daher sind viele Modellierungen rund ums VRP auf die Problemstellung zugeschnitten, um möglichst hohe Performance bei der Validierung und Bewertung zu erreichen. Dabei werden Datenstrukturen mit schnellem Zugriff verwendet und niedriger Hierarchie. Eine häufig verwendete Methode ist die giant tour. Dabei werden die Touren als Sequenzen von Knoten beschrieben. Da alle Touren mit dem gleichen Knoten beginnen und enden, werden sie zu einer giant tour-Darstellung und als Knotenfolge über alle Touren hinweg verbunden, wobei Trennsymbole die einzelnen Touren von einander separieren. Allerdings lässt diese Repräsentation die Ausgestaltung komplexerer Tourstrukturen nicht zu, da zum Beispiel bei der Betrachtung mehrerer Depots keine giant tour aufgebaut werden kann. Für die Abbildung praxisnaher VRP ergeben sich weitere Bedürfnisse an eine Problemmodellierung. Die Hauptanforderung liegt in der Möglichkeit viele verschiedenartige Nebenbedingungen oder Erweiterungen abbilden und optimieren zu können. Allerdings sind damit zwei gegensätzliche Konzeptionsarten verbunden, für die es gilt, einen Mittelweg zu finden. Auf der einen Seite soll die Modellierung so abstrakt wie möglich sein und auf der anderen Seite soll die Erweiterung oder Anpassung der vorhandenen Struktur möglichst gering und unabhängig von den vorhandenen Bestandteilen sein. Die Effizienz der Optimierungsverfahren ist dagegen nur ein sekundäres Designziel. Auf Grundlage dieser definierten Ziele wird in den folgenden Abschnitten eine Modellierung vorgestellt, deren Aufbau und Verhalten auf hohe Flexibilität mit beherrschbaren Effizienzverlusten hin entworfen ist.
7.3.1 Aufbau Der Aufbau des neuen Konzepts basiert auf mehreren innovativen Ansätzen, die in den letzten Jahren in der Forschung entwickelt wurden. Diese Ansätze werden in ein integrales Konzept zusammen gefasst. Die funktionalen Module und deren Design werden detailliert beschrieben.
158
A. Reinholz und H. Schneider
7.3.1.1 Aktivitätenkonzept Wie im Kapitel über die Grundlagen des Vehicle Routing Problem (vgl. Kap. 7.2) beschrieben wurde, handelt es sich beim VRP um ein Graphenproblem, kombiniert mit einem Reihenfolgeproblem. Daher muss zum Einen der Graph im Modell abgebildet werden und zum Anderen die Folge von besuchten Knoten. In vielen Modellierungen wie zum Beispiel bei der giant tour-Darstellung stellt der Graph die zentrale Komponente dar. Die Abbildung der Touren im Graphen gliedert sich üblicherweise in zwei Lager. Entweder wird eine Reihenfolge von Knoten betrachtet, deren Verbindungen die Kanten sind, oder die Basis ist eine Reihenfolge von Kanten, deren Enden jeweils Knoten sind. Abbildung 7.2 beschreibt eine dritte Möglichkeit die Pfade im Graphen darzustellen, direkt als Tour eines Fahrzeuges. Veränderungen werden nicht mehr am Graphen, sondern auf den Touren selbst durchgeführt und an den Graph in einem nachgelagerten Schritt weitergereicht. Abbildung 7.3 zeigt dies schematisch. Da der Modellierungsentwurf jeder Tour genau ein Fahrzeug zuweist, werden die Tour und das Fahrzeug in den Daten miteinander verknüpft, wodurch Touren mit den Eigenschaften der jeweiligen Fahrzeuge gekoppelt sind. Das zentrale Element ist die Tour und bildet den Prozess des Transports der Sendungen ab. Anstatt diesen Prozess als das Anfahren von Knoten zu definieren, wird eine feinere Aufgliederung durchgeführt. Zum Einen wird von Anfang an Rücksicht auf die Anforderungen des Pickup&Delivery-Problems genommen, bei denen zwischen Aufladen und Abladen direkt unterschieden wird. Zum Anderen wird die Situation berücksichtigt, dass es pro Kunde mehrere ankommende oder abgehende Aufträge geben kann, wie es in der Praxis Standard ist. Damit muss eine Auftrennung eines Besuchs am Knoten stattfinden. Statt einer großen Belade- oder Entladeaktion werden nun mehrere Aktionen betrachtet. Somit kann eine Tour durch die Abfolge von Aktivitäten beschrieben werden. Für jede der verschiedenen Aufgaben auf der Tour gibt es eine spezielle Aktivität, die diese charakterisiert. Damit die Komplexität nicht beliebig groß werden kann, wird ein grundlegendes Schema der Aktivitäten auf einer Tour vorgeschrieben. Es ist die Aufgabe der Operatoren, die auf den Touren arbeiten, dieses Schema einzuhalten. Die Verknüpfung der Tour findet demnach durch die Aktivitäten statt. Jeder Aktivität wird ein Objekt im Graphen zugeordnet. Für die Abbildung f(x) der Menge an Aktivitäten A und allen Graphobjekten G gilt: ∀a ∈ A ∃g ∈ G : f (a ) = g
7.3.1.2 Aktivitätenschema Die Reihenfolge der Aktionen auf den Touren orientiert sich am Transport der Waren in der Praxis. Eine Tour im Graph kennzeichnet sich durch das Besuchen von Kunden. Auf Grundlage dessen wird ein Grundschema definiert, welches fünf verschiedene Grund-Aktivitäten benutzt.
7 Ein prozess- und objektorientiertes Modellierungskonzept 15
159
2 Tour 1
14
3 1 Tour 2
12
13 Tour 3
11 6 10
5 9
7
8
Tour 4
Kunde Depot Fahrt Tour
Abb. 7.2 Sicht von Touren in einem Graphen In der linken Bildhälfte wird der Graph aus Abb. 7.1 dargestellt, wobei an jede Kundenreihenfolge (Knoten in Gelb) vom Depot (in Rot) aus eine Schlaufe gezeichnet ist. Diese Schlaufen repräsentieren die gefahrenen Touren und sind in der rechten Bildhälfte separat aufgeführt. Dabei handelt es sich um die interpretierte Sicht des Graphen als Menge von Touren, die von Fahrzeugen durchgeführt werden.
Start-Aktivität Die Start-Aktivität markiert den Beginn einer Tour. Beim klassischen CVRP ist dieser Aktivität ein Depot zugeordnet. Ende-Aktivität Die Ende-Aktivität stellt das Ende der Tour dar. Beim klassischen CVRP ist dieser Aktivität ein Depot zugeordnet. Transport-Aktivität Diese Aktivität stellt den eigentlichen Transport der Waren zwischen zwei Kunden dar. Als einzige Aktivität wird ihr ein Kanten-Objekt zugewiesen. Dabei muss gelten, dass die in der Folge vorgelagerte Aktivität dem Startknoten der zugewiesenen Kante zugeordnet ist. Analoges gilt für die nachfolgende Aktivität und den Zielknoten der Kante. Das Grundschema schreibt vor, dass einer Transport-Aktivität immer eine Verlassen-Aktivität vorausgeht und sich eine Erreichen-Aktivität anschließt. Verlassen-Aktivität Eine Verlassen-Aktivität beschreibt den Vorgang des Abfahrens bei einem Kunden. Alle Aktivitäten bei dem zugeordneten Knoten müssen davor stattfinden. Erreichen-Aktivität Analog zur Verlassen-Aktivität kennzeichnet die Erreichen-Aktivität das Ankommen bei einem Kunden. Alle Aktivitäten, die bei dem zugewiesenen Knoten vorgenommen werden sollen, müssen nach dieser Aktivität durchgeführt werden. Die Verknüpfung der beschriebenen Grund-Aktivitäten ergibt sich aus ihrer Funktion. Jede Tour startet mit einer Start-Aktivität und endet mit der Ende-Aktivität. Wie beschrieben wird jede Transport-Aktivität von einer Verlassen-Aktivität und einer Erreichen-Aktivität eingerahmt. Offensichtlich ergeben sich Bereiche zwischen den Erreichen- und Verlassen-Aktivitäten sowie der Start- und End-Aktivität.
160
A. Reinholz und H. Schneider
Tour 1 Tour 2
Tour 3 Tour 4
4
2
15
14
3 1 Fahrzeug-Layer
12 11
13 10 9
5
7
8
6
Graph-Layer
Abb. 7.3 Darstellung von Graph-Layer zu Fahrzeug-Layer In dieser Darstellung wird die Abstraktion der Touren eines Graphen verdeutlicht. In der unteren Ebene befinden sich alle Objekte eines Graphen: Knoten und Kanten. Darüber besteht eine Schicht von Touren, die über Verweise (gestrichelte Pfeile) auf die Graph-Objekte zeigen. Jede Tour in der oberen Ebene ist zusätzlich von einer Fahrzeug-Hülle umfasst, so dass jeder Tour ein Fahrzeug eindeutig zugewiesen werden kann.
Diese Bereiche werden im Weiteren offene Bereiche genannt, da in diesen beliebige Nicht-Grund-Aktivitäten eingefügt werden können, ohne das Grundschema zu verletzen. Es gibt allerdings eine Einschränkung des offenen Bereiches, wonach dieser mindestens eine Nicht-Grund-Aktivität enthalten muss. Ansonsten würde die Repräsentation das sinnlose Anfahren von Kunden abbilden können, was den Suchraum übermäßig vergrößert und daher nicht gestattet ist. Werden aus einem offenen Bereich so viele Aktivitäten verschoben, dass dieser leer ist, so ersetzt eine direkte Verbindung des Vorgängerknotens mit dem Nachfolgerknoten den leeren offenen Bereich. In weiteren Teil dieser Arbeit wird auf die Betrachtung der folgenden zwei Aktivitätsarten eingegangen: Aufladen-Aktivität Diese Aktivität symbolisiert den Vorgang des Aufladens einer Sendung auf das Fahrzeug der Tour. Ihr ist immer ein Knoten zugeordnet. Dabei ist beachten, dass die Sendung nur am zugeordneten Knoten aufgeladen werden darf. Abladen-Aktivität Die Abladen-Aktivität markiert den Zeitpunkt auf der Tour, an der eine bestimmte Sendung abgeladen wird. Dabei ist zu beachten, dass das Ziel der Ladung mit dem zugeordneten Knoten übereinstimmt. Die Abb. 7.4 zeigt eine Verbildlichung einer Tour durch Aktivitäten. Das Aktivitätenkonzept bildet das Grundgerüst, auf dem das Ressourcenkonzept aufbaut. Die Darstellung der Tour als Aktivitätenkette ist in erster Hinsicht ein Tribut an die Anpassungsfähigkeit dieser Modellierung, denn das Verändern dieser Struktur birgt einen gewissen Aufwand. Diese Defizite sollen durch wiederverwendbare Operatoren aufgefangen werden, die zum Einen das Risiko senken, Fehler in das Aktivi-
7 Ein prozess- und objektorientiertes Modellierungskonzept
161
tätenschema einzubringen und zum Anderen durchoptimiert werden können, um so langfristig auch für große Problemstellungen geeignet zu sein.
7.3.1.3
Ressourcenkonzept
Das Ressourcenkonzept (siehe auch [DDe06, Irn06]) erlaubt eine übersichtliche und modulare Abbildung verschiedenartiger Restriktionen. Das Konzept basiert auf der grundlegenden Betrachtung von Verbräuchen während eines Warentransportes. Bei der Durchführung einer Tour werden verschiedene Ressourcen über die Nutzung einzelner Kanten und Knoten des Graphen (Kunden) hinweg „verbraucht“. Dabei können Ressourcen natürliche Merkmale darstellen, wie Entfernung, Fahrzeit oder transportierte Menge. Aber auch die Betrachtung von subtilen Eigenschaften wie Überladung, Kosten oder Unwägbarkeiten können damit modelliert werden. Jede Ressource kann „verbraucht“ werden und die kumulierten Verbräuche über die Tour hinweg werden in einem Ressourcen-Vektor mitgeführt. Eine Verbrauchsberechnung bewertet daher die Ressourcen in der zeitlichen Reihenfolge des Auftretens auf der Tour, so dass nachher alle nötigen Werte im Ressourcen-Vektor vorliegen, um Restriktionen oder Zielwerte zu evaluieren. Der Kern der Verbrauchsberechnung ist die Transformation des Ressourcen-Vektors über eine Tour hinweg. Er bestimmt, welche Nebenbedingungen und welche Zielwerte betrachtet werden. Desaulniers et al. [DDe06] beschreibt die Transformation eines Ressourcen-Vektors entlang einer Knotensequenz, wobei jeder Knoten eine Menge von Ressourcen zur Verfügung stellt. Dieser Ansatz wird durch die Betrachtung von Aktivitäten verfeinert, wobei es zu einer Änderung der Bezeichnungen kommt. Der Ressourcen-Vektor wird direkt als Ressource bezeichnet und die Elemente des Vektors werden im Weiteren Subressourcen genannt. Die detaillierte Betrachtung erlaubt zudem eine Aufsplittung der Ressourcen. Bei Desaulniers et al. [DDe06] kennzeichnet eine Ressource den Verbrauch entlang einer Tour, obwohl es durchaus nötig sein kann, Verbräuche an den Knoten und Kanten über verschiedene Touren hinweg gestzuhalten. Daher werden drei Arten von Ressourcen-Vektoren spezifiziert: Fahrzeug-Vektoren, die den Verbrauch entlang einer Tour beschreiben, Knoten-Vektoren, die Verbräuche für einen Knoten aufnehmen und Kanten-Ressourcen analog für Kanten. Zwar sind Nebenbedingungen auf Knoten und Kanten unüblicher als die Beschränkung von Touren, allerdings gibt es durchaus praktische Beispiele. So können die Beschränkung der Umschlagsmenge eines Kunden oder Öffnungszeiten von Verkehrstunneln vorkommen. Zur besseren Darstellung sollen die Komponenten dieses Ressourcenkonzeptes an Abb. 7.5 erläutert werden. In der obersten Zeile wird der Teil eines Graphen dargestellt, der einer Tour entspricht. Eine Zeile darunter befinden sich die aus Abb. 7.4 beschriebenen Aktivitäten, die auf die Knoten verweisen. In der untersten Zeile beschreiben die Piktogramme Lkw, Pfeil und gelber Knoten die drei Ressourcenvektoren: Fahrzeug-, Kanten- und Knoten-Vektor. Jeder Knoten erhält einen eigenen Knoten-Vektor, wie die Kanten ein Kanten-Vektor. Jedes
162
A. Reinholz und H. Schneider Offene Bereich
Offene Bereich
Offene Bereich
Start-Akt.
Erreichen-Akt.
Verlassen-Akt.
Aufladen-Akt.
Abladen-Akt.
Transport-Akt.
Ende-Akt.
Abb. 7.4 Darstellung einer Tour durch Aktivitäten Es wird eine Tour dargestellt, die sich aus Aktivitäten zusammensetzt. In der Darstellung sind sieben Aktivitätsarten gezeigt. Das Aktivitätenschema besagt, dass jede Tour mit einer Start-Aktivität beginnen und mit einer Ende-Aktivität enden muss. An jedem Knoten des Graphen kann im offenen Bereich eine beliebige Anzahl von Aktivitäten durchgeführt werden, die keine GrundAktivitäten sind. In dieser Darstellung dürfen nur die Aufladen- und Abladen-Aktivität hier ausgeführt werden. Ein neuer Kunde wird angefahren, wenn der alte Kunde „verlassen“, eine Strecke zurückgelegt und der neue „erreicht“ wird. Dafür stehen die Verlassen-, Transport- und ErreichenAktivität zur Verfügung.
Fahrzeug, wenn es eine aktive Tour darstellt, erhält so einen ihm zugeordneten Fahrzeug-Vektor. Der objektorientierte Ansatz des Entwurfes sieht es vor, dass jeder Vektor eine beliebige Menge von Ressourcen aufnehmen kann. Es ist dem Tourenplaner überlassen, welche Ressourcen er an welchen Vektor legt, obwohl dies von der Art des Vektors abhängt. Jede Ressource beschreibt so den Verbrauch an einem Objekt der in den Vektor abgelegt wird. Im Bild enthält der Fahrzeug-Vektor als Ressourcen die „freie Kapazität“ und die „Fahrzeit“. Im Kanten-Vektor werden die verbrauchten „Mautkosten“ eingetragen und im Knoten-Vektor liegt der Verbrauch an „Sortierter Menge“. Die von Desaulniers et al. [DDe06] beschriebenen REFs werden für diesen Entwurf durch Transformationsfunktionen erweitert und beschreiben einen mächtigeren Ansatz. Eine Transformation stellt demnach nicht nur eine bloße monotone Funktion dar, sondern kann beliebig komplex entwickelt werden. Transformationsfunktionen werden an Aktivitäten angefügt, wobei es keine Zuordnung zu einer ganz bestimmten Aktivität gibt, sondern eine Zuordnung zu einer Aktivitätsart. In Abb. 7.5 ist zu sehen, dass eine Transport-Aktivität (im Bild in Orange) zwei Transformationsfunktionen beinhaltet: die Fahren- und die Ruhen-Transformation. Alle Transport-Aktivitäten besitzen genau diese Transformationen. Der Objektorientierung entsprechend definiert eine Transformationsfunktion ein Objekt mit einer bestimmten Funktion. Jede Transformationsfunktion kann auf ihre Aktivität und damit auf das zugewiesene Graph-Objekt direkt zugreifen. Über die Aktivität und das Graph-Objekt erhält die Transformation auch Zugriff auf die notwendigen Ressourcen. Es ist dem Entwickler einer Transformation überlassen, welche Ressourcen er anspricht und welche Werte er darin ablegt. In der Darstellung
7 Ein prozess- und objektorientiertes Modellierungskonzept
163
Graph-Objekte Aktivitäts-Tour Transformationen
Subressourcen
Beladen
Sortierte Menge
Entladen
Freie Kapazität
Fahren Ruhen
Fahrzeit
Anmelden
Mauteinnahmen
Ressource-Objekte
Abb. 7.5 Einbindung der Ressourcen an die Aktivitäten Die Darstellung beschreibt das Zusammenwirken der Transformationsfunktionen der Aktivitäten mit den Ressourcen. Von oben nach unten sind die Komponenten Graph, Tour, Transformationsfunktionen, Subressourcen und Ressourcen zu sehen. Die Ressourcen in der untersten Zeile sind durch Piktogramme gekennzeichnet: von links nach rechts Fahrzeug-, Kanten, Knoten-Ressource. Jeder Ressource sind Subressourcen zugewiesen, die von den Transformationsfunktionen gelesen und beschrieben werden können. Dies verdeutlichen die gestrichelten Pfeile. Die zugewiesenen Graph-Objekte der Aktivitäten sind durch gestrichelte Kanten zwischen der Tour und dem Graph dargestellt. Die Graph-Objekte beschreiben die Stationen auf einer Tour im Graph (Knoten und Kanten).
zeigt sich, dass die Fahren-Transformation der Transport-Aktivität sowohl auf die Fahrzeit-Ressource zugreift und dort die benötigte Fahrzeit ablegt als auch auf die Maut-Ressource, um die Mautkosten dort zu speichern. Diese Freiheit der Gestaltung von Restriktionen durch Ressourcen und Transformationsfunktionen spricht für die Flexibilität des Entwurfes. Der Aspekt der Einfachheit der Implementierung wird in folgender Weise berücksichtigt. Eine Transformationsfunktion ist darauf angewiesen, in die dafür vorgesehene Aktivität eingesetzt zu werden, und auch die benötigten Ressourcen vorzufinden. Ersteres obliegt der Verantwortung des Entwicklers, während bei der Vielzahl der Ressourcen ein anderer Weg eingeschlagen wird. Da die Annahme besteht, dass die Transformationen der Schlüssel der Abbildung der Restriktionen sind, kann der Entwickler einer Transformation selbst bestimmen, welche Ressourcen in der Datenstruktur vorhanden sein müssen. Durch diesen Punkt wird die Verknüpfung in die Transformationen gelegt und dem Gestalter einer Tourenplanung abgenommen. Transformationen lassen sich durch ihre Modularität und geringen Abhängigkeiten untereinander leicht wieder verwenden. Die Transformationsfunktionen stellen damit den Steuerhebel dar, mit dem die Datenstruktur auf die verschiedenen VRP-Varianten eingestellt werden kann. Je nachdem, welche Eingabedaten mit welchen Transformationen benutzt werden, wird ein CVRP oder ein VRPTW gelöst.
164
A. Reinholz und H. Schneider
7.3.2 Verbrauchsberechnung Eine der wichtigsten Funktionen des Entwurfes ist es, die Verbrauchswerte zu berechnen und einzutragen. Die bisher spezifizierten Komponenten aus Ressourcen und Transformationen haben diesen Prozess soweit modularisiert, dass diese Funktion unabhängig von dem zu lösenden VRP durchgeführt werden kann. Die Verbrauchsberechnung einer Tour verläuft dergestalt, dass die Aktivitäten der zu untersuchenden Tour nacheinander aktiviert werden. Dabei werden die Transformationsfunktionen einer jeden Aktivität nacheinander aufgerufen, wodurch diese Transformationen auf die benötigten Werte zugreifen und die Verbräuche der Ressourcen berechnen. Die Ergebnisse werden in die Vektoren wieder abgelegt. Eine Verbrauchsberechnung kann für jede Tour einzeln aufgerufen werden, da die Touren untereinander unabhängig sind. Eine vollständige Berechnung der Verbräuche ist demnach eine Berechnung aller Einzeltouren.
7.3.3
Operationen
Während der Optimierung eines Vehicle Routing Problem werden in mannigfaltiger Weise Veränderungen an den Datenstrukturen der Modellierung vorgenommen. Dafür werden in den nächsten Abschnitten vier Operationen vorgestellt, die die Grundlage für komplexere Variationsoperatoren darstellen.
7.3.3.1
Einfügen von Aktivitäten
Die Operation fügt eine Aktivität in eine Tour an einer bestimmten Position ein. Dabei muss das Aktitivätenschema (vgl. Abschn. 7.3.1) einer Tour beachtet werden. Die Methode ist dafür konzipiert, Aktivitäten in den offenen Bereich einer Tour einzufügen. Es können keine Grund-Aktivitäten eingefügt werden, da sonst das Schema verletzt würde. Dies ist aber auch nicht nötig, da diese Operation das Aktivitätenschema selbstständig verwaltet. Die Einfügeoperation benötigt zwei Parameter: die Tour und die Position auf der Tour. Die Position bezeichnet eine Aktivität auf der gewählten Tour, die durch das Einfügen in der Reihenfolge nach hinten verschoben wird. Dabei verwaltet die Operation, ob durch das Einfügen gegebenenfalls ein neuer Knoten angefahren werden muss. Abbildung 7.6 demonstriert zwei Beispiele.
7.3.3.2
Entfernen von Aktivitäten
Das Entfernen von Aktivitäten ist in zwei Phasen geteilt. Dies erklärt sich daraus, dass es beim Extrahieren einer Aktivität aus der Aktivitätenfolge zu Verschiebungen
7 Ein prozess- und objektorientiertes Modellierungskonzept Fall 1
165 Fall 2
Abb. 7.6 Zwei Beispiele für das Einfügen von Aktivitäten Diese Abbildung zeigt zwei mögliche Fälle des Einfügens einer Aufladen-Aktivität. Die Einfügeposition liegt in beiden Fällen auf einer Transport-Aktivität mit dem Unterschied, dass im ersten Fall die Aktivität an einen bereits vorhandenen Kunden angefügt werden kann und im zweiten ein neuer Knoten in die Tour eingefügt werden muss. Das Anfügen im ersten Fall ist trivial, während im zweiten Fall die neue Aktivität und damit dessen neuer Knoten in der Tour durch eine weitere Transport- Aktivität angefahren werden muss.
der absoluten Positionen der nachfolgenden Aktivitäten kommt. Müssen zwei oder mehr Aktivitäten aus einer Tour entfernt werden, müssten nach jedem Entfernen alle noch durchzuführenden Positionen neu ausgerichtet werden. Daher wurde ein Markierungsansatz gewählt, um diesem Problem zu begegnen. 1. Schritt: Es werden beliebig viele Aktivitäten auf einer Tour markiert. Das Markieren einer Aktivität erfolgt durch das Ersetzen der zu löschenden Aktivität durch eine spezifische Markierungsaktivität. Diese hat jedoch keinen Einfluss auf die Abbildung des Problems, da sie keine Transformationsfunktionen enthält. Da die zu löschende Aktivität durch eine andere ersetzt wird, kommt es zu keinen Verschiebungen. 2. Schritt: Es werden alle Markierungsaktivitäten auf der Tour gesucht und entfernt. Dabei muss überprüft werden, ob durch das Löschen sich keine Aktivitäten mehr im offenen Bereich befinden und das Anfahren des Kunden sinnlos geworden ist. Falls ja, wird das Anfahren dieser Kunden ebenfalls gelöscht. Die Abb. 7.7 zeigt dies exemplarisch.
7.3.3.3
Umlegen der Tourenden
Durch die strukturelle Erweiterung des MDVRP (vgl. Kap. 7.2) kann über diese Basisoperation der Anfang oder das Ende einer Tour auf ein bestimmtes Depot gesetzt werden. Dazu werden in allen Aktivitäten, die auf das zu ersetzende Depot verweisen, darunter die Start- bzw. Ende-, Verlassen- und Aufladen-Aktivitäten, auf das neue Depot umgelegt. Zudem muss die darauf folgende oder entsprechend vorhergehende Kante auf den neuen Start- oder den neuen Zielpunkt angepasst werden.
166
A. Reinholz und H. Schneider
Markierungs-Aktivität
Abb. 7.7 Exemplarisches Entfernen einer Aktivität Es wird der Vorgang des Entfernens einer Aufladen-Aktivität in zwei Schritten dargestellt. In der obersten Zeile wird die Ausgangstour gezeigt, wobei die rot durchgestrichene Aktivität entfernt werden soll. Dazu wird in der zweiten Zeile eine Markierungsaktivität (hier in Grau) eingefügt. Da sich im offenen Bereich des Kundens der zu entfernenden Aktivität keine weitere findet, wird dieser beim Löschen der Markierungsaktivität ebenfalls aus der Tour entfernt. Dies verdeutlicht die dritte Zeile.
7.3.3.4
Ändern des Fahrzeugtyps
Für das VRP mit verschiedenen Fahrzeugtypen (HVRP) kann der Typ für eine Tour geändert werden. Dazu wird dem Fahrzeug-Objekt, welches die angegebene Tour kapselt, ein neuer Typ zugewiesen. Dieser Typ wird anschließend bei der Tourbewertung berücksichtigt.
7.4
Risikomanagement
Eine erschwerende Eigenschaft der Aussagekräftigkeit von VRP-Ergebnissen ist, dass eine kostenoptimierte Lösung eine hohe Instabilität aufweist. Eine geringfügige Änderung von zu Grunde gelegten Annahmen kann zu einer Lösung führen, die nicht mehr alle Vorgaben erfüllt: Ein nahe liegendes Beispiel sind Zeitfenstervorgaben für die Kundenbelieferung. Bei unerwarteten Staus wird mehr Fahrzeit benötigt als angenommen. Anlieferzeitfenster können so nicht eingehalten werden und zusätzliche Kosten (z. B. Mehrfahrten oder Vertragsstrafen) entstehen.
7 Ein prozess- und objektorientiertes Modellierungskonzept
167
Daher wird im Folgenden die Robustheit einer Lösung durch die zusätzliche Bewertung der abstrakten Größe „Risiko“ betrachtet. Daher wird bei der Bewertung zum Einen die Gesamtkosten – unter anderem gefahrene Kilometer und Personalkosten – und zum Anderen das Gesamtrisiko des Plans bestimmt. Dieses Risiko wird durch eine Wahrscheinlichkeit beschrieben und ergibt sich aus den Risikobewertungen für die Belieferungen der Kunden: Wenn sicher ist, dass ein Kunde nach dem erzeugten Tourenplan pünktlich beliefert wird, hat diese Belieferung ein Risiko von 0%. Ein 30%-iges Risiko bedeutet beispielsweise, dass die Belieferung mit einer Wahrscheinlichkeit von 30% nicht entsprechend der Kundenvorgaben erfolgt. Die Risiken aller Belieferungen eines Tourenplans können dann im nächsten Schritt durch Durchschnittsbildung oder aus dem höchsten Einzelrisiko (für eine Belieferung) berechnet werden. Die Modellierung von Risiko wird im erarbeiten Konzept ebenfalls über Ressourcen realisiert. Dabei stellt die Ressource „Risiko“ einen Puffer dar, in dem eine Tour durchgeführt werden kann. Ein Puffer von 100% beschreibt die garantierte Durchführbarkeit zu den gegebenen Schranken, während ein Puffer von 50% aussagt, dass die Tour nur in der Hälfte der Fälle in der ausgewiesenen Weise gefahren werden kann. Ein negativer Puffer beschreibt die Undurchführbarkeit. Die Puffergröße basiert auf den betrachteten Ressourcen. Während zum Beispiel beim Standard-CVRP die Frachtmenge einer Sendung ein festgelegter Wert ist, wird dieser unter der Betrachtung von Unsicherheiten als Verteilungsfunktion um einen Erwartungswert beschrieben. Die kumulierte Transportmenge auf einer Tour ist damit eine berechnete Folge von bedingten Wahrscheinlichkeiten, dargestellt durch deren Verteilungen. Dafür ist es allerdings notwendig, die Verteilungsfunktionen der untersuchten Ressourcen zu kennen, was im Einzelnen einen gewissen Aufwand darstellt. Wie von Jin et al. [SJi03] gezeigt, ist eine integrierte Analyse von Kosten- und Risikozielen bei der Tourenplanung mittels multikriterieller Optimierung sinnvoll. Bei der Optimierung entsteht so eine Menge von so genannten unvergleichbaren Lösungen. Zur Veranschaulichung dieser Unvergleichbarkeit betrachten wir zwei Tourenpläne: Der erste Plan hat Gesamtkosten von 1.000 € und ein Gesamtrisiko von 10%; der zweite Plan hat Gesamtkosten von 900 € und eine Gesamtrisiko von 15%; keiner der beiden Pläne ist besser als der andere. Jedoch gibt es Tourenpläne, die schlechter als diese beiden „besten“ Pläne sind. Aus der erzeugten Lösungsmenge kann ein Disponent nun eine konkrete Lösung auswählen.
7.5
Optimierungsverfahren
Die in dieser Arbeit verwendeten Optimierungsverfahren basieren auf dem Konzept der Nachbarschaftssuche (NS) und der nachbarschaftsgenerierenden Operatoren. Die Beziehung zwischen einem Punkt im Suchraum und seiner Nachbarschaft wird über eine Nachbarschaftsrelation ausgedrückt. Eine Nachbarschaft beschreibt eine Funktion NS(s), mit der ausgehend von einem initialen Suchpunkt s eine Menge von benachbarter Suchpunkten erzeugt werden kann. Diese Funktion wird nachbar-
168
A. Reinholz und H. Schneider
schaftsgenerierender Operator genannt. Für das VRP beschreibt zum Beispiel die 2-Opt-Nachbarschaft alle Nachbarn, die sich durch den Tausch zweier Kanten in einem Tourenplan der Ausgangslösung erzeugen lassen. Die Komplexität einer Nachbarschaft bestimmt maßgeblich deren Möglichkeit, das globale Optimum und dessen Laufzeit zu finden. Bei der Konstruktion des nachbarschaftsgenerierenden Operators muss daher ein vernünftiges Gleichgewicht zwischen diesen beiden Faktoren gefunden werden. Zusätzlich wird die Nachbarschaftssuche in einen iterierten Prozess der Suche nach dem globalen Optimum gebettet, wobei für eine initiale Lösung die Nachbarschaft durchsucht und dessen lokales Optimum s bestimmt wird. Anschließend wird die Nachbarschaft von s bestimmt und deren lokales Optimum ermittelt. Diese Wiederholung wird solange betrieben, bis gilt s = NS(s), so dass die Ausgangslösung das lokale Optimum seiner eigenen Nachbarschaft ist. Damit beschreiben die verschiedenen Ausgangslösungen der Iterationen einen Pfad im Suchraum, der in der beschriebenen Sackgasse endet. Die Abb. 7.8 stellt den schematischen Aufbau dar.
7.5.1 Variable Nachbarschaftssuche und Hybride Evolutionsstratgie Variable Nachbarschaftssuche (VNS) [MHa97] sind eine Erweiterung der erwähnten Nachbarschaftssuchen, bei denen durch die Verwendung mehrerer verschiedener nachbarschaftsgenerierender Operatoren eine Schwäche der lokalen Nachbarschaftsverfahren angegangen wird. Die lokale Fokussierung auf verbessernde Lösungen erhöht die Wahrscheinlichkeit auf der Suche in einem lokalen Optimum stecken zu bleiben.
7.5.1.1
Kombinierte Nachbarschaftssuche
Für diese Arbeit wurde eine spezielle Variante der lokalen Suche einer variablen Nachbarschaftssuche entwickelt, um die parallele Betrachtung mehrerer Nachbarschaftssuchen durch einen randomisierten Ansatz zu verfeinern. Diese kombinierte Nachbarschaft wird im Folgenden beschrieben. Der Entwurf beruht auf der Forderung, dass für eine Ausgangslösung durch alle Nachbarschaftssuchen in freier Reihenfolge keine Verbesserung gefunden werden kann. Der Aufbau wird in Listing 1 aufgeführt. Im ersten Schritt werden alle verfügbaren Nachbarschaftssuchen, in dieser Arbeit fünf Stück, in eine Menge NSAuswahl kopiert. Danach wird solange über einen Methodenblock iteriert, bis NS-Auswahl leer ist. Im Block selbst wird zuerst eine Nachbarschaftssuche aus NS-Auswahl gewählt. Diese wird zufällig uniform verteilt ausgesucht. Danach wird die gewählte Nachbarschaftssuche auf die aktuell beste Lösung angewendet. Konnte dadurch eine Verbesserung gefunden werden, so wird die neue Lösung als
7 Ein prozess- und objektorientiertes Modellierungskonzept
169
Abb. 7.8 Schema einer Nachbarschaftssuche Die Abbildung zeigt den schematischen Aufbau einer Nachbarschaftssuche.
Initialisierung Generiere Nachbarschaft Bewerte Nachbarschaft Ja
Verbesserung gefunden? Nein Lösung
beste gefundene Lösung gesetzt und NS-Auswahl wieder mit allen außer der gerade verwendeten Nachbarschaftssuche aufgefüllt. Wurde keine Verbesserung gefunden, so wird NS-Auswahl um die benutzte Nachbarschaftssuche verkleinert. Das Verhalten der Kombination beschreibt den Aufruf mehrerer Nachbarschaftssuchen hintereinander, wobei die Reihenfolge zufällig gewählt ist. Solange immer Verbesserungen gefunden werden, füllt sich die Menge NS-Auswahl immer wieder auf. Die Schleife endet, wenn keine der Nachbarschaftssuchen eine Verbesserung für s finden kann. Dadurch wird NS-Auswahl immer weiter verkleinert, bis es leer ist. Die deterministische Form der Variablen Nachbarschaftssuchen kann durch einen zusätzlichen randomisierten Mutationsoperator erweitert werden, der die Diversität der Suche weiter erhöht und somit ebenfalls versucht lokale Optima zu vermeiden. Das Verfahren der hybriden (1+1)-Evolutionsstrategie beschreibt demnach die Hybridisierung durch eine Variablen Nachbarschaftssuche mit einem ungerichteten destruktiven Perturbationsoperator aus den Evolutionären Algorithmen. Die Perturbation setzt sich wiederum aus einem nachbarschaftsgenerierenden Operator zusammen, der hierbei deutlich größere Nachbarschaften als in der lokalen Suche erzeugt. Danach wird uniform gleichverteilt eine Lösung aus dieser Nachbarschaft erzeugt und bewertet. Die Perturbation baut im Allgemeinen auf einer randomisierten Veränderung des Tourenplans auf, die mehrfach pro Anwendung durchgeführt wird. Die Anzahl der Wiederholungen pro Variation wird über eine Verteilungsfunktion gesteuert (zum Beispiel binomial-verteilt). Somit lässt sich über die Steuerungsparameter der Verteilungsfunktion eine Schrittweite realisieren.
7.5.2 Verwendete Nachbarschaftssuchen In diesem Unterkapitel werden fünf nachbarschaftsgenerierende Operatoren, die für diese Arbeit ausschlaggebend waren, vorgestellt. Dabei wird zunächst der CrossExchange-Operator vorgestellt (siehe Abb. 7.9), von dem ausgehend, weitere Nachbarschaften als Spezialisierungen beschrieben werden. Abschließend werden deren Konzeption und Anknüpfung an das Modellierungskonzept diskutiert.
170
7.5.2.1
A. Reinholz und H. Schneider
CrossExchange-Nachbarschaft
Die CrossExchange-Nachbarschaft umfasst alle Punkt im Suchraum, die sich durch das Versetzen oder das Vertauschen zweier gewählter Bereiche auf den Touren von einer Ausgangslösung ausgehend erzeugen lassen, wobei die Möglichkeiten Invertierungen der gewählten Bereiche durchzuführen mitberücksichtigt werden. Damit beschreibt der CrossExchange-Operator einen Spezialfall des klassischen 4-OptOperators, bei dem vier Kanten frei bewegt werden können. Der Begriff „Bereich“ bezeichnet eine Folge von Kunden in einer Tour, wobei ein Depot nicht zu dieser Folge gehören darf, da es den Beginn und Abschluss einer Tour markiert. Ein Bereich muss zudem mindestens einen Kunden enthalten und die beiden gewählten Bereiche dürfen sich nicht überschneiden, umso redundante oder falsche Verschiebungen auszuschließen. Einen Bereich zu invertieren bedeutet, die Reihenfolge der Kunden innerhalb des Bereiches umzudrehen. Hierbei gilt es, die Problemstellung zu beachten. Beim CVRP oder MDVRP entsteht durch die Umordnung der Reihenfolge der Abladen-Aktivitäten auf der Tour kein Bruch der Restriktionen, was beim VRPBH jedoch durchaus passieren kann, wenn ein Block sowohl Aufladen- als auch Abladen-Aktivitäten enthält. Eine Umordnung würde dabei die Rücklaufeigenschaft zerstören. Dies ist bei der Konstruktion der Nachbarschaftssuche zu berücksichtigen, so dass solche Konstellationen von der Suche ausgenommen werden. Die CrossExchange-Nachbarschaft verwaltet acht Freiheitsgrade. Die ersten drei beschreiben den ersten zu wählenden Bereich über die Angabe einer Tour und zwei Grenzen für den Bereich selbst (Beginn und Ende). Auf die gleiche Weise wird über drei weitere Dimensionen ein zweiter Bereich definiert, der sich vom Ersten unterscheiden und die beschriebenen Einschränkungen einhalten muss. Der siebte Freiheitsgrad bestimmt die Art der Tauschoperation. Es können drei verschiedene Vertauschungen durchgeführt werden. Entweder wird der erste Bereich vor den Zweiten gesetzt, wobei der zweite Bereich seinen Ort nicht verändert, oder umgekehrt. Oder aber der erste Bereich wird mit dem zweiten Bereich ausgetauscht. Im achten Freiheitsgrad wird die Invertierung der Bereich gesteuert, indem vier verschiedene Fälle der Invertierung durchprobiert werden können. Im ersten Fall wird der zuerst gewählte Bereich invertiert und damit der Austausch durchgeführt. Der zweite Fall ist analog zum Ersten, wobei ausschließlich der zweite Bereich invertiert wird. Der dritte Fall belässt die Bereiche unverändert und der letzte Fall kehrt die Richtung beider Bereiche um. Die Operation und deren Varianten veranschaulicht Abb. 7.10. Die Größe der Nachbarschaft beträgt O(n4), da die Auswahlkomplexität für jeden der beiden gewählten Bereiche bei O(n²) liegt.
7.5.2.2
Spezialisierungen der CrossExchange-Nachbarschaft
Durch Einschränkung der beschriebenen Freiheitsgrade der CrossExchange-Nachbarschaft lassen sich vier weitere Nachbarschaften formulieren, deren Suchraum
7 Ein prozess- und objektorientiertes Modellierungskonzept
171
in den kommenden Beschreibungen stetig verkleinert und so Laufzeit eingespart wird. 1. Path-Exchange: Beim Path-Exchange findet keine Invertierung statt, wodurch der achte Freiheitsgrad der Invertierung auf den dritten Fall festgesetzt wird. 2. Exchange: Der Exchange beschreibt den Austausch von einzelnen Aufträgen. Daher wird die Größe der beiden Bereiche auf eins festgesetzt, was durch die Forderung „Bereichsanfang gleich Bereichsende“ erreicht werden kann. Die Größe der Nachbarschaft schrumpft dadurch auf O(n²). 3. Path-Move: Der Path-Move ist die einfache Verschiebung eines Bereiches an eine gewählte Stelle im Tourenplan. Dazu sind zwei Anpassungen der CrossExchange-Nachbarschaftssuche notwendig. Der zweite Bereich wird ähnliche zur ExchangeNachbarschaft auf die Länge eins festgesetzt und erhält die Bedeutung, dass der ausgesuchte erste Bereich vor den zweiten Bereich gesetzt wird, also dem Zielort entspricht. Des Weiteren wird der siebte Freiheitsgrad, die Art des Tausches, auf das Verschieben des ersten Bereiches determiniert. Somit kann die Nachbarschaft auf die Komplexität O(n³) reduziert werden. 4. Relocate: Der Relocate beschreibt das Versetzen eines bestimmten Auftrages an eine andere Stelle im Tourenplan. Dazu werden die Änderungen des Path-Move-Operators erweitert, indem nun auch der erste Bereich nur noch einen Auftrag enthalten darf. Der Relocate definiert die kleinste Nachbarschaft mit der selben Komplexität, wie die der Exchange-Nachbarschaft.
7.5.3
Beschleunigte Funktionsauswertung durch das Superkunden-Konzept
Die Komplexität des Modellierungskonzeptes ist der einfachen Darstellung der Touren als Knotensequenz deutlich unterlegen, weswegen die Optimierung direkt auf den Aktivitätsketten eine stark reduzierte Laufzeit nach sich zieht. Daher bieten sich Konzepte der beschleunigten Funktionsauswertung an, um trotz der hohen Darstellungsmächtigkeit effizient optimieren zu können. Das Superkunden-Konzept wurde von Reinholz [Rei03] entwickelt und beschreibt eine Methodik zur beschleunigten Gültigkeitsprüfung von Touren. Es basiert auf der Wiederverwendung von bekannten Informationen, um daraus neue Lösungen zu erzeugen und zu bewerten. Das Superkunden-Konzept entfaltet sich im Kontext von Nachbarschaftssuchen. Da sich die Nachbarn einer Lösung nur um einen bestimmten Anteil von der Ausgangslösung unterscheiden, können die Bestandteile der Ausgangslösung wieder verwendet werden. Diese Bestandteile beschreiben beim VRP Teiltouren, die durch
172
A. Reinholz und H. Schneider
Tour A
Tour B
Fall 1
(Path-Move von A nach B)
Tour A
(leer)
Tour B
Fall 2
(Path-Move von B nach A)
Tour A
Tour B
(leer)
Fall 3 (Path Exchange) Tour A
Tour B
Abb. 7.9 Schematischer CrossExchange Diese Abbildung beschreibt den Austausch von Bereichen. Hierbei enthält der ovale Bereich zwei Aufladen-Aktivitäten, wohingegen der rechteckig markierte Bereich nur eine Aktivität enthält. Der Austausch differenziert sich in drei Fälle, wobei die Fälle 1 und 2 eine Verschiebung jeweils eines Bereiches vor den anderen zeigen. Der dritte Fall führt einen konkreten Austausch der beiden Bereiche durch. In dieser Darstellung wird die Invertierung von Bereichen nicht illustriert.
Superkunden modelliert werden. Für alle möglichen Teiltouren im Tourenplan der Ausgangslösung werden Superkunden erzeugt und in einer Superkundenmatrix global abgespeichert. Beim Verschieben von Teiltouren kommt es zu einer Neuverknüpfung der entstehenden Touren, die durch Verwendung der Superkunden mit einer konstanten Laufzeit validiert und bewertet werden können. Die Gestaltung der Superkunden ist ausschlaggebend, welche Nebenbedingungen geprüft und bewertet werden soll. Somit kann eine Beschleunigung auf der höchsten Ebene erreicht werden.
7 Ein prozess- und objektorientiertes Modellierungskonzept
7.6
173
Leistungsbewertung
Die Leistungsfähigkeit des Modellierungskonzeptes und der beschriebenen Nachbarschaftssuchverfahren wird anhand eines Vergleiches mit bereits durchgeführten Benchmarks vorgenommen. Dazu wurden drei exemplarische VRP-Varianten ausgesucht und anhand des Modellierungskonzeptes implementiert. Damit wurde jeweils eine Reihe von bekannten Testinstanzen mit dem beschriebenen Verfahren der variablen Nachbarschaftssuche mit kombinierter Nachbarschaft optimiert. Eine detaillierte Beschreibung der drei Szenarien wird in der Arbeit von Schneider [Sch08] gegeben.
7.6.1 VRP mit offenen Touren Das VRP mit offenen Touren (OVRP) beschreibt eine VRP-Variante, bei der der Anfang oder das Ende einer Tour nicht das Depot sein müssen und so keinen Umlauf bildet. In der Praxis ist diese Variante für die Betrachtung von Speditionen interessant, die ihren Kunden die Anfahrt zum ersten Aufladepunkt einer Tour nicht berechnen. Die Struktur der offenen Touren wird in der Modellierung durch ein virtuelles Depot abgebildet, bei dem die Kantenkosten von und zu diesem immer 0 betragen. Die Aktivitätsketten werden über ein spezielles Tourkonstruktionsverfahren immer durch ein virtuelles Depot abgeschlossen. Als Nebenbedingungen werden die Kapazität des Fahrzeugs und die maximale Länge einer Tour berücksichtigt. Ein optimaler Tourenplan enthält die minimale Anzahl an eingesetzten Fahrzeugen. Bei der Untersuchung des OVRP wurden die 14 Instanzen aus der Arbeit von Brandao [Bra04] und Fu et al. [LFE05] verwendet. Diese Datensätze sind den Instanzen von Christofides et al. [TCS79] direkt entlehnt. Die besten bekannten Ergebnisse wurden aus der Arbeit von Ropke et al. [RPi07] entnommen. Die Tabelle 7.1 listet die Ergebnisse der berechneten Szenarien für das OVRP auf.
7.6.1.1 Auswertung Die Tabelle 7.1 listet die 14 Instanzen, die besten bekannten Lösungen und die erzielten Ergebnisse für beide Zielfunktionen auf. Dabei wird deutlich, dass nur fünf der 14 Instanzen die beste bekannte Lösung nicht erreichen oder verbessern konnten. Zunächst soll die Gesamttourlängen-Zielfunktion betrachtet werden. Vier Instanzen konnten die beste bekannte Gesamttourlänge nicht erreichen. Dabei betrug die durchschnittliche Verschlechterung der vier Instanzen 2,05%. Das Ergebnis der Instanz c14 konnte dagegen um über 6% verbessert werden. Die durchschnittliche Verbesserungsquote betrug etwa 1,4%.
174
A. Reinholz und H. Schneider
Tabelle 7.1 Die Tabelle listet die Ergebnisse der 14 Testinstanzen des OVRP auf. Die Instanzen stammen aus den Arbeiten von Brandao und Fu [Bra04, LFE05] und die besten bekannten Ergebnisse wurden der Arbeit von Ropke [RPi07] entnommen. Die Tabelle führt folgende Spalten von links nach rechts auf: Name der Instanz, beste bekannte Anzahl an Fahrzeugen, beste bekannte Gesamttourlänge, Fahrzeuganzahl nach dieser optimiert, Gesamttourlänge nach Fahrzeuganzahl optimiert, die relative Differenz zur besten bekannten Gesamttourlänge. Das jeweils beste Ergebnis einer Zeile ist fett ausgeführt. Name
Best. in Lit. Anz.
Optimiert nach Anzahl und Entfernung Entf.
Anz.
Entf.
Δ Entf. [%]
c1
5
408,50
5
416,06
1,85
c2
10
567,14
10
567,14
0,00
c3
8
617,00
8
640,54
3,82
c4
12
733,13
12
733,13
0,00
c5
16
896,08
17
872,26
−2,66
c6
6
400,60
5
417,36
4,18
c7
10
583,19
11
568,90
−2,45
c8
9
638,20
9
640,89
0,42
c9
13
757,84
13
747,31
−1,39
c10
17
875,67
17
872,54
−0,36
c11
7
682,12
7
682,12
0,00
c12
10
534,24
10
534,24
0,00
c13
11
909,80
11
862,98
−5,15
c14
11
591,87
10
554,15
−6,37
Bei der Betrachtung der Zielfunktion der Minimierung der Fahrzeuganzahl konnten nur zwei Instanzen die beste bekannte Fahrzeuganzahl nicht erreichen, während zweimal die Anzahl der Fahrzeuge um eins verringert werden konnten. Wird die optimierte Fahrzeuganzahl mit der minimierten Gesamttourlänge zusammen berücksichtigt, so ergibt sich, dass fünf Instanzen das beste bekannte Ergebnis nicht erreichen konnten. Viermal wurde das beste bekannte Ergebnis eingestellt und fünfmal wurde ein besseres Ergebnis erreicht.
7.6.2 VRP mit Rückläufen und Zeitfenstern Eine Kombination von zwei Standard-VRP-Varianten ist das VRP mit Rückläufen und Zeitfenstern (VRPBHTW). Dabei besitzt jeder Knoten (Kunden und Depots) ein Zeitfenster, in dem Waren abgeladen oder aufgenommen werden dürfen. Zudem gilt eine Rücklaufbedingung, die die Folge der Aufträge auf einer Tour festlegt. Demnach darf erst dann eine Ladung aufgeladen werden, wenn die letzte Sendung
7 Ein prozess- und objektorientiertes Modellierungskonzept
175
ausgeliefert wurde. Außerdem muss die Kapazitätsrestriktion des Fahrzeugs eingehalten werden. Im Modellierungskonzept lassen sich alle Restriktionen über Ressourcen bewerten. Die Rücklaufbedingung wird über einen Zustandsautomaten bewertet, wobei jeder Tour ein Zustand zugeordnet wird und dieser über spezielle Transformationsfunktionen in andere Zustände überführt werden kann. Für das VRPBHTW wurden die ersten sechs der 15 Instanzen aus der Arbeit von Gelinas et al. [SGD+95] verwendet. Diese basieren auf fünf verschiedenen Grunddatensätzen, wobei der Anteil der Rückläufe gegenüber den Lieferungen bei 10%, 30% oder 50% liegt. Die besten bekannten Lösungen wurden der Arbeit von Ropke et al. [PRo06] entnommen. Die Ergebnisse sind in der Tabelle 7.2 aufgeführt.
7.6.2.1 Auswertung Die Tabelle 7.2 zeigt für die Optimierung der Gesamttourlänge, dass der benutzte Optimierungsalgorithmus für vier der sechs Instanzen bessere Ergebnisse berechnen konnte. Dafür werden bei allen erzielten Lösungen der sechs Instanzen mehr Fahrzeuge eingesetzt. Die beiden Ergebnisse, deren Gesamttourlänge nicht erreicht oder verbessert werden konnten, weichen dabei nur um maximal 1,6% von der besten bekannten Lösung ab. Wird die reine Minimierung der Fahrzeuganzahl betrachtet, so konnte kein besseres Ergebnis gefunden werden. Für zwei Instanzen wurde die Fahrzeuganzahl für die beste bekannte Lösung nachvollzogen, während bei den Restlichen vier immer ein Fahrzeug mehr benutzt werden musste. Das ergibt eine maximale Abweichung von 5% vom bekannten Optimum. Insgesamt konnte jedoch für die vollständige Zielfunktion dieses Problems, also dass die Fahrzeuganzahl primär und die Gesamttourlänge sekundär minimiert wird, keine der besten bekannten Lösungen nachvollzogen werden. Die Instanzen BHR101A und BHR101C erreichten zwar die Fahrzeuganzahl der Vergleichslösung, allerdings wichen diese von der Gesamttourlänge um maximal 1,5% ab. Tabelle 7.2 Die Tabelle listet die Ergebnisse der sechs untersuchten VRPBHTW-Instanzen auf. Die Instanzen entstammen der Arbeit von Gelinas et al. [SGD+95] und die besten bekannten Ergebnisse wurden der Arbeit von Ropke et al. [PRo06] entnommen. Der Aufbau der Tabelle ist mit der Tabelle 7.1 vergleichbar. Name
BHR101A BHR101B BHR101C BHR102A BHR102B BHR102C
Best. in Lit.
Optimiert nach Entfernung
Anz.
Entf.
Anz.
Entf.
22 23 24 19 21 21
1818,86 1959,56 1909,84 1653,19 1764,30 1745,70
22 24 24 20 22 22
1819,73 1933,12 1939,09 1620,59 1750,69 1775,76
D Entf. [%] 0,05 −1,35 1,53 −1,97 −0,77 1,72
176
A. Reinholz und H. Schneider
7.6.3 VRP mit mehreren Depots Die VRP-Variante mit mehreren Depots (MDVRP) erweitert die Struktur eines Tourenplans Touren an verschiedenen Depots starten oder enden zu lassen. Dabei muss nur die Kapazitätsrestriktion der Fahrzeuge beachtet werden. Die Möglichkeiten der strukturellen Erweiterung werden durch die Operatoren der Nachbarschaftssuchen ausgeschöpft, bei denen weitere Freiheitsgrade für die Untersuchung der Zuordnung einer Tour zu einem Depot hinzugefügt werden. Bei der Leistungsbewertung des MDVRP wurden 19 der 33 Instanzen von Golden et al. [Weg03] optimiert, die sich in der Depotanzahl, der Kapazität und der maximalen Tourlänge unterscheiden. Die besten Ergebnisse wurden den Arbeiten von Reinholz [RSc99, Rei03] und der Quelle [VRP08] entnommen. Die Tabelle 7.3 stellt die erzielten Ergebnisse dar.
7.6.3.1 Auswertung Aus der Tabelle 7.3 ist zu entnehmen, dass insgesamt für neun der 19 Instanzen das beste bekannte Ergebnis nachvollzogen werden konnte, wohingegen achtmal dies nicht geschafft werden konnte. Die Optimierung alleine nach der Gesamttourlänge erbrachte, dass in zwei Fällen die bekannte Lösung verbessert wurde. Dagegen wurde achtmal die Lösung nicht erreicht mit einer durchschnittlichen Abweichung von unter 1%. Die Optimierung der Fahrzeuganzahl konnte dagegen in neun Instanzen eine geringere Anzahl finden, obwohl dadurch die Gesamttourlänge länger wurde. Im Durchschnitt verschlechterte sie sich um 1,03%.
7.7
Zusammenfassung
Das Ziel dieser Arbeit bestand im Entwurf eines integrativen Modellierungsansatzes für das Vehicle Routing Problem (VRP) zur flexiblen Abbildung unterschiedlicher Varianten. Es wurden Designanforderungen aufgestellt, die für eine flexible Modellierung gelten müssen. Dazu wurde ein Modellierungskonzeptes entworfen, welches auf drei Säulen basiert: der Abstrahierung des Graphen durch eine gesonderte Repräsentation der Touren, der Darstellung der Touren als Kette von Aktivitäten und der Einbettung des Ressourcen-Konzeptes von [DDe06] zur Valididierung und Evaluierung. Ausführlich wurden die Verknüpfungen der einzelnen Elemente des Konzeptes vorgestellt und beschrieben. Neben der Möglichkeit die Standard-VRPVarianten umsetzen zu können, wurde die Abbildung von Risiko im Tourenplan diskutiert. Der praktische Nutzen dieser Betrachtung ist im alltäglichen Transportgeschäft deutlich erkennbar; jedoch wurde die Betrachtung der Unsicherheiten bei
7 Ein prozess- und objektorientiertes Modellierungskonzept
177
Tabelle 7.3 Die Tabelle listet die 19 Ergebnisse der 33 MDVRP-Instanzen von Golden et al. [WCG93] auf. Die besten bekannten Lösungen wurden den Arbeiten von Reinholz [RSc99, Rei03] und der Quelle [VRP08] entnommen. Die Tabelle führt folgende Spalten von links nach rechts auf: Name der Instanz, beste bekannte Anzahl an Fahrzeugen, beste bekannte Gesamttourlänge, Fahrzeuganzahl nach Gesamttourlänge optimiert, Gesamttourlänge nach dieser optimiert, die relative Differenz zur besten bekannten Gesamttourlänge. Das jeweils beste Ergebnis einer Zeile ist fett ausgeführt Name
Best. in Lit.
Optimiert nach Entfernung
Anz.
Entf.
Anz.
Entf.
D Entf. [%]
p01
11
576,87
11
576,87
0,00
p02
5
473,53
5
473,53
0,00
p03
11
641,19
11
641,19
0,00
p04
15
1001,59
15
1004,51
0,29
p05
8
750,03
8
751,15
0,15
p06
16
876,50
16
882,65
0,70
p07
16
881,97
16
888,65
0,75
p12
8
1318,95
8
1318,95
0,00
p13
8
1318,95
8
1318,95
0,00
P14
8
1360,12
8
1360,12
0,00
p15
16
2505,42
16
2505,42
0,00
p16
16
2572,23
16
2572,23
0,00
p17
16
2709,09
16
2713,96
0,18
pr01
4
861,23
4
861,32
0,00
pr02
9
1288,37
9
1296,24
0,61
pr03
11
1782,58
12
1807,76
1,41
pr04
16
2059,70
15
2075,60
0,77
pr07
7
1085,61
6
1073,62
−1,10
pr08
12
1666,60
13
1663,41
−0,19
der Durchführung der Fahrten nur selten vorgenommen. Die Integrierung des Risikomanagements als Ressource ermöglicht die direkte Einbindung in das entworfene Modellierungskonzept. Für die Optimierung des VRP mit dem Modellierungskonzept wurden fünf verschiedene Nachbarschaftssuchen entworfen, die Spezialisierungen der komplexesten Nachbarschaftssuche, dem CrossExchange, darstellen. Die Wahl der Nachbarschaftssuchen als Lösungsverfahren wurde von der verwendeten beschleunigten Funktionsauswertung über das Superkunden-Konzept beeinflusst, da diese gerade bei den Nachbarschaften einen besonders hohen Effizienzgewinn erbringt.
178
A. Reinholz und H. Schneider
Zum Abschluss wurden die Optimierungsfähigkeiten des entworfenen Modellierungskonzeptes an drei recht unterschiedlichen VRP-Varianten durch eine Leistungsbewertung bewertet. Der Vergleich fand an Benchmark-Ergebnissen aus der Literatur statt, wo gezeigt werden konnte, dass das Design und die Implementierung mit den spezialisierten zugeschnittenen Optimierungsalgorithmen Schritt halten kann. Als Ergebnis dieser Arbeit lässt sich festhalten, dass der Entwurf einer anpassungsfähigen Modellierung zur Abbildung vieler VRP-Varianten gelungen ist und die Reduzierung des Anpassungsaufwandes über Ressourcen und Transformationen gezeigt werden konnte. Zudem konnte durch die Einbettung des Superkunden-Konzeptes als beschleunigte Funktionsauswertung ein Grad der Effizienz erreicht werden, mit dem selbst größere Probleme beherrschbar sind. Die Verwendung von Verbesserungsheuristiken besitzt im Gegensatz zu den oft eingesetzten Konstruktionsheuristiken mehrere Vorteile, die beim Einsatz des Optimierverfahrens in Assistenzsystemen zum Tragen kommen. So ist eine akzeptable Lösung bereits frühzeitig fertig und die Dauer der Optimierung kann nach persönlicher Einschätzung des Anwenders reguliert werden. Dadurch erlangen die entwickelten Optimierungsalgorithmen einen großen Anwendungsbereich. Die Integration von verschiedenen Ansätzen, wie das Ressourcen-Konzept, das Superkunden-Konzept oder die Einbindung der iterativen Variations- und Selektionsverfahren, verbindet die deren Vorteile und überdecktet die Nachteile. Auf diese Weise können hochwertige Problemmodellierungen in kurzer Zeit erstellt und weit reichend optimiert werden. Durch den praktischen Einsatz in Assistenzsystemen muss die Tauglichkeit der entwickelten Methode erprobt und verfeinert werden.
Literatur [BGo83] Bodin L, Golden B (1983) Routing and scheduling of vehicles and crews – The state of the art. In: Comput Oper Res 10(2):63–211 [Bra04] Brandao J (2004) A tabu search algorithm for the open vehicle routing problem. Eur J Oper Res 157(3):552–564 [CGW93] Chao I-M, Golden B, Wasil E (1993) A new heuristic for the multi-depot vehicle routing problem that improves upon best-known solutions. Am J Math. Manage Sci 13(3–4):371–406, ISSN 0196-6324 [DDe06] Desaulniers G, Desrosiers J (2006) Dynamic Constraint Aggregation and Fixed Cost Management GERAD Summer School on Column Generation, Montreal, Canada [IGr05] Irnich S, Grünert T (2005) Optimierung im Transport. Bd III Shaker Verlag, Aachen [Irn06] Irnich S (2006) Resource Extension Functions: Properties, Inversion an Generalization to Segments/Deutsche Post Endowed Chair of Opimization of Distribution Networks, RWTH Aachen, Universität, Aachen, Germany – Forschungsbericht [LFE05] Li O, Fu Z, Eglese R (2005) A new tabu search heuristic for the open vehicle routing problem. J Oper Res Soc 56(3):267–274(8) [LLR+85] Lawler E, Lenstra J, Rinnooy Kan A, Shmoys D (1985) The traveling salesman problem: A guided our of combinatorial optimization. New York: Wiley [LRi81] Lenstra JK, Rinnooy Kan A (1981) Complexity of vehicle routing and scheduling problems. Networks 11(2):221–227
7 Ein prozess- und objektorientiertes Modellierungskonzept
179
[MHa97] Mladenovic N, Hansen P (1997) Variable neighborhood search: Principles and applications. GERAD and École des Hautes Études Commerciales, Montréal, Canada [PRo06] Pisinger D, Ropke S (2006) A unified heuristic for a large class of Vehicle Routing Problems with Backhauls/DIKU, Department of Computer Science, University of Copenhagen, Denmark. Eur J Oper Res 171(3):750–775 – Forschungsbericht [Rei03] Reinholz A (2003) How to design efficient iterated local search, variable neighborhood search and hybrid evolutionary algorithms for periodic multi depot vehicle routing problems (tutorium). In: 5th Metaheuristics International Conference (MIC 03), Kyoto, Japan [RPi07] Ropke S, Pisinger D (2007) A general heuristic for vehicle routing problems/DIKU, Department of Computer Science, University of Copenhagen, Denmark. Comput Oper Res 34(8):2403–2435 – Forschungsbericht [RSc99] Reinholz A, Schwefel H-P (1999) Optimierung von logistischen Netzwerken 17. Dortmunder Gespräche, Fraunhofer Institut für Materialfluss und Logistik [SCD+02] Soumis F, Cordeau J-F, Desaulniers G, Desrosiers J, Solomon M (2002) The VRP with time windows. SIAM Monographs on Discrete Mathematics and Applications, Philadelphia, pp 157–193 [Sch08] Schneider H (2008) Umsetzung und Leistungsbewertung eines objektorientierten Modellierungskonzeptes für Rich Vehicle Routing Problems, Technische Universität Dortmund [SGD+95] Solomon M, Gelinas S, Desrochers M, Desrosiers J (1995) A new branching strategy for time constrained routing problems with application to backhauling. Ann Oper Res 61(1):91–109 [SJi03] Sendhoff B, Jin J (2003) Trade-off between performance and robustness: An evolutionary multiobjective approach. 237 [TCS79] Toth P, Christfiodes N, Sandi A (eds) (1979) Combinatorial optimization. Wiley, Chichester [TRK+03] Trotter L, Ralphs TK, Kopman L, Pulleyblank W (2003) On the capacitated vehicle routing problem. Math Program 94(2–3):343–359 [VRP08] The VRP Web 2008. http://neo.lcc.uma.es/radi-aeb/WebVRP/, Zugriff 19. Januar 2008 [VTo01] Vigo D, Toth P (2001) An overview of vehicle routing problems 1–26, ISBN 0-89871-498-2 [WCG93] Wasil E, Chao I-M, Golden B (1993) A new heuristic for the multidepot vehicle routing problem that improves upon best-known solutions. Am J Math Manage Sci 13(3–4):371–406 [Weg03] Wegner I (2003) Komplexitätstheorie. Springer, Berlin
Kapitel 8
Optimierung ereignis-diskreter Simulationsmodelle im ProC/B-Toolset Markus Arns, Peter Buchholz und Dennis Muller ¨
8.1
Einleitung
Das Interesse an der Modellierung und Analyse großer Netze in der Logistik liegt h¨aufig in der optimalen Ausgestaltung eines geplanten Systems oder der optimalen Reorganisation eines bestehenden Systems. In beiden F¨allen besteht das Ziel darin, die modellseitig vorhandenen Freiheitsgrade derart auszuf¨ullen, dass die System-Anforderungen hinsichtlich Leistungsf¨ahigkeit, Zuverl¨assigkeit und/oder Kosten optimal oder zumindest nahezu optimal erf¨ullt werden. Aus methodischer Sicht ist die Wahl der Freiheitsgrade somit eine Optimierungsaufgabe auf einem i. A. mehrdimensionalen Suchraum, deren Zielfunktion meist durch ein komplexes Simulationsmodell beschrieben ist. Da die Auswertung eines einzigen Punktes aus dem Suchraum durch einen Simulationslauf h¨aufig bereits sehr zeitintensiv ist, und da die Simulationsresultate zudem stochastischen Charakter haben, l¨asst sich obige Optimierungsaufgabe nur anhand spezieller, an die Simulation angepasster Optimierungsverfahren l¨osen. Die Optimierung von Simulationsmodellen ist ein aktuelles Forschungsgebiet, in dem neben praktisch eingesetzten Softwaresystemen, die meist auf optimierten Heuristiken beruhen [AGK + 06], eine Vielzahl von Optimierungsans¨atzen entwickelt und theoretisch oder experimentell untersucht wurden [And06, Fum02, HNe06]. In diesem Beitrag werden vier f¨ur die Optimierung von stochastischen Simulationsmodellen geeignete Ans¨atze, n¨amlich die Response Surface Methode (RSM), Pattern Search (PS), Evolution¨are Algorithmen (EA) und ein Verfahren basierend auf Kriging-Metamodellen (KM) vorgestellt. Bei allen Verfahren handelt es sich um iterative Suchheuristiken. Diese k¨onnen in lokale oder globale Suchheuristiken unterteilt werden, wobei i. d. R. lokale Verfahren bei unimodalen Zielfunktionen und D. M¨uller (✉) Technische Universit¨at Dortmund Fakult¨at f¨ur Informatik, Informatik IV August-Schmidt-Str.12 44227 Dortmund, Deutschland E-mail:
[email protected]
P. Buchholz und U. Clausen (Hrsg.), Große Netze der Logistik, c Springer-Verlag Berlin Heidelberg 2009 DOI 10.1007/978-3-540-71048-6 8,
181
182
M. Arns et al.
globale Verfahren bei multimodalen Zielfunktionen bessere Ergebnisse liefern. Es bietet sich deshalb an, verschiedene Verfahren zu kombinieren, um zu effizienten und robusten Optimierungsverfahren zu gelangen. Lokale Suchheuristiken wie RSM und PS betrachten bei jedem Schritt ihrer Suche lediglich einen explizit festgelegten Teil des Suchraums, den so genannten lokalen Bereich. In diesem Bereich werden f¨ur eine Reihe von Punkten die Werte der Zielfunktion berechnet. Auf der Basis dieser Ergebnisse wird dann die Richtung bestimmt, in der eine Verbesserung bzgl. der bekannten Werte am wahrscheinlichsten ist. PS nutzt dazu eine Reihe von Punkten, bei der f¨ur jeden einzelnen Freiheitsgrad eine m¨ogliche Verbesserung gesucht wird. Die angenommene Richtung der gr¨oßten Verbesserung ist danach die Differenz aus dem Startpunkt dieses Suchschritts und dem besten gefundenen Punkt. RSM nutzt im Wesentlichen lineare Regressionsmodelle erster Ordnung. Dazu wird zuerst das Simulationsmodell an einigen Experimentpunkten ausgewertet und mit Hilfe von Kleinstquadratsch¨atzung ein Regressionsmodell angepasst. Mit Hilfe des Regressionsmodells wird dann die Richtung des steilsten Anstiegs bzw. Abstiegs bestimmt. Wenn die so bestimmte Richtung keine Verbesserung der Zielfunktion erreicht, sieht RSM eine Reihe von Ausweichmethoden vor, die z. B. den Einsatz linearer Regressionsmodelle zweiter Ordnung mit einschließen. Durch den iterativen Einsatz von Simulationsauswertungen und Optimierung eines Regressionsmodells wird ein lokales Optimum bestimmt. Evolution¨are Algorithmen nutzen Strategien in Anlehnung an die Evolution biologischer Systeme, um schrittweise zu verbesserten Konfigurationen zu gelangen. Dabei bildet eine Menge von Punkten des Suchraums eine so genannte Population, wobei jeder Punkt als Individuum bezeichnet wird. Aus der aktuellen Population wird eine neue Population mittels Mutation einzelner Individuen bzw. Kombination zweier Individuen erzeugt. Die besten Individuen, d. h. die Individuen mit den besten Werten bzgl. der Zielfunktion, bilden dann die Nachfolgegeneration. Evolution¨are Algorithmen eignen sich insbesondere zur globalen Optimierung, da bei angepasster Parametrierung der Suchraum u¨ berdeckt wird und vielversprechende Regionen identifiziert werden k¨onnen. F¨ur die lokale Optimierung werden, da neue Individuen zufallsgesteuert erzeugt werden, oftmals viele Auswertungsschritte ben¨otigt, was gerade bei aufw¨andigen Simulationsauswertungen nachteilig ist. Bei der Optimierung mittels Kriging-Metamodellen wird die Zielfunktion m¨oglichst genau mit einem Korrelationsmodell approximiert. In jedem Schritt der Suchheuristik wird ein neuer Punkt ausgewertet. Dieser Punkt wird so bestimmt, dass der erwartete Wert der Zielfunktion m¨oglichst niedrig oder die Unsicherheit u¨ ber das zu erwartende Ergebnis m¨oglichst groß ist. Beides kann aus dem KrigingMetamodelle abgeleitet werden. Kriging-Metamodelle werden erst seit relativ kurzer Zeit in der stochastischen Simulation eingesetzt und erheben den Anspruch, auch komplexe Funktionen global approximieren zu k¨onnen. Sowohl RSM, PS, EA als auch KM unterliegen spezifischen Anforderungen hinsichtlich der zugrunde liegenden Simulationsmodelle, die insbesondere die Eingrenzung des Suchbereichs und den Wertebereich der einzelnen Freiheitsgrade betreffen.
8 Optimierung ereignis-diskreter Simulationsmodelle im ProC/B-Toolset
183
Dieser Beitrag stellt die genannten Optimierungsverfahren vor und vergleicht sie hinsichtlich ihrer Anforderungen an die Simulationsmodelle speziell im Kontext von ProC/B-Modellen sowie hinsichtlich ihrer Effizienz und Resultatsqualit¨at. Anhand eines ProC/B-Modells wird die Anwendbarkeit der Verfahren zur Optimierung von Logistiknetzen exemplarisch herausgearbeitet.
8.2
Optimierverfahren
Dieses Kapitel stellt einige Optimierverfahren vor, die sich zur Optimierung ereignisorientierter Simulationsmodelle einsetzen lassen. Die zentraleAufgabe dabei besteht darin, einen oder mehrere ausgew¨ahlte Modellparameter (Faktoren) derart geeignet mit Werten zu belegen, dass sich hinsichtlich eines bestimmten Simulationsresultats bzw. eines bestimmten Leistungsmaßes des Modells ein minimaler bzw. maximaler Wert (Response) einstellt. In manchen Anwendungen kann auch die simultane Optimierung mehrerer Resultatwerte von Interesse sein (multikriterielle Optimierung). Diese erweiterte Problemstellung wird hier nicht untersucht. Jeder einzelne Faktor ist aus einem festgelegten (diskreten oder kontinuierlichen) Intervall unter Umst¨anden unter Ber¨ucksichtigung von Nebenbedingungen zu w¨ahlen. Im Gegensatz zu Optimierverfahren f¨ur explizit bekannte Funktionen besteht die besondere Schwierigkeit darin, dass das zu optimierende Leistungsmaß (Zielfunktion) nicht in geschlossener Form vorliegt, sondern durch ein Simulationsmodell gegeben ist. Optimierverfahren f¨ur Simulationsmodelle sind also zwingend darauf angewiesen, (nahezu) optimale Parameterbelegungen durch i. A. mehrere Modellauswertungen/Simulationsl¨aufe zu ermitteln. Da die Simulation stochastische Resultate liefert, sind die auftretenden Schwankungen der Simulationsresultate bei der Optimierung zu ber¨ucksichtigen. Die Qualit¨at eines Optimierungsverfahrens wird wesentlich von der Anzahl n¨otiger Modellauswertungen sowie von der G¨ute des gefundenen Optimums abh¨angen. Aus formaler Sicht besteht die Problematik also in der Bestimmung von Faktoren x = (x1 ,. . . , xk ) aus einem Wertevorrat W einer implizit durch ein Simulationsmodell gegebenen Funktion y = f(x1 ,. . . , xk ) derart, dass y minimal/maximal wird. Der Wertebereich W des Vektors x =(x1 ,. . . , xk ) heißt der zul¨assige Bereich des Optimierungsproblems. Ferner sei an dieser Stelle angemerkt, dass es i. A. ausreicht, Minimierungsprobleme zu untersuchen, da sich Maximierungsprobleme durch Betrachtung der Zielfunktion mit negativem Vorzeichen auf Minimierungsprobleme zur¨uckf¨uhren lassen. Wie bereits angedeutet, unterliegen Simulationsresultate h¨aufig stochastischen Schwankungen, d. h. die Funktion f kann nicht exakt ausgewertet werden, sondern das Resultat wird mit einem Fehler ε u¨ berlagert. Man geht in der Regel davon aus, dass ε normalverteilt mit Erwartungswert 0 und Standardabweichung σ ist. Damit liefert die Simulation γ = f(x1 , . . . , xk )+ ε. Das Ergebnis γ ist eine Zufallsvariable mit Erwartungswert y. Auf die Besonderheiten stochastischer Beobachtungen bei der Optimierung von Simulationsmodellen wird in Abschn. 8.2.7 n¨aher eingegangen. Ein weiterer Aspekt, der vor der Optimierung beachtet werden sollte, ist die Auswahl
184
M. Arns et al.
relevanter Faktoren aus der Menge der m¨oglichen Faktoren. Ziel ist es, eine m¨oglichst kleine Menge von Faktoren zu bestimmen, die das Systemverhalten entscheidend beeinflussen. Die dazu notwendigen Verfahren des Factor-Screenings werden in [LKe00] beschrieben. Wir gehen im Folgenden davon aus, dass die gew¨ahlten Faktoren einen signifikanten Einfluss auf das zu optimierende Leistungsmaß haben. Im Folgenden werden vier unterschiedliche Optimierungsverfahren vorgestellt, die sich im Kontext ereignisorientierter Simulationsmodelle einsetzen lassen. Zun¨achst werden die lokalen Verfahren RSM und PS und anschließend die globalen Verfahren ES und KM vorgestellt. Ferner wird im Anschluss auf die Kombination unterschiedlicher Verfahren eingegangen. Zum Abschluss des Kapitels werden die Einbeziehung von Nebenbedingungen und die Ber¨ucksichtigung stochastischer Schwankungen bei der Simulation beschrieben.
8.2.1
Die Response Surface Methode
RSM ist eine Sammlung statistischer und mathematischer Methoden, die zur Optimierung von Systemen genutzt werden k¨onnen. Diese Methode wird ausf¨uhrlich im Allgemeinen in [MMy02] und in Hinblick auf Simulation in [NOP+00] diskutiert. Die hier aufgef¨uhrte Beschreibung orientiert sich im Wesentlichen an diesen Ausf¨uhrungen. RSM ist ein lokales Suchverfahren, welches dasVerhalten des Simulationsmodells lokal durch ein Polynom niedriger Ordnung approximiert und auf diese Weise eine Abstiegsrichtung bestimmt. Die wesentliche Herausforderung bei der Verwendung von RSM zur Minimierung von Simulationsmodellen besteht darin, einen Ansatz zu finden, der ein Simulationsmodell m¨oglichst automatisch, d. h. ohne Benutzereingriff optimiert. Die hier vorgestellte Variante basiert auf [BMT05]. 8.2.1.1 Ablauf der Optimierung und Einsatz der dabei genutzten Methoden Die Optimierung mittels RSM wird schrittweise durchgef¨uhrt. Im Folgenden werden zuerst die Schritte informell beschrieben, bevor eine detaillierte mathematische Formulierung geliefert wird. In jedem Schritt wird ein Teil des g¨ultigen Wertebereichs der Faktoren betrachtet. Wir bezeichnen mit W den gesamten Wertebereich der Faktoren und mit w die halbe Breite des Wertebereichs, der im aktuellen RSMSchritt untersucht wird. Mittelpunkt dieses Bereichs ist der aktuelle Centerpoint. Die halbe Breite des Bereichs w ist eine relative Gr¨oße und bezieht sich auf die Gr¨oße des Wertebereichs des jeweiligen Faktors. Zur besseren Handhabbarkeit werden die Faktorwerte aus ihren nat¨urlichen Wertebereichen in kodierte, einheitenlose Wertebereiche umgerechnet. Dabei gilt: • Der Centerpoint ist Nullpunkt, • Alle Koordinaten der Eckpunkte des untersuchten Bereichs sind 1 oder −1. F¨ur einen Wert wi aus dem nat¨urlichen Wertebereich des Faktors i mit einer unteren Grenze li und einer oberen Grenze ui ergibt sich der Wert xi im kodierten
8 Optimierung ereignis-diskreter Simulationsmodelle im ProC/B-Toolset
185
Wertebereich wie folgt: mi =
ui + li ui − li wi − mi , bi = , xi = , (i = 1, . . . , k) 2 2 bi
(8.1)
Im weiteren Verlauf dieses Texts betrachten wir ausschließlich kodierte Variablen. Zu Beginn des Verfahrens muss ein initialer Wertebereich inklusive des Centerpoints festgelegt werden. Die Lage und Gr¨oße dieses Wertebereichs beeinflusst den Ablauf des Verfahrens. Vor dem eigentlichen Optimierungsschritt und der Anpassung des Polynoms als Metamodell muss entschieden werden, wie viele Punkte ausgewertet und nach welchen Kriterien diese ausgew¨ahlt werden sollen. Die Anzahl der auszuwertenden Punkte wird nach unten von der Art des verwendeten Modells und nach oben durch die ben¨otigte Zeit begrenzt. Zur Auswahl der Punkte haben sich verschiedene standardisierte Designs etabliert, die Kriterien zur Berechnung der Koordinaten der einzelnen Punkte festlegen. Nachdem die Entscheidungen u¨ ber die Anzahl der Punkte und der Art des Designs getroffen wurden, m¨ussen die Punkte ausgewertet werden. Dies bedeutet, dass Simulationen mit den entsprechenden Parameterbelegungen durchgef¨uhrt werden. Da die Ergebnisse stochastisch schwanken, m¨ussen Punkte mehrfach ausgewertet werden, um gen¨ugend genaue Resultate zu erlangen. Auf diesen Aspekt wird in Abschn. 8.2.7 n¨aher eingegangen. Bei RSM wird u¨ blicherweise das Modell am Centerpoint genauer als in den Randpunkten ausgewertet. Anschließend kann mit dem eigentlichen Optimierungsschritt auf der Basis eines Modells erster oder zweiter Ordnung begonnen werden. Das Ergebnis eines Optimierungsschritts ist entweder der alte oder ein neuer Centerpoint, der sich durch einen besseren Response auszeichnet. Auf diese Weise n¨ahert man sich einem lokalen Optimum (s. Abb. 8.1). Nach jedem Optimierungsschritt muss entschieden werden, wie weiter vorzugehen ist. Es gibt eine Reihe von Kriterien, anhand derer die Entscheidung gef¨allt werden kann. Die zwei Hauptkriterien „Gr¨oße des Suchbereichs“ und „Anzahl der Auswertungen bzw. Optimierungsschritte“ sollten dabei auf jeden Fall ber¨ucksichtigt werden. Ist der Suchbereich ausreichend klein, sind weitere Schritte wenig sinnvoll, da einerseits keine wesentliche Verbesserung des Responses zu erwarten ist und andererseits auch als kontinuierlich angenommene Faktoren ¨ h¨aufig nur eine beschr¨ankte Genauigkeit haben. Uber die Anzahl der Auswertungen bzw. Optimierungsschritte kann der Zeitaufwand f¨ur die Optimierung abgesch¨atzt
I I I
Abb. 8.1 Ablauf der Response Surface Methode
I
II
186
M. Arns et al.
werden. Dar¨uber hinaus existiert eine Reihe weiterer Kriterien, anhand derer der Ablauf von RSM ver¨andert werden kann: • Distanz zwischen aktuellem und letzten Centerpoint • Differenz der Responses von aktuellem und letzten Centerpoint Insgesamt ist anzustreben, die Kriterien zur Auswahl des Modelltyps, des Experimentdesigns und der Verkleinerung des Suchbereichs m¨oglichst algorithmisch zu realisieren, so dass das gesamte Verfahren automatisch abl¨auft.
8.2.1.2
Experimentdesigns
Zur Generierung von Metamodellen werden bei RSM in den meisten F¨allen (Fractional) Factorial Designs oder Central Composite Designs genutzt. Die hier aufgef¨uhrte Beschreibung orientiert sich im Wesentlichen an [Mon01]. Ein Factorial Design besteht aus insgesamt 2k Punkten, wobei k die Anzahl der Faktoren ist. Die Punkte eines Factorial Designs werden um einen Centerpoint mit einer Weite w erzeugt, wobei f¨ur jeden Faktor xi des Centerpoints die Werte xi1 = xi − wi und xi2 = xi + wi berechnet und alle m¨oglichen Kombinationen erzeugt werden (s. Abb. 8.2 links f¨ur den Fall k = 2). Da die Anzahl der auszuwertenden Punkte sehr schnell w¨achst, zur Erzeugung eines Matemodell erster Ordnung aber nur k + 1 Punkte notwendig sind, werden oft so genannte Fractional Factorial Designs genutzt, die aus 2k−p Punkten bestehen. Es werden also nicht s¨amtliche Kombinationen von Faktorwerten analysiert. F¨ur eine geschickte Auswahl der zu analysierenden Punkte sei auf [LKe00, Mon01] verwiesen. Das Central Composite Design (s. Abb. 8.2 rechts) entspricht einem Factorial Design, das um einige Punkte erweitert wurde. F¨ur jeden Faktor werden √ zwei zus¨atzliche Punkte erzeugt, die jeweils in Richtung dieses Faktors um ± 2 · w verschoben werden. Die Gesamtzahl der Punkte eines Central Composite Designs ist also 2k + 2k. Mit diesem Design k¨onnen auch Metamodelle h¨oherer Ordnung, in unserem Fall Ordnung 2 erzeugt werden. Auch hier gilt wieder, dass die Anzahl der zu analysierenden Punkte sehr schnell w¨achst und deshalb bei h¨oher dimensionalen Problemen nur ein Teil der m¨oglichen Kombinationen ausgewertet wird. (0, (-1,1)
(1,1)
2) (1,1)
(-1,1)
( 2,0)
(- 2,0)
Abb. 8.2 Factorial und Central Composite Design
(-1,-1)
(1,-1)
(1,-1)
(-1,-1) (0,-
2)
8 Optimierung ereignis-diskreter Simulationsmodelle im ProC/B-Toolset
187
Wie aus den zweidimensionalen Beispielen deutlich wird, erfolgt eineAuswertung des Modells jeweils am Rand des zu analysierenden Bereichs. Beim Composite Design wird eine zus¨atzliche Auswertung im Mittelpunkt erg¨anzt. Man kann zeigen, dass diese Wahl gewisse Eigenschaften des resultierenden Metamodells optimiert, z. B. die Varianz der Sch¨atzer f¨ur die Koeffizienten [Mon01].
8.2.1.3
Optimierung mittels linearer Regressionsmodelle erster Ordnung
Zur Optimierung wird bei RSM ein Polynom als Metamodell verwendet. ¨ Ublicherweise wird dabei m¨oglichst mit Polynomen erster Ordnung gearbeitet. Dies bedeutet, dass das Modellverhalten bez¨uglich der zu analysierenden Leistungsgr¨oße durch eine Hyperebene approximiert wird. Diese Hyperebene dient je nach Optimierungsziel zur Bestimmung der Richtung des steilsten An- oder Abstiegs, die wiederum zur Bestimmung neuer Centerpoints genutzt wird. y = β0 +
k
(βi · xi ) + ε
(8.2)
i=1
Zur Bestimmung des Modells erster Ordnung (Gl. (8.2)) muss zuerst ein (Fractional) Factorial Design mit der vorgegebenen Breite des Suchbereichs w und dem aktuellen Centerpoint definiert werden. Dabei werden n ≥ k + 1 Designpunkte mit dem zugeh¨origen Ergebnissen ben¨otigt, um die Regressionskoeffizienten β0 bis βk zu bestimmen. Mit den Designpunkten xi = (xi1 , . . . , xik ) und den zugeh¨origen Resultaten yi mit i = 1, . . . , n lassen sich die in Gl. (8.16) beschriebenen Matrizen bilden, wobei der Fehlervektor ε und der Koeffizientenvektor β unbekannt sind. Mit der Methode der kleinsten Fehlerquadrate kann nun Gl. (8.3) berechnet und damit die Regressionskoeffizienten β mit minimalen ε2 bestimmt werden [LKe00, Mon01]. y = Xβ + ε mit
⎛
⎜ ⎜ y=⎜ ⎝
y1 y2 .. . yn
⎞
⎛
⎟ ⎜ ⎟ ⎜ ⎟, X = ⎜ ⎠ ⎝
1 1 .. .
x11 x21 .. .
x12 x22 .. .
· · · x1k · · · x2k .. .
1
xn1
xn2
· · · xnk
⎞
⎛
⎟ ⎜ ⎟ ⎜ ⎟, β = ⎜ ⎠ ⎝
β1 β2 .. . βk
⎞
⎛
⎟ ⎜ ⎟ ⎜ ⎟, ε = ⎜ ⎠ ⎝
ε1 ε2 .. .
⎞ ⎟ ⎟ ⎟ ⎠
εn (8.3)
Die Richtung des steilsten Abstiegs kann aus dem Vektor β bestimmt werden und besteht aus den Werten −β1 bis −βk . Zur Bestimmung der Schrittweite k¨onnen verschiedene Heuristiken angewendet werden. Die empfohlene Methode w¨ahlt die Schrittweite konstant, so dass der erste Schritt auf eine der Seiten des Hypercubes f¨uhrt, der durch die Punkte eines Factorial Designs aufgespannt wird. Potentielle neue Centerpoints ergeben sich nur als Summe des aktuellen Centerpoints und des Richtungsvektors β. Zeigt eine Auswertung des potentiellen neuen Centerpoints ein
188
M. Arns et al.
besseres Resultat als am alten Centerpoint, wird der neue Punkt als Centerpoint akzeptiert und die schrittweise Suche fortgef¨uhrt; ist der Response schlechter, wird die Suche beendet. (8.4) β¯ = (max {β1 , · · · , βk })−1 β Bei dieser Vorgehensweise ist zu beachten, dass die Nebenbedingungen der zu optimierenden Funktion eingehalten werden (s. Abschn. 8.2.6) und die stochastischen Schwankungen der Ergebnisse einbezogen werden (s. Abschn. 8.2.7).
8.2.1.4
Optimierung mittels linearer Regressionsmodelle zweiter Ordnung
Mit Hilfe von Regressionsmodellen erster Ordnung lassen sich nur Hyperebenen beschreiben. Viele nichtlineare Funktionen lassen sich auch lokal nur sehr grob durch eine Hyperebene approximieren, so dass eine lokale Optimierung auf dieser Basis nur eingeschr¨ankt m¨oglich ist. RSM nutzt deshalb, wenn festgestellt wird, dass die Modelle erster Ordnung keine Verbesserung mehr liefern Modelle zweiter Ordnung. Ein lineares Regressionsmodell zweiter Ordnung ist, wie in Gl. (8.5) dargestellt, ein Polynom zweiten Grades mit 1 + (k(k + 3))/2 Regressionskoeffizienten. Die Regressionskoeffizienten β0 bis βk entsprechen denen des Regressionsmodells erster Ordnung. Hinzu kommen die Regressionskoeffizient βi,i mit i = 1, . . . , k f¨ur die Quadrate aller Faktoren und die Regressionskoeffizienten βi,j mit i = 1,. . . , k und f¨ur jedes i: j = i + 1, . . . , k f¨ur alle paarweisen Produkte der Faktoren. Da es sich um ein lineares Regressionsmodell handelt, werden die paarweisen Kombinationen der Variablen als eigenst¨andige Variablen interpretiert. Die daf¨ur notwendige Substitution wird wie folgt durchgef¨uhrt: βk+1 : = β1,1 , . . . , β2k := βk,k , β2k+1 := β1,2 , . . . . xk+1 : = x1 · x1 , . . . , x2k = xk · xk , x2k+1 := x1 · x2 , . . . Anschließend kann die Bestimmung der Regressionskoeffizienten mittels der Methode der kleinsten Fehlerquadrate durchgef¨uhrt werden. y = β0 +
k
(βi · xi ) +
i=1
k
k k
βi,i · xi2 + βi,j · xi · xj + ε
i=1
(8.5)
i=1 j=i+1
ˆ yˆ = β0 + x β + x Bx mit
⎛
⎜ ⎜ β=⎜ ⎝
β1 β2 .. .
⎞
⎛
⎜ ⎟ ⎜ ⎟ ˆ ⎜ , B = ⎟ ⎜ ⎠ ⎝
βk x = (x1 , · · · , xk )
β11
sym
β12 2 β22
⎞ · · · β1k 2 ⎛ · · · β2k 2 ⎟ ⎟ ⎟,x = ⎜ . . .. ⎝ ⎟ . . ⎠ βkk
⎞ x1 .. ⎟ . ⎠ xk
(8.6)
8 Optimierung ereignis-diskreter Simulationsmodelle im ProC/B-Toolset
189
Mit den ermittelten Regressionskoeffizienten kann nach R¨uckersetzung die in Gl. (8.6) dargestellte polynomielle Funktion zweiten Grades erstellt werden, die als Approximation des Response Surface dient. Aus den Matrizen Bˆ und β l¨asst sich der station¨are Punkt xS = − 21 Bˆ −1 β als notwendige Bedingung f¨ur ein lokales Optimum f¨ur Funktionen ohne Nebenbedingungen bestimmen. Die Art des station¨aren Punkts kann anhand der Eigenwerte der Matrix Bˆ bestimmt werden. Sind alle Eigenwerte negativ, so handelt es sich um ein Maximum, sind alle Eigenwerte positiv, handelt es sich um ein Minimum und in allen anderen F¨allen ist xs ein Sattelpunkt. Je nach Optimierungsziel kann xs verworfen werden, wenn es sich nicht um ein Maximum bzw. Minimum handelt. Ansonsten muss xs ausgewertet werden und der Response mit dem Response des aktuellen Centerpoints verglichen werden.
8.2.1.5
¨ M¨oglichkeiten der Uberpr ufung der Gute ¨ ¨ von Regressionsmodellen
In der bisherigen Beschreibung sind wir davon ausgegangen, dass die Modelle erster bzw. zweiter Ordnung eine gute Approximation des Verhaltens des Simulationsmodells darstellen. Dies muss aber nicht der Fall sein, insbesondere, wenn starke St¨orungen auftreten oder das Verhalten nichtlinear ist. Um festzustellen, ob das gew¨ahlte Metamodell keine ausreichende Approximationsg¨ute liefert, existieren verschiedene statistische Verfahren [Mon01]. Am meisten verwendet werden der Coefficient of Determination und Lack of Fit-Tests. Zu beachten ist dabei, dass eine besonders gute Approximation der Oberfl¨ache f¨ur eine erfolgreiche Iteration von RSM nicht erforderlich ist, sondern lediglich die richtige Tendenz durch das Modell wiedergegeben werden muss. Dabei muss ebenfalls beachtet werden, dass mit dem Modell die aus 2k Auswertungen gewonnenen Informationen verworfen werden. Insgesamt sollten Modelle nur verworfen werden, wenn sie besonders schlecht sind.
8.2.1.6
Realisierung von RSM
Das bisher beschrieben Vorgehen liefert Methoden zur Anpassung von Regressionsmodellen, deren Bewertung und die M¨oglichkeit, einen neuen Centerpoint f¨ur den n¨achsten Optimierungsschritt zu bestimmen. Bei Vorgabe eines passenden Experimentdesigns f¨ur Modelle erster und zweiter Ordnung lassen sich die Schritte automatisch durchf¨uhren. Falls ein Optimierungsschritt nicht erfolgreich ist oder die Bewertungsverfahren das Regressionsmodell als schlecht bewerten, gibt es f¨unf M¨oglichkeiten zu reagieren: 1. 2. 3. 4. 5.
Abbruch des Optimierungsschritts, Erneute ggf. genauere Auswertung der Responses der aktuellen Designpoints, Auswertung zus¨atzlicher Designpoints, Verkleinerung des Suchbereichs, Approximation eines Modells h¨oherer Ordnung.
190
M. Arns et al.
RSM startet u¨ blicherweise mit einem Modell der ersten Ordnung und einem vorgegebenen Suchbereich. Die erzeugten Regressionsmodelle werden in jedem Schritt bez¨uglich ihrer Approximationsg¨ute bewertet und Optimierungsschritte werden durchgef¨uhrt. Auf diesem Wege n¨ahert sich das Verfahren einem lokalen Optimum. Wird das erzeugte Regressionsmodell verworfen oder l¨asst sich keine Verbesserung des Leistungsmaßes mehr erzielen, so muss eine der obigen M¨oglichkeiten gew¨ahlt werden. Dabei wird bei Verwendung von Modellen erster Ordnung die Optimierung u¨ blicherweise noch nicht abgebrochen. Eine genauere Auswertung der Designpunkte ist immer dann sinnvoll, wenn die Varianz der Beobachtungen hoch ist. Die Auswertung zus¨atzlicher Designpoints kommt in Frage, wenn die Resultate der untersuchten Designpoints stark variieren und sich dadurch die Richtung des steilsten Abstiegs nicht genau genug bestimmen l¨asst. Dann k¨onnen im Bereich des steilsten Abstiegs weitere Punkte analysiert und in die Bildung des Regressionsmodells einbezogen werden. Alternativ dazu l¨asst sich der Suchbereich verkleinern. Die einfachste M¨oglichkeit ist eine gleichm¨aßige Verkleinerung aller wi um einen festen Faktor α < 1. Alternativ und oftmals besser ist es, wi proportional zu ¨ wird der Suchbereich so lange verkleinert, bis ein βi zu verkleinern. Ublicherweise minimales Volumen f¨ur die Verwendung von Modellen erster Ordnung unterschritten wurde. Wird danach festgestellt, dass das Metamodell nicht ad¨aquat ist, wird zu Regressionsmodellen zweiter Ordnung u¨ bergegangen. In anschließenden Schritten kann der Suchbereich weiter verkleinert werden. Ist ein minimales Volumen f¨ur Modelle zweiter Ordnung unterschritten, so wird u¨ blicherweise abgebrochen und der Punkt mit dem ermittelten minimalen Resultatwert als lokales Optimum ausgegeben. Regressionsmodelle einer Ordnung gr¨oßer zwei werden in der Praxis nicht genutzt, da ihre Erstellung zu viele Auswertungen erfordert und ihre Parameter sehr sensitiv gegen¨uber Schwankungen in den Resultaten sind.
8.2.2
Pattern Search
Es gibt eine Vielzahl von direkten Suchmethoden (DS) zur lokalen Optimierung, die teilweise schon recht lange bekannt sind, aber gerade durch ihre Kombinierbarkeit mit Simulationsmodellen in den letzten Jahren an Bedeutung gewonnen haben. Wir betrachten hier eine spezielle Variante direkter Suchverfahren, n¨amlich Pattern Search (PS) [Sch95], im Detail und verweisen f¨ur weitere Varianten auf die Literatur [KLT03]. Die Verfahren zeichnen sich durch ein zweistufiges iteratives Vorgehen aus, das im grunds¨atzlichen Aufbau dem von RSM a¨ hnelt, jedoch deutlich einfacher ausf¨allt. Dies gilt insbesondere, da DS i. A. auf statistische und approximative Methoden verzichten.
8.2.2.1
Direct-Search
Da DS einen lokalen Suchbereich nutzt und diesen im Laufe des Verfahrens verkleinert, um in genaueren Schritten ein lokales Optimum zu bestimmen, k¨onnen die
8 Optimierung ereignis-diskreter Simulationsmodelle im ProC/B-Toolset
191
gleichen Kriterien zur Verkleinerung des Suchbereichs genutzt werden, die bereits bei RSM erl¨autert wurden. Gleiches gilt f¨ur die m¨oglichen Abbruchkriterien. An dieser Stelle muss daher nur der Aufbau einer einzelnen Iteration betrachtet werden. Eine Iteration in DS unterteilt sich in die zwei Schritte Search- und Poll-Step. W¨ahrend des Search-Steps werden aus einer Menge von Kandidatenpunkten M, die sich innerhalb des lokalen Suchbereichs befinden, einzelne Punkte untersucht. Die Menge M muss dabei nicht im Vorhinein berechnet werden, sondern es k¨onnen entsprechende Kandidaten bei Bedarf ermittelt werden. Verschiedene Varianten definieren zu diesem Zweck gitterartige Strukturen im lokalen Suchbereich um M zu ermitteln. Die Auswahl der Kandidatenpunkte, die daraufhin untersucht werden, wird durch die jeweilige DS-Variante festgelegt. Nach der Untersuchung einer Reihe von Kandidatenpunkten wird daraus der beste Punkt pbest bestimmt. Dieser dient als Vorlage f¨ur die Berechnungen im zweiten Schritt. Dabei wird der Differenzvektor v = pbest −x bestimmt, wobei x der zu Beginn der aktuellen Iteration bekannte Punkt also der Centerpoint ist. W¨ahrend des Poll-Steps werden mittels v neue Punkte pi = pbest + i * v beginnend mit i = 1 berechnet und untersucht solange diese bessere R¨uckgabewerte erzielen. Der Punkt pi mit dem besten R¨uckgabewert wird anschließend zum Centerpoint f¨ur die n¨achste Iteration. In Kombination mit stochastischer Simulation ergibt sich dabei insbesondere die Herausforderung, aus einer Menge von Punkten den Punkt mit dem besten Resultatwert herauszusuchen (s. Abschn. 8.2.7).
8.2.2.2 Ablauf des Search-Steps in Pattern Search PS generiert, wie viele andere DS-Varianten, keine explizite Kandidatenmenge. Daher wird zur dynamischen Erzeugung der Kandidaten eine Reihe von Vektoren ben¨otigt. Der Vektor s = (s1 ,. . . , sk ) mit si = (ui − li )/2 enth¨alt die jeweiligen halbierten Breiten des lokalen Suchbereichs. Der Vektor d wird mit (1,. . . , 1)T initialisiert und enth¨alt im Verlauf des Algorithmus f¨ur jede Dimension die Richtung des jeweiligen letzten Sucherfolgs. Der Vektor pbest = x enth¨alt den aktuell besten bekannten Punkt. Die Vektoren ei sind Einheitsvektoren, deren i-tes Element 1 ist. Die Suche nach neuen Kandidatenpunkten l¨auft anschließend f¨ur jede Dimension i = 1,. . . , k wie folgt ab. Zuerst wird ein Punkt p = pbest + di * si * ei berechnet und untersucht. Ist das Ergebnis von p besser als das von pbest , so wird pbest gleich p gesetzt und die Untersuchung f¨ur diese Dimension beendet. Da die Suche in der durch di vorgegebenen Richtung erfolgreich war, wird der Wert von di beibehalten. Ist dies nicht der Fall, so wird ein Punkt p = pbest − di * si * ei ausgewertet. Ist dieser neue Punkt besser als pbest , so wird pbest gleich p gesetzt und di durch −di ersetzt, um f¨ur die n¨achste Iteration zu signalisieren, dass die zweite Suchrichtung erfolgreich war. Anschließend wird die Iteration f¨ur diese Dimension in jedem Fall beendet. Konnte f¨ur die Dimension i keine Verbesserung erzielt werden, wird di nicht ver¨andert und mit dem bereits vorher bekannten Punkt pbest der Algorithmus fortgesetzt.
192
M. Arns et al.
Abb. 8.3 Ablauf eines Iterationsschritts bei Pattern Search
Ein beispielhafter Ablauf ist in Abb. 8.3 dargestellt, wobei die hellgrauen Pfeile die Differenzvektoren zwischen zwei Punkten bei einer Verbesserung des Responses und die dunkelgrauen Pfeile die Differenzvektoren zwischen zwei Punkten ohne Verbesserung des Responses darstellen. Der Differenzvektor v wird durch die gestrichelte Linie angedeutet. Der untere Kreis markiert dabei den Centerpoint zu Beginn des Iterationsschritts und der obere Kreis den neu gefundenen Centerpoint am Ende des Iterationsschritts.
8.2.3
Evolution¨are Algorithmen
Die in den vorherigen Abschnitten vorgestellten Verfahren bestimmen lokale Optima, und die Ergebnisse k¨onnen damit auch im Konvergenzfall beliebig weit vom globalen Optimum entfernt sein. Die beiden folgenden Ans¨atze sind auch zur globalen Optimierung einsetzbar. W¨ahrend das im folgenden Abschnitt vorgestellte Krigingverfahren Metamodelle nutzt, handelt es sich bei den hier vorgestellten evolution¨aren Algorithmen (EA) um stochastische Suchverfahren. Es gibt inzwischen eine Vielzahl von Varianten von EA [MFo04]. Wir stellen im Folgenden eine spezielle Variante, n¨amlich Evolutionsstrategien (ES) kurz vor und beschreiben ihre Kombination mit stochastischen Simulationsmodellen. EA zeichnen sich in der Regel durch die folgenden Aspekte aus: • Sie sind relativ einfach zu implementieren, • als so genannte black box-Optimierer stellen sie keine oder nur minimale Anforderungen an die Art der Funktion, • sie k¨onnen in vielen F¨allen auch globale Optima finden, • aber ihre Konvergenz gegen ein lokales oder gar globales Optimum ist in der Regel nicht nachweisbar und • sie ben¨otigen relativ viele Auswertungen der Funktion. Gerade die letzten beiden Aspekte zeigen, dass EA kein Allheilmittel sind und insbesondere bei relativ einfachen unimodalen Response-Funktionen im Vergleich zu RSM oder PS nicht konkurrenzf¨ahig sind. EA ist immer dann gut anwendbar, wenn die zu untersuchende Funktion multimodal und relativ komplex ist. Gerade die Kombination mit lokalen Suchverfahren ist dann attraktiv. EA wird dann genutzt, um interessante Bereiche zu identifizieren.
8 Optimierung ereignis-diskreter Simulationsmodelle im ProC/B-Toolset
193
ES ist eine Variante von EA, deren Operationen, wie bei anderen EA, durch die biologische Evolution inspiriert sind. ES ist populationsbasiert. Sei P (0) =(x1 ,. . . , xμ ) die initiale Population, deren Individuen zum Beispiel zuf¨allig erzeugt wurden. μ ist ein Designparameter, der die Gr¨oße der Population angibt. Bei komplexeren Simulationsmodellen sollte μ nicht zu klein gew¨ahlt werden, damit eine gute Abdeckung des Suchbereichs erreicht wird. In einem ersten Schritt werden alle Individuen der Population ausgewertet. Bei der Simulation bedeutet dies, dass Simulationsl¨aufe durchgef¨uhrt werden. Es werden dann die λ < μ besten Individuen der Population als Eltern der n¨achsten Population ausgew¨ahlt. Aus den Eltern werden durch Mutation und Rekombination neue Individuen erzeugt. In ES ist im Gegensatz zu anderen EA Mutation der prim¨are Operator. Die Mutation wird dadurch realisiert, dass zu jeder Komponente eines ausgew¨ahlten Elterindividuums eine Zufallszahl mit Er¨ wartungswert 0 addiert wird. Ublicherweise werden normalverteilte Zufallsvariablen verwendet. Zur Auswahl der Varianz dieser Zufallsvariablen sei auf die Literatur verwiesen [Sch95, NPr98]. Bei der Rekombination werden jeweils zwei Elternindividuen kombiniert, um ein neues Individuum zu erzeugen. Dazu k¨onnen entweder die einzelnen Komponenten des Vektors x f¨ur das neue Individuum zuf¨allig von einem Elternteil gew¨ahlt werden oder als Kombination der entsprechenden Komponenten der Eltern gew¨ahlt werden. Auf die beschriebene Art werden λ neue Individuen erzeugt, die entweder allein oder mit den μ Eltern die neue Population bilden. In der beschriebenen Form wird so lange generationsweise vorgegangen, bis ein Abbruchkriterium erf¨ullt ist. Als Abbruchkriterium eignen sich eine maximale Anzahl von Simulationsl¨aufen, eine maximale Zahl von Generationen, eine fehlende Verbesserung des erreichten Funktionswertes u¨ ber mehrere Generationen oder fehlende Diversit¨at in der Population. Nach Abbruch des Verfahrens wird das beste ermittelte Individuum als Optimum ausgegeben. EA k¨onnen auf vielf¨altige Weise erweitert und an die Kombination mit Simulation angepasst werden. Eine sinnvolle Erweiterung besteht in der Einf¨uhrung einer separaten Elitepopulation in der gute Individuen gespeichert werden. Ein Individuum x wird in der Elitepopulation gespeichert, falls es zu den besten Individuen seiner Generation geh¨ort und in der Elitepopulation kein Individuum y ist, das einen besseren Response hat und in der Umgebung von x liegt, d. h. ||x−y|| < ε. Falls die Elitepopulation Punkte y mit. ||x−y|| < ε und schlechterem Response enth¨alt, so sollten diese nach Hinzunahme von x aus der Elitepopulation entfernt werden. Nach Abschluss des EA enth¨alt die Elitepopulation eine Menge potenziell guter Punkte, die dann n¨aher untersucht werden k¨onnen, indem weitere Simulationsl¨aufe durchgef¨uhrt werden oder auf diese Punkte lokale Suchverfahren angewendet werden.
8.2.4
Kriging-Metamodelle
Kriging-Metamodelle (KM) sind mathematische Modelle zur Approximation von Funktionen. Obwohl sie urspr¨unglich in der Geophysik entwickelt wurden, um
194
M. Arns et al.
Erzvorkommen in unbekannten Gebieten absch¨atzen zu k¨onnen, werden sie aufgrund ihrer Eigenschaften immer h¨aufiger zur Optimierung von deterministischen Funktionen genutzt [HNe06, NOP+00]. Neuere Untersuchungen haben die Optimierung mit KM bereits auf stochastische Metamodelle ausgeweitet [JSW98], so dass sie auch f¨ur die Optimierung von Simulationsmodellen einsetzbar sind. KM benutzen Korrelationsmodelle, um Funktionen zu approximieren. Das Modell wird an n Punkten aufgeh¨angt, die sich im Suchbereich befinden und bereits untersucht wurden. Das KM liefert im Gegensatz zu vielen anderen approximativen Modellen, wie z. B. die von RSM genutzten polynomiellen Modelle, exakte Ergebnisse an den Aufh¨angungspunkten. Dabei wird das Modell unter Ber¨ucksichtigung einer Maximum-Likelihood-Funktion l(θ,ρ) angepasst, wobei θ der Einflussvektor, der die St¨arke des Einflusses jedes der k Faktoren auf das Modell angibt, und ρ der Gl¨attungsvektor ist, der die Weichheit des Modells in Bezug auf jeden der k Faktoren festlegt [LSu05]. Diese beiden Faktoren bestimmen das Verhalten der Distanzfunktion d, die die Grundlage f¨ur die dem Modell zugrunde liegende Korrelationsfunktion bildet. Es gibt unterschiedliche Versionen von KM, von denen wir hier eine spezielle Variante vorstellen. F¨ur andere Varianten und alternative Realisierungsm¨oglichkeiten sei auf die Literatur verwiesen [Kle07]. Unter der Annahme, dass der Funktionswert f¨ur einen beliebigen Punkt x∗ im Suchraum von den Funktionswerten bereits ausgewerteter Punkte abh¨angt und dass diese Abh¨angigkeit nur von der Distanz zu x∗ bestimmt wird und mit steigender Distanz sinkt, wird die Approximationsfunktion yˆ (x ∗ ) in KM mit bereits bekannten Punkten x(1) , . . . , x(n) wie folgt definiert: ˆ + r(x∗ )T R−1 (y − 1μ) ˆ yˆ (x∗ ) = μ
(8.7)
In den ersten Varianten der KM diente der zweite Summand ausschließlich zur Absch¨atzung von Messfehlern, welche als normalverteilt mit Mittelwert 0 und Varianz σ 2 angenommen wurden. Nach [JSW98] hat sich herausgestellt, dass der zweite Summand sehr gut zur Approximation der Funktion genutzt werden kann, worauf die eigentliche Approximationsfunktion auf den Mittelwert der Resultate aller ausgewerteten Punkte μ ˆ (d. h. μ ˆ = n1 i=1,··· ,n yi mit yi = f (x(i) )) reduziert werden konnte. Zur Berechnung von y(x ∗ ) werden dabei die Werte der Korrela(i) (j) tionsfunktion Corr[ε(x(i) ), ε(x(j) )] = e−d(x ,x ) ∈ (0; 1] der n ausgewerteten Punkte zum Punkt x∗ r x∗ = Corr ε x∗ , ε x(j) , der Vektor der Funktionswerte y = (f(x(1) ),. . . , f(x(n) ))T , der Vektor 1 = (1,. . . , 1), sowie die symmetrische Korrelationsmatrix R ben¨otigt: ⎞ Corr ε(x(1) ), ε(x(1) ) = 1 · · · Corr ε(x1 ), ε(x(n) ) ⎟ ⎜ .. .. R=⎝ ⎠ . . (n) (n) (1) (n) Corr ε(x ), ε(x ) · · · Corr ε(x ), ε(x ) = 1 ⎛
(8.8)
Die zur Berechnung der Korrelationsfunktion Corr ben¨otigte Distanzfunktion d(x(i) , x(j) ) unterscheidet sich von der euklidischen Distanz und ist in Abh¨angigkeit
8 Optimierung ereignis-diskreter Simulationsmodelle im ProC/B-Toolset
195
von θ und ρ definiert als: d(x(i) , x(j) ) =
k
(i) (j) ph
h xh − xh ; h ≥ 0, ph ∈ [1, 2]
(8.9)
h=1
Dementsprechend ber¨ucksichtigen KM die Tatsache, dass die Funktionswerte von Punkten in der N¨ahe von bereits ausgewerteten Punkten genauer bestimmt werden k¨onnen, als die Funktionswerte von Punkten, die weiter entfernt liegen. Basierend auf der Annahme, dass die Funktion normalverteilt mit einer Varianz von σ 2 ist, berechnet sich der so genannte Mean-Squared-Error wie folgt: (1 − 1T R−1 r(x∗ ))2 2 ∗ 2 ∗ T −1 ∗ (8.10) s (x ) = σ 1 − r(x ) R r(x ) + 1T R−1 1 T Dabei berechnet r x∗ R−1 r x∗ die Korrelation des Punkts x∗ mit den bekan T nten Punkten. Hier gilt r x∗ R−1 r x∗ = 1, wenn x∗ ∈ x(1) , . . . , x(n) gilt. Mit sinkender des Punkts x* zu den bekannten Punkten sinkt der Wert von T Korrelation r x∗ R−1 r x∗ ebenfalls bis zu einem Minimum von 0, das keine Korrelation der Punkte ausdr¨uckt. Der letzte Summand der Formel ber¨ucksichtigt die Ungewissheit (i) in der Sch¨atzung ∗ des Funktionswerts f(x ). Dabei ist der Quotient genau dann 0, T −1 wenn 1 R r x = 1 gilt. Dies ist genau dann der Fall, wenn x∗ ∈ x(1) , . . . , x(n) . Zur Optimierung mittels KM wird das sogenannte Expected Improvement E(x∗ ) berechnet. Mit dieser Funktion sollen zwei Aspekte ber¨ucksichtigt werden. Zum Einen sollen Punkte ermittelt werden k¨onnen, die bzgl. des Modells besser sind als die bisher bekannte Punkte, zum Anderen sollen Bereiche ber¨ucksichtigt werden, u¨ ber die noch nicht gen¨ugend Informationen gesammelt wurden und von denen daher nicht mit ausreichender Wahrscheinlichkeit angenommen werden kann, dass diese keine besseren Punkte als die bisher Bekannten enthalten. Daher berechnet sich E(x∗ ) aufbauend auf den Funktionen yˆ (x∗ ) und s(x∗ ) wie folgt: E(x∗ ) = s(x∗ ) [u(u) + φ(u)] fmin − yˆ (x∗ ) s(x) und fmin = min y(x(1) ), . . . , y(x(n) )
mit u =
(8.11)
Dabei sind φ und ϕ die kumulative Verteilungsfunktion und die Dichtefunktion der Normalverteilung. Ziel dieser Funktion ist es, sowohl Punkte mit guten Vorhersagewerten yˆ (x∗ ) als auch Punkte mit hohem erwarteten Fehler in der Vorhersage s(x∗ ) zu ber¨ucksichtigen. Daher ist diese Funktion gr¨oßer als 0, wenn yˆ (x∗ ) kleiner als fmin ist oder wenn der erwartete Fehler s(x∗ ) die Differenz yˆ (x∗ )−fmin u¨ berwiegt. In allen anderen F¨allen ist E(x∗ ) gleich 0. Damit wird ein Punkt x∗ gesucht, in dem E(x∗ ) besonders groß ist, da dort die Unsicherheit oder die zu erwartende Verkleinerung (d. h. Verbesserung) des Funktionswertes besonders groß ist. Es liegt damit ein Optimierungsproblem vor, n¨amlich x∗ = argminz∈W (E(z)). Zur Optimierung
196
M. Arns et al.
Abb. 8.4 Latin-Hypercube-Designs f¨ur zwei Faktoren
k¨onnen prinzipiell beliebige Verfahren zur Optimierung nichtlinearer Funktionen eingesetzt werden. In der Originalquelle [JSW98] wird ein branch and bound Verfahren vorgeschlagen, das allerdings eine relativ lange Laufzeit hat. Als besser hat sich in eigenen Experimenten eine Gitternetzsuche erwiesen. Nach der Bestimmung von x∗ wird das Simulationsmodell an dieser Stelle ausgewertet und der neue Punkt dem KM hinzugef¨ugt. Dies bedeutet, dass sich die Parameterzahl des Modells von n auf n + 1 erh¨oht und die Parameter neu zu bestimmen sind. Das Verfahren wird so lange iteriert, bis eine maximale Zahl an Simulationsl¨aufen erreicht ist oder bis E(x∗ ) unterhalb einer vorgegebenen Schranke liegt, so dass keine weitere wesentliche Verbesserung mehr zu erwarten ist. Es bleibt damit nur noch die Erstellung des initialen Modells. Dazu ist, wie schon bei RSM, ein Experimentdesign notwendig. Im Gegensatz zu RSM, wo das Metamodell nur einen lokalen Bereich abdeckt, sind KM globale Modelle, so dass m¨oglichst ganz W abgedeckt wird. Falls W in einigen Dimensionen unbeschr¨ankt ist, so sollten diese Dimensionen beschr¨ankt werden. Die bei RSM verwendeten Factorial Designs, die Punkte am Rand des zul¨assigen Bereichs nutzen, sind nicht geeignet. Vielmehr muss der zul¨assige Bereich m¨oglichst gleichm¨aßig abgedeckt werden. Eine Klasse von Designs, die dies erreichen sind Latin-Hypercube-Designs, bei denen der zul¨assige Bereich in gleichgroße Hyperr¨aume unterteilt wird. Dazu wird der Wertebereich jedes Faktors in gleichgroße Intervalle unterteilt, entsprechend der Anzahl der Punkte im initialen Design. Anschließend wird ein Experimentdesign gew¨ahlt, so dass f¨ur jeden Faktor jedes Intervall einmal vorkommt. In den so definierten Intervallen wird jeweils ein Punkt zuf¨allig erzeugt. Abbildung 8.4 zeigt zwei m¨ogliche Designs f¨ur zwei Faktoren und vier Experimente.
8.2.5
Kombination globaler und lokaler Suchverfahren
Die hier vorgestellten Verfahren lassen sich eindeutig den Bereichen globaler bzw. lokaler Suchverfahren zuordnen. W¨ahrend lokale Suchverfahren mit relativ wenigen Auswertungen in der Lage sind, lokale Optima ziemlich pr¨azise zu bestimmen, ben¨otigen globale Verfahren in der Regel deutlich mehr Auswertungen, um ein Optimum a¨ hnlich pr¨azise zu ermitteln. Dem gegen¨uber steht jedoch, dass globale Suchverfahren h¨aufig bereits zu einem fr¨uhen Zeitpunk den Bereich eines globalen Optimums bestimmen k¨onnen, w¨ahrend lokale Verfahren in der Regel kein globales Optimum bestimmen, sondern ein lokales Optimum in der N¨ahe erreichen. Aufgrund dieser Beobachtungen ist eine Kombination globaler und lokaler Suchverfahren sinnvoll.
8 Optimierung ereignis-diskreter Simulationsmodelle im ProC/B-Toolset
197
Da eine Optimierung mittels evolution¨arer Verfahren oder Kriging-Metamodellen den gesamten Suchraum bereits fr¨uh relativ gut approximiert, empfiehlt es sich, eines dieser Verfahren in der ersten Phase der Optimierung einzusetzen und auf diese Weise Bereiche im Suchraum zu identifizieren, in denen die Funktion besonders kleine Werte liefert und damit ein globales Optimum vermutet werden kann. Nachdem die Bereiche ermittelt wurden, wird in jedem Bereich ein lokales Suchverfahren, wie RSM oder PS, genutzt, um die lokalen Bereichsoptima zu finden. Eigene empirische Untersuchungen haben dabei gezeigt, dass KM effizienter als ES f¨ur die globale Phase ist und in der lokalen Phase PS im Allgemeinen robuster als RSM ist. Ein a¨ hnlicher Ansatz, wie hier vorgestellt, wird in [HNe06] f¨ur Simulationsmodelle mit diskreten Parametern genutzt. Dort wird f¨ur die globale Optimierung ein evolution¨ares Verfahren eingesetzt. F¨ur die lokale Optimierung wird ein speziell auf die Problemstellung angepasstes lokales Suchverfahren eingesetzt. Abschließend wird ein Verfahren der stochastischen Rangbildung genutzt, um das Minimum der lokalen L¨osungen zu finden. F¨ur die genutzte Problemklasse kann damit gezeigt werden, dass das Verfahren mit Wahrscheinlichkeit 1 das globale Optimum findet, wenn der Simulationsaufwand gegen unendlich geht. Ein a¨ hnliches Resultat ist f¨ur die hier vorgestellte Methode nicht zu erwarten, da die behandelten kontinuierlichen Probleme, ohne weitere Annahmen u¨ ber den Funktionsverlauf, solche Beweise nicht zulassen.
8.2.6
Einbeziehung von Nebenbedingungen
Wie bereits erw¨ahnt, sind viele Optimierungsprobleme dadurch gekennzeichnet, dass ihre Faktoren Nebenbedingungen unterliegen und f¨ur den zul¨assigen Bereich W ⊂ Rk gilt. Wir betrachten hier nur den Fall, dass sich Nebenbedingungen durch Funktionen gi :Rk → R beschreiben lassen, so dass f¨ur einen zul¨assigen Parametervektor gi (x) ≤ 0 gelten muss. Die Funktionen sind analytisch auswertbar. Es gibt nun zwei grunds¨atzlicheAns¨atze, Nebenbedingungen einzubeziehen. Zum einen kann die Suche nach dem Optimum auf zul¨assige Punkte beschr¨ankt werden, zum anderen k¨onnen die Nebenbedingungen in die Zielfunktion einbezogen werden und bei Verletzung der Nebenbedingungen der Wert der Zielfunktion verschlechtert werden. Wir beginnen mit dem ersten Ansatz, der in der Regel vorzuziehen ist, wenn der zul¨assige Bereich kompakt und konvex ist, also zum Beispiel durch lineare Nebenbedingungen definiert ist. Die Optimierung startet mit einer Menge von Punkten aus dem zul¨assigen Bereich und verl¨asst diesen nicht. Immer wenn vom Algorithmus ein Punkt außerhalb des zul¨assigen Bereichs erzeugt wird, ist dieser zu verwerfen. In ES bedeutet dies, dass einfach ein neuer Punkt erzeugt wird, so lange bis dieser in W liegt. In KM wird die Suche nach dem Punkt mit dem gr¨oßten expect¨ ed improvement auf zul¨assige Punkte eingeschr¨ankt. Ahnlich wird in PS die Suche nach einem besseren Punkt in der Nachbarschaft auf zul¨assige Punkte eingeschr¨ankt. W¨ahrend des Optimierungsschrittes von RSM muss ggf. der Richtungsvektor korrigiert werden (s. Abb. 8.5), so dass der neue Punkt im zul¨assigen Bereich bleibt. Es
198
M. Arns et al.
Abb. 8.5 Korrektur der Richtung des steilsten Anstiegs
Richtung des steilsten Anstiegs Nebenbedingung Korrigierte Richtung des steilsten Anstiegs
kann dabei vorkommen, dass der neue Centerpoint auf dem Rand des zul¨assigen Bereichs liegt und damit nicht als Mittelpunkt, sondern nur als Randpunkt des zul¨assigen Bereichs dienen kann. Um in solchen F¨allen einen Suchbereich zu erzeugen, der vollst¨andig in W liegt, muss dann ein neuer Centerpoint erzeugt werden und dazu unter Umst¨anden auch der Suchbereich verkleinert werden. Dies kann gerade bei nichtlinearen Nebenbedingungen schwierig sein. Als Alternative kann die Verletzung der Nebenbedingungen direkt in die Zielfunktion einbezogen werden. Dies ist ein u¨ bliches Vorgehen bei der Optimierung restringierter Funktionen [JSt03]. Statt der Zielfunktion f (x) wird die Zielfunktion h(x) = f(x) + r
r
(−gi (x))+
(8.12)
i=1
mit x+ = max(0,x) genutzt. Die Funktion entspricht f (x) f¨ur zul¨assige L¨osungen und ¨ verschlechtert den Funktionswert f¨ur unzul¨assige L¨osungen. Ublicherweise wird der Wert von r w¨ahrend der Optimierung vergr¨oßert, wenn das Optimierungsverfahren L¨osungen außerhalb des zul¨assigen Bereichs findet. Auf diese Weise lassen sich Optimierungsverfahren ohne direkte Ber¨ucksichtigung der Nebenbedingungen w¨ahrend der Optimierung einsetzen.
8.2.7
Berucksichtigung ¨ stochastischer Resultate
Die vorgestellten Optimierungsverfahren wurden im Wesentlichen f¨ur die Optimierung deterministischer Funktionen entwickelt. Werden sie f¨ur stochastische Simulationsmodelle eingesetzt, so muss ber¨ucksichtigt werden, dass die ermittelten
8 Optimierung ereignis-diskreter Simulationsmodelle im ProC/B-Toolset
199
Resultate stochastisch schwanken. Dies bedeutet, dass zum Beispiel beim Vergleich von zwei Resultaten nicht einfach davon ausgegangen werden kann, dass der kleinere Wert auch wirklich besser als der gr¨oßere ist, da der Unterschied auch durch stochastische Schwankungen bedingt sein kann. Die Schwankung der Beobachtungen muss also in die Bewertung der Resultate und damit letztendlich in die Optimierungsverfahren einbezogen werden. Die Entwicklung der dazu notwendigen Methodik steht erst am Anfang und ist noch nicht ausgereift [Fum02]. In der Praxis werden oft Heuristiken eingesetzt, die oft darauf beruhen, eine Gr¨oße mehrfach zu beobachten und den Mittelwert als deterministischen Wert zu nutzen. Die wiederholten Beobachtungen einer Simulation werden als Replikationen bezeichnet. So werden bei der Vorstellung von RSM in [Mon01] f¨ur den Centerpoint 5 Replikationen und f¨ur die anderen Punkte 3 Replikationen durchgef¨uhrt. Ein a¨ hnliches Vorgehen kann in der kommerziellen Optimierungssoftware OptQuest genutzt werden. Intuitiv ist es nat¨urlich klar, dass eine feste Replikationszahl ohne Ber¨ucksichtigung der Schwankungsbreite nicht ausreichend sein kann. Es wird deshalb hier kurz auf die M¨oglichkeiten einer detaillierten Ber¨ucksichtigung der stochastischen Schwankungen eingegangen werden. Vorausgesetzt wird, dass die einzelnen Replikationen unabh¨angig sind und die beobachteten Werte von einem normalverteilten Fehler mit Erwartungswert 0 und Varianz σ 2 (x) u¨ berlagert werden. Die Varianz ist unbekannt und h¨angt von den Faktorwerten ab. Ein erwartungstreuer Sch¨atzer f¨ur die Varianz lautet S 2 (x) =
1 m−1
m
2 yi (x) − yˆ (x) mit yˆ (x) =
i=1
1 m
m
yi (x)
(8.13)
i=1
wobei yi (x) das Resultat der i-ten von m unabh¨angigen Replikationen ist. Die Annahme, dass die Beobachtungen normalverteilt sind gilt streng genommen nur f¨ur große m, wird aber u¨ blicherweise in der Simulation benutzt. Ein Konfidenzintervall zum Signifikanzniveau α lautet dann S(x) yˆ (x) ± z1−α √ m
(8.14)
wobei z1−α das 1–α Quantil der Standardnormalverteilung ist. Ein erster Ansatz der Ber¨ucksichtigung stochastischer Schwankungen besteht nun darin, an einem Punkt x so viele Replikationen zu erzeugen, dass die (relative) Breite des Konfidenzintervalls einen vorgegebenen Wert unterschreitet und den resultierenden Wert anschließend im Optimierungsverfahren zu nutzen. DiesesVorgehen sorgt daf¨ur, dass bei st¨arkeren Schwankungen automatisch mehr Replikationen erzeugt werden und die Optimierung auf Resultaten identischer Qualit¨at beruht. Der Ansatz kann allerdings nicht sicherstellen, dass a¨ hnliche Werte korrekt angeordnet werden und f¨uhrt unter Umst¨anden auch dazu, dass an relativ schlechten Punkten sehr oft simuliert wird, um die notwendige Breite der Konfidenzintervalle zu erreichen. F¨ur den praktischen Einsatz sind also intelligentere Strategien notwendig. F¨ur RSM und KM sind solche Strategien bisher kaum vorhanden. Bei den anderen beiden vorgestellten Verfahren ES und PS geht es im Wesentlichen darum, aus einer
200
M. Arns et al.
Menge m¨oglicher Punkte die oder den besten auszuw¨ahlen. Das zugeh¨orige Problem ist in der Statistik seit langem bekannt und wird mit Verfahren zur Auswahl und ¨ Rangbildung bearbeitet. Einen aktuellen Uberblick u¨ ber vorhandene Verfahren und ihren Einsatz in der Simulation liefert [SJY03]. Die zugeh¨origen Ans¨atze wurden bei der Bestenauswahl der Eltern aus einer Population in ES [BTh05] und PS [SCh04] erfolgreich eingesetzt.
8.3
Das Optimierwerkzeug OPEDo
Neben der Entwicklung passender Methoden zur Optimierung von stochastischen Simulationsmodellen ist deren Implementierung und zur Verf¨ugungsstellung in Softwarewerkzeugen f¨ur den praktischen Einsatz unverzichtbar. Das Optimierwerkzeug OPEDo [BKM+07] (Optimization and Performance Evaluation Tool from the University of Dortmund) entstand am Lehrstuhl Informatik 4 der Universit¨at Dortmund im Rahmen der Nachwuchsgruppe „Ganzheitliche Modellierung ereignisorientierter Systeme“ des Forschungsbandes „Modellbildung und Simulation“ (http://www.domus.uni-dortmund.de). OPEDo verfolgt das Ziel, moderne und leistungsf¨ahige Optimierverfahren f¨ur diskrete ereignisorientierte dynamische Systeme bereitzustellen und dabei neben der Simulation auch analytische oder numerische Verfahren zur Modellanalyse zu nutzen. Konkret sind gegenw¨artig die in den vorangegangenen Abschnitten dargestellten Methoden • • • •
Response Surface Methode, Pattern Search, Evolution¨are Algorithmen und Kriging-Metamodell Optimierung
integriert. OPEDo ist ein offenes Framework in dem Sinne, dass es eine einfach zu realisierende Schnittstelle zu praktisch beliebigen Modellierungs- und Analysewerkzeugen f¨ur DEDS bietet. Momentan ist eine Anbindung an die APNN-toolbox [BPK98], an das ProC/B Toolset sowie OMNeT++ realisiert, wodurch die Optimierung Generalisierter Stochastischer Petri Netze (im Fall der APNN Toolbox), von Prozessketten (im Fall des ProC/B Toolsets) sowie von Computernetzwerken erm¨oglicht wird. Die Architektur von OPEDo ist in Abb. 8.6 dargestellt. Die n¨otigen Schritte bei der Optimierung bestehen im Wesentlichen in der Auswahl des Modells, in der Angabe der Faktoren, die zu optimieren sind sowie deren Suchr¨aume und letztlich in der Auswahl einer der Optimiermethoden. W¨ahrend des Optimiervorgangs f¨uhrt OPEDo u¨ ber die Schnittstelle zu dem entsprechenden Analysewerkzeug im Allgemeinen mehrere Modellauswertungen ohne weitere manuelle Eingriffe des Benutzers durch. Im folgendenAbschnitt werden die in OPEDo integrierten Optimierungsverfahren Anhand einer bekannten Benchmarkfunktion untersucht.
8 Optimierung ereignis-diskreter Simulationsmodelle im ProC/B-Toolset
Abb. 8.6 Architektur des Werkzeugs OPEDo
201
202
M. Arns et al.
8.4
Benchmark der Optimierungsverfahren anhand einer multimodalen Benchmarkfunktion
In diesem Abschnitt werden die Ergebnisse der Optimierungsverfahren basierend auf einer Benchmarkfunktion verglichen. Die u. a. in [GPr71] beschriebene GoldsteinPrice-Funktion (GP) geh¨ort zu einem Satz an Benchmarkfunktionen, die zum Vergleich der Verfahren in OPEDo integriert sind. Damit die Ergebnisse der Optimierungsverfahren auch zwischen unterschiedlichen Funktionen vergleichbar bleiben, wurden die Parameter der Funktionen auf einen festen Wertebereich [−1,5;1,5] fixiert. Die GP ist wie folgt definiert:
FA (x) = 1 + (x1 + x2 + 1)2 19 − 14x1 + 13x12 − 14x2 + 6x1 x2 + 3x22
(8.15) 30 + (2x1 − 3x2 )2 18 − 32x1 + 12x12 − 48x2 − 36x1 x2 + 27x22 Zur weiteren Vereinheitlichung der Funktionen werden die verwendeten Funktionen in OPEDo so angepasst, dass der Funktionswert an der Stelle des globalen Optimums bei 0 liegt. F¨ur die GP liegt das globale Optimum bei x = {0;−1} und hat einen Funktionswert von 3. Damit ergibt sich die modifizierte Funktion durch F(x) = FA (x)−3. In Abb. 8.7 sowie Abb. 8.8 ist die GP dargestellt. Um die Eigenschaften der Funktion besser zu verdeutlichen, ist in Abb. 8.8 die Darstellung der Funktionswerte logarithmisch skaliert. Dadurch sind die drei wesentlichen Eigenschaften dieser Funktion gut zu erkennen. Zum einen existieren am Rand des Definitionsbereichs
F(x) 300000 250000 200000 150000 100000 50000 0 1.5 1 -1.5
0.5 -1
-0.5
0 0
Faktor 1
Abb. 8.7 Goldstein-Price-Funktion
-0.5 0.5
1
-1 1.5
Faktor 2
8 Optimierung ereignis-diskreter Simulationsmodelle im ProC/B-Toolset Abb. 8.8 Goldstein-PriceFunktion in logarithmischer Darstellung
203
F(x) 1e+06 100000 10000 1000 100 10 1 1.5 1
-1.5
-1 -0.5
0 0.5 Faktor 1
1
-1 1.5
-0.5
0.5 0 Faktor 2
Bereiche mit hoher Steigung. Demgegen¨uber treten im Großteil des Definitionsbereichs nur geringe Steigungen auf. Dar¨uber hinaus existiert ein globales Optimum an der Stelle x = {0;−1}, in dessen N¨ahe hohe Steigungen auftreten. Das globale Optimum ist aufgrund der geringen Steigung in großen Bereichen der Funktion schlecht durch lokale Suchverfahren zu bestimmen. Dar¨uber hinaus besteht auch bei globalen Suchverfahren das Risiko, dass der relativ kleine Bereich in der N¨ahe des Optimums nicht gefunden wird. F¨ur die Untersuchungen wird die Funktion F zus¨atzlich mit einem Fehler ε versehen, so dass sich die Funktion F (x) = F(x) + ε ergibt. Der Fehler ε ist dabei normalverteilt mit Mittelwert 0 und Varianz 1.
8.4.1 Versuche Im Rahmen dieser Untersuchung soll sowohl das Verhalten der Optimierungsverfahren bei ungest¨orten als auch bei gest¨orten Funktionen ermittelt werden. Daher ergeben sich zwei Messreihen durch die Funktionen F und F . F¨ur jedes Optimierungsverfahren werden in jeder Messreihe 121 Durchl¨aufe durchgef¨uhrt, wobei f¨ur die lokalen Suchverfahren Startpunkte anhand eines 11 × 11-Gitters vorgegeben werden. Die Konfigurationen der Verfahren werden dabei nicht ver¨andert und f¨ur den Einsatz mit stochastischen Funktionen eingestellt. Dabei werden die Centerpoints bei RSM sowie alle Punkte bei PS und KM dreifach ausgewertet, um die St¨orung zu reduzieren [MMy02]. Designpunkte werden bei RSM einfach ausgewertet. EA w¨ahlt die Anzahl der Auswertungen je Punkt adaptiv, so dass hier keine weitere Einstellung notwendig ist. In Abb. 8.9 und 8.10 sind die Ergebnisse der Versuche f¨ur F (x) bzw. F (x) dargestellt. Jedem Optimierungsverfahren sind dabei zwei Balken zugeordnet, wobei der hellgraue Balken die durchschnittliche Distanz zum globalen Optimum und der dunkelgraue Balken die durchschnittliche Anzahl der Modellauswertungen wiedergibt. Zu der durchschnittlichen Distanz wird zus¨atzlich das jeweilige 95 Prozent Konfidenzintervall angezeigt. Die in diesem Fall a¨ hnlichen Ergebnisse der
204
M. Arns et al.
Abb. 8.9 Ergebnisse f¨ur F (x)
0.4
10000
0.3
1000
Distanz
0.25 0.2
100
0.15 0.1
10
Anzahl Auswertungen
0.35
0.05 0
RSM
PS
Kriging Hybrid
EA
1
Optimierungsverfahren auf den beiden Funktionen F und F zeigen, dass hier drei Auswertungen je Punkt zur Reduktion der St¨orung ausreichend sind. Da die Optimierungsverfahren mit Ausnahme von EA auf 180 Auswertungen beschr¨ankt wurden, haben diese hier im Wesentlichen die gleichen Werte. Die leichten Unterschiede entstehen dadurch, dass die lokalen Suchverfahren in einigen F¨allen sehr schnell keineVerbesserungen finden und so die maximaleAnzahlAuswertungen nicht aussch¨opfen. EA ben¨otigt deutlich mehr Auswertungen, diese f¨uhren jedoch zu entsprechend besseren Ergebnissen. W¨ahrend EA den Bereich des globalen Optimums in den meisten F¨allen gut identifizieren kann, k¨onnen die anderen Optimierungsverfahren das Optimum der GP in deutlich weniger F¨allen identifizieren. Da die GP nur in einem sehr kleinen Bereich auf das globale Optimum hindeutet, ist dieses Verhalten ohne weiteres verst¨andlich, da die eingesetzten Suchverfahren immer der Abw¨agung zwischen der Anzahl an Modellauswertungen und der H¨ohe des Risikos, ein globales Optimum nicht zu identifizieren, unterliegen. 10000
0.4
0.3
1000
Distanz
0.25 0.2
100
0.15 0.1
10
0.05
Abb. 8.10 Ergebnisse f¨ur F (x)
0
1 RSM
PS
Kriging Hybrid
EA
Anzahl Auswertungen
0.35
8 Optimierung ereignis-diskreter Simulationsmodelle im ProC/B-Toolset
205
Bei der Betrachtung der lokalen Suchverfahren ist anhand der hohen Distanz zum globalen Optimum und der Gr¨oße des Konfidenzintervalls leicht zu erkennen, dass diese Verfahren f¨ur die Optimierung einer solchen Funktion nicht gut geeignet sind, sondern mit relativ schlechten Ergebnissen die Optimierung beenden. Dar¨uber hinaus zeigt sich, dass RSM unter Verwendung der Funktion F nur minimal schlechtere Ergebnisse gegen¨uber der ungest¨orten Funktion F produziert. Im Gegensatz dazu reagiert PS deutlich auf die hinzugef¨ugte St¨orung in F . Dieser Unterschied kann durch die eingesetzten Methoden erkl¨art werden. W¨ahrend RSM statistische Verfahren nutzt, um die lokale Umgebung zu untersuchen, verh¨alt sich PS wie ein Greedy-Verfahren. Dadurch kann RSM durch St¨orungen bzw. Messfehler entstandene Schwankungen besser ausgleichen. Dahingegen zeigen Erfahrungswerte, dass PS in vielen F¨allen zu besseren Ergebnissen als RSM f¨uhrt. Dies kann auch durch diese Untersuchung best¨atigt werden, da PS bei der Optimierung von F bessere Werte liefert und bei der Funktion F lediglich auf das Niveau von RSM abf¨allt, es kann jedoch nicht f¨ur beliebige Modelle gezeigt werden, dass PS RSM u¨ berlegen ist. Gegen¨uber den lokalen Suchverfahren liefert KM bessere Ergebnisse, die sich dadurch ergeben, dass KM h¨aufiger das globale Optimum identifizieren kann. Dies ist vor allem in der globalen Suchstrategie von KM begr¨undet. Da jedoch der Bereich des Optimums sehr klein ist, ist die Wahrscheinlichkeit, dass das approximative Modell dieses nicht oder nicht korrekt abbildet, relativ hoch. Trotzdem k¨onnen durch KM Bereiche, die mit hoher Wahrscheinlichkeit kein globales Optimum enthalten, ausgeschlossen werden, so dass das Ergebnis von KM einen deutlich besseren Ausgangspunkt f¨ur PS darstellt, als die Wahl eines zuf¨alligen Punktes. Dadurch lassen sich die deutlich besseren Ergebnisse des hybriden Verfahrens erkl¨aren. Die Ergebnisse zeigen deutlich, dass GP nur mit hohem Aufwand sicher zu optimieren ist und dass Einschr¨ankungen der Anzahl der Auswertungen zu einer Reduzierung der Qualit¨at des Ergebnisses f¨uhren. Dies gilt jedoch insbesondere f¨ur unimodale Funktionen nicht. Daher zeigt sich, dass die Auswahl eines geeigneten Optimierungsverfahrens von der jeweiligen Situation abh¨angt. Unter der Annahme, dass die Zielfunktion unimodal ist, sind lokale Suchverfahren den globalen Verfahren u¨ berlegen. Bei multimodalen Funktionen f¨uhren EA zu den besten Ergebnissen, aufgrund zeitlicher Restriktionen sind diese jedoch nicht immer einsetzbar. Abh¨angig von der Zielfunktion sind KM den EA jedoch nur geringf¨ugig unterlegen, ben¨otigen demgegen¨uber jedoch deutlich weniger Auswertungen und k¨onnen so auch bei starken zeitlichen Restriktionen eingesetzt werden. Im folgendenAbschnitt wird OPEDo zur Optimierung der St¨uckgutumschlaghalle eines G¨uterverkehrszentrums (GVZ) eingesetzt.
8.5
Optimierung der Stuckgutumschlaghalle eines GVZ ¨
In diesem Kapitel wird die Optimierung der St¨uckgutumschlaghalle (SUH) eines G¨uterverkehrszentrums (GVZ) anhand des Optimierungswerkzeugs OPEDo vorgestellt. Im Kap. 8.2 wurden bereits verschiedene ProC/B-Modelle der SUH erl¨autert. Insbesondere wurden zwei Modelle aufgezeigt, die einerseits Wert auf
206
M. Arns et al.
die Modellierung der Mitarbeiter in der SUH legten und andererseits auf die Modellierung von Wartungsarbeiten und Ausf¨allen der Gabelstapler in der SUH fokussierten. Die hier betrachtete SUH vereint beide Modelle, ber¨ucksichtigt also sowohl die Mitarbeiter als auch Wartungen undAusf¨alle. Aufgrund derAusf¨uhrungen in Kap. 8.2 wird auf eine detaillierte Beschreibung des Modells an dieser Stelle verzichtet. Das Ziel dieses Kapitels liegt in der Minimierung der Betriebskosten der SUH (pro Tag) sowie in der Maximierung der Leistungsf¨ahigkeit der SUH. Die Leistungsf¨ahigkeit wird dabei aufgrund der Durchlaufzeit der LKWs bewertet werden. Die betrachteten Kosten setzen sich zun¨achst aus den Kosten f¨ur die Mitarbeiter und den Kosten f¨ur Wartungsarbeiten zusammen. Es wird angenommen, dass abh¨angig von der Anzahl x1 der Mitarbeiter, die Mitarbeiterkosten bei 50x1 Geldeinheiten pro Tag liegen und die Wartungskosten in Abh¨angigkeit der L¨ange x2 Wartungsintervalle bei 2000/x2 Geldeinheiten pro Tag liegen. Weitere Kosten werden nicht betrachtet. Damit ergeben sich die t¨aglichen Betriebskosten c(x) der SUH mit x=(x1 , x2 ) zu c(x) = 50x1 +
2000 x2
(8.16)
Die Durchlaufzeit ν(x) mit x=(x1 ,x2 ) der LKWs in der SUH wird abh¨angig von der Anzahl der Mitarbeiter x1 und der L¨ange x2 der Wartungsintervalle durch Simulation des ProC/B-Modells ermittelt. Auf dieser Grundlage wird die Leistungsf¨ahigkeit ν (x) der SUH bewertet. Als Bewertungskriterium wird angenommen, dass ν (x) umgekehrt proportional zur Durchlaufzeit der LKWs w¨achst und folgendermaßen berechnet wird: 1000 (8.17) ν (x) = ν(x) Um aus dem durch die Kostenfunktion c(x) und die Leistungsbewertungsfunktion ν (x) gegebenen multikriteriellen Optimierungsproblem ein einkriterielles Optimierungsproblem zu generieren, fließen beide Funktionen gewichtet in eine gemeinsame Zielfunktion z(x) ein, die zu minimieren ist. Da die durch ν (x) gegebene Optimieraufgabe ein Maximierungsproblem ist, muss in der gemeinsamen Zielfunktion −ν‘(x) betrachtet werden. Weiterhin werden c(x) und −ν (x) mit dem Faktor α = 0,0001 bzw. 1 − α gewichtet. Dabei muss der jeweilige Wertebereich der Funktionen sowie die Wichtigkeit der beiden Funktionen ber¨ucksichtigt werden. Damit ist z(x) folgendermaßen definiert durch z(x) = α c(x)−(1 − α) ν (x). Um letztendlich das durch z(x) gegeben Minimierungsproblem anhand des Werkzeugs OPEDo l¨osen zu k¨onnen, m¨ussen zuvor die Nebenbedingungen in Form des Wertebereichs des Parametervektors x = (x1 , x2 ) angegeben werden. Dieser wird wie folgt festgelegt: x = {(x1 , x2 ) |x1 ∈ {10, . . . , 60} , x2 ∈ [0, 1; 10]}
(8.18)
Im folgenden Abschnitt wird das Optimierungswerkzeug OPEDo eingesetzt, um das so beschrieben Optimierungsproblem zu l¨osen.
8 Optimierung ereignis-diskreter Simulationsmodelle im ProC/B-Toolset
207
8.5.1 Versuchsaufbau und Ergebnisse Unter Benutzung der im vorherigen Abschnitt definierten Funktion z(x) werden in diesem Abschnitt RSM, PS, KM sowie das hybride Verfahren betrachtet. Aufgrund der hohen Dauer der Simulation wurde hier auf eine Betrachtung von EA verzichtet. Der Versuchsaufbau ist grunds¨atzlich identisch mit dem in Abschn. 8.4.1 beschriebenen Aufbau, wobei hier ausschließlich die Konfigurationen RSM, PS, KM sowie HY verwendet werden. Die Konfigurationen der Algorithmen sind so eingestellt, dass bei 50 Modellauswertungen die Optimierung beendet wird, so dass ein Optimierungslauf ca. einen Tag in Anspruch nimmt. Vor der Besprechung der Ergebnisse werden nun kurz die Eigenschaften der untersuchten Funktion genauer vorgestellt. Die betrachtete Funktion z(x) liefert Funktionswerte, die im Wesentlichen im Intervall [−0,6;2,5] liegen. Dabei ist zu beachten, dass aufgrund der stochastischen Natur der Funktion dieser Wertebereich leicht u¨ ber- bzw. unterschritten werden kann. Die Werte von ca. 2,5 werden f¨ur x2 = 0,1 erreicht, was vor allem durch die hohen dann anfallenden Wartungskosten bedingt ist. Das Minimum der Funktion liegt im Bereich von x1 ∈ {20, . . . , 30} und x2 ∈ [0, 7; 1] und kann aufgrund der Schwankungen in der Funktion nicht genauer bestimmt werden. Eine allgemeine Untersuchung hat ergeben, dass es sich bei der Funktion z(x) um eine unimodale Funktion handelt. Die Ergebnisse der Optimierungsverfahren werden in Abb. 8.11 dargestellt. Diese enth¨alt f¨ur jedes Optimierungsverfahren zwei Balken. Der linke, hellgraue Balken gibt dabei den durchschnittlich besten gefundenen Funktionswert an, wobei auch das 90% Konfidenzintervall dargestellt wird. Der rechte, dunkelgraue Balken gibt die durchschnittliche Anzahl an Modellauswertungen an, die entsprechend der Konfiguration nahe bei 50 Auswertungen liegt. Da es sich bei z(x) um eine unimodale Funktion handelt, sind die Ergebnisse der lokalen Suchverfahren RSM und PS mit durchschnittlich ca. −0,4 und −0,58
-0.6
50 40
-0.4 30 -0.3 20 -0.2 10
-0.1
Abb. 8.11 Ergebnisse der Optimierungsverfahren f¨ur z(x)
0
0 RSM
PS
Kriging Optimizer
Hybrid
Evaluations
Response
-0.5
208
M. Arns et al.
erwartungsgem¨aß besser als die von globalen Verfahren wie KM mit ca. −0,25. Dies liegt darin begr¨undet, dass das KM eine gewisse Anzahl an Auswertungen nutzt, um das Metamodell zu verbessern und so die Wahrscheinlichkeit verringert ein Optimum nicht zu finden. Lokale Suchverfahren gehen dieses Risiko jedoch ein und k¨onnen so mehr Auswertungen auf die genaue Bestimmung des einzigen Optimums verwenden. Die Unterschiede in den Ergebnissen zwischen RSM und PS sind auch hier in der unterschiedlichen Eignung der Verfahren f¨ur dieses Modell zu suchen. Im Gegensatz zu den in Abschn. 8.4.1 vorgestellten Ergebnissen ist das hybride Verfahren in diesem Fall PS unterlegen und liefert mit ca. −0.55 im Durchschnitt leicht schlechtere Ergebnisse. Dies liegt in der unimodalen Eigenschaft von z(x) begr¨undet, bei der die Nutzung von KM keinen Vorteil erbringt. Dies gilt insbesondere, da lokale Suchverfahren aufgrund der anfangs großen Schrittweite bei unimodalen Funktionen den Bereich des Optimums bereits mit wenigen Auswertungen erreichen.
8.6
Zusammenfassung
Dieser Beitrag hat aufgezeigt, inwieweit sich Prozessketten im ProC/B-Toolset automatisiert optimieren lassen. Die wesentlichen Schritte dazu liegen in der Identifikation von Freiheitsgraden des Modells, in der Bestimmung von Wertebereichen der entsprechenden Parameter (zul¨assiger Bereich) sowie in der Definition einer geeigneten Zielfunktion. Auf dieser Basis l¨asst sich die Modelloptimierung automatisiert mit dem an ProC/B angebundenen Werkzeug OPEDo durchf¨uhren. OPEDo stellt zur Optimierung verschiedene lokale und globale Optimierverfahren bereit, die wiederum zur Auswertung der Zielfunktion den Simulator des ProC/BToolsets verwenden. Die Funktionsweise und Leistungsf¨ahigkeit von OPEDo wurde zun¨achst anhand einer Benchmarkfunktion demonstriert. Im Anschluss daran wurde OPEDo exemplarisch anhand des ProC/B-Modells einer St¨uckgutumschlaghalle eines G¨uterverkehrszentrums erprobt. Die in diesem Kontext definierte Zielfunktion hat unimodalen Charakter, so dass die lokalen Optimierverfahren RSM und PS gegen¨uber den globalen Verfahren bessere Ergebnisse liefern. Der Charakter der Zielfunktion bietet zudem Raum f¨ur weitergehende Arbeiten im Bereich Optimierung von Prozessketten. Vielfach liegt das zentrale Ziel bei der Optimierung von Prozessketten in der Kostenminimierung. Ferner ist zu vermuten, dass sich die dazu betrachteten Faktoren klassifizieren lassen und so zu typischen Zielfunktionen f¨uhren. Eine Typisierung der Klasse von Zielfunktionen kann dann dazu genutzt werden, die vorgestellten Optimierverfahren an die speziellen Eigenschaften von Logistiknetzen bzw. Prozessketten anzupassen.
Literatur [AGK+06] April J, Glover F, Kelly JP, Laguna M, Better M (2006) Enhancing business process management with simulation optimization. Proc. Winter Simulation Conference 2006
8 Optimierung ereignis-diskreter Simulationsmodelle im ProC/B-Toolset [And06]
209
Andadottir S (2006) Simulation optimization with coutably infinitefeasible regions. ACM Trans. Model Comput Simul 16:357–374 [BBK] Bause F, Beilner H, Kriege J. ProC/B: Eine Modellierungsumgebung zur prozesskettenorientierten Beschreibung und Analyse logistischer Netze In: Buchholz P, Clausen U (Hrsg.), Große Netze der Logistik, Springer 2009 [BKM+07] Buchholz P, Kemper P, M¨uller D, Th¨ummler A (2007) OPEDo: A tool framework for modeling and optimization of stochastic models. Proc. ValueTools 2007 [BMT05] Buchholz P, M¨uller D, Th¨ummler A (2005) Optimization of process chain models with response surface methodolgy and the ProC/B toolset. In: L¨unther HG, Mattfield D, Sul L (Hrgs) Supply chain management and Logistik. Physica Verlag, S 553–573 [BPK98] Bause F, Buchholz P, Kemper P (1998)A toolbox for functional and quantitative analysis of DES. Quantitative Evaluation of Computing and Communication Systems (LNCS 1469), Springer, pp 356–359 [BTh05] Buchholz P, Th¨ummler A (2005) Enhancing evolutionary algorithms with statistical selection procedures for simulation optimization. Winter Simulation Conference 2005 [Fum02] Fu MC (2002) Optimization for simulation: Theory vs. practice. INFORMS J Comput 14:192–215 [GPr71] Goldstein AA, Price IF (1971) On descent from local minima. Math Comput 25(115) [HNe06] Hong LJ, Nelson BL (2006) Discrete optimization via simulation using COMPASS. Oper Res 54:115–129 [JSt03] Jarre F, Stoer J (2003) Optimierung. Springer [JSW98] Jones DR, Schonlau M, Welch WJ (1998) Efficient global optimization of expensive black-box functions. J Global Optim 13:455–492 [Kle07] Kleijnen JP (2007) Kriging metamodeling in simulation: A review. Working Paper, Tilburg University [KLT03] Kolda TG, Lewis RM, Torczon V (2003) Optimization by direct search: New perspectives on some classical and modern methods. SIAM Rev 45:385–482 [LKe00] Law AM, Kelton WD (2000) Simulation modeling and analysis. McGraw Hill [LSu05] Li R, Sudjianto A (2005) Analysis of computer experiments using penalized likelihood in Gaussian Kriging models. Joint Statistical Meetings [MFo04] Michalewicz Z, Fogel DB (2004) How to solve it: Modern heuristics. Springer [MMy02] Montgomery DC, Myers RH (2002) Response surface methodology: Process and product optimization using designed experiments, 2nd edn. Wiley [Mon01] Montgomery DC (2001) Design and analysis of experiments, 5th edn. Wiley [NOP+00] Neddermeijer HG, van Oortmarssen GJ, Piersma N, Dekker R (2000) A framework for response surface methodology for simulation optimization. Proc. Winter Simulation Conference, Orlando, FL, USA, pp 129–136 [NPr98] Nissen V, Propach J (1998) On the robustness of population-based versus point-based optimization in the presence of noise, IEEE Trans. Evol Comput 2:107–119 [SCh04] Sriver TA, Chrissis JW (2004) Combined pattern search and ranking and selection for simulation optimization. Proc. Winter Simulation Conference [Sch95] Schwefel PP (1995) Evolution and optimum seeking. Wiley [SJY03] Swisher JR, Jacobson SH, Y¨ucesan E (2003) Discrete-event simulation optimization using ranking, selection, and multiple comparison procedures: A survey. ACM Trans. Model Comp Simul 13(2):134–154
Kapitel 9
Der Mensch als Planer, Operateur und Problemlöser in logistischen Systemen Doris Blutner, Stephan Cramer und Tobias Haertel
9.1
Einleitung
Innerhalb des Sonderforschungsbereiches 559 analysiert das Teilprojekt M14 „Der Mensch in der Logistik“, wie die Rolle des Menschen als Planer, Operateur und Problemlöser in großen Netzen der Logistik entwickelt werden kann. Die Arbeiten aller Teilprojekte im Sonderforschungsbereich bauen auf dem Prozesskettenmodell als derzeit gültigem Paradigma mit dem Ziel auf, dieses Modell anzuwenden und weiterzuentwickeln. Eine Herausforderung für das Teilprojekt M14 liegt somit in der Übertragung techniksoziologischer Ansätze auf das Prozesskettenparadigma. In diesem Beitrag wird das Modell daher als Rahmung für die techniksoziologische Analyse der Rolle des Menschen in der Logistik genutzt. Dazu werden eingangs auf einer theoretischen Ebene Übereinstimmungen zwischen dem techniksoziologischen Systemansatz und dem logistischen Prozesskettenparadigma identifiziert. Anschließend werden knapp wesentliche Errungenschaften interdisziplinärer Technikforschung aufgearbeitet, die sich mit der Rolle des Menschen in komplexen technischen Logistiksystemen befassen. Ausgehend von der These, dass die Integration eigenaktiver, sich selbst steuernder Technik in logistischen Systemen nicht nur deren Leistungsfähigkeit zu steigernd vermag, sondern auch besondere Anforderungen an die Problemlösungskompetenz der Operateure stellt, werden dann in empirischen Fallstudien Chancen und Restriktionen bei der Steuerung von Logistikprozessen in techniksoziologischer Hinsicht untersucht. Anschließend wird der Versuch unternommen, die Ergebnisse aus der Interpretation der Fallstudien in das Prozesskettenparadigma als Instrument zur Planung logistischer Systeme zu integrieren. In Anlehnung an die zentrale These des Beitrags wird dabei die Frage fokussiert, unter welchen Bedingungen in Logistiksystemen Fehler, Störungen und die Eigenaktivität avancierter Technik durch die Operateure bewältigt werden können. S. Cramer ( ) Technische Universität Dortmund, Wirtschafts- und Sozialwissenschaftliche Fakultat Otto-Hahn-Str. 4, 44227 Dortmund, Deutschland e-mail:
[email protected] P. Buchholz und U. Clausen (Hrsg.), Große Netze der Logistik, DOI 10.1007/978-3-540-71048-6_9, © Springer-Verlag Berlin Heidelberg 2009
211
212
D. Blutner et al.
Abschließend werden aus diesem Beitrag Gestaltungshinweise abgeleitet, die die Planer großer logistischer Systeme dabei unterstützen sollen, das Zusammenwirken von menschlichem und technischem Teilsystem zu optimieren.
9.2 Techniksoziologie und Prozesskettenparadigma 9.2.1
Der soziotechnische Systemansatz und die systemische Perspektive des Prozesskettenparadigmas
In der Techniksoziologie sind „technological systems“ als Konfiguration heterogener Komponenten definiert [Hug87]. „Systemische Technik ist Organisation materieller wie nicht-materieller Komponenten“ und zeichnet sich als moderne Technik dadurch aus, „…dass die technische Konstruktion immer Konstruktion von und in Systemen ist“ [Kro89]. Die zunehmende Bedeutung gesellschaftlicher Verkehrs-, Infrastruktur- und Informationssysteme verdeutlicht die Aktualität dieses Ansatzes. So führt der Einsatz smarter Technik zu Überlegungen, den soziotechnischen Systemansatz zu modifizieren, um sich abzeichnende technische Eigenaktivitäten in Systemen angemessen zu berücksichtigen (vgl. [Wey03]). Das Prozesskettenparadigma wird aus dem „Systemdenken“ abgeleitet, um logistische Abläufe ganzheitlich als systemische Prozesse zu rekonstruieren [KLS02]. „Lineares Denken und Handeln nach einem eindimensionalen Ursache-Wirkungsprinzip wird abgelöst durch ein integrierendes, systemisches Denken und Handeln, das die Rückkopplung als wesentliches Systemmerkmal berücksichtigt“ [KLS02]. Bei der Spezifizierung des „Systems“ berufen sich Käppner, Laakmann und Stracke explizit auf den soziotechnischen Systemansatz des englischen Tavistock Institut: „Die Wissenschaftler des Tavistock Institute stellten damals die These auf, dass sich das technische und soziale Teilsystem im Einklang befinden müssen, damit die Funktionsweise des Gesamtsystems gewährleistet bleibt“ [KLS02]. Erst die Optimierung des technischen wie des sozialen Subsystems führe demnach zu den erwünschten Ergebnissen [KLS02]. Obwohl sich das Prozesskettenparadigma auf diese arbeitswissenschaftliche (vgl. [Tri90]) und nicht techniksoziologische Traditionslinie bezieht, bestehen wichtige konzeptionelle Übereinstimmungen zwischen dem Paradigma und dem gewählten techniksoziologische Ansatz, die beide eine soziotechnische Systemperspektive teilen.
9.2.2
Zur Steuerung komplexer Systeme
Im klassischen techniksoziologischen Systemansatz von Thomas P. Hughes sind es Personen, die als „System builders“ technologische Systeme aufbauen: „One of the primary characteristics of a system builder is the ability to construct or to force unity from diversity, centralisation in face of pluralism, and coherence from
9 Der Mensch als Planer, Operateur und Problemlöser in logistischen Systemen
213
chaos“ [Hug87]. Der Aufbau komplexer Systeme ist somit Ergebnis ordnenden und absichtsvollen Handelns. Gestaltungs- und Steuerungsprobleme ergeben sich demgegenüber aus der Komplexität des Systems: „Technological systems contain messy, complex, problem-solving components“ [Hug87]. Die Möglichkeit zu gestalten, zu steuern und Probleme zu lösen, ist demnach immer mit Unordnung und Komplexität konfrontiert. In diesem Spannungsverhältnis wurde unter dem zunächst missverständlichen Terminus des „Risikos“ die Konfiguration und Steuerung komplexer Systeme auch im Störfall diskutiert. So wies Perrow nach, dass komplexe Interaktionen (Rückkopplungen) eng miteinander gekoppelter Systemkomponenten (Flexibilitätsverlust, keine Puffer) eine entscheidende strukturelle Voraussetzung für Stör- und Unfälle in soziotechnischen Systemen darstellen [Per92]. Systemstabilität erfordert demnach reduzierte Komplexität und lose gekoppelte Systemelemente. Empirische Untersuchungen führten dann zu einer differenzierten Wahrnehmung von Steuerungsmodi. Rochlin u. a. wiesen am Beispiel der Operationsformen auf einem Flugzeugträger spezifische Verfahrensweisen zur Problembewältigung nach, die als „High Reliability Organisation“ bezeichnet wurden (vgl. [RLR87]). Als bemerkenswertestes Ergebnis kennzeichnete Rochlin später die Beobachtung einer Fülle problemspezifischer, informeller Netzwerke von Personen, die parallel zur streng hierarchischen, formalen Organisation an Bord in der Lage waren, mögliche Probleme frühzeitig zu erkennen und präventiv zu handeln [Roc89]. Der Mensch ist hier ein Problemlöser innerhalb komplexer Systemprozesse, dessen Kompetenzen durch Automationsstrategien verloren gehen könnten. Ein zentrales Ziel in der Anwendung des Prozesskettenmodells besteht darin, logistische Prozesse durch Komplexitätsreduktion zu optimieren, um so Probleme besser lösen zu können: „Das Ergebnis muss immer die Gestalt von einfachen Prozesskettenstrukturen haben“ [KPi94]. Konkret bedeutet Komplexitätsreduktion, die Ressourcennutzung in möglichst einfachen Strukturen optimiert zu steuern [KPi94] und „…die Komplexität der Fehlereinflussmöglichkeiten… “ zu reduzieren [KPi94]. In Analogie zum soziotechnischen Systemansatz sind demnach logistische Systeme ebenfalls als komplexe Systeme aufzufassen, deren systemische Komplexität auf ein Minimum reduziert werden soll, um systemische Fehlleistungen zu vermeiden oder besser zu bewältigen. Wie im techniksoziologischen Systemansatz ist aus dem Spannungsverhältnis zwischen dem Systemaufbau und Komplexitätsreduktion die besondere Bedeutung der Steuerungsproblematik unter der Bedingung möglicher Fehlleistungen abzuleiten.
9.2.3
Steuerungsmodi
Bei der Gestaltung von Steuerungsmodi in logistischen Systemen wird die soziotechnische Ausrichtung des Paradigmas deutlich, da sowohl soziale Kooperationsprozesse in Netzwerken als auch technische Informations- und Steuerungsprozesse im engeren Sinne gestaltet werden sollen [KLS02]. Das Modell setzt zunächst an der Gestaltung von Schnittstellen zwischen Prozesskettenelementen an, sucht Bereichs-
214
D. Blutner et al.
und Verantwortungswechsel einzuschränken [KLS02] und gründet auf der Minimierung vertikalen Informationsaustausches: „Ein Teilprozess soll so autonom wie möglich funktionieren: ein Minimum an Datenaustausch mit übergeordneten, voroder nachgeschalteten Systemen ist Gewähr für die flexible Anpassbarkeit an sich ändernde Systemlasten oder Randbedingungen“ [KLS02]. Von den Prozessen im jeweiligen Prozesskettenelement kann dann abgesehen werden: „Die Verwendung von Prozesskettenelementen zur Beschreibung von Prozessen erlaubt dem Nutzer des Modells eine Berechenbarkeit von Prozessen und gibt ihm dennoch die Freiheit, sich nur begrenzt um die Inhalte zu kümmern“ [KLS02]. Die Autonomie von Teilprozessen wird demnach auf der Darstellungsebene gespiegelt. Ein Steuerungsmodus, der auf zentraler Steuerung und autonomen Teilprozessen aufbaut, kann techniksoziologisch als ein spezifischer Modus der Kombination dezentraler Koordination und zentraler Kontrolle beschrieben werden [Wey05]. In dieser dem Paradigma eigenen Autonomiekonzeption ist darüber hinaus ein Anknüpfungspunkt zu sehen, technisch generierte Autonomie im Sinn des Einsatzes smarter Technik integrieren zu können. Ob smarte Technik Prozesse steuert oder sie konventionell vom menschlichen Entscheider gesteuert werden, wäre auf höheren Aggregationsstufen der Modellbildung nicht von ausschlaggebender Bedeutung.
9.2.4
Hybridität und veränderte Akteurskonstellationen
Bisher galt sowohl auf der theoretischen Ebene soziotechnischer Systemansätze als auch auf der praxisrelevanten Ebene der Steuerungsmodi, dass menschliche Akteure als „Systembuilders“ oder in vernetzten Akteurskonstellationen (vgl. [Wey97]) Technik ausschließlich als vom Menschen abhängiges Instrument zum Erreichen zweckrational gesetzter Ziele intentional gestalten. „Smarte“ Technik und Automationsstrategien motivieren die von Rammert und Schulz-Schaeffer aufgeworfene Frage, ob Maschinen handeln, inwieweit ihr „Mit-Handeln“ als Teil „hybrider“ soziotechnischer Systeme bedacht werden sollte und welche Auswirkungen dies auf die Systemsteuerung haben könnte [RSc02]. „Hybride“ Systeme zeichnen sich durch die Verteilung von Entscheidungen und Handlungen auf Menschen und Maschinen aus [Ram03]. Erst innerhalb dieser Verteilungen werden systemspezifische Leistungen erbracht. In Grenzen eigenaktive Technik erweitert dabei das Spektrum handelnder Instanzen. Die Steuerungsfrage stellt sich techniksoziologisch erneut, da es gilt, teilautonome Technik in Systeme zu integrieren, die zuvor von Menschen allein gesteuert wurden.
9.2.5 Aspekte des Prozesskettenparadigmas in techniksoziologischer Perspektive, Gemeinsamkeiten und Unterschiede Sowohl auf einer konzeptionellen als auch auf einer problemorientierten Ebene bestehen zwischen der gewählten techniksoziologischen Perspektive und dem Pro-
9 Der Mensch als Planer, Operateur und Problemlöser in logistischen Systemen
215
zesskettenparadigma weitreichende Übereinstimmungen. Beide Ansätze basieren auf der Systemperspektive und berücksichtigen die gegenseitige Beeinflussung technischer wie sozialer Faktoren. Deren aufeinander bezogene Gestaltung wird jeweils als ein Prozess intendierten Systemaufbaus aufgefasst. Beide Ansätze problematisieren dabei den Zusammenhang zwischen zu erzielenden systemspezifischen Leistungen einerseits und der dabei entstehenden Komplexität andererseits als ein Spannungsverhältnis, das es zu bewältigen gilt. Diese Problematik führt zu Strategien der Komplexitätsbewältigung bzw. zur Frage der Gestaltung angemessener Steuerungsmodi. In diesem Kontext kann der im Prozesskettenparadigma präferierte Steuerungsmodus in die techniksoziologische Debatte um Steuerungsmodi mit einer Kombination zentralisierten Prozesse und dezentraler Koordination eingeordnet werden. Unterschiede bestehen dort, wo der gewählte techniksoziologische Ansatz bei der Reflexion von Steuerungsmodi besonders die Notwendigkeit betont, Systeme robust und fehlertolerant zu gestalten, um neben internen Fehlleistungen auch externe Störungen, die das System von außen destabilisieren, bewältigen zu können. Während das Prozesskettenparadigma den Einsatz autonomer Technik nicht problematisiert, betont das Teilprojekt M14 „Der Mensch in der Logistik“ die Notwendigkeit, gerade beim Einsatz hybriden Automation und der damit verbundenen Delegation von Systemleistungen an autonome Technik innovative Steuerungsmodi zu entwickeln, um so Mensch-Maschine-Verhältnisse unter besonderer Berücksichtigung des Menschen als Problemlöser ausgestalten zu können. Insgesamt überwiegen Übereinstimmungen erheblichen Umfangs, die als einheitliche und konsistente Basis konzeptioneller Art zu bewerten sind. Auf dieser Grundlage soll nun geklärt werden, wo bei der Gestaltung logistischer Prozessketten techniksoziologische Anschlussmöglichkeiten bestehen.
9.2.6 Anschlussmöglichkeiten zum Prozesskettenparadigma Als geeigneter Ansatzpunkt erweisen sich dafür die im Prozesskettenparadigma definierten „Strategieklassen“ als „Baukasten der strategischen Logistikplanung“ [Kuh95]. Mit dem Instrumentarium des Paradigmas kann der logistische Gesamtprozess in Prozesskettenelemente zerlegt werden. Deren Gestaltung erfolgt u. a. über dreizehn Strategieklassen, die wie Stellschrauben funktionieren und der Parametrierung der Lenkungs-, der Struktur- und Ressourcensicht auf das Prozesskettenelement dienen [Laa05]. „Der Parameter Prozess repräsentiert lediglich die vorrangigste Sicht auf das logistische System,…“ und wird deshalb zusammen mit Quelle und Senke hier nicht berücksichtigt, da es ausschließlich um die Beeinflussung der Ablauf- und Informationsprozesse in einem Prozesskettenelement gehen soll [Laa05]. Den drei Sichten sind dabei folgende Strategieklassen zugeordnet. Die kursiv gestellten Strategieklassen Disposition, Steuerung, Organisationsstruktur, Personal, Organisationsmittel, Betriebsmittel kennzeichnen jene Ansatzpunkte, die für M14 relevant sind (siehe Tab. 9.1). Dabei ist zunächst festzuhalten, dass sich die techniksoziologisch relevanten Strategieklassen auf alle drei „Sichten“
216
D. Blutner et al.
Tabelle 9.1 Techniksoziologisch relevante Strategieklassen Strategieklassen Lenkungssicht
Administration Disposition Steuerung
Struktursicht
Produktstruktur Materialflussstruktur Organisationsstruktur Kundenstruktur
Ressourcensicht
Flächen Bestände Personal Organisationsmittel Betriebsmittel Hilfsmittel
verteilen bzw. auf drei Ebenen der Einflussnahme auf logistische Prozesse techniksoziologische Anschlussmöglichkeiten bestehen. Exemplarisch sei dies nun in folgenden Strategieklassen erläutert: Die Steuerung komplexer logistischer Prozesse erfordert längst den Einsatz ihrerseits komplexer IT-Systeme, deren Leistungsfähigkeit die Möglichkeiten konventioneller Steuerung und Back-Ups übersteigt. Aus techniksoziologischer Perspektive wird daher thematisiert, wie im Verhältnis zwischen Steuerung und informationstechnisch realisierter Selbststeuerung von Teilprozessen Menschen nicht mehr nur als Steuerer, sondern auch als Problemlöser über systematisch gestaltete und optimierte Möglichkeiten verfügen sollten, Problemfälle möglichst frühzeitig bearbeiten zu können. Auf der Ebene der Organisationsstruktur diskutiert M14 die Entwicklung von Organisationsformen zwischen zentraler und dezentraler Ausrichtung als Merkmal robuster Systeme. Automationsstrategien sind daraufhin zu befragen, inwieweit eine in die Organisationsstruktur integrierte technische Teilautonomie zur Möglichkeit der verspäteten Fehlerwahrnehmung und Problemlösung vor Ort führen kann. Auch aus techniksoziologischer Perspektive bleibt das Personal ein knappe Ressource der Logistik. Personaleinsparungen auf der Ebene dezentraler Prozesse können aber mit der Notwendigkeit verknüpft sein, den Personaleinsatz auf übergeordneten Aggregationsstufen bis hin zum Leitstandpersonal daraufhin zu überprüfen, inwieweit dort Kompetenzen vorgehalten werden müssen, um die robuste Leistungsfähigkeit im Netz auch dann zu erreichen, wenn Störungen schneller auf die Ebene zentraler Kontrolle durchzuschlagen in der Lage sind. Dies hat Konsequenzen für die Gestaltung der Organisationsmittel und wie diese die direkte Kommunikation zwischen Operateuren erleichtern und dazu dienen,
9 Der Mensch als Planer, Operateur und Problemlöser in logistischen Systemen
217
Prozesse im Überblick und Entscheidungen in ihren Konsequenzen anschaulich abzubilden. Nachdem so verschiedene Anschlussmöglichkeiten zwischen der techniksoziologischen Systemperspektive und dem Prozesskettenparadigma nachgewiesen wurden, wird es nun folgend darum gehen, anhand ausgewählter Fallstudien das Verhältnis zwischen Mensch und Technik in logistischen Prozessen offen zu legen. Auf dieser empirischen Grundlage wird dann reflektiert, wie die techniksoziologische Perspektive auf Gestaltungsmöglichkeiten und -notwendigkeiten mit der Anwendung der Parametervariation innerhalb des Prozesskettenparadigmas in Übereinstimmung gebracht werden kann.
9.3
9.3.1
Sozialwissenschaftliche Befunde zur Mensch-Maschine Interaktion Einleitung
Die benutzerfreundliche Gestaltung von Mensch-Maschine-Schnittstellen ist inzwischen eine unumstrittene Anforderung an neue technische Entwicklungen. Schlecht gestaltete Mensch-Maschine-Schnittstellen können gravierende Nachteile nach sich ziehen, von wirtschaftlichen Einbußen über gesundheitliche Folgen bis hin zu tödlichen Unfällen (vgl. [Hei04]). Zu diesem Forschungsgegenstand hat sich das interdisziplinäre Forschungsfeld der Ergonomie herausgebildet, das allgemein nach den Wechselwirkungen zwischen Menschen und technischen System fragt. Mit dem kontinuierlichen technischen Fortschritt hat sich das Feld weiter ausdifferenziert, der Gestaltung von Mensch-Computer-Schnittstellen hat sich die Software-Ergonomie (oder auch Human-computer-interaction) verschrieben (vgl. [SPl05]), während sich Usewareengineering auf die menschengerechte Entwicklung von Bediensystem konzentriert (vgl. [Züh04]). In diese interdisziplinären Diskussionen haben sich stets auch die Sozialwissenschaften eingebracht und dabei den Fokus auf folgende Punkte gelegt: − Die Rolle der Menschen bei der Entwicklung neuer Technologien − Verfahren zur Gestaltung der „optimalen“ Mensch-Maschine-Interaktion − Diskussion von Technikfolgen
9.3.2
Die Rolle der Menschen bei der Entwicklung neuer Technologien
Dass neben technischen und ökonomischen Interessen auch die sozialen Belange bei der Technikentwicklung gleichrangig anerkannt sind, ist eine Errungenschaft
218
D. Blutner et al.
des sozio-technischen Ansatzes, der auf die Arbeiten des Tavistock-Institut in den 1950er-Jahren zurückzuführen ist. Zu den Kernaussagen gehört, dass es Wechselwirkungen zwischen dem technisch-ökonomischen und dem sozialen Subsystem komplexer Organisationen gibt. Für die Gestaltung neuer IuK-Technik wurde dieser Ansatz in den späten 1970er bzw. frühen 1980er-Jahren mit der Forderung aufgegriffen, Technikentwicklung nicht als einseitig technikzentrierten Vorgang zu betreiben, sondern auch die Interessen der Nutzer zu berücksichtigen (vgl. [Mam85]). Als Gegenthese zum technikzentriertem Vorgehen wurde der Begriff vom „Usercentred Design“ aufgeworfen, bei dem die Anwender im Mittelpunkt der Entwicklungsprozesse stehen, an deren Bedürfnisse sich Technik orientieren und anpassen sollte. Interdisziplinär aufgenommen, führte dieser Ansatz zur internationalen Norm ISO 13407: „Benutzerorientierte Gestaltung interaktiver Systeme“: „Die benutzerorientierte Gestaltung ist eine Art der Entwicklung interaktiver Systeme, die sich darauf konzentriert, Systeme gebrauchstauglich zu machen. Sie ist eine multidisziplinäre (fachübergreifende) Aktivität, die Wissen über menschliche Faktoren und ergonomische Kenntnisse und Techniken umfasst. Die Anwendung des Wissens über menschliche Faktoren und Ergonomie bei der Gestaltung interaktiver Systeme erhöht die Effektivität und Effizienz, verbessert die Arbeitsbedingungen des Menschen und wirkt möglichen nachteiligen Auswirkungen beim Gebrauch auf die menschliche Gesundheit, Sicherheit und Leistung entgegen. Wird die Ergonomie bei der Gestaltung von Systemen angewandt, sind menschliche Fähigkeiten, Fertigkeiten, Grenzen und Bedürfnisse zu berücksichtigen.“ (ISO-13407 1999: 2) Dabei ist der Ansatz der Benutzerorientierung nicht unumstritten. Eine zu starke Ausrichtung auf die Interessen der Nutzer könne die Chancen von wissenschaftlichtechnisch induzierten Innovationen verdrängen, gibt Flemisch [Fle03] zu bedenken. User-centred Design dürfe nicht den ganzen Entwicklungsprozess dominieren, sondern lediglich als temporäreres Korrektiv bei einer zu technikzentrierten Vorgehensweise dienen. Insgesamt müsse bei der Technikgestaltung eine Balance des Einflusses aller Beteiligten erreicht werden (vgl. [Fle03]). Stewart und Williams sind sogar der (provokanten und überspitzten) Ansicht, dass der nutzerorientierte Ansatz in der Praxis zu keinen signifikant anderen Ergebnissen geführt hat als bei konventioneller Technikgestaltung (vgl. [SWi05]). Der Wechsel von einem technikzentrierten zum nutzerorientierten Vorgehen bei der Technikentwicklung ist jedoch nur eine Errungenschaft des sozio-technischen Ansatzes. In der Weiterentwicklung des systemischen Denkens wurde deutlich, dass die Anwender nicht isoliert betrachtet werden dürfen, sondern sich in verschiedenen (Sub-) Systemen befinden; damit wurde auch der bislang auf die Mikroebene beschränkte Blick erweitert. Bei der Gestaltung von Arbeitsplätzen ist eine Mensch-Maschine-Interaktion immer in organisationale (Mesoebene) und gesellschaftliche (Makroebene) Strukturen eingebunden (vgl. [Kön93]). Die Gestaltung einer Mensch-Maschine-Schnittstelle kann sich demnach nicht nur an einzelnen Nutzern orientieren, sondern wird auch geprägt von (nicht immer einheitlichen) Organisationszielen und -strukturen. Dementsprechend wirkt sich die Einführung einer neuen Technik auch nicht nur auf den jeweiligen Bediener aus, sondern kann
9 Der Mensch als Planer, Operateur und Problemlöser in logistischen Systemen
219
auch zu Veränderungen innerhalb der ganzen Organisation führen.1 Darüber hinaus müssen gesellschaftliche Gegebenheiten berücksichtigt werden, z. B. vorhandene Berufsbilder mit ihren Qualifikationen oder rechtliche Rahmenbedingungen.2 Die Gestaltung einer optimalen Mensch-Maschine-Interaktion kann also nicht technikzentriert und beschränkt auf die Mikroebene stattfinden, sondern muss Nutzerinteressen berücksichtigen und die Anwender in ihren sozio-technischen Kontexten wahrnehmen, um nicht zu kurz zu greifen.3
9.3.3 Verfahren zur „optimalen“ Gestaltung der Mensch-Maschine-Interaktion Die Übertragung der partizipativen Ansätze des Tavistock-Institutes auf den Bereich der Technikgestaltung fand vor einem spezifischen Hintergrund statt: In den späten 1970er/frühen 1980er-Jahren wich die Technikeuphorie neu aufkommenden Technikängsten: Auf gesellschaftlicher Ebene vor den unberechenbaren Risiken neuer Großtechnologien, auf der Ebene der Arbeitsplätze vor den neuen IuK-Technologien mit ihren großen Rationalisierungs- und Kontrollpotentialen. Partizipative Verfahren sollten helfen, bei den Nutzern vorhandene Ängste offen zu legen und abzubauen. Auf einer auf den Arbeitsplatz bezogenen Ebene verbanden Unternehmer damit die Hoffnung, notwendige technische Neuerungen nicht konfliktär implementieren zu müssen, sondern im Konsens und sogar mit aktiver Unterstützung der Mitarbeiter. Die Gewerkschaften erhofften sich eine stärkere Ausprägung demokratischer Strukturen am Arbeitsplatz, und die Wirtschafts- und Industriesoziologen hoben die Stärkung von Gruppenbewusstsein bei der teamförmigen Entwicklung von Technik hervor (vgl. [Mum83]; s. auch [Mam85, ASc87, Ale92]). In Fortführung dieser Diskussionen bildete sich die Community zum Participatory Design (PD) heraus, die sich insbesondere auf die Mensch-Computer-Schnittstelle fokussierte. Sie ergänzten den Ansatz um das wichtige Argument, dass partizipativ entwickelte Technik nicht nur die Widerstände bei der Einführung reduziert, sondern vermutlich insgesamt auch effizienter ist. Inzwischen gibt es auch in den Ingenieurwissenschaften die Auffassung, dass „für die Benutzbarkeit innerhalb eines Mensch-Maschine-Systems […] die Beteiligung zukünftiger Benutzer unabdingbar [ist]“ [BHe02]. Der Nutzer wird nicht mehr nur als technischer Laie, sondern vielmehr als Experte auf seinem 1
Shneiderman und Plaisant verweisen z. B. darauf, dass die Ersetzung einer Face-to-face dominierten Kommunikation durch bildschirmgestützte Verständigung auch die Organisationskultur insgesamt verändern kann (2005: 6) 2 Z. B. schreibt die Bildschirmarbeitsverordnung vor, die Grundsätze der Ergonomie beim Design von informationstechnischen Arbeitsplätzen anzuwenden [vgl. Hei04]. 3
So kann z. B. die Mensch-Maschine-Interaktion bei modernen Fahrerassistenzsystemen unter Anwendung eines nutzerorientierten Ansatzes optimal gestaltet werden. Das Ziel des zusätzlichen Sicherheitsgewinns kann dann aber trotzdem verfehlt werden, wenn nicht auf gesellschaftlicher Ebene einheitliche Regelungen für die Einführung der neuen Technik geschaffen werden.
220
D. Blutner et al.
Arbeitsgebiet betrachtet, der über implizites und explizites Wissen verfügt, das in die Gestaltung der ihn betreffenden Mensch-Maschine-Schnittstelle so weit wie möglich einfließen sollte [BHe02]. Mit der zunehmenden Bedeutung von Wissensressourcen in Unternehmen gewann diese Auffassung an Akzeptanz und ist heute weitgehend unumstritten. Bei der Softwareentwicklung für die Mensch-Maschine-Interaktion hat sich in der PD-Community ein iteratives Modell durchgesetzt, das die Nutzer von den frühen Phasen der Entwicklung bis zur Realisierung einbezieht und ihr Feedback in Rückkopplungsschleifen berücksichtigt und umsetzt (vgl. [BHe02]). Allerdings unterliegen auch partizipative Vorgehensweisen einigen Restriktionen. Die Bereitschaft zur Beteiligung hängt von mehreren Faktoren ab und lässt sich nicht in einem Top-down-Prozess erzeugen4. Nutzereinbindung führt nicht immer zu kurzfristigen Erfolgen (vgl. [Mam86]), muss nicht zwangsläufig in einen Konsens münden und kann bestehende Konflikte noch verschärfen. Die neuere Entwicklung zu hoch komplexen und automatisierten technischen Systemen birgt zudem weitere Herausforderungen für den PD-Ansatz.
9.3.4
Gestaltungsalternativen
Der Trend der Automatisierung wird ergänzt von neuen Formen „smarter“ Technik, die auch unter dem Stichwort Pervasive Computing diskutiert werden. Zu ihnen gehören selbständig arbeitende Agentensysteme oder moderne Assistenzsysteme, die den Nutzer bei seinen Entscheidungen unterstützen oder sie ihm in immer mehr Fällen auch komplett abnehmen. Solche „hybriden Systeme“ werden in Zukunft auch verstärkt Einzug in die Arbeitswelt halten und die komplexen Wechselwirkungen von Mensch und Maschine weiter verändern (vgl. [Wey03]). Eine Aufgabe der Sozialwissenschaften im Diskurs über Technikgestaltung war es stets, auf die möglichen Folgen solcher Entwicklungen hinzuweisen, verbunden mit dem Ziel, das Auftreten von nicht-intendierten Auswirkungen so weit es geht zu minimieren oder die beteiligten Akteure zumindest für mögliche Probleme zu sensibilisieren. In diesem Fall wird die Auffassung vertreten, dass es Grenzen der Automatisierung gibt, die respektiert werden sollten. Damit soll keinesfalls gemeint sein, dass Automatisierung grundsätzlich zu begrenzen sei, aber es gibt systemische Grenzen, die einer vollständigen Automatisierung im Weg stehen können. In den Naturwissenschaften werden diese Grenzen unter dem Oberbegriff von Out of the loop unfamiliarity (OOTLUF) diskutiert. Mit OOTLUF werden Probleme bezeichnet, die durch den Wandel des Nutzers vom Operateur zum Überwacher in automatisierten Systemen entstehen. Die Arbeit des Menschen liegt hier nicht mehr in der stetigen Bedienung, sondern in der außenstehenden Beobachtung der Abläufe. Dies kann zu Vigilanzreduktionen (verringerte Wachsamkeit), der Abnahme des Situationsbewusstseins (durch weniger Aufmerksamkeit) und dem Auftreten von 4
Um sich überhaupt an den Gestaltungsprozessen zu beteiligen, müssen die Nutzer u. a. über die entsprechenden Mittel verfügen und v. a. auch eine Gelingenszuversicht haben (vgl. [Gru03]). Dies ist insbesondere in stark hierarchisch geprägten Unternehmenskulturen nicht immer der Fall.
9 Der Mensch als Planer, Operateur und Problemlöser in logistischen Systemen
221
Complacency (Selbstzufriedenheit mit dem System) führen, die jeweils die Fehleranfälligkeit der menschlichen Kontrolltätigkeit erhöhen. Mehrere Forschungsarbeiten zu diesem Gegenstand haben ergeben, dass mit zunehmender Verlässlichkeit des Systems die Zuverlässigkeit des Menschen abnimmt (vgl. [BMa04]). Die Lösung dieses Dilemmas könnte zwar in der Implementation künstlicher Fehlprozesse liegen, um die kritische Aufmerksamkeit des Überwachers aufrecht zu erhalten, allerdings ist das für einen Entwickler keine wünschenswerte Vorgehensweise. Ein sinnvollerer Ansatz, diesem Problem zu begegnen, ist die „[…] Forderung, den Operateur im inneren Wirkungskreis der Systemkontrolle zu halten“ [BMa04], z. B. durch die sporadische Bewertung des Systemzustands durch den Nutzer. Dies geht aber nur bei einer transparenten und nicht vollautomatischen Auslegung des Systems, bei dessen Design die Möglichkeit der Störung bereits berücksichtigt wird. Bei dieser Gestaltungsoption tritt jedoch ein zweites Dilemma zu tage: Soll der menschliche Bediener im Störfall Probleme bei einem automatischen System beheben können, muss er dazu über Erfahrungswissen verfügen, welches ihm umso weniger zur Verfügung steht, je zuverlässiger und automatischer die Technik operiert. Bauer et al. [Bau+02] sprechen hier von dem Problem, ein „Hightech-Gespür“ zu entwickeln. Sie kritisieren, dass Erfahrungswissen beim Betrieb hoch automatisierter Systeme lange Zeit als entbehrlich, zum Teil sogar gefährlich eingeschätzt wurde und vollständig durch theoretisches Fachwissen ersetzt werden sollte. Nach ihren Praxisbeobachtungen ist Erfahrungswissen jedoch auch weiterhin unverzichtbar, denn erfahrene Nutzer haben „[…] ein ‚Gefühl’ für die Wirkungsweise der Anlagen und ‚erahnen’ Störungen, noch bevor sie exakt angezeigt werden“ [Bau+02]. Menschliche Arbeit ist somit nach ihrer Auffassung nicht nur in Störfällen notwendig, sondern auch im Routinebetrieb, um Störungen bereits im Vorfeld zu verhindern. Die Entwicklung dieses ‚Gefühls’ für die Anlage werde jedoch in Zukunft immer schwieriger, zum einen durch die zunehmende Mediatisierung von Arbeit (der Überwacher einer Anlage muss nicht mehr zwangsläufig ‚vor Ort’ sein, sondern kann sich in einem entfernten Leitstand aufhalten), zum anderen durch zu komplexe und automatische Systeme, die das Ausprobieren unterschiedlicher Vorgehensweisen gar nicht mehr zulassen (vgl. [Bau+02]). Auch Bauer et al. wollen sich damit nicht grundsätzlich gegen Automatisierung aussprechen, aber sie raten dazu, „Flexibilität und Reliabilität von Produkten und Verfahren nicht zugunsten einer besseren Automatisierbarkeit zu reduzieren“ [Bau+02].
9.4
9.4.1
Das Containerterminal Altenwerder (CTA) als hybrides System und die Rolle des Menschen als Problemlöser Einleitung: Containerterminals, Automation und die techniksoziologische Hybridperspektive
Terminalkapazitäten und -prozesse sind Bottlenecks innerhalb einer globalen Wachstumsbranche. So berichten Praktiker vom Zeitverzug bei der Abfertigung von
222
D. Blutner et al.
Containerschiffen in Rotterdam5, während andererseits Branchenkenner z. B. bei Lloyd´s Register das weitere Wachstum der Transportkapazitäten prognostizieren: „Der wachsende Bedarf an Großcontainerschiffen mit einer Kapazität von 10.000 TEU scheint sicher zu sein“[Cmi05].6 Der Aufbau und die Inbetriebnahme eines teilautomatisierten Terminals in Rotterdam7, die Automation von Terminalprozessen in Shanghai (vgl. [ATIP01]) und die Verwirklichung eines weitreichend automatisierten Terminals in Hamburg (CTA) lassen deutlich werden, dass die Betreibergesellschaften der Terminals in Zukunft diesen Herausforderungen mit einer innovativen Automationsstrategie begegnen wollen. Vor diesem Hintergrund hat man in Teilen der Techniksoziologie begonnen, die mit diesen Automationsprozessen verbundenen Veränderung in der Beziehungen zwischen Menschen und Maschinen und ihre Folgen zu diskutieren. Das Konzept einer „Hybridperspektive“ [Ram03] betont das „Mit-Handeln technischer Artefakte“ [RSc02]. Hybride Technik zeichne sich durch ein Mehr an „Komplexität“ (Menge der Elemente), „Kombiniertheit“ (Integration heterogener Techniken) und „Undurchsichtigkeit“ (Autonomieeindruck bei programmierter Informationstechnik) aus [Ram03]. Gestützt werde der Autonomieeindruck durch die Zunahme maschineller Eigenaktivitäten. Technische „Motorik“ zeige eine zunehmende Tendenz zur Selbstbewegung. Die „Aktorik“ tendiere zu eigentätig abgewickelten Arbeiten und Ausführungen und die „Sensorik“ zu Umweltsensitivität und Selbstanpassungen [Ram03]. Das Hybriditätskonzept soll nun folgend auf den Einsatz von „Automated Guided Vehicles“ (AGV) (siehe Abb. 9.2) auf dem Containerterminal Altenwerder (CTA) in Hamburg übertragen werden, um in diesem Kontext die Rolle des Menschen innerhalb hybrider Logistikprozesse zu analysieren. Diese Darstellung basiert auf Beobachtungen vor Ort und Interviews, die am 18. April 05 und am 31. November 05 auf dem CTA mit drei dort tätigen, hochrangigen Experten durchgeführt wurden.
9.4.2
Die Prozesskette auf dem Terminal
Die folgenden Darstellung stellt die Abläufe auf dem Containerterminal als Abfolge von Teilprozessen dar und ermöglicht es, den Horizontaltransport durch die AGVs in den Gesamtprozess einzuordnen. Diese Sequenz ergibt sich aus der Bewegung des Containers („C“) beim Export von Land auf See (siehe Abb. 9.1). Die einzelnen Teilprozesse lassen sich dabei der Einlagerung (1), dem Stau und Umstau (2) und der Auslagerung (3) zuordnen. Damit ist der Exportvorgang für einen Container abgeschlossen. Der Gesamtprozess ergibt sich aus den Koordinationen menschlicher und maschineller Aktivi5
6 7
Interview mit Herrn Z. am 10.11.2004. Herr Z. ist in einer Hamburger Reederei verantwortlich tätig. „TEU“ : Abk. für Transport Equivalent Units, entspricht den „kleinen“ 20 Fuß Containern. Interview mit Frau J. am 18.4.05. Frau J. ist Mitglied der Projektgruppe auf CTA Hamburg.
9 Der Mensch als Planer, Operateur und Problemlöser in logistischen Systemen
223
täten. Deren hybrider Charakter und die damit verknüpften Probleme werden nun am Beispiel der AGVs vertieft.
9.4.3
Die Selbststeuerung autonomer Fahrzeuge
Bei den AGVs handelt es sich um unbemannte, durch Dieselmotoren angetriebene Transportplattformen, die als Straßenfahrzeuge zwischen Blocklager und Containerbrücken für den An- und Abtransport der Container eingesetzt werden. Die Steuerung der 53 AGVs, die zwischen den 14 Containerbrücken und den 14 Blocklagern verkehren, wird auf drei Ebenen realisiert:
1 Operateure kontrollieren C-Daten und C-Zustand
1 LKW fährt Blocklager auf Terminal an
1 LKWFahrer fordert automatischen Blocklagerkran an
2 Blocklagerkran setzt C an berechneter Position ab
2 Vollautomatischer Umstau der C im Blocklager
3 Schiffsplaner erstellt Stauplan für ein Schiff
3 Assistenzsystem Stauplan: Reduktion des Umstaus
3 Umschlag: automatische Erstellung von Arbeitspake-ten
3 Blocklagerkräne transportieren C zu den AGVs
3 Übernahme der C und Fahrt der AGVs zu den C-Brücken
3 Übernahme der C durch automatische Laufkatze der C-Brücke
3 Anbringen von Tistlocks zur CVerriegelung
3 C-Brückenfahrer setzt C mit zweiter, manueller Laufkatze an
1 LKW fährt Terminal an
Abb. 9.1 Prozesskette beim Export von Containern
224
D. Blutner et al.
• Das Terminallogistiksystem (TLS) verwaltet entsprechend der von den Operateuren definierten Rahmenbedingungen und von ihnen eingegeben Containerdaten die Stellplätze und Umstaubewegungen und generiert Transportaufträge. • Das AGV-Management-System berechnet die Verkehrswege. • Ein Navigationssystem übernimmt die Fahrzeugortung in Echtzeit.8 Die Gesamtheit des Steuerungsvorganges ist durch eine hybride Verteilung dieses logistischen Teilprozesses auf menschliche und maschinelle Instanzen geprägt. Nachdem Operateure (die Schiffsplaner, s. u.) im Leitstand die Arbeitspakete zum Beladen eines Schiffes in das Terminallogistiksystem TLS eingegeben haben, werden diese Daten automatisch an das AGV-Management-System transferiert und in Transportaufträge umgewandelt. Wie diese abgewickelt werden, ergibt sich aus dem Datenaustausch zwischen der AGV-Management-System und dem Navigationssystem. Dessen Lageinformationen ermöglichen es, die Wege der AGVs zu optimieren, und verhindern es, z. B. ein AGV mit einem Transportauftrag zu versehen, das zu weit vom anzufahrenden Blocklager entfernt ist. Auch die Koordination des an der wasserseitigen Schmalseite des Blocklager eintreffenden AGVs mit dem dorthin sich bewegenden Blocklagerkran erfolgt ohne menschliches Zutun im Rahmen maschineller Abstimmungen. Aus der Perspektive des Leiters der Operations stellt sich dieser Tatbestand so dar: „Im Zusammenwirken dieser drei Ebenen werden automatisch Entscheidungen getroffen.“9 Diese Zuschreibung von spezifischen Entscheidungsmöglichkeiten an Technik weist gesondert auf den hybriden Charakter des dargestellten Teilprozesses hin. Menschen treffen im zentralen Leitstand Entscheidungen und generieren dort Vorgaben für die Beladung des Schiffes. Wie diese im Routinebetrieb abgearbeitet werden, bleibt Prozessen maschineller Abstimmun-
Abb. 9.2 Automated Guided Vehicle (AGV) (Quelle: http://www.math.tu-berlin. de/coga/pics/AGV1-1.jpg) 8
9
Interview mit Herrn G. am 18.4.05. Herr G. ist in leitender Position auf dem CTA im Hamburg tätig. Interview am 18.4.05 mit Herrn G.
9 Der Mensch als Planer, Operateur und Problemlöser in logistischen Systemen
225
gen überlassen. Dies entlastet den Leitstand im Routinebetrieb, belastet ihn aber dann, wenn innerhalb technischer Abstimmungen und ihrer physischen Umsetzung durch technische „Motorik“ und „Aktorik“ Störungen entstehen [Ram03].
9.4.4
Flexibilität, Problembehebung und die Rolle des Menschen
Trotz der gewählten Automationsstrategie wurde das Terminalkonzept von vorne herein darauf ausgelegt, die üblichen Störungen des Routinebetriebs zu bewältigen. So müssen z. B. „Later Runners“ – verspätete Container – und „Break Bulk“ – nicht containerisierbare Güter mit Sondermaßen – flexibel in die Routineabläufe integriert werden. Diese auf Terminals übliche Problematik wurde bei der Planung des Leitstands berücksichtigt. Derzeit arbeiten im Leitstand acht Operateure auf vier Funktionsstellen jeweils paarweise: zwei Schichtleiter, zwei Schiffsplaner, zwei Operator Wasserseite und zwei Prozessteuerer.10 Die Aufgabe der Operator Wasserseite im Leitstand besteht darin, bei Problemen während des Beladungsvorgangs zu intervenieren. Die in den Vorplanungen definierten Arbeitspakete werden dann umgeplant. Es bleibt die Aufgabe dieser Operateure, im Leitstand „händisch“ für Prozesskorrekturen zu sorgen. Problemlösungskompetenzen sind demnach immer erforderlich. Sie für Störungen vorzuhalten, wäre demnach unzureichend. Gleichwohl bietet die Berücksichtigung außergewöhnlicher Störungen weitergehende Einsichten in Systemprozesse. Von den gewöhnlichen Störungen, die im Routinebetrieb immer wider auftreten, sind außergewöhnliche Störungen zu unterscheiden. Die Funktion der Prozessteuerer als Problemlöser soll am Beispiel zweier außergewöhnlicher Störungen im AGV-Betrieb dargestellt werden: Da jedes AGV, ob stehend oder in Bewegung, sog. „Claims“ für andere Fahrzeuge sperrt, ist eine Kollision nahezu ausgeschlossen.11 Ein wegen eines mechanischen Defektes liegengebliebenes AGV kann jedoch nicht automatisch umfahren werden. Hier ist der manuelle Eingriff des Prozesssteuerers erforderlich, der zunächst eine Sperrfläche setzen muss, die dann von den AGVs umfahren werden kann.12 Bei diesen Problemen ist demnach die Intervention des menschlichen Operateurs in Echtzeit und unter Zeitdruck erforderlich. Dies deutet auf die Zunahme zwischen Menschen und Maschinen verteilter Interaktivität im Störungsfall hin. Aufgrund der automatisierten Terminalkonzeption kann die Problembearbeitung jedoch nur noch im Leitstand durch Eingriffe in die Steuerungsprozesse erfolgen. Neben diesem Beispiel für eine außergewöhnliche, aber konventionelle Störung können auf dem CTA unkonventionelle Fehlleistungen entstehen, die auf die hybride „Undurchsichtigkeit“ technischer Abstimmungen hinweisen. Obwohl die 10 11 12
Interview mit Frau J. am 31.10.05. Interview mit Herrn G. am 31.10.05. Interview mit Herrn W. am 18.4.05.
226
D. Blutner et al.
Parameter des AGV-Einsatzes durch Menschen definiert werden, können sich doch Störungen einstellen, die im nachhinein zwar rational erklärbar sind, die aber bis dahin von den Operateuren so nicht erwartet wurden.13 Bei vier in geringem Abstand nebeneinander arbeitenden Containerbücken fuhren die AGVs wie geplant von einer Seite an und sollten dann nach Ablieferung des Containers sofort in Richtung Blocklager binnenwärts abbiegen. Die bei der Belieferung von vier Brücken entstehende Verkehrsdichte verhinderte ein Abbiegen um 90 Grad auf Höhe der gerade bedienten Brücke. Die AGVs fuhren lange Wege parallel zur Kaimauer bis an das Ende der Containerbrückenreihe. Es bildete sich dort ein „Cluster“. Bevor dauerhafte Problemlösungen systematisch in das AGV-Management-System eingearbeitet wurden, behalfen sich die Prozessteuerer damit, Sperrflächen zu setzen, die am Ende der Containerbrückenreihe die unerwünschte Clusterbildung verhinderten. Dieses Beispiel belegt, dass gerade bei der Nutzung der Potentiale maschineller Abstimmungen und Aktivitäten Fehlleistungsmöglichkeiten bestehen, die über konventionelle Störungen hinausweisen und Interventionsmöglichkeiten des menschlichen Operateurs um so dringender erfordern. Das Erfahrungswissen und Improvisationstalent der Operateure erwies sich als notwendig, um eine Ad-hocProblemlösung rasch umsetzen zu können. Dementsprechend arbeiten nun statt einem zwei Prozessteuerer im Leitstand. Der Prozess der Revision des Leitstandkonzeptes ist damit noch nicht abgeschlossen. Die Kreativität der Planer richtet sich bereits auf Kommunikationsstrukturen im Leitstandteam und die Frage, wie Arbeitsabläufe im Leitstand angemessen abgebildet werden können, um es den Operateuren zu erleichtern, bei der Steuerung komplexer Prozesse den Überblick zu behalten.
9.4.5
Fazit
Der Planung, Steuerung und Durchführung der Terminalprozesse auf dem CTA ist auf menschliche Entscheidungen und Handlungen und maschinelle Aktivitäten und Abstimmungen verteilt. Selbst eine gegen die Konkurrenz konventioneller Terminals am Markt erfolgreich umgesetzte Automationsstrategie bleibt auf den Menschen als Entscheider und Problemlöser angewiesen. Solange die logistische Praxis auf einem Terminal wegen Erwartungsunsicherheiten flexibel bleiben muss und Störungen unvermeidlich sind, muss konventionell nachjustiert und korrigiert werden. Im Modus der Störungsbewältigung sind Operateure auf konventionelle Praktiken zurückgeworfen. Automation und Hybridität gehen in der Praxis mit der Notwendigkeit einher, die Rahmenbedingungen menschlichen Entscheidens und Handelns sogar mehr Aufmerksamkeit zu widmen, als dies bis dato der Fall sein musste. Denn dort, wo bislang Menschen Fehler verursachten, waren sie vor Ort anwesend und auch in der Lage, Probleme frühzeitig zu erken13
Interview mit Frau J. am 31.10.05.
9 Der Mensch als Planer, Operateur und Problemlöser in logistischen Systemen
227
nen und gegenzusteuern. Unter den Bedingungen einer hybriden Automation ist die Distanz der Operateure zu den Prozessen mit dem Problem verknüpft, die dysfunktionale Seite sich selbst steuernder Teilprozesse interpretativ bewältigen zu müssen.
9.5
9.5.1
Der Mensch als aktiver Mitspieler. Mensch-MaschineInteraktionen im Luftfrachtterminal Einleitung
Um Rationalisierungsgewinne zu realisieren, räumen zahlreiche Unternehmen der Gestaltung logistischer Prozesse längst einen hohe Stellenwert ein [KHe02]. Diese Entwicklung vollzieht sich im Fahrwasser zuvor globalisierter Produktionsweisen und Vertriebskanäle. Unübersehbar ist in diesem Zusammenhang der starke Zuwachs luftfrachtbezogener Güterbewegungen [Hec02]. Angesichts des gestiegenen Aufkommens an Transportdienstleistungen sehen sich die Luftfrachtanbieter zur Entwicklung innovativer Technologien und automatisierter Techniken herausgefordert. Die Inbetriebnahme der teilautomatischen Fließkette für Sperrsendungen in einem Luftfrachtterminal des Flughafens Köln/Bonn ist ein aktuelles Beispiel dafür [Myl05]. Flughäfen spielen in dem Logistiksystem Luftfracht eine besondere Rolle. Hier findet die Gesamtheit der Umschlagsprozesse statt. Diese orientieren sich an vorangegangen Planungen und Entscheidungen, die als administrative Vorgaben dem Disponenten idealtypisch vorliegen. Gegenstand der folgenden Fallstudie ist die informationstechnisch gestützte Disponentenarbeit am Leitstand innerhalb eines Luftfrachtterminals. Die wissenschaftliche Beschäftigung mit Automatisierungsphänomenen und Mensch-Maschine-Interaktionen sowie ihren vielfältigen Folgen gehört seit langem zum Repertoire der Soziologie. Einen neuen Weg der Analyse beschreitet seit einigen Jahren die Techniksoziologie. Ihren Analysefokus legt sie auf Phänomene geteilter Entscheidungsträgerschaft zwischen Mensch und Maschine (Abschn. 9.2.4). Den nach wie vor theoretisch geprägten Diskussionen über Charakteristika geteilter Entscheidungsträgerschaft fehlt es bislang noch an empirischer Grundierung. Diese Fallstudie dient als Diskussionsangebot zur Analyse logistischer Teilprozesse aus dieser Perspektive.
9.5.2
Zeit als Leitressource im logistischen System Luftfracht im Luftfrachtterminal
Das Ziel der Logistik ist es, einen schnellen und fehlerfreien Fluss der Ware vom Produzenten zum Kunden bei möglichst geringer Lagerung zu gewährleisten [Sch03].
228
D. Blutner et al.
In diesem Sinn kann das oben diskutierte Dortmunder Prozesskettenparadigma der Logistik [Kuh95, Abschn. 9.2.6] als Werkzeug zur Modellierung optimaler Bestandshaltung betrachtet werden. Die logistischen Prozesse der Luftfracht orientieren sich demgegenüber nicht am Optimierungsziel Bestand, weil Ankunft und Abflüge der Flugzeuge an einem Flughafen determiniert sind [Fry03]. Die Optimierungsbestrebungen richten sich in diesem Logistikbereich auf die Ressource Zeit. Die Zeit zwischen An- und Abflug muss so genutzt werden, dass möglichst viele Sendungen das Flughafenterminal wieder verlassen, um ihren Bestimmungsort rasch erreichen zu können. Die Dispositionsprozesse zur Abfertigung der Frachtstücke orientieren sich in der Luftfracht nicht an der Ressource Bestand, sondern am Zeitpunkt der Abflüge. Die markanten Zeitpunkte der unternehmensinternen Disposition stellen die Ankunft der Fracht vor der Frachthalle sowie der Ausgang der Fracht aus der Frachthalle dar. Die real verfügbare Zeit für die Dispositionsarbeit innerhalb der Frachthalle ist daher durch das Zeitfenster {Ankunft; Abflug} abzüglich jener Zeiten bestimmt, die für die Vorfeldarbeiten benötigt werden. Aus der Sicht des Prozesskettenparadigmas sind neben den Ankunfts- und Abflugzeiten als weitere Constraints der Disponentenarbeit die technische Kommunikationsstruktur sowie die konkreten Nutzungsformen der unternehmensbezogenen Terminalfläche am Flughafen und des Arbeitsmittels Flugzeug als Elemente der Potentialklasse Strukturen zu nennen. Die Disponententätigkeit sowie die Hardund Software (Hilfs- und Organisationsmittel) können demgegenüber und trotz der zeitlichen Determinierung durch den Flugplan als Ressourcen mit Optionscharakter interpretiert werden. Die Anstrengungen des Disponenten sind dabei auf die bestmöglichste Nutzung der verfügbaren Arbeitsmittel gerichtet (z. B. Container), um den Umschlag von möglichst vielen Sendungen in der verfügbaren Zeit zu realisieren. Größe, Volumen, Gewicht sowie Anzahl der Sendungen stellen wesentliche Kontextbedingungen dar, auf die sich die Disponenten kurzfristig einstellen müssen. Aufgrund der zeitlichen Befristung der Umschlagzeit stehen diese unter einem hohen Entscheidungs- und Bewährungsdruck.
9.5.3
Informationstechnisch gestützte Disponentenarbeit vor Ort: Wer das Problem hat, hat die Lösung
Gegenwärtig setzt die informationstechnisch gestützte Disponentenarbeit noch immer einen gezielten Umgang mit unterschiedlichsten Softwaresystemen voraus. Die beträchtliche Anzahl der zu nutzenden Anwendungen resultiert nicht nur aus der Vielzahl der involvierten Akteure, deren Aufgaben besonderen technischen und institutionellen Anforderungen unterliegen. Auch innerhalb eines Unternehmens werden die erforderlichen Informationen noch häufig durch eine Vielzahl von ITSystemen bereitgestellt. Infolgedessen gehen nach wie vor Informationen verloren, sobald erstellte Datensätze in andere Datenformate konvertiert werden müssen, um die informationstechnischen Prozesse in der logistischen Wertschöpfungskette zu gewährleisten. Für die Luftfrachtlogistik gilt ebenso, dass die bisherigen Standar-
9 Der Mensch als Planer, Operateur und Problemlöser in logistischen Systemen
229
disierungsbemühungen noch keinen entscheidenden Erfolg zeitigten [Fry03]. Bis heute tragen Operateure und Disponenten die Verantwortung dafür, dass die erforderlichen Informationen den Akteuren innerhalb der gesamten Logistikkette zur Verfügung stehen. Die folgende Fallstudie soll jedoch nicht nur jene informationstechnischen Brüche illustrieren, die menschlichen Eingreifens zur Gewährleistung logistischer Dienstleistungen im Luftfrachtbereich unabdingbar machen. Sie zielt ebenso darauf, Innovationspotentiale informationstechnisch gestützter Disponentenarbeit aus der Perspektive der Mensch-Maschine-Interaktion zu identifizieren. Die Fallstudie konzentriert sich auf die Schnittstelle zwischen der KATO GmbH14 und der Zollorganisation. Die hier dargestellten Befunde beruhen auf zwei leitfadengestützten Interviews, die in der KATO GmbH im Juni bzw. im Oktober 2005 durchgeführt wurden. Der Gestellungsprozess als zweistufiges Verfahren Die Aufgabe des Disponenten gegenüber dem Zoll besteht darin, ein so genanntes Manifest (Gestellung der Sendungen) zu erstellen, ohne das die Sendungen die Zollgrenze nicht passieren dürfen. Im Juni 2005 war der Gestellungsprozess durch zwei zeitlich entkoppelte Verfahren gekennzeichnet. Vor dem Abflug der Sendungen musste dem Zoll zunächst nur eine konsolidierte Liste mit Angaben über „Stückzahl“ und „Kilo“ pro Container (Gestellung der Ladungen) übermittelt werden. Der Zoll bestätigte diese Liste durch die Vergabe von Zollnummern, mit denen jeder Container und die darin befindlichen Sendungen fortan verbunden waren. Die verbindliche Gestellung der Sendungen, d. h. die Anfertigung des Manifests erfolgte erst in der zweiten Stufe, nachdem die Sendungen die Zollgrenze bereits passiert hatten. Das zweistufige Zollverfahren (1. Gestellung der Ladungen, 2. Gestellung der Sendungen) verschaffte der KATO GmbH die Möglichkeit, innerhalb kürzester Zeit die Sendungen zu ihren Destinationen weiter zu transportieren. Das Maschine-Maschine-Problem Informationstechnisch beinhaltet der Gestellungsprozess die Erstellung eines Manifests, in der die Ladungen und Sendungen aufgelistet sind, die den Zollraum verlassen. Zu diesem Zweck muss der Disponent die Daten über die ankommenden Sendungen (Inbound) mit den Daten der abgehenden Sendungen (dem Outbound) destinationsbezogen vergleichen. Diesen Vergleich führt die KATO GmbH im Auftrag der Zollorganisation aus. Die Inbound-Informationen erhält der Disponent noch vor Ankunft der Sendungen im Flughafen per automatisierten Dateninput. Die ankommenden Daten geben nicht nur Auskunft über die Anzahl der Sendungen und der Container. Sie beinhalten die Identifizierungsnummern der Container und der Sendungen, ihre jeweiligen Bestimmungsorte und ihre jeweiligen Flugnummern. Jede Sendung ist darüber hinaus mit der Information über ihre Zollrelevanz versehen. Die Outbound-Informationen über die zollrelevanten Sendungen erhält der Disponent im Zuge der Abfertigung der Container. Die Operateure scannen in der Frachthalle den Barcode jeder Sendung per Hand ein. Per automatischen Dateninput erhält der Disponent diese zollrelevanten Daten am Leitstand. Ein erfolgreicher Gestellungsprozess beim Zoll setzt voraus, dass die destinationsbezogenen Informationen über die angekommenen und abgehenden Sendun14
Der Name des Unternehmens ist auf dessen Bitte anonymisiert worden.
230
D. Blutner et al.
gen übereinstimmen. Theoretisch könnte er das unternehmenseigene Programm nutzen und sich die notwendigen Dateien über vorhandene ODCB-Schnittstellen in das zollrelevante Programm überspielen. Diese Vorgehensweise würde ihm beim eventuellen Auftreten eines Fehlers jedoch nicht weiterhelfen, weil er auf dieser informationstechnischen Basis keine Korrekturen der Daten vornehmen könnte. Eingabefehler entstehen in der Regel beim Scannen des Barcodes vor Ort oder bei der Dateneingabe an der vorangegangenen Destination. Weil häufig Eingabefehler auftreten, die es zu korrigieren gilt, entschied sich der interviewte Disponent für eine andere Vorgehensweise, um den worst case, d. h., den Abbruch eines Auftrags zu vermeiden (I2, KATO, 2005). Dezentrale Lösungen als kreative Abweichungen Die Lösung des Disponenten besteht darin, „diese Daten aus verschiedenen Programmen (zu) holen, die nicht miteinander kommunizieren“ (I2, KATO, 2005, Z: 46–47) sowie diese in editierbare Zahlen desselben Formats umzuwandeln, um sie mittels des Programms EXCEL zeitnah vergleichen zu können. „Ich nutze EXCEL, um Sachen zu sortieren, zu kategorisieren und am Ende in bestimmten Formen so abzulegen, dass mir – bunt unterlegt – sofort ins Auge fällt, was nicht richtig ist.“ (I2, KATO GmbH, Z: 57–59) Konkret programmierte der Disponent ein Tool, um fehlende Übereinstimmungen zwischen den In- und Outbound-Listen sendungsgenau identifizieren zu können. Nach Durchlauf des Tools steht dem Disponenten eine Fehlerliste zur Verfügung. Die darauf befindlichen Informationen versetzen ihn und seine Kollegen in die Lage, jene Fehlerkorrekturen vorzunehmen, die für den weiteren Transport der Sendung unabdingbar sind. Diesen unverzichtbaren Abgleich der Manifeste konnten die vorhandenen EDV-Programme bisher nicht leisten; sie stellten ausschließlich die Daten zur Verfügung, die verglichen werden müssen. Die Leistung des Disponenten offenbarte eine harte Bruchstelle in der IT-Landschaft im Luftfrachtbereich. Dass Disponenten an verschiedenen Standorten des Unternehmens unterschiedliche Tools entwickelten, um dieses Problem auf dezentraler Ebene zu bewältigen, verweist nicht nur auf die hohe Relevanz dieser Schnittstelle, sondern ebenso auf einen akuten Handlungsbedarf. Der Gestellungsprozess als einstufiges Verfahren Die Situation in der KATO GmbH hat sich seit Oktober 2005 grundlegend geändert. Der Gestellungsprozess wurde reorganisiert. Er ist erstens ein einstufiges Verfahren; die Sendungen müssen vor dem Passieren der Zollgrenze gestellt werden. Zweitens ist es die Aufgabe des Zolls, In- und Outbound der Sendungen zu vergleichen. Zur Bewältigung dieser Aufgabe führte der Zoll ein neues EDV-Programm ein, welches nach erster Einschätzung der Disponenten sehr gut mit dem unternehmensinternen Programm kommuniziert (I3, KATO GmbH, 2005, Z: 5). Die dezentral kreierten Tools werden nicht mehr benötigt.
9 Der Mensch als Planer, Operateur und Problemlöser in logistischen Systemen
9.5.4
231
Fazit
Alle wichtigen Vermittlungsleistungen zur raschen Bewältigung der logistischen Kette werden durch den Disponenten erbracht. Diese sind passiver und aktiver Natur. Per automatischen Dateninput bekommt er alle notwendigen Informationen über die ankommenden Sendungen und Ladeeinheiten. Diese Mensch-MaschineSchnittstelle erfährt der Disponent im konkreten Handlungsvollzug als Entscheidungsvorwegnahme; im Sinne des systemischen Vertrauens in organisationale Verfahren muss er darauf vertrauen, dass die übermittelten Daten mit der Realität übereinstimmen. Seine aktive Routinearbeit besteht darin, destinationsbezogene Datensätze zu generieren, die die Sendungen und Ladeinheiten beinhalten. Zur Verschränkung von Mensch-Maschine-Interaktionen kommt es, wenn Probleme oder unbeabsichtigte Abweichungen den Routinealltag unterbrechen. Der Anteil aktiven Eingreifens steigt in dem Maße, in dem die Befolgung bewährter Routinen nicht mehr zur gegenwärtigen Situation passt. Abweichungen offenbaren sich dem Disponenten in der Regel, wenn er Inbound und Outbound der Sendungen vergleichen und offiziell bestätigen muss. Häufig sind es von Menschen verursachte, fehlerhafte Eingaben, die den Abweichungsfall konstituieren. Diese Fehler müssen vor Ort ausgebügelt werden. Dabei hilft dem Disponenten vor allem seine Erfahrung im Umgang mit den EDV-Programmen, die er täglich neu erwirbt. Sind hingegen Schnittstellen zwischen Softwareprogrammen zu überbrücken, reichen Lerneffekte im Sinne eines learning by using [HTy95] nicht aus. Angesichts solcher Problemlagen kommt es nicht mehr nur darauf an, das situative Auftreten eines Abweichungsfalls zu überwinden. Es geht vielmehr darum, das in Routinen gebundene Wissen neu zu interpretieren, um neue Handlungen anschließen zu können [Blu99]. Dazu müssen neue Handlungsmöglichkeiten aktiv entdeckt [Wei91] und informationstechnisch realisiert werden. Hier nutzt der Mensch seine einzigartige Fähigkeit, aus Informationen Wissen zu formen. Dieses Vermögen stellt die hinreichende Voraussetzung zum steuernden Eingreifen des Menschen in den logistischen Prozess dar. Weil der Disponent seine Fähigkeit nutzt, Wissen zu generieren und neue Handlungsanschlüsse herzustellen, wird er zum aktiven Mitspieler im logistischen System.
9.6
Der Mensch als Problemlöser in logistischen Prozessketten im Straßengüterverkehr
Moderne Speditionssoftware ist in der Lage, alle Prozesse einer Spedition abzubilden, von der Auftragsannahme und der Kostenkalkulation über die Disposition bis zur Fakturierung einschließlich Fuhrparkmanagement, Lagerverwaltung und Mautabrechnung. Damit trägt sie ganz wesentlich zu einer effizienten Auftragsabwicklung im Straßengüterverkehr bei und stellt ein optimiertes, rationales und technisch zum Teil automatisiertes Verfahren zur Verfügung, das im Idealfall z. B. wie folgt aussieht (siehe Abb. 9.3): Der Verlader einer Sendung gibt die Sendungsdaten (Größe, Gewicht, Absender, Adresse, Versicherung, Gefahrgut, besonderer Service) in eine webbasierte Daten-
232
D. Blutner et al. Verlader gibt Sendungsdaten ein Hauptlauf durch LKW
Disposition durch Disponenten Umschlag bei NahVerkehr-
Vorlauf durch LKWFahrer
Umschlag im Hub
Nachlauf durch LKWFahrer
Auslieferung und Bestätigung
Abb. 9.3 Prozesskette beim LKW-Transport
maske ein. Über das Internet werden die Daten an die Spedition übermittelt und dem Disponenten, zusammen mit einem Dispositionsvorschlag, angezeigt. Dieser übernimmt den Vorschlag und organisiert damit den Vorlauf. Der von der Software vorgeschlagene Lkw-Fahrer bekommt den Auftrag zur Abholung der Sendung auf seine Kommunikationsschnittstelle, zusammen mit einem optimalen Routenvorschlag. Der Lkw-Fahrer bestätigt den Auftrag und wird im Verlauf seiner Route zum Verlader navigiert. Er holt die Sendung ab und bringt sie zu einem Hub, dort wird sie automatisch dem passenden Hauptlauf zugeordnet, an dessen Ende die Sendung wieder auf einen LKW für den Nachlauf umgeladen wird. Der Fahrer bringt die Sendung zum Adressaten, dieser bestätigt sie mit seiner elektronischen Unterschrift im System, damit wird gleichzeitig die Rechnung erstellt und versendet. Die Praxis gestaltet sich jedoch anders und erfordert immer wieder das menschliche Eingreifen. In Experteninterviews mit dem EDV-Beauftragten eines mittelständischen deutschen Speditionsunternehmens, mit Herstellern von Speditionssoftware sowie einem Berater für Speditionssoftware wurden folgende Problemfelder lokalisiert: 1. Die Eingabe der Daten durch den Verlader erfolgt nicht immer korrekt. Der Datensatz muss dann manuell nachgearbeitet werden. Dies ist zum Beispiel dann der Fall, wenn der Absender nicht präzise genug angegeben wurde. Fehlt bei einem großen Firmenkunden mit mehreren Abteilungen in einem Werk die Nennung eines bestimmten Gebäudekomplexes oder der Ansprechpartner, müssen Lkw-Fahrer und Disponent durch Telefonate den genauen Absender ausfindig zu machen. Dieser logistische Fehlprozess kann je nach Größe des Unternehmens sehr zeitaufwendig werden. Im schlimmsten Fall kann der Absender nicht lokalisiert werden und der Auftrag muss abgebrochen werden. 2. Da häufig verschiedene Unternehmen an einem Auftrag beteiligt sind, kommen auch unterschiedliche Softwareprodukte und Datenstandards zum Einsatz. Beim Austausch der Daten kann es dann zu Problemen kommen, die durch menschliches Eingreifen behoben werden müssen. Trotz weitreichender Standardisierungsbemühungen in der Logistikbranche durch z. B. EDI oder EDIFOR hat sich kein einheitlicher Standard durchsetzen können. Standardisierte Datensätze beschränken die Anwender in Art und Umfang der Daten, sodass manche Unternehmen eigene Datenformate verwenden. Diese können zwar i. d. R. in andere Datenstandards konvertiert werden, aber eben nicht vollständig. Es gehen dabei Informationen verloren oder entstehen überflüssige Informationen. In beiden Fällen müssen menschliche Bediener dafür sorgen, dass die Datensätze über die gesamte Logistikkette hinweg die
9 Der Mensch als Planer, Operateur und Problemlöser in logistischen Systemen
233
notwendigen Informationen enthalten und Zusatzinformationen nicht zu Fehlprozessen führen. 3. Die elektronischen Daten werden auch innerhalb eines einzelnen Unternehmens z. T. mit unterschiedlichen Softwarelösungen bearbeitet. Werden an einem dieser Programme Änderungen vorgenommen, kann dies Auswirkungen auf das Gesamtsystem bis hin zum vollständigen Ausfall haben. Es wird dann ein menschlicher Problemlöser benötigt, der den Überblick über die Wechselwirkungen der eingesetzten Teilsysteme und die Funktionsweise des Gesamtsystems besitzt. Zwar bieten neue Programme der Speditionssoftware die Möglichkeit, alle Prozesse einer Spedition abzubilden, in der Praxis lässt sich aber auch ein Nebeneinander verschiedener Lösungen beobachten. Dies kann einerseits an gewachsenen Strukturen liegen (neue Produkte mit erweiterten Funktionen ergänzen bereits bestehende Programme, sie ersetzen sie jedoch nicht, da die Nutzer sich an die Bedienung gewöhnt haben und sich das Programm bewährt hat), oder aber, wie im untersuchten Speditionsunternehmen, können auch Kostengründe die Ursache für einen Software-Mix sein (es wurden nur Module eines neuen, aber wesentlich teureren Programms gekauft, um die bestehende, günstigere Software funktional zu ergänzen). Der EDV-Beauftragte des Unternehmens berichtet von einem notwendigen Software-Update, das zum vollständigen Ausfall des gesamten Softwaresystems geführt hat. Da der hinzugerufene Programmierer des Update-Herstellers sich erst einen Überblick über die Schnittstelle und den Austausch der beteiligten Programme verschaffen musste, vergingen knapp 48 Stunden bis die Problemlösung gefunden war. 4. Speditionssoftware ist kein statisches technisches System, sondern muss dynamisch an die sich ändernden Umweltbedingungen angepasst werden. Dies erfordert ein kontinuierliches menschliches Eingreifen. Computerprogramme zur Speditionsunterstützung unterliegenden einem ständigen Anpassungsdruck, der zu regelmäßigen Updates und neuen Programmversionen führt. Typische Gründe dafür können z. B. in der Einführung eines neuen Datenstandards oder in gesetzlichen Änderungen der Gefahrgutklassen liegen. Auch treten im konkreten Praxisbetrieb zusätzliche Wünsche der Nutzer auf oder werden Programmfehler entdeckt, die eine Aktualisierung des Programms erforderlich machen. Damit das bereits implementierte System auch sich wandelnden Anforderungen gerecht werden kann, ist eine kontinuierliche Arbeit von Entwicklern und Benutzern nicht nur mit dem Produkt, sondern auch am Programm notwendig.
9.7
Zusammenfassung der Fallstudien
In allen drei Fallstudien wurden soziotechnische Prozesse in logistischen Systemen untersucht. Übereinstimmend konnte festgestellt werden, dass im Planungsprozess die Abstimmung zwischen Mensch und Technik weitreichend berücksichtigt werden konnte. Bei der Abarbeitung von Routinen ergänzten sich die Tätigkeiten der
234
D. Blutner et al.
Operateure mit informationstechnisch gesteuerten Teilprozessen. Trotzdem waren die Operateure damit konfrontiert, Abweichungen von Routineabläufen bewältigen zu müssen. Es konnte nachgewiesen werden, dass sich die Bewältigung von Abweichungen der Möglichkeit, Prozesse vorzuplanen, entzieht. Hier waren die Operateure damit konfrontiert, sich rasch einen Überblick über den jeweiligen Systemzustand als Grundlage für improvisierte Problemlösungen verschaffen zu müssen. Während in der Logistik tragfähige Konzepte zur Planung von Logistikprozessen entwickelt wurden, und der Operateur als integraler Bestandteil der routinisierten Prozesssteuerung bereits realisiert wurde, sind aber Defizite im Bereich der Bewältigung von Ausnahmesituationen nachweisbar. In der techniksoziologischen Perspektive bleibt fraglich, wie die spezifischen Kompetenzen des Operateurs als Problemlöser zur Geltung gebracht werden können. Für die sozialwissenschaftliche Technikforschung liegt die eigentlich neue Herausforderung darin, den Operateur mit seinen genuin sozialen Problemlösungskompetenzen zur Geltung zu bringen. Dank der Forschungen zur Automationsarbeit wurde bereits herausgearbeitet, mit welchen Problemen der Operateur konfrontiert sein kann, wenn er eher die Rolle des Beobachters statt der des Bedieners einnimmt. Stichworte wie „Out of the loop unfamiliarity“ and „Situation awareness“ verweisen auf die Schwierigkeit, eine zuverlässige, auf Gespür und Erfahrung basierende Interpretation des Systemzustandes vorzunehmen. Dieser Befund konnte anhand der empirischen Fallstudien nachgewiesen werden: „Denn dort, wo bislang Menschen Fehler verursachten, waren sie vor Ort anwesend und auch in der Lage, Probleme frühzeitig zu erkennen und gegenzusteuern.“ (Fallstudie CTA) „Der Anteil aktiven Eingreifens steigt in dem Maße, in dem die Befolgung bewährter Routinen nicht mehr zur gegenwärtigen Situation passt.“ (Fallstudie Luftfrachtterminal) Mit der Einführung eigenaktiver Technik hat sich dieses Problem für die Operateure signifikant verschärft. Eigenaktive Technik kann verhaltensähnliche Eigenschaften aufweisen, die den Operateuren einen zusätzlichen Interpretationsaufwand abverlangt. In der techniksoziologischen Perspektive ergeben sich daraus zusätzliche Gestaltungsnotwendigkeiten. Fraglich wird, wie die Operateure bei dieser neuen Form der Deutungsarbeit in zum Teil eigenaktiven soziotechnischen Systemen unterstützt werden können. Im Sinne der Themenstellung dieses Beitrags wird nun dargestellt, wie techniksoziologisch relevante Problemlösungen an das logistische Prozesskettenparadigma angeschlossen werden können.
9.8
Eine techniksoziologische Variante der Parametervariation
In den Fallstudien wurden folgende Rahmenbedingungen für die Tätigkeit der Operateure festgestellt: • Die Operateure müssen in Echtzeit intervenieren und stehen dabei unter Zeitdruck. • Ihnen wird Erfahrungswissen und Improvisationstalent abverlangt. • Sie müssen sich selbst steuernde Teilprozesse interpretativ bewältigen.
9 Der Mensch als Planer, Operateur und Problemlöser in logistischen Systemen
235
• Um Situationsdeutungen hervorbringen zu können, bedarf es der gegenseitigen Kommunikation zwischen den Operateuren. • Operateure benötigen eine aufbereitete Darstellung des Systemzustandes im Leitstand. • Erfahrung reicht bei der Überbrückung von Schnittstellen nicht mehr aus. • In Routinen gebundenes Wissen muss neu gedeutet werden, um neue Handlungen anschließen zu können. • Die Erzeugung neuer Problemlösungen setzt eine kreative Leistung der Operateure voraus. • Der Operateur muss aus Informationen Wissen und Bedeutung gewinnen können. Daraus ergeben sich für die Parametervariation des Prozesskettenparadigmas folgende techniksoziologische Ergänzungen (Abb. 9.4). Bei Abweichung von Routinen konnte am Beispiel der Organisation von Terminalprozessen auf dem CTA nachgewiesen werden, dass die im Routinefall funktionale Delegation von Prozessen an teilautonome Technik im Störungsfall nicht aufrecht erhalten werden kann. Die Operateure im zentralen Leitstand wurden dann mit zusätzlichen Steuerungsaufgaben konfrontiert. Dabei mangelte es an Unterstützungssystemen, die es den Operateuren sonst erleichtert hätten, sich einen raschen Überblick über den Systemzustand zu verschaffen (7). Zudem wurde ihre Deutungsarbeit nicht unterstützt (8). Eine der Konsequenzen, die für die Konzeption des Leitstands gezogen wurde, bestand in der Verdoppelung des Personals, das für die Regelung von Störfällen zuständig ist (3 und 4). Dadurch wurden insgesamt die Interventionsmöglichkeiten des Leitstandspersonals verbessert (1) und gleichzeitig die Möglichkeiten gefördert, kreative Problemlösungen im Störfall zu entwickeln (5). Anhand der Fallstudie zur Mensch-Maschine-Interaktion in Luftfrachtterminals wurde gezeigt, wie der Operateur durch seine manuelle Tätigkeit nicht vorhandene Schnittstellen zwischen verschiedenen Computerprogrammen überbrückt (2) und dabei ein hohes Maß an Kreativität bewiesen hat (5). Auch die Fallstudie zur Speditionssoftware verdeutlichte, wie wichtig die Kompetenz der Operateure zur kreativen Problemlösung für ein logistisches System ist. Die Fehlersuche in einem Konglomerat unterschiedlicher, aber untereinander hochgradig vernetzter Programme erfordert eine Mischung aus Erfahrungswissen über die Wechselwirkungen technischer Systeme und der Fähigkeit, neue Lösungswege zu suchen (5, 6 und 9).
9.9
Fazit
Der Beitrag der Techniksoziologie zur Entwicklung bzw. Ergänzung des Prozesskettenparadigmas ist dort zu lokalisieren, wo durch eine techniksoziologisch ausdifferenzierte Parametervariation Ansatzpunkte fixiert werden können, um den Menschen mit seinen technisch nicht reproduzierbaren Fähigkeiten als Problemlö-
236
D. Blutner et al.
Strukturen
Lenkungsebenen
Organisationsstruktur
1. Ausbau Inberventionsmöglichkeiten im Leitstand
Technische Kommunikationsstruktur
2. Automatisierte Datenübertragung zwischen unterschiedlichen Programmen
Soziale Kommunikationsstruktur
3. Direkte Kommunikation zur Bedeutungsinterpretation
Steuerung
4. Workloadbegrenzung für Leitstandpersonal zur Störungskompensation
5. Unterstützung bei der Hervorbringung kreativer Problemlösungen
Ressourcen
Personal
6. Chancen für Mitarbeiter, Erfahrungswissen aufbauen zu können
Organisationmittel
7. Repräsentationstechniken für Kontextabbildung
Betriebsmittel
8. Einsatz von kontextsensitiven Assistenzsystemen
9. Einsatz von einheitlichen Softwareprogrammen
Abb. 9.4 Parametervariation
ser angemessen zu integrieren. So kann ein Beitrag zur Flexibilität und Zuverlässigkeit von Systemfunktionen geleistet werden. Die techniksoziologische Reflexion der Rolle des Menschen in der Logistik lässt deutlich werden, dass einseitige Automationsstrategien unter Ausschluss des Menschen als Störfaktor nicht geeignet sind, die volle Leistungsfähigkeit verteilter logistischer System zu entfalten. Deren ausgeprägte Performanz bleibt im Routinemodus mit der Notwendigkeit verknüpft, Abweichungen, Störungen und Fehlleistungen
9 Der Mensch als Planer, Operateur und Problemlöser in logistischen Systemen
237
ausgleichen zu müssen. Da vor Ort die spezifischen Kompetenzen menschlicher Operateure, neues Wissen problemlösungsorientiert zu generieren und Handlungsanschlüsse herzustellen, zugunsten überwachender und steuernder Tätigkeiten im Leitstand verdrängt werden, erfordert die Ausgestaltung logistischer Systeme, technisch unterstützte Routinen und unvermeidliche Abweichungen innerhalb einer Systemkonfiguration gleichermaßen zu bewältigen. Aus techniksoziologischer Perspektive kann der Ansatz der benutzerorientierten Gestaltung bei der Entwicklung von Assistenz- und Entscheidungsunterstützungssystemen dabei helfen, Gewinne systemischer Leistungsfähigkeit bei den üblichen Prozeduren nicht mit Verlusten erkaufen zu müssen, die sich einstellen, wenn Menschen außerhalb jeder Routine nur noch konventionell agieren können. Eine techniksoziologisch begründete Gestaltungsempfehlung für die Konzeption großer Netze in der Logistik lautet abschließend wie folgt: Die Integration eigenaktiver Technik in logistische Prozesse konfrontiert die Operateure bei einer Abweichung von Routinen mit Deutungsproblemen, die es erforderlich machen, eigens dafür konzipierte, kontextsensitive Assistenzsysteme einzusetzen, um Operateure von Teilen der Interpretationsarbeit zu entlasten. Dies wäre ein Beitrag zur gesteigerten Flexibilität und Stabilität von logistischen Systemen auch im Störungsfall.
Literatur [Ale92] Alemann U et al. (1992) Leitbilder sozialverträglicher Technikgestaltung: Ergebnisbericht des Projektträgers zum NRW-Landesprogramm „Mensch und Technik – Sozialverträgliche Technikgestaltung“. Westdt. Verlag, Opladen [ASc87] Alemann U, Schatz H (1987) Mensch und Technik: Grundlagen und Perspektiven einer sozialverträglichen Technikgestaltung, 2. Aufl. Westdt. Verlag, Opladen [ATIP01] Asian Technology Information Programm: Automation at the Port of Singapore (2001) www.atip.org [Bau+02] Bauer, HG et al (2002) Hightech-Gespür: Erfahrungsgeleitetes Arbeiten und Lernen in hoch technisierten Arbeitsbereichen. Ergebnisse eines Modellversuchs beruflicher Bildung in der Chemischen Industrie. Bertelsmann, Bielefeld [BHe02] Baggen R, Hemmerling S (2002) Evaluation und Benutzbarkeit in Mensch-MaschineSystemen. In: Timpe TH (Hrsg) Mensch-Maschine-Systemtechnik: Konzepte, Modellierung, Gestaltung, Evaluation. Symposion Publishing, Düsseldorf, S 233–284 [Blu99] Blutner D (1999) Von der Von der Unsichtbarkeit innovativen Handelns. In: Berliner Debatte INITIAL: Zeitschrift für sozialwissenschaftlichen Diskurs, S 50–62 [BMa04] Bahner JE, Manzey D (2004) Complacency: Begriffsklärung, Stand der Forschung und Implikationen für die Verlässlichkeit der Mensch-Maschine-Interaktion. In: Bahner, Manzey (Hrsg) DGLR Bericht. TU Berlin, Berlin, S 35–48 [CMi05] Czerny AI, Mitusch K (2005) Deutlicher Trend zum Großcontainerschiff. Int Verkehrswesen 57(11):518–520 [Fle03] Flemisch FO (2003) Was kommt nach User Centered Design? Skizze auf der Suche nach Leitmotiven für das Entwerfen und Gestalten. In: Steffens, Thüring, Urbas (Hrsg): Entwerfen und Gestalten. 5. Berliner Werkstatt Mensch-Maschine-Systeme 08. bis 10. Oktober 2003. VDI-Verlag, Düsseldorf, Fortschr.-Ber. VDI Reihe 22 (16):69–87
238
D. Blutner et al.
[Fry03] Frye H (2003) Flächenbezogene Optimierung von Luftfrachtterminals. In: Jünemenn R (Hrsg) Logistik für fir Praxis. Verlag Praxiswissen, Dortmund [Gru03] Grunwald A (2003) Technikgestaltung: Eine Einführung in die Thematik. In: Grunwald (Hrsg) Technikgestaltung zwischen Wunsch und Wirklichkeit. Springer, Berlin, S 1–16 [Hec02] Heckmann M (2002) DV-gestütztes Geschäftsprozessmanagement in der Luftfrachtlogistik. Shaker Verlag, Aachen [Hei04] Heinecke AM (2004) Mensch-Computer-Interaktion. Fachbuchverlag im C. Hanser Verlag, Leipzig [HTy95] Von Hippel E, Tyre MJ (1995) How learning by doing is done: Problem identification in novel process equipment. Res Policy 24(1):1–12 [Hug87] Hughes TP (1987) The evolution of large technological systems. In: Biijker, Hughes, Pinch (ed) The social construction of technological systems. MIT [ISO-13407] Benutzerorientierte Gestaltung interaktiver Systeme (1999) DIN EN ISO 13407 [KHe02] Kuhn A, Hellingrath B (2002) Supply chain management. Optimierte Zusammenarbeit in der Wertschöpfungskette. Springer, Berlin [KLS02] Käppner M, Laakmann F, Stracke N (2002) Dortmunder Prozesskettenparadigma: Grundlagen. Technical Report 02005, Dortmund, Sonderforschungsbereich 559 „Modellierung großer Netze in der Logistik“ [Kön84] König R, (1984) In: Durkheim E (Hrsg) Der Regeln der Soziologischen Methode, 1. Aufl. Suhrkamp, Frankfurt/Main [Kön93] König W (1993) Technik, Macht und Markt: Eine Kritik der sozialwissenschaftlichen Technikgeneseforschung. Technikgeschichte. 60(3):243–266 [KPi94] Kuhn A, Pielock T (1994) Produktivitäts-Management mit Hilfe von Prozessketten. In: Horst Wildemann (Hrsg) Qualität und Produktivität. Erfolgfaktoren im Wettbewerb. Frankfurter Allgemeine Zeitung, Verlag-Bereich Wirtschaftsbücher, Frankfurt/Main [Kro89] Krohn W (1989) Die Verschiedenheit der Technik und die Einheit der Techniksoziologie. In: Peter W (Hrsg) Technik als sozialer Prozeß. Suhrkamp, Frankfurt/Main, S 15–43 [Kuh95] Kuhn A (1995) Prozessketten in der Logistik. Entwicklungstrend und Umsetzungsstrategien. Verlag Praxiswissen, Dortmund [Laa05] Laakmann F (2005) Entwicklungslinien des Prozesskettenmodells Gestaltungsmethoden für logistischen Netze. Interner Bericht. Dortmund. Lehrstuhl für Fabrikorganisation, Prof. Dr.Ing. A. Kuhn [Mam85] Mambrey P (1985) Arbeitnehmerbeteiligung beim Einsatz informationstechnischer Systeme im Betrieb. Oldenbourg, München [Mam86] Mambrey, P (1986) Praxis und Perspektiven partizipativer Systementwicklung. In: Rolf (Hrsg) Neue Techniken Alternativ: Möglichkeiten und Grenzen sozialverträglicher Informationstechnikgestaltung. VSA-Verlag, Hamburg S 146–157 [Mum83] Mumford E (1983) Designing human systems: The ETHICS method. http://www.enid. u-net.com/C1book1.htm, Zugriff 11 August 2005 [Myl05] Mylogistics (2005) news393122: DHL-Sortierzentrum am Köln Bonn Airport eröffnet [Per92] Perrow C (1992) Normale Katastrophen. Die unvermeidbaren Risiken der Großtechnik, 2. Aufl. Campus Verlag, Frankfurt/Main [Ram03] Rammert W (2003) Technik in Aktion: Verteiltes Handeln in soziotechnischen Konstellationen. In: Christaller T, Wehner J (Hrsg) Autonome Maschinen, Westdeutscher Verlag, Wiesbaden [RLR87] Rochlin GI, La Porte TR, Roberts KH (1987) The Self-designing high-reliability organization: aircraft carrier flight operations at sea. Naval War College Review, Autumn, p. 76–90 [Roc89] Rochlin GI (1989) Informal organisational networking as a crisis-avoidance Strategy: US naval flight operations as a case study. Industrial Crisis Quarterly 3, Elsevier Science Publisher B.V., Amsterdam, pp 159–176 [RSc02] Rammert W, Schulz-Schaeffer I (2002) Technik und Handeln. Wenn soziales Handeln sich auf menschliches Verhalten und technische Abläufe verteilt. In: Rammert W, Schulz-Schaeffer I (Hrsg) Können Maschinen handeln? Soziologische Beiträge zum Verhältnis von Mensch und Technik. Campus Verlag, Frankfurt/Main
9 Der Mensch als Planer, Operateur und Problemlöser in logistischen Systemen
239
[Sch03] Schönbeck J (2003) Interview, Geschäftsleiter der Handling Automation Europe der Siemens Demantic AG, Offenbach [SPl05] Shneiderman B, Plaisant C (2005) Designing the user interface: Strategies for effective human-computer interaction, 4. Aufl. Pearson, Boston [SWi05] Stewart J, Williams R (2005) The wrong trousers? Beyond the design fallacy: Social learning and the user. In: Rohracher (Hrsg) User involvement in innovation processes: Strategies and limitations from a socio-technical perspective. Profil, München, pp 39–71 [Tri90] Trist E (1990) Soziotechnische Systeme: Ursprünge und Konzepte. In: Organisationsentwicklung, 4/90, S 11–26 [Wei91] Weick KE (1991) The nontraditional quality of organizational learning. Organ Sci 2:116–124 [Wey03] Weyer J (2003) Von Innovations-Netzwerken zu hybriden soziotechnischen Systemen. Arbeitspapier Nr.1, Wirtschafts- und Sozialwissenschaftliche Fakultät, Dortmund [Wey05] Weyer J (2005) Creating order in hybrid systems. Reflexions on the interaction of man and smart machines. Soziologische Arbeitspapiere, Nr. 7, 2. Aufl. Wirtschafts- und Sozialwissenschaftliche Fakultät, Dortmund [Wey97] Weyer J (1997) Technik, die Gesellschaft schafft. Edition Sigma, Berlin, Darin besonders: Ders.: Konturen einer netzwerktheoretischen Techniksoziologie, S 23–52 [Züh04] Zühlke D (2004) Useware-Engineering für technische Systeme. Springer, Berlin
Kapitel 10
Assistenzsysteme für die Entscheidungsunterstützung Doris Blutner, Stephan Cramer, Sven Krause, Tycho Mönks, Lars Nagel, Andreas Reinholz und Markus Witthaut
10.1
Einleitung
Assistenzsysteme finden in unterschiedlichsten Arbeitsbereichen zunehmend Verwendung. Die wachsende Bedeutung von Assistenzsystemen als Mensch-MaschineSchnittstellen nicht zuletzt in der Logistik legt es nahe, Assistenzsysteme zu klassifizieren. Als Ergebnis eines disziplinübergreifenden Diskurs zwischen Informatik, Logistik und Soziologie legen wir mit diesem Beitrag eine Taxonomie von Assistenzsystemen vor. Der dazu erforderliche konzeptionelle Rahmen wird in Kap. 10.2 vorgestellt, einer ersten Erprobung in Kap. 10.3 unterzogen und danach auf sechs Assistenzsysteme für die Entscheidungsunterstützung in der Logistik, die den einzelnen Forschungsfeldern der Autoren entnommen sind angewandt. Abschließend vergleichen wir unterschiedliche Varianten der Entscheidungsunterstützung.
10.2
Konzeptioneller Rahmen
Dieser konzeptionelle Rahmen dient dazu, unterschiedliche Assistenzsysteme unabhängig von ihrer Aufgabe und ihrem Einsatzgebiet zu vergleichen und einzuordnen. Damit wollen wir gleichzeitig einen Beitrag zur Analyse und Gestaltung von Mensch-Maschine-Schnittstellen leisten.
10.2.1
Fokus: Entscheidungsunterstützung
Die Vielfalt von Mensch-Maschine-Schnittstellen ist unübersehbar. Sie reicht von einfachen Bedienungen einer Maschine oder eines Rechners bis hin zu autonom M. Witthaut ( ) Fraunhofer-Institut Materialfluss und Logistik (IML) Joseph-von-Fraunhofer-Str. 2-4 44227 Dortmund, Deutschland e-mail:
[email protected] P. Buchholz und U. Clausen (Hrsg.), Große Netze der Logistik, DOI 10.1007/978-3-540-71048-6_10, © Springer-Verlag Berlin Heidelberg 2009
241
242
D. Blutner et al.
agierenden Agenten, die unabhängig von Entscheidungen des Menschen ihre Aufgaben erledigen. Unsere besondere Aufmerksamkeit gilt dem menschlichen Entscheidungsfindungsprozess, der durch Maschinen unterstützt wird. Diese Fokussierung ist zweifach motiviert: 1. Entscheidungsfindungsprozesse und „bounded rationality“: Unter einer Entscheidung verstehen wir eine bewusste und rationale Auswahl zwischen mindestens zwei Alternativen [Els89], wobei die subjektive Erwartung am antizipierten Nutzen die Wahl der Alternative dominiert [Ess91]. 2. Aussageziel: Der konzeptionelle Rahmen soll dabei helfen, Assistenzsysteme hinsichtlich ihrer Entscheidungsqualität und Leistungsfähigkeit bei der Simulation, der Produktion und der Logistik zu bewerten und Vorschläge zu ihrer Gestaltung abzuleiten.
10.2.2 Assistenzsysteme zur Entscheidungsunterstützung: Definition und Merkmale Assistenzsysteme sind rechnerbasierte Systeme, die den Menschen bei der Entscheidungsfindung und -durchführung unterstützen. Sie sind ein integraler Bestandteil der Mensch-Maschine-Systemtechnik, die durch die informationelle Verkopplung von Maschinen und Operateuren gekennzeichnet ist [TJü02, S. 345]. Dabei werden den Operateuren nicht nur Fakten geliefert, sondern auch Hilfen bei der Lösung von Problemen und beim Treffen von Entscheidungen geboten [TJü02, S. 345]. Der Beitrag der Arbeitsgruppe fokussiert demnach Assistenzsysteme zur Entscheidungsunterstützung, die dazu geeignet sind, Handlungsalternativen hervorzubringen oder dazu einen Beitrag zu leisten. Diese spezifische Leistungsfähigkeit unterscheidet derartige Systeme – in Anlehnung an Timpe und Kolrep – von Unterstützungssystemen, die keine Alternativen generieren. Der gesamte Entscheidungsprozess lässt sich in die drei Teilprozesse der Entscheidungsvorbereitung, des Entscheidens – im Sinne der Auswahl zwischen mehreren Alternativen – sowie der Entscheidungsausführung gliedern. Assistenzsysteme zur Entscheidungsunterstützung umfassen Aufgaben der Entscheidungsvorbereitung und/oder der Alternativenauswahl, können aber auch Funktionen zur Entscheidungsausführung und -überwachung bereitstellen. Ein Assistenzsystem zur Entscheidungsunterstützung ist demnach durch die Merkmale Identifikation einer Lösungsmenge, Auswahl und Bewertung von Alternativen sowie autonomes Agieren gekennzeichnet. Sein Leistungspotential bezieht es aus der Fähigkeit, intelligente Prozeduren durchzuführen, bei deren Ausführung die Menschen angesichts hoher Schwierigkeitsgrade und (System-)Komplexitäten aufgrund ihrer begrenzten kognitiven Fähigkeiten systematisch scheitern. Zur terminolgischen Klärung sei hinzugefügt, dass der Terminus des Decision Support Systems (DSS) nach Bloech und Ihde (vgl. [BJh97]) synonym mit dem des Entscheidungsunterstützungssystems verwendet werden kann, zumal auf das Ideal einer auf Mensch und Rechner verteilten Problemlösung hingewiesen wird. Varianten von DSS bieten zudem Ausdifferenzierungsmöglichkeiten: So dienen
10 Assistenzsysteme für die Entscheidungsunterstützung
243
dem Topmanagement Executive Support Systems. Extended Decision Support Systems integrieren qualitatives Expertenwissen und Group Decision Support Systems unterstützen gruppenförmig organisierte Prozesse. Abgesehen von den a priori gegebenen Unschärfen dieser Kategorisierung – ein System für die Unterstützung von Führungsaufgaben schließt die Integration von Expertenwissen nicht aus – boten die Fragestellung und die Auswahl der Fallbeispiele Anlass dazu, eine eigene Taxonomie zu entwerfen. Welche Taxonomien bereits existieren und welche Modifikationen vorgenommen wurden, wird im folgenden Kapitel zusammengefasst.
10.2.3 Vorhandene Taxonomien für Assistenzsysteme, Automatisierungsstufen und die Verteilung von Entscheidungen zwischen Menschen und Rechnern Sheridan und Verplank erarbeiteten bereits 1978 eine Skala von zehn Automatisierungsstufen und ordneten diesen Systemmerkmale zu, die mit verschiedenen Aufgabenverteilungen zwischen Menschen und Rechnern korreliert wurden (Vgl. [SVe78] und [HTi02, S. 48]): 1. 2. 3. 4. 5. 6. 7. 8. 9. 10.
keine Unterstützung durch C (Computer), H (Human) macht alles, C bietet Handlungsalternativen an, und schränkt Auswahl ein, Vorschlag einer Alternative, Ausführung Vorschlag nach Bestätigung durch H, H nur noch Vetorecht, sonst Ausführung, automatische Ausführung und Information von H, Information nur nach Anfrage durch H, Info nur nach Entscheidung von C, C entscheidet und handelt autonom, H wird ignoriert.
Endsley schlug 1997 zehn Automatisierungsstufen vor, die sich auf vier Aufgabenbereiche – Überwachen des Systemzustandes, Generieren von Wahlmög-
Level of control
Monitoring
Generating
Selecting
Implementing
1. Manuel Contr. 2. Action Support 3. Batch Processing 4. Shared Control 5. Decision Support 6. Blended Dec. making 7. Rigid system 8. Automated Dec. Making 9. Supervisory Control 10. Full Automation.
H HC HC HC HC HC HC HC HC C
H H H HC HC HC C HC C C
H H H H H HC H C C C
H HC C HC C C C C C C
244
D. Blutner et al.
lichkeiten und Strategien der Zielerreichung, Auswählen von Alternativen und Strategien, Durchführen und Umsetzen bezogen [HTi02, S. 46 f.]. Bei der Anwendung dieser Taxonomien auf die zu untersuchenden Einzelfälle ergaben sich Probleme, die es erforderlich machten, eine spezifisch zugeschnittene Taxonomie zu entwerfen. Die Ausdifferenzierung von zehn Automatisierungsstufen erwies sich als zu detailliert und zu wenig trennscharf. Im Einzelfall blieben Zuordnungen von Systemleistungen zu einzelnen Automatisierungsstufen zweifelhaft. Andererseits erwies sich die Unterscheidung von vier Aufgabenbereichen als zu grob: Die Informationserzeugung und -aufbereitung und die Überwachung und Kontrolle der Entscheidungsausführung galt es hinzuzufügen. Die Taxonomie der Arbeitsgruppe definiert daher sechs Teilleistungen bei der Entscheidungsunterstützung und kombiniert diese mit der Frage der Arbeitsteilung bzw. Kooperation zwischen Operateuren und Rechnern. Hier wird die techniksoziologische Frage nach der Entwicklung hybrider Systeme zwischen Menschen und Maschinen verteilten Handelns und Entscheidens aufgegriffen (vgl. [RSc02]).
10.2.4 Art der Entscheidungsunterstützung Der Vergleich und die Einordnung unterschiedlicher Assistenzsysteme für die Entscheidungsfindung erfordert eine Systematisierung der Arten der Entscheidungsunterstützung, von denen sechs Varianten unterschieden werden: 1. Erzeugen und Aufbereiten (inkl. Filtern) von Informationen, 2. Erzeugen von Alternativen (Transformation von Daten in Entscheidungsalternativen.), 3. Bewerten von Alternativen (Bewertungskriterien durch den Menschen festgelegt), 4. Auswählen von Alternativen (Entscheidung), 5. Überwachen der Entscheidungsausführung (Einhaltung Zielkriterien), 6. Kontrollieren der Entscheidungsausführung.
10.2.5 Arbeitsteilung zwischen Mensch und Maschine Der Vergleich und die Einordnung unterschiedlicher Assistenzsysteme für die Entscheidungsfindung erfordert neben der Systematisierung der Arten der Entscheidungsunterstützung eine genaue Betrachtung der Arbeitsteilung zwischen Mensch und Maschine (i. S. degrees of automations, [She88]), die durch die Pole „vollständig durch den Menschen durchgeführt“ und „vollständig durch die Maschine durchgeführt“ markiert wird. Für die in Kap. 10.2.3 definierten Arten der Entscheidungsunterstützung ergibt sich folgendes (Abb. 10.1):
10 Assistenzsysteme für die Entscheidungsunterstützung
245
Rechner
Verteilt
Mensch
Erzeugen und Aufbereitung von Informationen
Automatische Datenübernahme aus anderen Systemen
Datenübernahme durch den Rechner und manuelle Korrektur
Manuelle Dateneingabe
Erzeugen von Alternativen
Betrachtung aller Alternativen des Lösungsraums
Rechnergestützte Alternativenerzeugung, Mensch schränkt Lösungsraum ein
Konstruktion von wenigen Alternativen
Bewerten von Alternativen
Ranking aller Alternativen
Automatische Alternativenbewertung Mensch spezifizier Kriterien
Auswählen von Alternativen
Automatische Auswahl aus Ranking
Auswahl einer Alternative, Mensch leg Kriterien fest Manuelle Dateneingabe1 mit rechnergestützter Überwachung der Zielkriterien Ablehnung der vom Mensch gewählten Entscheidung, Vorschlag Alternative
Manuelle Bewertung (z.B. Priorisierung) der Alternativen Manuelle Auswahl
Überwachen der Automatische ÜberEntscheidungs- wachung festgelegter ausführung Zielkriterien Kontrollieren der Entscheidungsausführung
Automatische Revision der ausgewählten Entscheidung
Manuelle Datenerfassung von Zustandsdaten Manuelle Revision der ausgewählten Entscheidung
Abb. 10.1 Beispiele für die Arbeitsteilung zwischen Mensch und Maschine
10.2.6
Einsatzzweck
Die Einsatzgebiete von Assistenzsystemen für die Entscheidungsunterstützung in großen Netzen der Logistik sind vielfältig. Eine Übertragung von Erkenntnissen über ein Assistenzsystem auf andere Systeme ohne Berücksichtigung des Einsatzgebietes birgt die Gefahr von Fehlschlüssen. Um die Vergleichbarkeit von Assistenzsystemen für die Entscheidungsfindung zu ermöglichen, ist daher grundsätzlich eine Systematisierung des Einsatzgebietes erforderlich. Hierbei nehmen wir – basierend auf Hellingrath und Kuhn [HKu02, S. 142 ff.] – eine Unterteilung in drei Einsatzgebiete vor: • Gestaltung z. B. Standortplanung, Gestaltung von Transportnetzen, • Taktische Planung z. B. Absatzplanung, Produktionsplanung, Beschaffungsplanung, • Operative Steuerung z. B. Auftragsabwicklung, Transportüberwachung, Behältermanagement.
246
10.2.7
D. Blutner et al.
Qualität und Quantität der Entscheidung
Der Vergleich und die Einordnung unterschiedlicher Assistenzsysteme für die Entscheidungsfindung erfordert Aussagen über die Qualität und Quantität des zu unterstützenden Entscheidungsprozesses: 1. Die besondere Qualität eines Assistenzsystems zur Entscheidungsunterstützung sehen wir vor allem in den Merkmalen der Gestaltung (Wirtschaftlichkeit) und Stabilisierung (Sicherheit, Zuverlässigkeit) von komplexen Systemen sowie darin, mögliche Folgen menschlicher Entscheidungen für das System abbilden zu können [Par00, S. 290]. 2. Eng verbunden mit dem oben benannten Einsatzzwecken rücken quantitative Aspekte derartiger Systeme in den Vordergrund, nämlich die Zeitnähe der Entscheidung und die Entscheidungsfrequenz.
10.3
Fallbeispiele
In diesem Kapitel werden sechs Assistenzsysteme für die Entscheidungsunterstützung in der Logistik vorgestellt. Diese Fallbeispiele sind den einzelnen Forschungsfeldern der Autoren entnommen.
10.3.1
Beladung von Frachtflugzeugen
10.3.1.1
Institutionelle Voraussetzungen und wirtschaftliche Entwicklung der Luftfracht
Luftfrachttransporte sind fester Bestandteil von internationalen Produktions- und Distributionsketten. Ihre Leistungsfähigkeit zeigt sich in kurzen Beförderungszeiten, termingerechten Transporten und hoher Transportsicherheit. Eine Vielzahl von Decision Support Systems (DSS) unterstützt Piloten wie Disponenten dabei, den hohen Sicherheitsanforderungen gerecht zu werden. Das DSS „Beladen und Trimmen eines Flugzeugs“ ist dafür ein Beispiel. Es dient dazu, die Beladung eines Flugzeugs virtuell vorwegzunehmen, um zu überprüfen, dass das Flugzeug bei realer Beladung zu jedem bewegten wie ruhendem Zeitpunkt keine Gefahr für Personen oder Ladung darstellt. Die sicherheitsrelevanten Parameter werden durch das Bundesministerium für Verkehr, Bau und Stadtentwicklung festgelegt und kontinuierlich aktualisiert. Die wesentlichen Festlegungen sind: Der Luftfrachtunternehmer hat vor jedem Flug Unterlagen über Masse und Schwerpunktlage zu erstellen, in denen die Ladung und deren Verteilung angegeben sind. Diese Unterlagen muss der Pilot überprüfen. Er sowie jene Person, die die Unterlagen über
10 Assistenzsysteme für die Entscheidungsunterstützung
247
Masse und Schwerpunktlage des Flugzeugs überwacht, bestätigen per Unterschrift die Übereinstimmung der Ladung und deren Verteilung mit den Unterlagen über Masse und Schwerpunktlage [JAR06, S. 105, JAR-OPS 1.1055(a)(12)]. Das Luftfahrtunternehmen ist dafür verantwortlich, dass die Beladung unter Aufsicht von qualifiziertem Personal und anhand der berechneten Daten erfolgt [JAR06, S. 108]. Die Unterlagen über Masse und Schwerpunktlage müssen folgende Angaben beinhalten [JAR06, S. 111 ff.]: Flugzeugkennzeichen und -nummer; Flugnummer und Datum; Identität des Piloten; Identität der Person, die die Unterlagen erstellt hat; die Betriebsleermasse und die dazu gehörige Schwerpunktlage des Flugzeuges; die Kraftstoffmasse beim Start und die Masse des Kraftstoffs für die Flugphase; die Masse von Verbrauchsmitteln außer Kraftstoff; die Ladung, unterteilt in Fluggäste, Gepäck, Fracht, Ballast etc.; die Abflug-, Lande- und Leertankmasse; die Verteilung der Ladung; die zutreffenden Flugzeugschwerpunktlagen sowie die Grenzwerte für Masse und Schwerpunktlagen.
10.3.1.2
Systembeschreibung des Assistenzsystems: Beladen und Trimmen eines Flugzeuges
Vor Einführung des DSS musste der Disponent die erforderlichen Angaben verschiedenen IT-Systemen und Dokumenten entnehmen und mittels eines „LOAD & TRIM SHEET“ – Bogens die Beladung und den Trimm des Flugzeuges manuell ausrechnen. Ein durchgängiger Zugriff auf die notwendigen Daten ist erst seit Einführung des DSS möglich. Einzig die Spritwerte erhält der Disponent nicht per automatischen Dateninput. Diese übermittelt ihm der Pilot. Das Berechnen der Beladung und Trimmung per Hand dauert nach Einschätzung der Disponenten 20 bis 25 Minuten, wenn sie diese Aufgabe spontan, also im ungeübten Zustand, erledigen müssten. Das DSS ist so konzipiert, dass es alle Vorgaben des Luftrechts berücksichtigt. Der Disponent belädt das Flugzeug virtuell mit den im DSS angezeigten Containern. Schlägt er eine bestimmte Beladung vor, kann er sofort ersehen, ob die Kriterien „Zero Fuel Weight“ (ZFW = Beladung des Flugzeugs ohne Sprit), „Take off Weight“ (TOW = Gewicht bei Start des Flugzeugs) und „Landing Weight“ (LDG = Gewicht des Flugzeuges bei Landung), erfüllt sind. Diese drei Kriterien spiegeln das „Operational Limit“ der Beladung wider, in dem das Flugzeug gehalten werden muss. Das rechnergestützte Assistenzsystem zur Beladung und zum Trimmen der Frachtflugzeuge wurde von der Softwareabteilung desselben Unternehmens erstellt, welches auch die Luftfrachtdienstleistungen anbietet und durchführt. Dieses Assistenzsystem ist so angelegt, dass es den Vorgaben des Luftrechts gerecht wird [JAR06] und die oben genannten Angaben (Abb. 10.2) beinhaltet. Der Leitstandsmitarbeiter belädt das Flugzeug virtuell mit den im Assistenzsystem angezeigten, zu ladenden Containern. In diesem Moment kommt der entscheidungsunterstützende Charakter des Assistenzsystems ins Spiel. Schlägt der Leitstandsmitarbeiter eine bestimmte Beladung vor, ist es für ihn sofort ersicht-
248
D. Blutner et al.
Balance Conditions FWD
AFT
ZFW
10
38
TOW LW
10 10
38 38
Abb. 10.2 Balance Conditions
lich, ob die Kriterien „Zero Fuel Weight“ (ZFW = Beladung des Flugzeugs ohne Sprit), Startmasse (TOW = Gewicht bei Start des Flugzeugs) und Landing Weight (LDG = Gewicht des Flugzeuges bei Landung), die durch eine konkrete Beladung des Flugzeugs beeinflusst werden können, im sicheren Bereich liegen. Das Ziel des Leitstandsmitarbeiters, der das Flugzeug (virtuell) belädt und trimmt, ist es demzufolge, das Flugzeug unter Berücksichtigung dieser drei Kriterien im „Operational Limit“ zu halten, um einen sicheren Flug zu gewährleisten. Das ITSystem bildet den aktuellen Beladungszustand entlang der drei Kriterien durch eine Reglerschiebergrafik ab (Abb. 10.3, FWD und AFT bezeichnen Grenzwerte). Ein gestichelter Strich auf der obersten Reglerschiene (ZFW) kennzeichnet den optimalen Trimm unter den gegebenen Bedingungen. Das DSS bildet mittels einer Reglerschiebergrafik den aktuellen Beladungszustand anhand dieser drei Kriterien (Abb. 10.2, FWD und AFT bezeichnen Grenzwerte). Ein gestrichelter Strich auf der obersten Reglerschiene (ZFW) kennzeichnet den optimalen Trimm unter den gegebenen Bedingungen. Die Abstimmung dieser Werte führt zu einem Gesamtwert, dem Total Traffic Load (TTL), dessen Wert dem Disponenten sofort durch das DSS sichtbar gemacht wird. Der Disponent greift beim virtuellen Beladen und Trimmen des Flugzeuges zunächst auf seine Erfahrungen hinsichtlich des Flugzeugtyps, der Ladung und der Destination zurück. Sobald der Pilot die Spritdaten an den Disponenten weitergibt, trägt dieser diese Informationen in die Maske des DSS ein und überprüft mittels des DSS, ob die Beladung und der Trimm unter den aktualisierten Bedingungen (Flugroute, Wetter) noch den Sicherheitsvorgaben entsprechen.
10.3.1.3
Einordnung in den konzeptionellen Rahmen
Art der Entscheidungsunterstützung Das IT-System „Beladen und Trimmen eines Flugzeuges“ ist ein DSS mit eingebauter „Notbremse“. Belädt der Disponent virtuell das Flugzeug unsicher, so verweigert es den Ausdruck des „LOAD & TRIM SHEET“ -Formulars, welches Pilot und Disponent unterzeichnen müssen (siehe Abschn. 10.3.1.1). Bedeutet die vorgeschlagene Beladung ein Sicherheitsrisiko, wird dies dem Disponenten durch einen rot eingefärbten Strich visualisiert. In diesem Fall generiert das DSS eine Prüfliste, die der Disponent durchgehen muss und anhand derer er eine neue Beladungsvariante vorschlägt. Diesen Vorgang wieder-
10 Assistenzsysteme für die Entscheidungsunterstützung
Rechner Erzeugen und Aufbereiten von Informationen
Erzeugen von Alternativen Bewerten von Alternativen
Verteilt
249
Mensch
Initiale Datenübernahme durch den Rechner mit anschließender manueller Korrektur: tatsächliche Fracht, erwartetes Wetter Vorschlag einer Beladungsalternative Bewertung der Alternative mittels vordefinierter, fester Bewertungsgrößen hinsichtlich des Kriteriums Sicherheit Entscheidung für die sichere Beladung
Auswählen von Alternativen Überwachen der Entscheidungsausführung
Abgleich der eingegebenen Daten mittels einer Prüfliste
Kontrollieren der Entscheidungsausführung
Ausdruck des „Load & Trim“-Formulars als Ergebnis des Kontrollvorgangs.
Abb. 10.3 Arbeitsteilung zwischen Mensch und Maschine beim Beladen und Trimmen eines Flugzeuges
holt er im Zweifelsfall so oft, bis das DSS ihm eine sichere Beladung des Flugzeuges bestätigt. Nicht nur theoretisch, sondern ebenso praktisch könnte der Disponent eine vollständig automatische Beladung und Trimmung des Flugzeuges durch das DSS vornehmen lassen. Die Disponenten sehen jedoch davon ab, um die unternehmensbezogenen Effizienzkriterien ‚Erfüllung kundenbezogener Servicewünsche‘ und ‚ökonomisches Fliegen‘ berücksichtigen zu können. Das DSS unterstützt den Menschen beim Erzeugen und Aufbereiten von Informationen sowie beim Erzeugen und Bewerten von Alternativen. Im automatischen Modus offeriert es genau eine Alternative. Die ausschließliche Unterstützungsfunktion des DSS besteht in der Gewährleistung eines sicheren Flugs. Es interveniert genau dann, wenn die vom Menschen vorgeschlagene Alternative die Sicherheitskriterien nicht erfüllt. In diesem Sinne überwacht und kontrolliert das System die Entscheidungsprozesse zur Festlegung der Beladung des Flugzeuges. Arbeitsteilung zwischen Mensch und Maschine Folgende Abbildung (Abb. 10.3) fasst die Arbeitsteilung zwischen Mensch und Maschine für das DSS „Beladung und Trimmen eines Flugzeugs“ zusammen:
250
D. Blutner et al.
Einsatzzweck Das Assistenzsystem unterstützt die operative Steuerung des Transportprozesses und dient ausschließlich der Sicherheit im Luftverkehr. Quantität und Qualität der Entscheidung Die besondere Qualität des Assistenzsystems „Beladen und Trimmen eines Flugzeugs“ besteht in seiner Funktion, die Sicherheit des Frachttransports durch das Transportmittel Flugzeug zu gewährleisten. Obgleich der Mensch innerhalb des Sicherheitsbereichs die Anordnung der Fracht nach den Gesichtspunkten Kundenservice und ökonomisches Fliegen gestalten kann, dient das Assistenzsystem selbst nicht der Gestaltung eines logistischen Systems. Seine quantitative Stärke besteht darin, dass es jederzeit einsatzbereit ist, sofern die notwendigen Daten vorliegen und dass der Trimmvorgang in seiner schnellsten Anwendung nur wenige Minuten beansprucht.
10.3.2
Schiffsführung
10.3.2.1 Anwendungskontext für das Assistenzsystem NARIDAS Die Entwicklung des Assistenzsystems NARIDAS (Navigational Risk Detection and Assessment System) stellt eine Reaktion auf die zunehmende Komplexität des Schiffsführungsprozesses unter spezifischen nautischen wie logistischen R-ahmenbedingungen – Großcontainerschiffe, Besatzungsreduktion, Umweltbedingungen, Einhalten einer definierten ETA (estimated time of arrival) – dar [Bec05]. Um die sich daraus ergebenden Steuerungsaufgaben zu bewältigen, stehen unterschiedliche informations- und automatisierungstechnische [Mae06] Hilfsmittel zur Verfügung, wie z. B.: • GPS (Global Positioning System, satellitenbasierte Ortung) [Hop02], • ARPA (Automatic Radar Plotting Aid, Kollisionswarnung) [Ray06], • ECDIS (Electronic Chart Display and Information System, elektronische Seekarte) [BSH06]. Trotz des massiven Technikeinsatzes gilt die Schifffahrt als Hochrisikosystem [Per87]. Es kommt weiterhin zu katastrophalen Unfällen. Nicht immer gelingt es den Entscheidern an Bord, vorhandene Informationen angemessen zu nutzen um richtige Entscheidungen zu treffen.
10.3.2.2
Systembeschreibung
Einen Lösungsansatz schlägt Diethard Kersandt mit „NARIDAS“ (Navigational Risk Detection and Assessment System) vor. Trotz vereinfachter Abläufe und zuverlässiger Automatiken sei die Arbeit der Entscheidungsträger an Bord durch eine Vielzahl von Informationsquellen, wachsende Verantwortung, zunehmenden Entscheidungsdruck, größere Auswirkung von Fehlern, Prozesskomplexität und Zeitmangel geprägt [Ker05]. „Situation awareness“ gehe verloren, wenn die aktu-
10 Assistenzsysteme für die Entscheidungsunterstützung
251
elle Situation aufgrund der Anzeigen und vorhandenen Informationen „zusammengebaut“ werden müsse [Ker05]. NARIDAS reduziert deshalb die Komplexität des Schiffsführungsprozesses auf die Veränderungen acht zentraler Parameter [Ker05, S. 3 ff.]: 1. 2. 3. 4. 5. 6. 7. 8.
SPEED TRACK TARGET ENVIRONMENT HUMAN AVAILABILITY TRAFFIC ECONOMY
sichere/unsichere Geschwindigkeiten. Bahnführungsprobleme, z. B. bei Untiefen. gefährliche Annäherung anderer Fahrzeuge. Umweltbedingungen, z. B. Wellenhöhe. z. B. Wachzeitdauer und Brückenbesetzung. Verfügbarkeit von Ruderanlage und Maschine. Verkehrsdichte. Verhältnis Geschwindigkeit zu Wirtschaftlichkeit.
Die für diese acht Dimensionen des Schiffsführungsprozesses bereits vorhandenen Eingangswerte versieht NARIDAS mit einer erfahrungsbasierten „Risikokenngröße“: „Diese Kenngröße ist dimensionslos und bringt den Zustand des partiellen Prozesses zwischen den Grenzwerten 0 und 1 zum Ausdruck“ [Ker02, S. 17] (siehe Abb. 10.4). Folgende Vorgaben sollen, so Kersandt in einem am 29. September 2006 vom Autor durchgeführten Interview mit diesem Assistenzsystem erreicht werden: • NARIDAS steigert nicht die bereits vorhandene Fülle von Informationen. • Die Präsentation bewerteter Informationen verbessert Context Awareness. • Gefahren können erfahrungsbasiert eingeschätzt und gemessen werden. Die für den Schiffsführungsprozess entscheidenden Parameter sind daher auf einer Benutzeroberfläche zusammengefasst und vermitteln intuitiv einen Eindruck davon, was in welcher Reihenfolge getan werden sollte, um Gefahren abzuwehren und Systemprozesse stabil und leistungsfähig zu halten (siehe Abb. 10.4).
Abb. 10.4 NARIDAS Quelle: [ZMM06]
252
D. Blutner et al.
In einer an der TU-Berlin, unter Leitung von Klaus-Peter Timpe durchgeführten Evaluationsstudie [Ker05, S.10] konnte mittlerweile der empirische Nachweis erbracht werden, dass die Angaben dieses Assistenzsystems mit den Empfehlungen erfahrener Nautiker übereinstimmen. In Zukunft ist die Ausgabe explizierter Handlungsempfehlungen vorgesehen.
10.3.2.3
Einordnung in den konzeptionellen Rahmen
Art der Entscheidungsunterstützung Ohne NARIDAS muss der Wachhabende zahlreiche „Puzzle-Teile“ umgehend zu einem stimmigen Gesamtbild verknüpfen können. NARIDAS übernimmt einen Teil dieser Deutungsarbeit [Wey97]. Ein Gefahrenwert von fast 1 bei „Target“ (siehe Balkendiagramm oben) markiert zunächst eine eindeutige Handlungspräferenz (Kollisionsgefahr). Der nächst höhere Wert von 0,75 bei „Human“ könnte den Entscheider dazu motivieren, ein Ausweichmanöver sofort vorzubereiten, da z. B. am Ende der Nachtwache mit Übermüdungserscheinungen gerechnet werden muss. Geboten wird demnach eine mittelbare Entscheidungsunterstützung zur zeitnahen Vergegenwärtigung des Entscheidungskontextes. Das System sammelt und filtert Daten und legt Bewertungen nahe (siehe Abb. 10.5). Arbeitsteilung zwischen Mensch und Maschine Im Unterschied zu den Einzelsystemen komprimiert NARIDAS Daten auf einem Abstraktionsniveau oberhalb aller Einzelsysteme und wirkt aufgrund der Ausgabe und Anzeige bewerteter Information deutlicher auf die Entscheidungsfindung ein, als dies bei den Einzelsystemen der Fall ist. Alternativen werden verteilt erzeugt. Einsatzzweck NARIDAS dient der Gefahrenabwehr im Schiffsführungsprozess und unterstützt den Operateur darin, sich einen raschen Überblick über den aktuellen Systemzustand (Kollisionsgefahr!) zu verschaffen, um Entscheidungen zur Gefahrenabwehr (Ausweichmanöver) und damit die Systemstabilisierung konsistent in aktualisiertes Kontextwissen einzubetten. Quantität und Qualität der Entscheidungsunterstützung Die quantitative Dimension der Entscheidungsunterstützung besteht in der Reduktion vorhandener Daten und Informationen, um in Echtzeit die Grundlage für ggf. unmittelbar zu fällende Entscheidungen anbieten zu können. In qualitativer Hinsicht entlastet das System die Operateure von Teilen der Deutungsarbeit.
10.3.3
Produktionsprogrammplanung
10.3.3.1
Einsatzfeld des Assistenzsystems
Die Zulieferbranche der Automobilindustrie wird von einer zunehmenden Konsolidierung geprägt. Durch die Konsolidierung unter den Herstellern (OEM) sind auch
10 Assistenzsysteme für die Entscheidungsunterstützung
Rechner Erzeugen und Aufbereiten von Informationen
Mensch
NARIDAS: Datenzusammenfassung
Erzeugen von Alternativen
Bewerten von Alternativen
Verteilt
253
Mensch entscheidet, NARIDAS legt Alternative nahe. Bsp.: Gefahrenpotential bei Kollisionsverhütung bei 0,95 (höchster Wert): zunächst auszuweichen NARIDAS bewertet mittelbar Alternativen durch ranking Wachhabender entscheidet über Ausweichen
Auswählen von Alternativen Überwachen der Entscheidungsausführung
Diese Aufgabe wird nicht durch NARIDAS unterstützt.
Kontrollieren der Entscheidungsausführung
Diese Aufgabe wird nicht durch NARIDAS unterstützt.
Abb. 10.5 Arbeitsteilung zwischen Mensch und Maschine bei NARIDAS
Lieferanten zunehmend gezwungen die sich ergebenden Skaleneffekte effektiv zu nutzen, um nicht in die Lage versetzt zu werden, ungenutzte Kapazitäten liquidieren zu müssen (vgl. Abb. 10.6). Im dargestellten Projekt lag die Herausforderung in der Machbarkeitsüberprüfung eines prognostizierten Vertriebsplanes anhand der vorhandenen Belegschaft und des existierenden Maschinen- und Anlagenpools. Die zentralen Herausforderungen stellten sich wie folgt dar: • Aufbau einer neuen Fertigungslinie mit angeschlossener Modulmontage im 1-Linien-Betrieb, • Hohe Variantenvielfalt (Endprodukte) und beschränktes Flächenangebot (Zwischenlagerung). Darauf basierend wurden folgende Ziele formuliert: • Entwicklung eines geeigneten Produktionssteuerungs- und Logistikkonzeptes für die Produktion auf Kammlinie sowie Grobdarstellung eines Anlaufszenarios, • Aufzeigen der Notwendigkeiten und Voraussetzungen zur Realisierung des Konzeptes in Bezug auf Flächenbedarfe und Produktionsparameter (z. B. Rüstzeit und Sicherheitsbestände).
254
D. Blutner et al. Tier 3 Lieferant
ca. 270 LKW / Tag Tier 2 Lieferant
ca. 1.500 Unternehmen ca. 400 Tier 1 Lieferant Unternehmen
ca. 12.000 Sachnummern ca. 60 A-Teilefamilien ca. 1012Konfigurationen über alle Baureihen Fahrzeugwerke
70% der Wertschöpfung an den Gesamtherstellkosten
gs
Händler
n rgu
rso Ve istik log
30% der Wertschöpfung an den Gesamtherstellkosten
Abb. 10.6 Beispiel eines typischen Fahrzeugproduktionsnetzwerkes Quelle: [HGe07, S. 15]
Somit müssen bei der Programmplanung die folgenden Fragen beantwortet werden: • Können alle Kundenbedarfe ohne Produktionsstillstand bedient werden? • Sind die gewählten Sicherheitsbestände (in der Produktion und im Lager) ausreichend dimensioniert? • Welche Anzahl von Rüstvorgängen ist erforderlich, um die Kundenbedarfe zu erfüllen?
10.3.3.2
Systembeschreibung des Assistenzsystems
Für die Programmplanung und Restrukturierung einer Fabrik wurden zuerst statische Berechnungen durchgeführt. In einer anschließenden Simulationsstudie wurden unterschiedliche Planungsvarianten genauer untersucht. Hierfür wurde mit dem Simulator DOSIMIS ein Simulationsmodell erstellt, das die Fabrik und die Rahmenbedingungen der Programmplanung abbildete. Die Simulationsstudie erfolgte in fünf Schritten: Modellierung, Parametrierung, Simulationsexperimente, Auswertung und Animation. Für die Programmplanung der Fabrik wurde ein DOSIMIS-Modell als Assistenzsystem entwickelt. In diesem Modell wurden die Prozessabläufe auf dem Abstraktionsniveau des Steuerungskonzeptes (vgl. Abb. 10.7) abgebildet. Der Planer nutzt dieses Assistenzsystem durch Veränderung der Modellparameter und der anschließenden Durchführung von Simulationsexperimenten. Weiterhin unterstützt das DOSIMIS-basierte Assistenzsystem den Planer bei der Auswertung der Simulationsexperimente. Die Veränderung der Modellparameter (Parametrierung) betrifft Daten zur Systemlast, technische Daten der eingesetzten Betriebsmittel und Ablaufregeln des
10 Assistenzsysteme für die Entscheidungsunterstützung Supermarkt GLT-Stellplätze
Losgröße
Kanbantafel Fertigung
Kanban Karten
Fertigung
Produkt GLT
Auftragseinstellung Kundenabrufe am Tag X für Tag X+2 bis 22:00
Bereitstellung Kundenabrufe am Tag X+1 für Tag X+2 bis 22:00
3 Montagestationen
WA-Puffer
Sicherheitsbestand
Losgröße
Produktionsauftrag
255
Kunde 1 4 Montagestationen
Sicherheitsbestand
Losgröße
WA-Puffer
Kunde 2
1 Montagestation
Sicherheitsbestand
Auftragseinstellung Kundenabrufe am Tag X für Tag X+2 bis 22:00
WA-Puffer
Kunde 3
WA-Puffer Kunde 4
Abb. 10.7 Grundlegendes Steuerungskonzept der Produktion1
Systems. Zur Darstellung der Systemlast können zufällige Lastprofile generiert oder reale Produktionsprogramme per Datei eingelesen werden. Die technischen Daten umfassen beispielsweise: Geschwindigkeiten, Abholfrequenzen, Bearbeitungsund Wiederbeschaffungszeiten, Ausschussquoten, Schichtanzahl und -dauer oder Pufferkapazitäten. DOSIMIS bietet zusätzlich die Möglichkeit, manuelle Tätigkeiten wie das Bearbeiten, Rüsten oder Beseitigen von Störungen zu definieren. Die internen Ablaufregeln umfassen Strategien, über die der Materialfluss gesteuert, Transportfahrzeuge disponiert und Werker eingesetzt werden. Dazu können Produktionsprogramme als Darstellung des Prozessablaufes und des Steuerungskonzeptes hinterlegt werden. Zusätzlich können bei der Parametrierung auch noch Stellplatzanzahl, temporäre Lagererweiterungsmöglichkeiten und Auslagerungsmethoden berücksichtig werden. Die Durchführung von Simulationsexperimenten mit unterschiedlicher Parametereinstellung ermöglicht den Vergleich verschiedener Planungsszenarien. Vor jedem Simulationsexperiment findet eine Validierung statt, die das Modell auf eventuelle Parametrierungsfehler untersucht. Zur Simulation müssen anschließend der Simulationszeitraum, die Definition der gewünschten Ausgabedaten und der Feinheitsgrad der Ergebnisdarstellung eingegeben werden. Im Rahmen der Auswertung bietet DOSIMIS die Darstellung umfassender Statistiken, z. B. bezüglich 1
GLT = Großladungsträger; WA = Warenausgang; Kanban ist eine Methode der Materialversorgung in der Fertigung.
256
D. Blutner et al.
Termintreue oder Kapazitätsauslastung, die vom Planer gefiltert und gezielt analysiert werden können.
10.3.3.3
Einordnung in den konzeptionellen Rahmen
Art der Entscheidungsunterstützung Das Assistenzsystem unterstützt den Planer bei der detaillierten Bewertung von Szenarien für die Produktionsprogrammplanung einer Fertigungsstätte. Arbeitsteilung zwischen Mensch und Maschine Folgende Abbildung 10.8 fasst die Arbeitsteilung zwischen Mensch und Maschine beim vorgestellten Assistenzsystem zusammen. Einsatzzweck Das Assistenzsystem leistet eine Unterstützung in der Machbarkeitsanalyse bestimmter im Vorfeld definierter Produktionsabläufe in der taktischen Planung. Qualität und Quantität der Entscheidung Die Entscheidungsunterstützung durch das Assistenzsystem ist – im Vergleich zu einfachen, statischen Berechnungen – qualitativ hochwertig: Komplexes, sich veränderndes Verhalten der einzelnen Fabrikelemente und der Systemlast (Kundenbedarfe) wird durch das Simulationssystem zuverlässig abgebildet. Die Durchführung der Simulationsexperimente mit der damit verbundenen Möglichkeit, Planungsszenarien zu vergleichen, bildet die quantitative Stärke des Assistenzsystems.
10.3.4
Tourenplanung
10.3.4.1
Einsatzfeld des Assistenzsystems
Bei der Tourenplanung werden Transportaufträge Transportmitteln (Fahrzeugen) möglichst optimal zugeordnet. Ziele dieser Optimierung sind kurze Lieferzeiten, hohe Liefertermintreue und geringe Transportkosten. Dabei müssen zahlreiche Restriktionen, wie verfügbare Kapazitäten, gesetzliche Vorschriften, Abhol- und Anlieferzeiten, berücksichtigt werden. Neben der Fahrzeugdisposition wird im Rahmen der Tourenplanung entschieden, wie die zu beliefernden Kunden möglichst kostengünstig zu Touren zusammengefasst werden können und in welcher Reihenfolge die ausgewählten Transportmittel die Nachfragepunkte innerhalb einer Tour anfahren sollen. Unter dem Begriff Tourenplanung (auch: Vehicle Routing Problem, VRP) werden im Wesentlichen Aktivitäten zur Clusterungsentscheidung und Permutationsfestlegung von Belieferungsprozessen zusammengefasst. Das Standard-VRP ist dabei wie folgt definiert. Ausgehend von einem Depot sind eine Menge von Kunden mit Waren zu beliefern, jeder Kunde hat dabei einen individuellen (abs-
10 Assistenzsysteme für die Entscheidungsunterstützung
Rechner Verteilt
257
Mensch
Erzeugen und Aufbereiten von Informationen
Manuelle Dateneingabe der Simulationsparameter
Erzeugen von Alternativen
Erzeugung von Szenarien
Bewerten von Alternativen
Rechnergestützte quantitative Bewertung; qualitative Bewertung durch den Menschen
Auswählen von Alternativen
Manuelle Auswahl
Überwachen der Entscheidungsausführung
Diese Aufgabe wird nicht durch das System unterstützt.
Kontrollieren der Entscheidungsausführung
Diese Aufgabe wird nicht durch das System unterstützt.
Abb. 10.8 Arbeitsteilung zwischen Mensch und Maschine
trakten) Warenbedarf. Zur Belieferung stehen homogene Fahrzeuge mit einem definierten Ladevolumen zur Verfügung. Ziel der Tourenplanung ist es nun, eine Zuordnung von Kunden zu Fahrzeugen (Clusterung durch Routenbildung) und eine Reihenfolge der Kunden innerhalb einer Route (Permutation) zu finden, die hinsichtlich eines Bewertungsmaßes möglichst gut ist. Die Bewertungsfunktion basiert dabei prinzipiell auf der Summe aller Distanzen, die von den Fahrzeugen zur Realisierung einer Lösung zurückgelegt werden. Durch die Hinzunahme von Nebenbedingungen, wie beispielsweise Zeitfenstern für einzelne Belieferungen, ergeben sich vielfältige Varianten des VRP. Bereits einfache Tourenplanungsaufgaben sind so komplex, dass nicht mehr der beste Tourenplan bestimmt werden kann.2 Zur Erstellung der „besten“ Tourenplänen mit mehr als etwa 50 Kunden mittels deterministischer Algorithmen ist die Berechnungszeit für den Einsatz in der Praxis zu lang. Eine die Optimierung erschwerende Eigenschaft der Tourenplanung liegt darin, dass eine kostenoptimierte Lösung eine hohe Instabilität aufweist. Eine geringfügige Änderung von zu Grunde gelegten Annahmen kann zu einer Lösung führen, die nicht mehr alle Vorgaben erfüllt: Ein nahe liegendes Beispiel sind Zeitfenstervorgaben für die Kundenbelieferung. Bei unerwarteten Staus wird mehr Fahrzeit benötigt als angenommen. Anlieferzeitfenster können so nicht eingehalten werden und zusätzliche Kosten (z. B. Mehrfahrten oder Vertragsstrafen) entstehen.
2
Das VRP ist bereits in seiner einfachsten Form NP-schwierig.
258
10.3.4.2
D. Blutner et al.
Systembeschreibung
Für die Beurteilung der Güte eines Tourenplans bezüglich geringfügiger Änderungen der zu Grunde gelegten Annahmen, nimmt das Assistenzsystem zwei Bewertungen vor. Zum einen werden die Gesamtkosten – unter anderem gefahrene Kilometer und Personalkosten – des Tourenplans bestimmt. Zum anderen wird das Gesamtrisiko3 des Plans ermittelt. Dieses Risiko wird durch eine Wahrscheinlichkeit beschrieben und ergibt sich aus den Risikobewertungen für die Belieferungen der Kunden: Wenn sicher ist, dass ein Kunde nach dem erzeugten Tourenplan pünktlich beliefert wird, hat diese Belieferung ein Risiko von 0%. Ein 30%-iges Risiko bedeutet beispielsweise, dass die Belieferung mit einer Wahrscheinlichkeit von 30% nicht entsprechend der Kundenvorgaben erfolgt. Die Risiken aller Belieferungen eines Tourenplans können dann im nächsten Schritt durch Durchschnittsbildung oder aus dem höchsten Einzelrisiko (für eine Belieferung) berechnet werden. Wie gezeigt wurde [JSe03], ist eine integrierte Analyse von Kosten- und Risikozielen bei der Tourenplanung mittels multikriterieller Optimierung sinnvoll. Das Assistenzsystem generiert eine Menge von so genannten unvergleichbaren Lösungen. Zur Veranschaulichung dieser Unvergleichbarkeit betrachten wir zwei Tourenpläne: Der erste Plan hat Gesamtkosten von 1.000 € und ein Gesamtrisiko von 10%; der zweite Plan hat Gesamtkosten von 900 € und ein Gesamtrisiko von 15%; keiner der beiden Pläne ist besser als der andere. Jedoch gibt es Tourenpläne, die schlechter als diese beiden „besten“ Pläne sind: So ist ein Plan mit Kosten von 1.200 € und einem Risiko von 15% schlechter als beide Pläne und wird demzufolge nicht vom Assistenzsystem dem Disponenten als mögliche Lösung angeboten. Das Assistenzsystem unterstützt den Disponenten durch die Aufbereitung von Informationen bereits vor der Bestimmung möglicher Tourenpläne. Über die Benutzerschnittstelle werden alle vorhandenen Aufträge (Lieferanfragen) angezeigt, neue Auftragspositionen lassen sich hinzufügen und bestehende können bearbeitet werden. Mit den bestehenden Stammdaten – z. B. Lokationen, Fahrzeiten, Fahrzeuge und Fahrer – und den zuvor eingespielten Aufträgen erzeugt das Assistenzsystem die Lösungsmenge. Für die Erzeugung der Lösungsmenge werden Evolutionäre Algorithmen eingesetzt. Hierbei wird eine Menge von „Lösungskandidaten“ zunächst erzeugt und dann schrittweise optimiert. Bei der Optimierung werden schlechte Lösungen (Tourenpläne) durch bessere ersetzt. Ein wichtiger Parameter für die Optimierung ist also die Festlegung der Anzahl der Lösungskandidaten. Ein Beispiel für eine vom Assistenzsystem generierte und bewertete Lösungsmenge ist in Abb. 10.9 dargestellt. Der Benutzer hat nun die Möglichkeit, die berechnete Lösung manuell zu verändern. So kann beispielsweise ein bedeutender Kunde mit einem hohen Risiko an eine andere Route bzw. in eine abweichende Position der ursprünglichen Route verschoben werden, um so das Risiko eines spezifischen Kunden gezielt zu beeinflussen. Dies führt ggf. zu einem Anstieg des kumulierten Risikos und/oder einem Kostenzuwachs, was jeweils durch das System berechnet und dem Benutzer ange3
Durch ein in [Mön06] vorgestelltes Modell ist die Quantifizierung des Risikoaspektes in den Tourenplanungsproblemen realisierbar.
10 Assistenzsysteme für die Entscheidungsunterstützung
259
0,50 0,45 0,40
Risiko
0,35 0,30 0,25 0,20 0,15 0,10 0,05 0,00 1500
2000
2500
3000
3500
4000
4500 5000
Kosten
Abb. 10.9 Erzeugte Lösungsmengen. Aus der angezeigten Lösungsmenge, die Ergebnisse bei einer Beschränkung auf 5 (dunkle Punkte) bzw. 20 (helle Punkte) Lösungen zeigt [Mön06, S. 93], kann der Benutzer nun eine konkrete Lösung auswählen. Das System bietet daraufhin eine detaillierte Darstellung der Lösung. Die Lokationen der Kunden werden auf einer Karte visualisiert und die berechneten Routen eingezeichnet. Weiterhin wird durch eine Farbskala angedeutet, wie hoch das Risiko für jeden einzelnen Kunden ist. Die Risikowerte der Kunden sind farblich hinterlegt, um so einen schnellen Überblick zu ermöglichen [Mön06, S. 98] (siehe Abb. 10.10).
zeigt wird. Dieser kann nun die vorgenommenen Veränderungen auf Basis der Bewertung des Systems übernehmen oder verwerfen. Gleichzeitig verhindert das System, dass durch die Interaktion des Benutzers versehentlich ungültige Lösungen (z. B. durch Überschreitung von Lademengen) generiert werden. Die weiteren Schritte (Überwachen der Entscheidungsausführung, Kontrollieren der Entscheidungsausführung) werden durch das Assistenzsystem nicht unterstützt.
Abb. 10.10 Darstellung der Lösung einer VRP-Instanz
260
10.3.4.3
D. Blutner et al.
Einordnung in den konzeptionellen Rahmen
Art der Entscheidungsunterstützung Das Assistenzsystem unterstützt den Disponenten bei der Erzeugung und Bewertung von Tourenplänen im Rahmen der Transportplanung. Unterstützungsgrad/Aufgabenverteilung zwischen Mensch und Maschine Abbildung 10.11 zeigt die Arbeitsteilung bei der Tourenplanung. Einsatzzweck Das Assistenzsystem dient der taktischen Planung und Disposition. Neben der Unterstützung beim Bestimmen eines möglichst guten Tourenplans kann das System auch für folgende Aufgaben eingesetzt werden: • Bewertung von Servicelevel-Kosten. • In der logistischen Praxis werden komplexe Lieferaufträge vollständig an externe Dienstleister (Speditionen) ausgelagert. Eine Spedition kann unter Einsatz des Tools in Zusammenarbeit mit dem Kunden verschiedene Risikolevel definieren
Rechner Erzeugen und Aufbereiten von Informationen Erzeugen von Alternativen
Bewerten von Alternativen
Auswählen von Alternativen
Überwachen der Entscheidungsausführung Kontrollieren der Entscheidungsausführung
Verteilt
Mensch
Erzeugen und Aufbereitung von Informationen bezüglich Kosten und Risiko einer Lösung. Das Erzeugen alternativer Tourenpläne erfolgt durch ein multikriterielles Optimierungstool.
Manuelle Modifikationen von Lösungen durch den Mensch möglich, der Rechner verhindert jedoch das Erzeugen von fehlerhaften Lösungen. . Das Assistenzsystem bewertet die Pläne hinsichtlich Kosten und Risiko; der Mensch bewertet die Einhaltung gesetzlicher Regelungen (Lenk- und Ruhezeiten). Der Rechner trifft eine Vorauswahl unter den Gestaltungsalternativen. Die endgültige Auswahl eines Tourenplanes erfolgt durch den Disponenten. Diese Aufgabe wird nicht durch das Assistenzsystem unterstützt.
Diese Aufgabe wird nicht durch das Assistenzsystem unterstützt.
Abb. 10.11 Arbeitsteilung zwischen Mensch und Maschine bei der Tourenplanung
10 Assistenzsysteme für die Entscheidungsunterstützung
• •
• •
261
und Kostenvoranschläge je Risikostufe erstellen. Dem Kunden bleibt dann die Entscheidung überlassen, welches Risikolevel realisiert werden soll. Eingrenzung von Belieferungs-Zeitfenstern. Bei Vorgabe einer maximalen Versagenswahrscheinlichkeit lassen sich die Zeitfenster für die Kundenbelieferung stark einschränken. Der Kunde bekommt somit eine präzisere Aussage, wann die Anlieferung erfolgen wird. Dies ermöglicht eine bessere Einplanung auf Kundenseite und erhöht insofern das Serviceempfinden. Standortplanung. Bei der Errichtung von Umschlagplätzen stellte sich die Frage nach einer möglichst optimalen geographischen Positionierung. Durch die Verwendung des Tools können verschiedene Standorte auf der Basis von empirischen Daten miteinander verglichen werden. Für jeden Standort kann der Kosten/Risiko-Tradeoff für repräsentative Belieferungen visualisiert werden. Diese Darstellung ermöglicht eine objektive Bewertung der Alternativen.
Qualität und Quantität der Entscheidung Das Assistenzsystem ermöglicht dem Disponenten eine schnelle Bestimmung und Bewertung guter Tourenplänen bei der täglichen Planung. Hierbei werden komplexe Tourenpläne mit vielen Kunden, Aufträgen und Ressourcen (Fahrer und Fahrzeuge) unter Berücksichtigung von praxisrelevanten Randbedingungen, wie z. B. Zeitfenstern oder Fahrverboten, betrachtet. Qualitativ bietet das Assistenzsystem dem Benutzer eine visuelle Unterstützung bei der Lösungsauswahl. Weiterhin wird durch ein interaktives Zusammenspiel zwischen Benutzer und System die manuelle Modifikation von Tourenplänen unterstützt.
10.3.5
Rohstoffbeschaffung
10.3.5.1
Systembeschreibung
Die internationale Rohstoffverknappung, die steigenden Frachtraumkosten von Überseetransporten und ein verstärktes Kooperationsbestreben haben zwei deutsche Stahlkonzerne veranlasst, ein gemeinsam zu nutzendes Assistenzsystem für die Rohstoffbeschaffung (hauptsächlich Eisenerz und Koks) für die Roheisenerzeugung zu entwickeln. Der Bezug der Rohstoffe unterliegt einer hohen Komplexität, da die Anzahl der beteiligten Partner hoch ist und sich die Zusammenarbeit recht unterschiedlich gestaltet. Vor Einführung des Assistenzsystems wurden die erforderlichen Daten zur Abwicklung der Beschaffungsprozesse in weiten Teilen dezentral in den beteiligten Organisationseinheiten autonom bearbeitet, vorgehalten und oftmals nur im Rahmen von Teamsitzungen mündlich bzw. in Form von Tischvorlagen ausgetauscht. Ein durchgängiger Zugriff auf die gesamten Daten der Beschaffungskette war so nicht möglich. Daher wurde ein webbasiertes Assistenzsystem entwickelt, welches die beteiligten Organisationseinheiten bei den folgenden Hauptaufgaben unterstützt:
262
D. Blutner et al.
• Bereitstellung von Informationen über aktuelle Zulaufmengen auf die Seelöschhäfen, Bestandshöhen in den Lagern und das aktuelle Produktionsprogramm mit seinen Rohstoffbedarfen. • Mengendisposition (Erze und Brennstoffe), Einsatzplanung der See- und Binnenschiffe, Modifizierung der Einsatz- und Abrufmengen (Erze und Brennstoff) je Stoff und Zeitraum. • Dokumentation und Verfolgung verschiedener Planungsstatus sowie Abgleich mit der späteren Umsetzung. • Frühwarnsystem, das die Mitarbeiter über alle Abweichungen informiert. Eine wichtige Komponente des Assistenzsystems ist ein Simulator, der zur detaillierten Gegenüberstellung und Bewertung der generierten Planungsvarianten (bspw. Beschaffungsjahresplanung durch verschiedene Anwender oder Anwendergruppen) und zur Untersuchung langfristiger strategischer Aspekte dient. Abbildung 10.12 zeigt die Umsetzung des Umschlaglagers im Umschlagterminal in das Simulationsmodell. Das im Simulator abgebildete Modell kann bezüglich der Anzahl und der spezifischen Eigenschaften der folgenden Komponenten konfiguriert werden: • • • • •
Verlade- und Loschhäfen, Umschlaglager, Transportmittel und Transportrelationen, Rohstoffe, beteiligte Partner.
Die Systemlast des Simulators stellen die in der Planungskomponente definierten Bedarfsmengen und Sorten der Einsatzstoffe einer Planungsvariante dar. Unter Beachtung der Ausgangssituation werden vom Simulator in einem ersten Schritt die Seeschiffe disponiert. Dabei werden die zur Verladung verfügbaren Materialsorten
Abb. 10.12 Abbildung des Umschlaglagers im Simulator
10 Assistenzsysteme für die Entscheidungsunterstützung
263
in bestandsoptimalem Verhältnis auf den Transporten gebündelt. Dieser „Zulauf“ wird vor der eigentlichen Simulation dem Anwender zur freien Variation wieder bereitgestellt. Während der nachfolgenden Laufzeit werden die sich einstellenden Prozesse detailliert simuliert. Dabei werden bspw. die zur Materiallagerung notwendigen Flächen über die geometrische Form der entstehenden Schüttguthalden berechnet, ebenso wie die notwendigen Binnentransporte auf dem Detailniveau wasserstandsabhängiger dynamischer Kapazitätsvergaben disponiert werden. Die Ergebnisse der Simulation werden in einer vom Anwender definierbaren aufbereiteten Form (Grafiken, Tabellen, Reports, etc.) bereitgestellt.
10.3.5.2
Einordnung in den konzeptionellen Rahmen
Art der Entscheidungsunterstützung Das Assistenzsystem für die Rohstoffbeschaffung unterstützt die Anwender in sehr hohem Maße bei der Erzeugung und Aufbereitung von Informationen bezüglich des aktuellen und geplanten Rohstoffbedarfs sowie bei geplanten Rohstoffzugängen am Umschlagslager und bei den Stahlwerken. Hierbei werden Informationen aus einer Vielzahl unterschiedlicher Systeme gesammelt und für die weitere Nutzung aufbereitet. Das Assistenzsystem unterstützt die Erzeugung von Alternativen durch Speicherung von „Rezepten“ für die Roheisenerzeugung und dem dadurch gegebenen Bedarf für Erze und Brennstoffe. Die Auswahl dieser Rezepte obliegt jedoch den Disponenten. Entsprechend einer auf Monatsraten basierenden Verteilung werden vom Assistenzsystem somit Transportbedarfe für Erze und Brennstoffe ermittelt. Diese Pläne (Verbrauchs- und Transportplan) werden im nächsten Schritt durch das Assistenzsystem hinsichtlich der technischen Machbarkeit – insbesondere wird hier die Lager- und Umschlagkapazität des Umschlaglagers berücksichtigt – und der Wirtschaftlichkeit bewertet. Die Unterstützung der Bewertung von Alternativen ist somit sehr hoch. Unterstützungsgrad/Aufgabenverteilung zwischen Mensch und Maschine Bei der systemgestützten Integration der dezentral erstellten Pläne in einen Gesamtplan können von den Benutzern unterschiedliche Planungsszenarien erzeugt werden, die dann durch das System bewertet werden. Die Entscheidung für ein Szenario erfolgt ausschließlich durch die Anwender. Entsprechendes gilt für Entscheidungen im Betrieb bezüglich der Störungsbeseitigung bzw. Anpassung der Disposition. Einsatzzweck Das System dient der kurzfristigen Planung und Disposition (Verbrauchsplanung für die nächsten 3 Monate) bei der Rohstoffbeschaffung. Qualität und Quantität der Entscheidung Das System leistet eine Unterstützung in der Umsetzung von Planungsvergaben aus der Jahresplanung sowie von bestehenden Kontrakten mit Rohstofflieferanten in einen machbaren kurzfristigen Verbrauchsplan. Die mit dem Assistenzsystem erstellten Pläne berücksichtigen hierbei, neben Kostenfaktoren für Transport und Lagerung, auch die Verfügbarkeit knapper Ressourcen: Schiffe für den Seetransport, Lager- und Umschlagkapazität
264
D. Blutner et al.
im Terminal sowie Binnenschiffe für den Transport von den Umschlaghäfen zum Stahlwerk. Das System wird bei der Planerzeugung durch mehrere Benutzer sehr intensiv genutzt. Die Benutzer benötigen oft mehrere Tage, in denen sie unterschiedliche Planvarianten erstellen, vom System bewerten lassen um sie dann wieder zu verändern. Weiterhin wird der erzeugte Beschaffungsplan rollierend aktualisiert und für die nächsten Wochen täglich aktualisiert. Die Unterstützung der operativen Prozesse durch die Warnkomponente (Alertsystem) erfolgt ständig während des Betriebs.
10.3.6
Ressourcenplanung von Güterverkehrszentren
10.3.6.1
Einsatzfeld des Assistenzsystems
Eine Lösung der durch die Zunahme des Verkehrs im europäischen Raum auftretenden Verkehrsprobleme verspricht das Konzept des Güterverkehrszentrums (GVZ), welches durch die Bündelung von Güterströmen zur Verkehrsreduzierung und -vermeidung beitragen kann. Ein GVZ bildet die Schnittstelle sowohl für Schiene und Straße als auch für Güterfern- und Nahverkehr.
10.3.6.2
Systembeschreibung
Das Assistenzsystem unterstützt einen Planer in Form eines Generalunternehmers oder einer GVZ-Entwicklungsgesellschaft sowohl bei der Neuplanung eines GVZ als auch bei der Restrukturierung bestehender GVZ hinsichtlich Ressourcendimensionierung und Ressourcenauswahl. Das Assistenzsystem zur Ressourcenplanung eines Güterverkehrszentrums bezweckt die Bestimmung von leistungsfähigen und wirtschaftlichen Layout- und Betriebsparametern. Ziel ist es, Planungsszenarien für günstige Kombinationen und Dimensionierungen der Betriebsmittel zu finden sowie Auswirkungen von Änderungen der Systemlast vergleichend zu bewerten. Die bei einem Güterverkehrszentrum auftretenden Aufgaben lassen sich aufgrund der Komplexität und Dynamik des Systems nur mit speziellen Planungs- und Steuerungsmethoden lösen. Die Materialflusssimulation ist eine Methode, die es erlaubt, komplexe dynamische Systeme zu analysieren und zu bewerten. Bei dieser Methode wird mittels einer Simulationssoftware ein auf die Aufgabe angepasstes Simulationsmodell erstellt. Dieses Modell ermöglicht die Durchführung von Experimenten, indem Modellparameter variiert werden. Das Simulationsmodell mit der Simulatorsoftware zur Durchführung der Simulationsexperimente ist somit ein Assistenzsystem. Für die Ressourcenplanung von GVZ wurde mit dem im SFB 559 entwickelten Simulator ProC/B [Tep04] ein entsprechendes Assistenzsystem geschaffen (siehe Abb. 10.13).
10 Assistenzsysteme für die Entscheidungsunterstützung
265
Abb. 10.13 Screenshot Proc/B-Modell – inhärentes Prozesswissen
Das Assistenzsystem für Ressourcenplanung eines GVZ dient folgenden Zwecken: • • • •
Bestimmung der Auftragsdurchlaufzeit, Dimensionierung der GVZ-Ressourcen, Bestimmung von kritischen Zeitpunkten in GVZ-Prozessen, Bestimmung der Tagesgangkennlinien der Ressourcen.
Mit dem Assistenzsystem kann ein Planer den aktuellen Systemzustand eines GVZ abbilden und die Reaktion auf eine veränderte Systemlast bewerten oder die Auswirkung von veränderten Prozessen und Ressourcendimensionierungen für eine gegebene Systemlast untersuchen. Untersuchungsziele bei Änderung von Parametern und Systemlasten ermöglichen: • Aussagen zur Funktionalität der Technik und der Systemorganisation. • Aussagen zum Vergleich technischer und organisatorischer Alternativen verschiedener Systementwürfe während der Planungs- und Systemfindungsphase. • Aussagen zur Ermittlung von Leistungsgrenzen bei bestehenden Systemen mit bekannter Ressourcenkonfiguration und • Aussagen allgemeiner Natur über typische Systemstrukturen bei Variation sowohl der Systemlast als auch der Systemkonfiguration.
10.3.6.3
Einordnung in den konzeptionellen Rahmen
Art der Entscheidungsunterstützung Durch das inhärente Prozesswissen und den Aufbau des Modells (Strategien, Prozessfolgen, Prioritätsregeln und Prozessalternativen) werden Informationen aufbereitet und für den Entscheidungspro-
266
D. Blutner et al.
zess bezüglich der Gestaltung eines GVZ bereitgestellt. Dabei wird der Anwender bei der Generierung der Systemlast und bei der Konfektionierung des Systems im Modell unterstützt. Es findet lediglich die Dimensionierung einzelner Ressourcen und die Festlegung des Routing statt. Die Generierung der Daten für die Simulationsexperimente übernimmt das Assistenzsystem. Unterstützungsgrad/Aufgabenverteilung zwischen Mensch und Maschine Das Assistenzsystem unterstützt den Anwender beim Erzeugen, Bewerten und Auswählen von Alternativen über die Bestimmung von Kennzahlen (vgl. Abb. 10.14). Das Erzeugen und Aufbereiten von Informationen erfolgt dabei insofern verteilt zwischen Rechner und Mensch, als dass der Mensch Eingangsdaten in Form von Parametern in das Assistenzsystem einspeist und die Systemkonfiguration übernimmt. Der Rechner bereitet die Daten für die Simulationsläufe auf. Als Ergebnisse der Simulationsläufe entstehen Alternativen von Systemkonfigurationen, aus denen der Anwender gemäß seiner Zielformulierungen auswählt. Hinsichtlich der Umsetzung der Entscheidung kann das Simulationstool keine Hilfestellung leisten, da die kreative Gestaltung des Systems sowie die Realisierung in der Hand des Anwenders liegen. Eine Überwachung der Entscheidungsausfüh-
Rechner Erzeugen und Aufbereiten von Informationen
Erzeugen von Alternativen
Bewerten von Alternativen
Auswählen von Alternativen
Überwachen der Entscheidungsausführung Kontrollieren der Entscheidungsausführung
Verteilt
Mensch
Der Anwender konfiguriert rechnergestützt das System und gibt den Rahmen der Eingangsdaten vor, der Rechner generiert die Systemlast. Der Rechner erzeugt gemäß der Modelllogik und dem Experimentierplan das Simulationsergebnis. Der Anwender bewertet das Simulationsergebnis. Der Anwender wählt ein Szenario gemäß seiner Ziele aus. Diese Aufgabe wird von einem anderen AS unterstützt.
Diese Aufgabe wird von einem anderen AS unterstützt.
Abb. 10.14 Beispiele für die Arbeitsteilung zwischen Mensch und Maschine bei der Ressourcenplanung von Güterverkehrszentren
10 Assistenzsysteme für die Entscheidungsunterstützung
267
rung und das Kontrollieren werden von anderen bereits bekannten Systemen übernommen, die nicht Teil des beschriebenen Assistenzsystems sind. Einsatzzweck Das Assistenzsystem zur Ressourcenplanung von GVZ wird zur Bestimmung wechselseitiger Abhängigkeiten von Durchlaufzeit, Kosten und Dimensionierung von Ressourcen, zur Bestimmung der auf die Leistungsfähigkeit und Wirtschaftlichkeit Einfluss nehmenden Layout- und Betriebsparameter sowie zur Quantifizierung des Einflusses von Steuerungsstrategien auf die betrachteten Kennzahlen eingesetzt. Qualität und Quantität der Entscheidung Die Anwendung des Assistenzsystems zur Ressourcenplanung von GVZ kann quantitativ die Bewertung von Ressourcenund Prozessvarianten bei wechselnden Systemlasten unterstützen und Optimierungspotential hinsichtlich der Ressourcendimensionierung bei wechselnder oder statischer Systemlast aufzeigen. Die Qualität der Entscheidung, liegt in der Unterstützung bei der Gestaltung und Stabilisierung eines Güterverkehrszentrums, da relevante Parameter im Vorfeld bestimmt und bewertet werden können. Zudem lassen sich bei der Bewertung von Planungsvarianten mögliche Konsequenzen menschlichen Entscheidungsverhaltens identifizieren, so dass noch in der Planungsphase Änderungen der Systemkonfiguration vorgenommen werden können.
10.4
Fazit und Ausblick
Aus einer vergleichenden Betrachtung der untersuchten Assistenzsysteme gehen folgende, grundlegende Aussagen hervor: • Der Rechner ist in über 80 Prozent der betrachtenden Szenarien an der Erzeugung und Aufbereitung von Informationen beteiligt, • der Mensch ist bei der Alternativenerzeugung immer beteiligt, • die Bewertung von Alternativen wird von beiden „Akteuren“ getragen, • die Auswahl von Alternativen wird nur vom Menschen getroffen. Eine systemseitige Unterstützung im Bereich der Überwachung und Kontrolle von Entscheidungsausführungen konnte nur in einem Fallbeispiel festgestellt werden. Somit lässt sich keine allgemeingültige Aussage bzgl. dieser Unterstützungsfunktion determinieren (vgl. Abb. 10.15). Auf Grundlage des entwickelten, konzeptionellen Rahmens, der auf Befunden der Logistik, der Entscheidungstheorie, der Soziologie und der Informatik beruht, konnte ein Klassifizierungsansatz von Assistenzsystemen für die Entscheidungsunterstützung in der Logistik auf Basis der Analyse von sechs Assistenzsystemen erstellt werden. Die vergleichende Betrachtung zeigt die überwiegende Unterstützung von Assistenzsystemen im Anwendungsfeld der Logistik im Bereich der Aufbereitung von Informationen sowie der Erzeugung von Alternativen. Im Rahmen der Bewertung
Bewerten von Alternativen
Auswählen von Alternativen
Überwachen der Entscheidungsausführung
Kontrollieren der Entscheidungsausführung
Unterstützungsniveau (R/MR/M)
Einsatzzweck
Produktionsprogrammplanung GVZ-Planung Rohstoffbeschaffung Tourenplanung Schiffsführung Beladung von Frachtfahrzeugen
Erzeugen von Alternativen
D. Blutner et al.
Erzeugen und Aufbereiten von Informationen
268
M M/R R R R
M M/R M/R M/R M/R
M/R M M M/R R
M M M M M
-
-
0/1/3 0/2/2 1/1/2 1/2/1 2/1/1
Gestaltung Gestaltung taktisch-operativ taktisch operativ
M/R
M
R
M
R
R
3/1/2 operativ
Legende: R M/R M -
Überwiegend vom Rechner ausgeführt Zwischen Mensch und Rechner verteilt Überwiegend vom Menschen ausgeführt Diese Aufgabe wird nicht durch das Assistentsystem unterstützt
Abb. 10.15 Art der Entscheidungsunterstützung
ist in vielen Beispielen der Rechner am Prozess beteiligt, die Art der Bewertung beschränkt sich jedoch oftmals auf rein quantifizierbare Ergebnisse. Im Kontext von qualitativen Bewertungserfordernissen ist eine Involvierung des Menschen zwingend erforderlich. Zur Überprüfung dieser These wäre eine umfassende Erhebung einer repräsentativen Stichprobe von Assistenzsystemen für die Entscheidungsunterstützung in der Logistik erforderlich. Sollte sich dieser Befund bestätigen, dann erfordert der Einsatz dieser Assistenzsysteme immer ausreichend qualifizierte Anwender. Die notwendigen Kompetenzen des Anwenders werden dabei wahrscheinlich von der jeweiligen logistischen Aufgabe abhängen. Für die Weiterentwicklung von Assistenzsystemen stellt somit die Integration einer Bewertungssystematik von zum einen nicht stringent quantitativ und zum anderen rein qualitativen bewertbare Aspekten den zentralen Forschungsbedarf dar. Die dazu erforderliche Transparenz dieser Bewertungsmaßstäbe ist darüber hinaus eine zusätzliche Herausforderung. Die Entwicklung von Methoden zur Überführung qualitativer Aspekte in quantifizierbare Bewertungsschemen ist ein erster Lösungsansatz der jedoch um eine selektive Risiko- und Fehlerbewertung erweitert werden muss, um subjektive Bewertungseinflüsse und anwenderspezifische Kompetenzunterschiede zu egalisieren. Zur Überprüfung ist eine umfassende Erhebung einer repräsentativen Anzahl von Assistenzsystemen für die Entscheidungsunterstützung in der Logistik erforderlich und könnte in Folge dessen den Forschungsbedarf weiter spezifizieren.
10 Assistenzsysteme für die Entscheidungsunterstützung
269
Literatur [Bec05] Becker (2005) Herr Becker Leiter Operations auf dem EUROGATE-Containerterminal, Bremerhaven in einem vom Autor geführten Interview am 22. September 2005 [BJh97] Bloech J, Jhde GB (Hrsg) (1997) Vahlens großes Logistiklexikon. Beck, München [BSH06] Bundesamt für Seeschifffahrt und Hydrographie (2006) ECDIS. http://www.bsh.de/de/ Produkte/Karten/Elektronische%20Seekarten/356.jsp, Stand 12. Dezember 2006 [Els89] Elster J (1989) Nuts and bolts. University Press, Cambridge [Ess91] Esser H (1991) Alltagshandeln und Verstehen. Zum Verhältnis von erklärender und verstehender Soziologie. J.C.B. Mohr (Paul Siebeck), Tübingen [HGe07] Hellingrath B, Gehr F (2007) Logistik in der Automobilindustrie – Innovatives Supply Chain Management für wettbewerbsfähige Zulieferstrukturen. Springer Verlag, Berlin [HKu02] Hellingrath B, Kuhn A (2002) Supply Chain Management – Optimierte Zusammenarbeit in der Wertschöpfungskette. Springer Verlag, Berlin [Hop02] Hoppe M (2002) Fachstelle der WSV für Verkehrstechniken. Funknavigationstechnik. Grundlagen der Satellitennavigation: http://www.wsv.de/fvt/funknavi/gpsvt_1/gpsvt_1.html, Stand 12. Dezember 2006 [HTi02] Hauss Y, Timpe KP (2002) Automatisierung und Unterstützung im Mensch-MaschineSystem. In: Timpe K-P, Kolrep H (Hrsg) Mensch-Maschine-Systemtechnik. Konzepte, Modellierung, Gestaltung, Evaluation. Symposion Verlag, Düsseldorf, S 41–62 [JAR06] JAR-OPS 1625 (2006) Unterlagen über Masse und Schwerpunktlage. In: Bekanntmachung der Bestimmungen über die gewerbsmäßige Beförderung von Personen und Sachen in Flugzeugen (JAR-OPS 1 deutsch) stammt vom 10. April 2006 (BAnz Nr. 131a vom 15. Juli 2006). www.luftrecht-online/regelwerke/pdf/JAR-PPS1.pdf, Stand 29. November 2006 [JSe03] Jin J, Sendhoff B (2003) Trade-off between performance and robustness: An evolutionary multiobjective approach. EMO, 237–251, Springer-Verlag, Heidelberg [Ker02] Kersandt D (2002) Schiffsführungsprozesse. In: Hansa, Dezember 2002, S 14–18 [Ker05] Kersandt D (2005) NARIDAS: Assistenzsystem zur Erkennung und Abschätzung von Risiken in der Schiffsführung. In: Hansa, Mai 2005. http://www.hansa-online.de/print. asp?artikelID=540, Stand 29. November 2006 [Kuh99] Kuhn A (1999) Prozesskettenmanagement: Erfolgsbeispiele aus der Praxis. Verlag Praxiswissen, Dortmund [KWe02] Kuhn A, Wenzel S (2002) Simulation logistischer Systeme. In Arnold et al (Hrsg) Handbuch der Logistik, Kap A2.4. Springer Verlag, Berlin, S A2.59 [Mae06] Maersk (2006) Maersk Line takes delivery of EMMA MÆRSK – the world’s largest container vessel. http://www.maerskline.com/link/?page=news&path=/news/news20060901, Stand 12. November 2006 [Mön06] Möncks T (2006) Risikomanagement und Kostenoptimierung bei Vehicle Routing Problemen mit hybriden EMOA. Diplomarbeit, Universität Dortmund, Lehrstuhl für Algorithm Engineering, November 2006 [Par00] Parasuraman R et al (2000) A model of types and levels of human interaction with automation. IEEE Trans Syst Man Cybern 30(3):286–297 [Per87] Perrow C (1987) Normale Katastrophen – Die unvermeidlichen Risken der Großtechnik, 1. Aufl. Campus Verlag, New York [Ray06] Raytheon-Anschütz (2006) ARPA radar system NSC 25. http://www.raytheon-marine. de/highseas/pdf/brochures/RadarNSC25NSC34.pdf, Stand 12. Dezember 2006 [RSc02] Rammert W, Schulz-Schaeffer I (2002) Können Maschinen handeln? Soziologische Beiträge zum Verhältnis von Mensch und Technik. Campus, Frankfurt/M. [She88] Sheridan TB(1988) Task allocation and supervisory control. In: Helander M (Hrsg) Handbook of human-computer-interaction. Elesivier Science Publishers, Amsterdam, S 159–177 [SVe78] Sheridan TB, Verplank W (1978) Human and computer control of undersea teleoperators. Man-Machine Systems Laboratory, Department, of Mechanical Engineering, MIT, Cambridge, MA
270
D. Blutner et al.
[Tep04] Tepper C (2004) Prozessablauf-Visualisierung von ProC/B-Modellen. Technical Report – Sonderforschungsbereich 559 „Modellierung großer Netze in der Logistik“, 04003, ISSN 1612-1376 [TJü02] Timpe K-P, Jürgensohn T (2002) Perspektiven der Mensch-Maschine-Systemtechnik. In: Timpe K-P, Kolrep H (Hrsg) Mensch-Maschine-Systemtechnik. Symposion, Düsseldorf, S 337–347 [Wey97] Weyer J (1997) Die Risiken der Automationsarbeit. Mensch-Maschine-Interaktion und Störfallmanagement in hochautomatisierten Verkehrsflugzeugen. In: Zeitschrift für Soziologie 4 (26):239–257 [Wit04] Wittig W (2004) So Kapt. Willi Wittig, Dozent im Fachbereich Nautik der Hochschule Bremen in einem von Autor geführten Interview am 02. September 2004 [ZMM06] Zentrum Mensch-Maschine-Systeme (2006) Technische Universität Berlin. http://www. zmms.tu-berlin.de/de/grafik/NARIDAS_GUI.jpg, Stand 12. Dezember 2006
Kapitel 11
Nutzungsmöglichkeiten der Workbench zur Unterstützung des Planungsprozesses von Güterverkehrszentren Stephan Kessler, Sven Krause und Lars Nagel
11.1
Einleitung
Die effiziente Gestaltung großer Netze der Logistik (GNL) erfordert den Einsatz von umfangreichem Logistik- und Planungswissen. Dieses Wissen wird von unterschiedlichen Akteuren im Rahmen praktischer Erfahrungen und wissenschaftlicher Aktivitäten erarbeitet und bereitgestellt. So beschäftigen sich die Wissenschaftler der Methoden- und Anwendungsprojekte des Sonderforschungsbereiches (SFB) 559 „Modellierung großer Netze in der Logistik“ mit vielfältigen verschiedenen Planungsfragestellungen in logistischen Netzwerken. Um Nutzen stiftend und zielführend einsetzbar zu sein, muss der enorme, verfügbare Fundus an explizitem und implizitem Planungswissen der Logistik jedoch systematisch erfasst, strukturiert und dokumentiert und dem Planer situationsspezifisch bereitgestellt werden. Dabei dürfen Interdependenzen zwischen einzelnen Planungsparametern oder -schritten nicht verloren gehen. Die Intelligenz komplexer Logistiknetzwerke ist schließlich schon in der Planungsphase adäquat zu berücksichtigen. Vor dem Hintergrund dieser Rahmenbedingungen greift der nachfolgende Beitrag die Zusammenarbeit zwischen den Teilprojekten M6 (Konstruktionsregelwerke) und A4 (Netze und Güterverkehrszentren) des SFB 559 auf und beschreibt exemplarisch für den Betrachtungsgegenstand eines logistischen Knotenpunktes „Güterverkehrszentrum“ den Ansatz zur systematischen Aufbereitung und Bereitstellung von Gestaltungswissen im Planungsunterstützungssystem „Workbench“. Der Beitrag lässt sich dabei inhaltlich in drei Teile gliedern: Zunächst wird das von M6 entwickelte Rahmenkonzept zur Modellierung von Planungswissen für die konstruktionsmethodische Logistikgestaltung vorgestellt. Dabei soll auf die vier Säulen dieses ganzheitlichen Gestaltungsansatzes für Planungswissen großer Netze der Logistik eingegangen werden. Es schließt sich L. Nagel ( ) Technische Universität Dortmund Fakultät Maschinenbau, Lehrstuhl für Förder - und Lagerwesen Emil-Figge-Str. 73 44227 Dortmund, Deutschland P. Buchholz und U. Clausen (Hrsg.), Große Netze der Logistik, DOI 10.1007/978-3-540-71048-6_11, © Springer-Verlag Berlin Heidelberg 2009
271
272
S. Kessler et al.
die Vorstellung des von M6 entwickelten internetbasierten Informationssystems „Workbench“ an, welches die systematische Sammlung, Aufbereitung und Recherche von Wissen für den Planungsprozess in großen Netzen der Logistik unterstützt. In diesem Zusammenhang wird auf den realisierten Ansatz zur Wissensstrukturierung durch die Einführung unterschiedlicher Objektklassen eingegangen. Die auf den Potentialklassen des Prozesskettenparadigmas basierende Klasse „Kategoriensystem“ wird als elementar für die Sammlung und Aufbereitung von Informationen in Kombination mit Planungserfahrungen innerhalb des SFB 559 angesehen. Der zweite Teil fokussiert das in den Forschungsarbeiten von A4 betrachtete Planungsobjekt des Güterverkehrszentrums (GVZ). Güterverkehrszentren sind Logistik-Zentren, in denen Güter zwischen unterschiedlichen Verkehrsträgern umgeladen, für Ladungen zusammengestellt und für Transportfahrten vorbereitet werden. An diesem Ort werden unterschiedliche Verkehrsträger insbesondere des Fern- und Nahverkehrs (z. B. Straße, Schiene), Verkehrsunternehmen (Speditionen, Logistikdienstleister), verkehrsergänzende Dienstleistungsbetriebe (Fahrzeugservice, Beratungsdienste) sowie logistikintensive Industrie- und Handelsbetriebe zusammengeführt und vernetzt. Die räumliche Nähe fördert die Zusammenarbeit und Arbeitsteilung der angesiedelten Unternehmen. Im Rahmen dieses Beitrags wird insbesondere auf die einzelnen Phasen des im Teilprojekt A4 entworfenen, spezifischen, prozessorientierten Vorgehensmodells zur Planung dieser komplexen intermodalen Knotenpunkte logistischer Netze eingegangen. Dabei wird schwerpunktmäßig auf die Planung des logistischen Systems GVZ selbst und nicht auf dessen Einbindung in ein übergeordnetes Netzwerk von Knoten abgehoben. Die in Zusammenarbeit der Teilprojekte A4 und M6 realisierte Integration der Forschungsergebnisse zur GVZ-Planung in die Strukturen der „Workbench“ und daraus resultierende Ansätze zur Unterstützung des Planungsprozesses von GVZ sind Gegenstand des dritten Teils des Beitrags. Darin werden nach einer überblickgleichen Erläuterung der Forschungsergebnisse aus dem Teilprojekt A4 zunächst die Zusammenhänge zwischen dem spezifischen Vorgehensmodell zur GVZ-Planung und dem prozessorientierten Vorgehensmodell zur Lösung von Planungsaufgaben in großen Netzen der Logistik (GNL) aufgezeigt. Anschließend werden die Ablage der Wissensbausteine zur GVZ-Planung in der „Workbench“ exemplarisch erläutert und Nutzenpotenziale dieses Vorgehens für zukünftige Planungssituationen herausgestellt. Die dargestellte Zusammenarbeit verdeutlicht somit repräsentativ mögliche Nutzungs- und Anwendungsszenarien der Ergebnisse beider Teilprojekte.
11.2
Rahmenkonzept zur Modellierung von Planungswissen
Das Ziel der Entwicklungsarbeiten im Sonderforschungsbereich 559 ist die Bereitstellung von neuen Theorien zum Verständnis und zur Planung von Strukturen und Abläufen in großen logistischen Netzen. Aufgabe des Teilprojektes M6 „Konstruktionsregelwerke“ ist es, die strukturierte, wieder verwendbare Dokumentation und das
11 Nutzungsmöglichkeiten der Workbench zur Unterstützung des Abb. 11.1 Ganzheitlicher Gestaltungsansatz für Planungswissen großer Netze der Logistik
273
Meta-Modell
Gestaltungsprozesse
Lösungs effekte
Gestaltungsobjekte
Gestaltungsregeln
gezielte Wiederauffinden des neu generierten Planungswissens der 14 Methoden- und Anwendungsprojekte sicherzustellen. Diese Wissensbasis soll genutzt werden, um – ähnlich zum Vorgehen der Konstruktionsmethodik (vgl. auch [VDI93]) – Regelwerke für die Planung logistischer Systeme abzuleiten. Ausgangspunkt dafür bildet der ganzheitliche Gestaltungsansatz für Planungswissen GNL (vgl. Abb. 11.1). Dieser Ansatz stellt den Ordnungsrahmen dar, der eine Vorstrukturierung aller zu berücksichtigen Komponenten vornimmt. Es kommt ihm dabei die Aufgabe zu, die Forschungsergebnisse zusammenzufassen und darüber hinausgehenden Arbeiten Bezugspunkte bereitzustellen, aber auch die Möglichkeit zu eröffnen, bereits vorhandenes Wissen in Bezug auf die Planung von großen Netzen der Logistik zu integrieren. Die Grundstruktur des Gestaltungsansatzes wird durch die vier Hauptkomponenten Meta-Modell, Gestaltungsprozesse, Gestaltungsobjekte und Gestaltungsregeln aufgespannt. Sie üben unterschiedliche Funktionen aus, die im Folgenden erläutert werden (vgl. [Laa05, Laa02]). Die Komponente Gestaltungsprozesse bildet anhand eines allgemeingültigen Vorgehensmodells das Planungsvorgehen zur Gestaltung logistischer Systeme ab. Dazu ist zunächst eine Referenz-Vorgehensweise zur prozessorientierten Lösung von Planungsaufgaben in GNL konzipiert worden (vgl. nachfolgendes Kapitel), mit deren Hilfe wesentliche Ergebnisse und Entwicklungen in einem DV-gestützten Softwaresystem, der „Workbench“, zu einem schlüssigen Ganzen verdichtet werden können (vgl. [LRS+03]). Die modellierten Gestaltungsprozesse orientieren sich an unterschiedlichen Aufgabenstellungen, Anwendungsgebieten und Detaillierungsgraden. Die Komponente Gestaltungsobjekte umfasst alle Elemente, die aktuelle oder zukünftige Planungen definieren. In Anlehnung an das verwendete Meta-Modell werden in dieser Komponente neben dem Gegenstandsbereich der Planung (Planungsobjekt) insbesondere die Potentialklassen des Parameters Ressourcen subsumiert. In Analogie zur Konstruktionsmethodik werden diese Objekte auch als Konstruktionselemente bezeichnet (vgl. [BKL98]).
274
S. Kessler et al.
In Erweiterung dieser beiden Hauptkomponenten wurde die dritte Hauptkomponente Gestaltungsregeln in dem Modell verankert. Mit den Gestaltungsregeln wird dasjenige Gestaltungswissen erfasst, das dem Planer in der jeweiligen Planungsphase Auskunft darüber gibt, welche Gestaltungsmethoden auf welche Weise bei spezifischen Gestaltungsproblemen zu verwenden sind. Hiermit wird eine Verbindung zwischen Gestaltungsobjekten und Gestaltungsprozessen geschaffen. Mit der Trennung der Gestaltungsregeln vom Gestaltungsprozess und den Gestaltungsobjekten wird dem Aspekt der Wiederverwendung von Gestaltungsregeln Rechnung getragen, so dass gleiche oder ähnliche Gestaltungsregeln in vergleichbaren Planungssituationen aber unterschiedlichen Anwendungsfeldern oder umgekehrt zur Anwendung kommen können. In einer vierten Hauptkomponente beinhaltet das Meta-Modell grundsätzliche Festlegungen zum verwendeten Modellierungsparadigma. Mit Meta-Modellen werden die Zusammenhänge zwischen verbalen und formalen Beschreibungs-, Erklärungs- und Entscheidungsmodellen beschrieben. Das in der obigen Abbildung an zentraler Stelle angeordnete Prozesskettenelement deutet an, dass sich der von Teilprojekt M6 entwickelte Gestaltungsansatz auf das Prozesskettenmodell beruft und es zur Modellierungsgrundlage für die Komponenten macht. Das Prozesskettenmodell liefert Hilfestellung insbesondere bei der Modellierung von Gestaltungsobjekten wie auch Gestaltungsprozessen. Das Basisobjekt des Prozesskettenparadigmas ist das Prozesskettenelement, das sich durch die fünf Parameter Prozesse, Lenkung, Ressourcen, Strukturen sowie Quelle/Senke beschreiben lässt (vgl. [Kuh95]). Es bietet einen durchgehenden und integrierenden Problemlösungsansatz, um trotz der Komplexität von vernetzten logistischen Prozessen einen durchgehenden Material- und Informationsfluss zu gewährleisten. Mit ihm existiert ein hierarchisches, aus selbst-ähnlichen Bausteinen aufgebautes, unternehmensinterne und -externe Aspekte berücksichtigendes Modell für Logistiksysteme. Da die im vorgestellten ganzheitlichen Gestaltungsansatz für Planungswissen in großen Netzen der Logistik der Komponente Gestaltungsprozesse zuzuordnende Vorgehensweise zur prozessorientierten Logistikplanung den Ausgangspunkt für die Integration des von Teilprojekt A4 entwickelten allgemeingültigen Planungsvorgehens für GVZ bildet, wird sie nachfolgend genauer vorgestellt.
11.3
Referenz-Vorgehensweise zur Lösung von Planungsaufgaben in GNL
Die Prozessorientierung, als dominierende Sichtweise zur Analyse und Optimierung sämtlicher Unternehmensabläufe, hat auch die Planung logistischer Systeme beeinflusst und viele der funktionsorientierten Vorgehensmodelle abgelöst. Aus dieser Motivation heraus wurde im Laufe der Forschungsarbeiten festgestellt, dass die bisherigen sequentiellen Vorgehensweisen für die Planung komplexer logistischer Systeme nicht hinreichend sind. Auch die sukzessive Planung der Steuerung logistischer Systeme wurde als nicht mehr zeitgemäß identifiziert. Als ein Ergebnis aus dieser Forschungsaufgabe wurde ein neues „Vorgehensmodell zur prozess-
11 Nutzungsmöglichkeiten der Workbench zur Unterstützung des
275
orientierten Logistikplanung“ aus dem Prozesskettenparadigma abgeleitet (vgl. auch [KBe06, KSB07]). Eine Grundlage dieses Modells bildet die Klassifizierung der bedeutendsten Unternehmensprozesse, die aus Geschäftsprozessen (Auftragsdurchlauf), Informationsflussprozessen, Planungsprozessen, Materialflussprozessen sowie aus Prozessen, die zwischen Unternehmen oder teilautonomen Unternehmensbereichen ablaufen (Kooperationsprozesse), bestehen. Kooperationsprozesse können als eine Kunden-Lieferanten-Beziehung charakterisiert werden, unabhängig davon, ob diese innerhalb eines Unternehmens oder zwischen Unternehmen stattfinden. Bei den Planungsprozessen, um die es nachfolgend im Wesentlichen geht, wird zwischen dispositiven und gestaltenden Prozessen differenziert. Mit dispositiven Planungsprozessen sind z. B. Planungsaktivitäten wie Kapazitäts-, Belegungsoder Reihenfolgenplanung gemeint. Unter gestaltender Planung werden hingegen die Planungsaktivitäten verstanden, die sich mit Struktur- und Ressourcenplanung umschreiben lassen, wie zum Beispiel die Neugestaltung einer Anordnungsstruktur. Für diese Differenzierung werden auch die Begrifflichkeiten „statische“ und „dynamische“ Planung logistischer Systeme verwendet. Planungsprozesse sind ein Bestandteil aller Planungsvorgehensmodelle. Die Forschungsergebnisse haben gezeigt, dass der Versuch, eine Planungsaufgabe wiederverwendbar zu dokumentieren, noch weitere Klassifizierungsmerkmale erfordert. Eine vollständige Darstellung einer Planungsaufgabe erfolgt daher in einer ersten hierarchischen Untergliederung in Planungsteilaufgaben und darauf basierend in Planungsschritten. Des Weiteren wird ein Planungsprozess auch durch die weiteren Klassifizierungsmerkmale Planungsobjekt, Planungsphase und Planungsebene beschrieben (vgl. Abb. 11.2, vgl. ähnlich [SWi04]). Während das Planungsobjekt den Gegenstandsbereich der Planung beschreibt, unterscheidet die Planungsphase den zeitlichen Bereich des logistischen Systems
Planungsaufgabe
Planungsteilaufgabe
Planungsschritt
Planungsobjekt
GVZ Planung
Layoutplanung
Strukturplanung
Situationsanalyse
Zielformulierung Variantenentwurf
Groblayoutplanung
Feinlayoutplanung
Planungsphase (n)
Abb. 11.2 Strukturierung von Planungsprozessen (beispielhafte Darstellung im Rahmen einer GVZ-Planung)
276
S. Kessler et al.
in seinem Lebenszyklus. Dabei kann es sich um die Entwicklung, den Aufbau, den Anlauf, den Betrieb oder den Umbau eines logistischen Systems handeln. Unter Umbau wird sowohl die Erweiterung als auch die Reduzierung und der vollständige Rückbau eines Systems verstanden. Ein letztes Merkmal, die Planungsebene, beschreibt hingegen die Granularität des betrachteten Planungsobjektes in Bezug auf logistische Netzwerke. Hinsichtlich dieses Kriteriums lassen sich bei der Planung logistischer Systeme drei Ausprägungen identifizieren: die System-, die Standortsowie die Netzwerkebene. Die Systemebene beschreibt z. B. einen Bereich oder Arbeitsplatz, während die Standortebene alle Aktivitäten an einer Lokalität zusammenfasst. Die Netzwerkebene beschreibt die Verbindung bzw. Vernetzung von mehreren Lokalitäten. Durch die genaue Klassifizierung nach den dargestellten Merkmalen lassen sich nun Planungsaufgaben strukturiert ablegen und parametrieren und sind somit unter dem Aspekt der Wiederverwendbarkeit besser dokumentierbar. Weitere Bestrebungen zur Ableitung von Konstruktionsbausteinen der Logistikplanung sind damit möglich (vgl. [Laa05, LHW02]). Basierend auf der dargestellten Beschreibung eines einzelnen Planungsprozesses sowie dem Prozesskettenmodell als ganzheitlicher Beschreibungsansatz für komplexe logistische Systeme (vgl. Abb. 11.3) lässt sich ein prozessorientiertes Vorgehensmodell für die Planung logistischer Systeme herleiten. Für das Vorgehensmodell gilt, dass jeder Prozess bzw. jede Prozesskette immer in einer Phase und bezogen auf ein Planungsobjekt sowie eine damit einhergehende Planungsebene definiert ist. In den folgenden Abschnitten werden die jeweiligen Planungsschritte genauer beschrieben. Eine prozessorientierte Planungsvorgehensweise beginnt grundsätzlich mit der Identifikation der Systemlast. Diese Systemlast ist die Transformationsleistung, die das System an den durchlaufenden Leistungsobjekten erbringen muss. Diese
6
1
Normative Administration Dispositive Netzwerk Steuerung Lenkungsebenen
Senken Prozessstrukturen Prozessstrukturen Quellen
Quelle
2
Strukturen Strukturen Ablaufstruktur
Anordnungsstruktur Aufbauorganisation Kommunikationsstruktur
3
Senke
Prozesse
5
Ressourcen
Personal Personal Flächen Flächen Bestand Bestand Arbeitsmittel Arbeitsmittel Hilfsmittel Hilfsmittel Organisationsmittel Finanzmittel Wissen/ Information
4
1
Systemlasten an Quelle und Senke bestimmen
2
Prozesse bestimmen/ Prozessplanung (Ablaufstruktur)
3
Aufbaustrukturplanung
4
Ressourcenplanung (Auswahl, Anzahl, Dimensionierung)
5
Anordnungsstrukturplanung
6
Planung der Lenkung und der Kommunikation
Abb. 11.3 Prozessorientiertes Vorgehen zur modellgestützten Planung logistischer Systeme
11 Nutzungsmöglichkeiten der Workbench zur Unterstützung des
277
Leistungsobjekte werden in temporäre und permanente Leistungsobjekte unterschieden. Während die temporären Leistungsobjekte das System durchlaufen und daher nur zeitlich begrenzt betrachtet werden (Durchlaufzeit), sind permanente Leistungsobjekte ständig innerhalb von definierten Systemgrenzen vorhanden. Die Eingangs- und Ausgangsgrößen der Leistungsobjekte eines Systems werden mittels Quellen und Senken modelliert. Damit wird gleichzeitig auch der Betrachtungsbzw. Bearbeitungsrahmen festgelegt. Die Senken werden z. B. durch die Kundenanforderungen dargestellt. Die Quellen bilden, in Analogie zu den Senken, die geplante Nachfrage an die Zulieferer ab. Um die bestimmte Systemlast bewältigen zu können, wird im Rahmen der Prozessplanung die genaue Bestimmung aller notwendigen Prozesse vorgenommen. Dabei werden zunächst nur die Nutzprozesse und die unvermeidbaren Stützprozesse festgelegt (vgl. [WQu97]). Im Falle einer Reorganisation kommt dieser Planungsschritt einer idealen Ablaufplanung gleich. Durch den ergänzenden Vergleich mit einem Ist-Zustand werden Schwachstellen ermittelt und als Blind- und Fehlprozesse gekennzeichnet [WQu97, KLS02]. Die Klassifizierung der Prozesse erfolgt nach der Beurteilung, wie viel Kundennutzen ein Prozess in Relation zu seinem Ressourcenverbrauch erzielt. Der Kundennutzen lässt sich beispielsweise mit den Kennzahlen Termintreue und Durchlaufzeit bewerten, wohingegen der Ressourcenverbrauch logistischer Systeme durch die Auslastung der Kapazitäten und die Höhe der Bestände bewertbar ist [WQu97]. Aus dem Ergebnis dieses Soll-Ist-Vergleiches werden Optimierungspotentiale abgeleitet und durch eine Modulation der bestehenden Abläufe realisiert [Pie95]. Das Ergebnis dieses Planungsschrittes wird in Prozessplänen dokumentiert, die bereits eine erste Bewertung über Kennzahlen (z. B. Kosten, Durchlaufzeiten) erlauben, meist durch Kumulierung entlang der Prozesskette. Im Anschluss an die Prozessplanung wird der Planungsschritt der Aufbaustrukturplanung durchgeführt. Innerhalb der Planung der Aufbaustruktur ist es zum Ziel gesetzt, effiziente Organisationsstrukturen zu gestalten bzw. die Festlegung von Verantwortungsübergängen vorzunehmen. Dazu wird die Ablaufstruktur aus der Prozessplanung in entsprechende Systeme, Teilsysteme oder Organisationseinheiten strukturiert. Die vertikale Segmentierung nach Wildemann (vgl. [Wil98]) ist ein Verfahren für die Ableitung einer prozessorientierten Aufbaustruktur. Je nach Planungsebene (System, Standort oder Netzwerk) sind die Strukturierungskriterien und -ziele unterschiedlich. Deshalb müssen die Kriterien und Ziele dem Detaillierungsgrad der Prozesse und der Leistungsobjekte in der jeweiligen Ebene angepasst werden. Es ist jedoch möglich, dass Systeme in unterschiedlichen Ebenen ähnliche Planungsergebnisse erzielen, d. h. ähnliche Strukturen aufweisen. Daher hat sich z. B. in der Fabrikplanung bei den Ansätzen der „Fabrik in der Fabrik“ oder bei der „Fraktalen Fabrik“ der Begriff der „Selbstähnlichkeit“ von Strukturen etabliert (vgl. [Wil98, War95]). Diese lässt sich auch auf das Vorgehen der Planung übertragen (vgl. [Küh00]). Im Anschluss erfolgt die Ressourcenplanung, die nur nach der Feststellung (Überprüfung oder Neufestlegung) der Ergebnisse der Prozess- und der Aufbaustrukturplanung sinnvoll durchgeführt werden kann. Unter Ressourcen werden die
278
S. Kessler et al.
so genannten „knappen Betriebsmittel der Logistik“ verstanden [Kuh95]: Flächen, Bestände, Arbeitsmittel, Arbeitshilfsmittel, Organisationsmittel und das Personal. In begründeten Einzelfällen wurden auch Informationen (Wissen) und Finanzmittel als „knappe Ressourcen“ behandelt (vgl. [KLS02]), diese Betrachtung hat jedoch keine generelle Gültigkeit. Der Schritt der Ressourcenplanung legt die von einem betrachteten bzw. geplanten logistischen System beanspruchten Ressourcen nach Art und Menge fest. Eine Anpassung der Ressourcen ist die erste Maßnahme, um schwankenden Systemlasten entgegenzuwirken. Hierfür müssen Lenkungsmaßnahmen vorgesehen werden (siehe Lenkungsplanung). Diese Anpassung des Ressourcenbedarfes kann aber erst erfolgen, wenn der nächste Planungsschritt, die Anordnungsplanung, abgeschlossen ist. Basierend auf den Ergebnissen der vorherigen vier Planungsschritte kann die Anordnungsplanung, auch Anordnungsstrukturplanung oder Layoutplanung genannt, begonnen werden. Hierin wird die räumliche Anordnung der die identifizierten Systemlasten bewältigenden Prozesse bzw. der zu ihrer Durchführung beanspruchten Ressourcen zueinander festgelegt. Bei diesem Planungsschritt ist es häufig nicht zu vermeiden, Iterationsschritte zu einem der vorherigen Planungsschritte durchzuführen, da auf sehr viele Restriktionen Rücksicht genommen werden muss. Durch den Einsatz moderner Werkzeuge der „Digitalen Logistik“ ergeben sich gerade für die Anordnungsplanung zahlreiche Möglichkeiten, um eine schnelle und umfangreiche Planung zu realisieren (vgl. [KWe04]). Planungsergebnisse können nicht nur schnell bewertet, sondern in der „Virtuellen Realität“ auch hinsichtlich Kompatibilität mit dem übrigen Logistiksystem und dessen Anforderungen überprüft werden. Der letzte Schritt der Prozessorientierten Vorgehensweise zur modellgestützten Planung logistischer Systeme umfasst die Lenkungs- und Kommunikationsstrukturplanung. Lenkung ist eine Eigenschaft von Systemen, die deren Fähigkeit bezeichnet, sich zielgerichtet zu steuern und selbst zu kontrollieren. Übertragen auf ein Unternehmen heißt dies, Regeln zu implementieren, um zwischen dem Unternehmen und seiner Umwelt laufend ein Fließgewicht herzustellen [Bec96]. Einer der ersten Schritte hinsichtlich der Lenkungsplanung ist somit die Identifikation bzw. Festlegung der Lenkungsregeln. Bestandteil der Lenkungsregeln sind die Lenkungsmaßnahmen, welche festlegen, wie auf eine Information reagiert werden muss. Zur Strukturierung der Lenkungsregeln existieren die folgenden fünf Lenkungsebenen: • • • • •
Normative, Administration, Disposition, Netzwerk, Steuerung.
Die Lenkungsregeln einer Ebene dürfen sich nicht mit den Regeln der nächst höheren Ebene widersprechen, müssen jedoch eine Teilautonomität aufweisen. Zwischen den Lenkungsebenen findet ein „normierter“ Austausch von Informationen
11 Nutzungsmöglichkeiten der Workbench zur Unterstützung des
Abb. 11.4 Logistik
279
Lenkungsebenen im Zusammenhang mit den Planungsebenen großer Netze der
statt. Die folgende Abb. 11.4 geht auf den Zusammenhang zwischen den drei Planungsebenen großer Netze der Logistik und die Lenkungsebenen dargestellt. In den betrachteten Planungsebenen sind alle Lenkungsmaßnahmen den Lenkungsebenen zugeordnet und grundsätzlich selbstähnlich. Die zugrunde liegenden Algorithmen oder Methoden können in den Hierarchien gleich sein. Lenkungsregeln können in der Planung grundsätzlich nur über die „Modellierung der Zeit“ (Simulation) auf ihre Wirkung hin untersucht werden. Zur Ermittlung der Auswirkungen der (Veränderung von) Lenkungsregeln auf die Leistungsziele (Durchlaufzeit, Termintreue) oder auf die Kostenziele (Bestände, Kapazitätsauslastung) des logistischen Systems werden daher Experimentpläne aufgestellt und darauf aufbauende Simulationsstudien durchgeführt. Die dargestellten elementaren Vorgehensschritte stellen die Hauptbestandteile einer Planungsaufgabe in GNL dar und finden in abgewandelter Form immer wieder Anwendung. Das große Ziel der Planung logistischer Systeme ist das Zusammenwachsen aller Planungs- und Steuerungsaktivitäten eines Systems. Zur Erreichung dieses Ziels, also einer ganzheitlichen Planung und Steuerung eines logistischen Systems, stellt die vorgestellte Vorgehensweise eine Grundlage dar.
11.4 Vorstellung des internetbasierten Informationssystems „Workbench“ Dem Logistikplaner steht heute bereits eine Vielzahl von Anwendungssystemen für die Planung zur Verfügung. Er kann aus Projektmanagement-, Groupware-, Kommunikations- sowie Modellierungs-, Simulations- und Berechnungswerkzeugen auswählen. Warum besteht immer noch eine Lücke im Funktionsumfang bisheriger Systeme?
280
S. Kessler et al.
Der Planungs- bzw. Gestaltungsprozess besteht aus der Interaktion zwischen Experten und spezialisierten Assistenzsystemen für ganz bestimmte Aufgaben. Sie dienen der Information, Bewertung und Berechnung. Dennoch wurde festgestellt, dass der Planer zunehmend eine Unterstützung in der Anwendung dieser Assistenzsysteme wie auch zur Orientierung innerhalb des gewählten Vorgehensmodells erwartet. Üblicherweise stehen dem Planer zur Aneignung von Wissen über das anstehende Planungsproblem und einzusetzende Verfahren gedruckte Literatur oder elektronische Medien, wie auch themenspezifische Wissensmanagement-Anwendungen/-Portale zur Verfügung. Weiterhin kann er sich auf seine Erfahrung berufen. Während gedruckte und elektronische Medien, wie z. B. Dokumente des Internets, den Nachteil haben, dass Wissen für eine bestimmte Planungssituation aus sehr verteilten Quellen zusammengetragen werden muss, ist anzunehmen, dass Wissensmanagement-Anwendungen hier einen Vorsprung besitzen. Bisher verfügbare Lösungen (vgl. Abb. 11.5) können aber die Praxis-Anforderungen an Gestaltungswerkzeuge nicht erfüllen: Sie legen ihren Fokus entweder eher auf Dokumentenverwaltungsfunktionen, wie Ablage und Suche, (z. B.: Wissensplattformen) oder das erfasste Wissen wird nur relativ grob (z. B. Datenbanken) aufbereitet. Oftmals basieren die enthaltenen Vernetzungen von Wissen auf automatischen Zuordnungen entsprechend einer sprachlichen Semantik oder ein Zugriff auf Wissen erfolgt vorrangig mit Hilfe einer Suchfunktion. Dies ist in der konkreten Planungssituation zu unspezifisch. Abb. 11.6 fasst die obigen Ausführungen zu bisher verfügbaren, typischen Planungs- und Assistenzsystemen zusammen. Konventionelle Planungswerkzeuge haben oftmals Schwerpunkte in bestimmten Planungsphasen. Systeme, die sich vorrangig auf Internettechnologien stützen, können nach dem Grad der Integration in den Planungsprozess unterschieden werden.
GPO -Tools
Organisationseinheiten
z.B. LogiChain
Wissensorg . und . und -modellierung z.B. UML
Simulation und Optimierung
Integrations plattformen
z.B. Dosimis Dosimis
z.B. IPIH, Competence Site
OE 1 OE 2
OE 3
Engineering Werkzeuge z.B. CAD
Industrie Datenbanken z.B. LIMPACT (Umwelt)
Sonderforsch. bereiche
-
z.B. 467 -A6 (SWM)
Abb. 11.5 Beispiele existierender Ansätze zur Planungsunterstützung
Kooperatives Erfahrungslernen Z.B. METORA– METORA Wissensmanage Wissensmanagement in KMU
11 Nutzungsmöglichkeiten der Workbench zur Unterstützung des
281
Abb. 11.6 Einordnung der Workbench zwischen Anwendungssystemen für die Logistikplanung
Die dargelegte Breite von Assistenzsystemen eignet sich für die Positionierung des im Teilprojekt M6 entwickelten Gestaltungswerkzeugs Workbench (vgl. auch [Laa02, Laa05]). Zielsetzung dieses Werkzeugs ist es, dem Planer bzw. Experten einen zielsicheren Einsatz von Assistenzsystemen zu ermöglichen, was durch eine verbesserte Informationsgrundlage über das Planungsproblem, einsetzbare Methoden und Gestaltungsoptionen erreicht werden soll (vgl. [BCK+06]). Dabei gilt es nicht, ggf. vorhandene, planungsaufgabenspezifisch einsetzbare Assistenzsysteme zu substituieren. Auch werden dem Planer durch das Assistenzsystem Entscheidungen nicht abgenommen. Er erhält vielmehr die Sicherheit, auf die geeigneten Systeme zurückzugreifen bzw. die richtigen Entscheidungen zu treffen (vgl. [Kuh95]). Bei der Workbench soll erstens durch eine Stärkung des modellbasierten Vorgehens die Intuition, Erfahrung und Kreativität enger mit den formalisierten Arbeitsabläufen von Assistenzsystemen verbunden werden, ohne die Fähigkeiten handelnder Personen auszuschalten. Zweitens soll erreicht werden, dass der Planer eine stärkere Hilfestellung für die Auswahl und den Einsatz von Assistenzsystemen erhält, die ja selbst keine integrierte Planungsumgebung für alle vorstellbaren Problemstellungen darstellen, sondern spezifische Unterstützung in einzelnen Anwendungsfeldern anbieten. Drittens wird der Planer stärker entlang des gesamten Problemlösungsprozesses durch Vorgehensmodelle zur sicheren Erreichung seiner Projektziele geführt (vgl. [LWG02]). Hierzu trägt nicht zuletzt die konsequente Ausrichtung des Systems am Prozesskettenparadigma des SFB 559 bei. Durch die konsequente Nutzung von Modellen lässt sich somit ein Erkenntnisfortschritt für den Gestaltungsprozess logistischer Systeme erreichen. Neben der Nutzung des in der Workbench enthaltenen Gestaltungswissens in einer konkreten Planungssituation kann es auch einem weiteren Zweck dienen. Durch die verbesserte Verfügbarkeit von Gestaltungswissen in Form erfasster Wissensobjekte zu allen relevanten Aspekten (Gestaltungsprozesse, Objekte, Methoden) wird es leichter,
282
S. Kessler et al.
sich einen Überblick über bestehendes Wissen in einem bestimmten Anwendungsgebiet der Logistikgestaltung zu verschaffen. Hierdurch wird für wissenschaftlich und konzeptionell orientierte Nutzergruppen eine Plattform geschaffen, die Ausgangspunkt für die Ableitung neuen Gestaltungswissens oder neuer Wissensobjekte ist (vgl. [LHW02, Wie04, Wie05] und Abb. 11.7). Die zu Grunde gelegte Strukturierung der „Workbench“ richtet sich am Ganzheitlichen Gestaltungsansatz für Planungswissen großer Netze der Logistik und somit am Dortmunder Prozesskettenparadigma in Verbindung mit dem Vorgehensmodell zur prozessorientierten Logistikplanung aus (vgl. vorangegangenes Kapitel und Abb. 11.6). Sie gliedert sich in sechs verschiedene Objektklassen sowie ein zusätzliches Glossar. Diesen Klassen können sämtliche in Bezug auf die Gestaltung logistischer Netzwerke relevanten Wissensobjekte zugeordnet werden. Den zentralen Ausgangspunkt bildet demnach der Planungsprozess, welcher in einer 3-Ebenen Gliederung (Aufgabe, Teilaufgabe und Schritt) bis auf einzelne Planungsschritte separiert werden kann (vgl. Abb. 11.2). Der planerische Bezug wird über das Planungsobjekt hergestellt. Ein Planungsschritt als eine (von i. d. R. mehreren) elementaren, operativen Aktivitäten zur Durchführung einer übergeordneten Planungsaufgabe kann eine direkte Verknüpfung zu Planungsmethoden und Ressourcen aufweisen, die von den Wissensautoren der „Workbench“ im Planungskontext als nützlich klassifiziert wurden. Im Zusammenhang mit der Gestaltung logistischer Systeme genutzte Methoden bzw. beanspruchte Ressourcen sind dazu dokumentiert, gesammelt und in eigenen Katalogen abgelegt worden. So wurden die Rahmen der Arbeiten des SFB 559 entwickelten Methoden bspw. im Rahmen einer teilprojektübergreifenden Arbeitsgruppe zusammengetragen und standardisiert beschrieben [BBH+07]. Um neben der Zuordnung zu den einzelnen Objektklassen eine weitere, klassenübergreifende Klassifizierung der in der Workbench dokumentierten Wissens-
Abb. 11.7 Workbench–Visualisierte Vernetzung der Wissensobjekte
11 Nutzungsmöglichkeiten der Workbench zur Unterstützung des
283
bausteine zuzulassen, wurde das Kategoriensystem definiert. Jedes Wissensobjekt (unabhängig davon, ob es als Planungsprozess, Methode oder Ressource klassifiziert wurde) lässt sich hiermit mit den Strukturelementen und Potenzialklassen des Prozesskettenelementes verknüpfen. In einer Projektverwaltung werden ergänzend zu den allgemeingültigen Vorgehensmodellen und Gestaltungsparametern Beschreibungen bzw. Steckbriefe spezifischer Praxisprojekte als Wissensobjekte abgelegt. Diese können im Sinne von Best-practice-Lösungen bei vergleichbaren Planungsproblemen herangezogen werden [Kuh99]. Die Objektklasse der Konstruktionskataloge dient letztendlich dazu, eine zweidimensionale Darstellung des hinterlegten Gestaltungswissens zu ermöglichen und daraus übergeordnete Regeln abzuleiten. Die theoretisch-wissenschaftlichen Grundlagen zur Unterstützung des Gestaltungsprozesses (z. B. im Zusammenhang mit einer Planungsaufgabe nutzbare allgemeingültige Vorgehensmodelle, einsetzbare Methoden und Ressourcen) auf der einen Seite werden dem dokumentierten Wissen zu erprobten und erfolgreich angewandten Lösungsansätzen aus der Praxis (die im Bereich der Projektverwaltung abgelegt werden) auf der anderen Seite gegenübergestellt. Aus dem resultierenden Abgleich können wertvolle Hinweise in Bezug auf die Konstruierbarkeit logistischer Systeme gewonnen werden. Im Rahmen der Anwendung der Workbench ist es möglich, sich dem abgelegten Planungswissen unter Ausnutzung der dargestellten sechs Objektklassen auf verschiedenen Wegen zu „nähern“ (vgl. Abb. 11.8). Dabei wird die erste Auswahl und
Abb. 11.8 Erschließungspfade zum Planungswissen großer Netze der Logistik
284
S. Kessler et al.
Spezifizierung der zu assistierenden Planungsaufgabe dem Funktionsprinzip eines Konstruktionskataloges entsprechend immer vom Anwender vorgenommen. Zur Veranschaulichung wird das Vorgehen zur Ablage und Nutzung von Gestaltungswissen für große Netze der Logistik in der Workbench im Folgenden auszugsweise am Beispiel der GVZ-Planung demonstriert. Dazu wird zunächst auf das Vorgehen für die Gestaltung dieser Planungsobjekte eingegangen.
11.5
Planung von GVZ als intermodale Knotenpunkte
Grundlage für eine Demonstration zur Integration von Forschungsergebnissen in die Strukturen der „Workbench“ ist das Vorgehensmodell zur Planung von Güterverkehrszentren aus dem Teilprojekt A4. In den Arbeiten des Teilprojektes A4 wurde ein methodengestütztes Planungsinstrumentarium für Güterverkehrszentren entwickelt, welches erstmals ein strukturiertes, prozessorientiertes und für die Planung der verschiedenen Spielarten von Güterverkehrszentren einheitlich anzuwendendes Vorgehen zur Planung dieser Knotenpunkte in allen Stadien ihrer Lebenszyklen festlegt. Es basiert auf einer flexiblen und umfassenden Beschreibung und Klassifizierung der Prozesse, Ressourcen und Akteure in Güterverkehrszentren und beinhaltet über den Leitfaden der prozessualen Vorgehensweise hinaus eine Verbindung von relevanten und empfehlenswerten Methoden mit den jeweiligen Planungs(teil)aufgaben. Anwendern unterschiedlicher Zielstellungen wird somit eine Hilfestellung geboten, die den Planungsprozess beschleunigt, transparent gestaltet und nachhaltiger werden lässt. Zur Integration des Planungsinstrumentariums mit seinem Vorgehensmodell und den zugehörigen Methoden in die „Workbench“ wird zunächst der Planungsprozess von Güterverkehrszentren in seinen Grundzügen – wie er im Teilprojekt A4 entworfen wurde – erläutert, um in einem nächsten Schritt die Transformation in und die Aufbereitung für die „Workbench“ zu beschreiben. Die Planung von Güterverkehrszentren im Allgemeinen erfolgt zur Zeit nicht im Rahmen eines klar strukturierten Prozesses, sondern vielmehr auf Basis eines ereignisgesteuerten, unstrukturierten Ablaufprozesses. Zur Gestaltung einer Planungsaufgabe müssen ihre Inhalte, die Reihung der Planungsschritte sowie die angewendeten Methoden und Instrumente in Beziehung zueinander gesetzt werden. Die einzelnen Planungsaufgaben weisen dabei eine sachlogische und zeitliche Differenzierung auf, die zusätzlich durch eine zunehmende Detaillierung in Planungsteilaufgaben und Planungsschritte geprägt ist. Der Aspekt der zeitlogischen Verknüpfung spiegelt den Wandel im fortschreitenden Planungsprozess von der strategischen zur operativen Ausrichtung der Planung wider. Die in ihrem Detaillierungsgrad unterschiedlichen Planungsebenen (Planungsaufgabe, -teilaufgabe und -schritt) sind als vernetztes System zu verstehen, indem die übergelagerten Ebenen die Sollgrößen, Restriktionen und Grundlagen für die Entwicklungs- und Gestaltungsprozesse der nachfolgenden Ebenen liefern. Grundsätzlich handelt es sich bei der Planungsvorgehensweise für GVZ um eine lineare Abfolge von Planungsteilaufgaben respektive -schritten, so dass die Planung einen prozessualen Charakter hat.
11 Nutzungsmöglichkeiten der Workbench zur Unterstützung des
Netzstrukturplanung
Strategieplanung
GVZ Palnung
Strukturplanung
285
Betrueb des GVZ
Systemplanung
Umsetzung
Abb. 11.9 Detaillierung einer Planungsaufgabe in ihre Planungsteilaufgaben
In der praktischen Ausführung jedoch müssen unter dem Einfluss von Restriktionen und durch Eintritt unvorhergesehener Ereignisse einzelne Planungsteilaufgaben oder -schritte wiederholt werden, oder es muss im Planungsfortschritt auf einzelne Planungsteilaufgaben respektive -schritte vorgegriffen werden. Somit ist der eigentlich lineare Planungsablauf von Iterationen und Rücksprüngen geprägt und beinhaltet zwangsläufig Elemente einer ereignisgesteuerten Maßnahmenplanung (vgl. [Ihd01, PSt97]). Der Fokus bei der Entwicklung der Planungsvorgehensweise für Güterverkehrszentren im Teilprojekt A4 lag jedoch auf den Inhalten der einzelnen Planungsschritte, so dass Schleifen und Rücksprünge als elementarer Bestandteil der Planung angesehen und nicht explizit in einer Reihung iterativer Schritte aufgeführt werden. Im Anschluss an diese grundlegenden Überlegungen wird nun die im Teilprojekt A4 entwickelte Planungsvorgehensweise in ihrer Grundgestalt beschrieben. Die Bestimmung der Planungsaufgabe und damit die Auswahl des Planungsobjektes stehen zu Beginn jeder Planung. Beim Planungsobjekt Güterverkehrszentrum lassen sich grundsätzlich drei voneinander unabhängige Planungsaufgaben unterscheiden, die während der Planung zwar Einfluss auf die Gestaltung der jeweils folgenden oder vorangegangenen Felder ausüben, jedoch in ihrer Ausprägung vollkommen verschieden sind und daher bei der Durchführung der Planung auf andere Schwerpunkte und Methoden angewiesen sind. Die Planung von Güterverkehrszentren lässt sich in die drei elementaren Planungsaufgaben Netzstrukturplanung, Standortgestaltung und Betriebsphase eines Güterverkehrszentrums untergliedern. Elemente der Planung von GVZ Betriebsbereites GVZ
Wertschöpfendes GVZ
Netzstrukturplanung
Prozessgestaltung
Standortraumplanung
Betriebsführung
Standortbestimmung
Kontrolle
Standortgestaltung
Kontinuierliche Planung
Realisierung
Abb. 11.10 Einordnung von Planungsaufgaben in den Lebenszyklus von Güterverkehrszentren
286
S. Kessler et al.
Bei einer Neuplanung eines Güterverkehrszentrums werden alle Teilaufgaben nacheinander bearbeitet. Jedes der Elemente kann als eigene Planungsteilaufgabe angesehen werden, die zwar durch entsprechende Planungsentscheidungen Einfluss auf die jeweils nachfolgende Phase nimmt, jedoch darüber hinaus für sich abgeschlossen ist und die Grundlage für die nächste Planungsteilaufgabe legt. So ist das Ergebnis der Netzstrukturplanung ein definierter Standortraum mit definiertem und dokumentiertem Güterpotential und Entwicklungsziel. Das Ergebnis der GVZPlanung ist die Realisierung eines betriebsbereiten Güterverkehrszentrums, also der baulichen und technologischen Voraussetzungen für den Betrieb. In der Phase des Betriebs wiederum wird das Güterverkehrszentrum zum wertschöpfenden Güterverkehrszentrum, indem es in Kontakt mit Kunden und Konkurrenten tritt und die Prozesse zur Erbringung der logistischen Leistungen vollführt (vgl. Abb. 11.10). In einer anderen Betrachtung lassen sich die einzelnen Planungsteilaufgaben noch weiter zusammenfassen, so dass die zwei Aufgaben Erstellung des betriebsbereiten Güterverkehrszentrums und Sicherung eines wertschöpfenden Güterverkehrszentrums entstehen. Bei dieser Betrachtung werden besonders die Aufgaben der Betriebsführung, der Kontrolle und der betriebsbegleitenden, kontinuierlichen Planung herausgestellt (vgl. [GBV03]). Diese Aufgaben sind angesichts der Nutzungsphase eines Güterverkehrszentrums ähnlich bedeutsam wie die Etablierung eines betriebsbereiten Güterverkehrszentrums, bei der die in der Regel irreversiblen oder zumindest stark wegweisenden Grundlagen für die Phase der Wertschöpfung gelegt werden. Aufbauend auf dieser Struktur wurde im Teilprojekt A4 ein umfassendes Planungsinstrumentarium erstellt, in dem jede Planungsaufgabe, -teilaufgabe und jeder Planungsschritt detailliert dokumentiert, zeit- und sachlogisch in den Planungsprozess eingeordnet und mit relevanten Methoden verknüpft ist.
11.6
Nutzung der „Workbench“ zur Unterstützung der GVZ-Planung
Aus den Forschungsarbeiten des Teilprojektes A4 liegt mit dem Planungsinstrumentarium für GVZ ein strukturiertes, prozessorientiertes und einheitlich definiertes Vorgehensmodell vor. Die Vorgehensweise zur Aufbereitung des allgemeinen Vorgehensmodells zur GVZ-Planung erfordert zur Integration in die Workbench eine Standardisierung der Gestaltungsprozesse und eine Identifizierung der in der Workbench abzubildenden Wissenselemente. In diesem Rahmen wurde das im Teilprojekt A4 entwickelte und zunächst in einer allgemeinen Gestalt vorliegende Planungsinstrumentarium gemäß den Protokollen der Workbench aufbereitet, an die drei in der Workbench abzubildenden Ebenen Planungsaufgabe, Planungsteilaufgabe und Planungsschritt der angepasst und in den vorgesehenen Eingabedialogen des Tools detailliert beschrieben (vgl. auch Abb. 11.6). In der Struktur der Workbench wurden die einzelnen Elemente sachlogisch und temporal miteinander in Beziehung gesetzt, textlich und visuell dokumentiert sowie mit Verknüpfungen zu empfohlenen Methoden und nutzbaren Ressourcen versehen.
11 Nutzungsmöglichkeiten der Workbench zur Unterstützung des
287
Im Rahmen der Kooperation der Teilprojekte A4 und M6 bestand die wesentliche Herausforderung in der Integration der relevanten Wissensinhalte der GVZ-Planung in die „Workbench“. Hierzu wurde das in Abb. 11.11 illustrierte Vorgehen herangezogen [LAAK03; Laa05]. Anhand des darin definierten Erfassungsprozesses zum Aufbau des Wissensspeichers wurden aus dem im Teilprojekt A4 entwickelten Planungsinstrumentarium relevante Wissensobjekte und Modellelemente identifiziert, einer Aufbereitung unterzogen sowie sachlogisch miteinander verknüpft. Für diesen Integrationsprozess wurden folgende Schritte durchlaufen: • Auswahl eines Themengebietes: Die Wissensinhalte können nur über eine länger währende Periode aufgebaut werden. Daher ist es zweckmäßig, dass sich die Redakteure einzelnen Themengebieten der Logistik widmen und hierzu Gestaltungswissen in die „Workbench“ einstellen. Gegenstand der in diesem Beitrag beschriebenen Kooperation zwischen den Teilprojekten A4 und M6 war das logistische System des GVZ. Bei der Integration des Vorgehensmodells zur GVZ-Planung in die Workbench ist das Planungsobjekt ein GVZ. Die einzelnen Funktionsbausteine, definitorischen Eigenschaften, Ziele sowie die unterschiedlichen Ausprägungsformen dieses logistischen Knotens in Gestalt von zentralen oder dezentralen GVZ sind Bestandteil der Beschreibung des Planungsobjektes. Der bereits in der Grundgestalt des Planungsinstrumentariums aus den Arbeiten im Teilprojekt A4 vorhandene und im vorhergehenden Kapitel beschriebene prozessuale Charakter der GVZ-Planung lässt sich über die Funktionalität der Verknüpfung von Wissensobjekten innerhalb der Workbench abbilden. • Abgrenzen und Freischneiden: Das gewählte Themengebiet bildet den Analysebereich, der gegenüber nicht zu betrachtenden Dingen scharf abzugrenzen ist. Dies geschieht durch das Ziehen einer gedanklichen Grenze zwischen denjenigen Sachverhalten, die folgend abgebildet werden sollen und denjenigen, die zunächst
Abb. 11.11 Projektion des Planungsobjektes GVZ auf das prozessorientierte Vorgehen zur modellgestützen Planung logistischer Systeme
288
S. Kessler et al.
unberücksichtigt bleiben. Im hier betrachteten Kontext wurde aus den drei übergeordneten und grundlegenden Planungsaufgaben im Fokus der Planung von GVZ – Netzstrukturplanung, GVZ-Planung und Betrieb des GVZ (vgl. Abb. 11.9) für die exemplarische Integration in die Workbench die Planungsaufgabe „GVZPlanung“, die Realisierung eines betriebsbereiten GVZ über die Schaffung der baulichen und technologischen Grundlagen für den Betrieb, verwendet. Es wurde davon ausgegangen, dass die Standortsuche und auswahl für ein zu planendes GVZ im Rahmen der Netzstrukturplanung bereits abgeschlossen ist und die Standortgestaltung zum vorrangigen Gegenstand der Betrachtungen und der Bemühungen zur Dokumentation des Planungswissens erhoben wird. • Voranalyse der einzelnen Bestandteile: Bei der Betrachtung der Analysebereiche sind die in der „Workbench“ abzubildenden Wissenselemente grob zu identifizieren. Hilfreich sind Stichwortlisten und Erfassungsbögen, die wiederum entsprechend des Schemas des Gestaltungsansatzes für Planungswissen großer Netze der Logistik aufzubauen sind. Die Voranalyse dient zur Schaffung eines Überblicks, so dass die anschließende Sammlung systematischer und detaillierter erfolgen kann. Dank der umfangreichen, strukturierten Vorarbeiten des Teilprojekts A4 mussten die vorhandenen Beschreibungen des Planungsvorgehens auf unterschiedlichen Detaillierungsebenen sowie die Dokumentationen zum logistischen Objekt des Güterverkehrszentrums lediglich gesichtet und bezüglich ihrer Relevanz zum abgegrenzten Themengebiet beurteilt werden. Alle Schritte des Erfassungsprozesses bis hierhin wurden bei der Erarbeitung der allgemeinen Planungsvorgehensweise in Teilprojekt A4 ohne Verwendung der „Workbench“ durchgeführt. • Sammlung von Wissensobjekten: Im nächsten Schritt zur Aufbereitung von Wissen für die „Workbench“ sind die einzelnen Wissensobjekte zu sammeln und derart aufzubereiten, dass sie für die Integration in die Strukturen der „Workbench“ geeignet sind. Der Sammlungsprozess ist durch die Voranalyse des Themengebietes thematisch und in seiner Tiefe vorbestimmt. In einem ersten Schritt werden textuelle und graphische Beschreibungen in unterschiedlichen Detaillierungsgraden erstellt. Im Rahmen der betrachteten Zusammenarbeit mit Teilprojekt A4 konnte auf vorhandene Arbeiten aufgebaut und diese im Wesentlichen so ergänzt, adaptiert und aufbereitet werden, dass sie sich schwerpunktmäßig den verschiedenen Objektklassen zuordnen ließen. Hieraus gingen die Dokumentationen zur Planungsaufgabe der GVZ-Planung, die Beschreibungen zum betrachteten System sowie erste Ausführungen zu den im Rahmen der GVZ-Planung eingesetzten Methoden und Ressourcen hervor. Die identifizierten Informationen lassen sich entweder direkt in die „Workbench“ eingeben, indem Wissensobjekte angelegt werden, oder sie werden zunächst in Tabellenform erfasst und anschließend über eine Schnittstelle importiert. • Besonders wertvoll im Sinne einer Anwendungsorientierung ist die Funktionalität der „Workbench“, mithilfe der EDV Methodenwissen mit der Planungsvorgehensweise interaktiv zu verknüpfen. Um die Wissensspeicherung in der „Workbench“ zu komplettieren und den Mehrwert der Verknüpfung zu generieren, werden im Methodenbaukasten Methoden für die Planung von GVZ gesammelt. Als Ergebnis der Forschungsarbeiten im Teilprojekt A4 existiert eine Sammlung von Methoden
11 Nutzungsmöglichkeiten der Workbench zur Unterstützung des
289
aus unterschiedlichen Bereichen der Ingenieurs und Wirtschaftswissenschaften sowie weiteren themenverwandten Gebieten, die für die Planung von GVZ relevant sind. Dabei handelt es sich zum einen um Methoden, die schon in der Literatur für den Anwendungsfall GVZ konfektioniert sind und nun an den adäquaten Stellen innerhalb des Planungsprozesse eingeordnet wurden, zum anderen um solche Methoden, die im Rahmen des Teilprojektes A4 für die Anwendung GVZ-Planung adaptiert wurden und zum Dritten um Empfehlungen für die noch zu leistende Anpassung bekannter Methoden. Beispiele für bereits konfektionierte Methoden sind die Disposition von Portalkranen in KV-Terminals [GBV03], eine Methode, die in der Planungsphase GVZ-Planung in der Planungsteilaufgabe „Strukturplanung“ oder in der Planungsphase „Betrieb eines GVZ“ genutzt werden kann oder die Dispositionsentscheidungen für Umschlagterminals des Kombinierten Verkehrs [Lam06], die im Rahmen der Planungsaufgabe „Betrieb eines GVZ“ eingesetzt werden kann. Beispiele für die im Teilprojekt A4 adaptierten und ausgearbeiteten Methoden sind der Einsatz einer Balanced Scorecard [BDS05] für GVZ bei der Planungsteilaufgabe „Strategieplanung“ oder die dynamische Rampenbelegung als Anwendung eines Verfahrens aus dem Operations Research [BDR03] bei der Planungsteilaufgabe „Betrieb eines GVZ“. Durch die strukturierte Beschreibung des Planungsprozesses für GVZ, die Verknüpfung der einzelnen Prozesse untereinander und die Bereitstellung von geeigneten Methoden konnte das bereits entwickelte Planungsinstrumentarium für GVZ aus dem Teilprojekt A4 mit Hilfe der Workbench nutzbar gemacht werden. Nach diesem Schritt ist ein wesentliches Zwischenergebnis zur Dokumentation des Wissens zum Themengebiet der GVZ-Planung erreicht worden. Viele Basisinformationen sind als Wissensobjekte strukturiert erfasst und stehen für eine weitere Bearbeitung zur Verfügung. • Sortierung und Ordnung: Konnte in der Vorstufe bei der Sammlung einzelner Wissensobjekte eine gewisse Anzahl ähnlicher Objekte zusammengetragen werden, ist es nun zweckmäßig, sie zu sortieren, zu strukturieren und einzuordnen. Beispielhaft soll an dieser Stelle ein solches Vorgehen anhand der Inhalte einer Planungsteilaufgabe aufgezeigt werden. Die der vorliegenden Beschreibung zugrunde liegende und bereits umrissene Planungsaufgabe „GVZ-Planung“ setzt sich aus den vier Planungsteilaufgaben Strategieplanung, Strukturplanung, Systemplanung und Umsetzung zusammen. Zeitlich und sachlich lässt sich aus diesen Teilaufgaben die Strukturplanung tiefer in die beiden Planungsschritte Prinzipplanung und Dimensionierung untergliedern. Im Rahmen der Strukturplanung werden auf Grundlage der Datenbasis und unter Einbezug der in der vorhergehenden Planungsteilaufgabe „Strategieplanung“ festgelegten Strategien durch einen optimalen Einsatz der betrieblichen Leistungsfaktoren Lösungen zur technischen und organisatorischen Gestaltung des GVZ entwickelt sowie Vorgaben für die nachfolgende Planungsteilaufgabe „Systemplanung“ gemacht. Im Rahmen der beiden Planungsschritte Prinzipplanung und Dimensionierung werden detailliert die in diesen Planungsschritten zu leistenden Aufgaben, wie z. B. Gestaltung der Dienstleistungsstruktur, Ressourcenplanung, Layoutgestaltung und Aufstellen von
290
S. Kessler et al.
Dispositionsregeln beschrieben. Derartige Detaillierungen mit Beschreibungen, Verknüpfungen und zugehörigen Methoden erfolgten bei der Integration der Forschungsergebnisse des Teilprojektes A4 in die „Workbench“ mit allen Wissenselementen des bereits vorliegenden Planungsinstrumentariums. • Generalisierung: Bei der Sammlung von Wissensobjekten werden häufig gleiche oder ähnliche Sachverhalte getrennt erfasst, so dass diese bei der Sortierung und Ordnung zu einem übergreifenden Objekt zusammengefasst werden. Hiermit wird eine Konsolidierung und Reduzierung des erfassten Wissens auf wesentliche Informationen erreicht. So könnte es sein, dass sich ausgewählte Planungsschritte im Kontext der Planung von GVZ auch auf andere Aufgabenstellungen übertragen lassen. Die entsprechenden Wissensobjekte sind dann entsprechend herauszugreifen, inhaltlich zu adaptieren und in allgemeingültiger Form zusammenzufassen. • Detaillierung identifizierter Wissensinhalte: Sicher werden sich an vielen Stellen immer wiederkehrende Bearbeitungsfolgen erkennen lassen. Hier ist es dann Aufgabe des Redakteurs, diese Schritte als eigenständige Planungsmethode zu erkennen, sie als solche zu abstrahieren und in die Methodensammlung aufzunehmen. Es gilt, einen geeigneten Mittelweg zwischen Realitätstreue und Abbildungsaufwand zu finden, z. B. bei der Erfassung von Planungsprojekten und der Beschreibung der durchgeführten Planungsschritte. Im Anschluss an das vorgestellte Vorgehen sind die Wissensobjekte hinreichend detailliert und dokumentiert. Nun gilt es sie sinnvoll zu strukturieren und miteinander zu vernetzen. Neben der bereits angesprochenen Zuordnung von inhaltlich oder sachlogisch abhängigen Wissensobjekten zueinander (vgl. auch Abb. 11.12) stellt die „Workbench“ dazu mehrere Techniken zur Verfügung. • Kategorisierung: Das Kategoriensystem besteht aus mehreren sog. Hauptkategorien und den Kategorien, die eine zumindest schwerpunktmäßige Verortung der Wissensobjekte im Prozesskettenparadigma erlauben. • Katalogisierung: Thematisch zusammenhängende Wissensobjekte können ebenso in Katalogen zusammengefasst werden. Innerhalb des Katalogs sind Funktionalitäten vorhanden, um die eingebundenen Wissensobjekte weiter zu ordnen und zu typisieren. Die letztgenannten beiden Techniken entfalten ihre Wirkung erst bei der Zusammenführung des gespeicherten Wissens zu mehreren Planungsobjekten, die auf einer abstrahierten Ebene miteinander verglichen werden, so dass die Essenz aus diesen Vergleichen auf einer Meta-Ebene als Planungswissen hinterlegt werden kann. Als Ergebnis des Integrationsprozesses von Expertenwissen sind Gestaltungselemente als Wissensobjekte in der Wissensbasis „Workbench“ gespeichert. Sie stehen somit für nachfolgende Nutzungsszenarien unterschiedlichster Aufgabenstellung zur Verfügung. Zielsetzung ist es, Planern bzw. Experten durch eine verbesserte Informationsgrundlage über das Planungsproblem, einsetzbare Methoden sowie objektbezogene Vorgehensweisen etc. systematische Unterstützung zu gewähren. Dazu tragen die vier Nutzungsszenarien der internetbasierten „Workbench“ bei (vgl. Abb. 11.14):
11 Nutzungsmöglichkeiten der Workbench zur Unterstützung des
291
Abb. 11.12 Prozess zur Sammlung und Erfassung von Planungswissen von Güterverkehrszentren zum Aufbau eines Wissensspeichers
Netzstrukturplanung GVZ-Planung
Abb. 11.13 Zuordnung von Methoden zu Planungsaufgaben
Betrieb des GVZ
Methode n
...
Planungsaufgabe
Methode 2
Methode
Methode 1
• Aufbau von Gestaltungselementen (Szenario 1): Wissens-Redakteure erfassen Planungswissen als Wissensobjekte und bereiten diese in aufeinander folgenden Schritten zur Wissensbasis der Workbench auf. Wissens-Redakteure kommen zum einen aus dem Bereich der Forschung (z. B. Wissenschaftler des Sfb 559) und zum anderen aus einem anwendungsorientierten Umfeld (z. B. GVZ-Planer), um so die Praxistauglichkeit jederzeit validieren zu können. In Kombination mit einem differenzierten Benutzermanagement ist es zudem möglich die inhaltliche Erarbeitung auf mehrere Wissensredakteure zu verteilen, um so auch Aufgaben im Sinne der Interdisziplinarität gezielt zu lösen. • Recherche von Gestaltungswissen (Szenario 2): Zur gezielten Recherche von Gestaltungswissen ermöglicht die Workbench – ohne die zwingende Einrichtung einer konkreten Projektsituation – die Recherche einzelner Wissensobjekte. Dabei ist der Einstieg in die Wissenserschließung auf verschiedenen Wegen möglich, man kann beispielsweise nach konkreten Vorgehensmodellen zu einer bestimmten Planungsaufgabe oder nach geeigneten Methoden für einen
292
S. Kessler et al.
Abb. 11.14 Nutzungsszenarien für die Workbench
bestimmten Planungsschritt suchen und gleichzeitig die Anwendungsbereiche der Methoden identifizieren. • Lösung von Gestaltungsaufgaben in einer Projektsituation (Szenario 3): Zur Lösung von konkreten Planungsaufgaben (Praxis- oder Projektbezug) zu logistischen Systemen greifen Anwender auf die Wissensbasis der Workbench zu, um zunächst ein Projekt einzurichten. Dazu werden zunächst die Aufgabenstellung und die Rahmenbedingungen der spezifischen Planungssituation beschrieben. Anschließend werden die Planer durch das System in der Weise geführt, dass zu jedem Planungsschritt alle relevanten Gestaltungselemente zur Verfügung gestellt werden. Weiterhin können wie in Szenario 2 Recherchen zu Gestaltungswissen vorgenommen werden (vgl. Abb. 11.13). • Ableitung von Gestaltungswissen (Szenario 4): Durch die Aufarbeitung projektspezifischer Konstruktionselemente und Synthese zu Gestaltungswissen und Konstruktionsregeln sowie durch einen Vergleich und die Aufarbeitung von in der Workbench enthaltenen Wissensbausteinen kann neues Wissen in Bezug auf die Gestaltung logistischer Systeme identifiziert, dokumentiert und abgelegt werden. Im Rahmen der in diesem Beitrag thematisierten Zusammenarbeit zwischen den Teilprojekten M6 und A4 wurde insbesondere das erste Nutzungsszenario durchschritten. Die abgelegten Inhalte stehen somit für die weiteren Nutzungsszenarien zur Verfügung.
11.7
Fazit und Ausblick
Die „Workbench“ als DV-gestützte Plattform wurde und wird für die Ergebnisdokumentation von Anwendungs- und Methodenprojekten des SFB 559 eingesetzt. Dies konnte im Rahmen dieses Beitrags exemplarisch für die Planung von GVZ
11 Nutzungsmöglichkeiten der Workbench zur Unterstützung des
293
gezeigt werden. Die Erkenntnisse aus den bisher, z. B. wie geschildert mit dem Teilprojekt A4 durchgeführten Experimenten in der Anwendung der „Workbench“, sollen dazu genutzt werden, besonders große und komplexe Datenmengen handhabbar und für die Wiederverwendung geeignet zu hinterlegen. Weitere Unterstützung bei der Anwendungsoptimierung der Plattform kann hierbei durch die intensive Berücksichtigung des Prozessketteninstrumentariums als Zugangspfad zum modellierungsrelevanten Wissen erfolgen. Ziel ist es, diesen Modellierungsrahmen als formales Instrumentarium im Kontext der Gestaltung von GNL zu etablieren und die Erfassungssystematik zu vervollständigen. Weiterhin können Nutzungsregeln für die Ablage und Verarbeitung bzw. die Vernetzung von realem Planungswissen erarbeitet werden. Dies können standardisierbare Geschäftsprozesse sein mit dem Zweck, in Zukunft eine vereinfachte Verallgemeinerung und Standardisierung von Planungsinhalten zu ermöglichen. Hierzu sollten die Wege zur Verallgemeinerung des Wissens und der Erstellung von standardisierbaren Inhalten intensiv analysiert werden. Die Optimierung der Architektur in eine lebensfähige Plattform mit Hilfe der bereits geschilderten Ergebnisgrundlagen ist eine wesentliche Aufgabe in der letzten Phase des SFB 559. Hierfür geht es um die Aufnahme des für die Modellierung großer logistischer Netze nötigen Wissens und von Ergebnissen aus allen Teilprojekten und sonstigen Wissensquellen. Das Ziel einer vollständigen und über die Förderphase des SFB 559 hinaus lebensfähigen Plattform kann somit nur in enger Kooperation mit den anderen SFB-Teilprojekten erfüllt werden, wobei in diesem Rahmen ebenfalls die inhaltlichen Ergebnisse aus der zweiten Antragsphase einer Modifikation und Aufbereitung unterzogen werden müssen. Die Rückmeldung aus anderen Teilprojekten über den verfügbaren Wissenszugang, die Anwendbarkeit der „Workbench“ und die inhaltlichen Modifikationen können helfen, den Plattformgebrauch zu optimieren und somit der geringen Halbwertzeit von Wissen effektiv zu begegnen. Aus den in der dargestellten Zusammenarbeit mit Teilprojekt A4 gewonnenen Erfahrungen lässt sich jedoch bereits schließen, dass der grundlegende Ansatz in die richtige Richtung zielt.
Literatur [BBH+07] Bernsmann A, Buchholz P, Heinrichsmeyer H, Jehle E, Kessler S, Mehicic-Eberhardt S, Müller D, van Haaren B, Reinholz A (2007) Bewertungs- und Dimensionierungsmethoden im Sonderforschungsbereich 559. Technical Report – Sonderforschungsbereich 559 „Modellierung großer Netze in der Logistik“ 07002, ISSN 1612–1376 [BCK+06] Blutner D, Cramer S, Krause S, Nagel L, Reinholz A, Witthaut M (2006) Ergebnisbericht der Arbeitsgruppe 5 „Assistenzsysteme für die Entscheidungsunterstützung“. Technical Report – Sonderforschungsbereich 559 „Modellierung großer Netze in der Logistik“ 06009, ISSN 1612–1376 [BDR03] Barannikov M, Dilling C, Reinholz A (2003) Ein Bewertungsmodell zur Optimierung der Rampenbelegung und der Relationsflächen einer Stückgutumschlaghalle. Technical Report – Sonderforschungsbereich 559 „Modellierung großer Netze“ 03030
294
S. Kessler et al.
[BDS05] Bauseler A, Dilling C, Schulze im Hove A, Stüllenberg F (2005) Netzwerk-Balanced Scorecard – Bewertung logistischer Kooperationen in Güterverkehrszentren. Mater Manage – Logistik Prod Distrib 5:22–25 [Bec96] Beckmann H (1996) Theorie einer evolutionären Logistik-Planung. Dissertation, Universität Dortmund, Verlag Praxiswissen, Dortmund [BKL98] Beckmann H, Kühling M, Laakmann F (1998) Überlegungen zur Gestaltung großer Netze in der Logistik mit Hilfe von Konstruktionsregelwerken und -baukästen. Dortmund, Verlag Praxiswissen [GBV03] Gutenschwager K, Böse J, Voß S (2003) Effiziente Prozesse im Kombinierten Verkehr – Ein neuer Lösungsansatz zur Disposition von Portalkränen. Logistik Manage 5(1) [Ihd01] Ihde G (2001) Transport, Verkehr, Logistik, 3. Aufl. Verlag Franz Vahlen, München [KBe06] Kuhn A, Beller M (2006) Ein prozessorientiertes Vorgehensmodell zur modellgestützten Fabrikplanung. In Tagungsband VPP 2006. Vernetztes Planen und Produzieren, Chemnitz [KLS02] Käppner M, Laakmann F, Stracke N (2002) Dortmunder Prozesskettenparadigma – Grundlagen. Technical Report – Sonderforschungsbereich 559 „Modellierung großer Netze in der Logistik“ 02005, Dortmund, ISSN 1612–1376 [KSB07] Kuhn A, Schmidt A, Beller M (2007) Neue Vorgehensmodelle zur prozessorientierten Logistikplanung. Logistikjahrbuch 2007. Handelsblatt Fachblatt, Düsseldorf [Küh00] Kühling M (2000) Gestaltung der Produktionsorganisation mit Modell- und Methodenbausteinen, Dissertation, Universität Dortmund, Dortmund [Kuh95] Kuhn A (1995) Prozessketten in der Logistik. Entwicklungstrends und Umsetzungsstrategien. Verlag Praxiswissen, Dortmund [Kuh99] Kuhn A (1999) Prozesskettenmanagement, Erfolgsbeispiele aus der Praxis. Verl. Praxiswissen, Dortmund [KWe04] Kuhn A, Wenzel S (2004) Digitale Logistik: (R)evolutionäre Veränderungen in Planung und Betrieb? Jahrbuch der Logistik. Verlagsgruppe Handelsblatt, Düsseldorf, S 60–63 (Jahrbuch der Logistik 18) [Laa02] Laakmann F et al (2002) Workbench – Workbench zur Unterstützung der Planung logistischer Netze. Technical Report – Sonderforschungsbereich 559 „Modellierung großer Netze in der Logistik“ 02003, Dortmund, ISSN 1612–1376 [Laa05] Laakmann F (2005) Konstruktionsmethodischer Gestaltungsansatz für die Logistik. Umsetzung eines Modellierungskonzeptes für Planungswissen in der Logistik, Dissertation, Universität Dortmund, Dortmund [Lam06] Lampe H (2006) Untersuchung von Dispositionsentscheidungen in Umschlagterminals des Kombinierten Verkehrs Schiene/Strasse. Dortmund, Verlag Praxiswissen [LHW02] Laakmann F, Hieber R, Wiesinger G (2002) Construction Catalogues for the Design of Logistics Networks. In: 5th International Conference on Design of Information Infrastructure Systems for Manufacturing (DIISM’02), Osaka Universität, Osaka, Japan, November, S 109–116 [LRS+03] Laakmann F, Riha I, Stracke N, Weidt S (2003) Workbenchgestütze Konstruktion von Beschaffungsketten. Technical Report – Sonderforschungsbereich 559 „Modellierung großer Netze in der Logistik“ 03034, ISSN 1612–1376, Dortmund [LWG02] Laakmann F, Wiesinger G, Guenther S (2002) Collaborative knowledge „WORKBENCH“ for supply chain design projects; The 6th International Conference on Engineering Design and Automation Conference Theme: Engineering Practice and Education, USA, 4.–7. August 2002 [Pie95] Pielok T (1995) Prozesskettenmodulation: Management von Prozessketten mittels logistic function deployment. Dortmund, Verlag Praxiswissen [PSt97] Pfohl H-C, Stölzle W (1997) Planung und Kontrolle, 2. Aufl. Verlag Vahlen, München [SWi04] Schenk M, Wirth S (2004) Fabrikplanung und Fabrikbetrieb. Methoden für die wandlungsfähige und vernetzte Fabrik. Springer Verlag, Berlin [VDI93] VDI (1993) Methodik zum Entwickeln und Konstruieren technischer Systeme und Produkte, VDI-Richtlinie. Beuth-Verlag [War95] Warnecke H-J (1995) Aufbruch zum fraktalen Unternehmen. Springer Verlag, Berlin
11 Nutzungsmöglichkeiten der Workbench zur Unterstützung des
295
[Wie04] Wiesinger G (2004) Workbench: A planning tool for faster factory and logistics optimization. In: Tagungsband der ICEMT und DIISM – the 7th International Conference on Design of Information Infrastructure Systems on Manufacturing 2004, University of Toronto, Canada, 9.–11. Oktober 2004, 16 Seiten [Wie05] Wiesinger G (2005) Workbench: A tool for reconfigurable and agile factory and supply chain design. Vortrag, 1st International Conference on Changeable, Agile, Reconfigurable and Virtual Production (CARV 2005), (Organization: Institute for Machine Tools and Industrial Management (iwb)), Technische Universität München, Garching, 22.–23. September 2005 [Wil98] Wildemann H (1998) Die modulare Fabrik, 5. Aufl. TCW-Tranfer-Centrum GmbH, München [WQu97] Winz G, Quint M (1997) Prozesskettenmanagement – Leitfaden für die Praxis. Verlag Praxiswissen, Dortmund
Kapitel 12
Integration des Kosten-, Finanzund Risikomanagements in die Netzwerk-Balanced-Scorecard Egon Jehle und Britta von Haaren
Zusammenfassung Die zunehmende Globalisierung und der damit verbundene Kosten und Wettbewerbsdruck erfordern immer dringender die Entwicklung und den Betrieb von Unternehmensnetzwerken, insbesondere von Supply Chains. Die Generierung von Supply Chains ist in letzter Zeit in der Unternehmenspraxis etwas ins Stocken geraten, nicht zuletzt aufgrund der Tatsache, dass die wissenschaftliche Forschung auf diesem Gebiet noch keine umfassenden und überzeugenden Konzepte und Instrumente zur Verfügung gestellt hat. Eine hohe Priorität sowohl aus theoretischer als auch aus praktischer Sicht kommt insbesondere der Weiterentwicklung der Netzwerk-Balanced Scorecard zur ökonomischen Planung, Steuerung und Kontrolle von Supply Chain Prozessen zu. Hier fehlt es besonders an einem aussagefähigen Supply Chain Costing, Supply Chain Finance und einem geeigneten Supply Chain-Risk Management und deren Integration zu einem umfassenden SC-Steuerungsmodell. Der vorliegende Beitrag versucht, diese Forschungslücke zu schließen.
12.1
Forschungslücken in der Netzwerk-Balanced Scorecard
Die Netzwerk-Balanced Scorecard (NW-BSC) in den unterschiedlichsten Variantenausprägungen hat sich in letzter Zeit als ein leistungsfähiges Instrument zur Planung, Steuerung und Kontrolle von großen Netzen in der Logistik (GNL) erwiesen. In diesem Zusammenhang hat vor allem die von Jehle et al. entwickelte NW-
B. v. Haaren ( ) Technische Universität Dortmund, Fakultat Maschinenbau Lehrstuhl für Verkehrssysteme und - logistik Leonhard Euler-Str.5 44227 Dortmund, Deutschland E-mail:
[email protected] P. Buchholz und U. Clausen (Hrsg.), Große Netze der Logistik, DOI 10.1007/978-3-540-71048-6_12, © Springer-Verlag Berlin Heidelberg 2009
297
298
E. Jehle und B. von Haaren
Finanzperspektive Benchmark
Messgrößen
Ziele
Initiativen
Marktperspektive Ziele
Messgrößen
Benchmark
Initiativen
Ressourcenperspektive Ziele
Messgrößen
Prozessperspektive Benchmark
Initiativen
Ziele
Messgrößen
Benchmark
Initiativen
Kennzahlen Ziele
Messgrößen
Benchmark
Kennzahlen
Initiativen
Kennzahlen Kooperationsperspektive Kennzahlen
Abb. 12.1 Netzwerk-Balanced Scorecard (Entnommen aus [JSS02, S. 21].)
BSC1 die Aufmerksamkeit von Wissenschaftlern und Praktikern auf sich gezogen (Abb. 12.1).2 Trotz des relativ fortgeschrittenen Entwicklungsstandes der NW-BSC und der unbestrittenen Erfolge in der Praxis3 weist dieses Management- und Controllingkonzept noch zahlreiche Verbesserungsmöglichkeiten auf. 1. Kosten bilden im Rahmen der NW-BSC entscheidende Steuerungs- und Erfolgsgrößen. Vom Kostenmanagement sind alle Perspektiven der NW-BSC mehr oder weniger stark betroffen. Um die Kosten beeinflussen zu können, ist es erforderlich, die entsprechenden Kostentreiber und deren kostenmäßige Auswirkungen auf das Kostenniveau, den Kostenverlauf und die Kostenstruktur zu erfassen und zu bewerten. Allerdings ist eine systematische Integration eines so verstandenen Kostenmanagements in die NW-BSC bis heute nicht erfolgt.4 Fragt man nach den Gründen für dieses Defizit, so sind an erster Stelle die besonders hohe Komplexität und Schwierigkeit der Aufgabe zu nennen.
1 2 3
4
Vgl. [JSS02]. Vgl. z. B. [Zel03, S. 11]. S. z. B. Teilprojekte A4 („Netze und Güterverkehrszentren“, vgl. [BDS+03]) und A13 („Seehafenhinterlandverkehre“) des SFB 559, im Rahmen derer eine enge Zusammenarbeit mit der Praxis erfolgt. Vgl. [SHK05, S. 227].
12 Integration des Kosten-, Finanz- und Risikomanagements
299
2. Obwohl im Rahmen der NW-BSC die Finanzperspektive die Hauptrolle insofern spielt, als sämtliche Aktivitäten und Entscheidungen in den anderen Perspektiven letztlich die finanzwirtschaftliche Netzwerkperformance beeinflussen, wird die Bedeutung der Finanzperspektive als originärer Erfolgsfaktor im Rahmen der Untersuchungen zur NW-BSC noch nicht genügend beachtet.5 Unter den Perspektiven spielen die Finanzen eine Doppelrolle. „Einerseits bilden finanzielle Ziel- und Messgrößen die Wirkung jeglicher Maßnahmen zur Gestaltung der übrigen Erfolgsfaktoren (Perspektiven – Anm. d. Verf.) ab. Andererseits sind sie als Ansatzpunkt für Maßnahmen, wie der Optimierung der Kapitalstruktur, der Erhöhung von Eigen- oder Fremdkapitalpositionen oder der Sicherung von Währungspositionen durch Termingeschäfte, ein originärer Erfolgsfaktor.“6 Die Gestaltung dieser Maßnahmen ist Gegenstand des Supply Chain Finance (SCF). Dieses bildet neben der Planung, Steuerung und Kontrolle von Material- und Informationsflüssen eine zusätzliche und unentbehrliche Komponente des Managements von GNL und ist ein wichtiges Subsystem der NW-BSC.7 3. Über die Notwendigkeit einer stärkeren Berücksichtigung von Risikoaspekten im Netzwerk-Management und im Netzwerk-Controlling herrscht in der einschlägigen Forschung und in der Praxis weitgehend Konsens. Die zunehmende Bedeutung von Risiken und Chancen für das Management von GNL ist sowohl auf generelle als auch auf netzwerkspezifische Gründe zurückzuführen. Nach Pfohl ist die steigende Bedeutung des Risiko- und Chancenmanagements für das Management von GNL vor allem auf die Entwicklung zur Flow Economy, zur Globalisierung sowie auf die Herausbildung der dritten industriellen Revolution zurückzuführen.8 Neben diesen generellen Gründen bringen die Bildung und der Betrieb von logistischen Netzwerken darüber hinaus eine Vielzahl von neuen SC-spezifischen Risiken und Unsicherheiten für die beteiligten Unternehmen mit sich. „Eine spezifische Problematik des SC-Managements besteht z. B. darin, dass sich die Risiken über einzelne Stufen der SC hinweg i. d. R. nicht ausgleichen, sondern tendenziell verstärken.“9 Der Bullwhip-Effekt sowie die aufschaukelnden Lieferverzögerungen beim Materialfluss in Downstream-Richtung der SC sind konkrete Beispiele für steigende Unsicherheiten in der Supply Chain.10
5 6 7 8 9 10
Vgl. [HKo06, S. 2]. [Rei06, S. 653 f.]. Vgl. [Ste02a, S. 175]. Vgl. [Pfo02a], Vorwort. [Ind02, S. 400]. Vgl. [Ind02, S. 400]. Zu Grundlagen des Risikomanagements siehe: [VSi07].
300
12.2
E. Jehle und B. von Haaren
Einbindung kostenmäßiger, finanzieller und risikoorientierter Elemente in die SC-Balanced Scorecard als wichtigster Realtyp der NW-BSC
Hauptziel der vorliegenden Abhandlung ist die Einbindung und Integration kostenmäßiger, finanzieller und risikoorientierter Aspekte in die NW-BSC. Aus Gründen der Komplexitätsreduktion soll der Weg dorthin am Beispiel der Supply ChainBalanced Scorecard (SC-BSC) als wichtigstem Realtyp der NW-BSC aufgezeigt werden.
12.2.1
Einbindung des SC-Kostenmanagements in die SC-BSC in Form der Simulationsgestützten Prozesskostenrechnung
Mit der Einbindung des Kostenmanagements in das SCM befasst sich seit geraumer Zeit das Supply Chain Costing. Als Kandidaten für die geforderte kostenmäßige Erweiterung des SCM eignen sich die verschiedenen Kostenmanagementsysteme in unterschiedlichem Maße. In der einschlägigen Literatur wurden vor allem die lebenszyklusorientierte Kostenrechnung, die unternehmensübergreifende Prozesskostenrechnung (PKR), das Total Cost of Ownership, die ressourcenorientierte Prozesskostenrechnung, das Target Costing und das Benchmarking daraufhin untersucht, inwieweit sie als Grundlage für die Entwicklung eines Supply Chain Costing in Frage kommen.11 Es würde hier zu weit führen, den Aufbau und die Vorgehensweise dieser Kostenmanagementsysteme im Detail zu beschreiben. Allen diesen Managementkonzepten ist gemeinsam, dass ihre Vertreter die Kostenbetrachtungen auch auf interorganisationale Geschäftsbeziehungen ausdehnen. In Bezug auf die Frage der unternehmensübergreifenden Kostenbeeinflussung in einer Supply Chain, die in diesem Zusammenhang im Mittelpunkt steht, liefern diese Ansätze bislang jedoch noch keine theoretisch befriedigende Lösung und kaum praxistaugliche Erkenntnisse. Diese Instrumente sind beim gegenwärtigen Entwicklungsstand des SC-Costing insbesondere nicht geeignet, die Auswirkungen von Veränderungen in den Prozessstrukturen oder Prozessen innerhalb einer Supply Chain genau zu quantifizieren. Die Kenntnis der kostenmäßigen Auswirkungen von Struktur- und Prozessveränderungen in der Supply Chain ist jedoch von grundlegender Bedeutung für das Supply Chain Costing. Hierfür werden Instrumente des Kostenmanagements benötigt, welche die notwendigen Informationen liefern.12 Von den oben genannten Kostenmanagementsystemen kommt vor allem die unternehmensübergreifende Prozesskostenrechnung als Kandidat für eine Einbin11 12
Vgl. [Mei07, SHK05]. Vgl. [Mei07, S. 128 f.].
12 Integration des Kosten-, Finanz- und Risikomanagements
301
dung in das SCM und die SC-BSC in Frage. Der im Rahmen dieses Kostenmanagementsystems bislang verfügbare Werkzeugkasten reicht jedoch nicht aus, um die Komplexität von SC-Prozessen kostenmäßig zu erfassen. Deshalb wurde im Rahmen des Teilprojekts M3 „Netzwerkcontrolling“ des SFB 559 die Simulationsgestützte Prozesskostenrechnung entwickelt.13 Abbildung 12.2 illustriert dieses Vorgehensmodell. Mit Hilfe des ProC/BModells werden technische Größen, z. B. Kapazitätsauslastung, Überstunden, Produktwechsel u. a., in Abhängigkeit einer bestimmten Systemlast (Kundennachfrage) simuliert. Auf Basis dieser Kostentreiber werden transaktions-, zeit- und intensitätsbasierte Prozesskostensätze für jeden Teilprozess und jede Kostenart berechnet. Die transaktionsbasierten Kostensätze bestimmen die Kosten für die einmalige Ausführung einer Transaktion (Prozess), die zeitbasierten Kostensätze legen die Kosten für eine Zeiteinheit fest (z. B. Arbeitsstunde, Überstunde), die für eine Aktivität in einem einzelnen Teilprozess benötigt wird. Intensitäts-Kostentreiber erlauben die direkte Zuordnung von Kosten zu einem Kostenträger, so dass es nicht notwendig ist, die zugehörigen Kosten durch Kostensätze zu verrechnen. Auf der Grundlage der ermittelten Kostensätze bzw. Kostentreiber können nun die gesamten transaktions-, zeit- und intensitätsbasierten Kosten eines Kostenträgers je Teilprozess und Kostenart ermittelt werden. Durch Aufsummierung dieser drei Größen für jede den Kostenträger betreffende Kostenart, ergeben sich die Gesamtkosten eines Kostenträgers. Diese müssen im nächsten Schritt durch die Stückzahl des Kostenträgers dividiert werden. Nach der Kumulierung dieser Stückkosten über alle durchlaufenen Teilprozesse ergeben sich schließlich die aggregierten Stückkosten eines Kostenträgers.14
12.2.2
Erweiterung der SC-BSC um das Supply Chain Finance
12.2.2.1
Notwendigkeit eines Supply Chain Finance
Die optimierende Gestaltung von Finanzflüssen im Rahmen des SCM obliegt dem Supply Chain Finance (SCF), ein Forschungsgegenstand, der im Rahmen des SCM zunehmend an Bedeutung gewinnt. „Supply Chain Finance is an approach for two or more organizations in a supply chain, including external service providers, to jointly create value through means of planning, steering, and controlling the flow of financial resources on an interorganizational level.“15 Der Aufbau und der Betrieb einer finanziellen SC im Rahmen des SCM sind mit signifikanten Herausforderungen für das Management verbunden. „The challenges arising with these developments bring along a new understanding and role of the
13 14 15
Vgl. [Mei07]. Vgl. [Mei07, S. 169 ff.]. [Hof05, S. 205].
302
E. Jehle und B. von Haaren
Abb. 12.2 Simulationsgestützte Prozesskostenrechnung (Zur genauen Vorgehensweise dieses Modells s. [Mei07, S. 166 ff.]; zu den Modellierungsgrundlagen s. [BBS03, Kuh95].)
12 Integration des Kosten-, Finanz- und Risikomanagements
Umwelt
303
Legende: Logistikwelt FlussfinanziellerMittel Finanz(dienst)leistungen
Flussfinanzieller Mittel
Interaktionen Finanzwelt
Umwelt
Abb. 12.3 SCF – Verbindung von Logistik- und Finanzwelt (Entnommen aus [PEH03, S. 3].)
supply chain actors and their relationships. New inter-functional and inter-organizational tasks at the intersection of finance and logistics open new opportunities.“16 Die Einbindung des SCF in das SCM wird zur Zeit von immer mehr Wissenschaftlern und Praktikern gefordert. Effektive Verbesserungen können nur durch die gemeinsame Betrachtung der finanziellen und operativen Prozesse innerhalb der Supply Chain erreicht werden.17 Ein effektives Supply Chain Management geht also über den Materialfluss vom Vorlieferanten bis zum Endkunden hinaus, indem ebenfalls der Finanzfluss bis zum Zahlungseingang des Kunden berücksichtigt wird.18 Trotz dieser wissenschaftlichen und praktischen Erfordernisse weisen die vorgefundenen Forschungsergebnisse und die von der Praxis vorgelegten Konzepte des Supply Chain Finance gegenwärtig noch einen äußerst fragmentarischen und rudimentären Zustand auf. Aus den im einschlägigen Schrifttum vorgefundenen Bruchstücken und auf der Grundlage des von Pfohl, Elbert und Hofmann entwickelten relativ umfassenden theoretischen Bezugsrahmens soll im Folgenden eine systematische Konzeption des SCF herausgearbeitet werden, die in die SC-BSC eingebunden werden kann.
12.2.2.2
Grundbausteine des Supply Chain Finance
Im Grundmodell von Pfohl, Elbert und Hofmann ist der Fluss finanzieller Mittel zwischen der Finanz- und Logistikwelt angesiedelt (s. Abb. 12.3). Die Aufgabenbereiche dieser SCF-Konzeption sind in Abb. 12.4 dargestellt. Das Supply Chain Finance verfolgt als oberstes Ziel und Aufgabe die Wertsteigerung der an der Supply Chain beteiligten Unternehmen, wie sie in der Regel in der Maximierung des DCF (Discounted Cash Flow), EVA (Economic Value Added) und MVA (Market Value Added) zum Ausdruck kommt.19 Das Management der
16 17 18 19
[Hof05, S. 203]. Vgl. [HKo06, S. 1]. Vgl. [Ste02b, S. 122]. Vgl. [Jeh05, S. 143].
304
E. Jehle und B. von Haaren Aufgabenbereiche
Betrachtungsebenen allgemeines Management
Management der Wertsteigerung
spezifisches Management Finanzmanagement Rechnungswesen
Banken/ Finanzdienstleister
Logistikmanagement
Kunden
Finanzierung
Dienstleister
Investition
Dienstleister
Lieferanten
Investoren/ Staat
Management der Kapitalverwendung und des Kapitalbedarfs
Management des Nettoumlaufvermögens
Abb. 12.4 Aufgabenbereiche der SCF-Konzeption (Ellipse: Akteure; Rechtecke: Funktionen des Finanzmanagements; abgerundete Kästen: Managementbereiche) (Entnommen aus [PEH03, S. 23].)
Kapitalverwendung (Investition) und des Kapitalbedarfs (Finanzierung) charakterisieren die zweite Ebene des hier vorgestellten SCF-Konzeptes. Das Management des Nettoumlaufvermögens (Net Working Capital (NWC)) ist auf der dritten Ebene angesiedelt. Das Nettoumlaufvermögen bzw. das Net Working Capital wird in Abb. 12.5 definiert. „Working capital management aims at
Accounts payable (A/P)
Inventory - Raw materials - Work-in-progress - Finished goods - Stores and spares - Miscellaneous goods
Notes payable
(Current) accruals =
Accountsreceivable (A/R)
- Advances received - Securities and other deposits - ...
Marketable securities
Abb. 12.5 Definition des Nettoumlaufvermögens (Entnommen aus [HKo06, S. 7].)
Cash and bank balances Current assets
Other current liabilities
Net working capital
Current liabilities
Net working capital
12 Integration des Kosten-, Finanz- und Risikomanagements
305
minimizing the capital tied up in the company’s turnover process by reducing current assets and extending current liabilities.“20 In Abb. 12.6 ist das Gesamtmodell des Supply Chain Finance mit seinen verschiedenen Modulen und Untermodulen dargestellt, wie es sich aus den Vorarbeiten von Pfohl, Elbert und Hofmann sowie aus der Zusammenführung weiterer theoretischer Fragmente ergibt. Die Pfeile in der Abb. 12.4 und 12.6 sowie in den weiteren Abbildungen bedeuten Zusammenhänge und Beeinflussungsbeziehungen zwischen den betrachteten Elementen. a) Das Management des Nettoumlaufvermögens (Net Working Capital) Zum Management des Nettoumlaufvermögens zählt das Management der Bestände, die in diesem Zusammenhang jedoch kollaborativ und aus logistischer sowie finanzwirtschaftlicher Sichtweise gesteuert werden müssen. Das bedeutet zum Beispiel, dass das Bestandsmanagement auch unter Berücksichtigung bilanzanalytischer und bilanzpolitischer Erwägungen gestaltet werden muss.21 „Initiativen zur Reduzierung der Bestände sind so alt wie die Logistik selbst, doch nun kommt der Druck zur Bestandreduzierung auch aus dem Zwang, die Bilanzpositionen entsprechend der gängigen Analysekennzahlen der Unternehmensbewertung zu gestalten. Damit sind die Bestände an Material und Waren auch unter dem Gesichtspunkt der Finanzierung zu sehen und zu gestalten.“22 Zwischen dem logistischen und finanzwirtschaftlichen Bestandsmanagement können Zielkonflikte bestehen. So stehen den Kostenbetrachtungen für Transporte, Lagerung und Güterumschlag häufig die Kosten für Finanzierungen von Produkten in der Lieferkette und Kosten der Abwicklung von Aufträgen gegenüber. z. B. kann
Abb. 12.6 Gesamtmodell des Supply Chain Finance (In Anlehnung an [PEH03, S. 21 ff.]) 20 21 22
[HKo06, S. 7]. Vgl. [Ste03, S. 141/145]. [Ste03, S. 141].
306
E. Jehle und B. von Haaren
eine Kostenminimierung durch geringere Bestände durch angefallene Finanzierungskosten des verbleibenden Bestandes aufgehoben werden.23 b) Das Cash Management Zum Management des Working Capital gehört auch das Collaborative Cash Management. „Das Ziel des Cash Managements ist es, Verbindlichkeiten, Forderungen, Anzahlungen und Abschlagszahlungen terminlich so zu steuern, dass für ein Unternehmen (bzw. eine Supply Chain – Anm. des Verf.) ein möglichst kurzer Cash-to-Cash-Cycle und damit eine geringe Kapitalbindung sowie ein möglichst großer Free Cash Flow sowie eine hohe Liquidität erreicht werden.“24 Das Cash Management umfasst also im Wesentlichen das Forderungs- und Kreditorenmanagement sowie das Liquiditätsmanagement.25 Durch ein aktives Forderungs- und Kreditorenmanagement kann der Cash-toCash-Cycle in einer Supply Chain signifikant in Richtung einer Minimierung gestaltet werden. Ein effizientes Forderungsmanagement kann z. B. durch eine zeitnahe Fakturierung, unternehmensweit gültige Finanz- und Kreditrichtlinien, durch eine Vereinfachung und Beschleunigung der Forderungsliquidation sowie durch eine geeignete IT-Struktur erreicht werden. Besondere Beachtung erfordert das Management von Verbindlichkeiten, denn oftmals stehen sich die Reduktion des Nettoumlaufvermögens und die Erhaltung der Lieferbeziehungen konfliktär gegenüber. So kann eine Minimierung des Nettoumlaufvermögens einen Verlust beim Servicegrad oder der Dienstleistungsqualität bei den Lieferanten nach sich ziehen.26 c) Das finanzwirtschaftliche Prozessmanagement Zur Optimierung des Working Capital gehört auch das finanzwirtschaftliche Prozessmanagement. Hier lassen sich Prozesse vor (Geschäftsanbahnung) und nach dem physischen Materialfluss (Geschäftsabwicklung) unterscheiden.27 Die in Abb. 12.7 dargestellte generische Financial Supply Chain zeigt im Einzelnen diese Prozesse. Der Prozess der Rechnungsstellung gilt nach den empirischen Untersuchungen der Top-1.000 Unternehmen von Skiera et al. als derjenige Teilschritt der Financial Supply Chain mit dem höchsten Verbesserungspotential (s. Abb. 12.8). Dies verwundert angesichts der Tatsache nicht, dass deutsche Mittelstandsunternehmen im Durchschnitt 86% ihrer Rechnungen per Post versenden, deutsche Großunternehmen 67%. Dabei liegen die Kosten je Rechnung bei Großunternehmen bei durchschnittlich 15,50 € im Gegensatz zu 2,00 € bei elektronischem Rechnungsversand.28
23
Vgl. [Ste02b, S. 123]. [PEH03, S. 39]. 25 Vgl. [PEH03, S. 37]. 26 Vgl. [PEH03, S. 40]. 27 Vgl. [SSe03, S. 31]. 28 Vgl. [PSW04, S. 107]. 24
12 Integration des Kosten-, Finanz- und Risikomanagements
307
Abb. 12.7 Generische Financial Supply Chain eingebettet in das SCM (Entnommen aus [SWP05, S. 118].)
Auch der Prozess der Reklamation birgt ein relativ hohes Verbesserungspotential, da eine ineffiziente Behandlung solcher Reklamationen zu einer Verlängerung der Außenstandstage (DSO = Days of Sales Outstanding) führen kann. d) Wichtige Kennzahlen des „Modern Working Capital Management“ Ziel des Working Capital Managements ist die Minimierung des Net Working Capital, ohne den Geschäftsprozess negativ zu beeinflussen. Das wichtigste Handlungs30 %
n=100 26,0 %
Anteil Unternehmen
25 %
20 %
19,0 %
19,0 % 16,0 % 14,0 %
15 % 13,0 % 10,0 %
10 %
5%
Zahlung
Reklamation
Rechnungsstellung
Absicherung
Preisfindung
Finanzierung
Qualifikation
0%
Teilprozess
Abb. 12.8 Verbesserungspotentiale der Teilprozesse der Financial Supply Chain bei deutschen Top-1.000-Unternehmen (Entnommen aus [PSW04, S. 112].)
308
E. Jehle und B. von Haaren
prinzip lautet hierbei „Collect fast, pay slow“, nach dem Einzahlungen beschleunigt und Auszahlungen verlangsamt werden sollen. Die Performance des Working Capital Managements kann mit verschiedenen Kennzahlen gemessen werden.29 Lagerdauer bzw. „Days Inventory Held“ (DIH): DIH = Vorräte/Umsatz × 365 → gibt die Geschwindigkeit an, mit der die Vorräte an Rohstoffen, Halb- und Fertigerzeugnissen einer Unternehmung in Produktverkäufe transferiert werden. Forderungsaußenstandsdauer bzw. „Days Sales Outstanding“ (DSO): DSO = Forderungen/Umsatz × 365 → gibt die Zeitspanne zwischen dem Verkauf der Produkte und dem Eingang der Kundenzahlung an. Verbindlichkeitsdauer bzw. „Days Payable Outstanding“ (DPO): DPO = Verbindlichkeiten/Umsatz × 365 → bedeutet die Zeit, die zwischen der Lieferung von Rohstoffen, Halb- und Fertigerzeugnissen und der Bezahlung der entsprechenden Rechnung verstreicht. Nettokapitalbindungsdauer bzw. „Cash-Conversion-Cycle“, „Cash-toCash-Cycle“ (CCC): CCC = DIH + DSO – DPO → gibt die Tage an, die zwischen der Zahlung der bezogenen Waren und dem Zahlungseingang für verkaufte Fertigprodukte liegt. Diese wichtige Kennziffer wird im einschlägigen Schrifttum auch noch wie folgt definiert:30 Alter der Vorräte (DIH) + Alter der Forderungen (DSO) – Alter der Verbindlichkeiten (DPO) = Cash-to-Cash-Cycle Eine Änderung des CCC um -x% bedeutet eine Verbesserung, während eine CCC-Änderung um +x% eine Verschlechterung der Finanz- und Liquiditätssituation im Sinne einer minimalen Kapitalbindung und einer hohen Liquidität bedeutet. In Abb. 12.9 sind für das Jahr 2004 die Cash-to-Cash-Mediane für ausgewählte Wirtschaftsbranchen angegeben. e) Übertragung auf Supply Chains Der Cash-to-Cash-Cycle einer Supply Chain lässt sich in analoger Vorgehensweise ermitteln, wie Abb. 12.10 zeigt. Allerdings können in diesem Zusammenhang besondere Probleme bei der Ermittlung auftreten.
12.2.2.3
Das Management des Kapitalbedarfs (Finanzierung)
Die Logistik-Finanzierung bezieht sich auf die Finanzierung von Logistikimmobilien und von mobilen logistischen Objekten sowie auf die Erzielung von Finanzierungseffekten. Zu den Logistikimmobilien gehören die Gebäude sowie die Einbauten 29 30
Vgl. [Beh05 S. 105 ff, HKo06, S. 8 ff.]. Vgl. [PEH03, S. 38].
12 Integration des Kosten-, Finanz- und Risikomanagements
Sektor
CCC
CCC-Change 2003-2004
309
DSO
DIH
DPO
Restaurants
2
+1%
9
6
13
Airlines
5
-7%
16
7
18
Oil, Secondary
11
-20%
31
14
34
Food Retailers & Wholesalers
13
-15%
8
24
19
Oil, Integrated Majors
15
-10%
31
12
28
Retailers, Broadline
15
-4%
3
40
27
Broadcasters
19
-5%
41
4
26
Lodging
22
+15%
28
9
15
Railroads
24
-5%
37
9
21
Trucking
26
+3%
43
1
18
Air Freight Couriers
27
+13%
51
1
25
Recreational Products & Services
28
+10%
23
25
20
Pollution Management
28
-0%
51
4
27
Drug Retailers/Wholesalers
29
-3%
20
39
29
Soft Drinks
30
+4%
34
19
23
Telecoms
31
+6%
45
7
21
Oil Drilling
36
-12%
41
13
18
Publishing
36
+1%
41
4
8
Computers
38
-13%
64
18
44
Other Speciality Retailers
38
-2%
10
58
29
Newspaper Publishers
40
-2%
49
8
17
Paper & Forest Products
42
-9%
34
36
27
Apparel Retailers
42
+2%
14
54
26
Auto Parts
43
-2%
55
33
45
Heavy Construction
43
+13%
55
15
27
Distributors
45
-3%
48
37
40
Household Products, Non Durable
45
+2%
37
35
26
Containers & Packaging
47
-12%
41
44
37
Other Industrial & Commercial Services
48
+2%
60
7
19
Food Producers
48
-2%
33
41
26
Distillers & Brewers
49
+8%
36
43
30
Abb. 12.9 Top 30 sector cash-to-cash medians in 2004 (Entnommen aus [HKo06, S. 11].)
der Lager-, Transport-, Umschlags- und Handhabungstechnik. Auch die Ausstattung mit Informations- und Kommunikationstechnologie ist hierher zu zählen. Die klassische Hypothekenfinanzierung mit fest fixierten Finanzierungsparametern, wie Festzins und Annuitätentilgung, Damnum und Gebührensätze stößt wegen der zunehmenden konjunkturellen Schwankungen auf den Märkten an ihre Grenzen.
310
E. Jehle und B. von Haaren Collaborative cash-to-cash cycle (internal network relations)
Cash-to-cash cycle
Cash-to-cash cycle
Cash-to-cash cycle
Company 1
Company 2
Company 3
A/R period x supply-side external network relations
Inventory period 1 A/P period 1
A/R period 2
A/R period 1
Inventory ...
Inventory period 3
Inventory period 2 A/P period 2
A/R period 3
A/P period 3
demand-side external network relations
A/P period y
time t0 t1 t2 Inventory Cash paid Inventory purchased by Co. 1 sold to Co. 2 by Co. 1
t3
t4
t5
t6
t7
Cash paid Inventory Cash paid Inventory Cash paid by Co. 2 sold to Co. 3 by Co. 3 sold to Co. y by Co. y
Abb. 12.10 Der Cash-to-Cash-Cycle für eine Supply Chain (Entnommen aus [HKo06, S. 17].)
Zunehmend werden bei der Finanzierung von Logistikimmobilien die Festlegung von variablen Zinssätzen und eine variable Kreditrückführung angestrebt. Hierbei werden variable Zinsvereinbarungen in der Regel an die Marktzinsentwicklung oder an Erfolgsindizes gebunden, die mit dem Logistik-Projekt zusammenhängen. Auch die Kreditrückführung kann variabel an die Cash-Flow-Entwicklung des zugrundeliegenden Logistik-Projektes angebunden werden. In diesem Bereich der flexiblen Finanzierung von Logistik-Projekten treten zunehmend Logistik-Dienstleister und Spezial-Kreditinstitute am Markt auf.31 Aus Risiko- und Shareholder-Value Gründen versuchen die Verlader in zunehmendem Maße, sich vom Eigentum an Logistikimmobilien zu lösen. Immer häufiger treten Logistik-Dienstleister als Eigentümer von Logistikimmobilien auf. Die Nutzung der Immobilie durch den Verlader erfolgt in diesem Fall über einen Leasing-Vertrag. Die Finanzierung der betreffenden Logistikimmobilie erfolgt über den Logistik-Dienstleister, der unter dem Druck der Kreditzurückführung und der Auslastung der Logistikimmobilie an einer zusätzlichen Vermarktung dieser Immobilie interessiert sein dürfte, die Drittverwendungsfähigkeit vorausgesetzt.32 Als dritte Variante einer Immobilien-Finanzierung in der Logistik kommt das Modell der Investorenfinanzierung in Frage. Die Instandhaltung eines LogistikZentrums stellt ein großes wirtschaftliches Risiko dar, weil die reale Nutzungszeit solch einer Immobilie meist mehr als 2–3 Jahre beträgt. Auch für den LogistikDienstleister ist die Tätigkeit als Immobilienverwalter und -verwerter kein Kerngeschäft. Deshalb übernehmen in zunehmendem Maße Kapitalsammelstellen, wie z. B. Finanzinvestoren, das Eigentum an Logistikimmobilien mit der Absicht, diese Immobilien in Form eines eigenständigen Unternehmensinhalts im Rahmen eines sog. Logistik-Parks zu vermieten. Diese Form der Finanzierung von Logistikimmobilien wird als Investorenfinanzierung bezeichnet.33 31
Vgl. [Ste03, S. 141 ff.]. Vgl. [Ste03, S. 143]. 33 Vgl. [Ste03, S. 144]. 32
12 Integration des Kosten-, Finanz- und Risikomanagements
311
Zum Management des Kapitalbedarfs zählt auch die Finanzierung von Lagerbeständen (Lagerfinanzierung). Im Rahmen der klassischen Finanzierung wird dem Hersteller vom Lieferanten in der Regel ein Zahlungsziel oder eine Skontovereinbarung bei schnellerer Begleichung der Rechnung eingeräumt. In jüngster Vergangenheit werden diese traditionellen Formen der Finanzierung von Lagerbeständen durch neuere und innovativere Finanzierungsformen z. B. unter Einschluss von Banken und Finanzdienstleistern abgelöst. Einen derartigen Finanzierungsansatz stellt z. B. das Inventory-Service Modell der Postbank dar. Es handelt sich hierbei um ein „Off-Balance-Produkt“, d. h. um eine sog. bilanzneutrale Warenlagerfinanzierung. Eisenhart-Rothe/Jütte dokumentieren an einem Beispiel – der Auslagerung des Ersatzteilgeschäfts eines bedeutenden europäischen Automobilherstellers – dass eine bilanzneutrale Warenlagerfinanzierung für alle Beteiligten (Hersteller, beteiligte Banken, Logistikpartner) gewinnbringend ausgeführt werden konnte.34 Der Baustein Logistik-Finanzierung erstreckt sich schließlich auf die Erzielung von Finanzierungseffekten. Einen positiven Finanzierungseffekt erzielt man beispielsweise durch eine elektronische Abliefermeldung und dem unmittelbaren Rechnungsversand als Datensatz. Hierdurch reduziert sich z. B. die Zeitspanne der Rechnungsstellung von der Dimension Tag auf Sekunde mit der Folge, dass die Zeitspanne zwischen Lieferung und Rechnungsstellung nicht mehr vom Verlader finanziert werden muss. Ähnliche Effekte sind beim transnationalen Warenbezug über Akkreditive zu erzielen.35
12.2.2.4
Das Management der Kapitalverwendung (Investition)
Wie Abb. 12.6 zeigt, werden in allen logistischen Teilfunktionen sowie im IT-Bereich Investitionen getätigt. Für alle Kapitalverwendungsaktivitäten von nennenswerter Größe sind systematische Investitionsrechnungen zum Nachweis der Wirtschaftlichkeit dieser Investitionen zu fordern. Von besonderer Schwierigkeit ist der Wirtschaftlichkeitsnachweis für Investitionen in SCM-Softwaresysteme. Entsprechende Vorgehensmodelle sind vom Fraunhofer ALB sowie den Fraunhofer Instituten IML und IPA in Kooperation mit der ETH-Zürich entwickelt worden. Diese Modelle sind jedoch auf bestimmte Sichtweisen zugeschnitten: „So steht im Vorgehensmodell des Fraunhofer ALB die strategische Sichtweise unter Vernachlässigung von funktionalen Detailfragen im Vordergrund, während der Lösungsvorschlag der Fraunhofer Institute IML und IPA sowie der ETH-Zürich auf die Funktionalitäten der betrachteten SCM-Softwaresysteme fokussiert. Diese beiden Sichtweisen müssen im Rahmen eines strategisch-konzeptionell ausgerichteten Vorgehensmodells zur Systemauswahl zusammengeführt und integriert werden“36, wie dies im folgenden Trichtermodell (s. Abb. 12.11) geschieht. 34
Vgl. [VJü03, S. 157 ff.]. Vgl. [Ste03, S. 147 f.]. 36 [Jeh05, S. 200 f.]. 35
312
E. Jehle und B. von Haaren
Abb. 12.11 Trichtermodell zur Auswahl von SCM-Softwaresystemen (Entnommen aus [Jeh05, S. 201].)
Softwaretools
Branche Fertigungsprozesstyp Betriebsgröße Funktionalitäten Kosten-/ Nutzeneffekte
gewählte Software
12.2.3
Einbindung des SC-Risikomanagements in die SC-BSC
Risiken können in einer Versorgungskette an den unterschiedlichsten Stellen eintreten. Das Risiko in einer Supply Chain lässt sich definieren als zukünftig eintretendes Ereignis, welches die Erreichung der Supply-Chain-Ziele verhindern oder die logistischen Ströme (Material-, Finanz- und Informationsflüsse) in einer Supply Chain beeinträchtigen könnte.37 Dabei steht einem Risiko i. d. R. eine Chance gegenüber. Ein Risiko ist stets durch eine mögliche Konsequenz gekennzeichnet.38 Unter einem SC-Risikomanagement ist ein Prozess zu verstehen (s. Abb. 12.12), im Rahmen dessen alle SC-Partner beteiligt sind, um mögliche Risiken zu identifizieren, zu analysieren, zu steuern und zu kontrollieren.39 Risikoquellen in der Supply Chain lassen sich nach Tah/Carr wie in Abb. 12.13 strukturieren. Als Ergebnis der Risikoanalyse steht meist die Einordnung der Risiken in ein sogenanntes Wesentlichkeitsportfolio (s. Abb. 12.14), aus dem sich ablesen lässt, für welche Risiken Handlungsbedarf besteht. Zu den Maßnahmen der Risikosteuerung zählen die Risikovermeidung, welche bei besonders schwerwiegenden Risiken angestrebt werden sollte, die Risikoakzeptanz, wobei die Folgen leichter Risiken bewusst in Kauf genommen werden und die Risikominimierung. Letztere kann z. B. in Form von Versicherungen, Risikostreuung, -abwälzung oder -teilung vorgenommen werden.40
37
Vgl. [Gim02, S. 157, Kaj03, S. 110, KDu04, S. 492]. Vgl. [Kaj03, S. 110]. 39 Vgl. [KDu04, S. 492 ff., NJa04, S. 436]. 40 Vgl. [HGl00, S. 113]. 38
12 Integration des Kosten-, Finanz- und Risikomanagements Abb. 12.12 Der Prozess eines Risikomanagements (In Anlehnung an [Rei03, S. 171].)
313
Risikoidentifikation
Risikoanalyse
Risikosteuerung
Risikoüberwachung
Es existiert bereits eine Vielzahl an Instrumenten zur Unterstützung der einzelnen Vorgehensschritte des Risikomanagementprozesses. Allerdings fehlt es bisher noch an einem ganzheitlichen Modell zur vollständigen Erfassung, Steuerung und Überwachung von Risiken in einer Supply Chain.41 In diese Richtung könnte eine um Risikoaspekte erweiterte SC-BSC einen wichtigen Fortschritt bedeuten.
Abb. 12.13 Hierarchie von Supply-Chain-Risiken (Entnommen aus [TCa01, S. 838].)
41
Vgl. [HGl00, S. 110].
314
E. Jehle und B. von Haaren
Schadenshöhe
sehrhoch
Handlungsbedarf s its ke ch tli en es
W
hoch
unter Umständen Handlungsbedarf
ch el w
mittel
le
kein Handlungsbedarf
h
h
ic
ic
nl
nl
Eintrittswahrscheinlichkeit
se
hr
w ah
w ah
rs
rs
ch
ch
ei
ei
ög m
un
w ah
rs
ch
ei
nl
lic
ic
h
h
gering
Abb. 12.14 Wesentlichkeitsportfolio (In Anlehnung an [Pfo02b, S. 37].)
12.3
Integration des SC-Costing, des SC-Finance und des SC-Risikomanagements in die SC-BSC
Auf der Grundlage der Beschreibung und Analyse des SC-Costing, des SC-Finance und des SC-Risikomanagements ist es nunmehr möglich, eine konkrete Integration dieser drei Teilbereiche des SCM in die SC-BSC vorzunehmen (s. Abb. 12.15). Die Integration des SC-Costing und SC-Finance in die SC-BSC soll im Wesentlichen über eine gezielte Anreicherung dieses Konzeptes mit Hilfe ausgewählter Finanzperspektive
SC-Costing Marktperspektive
SC-Finance
Integration
Prozessperspektive
Ressourcenperspektive
Kennzahlen Kennzahlen SC-Risikomanagement
Abb. 12.15 Integration in die SC-BSC
Kooperations -perspektive Kennzahlen
Kennzahlen
12 Integration des Kosten-, Finanz- und Risikomanagements
315
Abb. 12.16 Integration des SC-Costing in die SC-BSC (In Anlehnung an [Mei07, S. 232].)
Ziele und Kennzahlen erfolgen. Dagegen erfolgt die Integration des SC-Risikomanagements über die Entwicklung der SC-Balanced Chance- and Risk-Card (s. Abb. 19 und 20). Als Grundlage für die Integration des SC-Costing dient die SC-BSC, wie sie im Rahmen von M3 entwickelt worden ist. Das Konzept wurde z. B. um die Kennzahlen, Durchsatz, Produktwechsel, Grad der Kapazitätsauslastung und Anzahl Überstunden erweitert (Abb. 12.16). Diese lassen sich für eine bestimmte Kundenanfrage mit Hilfe der Simulationsgestützten Prozesskostenrechnung quantifizieren und ihre kostenmäßigen Auswirkungen aufzeigen. Am Beispiel der Kostentreiber Durchsatz und Produktwechsel (Prozessperspektive) bzw. Kapazitätsauslastung und Überstunden (Ressourcenperspektive) lässt sich die Vorgehensweise der Simulationsgestützten Prozesskostenrechnung aufzeigen (Abb. 12.17). Wie zu erkennen ist, betragen bei einer bestimmten Kundenanfrage die Kostensätze für eine Arbeitsstunde 24,25 €, für einen Produktwechsel 10,31 € und für eine Überstunde 44,72 € bezogen auf den Teilprozess „Produzieren auf Maschine 1“. Diese Kostensätze basieren auf der Simulation der relevanten technischen Größen. So benötigt Maschine 1 z. B. für die Produktion der Produkte P1 und P3 118,03 Stunden/Monat, so dass sich ein Kostensatz von 24,25 € ergibt. Wird dieser Kostensatz nun mit den für P1 benötigten 33,78 Arbeitsstunden multipliziert, erhält man Gesamtkosten von 819,17 €/Monat für Arbeitsstunden für P1 auf Maschine 1. Analog erfolgt diese Rechnung für die Kostentreiber Produktwechsel, Überstunden und Auslastung für P1. Nach Aufsummierung dieser Kosten und Division durch
316
E. Jehle und B. von Haaren
Abb.12.17 Beispiel für eine Simulationsgestützte PKR (Entnommen aus [Mei07, S. 185].)
die produzierte Stückzahl von P1 ergeben sich schließlich für P1 Stückkosten von 16,89 €.42 Diese Prozesskostenrechnung lässt sich für jede denkbare Kundennachfrage durchführen; somit lassen sich generell Auswirkungen von Veränderungen in bestimmten technischen Größen auf die Stückkosten aufzeigen. Abbildung 12.18 zeigt eine um spezielle finanzielle Kennzahlen angereicherte SC-BSC. Im Gegensatz zu diesen beiden Modulen lässt sich ein SC-Risikomanagement nicht einfach über Kennzahlen in die Perspektiven der SC-BSC integrieren, da die Gefahr besteht, dass Risiken, welche sich nicht ohne Weiteres in eine der bestehenden Perspektiven einordnen lassen, außer Acht gelassen werden.43 Risiken können, wie bereits erwähnt, in allen Objektströmen (Material-, Informations-, Finanzflüsse) einer Supply Chain auftreten. Diese müssen identifiziert, analysiert, gesteuert und laufend überwacht werden. Zur Integration von Risiken in die BSC bzw. SC-BSC gibt es in der aktuellen Forschung bereits eine Reihe von Ansätzen, von denen allerdings die wenigsten auf Supply Chains fokussieren, sondern sich lediglich auf das Risikomanagement eines einzelnen Unternehmens beschränken. Zu nennen sind in diesem Zusammenhang Erweiterungen der klassischen Balanced Scorecard nach Kaplan/Norton, wie es z. B. Weber et al. mit ihrer Balanced ScorecardPlus vorschlagen.44 Entsprechend der vorliegenden Perspektivenstruktur 42
Genauere Erläuterungen zu dem Beispiel sind nachzulesen bei [Mei07, S. 183–189]. Vgl. [Tew05, S. 21]. 44 Vgl. [WWL99, S. 32]. 43
12 Integration des Kosten-, Finanz- und Risikomanagements
317
Abb. 12.18 Integration des SC-Finance in die SC-BSC
werden in jede Perspektive relevante Risikofaktoren eingebaut. Im Gegensatz hierzu konzeptualisieren Meyer/Köhle ausgewählte Risikofaktoren mit Hilfe einer fünften Perspektive, in welche Kennzahlen des Risikomanagements ebenso wie Ziele, Zielwerte und Handlungsmaßnahmen aufgenommen werden.45 Auf eine davon sehr verschiedene Art und Weise entwickelten Wurl/Mayer die Erfolgsfaktoren-basierte Balanced Scorecard, der eine supplementäre Risk Scorecard untergeordnet ist, die allerdings auch nur auf einzelne Unternehmen ausgelegt ist.46 Eine zweite Gruppe von Ansätzen versucht, die klassische BSC zur SC-BSC weiterzuentwickeln, ohne allerdings explizit Risikofaktoren zu integrieren. Zu nennen sind hier z. B. die Ansätze von Brewer/Speh, die lediglich SC-spezifische Kennzahlen in die vier klassischen Perspektiven integrieren.47 Stölzle et al. schlagen eine Erweiterung der klassischen BSC um eine Lieferantenperspektive vor.48 Weber et al. nehmen eine weiter reichende strukturelle Umformung vor, im Rahmen derer die Kooperationsqualität und -intensität als neue Perspektiven entwickelt werden.49 Eine umfassendere strukturelle sowie inhaltliche Umformung der BSC nach Kaplan/Norton zur NW-BSC bzw. SC-BSC nehmen Jehle et al. vor. Sie ergänzen zum einen eine neue Kooperationsperspektive, zum anderen werden die anderen Perspektiven teilweise abgewandelt, so dass die Finanz-, Markt-, Ressourcen- und Prozessperspektive entstehen.50
45
Vgl. [MKö00, S. 13]. Vgl. [May00, Wma00]. 47 Vgl. [BSp00]. 48 Vgl. [SHK01]. 49 Vgl. [WBG02]. 50 Vgl. [JSS02]. 46
318
E. Jehle und B. von Haaren
Bemühungen um eine risikoorientierte SC-Balanced Scorecard gibt es bisher nur selten. Kaluza/Dullnig erweitern die herkömmliche BSC zur Performance Risk Balanced Scorecard, welche speziell auf die Leistungssteuerung in einem Unternehmensnetzwerk ausgelegt ist. Sie ersetzen teilweise die vier Perspektiven und erhalten so die Finanz-, Endkunden-, Kooperations- und Supply-Chain-Perspektive, welche sie wie bei der Balanced ScorecardPlus jeweils um Risikofelder ergänzen.51 Nachteilig ist hier allerdings ebenso wie bei der Balanced ScorecardPlus, dass das Kriterium der Vollständigkeit nur schwer erfüllt werden kann, da Risiken, die sich nicht in eine der vier vorgegebenen Perspektiven einordnen lassen, unberücksichtigt bleiben. Ein weiterer Ansatz zur Entwicklung einer für das Risikomanagement von Supply Chains geeigneten BSC stammt von Jehle.52 Dessen Wertorientierte Supply Chain Balanced Chance- and Risk-Card baut auf der Balanced Chance- and Risk-Card (BCR-Card) von Reichmann53 auf und dient hauptsächlich zur Operationalisierung und Umsetzung eines SC-Wertmanagements. Ebenso wie bei der BCR-Card steht hier der Unternehmenswert im Vordergrund, welcher durch die drei Kennzahlen Discounted Cash Flow (DCF), Economic Value Added (EVA) und Market Value Added (MVA) erfasst und gemessen wird. Alle mit der Führung einer SC zusammenhängenden Chancen und Risiken werden jeweils in einem Chancenund Risikofeld dokumentiert und soweit wie möglich den einzelnen Perspektiven (SC-Finanzen, SC-Prozesse, SC-Beziehungen, SC-Struktur) zugeordnet. Die Wertorientierte SC-BCR-Card ist gut geeignet, die im SCM anfallenden Chancen und Risiken zu identifizieren, analysieren, steuern und zu überwachen. Allerdings werden bei diesem Instrument strukturbedingt Ressourcen- und Kundenrelationen unterbelichtet. Auch die im Rahmen von M3 entwickelte SC-BSC lässt sich zu einer SC-Balanced Chance- and Risk-Card weiterentwickeln, indem Chancen und Risiken in eigenständigen Feldern erfasst und mit den bestehenden fünf Perspektiven verbunden werden (s. Abb. 12.19). Diese Scorecard ist sehr gut für das Risikomanagement einer Supply Chain geeignet, da sie sich durch die Wahl der Perspektiven flexibel an der übergeordneten Strategie und den Zielen der jeweiligen Supply Chain orientiert und darüber hinaus vollständig alle Risikofaktoren integrieren kann. Auch die Wirkungszusammenhänge zwischen allen Kennzahlen, Maßnahmen und Zielen können abgebildet werden. Das Konzept erfordert zwar einen hohen Grad an Kenntnissen und Aufwand bei der Erstellung, jedoch lässt es sich flexibel an Änderungen anpassen und bietet eine hohe Transparenz und Nutzen für das SC-Netzwerk, welche den hohen Aufwand rechtfertigen. Ein Beispiel für die konkrete Ausgestaltung dieser SC-BCR-Card findet sich in Abb. 12.20. Der bekannte Regelkreis der NW-BSC – Ziele, Messgrößen, Bench-
51 52 53
Vgl. [KDu04]. Vgl. [Jeh05]. Vgl. [Rei00, S. 190, Rei01, RFo00].
12 Integration des Kosten-, Finanz- und Risikomanagements
319
Finanzperspektive
Chancen
Risiken
Marktperspektive
Prozessperspektive
Ressourcenperspektive Kennzahlen
Kennzahlen
Kennzahlen Kooperationsperspektive Kennzahlen
Abb. 12.19 Konzept der Supply Chain Balanced Chance-and Risk-Card (Entnommen aus [Haa07, S. 85].)
marks, Initiativen – wird um die Spalten Realisierung/Beurteilung, Risikofaktoren und Wesentlichkeit erweitert.
12.4
Fazit
Die maximalen Effektivitäts- und Effizienzsteigerungspotentiale einer Supply Chain sind nur zu erreichen, wenn die Material-, Informations- und Finanzflüsse gleichgewichtig und gleichzeitig unter Einschluss von Risikofaktoren betrachtet und untersucht werden. Zur Planung, Steuerung und Kontrolle der Material- und Informationsflüsse stehen der Logistik eine Vielzahl von Konzepten, Methoden und Instrumenten zur Verfügung. Hinsichtlich der Analyse von Finanzflüssen und deren Integration in die anderen Objektflüsse steht die Logistikwissenschaft noch ganz am Anfang. Das hier vorgestellte Konzept einer integrativen SC-BSC und die entsprechenden Instrumente bieten dem SCM die Möglichkeit einer umfassenden und ganzheitlichen Planung, Steuerung und Kontrolle der Supply Chain. Das entwickelte Modell zeichnet sich gegenüber den bisherigen Ansätzen zur Entwicklung einer NW-BSC bzw. SC-BSC vor allem durch eine innovative und integrative Einbindung des SC-
320
E. Jehle und B. von Haaren
Abb. 12.20 Beispiel für die konkrete Ausgestaltung der SC-BCR-Card. (S. zur formalen Vorgehensweise [RFo03, S. 185, Jeh05, S. 496].)
Costing, SC-Finance und des SC-Risikomanagements in die klassische NW-BSC sowie den Einsatz der Simulationstechnik aus.
Literatur [BBS03] Bause F, Beilner H, Schwenke M (2003) Semantik des Proc/B-Paradigmas. Spezifikation des ProC/B-Formalismus anhand der Umsetzung in HiSlang. Technical Report 03001, SFB 559, Universität Dortmund [BDS+03] Bauseler A, Dilling C, Schulze im Hove A, Stüllenberg F (2003) Ausgestaltung der Netzwerk-Balanced Scorecard für Güterverkehrszentren. Technical Report 03015, SFB 559, Universität Dortmund [Beh05] Behm G (2005) Unternehmenswertsteigerung durch Working Capital Management. In: Schneider-Maessen J, Schumann M, Skiera B (Hrsg) Die Optimierung der Performance im Credit Management. Economica-Verlag, Heidelberg, S 103–116 [BSp00] Brewer PC, Speh TW (2000) Using the balanced scorecard to measure supply chain performance. J Business Logistics 21(1):75–93 [Gim02] Gimmler K-H (2002) Juristisches Risk Management in der Supply Chain: Methoden zur Risikoanalyse und -minimierung. In: Pfohl H-C (Hrsg) Risiko- und Chancenmanagement in der Supply Chain. proaktiv – ganzheitlich – nachhaltig. Erich Schmidt-Verlag, Berlin, S 155–164 [Haa07] Haaren BV (2007) Die Netzwerk-Balanced Chance- and Risk-Card als Instrument des Supply-Chain-Risikomanagements. In: Müller E, Spanner-Ulmer B (Hrsg) Vernetzt planen
12 Integration des Kosten-, Finanz- und Risikomanagements
321
und produzieren. VPP 2007. Tagungsband, Chemnitz, 9 November 2007. Wissenschaftliche Schriftenreihe des Institutes für Betriebswissenschaften und Fabriksysteme, Sonderheft 13, Chemnitz, S 83–88 [HGl00] Horváth P, Gleich R (2000) Controlling als Teil des Risikomanagements. In: Dörner D, Horváth P, Kagermann H (Hrsg) Praxis des Risikomanagements. Grundlagen, Kategorien, branchenspezifische und strukturelle Aspekte. Schäffer-Poeschel Verlag, Stuttgart, S 100–126 [HKo06] Hofmann E, Kotzab H (2006) Developing and discussing a supply chain-oriented model of collaborative working capital management. In: IFSAM VIIIth World Congress 2006, 28.– 30. September, Berlin, Track 11. Globalization in the value chain, S 1–28 [Hof05] Hofmann E (2005) Supply chain finance – some conceptual insights. In: Lasch R, Janker CG (Hrsg) Logistik Management. Innovative Logistikkonzepte. Deutscher Universitäts-Verlag, Wiesbaden, S 203–214 [Ind02] Inderfurth K (2002) Risikomanagement in der Supply Chain. In: Wissenschaftssymposium Logistik der BVL 2002, Hussverlag, München, S 397–406 [Jeh05] Jehle M (2005) Wertorientiertes Supply Chain Management und Supply Chain Controlling. Modelle, Konzeption und Umsetzung. Verlag Peter Lang, Frankfurt a. M. [JSS02] Jehle E, Stüllenberg F, Schulze im Hove A (2002) Die Netzwerk-Balanced Scorecard als Instrument des Supply Chain Controlling. Supply Chain Manage 2(4):19–25 [Kaj03] Kajüter P (2003) Instrumente zum Risikomanagement in der Supply Chain. In: Stölzle W, Otto A (2003) Supply Chain Controlling in Theorie und Praxis. Gabler-Verlag, Wiesbaden, S 107–135 [KDu04] Kaluza B, Dullnig H (2004) Risikomanagement und Risikocontrolling in Supply Chains. In: Jahrbuch für Controlling und Rechnungswesen: Unternehmensbewertung, Kostenrechnung, Internationale Rechnungslegung, Controlling, Steuern. LexisNexis, Wien, S 487–518 [Kuh95] Kuhn A (1995) Prozessketten in der Logistik. Entwicklungstrend und Umsetzungsstrategien. Verlag Praxiswissen, Dortmund [May00] Mayer J (2000) Erfolgsfaktoren-basierte Balanced Scorecard – Ein neuer Ansatz des Performance Management zur Unternehmensplanung, -steuerung und -kontrolle. In: Reichmann T (2000) 15. Deutscher Controlling Congress, 10. Mai 2000, Berlin, Gesellschaft für Controlling, Dortmund, S 223–238 [Mei07] Meinke A (2007) Cost-oriented supply chain management and supply chain controlling – configuration and combination of instruments. Shaker Verlag, Aachen [MKö00] Meyer C, Köhle I (2000) Balanced Scorecard – ein Führungsinstrument für Banken? Ein wertorientiertes Steuerung- und Kommunikationsinstrument. Der Schweizer Treuhänder 11(2):7–18 [NJa04] Norrman A, Jansson U (2004) Ericsson’s proactive supply chain risk management approach after a serious sub-supplier accident. Int J Phys Distrib Logistics Manage 34(5):434–456 [PEH03] Pfohl H-C, Elbert R, Hofmann E (2003) Management der „finanziellen“ Supply Chain: Charakterisierung – Aufgabenbereiche – Interdependenzen. In: Bundesvereinigung Logistik: Finanzierung – eine neue Dimension der Logistik. Erich Schmidt Verlag, Berlin, S 1–64 [Pfo02a] Pfohl H-C (2002a) Vorwort. In: Pfohl H-C (Hrsg) Risiko- und Chancenmanagement in der Supply Chain. proaktiv – ganzheitlich – nachhaltig. Erich Schmidt Verlag, Berlin [Pfo02b] Pfohl H-C (2002b) Risiken und Chancen. Strategische Analyse in der Supply Chain. In: Pfohl H-C (Hrsg) Risiko- und Chancenmanagement in der Supply Chain. proaktiv – ganzheitlich – nachhaltig. Erich Schmidt Verlag, Berlin, S 1–56 [PSW04] Pfaff D, Skiera B, Weitzel T (2004) Financial-Chain-Management. Ein generisches Modell zur Identifikation von Verbesserungspotenzialen. Wirtschaftsinformatik 46(2):107–117 [Rei00] Reichmann T (2000) Strategisches Chancen- und Risikomanagement. In: Reichmann T (Hrsg) 15. Deutscher Controlling Congress, 10. Mai 2000, Berlin, Gesellschaft für Controlling, Dortmund, S 181–201 [Rei01] Reichmann T (2001) Die Balanced Chance- und Risk-Card. Eine Erweiterung der Balanced Scorecard. In: Lange K, Wall F (Hrsg) Risikomanagement nach dem KonTraG. Verlag Franz Vahlen, München, S 282–303 [Rei06] Reichmann T (2006) Controlling mit Kennzahlen und Managementberichten. Verlag Franz Vahlen, München
322
E. Jehle und B. von Haaren
[RFo00] Reichmann T, Form S (2000) Balanced chance- and risk-management. Controlling 12(4/5):189–198 [RFo03] Reichmann T, Form S (2003) Instrumente des Risikomanagement und Risiko-Controlling. In: Jetzt aktiv steuern, nicht nur kontrollieren. 18. Deutscher Controlling Congress DCC, 22. Mai 2003, Dortmund, Berichtsband, S 167–188 [SHH05] Stölzle W, Hofmann E, Hofer F (2005) Kostenmanagement in Supply Chains. In: Lasch R, Janker C (Hrsg) Logistik Management. Innovative Logistikkonzepte, Deutscher Universitäts-Verlag, Wiesbaden, S 227–237 [SHK01] Stölzle W, Heusler KF, Karrer M (2001) Die Integration der Balanced Scorecard in das Supply Chain Management-Konzept. Logistik Manage 3(2/3):73–85 [SSe03] Stemmler L, Seuring S (2003) Finanzwirtschaftliche Elemente in der Lieferkettensteuerung – Erste Überlegungen zu einem Konzept des Supply Chain Finance. Logistik-Manage 5(4):27–37 [Ste02a] Stemmler L (2002a) The role of finance in supply chain management. In: Seuring S, Goldbach M (Hrsg) Cost management in supply chains. Physica-Verlag, Heidelberg, S 165–176 [Ste02b] Stemmler L (2002b) Supply Chain Finance: Eine notwendige Erweiterung der Lieferkettensteuerung. In: Bundesvereinigung Logistik (BVL): Wissenschaftssymposium Logistik der BVL 2002. Huss-Verlag, München, S 113–124 [Ste03] Stenzel J (2003) Finanzierung als Diensleistungskomponente. In: Bundesvereinigung Logistik: Finanzierung – eine neue Dimension der Logistik. Erich Schmidt Verlag, Berlin, S 139–150 [SWP05] Skiera B, Wiesel T, Pfaff D (2005) Wertorientierte Kundenanalyse innerhalb der Financial Supply Chain. In: Schneider-Maessen J, Schumann M, Skiera B (Hrsg) Die Optimierung der Performance im Credit Management. Economica-Verlag, Heidelberg, S 117–133 [TCa01] Tah JHM, Carr V (2001) Towards a framework for project risk knowledge management in the construction supply chain. Adv Eng Softw 32(10/11):835–846 [Tew05] Tewald C (2005) Balanced Scorecard und Risikomanagement. Beurteilung verschiedener Integrationsmöglichkeiten des Risikomanagements in die Balanced Scorecard. Controller Mag 30(1):17–24 [VSi07] Vahrenkamp R, Siepermann C (Hrsg) (2007) Risikomanagement in Supply Chains. Gefahren abwehren, Chancen nutzen, Erfolg generieren. Erich Schmidt Verlag, Berlin [WBG02] Weber J, Bacher A, Groll M (2002) Konzeption einer Balanced Scorecard für das Controlling von unternehmensübergreifenden Supply Chains. KRP 46(3)133–141 [WMa00] Wurl H-J, Mayer J (2000) Gestaltungskonzept für Erfolgsfaktoren-basierte Balanced Scorecards. Zeitschrift für Planung 11(1):1–22 [WWL99] Weber J, Weißenberger BE, Liekweg A (1999) Risk Tracking and Reporting – Unternehmerisches Chancen- und Risikomanagement nach dem KonTraG. WHU Koblenz, Düsseldorf/Vallendar [VJü03] Von Eisenhart-Rothe F, Jütte S (2003) Innovative Logistikfinanzierung rund um die Supply Chain. Bundesvereinigung Logistik: Finanzierung – eine neue Dimension der Logistik. Erich Schmidt Verlag, Berlin, S 151–170 [Zel03] Zeller AJ (2003) Controlling von Unternehmensnetzwerken: Bestandsaufnahme und Lückenanalyse. FORWIN-Bericht, Bayrischer Forschungsverbund Wirtschaftsinformatik, Bamberg
Kapitel 13
Analyse und Modellierung von Redistributionsnetzen Rolf Jansen, Jan Hustadt und Stefan Pietzarka
13.1
Einleitung
Seit Anfang der neunziger Jahre ist ein Trend zu beobachten, der die Logistik nahezu jedes Unternehmens beeinflusst. Durch steigenden Preiskampf und Wettbewerbsdruck und vor dem Hintergrund wachsender Globalisierung und Verschärfung der Gesetze werden innerhalb der Supply-Chains verstärkt Mehrwegtransportverpackungen eingesetzt [Pie07]. Nahezu jedes Unternehmen ist heutzutage Systemteilnehmer an einem oder mehreren Mehrwegsystemen. Die Systemgrößen können hierbei von kleinen geschlossenen bilateralen Systemen zwischen zwei Unternehmen bis hin zu großen offenen Systemen wie z. B. unter Einsatz von Euro-Poolpaletten variieren. Das Anwendungsteilprojekt A11 „Redistributionsnetze“ beschäftigt sich daher seit Beginn des SFB 559 mit Mehrwegsystemen im Allgemeinen und deren Verhaltensweisen, Steuerungs- und Regelmöglichkeiten im Speziellen.
13.1.1
Mehrwegtransportverpackungen
Grundbestandteil und meist auch Leistungsobjekt eines jeden Mehrwegsystems ist die Mehrwegtransportverpackung (MTV). Eine Verpackung ist allgemein definiert als eine Einheit bestehend aus dem Packmittel und dem Packhilfsmittel [DIN06a]. Die Verpackung hat dabei die vier grundsätzlichen Funktionsbereiche der Produktions-, Marketing-, Verwendungs- und Logistikfunktionen zu erfüllen. Diese Funktionsbereiche können um die Schutz-, Material-, Umwelt- und die Identifizierungs- bzw. Informationsfunktionen vervollständigt werden. Erweiternd zu diesem Verpackungsbegriff ist die MTV definiert als Verpackung, die mehrmals Prof. Dr.-Ing. R. Jansen ( ) Technische Universität Dortmund Fakultät Maschinenbau, Fachgebiet Logistik 44227 Dortmund, Deutschland E-mail:
[email protected] P. Buchholz und U. Clausen (Hrsg.), Große Netze der Logistik, DOI 10.1007/978-3-540-71048-6_13, © Springer-Verlag Berlin Heidelberg 2009
323
324
R. Jansen et al.
ohne Beeinträchtigung der Schutz-, Transport-, Lager-, und Umschlagsfunktion verwendbar ist und in offenen oder geschlossenen Kreisläufen eingesetzt wird [VDI03]. So groß wie die Anzahl verschiedener MTV am Markt ist, so viele Klassifikationsansätze gibt es in der Literatur, in Normen und Richtlinien. Die wichtigsten Klassifikationsmöglichkeiten für MTV sind jedoch die Modulgröße, die Funktion, die Handhabung und das Füllgut [Jab05]. Die Modulgröße betrachtet die der MTV zugrundeliegenden Flächenmaße. Die Flächenmodularität bezieht sich hierbei auf die Außenmaße einer MTV und ist in der DIN 55510 mit der Größe von 400 mm × 600 mm als Grundmodul definiert [DIN05]. Die Zusammenstellung von Ladeeinheiten aus Packstücken, welche dem Grundmodul, dem Flächenmultimodul (einem ganzzahlingen Mehrfachen des Grundmoduls) oder einer modularen Teilfläche (ganzzahlige Teilung des Grundmoduls) entsprechen, wird hierbei als modulare Koordination bezeichnet. Ziel der modularen Koordination ist die 100%-ige Ausnutzung der zur Verfügung stehenden Nutzfläche für Transporte. Somit ergibt sich eine genormte Transportkette vom einzelnen Packstück bis hin zum vollständig beladenen Lkw (vgl. Abb. 13.1). Äquivalente Vorgaben für die Höhe einer MTV existieren nicht. Es können jedoch optimierte MTV-Höhen aus den Empfehlungen zur Ladehöhe von Paletten CCG1, CCG2, EUL1, EUL2 etc. abgeleitet werden.
Abb. 13.1 Modulgerechte Ableitung einer Lkw-Beladung
13 Analyse und Modellierung von Redistributionsnetzen
325
Die Klassifikation von MTV nach ihrer Funktion stammt u. a. aus der VDIRichtlinie 4460 [VDI03]. Dort werden die MTV in tragende, umschließende und abschließende MTV unterteilt. Die VDI-Richtlinie 4460 definiert tragende MTV als jegliche Form der Flachpalette. Damit sind diese MTV nur für Stückgut geeignet. Als umschließende MTV werden MTV bezeichnet, welche einen stützenden Rahmen aufweisen und damit für Stück- und evtl. auch Schüttgut geeignet sind. Abschließende MTV besitzen zusätzlich zum umschließenden Rahmen die Möglichkeit, z. B. durch einen Deckel o. Ä. verschlossen zu werden bzw. werden als Silo-, Tank- oder Boxpalette eingesetzt und sind somit für alle Gutarten unabhängig vom Aggregatzustand geeignet. Die Handhabung beschreibt die Möglichkeit zur Volumenreduktion durch Veränderung der physischen Form oder das Ineinandergleiten von leeren MTV. Es wird hierbei in kubische, konische und starre MTV unterschieden. Kubische MTV – wie Falt- oder Klappbehälter – können durch Falten oder Klappen und konische MTV – wie Drehstapelbehälter, Drehbügelbehälter oder Deckelbehälter – durch Nesten im Volumen reduziert werden. Starre MTV – zu denen auch Paletten als Ladungsträger für Stückgut zählen – sind somit teilweise nur durch Nesten im Volumen reduzierbar. Generell sollte jedoch eine Volumenreduzierung auf einen Bruchteil des Ausgangsvolumens angestrebt werden. Eine Klassifikation nach dem Füllgut erfolgt in MTV für Stückgut, Schüttgut, Flüssigkeiten und Gase. Diese Klassifikation geht auf Eggenstein, Herbst und Jansen [EHJ81] zurück, ist jedoch auch in der DIN 30781 [DIN89] und neueren Veröffentlichungen (bspw. [Jab05]) zu finden. Das Stückgut wird hierbei weiter unterteilt nach Anzahl (Einzelstückgut und Massenstückgut) und Begrenzungsflächen (eben und unterbrochen).
13.1.2
Mehrwegsysteme
Es finden sich an verschiedenen Stellen in der Literatur Definitionen für Mehrwegsysteme, welche annähernd äquivalent sind. Generell kann festgestellt werden, dass sich ein Mehrwegsystem aus einem Distributionsnetz und einem Redistributionsnetz zusammensetzt, welche an bestimmten Punkten strategisch miteinander verbunden sind. Die Aufgabe der Distribution ist es, das benötigte Gut in der richtigen Menge, zum richtigen Zeitpunkt an den Ort der Nachfrage zu transportieren. Die Aufgaben der Redistribution sind die Rückführung, Kontrolle, Reinigung, Rekonditionierung, Zwischenlagerung und Bereitstellung der MTV. Eine rein prozessorientierte Definition zu Mehrwegsystemen liefert die DINNorm 55405, welche ein Mehrwegsystem als „[…] Verknüpfung von Maßnahmen (organisatorische, technische und/oder finanzielle), die die Wiederverwendung ermöglichen […]“ [DIN06] definiert. Es gibt viele Klassifikationsansätze für Mehrwegsysteme, welche sich großteils jedoch nur durch Nuancen in der Gliederung oder Abweichungen in der Bezeichnung der Klassen von anderen Publikationen unterscheidet. Grundsätzlich können
326
R. Jansen et al.
zwei Arten der Klassifikation von Mehrwegsystemen unterschieden werden. Dies sind die Einteilungen der Mehrwegsysteme nach der Tauschstrategie für die MTV (Lützebauer, Wildemann, VDI 4407, VDI 4460, u. a. m.) und nach der Zugänglichkeit des Systems für interessierte Systemnutzer anhand produktspezifischer Eigenschaften (bspw. DIN 55405, Boeckle, Hoffmann, Ohlbrecht, Stache u. a. m.). Die einzig abweichende Quelle hierzu stellt Lange (u. a. [Lan97]) dar, welcher Mehrwegsysteme nach dem Grad der Standardisierung der MTV und der logistischen Dienstleistung klassifiziert. Die Klassifikation von Mehrwegsystemen anhand der Tauschstrategie erfolgt detailliert in der VDI-Richtlinie 4460 [VDI03]. Dort werden die Formen Mietsystem, Tauschsystem, Transfersystem und Depotsystem mit ihren spezialisierten Ausprägungen vorgestellt. Auf die einzelnen Formen und Ausprägungen soll jedoch an dieser Stelle nicht weiter eingegangen werden. Das Anwendungsteilprojekt A11 hat sich der am stärksten vertretenen Klassifikation der Mehrwegsysteme nach der Zugänglichkeit zugewandt. Da es für diese Klassifikationsart viele – jedoch meist in der Nomenklatur verschiedene – Klassifikationen gibt, hat A11 für die eigene Arbeit die Klassen geschlossene, verteilte und offene Mehrwegsysteme festgelegt. Geschlossene Mehrwegsysteme repräsentieren alle Mehrwegsysteme, welche durch einen Systembetreiber zentral betrieben werden und einen klar begrenzten, schwer zugänglichen Nutzerkreis aufweisen. Verteilte Mehrwegsysteme – auch als Floating Pools bezeichnet – weisen mehrere Systembetreiber auf, welche jeweils zentral einen bestimmten Kundenstamm bearbeiten. Damit können mehrere geschlossene Mehrwegsysteme, als Subsysteme in einem Verbund, ein verteiltes Mehrwegsystem darstellen. Die MTV können jedoch von einem Subsystem in ein benachbartes Subsystem übertreten. Diese Systeme weisen meist noch Restriktionen für den Zugang von interessierten Nutzern auf, wie beispielsweise eine Konzentration auf eine Branche. Offene Mehrwegsysteme können zentral oder dezentral gesteuert sein und von jedem interessierten Unternehmen genutzt werden. Hierbei bilden sich meist viele bilaterale Beziehungen aus, da die Empfänger einer Ware die gleiche MTV als Versender einsetzen können. Für die Auswahl und den zielgerichteten Einsatz von Modellierungsinstrumentarien anhand der zu untersuchenden Fragestellung muss das zu untersuchende System näher betrachtet werden. Wie allgemeinen üblich in der Kybernetik und vor dem Hintergrund der Erfahrungen von A11 in der Modellierung und Simulation logistischer Systeme müssen hierfür zuerst die grundlegenden Eigenschaften der Dynamik und Komplexität geklärt werden.
13.1.2.1
Dynamik von Mehrwegsystemen
Ulrich definiert den Begriff der relativen Dynamik und fasst damit die Dynamik von Systemen allgemeiner auf. Er beschreibt die Dynamik als jegliche Art des Verhaltens eines Systems und weist ausdrücklich darauf hin, dass „Dynamik […] nicht im Sinne des täglichen Sprachgebrauchs verstanden [werden darf], wo nur ein besonders intensives, von der Norm abweichendes, Funktionieren als dynamisch
13 Analyse und Modellierung von Redistributionsnetzen
327
bezeichnet wird“ [Ulr68]. Weiterhin wird die relative Dynamik differenziert in die innere und äußere Dynamik. Die äußere Dynamik ist als Input- und Output-Beziehung eines Systems mit seiner Umwelt in Form jeglichen Austauschs von Materie, Energie oder Informationen zu definieren [Ulr68]. Je stärker ein System mit seiner Umwelt agiert, desto höher ist seine äußere Dynamik. Die innere Dynamik ist von den Elementen des Systems und ihrem Verhalten abhängig. Sobald die Elemente eine Aktivität aufweisen – welche im Regelfall als Prozess zwischen zwei Elementen wahrgenommen wird – besitzt ein System eine innere Dynamik [Ulr68]. Ist also in einem System keine innere oder äußere Dynamik zu erkennen, ist von einem statischen System auszugehen. Dieser Extremzustand ist nur äußerst selten zu beobachten. Eine Maßeinheit für die innere und äußere Dynamik gibt Ulrich nicht an. Bedingt durch die Abläufe innerhalb eines Mehrwegsystems und den Austausch von Material, Informationen und teilweise auch Energie1 mit seiner Umwelt, sind Mehrwegsysteme nach Arrowsmith und Ulrich als dynamische Systeme zu betrachten.
13.1.2.2
Komplexität von Mehrwegsystemen
Eine weitere essentielle Eigenschaft von Systemen ist die Komplexität. Sie bezeichnet im Allgemeinen Systeme, die in ihrem Aufbau kompliziert sind und dazu kontinuierlich oder in diskreten Zeitabständen ihren Zustand ändern. Grundlegend für die Komplexität ist die Anzahl der Elemente in einem System. Die Anzahl der Elemente in einem System kann jedoch nicht als alleiniger Maßstab der Komplexität für ein System herangezogen werden, da zwischen den Elementen nicht zwangsläufig Relationen bestehen müssen. Daher muss die Komplexität auch über die Variation und Anzahl der Relationen zwischen den Elementen und den möglichen Zustandswechseln der Relationen im Zeitverlauf definiert werden. Senge unterteilt die Komplexität in die Detailkomplexität und die dynamische Komplexität [Sen98]. Charakteristisch für die Detailkomplexität ist die Vielzahl der veränderlichen Größen in einem System, wohingegen dynamische Komplexität vorliegt, wenn • eine bestimmte Handlung in einem System kurzfristig eine vollkommen andere Wirkung hat als langfristig oder • eine Handlung sich in einem Teil des Systems anders auswirkt als in einem anderen Teil des Systems oder • eine nahe liegende Intervention nicht zu einer nahe liegenden Konsequenz führt. Dörner unterstellt der Komplexität das generelle Manko der Subjektivität des betrachtenden Individuums [Dör89]. Um die Komplexität der subjektiven Betrachtung zu entziehen und einer in der Wissenschaft notwendigen objektiven Betrachtung zuzuführen, wurde der Begriff der Varietät eingeführt, welcher jedoch in der 1
In Mehrwegsystemen nur als Input zu finden.
328
R. Jansen et al.
Literatur nicht einheitlich definiert ist [Ulr68]. Ulrich hebt in Bezug zum Begriff Varietät hervor, dass die Varietät in statischen Systemen einfach zu berechnen ist und auf der Anzahl der Elemente und möglichen Anzahl der Relationen zwischen zwei Elementen eines Systems basiert. Ulrich definiert die Varietät daher als: V = m*
n(n − 1) 2
(13.1)
V = Varietät n = Anzahl der Elemente im System m = Anzahl verschiedener Relationen zwischen zwei Elementen In einem dynamischen System, in dem alle Relationen jedoch aktiv oder inaktiv seien können, muss die Varietät in Anlehnung an Formel (13.1) jedoch wie folgt berechnet werden: V =2
m*
n ( n −1) 2
(13.2)
V = Varietät n = Anzahl der Elemente im System m = Anzahl verschiedener Relationen zwischen zwei Elementen Betrachtet man die Varietät nun an einem Beispiel, bedeutet die Berechnung nach Ulrich, dass ein möglichst einfaches System mit nur 10 Elementen und einer möglichen Relation zwischen den Elementen als statisches System eine Varietät von 45 erreicht. Unterstellt man dem gleichen System jedoch die Eigenschaft der Dynamik, steigt die Varietät auf über 35 Billionen (V = 35.184.372.088.832). Legt man also die Varietät als Maßstab der Komplexität fest und überträgt die Ergebnisse auf den Fall der Mehrwegsysteme, welche wie bereits dargestellt als dynamische Systeme zu betrachten sind, ist leicht ersichtlich, dass sie als äußerst komplex zu betrachten sind.
13.2 13.2.1
Modellierung und Simulation von Redistributionsnetzen KOMPASS-Modell
In der ersten Phase des SFB 559 wurde das KOMPASS-Modell durch das Anwendungsteilprojekt A11 entwickelt, welches seine Bezeichnung aus den Anfangsbuchstaben der Zielsetzung „Kreislauf-Optimierung in Mehrwegsystemen durch Planung, Analyse und System-Simulation“ ableitet [Kra01]. Es ist modular aufgebaut und besteht aus den fünf Komponenten Topologiemodell, Systemlastmodell, Modell der Distributionssteuerung, Kostenmodell und Modell der Redistributionsstrategien. Die Topologie eines Mehrwegsystems wird im KOMPASS-Modell mit Hilfe von Knoten und Relationen abgebildet. In den Knoten werden kundenspezifische
13 Analyse und Modellierung von Redistributionsnetzen
329
Bestellheuristiken hinterlegt und Bestände lokalisiert. Auf den Relationen werden die Operationen parametrierbarer Transportmittel zugelassen. Aufgrund der besonderen Bedeutung des Straßenverkehrs für die Mehrwegbranche geht das KOMPASSModell von Straßen gebundenen Transporten aus. Zur Beschreibung schwankender Systemlasten bot sich das Berliner Modell (vgl. [Nul69]) als Ausgangspunkt an. Dieses aus den späten 60er Jahren datierende Verfahren gilt noch heute als Standardmethode der Zeitreihenmodellierung. Dieser theoretische Bezugsrahmen wurde mehrwegspezifisch modifiziert, so dass sich die wesentlichen, für Mehrwegsysteme relevanten Saisonfiguren einfach und anschaulich darstellen lassen. Die Modellierung der Distributionssteuerung führte zur Formulierung eines Capacitated Vehicle Routing Problems (CVRP). Im Hinblick auf die Ertüchtigung der zu entwickelnden Instrumentarien für die Untersuchung großer Netze der Logistik stellte sich hier ein komplexes Optimierungsproblem dar, das mit Hilfe elementarer Verfahren nicht zu lösen war. Die interdisziplinäre Zusammenarbeit zwischen den Ingenieuren der Fachgebiets Logistik und den KI-Experten des Lehrstuhls Systemanalyse eröffnete die Möglichkeit, auf einen hochentwickelten evolutionären Algorithmus zurückzugreifen, der speziell für die optimierte Tourenplanung unter Kapazitätsrestriktionen in großen Systemen ausgelegt wurde. Dieser Algorithmus und die darauf aufbauende Software „vrp6“ wurden mehrwegspezifisch erweitert und in das KOMPASS-Modell eingefügt. Für die Einbindung in ein Simulationsverfahren musste ein dynamisches Kostenmodell entworfen werden. Vor dem Hintergrund einer zeitdiskreten Modellierung konnte dieses Problem dadurch gelöst werden, dass alle Kostenveränderungen auf den einzelnen Tag bezogen und entlang der Simulationsdauer kumuliert werden. Ein besonderer Schwerpunkt war auf die Modellierung von Redistributionsstrategien zu legen. Das KOMPASS-Modell bildet die derzeit in der betrieblichen Praxis angewandten Prinzipien der Redistributionssteuerung in der Form von sechs Redistributionsindizes ab, welche die Kriterien für die Einlastung von Leergutransporten formalisieren. Prinzipiell geht es dabei um die monetarisierte Bewertung eines Redistributionsnutzens und dessen Vergleich mit dem Redistributionsaufwand. Dabei spielt die Zusammenfassung von Vollgut-Lieferung und Leergut-Rückholung in gemeinsame Touren eine zentrale Rolle. Die einzelnen Redistributionsindizes können darüber hinaus mit sogenannten Redistributionskoeffizienten gewichtet und insgesamt zu einer Redistributionsstrategie verdichtet werden. Für die Abbildung der Interaktion zwischen Redistributionsstrategie und Tourenplanung wurde der CIS-Solver entwickelt und in die Software integriert. Dieses Modellierungskonzept der Redistributionsstrategien wurde auf dem 20. Symposium der International Association of Packaging Research Institutes (IAPRI) in San Jose, Kalifornien erstmalig vorgestellt (vgl. [JKr00]). Der erarbeitete KOMPASS-Ansatz basiert auf einer zentralen Steuerung des Mehrwegsystems, wie sie im Fall eines Pooldienstleisters gegeben ist. Modellexperimente lassen ein durch geeignete Wahl von Redistributionsstrategien erzielbares Ratiopotential in der Größenordnung von 5 bis 10% erkennen. Jedoch ist das KOMPASS-Modell durch seine Ausrichtung auf eine zentrale Steuerung und Opti-
330
Abb. 13.2 Einsatz von Storages zur Verfolgung individueller MTV-Bewegungen
R. Jansen et al.
13 Analyse und Modellierung von Redistributionsnetzen
331
mierung nur für geschlossene und teilweise für verteilte Mehrwegsysteme [ORe03] geeignet. Zur Analyse, Modellierung und Simulation von großen Teilen verteilter Mehrwegsysteme sowie aller Formen offener Mehrwegsysteme ist das KOMPASSModell nicht fähig [JPi07].
13.2.2
Dortmunder Prozesskettenparadigma und ProC/B
Das Modellierungs- und Simulations-Tool ProC/B stellt eine Formalisierung von Teilen des Dortmunder Prozesskettenparadigmas nach Kuhn (vgl. [Kuh95], [Kuh99] u. a. m.) und damit der wissenschaftlichen Modellierungssprache des SFB 559 dar. Ziel von ProC/B ist es hierbei, Modelle – welche im Dortmunder Prozesskettenparadigma vorliegen – automatisiert analysieren zu können. Auf die genaue Vorstellung von ProC/B soll an dieser Stelle verzichtet werden, da es bereits im Kap. 2 ausführlich vorgestellt und behandelt wird. Daher soll an dieser Stelle vorrangig auf die Darstellung von Kreislaufstrukturen im Dortmunder Prozesskettenparadigma und in ProC/B als essentielles Charakteristikum von Mehrwegsystemen eingegangen werden. Im Vorfeld der Betrachtung von Kreislaufstrukturen muss zwischen dem Dortmunder Prozesskettenparadigma und ProC/B differenziert werden. Weiterhin ist im Bezug auf die Fähigkeit der Darstellung von Kreislaufstrukturen das der Modellierung und Simulation zugrunde gelegte Leistungsobjekt von entscheidender Bedeutung. In Mehrwegsystemen wird in der Regel die MTV als Leistungsobjekt betrachtet. Dies liegt in Fragestellungen nach den Umlaufzeiten, der Lebensdauer, Schwund und Bruch etc. begründet, welche nicht mit der Wahl eines anderen Leistungsobjektes beantwortet werden können. Legt man jedoch die MTV als Leistungsobjekt fest, so muss die Modellierungsumgebung die Möglichkeit der Darstellung von Kreisläufen geben. Das Dortmunder Prozesskettenparadigma bietet diese Möglichkeit nicht. „Ein Prozesskettenplan orientiert sich an der Zeitachse, von links nach rechts, dass heißt, es gibt keine Schleifen“ [LRS+03]. Dies würde beispielsweise für die Fragestellung der durchschnittlichen Umlaufzeit einer MTV bedeuten, dass ein Prozesskettenplan erstellt werden müsste, welcher mit jedem Umlauf, den eine MTV in ihrem Lebenszyklus absolviert, exponentiell wachsen würde. Damit ist das Dortmunder Prozesskettenparadigma für die Modellierung und Simulation von Mehrwegsystemen mit Fragestellungen, welche das Leistungsobjekt MTV benötigen, nicht geeignet. ProC/B als Entwicklung auf Basis des Prozesskettenparadigmas weist ähnliche Probleme auf. Jedoch wurden diese Probleme erkannt, und es wurde eine Möglichkeit zur Modellierung von Schleifen durch das Element Loop geschaffen. Dieses Element ist jedoch durch die Verwendung nur eines booleschen Abbruchkriteriums für komplexe Gebilde wie Mehrwegsysteme nur beschränkt geeignet. Um jedoch einzelne MTV individuell durch das System verfolgen zu können und die Modellierung und Simulation von komplexen Mehrwegsystemen – wie beispielsweise offenen Mehrwegsystemen – trotzdem in ProC/B vornehmen zu können, kann
332
R. Jansen et al.
durch eine geschickte Wahl der Leistungsobjekte auf den Einsatz von Kreislaufstrukturen verzichtet werden (vgl. Abb. 13.2). Hierzu wird in einer separaten Prozesskette ein Auftrag generiert. Dieser Auftrag wird synchronisiert mit einer MTV in einer weiteren Prozesskette, welche zum Zeitpunkt des Austritts aus der Quelle als undefiniert zu betrachten ist. In einem ersten Prozessschritt wird dieser MTV eine einzigartige Seriennummer (Unique Identifier) aus einem Storage zugewiesen. Hiermit wird aus der undefinierten MTV eine bestimmte – im System verfügbare – MTV. Der Unique Identifier setzt sich aus den Koordinaten eines Speicherplatzes des Storages zusammen, welches ein mehrdimensionales Array ist. Diese Speicherplätze sind mit einer 0 oder 1 belegt. 0 bedeutet hierbei, dass die MTV mit dem Speicherplatz (bzw. Unique Identifier) nicht in dem entsprechenden Lager (Storage) vorhanden ist. Äquivalent hierzu gilt für 1, dass die MTV vorhanden ist und genutzt werden kann. Wird einer undefinierten MTV ein Unique Identifier zugewiesen, so muss die 1 im entsprechenden Speicherplatz mit einer 0 überschrieben werden. Nach der Benutzung und dem Transport zu einem anderen Teilnehmer der Supply Chain wird die MTV, bevor sie in die Senke übergeht, vom Unique Identifier getrennt und der Unique Identifier wird in das Storage des entsprechenden Teilnehmers der Supply Chain abgelegt. Voraussetzung zum Funktionieren dieser Technik ist, dass die Storages alle gleich aufgebaut sind und die Belegung eines Speicherplatzes in allen Storages exklusiv zu behandeln ist – es also keine doppelte Belegung geben darf. Zusammenfassend kann gesagt werden, dass ProC/B und das Dortmunder Prozesskettenparadigma grundlegend – wenn auch nicht optimal – geeignet sind, um Mehrwegsysteme abzubilden. Ähnliche Ergebnisse lieferte auch die Arbeitsgruppe 1 „Neues Problemverständnis: Ergänzung des Modellierungsparadigmas“ [BHO+07], welcher unter anderem die Untersuchung eines Mehrwegsystems mit ProC/B zugrunde lag. In dieser Arbeitsgruppe musste zur Komplexitätsreduzierung unter anderem die Redistribution von der Distribution entkoppelt modelliert werden, was grundlegend nichts anderes als die Vermeidung der Darstellung von Schleifen darstellt.
13.2.3
Systemdynamische Modellierung
Im Rahmen der Untersuchungen von A11 in der dritten Phase fiel vor dem Hintergrund der in Abschnitt 13.1.2 beschriebenen Komplexität und Dynamik von Mehrwegsystemen im Allgemeinen und in offenen Mehrwegsystemen im Speziellen ein weiterer Modellierungsansatz positiv auf. Die systemdynamische Modellierung wurde von Forrester in den 50er-Jahren des letzen Jahrhunderts entwickelt (siehe [For58]). Sie ist als interdisziplinär zu bezeichnen, da sie Theorien und Formalismen der Ingenieurslehre auf betriebswirtschaftliche (und andere2) Prozesse anwendet, um bestimmte Fragestellungen 2
Hierzu zählen beispielsweise die Medizin, die Volkswirtschaft, die Unternehmensentwicklung, die Energieversorgung, das Bevölkerungswachstum, der Preisfindungsmechanismus, das städtische Wachstum, das Training des Managements u. v. m.
13 Analyse und Modellierung von Redistributionsnetzen
333
zu untersuchen. In ihrem Gebrauch wurde sie bis heute ständig weiterentwickelt und für neue Wissenschaftsdisziplinen ertüchtigt, jedoch wurde bisher die Eignung der systemdynamischen Modellierung für die Logistik im Allgemeinen und für Mehrwegsysteme im Speziellen nicht untersucht. Der Einsatz der systemdynamischen Modellierung erlaubt es dem Modellierer, das Verhalten und die Mechanismen komplexer und dynamischer Systeme zu verstehen und durch Simulation zukünftige Zustände vorauszusagen. Hierbei wird das besondere Augenmerk auf ein vom Systembetreiber als unerwünscht erkanntes Verhalten des Systems und die Auswirkung von unterschiedlichen Strategien zur Änderung dieses Verhaltens gelegt. Da die Eigenschaft der Komplexität und Dynamik in Mehrwegsystemen nachgewiesen werden konnte, scheint die systemdynamische Modellierung ein geeignetes Werkzeug zur Erzeugung eines tieferen Verständnisses der Abläufe, Verhaltensweisen und Mechanismen zu sein, welche einem Mehrwegsystem zugrunde liegen. Weiterhin scheint die systemdynamische Modellierung die Möglichkeit aufzuweisen, verschiedene Strategien zur Änderung unterschiedlicher, als störend empfundener Verhaltensweisen von Mehrwegsystemen – wie beispielsweise zu hohe Umlaufzeiten der MTV oder nicht-systemkonformes Nutzerverhalten – wissenschaftlich zu untersuchen.
13.3
Die Kreislaufwirtschaft als redistributionsähnliches System
In seinem Bericht zum Stand der Klimaforschung aus dem Jahr 2007 warnt der Weltklimarat der Vereinten Nationen vor dramatischen Folgen für das Klima vor allem auch aufgrund des Einflusses durch den Menschen [Spi07]. Eine Konsequenz, diesem bereits seit längerem diskutierten Szenario entgegenzuwirken, liegt im so genannten nachhaltigen Wirtschaften begründet, d. h. dass nur so viele Ressourcen dem System Umwelt entnommen werden, wie auf der anderen Seite entstehen bzw. nachwachsen. Des Weiteren ergibt sich als Forderung z. B. mit Bezug zur Logistik eine Senkung des Transportaufkommens durch intelligente, innovative Maßnahmen. Daneben erhöhen u. a. anziehende Rohstoffpreise aufgrund knapper Ressourcen, ausgelöst z. B. zum einen durch eine steigende Nachfrage und zum anderen durch einen Mangel an verfügbaren Abbaukapazitäten sowie noch dazu endlicher Ressourcen, den Anreiz, Abfall primär aus wirtschaftlichen Gründen im Sinne eines so genannten Urban Mining als Quelle für Sekundärrohstoffe zu nutzen (vgl. z. B. [Sim06]). Das Schließen dieser Stoffströme und insbesondere der Einsatz von Rohstoffsubstituten beim Herstellungsprozess ist Voraussetzung für ein Kreislaufwirtschaftssystem. Ähnlich der Redistribution von gebrauchten Mehrwegtransportverpackungen als Leergut in Mehrwegsystemen entstehen durch die Rückführung von verwertungsfähigen Abfällen geschlossene Kreislaufstrukturen in Form von Redistributionsnetzen, die es zu untersuchen gilt.
334
R. Jansen et al.
13.3.1 Analyse redistributionsähnlicher Systeme 13.3.1.1
Zweck einer Kreislaufwirtschaft
Ganz allgemein sollen durch die Redistribution und Rückgewinnung von Stoffen sowie deren Wiedereinsatz Abfälle vermieden oder zumindest reduziert werden, um dadurch – sowie generell z. B. auch durch konstruktive Maßnahmen – Ressourcen zu schonen. Dabei soll die Brücke zwischen einer isolierten Betrachtung einer vom Verbraucher weg orientierten Entsorgungswirtschaft und der in Richtung des Kunden orientierten Supply Chain in Gestalt einer Kreislaufwirtschaft geschlagen werden. Bei einer Vielzahl von Quellen und Senken für sehr unterschiedliche Produkte mit deren charakteristischen Lebenszyklen handelt es sich um verschiedene, teils unabhängige und teils miteinander verbundene Systeme, wobei hier als Prämisse von einer strukturell engen Verbindung zu den Eigenschaften von Mehrwegsystemen ausgegangen werden soll – dem auslösenden Grund für eine Untersuchung im Rahmen des Teilprojekts A11. Die Herausforderung für das Management eines solchen Kreislaufwirtschaftssystems bzw. logistischen Netzwerks besteht darin, alle Gebrauchszyklen und Prozesse in ihrer Gesamtheit zu planen, zu koordinieren und zu steuern. Dies setzt in der Regel eine Fülle von möglichst in Echtzeit an verschiedenen Punkten im System gewonnenen Daten für die Informationsverarbeitung voraus.
13.3.1.2 Vergleich der Ansätze Mehrwegsysteme können als Kreislauf modelliert werden, d. h. ohne eigentlichen Anfang und ein entsprechendes Ende. Die Kreislaufwirtschaft geht implizit ebenfalls von einem Kreislauf aus. Dargestellt und thematisiert wird unter diesem Begriff allerdings teilweise nur ein Ausschnitt als Entsorgungswirtschaft, d. h. der Weg eines Produkts – umdefiniert als Abfall – von seinem letzten Besitzer bis zur vorgesehenen Wiedereinschleusung in den Wirtschaftskreislauf, im Idealfall zu einhundert Prozent seiner Bestandteile. Die vorliegenden Ausführungen gehen jedoch von einem vollständigen Kreislauf aus, wobei dieser umfassendere Ansatz auch von anderen Autoren vertreten wird. Dem Kern dieser Ansätze soll demnach, übertragen auf die Spezifika des SFB 559, gefolgt werden. Fleischmann, van Nunen, Gräve und Gapp thematisieren z. B. die Verknüpfung der vorwärtsgerichteten Supply Chain mit der rückwärtsgerichteten Reverse Logistics Kette in mehreren Zyklen eines Modells und untersuchen die daraus resultierenden Auswirkungen [FNG+05]. Spengler und Herrmann verknüpfen die bestehende Logistikkette (Supply Chain) mit der so genannten Retrodistributionskette im Rahmen einer Nachgebrauchsphase zum so genannten stoffstrombasierten Supply Chain Management [SHe04]. Sie begründen diese Erfordernis mit der Integration der Produktverantwortung in das Umweltrecht und greifen zudem
13 Analyse und Modellierung von Redistributionsnetzen
335
auf eine Abbildung der stoffstrombasierten Supply Chain von Krikke, BloemhofRuwaard und van Wassenhove zurück [KBW01]. Im Englischen findet man die Begriffe Closed-Loop Supply Chain u. U. gefolgt von dem Begriff Management.
13.3.1.3
Prozesse der Kreislaufwirtschaft
Ein Kreislaufwirtschaftssystem umfasst im Wesentlichen zwei Bereiche (vgl. Abb. 13.3): die Versorgung und die Entsorgung (erweitert und verändert in Anlehnung an [Lan05]). Die Versorgung der Kunden mit Produkten umfasst alle Prozesse angefangen bei der Rohstoffgewinnung bis hin zur Phase der Nutzung und dem After-Sales-Service, bei dem es z. B. um Reparaturen geht. Der Fokus liegt aus der Sicht des Betrachters auf der Logistik, d. h. in erster Linie dem Material- und Informationsfluss – ohne an dieser Stelle näher auf die unterschiedlichen Interpretationen der Begriffe einzugehen. Die Entsorgung der Produkte – umdefiniert als Abfall – geht im Fall der Redistribution ebenfalls von einem logistischen Fokus aus. Dieser wird jedoch beginnend mit der Demontage bis hin zur Beseitigung in Form der Deponierung ergänzt um eine verfahrenstechnische Komponente, die jedoch nicht im Mittelpunkt der Ausführungen stehen soll. Auswahl, Ausprägung und Reihenfolge der Prozesse können bei einer Vielzahl unterschiedlicher Produkte und möglicher Strukturvarianten nur als exemplarisch begriffen werden. Je nach Schwerpunktsetzung einer Untersuchung verändert sich der Detaillierungsgrad.
13.3.1.4
Rechtlicher Rahmen
Der Themenkomplex der Kreislaufwirtschaft wird von Seiten des Gesetzgebers seit einigen Jahren u. a. auf Betreiben entsprechender Initiativen aus der Gesellschaft mit besonderer Aufmerksamkeit begleitet. So sind es insbesondere europäische Richtlinien – z. B. die Abfallrahmenrichtlinie Nr. 75/442/EWG, die Verpackungsrichtlinie Nr. 94/62/EG und ihre Änderungsrichtlinie Nr. 2004/12/EG, die Altfahrzeugrichtlinie Nr. 2000/53/EG (kurz ELV) sowie die Richtlinie über Elektro-
Ab . 13.3
Abb. 13.3 Prozesse der Kreislaufwirtschaft
336
R. Jansen et al.
und Elektronik-Altgeräte Nr. 2002/96/EG (kurz WEEE) – sowie basierend auf einer hierarchischen Gesetzgebung auf nationaler Ebene in der Folge vor allem Gesetze und Verordnungen, die einen ordnungspolitischen Rahmen formulieren, mit maßgeblicher Lenkungsfunktion – sozusagen als Katalysator einer Entwicklung in Richtung einer Kreislaufwirtschaft. Allen Dokumenten gemein ist die Verlagerung der Verantwortung hin zu den Herstellern der Produkte, um für einen im Sinne der Gesetzgebung adäquaten Umgang mit den Produkten über den gesamten Lebenszyklus Rechnung zu tragen – von der Produktion über die Nutzung bis hin zur Entsorgung – und die Verantwortung nicht wie in der Vergangenheit üblich, beim Letztbesitzer zu belassen. Relevante zentrale nationale Dokumente sind insbesondere das Kreislaufwirtschafts- und Abfallgesetz, aber auch die Verpackungsverordnung, die Altfahrzeuggesetz oder das Elektro- und Elektronikgesetz.
13.3.1.5 Arten des Recyclings Die Kreislaufwirtschaft basiert auf dem zentralen Tatbestand des Recyclings, d. h. der Rückgewinnung ge-/verbrauchter Ressourcen in unterschiedlicher Ausprägung, ohne näher auf die technischen Möglichkeiten, aber auch Restriktionen einzugehen. Häufig anzutreffen sind Einordnungen in die vier Recyclingformen Wiederverwendung, Wiederverwertung, Weiterverwendung und Weiterverwertung. Dabei bezieht sich der Wortbestandteil des „Wieders“ auf denselben Verwendungszweck bzw. Stoffkreislauf, „Weiter“ meint im Gegensatz einen anderen Verwendungszweck bzw. fremden Kreislauf, wobei insbesondere hier sich gegenseitig beeinflussende Stoffströme vorliegen. Der Begriff der Verwendung geht unter Beibehaltung der Produktgestalt von Produkten bis hin zu Teilen aus, im Fall der Verwertung erfolgt das Recycling auf stofflicher (rohstofflich oder werkstofflich) Ebene unter Auflösung der Produktgestalt [HRö95a]. Eine andere Einteilung bietet sich z. B. bei der Betrachtung unterschiedlicher Recyclingwege. Hier werden orientiert an der Wertschöpfung insgesamt fünf Stufen beginnend mit dem Produkt-, über das Bauteil-, Werkstoff-, und Rohstoff- sowie endend im Energierecycling unterschieden [Han95, HRö95a]. Darüber hinaus erfolgt eine Orientierung an den Lebenszyklusphasen eines Produkts, indem das Produktionsrücklaufrecycling vom Recycling während des Produktgebrauchs sowie dem Altstoff-Recycling unterschieden wird [BKJ98]. Eine weitere Klassifizierung von Kreislaufstrategien beruht auf einer qualitativen Unterscheidung nach Qualitätsstufen – allerdings ohne Rangfolge. Für die Verwendung von Produkten oder Produktkomponenten stehen als Stufen das so genannte Remanufactoring, Upgrading, Reuse und Repair zur Verfügung [SHe04].
13.3.1.6
Strukturierung von Redistributionsnetzen
Die Strukturierung von Mehrwegsystemen in Systeme unterschiedlicher Tauschstrategien und Systeme unterschiedlicher Zugänglichkeit (vgl. Abschn. 13.1.2) bildet
13 Analyse und Modellierung von Redistributionsnetzen
337
eine unverzichtbare Basis für die spätere Modellbildung ebenso wie das grundsätzliche Wissen über Akteure bzw. Systemteilnehmer, was verständlicherweise aufgrund unterschiedlicher Systeme nicht eins zu eins auf Kreislaufwirtschaftssysteme übertragbar ist. Auf deren Seite ergibt sich in Bezug auf die Einteilung nach Tauschstrategien in vergleichbarer Weise eine Klassifizierung der verschiedenen Arten des Recyclings, wie sie weiter oben beschrieben sind. Die Zugänglichkeit hängt in Kreislaufwirtschaftssystemen aufgrund der beschriebenen Produktverantwortung stark vom betrachteten Objekt selbst ab. So stellt der Grüne Punkt (zumindest formal) ein geschlossenes System für mit diesem Symbol gekennzeichnete Verpackungen dar, wohingegen der Restmüll privater Haushalte nicht dieser Einschränkung unterliegt. Somit liegen ebenfalls geschlossene und offene sowie branchenspezifische Systeme wie z. B. nach dem neuen Elektro- und Elektronikgesetz in dieser Branche vor. In Bezug auf die unterschiedlichen Akteure geht man in Mehrwegsystemen von MTV-Lieferanten, Versendern und Empfängern sowie Pooldienstleistern aus (z. B. [Jan07a]). Die Lieferanten der MTV sind vergleichbar mit den Herstellern von Produkten, ebenso der Einzelhandel oder z. B. Importeure – wer ein Hersteller ist, wird vielfach im Rahmen der Gesetzgebung definiert. Bei Versendern und Empfängern ergeben der Letztbesitzer eines Produkts als Versender und ein Entsorgungsunternehmen als Empfänger einen ersten Hinweis auf eine korrekte Zuordnung. Allerdings werden im Vergleich zu Mehrwegsystemen nicht MTV versendet und empfangen, sondern Produkte, Produktbestandteile bzw. entsprechende Transformationsgüter; auch Stoffe ohne eigentliche Produktgestalt werden betrachtet. Insofern ist jeder Teilnehmer eines Kreislaufwirtschaftssystems zugleich Versender und Empfänger, allerdings durchaus unterschiedlicher Objekte. Unter den Pooldienstleistern können die Gruppe der Entsorgungsunternehmen sowie allgemeine Dienstleister wie z. B. Transportunternehmen subsumiert werden, obwohl in einer Kreislaufwirtschaft von einem höheren Grad an Diversifikation auszugehen ist. Eine fünfte Gruppe, die in Mehrwegsystemen nicht bekannt ist, deckt in Kreislaufwirtschaftssystemen die Pflicht zum Nachweis u. a. bestimmter Quoten ab, wie Behörden oder z. B. die Stiftung Elektro-Altgeräte Register.
13.3.2
Konzepte einer kreislaufbezogenen Modellierung
13.3.2.1
Modellierung einer Kreislaufwirtschaft
Die Modellierung eines Kreislaufwirtschaftssystems erfolgt im Hinblick auf die weiter oben genannten Ziele mit unterschiedlichen Schwerpunkten. In diesem Zusammenhang ist zunächst der Umfang des Systems zu nennen, angefangen bei einer Anlage in einem Betrieb bis hin zu einer Ansammlung von Unternehmen, die betrachtet werden. Dann spielt die betriebliche Funktion eine Rolle, ob man sich z. B. an der Beschaffung, dem Absatz oder weiteren Bereichen orientiert. Evtl. interessiert ein bestimmter Prozess wie die Demontage. Als Gegenstand der Modellierung stehen Objekte als Individuum oder Stoffe als Fluss zur Verfügung, weiterhin
338
R. Jansen et al.
Informationen oder z. B. Anreizsysteme. Essentiell aus Sicht des Modellierers ist in jedem Fall die Methode der Modellierung. Der SFB 559 hat sich in diesem Zusammenhang auf das Dortmunder Prozesskettenparadigma verständigt. Das Interesse, welche Aspekte, ob ökologisch, ökonomisch oder rechtlich im Vordergrund stehen, ist ein weiterer Punkt, der vorab zu klären ist. Dann wird häufig ein Produktbezug hergestellt, d. h. ein Kreislaufwirtschaftssystem konkret auf z. B. Verpackungen, Automobile oder Elektro- und Elektronikgeräte bezogen (vgl. [Let05]). Neben diesen Überlegungen spielen weitere Größen eine Rolle. Im Hinblick auf die Recyclingverfahren ergeben sich ebenfalls Ansätze. Diese vornehmlich verfahrenstechnischen Komponenten erlangen im Zusammenhang mit dem Verhältnis zwischen Input und Output an Bedeutung. Eine Station entspricht sozusagen einer Blackbox, d. h. es existieren Daten über die Transformation und Aussagen über deren Ausmaß, die bei einer Modellierung für ein bestimmtes Verfahren mit anschließender Simulation durch Variation dieser Parameter berücksichtigt und untersucht werden können. Neben den allgemein im Fokus stehenden logistischen Prozessen, bestehen Unterschiede in der Organisation des Redistributionssystems. Verschiedene Redistributionsstrategien wie Bring- und Hol-Systeme sowie deren Kombination [Sta95] können untersucht werden. In der Folge treten strategische Aspekte wie Standorte, Touren oder Reviere in den Vordergrund. Die inhärente Technik von z. B. Fahrzeugen oder speziellen Mehrwegtransportverpackungen gehört mit ihren potenziellen Auswirkungen in Bezug auf Logistikleistungen und -kosten ebenso in diesen Komplex. Die Rahmenbedingungen, wie z. B. auch eine Netzstruktur und entsprechende Verknüpfungen innerhalb des Systems, beschreiben im Grunde eine Systemgrenze. Dabei ist besonders zu unterscheiden zwischen einerseits dem unveränderlichen Fundament des Modells und andererseits den veränderlichen Parametern. In jedem Fall beeinflussen diese Faktoren das System der Kreislaufwirtschaft, so dass eine Kenntnis über die Möglichkeiten und die Auswirkungen einer Veränderung u. U. unverzichtbar ist. Zu diesem Rahmen zählen nicht ausschließlich normative Aspekte, auch Faktoren wie die recyclinggerechte Konstruktion von Produkten (siehe [VDI02]) spielen eine Rolle.
13.3.2.2
Zentraler Aspekt der Modellierung einer Kreislaufwirtschaft
Weitere zentrale Aspekte einer Modellierung von Kreislaufwirtschaftssystemen betreffen die bereits dargestellten Recyclingarten, z. B. in Gestalt der Recyclingformen mit Wiederverwendung, Wiederverwertung, Weiterverwendung und Weiterverwertung. Hierbei treten die ureigenen kreislaufwirtschaftsbezogenen Merkmale in Form der so genannten Rekursionen in den Vordergrund, d. h. die Strukturen, die Kreislaufwirtschaftssysteme nach den vorliegenden Ausführungen ausmachen. Auf diesen Aspekt wurde weiter oben auch im Zusammenhang mit Mehrwegsystemen aufmerksam gemacht (vgl. z. B. [BBT+99]). Auch Kuppelprodukte, die besonders
13 Analyse und Modellierung von Redistributionsnetzen
339
bei der Bilanzierung eine Herausforderung darstellen, sind zu beachten [Sch98]. Es muss gelingen, all diese Wechselwirkungen in einem Modell abzubilden.
13.3.2.3
Fallbasiertes Schließen
Ausgangspunkt der Überlegungen zu den Redistributionsnetzen in Gestalt von Kreislaufwirtschaftssystemen ist das im Laufe der Jahre innerhalb des SFB 559 im Teilprojekt A11 aufgebaute Wissen zu Mehrwegsystemen und die in diesem Zusammenhang gewonnene Erkenntnis einer existenten strukturellen Ähnlichkeit zwischen beiden Kreislaufarten. In dieser Vergleichbarkeit liegt die Basis eines Ansatzes, bestimmte Problemstellungen aus der Kreislaufwirtschaft durch das aus der Informatik bekannte so genannte fallbasierte Schließen (engl.: case-based reasoning) zu lösen. Das fallbasierte Schließen verwendet zur Problemlösung neuer Fälle die gesammelten und in einer Fallbasis abgespeicherten Lösungen und Erfahrungen aus früheren Problemstellungen [APl94]. Als Basis dient der Analogieschluss, d. h. es wird vorausgesetzt, wenn z. B. ein Produktkreislauf Ähnlichkeit mit einem MTVKreislauf aufweist und dieser eine bestimmte Eigenschaft aufweist, hat auch der Produktkreislauf ebenfalls diese Eigenschaft des MTV-Kreislaufs. Erste Ansätze im Rahmen einer angestrebten Transportoptimierung mittels Tourenplanung innerhalb eines Entsorgungsnetzes bestätigen diesen Ansatz. Ausgangslage ist hierbei ein Capacitated Vehicle Routing Problem (CVRP), auf dem ebenfalls das weiter oben beschriebene KOMPASS-Modell aufbaut (s. Abschn. 13.2.1). Insbesondere nach Modifikationen der Redistributionsstrategien in Form unterschiedlicher Redistributionsindizes, die an die Bedürfnisse der Entsorgungswirtschaft anzupassen sind und die Entscheidungsgrundlage für den CIS-Solver (Cheapest InSert; es handelt sich hierbei um ein zielgerichtetes Neighborhood Search Verfahren) bilden, ist das mehrwegorientierte KOMPASS-Modell auf dieses spezifische ursprünglich mehrwegsystemfremde Problem anwendbar [Ohl04]. Die in seinem Wirkungskreis bereits dargestellte Eingeschränktheit des Modells lässt sich dabei aber ebenfalls auf Kreislaufwirtschaftssysteme übertragen. Das fallbasierte Schließen gehört zu den maschinellen Lernverfahren und bedarf daher in letzter Konsequenz einer Umsetzung in EDV-Systeme. Im Wesentlichen wurde jedoch die Quintessenz der Methode des fallbasierten Schließens, nämlich die Übertragbarkeit von Erkenntnissen eines Systems auf die eines ähnlichen, aber an sich fremden Systems, als Basis für die Arbeiten herangezogen, was im vorliegenden Fall vollkommen ausreichend schien.
13.3.2.4
Petri-Netze als ein alternativer Ansatz
Unterschiedliche Methoden dienen der Modellierung von Redistributionsnetzen im Sinne einer Kreislaufwirtschaft. Zwei Ansätze werden folgend kurz beschrieben und der Ansatz der Stoffstromnetze ausführlich dargestellt. Gemein ist allen drei
340
R. Jansen et al.
Ansätzen der Anspruch, sowohl Bestände als auch Bewegungen, d. h. Flüsse bzw. Ströme, abzubilden. Im Rahmen der Ökobilanz werden die Umweltwirkungen eines Produkts über dessen gesamten Lebensweg systematisch analysiert. In einer Gegenüberstellung werden Entnahmen aus der Umwelt sowie Emissionen in die Umwelt erfasst und bewertet. Wichtiges Element der Ökobilanz ist die so genannte Sachbilanz, innerhalb derer die quantitative Erfassung und Darstellung von Input- und Outputströmen bezogen auf eine funktionelle Einheit erfolgt. Die Sachbilanz ist Grundlage für eine qualitative Wirkungsabschätzung (vgl. im Verbund [DIN06b, [DIN06c]). Sankey-Diagramme stellen ein wichtiges Hilfsmittel zur Visualisierung von Energie- und Mengenflüssen durch mengenproportional dicke Pfeile dar. Sie zeigen Ineffizienzen und Einsparpotenziale auf [Wik08]. Klassische Sankey-Diagramme sind nicht in der Lage, Bestände darzustellen. Eine Abbildung von Beständen kann jedoch über Säulen erfolgen, die Knoten zugeordnet sind, zwischen denen wiederum die Ströme fließen [Sch06]. Carl Adam Petri hat das Konzept der Petri-Netze 1962 in seiner Dissertation vorgestellt, um eine Methode zur einfachen Beschreibung komplexer nebenläufiger Systeme zur Verfügung zu stellen. Zahlreiche Arbeiten haben sich seitdem mit Petri-Netzen befasst und diese zum Teil in Form weiterer Petri-Netz-Klassen erweitert. Zu den Erweiterungen zählen z. B. zeiterweiterte und so genannte farbige Petri-Netze, letztere ermöglichen eine Verfolgung einzelner Objekte im Petri-Netz (zu einer Einführung und Übersicht zu Petri-Netzen vgl. z. B. [Twe03]). Im Fokus der weiteren Betrachtung sollen jedoch als Anwendungsgebiet der Petri-Netze und spezieller Modellansatz zur Abbildung von Stoffstromsystemen die so genannten Stoffstromnetze stehen. Stoffstromnetze ermöglichen die systematische Integration von Stoffbeständen in Stoffstromanalysen, die ansonsten Stoff- und Energieströme betrachten [MRo95]. Aufbauend auf diesen Eigenschaften eignen sich Stoffstromnetze, die Anforderungen von A11 im Rahmen einer Modellierung von Kreislaufwirtschaftssystemen zu erfüllen und adäquat sowohl Material- als auch Informationsflüsse darzustellen sowie Bestände abzubilden. „Stoffstromnetze liefern dann für eine bestimmte Betrachtungsperiode und bei gegebenen Anfangsbeständen Aussagen darüber, welche Stoff- und Energieströme in einem System wo fließen und welche Endbestände daraus resultieren“ [MRo95]. Stoffstromnetze werden grafisch in Analogie zu Petri-Netzen mit quadratischen Transitionen, kreisförmigen Stellen und gerichteten Pfeilen als Verbindung dieser beiden Knotentypen dargestellt. Eine direkte Verbindung zwischen Transitionen und zwischen Stellen ist nicht möglich. In Transitionen wird der Input in einen Output umgewandelt. Stellen dienen als Lager. Als Besonderheit dienen „unechte“ Stellen ohne Lagerung als so genannte Connection-Stellen der Verteilung oder dem Zusammenführen von Strömen – grafisch durch einen Kreis mit doppelter Randlinie gekennzeichnet. Hinzu kommen Stellen als Input- und Output-Stellen, welche die Übergabepunkte zur Außenwelt, die Systemgrenze, definieren – dargestellt als Kreis mit links- oder rechtsseitiger Sehne [MRo95]. Verfeinerungen, d. h. die Darstellung eines höheren Detaillierungsgrad, sind möglich. Obwohl jede Transformation
13 Analyse und Modellierung von Redistributionsnetzen
341
in einer Transition ohne zeitliche Diskrepanz zwischen Entnahme des Inputs und Ablegen des Outputs, sozusagen in Echtzeit, durchgeführt wird [MRo95], können aufgrund der Tatsache, dass Stoffstromnetze eine Art Periodenrechnung darstellen, die Ströme mit Hilfe der Zeit als Laufindex iteriert werden, allerdings nicht intuitiv. „[Die] Bestände und Ströme am Ende einer Zeitperiode können als Anfangswerte für die Berechnung der nächsten Zeitperiode verwendet werden“ [Sch95]. Abbildung 13.4 stellt als Beispiel eine als Stoffstromnetz ausgeführte Kreislaufwirtschaft dar. Trotz einer grundsätzlich guten Eignung von Petri-Netzen und im Besonderen von Stoffstromnetzen zur Modellierung für den zu untersuchenden Themenkomplex, soll im Folgenden das dem SFB 559 zugrunde liegende Prozesskettenparadigma für eine Modellierung genutzt werden. Insbesondere die Zeitorientierung ist hier im Vergleich zu den Stoffstromnetzen bereits implizit vorhanden.
13.3.2.5 Anforderungen an eine Modellierung im ProC/B-Paradigma Prozessketten dienen der Darstellung von Material- und Informationsflüssen im Zusammenhang mit der sequentiellen Abwicklung eines Auftrags von Kunden zu Lieferanten [Kuh95]. Wie bereits ausgeführt, ist der einem Kreislaufwirtschaftssystem inhärente zyklische Charakter damit nicht in das Instrument des Prozesskettenparadigmas integriert sowie letztlich ebenfalls nicht in das ProC/B-Paradigma. Insofern sind für unterschiedliche Anforderungen eines Kreislaufwirtschaftssystems an eine Modellbildung Lösungen zu beschreiben, die diese Einschränkungen inexistent erscheinen lassen.
Abb. 13.4 Beispiel einer Kreislaufwirtschaft als Petri-Netz (Stoffstromnetz)
342
R. Jansen et al.
Weiter oben wurden bereits im Zusammenhang mit Mehrwegsystemen zwei Möglichkeiten präsentiert, Kreislaufstrukturen mittels ProC/B darzustellen, mit Hilfe des Prozesskettenelements Loop sowie unter Verwendung einer Funktionseinheit vom Typ Storage (s. Abschn. 13.2.2) – u. U. ist auch der Typ Counter in Bezug auf die Objektanzahl ausreichend, was jedoch nicht für individuelle Objekte gilt. Diese Ansätze sind für die entsprechenden Erfordernisse von den Mehrwegsystemen auf Kreislaufwirtschaftssysteme übertragbar. Eine dritte Variante besteht darin, das Stilmittel der Synchronisation von Prozessen und insbesondere Prozessketten mittels Konnektoren zu nutzen. Sowohl ProC/B als auch das Prozesskettenparadigma bieten diese Möglichkeit. Es stehen Und- sowie Oder-Konnektoren sowohl mit als auch ohne Zeitbezug zur Verfügung [Bau03], um Wechselwirkungen zwischen Prozessen und Prozessketten unterschiedlicher Leistungsobjekte zu modellieren. Vor allem in Bezug auf das Zusammenfügen und Trennen von Objekten ergeben sich so ideale Voraussetzungen, wenn die Modellierung einzelner Bestandteile eines Objekts als eigenständiges Leistungsobjekt erforderlich wird und das Vorhandensein einer Ressource allein nicht ausreicht. So kann z. B. ein Automobil mit allen interessierenden Bestandteilen über den gesamten Lebenszyklus abgebildet werden, auch zu den Zeitpunkten, an denen es real nicht als Ganzes – sozusagen nur als Bauplan – vorliegt, sondern mindestens eines seiner Bestandteile „beraubt“ ist (durch Zusammenführen oder Trennen). Diese Bestandteile können in einer Kreislaufwirtschaft verfolgt werden, indem sie z. B. als zusätzliches Leistungsobjekt modelliert werden. In diesem Zusammenhang sei auf Abb. 13.5 verwiesen, in dessen Modell auf das Beispiel des vorangegangenen Petri-Netzes zurückgegriffen wird und das die beschriebenen Lösungsansätze enthält. Teile seien in diesem Fall von besonderem Interesse, und sie werden mit Hilfe einer Funktionseinheit vom Typ Storage in Kombination mit der Synchronisation von Teile-Prozessketten mit der Automobil-Prozesskette verfolgt. Bei den Teilen handelt es sich um – in Bezug auf die Automobile – zunächst anonyme Leistungsobjekte. Die Verbindung mit dem Leistungsobjekt Automobil und die individuelle Verfolgbarkeit eines Teils überhaupt erfolgen über die Aufprägung einer eindeutigen Instanz, die im/über das Storage gespeichert ist (vgl. Abschn. 13.2.2). Jede der drei Teile-Prozessketten greift auf dieses Storage zurück. Insofern wird die für das Prozesskettenparadigma typische Trennung zwischen dem, was an einer Senke aus einem System austritt, und dem, was an einer Quelle in ein System eintritt, aufgehoben, d. h. Quelle und Senke werden inhaltlich miteinander verknüpft. Das ProC/B-Paradigma erlaubt die Darstellung und Analyse dynamischer Vorgänge, wobei Experimente durch geeignete Parameterkonstellationen z. B. unter verschiedenen Systemlasten oder Transformationskennzahlen durchgeführt werden. Die Aufbaustrukturen, d. h. die Netzwerkstruktur und die einzelnen Funktionseinheiten sowie ihre Verknüpfungen, sind statisch festgelegt, lediglich die Prozessabläufe, die auf ihnen stattfinden, sind dynamisch [Ter05]. Diese Eigenschaft stellt ganz allgemein einen Nachteil in der Nutzung des ProC/B-Paradigmas dar, die natürlich auch für Kreislaufwirtschaftssysteme gilt.
13 Analyse und Modellierung von Redistributionsnetzen
343
13.3.2.6 Angebot und Nachfrage in Kreislaufwirtschaftssystemen Im Grunde ist jeder Akteur bzw. jede Station, d. h. jeder Prozess innerhalb eines Kreislaufwirtschaftssystems dadurch gekennzeichnet, dass er einen bestimmten
Abb. 13.5 Beispiel einer Kreislaufwirtschaft in Prozessketten
344
R. Jansen et al.
Input in einen bestimmten Output transformiert. Im einfachsten Fall werden die eingehenden Produkte oder Materialien unverändert durchgeschleust wie z. B. bei einem Transportprozess. Dabei können Prozesse als Knoten freigeschnitten werden. Nach dem Prozesskettenparadigma ist jeder Input eines Prozesses als Quelle und jeder Output als Senke interpretierbar, solange es sich dabei um Leistungsobjekte handelt, anderenfalls werden Input und Output z. B. als Ressourcenlager modelliert. Die Senke und das Lager stellen dem oder den nachfolgenden Prozessen ein Angebot zur Verfügung, an jeder Quelle und jedem Lager entsteht eine Nachfrage nach Inputfaktoren. Dabei können sowohl Input als auch Output in Anlehnung an eine Kategorisierung von Dyckhoff in die Kategorien „Gut“, „Neutral“ und „Schlecht“ eingestuft werden [Dyc94, Sch98]. Ein guter Input stellt aus betriebswirtschaftlicher Sicht Aufwand dar, den es zu minimieren gilt, schlechter Input sollte als Ertrag dementsprechend maximiert werden, weil er durch den Prozess im Idealfall vernichtet wird und so z. B. keine weiteren Entsorgungskosten anfallen oder Nachteile für die Umwelt reduziert werden. Auf der Outputseite stellt sich die Situation genau andersherum dar. Man ist bestrebt, schlechten Output in Gestalt von Aufwand zu minimieren, guten Output als Ertrag dagegen zu maximieren. Neutraler Input und Output verfügen über keine derart gelagerte Bedeutung. Beliebig ist dabei die Einstufung, was „Gut“, „Neutral“ oder „Schlecht“ ist [Sch98]. Grundsätzlich werden das Angebot an Quellen und Lagern sowie die Nachfrage an Senken und Lagern mit den Dimensionen Qualität, Quantität, Zeit, Preise und Ort beschrieben. Dabei sind die unterschiedlichen Systemteilnehmer Ausgangspunkt verschiedener Quellen und Senken mit einer durchaus diversifizierten Struktur von Angebot und Nachfrage. Bei der Modellierung der Systemlasten ist zu beachten, dass im Gegensatz zu Mehrwegsystemen, bei denen Umläufe einer Mehrwegtransportverpackung einen relativ eng begrenzten zeitlichen Rahmen einnehmen, ein Produktkreislauf häufig unterbrochen ist, d. h. es kann aufgrund der langen, u. U. unbestimmten Nutzungsdauer keine direkte Verbindung zwischen dem Produkt hergestellt werden, das in den Kreislauf eintritt und dem Produkt, das aus diesem austritt. Einige Unternehmen stützen diesen Umstand, indem Rückführungen grundsätzlich als Ausschuss behandelt und damit abgeschrieben werden [Bar07]. In Branchen wie der Automobilindustrie ist dies allerdings allein aufgrund des Produkts, der Struktur der Branche und der Gesetzeslage nicht vorstellbar. Bei der Ermittlung des Altgeräte-Aufkommens zur Beschreibung von Systemlasten bieten sich grundsätzlich zwei Methoden an: Während die Zeitschnitt-Methode davon ausgeht, dass Neugeräte als Ersatz für veraltete Geräte beschafft werden, integriert die Phasen-Methode eine zeitliche Verschiebung des Bedarfs an Neugeräten in die Bestimmung des Altgeräteaufkommens [HRö95b]. Allerdings stehen in diesem Zusammenhang sicher noch weitaus detailliertere und differenziertere Prognoseverfahren unter Berücksichtigung weiterer Faktoren zur Verfügung, die an dieser Stelle jedoch nicht weiter behandelt werden sollen. Allgemein bestehen jedoch – wie eben erwähnt – Unsicherheiten hinsichtlich der Volumina von Rücklaufströmen, der Rückgabezeitpunkte, der Qualität von Rücklaufströmen oder der Preise von Rücklaufströmen [Let05]. Zudem kann von einem
13 Analyse und Modellierung von Redistributionsnetzen
345
Wechsel von Push im Fall der Versorgung nach Pull bei der Entsorgung ausgegangen werden [FNG+05].
13.4
RFID zur Informationsgewinnung
Zuvor wurde bereits auf die Notwendigkeit hingewiesen, Daten über Bestände und Bewegungen der Objekte in den zu modellierenden Systemen zu gewinnen. Als innovative Technologie der Gegenwart und Zukunft bietet sich hierfür die RFIDTechnologie an.
13.4.1
Grundlagen der RFID-Technologie
13.4.1.1
Zur Vielfalt der RFID-Systeme
RFID ist nicht gleich RFID (vgl. [Jan07b]). Dies wird besonders deutlich, wenn man sich eingehender mit den Einsatzmöglichkeiten der Technologie in den verschiedenen Anwendungsgebieten beschäftigt, wobei jeder dieser ebenfalls in sich diversifizierten Bereiche seine ganz eigenen Anforderungen stellt. Es existiert eine Vielzahl von Unterscheidungsmerkmalen für RFID-Systeme, die ein System vom anderen unterscheiden, wobei nicht alle diese Merkmale vollständig unabhängig voneinander sind. Insbesondere durch die Wahl der Arbeitsfrequenz werden zahlreiche Entscheidungen mit Blick auf die Leistungsfähigkeit eines RFID-Systems gefällt. Eng verbunden mit der Frequenz sind z. B. das Funktionsprinzip, die Lese- und Schreibreichweite, der Einfluss von Metall und Flüssigkeiten oder die Datenübertragungsrate und damit wiederum die Pulkleseeigenschaften. Ein weiteres Merkmal ergibt sich aus den Speichertypen. So unterscheidet man Transponder, die ab Herstellungszeitpunkt bereits über eine eindeutige Nummer verfügen und nicht weiter beschrieben werden können (read only), von Transpondern, bei denen ein Schreibprozess mehrmals möglich ist (read write). Im Grunde als Zwitter sind Transponder bekannt, die lediglich einmal beschreibbar sind (write once read many). Darüber hinaus können Transponder über eine eigene Energiequelle verfügen, oder sie sind vollständig passiv ausgeführt.
13.4.1.2
Standardisierung als Voraussetzung
Lange Zeit wurden fehlende Standards als ein großes Hindernis für einen RFIDEinsatz genannt. In der Tat ist noch viel Arbeit zu leisten, doch mittlerweile liegen wichtige Dokumente vor, die Unternehmen in einem sich dynamisch entwickelnden Umfeld durchaus Investitionssicherheit bieten und dies insbesondere auch in offenen Systemen. Bei den Anwendungsstandards existiert jedoch nach wie vor
346
R. Jansen et al.
eine Lücke, die z. B. mit Veröffentlichung der ISO-Normen 17363 bis 17367 bzgl. unterschiedlicher logistischer Einheiten geschlossen werden soll. Einen wertvollen Beitrag leisten national VDI-Richtlinien, insbesondere die Richtlinienblätter 4472 zu den Anforderungen an Transpondersysteme zum Einsatz in der Supply Chain, die wesentlich vom Fachgebiet Logistik (FLog) und damit dem Teilprojekt A11 begleitet und gestaltet werden. In diesem Zusammenhang konnte durch A11 das Blatt 5 zum RFID-Einsatz in der Mehrweglogistik erarbeitet werden. In Bezug auf RFID in der Kreislaufwirtschaft existieren Ansätze hinsichtlich des Recyclings der Transponder an sich (ISO/IEC DTR 24729-2:2007-07) sowie eine Machbarkeitsstudie zur Einbindung von RFID in das Management von Elektro- und Elektronikgeräte bzgl. der europäischen Richtlinie über Elektro- und Elektronik-Altgeräte (CLC/TR 50489:2006-11), in Deutschland umgesetzt durch das Elektro- und Elektronikgesetz (zu RFID-Standards vgl. generell [CHJ05, Hus06a]).
13.4.1.3
Qualität zur Absicherung der Investitionen
Der Aspekt der Qualität eines RFID-Systems rückt bei Investitionsentscheidungen immer deutlicher in den Vordergrund und damit auch der notwendige Nachweis dieser Qualität von Produkten, Lösungen und Prozessen durch Testate oder letztendlich Zertifikate unabhängiger Test- und Prüfinstitutionen wie z. B. dem LogIDLab®. Dabei ist der Qualitätsbegriff selbst im Zusammenhang mit RFID-Systemen unterschiedlich besetzt, wobei die folgenden Begriffe keine völlig unabhängigen Teilmengen darstellen (vgl. [Jan07b]): Die Funktionsfähigkeit beschreibt die Tatsache, dass ein System unter den vorherrschenden Bedingungen überhaupt funktioniert. Wie gut es hierzu in der Lage ist, beschreibt die Leistungsfähigkeit. Eng damit verbunden ist der Begriff der Zuverlässigkeit, der betont, wie konstant, andauernd oder auch robust eine gewünschte Performance erzielt wird. Nur wenn Interoperabilität gewährleistet ist, können mit der Zeit Komponenten ohne signifikante Qualitätseinbußen ausgetauscht werden. Hierfür ist Konformität wichtig, d. h. die Übereinstimmung z. B. mit bestimmten Normen. Die Widerstandsfähigkeit beschreibt wiederum die Reaktion eines RFID-Systems auf äußere Einflüsse und Belastungen. Letztendlich muss die Qualität eines RFID-Systems immer in Verbindung mit dem Trägerobjekt des Transponders sichergestellt sein. Nur im Fall eines sicheren Datenbestands, d. h. einer entsprechenden Qualität der Mittel zur Erzielung dieser Datenbasis – selbst qualitativ hochwertige Daten vorausgesetzt –, liegen ausreichend Daten für eine Modellierung und Simulation vor.
13.4.1.4
Ebenen eines RFID-Einsatzes
Der Einsatz von RFID erfolgt auf unterschiedlichen Ebenen. Weit verbreitet ist eine Unterscheidung in das so genannte Item-, Case- und Pallet-Tagging, das im Wesentlichen aus dem Bereich des Handels stammt und für diese Branche sehr gut die
13 Analyse und Modellierung von Redistributionsnetzen
347
relevanten Ebenen und angefangen beim Pallet-Tagging die Abfolge bereits vollzogener und noch zu vollziehender Entwicklungsschritte beschreibt. Eine andere Einteilung geht von insgesamt sechs unterschiedlichen Schichten der Supply Chain aus, angefangen bei Produkten, über Produktverpackungen, den zu bildenden Transporteinheiten sowie Mehrwegtransportverpackungen bis hin zu Ladegefäßen wie z. B. Frachtcontainer und den für einen Transport erforderlichen Transportmitteln wie Lkw, Schiff, Zug oder Flugzeug (z. B. [ISO07]).
13.4.1.5 Anforderungen an die Datenerfassung Es besteht die Möglichkeit, die Informationen über ein Objekt entweder direkt oder indirekt zu erfassen. Im zweiten Fall sind mindestens zwei Objekte miteinander verbunden, wobei nur eines mit einem Transponder ausgestattet ist und belastbare Informationen über beide Objekte liefert, solange diese verbunden sind. Auch ein Vorgehen über Repräsentanten ist denkbar, indem ein Transponder einer Gruppe von mindestens zwei Transpondern ausreicht, um die gesamte Gruppe zu erfassen. Aus unterschiedlichen Gründen kann es u. U. erforderlich und sinnvoll sein, ein Objekt mit mehr als einem, aber in der Regel zwei, funktions- und inhaltsgleichen Transpondern auszustatten, um in der Supply Chain ein Erfassen des Objekts in jedem Fall sicherzustellen. Dann ist ein Transponder immer auch an seine Funktion gebunden. So können sich durchaus zwei unterschiedliche Transponder an einem Objekt befinden, z. B. einer für eine Erfassung entlang der Supply Chain und der andere für Lebenszyklusinformationen. Diese Eigenschaft kann ebenfalls über unterschiedliche Speicherbereiche auf dem Chip eines Transponders realisiert werden. Wie in jedem EDV-System ist grundsätzlich zwischen einer zentralen und einer dezentralen Datenhaltung zu unterscheiden. Im ersten Fall werden die Informationen an einem zentralen Ort gespeichert und der Transponder stellt lediglich eine Referenz zur Verfügung, d. h. eine Nummer als Adresse, bei der die Informationen über das Objekt zu finden sind. Dezentrale Datenhaltung setzt die Speicherung aller Daten auf dem Chip des Transponders voraus. Durchaus anzutreffen sind Kombinationen beider Modelle, die sich auf alle Daten oder nur einen Teil beziehen (vgl. z. B. [HJa04]). Es ist zu unterscheiden einerseits zwischen den Rohdaten, die auf einer unteren Ebene von RFID-Hardware gesammelt werden, und andererseits den Daten mit Geschäftskontext, die wiederum aus den Rohdaten generiert und – wenn überhaupt – dann nur in dieser Form sinnvoll in existierender betriebswirtschaftlicher (Standard-)Software verarbeitet werden können. Die Rohdaten entstehen an verschiedenen markanten Stellen durch stationäre sowie durch mobile Lesepunkte. Anzahl und Aufteilung beeinflussen in hohem Maße die Granularität und die Visibilität in RFID-Anwendungsgebieten (zur Visibilität in Logistik-Netzwerken vgl. [Dit06]). Sie sollten einen sinnvollen Mix aus Umfang der Erfassungsgrundlage und hinreichender Informationsbasis darstellen. Aber nicht alleine die Lesepunkte sind wichtig, sondern auch die Stellen im System, bei denen Daten auf den Transponder geschrieben werden.
348
R. Jansen et al.
13.4.2 Vorgehen zur Implementierung von RFID-Infrastruktur Das Vorgehen zur Implementierung einer RFID-Infrastruktur kann in vier Stufen unterteilt werden (zum Folgenden siehe insbesondere [Hus06b]): Erforderlich sind die Anforderungsanalyse, Laboruntersuchungen, das Systemdesign und schließlich die Realisierung in einer Pilotanlage (vgl. Abb. 13.6). Ergebnis der Anforderungsanalyse sind Informationen, auf deren Basis alternative Lösungen diskutiert und Entscheidungen mit Blick auf eine Vorauswahl der Systemkomponenten getroffen werden. Der grundsätzliche Nachweis der technologischen Machbarkeit wird in Laboruntersuchungen betrieben. Die beiden ersten Stufen bilden die Basis für das Systemdesign. Hier werden das RFID-System und seine Infrastruktur zunächst theoretisch ausreichend detailliert beschrieben sowie anschließend im Rahmen einer Pilotanlage umgesetzt. Am Ende steht die Roll-out-Entscheidung.
13.4.2.1 Anforderungsanalyse Als Basis aller nachfolgenden Schritte ist die Anforderungsanalyse mit einer entsprechend hohen Bedeutung verbunden. Die einzelnen Bereiche einer durchzuführenden Prozess-, Umfeld-, Objekt- und IT-Infrastrukturanalyse sollten und dürfen nicht isoliert voneinander betrachtet werden. Vielmehr stellen sie unterschiedliche Sichten desselben Tatbestands dar. Dabei sind RFID-Systeme alleine mit Bezug auf die Umfeldanalyse einer Vielzahl äußerer Einflüsse ausgeliefert und Belastungen ausgesetzt – hierzu zählen vor allem reflektierende und elektrisch leitende Oberflächen, absorbierende Materialien, das RF-Spektrum insgesamt (Störfrequenzen) und z. B. elektrostatische Aufladungen, aber auch mechanische, chemische und thermische Belastungen –, die einerseits von der Umgebung und anderseits von der Anwendung selbst determiniert werden. Sowohl die Kommunikation zwischen
Abb. 13.6 Stufenmodell
13 Analyse und Modellierung von Redistributionsnetzen
349
Transponder und Reader als auch die Widerstandsfähigkeit einzelner Systemkomponenten werden hierdurch in der Regel negativ beeinflusst. Unerwünschte Effekte in Bezug auf die Lese- und Schreibprozesse sind geringere Reichweiten oder das Erfassen von Transpondern außerhalb des vorbestimmten Erfassungsbereichs und Löcher in diesem sowie Leistungseinbußen u. a. bei der Pulklesung.
13.4.2.2
Laboruntersuchungen
Laboruntersuchungen verfolgen in einer kontrollierbaren Umgebung das Ziel eines grundsätzlichen Nachweises der technologischen Machbarkeit eines geplanten Einsatzes der RFID-Technologie in Bezug auf ein konkretes Anwendungsszenario als Referenz. In der Praxis bewährt hat sich in diesem Zusammenhang ein mehrstufiges Verfahren, das sowohl die Leistungsfähigkeit als auch die Widerstandsfähigkeit eines RFID-Systems und einzelner Systemkomponenten in den Vordergrund stellt. Im Fokus der Untersuchungen zur Leistungsfähigkeit von RFID-Systemen stehen zum einen eine geeignete Position zur Anbringung der Transponder am Trägerobjekt sowie zum anderen die korrespondierende Antennenkonfiguration mit nachgelagertem Reader. Als ein möglicher Ablauf, um dieses System abzustimmen, bietet sich ein geteiltes Vorgehen aus statischen Tests mit anschließender dynamischer Validierung an. Allerdings ist zu beachten, dass unterschiedliche Systemkomponenten und selbst Unterschiede in der Software und Firmware der Reader zu signifikanten Unterschieden in der Leistungsfähigkeit führen können. Ganz allgemein ist die Sicherheit einer automatisierten und Verlässlichkeit einer erfolgreich durchgeführten Identifikation von mit Transpondern gekennzeichneten logistischen Einheiten in RFID-Systemen und somit fehlerfreien Prozessen unerlässlich für einen effizienten und wirtschaftlichen Materialfluss. Ansonsten können die allseits beschriebenen Prozessverbesserungen durch RFID nicht erzielt werden und sich u. U. sogar ins Gegenteil umkehren. Neben der Leistungsfähigkeit von RFID-Systemen darf in diesem Zusammenhang daher die Widerstandsfähigkeit einzelner Systemkomponenten oder deren Verbindung, wie z. B. die Befestigung des Transponders am Trägerobjekt, gegenüber äußeren Einflüssen nicht vernachlässigt werden, was im Übrigen auch für die Objekte selbst gilt, weil bei beschädigten Teilen oder Teilen, die beispielsweise drohen, abzufallen, der Transponder ebenfalls betroffen ist. So sind Beschädigungen z. B. an Ladungsträgern, die u. U. auch die Funktionsfähigkeit eines Transponders betreffen, im alltäglichen Betrieb keinesfalls unüblich. Davon abgesehen sind RFID-Systeme z. B. im Produktionsumfeld neben mechanischen Belastungen auch hohen thermischen und chemischen Belastungen ausgesetzt.
13.4.2.3
Systemdesign und Pilotrealisierung
Das Systemdesign führt die Ergebnisse der Anforderungsanalyse und der Laboruntersuchungen in der Art zusammen, dass ein umfassendes und schlüssiges
350
R. Jansen et al.
Konzept zum Einsatz der RFID-Technologie entsteht. Zunächst theoretisch wird das Konzept im Rahmen einer Pilotanlage vor Ort implementiert und praktisch umgesetzt. Dabei umfasst der Pilot alle wesentlichen Aspekte, die für eine Roll-outEntscheidung von Bedeutung sind.
13.5
Zusammenfassung
Abschließend kann festgestellt werden, dass die in diesem Beitrag dargestellten Erkenntnisse Teile der Forschungsergebnisse der Arbeiten des Teilprojekts A11 in der aktuellen dritten Phase des SFB 559 darstellen. Grundlegend wird die Mehrweglogistik mit den Mehrwegtransportverpackungen als Leistungsobjekten und Mehrwegsystemen als Leistungssystemen erläutert und die Dynamik und Komplexität der Mehrwegsysteme dargestellt. Anschließend wird die Eignung von verschiedenen Modellierungsformalismen für die zielgeführte Modellierung und Simulation von Mehrwegsystemen untersucht. Hauptaugenmerk liegt hierbei auf dem – dem SFB 559 zu Grunde liegenden – Dortmunder Prozesskettenparadigma, jedoch werden auch Eigenentwicklungen wie das KOMPASS-Modell und weniger weit verbreitete jedoch für die Mehrwegsysteme hoch potente Modellierungsinstrumente – wie z. B. die systemdynamische Modellierung – dargestellt. In Analogie zu den Zielen von A11 in der dritten Phase des SFB 559 werden neben und aufbauend auf Mehrwegsystemen kreislaufähnliche Strukturen wie Stoffstromkreisläufe, die sich aus Produkt- und Verpackungskreisläufen ergeben, untersucht. Neben den erforderlichen Grundlagen werden die Erfordernisse einer kreislaufbezogenen Modellierung thematisiert. Als Brücke zu den Erkenntnissen aus den Untersuchungen der Mehrwegsysteme dient zunächst das fallbasierte Schließen. Im Weiteren werden verschiedene Instrumentarien zur Modellierung und Simulation kreislaufähnlicher Strukturen präsentiert und insbesondere das ProC/BParadigma ertüchtigt. Auch die Bedingungen in Kreislaufsystemen zwischen Angebot und Nachfrage sowie Input und Output werden angerissen. Den Beitrag schließt eine Auseinandersetzung mit der RFID-Technologie, welche – unter den genannten Bedingungen – als Werkzeug zur Datengewinnung in Mehrwegsystemen und kreislaufähnlichen Strukturen eingesetzt werden kann, um eine valide und konsistente Datenbasis zur Modellierung und Simulation aufzubauen.
Literatur [APl94] Aamodt A, Plaza E (1994) Case-based reasoning: Foundational issues, methodological variations, and system approaches. AICOM 7(1):39–59 [Bar07] Barck R (2007) Versilbern statt verschrotten. Logistik Inside 7–8, S 30–31 [Bau03] Bause F (2003) Semantik des ProC/B-Paradigmas. Spezifikation des ProC/B-Formalismus anhand der Umsetzung in HiSlang. Technical Report 03001, Sonderforschungsbereich 559 „Modellierung großer Netze in der Logistik“, Dortmund
13 Analyse und Modellierung von Redistributionsnetzen
351
[BBT+99] Beilner H, Bause F, Tatlitürk H, van Almsick A, Völker M (1999) Zum B-Modellformalismus. Version B1. Interner Bericht 99002, Sonderforschungsbereich 559 „Modellierung großer Netze in der Logistik“, Dortmund [BHO+07] Bause F, Hegemanns T, Ohlbrecht M, Pietzarka S, Tatah V (2007) Endbericht der Arbeitsgruppe 1 – Neues Problemverständnis: Ergänzung des Modellierungsparadigmas. Technical Report 07001, Sonderforschungsbereich 559 „Modellierung großer Netze in der Logistik“, Dortmund [BKJ98] Berken M, Kötter U, Jansen R, Institut für Kreislaufwirtschaft und Umwelttechnik (Hrsg) (1998) Handbuch Entsorgungslogistik. Möglichkeiten und Grenzen der Abfallvermeidung, -verwertung und -beseitigung. Deutscher Fachverlag, Frankfurt a. M. [CHJ05] Clasen M, Hustadt J, Jansen R (2005) Aktueller Status der Standardisierung bei RFIDAnwendungen für die Logistik. In: Seifert W, Decker J (Hrsg) RFID in der Logistik – Erfolgsfaktoren für die Praxis, Deutscher Verkehrs-Verlag, Hamburg, S 61–85 [DIN05] Deutsches Institut für Normung e.V. (Hrsg) (2005) DIN-Norm 55510 – Teil 3 – Verpackung – Modulare Koordination im Verpackungswesen – Regeln und Maße, Beuth Verlag, Berlin [DIN06a] Deutsches Institut für Normung e.V. (Hrsg) (2006a) DIN-Norm 55405 – Verpackungen – Terminologie – Begriffe, Beuth Verlag, Berlin [DIN06b] Deutsches Institut für Normung e.V. (Hrsg) (2006b) DIN EN ISO 14040 – Umweltmanagement – Ökobilanz – Grundsätze und Rahmenbedingungen, Beuth Verlag, Berlin [DIN06c] Deutsches Institut für Normung eV. (Hrsg) (2006c) DIN EN ISO 14044 – Umweltmanagement – Ökobilanz – Anforderungen und Anleitungen, Beuth Verlag, Berlin [DIN89] Deutsches Institut für Normung e.V. (Hrsg) (1989) DIN-Norm 30781 – Beiblatt 1 – Transportkette Grundbegriffe Erläuterungen, Beuth Verlag, Berlin [Dit06] Dittmann L (2006) Der angemessene Grad an Visibilität in Logistik-Netzwerken. Die Auswirkungen von RFID. Dissertation, Universität St. Gallen, Schweiz. Deutscher Universitäts-Verlag, Wiesbaden [Dör89] Dörner D (1989) Die Logik des Misslingens – Strategisches Denken in komplexen Situationen. Rowohlt Verlag, Reinbeck bei Hamburg [Dyc94] Dyckhoff H (1994) Betriebliche Produktion. Theoretische Grundlagen einer umweltorientierten Produktionswirtschaft, 2., verb. Aufl. Springer, Berlin [EHJ81] Eggenstein F, Herbst D, Jansen R (1981) Materialfluss und Steuerung. In: Volk P (Hrsg) Betriebsleiter Handbuch. Verlag Moderne Industrie, Landsberg am Lech, S 157–185 [FNG+05] Fleischmann M, van Nunen J, Gräve B, Gapp R (2005) Reverse logistics – capturing value in the extended supply chain. In: An C, Fromm H (Hrsg) Supply chain management on demand. Springer, Berlin, S 167–185 [For58] Forrester JW (1958) Industrial dynamics – A major breakthrough for decision makers. Har Bus Rev 36:37–66 [Han95] Hansen U (1995) Kreislaufwirtschaft. In: Jünemann R (Hrsg) Entsorgungslogistik III. Kreislaufwirtschaft. Erich Schmidt, Berlin, S 26–39 [HJa04] Hustadt J, Jansen R (2004) Widerspruchsfreiheit bei RFID-Systemen unter dem Aspekt der dezentralen Datenhaltung. In: Maschinen Markt (MM) Logistik Sonderausgabe Softwareführer 2004/2005. Vogel, Würzburg, 11. Oktober, S 8–11 [HRö95a] Hauser H, Röttchen P (1995a) Verwendungs- und Verwertungskonzepte. In: Jünemann R (Hrsg) Entsorgungslogistik III. Kreislaufwirtschaft. Erich Schmidt, Berlin, S 85–101 [HRö95b] Hauser H, Röttchen P (1995b) Elektro- und Elektronikgeräte. In: Jünemann R (Hrsg): Entsorgungslogistik III. Kreislaufwirtschaft. Erich Schmidt, Berlin, S 139–160 [Hus06a] Hustadt J (2006a) Standards für RFID-Systeme – eine Bestandsaufnahme. PackReport 39(10): 59–62 [Hus06b] Hustadt J (2006b) Voraussetzungen zur Implementierung von RFID-Infrastruktur. In: Gillert F, Hansen W-R (2006b) RFID – Für die Optimierung von Geschäftsprozessen. Hanser, München, S 160–171 [ISO07] ISO (Hrsg) (2007) ISO-Norm 17363:2007-07: Supply chain applications of RFID – Freight containers. Beuth Verlag, Berlin
352
R. Jansen et al.
[Jab05] Jablinski J (2005) Entwicklung eines Kalkulationssystems für Mehrwegtransportverpackungssysteme unter besonderer Berücksichtigung nicht-systemkonformen Nutzerverhaltens. In: Jansen R (Hrsg) Schriftreihe Transport- und Verpackungslogistik Forschungsberichte und Fachbeiträge, Bd 62, Deutscher Fachverlag [Jan07a] Jansen R (2007a) Paletten und andere Ladungsträger – welche Anforderungen die Zukunft in den nächsten 10 bis 20 Jahren stellt. In: Tagungsunterlagen zum 7. DVZ-Palettensymposium am 01. Februar 2007, Frankfurt a. M. [Jan07b] Jansen R (2007b) Nutzen und Potenziale des RFID-Einsatzes – Nachweise zur technischen Umsetzung. In: Ident Jahrbuch 2007, Ident Verlag & Service GmbH, Rödermark, S 60–65 [JKr00] Jansen R, Krabs A (2000) COMPASS – Concept for the optimization of multiway systems by planning, analysis, and simulation of the redistribution strategy. In: Marcondes J-A (Hrsg) Advances in Packaging Development and Research – Proceedings of the 20th IAPRI Symposium. International Association of Packaging Research Institutes Symposium, San Jose, CA, USA, 14.–18. Juni 2000, S 14–25 [JPi07] Jansen R, Pietzarka S (2007) Modellierung dynamischer Strukturen in offenen Mehrwegsystemen. In: Wolf-Kluthausen H (Hrsg) Jahrbuch der Logistik 2007, free beratung GmbH, Korschenbroich, S 241–245 [KBW01] Krikke HR, Bloemhof-Ruwaard J, van Wassenhove LN (2001) Design of closed loop supply chains: A production and return network for refrigerators. In: ERIM Report Series ERS 2001-45-LIS, Erasmus Research Institute of Management (ERIM), Rotterdam School of Management, Erasmus University Rotterdam 2001. http://www2.eur.nl/WebDOC/doc/erim/ erimrs20010809124120.pdf, Zugriff 10. Juli 2007 [Kra01] Krabs A (2001) Kreislauf-Optimierung in Mehrwegsystemen durch Planung, Analyse und System-Simulation (KOMPASS-Modell). In: Jansen R (Hrsg) Schriftreihe Transport- und Verpackungslogistik Forschungsberichte und Fachbeiträge, Bd 54, Deutscher Fachverlag [Kuh95] Kuhn A (1995) Prozessketten in der Logistik Entwicklungstrends und Umsetzungsstrategien. Verlag Praxiswissen, Dortmund [Kuh99] Kuhn A (1999) Prozesskettenmanagement: Erfolgsbeispiele aus der Praxis. Verlag Praxiswissen, Dortmund [Lan05] Lander S (2005) Strategische Planung von Kreislaufwirtschaftssystemen. Dissertation, Technische Universität Berlin [Lan97] Lange V (1997) Intelligente Abfall-Vermeidung – Potentiale von Mehrwegsystemen erschließen. In: Hossner R (Hrsg) Jahrbuch der Logistik 1997, Verlagsgruppe Handelsblatt, Düsseldorf, S 52–56 [Let05] Letmathe P (2005) Kostenrechnerische Implikation für verschiedene Forschungsfelder der Reverse Logistics. In: Zeitschrift für Betriebswirtschaft (ZfB), Special Issue (2005) 4, Reverse Logistics II, S 1–28 [LRS+03] Laakmann F, Riha IV, Stracke N, Weidt S (2003) Workbenchgestützte Konstruktion von Beschaffungsketten. Technical Report 03034, Sonderforschungsbereich 559 „Modellierung großer Netze in der Logistik“, Dortmund [MRo95] Möller A, Rolf A (1995) Methodische Ansätze zur Erstellung von Stoffstromanalysen unter besonderer Berücksichtigung von Petri-Netzen. In: Schmidt M, Schorb A (Hrsg) Stoffstromanalysen in Ökobilanzen und Öko-Audits. Springer, Berlin, S 33–58 [Nul69] Nullau B (1969) Das „Berliner Verfahren“ – Ein Beitrag zur Zeitreihenanalyse. Duncker & Humboldt, Berlin [Ohl04] Ohlbrecht M (2004) An approach for the modelling of closed cycles in logistic redistribution networks for products and (Returnable Transport-) packaging. In: Tagungsband der 14. IAPRI Welt Konferenz zum Thema Verpackung, Stockholm, Schweden, 13.–16. Juni 2004 [ORe03] Ohlbrecht M, Reinholz A (2003) Analyse und Modellierung verteilter Mehrwegsysteme (Floating Pools). Technical Report 03025, Sonderforschungsbereich 559 „Modellierung großer Netze in der Logistik“, Dortmund [Pie07] Pietzarka S (2007) Behältermanagement – Wohin geht die Zukunft? Logistik Heute 1–2: S 64–65
13 Analyse und Modellierung von Redistributionsnetzen
353
[Sch06] Schmidt M (2006) Der Einsatz von Sankey-Diagrammen in Stoffstrommanagement, Beiträge der Hochschule Pforzheim Nr. 124, Pforzheim [Sch95] Schmidt M (1995) Die Modellierung von Stoffrekursionen in Ökobilanzen. In: Schmidt M, Schorb A (Hrsg) Stoffstromanalysen in Ökobilanzen und Öko-Audits. Springer, Berlin, S 97–117 [Sch98] Schmidt M (1998) Ökobilanzen mit Stoffstromnetzen. In: Schmidt M, Höpfner U (Hrsg) 20 Jahre ifeu-Institut. Vieweg, Braunschweig, Wiesbaden, S 295–318 [Sen98] Senge PM (1998) Die fünfte Disziplin. 6. Aufl. Klett-Cotta Verlag, Hamburg [SHe04] Spengler T, Herrmann C (Hrsg) (2004) Stoffstrombasiertes Supply Chain Management in der Elektro(nik)industrie zur Schließung von Materialkreisläufen. VDI Verlag, Düsseldorf [Sim06] Simon H-W (2006) Suche nach verborgenen Schätzen. In: Entsorga-Magazin 26(9), S 23–25 [Spi07] NN (2007) Uno schlägt Alarm – Klima-Apokalypse naht. In: Spiegel Online, 02. Februar 2007. http://www.spiegel.de/wissenschaft/natur/0,1518,463865,00.html, Zugriff 10. Juli 2007 [Sta95] Stache U (1995) Redistributionsstrategien. In: Jünemann R (Hrsg) Entsorgungslogistik III. Kreislaufwirtschaft. Erich Schmidt, Berlin, S 73–83 [Ter05] Terhardt G (2005) Modellierung und Bewertung von Supply Chain-Modellen unter Berücksichtigung variierender Strukturen. Diplomarbeit, Fachbereich Informatik, Universität Dortmund [Twe03] Twele L (2003) Entwicklung einer Petri-Netz-Klasse zur effizienten Analyse quantitativer und qualitativer Eigenschaften komplexer Systeme. Dissertation, Universität Bremen [Ulr68] Ulrich H (1968) Die Unternehmung als produktives soziales System. Verlag Paul Haupt Bern, Stuttgart [VDI02] Verein deutscher Ingenieure (Hrsg) (2002) VDI-Richtlinie 2243: Recyclingorientierte Produktentwicklung. Beuth Verlag, Berlin [VDI03] Verein deutscher Ingenieure (Hrsg) (2003) VDI-Richtlinie 4460: Mehrwegtransportverpackungen und Mehrwegsysteme zum rationellen Lastentransport, Beuth-Verlag, Berlin [Wik08] NN (2008) Sankey-Diagramm. In: Wikipedia. Die freie Enzyklopädie. http://de.wikipedia. org/wiki/Sankey-Diagramm, Zugriff 25. März 2008
Kapitel 14
Modell zur Bewertung der Kostenreduktion im Luftfrachttransportnetz durch eine angepasste, standortübergreifende Frachtflusssteuerung Uwe Clausen und Harald Sieke
Zusammenfassung In den vergangenen Jahren und nach den Prognosen für die nächsten Jahre ist für das Luftfrachtaufkommen ein erheblich stärkeres Wachstum als für das Frachtaufkommen anderer Verkehrsträger zu verzeichnen. Aus Kostenund Effektivitätsgründen werden Luftfrachtsendungen auf großen internationalen Drehscheiben, den so genannten Hubs, gebündelt und über die großen Distanzen zu einem jeweils weiteren Hub geflogen. Dort werden die gebündelten Einheiten aufgelöst und in einem weiteren Transportabschnitt auf die Zielflughäfen verteilt. Dieses Bündeln und Verteilen über Hubs wird für den Luftfrachttransport immer wichtiger. Das Wachstum des Luftfrachtaufkommens ist verstärkt auf den großen internationalen Hubs zu beobachten. Dieser Konzentrationsprozess führt über das steigende Luftfrachtaufkommen hinaus zu noch höheren Wachstumsraten an den Hubs. Infolgedessen kommt es besonders hier zu Kapazitätsengpässen. Da ein Ausbau der Umschlagressourcen an den Flughäfen aufgrund des hohen Flächenbedarfs sowie aus Kosten- und Zeitgründen oft schwierig ist, besteht die Herausforderung darin, die vorhandenen Ressourcen möglichst effektiv zu nutzen. Derzeit optimieren die Akteure der Luftfrachttransportkette ihre Prozessabläufe weitgehend unabhängig voneinander. Sie vernachlässigen damit Möglichkeiten, die Kapazitäten der vorhandenen Ressourcen beispielsweise mit Hilfe einer standortübergreifenden Frachtflusssteuerung zu steigern. Über eine abgestimmte Steuerung der Verweildauer der Frachtsendungen am ersten Hub ist es möglich, an diesem mehr zielreine Einheiten, sogenannte Durcheinheiten, für nachfolgende Hubs aufzubauen. Am ersten Hub entstehen dadurch zwar höhere Bestandskosten, in der Folge entfallen dadurch aber Umschlags-, Lager- und Transportprozesse am zweiten Hub. Die Gesamtkosten in der Transportkette können infolgedessen gesenkt und die freigesetzten Kapazitäten am zweiten Hub für zusätzlichen Frachtumschlag genutzt werden. Der gleiche Effekt wird genutzt, wenn der Aufbau von zielreinen Durcheinheiten auf so genannte Subhubs in dem Netz vorverlagert wird. Der vorliegende H. Sieke ( ) Fraunhofer-Institut für Materialfluss und Logistik IML Projektzentrum Flughafen, CargoCity Süd, Geb. 640 60547 Frankfurt/ Flughafen, Deutschland E-mail:
[email protected] P. Buchholz und U. Clausen (Hrsg.), Große Netze der Logistik, DOI 10.1007/978-3-540-71048-6_14, © Springer-Verlag Berlin Heidelberg 2009
355
356
U. Clausen und H. Sieke
Beitrag zeigt auf, wie eine standortübergreifende Frachtflusssteuerung zu Kapazitätssteigerungen, bzw. Kostensenkungen in der Luftfrachttransportkette führt und von welchen Parametern diese abhängig sind. Anhand von Kennzahlen kann unter Heranziehung dieser Parameter beispielsweise ermittelt werden, ob ein Standort als Subhub bzw. „Bündelungshub“ etabliert werden soll. Abkürzungen BUP DLZ Hub LD ProC/B SFB ULD
14.1 14.1.1
Bulk Unitization Programm/Built Up Paletts Durchlaufzeit Umschlagterminal oder Flughafen mit Drehscheibenfunktion Integrator Transportdienstleister, der die komplette Transportkette abdeckt Lower Deck spezielles Modellierungs- und Simualtionstool Sonderforschungsbereich Unit Load Device
Einführung Überblick Luftfracht
Mithilfe des weltweiten Luftfrachttransportnetzes werden Güter über große Distanzen vom Versender zum Empfänger befördert. Im Vergleich zu anderen Verkehrsträgern zeichnet sich der Lufttransport nicht zuletzt durch seine Schnelligkeit und Zuverlässigkeit aus. Das weltweite Luftfrachtaufkommen wuchs während der letzten drei Dekaden im Vergleich zu den restlichen Verkehrsträgern überdurchschnittlich. Eine wesentliche Grundlage dieses Wachstums bilden sowohl technische als auch wirtschaftliche Weiterentwicklungen, wie beispielsweise neue Flugzeugmuster, neue Antriebstechnologien oder die Globalisierung [Gra02]. Jüngste Prognosen der führenden Flugzeughersteller gehen auch in den kommenden 20 Jahren von Steigerungsraten des Luftfrachtaufkommens von durchschnittlich 6% pro Jahr aus [AIR06, Boe06]. Das Luftfrachtaufkommen konzentriert sich in Deutschland auf wenige Speditionen1 und auf wenige Flughafenstandorte.2 Ein vergleichbarer Trend ist auf internationaler Ebene gleichfalls festzustellen. Im Jahr 2005 wurden 50% des weltweiten Luftfrachtaufkommens auf den 21 größten Flughäfen umgeschlagen. Diese Jahreszahl steht für eine Fortsetzung der Aufkommenskonzentration der vorangegangenen Jahre, auf immer weniger Flughafenstandorte weltweit und ist
1 Die 20 größten Speditionen schlagen etwa dreiviertel des Gesamtaufkommens um, es wird erwartet, dass dieser Anteil auf 85% bis zum Jahr 2010 ansteigt [Ste06]. 2 Frankfurt, Köln/Bonn, München und Hahn sind die vier größten und repräsentieren 97% des deutschlandweiten Frachtaufkommens [Fry06].
14 Modell zur Bewertung der Kostenreduktion im Luftfrachttransportnetz
357
ein Indikator für die zunehmende Konzentration der Transportströme auf einige wenige Hubs [Fry06]. Von ihrem Ausgangsort wird Luftfracht weltweit an diesen Hubs, den Drehscheiben im Luftverkehr, zusammengeführt und von dort meist über einen weiteren Hubflughafen ihrem Zielort zugeführt. Der Trend der Aufkommenskonzentration an diesen Standorten wird sich auch in der Zukunft weiter verstärken [Fry06]. An den internationalen Hubstandorten führt die Konzentration des Frachtumschlags zu einem Wachstum, das über das natürliche Wachstum des jeweiligen Marktes hinausgeht. In den USA und Europa stoßen Flughäfen bereits an ihre Kapazitätsgrenzen. Ein Aus- oder Neubau ist hier meist nicht oder nur begrenzt möglich [Bus05]. Insbesondere die großen Hubflughäfen sind hiervon betroffen. Da ein Ausbau der Umschlagsressourcen an den Flughäfen aufgrund des hohen Flächenbedarfs sowie aus Kosten- und Zeitgründen oft schwierig ist, besteht die Herausforderung darin, die vorhandenen Ressourcen möglichst effektiv zu nutzen.
14.1.2
Problemstellung
Der geschilderte Konzentrationsprozess erhöht die Komplexität des Frachtumschlags und den für den Frachtumschlag notwendigen Kapazitätsbedarf an den großen internationalen Hubstandorten. Durch das höhere Frachtaufkommen steigt das Potenzial komplette Flugzeugladeeinheiten zu bilden. Damit erhöht sich ebenfalls das Potenzial für den Aufbau, bzw. die Auflösung von Ladeeinheiten in die Netze vor oder nach zu verlagern. Kleinere Frachtstandorte, die beispielsweise aufgrund ihrer geografischen Lage gegenüber anderen Standorten Vorteile aufweisen, werden für die großen internationalen Hubs die Rolle eines Subhubs einnehmen. Möglichen Kosten- und Zeitnachteilen kann vor diesem Hintergrund durch eine Senkung der Fertigungstiefe an diesen Hubs entgegengewirkt werden [Fry06]. Ein Bündeln von Frachtsendungen zu Durcheinheiten kann, mithilfe einer entsprechenden übergreifenden Dispositionsstrategie, auch auf einem vorgelagerten internationalen Hub erfolgen und in Abhängigkeit von freien Kapazitäten und den jeweiligen Kostenstrukturen zu Kosteneinsparungen im gesamten Luftfrachtnetz führen [SQu04]. Vor diesem Hintergrund stellt sich die Frage, unter welchen Umständen ein vorgelagerter Standort die Bündelung der Frachtsendungen zu zielreinen Einheiten übernehmen soll, um so die ausgelasteten Abfertigungseinrichtungen des betroffenen Hubs zu entlasten. Diese Frage stellt sich insbesondere, wenn aus mehreren möglichen Standorten einer für eine solche Bündelungsfunktion ausgewählt werden soll. Eine Bewertung unterschiedlicher Standorte anhand weniger Kennzahlen ist unter den genannten Gesichtspunkten in bisherigen Untersuchungen nicht vorgesehen. Im Nachfolgenden wird ausgeführt, wie eine solche Standortwahl getroffen und die Kosten im Netz gesenkt werden können.
358
14.1.3
U. Clausen und H. Sieke
Typisches Luftfrachtnetz
Luftfracht durchläuft bei ihrem Transport durch das weltweite Luftfrachtnetz verschiedene Stationen, bzw. Flughafenstandorte. Während die theoretisch mögliche Anzahl in diesem Netz sehr zahlreich ist, kommen in der Praxis nur eine begrenzte Anzahl an Standorten zur Anwendung. Eine Studie über den Frankfurter Flughafen identifiziert drei typische Transportwege der Luftfrachtsendungen durch das Netz [SKo06], von denen zwei vergleichbar sind. Der Transport der Luftfracht unterteilt sich demnach typischerweise in zwei Transportroutenkonstellationen, respektive gängige Teilnetze, siehe Abb. 14.1. Insbesondere im internationalen Luftfrachtverkehr ist der obere Zweig der in Abb. 14.1 dargestellten Prozesskette der gängigere. In Passagiermaschinen wird über 50% der Luftfracht befördert [Fry03]. Der Aufbau des Streckennetzwerks, das die Luftverkehrsgesellschaften mit der Passage bieten, ist daher auch für die Fracht relevant. Die Hälfte der 100 am schnellsten Zubringerflughafen A
Hub B
Hub C
Zielflughafen D Empfänger/ Empfangsort (Destination)
Versender/ Versandort (Origin) Zubringerflughafen A
Hub B
Zielflughafen D
Abb. 14.1 Typische Wege durch das weltweite Luftfrachttransportnetz
Abb. 14.2 Netzausschnitt eines beispielhaften Hub-and-Spoke-Systems
14 Modell zur Bewertung der Kostenreduktion im Luftfrachttransportnetz
359
Ausschnitt eines typischen Luftfrachtnetzes
Zubringerflughafen, Sub-Hub
Hub B
Hub C
Zielflughafen
A B
Abb. 14.3 Systematische Darstellung des Ausschnittes eines typischen Luftfrachtnetzes
wachsenden Städteverbindungen weisen an beiden Enden einen Passage-Hub auf. Darüber hinaus wird sich nach den jüngsten Prognosen der Hub zu Hub Passagierverkehr in den nächsten 10 Jahren verdoppeln [AIR06]. Auch die Luftfrachttransportnetze der Kurier/Expressdienstleister, den Integrator, weisen weltweit wenige, ausgewählte Hubs auf, von bzw. zu denen Luftfracht zu und von den Zubringerstandorten/-flughäfen transportiert wird [Muc06]. Ein internationales Luftfrachttransportnetz umfasst vor diesem Hintergrund typischerweise zwei Drehkreuze, über die die Fracht von ihrem Herkunftsort zu ihrem Ziel transportiert wird, siehe auch Abb. 14.2. Ein solches typisches Luftfrachtnetz zeigt in vereinfachter Form Abb. 14.3. Gemäß der obigen Fragestellung lassen sich innerhalb dieses typischen Luftfrachtnetzes die zwei abgeleiteten Fälle darstellen: • Ist ein Standort als Subhub zum Bündeln von zielreinen Durcheinheiten für einen nachfolgenden Hub geeignet, bzw. einem anderen möglichen Subhub vorzuziehen, siehe Abb. 14.3 Fall „A“ • oder soll ein erster Hub für einen nachfolgenden eine Bündelung der dort ankommenden Frachtsendungen zu zielreinen Durcheinheiten übernehmen, siehe Abb. 14.3 Fall „B“?
14.2
Grundlagen und Definitionen
Weit gefasst werden unter Luftfracht alle Güter subsumiert, die als Fracht, Express oder Post auf Linien- oder Charterflügen transportiert werden. Es kann aber auch einer eingegrenzten Definition gefolgt werden, nach der Luftpost und unternehmensintern geflogene Ladegüter der Express- und Paketdienste, den sogenannten Integrator, aus der weitgefassten Definition ausgegrenzt werden. Das aufgegebene Passagiergepäck gehört generell nicht zur Luftfracht [Fry03]. Das Aufkommen der Integrator steht für eine Analyse nicht zur Verfügung und auch die Post ist unter diesem Gesichtspunkt von der weiteren Untersuchung auszuschließen. Im weiteren Vorgehen wird daher der engeren Definition der Fracht gefolgt. Konkret wird das
360
U. Clausen und H. Sieke
Frachtaufkommen gemäß dieser engen Definition des Platzhirsches eines Hubflughafens, dem sogenannten Homecarrier, untersucht. Theoretisch lassen sich die so erhaltenen Ergebnisse ansatzweise dann auch wieder auf die Integrator übertragen und nutzen. Voraussetzung dafür ist eine ähnliche Gut- und Produktstruktur. Die Frachtprodukte unterscheiden sich nach der mittleren Laufzeit und dem zulässigen Gewicht einer Sendung in Standard, Express und Premium/Kurier [Gra02]. Die einzelnen Produkte haben unterschiedliche Abfertigungsanforderungen [Fry02]. Die Abfertigungsprozesse, beispielsweise zwischen Express und Standard, gleichen sich verstärkt aneinander an, so dass im Hinblick auf die Reduzierung des später zu erstellenden Modells im weiteren Vorgehen nicht nach dem Frachtprodukt unterschieden wird. Das Produkt kann aus der für den gesamten Transportprozess zugeteilten Gesamtdurchlaufzeit, nicht aber aus den produktspezifischen Abfertigungsprozessen heraus interpretiert werden. Die Gutstruktur setzt sich aus den physischen Eigenschaften der Sendungen, wie beispielsweise deren Gewicht und Abmessungen zusammen [Fry02]. Die Berücksichtigung der Maße lässt sich nur kompliziert umsetzen. Daher wird anstelle dessen nur das Sendungsgewicht verwendet. In der Struktur des Lufttransportnetzes stellen Flughäfen die Knoten dar. Es kann sich bei Flughäfen einerseits um Kopfstationen handeln, an denen als Start- oder Zielort der Luftfrachttransport beginnt oder endet. Andererseits aber auch um Drehscheiben, die sogenannten Hubs. Aus Wirtschaftlichkeitsüberlegungen heraus betreiben heutzutage viele Anbieter mithilfe des sogenannten Hub-and-Spoke-Systems, siehe Abb. 14.2, ein flächendeckendes Streckennetz. Der Lufttransport von und zu den Kopfstationen dient dabei als Nabe (Spoke) und die Hubs als Drehscheiben zum Verteilen an die Kopfstationen oder zum Weiterleiten zu einem weiteren Hub [May01], entsprechend dem oben dargestellten Ablauf. Zwischen den Flughäfen findet der Hauptlauf, der eigentliche Lufttransport, statt, auf den Flughäfen die notwendigen Zwischentransporte, Umschlags- und Lagerprozesse [Fry02]. Darüber hinaus erfolgen Vor- und Nachläufe als Bodentransporte. Es handelt sich dabei um die An- und Auslieferung der Luftfrachtsendungen durch den Spediteur an den Kunden oder um Luftfrachtersatzverkehre (RFS) bzw. Netzverkehre, die meist komplette Flugzeugladeeinheiten zum Teil mit eigener Flugnummer von einem Hubflughafen zu einem meist kleineren Standort transportieren [Fry02]. Nachfolgend wird auf diese unterschiedlichen Aufkommensströme an einem Flughafen näher eingegangen. Fracht gelangt auf dem Land und den Luftweg in das oder aus dem System Flughafen. Die Landseite unterteilt sich in die Verkehre Lokal und RFS. Dementsprechend unterteilt sich das abgefertigte Aufkommen an einem Flughafen in die drei Aufkommensarten „geflogen“, „RFS“ und „lokal“. RFS-Fracht erreicht oder verlässt den Flughafen typischerweise auf speziellen Paletten oder in speziellen Containern. Die lokale Fracht hingegen wird normalerweise lose angeliefert oder abgeholt. Unter Zugrundelegung dieser Zusammenhänge unterteilt sich das Frachtaufkommen an einem Hub maßgeblich in die sieben in Abb. 14.4 dargestellten Ströme 1.2 bis 5.4.
14 Modell zur Bewertung der Kostenreduktion im Luftfrachttransportnetz
Luftseite
1
1.2*
Landseite
2
1.2 3.6
1.6 6
1.4
3.2 5.2
Lokal 5
5.4
4
3
361
Legende - rein = Zustand der Fracht bei Anlieferung in den Terminal - raus = Zustand der Fracht nach Umschlag im Terminal 1.2 Luft/Luft rein und raus hoher Anteil an Unit Load Devices( ULD) 1.4 Luft/RFS rein und raus hoher ULD-Anteil 1.6 Luft/Lokal rein hoher ULD-Anteil, raus hoher Anteil loser Fracht,z.T.auch ULD 3.2 RFS/Luft rein und raus hoher ULD-Anteil 3.6 RFS/Lokal rein hoher ULD-Anteil, raus hoher Anteil loser Fracht,z.T.auch ULD 5.2 Lokal/Luft rein hoher Anteil loser Fracht, raus hoher ULD-Anteil 5.4 Lokal RFS rein hoher Anteil loser Fracht, raus hoher ULD-Anteil
Abb. 14.4 Verteilung der Frachtströme (in Anlehnung an Fraunhofer IML Projektzentrum Flughafen)
Die drei genannten Aufkommensarten geflogen, lokal und RFS werden über eine speziell angepasste, statistische Systemlastgenerierung im Simulationsmodell berücksichtigt. Zur besseren Ausnutzung der speziellen Laderaumformen des Transportmittels Flugzeug und zur effizienteren Gestaltung der Umschlags- und Lagerprozesse kommen spezielle Lademittel beim Lufttransport zum Einsatz. Dies geschieht insbesondere vor dem Hintergrund, die Bodenzeiten der Flugzeuge zu minimieren, da es sich bei dem Transportmittel Flugzeug um ein teures und insofern knappes Produktionsgut handelt. In Flugzeugen treten je nach Auslegung drei unterschiedliche Laderäume auf, die sogenannten Main und Lower Decks sowie die Belly Compartments für die lose Fracht. Für den Transport im Main und Lower Deck kommen sogenannte Unit Load Devices (ULD) mit unterschiedlichen Größen und Zuladungskapazitäten zum Einsatz. Es handelt sich bei ihnen um spezielle, standardisierte Paletten und Container [Fry02]. Lose Fracht wird im Flugzeug, wenn die Größe und das Gewicht es zulassen, zusammen in speziellen Säcken transportiert. Eine Verwaltung aller zum Einsatz kommenden ULDs ist aus Sicht der Programmierung sehr aufwendig. Zudem ist es in der weiteren Betrachtung sekundär, ob die Bündelung auf einer großen ULD-Palette oder mehreren kleinen ULD-Containern stattfindet. Der Transport am Flughafen wird ohnehin nicht und die Lagerprozesse nur über das Gewicht berücksichtigt. Dem verhältnismäßig großen Zusatzaufwand steht insofern keine substantielle Bereicherung der Untersuchungsergebnisse gegenüber. In der weiteren Betrachtung wird daher eine mögliche Bündelung in dem LD3,3 als der weltweit am meisten genutzte Container [Fry02] vorgenommen, mit einer Gewichtskapazität von ca. 1,5t. Der eigentliche Frachtumschlag findet in den Frachtanlagen statt. Typischerweise bieten diese eine Anbindung an die Landseite, eine Vorfeldseite mit Bereitstellungsflächen für die fertige Fracht und das eigentliche Luftfrachtgebäude [Fry02]. Die Landseite dient der Be- und Entladung der Landverkehre (Lkw), die 3
LD für Lower Deck.
362
U. Clausen und H. Sieke
Vorfeldseite dem gesteuerten Zuführen der Fracht vom oder zum Flugzeug und das Luftfrachtgebäude, als Schnittstelle zwischen der Luft- und Landseite, dem eigentlichen Umschlag und der Lagerung der Luftfracht auf ULDs oder in Einzelstücken. Zwischen den einzelnen Stationen finden Zwischentransporte am Boden statt. Die Luftfrachtabfertigungsanlagen an Flughäfen werden üblicherweise von unabhängigen Frachtabfertigern oder den Fluggesellschaften betrieben. Die von der Luft- oder Landseite angelieferte Luftfracht liegt entweder in flugfertigen Einheiten oder lose vor. Sie wird entweder in diesen Einheiten bis zum Weitertransport im sogenannten ULD-Lager oder lose als einzelne Sendung im Kleinsendungslager zwischengepuffert. Die fertigen Frachteinheiten werden demzufolge entweder komplett eingelagert oder im Abbau aufgebrochen, respektive abgebaut und die einzelnen Sendungen im Kleinsendungslager eingelagert. Kurz vor Abflug werden die Sendungen aus dem Kleinsendungslager entnommen und entweder zu fertigen Frachteinheiten aufgebaut oder als lose Fracht dem Anschlussflug zugeführt. Die fertigen Einheiten werden je nach Wartezeit bis zum Anschlussflug ebenfalls im ULD-Lager zwischengepuffert. Besonders eilige Sendungen oder Einheiten werden an diesen Standardprozessen vorbeigeführt. Abbildung 14.5 zeigt schematisch die in einem Terminal genutzten Ressourcen und Schnittstellen, unter Vernachlässigung der Zwischenprozesse, wie beispielsweise die Bereitstellung der Luftfracht. Der gelb markierte Bereich kennzeichnet das Luftfrachtterminal mit seinen land- und luftseitigen Schnittstellen.
Luftseite Transport von/zum Flugzeug Luftfrachtterminal
Lager ULD
Auf-/ Abbau
Lager Kleinsendung
Landseite Anlieferung und Abholung
Abb. 14.5 Schematischer Zusammenhang der Ressourcen und Schnittstellen eines Luftfracht- terminals
14 Modell zur Bewertung der Kostenreduktion im Luftfrachttransportnetz
14.3
363
Stand der Wissenschaft
Bisherige Analysen von Luftfracht- und Luftverkehrsnetzen untersuchen die Abläufe der Luftfrachttransportkette vereinfacht, um spezifischen Fragestellungen nachzugehen, beispielsweise um einzelne Standorte oder isolierte Sonderfälle zu untersuchen. Forschungsarbeiten, in denen einzelne Luftfrachtsendungen mit ihren spezifischen Eigenschaften untersucht werden, sind sehr selten. Sie behandeln spezifische Fragestellungen, gehen aber nicht auf die möglichen Einsparungseffekte im gesamten Netzwerk, durch eine standortübergreifende Dispositionsstrategie, ein [Kas97, Kha00, LLL03, Pro02]. In der Praxis findet teilweise ein Bündeln der einzelnen Luftfrachtsendungen zu flugfertigen Einheiten an Hubflughäfen, bzw. an nahegelegenen Standorten der Spediteure statt. Die Spediteure erzielen mithilfe dieser am Flughafen angelieferten, fertig gepackten Paletten günstigere Raten und Prozessabläufe. Diese Paletten fallen unter das sogenannte Bulk Unization Program [Luf07a] bzw. werden auch als Built Up Paletts [Luf07b] bezeichnet (BUP). Mithilfe der BUP wird nicht konsequent die Möglichkeit zielreine Einheiten über den nächsten Standort hinaus zu bilden genutzt. Zudem wird nicht analysiert unter welchen Umständen sich eine solche zielreine Bündelung für das gesamte Netz auszahlt. Vielmehr wird versucht, die Raten und Prozessabläufe für diesen einen Standort zu optimieren. Software zur Paletten- oder Laderaumoptimierung ist heutzutage geläufig, sie fokussiert aber meist auf einen Standort. Bestehende Software zur Termin- oder Tourenoptimierung trägt ebenfalls nicht zur Lösung der oben beschriebenen Problemstellung bei. Erst mit den Arbeiten des Teilprojektes A5 vom Sonderforschungsbereich (SFB) 559 „Modellierung großer Netze in der Logistik“ wurden die an einem Hubflughafen stattfindenden Prozesse ausführlich untersucht. Erste Analysen über die Effekte einer flughafenübergreifend abgestimmten Dispositionsstrategie in einem typischen Luftfrachtnetz wurden ebenfalls durchgeführt [BHN+07, BBF+03, Bie07, Frä01, Fry98, Fry99, Fry02, FSt03, Fry03, Fry06, SQu04, SVö05]. Die dort festgestellten Tendenzen werden in der nunmehr dritten Phase des SFB 559 vertiefend untersucht, deren erste Ergebnisse in dem vorliegenden Beitrag vorgestellt werden.
14.4
Entwicklung des Simulationsmodells
Mithilfe von Simulationen wird der oben aufgeworfenen Fragestellung nachgegangen. Dazu wird nachfolgend zunächst eine geeignete Strategie ausgewählt, die notwendigen Experimentierreihen sowie ein Referenzmodell entwickelt, Simulationen durchgeführt, die Simulationsergebnisse analysiert und in einer nachgelagerten Analyse hinsichtlich ihrer Kostenwirksamkeit auf das Gesamtsystem untersucht.
364
14.4.1
U. Clausen und H. Sieke
Strategieauswahl
Im Luftfrachtnetz bestimmen unterschiedliche Größen den Verlauf des Frachtflusses. Maßgeblich spielen hier die Ressourcen, die Systemlast und die Strategie eine tragende Rolle. Sie stellen mögliche Stellgrößen für die Systemveränderung oder -anpassung zur Verfügung. Während die Ressourcen und die Systemlast eines Standortes vorgegeben sind, lässt sich über eine Anpassung der Strategie der Frachtfluss auch über einen Standort hinweg steuern. Als mögliche Strategieparameter sind die Personalstrategie, die Bündel- und Verteilstrategie sowie die Abund Aufbaustrategie an den Hubs zu nennen. Entsprechend dem oben geschilderten Untersuchungsziel werden nachfolgend zwei zu untersuchende Strategien aus dem Parameter „Bündel- und Verteilstrategie“ gebildet: 1. „Status Quo“ Weitersenden der Fracht mit dem nächsten möglichen Flugzeug sowohl an einem ersten Hub/Subhub als auch dem zweiten Hub 2. „Bündelfall“ Bündeln der Frachtsendungen zu zielreinen Durcheinheiten am ersten Standort, Weitersenden der Fracht mit dem nächst möglichen Flugzeug am zweiten Standort. Dadurch wird eine Verlängerung der Verweildauer von einigen Sendungen am ersten Standort unter Berücksichtigung ihrer Gesamtdurchlaufzeit in Kauf genommen, ohne den zugesagten Liefertermin zu gefährden. Die erste Strategie bildet den derzeitigen Realfall ab, wohingegen die zweite die eigentliche Strategieveränderung, den Bündelfall gemäß der oben erläuterten Problemstellung, darstellt. Diese Änderung der Bündel- und Verteilstrategie hat Auswirkungen auf das Gesamtsystem. Am ersten Standort ist zu vermuten, dass lediglich der Ressourcenbedarf, bzw. die Nutzung der Lager ansteigt, derjenige der restlichen Ressourcen sich dagegen nahezu nicht verändert. In beiden Strategiefällen muss die Fracht hier alle wesentlichen Ressourcen, siehe Abb. 14.5, durchlaufen und nur für die Bündelung eine längere Lagerzeit in Anspruch nehmen. Am zweiten Standort hingegen erreicht ein höherer Anteil an zielreinen Durcheinheiten das Frachtterminal. Diese können am Auf- und Abbaubereich vorbeigeschleust und direkt in das ULD-Lager eingelagert werden. Dadurch werden sowohl der Auf- und Abbaubereich als auch das Kleinsendungslager geschont und so Kosteneinsparungspotenziale, bzw. mögliche Kapazitätssteigerungen realisiert. Wie hoch diese Auswirkungen unter Berücksichtigung des Zusatzaufwandes auf dem ersten Standort auf das Gesamtsystem sind, wird mithilfe eines Simulationsmodells untersucht. Es ist zu vermuten, dass das Bündelpotenzial der Fracht an einem vorgelagerten Standort entscheidend dafür ist, wie hoch die Auswirkungen auf das Gesamtsystem sind. In diesem Zusammenhang wird daher auch diese Komponente in der Form berücksichtigt, dass in den nachfolgend definierten Experimentierreihen verschiedene Sendungszusammensetzungen und Mengen auf dem ersten Standort untersucht werden. Damit werden auch die Systemlastparameter nachfolgend auf ihre Auswirkungen untersucht. Von diesen ausgenommen ist die Anpassung des Flugplans.
14 Modell zur Bewertung der Kostenreduktion im Luftfrachttransportnetz
14.4.2
365
Experimentierreihen
In einer ersten Stufe wird mit dem Modell untersucht, welche Ressourcenaus-/ -belastung sich bei der ersten Strategie (Status Quo) ergibt und wie sich diese zu der zweiten Strategie (Bündeln) mit gleicher Systemlast verhält. Mit dieser originären Systemlast wird im ersten Hub ein gewisses Bündelungspotential vorgegeben. Bei der späteren Datengenerierung wird darauf geachtet, dass dieses Potenzial in der für Deutschland prognostizierten Bandbreite von 52–56% für die Jahre 2005 bis 2008 [FSt03] liegt. In einem zweiten Schritt werden das Bündelpotenzial von diesem Wert ausgehend zunächst um 5% und dann um 10% erhöht und so unterschiedliche Bündelungspotenziale auf ihre Auswirkungen auf die Ressourcenauslastung untersucht. In einem dritten Schritt wird der zweite mit unterschiedlichen Systemlasten wiederholt. In einem vierten Schritt werden die in den vorangegangenen Schritten festgestellten Auswirkungen auf die Ressourcenauslastung auf ihren Kosteneffekt im Gesamtsystem untersucht. Zur Feststellung erster Ergebnistendenzen und Abstimmung weiterer umfangreicher Experimente wird mithilfe dieser Schritte nachfolgend eine Experimentierreihe aufgestellt. Im weiteren Forschungsverlauf wird anhand der Ergebnisse überprüft, ob das Modell den realtypischen Sendungsverlauf in einem Luftfrachttransportnetz abbildet und ob die ersten Ergebnisse die oben unterstellten Zusammenhänge stützen. Ist dies der Fall, werden umfangreiche Experimentierreihen folgen, mit denen die Allgemeingültigkeit dieser Zusammenhänge überprüft wird. Die Experimentierreihen setzen sich aus vier Kategorien zusammen, die jeweils mit gleichen, siehe Tabelle 14.1, oder unterschiedlichen Systemlasten, siehe Tabelle 14.2, durchsimuliert werden. Als Versuchsparameter werden die Anpassung der Dispositionsstrategie, der Herkunfts-/Zielverteilung, der Systemlast und der Gesamtdurchlaufzeit (Gesamt-DLZ) ausgewählt. Alle außer dem ersten Parameter bestimmen das Bündelungspotenzial auf dem ersten Hub/Subhub, dessen Nutzung durch die Dispositionsstrategie vorgegeben wird. Eine Nutzung der Herkunfts- und Zielparameter ist in den hier vorgestellten Versuchen nicht vorgesehen, sie sind der Vollständigkeit halber mit aufgeführt. Tabelle 14.1 Null-Experimentierreihe
366
U. Clausen und H. Sieke
Tabelle 14.2 Experimentierreihen mit Systemlastvariation
In der ersten Kategorie dem „Grundfall“, werden die Frachtsendungen im ersten Hub/Subhub, der ersten Strategie entsprechend, nicht gebündelt, sondern wie heutzutage üblich, mit dem nächsten freien Flug weitertransportiert. In den drei weiteren Kategorien Bündeln I bis III werden die Frachtsendungen auf dem ersten Hub/Subhub zu zielreinen Einheiten auf ULDs gebündelt, vgl. Strategie 2. Dabei werden die jeweilig maximal zulässige DLZ und daraus resultierende verbleibende DLZ auf dem ersten Standort berücksichtigt. Diese vier Kategorien werden mit unterschiedlichen Bündelungspotenzialen simuliert. Im ersten Lastfall „0“, siehe auch Tabelle 14.1, wird das System mit den für ein Luftfrachttransportnetz typischen Bündelungspotenzial gespeist. Nach dem Simulationslauf dieses Grundfalls0 wird überprüft, ob die Simulationsergebnisse, mit den realtypischen übereinstimmen. Im Bedarfsfall werden die Ressourcen, mithilfe von weiteren Simulationsläufen so eingestellt, dass die Sendungen das System mit realtypischen DLZ oder Verspätungen durchlaufen. Bei dieser Kalibrierung wird wie folgt verfahren. Die Auf- und Abbaukapazitäten (Anzahl der Plätze) werden so ausgelegt, dass sie den in der Realität auftretenden Verspätungen anteilig entsprechen. Dabei wird die Ursache, beispielsweise von Verspätungen, analysiert, d. h. ob die Sendungen zu wenig Kapazitäten auf Hub B oder Hub C vorfinden. Falls dies der Fall ist, werden die betroffenen Ressourcen angeglichen. Danach wird untersucht, ob die Sendungen von den Kalibrierungsherkunftsflughäfen (A1–A4, siehe Abb. 14.2) zu den Kalibrierungszielflughäfen realtypisch auftreten, transportiert und abgefertigt werden. Danach folgt die zweite Simulationsstufe Bündeln I0, in der die Auswirkung der Strategieanpassung des Bündelns auf dem ersten Hub/ Subhub, unter Beibehaltung aller sonstigen Einstellungen, überprüft wird. In der dritten Kategorie Bündeln II0 wird die zulässige Gesamt-DLZ soweit gesteigert, dass ein 5% höheres Bündelungspotenzial als unter realtypischen Umständen vorliegt, alle anderen Parameter werden im Vergleich zum Fall Bündeln I beibehalten. Für die vierte Kategorie „Bündeln III0“ wird über eine entsprechende Anpassung der Gesamt-DLZ ein um 10% höheres Bündelungspotenzial als im Fall Bündeln I0 erreicht. Die vier Kategorien des Lastfalls „0“ aus Tabelle 14.1 bilden die NullExperimentierreihe in Tabelle 14.2.
14 Modell zur Bewertung der Kostenreduktion im Luftfrachttransportnetz
367
Für die weiteren Lastfälle „n“ wird das für die Nullexperimentierreihe aufgeführte Vorgehen jeweils wiederholt und mit deren Ergebnissen verglichen, siehe Tabelle 14.2. Die Last wird jeweils um 5% im Vergleich zur Null-Experimentierreihe verringert, resp. erhöht, bis 50% bzw. 150% der anfänglichen Grundlast erreicht wird. Somit hat „n“, ohne Berücksichtigung der Null-Experimentierreihe, einen Definitionsbereich zwischen 1 und 20, beginnend bei 50%. Sowohl in Tabelle 14.1 als auch in Tabelle 14.2 sind die geänderten Einstellungen zu den jeweils vorangegangenen Kategorien oder Lastfällen grau hinterlegt.
14.4.3
Systemlast
14.4.3.1
Datenbasis und -aufbereitung
Die Systemlast des untersuchten Luftfrachtteilnetzes wird maßgeblich durch die Flugzeuganzahl und die sich auf dem jeweiligen Flug befindliche Sendungsanzahl sowie die den Sendungen anhängenden Merkmale wie Gewicht, Herkunft, Ziel und Gesamtdurchlaufzeit bestimmt. Für die Simulationen werden realtypische Frachtaufkommensmuster an einem Hub benötigt, die diese Merkmale abbilden. Diese werden aus Realdaten im Modell generiert. Um das Modell validieren zu können, werden in den ersten Simulationsläufen zunächst anonymisierte Realdaten verwendet. Nach den Simulationen werden einzelne Sendungen überprüft, ob bestimmte Parameter, wie beispielsweise deren Laufzeiten, mit denen in der Realität übereinstimmen, siehe oben. Erst danach beginnen die eigentlichen Simulationsläufe mit unterschiedlichen Systemlasten und Frachtstrukturen, bzw. Bündelungspotenzialen entsprechend den oben definierten Experimentierreihen. Die Datengrundlage für die Kalibrierung des Modells im Grundfall0 bilden die Sendungsdaten eines typischen Luftfrachttransportnetzes. Sie werden so aufbereitet, dass aus ihnen von dem angewendeten Modellierungs-/Simulationstool ProC/B eine realtypische Systemlast mit den oben genannten Merkmalen generiert wird. Die Eingabe der einzelnen Flüge eines gesamten Flugplans eines internationalen Hubs erfordert aufgrund seines Umfanges einen hohen Aufwand und hat darüber hinaus den Nachteil, dass die erzeugten Flüge starr zu vorher festgelegten Zeitpunkten auftreten würden. In der Realität sind die Flugereignisse zeitpunktgesteuert, allerdings kommt es häufig zu Abweichungen vom Flugplan, wie beispielsweise durch Verspätungen oder Flugausfälle. Ein solches Verhalten lässt sich, ohne die genannten Nachteile, über angepasste statistische Verteilungen mit dem System abbilden. Gleichzeitig lässt sich dadurch auch der Eingabeaufwand erheblich reduzieren. Die Realdaten werden so aufbereitet, dass in bestimmten Zeitintervallen statistische Verteilungen gefunden werden, so dass bei der Lastgenerierung das an einem Hubflughafen typische Wellenmuster [Fry03] für das Frachtaufkommen entsteht. Dazu werden entsprechende Zeitfenster über den Tag identifiziert. Zudem wird ein Verfahren entwickelt, das die über eine Woche auftretenden zusätzlichen Schwankungen im Ankunftsverhalten der Flugzeuge ebenfalls abbildet. Dazu wer-
368
U. Clausen und H. Sieke
den zuerst die Flugereignisverteilungen und danach die jeweiligen zeitabhängigen Frachtstücke pro Flugzeug in diesen Zeitfenstern identifiziert. Daraus ergibt sich die Sendungsanzahl über die Zeit. Die einzelnen Sendungen werden mithilfe angepasster statistischer Verteilungen mit ihren Eigenschaften wie Gewicht oder Herkunft versehen.
14.4.3.2
Leistungsobjekte
Die Systemlast eines Luftfrachttransportnetzes setzt sich aus den Leistungsobjekten Flugzeug, Lkw und Sendung zusammen [BHN+07]. Die Flugzeuge treten gemäß dem Flugplan in bestimmten Abständen zueinander auf. Zwischen ihnen liegen die sogenannten Zwischenankunftszeiten (ZAZ). Diese lassen sich näherungsweise mit einer Negativ-Exponentialverteilung [BHN+07] abbilden. Als weitere Eigenschaft des Leistungsobjektes Flugzeug wird die Anzahl der Luftfrachtsendungen pro Flugzeug analysiert. Diese Anzahl kann mithilfe interpolierter, klassierter, empirischer Verteilungen realtypisch generiert werden. Das Leistungsobjekt Lkw weist die gleichen Eigenschaften auf wie das Leistungsobjekt Flugzeug, mit dem Unterschied, dass nicht alle von ihnen unmittelbar zeitpunktgeführt sind und sie eine andere Sendungsanzahl pro Leistungsobjekt aufweisen. Die Zwischenankunftszeiten des Leistungsobjekts Sendung sind durch die Lkw- und Flugzeugankunft implizit vorgegeben. Das Sendungsgewicht wird mithilfe klassierter, empirischer Verteilungen und die Herkunft, das Ziel sowie der zugesagte Liefertermin (Gesamtdurchlaufzeit) werden mithilfe diskreter Verteilungen erzeugt [BHN+07].
14.4.3.3 Abbildung und Erzeugung der Systemlast Als hinreichende Zeitfenstergröße für die Abbildung des Wellenmusters im Aufkommen hat sich ein Halbstundenraster über den Tag herausgestellt. Für jedes dieser Zeitfenster wurde eine Negativ-Exponentialverteilung angepasst, siehe Abb. 14.6. Diese wurden dann für jede der 48 halben Stunden eines Tages im Simulationsmodell hinterlegt. Die Sendungsanzahl, die sich in einem Flugereignis befindet, variiert pro halbe Stunde über den Tag. Sie variiert im Vergleich zu den Flugereignissen jeweils von Tag zu Tag signifikant um einen festen Wert, den Wochentagmedian. Um diesen Wert wird die jeweilige halbe Stunde korrigiert, siehe Abb. 14.7. Den Flugereignissen wird so zeitpunktgenau die mitgeführte Frachtsendungsanzahl realtypisch zugeteilt. Für die halbstündige, medianbereinigte Verteilungsbestimmung, kommt das spezielle statistische Verfahren „Straffe Saite“ zum Einsatz [DKo04]. Diese vom Wochentag und der Uhrzeit abhängig generierten Sendungen werden anschließend über weitere Verteilungen die Eigenschaften Gewicht, zulässige Gesamtdurchlaufzeit sowie Herkunft und Ziel zugeteilt. Die so erzeugte Systemlast
14 Modell zur Bewertung der Kostenreduktion im Luftfrachttransportnetz halbe Iambda Stunde normale Expo 0,2532 1. 0,0592 2. 0,0401 3. 0,0398 4. 0,0553 5. 0,0492 6. 7. 0,0691 8. 0,0811 9. 0,1144
1.0
Verteilungsfunktion
369
0.8 0.6 0.4
Iambda negative Expo 3,95 16,898 24,913 25,1379 18,0909 20,3448 14,4783 12,3333 8,7438
0.2 0.0 0
10 20 ZAZ in Minuten
30
44. 45. 46. 47. 48.
0,4607 0,2799 0,2632 0,2205 0,2549
2,1707 3,5731 3,7988 4,5357 3,9228
Abb. 14.6 Anpassung der Zwischenankunftszeitverteilung (grau) an die empirische Verteilung (schwarz/stufenförmig) für jede halbe Stunde (hier für die 9. halbe Stunde)
weist nach den ersten Überprüfungsläufen die geforderten, für einen internationalen Hub typischen, Merkmale auf. Zu ihnen gehört auch das oben genannte Bündelungspotenzial, das nach den ersten Versuchsläufen mit ca. 54% innerhalb der geforderten Bandbreite liegt.
14.4.4
Modellbildung
In einem ersten Schritt wird ein Modell entwickelt, das den Transportablauf des oben identifizierten typischen Ausschnitts eines Luftfrachtnetzes abbildet.
Verteilungs funktion
1.0 0.8 Wochentag
Median
0.6 Montag Dienstag Mittwoch Donnerstag Freitag Samstag Sonntag
0.4 0.2 0.0
8,0 22,0 28,5 27,0 25,5 22,0 2,0
-30 -20 -10 0 10 20 Anzahl Sendugen (medianberinigt)
Abb. 14.7 Annäherung der Verteilung der Sendungsanzahl pro Flugzeug (grau/linear) an die empirische Verteilung (schwarz/stufenförmig) für jede halbe Stunde (hier für die 9. halbe Stunde) unter Zuhilfenahme spezieller statistischer Verfahren (Straffe Saite)
370
U. Clausen und H. Sieke
Hub B Herkunftsflughäfen
Hub C Hauptlauf
Ai
Dj
Fl Ek
Transportieren - Zuführung
Puffem Sammeln Bündeln Auflösen Verteilen Transportieren
Transportieren - Zuführung - Verteilung
Puffem Sammeln Bündeln Auflösen Verteilen Transportieren
Umschlag- und Lagerkosten
Transportieren - Verteilung
Transportkosten
Abb. 14.8 Strategieabhängige Kosten im Luftfrachttransportnetz
Abbildung 14.8 zeigt die relevanten Stationen, die die Luftfracht bei ihrem Transport durch das oben dargestellte typische Luftfrachtnetz durchläuft. Der Transportprozess zwischen den Standorten wird durch keine der beiden Strategien verändert. Der Transport wird in dem Modell daher nur mit seiner Kapazität und den zeitlichen Aspekten, wie Ankunft, Abflug und Flugdauer, berücksichtigt. Das Augenmerk wird auf die Prozesse gelegt, die in der Auslastungs- und Kostenanalyse am Schluss relevant sind. Zu ihnen gehören die Umschlags- und Lagerprozesse, die aufgrund ihrer Kostenwirksamkeit in Abb. 14.8 hellgrau hervorgehoben sind. Die Prozesse des vorgelagerten ersten Standortes (Hub B) und des zweiten Standort (Hub C) entsprechen sich. Wie oben dargestellt, handelt es sich bei den für die Untersuchungsziele relevanten Prozesse um die Lagerung im ULD- und Sendungslager sowie den Auf- und den Abbau, siehe auch Abb. 14.5. Nur die Zwischenprozesse, die aufgrund ihrer zu geringen oder durch die Strategien unbeeinflussten Kapazitäts- und Kostenauswirkung vernachlässigbar sind, werden im Modell nicht umgesetzt. Zu ihnen gehören beispielsweise die Zwischentransporte, deren Umsetzung und Berücksichtigung sehr aufwendig sind. In ihnen werden weitere Einsparungspotenziale für das Gesamtnetz vermutet. In dem Modell ist ein Systemlastgenerator integriert, der gemäß dem obigen Vorgehen eine realtypische Systemlast, unter Zuhilfenahme von angepassten statistischen Verteilungen, generiert. Dieser Systemlastgenerator erzeugt die Sendungsströme Ai und Fl, siehe Abb. 14.8. Die einzelnen Sendungen verlassen das System Flughafen entweder per Lkw oder Flugzeug. Diese beiden Ströme werden jeweils in den Strömen Ek und Dj zusammengefasst, siehe Abb. 14.8. Im Modell sucht sich jede Sendung, entsprechend der gewählten Strategie (Bündeln/Durchreichen) und ihrer Sendungsmerkmale den für sie passenden Transportweg und das richtige Verkehrsmittel. Je nachdem ob eine zielreine Sendungseinheit vorliegt oder nicht, gehen die Sendungen entweder durch den Abbau, werden danach eingela-
14 Modell zur Bewertung der Kostenreduktion im Luftfrachttransportnetz
371
gert und gehen anschließend durch den Aufbau oder werden als zielreine Einheiten an diesen Prozessen vorbeigeschleust. Diese abflugfertigen, zielreinen Sendungseinheiten warten in Abhängigkeit vom Abflugzeitpunkt entweder im ULD-Lager oder auf dafür vorgesehenen Bereitstellungsflächen auf ihren Anschlussflug. Dieser Strom an zielreinen Sendungseinheiten ist im Fall des Bündelns am zweiten Standort erwartungsgemäß größer als im Fall Durchreichen.
14.4.4.1
Überprüfung der Simulationsergebnisse und stationärer Zustand
Die Kalibrierung und Validierung des Modells erfolgt nach dem oben geschilderten Vorgehen und zeigte nach deren Abschluss die gewünschten realtypischen Merkmale. Die Bündelungspotenziale der Fälle Grundfall0 und Bündeln I0 lagen jeweils mit ca. 54% in der für Deutschland prognostizierten Bandbreite, siehe oben. Demzufolge liegen die Bündelungspotenziale der Fälle Bündeln II0 (+5%) und III0 (+10%) mit ca. 56,7% resp. 59,3% geringfügig oberhalb dieser Bandbreite. Damit darüber hinaus beurteilt werden kann, ob ein Ergebnis signifikant ist, sollte überprüft werden, ob sich das System eingeschwungen hat, d. h. ob ein stationärer Zustand erreicht wurde. Diese Überprüfung kann in einer ersten Annäherung darüber erfolgen, dass beispielsweise der gemittelte Lagerstandsverlauf der einzelnen Lager untersucht wird, ob er dem erwarteten Verlauf über die Zeit entspricht. In ProC/B ist darüber hinaus eine Funktion integriert, mit deren Hilfe der positive und negative Konfidenzintervallverlauf zusammen mit dem gemittelten Lagerstandsverlauf ausgegeben werden kann. Mithilfe der Konfidenzintervalle wird die Wahrscheinlichkeitsgrenze angezeigt, mit der der reale Wert innerhalb der von dem Konfidenzintervall vorgegebenen Grenzen liegt. Generell sollte das Konfidenzintervall möglichst klein sein. Je nach Beobachtungsfall muss entschieden werden, ob die Grenzen für das Untersuchungsziel eng genug beieinander liegen. Die unteren und oberen Grenzen sind demgemäß jeweils dem Untersuchungsziel entsprechend zu bewerten. Aufgrund der naturgemäß großen Lagerstandsschwankungen an einem Flughafen, siehe auch stark variierenden Kurvenverlauf in Abb. 14.9, sind diese Intervallgrenzen vergleichsweise groß. Die durchgeführte Überprüfung der einzelnen Ressourcen im System lässt vermuten, dass die durchgeführten Simulationsläufe jeweils einen stationären Zustand erreicht haben. Diese Überprüfung des stationären Zustandes ist nie abschließend, aber aufgrund der relativ langen Simulationsdauer von 30 Modelltagen können die überprüften Modelle als eingeschwungen bewertet werden.
14.5 14.5.1
Simulationsergebnisse Belegung der Ressourcen
Die Simulationsergebnisse der von der Strategie betroffenen Hauptprozesse, siehe auch Abb. 14.5, werden für diese nachfolgend ausgeführt. Die Belegung des Sendungslagers auf dem ersten Hub lässt sich beispielhaft aus Abb. 14.9 für den Fall
372
U. Clausen und H. Sieke 1.8e+06 Lagerver lauf durchschnittlicher Lagerver lauf
1.6e+06 1.4e+06
Lagerstand [kg]
1.2e+06 1e+06 800000 600000 400000 200000 seed : INTEGER =13;
0 0
5000
10000
15000 20000 Modellzeit [min]
25000
30000
35000
Abb. 14.9 Lagerverlauf im Sendungslager auf dem ersten Hub/Subhub für den Bündelfall I0
Bündeln I0 ablesen. Die erste, stark ausschlagende Kurve zeigt den Lagerstand über den Zeitverlauf, anhand derer der Spitzenstand des Lagers identifiziert werden kann. Über diesen kann beispielsweise die Auslegung des Lagers, bzw. die Bestimmung, ob das bestehende Lager für die Umsetzung der jeweiligen Strategie ausreicht, erfolgen. Falls ein Lager nicht genügend Kapazität aufweist, kann dies gegen einen Standort sprechen. Die zweite Kurve mit einem einschwingenden Verlauf zeigt den durchschnittlichen Lagerstand über die Zeit, mithilfe dessen die durchschnittlichen Lagerkosten pro Tag bestimmt und verglichen werden können. Der Verlauf der ersten Kurve über eine Modellzeit von 1.440 Minuten entspricht dem Ablauf eines Tages. Innerhalb dieser Zeitspanne weist die Kurve das an einem Hubflughafen typische Wellenmuster des Aufkommens über den Tag mit vier Spitzen auf. Die Bündelungsstrategie, in deren Folge sich die Sendungen den spät möglichsten Flug über den Tag auswählen, ist daraus ersichtlich, dass die Aufkommensspitzen eines jeden Tages im Durchschnitt bis zum Abend zunehmen. Über den Verlauf von 7 Tagen ist darüber hinaus der typische Wochenzyklus erkennbar, mit einem niedrigeren Aufkommen an zwei Tagen in der Woche. Der sich stabilisierende Verlauf der durchschnittlichen Belegungskurve (zweite) kann neben den oben ausgeführten Annahmen als weiteres Indiz interpretiert werden, dass sich das System eingeschwungen hat. Entsprechend zur Abb. 14.9 zeigt Abb. 14.10 den Verlauf der benötigten Auf- und Abbauplätze im Bündelfall I0. Auch hier können aus dem ersten Kurvenverlauf die Auslastungen der beanspruchten Ressourcen über die Zeit abgelesen werden und so eine Eignung eines Standortes für die Bündelung überprüft werden. Die zweite, sich
14 Modell zur Bewertung der Kostenreduktion im Luftfrachttransportnetz
373
100 Beddarfsver lauf durchschnittlicher Bedarf
90
Anzah1 Aufbau- Abbauplätze
80 70 60 50 40 30 20 10 0 0
5000
10000 15000 Modellzeit [min]
20000
25000
Abb. 14.10 Belegungsverlauf der Auf-/Abbauplätze auf dem ersten Hub/Subhub für den Bündelfall I0
einschwingende Kurve zeigt den durchschnittlichen Belegungsverlauf über die Zeit an. Analog stellt sich die Belegung der Ressourcen auf dem zweiten Hub dar. Der Vergleich der Ergebnisse zwischen den unterschiedlichen Lastfällen „0“ bis „n“ und den jeweiligen Kategorien zeigt, dass sie sich absolut gesehen unterscheiden, sich aber relativ, bis auf marginale Unterschiede, entsprechen. Nachfolgend wird daher stellvertretend für die übrigen Lastfälle, auf die Ergebnisse der vier Kategorien der Null-Experimentierreihe eingegangen. Abbildung 14.11 zeigt für die Null-Experimentierreihe den sich aus dem PeakLagerstand ermittelten relativen Sendungslagerbedarf der einzelnen Bündelungsfälle I0–III0, bezogen auf den Grundfall0. Der Bedarf am ersten Standort steigt im Bündelungsfall I0 im Vergleich zum Status Quo um über 8%, zwischen den einzelnen Bündelungsfällen dagegen unterproportional an. Der starke Anstieg zwischen dem Grundfall0 und dem Bündelungsfall I0 ist mit der längeren Verweildauer der Sendungen am ersten Standort zu erklären. Zwischen den Bündelungsfällen I0–III0 führt dann nur noch das im Verhältnis geringer steigende Bündelungspotenzial zu einem weiteren Anstieg. Am zweiten Standort kommt es zu einem verstärkten Aufkommen an zielreinen Durcheinheiten. Diese werden direkt im ULD-Lager zwischengepuffert und durchlaufen sowohl den Abbau, den Aufbau als auch das Sendungslager nicht mehr. Der Effekt dieses Vorbeischleusens an den vorher genutzten Ressourcen auf das Sendungslager am zweiten Standort ist aus Abb. 14.11 ebenfalls ersichtlich. Das bedeutet, dass die Spitzenauslastung des Sendungslagers am ersten Standort um 8–11% höher und am zweiten Standort zwischen 2–5% niedriger ist als im Grundfall0.
374 Abb. 14.11 Veränderung des Sendungslagerbedarfs, bezogen auf den Grundfall0
U. Clausen und H. Sieke 12% 8% 4% zweiter Hub 0% erster Hub/Subhub -4% -8%
Bünderlungsfall I Bünderlungsfall II Bünderlungsfall III
-12%
Die durchschnittliche Lagerbelegung weist einen ähnlichen Effekt auf, siehe Abb. 14.12. Der Unterschied zur vorangegangenen Feststellung liegt darin, dass der Anstieg auf dem ersten Hub mit 4–5% niedriger und der Einsparungseffekt am zweiten Standort dagegen mit 2–20% durchschnittlich wesentlich höher ausfällt. Die Ergebnisse aus Abb. 14.11 sind für die Vorhaltung der notwendigen Lagerressourcen am jeweiligen Standort entscheidend, wohingegen diejenigen aus Abb. 14.12 für die anschließende Kostenbetrachtung relevant sind. Entgegen den Ergebnissen des Sendungslagers sind die des ULD-Lagers an beiden Standorten mit unter einem Prozent nicht signifikant. Sie werden aus diesem Grund aus der weiteren Betrachtung ausgeschlossen. Die Theorie, dass die Ressourcen am ersten Standort bis auf die Lager von der Strategieanpassung nicht betroffen sind, trifft demzufolge auch auf das ULD-Lager zu. Da die Sendungen in den zielreinen Einheiten tendenziell später eintreffen, führen die Durcheinheiten auch am zweiten Standort zu keinen signifikanten Veränderungen in der
12% 8% 4% 0%
zweiter Hub erster Hub/Subhub
-4%
Abb. 14.12 Veränderung der durchschnittlichen Lagerbelegung, bezogen auf den Grundfall0
-8% -12%
Bünderlungsfall I Bünderlungsfall II Bünderlungsfall III
14 Modell zur Bewertung der Kostenreduktion im Luftfrachttransportnetz Abb. 14.13 Veränderung des Bedarfs an Auf- und Abbauplätzen, bezogen auf den Grundfall0
375
12% 8% 4% 0%
zweiter Hub erster Hub/Subhub
-4% -8%
Bünderlungsfall I Bünderlungsfall II Bünderlungsfall III
-12%
Nutzung des ULD-Lagers. Den vorangegangenen Darstellungen des Sendungslagers entsprechend, zeigen Abb. 14.13 und Abb. 14.14 die Simulationsergebnisse für den Auf- und Abbaubereich. Der Anstieg der Spitzenauslastung am ersten Standort liegt hier zwischen 1–2% und der Anstieg der durchschnittlichen Auslastung bei 3–7%. Die Spitzenauslastung am zweiten Standort sinkt dagegen in diesem Bereich um etwas über 4% wohingegen die durchschnittlichen Auslastungen um 3–6% steigen. Die Vermutung, dass sich der Ressourcenbedarf am ersten Standort erhöht, respektive am zweiten verringert, wird durch diese Ergebnisse gestützt. Inwieweit dies zu einer Kostenersparnis im System insgesamt führt, wird in der nachfolgenden Kostengegenüberstellung untersucht.
12% 8% 4% zweiter Hub
0% erster Hub/Subhub -4%
Abb. 14.14 Veränderung der durchschnittlichen Belegung an Auf- und Abbauplätzen, bezogen auf den Grundfall0
-8% -12%
Bünderlungsfall I Bünderlungsfall II Bünderlungsfall III
376
14.5.2
U. Clausen und H. Sieke
Berücksichtigte Prozesskosten an den Hubs
Die für die Untersuchungen relevanten Gesamtkosten im Netz setzen sich aus den Transport- sowie den Umschlag- und Lagerkosten an den Standorten zusammen, siehe Abb. 14.8. Die Transportkosten zwischen den Standorten werden von der Strategie nicht beeinflusst, siehe oben, und werden im weiteren Untersuchungslauf nicht berücksichtigt. Es wird unterstellt, dass die Kosten für die Vorfeldverkehre und Flugzeugabfertigung aufgrund der Anpassung der Dispositionsstrategie durch die stärkere Containerisierung geringer ausfallen könnten, zumindest aber in der Summe nicht höher sein werden. Dass zusätzlich mögliche Einsparungspotenzial wird in der nachfolgenden Analyse nicht untersucht. Die Bereitstellungsflächen auf dem Vorfeld werden vereinfachend ebenfalls nicht berücksichtigt. Als untersuchungsrelevante Kosten werden nur die Lagerkosten sowie die Kosten für den Auf- und Abbau eingestuft. Um in einem Modell sowohl die Hub-Hub als auch die SubhubHub Problematik analysieren zu können, wird von einem höheren Kostenniveau am zweiten ausgelasteten Standort ausgegangen, so wie es bei einer vorgelagerten Subhub-Konstellation der Fall ist. Die Lagerkosten des jeweiligen Standortes werden mithilfe des Produktes aus der durchschnittlichen Lagerauslastung und dem Kostensatz pro Kilo und Tag ermittelt. Für die Bestimmung der Kosten im Ab- und Aufbau wird ähnlich verfahren. In diesem Fall wird das Produkt aus dem Personalkostensatz, dem eingesetzten Personal pro Auf- und Abbauplatz sowie der Anzahl an durchschnittlich belegten Auf- und Abbauarbeitsplätzen gebildet. Die Summe dieser beiden Produkte ergeben für jeden Standort die dort anfallenden Kosten. Aus ihnen ergeben sich die Gesamtkosten für das Netz in der jeweiligen Versuchskategorie. Werden die standortabhängigen Kosten standortübergreifend ins Verhältnis gesetzt, weist dieser Grundzustand ein vorgegebenes Kostengefälle auf. Werden die Kosten auf dem ausgelasteten zweiten Standort konstant gehalten, die Kosten des ersten variiert und in einen Graphen über dem Kostengefälle abgetragen, ergibt sich ein Kosteneinsparungsverlauf in Abhängigkeit des Kostengefälles zwischen den Standorten, siehe Abb. 14.15. Vom theoretischen Fall der Kostengleichheit zwischen beiden Standorten abwärts betrachtet, lässt sich aus Abb. 14.15 in Abhängigkeit vom Bündelungspotenzial, respektive Bündelungsfall, bestimmen, ab welchem Kostengefälle eine Bündelung auf einem vorgelagerten Standort für das Gesamtsystem wirtschaftlich sinnvoll ist. Der Sprung der Kosteneinsparung zwischen den Fällen Bündeln I0 zu II0 fällt größer aus als zwischen Bündeln II0 zu III0. Dies dürfte unter anderem daran liegen, dass mit steigendem Bündelungspotenzial dieses nicht zu 100% genutzt werden kann. Mit diesen Ergebnissen wird nachgewiesen, dass die Kosteneinsparung im Netz und die Effektivitätssteigerung davon abhängig sind, welches Kostengefälle zwischen den Standorten vorliegt, wie hoch das Bündelungspotenzial resp. die tatsächlich mögliche Ausschöpfung dieses Bündelungspotenzials ist. Mithilfe des geschilderten Vorgehens ist die Identifizierung eines geeigneten Standortes zum zielreinen Bündeln möglich.
Relative Kosten im Luftfrachttransportnetz
14 Modell zur Bewertung der Kostenreduktion im Luftfrachttransportnetz
377
2,0% zunehmendes BünderlungsPotenzial
Mehraufwand durch Bünderlung 1,0% 0,0% Kosteneinsparung durch -1,0%
Bünderlung
-2,0% -3,0% Bünderlungsfall I Bünderlungsfall II Bünderlungsfall III
-4,0% -5,0% 50/100
60/100
70/100 80/100 Kostengefälle
90/100
1
Abb. 14.15 Kosteneinsparung in Abhängigkeit des Kostengefälles zwischen den Standorten, nach Bündelungsfall
14.6
Zusammenfassung und Ausblick
Derzeit optimieren die Akteure der Luftfrachttransportkette ihre Prozessabläufe weitgehend unabhängig voneinander. Sie vernachlässigen damit Möglichkeiten, die Kapazitäten der vorhandenen Ressourcen beispielsweise mit Hilfe einer standortübergeifenden Frachtflusssteuerung zu steigern. Über eine abgestimmte Steuerung der Verweildauer der Frachtsendungen an einem ersten Standort (Hub/Subhub) ist es möglich, an diesem mehr zielreine Durcheinheiten für nachfolgende Standorte (Hubs) aufzubauen. Am ersten Standort entstehen dadurch zwar höhere Bestandskosten, in der Folge entfallen dadurch aber Umschlags-, Lager- und Transportprozesse am zweiten Hub. Die Ergebnisse der oben vorgestellten Simulationen und Berechnungen zeigen, dass dadurch die Gesamtkosten in der Transportkette entscheidend gesenkt und die freigesetzten Kapazitäten am zweiten Hub für zusätzlichen Frachtumschlag genutzt werden können. Im Untersuchungsverlauf wird gezeigt, wie sich anhand der beiden Kennzahlen Kostengefälle und Bündelungspotenzial bestimmen lässt, ob ein Standort beispielsweise als Subhub bzw. „Bündelungshub“ etabliert werden soll. Um die beschriebenen Zusammenhänge in einem übergreifenden System, einem Metasystem, darzustellen, werden diese in weiterführenden Experimenten mithilfe umfangreicher Simulationsläufe vertiefend untersucht. Aufgrund des für die kommenden Jahre erwartete Ansteigens des Bündelungspotenzials [FSt03], wird in den zukünftigen Versuchen ein Bündelungspotenzial zwischen 40 und 90% entsprechend dem obigen Vorgehen untersucht. Potentielle Anwender können zukünftig so in der Entscheidungsfindung für den richtigen Bündelungsstandort unterstützt werden.
378
U. Clausen und H. Sieke
Literatur [AIR06] AIRBUS (2006) Global Market Forecast 2006–2025, Blagnac Cedex [BBF+03] Baum N, Bernhard J, Frye H, Wenzel S (2003) Kooperation A5, M9 – Simulation des Frachtumschlages im Flugverkehrsnetz, Dortmund, S 22 [BHN+07] Bernhard J, Hömberg K, Nagel L, Riha I, Schürmann C, Sieke H, Völker M (2007) Standardisierte Modelle zur Systemlastbeschreibung. Sonderforschungsbereich 559 „Modellierung großer Netze in der Logistik“, Dortmund [Bie07] Bierwirth B (2007) Trends und Herausforderungen in der Luftfrachtabfertigung; Flughafenlogistik – Wachstum ohne Grenzen. V.W.I. GmbH; Nürnberg, VDI Verlag GmbH, ISBN 978-3-18-092023-8, S 135–142 [Boe06] Boeing (2006) Current Market Outlook 2006, Seattle, Boeing Commercial Airplanes [Bus05] Busacker T (2005) Steigerung der Flughafen-Kapazität durch Modellierung und Optimierung von Flughafen-Boden-Rollverkehr – Ein Beitrag zu einem künftigen Rollführungssystem (A-SMGCS). Berlin [DKo04] Davies PL, Kovac A (2004) Densities, spectral densities and modality. Ann Stat 32:1093–1136 [Frä01] Fränkle A(2001) Untersuchung zur Wettbewerbsfähigkeit eines schienengebundenen Luftfrachtersatzverkehrs. Verlag Praxiswissen, Dortmund, ISBN 3-932775-77-5 [Fry02] Frye H (2002) Luftfrachtverkehr. In: Arnold EA (Hrsg) Handbuch Logistik. Springer Verlag, Berlin, ISBN 3-540-41996-9, S C3–46 [Fry03] Frye H (2003) Flächenbezogene Optimierung von Luftfrachtterminals. Verlag Praxiswissen, Dortmund, ISBN 3-932775-97-X [Fry06] Frye H (2006) Trends und Entwicklung. Logistik inside – Spezial. S 7–9 [Fry98] Frye H (1998) Luftfracht. In: Buchholz J, Clausen U (Hrsg) Handbuch der Verkehrslogistik. Springer Verlag, Berlin, S 139–146 [Fry99] Frye H (1999) Luftfracht im Netzwerk. 4. Jahrestagung Airport Logistics – Air Cargo, V.G.F.M. Logistik, Düsseldorf, VDI Verlag GmbH, VDI Berichte 1502, ISBN 3-18-091502-1, S 37–50 [FSt03] Frye H, Steiger D (2003) Konzentration: Warum die Großen weiter wachsen. Deutsche Verkehrszeitung 57, Sonderbeilage Luftfracht, S 2 [Gra02] Grandjot H-H (2002) Leitfaden Luftfracht, 2., überarbeitete Aufl. Huss-Verlag GmbH, München, ISBN 3-931724-57-3 [Kas97] Kasilingam RG (1997) An economic model for air cargo overbooking under stochastic capacity. Comput Indust Eng 32(1):221–226 [Kha00] Khan MRR (2000) Business process reengineering of an air cargo handling process. Int J Prod Econ 63(1):99–108 [LLL03] Lin C-C, Lin Y-J, Lin D-Y (2003) The economic effects of center-to-center directs on hub-and-spoke networks for air express common carriers. J Air Transp Manage 9(4):255–265 [Luf07a] Lufthansa (2007a) So funktioniert der Import in Frankfurt. planet-Das Magazin für Luftfrachtprofis, 3. März 2007, S 12–13 [Luf07b] Lufthansa (2007b) Geschäftsbericht 2006. DOI [May01] Mayer G (2001) Strategische Logistikplanung von Hub&Spoke-Systemen, 1. Aufl. Deutscher Universitäts-Verlag, ISBN 978-3824473205 [Muc06] Muckelberg (2006) Neues Air Hub für Europa in Köln eingeweiht. LOGISTIK für Unternehmen, 3. März 2006, S 60–62 [Pro02] Prokop D (2002) The logistics of air cargo co-mingling at Ted Stevens Anchorage International Airport. J Air Transp Manage 8(2):109–114 [SKo06] Schubert M, Kollberg B (2006) Luftverkehrsprognosen 2020 für den Flughafen Frankfurt Main und Prognose zum lndseitigen Aufkommen am Flughafen Frankfurt Main, München, Intraplan Consult GmbH [SQu04] Sieke H, Quick A (2004) Optimierung von Luftfrachttransportnetzen. Industrie Management 3:59–62, ISSN 1434-1980
14 Modell zur Bewertung der Kostenreduktion im Luftfrachttransportnetz
379
[Ste06] Steiger D (2006) Keine Chance für typische Mittelständler. Logistik inside – Spezial Sonderheft, S 10–11 [SVö05] Sieke H, Völker M (2005) Process-oriented simulation of air cargo flows within an airport network. In: Hülsemann F, Kowarchik M, Rüde U, Erlangen (Hrsg) Frontiers in Simulation Simulationtechnique – 18. Symposium in Erlangen September 2005 – ASIM Fortschritte in der Simulationstechnik. SCS Publishing House Erlangen, ISBN 3-936150-41-9, S 248–253
Kapitel 15
Modellierung und Analyse trimodaler Seehafenhinterlandverkehre unter Einsatz eines intermodalen geographischen Informationssystems Florian Schwarz
Zusammenfassung Trimodale Transportketten für containerisierte Seehafenhinterlandverkehre bieten eine wesentliche Möglichkeit das Transportvolumen der Binnenschifffahrt im Containerverkehr weiter zu steigern und die Bedeutung der Binnenhäfen als trimodale Hinterland-Hubs auszubauen. Die Wettbewerbsfähigkeit trimodaler Transportketten im Verhältnis zu alternativen Transportangeboten wird aber häufig in Frage gestellt. Basierend auf dieser Ausgangsfragestellung wurde eine geeignete Modellierungsmethode entwickelt, welche die Prozesskettenanalyse trimodaler Seehafenhinterlandverkehre mit dem Einsatz geographischer Informationssysteme (GIS) für intermodale Transporte verbindet. Aus der detaillierten Prozessanalyse intermodaler Seehafenhinterlandverkehre werden die notwendigen Erweiterungen heutzutage verfügbarer GIS im Verkehrsbereich zur Berücksichtigung der verkehrsträgerspezifischen Infrastrukturrestriktionen definiert. Diese ermöglichen zukünftig eine wesentlich weitergehende Nutzung von GIS als Wissensbasis für die Planung intermodaler Transportnetze. Über die Entwicklung von Kalkulationsschemata für die detaillierte Abbildung der Prozesszeiten und -kosten kombinierter Seehafenhinterlandverkehre konnten ferner umfangreiche Szenarien trimodaler Transportketten berechnet werden. Die Ergebnisse zeigen, dass für einen großen Anteil der in Containern transportierten Güter, von geringwertigen Massengütern bis hin zu relativ hochwertigen Elektronikgütern, trimodale Transportketten gegenüber dem durchgehenden Schienentransport wettbewerbsfähig sind.
F. Schwarz ( ) Fraunhofer-Institut für Materialfluss und Logistik (IML), Abteilung Verkehrslogistik Joseph-von-Fraunhofer-Str. 2-4 44227 Dortmund, Deutschland E-mail:
[email protected] P. Buchholz und U. Clausen (Hrsg.), Große Netze der Logistik, DOI 10.1007/978-3-540-71048-6_15, © Springer-Verlag Berlin Heidelberg 2009
381
382
15.1
F. Schwarz
Einführung
Das stete Wachstum im Weltcontainerverkehr hat in den führenden nordeuropäischen Containerseehäfen (Hamburg, Bremerhaven, Antwerpen, Rotterdam) in den Jahren 1970–2004 zu einer Verdopplung der Containerumschläge ca. alle 10 Jahre geführt. Bereits heute stoßen daher alle Verkehrsträger beim Hinterlandtransport der Container an Kapazitätsgrenzen, sei es im Bereich der Terminals oder der jeweiligen Verkehrsnetze. Das weiter ungebremste Wachstum im Containerverkehr, das in den letzten Jahren nahezu alle Prognosen übertroffen hat, erhöht noch die Notwendigkeit neuer Konzepte für den Hinterlandtransport der Container. Neben dem Infrastrukturausbau stellt die bessere Nutzung der vorhandenen Infrastruktur einen wesentlichen Ansatz dar. Als Hinterland eines Hafens wird allgemein jener Raum bezeichnet, der die über den Seehafen eingeführten Importgüter aufnimmt oder die für den Export bestimmten Güter bereitstellt. Das Hinterland endet dort, wo die Aus- und Einfuhrvorgänge über einen anderen Hafen nach Zeit- und Kostenaspekten attraktiver sind. Bezüglich der räumlichen Ausdehnung des Hinterlandes ist eine klare Abgrenzung nicht gegeben, da die Größe und Lage des Einzugsgebietes stark von infrastrukturellen Gegebenheiten und den entsprechenden Verkehrsangeboten eines Hafens beeinflusst wird [Woi00]. In diesem Zusammenhang hat bspw. die Binnenschifffahrt in Deutschland ihr Transportvolumen im containerisierten Seehafenhinterlandverkehr zwischen 1995 und 2004 von 0,719 Mio. TEU1 auf 1,943 Mio. TEU fast verdreifachen können. 84% dieses Volumens besteht aus Verkehren auf dem Rhein zwischen den Häfen Rotterdam/Antwerpen und Deutschland [DSB04]. Es ist offensichtlich, dass hier die infrastrukturellen Gegebenheiten, mit dem Rhein als wichtigster Binnenwasserstraße Europas, deutlichen Einfluss auf das Hinterland der Seehäfen Rotterdam und Antwerpen haben. Kapazitätsprobleme in der Binnenschifffahrt treten dabei in erster Linie durch organisatorische Probleme in den Seehäfen auf, verursacht u. a. durch die höhere Priorität der Seeschiffe an den maritimen Terminals. Das Wasserstraßennetz hingegen bietet noch große Kapazitätsreserven. Für ein weiteres deutliches Wachstum des Transportvolumens der Binnenschifffahrt ist aber eine Ausweitung ihres Einzugsgebietes notwendig: Derzeit sind die Verkehre zu mehr als 90% kombinierte Verkehre Binnenschiff-Straße mit Start- bzw. Endpunkt in einem Radius von bis zu 100 km um die Hinterland-Terminals [Sch01]. Eine deutliche Ausdehnung des Marktanteils wird daher nur möglich sein, wenn neue Transportangebote entwickelt werden, die den Binnenschifftransport auf dem Rhein und anderen Flüssen mit Schienenverkehren in weiter entfernt liegende Regionen, bspw. in Süddeutschland, Österreich oder Ungarn, verbinden. Das Konzept solcher trimodaler Transportketten ist in Abb. 15.1 dargestellt. Jedoch sind sowohl für den Binnenschiff- als auch den Schienentransport die Restriktionen der Infrastruktur entscheidend für die Wettbewerbsfähigkeit der 1
TEU=Twenty-Foot Equivalent Unit: einem 20’-Container entsprechende Maßeinheit im Containerverkehr
15 Modellierung und Analyse trimodaler Seehafenhinterlandverkehre
383
Abb. 15.1 Schematische Darstellung trimodaler Transportketten
Transportangebote, speziell im Seehafenhinterlandverkehr [Abe03]. Neben meist national einheitlichen Vorgaben, wie bspw. die Spurweite oder die Elektrifizierung im Schienenverkehr, spielen dabei auch relationsspezifische oder regionale Besonderheiten oft eine große Rolle, wie bspw. im Schienenverkehr das Lichtraumprofil oder im Binnenschifftransport die Anzahl und Abmessungen der Schleusen sowie die Brückendurchfahrtshöhen [Sei99]. Daher müssen diese Infrastrukturrestriktionen bei der Planung und Modellierung trimodaler Transportketten berücksichtigt werden um verlässliche Ergebnisse hinsichtlich ihrer Wettbewerbsfähigkeit gegenüber alternativen Transportangeboten zu erhalten. In diesem Buchbeitrag wird, nach der Erläuterung der Zielsetzung, eine Übersicht der relevanten Literatur zu Modellierungsansätzen für die Planung intermodaler Transportnetze gegeben. Anschließend wird der neu entwickelte Modellierungsansatz sowie seine rechnergestützte Umsetzung vorgestellt. Abschließend werden die Ergebnisse der mit Hilfe dieses Ansatzes berechneten umfangreichen Szenarien trimodaler Transportangebote vorgestellt und bewertet.
15.2
Zielsetzung
Die Zielsetzung der Forschungen lag in der modellbasierten Untersuchung der Wettbewerbsfähigkeit trimodaler Transportketten für Seehafenhinterlandverkehre. Zur Sicherstellung einer hohen Genauigkeit der Planung waren die diversen Infrastrukturrestriktionen zu berücksichtigen, welche die Wettbewerbsfähigkeit intermodaler Transportketten auf einer bestimmten Transportrelation beeinflussen.
384
F. Schwarz
Die hierzu notwendigen Information über die bestehende Infrastruktur, Wegenetze und Terminals, sollten definiert und in Form eines geographischen Informationssystems für intermodale Verkehre rechnergestützt zur Verfügung gestellt werden. Durch diesen Ansatz soll ein schnellerer Planungsvorgang erreicht werden, da die Informationssammlung für die Planung neuer intermodaler Transportangebote eine sehr zeitaufwändige Aufgabe darstellt. Des weiteren sollte die rechnergestützte Modellierung der Infrastrukturrestriktionen und der Prozessbausteine intermodaler Transportketten es auch Nutzern ohne Spezialkenntnisse im Bereich des intermodalen Transport bzw. zu den einzelnen Verkehrsträgern ermöglichen, intermodale Transportangebote bei der strategischen Transportnetzplanung zu berücksichtigen, ohne hierfür Experten der verschiedenen Verkehrsträger bereits in einem frühen Planungsstadium hinzuziehen zu müssen. Zur Einordnung dieses Ansatzes wird zunächst auf den Stand der Forschung bei der Modellierung intermodaler Transporte eingegangen.
15.3
Modellierungsansätze für intermodale Transporte
Intermodaler Transport ist auf internationaler Ebene definiert als „Transport von Gütern in ein und derselben Ladeeinheit oder demselben Straßenfahrzeug mit zwei oder mehreren Verkehrsträgern, wobei ein Wechsel der Ladeeinheit, aber kein Umschlag der transportierten Güter selbst erfolgt“ [UNE01]. Diese Definition entspricht weitgehend der Definition von [BCV98] für den kombinierten Verkehr. In der Terminologie der UN/ECE hingegen ist der Begriff des kombinierten Verkehrs spezifiziert als „Intermodaler Verkehr, bei dem der überwiegende Teil der in Europa zurückgelegten Strecke mit der Eisenbahn, dem Binnen- oder Seeschiff bewältigt und der Vor- und Nachlauf auf der Straße so kurz wie möglich gehalten wird“ und stellt somit eine Untermenge der intermodalen Transporte dar. Der Begriff „Trimodaler Transport“ bezeichnet wiederum eine Untermenge der kombinierten Verkehre und wird für solche Transportketten verwandt, bei denen die Verkehrsträger Schiene und Binnenschifffahrt in Kombination im Hauptlauf eingesetzt werden und die Feinverteilung per Lkw erfolgt. In Anlehnung an die Definition der UN/ECE für den kombinierten Verkehr können trimodale Transporte somit wie folgt definiert werden: Trimodale Transporte sind kombinierte Verkehre, bei denen der überwiegende Teil der Strecke durch eine Kombination von Eisenbahn und Binnenschiff bewältigt und der Vor- und Nachlauf auf der Straße möglichst kurz gehalten wird. Die Modellierung intermodaler Transporte kann auf einzelne Transportrelationen beschränkt werden, wie es hier der Fall ist, oder sich auf komplexe intermodale Transportnetze beziehen, wie es bspw. bereits im TERMINET-Projekt untersucht wurde [TKr02, Kre02a]. In beiden Fällen kommt die nachfolgende generelle Struktur von Transportplanungsmodellen zum Einsatz [ECO96]: 1. Generierung/Nachfrage: Abschätzung der Transportvolumen, 2. Distribution: Quelle/Senke-Matrix der Transportströme,
15 Modellierung und Analyse trimodaler Seehafenhinterlandverkehre
385
3. Verkehrsträgerwahl: Entscheidung, mit welchem Verkehrsträger und Transportmittel der Transport stattfindet, 4. Umlegung des Verkehrs: Umrechnung der Transportvolumina von Tonnen in Fahrten (besonders für Güterverkehrsmodelle von Bedeutung), 5. Zuordnung: Belastung der Netzwerke mit den Fahrt-Matrizen, 6. Kalibrierung/Validierung: Vergleich mit beobachteten Verkehren zur Validierung der Modellergebnisse. Der jeweils zu wählende Modellierungsansatz hängt darüber hinaus von der gewählten Zielstellung der Untersuchung ab. Hierbei können u. a. folgende, sich auch untereinander gegenseitig beeinflussende Faktoren unterschieden werden: • Planungshorizont der Modellierung, • Anwender der Modellergebnisse, • Komplexität des Transportnetzes. Zunächst bestimmt der Planungshorizont des Modells mögliche Modellierungsansätze. Hierbei werden generell drei Planungsebenen unterschieden [Cra00, CBo92]: • Strategische Planung (langfristig), • Taktische Planung (mittelfristig), • Betriebliche Planung/Disposition (kurzfristig). Für eine weitere Unterscheidung definiert Crainic den Begriff der strategisch/taktischen Planung für Fragestellungen, die sich mit der Angebotsplanung beschäftigen, also Fragestellungen wie „Welche Transportservices sollen angeboten werden? Wie oft sollen sie im Planungszeitraum angeboten werden? Welche Transportrelationen sollen betrieben werden?“ [Cra00]. Exakt diese Fragestellungen stehen im Mittelpunkt des hier vorgestellten Modellierungsansatzes, der somit eindeutig als Basis für ein strategisch/taktisches Planungstool klassifiziert werden kann. Weiterhin ist eine Unterscheidung nach den potenziellen Nutzern der Modellierungsergebnisse sinnvoll, da die verschiedenen Akteure im intermodalen Transport teils sehr unterschiedliche Zielsetzungen verfolgen. Die folgenden Akteure können in den Transportketten der Seehafenhinterlandverkehre unterschieden werden [Sch06]: • Verlader/Empfänger, • Container-Reedereien, • Spediteure: Seehafenspeditionen, internationale Spediteure (sog. MTO = Multimodal Transport Operator), • Terminalbetreiber: Maritime Terminalbetreiber, KV-Terminalbetreiber im Seehafen, Betreiber von Hinterland-Terminals, • Hafenbetreiber: als Infrastrukturbetreiber oder an der Transportkette beteiligte, • Transportunternehmen: Straßentransporteure, Eisenbahnverkehrsunternehmen (EVU), Eisenbahninfrastrukturunternehmen (EIU)2, Binnenschiffreedereien, 2
Auch wenn Eisenbahninfrastrukturunternehmen keine Transportunternehmen darstellen, so sind sie unmittelbar am Schienentransport beteiligt und werden daher dieser Gruppe zugeordnet.
386
F. Schwarz
• Operateure: Betreiber von Netzwerken des kombinierten Verkehrs, • Sonstige: Servicebetriebe für das Packen/Entladen der Container („Stuffing and Stripping“), Containerreinigung und –reparatur, Zollbehörden etc. Mit Ausnahme der Gruppe „Sonstige“ existieren von Akteuren jeder dieser Gruppen Beispiele für ein eigenständiges Angebot von Intermodalen Seehafenhinterlandverkehren [Sch06]. Alle genannten Akteure sind somit potenzielle Anwender des entwickelten Modells, wobei einzuschränken ist, dass nur in seltenen Fällen ein Akteur alleine ein ausreichend großes Transportvolumen kontrolliert, um ein solches intermodales Transportangebot im Seehafenhinterlandverkehr alleine wirtschaftlich betreiben zu können. Ein nicht berücksichtigte Gruppe, die einen großen Einfluss auf die Rahmenbedingungen intermodaler Transportnetze ausübt, sind politische Akteure, die auf allen Ebenen, von Entscheidungen über Terminalstandorte auf regionaler Ebene bis hin zu großen Infrastrukturprojekten und bspw. der Internalisierung der externen Kosten des Verkehrs auf europäischer Ebene, großen Einfluss auf die Wettbewerbsfähigkeit des Intermodalen Transports ausüben. Für diese Akteure wurden bereits verschiedenste Modelle entwickelt um intermodale Transportnetze und die Auswirkungen politischer Entscheidungen auf diese Netze zu untersuchen. Einen Überblick bieten [ECO96, STM02]. Vom logistischen Standpunkt sind diese Modelle jedoch für die Bewertung der Wettbewerbsfähigkeit neuer intermodaler Transportangebote nicht geeignet. Dies sei illustriert am Modell STREAMS, das im Auftrag der Europäischen Kommission für die Prognose der europaweiten Transportströme bis 2020 entwickelt wurde und den „state-of-the-art“ für diesen Modelltyp darstellt: Dieses Modell unterscheidet für den Schienengüterverkehr lediglich zwei Kostenfunktionen, für Massen- und Stückgüter [STR00]. Die Transportkosten neuer intermodaler Transportangebote hängen jedoch stark von den Infrastrukturrestriktionen, dem verfügbaren Transportvolumen und dem Service-Level in Form der Abfahrtshäufigkeit ab. Daher sind andere Modelle notwendig, um die Wettbewerbsfähigkeit neuer intermodaler Transportangebote zu untersuchen. Zur Beherrschung der Komplexität von Planung und Betrieb intermodaler Transportsysteme sind verschiedene Modellierungsansätze möglich. Van Duin/van Ham schlagen hierfür einen „Drei-Ebenen-Modellansatz“ basierend auf der geographischen Ausdehnung des Untersuchungsgebietes vor [VVa98], wie in Abb. 15.2 dargestellt. Für die Bestimmung neuer potenzieller Terminalstandorte wählen sie Methoden des Operations Research (OR), speziell der linearen Optimierung. Für die Kalkulation der Transportkosten und -zeiten neuer Transportrelationen, in ihrer Arbeit insbesondere für den Binnenschifftransport, setzen sie Tabellenkalkulationsprogramme ein. Schließlich verwenden sie Simulationsmodelle für den eigentlichen Terminalbetrieb. Analog zum Vorgehen von van Duin/van Ham wurden im Rahmen der hier beschriebenen Forschungen speziell entwickelte Tabellenkalkulationsprogramme für die Berechnung unterschiedlicher Szenarien trimodaler Transportketten eingesetzt. Die Entwicklung dieser Kalkulationsschemata basierte auf verschiedenen Arbeiten, in denen diese Methode bereits für intermodale Transporte per Schiene und Binnenschiff eingesetzt wurde [Sch71, Kre02b, APR00, Tra02, LUB97, VDo02]
15 Modellierung und Analyse trimodaler Seehafenhinterlandverkehre Dynamic Actors Network Analysis
387
Transport Modeling
European level Linear Programming Model
OR-Model
National level Costs Analysis Model
Spreadsheet-Model
Regional level Simulation Model
Simulation-Model
Operational level
Abb. 15.2 3-Ebenen-Modellierungsansatz von van Duin/van Ham [VVa98]
sowie eigenen Untersuchungen. Der in dieser Arbeit erstmals realisierte Aspekt ist die umfassende Berücksichtigung der vorhandenen Infrastrukturrestriktionen aller Verkehrsnetze in diesen Kalkulationsschemata durch die Verknüpfung mit entsprechend angepassten geographischen Informationssystemen.
15.3.1
Geographische Informationssysteme (GIS) für intermodale Transporte
Der Einsatz geographischer Informationssysteme bei der Modellierung intermodaler Transporte ist an sich nicht neu. Eines der ersten Software-Tools, das eine graphische Analyse multimodaler Transportnetze ermöglichte war das Tool STAN (Strategic planning of freight transportation; an interactive graphic system) [CF190]. Es besteht aus mehreren Modulen, von denen der network editor zur Beschreibung des zu Grunde liegenden multimodalen Netzes dient, das aus Knoten und Kanten besteht. Die Transportströme über dieses Netzwerk werden anhand unterschiedlicher zu transportierender Güter und genutzter Transportmodi dargestellt. Dabei kann der Begriff mode, wie ihn Crainic verwendet, am ehesten mit Transportmittel übersetzt werden, da er definiert: „A mode is a means of transportation that has its own characteristics, such as vehicle type and capacity, as well as a specific cost function.“3 Weitere Untersuchungen, die GIS für die Modellierung intermodaler Transporte einsetzen, stamen von [SPe00, SWa00]. Eine interessante Weiterentwicklung wurde mit NODUS realisiert, einem ebenfalls GIS-basierten Software-Tool. NODUS basiert auf dem Prinzip des „virtuellen Netzwerkes“ (virtual network), wie es in STAN durch die Definition verschiedener 3
Übersetzung: „Ein Modus ist ein Transportmittel mit eigenen Charakteristiken, wie Fahrzeugtyp und Kapazität, sowie einer spezifischen Kostenfunktion.“
388
F. Schwarz
modes, also unterschiedlicher Transportmittel innerhalb eines Verkehrsträgers, bereits angewandt wurde. Die wesentliche Weiterentwicklung gegenüber STAN besteht in einer strukturierten Notation und automatischen Generierung der virtuellen Verbindungen, wodurch die Beherrschung sehr großer Netzwerke ermöglicht wird [JBD99]. Die Verwendung eines virtuellen Netzwerkes beruht auf der Erkenntnis, dass der Einsatz verschiedener Transportmittel innerhalb des gleichen Verkehrsträgers auf der vorhandenen Infrastruktur möglich ist, bspw. der Einsatz großer oder kleiner Schiffe auf dem gleichen Fluss. Daher erfolgt in NODUS, anders als in STAN, eine strikte Trennung zwischen Verkehrsträger (transport mode) und Transportmittel (transport means). Ferner werden auch solche Prozesse modelliert, die üblicherweise nicht in einer geographischen Darstellung erscheinen, wie z. B. Be- oder Entladung und Umschlag [JBe01]. NODUS ermöglicht eine Optimierung der generalisierten totalen Kosten eines intermodalen Transportnetzes auf Basis der minimalen Transportkosten je Relation. Die Annahme, dass die totalen Kosten als lineare Funktion der Entfernung berechnet werden können, ist eine notwendige Bedingung für diesen Modellierungsansatz. Ebenso wird angenommen, dass alle Kosten proportional zur Transportmenge sind. Die Koeffizienten der Kostenfunktionen hingegen können hinsichtlich der Parameter (Betriebszeiten, Stundenlöhne, Energiekosten, Kapitalkosten, Geschwindigkeit, Versicherungen, relative Kosten der Qualitätsattribute eines Transportmittels etc.) beliebig komplex sein [JBD99]. Insbesondere die Annahme der Proportionalität der Kosten zur Transportmenge ist bei detaillierter Betrachtung einzelner Relationen, dem Ziel der hier erläuterten Forschungen, nicht befriedigend, da abhängig von der Kapazität der Transportmittel und dem gewünschten Servicelevel sprung-fixe Kosten auftreten, bspw. beim Einsatz einer zusätzlichen Zuggarnitur zur Erhöhung der Abfahrtsfrequenz, die bei gleich bleibendem Transportvolumen zu höheren Transportkosten je Ladeeinheit führen. Die oben genannte Auflistung der Parameter der Kostenfunktionen zeigt ferner, dass die Kostenfunktionen und ihre Einflussgrößen an sich bereits ein eigenes komplexes Untersuchungsfeld darstellen. Zur Berechnung der mit neuen intermodalen Transportangeboten verbundenen Produktionskosten werden, neben Kosteninformationen zu den eingesetzten Transportmitteln, auch Informationen zur vorhandenen Infrastruktur und ihre Attribute benötigt, um bspw. den maximal möglichen Binnenschifftyp oder die maximale Zuglänge auf einer bestimmten Relation bestimmen zu können. Diese Informationen stehen bisher in keinem geographischen Informationssystem für die Modellierung intermodaler Transporte zur Verfügung. Die Definition und Implementierung solcher Attribute ist daher ein neuer Modellierungsansatz, der nachfolgend erläutert wird. Die Bedeutung dieser Infrastrukturinformationen sei am Beispiel der Ladekapazität der für Containertransport auf europäischen Binnenwasserstraßen einsetzbaren Binnenschiffstypen dargestellt. Diese differiert in Abhängigkeit der verfügbaren Wasserstraßeninfrastruktur um den Faktor zehn, von 48 TEU bis hin zu 480 TEU (vgl. Abb. 15.3). Es ist leicht nachvollziehbar, dass die mit dem Binnenschifftransport verbundenen Kosten des Containertransports in Abhängigkeit des einsetzbaren Schiffstyps deutliche Unterschiede aufweisen.
15 Modellierung und Analyse trimodaler Seehafenhinterlandverkehre
389
Johann Welker, L = 80,00 m x B = 9,50 m
Europaschiff, L = 85,00 m x B = 9,50 m
GMS, L = 100,00 m x B = 9,50 m
GMS, L = 100,00 m x B = 11,40 m
GMS, L = 110,00 m x B = 11,40 m
Jowi, L = 135,00 m x B = 16,84 m
Abb. 15.3 Ladekapazitäten von Binnenschiffen für den Containertransport [Sch06]
Vor der Definition der notwendigen Infrastrukturinformationen wird nachfolgend zunächst der generelle Modellierungsansatz erläutert.
15.3.2
Neuer Modellierungsansatz für intermodale Transporte
Die Analyse der Wettbewerbsfähigkeit trimodaler Transportketten basiert auf dem nachfolgend in Abb. 15.4 dargestellten Vorgehen, das aus der zuvor vorgestellten allgemeinen Vorgehensweise für die Modellierung von Transportnetzen abgeleitet wurde. Die Modifikationen betreffen insbesondere eine stärkere Berücksichtigung der mit intermodalen Transporten verbundenen Prozesse und deren Interdependenzen mit der verfügbaren Verkehrsinfrastruktur. Im ersten Schritt ist das verfügbare Transportvolumen für die untersuchten Transportrelationen zu bestimmen, die sog. „Origin-Destination-Matrix“ (O-DMatrix). Anschließend sind die zu untersuchenden Transportkettenalternativen zu
390
F. Schwarz
Prozesskettenelemente:
1.Aufkommensdaten (O-D-Matrix) für betrachtetes Einzugsgebiet
Hauptlauf Schiene Hauptlauf Schiff Hauptlauf Straße
2.Intermodales Routing und Auswahl der Transportkettenalternativen Prozessabfolge
4.Umlegung Volumen/Prozess
Vor-/Nachlauf Straße
Prozess Kosten und -zeiten
Wasserstraßennetz
der einzelnen Netze
3.Ableitung der Prozessketten
Umschlag (Interne) Umfuhren
Schienennetz Terminals zur Verknüpfung
5.Festlegung der Tranportmittel (Kapazitäten, Umlaufzeiten,Frequenzen)
GIS Beschränkungen durch Infrastruktur
Wegekosten
6.Berechnung der kosten und Zeiten
Straßennetz
Terminals
7.Bewertung
Abb. 15.4 Vorgehensweise für die Modellierung trimodaler Transportketten
definieren, wofür bereits Informationen über die verfügbare Infrastruktur notwendig sind, insbesondere zu Standorten und Eigenschaften von Terminals zur Verknüpfung unterschiedlicher Transportmittel. Für die definierten Transportketten sind im dritten Schritt die Prozessketten abzuleiten, wobei die als Prozesskettenelemente hinterlegten Referenzprozesse für intermodale Transporte zum Einsatz kommen. Für jeden Prozess können dann die relevanten Transport- bzw. Umschlagvolumina bestimmt werden. In Schritt 5, der eigentlichen Planung des Transportangebotes, werden die einzusetzenden Transportmittel einschließlich Ladekapazität, Umlaufzeiten und Abfahrtsfrequenzen für verschiedene Szenarien je Transportkettenalternative bestimmt. Die hieraus resultierenden Transportkosten und -zeiten werden in Schritt 6 ermittelt. Es folgt die Bewertung der Szenarien und Transportkettenalternativen und ggf. deren Neudefinition. Speziell für die Schritte 5 und 6 ist dabei die Kombination von Infrastruktur- und Prozessinformationen notwendig, um belastbare Planungsergebnisse zu erhalten, da beide Aspekte immensen Einfluss auf die Ladekapazität und Umlaufzeiten der Transportmittel haben: So hängt die Ladekapazität im Schienenverkehr zum Einen von der maximalen Zuglänge und somit den verfügbaren Gleislängen auf Ausweichgleisen ab, auf denen Güterzüge üblicherweise halten müssen um schnellere Personenzüge passieren zu lassen, zum Anderen vom maximalen Zuggewicht, das von den auf einer Strecke anzutreffenden maximalen Steigungen im Zusammenspiel mit der Traktionsleistung der eingesetzten Lok bestimmt wird, wobei für einige Relationen absolute Obergrenzen existieren. Die Umlaufzeiten der eingesetzten Züge wiederum werden wesentlich von den Be- und Entladeprozessen sowie den sonstigen „Totzeiten“ (z. B. Rangieren, Bremsprüfung, etc.) in den Terminals mitbestimmt. Ebenso treten Fälle auf, bei denen die Infrastruktur, z. B. Ladegleise in Terminals des Schienenverkehrs die keine Aufnahme von Ganzzügen (bis 750 m) ermöglichen, zu neuen Prozessen führen, in diesem Fall das Trennen und Rangieren des Zuges um den Be- bzw. Entladeprozess durchführen zu können. Ein anderes Beispiel stellt das Umkuppeln von elektrischer Traktion, üblich für den Langstreckentransport im
15 Modellierung und Analyse trimodaler Seehafenhinterlandverkehre
391
Tabelle 15.1 Notwendige Infrastrukturinformationen für intermodale Schienen- und Binnenschifftransporte Schienennetz
Binnenwasserstraßen
Charakteristika der Infrastruktur:
Charakteristika der Infrastruktur:
Länge des Streckenabschnittes
Länge des Streckenabschnittes
Lichtraumprofil
Fahrrinnentiefe und -breite
Spurweite
Abladetiefe
Elektrifizierung
Lage der Brücken
Zugsicherungssystem
Maximale Brückendurchfahrtshöhe und -breite
Maximale Steigung
Lage der Schleusen
Kodifizierung für den KV4
Maximale Schleusenlänge und -breite
Streckenklasse
5
Betriebliche Charakteristika:
Betriebliche Charakteristika:
Infrastrukturbetreiber
Durchschnittliche Geschwindigkeit
Maximale Geschwindigkeit
Maximal zulässige Geschwindigkeit
Betriebssprache
Klassifizierung der Wasserstraße6
Maximale Zuglänge
Maximal zulässige Länge und Breite der Binnenschiffe Maximal zulässiger Tiefgang Benutzungsgebühren7
Schienengüterverkehr, auf Dieseltraktion vor der Einfahrt in den Terminal dar, da die meisten Terminals sowie häufig auch die Zufahrtsstrecken zum Terminal nicht elektrifiziert sind. Diese Beispiele verdeutlichen, dass nur eine Kombination von detaillierter Prozessanalyse und Infrastrukturinformationen eine detaillierte, verlässliche Planung neuer intermodaler Transportangebote ermöglicht.7Die notwendigen Prozesse sind dabei häufig unmittelbar aus den Informationen über die verfügbare Infrastruktur abzuleiten: So ist es bspw. eindeutig definierbar, dass für das Be- und Entladen eines
4
5
6
7
Auf Grund der unterschiedlichen Lichtraumprofile in Europa wurde für den Kombinierten Verkehr (KV) ein Kodifizierungssystem entwickelt, das die Bestimmung ermöglicht ob eine Ladeeinheit auf einem Standardwaggon auf einer bestimmten Relation transportiert werden kann. Die Streckenklasse stellt einen Kombinationswert dar aus der maximalen Achslast sowie der maximalen Meterlast eines Eisenbahnwaggons. Das Europäische Klassifizierungssystem für Binnenwasserstraßen erlaubt eine Einschätzung erlaubter Binnenschiffstypen; zahlreiche Ausnahmeregelungen behindern jedoch seine Einsatzmöglichkeiten bei der Planung intermodaler Transporte. Für die meisten Kanäle und Flüsse in Europa müssen Wegegebühren bezahlt werden, während die großen, internationalen Flüsse wie Rhein und Donau abgabenfrei genutzt werden können.
392
F. Schwarz
600 m langen Zuges in einem Terminal mit nur 400 m Ladegleislänge zunächst ein Teilen des Zuges mit allen damit verbundenen Prozessen erforderlich ist. Aufbauend auf diesen Erkenntnissen, und basierend auf einer detaillierten Prozessanalyse bei intermodalen Seehafenhinterlandverkehren,wurden die notwendigen Infrastrukturinformationen für die verschiedenen Verkehrsträger und die Terminals definiert und – soweit möglich – rechnergestützt aufbereitet. Die Definitionen sind in Tabellen 15.1 und 15.2 dargestellt. Zusätzlich zu den notwendigen Informationen wurden wünschenswerte Infrastrukturattribute definiert, bspw. Öffnungszeiten von Schleusen oder Terminals, die zukünftig eine noch genauere Planung intermodaler Transportangebote ermöglichen würden, im vorliegenden Modell aus Gründen der Komplexitätsreduzierung aber noch nicht berücksichtigt sind. Eine komplette Übersicht sowie die Erläuterung zur Auswahl der jeweiligen Attribute ist in [Sch06] gegeben. Diese Infrastrukturinformationen konnten für das Binnenwasserstraßennetz sowie die intermodalen Terminals in Deutschland, Ungarn und Österreich, in denen das hier betrachtete Untersuchungsgebiet lag, erfolgreich erhoben werden. Dies erfolgte weitgehend manuell, unterstützt durch den Versand eines Fragebogens an die Terminalbetreiber und den direkten Kontakt mit der deutschen Wasser- und Schifffahrtsverwaltung (WSV). Ein solches Vorgehen war nur dank der relativ geringen 8
Tabelle 15.2 Notwendige Infrastrukturinformationen für intermodale Terminals Charakteristika der Infrastruktur Straße
Straße, PLZ, Stadt, Land
Schiene
Schienenanschluss (ja/nein) Linien- oder Kopfterminal Elektrifizierung des Zugangsgleis Entfernung zum nächsten Bahnhof Name des nächstgelegenen Bahnhofs
Binnenwasserstraße
Name der Wasserstraße (sofern Anschluss) Kilometrierung
Trimodale Integration
Trimodaler Umschlag möglich (ja/nein) Name des nächstgelegenen Schienen-/Binnenschiffterminals Entfernung zum nächstgelegenen Schienen-/Binnenschiffterminal Öffentliche Straßen auf dem Weg zum nächstgelegenen Terminal (ja/nein)
Technische Charakteristika Maximale Länge der Ladegleise Anzahl der Ladegleise Maximal möglicher Schiffstyp Maximale Auskragung über Wasser Umschlagbare Ladeeinheiten
15 Modellierung und Analyse trimodaler Seehafenhinterlandverkehre
393
Ausdehnung des relevanten Wasserstraßennetzes bzw. der relativ geringen Anzahl Terminals möglich. Dabei wurden detaillierte Informationen über 4.785 km Binnenwasserstraßen, unterteilt in über 500 Abschnitte, und ca. 100 intermodale Terminals erfasst. Diese Daten wurden in DISMOD integriert, ein Software-Tool für die strategische Distributions- und Transportnetzplanung, das in der Abteilung Verkehrslogistik des Fraunhofer IML entwickelt wurde und bei [Vas98] beschrieben ist. Für das Schienennetz hingegen konnte auf Grund der mangelnden Datenverfügbarkeit kein entsprechendes Datengerüst aufgestellt werden. Trotz der Verpflichtung der Infrastrukturbetreiber durch EU-Richtlinien zur Veröffentlichung eines Infrastrukturregisters wird dieses nicht in elektronischem Format weitergegeben. Existierende Angebote, die diese Information im Internet zugänglich machen, lassen sowohl hinsichtlich wichtiger Funktionalitäten als auch bei der Genauigkeit und Vollständigkeit der Informationen zu wünschen übrig. Für die anschließend vorgestellten Szenariorechnungen wurden daher die notwendigen Infrastrukturinformationen zeitaufwändig aus verschiedenen Quellen manuell, in einem durchaus fehleranfälligen Prozess, zusammengetragen. Die dabei gemachten Erfahrungen unterstreichen die Notwendigkeit, diese Informationen in rechnergestützter, aktueller und zuverlässiger Form zur Verfügung zu haben. Die Kombination der Infrastruktur- und Prozessdaten wurde in Form von Kalkulationsschemata auf der Basis von Tabellenkalkulationsprogrammen realisiert. Der Aufbau folgt dabei den wesentlichen Parametern logistischer Prozesse, wie sie im Prozesskettenparadigma nach Kuhn definiert sind [Kun95]. Diese betreffen die Systemlast, Prozesse, Strukturen und Ressourcen. Als erste Inputgröße dient die Systemlast sowie die für das jeweilige Szenario gewünschte Abfahrtsfrequenz. Die Strukturen, hier insbesondere die verfügbare Infrastruktur und ihre Restriktionen, werden auf einem separaten Blatt „Infrastruktur“ erfasst. Auf dem Blatt „Prozesse“ werden die Transportkosten und -zeiten auf Basis der Infrastrukturinformationen und der Konfiguration des Transportmittels berechnet. Für letzteres steht ein eigenes Blatt „Transportmittel“ zur Verfügung, das die Auswahl eines für die gewählte Relation, Transportvolumen und Abfahrtsfrequenz geeigneten Transportmittels als wesentlicher Ressource des Transportprozesses unterstützt. Die wesentlichen Leistungskennzahlen werden schließlich auf einem Blatt „Kennzahlen“ zusammengefasst. Zusätzlich wird strukturiertes Expertenwissen als Lokomotiv-, Waggon- und Binnenschiffdatei verfügbar gemacht, in denen jeweils typische Transportmittel mit allen relevanten technischen Informationen und Kostensätzen hinterlegt sind. Weitere relevante Berechnungsparameter, wie Energieverbräuche und -kosten, Personalkosten, Rangier- und Umschlagzeiten etc., sind ebenfalls hinterlegt. Damit entspricht die gewählte Struktur und Umsetzung der Kalkulationsschemata dem Anspruch, dass diese auch von Nutzern ohne besondere Kenntnisse zu einzelnen Verkehrsträgern für die Berechnung neuer intermodaler Transportrelationen eingesetzt werden können. Das Modell wurde erfolgreich eingesetzt, um umfangreiche Szenarien trimodaler Transportketten zu berechnen. Ausgewählte Ergebnisse werden nachfolgend vorgestellt.
394
15.4
F. Schwarz
Ergebnisse der Szenarienrechnungen
Für die Untersuchung der Wettbewerbsfähigkeit trimodaler Transportketten wurde auf Grund der Auswertung von vorherigen Studien und Expertengesprächen ein Untersuchungsgebiet definiert, das Süddeutschland, Österreich und Ungarn umfasst. Über 90% des Containervolumens aus dieser Region werden über die vier größten europäischen Containerseehäfen Antwerpen, Rotterdam, Bremerhaven und Hamburg transportiert [MGP+01]. Die Region ist somit eindeutig als Hinterland dieser Häfen zu klassifizieren. Die Häfen gehören zur sog. „Nord-Range“ der europäischen Seehäfen, die von Hamburg bis Le Havre reicht [NWi99]. Die Auswahl eines dieser vier großen Containerseehäfen für einen bestimmten Containertransport hängt naturgemäß nicht nur von den Hinterlandverbindungen ab, sondern insbesondere vom Bestimmungsort des Containers und den Abfahrtsfrequenzen und Transportzeiten, die in den jeweiligen Häfen zu diesem Ziel angeboten werden. Dabei können Transportzeitunterschiede von bis zu 3 Tagen auftreten, je nachdem in welcher Reihenfolge die Häfen von einem bestimmten Dienst angelaufen werden [Not02, UIS98]. Potenzielle trimodale Transportketten von diesen Seehäfen ins Untersuchungsgebiet zeigt Abb. 15.1: Von den „Westhäfen“ Antwerpen und Rotterdam wird der Container per Binnenschiff auf dem Rhein bis zu einem Terminal in einer Region ca. zwischen Duisburg und Mannheim transportiert, dort auf die Schiene umgeschlagen und per Zug ins Untersuchungsgebiet weiter transportiert. Für die „Nordhäfen“ Hamburg und Bremerhaven dreht sich die Reihenfolge des Transportmitteleinsatzes um: Zunächst auf der Schiene nach Süddeutschland, wo der Umschlag und anschließende Binnenschifftransport auf der Donau statt findet. Der jeweilige Nachlauf per Lkw zum Endempfänger ist nicht dargestellt. Eine ausführliche Analyse des Modal-Split, also der Aufteilung der Transportvolumina auf die Verkehrsträger, basierend auf Daten des Hafens Antwerpen sowie einer großen Containerreederei, zeigte für relevante Relationen des Untersuchungsgebiets einen hohen Anteil des Schienentransports. So erreicht die Schiene auf der Relation Antwerpen–München einen Anteil von 68%, für Verkehre von Antwerpen nach Österreich sogar von 88%. Für die „Nordhäfen“ konnte sogar noch ein höherer Anteil der Schiene am Modal-Split für das Untersuchungsgebiet identifiziert werden. Abbildung 15.5 verdeutlicht, dass südlich einer Linie etwa in der Höhe von Frankfurt der Schienentransport Anteile von bis zu 100% erreicht. Der Vergleich der Wettbewerbsfähigkeit trimodaler Transportketten erfolgte daher gegenüber dem direkten Schienentransport. In diesem Beitrag werden Ergebnisse der Szenarienrechnungen für die Relation Antwerpen–München erläutert. Auf Basis der Daten des Hafens Antwerpen wurde für diese Relation ein Transportvolumen von 14.738 TEU pro Jahr identifiziert, davon 9.858 TEU im Import und 4.880 TEU im Export. Die Hauptunterschiede der untersuchten Szenarien betreffen: • Standort des Terminals für den Umschlag Binnenschiff-Schiene (1. Duisburg – DIT; 2. Duisburg – DeCeTe; 3. Köln; 4. Mainz; 5. Mannheim),
15 Modellierung und Analyse trimodaler Seehafenhinterlandverkehre
395
Abb. 15.5 Modal-Split-Analyse für die Nordhäfen (Hamburg und Bremerhaven)
• Umschlagtechnik für den Umschlag Binnenschiff-Schiene (1. Direktumschlag; 2. synchroner Umschlag mit Umfuhr zwischen Binnenschiff- und Schienenterminal, 3. Umschlag mit Zwischenlagerung), • Abfahrtsfrequenz des Transportangebotes (3 oder 5 Abfahrten pro Woche), • Konfiguration des Transportmittels (Binnenschifftypen und Zuglängen). Die Ergebnisse der Berechnungen sind in Abb. 15.6 dargestellt. Diese ist in zwei Bereiche unterteilt und stellt auf der linken Seite die Ergebnisse für Szenarien mit 3 Abfahrten pro Woche, auf der rechten Seite Ergebnisse für Szenarien
396
F. Schwarz
Abb. 15.6 Ergebnisse (€/TEU) für trimodale Transportketten Antwerpen – München
mit 5 Abfahrten pro Woche dar. Die grauen Balken repräsentieren die trimodalen Transportketten, während die schwarzen Balken für den direkten Schienentransport Antwerpen–München stehen. Für beide Bereiche, 3 und 5 Abfahrten pro Woche, findet sich jeweils die Alternative mit dem kürzesten Binnenschifftransport am weitesten links (via DU-DIT = Duisburg Intermodal Terminal). Nach rechts hin steigt der Anteil des Binnenschifftransports, die Relation über Mannheim hat somit den höchsten Anteil. Die grau schraffierten Balken, am weitesten links innerhalb der Szenarien mit 5 Abfahrten/Woche, repräsentieren Sonderfälle, die später näher erläutert werden. Zunächst zeigt die Auswertung für fast alle trimodalen Transportketten niedrigere Transportkosten als für den direkten Schienentransport mit gleicher Abfahrtsfrequenz. Trimodale Transportketten können somit deutliche Kostenvorteile gegenüber dem kombinierten Verkehr Straße-Schiene bieten. In absoluten Zahlen ist die mit 369 >/TEU teuersteVariante, der direkte Schienentransport mit 5 Abfahrten pro Woche, 58% teurer als die günstigste trimodale Variante, der trimodale Transport über Mannheim mit Transportkosten von 233 >/TEU. Die berücksichtigten Kosten umfassen sämtliche Produktionskosten der Transportleistung, wobei diese Kosten ausschließlich auf den Transport der Vollcontainer umgelegt wurden. Die Szenarienberechnungen zeigen ferner den enormen Einfluss des Auslastungsgrads der Transportmittel auf die Transportkosten, speziell im Schienentransport. Dies sei an folgendem Beispiel erläutert: Basierend auf der Tatsache, dass Verlader reguläre, gleichmäßige Transportangebote als Bedingung für die Nutzung intermodaler Transporte angeben [LOG00] basierten die Szenarienrechnungen mit fünf Abfahrten zunächst auf der Annahme täglich fixer Abfahrtszeiten an den fünf Werktagen. Hebt man diese Restriktion auf und erlaubt eine gleichmäßige Verteilung von fünf Abfahrten über die sieben Tage der Woche, was allerdings zu täglich wechselnden Abfahrtszeiten führt, so können bspw. die Alternativen über Köln und Duisburg mit nur einer Zuggarnitur mit einem sehr hohen Auslastungsgrad
15 Modellierung und Analyse trimodaler Seehafenhinterlandverkehre
397
betrieben werden. Für fünf wöchentliche Abfahrten mit festen, täglich gleichen Abfahrtszeiten sind hingegen zwei Zuggarnituren notwendig, da die Umlaufzeit Duisburg–München–Duisburg ca. 30 Stunden beträgt. Der Effekt auf die Transportkosten der trimodalen Transportketten ist in den schraffierten Balken in Abb. 15.6 dargestellt. Sie zeigen eine deutliche Kostenreduktion um bis zu 13,2% gegenüber trimodalen Transportketten mit täglich festen Abfahrtszeiten. Für die Transportketten über Mainz und Mannheim tritt ein solcher Effekt jedoch nicht auf, da bei Rundlaufzeiten Mainz–München–Mainz und Mannheim–München–Mannheim von 21,8 bzw. 17,2 Stunden auf diesen Relationen alle Varianten mit einer Zuggarnitur betrieben werden können. Eine Detaillierung der Kosten und Zeiten des Transports innerhalb der verschiedenen Abschnitte der Transportketten zeigt Abb. 15.7. Abbildung 15.7 verdeutlicht zunächst, dass die Umschlagtechnik im Verhältnis zu den Kosten und Zeiten des Binnenschiff- und Schienentransports nur einen geringen Einfluss auf die Wettbewerbsfähigkeit trimodaler Transportketten hat. Gleichzeitig ist klar erkennbar, dass die Kostenvorteile trimodaler Transportketten mit deutlich längeren Transportzeiten einhergehen. Die kürzeste Transportzeit, aber mit den höchsten Kosten, weist der direkte Schienentransport Antwerpen–München auf. Mit steigendem Anteil Binnenschifftransport sinken die Transportkosten leicht, während die Transportzeiten deutlich ansteigen. Daher ist eine Abwägung zwischen Kostenvorteilen und zeitlichen Nachteilen zu treffen. Zur Unterstützung dieser Abwägung wurde der Wert der in einem TEU transportierten Waren berechnet, für den die Bestandskosten der transportierten Waren während der zusätzlichen Transportzeit der trimodalen Kette genau den realisierbaren Transportkostenvorteilen entsprechen. Für Waren mit höherem Wert ist daher der schnellere Transportweg zu bevorzugen, also der direkte Schienentransport, für Waren mit niedrigerem Wert die günstigere, trimodale Transportkette. Die Ergebnisse dieser Berechnungen zeigt Abb. 15.8.
Abb. 15.7 Vergleich der Transportkosten und -zeiten (Szenarien mit 5 Abfahrten pro Woche)
398
F. Schwarz
Abb. 15.8 Warenwerte für die Gleichwertigkeit der Transportketten
Es zeigt sich, dass für die Szenarien mit festen täglichen Abfahrtszeiten der trimodale Transport über Mainz die höchste Wettbewerbsfähigkeit aufweist und bis zu Warenwerten von 210.000 >/TEU gegenüber dem direkten Schienentransport zu bevorzugen ist. Werden auch Alternativen mit täglich wechselnden Abfahrtszeiten berücksichtigt, die in den schraffierten Balken dargestellt sind, so erreicht die Alternative über Köln sogar noch eine höhere Wettbewerbsfähigkeit. Dies zeigt wiederum die enorme Bedeutung des Auslastungsgrades der Transportmittel, und somit einer guten Umlaufplanung der Transportmittel in intermodalen Transportketten. Leider waren im Rahmen der Forschungen keine gesicherten statistischen Informationen über den Wert der in Containern transportierten Güter verfügbar. Das folgende Beispiel möge daher eine Abschätzung ermöglichen: Nimmt man den Wert eines CD-Spielers mit 100 > an, so beträgt derWarenwert eines vollständig beladenen 40’-High-Cube-Containers 254.333 >, somit 127.166>/TEU.9 Dieser Wert ist deutlich niedriger als der Maximalwert für die Wettbewerbsfähigkeit trimodaler Transportketten. Es ergibt sich die Schlussfolgerung, dass trimodale Transportketten für ein weites Spektrum der in Containern transportierten Güter, bis hin zu relativ hochwertigen Elektronikgütern, wettbewerbsfähig gegenüber dem direkten Schienentransport sind.
15.5
Zusammenfassung und Ausblick
In den hier vorgestellten Untersuchungen wurde ein neuer Ansatz für die Modellierung intermodaler Transporte entwickelt. Er basiert auf der Kombination einer prozessorientierten Betrachtungsweise intermodaler Transportketten mit einem 9
Annahme: Abmessungen des CD-Spielers (inclusive Verpackung): LxBxH = 0,51 cm x 0,34 cm x 0,17 =>, Volume = 0,030 m3; Ladekapazität eines 40’-High Cube-Containers: 76,3 m3.
15 Modellierung und Analyse trimodaler Seehafenhinterlandverkehre
399
speziell entwickelten geographischen Informationssystem (GIS) für intermodale Transporte. Diese Kombination wurde in Form detaillierter Kalkulationsschemata für die Berechnung der Transportkosten und -zeiten neuer intermodaler Transportangebote für die Untersuchung der Wettbewerbsfähigkeit trimodaler Transportketten umgesetzt. Die dabei erfolgte Definition der notwendigen Infrastrukturattribute für die verschiedenen Verkehrsträger (Schienennetz, Binnenwasserstraßen und intermodale Terminals), und die Implementierung dieser Informationen in einem geographischen Informationssystem ermöglicht zukünftig eine wesentlich weitergehende Nutzung von GIS als Wissensbasis für die strategisch-taktische Planung intermodaler Transporte. Das Modell wurde erfolgreich in umfangreichen Szenarienrechnungen zur Untersuchung der Wettbewerbsfähigkeit trimodaler Transportketten eingesetzt. Die Ergebnisse zeigen dass trimodale Transportketten für einen großen Anteil der in Containern transportierten Güter wettbewerbsfähig zu alternativen Transportangeboten sind. Für weitere Forschungen auf diesem Gebiet können drei relevante Themen identifiziert werden: Zunächst sollte das hier entwickelte Modell zur Berechnung weiterer Szenarien trimodaler Transportketten genutzt werden. Zielsetzung sollte hierbei u. a. sein den Einfluss der Vielzahl der berücksichtigen Parameter im Rahmen einer Sensitivitätsanalyse zu quantifizieren, um möglichst eine Reduzierung der Parameter zu erreichen. Hierdurch könnte zum Einen die Komplexität des Modells reduziert werden, zum Anderen könnte es die Formularisierung der zu Grunde liegenden Kostenfunktion ermöglichen. Dies wiederum würde über die Anpassung existierender Methoden aus dem Gebiet des Operations Research die Untersuchung komplexerer Netzwerkstrukturen statt einzelner Transportrelationen ermöglichen. Ferner wäre eine Untersuchung der hier vorgestellten Szenarien auf ihre operative Umsetzbarkeit, bspw. mit den Mitteln der Simulation interessant, insbesondere im Hinblick auf Zeitreserven in der Umlaufplanung der Transportmittel sowie ggf. die jeweilige Last in den Terminals durch Überschneidung mit anderen Transportströmen.
Literatur [Abe03] Aberle G (2003) Sustainability of transport – the role of modal split. Presented at the 16th Scientific Symposium of the European Conference of Ministers of Transport (CEMT), Budapest [APR00] APRICOT (Advanced Pilot Trimodal Transport Chains for the Corridors West – South/ South-East Europe of Combined Traffic) (2000) Final Report for Publication, 4th Framework Program of the European Commission, Transport RTD Program [BCV98] Buchholz J, Clausen U, Vastag A (1998) Handbuch der Verkehrslogistik. Springer [CBo92] Clausen U, van Bonn B (1992) Rationelle Verkehrsorganisation durch rechnergestützte Planungsverfahren. Z Logistik 13(3):60–62 [CFl90] Crainic TG, Florian M (1990) Strategic planning of freight transportation: STAN, an interactive-graphic system. Transportation research record 1283, Washington DC, S 97–124
400
F. Schwarz
[Cra00] Crainic TG (2000) Service network design in freight transportation. Eur J Oper Res 122:272–288 [DSB04] Destatis Statistisches Bundesamt (2004) Fachserie 8/Reihe 4: Verkehr Binnenschifffahrt 2004, S 12 [ECO96] European Commission (1996) Directorate-General Transport Transport Research – APAS – Transport strategic modeling. Office for the Official Publications of the European communities, Luxembourg [JBD99] Jourquin B, Beuthe M, Demilie CL (1999) Freight bundling network models: Methodology and application. Transp Plann Technol 2:157–177 [JBe01] Jourquin B, Beuthe M (2001) Multimodal freight Network analyses with NODUS, a survey of several applications. Transp Plann Technol 4:1–30 [Kre02a] Kreutzberger E (2002a) Strategies to achieve a quality leap in intermodal rail or barge transport. Presented at FTAM conference, Delft, 23–24. May [Kre02b] Kreutzberger E (2002b) The impacts of innovative technical concepts for load unit exchange on the design of intermodal freight networks. In: Freight Transport Automation and Multimodality (FTAM), Conference Proceedings 2, Delft, NL, 23.–24. May [Kun95] Kuhn A (1995) Prozessketten in der Logistik. Verlag Praxiswissen, Dortmund [LOG00] LOGIQ – Final Report for Publication (2000) Contract No: IN-97-SC.2237, 4th Research Framework Program of the European Commission [LUB97] LUB Consulting GmbH, Dornier System Consult GmbH (1997) Handbuch Güterverkehr Binnenschifffahrt, Forschungs- und Entwicklungsvorhaben FE-Nr. 30288/95 for the Bundesministerium für Verkehr, Dresden/Friedrichshafen [MGP+01] Mann H-U, Gresser K, Platz H et al (2001) Verkehrsprognose 2015 für die Bundesverkehrswegeplanung Im Auftrag des Bundesministeriums für Verkehr, Bau- und Wohnungswesen (FE-Nr. 96578/1999), München Freiburg Essen [Not02] Notteboom T (2002) The interdependence between liner shipping networks and intermodal networks. Paper for IAME Panama 2002: Maritime Economics: setting the foundations for port and shipping policies, Panama City, Panama, 13.–15. November [NWi99] Notteboom T, Winkelmans W (1999) Spatial (De)concentration of container flows: The development of load centre ports and inland hubs in Europe. In: Meersman H, van de Voorde E, Winkelmans W (Hrsg) Proceedings of the 8th World Conference of Transport Research, vol 1: Transport Modes and Systems, Pergamon, Amsterdam, S 57–71 [Sch01] Schuh G (2001) Trimodalität schafft Wachstum. Int Verkehrswesen 53(10):489 [Sch06] Schwarz F (2006) Analyse und Modellierung trimodaler Transportketten für Seehafenhinterlandverkehre. In: Clausen U (Hrsg) Logistik, Verkehr und Umwelt. Verlag Praxiswissen, Dortmund [Sch71] Schuh G (1971) Die Aufgabenteilung im binnenländischen Seehafenverkehr mit Containern – ein Leistungs- und Kostenvergleich, Buchreihe des Instituts für Verkehrswissenschaft an der Universität zu Köln Nr 26, Handelsblatt GmbH Düsseldorf [Sei99] Seidelmann C (1999) Kombinierter Verkehr: Infrastruktur in Europa – Defizite und Handlungsbedarf, Beitrag zum Seminar Die Zukunft des Kombinierten Verkehrs – was ist zu tun? In: Schriftenreihe der Deutschen Verkehrswissenschaftlichen Gesellschaft (DVWG), B 223 [SPe00] Southworth F, Peterson BE (2000) Intermodal and international freight network modeling. Transp Res C 8:147–166 [STM02] Study team ME&P – WSP et al (2002) Review of freight modeling, Report B2- Review of models in Continental Europe and elsewhere. ME&P, June [STR00] STREAMS (Strategic transport research for member states) (2000) Final report for publication, funded by the European Commission under the Transport RTD program of the 4th framework program [SWa00] Standifer G, Walton CM (2000) Development of a GIS model for intermodal freight. Research Report SWUTC/00/167509-1, June [TKr02] Trip JJ, Kreutzberger E (2002) Complex bundling networks and new generation terminals: A synthesis. The Netherlands TRAIL Research School, Delft University Press [Tra02] TransCare AG (2002) TrainCheck, Programm und Benutzerdokumentation, Wiesbaden
15 Modellierung und Analyse trimodaler Seehafenhinterlandverkehre
401
[UIS98] Uniconsult/ISL (1998) Attraktivitätssteigerung der deutschen Seehäfen durch Verbesserung der Hinterlandanbindung, Schlussbericht. Studie im Auftrag des Bundesministeriums für Verkehr (BMV), FE-Nummer 96515/97, Hamburg [UNE01] UN/ECE (2001) Terminology on combined transport, prepared by UN/ECE, ECMT and EC [Vas98] Vastag A (1998) Konzeption und Einsatz eines Verfahrens zur Distributionsstrukturplanung bei intermodalen Transporten. In: Jünemann R (Hrsg) Logistik für die Praxis, Verlag Praxiswissen, Dortmund [VDo02] Via Donau (2002) Donau Transport Entwicklungsgesellschaft mbH. Handbuch Donauschifffahrt. Wien [VVa98] van Duin J, van Ham H (1998) A three-stage modeling approach for the design and organization of intermodal transportation services. In: IEEE Systems Management & Cybernetics, San Diego, USA, 11–14 October, ISBN 0-7803-4778-1, S 4051–4056 [Woi00] Woitschützke CP (2000) Verkehrsgeographie, 2nd edn. Köln
Sachverzeichnis
A Ablaufebene, 86 Aggregationsebene, 82 Akteurseffekt, 83 Akteurskonstellation, 214 Algorithmus, evolutionär, 129, 169, 258, 329 Ansatz, techniksoziologisch, 211 Assistenzsystem, 95, 220, 242 Aufbauebene, 85 B Benchmark, 98, 202, 300 Bewertungssystematik, 80, 268 C Cost Benefit Sharing, 75 CTMC, 37 CTMC-Analyse, 41 D Datenerfassung, 7, 347 DEDS, 31 Depot, 104, 129, 155, 256 Depot-Standortoptimierung, Netzoptimierung, 130 Digraph, 106 Dimensionierung, 24 Dispositionsprozess, 228 Dreieckskonsolidierung, 107 E Effektbewertung, 87 Effekte, qualitativ, 81 Effekte, quantitativ, 81 Entscheidungsunterstützung, 237, 241, 244, 248 Entscheidungsvariable, 106 Ereignisorientierte Simulation, 33 Evolutionsstratgie, 168
F Fahrplanoptimierung, 104 Fahrzeugeinsatzoptimierung, 108 Frachtflusssteuerung, 356 Funktionseinheit, 22 Funktionseinheit, benutzerdefiniert, 29 G Geschäftsprozess, 79, 275, 307 Gestaltungsobjekt, 273 Gestaltungsprozess, 273 Gestaltungsregel, 273 Gestaltungswissen, 281 GVZ, 205, 272 GVZ-Modell, 23 H Hauptlauf, 104, 130, 232, 360, 384 HIT, 36, 46 Hub, 14, 129, 138, 355, 381 I Infinite Server, 44 Information, 4 Informationsgewinnung, 2, 5 Information Sharing, 68 Informationskategorie, 13 K Kapitalbedarf, 304 Kapitalverwendung, 304 Komplexitätsreduktion, 133, 213, 300 Kooperation, 61, 77, 244 Kooperation, unternehmensübergreifend, 75 Kosten-Nutzen-Analyse, 63 Kreislaufwirtschaft, 334 L Leistungsbewertung, 21, 54, 129, 173 Leistungsobjekt, 276, 323, 368
403
404
Sachverzeichnis
Lokales Optimum, 182 Luftfrachtnetz, 358
Prozesskosten, 64, 81, 376 Prozessplanung, 277
M M/M/1, 39 Mehrbedienersystem, 44 Mehrwegsystem, 325 Mehrwegtransportverpackung, 323 Mensch-Maschine-Schnittstelle, 217 Metainformationsschicht, 13 Methodennutzungsmodell, 2, 8 Mobile Ressourcen, 50 Modell, deskriptiv, 19
R Rechnungsstellung, 306 Recycling, 336 Regressionsmodell, 182, 189 Ressourcen, 21, 161, 228, 267, 282, 364, 393 Ressourcenplanung, 264 RFID, 345 Risikoanalyse, 312 Risikomanagement, 166, 312 Risikosteuerung, 312 RSM, 182, 184
N Nachbarschaftssuche, 167 Nachlauf, 130, 232, 384 Nebenbedingung, 156, 197, 257 Neighborhood Search-Verfahren, 137, 339 Nettoumlaufvermögen, 304 Netzqualitat, 135 Netzwerkeffekt, 83 O OPEDo, 200 Operateur, 211 Operations Research, 20, 108, 289, 386, 399 Optima, lokale, 144 Optimierung, 14, 54, 59, 106, 108, 109, 129, 157, 176, 181, 274, 388 Optimierung, linear, 386 Organisationsstruktur, 216, 277 Organisationsstrukturen, 59 OTD-Net, 64 P Partialeffekt, 82 Passive Ressourcen, 49 Pattern Search, 190 Petri-Netze, 41, 55, 200, 340 Pickup-and-Delivery-Problem, 108, 158 Planung, kollaborativ, 60 Planungshorizont, 67, 385 Planungsmethode, 282 Planungsprozess, 272, 282 Potentialklassen, 228, 272 PQN, 24 ProC/B, 21, 331 ProC/B-Modell, 47 ProC/B-Modellierungsumgebung, 36 Processor Sharing, 44 Prozess, 59, 393 Prozesskettenelement, 21 Prozesskettenmodell, 211 Prozesskettenparadigma, 6, 20, 81, 272
S Saving-Algorithmus, 119 SCM-Strategie, 61 Servicegrad, 64, 131, 306 Servicequalität, 133 Simulationsgestützte Prozesskostenrechnung, 301 Simulationsvorgehensmodell, 4 Simulator, 36 Spieltheorie, 91 Standard-Funktionseinheit, 29 Standardprozess, 362 Sternoptimierung, 121 Steuerung von Supply Chains, 60 Strafkosten, 134 Strategie, konventionell, 71 Struktur, 393 Suchraum, 129, 167, 181 Supply Chain, 59, 76, 297, 347 Supply Chain Finance, 301 Supply Chain Management, 303 Systemansatz, soziotechnisch, 212 Systemlast, 12, 254, 277, 301, 329, 344, 367, 393 Systemlastgenerator, 370 Systemperspektive, 215 T Taxonomie, 8, 243 Taxonomie für Erhebungsmethoden, 8 Taxonomie für statistische Methoden, 8 Termintreue, 70, 256, 277 Tourenplan, 155 Tourenplanung, 130, 256 Transport, intermodal, 389 Transportkette, trimodale, 381 Transportkosten, 132, 370, 386 Transportnetz, 103, 130 Transportnetz, intermodal, 383 Traveling Salesman Problem, 108, 153
Sachverzeichnis V V&V, 6 Vehicle Routing Problem, 108, 111, 153, 256, 329 Verkehre, paarige, 105 Visualisierungsverfahren, 10 Vorgehensmodell, prozessorientiert, 6 W Warteschlangennetze, 55 Wechselbrücke, 102
405 Wertschöpfungstiefe, 76 Wirtschaftlichkeitskriterien, 89 Workbench, 271 Z Zeitfenster, 104, 122, 156, 257, 367 Zielfunktion, 31, 115, 156, 181 Zustandsverteilung, stationär, 43