Supply Chain Management und Logistik Optimierung, Simulation, Decision Support
Hans-Otto Gçnther ´ Dirk C. Mattfeld Leena Suhl (Herausgeber)
Supply Chain Management und Logistik Optimierung, Simulation, Decision Support Mit 140 Abbildungen und 84 Tabellen
Physica-Verlag Ein Unternehmen von Springer
Professor Dr. Hans-Otto Gçnther Technische Universitåt Berlin Produktionsmanagement Wilmersdorfer Straûe 148 10585 Berlin
[email protected] Professor Dr. Dirk C. Mattfeld Technische Universitåt Braunschweig Wirtschaftsinformatik Spielmannstraûe 8 38106 Braunschweig
[email protected] Professor Dr. Leena Suhl Universitåt Paderborn Wirtschaftsinformatik Warburger Straûe 100 33098 Paderborn
[email protected]
ISBN 3-7908-1576-4 Physica-Verlag Heidelberg Bibliografische Information Der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet çber
abrufbar. Dieses Werk ist urheberrechtlich geschçtzt. Die dadurch begrçndeten Rechte, insbesondere die der Ûbersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfåltigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfåltigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulåssig. Sie ist grundsåtzlich vergçtungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Physica-Verlag ist ein Unternehmen von Springer Science+Business Media GmbH springer.de ° Physica-Verlag Heidelberg 2005 Printed in Germany Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wåren und daher von jedermann benutzt werden dçrften. Umschlaggestaltung: Erich Kirchner, Heidelberg SPIN 11378112
42/3153-5 4 3 2 1 0 ± Gedruckt auf såurefreiem Papier
Vorwort Der vorliegende Tagungsband zeigt Potenziale und Synergien zur Nutzung quantitativer Methoden im Supply Chain Management und in der Logistik auf. Die Beiträge wurden im Rahmen der gemeinsamen Tagung der drei Arbeitsgruppen Supply Chain Management, Logistik und Verkehr sowie Wirtschaftsinformatik der Gesellschaft für Operations Research (GOR) in Paderborn am 22.-23.04.2005 vorgetragen. Im Fokus stehen Themen, die aktuelle Entwicklungen in Forschung und Praxis zur Integration der Gebiete aller drei Arbeitsgruppen aufzeigen. Innerhalb moderner Informations- und Kommunikationssysteme für das Supply Chain Management und die Logistik stehen heute große Mengen an digitalen, strukturierten Daten zur Verfügung, die eine hervorragende Basis für den Einsatz quantitativer Methoden bei der Entscheidungsunterstützung bilden. Durch State-of-the-Art-Methoden des Operations Research können große Datenbestände analysiert werden, um betriebliche Entscheidungen optimal zu unterstützen. Mit Technologien der Wirtschaftsinformatik werden die Ergebnisse nahtlos in Geschäftsprozesse eines Unternehmens oder einer Lieferkette eingebunden. Durch die rasante technologische Entwicklung ist der praktische Einsatz von Operations Research-Verfahren heute nicht nur in der Planungsphase, sondern oft auch in zeitkritischen Situationen während der Ausführung möglich. Die Beiträge sind inhaltlich in vier Gruppen aufgeteilt. Der Bereich Supply Chain Management und Advanced Planning Systems beinhaltet neben einem umfassenden Tutorial zu APS mehrere Beiträge zur strategischen Gestaltung von Supply Chains sowie zur Koordination und Abstimmung zwischen den Partnern einer Lieferkette. Im zweiten Teil Produktionslogistik wird die Entscheidungsunterstützung in der Produktion und Materiallogistik diskutiert. Die Ansätze und Anwendungen reichen von der optimalen Beschaffung, Maschinenbelegung und Verpackung bis hin zur Logistik-Kostenrechnung und umfassen sowohl Auftragsfertigung als auch Prozessindustrie. Zahlreiche Methoden des Operations Research wurden für den Bereich Logistik und Verkehr entwickelt und dort erstmalig eingesetzt. Im Tagungsband finden sich Anwendungen im Flug-, Bahn-, Bus- und Schiffsverkehr, wobei sich mehrere Artikel mit dem aktuellen Thema der Beherrschung von Störungen und Verspätungen im Verkehrsablauf beschäftigen. Der vierte thematische Bereich stellt die methodische Orientierung in den Vordergrund und umfasst Artikel zu Decision Support und ORMethoden im Allgemeinen. Es handelt sich dabei um Modellierungs- und
vi
Vorwort
Lösungstechniken für die mathematische Optimierung, insbesondere Branch-and-Price, Lagrange-Relaxation und Quadratic Assignment, die unter anderem in der Beschaffung, Disposition und Transportplanung angewandt werden. Insgesamt gibt der vorliegende Band einen umfassenden Überblick über aktuelle Forschungsaktivitäten und Anwendungen von Entscheidungsunterstützungssystemen in Supply Chain Management und Logistik. Wir danken allen Autoren, Gutachtern und Lektoren für ihre stets kooperative Mitarbeit im Redaktionsprozess. Ein besonderer Dank gilt Frau Dipl.-Kff. Antonia Knübel, durch deren unermüdlichen Einsatz beim Editieren und Formatieren der Band trotz des unerwartet hohen Umfangs rechtzeitig zur Tagung fertig wurde.
Hans-Otto Günther
Dirk C. Mattfeld
Leena Suhl
Inhaltsverzeichnis Vorwort I.
v
Supply Chain Management und Advanced Planning Systems
HANS-OTTO GÜNTHER Supply Chain Management and Advanced Planning Systems: A Tutorial
3
DAVID BETGE, RAINER LEISTEN Koordinationsansatz für ausgewählte Module von Advanced Planning and Scheduling-Systemen
41
RICHARD PIBERNIK, ERIC SUCKY Master Planning in Supply Chains
69
MARGARETHA PREUSSER, CHRISTIAN ALMEDER, RICHARD F. HARTL, MARKUS KLUG LP Modelling and Simulation of Supply Chain Networks
95
GERALD REINER, WERNER JAMMERNEGG Bewertung unterschiedlicher Beschaffungsstrategien für RiskHedging Supply Chains unter Berücksichtigung intermodaler Transportprozesse
115
HANS-OTTO GÜNTHER, PAUL VAN BEEK, MARTIN GRUNOW, MATTHIAS LÜTKE ENTRUP Coverage of Shelf Life in APS Systems
135
STEFAN NICKEL, SEBASTIAN VELTEN, GILLES WEIMERSKIRCH Strategische Supply-Chain Entscheidungen in der Stahlindustrie - Eine Fallstudie
157
FRANK BLIESENER, STEPHAN KRESS Koordination in einer internen Supply Chain zwischen Produktions- und Vertriebsgesellschaften eines international tätigen Süßwarenherstellers
179
viii
Inhaltsverzeichnis
II. Produktionslogistik CHRISTOPHER SÜRIE Abbildungsfehler in zeitdiskreten Optimierungsmodellen – Auftreten und Maßnahmen zu ihrer Behebung
205
CORD-ULRICH FÜNDELING, NORBERT TRAUTMANN Belegungsplanung einer Make&Pack-Anlage: eine Fallstudie aus der Konsumgüterindustrie
223
STEFFEN LUKESCH Optimierung der Südzucker Rübenlogistik mittels iterativer linearer Programmierung
235
THOMAS SPENGLER, THOMAS VOLLING, STEFAN REHKOPF Zum Einsatz von Chaku-Chaku-Systemen in der Montage konsumentennaher Erzeugnisse – eine Fallstudie bei Rahmenauftragsfertigung
249
MICHAEL JACOB, DANNY MYERS Product and Raw Material Storage at Omnova Solutions: A Case Study
277
CHRISTOPH SIEPERMANN Fallstudie zur Logistikkostenrechnung: Darstellung und vergleichende Analyse verschiedener Verfahren
291
III. Logistik und Verkehr DIRK CHRISTIAN MATTFELD IT-Integration of Terminal Operations Planning
319
SVEN GROTHKLAGS, ULF LORENZ, JAN EHRHOFF Das Reparaturspiel als Formalisierung von Planung unter Zufallseinflüssen, angewendet in der Flugplanung
337
YUFENG GUO, LEENA SUHL, MARKUS P. THIEL A Decision Support System for Airline Crew Management: Crew Scheduling and Rescheduling
359
Inhaltsverzeichnis
ix
INA BAUERDORF Die Auswirkungen von Verspätungen in Verkehrsnetzen – Ansätze einer Analyse auf der Grundlage der Max-Plus Algebra
379
ANDREAS WELS, ANDREAS RICHTER Heuristische Lösungsverfahren für das Probabilistic Traveling Salesman Problem
401
ARMIN FÜGENSCHUH, ALEXANDER MARTIN, CHRISTIAN MEHLERT, PETER STÖVEKEN Ein Planungstool zur Schulzeitstaffelung
419
IV. Decision Support und OR-Methoden MARTIN GRUNOW, HANS-OTTO GÜNTHER, GANG YANG Entwicklung eines interaktiven Scheduling-Support-Systems für verfahrenstechnische Prozesse
439
FRANK KÖLLER, MICHAEL H. BREITNER Optimierung von Warteschlangensystemen in Call Centern auf Basis von Kennzahlenapproximation
461
SIMON GÖRTZ, ANDREAS KLOSE Das kapazitierte Standortproblem: Branch-and-Price und die Wahl der Verzweigungsvariable
485
ANDREAS KLOSE, THOMAS LIDKE Lagrange-Ansätze zur Lösung des Transportproblems mit Fixkosten
507
STEFAN BOCK Solving Complex QAP-Instances by a PC-LAN
531
PETER BUCHHOLZ, DENNIS MÜLLER, AXEL THÜMMLER Optimization of Process Chain Models with Response Surface Methodology and the ProC/B Toolset
553
Entscheidungsunterstützende Systeme in Supply Chain Management und Logistik Paderborn, 22.-23. April 2005
Veranstalter der Tagung sind die Arbeitsgruppen • Logistik und Verkehr • Supply Chain Management • Wirtschaftsinformatik der Gesellschaft für Operations Research e. V. (GOR).
Tagungsleitung Prof. Dr. Leena Suhl, Universität Paderborn Prof. Dr. Hans-Otto Günther, Technische Universität Berlin Prof. Dr. Dirk C. Mattfeld, Technische Universität Braunschweig
Programmkomitee Heinrich Braun (Walldorf) Michael Breitner (Hannover) Wilhelm Dangelmaier (Paderborn) Tore Grünert (Aachen) Hans-Otto Günther (Berlin) Andreas Klose (Wuppertal) Rainer Lasch (Dresden) Dirk Mattfeld (Braunschweig) Herbert Meyr (Wien) Stefan Minner (Mannheim) Erwin Pesch (Siegen) Hartmut Stadtler (Hamburg) Leena Suhl (Paderborn), Vorsitzende Ulrich Thonemann (Münster) Stefan Voß (Hamburg)
I. Supply Chain Management und Advanced Planning Systems
Supply Chain Management and Advanced Planning Systems: A Tutorial Hans-Otto Günther TU Berlin, Produktionsmanagement, Wilmersdorfer Str. 148, 10585 Berlin, [email protected]
Abstract The major intention of this paper is to provide an overview of Advanced Planning Systems (APS) as modern software systems for the support of supply chain management concepts in practice. APS represent comprehensive software packages, which provide capabilities that go far beyond classical MRP II systems. Major characteristics of APS are integral planning of the entire supply chain, application of mathematical models and algorithms, and a hierarchical planning approach, which sub-divides the entire planning problem into a number of smaller sub-problems and assigns them to different levels of a hierarchy. The main body of this paper presents the various modules of APS and illustrates their practical application using the software system SAP® APO® 3.1 as an example.
1
Introduction
Today many industries face an increasing cost burden implied by a greater internationalisation of the markets. Hence, efficient reorganizing of the supply chain provides new opportunities to tackle the ever-rising cost burden and to strengthen one’s own competitive position. In industry supply chain management (SCM) is recognized as a core competitive weapon. This concept, although rooted in the sixties and seventies of the past century with the analysis of multi-level inventory systems, has gained widespread acceptance during the last decade. Meanwhile, there is a rich body of academic literature in this field (see Chen and Paulraj 2004, for a recent overview) and many companies throughout the world have adopted the idea of collaboration between part-
4
H.-O. Günther
ners linked together in a logistics network. Supply chain management, viewed from the academic side, is regarded as a rather multi-disciplinary field of research with contributions from various scientific disciplines, such as management, industrial engineering, logistics, operations research, and business computing. On the practical side, many ideas of collaboration have been created and implemented. Moreover, successful applications of SCM have driven the development of software packages, which aim to support management at all levels comprising functions, such as purchasing, production, and distribution. SCM software basically relies on the application of quantitative methods, which are used to model the underlying complex decision problems considering the limited availability of resources and the need to react on time to customer orders. The past decade has shown an increasing level of interest, research and application of quantitative models and computer based planning systems in supply chain management. Mathematical models and related algorithms form the basis of so-called Advanced Planning Systems (APS) which have gained considerable attention in practice. APS are primarily concerned with supporting decision making activities in supply chain management at the strategic, tactical and operational decision level (cf. Knolmayer et al. 2002). In contrast to classical MRP-systems, APS take into account the limited availability of resources and employ true optimization techniques (cf. Fleischmann et al. 2005). In particular, quantitative methodology has been applied to analyze and support the design of supply networks, the production and distribution of final products to customers, the planning and scheduling of operations and issues arising in scheduling and detailed planning of operations at the shop floor level (cf. Miller 2001; Stadtler and Kilger 2005). The major intention of this paper is to provide an overview of APS as modern software systems for the support of supply chain management concepts in practice. Among the APS available from different software vendors the Advanced Planner and Optimizer (APO®) software package of SAP® was selected to demonstrate the applicability of APS under realistic planning scenarios. The remainder of this paper is organized as follows. In the next section, the planning function within supply chain management concepts is highlighted. In Section 3 the architecture of typical APS is explained. This is followed in Section 4 by an introduction into the various modules of APS. Finally, conclusions are drawn on the development and application of APS in industry.
Supply Chain Management and Advanced Planning Systems: A Tutorial
2
5
Supply Chain Management
In recent years, multi-site production planning has emerged as one of the most challenging problems in industry. As a consequence, the focus in production planning and scheduling is shifting from the management of plant specific operations to a holistic view of the various logistics and production stages, i.e. an approach in which suppliers, production plants, and customers are considered as constituents of an integrated network. This development has led to the concept of supply chain management, which comprises a variety of issues that companies need to consider at the strategic, tactical, and operational levels. A major driving force behind this development lies in the globalization of the world economy which has facilitated the co-operation between different partners working together in world-wide logistics networks. As a result, a huge amount of goods and values are transferred within the economic networks. The corresponding manufacture and distribution of goods has to be managed from a global economic point of view as well as from a company perspective. Hence, considerable cost savings can be gained from optimizing the structure and the operations of complex supply networks linking plants, suppliers, distribution centres and customers. Consequently, in order to improve the performance of the entire logistic chain, more sophisticated planning systems and more effective decision support are needed. According to Chopra and Meindl (2004, p. 4): “A supply chain consists of all parties involved, directly or indirectly, in fulfilling a customer request. The supply chain not only includes the manufacturer and the suppliers, but also transporters, warehouses, retailers, and customers themselves. Within each organization, such as a manufacturer, the supply chain includes all functions involved in receiving and filling a customer request.” Thus, supply chain management can be regarded as the process of managing transactions and orders between the various stages involved (see Figure 1). Following a pull-oriented view, execution is initiated in response to a customer request. On the other side, a push-oriented view is appropriate whenever processes need to be executed in anticipation of customer orders, e.g. in the case of significant manufacturing cycle times. In this case, demand is not known with certainty and must be forecasted. The integration of both views leads to the definition of so-called demand elements, which either represent specific customer orders or forecasts. Demand elements are linked to transportation orders which specify the mode and timing of shipping the requested products from the plant directly to customers or to intermediate distribution centres. Often, external logistics service providers are involved in this stage. At the subsequent stage, pro-
6
H.-O. Günther
duction orders are created which define the quantities to be produced at the various stages of the manufacturing process. In a make-to order environment, production orders are usually linked to a single customer order. In make-to-stock or assemble-to-order environments, however, production orders can be linked to a number of demand elements, which are similar with respect to the products requested and the promised due date. Finally, replenishment orders are triggered to ensure that materials are available for manufacturing according to the intended schedule. In practice, e.g. in the automotive industry, there are several tiers of suppliers, each producing a component for one of the upstream suppliers. It should be noted that the linkage of orders, which have to be managed in the execution of the supply chain processes, does not necessarily represent the sequence in which the orders are created. Basically, supply chains differ in how orders are created according to pull and push principles, respectively (cf. Chopra and Meindl 2004, pp. 14-18). The choice in the design of the corresponding order cycles primarily depends on the characteristics of the particular type of industry and the general supply chain strategy of a company. The usual sequence of order generation is shown on the left side of Figure 1, while the product flow is indicated on the right. Order generation
Linked orders Demand element (customer order or forecast)
Product flow Customers, distribution centres
Transportation order
Transporters
Production order
Manufacturing stages
Replenishment order
Tiers of suppliers
Fig. 1. Organization of orders in a supply chain
Supply chain management is a complex task which requires decisions related to the organization of the network of partners, the communication
Supply Chain Management and Advanced Planning Systems: A Tutorial
7
between them, the mode of collaboration, the planning tools used at the different levels of management, as well as the flow of goods and funds. These decisions can be assigned to four phases, from the strategic through the tactical and operational level to the performance analysis of the supply chain (cf. Chopra and Meindl 2004, pp. 7-8). • Supply chain design is a long-term planning focus which determines the configuration of the entire network of plants, distribution centres, and suppliers from a strategic perspective. The supply chain design is expensive to reorganize. Thus, long-term development of the markets must be taken into account. Decisions in this phase refer to the number, location, and capacity of plants and warehouses, the assignment of products to plants, and the mode of transportation to be used to transport material through the logistics network, for instance. Other key issues are the choice of partners to join the supply chain, the organization of the business processes and the information exchange, and the integration of the various organizational units including legally independent partners. • For supply chain planning, the configuration of the logistics network is regarded to be fixed. Decisions in the planning phase start with medium and short-term forecasts of the relevant markets. Through various planning levels, the allocation of forecasted product demand between plants at various locations, the distribution of final products to regional markets and customers, the planned build up of inventories, the replenishment of material, and detailed schedules for manufacturing the required quantities of products, for instance, are determined. In practice, many companies realize considerable cost savings through network-wide coordination of logistics activities. • In the supply chain execution phase decisions are made on how to fulfil individual customer orders and on how to control the material flow within the logistics network. Considering a daily or weekly horizon, typical decisions comprise the assignment of inventory or production orders to customer orders, warehousing operations such as order picking, pallet and container loading, and freight handling. • Finally, supply chain monitoring comprises all activities related to monitoring the performance of the supply chain operations. In particular, the quality of service level achieved by product, plant, distribution centre, customer group etc. must be monitored. Other important issues include analysis of logistics costs and inventory built up in the different stages of the supply chain. A number of related performance measures is discussed in the literature and employed in practice (cf. Dornier et al. 1998, Chapter 11).
8
H.-O. Günther
With respect to the degree of integration, two kinds of supply chains can be distinguished. An intra-company or internal supply chain integrates business functions and organizational units from only one single company. This type of supply chain is typical of globally operating industrial enterprises with a number of geographically dispersed production facilities, e.g. in the chemical or in the electronics industry. In general, these companies attempt to establish central coordination of their logistics activities. Thus, they can be regarded as predominant users of advanced planning systems. Inter-company supply chains show a diversity of organizational forms and practice different modes of collaboration. Advanced planning systems seem to be less attractive, if merely strategic alliances are established and partners in the supply chain maintain the governance of their business transactions. However, in a two-party relationship or in a chain of closely cooperating businesses, substantial benefits can be gained from the application of advanced planning tools, as is the case for internal supply chains.
3
Architecture of Advanced Planning Systems (APS)
3.1 Advanced Planning Planning in general can be understood as the preparation of decisions which have to be made in business. In particular, along a supply chain there are numerous types of decisions to be made, e.g. to open or close production and distribution facilities, to assign customer zones to distribution centres, to allocate production quantities between different plants, to sequence production orders on a machine, or to coordinate shipping dates between plants, warehouses, and customers. These decisions differ by the management level involved, the importance for the company as a whole, the frequency in which they are made and the degree of aggregation. Despite the dissimilarity of decisions which occur in a complex supply chain, a common logical order of phases in the planning process can be found (cf. Fleischmann et al. 2005, p. 81): • • • • •
recognition and analysis of a decision problem, definition of objectives, forecasting of future developments, identification of feasible solutions, selection of the final solution.
Because of the complexity of many of the decision problems involved, mathematical models and algorithms can be utilized to determine optimal
Supply Chain Management and Advanced Planning Systems: A Tutorial
9
or at least reasonable values of the decision variables, while considering all the constraints arising from the particular planning problem. In some cases, simple heuristics can be used which are based on rules of thumb and common understanding. Especially, when a quick response to unpredictable variations in supply, demand or capacity is needed, efficient heuristics are often preferred to exact optimization methods, which usually require considerable computational effort. Large scale optimization problems, e.g. strategic design of logistics networks or multi-site supply network planning, require sophisticated optimization techniques. Classical enterprise resource planning (ERP) systems and their embedded modules for production planning and control fail to support the solution of decision problems arising in a supply chain. This insight has led to the development of advanced planning systems. Their main characteristics are (cf. Fleischmann et al. 2005, p. 84): • integral planning of the entire supply chain, • true optimization based on mathematical models and algorithms, either exact ones or heuristics, • a hierarchical planning approach which subdivides the entire planning problems into a number of smaller sub-problems and assigns them to different levels of a hierarchy. 3.2 Planning Tasks Software packages to support and integrate activities along the supply chain are being offered by different software vendors, e.g. SAP, i2 technologies, PeopleSoft (including the formerly J.D. Edwards software suite), Manugistics, or Aspen Tech, just to name the leading ones on the SCM software market. In the following, we use the term advanced planning system (APS) mainly to identify the respective software systems. Despite the different orientation and industry focus of APS offered by the various software vendors, a common structure underlying most of the APS can be identified (cf. Meyr et al. 2005). Figure 2 displays the typical software modules covering the different planning tasks. In Section 4, these modules are explained in greater detail and examples of their application are given. Although APS provide software modules which cover all major supply chain related planning functions, companies in industry rarely use the entire suite of modules. Instead, companies apply only those modules which are most suitable for their individual supply chain solutions. In some cases, even APS modules from different software vendors are used by a company to support individual supply chain functions.
10
H.-O. Günther
To better serve a certain industry, various software vendors have developed dedicated sets of modules which address planning issues arising in a specific type of industry. Such APS adaptations are available for the automotive, computer and electronics, chemical and pharmaceutics, food and beverages industry, for instance, as well as for various non-manufacturing businesses. Procurement
Production
Distribution
long-term
Strategic Network Design
mid-term
Supply Network Planning
short-term
External Procurement
Production Planning / Detailed Scheduling
Transportation Planning / Vehicle Scheduling
Sales
Demand Planning
Order Fulfilment and ATP / CTP
Fig. 2. Software modules of advanced planning systems
3.3 Master Data The different entities in a supply chain, namely locations, products, resources, production processes, transportation links, and procurement relationships, are documented by corresponding master data. Most of the master data are provided by the company-wide enterprise resource planning (ERP) system. In an APS, however, the characteristics of resources are somewhat different. Thus, so-called production-process-models need to be defined, in particular, as a basis for supply network planning and detailed production planning and scheduling. Resources represent input used in the production and logistics processes, e.g. equipment, personnel, means of transport and storage. Their availability is defined by their capacity. Regarding resources in APS, a major distinction has to be made. In APS, mid-term planning (e.g. supply network planning) is typically based on a discrete representation of time. Thus, the entire planning horizon has to be sub-divided into time buckets (e.g. daily,
Supply Chain Management and Advanced Planning Systems: A Tutorial
11
weekly, or monthly periods). Accordingly, at this planning level, bucket resources are defined, which express the capacity available in a period, for instance, the number of operating hours per week of a machine. Short-term planning and scheduling, however, is typically based on a continuous representation of time. At this level single and multi-activity-resources are defined. Single-activity-resources are available continuously during working times according to a factory calendar and the related shift schedule. They allow only one single activity to be carried out at a time. In contrast, multiactivity-resources permit several activities to be processed concurrently. Examples are given by buffer storages, furnaces and ovens in the process industries, and groups of similar machines. The production-process-model (PPM) describes how a product is produced from input materials and through a sequence of processing activities. In classical ERP systems, material requirements planning (MRP) and scheduling are carried out as separate planning tasks. According to this concept, the MRP module derives the requirement of each product levelby-level by use of a complete bill-of-materials (BOM). The output from the MRP run is then transmitted to a subsequent planning task, where the capacity feasibility of the generated production orders is checked on the basis of given process plans. In APS, however, the MRP and the scheduling tasks are integrated. Hence, a combined representation is needed, which defines both, the detailed machine routing with the resource consumption per item and the BOM information of each product. By linking the PPMs over the different production stages involved, a complete PPM of the final product can be obtained. A typical PPM is structured as follows. At the highest level, operations define the manufacturing stages as well as inspection and transportation actions. For each operation, the sequence of individual activities associated with the operation is given. Activities not only include manufacturing steps, but also set-up or cleaning of equipment units. Finally, for each activity, the required resources (e.g. equipment, personnel, tools, storage devices) and material inputs are defined. Relevant data, e.g. unit production times or bill-of-material coefficients, are attached to the appropriate objects in the PPM. Moreover, weights can be assigned to the arcs, which link the activities, indicating the required minimum or maximum time lag between activities. To model alternative resources and routings, different modes can be defined for selected activities. An example of a PPM is given in Figure 3. The product structure at the left of the figure defines final product P being assembled from sub-assembly S and material M1, while sub-assembly S is assembled from component C and material M2, and component C is manufactured using material
12
H.-O. Günther
M3. The corresponding PPM is shown at the right of the figure. The entire process consists of three operations for the manufacture of component C, sub-assembly S, and product P, respectively. In this example, the first two operations require one activity, while the final one consists of three, of which “act. P1” and “act P2” can be carried out concurrently. In total, six different resources labelled a to f are involved in the production process.
Fig. 3. Example of a production-process-model
4
APS Modules
4.1 Overview Because of the leading position of SAP software in the ERP (Enterprise Resource Planning) market, SAP’s Advanced Planner and Optimizer (APO) is one of the most challenging software systems for advanced planning. Therefore, we selected this software package to give an overview of the capability of APS and their application in supply chain management. When this paper was written, APO 3.1 was available to all SAP clients. Meanwhile, the more advanced version 4.0 of the software has been released. In the following sub-sections, we illustrate the major planning tasks of APS on the basis of SAP APO. Nevertheless, similar software modules can be found in any APS. The general order in which the planner proceeds through the various tasks of an APS can be expressed as a planning cycle (see Figure 4). This representation merely depicts the logical order of the planning tasks. The individual tasks significantly differ by the frequency they are called up. Moreover, some tasks need to be executed repeatedly, before a firm plan can be released. Therefore, Figure 4 does by no means prescribe a rigid sequence of the various tasks. Depending on the individual application, some
Supply Chain Management and Advanced Planning Systems: A Tutorial
13
tasks are more or less essential, or they may be carried out without the aid of APS. Strategic network design
Demand planning
Supply network planning
Transportation planning / vehicle scheduling
Order fulfilment and ATP / CTP
Production planning / detailed scheduling
External procurement
Fig. 4. Typical planning cycle of APS
A detailed discussion of the various planning tasks as well as an extensive overview of the quantitative methodology implemented in modern APS is beyond the scope of this article. Hence, we refer to basic textbooks on production and operations management as complementary sources, e.g. the ones by Chase et al. (2004) or Waller (2003) and to Chopra and Meindl (2004) as a basic textbook on supply chain management. An excellent book, which introduces the concepts and models of supply chain management and advanced planning and provides examples of software solutions and case studies, is the one edited by Stadtler and Kilger (2005). Specific approaches based on quantitative methodology can be found in de Kok and Graves (2003), Miller (2001), Tayur et al. (1999), and with a focus on process industry in Günther and van Beek (2003). For understanding the use of SAP APO for modelling supply chain problems the reader is referred to the book by Dickersbach (2004). In addition, for a quick and easy navigation in the world of SAP software, the internet source http:// help.sap.com/ may be quite useful.
14
H.-O. Günther
4.2 Strategic Network Design At the strategic network design phase, the number of plants and distribution centres, their location and capacity, the assignment of product types to plants and of customers to distribution centres, as well as the transportation links between the nodes of the logistics network are determined. The focus in this planning phase is on the strategic design of a supply network, which will enable a company to improve its economic performance over a long period of time (cf. Goetschalckx 2005). The elementary network design problem is the selection of a single manufacturing site (cf. Waller 2003, Chapter 3). There are numerous factors which contribute to the complexity of this decision problem, e.g. staffing, proximity of suppliers and customers, local conditions, financial concerns, and taxation. In many cases, the financial impact of these factors is difficult to measure. The applicability of quantitative methods, however, heavily depends on reliable cost estimates and other quantitative measures. In supply chain management, two basic network design problems can be identified: the location-allocation problem and strategic network planning. Both problems are covered by the strategic network design module of SAP APO 3.1. The location-allocation problem determines the assignment of locations to each other, e.g. customers to distribution centres, distribution centres to plants, products to plants and warehouses, or suppliers to plants. In APO these assignments are made stage-by-stage according to geographical proximity. In addition, capacity constraints can be taken into account and total network costs can be evaluated. Strategic network planning is considerably more complex. For example, a company may wish to redesign its entire supply network in order to respond to changing market conditions. Another example is the expansion of a company into an economic region where no adequate infrastructure is currently in place. Usually, planning models for strategic network design are formulated as mixed-integer linear programming (MILP) models. In these models, decisions on opening or closure of locations are reflected by binary decision variables. The same applies for assignment decisions, e.g. assigning distribution centres to plants. In contrast, production and transportations quantities are expresses by continuous decisions variables. For basic MILP model formulations the reader is referred to Chopra and Meindl (2004, Chapter 5). Such models can get quite large, especially if a large number of entities is considered or the individual configuration of plants is optimized over a multi-period horizon (cf. Kallrath 2003, for a case study from the chemical industry).
Supply Chain Management and Advanced Planning Systems: A Tutorial
15
For testing the strategic network design module of APO, we used the redesign of Nutricia’s dairy and drinks supply network in Hungary (cf. Wouda et al. 2003) as a case study. Nutricia is a world wide operating Netherlands-based company producing baby food, dairies, drinks, and products for clinical nutrition. After acquiring a number of dairy companies in Hungary, Nutricia decided to consolidate their network of plants and distribution centres in Hungary and the allocation of product portfolios to these locations. Figure 5 shows a screenshot from our APO implementation of the Nutricia case based on Wouda et al. (2003). Before starting the optimizer, we defined all relevant costs for production and logistics processes, costs for raw materials and intermediate products, fixed operating costs for existing locations, fixed costs for setting up new locations and closing down existing ones, as well as data on product demand by customer and the geographical parameters. For the scenario defined, the optimizer then determined the assignment of suppliers and distribution centres to plants and of customers to distribution centres. As can be seen at the left edge of Figure 5, one of the existing plants is not integrated into the network, and thus suggested for closure. Although decisions on strategic network design are most important in supply chain management for the company as a whole, the corresponding APS modules are most likely the least utilized ones in any APS. This is mainly due to two reasons. First, in contrast to operational issues, the strategic network design typically remains fixed for a long time period and revisions usually affect only limited sectors of the entire network. Thus, companies often prioritize the use of APS at the operational rather than the strategic level. Second, very compact mathematical optimization models can be made up for strategic network design. This is primarily due to the high level of data aggregation applied and the limited number of entities, for instance, the small number of facilities to be opened or closed. Thus, stand-alone optimization models using standard optimization software are appealing. In addition, application-specific features can easily be integrated into individual optimization models, which is not the case for the generic (universal) model formulations being implemented in APS. For the evaluation of selected scenarios, even standard spreadsheet software may be sufficient in many practical applications.
16
H.-O. Günther
Supplier Plant Customer Distribution centre
Fig. 5. Optimized network design obtained from SAP APO 3.1
4.3 Demand Planning Forecasts of future market demand for the company’s products are essential for supply chain decisions at various managerial levels. At the strategic level, long-term demand forecasts form the basis for the design of the supply network. At the operational level, mid-term demand forecasts are required for the coordination of procurement, production, and distribution, which is a key issue in supply network planning. Even in the short-run, demand forecasts are useful, especially, in a make-to-stock environment, where customer orders often have to be filled on short notice. Usually, a demand forecast is developed with the aid of statistical forecasting techniques. The forecast is then adjusted based on the expertise of the human planner and, finally, released as a joint demand plan by different departments in the company, e.g. production, marketing, finance, personnel, or even agreed upon by different companies working together in the supply chain. For obvious reasons, demand planning is most essential in a make-tostock environment, e.g. in the consumer goods industry, and less essential if the company produces to order. In the latter case, the complete production planning process is started upon arrival of a customer order. Hence, no particular demand forecast is required at the operational production planning level. Many companies, however, apply a mixed strategy, i.e. they
Supply Chain Management and Advanced Planning Systems: A Tutorial
17
produce standard sub-assemblies on stock and assemble final products on customer order. In this case, a combination of demand forecasting and individual order scheduling applies. The general process of demand forecasting is shown in Figure 6. First, based on historical demand data an appropriate mathematical model is selected, which best explains the development of product demand over time. Trend factors, seasonal fluctuations, business cycles or a number of causal factors can be considered in this phase. Modern APS provide a number of forecasting techniques for different types of demand figures. For a comprehensive explanation of the most popular forecasting techniques and their practical application, the reader is referred to Makridakis et al. (1998) or to the textbooks of Chase et al. (2004, Chapter 12), Chopra and Meindl (2004, Chapter 7), Silver et al. (1998, Chapter 4), and Waller (2003, Chapter 10). The periodically updated forecast considers actual demand observed in the most recent periods. To make management adjustments in this phase, human input is required, for instance, to correct outliers or to override forecasts because of planned promotions. Since future demand is unknown, forecasts are always erroneous. Thus, forecast errors should be calculated and statistics of errors frequently be updated. The analysis of forecast errors suggests possible changes in the parameters of the forecast model or even a modification of the model itself. Selection and initialization
Historical Data
Mathematical Model
Possible modification of model and its parameters
Statistical forecast
Calculation of forecast error and updating of statistics of errors
Actual Demand Observed
Human Input
Forecast of Demand
Stratetgic network design Supply network planning Production planning and scheduling
Fig. 6. Forecasting framework (adapted from Silver et al. 1998, p. 75)
18
H.-O. Günther
For practical application of demand planning, some characteristics of the product demand must be defined. These characteristics mainly refer to the granularity of the time periods (e.g. weeks or months), the level of aggregation (e.g. product or product type), and the geographical dimension (e.g. country or sales organization). Thus, forecasts can be tailored to the peculiarities of the individual planning task. Beyond pure statistical forecasting, the demand planning module of SAP APO 3.1 provides a number of additional features (cf. Dickersbach 2004, Chapter 4). • Life cycle planning: Especially in the consumer goods industry, new products often need a ramp-up time before they reach their expected sales level. Likewise, sales decrease for a product that is going to be replaced soon. These effects can be considered by the definition of a phase-in and phase-out process during which the usual statistical forecast is dampened. • Promotion planning: Due to marketing activities, e.g. special discounts, advertisement, dealer allowances, as well as external events, such as competitor’s activities, strikes, or extreme weather conditions, demand might be increased or decreased for some time, or some portion of demand is simply shifted in time. The impact of such promotions can be modelled as an expected absolute or relative change in demand. Also the mutual dependency of sales of similar products, known as cannibalization, can be considered. • “Like” modelling: To provide a basis for forecasting, enough historical data are required, in particular, if seasonal demand fluctuations have to be analyzed, or in the case of products with short life cycles. If sufficient historical data are not available, forecasts can be based on historical data of a product with similar demand behaviour. • Outlier detection: The demand planning module of SAP APO 3.1 automatically indicates outliers in the times series of a product demand, i.e. a value that lies outside a pre-defined tolerance lane. • Aggregation/disaggregation: In any APS demand data are stored at the most detailed level defined by the user. For individual planning tasks, however, more detailed or aggregate data may be requested. For instance, to support strategic network design data may be aggregated according to the underlying length of the time periods, product and geographical dimensions. Similarly, more detailed data may be required, i.e. for procurement decisions based on specific product variants. In SAP APO corresponding “planning books” can be defined, which support these issues. An increasingly important issue in demand planning refers to collaborative forecasting. It is well known that the amplifications of demand along
Supply Chain Management and Advanced Planning Systems: A Tutorial
19
the stages of a supply chain (so-called bullwhip effect; cf. Stadtler 2005) results from demand uncertainty and independent forecasts made at the various tiers of the supply chain. Collaborative forecasting, i.e. reconciling the demand plans of different internal or external partners in the supply chain, promises to reduce the undesired amplification effects. On the technical side, SAP APO 3.1 supports collaborative forecasting via internet and provides a number of additional features. 4.4 Supply Network Planning The core module at the mid-term level of APS comprises supply network planning. In many industries, production stages are assigned to different plants and distribution centres have been established at geographically dispersed locations. Production activities within such multi-site logistics networks have to be well coordinated in order to avoid excessive inventories, inefficient capacity utilization and poor customer service. Traditionally, planning is carried out independently at the various locations. The concept of supply chain management, however, suggests planning of the entire supply chain including procurement, production, and distribution in an integrated manner. There are many published and unpublished applications which reveal that huge cost savings can be obtained from a better coordination of the flow of materials in the supply chain (cf. Miller 2001, Chapter 2.3 and 2.4; Berning et al. 2003; Grunow et al. 2003a and 2003b; Kreipl and Pinedo 2004; Altrichter and Caillet 2005; Kilger and Schneeweiss 2005b; Wagner and Meyr 2005). In APS the aim is to implement a single global model, which starts from a demand plan and covers all of the resources and associated constraints as well as cost figures. Advanced optimization techniques are used to determine the quantities to be produced, transported, and procured in the supply network. In a graphical representation of supply networks, nodes indicate the various locations (i.e. plants, distribution centres, suppliers etc.), while arcs indicate the corresponding transportation links. In SAP APO, a specialized tool – the so-called “Supply chain engineer” – can be used to display and maintain the supply network (see Figure 7), in particular, to set up the network configuration and to assign and modify the corresponding master data, e.g. product portfolio and production capacities per plant, storage and handling capacities per distribution centre, related costs, safety stocks, demand figures, modes of transportation etc. As an example from one of the author’s courses on advanced planning, Figure 7 shows a merely small network with plants located in Berlin (Germany) and Genoa (Italy) as well
20
H.-O. Günther
as distribution centres located in Barcelona (Spain), Brussels (Belgium), and Budapest (Hungary).
Fig. 7. Supply chain engineer in SAP APO 3.1
Key decisions which have to be made in supply networks are the following. • How shall production quantities be allocated between the plants taking into account their production capacities and unit production costs? • Which quantities are to be supplied from the plants to the individual distribution centres? • From which distribution centre are the products to be shipped to the customers and market areas considering transportation costs and demand? • How shall the workload on bottleneck resources be balanced between periods in the planning horizon? • What amount of capacity extension shall be used? • What amount of inventory is to be built up in order to smooth out seasonal cycles in demand? • To what extent can unfilled order quantities be tolerated and how shall a fair share of demand coverage be gained, if products are in short supply? In most practical applications, additional issues have to be considered, e.g. sourcing of raw materials and bought components, priorities for producing products at specific plants, balancing the workload between plants, the need to set up the production system for individual products and mak-
Supply Chain Management and Advanced Planning Systems: A Tutorial
21
ing the related lot sizing decisions, to define safety stocks for all products and storage locations, and to ensure planning stability, i.e. to avoid that small changes in demand affect the entire production plan. In SAP APO supply network planning employs mathematical models and algorithms (“methods”) to determine optimal or near-optimal solutions. Prior to planning, the length of the planning horizon and the period length have to be defined. Depending on the particular application, a horizon of a few weeks with daily periods may be suitable in one case (e.g. in the fresh food industry), while horizons of several months with weekly periods or of a complete year with monthly periods may be appropriate in other cases. It should be noted that, in SAP APO, supply network planning is principally based on “time buckets”. This is in contrast to the production planning and detailed scheduling level, which is based on a continuous representation of time. To support supply network planning (SNP), four different methods are available in SAP APO (cf. Dickersbach 2004, Chapter 6): • the SNP optimizer which employs linear and mixed-integer programming, • the SNP heuristic which can be used for a quick generation of a balanced production plan without taking capacity constraints into account, • the capable-to-match (CPM) heuristic which assigns customer orders to available capacities, • and various heuristics provided by the production planning and detailed scheduling module of APO. While the latter two are only recommended for use in specific, lowcomplexity environments, the SNP optimizer and the SNP heuristic are suited for integrated multi-level supply network planning. The SNP heuristic is a fairly simple procedure, which groups demand elements into one requirement for a time period and assigns it to the valid resources based on pre-defined quota and priorities. This procedure is carried out level-bylevel down the supply chain. Its major disadvantage is that no feasible solution is guaranteed. Therefore, it is not further regarded in this section. Despite the limitations of general purpose optimization algorithms, mathematical programming is considered as a standard method to solve a variety of supply network planning problems in APS, since this approach offers the advantage of being able to incorporate very easily the particular operating mode of the production system and the network of material flows between the various elements of a supply chain or between different units within a plant. Another advantage of the general framework of mathematical programming is the availability of powerful standard optimi-
22
H.-O. Günther
zation software. Therefore, this approach is adopted in many APS, as is the case in SAP APO. Unfortunately, most popular textbooks on production and operations management do not provide basic model formulations for multi-site production planning or integrated supply network planning, although such model formulations are straight-forward enhancements of single-site aggregate production planning models (cf. Chopra and Meindl 2004, Chapter 8). For comprehensive model formulations of distribution and transportation planning and scheduling in a supply network planning context the reader is referred to Miller (2001, Chapter 4). A critical issue in SNP optimization refers to the appropriate level of detail. Usually, production related master data are defined at the detailed activity level, thus, making it possible to obtain an accurate representation of the real manufacturing process. Very often, however, it is overlooked that the SNP optimization model can get quite large and, as a result, optimal or near-optimal solutions cannot be determined within acceptable computational time, especially, if a dense grid of time periods is used. Hence, a reasonable level of data aggregation is required in the supply network planning phase. In principal, three modes of aggregation can be pursued, most likely in combination with each other: • aggregation of time, i.e. consolidating smaller time buckets into larger intervals and eventually using time buckets of unequal length, smaller ones for the near future and lager ones towards the end of the planning horizon; • aggregation of products into product groups; • aggregation of resources into resource groups and elimination of nonbottleneck resources from the optimization model. In SAP APO the SNP model itself is not directly generated by the user. Instead, generic model formulations are provided, which the user may customize to the specific application. The use of generic model formulations simplifies the model building process a lot. The user assigns all of the necessary master data and performs the planning run. Yet, the general model formulation cannot be modified by the user. Should application-specific features need to be considered, which are not covered by the generic model formulations, the user has to set up his or her model externally using standard optimization software. However, external optimization algorithms can be integrated fairly easily into APO through a special interface, the socalled “Optimization Extension Workbench”. The general objective of the SNP optimizer is to minimize costs. These costs relate to production, procurement, transportation, storage, and han-
Supply Chain Management and Advanced Planning Systems: A Tutorial
23
dling. In addition, penalty costs can be defined for violating safety stock and due date constraints and for non-delivery. In other words, these constraints are considered as soft constraints, while all the other constraints are regarded as “hard” limitations of the feasible solution space. Linear weighting factors are assigned to all cost categories, thus, allowing the user to prioritize certain types of costs and to control the planning result. The definition of the values of the weighting factors, however, must be seen as one of the most critical issues in the practical use of the SNP optimizer, since the output from the SNP optimizer is very sensitive to the selected values. Even small changes of these values might cause significant changes of the planning result. Output from the optimization run is displayed in user-defined “planning books”. Figure 8 shows the SNP output for a sample problem used in one of the author’s courses on advanced planning systems. The different types of products considered and the various locations involved in the supply network can be seen along with a number of technical parameters on the left side of the screen. The table on the right exhibits the resulting production and distribution plan with a number of characteristics for the flow of products. SAP APO provides various tools which allow the user to configure all the elements of the interactive planning screen and to generate different views of the planning result, e.g. for individual locations or with the focus on costs or capacity utilization. There are many refinements of the SNP module in SAP APO, which may be useful in a number of individual applications. • Safety stock planning: Creation of safety stock is used to safeguard the supply chain against uncertainties, e.g. errors in forecasting the customer demand, disruptions in production, delays in transportation times etc. Two different types of tools are provided. Using standard methods, the planner defines a safety day’s supply, an absolute safety stock level, or a combination of both, based on his or her experience. In addition, extended methods are provided, which suggest safety stock levels based on so-called service levels for meeting customer demand. The corresponding scientific methodology is presented in many textbooks, e.g. Chopra and Meindl (2004, Chapters 11 and 12), Waller (2004, Chapter 11), and Silver et al. (1998, Chapter 7). • Lot sizing: Very often a fixed resource consumption is associated with setting up the production equipment. In these cases, set-up costs are defined which are charged whenever the corresponding production process is initiated. Moreover, technical restrictions often determine a minimum lot size or enforce rounding the lot size to a unit transportation quantity, for example, the loading capacity of a container. Defining such require-
24
H.-O. Günther
ments, however, changes the original linear optimization model into a discrete one, resulting in a significantly more complex optimization problem and increased computational times. • Production campaign planning: In the process industries, it is often essential to combine orders for the same product into joint production runs (campaigns). This is mainly due to the need of cleaning the processing equipment before and after use and the set-up effort required for establishing temporary equipment configurations. For managing the time and cost-intensive set-up and cleaning processes of the individual production runs, SAP APO provides specialized planning tools for the process industries as part of its dedicated industry solutions.
Fig. 8. Example of a supply network planning application using SAP APO 3.1
Supply network planning is most likely the highest advanced module of APS. This is mainly due to the huge potential for cost savings to be obtained through a better coordination of material flows in a supply network. Another explanation for the success of today’s SNP modules can be seen
Supply Chain Management and Advanced Planning Systems: A Tutorial
25
in the high degree reached in the development of mathematical programming algorithms. SNP modules ideally combine the power of mathematical optimization algorithms with the opportunity of truly integrated planning in a supply network. 4.5 Production Planning and Detailed Scheduling In APS the short-term level includes production planning and detailed scheduling (PP/DS) as the major module. In many industries PP/DS is complicated by the diversity of production activities, tight customer due dates, the necessity of set-up operations, and technical constraints arising from individual manufacturing processes. The general goal of PP/DS is to generate production orders, which permit the timely fulfilment of customer orders. In APS the PP/DS task is usually carried out according to a finite scheduling policy, i.e. the limited availability of resources is taken into account. Specifically, the detailed sequencing and time-phasing of production orders at all of the affected resources has to be determined. (For a detailed presentation of the capabilities of the PP/DS module of SAP APO, see Dickersbach (2004, Chapter 9)). Typical objectives pursued in PP/DS are to minimize work-in-progress and stocks of final products, meet customer due dates, minimize sequence dependent set-up costs, and to maximize the utilization of the resources. Obviously, it is not possible to achieve all of these objectives simultaneously. Because of the limited scope and the short-term planning horizon (typically, a day to a few weeks), PP/DS is usually carried out decentrally at the various plants. In some cases, e.g. manufacturing systems with serial product flow and short throughput times, a rough capacity check using the capabilities of the SNP module and tools for levelling the workload on bottleneck resources will suffice so that no explicit scheduling is actually required. In most applications, however, the PP/DS tools of modern APS are quite useful to improve the performance of the entire production system. Due to the variety and complexity of productions systems, no general solution approach for PP/DS exists. Undoubtedly, special purpose algorithms are more efficient in a number of applications. In the academic literature, many specialized algorithms for different variants of scheduling problems can be found (cf. Brucker 2004; Pinedo 2002). The major disadvantage of special purpose algorithms, however, is that they have to be redesigned, as soon as major application features change, or even have to be abandoned. Hence, APS provide optimization algorithms, which target a wide class of scheduling problems. In SAP APO two types of numerical
26
H.-O. Günther
search heuristics are available, namely constraint programming (CP) and genetic algorithms (GA). These algorithmic approaches are termed “optimization procedures” by SAP, although they do not guarantee optimality and, thus, have to be regarded as heuristics. Constraint programming (cf. Klein 2005a) represents a technique, which starts with the definition of the possible ranges of values (domains) for each of the decision variables and seeks to reduce the domains step-bystep by exploiting the constraints, which determine the feasible solution space. CP differs from classical optimization by not explicitly considering an objective function. CP is usually combined with special search algorithms, which systematically explore the reduced domains of the decision variables in order to stepwise improve the solution obtained. The major benefit of CP can be seen in its ability to determine solutions, which satisfy a given set of constraints. Its major disadvantage is the large computational effort in finding optimal solutions. Genetic algorithms (cf. Aytug et al. 2003; Gen and Cheng 2000; Klein, 2005b) are based on the idea of imitating the natural evolutionary process by starting with an initial population of individuals and combining and mutating selected individuals in order to construct a new generation of solutions. By selecting the “fittest” to contribute to the individuals of the successor generation, it is expected that a solution closer to the (unknown) theoretical optimum is obtained. GA are considered as powerful and broadly applicable techniques for solving complex combinatorial optimization problems. One of their weaknesses, however, is the difficulty to explicitly consider the constraints. Thus, a number of infeasible solutions are obtained throughout the solution process. Despite this limitation, GA have gained widespread acceptance and are successfully applied in many practical settings. Both, CP and GA, aim to find a schedule which minimizes a given objective function or, at least, achieve a solution which comes as close as possible to the desired objective function value. In the PP/DS module of SAP APO the objective function represents a sum of weighted times and costs, namely makespan, set-up times, set-up costs, penalties for the delayed execution of activities, and costs for the selection of modes, e.g. using different resources. PP/DS also allows the definition of sequence dependent set-up times and costs. It should be noted that, due to partial conflicts between the elements of the objective function, the optimization result usually is quite sensitive to the weighting factors. As in SNP, hard constraints, e.g. the available operation times of a resource, and soft constraints, e.g. due dates of sales orders or time windows for the start and completion of activities, are considered during optimization. Moreover, it
Supply Chain Management and Advanced Planning Systems: A Tutorial
27
is possible to prioritize individual sales orders and to define further parameters of the optimization strategy. Depending on the complexity of the individual scheduling problem, optimization with CP or GA can be quite time consuming. Therefore, a reasonable processing time limit should be defined before executing the optimization run. To speed up optimization, multi-processing on one optimization server is supported. This feature is termed “multi-agent optimization” in PP/DS. In addition, PP/DS provides a number of heuristics, which represent practical tools for modifying and updating generated schedules. These tools can also be used to generate a feasible production plan, in case no detailed scheduling over a continuous time scale is requested. Among the numerous tools available, just a few shall be mentioned: • generation of procurement proposals for uncovered product demand, • lot-sizing using dynamic lot-sizing heuristics (e.g. part period balancing, least unit cost procedure, Groff’s heuristic), • inventory control using reorder point models, • availability check for components and materials which are required to perform a production operation, • rescheduling operations for just-in-time goods, • merging orders for joint processing at selected resources, • manual sequencing, i.e. scheduling of selected operations in a predefined sequence, • compact scheduling of operations which are related to an order or a group of orders, • simulation of generated schedules, • incremental planning, i.e. inserting a new order into a given schedule, • defining a frozen horizon, i.e. an interval at the beginning of the scheduling horizon, during which orders are considered as fixed to avoid the side effects of frequent re-planning (so-called system nervousness), • cross plant planning, i.e. include a product produced at a different plant into the production plan. “Pegging” is another capability of PP/DS, which is used to link orders at various levels of the supply chain (cf. Dickersbach 2004, Chapter 3.6). In a pegging structure – Figure 9 shows an example taken from http:// help.sap.com/ - the material flow is indicated from the procurement of raw materials and components to the production, transportation, and sales orders. The pegging structure is especially useful, when unforeseen events occur, for example, the delay of activities at the shop floor level, the late
28
H.-O. Günther
receipt of purchased quantities, or the detection of uncovered requirements. -10
Customer Order
10
40
10
20
10
40
10
20
60
50
Deficit
Transportation Order
100
30
Surplus
30
+20
Production Order
50
50
50
50
Purchase Order
50
20
30
30
Surplus
50
20
+10
80
80
Fig. 9. Example of a pegging structure in SAP APO 3.1
In the example of Figure 9, two purchase orders have been scheduled, each with a quantity of 80 units. Their total quantity of 160 is used to satisfy three production orders, each with an order size of 50 units. The arcs linking the purchase and the production orders indicate the assignment of orders and the corresponding material flow. It can be seen that a surplus of 10 units remains at the purchasing level. From the assignment of the three production orders to the two scheduled transportation orders of 30 and 100 units, respectively, a surplus of 20 units at the production level remains. The top level of the pegging structure links the production orders to the customer orders. Due to the size of the transportation orders, the final customer order cannot be filled completely. The pegging mechanism clearly exhibits a deficit of 10 units for the final customer order. With the visibility of the pegging relationships, the planner will be able to take corrective actions, for instance, increase the second transportation order. The PP/DS module of SAP APO provides two different modes of pegging. Dynamic pegging is carried out automatically and the pegging structure is updated after a change in the production plan, e.g. updated dates
Supply Chain Management and Advanced Planning Systems: A Tutorial
29
and quantities of orders. In addition, corresponding alert messages are automatically generated, indicating, for example, shortages of requirements. The second mode is fixed pegging, in which the pegging relationship is not updated, should a change in the production plan occur. Fixed pegging can be established manually or automatically. All together, PP/DS represents a very powerful software module for many industrial applications. To demonstrate its practical use, the production of hair dyes at a major German company is considered as a case study. Figure 10 presents the major characteristics of the application. The actual dye is offered in 26 colour variations. Sales units consist of three components, the dye cream, the dispersion, and the shampoo, which are packed together in a box. The corresponding BOM structure is shown in the upper left part of Figure 10. The production system for hair dyes consists of five processing lines, an intermediate storage area, and five packaging lines (see the lower left part of Figure 10). Both the processing and packaging lines must be cleaned when switching between two different product variants. The changeover times are highly sequence dependent.
Final Product Box
Dye Cream
Dispersion
Shampoo
Cream Liquid
Dispersion Liquid
Shampoo Liquid
Cream Chemicals
Dispersion Chemicals
Shampoo Chemicals
Tube
Bottle
Tube
Processing line cream
Processing line dispersion
Processing line shampoo
Filling shampoo
Filling cream and dispersion and packaging final product
Fig. 10. Scheduling the production of hair dyes using the PP/DS module of SAP APO 3.1
30
H.-O. Günther
For creating production orders and scheduling them on the available resources, the BOM structure and the process routings have to be converted into corresponding production-process models (see Section 3.3). For a selected product, the PP/DS representation of the resulting productionprocess model is shown on the right of Figure 10 in list mode and as graphical representation. The associated planning board exhibits the related master data, which can be interactively modified and maintained. Several optimization runs were performed on makespan and set-up time objective functions using CP and GA. Near optimal solutions for realistic scheduling scenarios could be obtained within a few minutes of CPU time. Throughout our experiments, we experienced that GA performed superior to CP. Detailed results of the case study investigation will be reported in a separate publication. To support production planning and detailed scheduling in specific application environments, a number of dedicated tools have been integrated into the PP/DS module of SAP APO. • Characteristic-dependent planning (sometimes called feature-based planning): This tool focuses on industries which produce variants of a basic product type with different properties (e.g. colour, grade, coating, and other physical or chemical specifications). Most often these variants are produced using the same resources and following the same basic process plan. Characteristic-dependent planning applies the concept of block planning, which schedules a class of products with similar specifications in a joint production run. Block planning has gained particular acceptance especially in the process industries. • Shelf life: In particular, in the fresh food industry shelf life consideration is an issue of utmost importance. A maximum shelf life of products is achieved, if production runs are scheduled as close as possible to the delivery due dates. Hence, a backward scheduling strategy must be applied, which can be opted for in the PP/DS strategy profile of SAP APO. Accordingly, production orders and procurement proposals are scheduled as late as possible. It is difficult, however, to balance the advantage of larger shelf life against the need for smaller lot sizes and an increased number of set-ups, which usually requires expensive cleaning operations. • Model mix planning: Some manufacturing systems, for example, in the automotive industry, are laid out as paced assembly lines on which different variants (models) of a standard product are produced. Since the variants cause different workloads at individual stations of the line, sequencing of the models is essential. In order to smooth out the total workload of line segments and to minimize the risk of line stopping, re-
Supply Chain Management and Advanced Planning Systems: A Tutorial
31
strictions for sequencing the models can be defined, e.g. allowing a maximum number of model characteristics within a cycle or forbidding the immediate sequence of certain types of models. Among the various modules of APS, PP/DS is probably the most difficult one to handle in an industrial application. Mathematically, most scheduling problems belong to a difficult class of optimization problems. In practice, however, the true mathematical optimum is rarely needed. Thus, efficient heuristic solution procedures mostly suffice. The PP/DS module of SAP APO provides a wealth of useful tools and, in addition, CP and GA as powerful numerical search methods. In particular, the use of heuristics and optimization techniques for production planning and detailed scheduling depends on the peculiarities of the individual application. Therefore, it is not surprising that application features occurring in specific types of industry or relating to special types of manufacturing systems, e.g. manufacturing cells or set-up policies at automated machine tools, are not covered by the PP/DS modules of APS. In any case, in practical applications the planner should refrain from considering every minor technical constraint in the PP/DS phase and focus on products with long replenishment lead times and on products which are produced on bottleneck resources. Creation of a feasible, but robust plan is often more beneficial than attempting to achieve exact solutions from a complex, yet simplified optimization model. 4.6 External Procurement External procurement of products is closely related to detailed production planning and scheduling. In particular, products which are critical in nature (e.g. they are in limited supply or they have a long replenishment lead time) need careful planning. The main elements in external procurement are the determination of the purchase quantity, selection of the supplier, and the initiation of purchase orders. An external procurement order can cover both, the supply from a vendor as well as from other plants within the own company. Already classical ERP systems provide considerable support for the management of business processes related to external procurement. Some of the additional features provided by SAP APO are the following (cf. Dickersbach 2004, Chapter 10). • Source determination: This sub-module includes documentation and maintenance of procurement relationships as well as the automatic or interactive determination of the supply source. Principally, a component can be produced in-house or procured externally. The selection of the
32
H.-O. Günther
procurement type is determined based on related costs and pre-defined priorities. Other issues considered are quota arrangements, means of transport, supplier capacity, and the general availability of the supplier at the desired delivery date. • Scheduling agreements: In a number of industries, e.g. the automotive industry, some of the required products have to be supplied in large quantities. According to the just-in-time principle, such products are delivered with a high frequency. SAP APO supports the maintenance of scheduling agreements and the issue of corresponding “supply releases” over a defined horizon. In addition, forecasts can be created which inform the supplier about the quantities required in the more remote future. • Subcontracting: This form of procurement is used in order to assign selected manufacturing steps to external companies (the subcontractor), who carries out the desired production activities. Corresponding production orders can be generated for both, production by an external service provider in his own plant or the company’s plant. 4.7 Order Fulfilment and Available/Capable-To-Promise In the order fulfilment phase customer orders are matched against quantities available on stock and from scheduled receipts. In addition, customer requests for delivery of a product with regard to quantity, time, and location have to be answered. The investigation whether a delivery can actually be made is called “Available-to-promise (ATP)”. The standard method of ATP is to search for available stocks, which can be promised for delivery. A recent enhancement provided by modern APS is the check for available capacity to be used for placing a new production order or the possibility to increase already scheduled production orders. This enhanced functionality is called “Capable-to-promise (CTP)”. Despite the considerable practical importance of ATP and CTP, this topic is not dealt with in the popular textbooks on production and operations management. In contrast, modern APS provide powerful modules to support the order fulfilment task. When an order request arrives from a customer, possibly entered online via the internet, an immediate investigation must be triggered on how the order can actually be fulfilled. This is especially important in a type of business, where quick response to customer enquiries and fast delivery is crucial, e.g. in the consumer goods industry. The classical form of ATP is to answer enquiries as they arrive, i.e. first-come-first served using a rulebased check procedure. Figure 11 exhibits the rule system applied by a
Supply Chain Management and Advanced Planning Systems: A Tutorial
33
major German producer of fine chemicals. When the customer request arrives, the first check is for available inventories including planned receipts from scheduled production orders. If the corresponding earliest delivery meets the customer’s target date, then the order can be committed. Otherwise, the possibility of creating a new production campaign is investigated. In case, the customer order is too small in size for a separate production campaign or no sufficient capacity is available to increase an existing campaign, the order is postponed until the next optimization run during which the entire campaign schedule is updated. Query from customer EXC1, for product P1, amount Q1, date T1 Preliminary quick check with availability chart for P1, T1
Query for commitment from inventory for EXC1, P1, Q1, T1
Yes
Commit order for EXC1, P1, Q1, T1
No Earliest date available for P1, Q1⌫ T2
EXC1 satisfied?
Commit order for EXC1, P1, Q1, T2 using query for commitment from inventory
Yes
No
Query for commitment from inventory or production for EXC1, P1, Q1, T1 No
Yes
Commit order for EXC1, P1, Q1, T1; create campaign(s) for production
Place order for EXC1, P1, Q1, T1; commitment after optimization run if capable to produce
Fig. 11. Rule-based ATP procedure applied by the fine chemicals division of a major German company
34
H.-O. Günther
An alternative of dealing with customer requests is to collect them over a short period of time, e.g. one day or a few days, and then decide simultaneously, which orders should be accepted, rejected, delayed, or split into several deliveries, and if a reduced quantity should be offered for certain orders. This procedure represents the so-called batch mode of ATP. Modern APS provide enhanced features of rule-based ATP (cf. Dickersbach 2004, Chapter 11; Kilger and Schneeweiss, 2005a). Some of these are visualized by the ATP decision cube shown in Figure 12. If, for instance, the requested product cannot be delivered from the location, where the customer request arrives, the search for available stock is extended to other storage locations, from where the order can be delivered, however, at the expense of additional transportation costs. Today, it is a common policy in supply chain management to pool safety stock. Hence, delivery from another storage location is not unusual. Another ATP policy, often applied in an assemble-to-order environment, is to offer a modified product configuration, i.e. to replace a standard component, e.g. a specific storage device or processor for a PC, by an alternative, eventually more powerful, component. Same product/ alternative location
Original order
Customer order/ end item
Alternative product
Alternative product/ alternative location
Production
Change of loacation
Alternative Component
Fig. 12. ATP decision cube
While basic ATP checks have already been supported by classical MRP II systems, the functionality of ATP is considerably enhanced in modern
Supply Chain Management and Advanced Planning Systems: A Tutorial
35
APS. In the world of SAP software, a distinction is made between local ATP, which is confined to one local implementation of the SAP R/3 business processing software, and global ATP, which provides the general capability to run the ATP check simultaneously on a number of heterogeneous software installations. Global ATP is particularly important for a company operating worldwide or participating in cross-boundary supply networks. Some of the additional features provided by the Global ATP module of SAP APO 3.1 are the following. • Capable-to-promise (CTP) can be applied when the conventional ATP check fails, i.e. the requested product is not on stock at respective locations and not available from scheduled receipts. Simply speaking, CTP means calling a PP/DS run (see Section 4.5) during an ATP check. In the PP/DS run, an already existing production order is possibly modified in schedule time and order size or a new production order is created, taking production capacities and component availability into account. This option does not represent a substitute for regular production planning and scheduling in complex production environments, since extensive re-scheduling of existing production orders might cause undesired planning nervousness. In applications, however, where different variants of a basic product type are produced, adaptations of the corresponding lot sizes are easy to establish and, thus, CTP seems appealing. • Multi-level ATP: The basic idea underlying this feature is to confirm a customer order only if the components for the manufacture of the requested product are available on time. Corresponding check instructions determine the number of levels in the product structure for which the availability check is carried out. • Product allocation: Unpredicted events like machine breakdowns or increased demand sometimes lead to a situation where the expected demand exceeds the supply of a product. In such cases, a systematic allocation of supply among customers, customer groups, sales organizations, or regional markets is often preferred to a pure first-come-first served order fulfilment. • Quota arrangements can be established for incoming as well as for outgoing products. In the first case, pre-defined quota indicate which proportion of a requirement is to be procured from which source of supply (e.g. vendor). In the latter case, the arrangement determines the proportion of the final products to be delivered to the various onward locations (e.g. distribution centres). • Backorder processing supports updating of confirmed orders in the case of an unavoidable delay and the assignment of receipts to orders on the backorder list.
36
H.-O. Günther
4.8 Transportation Planning and Vehicle Scheduling Transportation refers to the movement of goods between different locations in a supply chain. The major flows of materials link a plant with its suppliers (inbound transportation) and the plant with its distribution centres and customers (outbound transportation). Transportation is a key issue in every supply network, not only because of the significant costs incurred, but mainly because the fulfilment of production and customer orders heavily depends on the timely execution of transportation activities (cf. Chopra and Meindl 2004, Chapter 14; Fleischmann 2005). In supply chains, transportation related planning tasks can be distinguished with respect to different time horizons and decision levels. In the long-run, decisions on the design of the transportation network have to be made. A first basic decision refers to the degree at which external logistics service providers (e.g. carriers or warehouses) should be integrated and to what extent the own company should provide logistics services to its customers (e.g. vendor managed inventory). Other long-term decisions include the choice of the transportation mode (e.g. truck or rail), the design of regional distribution networks, and policies for the distribution of inventories between the locations in the supply network. At the mid-term level, transportation planning is concerned with making optimal use of the available transportation resources. Typical decisions include the determination of regular freight frequencies between major locations, both on the procurement and the distribution side, and unit transportation sizes, e.g. a truck load or a number of containers. Additional decisions determine the selection of the distribution path, e.g. delivery via distribution centres for small-sized orders, and direct shipment from the plant for larger ones. In the short run, vehicle loading and scheduling are to be seen as the key issues. These planning tasks include the determination of the quantities to be shipped during a day, the assignment of loads to vehicles or other means of transportation, and the determination of the short-distance delivery tours, e.g. from a distribution centre to the customers. To support transportation planning and vehicle scheduling, SAP APO provides the TP/VS module. Among the many practical tools implemented in TP/VS, a few shall be mentioned. • The transport load builder consolidates loads for individual shipment legs, both for procurement and distribution quantities. • Vehicle scheduling focuses on the short-term (e.g. daily) routing of vehicles between pick-up and/or delivery destinations in the network. Typically, the start and end point of a tour are determined in advance, while the sequence of locations to be visited is variable. Constraints to
Supply Chain Management and Advanced Planning Systems: A Tutorial
37
be taken into account are given by time windows for delivery and vehicles, the loading capacity of vehicles, and the suitability of vehicles for certain types of goods (e.g. hazardous materials, bulk ware or fresh food). The usual objective is to minimize the length or the time of the generated tours. • The assignment of orders to vehicles is a more comprehensive approach, which seeks to consider a variety of company-owned and external means of transportation, time windows for loading and unloading, hard constraints for major resources (e.g. capacity of a vehicle), and soft constraints (e.g. delivery dates), for instance. Costs to be minimized in the corresponding optimization run include fixed and distance or timedependent transportation costs per vehicle, variable transportation costs per load unit, costs for stopovers and empty trips, and penalties for early and late delivery. • Collaborative transportation planning: To support collaboration of suppliers, manufacturers, and logistics service providers in a supply chain, the TP/VS module of SAP APO offers tools for the exchange of related shipping schedules via EDI or internet. This way, parties in the supply chain can make short-term decisions on acceptance or rejection of the transportation request and, if necessary, arrange alternative pickup or delivery dates.
5
Concluding Remarks
Meanwhile, developers of commercially available software for production planning and control have recognized that considerable cost savings and faster service in supply chains may be achieved by making use of sophisticated planning methods. This development produced numerous comprehensive software systems, which aim to support production and logistics planning and scheduling in the supply chain context. In the past decade, these so-called advanced planning systems have been adopted in different types of industry. At present, a change of paradigm takes place from the classical MRP II philosophy, which is based on a strict top-down planning procedure not considering the limited capacity of the required resources, towards APS which utilize the significant progress that has been achieved in the development of optimization algorithms and modelling tools as well as the great advances in information technology. As a result, many industrial companies have strengthened their efforts to employ APS for solving different problems arising in the field of production and logistics. Apart from individual planning methods and the many practical tools that have
38
H.-O. Günther
been integrated in modern APS, this new generation of planning and scheduling software has brought about some general improvements. • The need to integrate planning tasks at all managerial levels and between partners in a supply chain has been widely recognized. • Making effective use of resources is deemed as crucial for gaining competitive advantage. Accordingly, systems-thinking is increasingly geared towards consideration of constraints which limit the choice of operations for a company. APS explicitly take constraints arising from the limited availability of resources into account. • Collaboration between partners in a supply chain is seen as a major driver of improved supply chain performance. In modern APS, software modules provide considerable practical support for collaborative planning between different organizational units and even independent companies. • Share of information and increased transparency of business processes is another development that has been accelerated through the use of APS. Hence, the flexibility and responsiveness of supply chains is considerably improved. On the other hand, a great number of companies are still reluctant to using APS. This is not only due to a lack of understanding and expertise. Experience with the application of APS has shown that there is often a discrepancy between the expectations of companies and the capabilities of the software. In particular, optimization models can often not be solved within reasonable time limits, especially if interactive planning is desired. Also the willingness to share information, e.g. about costs or capacities, is often rather limited. Thus, APS appear to be most successful for intra-company supply chains with centralized logistics control. Another difficulty is the use of generic model formulations, which are often not sufficiently tailored to the needs of the specific application environment. Despite the power of modern APS, many of the successful implementations of sophisticated planning methods in industry represent solutions developed without the aid of comprehensive software systems designed for the support of enterprisewide planning functions.
References Altrichter F, Caillet T (2005) SCM in a pharmaceutical company. In: Stadtler H, Kilger C (eds) Supply chain management and advanced planning, 3rd ed. Springer, Berlin, pp 355-370
Supply Chain Management and Advanced Planning Systems: A Tutorial
39
Aytug H, Khouka M, Vergara FE (2003) Use of genetic algorithms to solve production and operations management problems: a review. International Journal of Production Research 41: 3955-4009 Berning G, Brandenburg M, Gürsoy K, Mehta V, Tölle FJ (2003) An integrated system solution for supply chain optimization in the chemical process industry. In: Günther HO, van Beek P (eds) Advanced planning and scheduling solutions in process industry. Springer, Berlin, pp 229-259 Brucker P (2004) Scheduling Algorithms, 4th ed. Springer, Berlin Chase RB, Jacobs FR, Aquilano NJ (2004) Operations management for competitive advantage, 10th ed. McGraw-Hill, Boston Chen IJ, Paulraj A (2004) Understanding supply chain management: critical research and a theoretical framework. International Journal of Production Research 42: 131-163 Chopra S, Meindl P (2004) Supply chain management: Strategy, planning, and operation, 2nd ed. Prentice Hall, Upper Saddle River, NJ de Kok AG, Graves SC (eds) (2003) Supply chain management: design, coordination and operation. Elsevier, Amsterdam Dickersbach JT (2004) Supply chain management with APO. Berlin, Springer Dornier PP, Ernst R, Fender M, Kouvelis P (1998). Global operations and logistics. Wiley, New York Fleischmann B (2005) Distribution and transport planning. In: Stadtler H, Kilger C (eds) Supply chain management and advanced planning, 3rd ed. Springer, Berlin, pp 229-244 Fleischmann B, Meyr H, Wagner M (2005) Advanced planning. In: Stadtler H, Kilger C (eds) Supply chain management and advanced planning, 3rd ed. Springer, Berlin, pp 81-106 Gen M, Cheng R (2000) Genetic algorithms and engineering optimization. Wiley, New York Goetschalckx M (2005) Strategic network planning. In: Stadtler H, Kilger C (eds) Supply chain management and advanced planning, 3rd ed. Springer, Berlin, pp 117-137 Grunow M, Günther HO, Lehmann M (2003a) Campaign planning for multi-stage batch processes in the chemical industry. In: Günther HO, van Beek P (eds) Advanced planning and scheduling solutions in process industry. Springer, Berlin, pp 73-106 Grunow M, Günther HO, Yang G (2003b) Plant co-ordination in pharmaceutics supply networks. In: Günther HO, van Beek P (eds) Advanced planning and scheduling solutions in process industry. Springer, Berlin, pp 261-293 Günther HO, van Beek P (eds) (2003) Advanced planning and scheduling solutions in process industry. Springer, Berlin Kallrath J (2003) Combined strategic and operational planning - an MILP success story in chemical industry. In: Günther HO, van Beek P (eds) Advanced planning and scheduling solutions in process industry. Springer, Berlin, pp 201227
40
H.-O. Günther
Kilger C, Schneeweiss L (2005a) Demand fulfilment and ATP. In: Stadtler H, Kilger C (eds) Supply chain management and advanced planning, 3rd ed. Springer, Berlin, pp 179-195 Kilger C, Schneeweiss L (2005b) Computer Assembly. In: Stadtler H, Kilger C (eds) Supply chain management and advanced planning, 3rd ed. Springer, Berlin, pp 389-406 Klein R (2005a) Constraint programming. In: Stadtler H, Kilger C (eds) Supply chain management and advanced planning, 3rd ed. Springer, Berlin, pp 493499 Klein R (2005b) Genetic algorithms. In: Stadtler H, Kilger C (eds) Supply chain management and advanced planning, 3rd ed. Springer, Berlin, pp 485-492 Knolmayer G, Mertens P, Zeier A (2002) Supply chain management based on SAP systems – Order management in manufacturing companies. Springer, Berlin Kreipl S, Pinedo M (2004) Planning and scheduling in supply chains: An overview of issues in practice. Production and Operations Management 13: 77-92 Makridakis S, Wheelwright SC, Hyndman RJ (1998) Forecasting methods and applications, 3rd ed. Wiley, New York Meyr H, Wagner M, Rohde J (2005) Structure of advanced planning systems. In: Stadtler H, Kilger C (eds) Supply chain management and advanced planning, 3rd ed. Springer, Berlin, pp 109-115 Miller T (2001) Hierarchical operations and supply chain planning. Springer, Berlin Pinedo M (2002) Scheduling: theory, algorithms, and systems, 2nd ed. Prentice Hall, Upper Saddle River, NJ SAP Help Portal (http://help.sap.com/) Silver EA, Pyke DF, Peterson R (1998) Inventory management and production planning and scheduling. Wiley, New York Stadtler H (2005) Supply chain management – an overview. In: Stadtler H, Kilger C (eds) Supply chain management and advanced planning, 3rd ed. Springer, Berlin, pp 9-35 Stadtler H, Kilger C (eds) (2005) Supply chain management and advanced planning, 3rd ed. Springer, Berlin Tayur S, Ganeshan R, Magazine M (eds) (1999) Quantitative models for supply chain management. Kluwer, Boston Wagner M, Meyr M (2005) Food and beverages. In: Stadtler H, Kilger C (eds) Supply chain management and advanced planning, 3rd ed. Springer, Berlin, pp 371-388 Waller D (2003) Operations management: a supply chain approach. Thomson, London, 2nd ed Wouda FHE, van Beek P, van der Vorst JGAJ, Tacke H (2003) An application of mixed-integer programming models on the redesign of the supply network of Nutricia Dairy & Drinks Group in Hungary. In: Günther HO, van Beek P (eds) Advanced planning and scheduling solutions in process industry. Springer, Berlin, pp 183-199
Koordinationsansatz für ausgewählte Module von Advanced Planning and Scheduling-Systemen David Betge, Rainer Leisten Lehrstuhl für Produktionswirtschaft und Industriebetriebslehre, Universität Duisburg-Essen (Campus Duisburg), Lotharstraße 65, 47057 Duisburg, {betge, leisten}@uni-duisburg.de
Abstract Advanced Planning and Scheduling (APS)-Systeme1 bilden eine Gruppe von modular aufgebauter Planungsunterstützungssoftware, die zum einen Erweiterungen zu Enterprise Ressource Planning (ERP)-Systemen darstellen. Zum anderen erfordern veränderte Anforderungen an die Planung zur Unterstützung des Supply Chain Management den Einsatz fortgeschrittener Methoden der Planung und Terminierung von unternehmensübergreifenden Produktionsprozessen. Da die durch die einzelnen Planungsmodule zu lösenden Teilpläne der Produktionsplanung zueinander interdependent in Beziehung stehen, sind die verschiedenen Module von APS-Systemen im Rahmen des sukzessiven Planungsprozesses zu koordinieren. Zur Abstimmung ausgewählter Planungsmodule wird ein iterativer Koordinationsansatz entwickelt und dessen Funktionsweise anhand einer Beispielrechnung verdeutlicht.
1
Einleitung
In diesem Beitrag werden ausgewählte Module von APS-Systemen jeweils durch ein formales Entscheidungsmodell abgebildet und ein Koordinationsansatz vorgestellt, der iterativ eine Abstimmung der verschiedenen Ergebnisse der Teilplanungen der Module unter Berücksichtigung unterschiedlicher Detaillierungsniveaus auf der Ebene der Produkte erreicht. 1
In der Literatur wird der Begriff der „Advanced Planning (AP)-Systeme“ synonym verwendet.
42
D. Betge, R. Leisten
Zunächst wird die Auswahl der Module begründet und der Koordinationsbedarf zwischen den Teilplänen herausgestellt. Nach einer Darstellung des Koordinationsansatzes von Schneeweiß (2003) wird dieser auf die spezielle Problemstruktur von APS-Systemen übertragen. Schließlich folgt die formale Abbildung der Module anhand von einfachen Entscheidungsmodellen und die schematische Umsetzung der Koordination an einem Beispiel.
2
Advanced Planning and Scheduling-Systeme
2.1 Aufgaben ausgewählter Module Das Angebot an Software-Systemen zur Unterstützung der allgemeinen Planungs- und Steuerungsaufgaben in den Unternehmen hat in den letzten Jahren erheblich zugenommen. APS-Systeme bilden eine Gruppe von Softwaremodulen zur Planungsunterstützung, die zum einen eine Ergänzung zu bestehenden Anwendungen bietet und zum anderen den Anforderungen an eine unternehmensübergreifende Planung gerecht werden soll. APS kann übersetzt werden als „erweiterte“ oder als „fortgeschrittene“ Planung und Terminierung. Die „Erweiterung“ der APS-Systeme bezieht sich auf die Bereitstellung zusätzlicher Funktionen und Verfahren für betriebliche Standardsoftware-Anwendungen, sog. Enterprise Resource Planning (ERP)-Systeme, die in der Regel auf dem 4-stufigen Konzept der Produktionsplanung und -steuerung (PPS) basieren, z. B. SAP R/3 (Knolmayer et al. 2000). Unter „erweiterten“ Verfahren werden daher sowohl formal-methodisch weiterentwickelte (z. B. Branch & Cut-Verfahren) als auch branchenspezifisch angepasste Optimierungsverfahren verstanden, die i. d. R. nicht im Umfang der ERP-Systeme enthalten sind. In der Abbildung 1 werden die verschiedenen Module von APSSystemen in einer Matrix mit den Dimensionen der Fristigkeit und der Unternehmensfunktionen vorgestellt.
Koordinationsansatz für ausgewählte Module von APS-Systemen
43
Fristigkeit Strategic Network Planning langfristig
kurzfristig
Master Planning Demand Planning
(mittelfristige Produktionsplanung)
(Absatzplanung) Material Requirements Planning (Bedarfsplanung)
Production Planning, Scheduling (Losgrößen- und Ablaufplanung)
Distribution Planning, Transport Planning (Transportplanung)
Kollaborative Planung
mittelfristig
Kollaborative Planung
(strategische Netzstrukturplanung)
Available to Promise (Verfügbarkeitsprüfung)
Supply Chain Monitoring
Beschaffung
Produktion
Distribution
Absatz
Unternehmensfunktionen
Abb. 1. Die Supply-Chain-Planning Matrix (in Anlehnung an Meyr et al. 2005)
In der weiteren Betrachtung werden lediglich die Module Master Planning, Production Planning und Scheduling in dem Koordinationsansatz berücksichtigt und erläutert. Die Module Production Planning und Scheduling werden oft zu einem Modul zusammengefasst (z. B. PP/DS von APO der SAP AG). Für eine vollständige Beschreibung der APS-Systeme wird auf Stadtler u. Kilger (2005) verwiesen. Das Ziel des Moduls Master Planning (mittelfristige Produktionsplanung) ist die Abstimmung des Materialflusses über die gesamte Supply Chain und alle innerbetrieblichen Produktionsstufen unter Berücksichtigung der jeweiligen Produktions-, Transport-, Beschaffungs- und Lagerkapazitäten (Rhode u. Wagner 2005). Auf der Basis von prognostizierten Bedarfsmengen der Absatzplanung (Demand Planning) und der festgelegten Supply Chain-Struktur (Network Design) sollen die zur Verfügung stehenden Kapazitäten möglichst gleichmäßig ausgelastet, der Lagerbestand möglichst niedrig gehalten und die größtmögliche Befriedigung der Kundennachfrage (qualitativ, quantitativ und rechtzeitig) erreicht werden. Im Ergebnis werden Produktionsmengen für die Teilperioden der Planungsperiode der abzusetzenden Produkte ermittelt (Master Production Schedule). Sie bilden die Grundlage der detaillierteren Produktionsplanung (Losgrößenplanung) und der Terminierung. Hierbei werden implizit Entscheidungen über die Synchronisation/Emanzipation der Produktion getroffen sowie die Lage von Kapazitätsengpässen bestimmt. Die mittelfristige Produktionsplanung (Master Planning) kann verglichen werden mit der Hauptproduktionsprogrammplanung des PPS-Konzeptes, d. h. der Bestim-
44
D. Betge, R. Leisten
mung von Art und Menge der zu produzierenden und abzusetzenden Produkte innerhalb eines festgelegten Planungshorizontes.2 Die hierbei einzusetzenden Modelle zur Bestimmung des optimalen Produktionsprogramms müssen wegen des niedrigen Detaillierungsgrades (Zeit-, Produkt- und Kapazitäts-/Strukturebene) sowohl die Problematik der Aggregation und Disaggregation berücksichtigen als auch die möglichen Reaktionen nachfolgender Planungsstufen antizipieren. Die Nichtbeachtung führt zu Ergebnissen der Produktionsplanung, die als Vorgaben im Rahmen der Zeitund Kapazitätsplanung ablaufplanerisch nicht umsetzbar sind. Die Aufgabe des Moduls Production Planning ist nach Auffassung von Meyr et al. (2005) die Bestimmung von Losgrößen. Ziel der meisten Planungsverfahren ist die Minimierung von gegenläufigen Kostenkomponenten (losfixe Auflage-, Bestell- oder Transportkosten und variable Lagerkosten), bei der weder die einmalige noch die bedarfssynchrone Beschaffung, Lieferung oder Fertigung von Gütern zur Deckung des auftretenden Bedarfes wirtschaftlich ist (Bogaschewsky 1995). Die Aufgabe des Moduls Scheduling (Ablaufplanung) ist zum einen die Festlegung der Bearbeitungsreihenfolge von Aufträgen in den einzelnen Stufen eines mehrstufigen Produktionsprozesses bzw. einer Supply ChainStruktur. Hierdurch werden auf Basis produktspezifischer Arbeitspläne die Bearbeitungstermine der Aufträge in den verschiedenen Stufen und die einzusetzenden Kapazitäten festgelegt. Zum anderen schließt die Ablaufplanung auch die Bestimmung der Abfolge der Arbeitsoperationen ein, d.h. ob die Vorgänge zeitlich parallel oder sequentiell unter Berücksichtigung technischer Vorgaben durchzuführen sind (Stadtler 2005). 2.2 Interdependenzen zwischen ausgewählten APS-Modulen Zwischen den Modulen Master Planning, Production Planning und Scheduling bestehen unterschiedliche Interdependenzen, die in einem Koordinationsansatz berücksichtigt werden müssen. 1. Interdependenz zwischen Master Planning und Production Planning Die Berechnung der (meist kosten-) optimalen Losgrößen erfolgt auf Basis eines zuvor festgelegten Produktionsprogramms. Durch die Losgrößenplanung werden die Anzahl der Umrüstungen und die Größe der Lose festgelegt. Die damit verbundenen Rüstzeiten sind jedoch von der 2
Der Planungshorizont muss so gewählt sein, dass bei Vorliegen von saisonalen Schwankungen die Zyklen vollständig betrachtet werden, da dies in der detaillierteren Ablaufplanung mit kürzeren Planungszeiträumen nicht erfüllt werden kann.
Koordinationsansatz für ausgewählte Module von APS-Systemen
45
insgesamt verfügbaren Zeit für die Produktion einer Anlage abzuziehen, die meist in der Programmplanung bestimmt wurde. Zudem sind die durch die Losbildung ermittelten Rüst- und Lagerkosten der Produktionsmengen Bestandteil der variablen Kosten, die in die Programmplanung nur in Form von Schätzungen einbezogen werden. 2. Interdependenz zwischen Master Planning und Scheduling In der Ablaufplanung werden auf Basis des Produktionsprogramms durch die Festlegung der Reihenfolge und die Zuordnung der Aufträge auf die Maschinen die tatsächlichen oder ggf. minimalen Durchlaufzeiten der einzelnen Aufträge und Stillstandszeiten der Maschinen bestimmt. Die Bestimmung des optimalen Produktionsprogramms erfolgt jedoch auf der Grundlage von festgelegten Produktionskoeffizienten und Produktionskapazitäten. 3. Interdependenz zwischen Production Planning und Scheduling Das Ziel der Losgrößenplanung im Rahmen der Planung des Moduls Production Planning ist die Minimierung der Rüst- und Lagerkosten. Die daraus resultierende Auftragsgröße berücksichtigt jedoch vielfach nicht die ablaufplanerisch notwendigen Zwischenlagerkosten bzw. die ablaufplanerische Durchsetzbarkeit überhaupt (Lossequenzproblem). Diese Informationen beruhen auf den Ergebnissen der Ablaufplanung, die meist auf Basis der zuvor bestimmten Losgrößen entstanden sind (Adam 1998).3
3
Koordination
3.1 Allgemeiner Ansatz von Schneeweiß In dem Ansatz von Schneeweiß (2003) wird zwischen einer übergeordneten Ebene (Top-Level) und einer untergeordneten Ebene (Base-Level) unterschieden, deren unterschiedliche Beziehungen in der Abbildung 2 dargestellt werden.
3
Aus diesem Grund ist die Trennung von Losgrößenplanung und Ablaufplanung problematisch. Beide Planungen sollten simultan durchgeführt werden. Integrierte Modelle dieser beiden Planungsschritte werden von (Dauzère-Péres u. Lasserre 1994) und (Drexl u. Kimms 1997) vorgestellt.
46
D. Betge, R. Leisten
Top-Level antizipierter Base-Level Antizipation (feedforward bottom-up Einfluss) (1)
Instruktion (top-down Einfluss) (2)
Reaktion (feedback bottom-up Einfluss) (3)
Base-Level ex post feedback Implementation
Objekt System
Abb. 2. Koordination in hierarchischen Planungssystemen (Schneeweiß 2003)
Im Top-Level hierarchischer Planungssysteme wird neben der Bestimmung von optimalen Entscheidungen des Top-Level auch die Zulässigkeit der Lösung für den Base-Level angestrebt. Da auf den unterschiedlichen dekomponierten Ebenen verschiedene Aspekte und Nebenbedingungen in der Planung berücksichtigt werden, müssen die relevanten Merkmale der untergeordneten Planung schon im Top-Level Berücksichtigung finden. Die Planungsebene, bei der in der übergeordneten Stufe bereits die relevanten Merkmale integriert werden, bezeichnet Schneeweiß als antizipierten Base-Level. Es handelt sich dabei in der Regel nicht um eine detailgetreue Abbildung des Base-Level, sondern um relevante Ausschnitte bzw. Aggregationen. Die Berücksichtigung von Merkmalen und Strukturen des Base-Level im Top-Level wird als Antizipation bezeichnet. Die (eventuell vergröberte) Abbildung des Planungsmodells des Base-Level sowie die Vorwegnahme der Reaktionen des Base-Level auf die Vorgaben des TopLevel stellt damit nicht den feedback-, sondern den sog. feedforward bottom-up-Einfluss dar und ermöglicht eine genauere Vorgabe des Top-Level an das Base-Level (Top-down-Instruktion). Die dritte Beziehung zwischen den Ebenen ist die Reaktion. Sie unterscheidet sich von der Antizipation
Koordinationsansatz für ausgewählte Module von APS-Systemen
47
dadurch, dass die Reaktion ein Ergebnis des Base-Level am Ende der Planungsperiode auf Basis einer festgelegten Instruktion des Top-Level darstellt. Bei der Übertragung des Koordinationsansatzes von Schneeweiß auf die drei ausgewählten Module ergibt sich folgende Struktur, wobei hierbei zusätzlich zwei unterschiedliche Detaillierungsgrade auf der Ebene der Produkte eingehen. Master Planning (Top-Level) Top Modell An
In
An
antizipiertes Intermediate Modell
Re
An
In aggregierte ProduktgruppenPlanung
antizipiertes Base Modell
In
Production Planning (Intermediate-Level)
Re detaillierte Produktplanung
Intermediate Modell An
In
Scheduling (Base-Level) Base Modell
An = Antizipation In = Instruktion/Vorgabe Re = Reaktion
Abb. 3. Koordination der Module Master Planning, Production Planning und Scheduling
3.2 Aggregation von Produktgruppen Die Aggregation stellt neben der Modellzerlegung und der Verringerung des Anspruchniveaus eine weitere Möglichkeit der Komplexitätsreduktion
48
D. Betge, R. Leisten
von zu umfangreichen Planungsproblemen dar, wie aus der Abbildung 4 hervorgeht. (modellorientierte) Komplexitätsreduktion in Produktionsplanungssystemen
Modellzerlegung
einzelne Ebene
Aggregation
Verringerung des Anspruchniveaus
mehrere Ebenen
Abb. 4. Instrumente der (modellorientierten) Komplexitätsreduktion in Entscheidungsmodellen (Leisten 1996)
Die Modellzerlegung, auch als Dekomposition bezeichnet, stellt ein Instrument der Komplexitätsreduktion dar. Da es sich bei APS-Systemen bereits um eine dekomponierte, modular aufgebaute Systemstruktur handelt, ist dieses Instrument in APS-Systemen eingesetzt worden. Eine weitere Möglichkeit der Reduzierung der Modellkomplexität kann durch die Verringerung des Anspruchniveaus (Relaxation) erfolgen. Beispiele sind die Vereinfachung des Modells durch Vernachlässigung von Restriktionen, lineare Approximationen von nicht-linearen Zusammenhängen oder kontinuierliche Formulierungen ganzzahliger Problemstrukturen. Bevor solche Maßnahmen jedoch ergriffen werden, wird zunächst versucht, einen Modellansatz so realproblembezogen wie möglich zu entwickeln. Die Aggregation, speziell in der Produktionsplanung, kann entweder nur einzelne oder mehrere Ebenen einbeziehen. Die unterschiedliche Detaillierung der Planungsebenen kann entweder unabhängig voneinander oder gemeinsam für Produkte (Produktgruppen-/Produktplanung), für die Zeit (Jahres-/Stundenplanung) oder für Produktionsstrukturen (Planung eines Standortes/einer Maschine) vorgenommen werden. In diesem Ansatz soll jedoch nur die Produktebene in unterschiedlichen Detaillierungsniveaus betrachtet werden, d. h. es sollen auf der Ebene des Master Planning aggregierte Produktgruppenmengen geplant werden, wohingegen im Rahmen von Production Planning und Scheduling für jede Gruppe die Planungen jeweils auf detaillierter Produktebene erfolgen.
Koordinationsansatz für ausgewählte Module von APS-Systemen
49
Bei der Aggregation von Produkten zu Produktgruppen sind folgende Fragen zu klären (Leisten 1996; Rogers et al. 1991): a) Wie groß ist die Anzahl der zu bildenden Produktgruppen/Cluster?4 b) Nach welchen Kriterien werden Produktgruppen gebildet (Ähnlichkeitsmaße)? c) Welches Produkt wird welcher Gruppe zugeordnet (Clusterprozedur)? d) Welche Gewichtung der einzelnen Produkte wird innerhalb der Gruppe gewählt? e) Mit welcher Gewichtung erfolgt die Disaggregation? f) Mit welchem Detaillierungsgrad soll disaggregiert werden? Die ersten drei Fragestellungen werden in der Praxis meist nach intuitiven logischen Regeln gelöst, d. h. klassische Gruppen nach innerbetrieblichen Strukturen gebildet.5 Liegt die Gruppenzuordnung fest, ist deren Gewichtung innerhalb der Gruppe von entscheidender Bedeutung. Da ein detailliertes Planungsmodell auf der aggregierten Ebene des Master Planning nicht gebildet wird, können die Mengenanteile der Produkte innerhalb einer Gruppe aus der Lösung des detaillierten Entscheidungsmodells, und damit die Gewichtungsfaktoren für die Aggregation, lediglich auf der Basis von Schätzungen festgelegt werden, wie aus der Abbildung 5 deutlich wird. Eine schlechte Abschätzung der Faktoren kann zur Folge haben, dass entweder der Entscheidungsraum (hier durch die Projektion auf einen eindimensionalen Unterraum) so stark eingeschränkt wird, dass entweder keine detaillierte Lösung aus dem aggregierten Planungsergebnis ermittelbar ist (1), oder nur wenige zulässige und suboptimale Lösungen des detaillierten Problems bestimmt werden können (2). Nur durch eine optimale Aggregation durch die optimale Gewichtung der Produkte X1 und X2 in dem aufgeführten Beispiel (3) kann das Gesamtoptimum (X1opt, X2opt) ermittelt werden. 4
5
Diese Frage ist zumindest bei der ersten Aggregation entscheidend. In einem iterativen Vorgehen kann die Anzahl durch eine schrittweise Verfeinerung der Cluster mit jeder Iteration zunehmen oder aber – zumindest theoretisch – durch sukzessive Vergröberung mit jeder Iteration abnehmen. Als Beispiel kann hier für einen Möbelhersteller die logische Gruppierung seiner Produkte in „Schlafzimmer“, „Wohnzimmer“ und „Küche“ herangezogen werden. Die produktionstechnische Ähnlichkeit einer Gruppe „Tische“ wäre größer als die Zusammenfassung von Betten und Tischen in der Gruppe „Schlafzimmer“ und führt in der Regel zu kleineren Aggregationsfehlern.
50
D. Betge, R. Leisten
X2
(1) (3) (2)
X2opt
Zielfunktion
X1opt
X1
Abb. 5. Lösungsbereiche bei unterschiedlicher Produktgewichtung
Die am häufigsten verwendete Methode der Disaggregation ist die fixed weight-Disaggregation, d. h. die Verteilung der Produktionsmengen auf die einzelnen Produkte mit Hilfe der bereits abgeschätzten Gewichtungsfaktoren der Aggregation.6 3.3 Koordinationsansatz für ausgewählte Module von APSSystemen In diesem Abschnitt wird ein Modellansatz entwickelt, der sowohl die Anforderungen an die Koordinationsnotwendigkeit zwischen den Modulen als auch die Aggregations-/Disaggregationsproblematik berücksichtigt. Folgende Prämissen werden für die weitere Betrachtung angenommen: -
-
6
In den Planungsebenen der drei betrachteten Module wird derselbe Planungshorizont mit derselben Periodeneinteilung verwendet. Auf den Ebenen Master Planning und Production Planning wird im Gegensatz zum Modul Scheduling nur eine Produktionsstufe betrachtet. Es wird nur eine Produktionsstätte mit Serienproduktion unterstellt. In dieser deterministischen Betrachtung werden nur einteilige Produkte betrachtet, die auf allen Maschinen bearbeitet werden.
Für die Darstellung weiterer Verfahren der Disaggregation wird verwiesen auf Leisten (1996).
Koordinationsansatz für ausgewählte Module von APS-Systemen
-
51
Zulieferer werden in diesem Koordinationsansatz nicht explizit betrachtet.
Für die Modelle werden folgende Entscheidungsvariablen und Parameter definiert: Entscheidungsvariablen: OtMP Zusatzkapazitätsnutzung in Periode t (Master Planning) OtPP Zusatzkapazitätsnutzung in Periode t (Production Planning) spt binäre Rüstvariable des Produktes p in Periode t xGt Absatzmenge der Produktgruppe G in Periode t xpt Absatzmenge des Produktes p in Periode t yGt Produktionsmenge der Produktgruppe G in Periode t ypt Produktionsmenge des Produktes p in Periode t zGt Lagermenge der Produktgruppe G zum Ende Periode t zpt Lagermenge des Produktes p zum Ende der Periode t Parameter: bt Normalkapazität in Periode t cG Produktionskosten (proportional) der Produktgruppe G cp Produktionskosten (proportional) des Produktes p dG Kapazitätsverbrauch pro Produktgruppeneinheit G dp Kapazitätsverbrauch pro Produkteinheit p eG Stückerlös der Produktgruppe G ep Stückerlös des Produktes p fp Rüstkosten je Rüstvorgang des Produktes p gG Gruppenanteil der Gruppe G gGp Gewichtungsfaktor für Produkt p innerhalb der Gruppe G lbG Absatzuntergrenze der Produktgruppe G in Periode t lbp Absatzuntergrenze des Produktes p in Periode t lG Lagerhaltungskosten der Produktgruppe G lp Lagerhaltungskostensatz des Produktes p M große Zahl o Kosten für die Inanspruchnahme von Zusatzkapazität OtMPmax maximale Zusatzkapazität für alle Produktgruppen in Periode t (Master Planning) PPmax Ot maximale Zusatzkapazität für eine Produktgruppe in Periode t rp Rüstzeit je Rüstvorgang des Produktes p ubG Absatzobergrenze der Produktgruppe G in Periode t ubp Absatzobergrenze des Produktes p in Periode t zG0 Anfangslagerbestand der Produktgruppe G zum Ende der Periode 0 zGT Lagerendbestand der Produktgruppe G zum Ende der Periode T
52
D. Betge, R. Leisten
zp0 zpT 3.3.1
Anfangslagerbestand des Produktes p zum Ende der Periode 0 Lagerendbestand des Produktes p zum Ende der Periode T Modellformulierung für Master Planning
Die mathematische Abbildung des Moduls Master Planning auf Produktgruppenebene hat zur Folge, dass aggregierte Gruppenvariablen gebildet werden müssen. Des Weiteren wird auf dieser Ebene nur eine Produktionsstufe betrachtet. G
max
⎛ ⎜ T ⎜ ⎜ e G x Gt − c G y Gt − l G z Gt − ⎜ t =1 ⎜ ⎜ ⎝
∑∑ G =1
PG
∑f s
p pt
p =1
−
l G y Gt 2
PG
∑s p =1
pt
⎞ ⎟ ⎟ ⎟ − oO MP t ⎟ ⎟ ⎟ ⎠
(1)
Die Zielfunktion (1) des Entscheidungsmodells für das Modul Master Planning setzt sich zusammen aus den Erlösen der aggregierten Absatzmengen, von denen aggregierte Produktions- und Lagerkosten abgezogen werden. Im Gegensatz dazu bleiben in der aggregierten Programmplanung sowohl die Rüstkosten als auch die Rüsthäufigkeiten in disaggregierter Form bestehen. Die Anzahl der Rüstungen der einzelnen Produkte aller Gruppen ist in der aggregierten Programmplanung keine Entscheidungsvariable und stellt in der ersten Iteration des dreistufigen Planungsverfahrens einen vergangenheitsorientierten fixen Durchschnittswert dar. Der Wert spt dient in diesem Entscheidungsmodell lediglich dazu, bereits in der aggregierten Planung die Rüstkosten in der Zielfunktion zu berücksichtigen und die Gesamtkapazität um eine abgeschätzte Rüstzeit in der Kapazitätsrestriktion (3) zu korrigieren. Die Aggregation der Parameter fp und rp ist damit auch nicht erforderlich. Eine Aggregation der Rüstzeiten und der Rüstkosten mit den Gewichtungsfaktoren gp würde zudem zu unzulässigen aggregierten Parametern für Rüstkosten und -zeiten führen, da die Rüsthäufigkeit nicht proportional zur Produktionsmenge, sondern in Abhängigkeit von der Höhe der Lager- und Rüstkosten sowie dem zeitlichen Bedarfsverlauf stehen.7 Zudem werden, neben den allgemeinen Lagerkosten bezogen auf die Lagermenge, auch losauflagebedingte Lagerkosten in die
7
Die Proportionalisierung der Rüstproblematik (mit binären Rüstvariablen) auf Produktionsmengen und deren Zurechnung auf die allgemeinen variablen Stückkosten wird dagegen in der Literatur häufig zur Reduzierung der Komplexität des Entscheidungsmodells vorgenommen, führt aber zu sehr ungenauen Abschätzungen der tatsächlich entstehenden Rüstzeiten und -kosten.
Koordinationsansatz für ausgewählte Module von APS-Systemen
53
Zielfunktion integriert. Schließlich wird die Nutzung von Zusatzkapazität für alle Produktgruppen zugelassen. Die Gewichtung der Produkte bzw. die Festlegung der Anteile innerhalb einer Gruppe wird zunächst aus den Absatzunter- und -obergrenzen der Produkte innerhalb einer Gruppe durch die Gleichung (2) abgeschätzt: ub p + lb p g Gp =
(2)
2 PG
⎛ ub p + lb p ⎜ ⎜ 2 p =1 ⎝
∑
⎞ ⎟ ⎟ ⎠
=
ub p + lb p PG
∑ (ub p =1
p
+ lb p
)
Der Mittelwert von Ober- und Untergrenze für die Absatzmenge jedes Produktes wird in Beziehung zu dem Mittelwert der Absatzmengen der gesamten Gruppe gesetzt. Diese Betrachtungsweise hat den Vorteil, dass zunächst eine Mittelwertbetrachtung eine überdurchschnittliche Anteilszuweisung zu einzelnen Produkten innerhalb der Gruppe nicht zulässt. Zudem können sowohl sehr kleine als auch sehr große Streuungen bei gleichem Mittelwert formuliert werden, ohne dass sich das Ergebnis ändert. ⎛ ⎜d y + ⎜ G Gt G =1 ⎝ G
∑
⎞ rp s pt ⎟ ≤ b t + O MP t ⎟ p =1 ⎠
(3)
PG
∑
für alle t = 1,..,T
Die Kapazitätsbedingung (3) sichert über alle Teilperioden, dass die Produktions- und Rüstzeit die Normal- und Zusatzkapazität nicht überschreitet. Die Rüstzeit bleibt hierbei in disaggregierter Form erhalten. lb G ≤ x Gt ≤ ub G
für alle G = 1,.., G und t = 1,..,T
(4)
Neben der Formulierung von Absatzobergrenzen auf Gruppenebene wird in der Nebenbedingung (4) auch eine Untergrenze eingeführt. Während die Obergrenze als maximales Absatzpotenzial einer bestimmten Produktgruppe interpretiert werden kann, wird die Untergrenze von Gruppenmengen als eine strategische Mindestmenge verstanden, so dass auch Produktgruppen mit vergleichsweise geringem Deckungsbeitrag, aber hoher strategischer Bedeutung in das Produktionsprogramm mit aufgenommen werden müssen (Homburg u. Krohmer 2003). z Gt = z Gt −1 + y Gt - x Gt
für alle G = 1,.., G und t = 1,..,T PG
PG
p =1
p =1
mit z G0 = ∑ z p0 und z GT = ∑ z pT
(5)
54
D. Betge, R. Leisten
In der Gleichung (5) werden zum einen die Variablen xGt, yGt und zGt logisch verknüpft und zum anderen der Lagerbestand über die Perioden fortgeschrieben. Die Absatzmenge xGt kann somit entweder durch die Produktionsmenge in der gleichen Periode t oder durch den Lagerbestand gedeckt werden. x Gt , y Gt , z Gt , O MP ≥0 t
O MP ≤ O MPmax t t
für alle G = 1,.., G und t = 1,..,T
(6)
für alle t = 1,..,T
(7)
Die Nichtnegativitätsbedingungen (6) werden auf Produktgruppenebene formuliert. Die Begrenzung der Nutzung von Zusatzkapazität ist durch die Gleichung (7) dargestellt. 3.3.2
Modellformulierung für Production Planning
Das Formalmodell für das Modul Production Planning bezieht sich im Gegensatz zur Formulierung des Moduls Master Planning auf Produkte innerhalb einer Gruppe G, d. h. es wird für jede Gruppe aufgestellt und gelöst. PG
max
T
∑∑ (e
p x pt
− c p y pt − l p z pt − f p s pt − oO PP t
p =1 t =1
)
(8)
In der Zielfunktion (8) werden für alle Produkte einer Gruppe G die Produktions-, Lager- und Rüstkosten sowie die Kosten der Inanspruchnahme der Zusatzkapazität von den Stückerlösen abgezogen, d. h. der Stückdeckungsbeitrag auf Produktebene maximiert. PG
∑ (d p =1
p y pt
)
+ rp s pt ≤ g G b t + O PP für alle t = 1,..,T t
(9)
Die Kapazitätsrestriktion (9) lässt erneut die Inanspruchnahme der Zusatzkapazität zu. PPmax O PP = g G O MP für alle t = 1,..,T t ≤ Ot t
mit Ot
PPmax
(10)
= gGOt
MP
und gG ≤ 1
Die maximale Zusatzkapazität für die Produktgruppe G ergibt sich aus dem Gruppenanteil der in der Programmplanung ermittelten Inanspruch-
Koordinationsansatz für ausgewählte Module von APS-Systemen
55
nahme der Zusatzkapazität für alle Gruppen.8 Die notwendige Zusatzkapazität aus dem Master Planning wird somit auf die Gruppen je nach Gruppengewicht verteilt (10). für alle t = 1,..T und p ∈ PG
z pt = z pt −1 + y pt - x pt PG
∑ z0 = z
(11) (12)
G0
p =1
PG
∑z
pT
= zGT
(13)
p=1
Zur Fortschreibung des Lagerbestandes (11) und zur Verknüpfung der Lageranfangs- und -endmengen (12), (13) der Modelle Master Planning und Production Planning hinsichtlich der unterschiedlichen Aggregationsebenen dienen die folgenden Gleichungen. Da in der gruppenbezogenen Programmplanung keine Produkt-, sondern nur Gruppenmengen bestimmt wurden, muss die Aufteilung der gruppenbezogenen Absatzmengen auf die Produkte vorgenommen werden. Die einfachste und klassische Alternative liegt in der fixed weight-Disaggregation. Da jedoch durch Unkenntnis der detaillierten Lösung für das aggregierte Programmplanungsmodell die erstmalige Abschätzung der Gewichtungsfaktoren nicht zu einer optimalen oder zulässigen Lösung führt (vgl. Abschnitt: Aggregation von Produktgruppen), wird in dieser Planungsstufe auch auf Produktebene die Nebenbedingung (14) eingeführt. lb p ≤ x pt ≤ ub p
für alle t = 1,..,T und p ∈ PG
(14)
Die aggregierten Absatzmengen werden zwar in der Programmplanung berechnet, aber deren endgültige Verteilung auf die Produkte nicht festgelegt, sondern vielmehr über Absatzober- und Absatzuntergrenzen gesteuert. y pt ≤ Ms pt x pt , y pt , z pt , O PP t ≥ 0
8
für alle t = 1,..,T und p ∈ PG für alle t = 1,..,T und p ∈ PG
(15) (16)
In der Praxis ist häufig zu beobachten, dass auf detaillierterer Planungsebene nicht immer die vollständige Zusatzkapazität in Anspruch genommen werden muss. Daher wird in diesem Entscheidungsmodell die erneute Berechnung der Zusatzkapazität für jede Gruppe zugelassen.
56
D. Betge, R. Leisten
Die Bedingung (15) erzwingt die Aktivierung der Rüstvariablen spt auf den Wert 1, sobald in dieser Periode produziert wird, und sichert damit sowohl die Berücksichtigung der Rüstkosten in der Zielfunktion als auch die der Rüstzeiten in der Kapazitätsbedingung. Hierbei ist M ausreichend groß zu wählen.9 Die Nichtnegativitätsbedingung (16) vervollständigt das Modell. 3.3.3
Modellformulierung für Scheduling
Im Rahmen des Moduls Scheduling soll zum einen eine detaillierte Losauflagereihenfolge bestimmt werden. Zum anderen ist die ablaufplanerische Durchführbarkeit der in der Losgrößenplanung berechneten Produktionsmengen zu überprüfen. Diese Zulässigkeit muss nicht gewährleistet sein, da einerseits von der Losgrößenplanung in den Produktions- und Rüstzeiten keine ablaufplanerischen Leerzeiten berücksichtigt werden können (da diese Information das Ergebnis der Ablaufplanung darstellt) und andererseits in dieser Planungsstufe zu einer Betrachtung mehrerer Produktionsstufen übergegangen wird und weitere potenzielle Engpasskapazitäten in die Ablaufplanung einbezogen werden müssen. Das Ziel dieser Planung ist somit, die in der aggregierten Programmplanung und der gruppenspezifischen Losgrößenplanung abgeschätzten Produktions- und Rüstkoeffizienten unter der Berücksichtigung der ablaufplanerischen Umsetzbarkeit realitätsnah zu korrigieren. Für die weiteren Untersuchungen wird eine klassische Flowshop-Struktur unterstellt. Komplexere Fertigungsstrukturen können durch entsprechend komplexere Jobshop-Modelle abgebildet werden. Zur Prüfung der ablaufplanerischen Zulässigkeit wird die Heuristik von Nawaz, Enscore und Ham (NEH) zur Minimierung der Zykluszeit herangezogen.10 Grundlegend ist die Annahme, dass Aufträge mit einer größeren Gesamtbearbeitungszeit bei der Berücksichtigung der Einplanung eine höhere Priorität haben sollten als Aufträge mit einer geringeren Gesamtbearbeitungszeit (Nawaz et al. 1983). Formal lässt sich dieses Vorgehen wie folgt beschreiben: 9
10
Aus algorithmischen Gründen sollte M so klein wie möglich gewählt werden, also etwa gleich der Summe der Nachfragen von der aktuellen bis zum Ende des Planungshorizontes sein. Die NEH-Heuristik lässt sich zudem modifiziert auf das Ziel der Minimierung der Summe der Durchlaufzeiten der einzelnen Aufträge und das Ziel der Minimierung der Leerzeiten anwenden und führt zu guten Ergebnissen im Vergleich zu speziellen Heuristiken, die nur zur Berechnung dieser beiden Ziele entworfen wurden (Framinan u. Leisten 2003; Framinan et al. 2003).
Koordinationsansatz für ausgewählte Module von APS-Systemen
57
1. Sortiere n Aufträge nach monoton fallender Gesamtbearbeitungszeit auf allen Maschinen m. 2. Nehme die ersten beiden Aufträge und bestimme die beste partielle Reihenfolge durch Berechnung der jeweiligen Zykluszeit. Behalte die beste Reihenfolge bei. Setze den Iterationszähler auf K = 3 3. Nehme den Auftrag an der K-ten Stelle der in Schritt 1 bestimmten Sortierung und suche die beste Reihenfolge durch Einfügung des K-ten Auftrags in alle möglichen Positionen der bisherigen partiellen Reihenfolge, ohne die relative Sequenz der bisher schon eingeplanten Aufträge zu verändern. Die Anzahl der Einsetzungsvorgänge ist K. 4. Setze K = K+1 und wiederhole Schritt 3 solange bis K = n. 3.3.4
Iterative Koordination
Die Koordination beschränkt sich in diesem Gesamtkonzept zwischen den drei Modulen von APS-Systemen nicht nur auf die weit verbreitete topdown-Koordination klassischer PPS-Konzepte, sondern umfasst auch die bottom-up-Koordination. Das Vorgehen wird in der Abbildung 6 verdeutlicht. 1. Initialisierung
2. Kalibrierung
3. Validierung
Master Planning
Master Planning
Master Planning (kalibriert)
Production Planning
Production Planning
Production Planning (kalibriert)
Scheduling
Scheduling
Scheduling
Abb. 6. Iterative Koordination der Module Master Planning, Production Planning und Scheduling
In der Initialisierung werden alle Planungsstufen mit Ausgangsdaten und antizipierten Parametern (u. a. Rüstkosten und Rüstzeiten aus der Losgrößenplanung) nacheinander top-down durchlaufen, wobei das primäre Ziel der jeweiligen Planungsebenen die Suche nach zulässigen Lösungen für das entsprechende Entscheidungsmodell ist. In der Kalibrierung wer-
58
D. Betge, R. Leisten
den die Ergebnisse der verschiedenen Planungsebenen/Module schließlich zur Korrektur der abgeschätzten Ausgangsparameter in den Optimierungsmodellen genutzt (bottom-up). Die Validierung unterscheidet sich von der Initialisierung schließlich in den Modellparametern, die nun unter Berücksichtigung der Planungsergebnisse der untergeordneten Ebenen angepasst/kalibriert wurden. Sofern in der Ablaufplanung keine zulässige Lösung im Rahmen der Validierung ermittelt werden kann, wird in einer weiteren Iteration die Kalibrierung wiederholt. Es kann somit vorkommen, dass erst durch mehrere Iterationen bzw. Anpassungsschritte der Modellparameter die ablaufplanerische Zulässigkeit der Vorgaben übergeordneter Planungsebenen gegeben ist. Die Anzahl der möglichen Iterationen wird im Rahmen des Rechenbeispiels näher betrachtet. Die Abbildung 7 stellt die Parameter dar, die für den Koordinationsansatz zwischen den Modulen verwendet werden.
Master Planning/ Programmplanung
Kapazitätsanteil der Gruppe G: gG (bt + OtMP) korrigierte Produktionskoeffizienten: dp,korr
Produktgewichtungsfaktor der Gruppe G: gGp, gGp,korr Rüstintensitäten: spt, spt,korr
Production Planning/ Losgrößenplanung Zusatzkapazitätsbedarf: OtPP optimale Losgrößen: ypt
korrigierte Produktionskoeffizienten: dp,korr
Scheduling/ Ablaufplanung
Abb. 7. Parameter der Koordination
In den folgenden Abschnitten wird die Koordination der einzelnen Parameter jeweils zwischen zwei Planungsebenen sowohl top-down als auch bottom-up erläutert.
Koordinationsansatz für ausgewählte Module von APS-Systemen
59
Koordination zwischen Master Planning und Production Planning Die Koordination zwischen den beiden Planungsebenen Master Planning und Production Planning lässt sich in die Initialisierung (top-down), die Kalibrierung (bottom-up) und die Validierung (top-down) unterscheiden. Auf der Ebene des Master Planning wird in der Initialisierung unter Antizipation der Rüstvorgänge neben den aggregierten Absatz-, Produktionsund Lagermengen zusätzlich die insgesamt über alle Gruppen hinweg benötigte Zusatzkapazität Ot bestimmt. Der tatsächlich von der Gruppe beanspruchte Teil dieser Kapazität wird für die untergeordnete Produktplanung vorgegeben (gGOt). Zur Aggregation der Parameter wird in der Initialisierung folgender Gewichtungsfaktor verwendet. g Gp =
ub p + lb p PG
∑ (ub
p
(17)
+ lb p
p =1
)
In der Kalibrierung werden die Ergebnisse des Moduls Production Planning unter Berücksichtigung der Vorgaben des Moduls Master Planning bottom-up wieder zurück gegeben, d. h. die Anzahl der Rüstungen spt,korr und die abgeschätzten Gewichtungsfaktoren gGp,korr mit den tatsächlichen Absatzmengen-Anteilen exakt bestimmt. T
g Gp,korr =
∑x
(18) pt
t =1 PG T
∑∑ x
pt
p =1 t =1
In der Validierung werden wiederholt unter Berücksichtigung der korrigierten Rüstvorgänge und der Gewichtungsfaktoren die in Anspruch zu nehmende gesamte Zusatzkapazität Ot über alle Gruppen bestimmt und die tatsächlich der jeweiligen Gruppe zugewiesene Kapazitätsreserve gG,korrOt top-down vorgegeben. Durch die Korrektur des Gewichtungsfaktors für die Produkte ändern sich damit alle aggregierten Gruppenparameter. Koordination zwischen Production Planning und Scheduling Die Produktions- und Rüstzeit der Produktionslose ypt wird top-down in der Initialisierung als Auftrag zur Überprüfung der ablaufplanerischen Zulässigkeit an das Modul Scheduling weitergegeben. Durch die ablaufplanerisch bedingt auftretenden Leerzeiten, die trotz einer zielgerichteten Reihenfolgebestimmung (mit Hilfe des NEH-Ansatzes) nicht zu vermeiden sind, und durch die hinzugekommene Betrachtung weiterer potenzieller Engpasskapazitäten werden die ursprünglichen Produktionskoeffizienten
60
D. Betge, R. Leisten
dp in dp,korr für die Planung im Rahmen des Moduls Production Planning korrigiert. Zudem muss die der Gruppe zugewiesene Normal- und Zusatzkapazität auf jeder Produktionsstufe ausreichen, da ansonsten kein zulässiger Losgrößenplan bestimmt werden kann. Durch diese bottom-up Koordination zum Production Planning wird erreicht, dass schon in der kapazitativen Prüfung der Losgrößenplanung die Ablaufplanung antizipiert wird, indem die Losgrößen mit korrigierten Produktionskoeffizienten eingeplant werden. In der Validierung werden vom Modul Production Planning korrigierte Losgrößen ypt berechnet und top-down für die Ablaufplanung zur Prüfung der ablaufplanerischen Zulässigkeit vorgegeben. Diese Überprüfung der korrigierten Losgrößen erfolgt jedoch weiterhin mit den tatsächlichen Produktionszeiten dp. Sofern die von dem Modul Production Planning bestimmte Zusatzkapazität ausreicht, endet der Koordinationsdurchlauf. Sollte jedoch auf einer der betrachteten potenziellen Engpassmaschinen die Normal- und Zusatzkapazität nicht ausreichen, werden die Produktionskoeffizienten dp,korr zunehmend erhöht, um die ablaufplanerische Zulässigkeit zu gewährleisten. Koordination zwischen Master Planning und Scheduling Eine direkte top-down-Koordination zwischen diesen beiden Planungsstufen erfolgt in dem Gesamtkonzept für APS-Systeme nicht. Dagegen besteht in dem vorgestellten Koordinationskonzept zwischen Master Planning und Scheduling eine direkte bottom-up-Beziehung. In der Kalibrierung werden aus der Überprüfung der ablaufplanerischen Zulässigkeit der Ergebnisse der Losgrößenplanung die produktspezifischen Bearbeitungszeiten u. a. um die Leerzeiten korrigiert. Entscheidend ist daher, dass im Master Planning in der Initialisierung (19) und in der Validierung unterschiedliche aggregierte Produktionszeiten als Parameter verwendet werden, d. h. eine doppelte Korrektur vorgenommen wird (20). dG =
PG
∑
(19) g Gp d p
(Initialisierung)
p =1
d G,korr =
PG
∑g
Gp, korr d p, korr
(Validierung)
(20)
p =1
Eine weitere Koordinationsaufgabe besitzt das Modul Scheduling, indem die Erreichung eines ablaufplanerisch zulässigen Produktionsplanes das Abbruchkriterium des Koordinationsablaufes darstellt. Da im Rahmen des Scheduling dp,korr an die übergeordneten Planungsebenen weitergegeben wird, aber auch in der Validierung auf der Ebene der Ablaufplanung
Koordinationsansatz für ausgewählte Module von APS-Systemen
61
weiterhin die Zulässigkeit mit dp überprüft wird, ist die Anzahl der Iterationen endlich. Die korrigierte Produktionszeit dp,korr kann sich im Vergleich zu dp mit jeder Iteration nur erhöhen, solange die Normalkapazität sowie die zusätzlich eingeplante Zusatzkapazität auf allen Maschinen für die Produktion, die Rüstungen und die ablaufplanerisch bedingten Leerzeiten ausreicht (dp,korr ≥ dp).
4
Zusammenfassung der Ergebnisse
Durch den beschriebenen Koordinationsansatz wird erreicht, dass auf der Ebene des Master Planning Abschätzungen von Gewichtungsfaktoren für die Bildung von aggregierten Produktgruppen korrigiert werden. Zudem verbessern sich die Planungsergebnisse bereits nach wenigen Iterationen (siehe nachfolgende Beispielrechnung) in Bezug auf die ablaufplanerische Umsetzung der Produktionspläne durch die frühzeitige Antizipation nachfolgender Entscheidungsmodelle. Tabelle 1. Gegenüberstellung der Ergebnisse der Initialisierung und der Validierung Teilperiode 1 Überlast Maschine (Ini.) M1 1% M2 12 % M3 18 %
(Val.) -25 % -11 % 0%
Teilperiode 2 Überlast
Teilperiode 3 Überlast
Teilperiode 4 Überlast
(Ini.) 6% 22 % 42 %
(Ini.) -11 % -5 % 1%
(Ini.) -6 % 15 % 29 %
(Val.) -25 % -10 % 1%
(Val.) -24 % -15 % -5 %
(Val.) -31 % -15 % -4 %
In der Tabelle 1 ist für die in der Folge beschriebenen Probleminstanz zum einen dargestellt, wie hoch die Überlast auf den Maschinen M1-M3 ohne Koordination der Planungsergebnisse (Initialisierung, abgekürzt: Ini.) der betrachteten Module ausfällt. Durch die Anwendung des Koordinationsansatzes kann die Überlast bereits in der ersten Validierungsphase (abgekürzt: Val.) weitestgehend reduziert werden. Die Antizipation muss jedoch, wie in diesem Ansatz gezeigt, nicht dazu führen, dass die Planungsmodelle auf allen Ebenen eine Komplexität erreichen, die die Lösungsfähigkeit einschränkt. Dieser Ansatz kann daher auch auf reale Problemgrößen angewendet und in APS-Systeme integriert werden.
62
D. Betge, R. Leisten
Anhang: Beispielrechnung In dem folgenden Beispiel werden 10 Produkte zu 4 Gruppen aggregiert. Der Planungszeitraum ist in 4 Teilperioden unterteilt. Als Optimierungssoftware wurde CPLEX 8.0 verwendet und die Modellierung mit Hilfe des OPL-Studios Version 3.6 vorgenommen. Für das Beispiel sind folgende Ausgangsdaten in der Tabelle 2 gegeben (zur Übersichtlichkeit wurden die Werte gerundet): 1. Initialisierung Tabelle 2. Ausgangsdaten für das Modul Master Planning (Initialisierung) Gruppen G1 G2 G3 Produkte P1 P2 P3 P4 P5 P6 P7 P8 Stückerlöse det. 80 100 200 100 50 70 150 190 Stückerlöse agg. 141 69 178 Stückkosten det. 40 30 40 60 10 10 50 70 Stückkosten agg. 36 23 64 Lagerkosten det. 0,1 0,2 0,2 0,1 0,05 0,3 0,4 0,4 Lagerkosten agg. 0,19 0,14 0,4 Prod.-zeiten det. 2 3 3 4 1 2 5 4 Prod.-zeiten agg. 2,88 2,06 4,3 Absatzuntergrenzen 0 200 200 80 80 40 100 100 in ME Absatzobergrenzen 200 500 500 320 620 460 240 560 in ME Rüstzeiten in ZE 20 30 40 50 30 50 20 20 Rüstkosten in ZE 30 40 40 60 10 20 30 10
G4 P9 P10 120 140 128 80 60 72 0,1 0,2 0,14 6 2 4,4 200
0
600 600 10 20
40 20
Anhand der Ausgangsrüstmatrix in der Tabelle 3 werden die Rüstkosten und Rüstzeiten berechnet:
Koordinationsansatz für ausgewählte Module von APS-Systemen
63
Tabelle 3. Rüstmatrix (Initialisierung) Gruppen Produkte Teilperiode 1 Teilperiode 2 Teilperiode 3 Teilperiode 4 Summe
P1 0 1 0 1 2
G1 P2 1 1 0 0 2
P3 0 1 1 1 3
G2 P5 1 0 0 1 2
P4 1 0 0 0 1
G3 P6 0 1 0 0 1
P7
P8 1 1 1 1 4
P9 1 0 0 1 2
G4 P10 1 1 1 1 1 0 1 0 4 2
Das Ergebnis des Entscheidungsmodells für das Modul Master Planning des ersten Durchlaufes ist in der Tabelle 4 dargestellt. Tabelle 4. Ergebnis des Moduls Master Planning (Initialisierung) für die Teilperioden 1-4 G1 Produktionsmengen in ME Zeitbedarf in ZE Bedarfsanteile für die Kapazitätszuweisung in %
G2
G3
G4
Summe
1.200
809
2.240
880
3.670
969
2.360
1.000
8.000
46 %
12 %
30 %
13 %
100 %
Mit Hilfe der Losgrößenplanung des Production Planning-Moduls werden schließlich unter Nutzung der zugewiesenen Kapazitäten für jede Gruppe die optimalen Produktionslose berechnet. Tabelle 5. Ergebnis des Moduls Production Planning (Initialisierung) Gruppen G1 G2 G3 G4 Produkte P1 P2 P3 P4 P5 P6 P7 P8 P9 P10 Losauflage2 4 4 2 2 1 2 4 3 2 häufigkeit Produktionsmengen 115 500 500 80 410 95 130 375 200 400 (Teilperioden 1-4) Gruppenanteil in % 10 45 45 14 70 16 26 74 33 67 Ausgangs12 44 44 25 44 31 30 70 60 40 gewichtung in %
64
D. Betge, R. Leisten
Aus der Tabelle 5 wird deutlich, dass sich die Gewichtung der Produkte innerhalb einer Gruppe (in diesem Beispiel Gruppe G2 und G4) sehr stark von der abgeschätzten Gewichtung unterscheiden kann. Im Rahmen des Scheduling werden nun durch Anwendung des NEH-Ansatzes die Produktionslose/Jobs in eine Reihenfolge gebracht und auf Zulässigkeit geprüft. Hierbei werden vor- und nachgelagerte Maschinen in der Ablaufplanung zusätzlich berücksichtigt. In der Tabelle 6 sind die Ergebnisse der Ablaufplanung aufgeführt. Tabelle 6. Ergebnis des Moduls Scheduling Maschine M1 M2 M3
Teilperiode 1 DLZ Überlast 2.740 1% 3.012 12 % 3.173 18 %
Teilperiode 2 DLZ Überlast 2.532 6% 2.920 22 % 3.402 42 %
Teilperiode 3 DLZ Überlast 1.991 -11 % 2.126 -5 % 2.252 1%
Teilperiode 4 DLZ Überlast 1.937 -6 % 2.360 15 % 2.639 29 %
Die Ergebnisse in der Tabelle 6 zeigen, wie erheblich die ursprünglich berechnete Kapazität in den Perioden überschritten wird. Die maximale Überschreitung in der 2. Teilperiode auf Maschine 3 beträgt 42 %.11 Hieraus wird deutlich, dass ablaufbedingte Stillstandszeiten und Umrüstungen stärker in den Produktionskoeffizienten berücksichtigt werden müssen. Für den folgenden Durchlauf werden schließlich die Produktionskoeffizienten für alle Maschinen um die maximale Überschreitung, d. h. um 42 % erhöht. 2. Kalibrierung Wesentlicher Unterschied zum ersten Planungslauf (Initialisierung) ist die Korrektur der Produktgewichtung, der Rüsthäufigkeiten aus dem Production Planning und der Produktionskoeffizienten aus der Ablaufplanung im Rahmen der Kalibrierung. Die Ergebnisse der Kalibrierung sind in der Tabelle 7 aufgeführt.
11
Die in dem Entscheidungsmodell des Moduls Production Planning bestimmte Normal- und Zusatzkapazität wird zur Durchlaufzeit (DLZ in ZE) als Ergebnis des Moduls Scheduling ins Verhältnis gesetzt.
Koordinationsansatz für ausgewählte Module von APS-Systemen
65
Tabelle 7. Korrigierte Ausgangsdaten für das Modul Master Planning (Kalibrierung) Gruppen Produkte Stückerlöse det. Stückerlöse agg., korrigiert Stückkosten det. Stückkosten agg., korrigiert Lagerkosten det. Lagerkosten agg., korrigiert Prod.-zeiten det., korrigiert Prod.-zeiten agg., korrigiert
P1
G1 G2 G3 G4 P2 P3 P4 P5 P6 P7 P8 P9 P10 80 100 200 100 50 70 150 190 120 140 143 40
30
40
60 60
10
36 0,1
0,2
0,2
180
10
50
70
17 0,1 0,05
0,19
80
65
0,3
0,4
0,4
0,1
0,4
2,84 4,26 4,26 5,68 1,42 2,84 4,11
133 60 67 0,1
0,2 0,17
7,1 5,68 8,52 2,84
2,23
6,05
4,73
Anhand der korrigierten Rüstmatrix in der Tabelle 8 werden die Rüstkosten und Rüstzeiten korrigiert/kalibriert: Tabelle 8. Korrigierte Rüstmatrix (Kalibrierung) Gruppen Produkte Teilperiode 1 Teilperiode 2 Teilperiode 3 Teilperiode 4 Summe
P1 1 0 0 1 2
G1 P2 1 1 1 1 4
P3 1 1 1 1 4
P4 1 1 0 0 2
G2 P5 1 0 1 0 2
G3 P6 0 0 0 1 1
P7
P8 1 1 0 0 2
P9 1 1 1 1 4
G4 P10 1 1 1 0 0 1 1 0 3 2
3. Validierung Das Ergebnis des Entscheidungsmodells für das Modul Master Planning der Validierung ist in der Tabelle 9 dargestellt.
66
D. Betge, R. Leisten
Tabelle 9. Ergebnis des Moduls Master Planning (Validierung) für die Teilperioden 1-4 G1 Produktionsmengen in ME Zeitbedarf in ZE Bedarfanteile für die Kapazitätszuweisung in %
G2
G3
G4
Summe
1.129
200
200
200
3.566
623
980
990
6.158
58 %
10 %
16 %
16 %
100 %
Im Vergleich zur Initialisierung wurde die Produktionsmenge durch die fiktive Erhöhung der Produktionszeiten in jeder Gruppe reduziert und es ergibt sich eine neue Gewichtung für die Zuteilung der Normal- und Zusatzkapazität auf die Produktgruppen. Mit Hilfe der Losgrößenplanung für jede Gruppe werden in der Tabelle 10 neue optimale Produktionslose berechnet. Tabelle 10. Ergebnis des Moduls Production Planning (Validierung) Gruppen G1 G2 G3 Produkte P1 P2 P3 P4 P5 P6 P7 P8 Losauflage1 4 4 3 3 1 2 3 häufigkeit Produktionsmengen 50 468 500 80 100 40 100 184 (Teilperioden 1-4) Gruppenanteil in % 5 46 49 36 46 18 35 65 (Validierung) Gruppenanteil in % 10 45 45 14 70 16 26 74 (Initialisierung)
P9
G4 P10 4
0
200
0
100
0
33
67
Wiederum ändert sich die Gewichtung der Produkte innerhalb einer Gruppe. Im Rahmen des Scheduling werden nun in der Validierung die Produktionslose/Jobs mit Hilfe der NEH-Heuristik in eine neue Reihenfolge gebracht und auf Zulässigkeit geprüft.
Koordinationsansatz für ausgewählte Module von APS-Systemen
67
Tabelle 11. Ergebnis des Moduls Scheduling (Validierung) Maschine M1 M2 M3
Teilperiode 1 DLZ Überlast 1.903 -25 % 2.248 -11 % 2.525 0%
Teilperiode 2 DLZ Überlast 1.683 -25 % 2.012 -10 % 2.271 1%
Teilperiode 3 DLZ Überlast 1.698 -24 % 1.878 -15 % 2.110 -5 %
Teilperiode 4 DLZ Überlast 1.533 -31 % 1.875 -15 % 2.129 -4 %
Bereits nach der ersten Validierung des vorgestellten Koordinationsansatzes kann gezeigt werden, dass sich Überauslastungen von Maschinen, hervorgerufen durch unzulässige Produktionspläne auf der Ebene des Master Planning, nahezu vermeiden lassen (Auf Maschine 3 in Teilperiode 2 besteht weiterhin eine Überlastung von 1 %.). Die Rechenzeiten im Rahmen der Programmplanung und der Losgrößenplanung für diese Beispielrechung lagen unter 0.05 Sekunden, so dass dieser Koordinationsansatz auch für reale Problemgrößen Anwendung finden kann.
Literatur Adam D (1998) Produktions-Management. Gabler, Wiesbaden Bogaschewsky R (1995) Losgröße. In: Kern W, Schröder H-J, Weber J (Hrsg) Handwörterbuch der Produktionswirtschaft. Schäffer-Poeschel, Stuttgart, S 1141-1158 Dauzère-Péres S, Lasserre J-B (1994) An Integrated Approach in Production Planning and Scheduling. Springer, Berlin Heidelberg New York Drexl A, Kimms A (1997) Lot sizing and scheduling - survey and extensions. European Journal of Operational Research (99): 221-235 Framinan J, Leisten R (2003) An efficient constructive heuristic for flowtime minimisation in permutation flow shops. OMEGA 31: 311-317 Framinan J, Leisten R, Rajendran C (2003) Different initial sequences for the heuristic of Nawaz, Enscore und Ham to minimize makespan, idletime or flowtime in the static permutation flowshop sequencing problem. International Journal of Production Research Vol. 41 No. 1: 121-148 Homburg C, Krohmer H (2003) Marketingmanagement. Gabler, Wiesbaden Knolmayer G, Mertens P, Zeier A (2000) Supply Chain Management auf Basis von SAP-Systemen: Perspektiven der Auftragsabwicklung für Industriebetriebe. Springer, Berlin Heidelberg New York Leisten R (1996) Iterative Aggregation und mehrstufige Entscheidungsmodelle Einordnung in den planerischen Kontext, Analyse anhand der Modelle der Li-
68
D. Betge, R. Leisten
nearen Programmierung und Darstellung am Anwendungsbeispiel der Hierarchischen Produktionsplanung. Physica-Verlag, Heidelberg Meyr H, Wagner M, Rhode J (2005) Structure of Advanced Planning Systems. In: Stadtler H, Kilger C (Hrsg) Supply Chain Management and Advanced Planning. Springer, Berlin Heidelberg New York, S 109-116 Nawaz M, Enscore E, Ham I (1983) A heuristic algorithm for m-machine, n-job flow shop sequencing problem. OMEGA (11): 91-95 Schneeweiß C (2003) Distributed Decision Making. Springer, Berlin Heidelberg New York Stadtler H (2005) Production Planning and Scheduling. In: Stadtler H, Kilger C (Hrsg) Supply Chain Management and Advanced Planning. Springer, Berlin Heidelberg New York, S 197-214 Stadtler H, Kilger C (Hrsg) (2005) Supply Chain Management and Advanced Planning. Springer, Berlin Heidelberg New York Rhode J, Wagner M (2005) Master Planning. In: Stadtler H, Kilger C (Hrsg) Supply Chain Management and Advanced Planning. Springer, Berlin Heidelberg New York, S 159-178 Rogers D, Plante R, Wong R, Evans J (1991) Aggregation and Disaggregation Techniques and Methodology in Optimization. Operations Research 39/4: 553-582
Master Planning in Supply Chains Richard Pibernik1, Eric Sucky2 1
MIT – Zaragoza International Logistics Program, Zaragoza Logistics Center, Avda. Gomez Laguna 25, 50009 Zaragoza, Spain, [email protected] 2
Seminar für Logistik und Verkehr, Johann Wolfgang Goethe-Universität, Mertonstr. 17, 60054 Frankfurt am Main, [email protected]
Abstract Zentrale Aufgabe des Supply Chain Master Planning (SCMP) ist die zielgerichtete Koordination der verteilten Leistungserstellung in der Supply Chain (SC). Für die gesamte SC sind abgestimmte, mittelfristige Leistungsprogramme festzulegen. Upstream Koordination und zentrale Koordination stellen zwei konträre Formen des SCMP dar. In diesem Beitrag werden die Grenzen zentraler Ansätze des SCMP dargestellt und die Defizite der Upstream Koordination herausgearbeitet. Darauf aufbauend werden realisierbare, hybride Koordinationsformen entwickelt und analysiert.
1
Einleitung
Eine Supply Chain (SC) ist ein unternehmensübergreifendes Wertschöpfungssystem, das eine Netzwerk-Struktur aufweist [45].1 Aus einer prozess- und ressourcenorientierten Perspektive sind z.B. Produktions-, Lager- und Distributionsstandorte die relevanten Systemelemente2, an denen Ressourcen zur Realisierung stationärer Wertschöpfungsprozesse zur Verfügung stehen. Güterflüsse repräsentieren die Beziehungen zwischen den Systemelementen. Supply Chain Management (SCM) als das Management 1 2
Die Systemstruktur bezeichnet das Beziehungsgefüge der Systemelemente [34]. Aus institutioneller Perspektive sind die an der Wertschöpfung beteiligten Institutionen die relevanten Systemelemente. Otto führt daneben u. a. eine Informationsebene und eine soziale Ebene der SC ein [30].
70
R. Pibernik, E. Sucky
unternehmensübergreifender Wertschöpfungssysteme umfasst die zielgerichtete Systemgestaltung und die zielgerichtete Koordination der verteilten Leistungserstellung in der SC [43, 27, 41]. Im Fokus dieses Beitrags stehen die Planungs- und Koordinationsaufgaben des Master Planning (MP) auf der taktischen Planungsebene des SCM: Für alle Standorte und Verbindungen der SC sind abgestimmte Produktions-, Lager- und Transportquantitäten für einen mittelfristigen Planungszeitraum festzulegen. Abbildung 1 zeigt die Einordnung des MP in die SCM-Planungsaufgaben. procurement
production
long-term
mid-term
short-term
distribution
sales
Strategic StrategicNetwork NetworkPlanning Planning
Master MasterPlanning Planning
Material Material Requirements Requirements Planning Planning
Demand Planning
Production Production Planning Planning
Distribution Distribution Planning Planning
Scheduling Scheduling
Transport Transport Planning Planning
Demand Demand Fulfilment Fulfilment
Abb. 1. Supply Chain Planning Matrix (Quelle: Rohde et al. [35])
Eine SC ist ein inter-organisatorisches System mit einer Vielzahl von autonomen Planungsinstanzen.3 Jede Planungsinstanz ist dabei für bestimmte Systemelemente (Standorte) und/oder Systembeziehungen (Transportverbindungen) auf der Prozess- und Ressourcenebene der SC verantwortlich. Bezüglich der taktischen Planungsaufgabe des MP, d.h. der Bestimmung von standort- bzw. verbindungsspezifischen Leistungsprogrammen für einen Planungszeitraum von i.d.R. sechs bis 24 Monaten [17, 40], kann zwischen einem intra- und einem inter-organisatorischem MP differenziert werden. Im Fokus dieses Beitrags steht das inter-organisatorische MP, das aufgrund des SC-weiten Ansatzes im Weiteren als Supply Chain Master Planning (SCMP) bezeichnet wird. Die zentrale Aufgabe des SCMP als inter-organisatorischer Ansatz besteht in der zielgerichteten Koordination des Zusammenwirkens der verteilten Leistungserstellung in der SC. Die unternehmensspezifischen Leistungsprogramme in der SC sind so
3
Anstatt Unternehmen wird der Begriff Planungsinstanz verwendet, da einzelne Unternehmensteile (z.B. Profit-Center) selbständig planen und handeln können.
Master Planning in Supply Chains
71
zu koordinieren, dass (zumindest) ein realisierbarer, SC-weiter Master Plan resultiert.4 Upstream Koordination und Zentrale Koordination stellen zwei konträre Koordinationsformen des SCMP dar. In diesem Beitrag werden zunächst die Grenzen SC-weiter zentraler Ansätze des SCMP dargestellt und die Defizite der Upstream Koordination herausgearbeitet. Darauf aufbauend werden realisierbare, hybride Koordinationsformen entwickelt und analysiert, die im Vergleich zu Upstream Koordination bessere Planungsergebnisse induzieren (aus Unternehmensperspektive und aus SC-weiter Sicht). Zunächst wird ein Planungsmodell des SCMP entwickelt, auf dessen Basis die Grenzen einer zentralen Koordination und die Defizite der Upstream Koordination aufgezeigt werden. Das Planungsmodell wird dann im Rahmen hybrider Koordinationsformen problemadäquat eingesetzt.
2
Zentrales Supply Chain Master Planning
Bei zentraler Koordination wird die SC von einer hierarchisch übergeordneten Institution – einem „Supply Chain-Leader“ – geführt [21]. Die Planungsaufgaben des SCMP werden durch diesen übergeordneten Akteur wahrgenommen; er verfügt über die fachliche Kompetenz, die Leistungsprogramme für die gesamte SC zu bestimmen, und, aufgrund seiner Machtposition oder Legitimation, über die notwendige Entscheidungskompetenz die zentral generierten Planungsergebnisse in der SC durchzusetzen. In monozentrisch organisierten SC existieren dominante Unternehmen, von denen alle anderen in der SC integrierten Unternehmen abhängig sind. Häufig wird unterstellt, dass diese fokalen Unternehmen als SC-Leader ein zentrales SCMP durchführen und durchsetzen können [47, 12, 13, 44]. Auch in polyzentrisch organisierten SC – es existiert kein dominierendes Unternehmen – wird eine zentrale Koordination für möglich erachtet. Das zentrale SCMP wird dann von einer, durch die beteiligten Unternehmen eingesetzten Planungsinstanz, z.B. einem SC-Gremium oder einem 4th Party Logistics Provider (4PL) durchgeführt [13, 8, 4, 29, 25]. Ein zentrales, SC-weites Master Planning ist Gegenstand einer Vielzahl von Publikationen. Die Analyse zentraler Lagerentscheidungen in einem mehrstufigen System mit serieller Struktur von Clark/Scarf [10] stellt hierbei eine grundlegende Arbeit dar. Federgruen/Zipkin [16] erweitern diesen zentralen Planungsansatz auf netzwerkartige Lagersysteme. Es wird angenommen, dass jeder Standort in diesem Netzwerk von genau einer Quelle 4
Koordination bedeutet die zielgerichtete Abstimmung von Teilplänen [22, 33].
72
R. Pibernik, E. Sucky
beliefert wird. Schmidt/Nahmias [39] sowie Rosling [36] betrachten hingegen ein Montagenetzwerk, in dem jeder Standort Inputs von mehreren Quellen erhält. Diese Ansätze beschränken sich jedoch auf Lagerentscheidungen bei stochastischer Nachfrage. Cohen/Lee [11] präsentieren einen hierarchischen Planungsansatz sowie ein heuristisches Lösungsverfahren zur Bestimmung SC-weiter Leistungsprogramme. Einen ähnlichen Ansatz zeigen Jayaraman/Pirkul [24] sowie Grunow et al. [19], die eine reale SC der Pharmaindustrie analysieren. Planungsansätze des zentralen SCMP in der chemischen Industrie zeigen Timpe/Kallrath [46] und Berning et al. [5]. Weitere Ansätze des zentralen SCMP präsentieren Fleischmann/Meyr [17] sowie Haehling von Lanzenauer/Pilz-Glombik [20]. Schließlich entwickeln Sabri/Beamon [37], Melo et al. [28], Fandel/Stammen [15] sowie Pibernik [32] Planungsmodelle des Strategic Network Planning (siehe Abbildung 1) unter Beachtung der Ergebnisse eines zentralen SCMP. 2.1 Ein generisches Modell des zentralen SCMP Es wird ein Planungsmodell zur Unterstützung eines zentralen SCMP entwickelt, auf dessen Basis die Grenzen und Hemmnisse zentraler Ansätze des SCMP analysiert werden können. Zur Modellentwicklung als auch zur anschließenden Analyse wird die SC zunächst formal charakterisiert. Es wird angenommen, dass sich die Wertschöpfungsprozesse (Produktion, Lagerung, Transport usw.) auf I verschiedenen Stufen der SC vollziehen. Die Stufe I+1 bezeichnet die Stufe der Endverbraucher. Es sei Ki die Knotenmenge der Stufe i. Ein Knoten k∈Ki (i=1,...,I) repräsentiert einen Standort, an dem Ressourcen zur Durchführung stationärer Wertschöpfungsprozesse zur Verfügung stehen, z.B. eine Produktionsstätte oder ein Lager. Die Knoten k∈Ki+1 stellen Endkundenstandorte dar. Es sei Ei,i+1 die Menge der Verbindungen (Pfeilmenge) zwischen den Knoten der Stufe i und der Stufe i+1. Jeder Pfeil (k,l)∈Ei,i+1 repräsentiert eine (potenzielle) Transportverbindung zwischen zwei Knoten k∈Ki und l∈Ki+1. Jeder Knoten und jeder Pfeil wird (vektorwertig) bewertet, z.B. durch Prozesskapazitäten und -kostensätze. Abbildung 2 zeigt die Netzwerk-Struktur einer SC.
Master Planning in Supply Chains i=1
i=2
•••
i=I
i=I+1
k=1
1,1
2,1
•••
I,1
I+1,1
k=2
1,2
2,2
•••
I,2
I+1,2
• • •
• • •
• • •
• • •
• • •
k=|Ki| 1,|K1|
2,|K2|
•••
I,|KI|
73
I+1, |KI+1|
Abb. 2. Netzwerk-Struktur der Prozess-/Ressourcenebene einer Supply Chain
Zur Formulierung eines dynamischen Planungsmodells des SCMP, für mehrere SC-Stufen, mehrere Knoten auf jeder Stufe der SC und unterschiedliche Produkte, wird folgende Notation heran gezogen. Indizes / Mengen i Index der Stufen der SC (i=1,...,I,I+1) t Index der Perioden (t=1,...,T) Ki Knotenmenge der Stufe i (i=1,...,I+1) Ni Menge der Produkte, die auf Stufe i erzeugt werden (i=1,...,I) Parameter cp in,k Produktionskosten je Stück von Produkt n∈Ni in k∈Ki cf in,k
Rüstkosten zur Produktion von Produkt n ∈ N i in k ∈ K i
cs in,k ,l
Transportkosten je Stück n ∈ N i von k ∈ K i nach l ∈ K i +1
ch in,k
Lagerkosten pro Stück von Produkt n ∈ N i in k ∈ K i
ch im,k
Lagerkosten pro Stück von Produkt m ∈ N i −1 in k ∈ K i
αm,n
D ln,t
Benötigte Quantität von Produkt m∈Ni-1 zur Herstellung einer Einheit von Produkt n∈Ni Nachfrage in Periode t nach Produkt n ∈ N I in l ∈ K I +1
β nk
Benötigte Produktionskapazität in k ∈ K i je Stück von n ∈ N i
cap iprod ,k , t
Produktionskapazität in k ∈ K i in Periode t
χ nk
Benötigte Lagerkapazität in k ∈ K i je Stück von n ∈ N i
ϕ mk
Benötigte Lagerkapazität in k ∈ K i je Stück von m ∈ N i −1
cap inv i,k ,t
Lagerkapazität in k ∈ K i in Periode t Große Zahl
Ψ
74
R. Pibernik, E. Sucky
Variablen y in,k , t Produktionsquantität von Produkt n ∈ N i in k ∈ K i in Periode t z in,k , t
Binärvariable
x in,k ,l,t Transportquantität von n ∈ N i von k ∈ K i nach l ∈ K i +1 in t
inv in,k , t Lagerbestand von n ∈ N i in k ∈ K i am Ende der Periode t inv im,k , t Lagerbestand von m ∈ N i −1 in k ∈ K i am Ende der Periode t
Zielsetzung ist die Minimierung der gesamten SC-Kosten (Formalziel) zur Erfüllung der Endkundennachfrage (Sachziel). Zur Ermittlung des optimalen, SC-weiten Master Plans wird das folgende dynamische, gemischtganzzahlige Planungsmodell formuliert. T
I
min TRC( x , y , z ) = ∑ ∑ ∑
∑
t =1 i =1 k∈K i n∈ N i
⎛ n ⎜⎜ y i , k , t ⋅ cp in,k + z in,k , t ⋅ cf in,k + ∑ x in,k ,l , t ⋅ cs in,k ,l l∈K i +1 ⎝ + inv in,k , t ⋅ ch in, k +
(1)
m ⎞ m ∑ inv i ,k , t ⋅ ch i , k ⎟⎟ m∈ N i −1 ⎠
u.d.N.
inv in,k , t = inv in, k , t −1 + y in,k , t − ∑ x in,k ,l, t ∀ i, n ∈ N i , k ∈ K i , t
(2)
invim,k ,t = invim,k ,t −1 − ∑ y in,k ,t ⋅ α m,n + ∑ x mj,k ,t ∀ i, m ∈ Ni-1 , k ∈ K i , t
(3)
l∈K i +1
n∈Ni
j∈Ki −1
n n ∑ x k ,l, t = D l, t ∀ n ∈ N I , l ∈ K I+1 , t
(4)
prod n n ∑ y i,k , t ⋅ β k ≤ cap i,k , t ∀ i, k, t
(5)
k∈K I
n∈N i
m m n n inv ∑ inv i, k , t ⋅ ϕ k + ∑ inv i ,k , t ⋅ χ k ≤ cap i, k , t ∀ i, k, t
m∈N i −1
(6)
n∈N i
y in,k , t ≤ Ψ ⋅ z in,k , t ∀ i, k, n, t z in,k , t y in,k , t
,
inv in,k , t
∈ {0,1} ∀ i, k, n, t
,
inv im,k , t
≥ 0 ∀ i, k, n, m, t
(7) (8) (9)
Master Planning in Supply Chains
75
Die Leistungsprogramme zur Erfüllung der Endkundennachfrage für alle Knoten und Pfeile der SC sind so zu bestimmen, dass der Zielfunktionswert von (1) minimiert wird. Die gesamten SC-Kosten (TRC) ergeben sich als Summe der (in Bezug auf die Leistungsprogramme) fixen und variablen Produktions- (1. und 2. Term), der Transport- (3. Term) und der Lagerkosten (4. und 5. Term). Die Restriktionen (2) und (3) stellen die Lagerbestandsgleichungen dar. Die Restriktionen (4) gewährleisten, dass die Endkundennachfrage erfüllt wird. Die Bedingungen (5) gewährleisten, dass die Produktionskapazitäten in den Knoten eingehalten werden. Die Restriktionen (6) sind Lagerkapazitätsrestriktionen. Die Restriktionen (7) und (8) stellen sicher, dass die Rüstkosten berücksichtigt werden, wenn in einem Knoten produziert wird. Die Restriktionen (9) gewährleisten, dass die Produktions-, Lager- und Lieferquantitäten keine negativen Werte annehmen. Die optimale Lösung des Planungsmodells ergibt eine kostenminimale horizontale (auf einer SC-Stufe), vertikale (stufenübergreifende) und zeitliche (periodenbezogene) Allokation der Produktions-, Lager- und Transportquantitäten zu den Knoten und Pfeilen der SC. Die Lösung dieses Planungsproblems wird durch kommerzielle Softwaresysteme des SCM, so genannte Advanced Planning Systems (APS), unterstützt [38]. 2.2 Ein Beispiel für ein zentrales SCMP Es wird ein Ausschnitt aus einer SC mit einem Abnehmer (B) auf der zweiten SC-Stufe und zwei Zulieferern (S1) und (S2) auf der vorgelagerten Stufe betrachtet. Der Abnehmer (B) hat die Planungsverantwortung für zwei räumlich getrennte Produktionsstandorte. Die Zulieferer verfügen jeweils über zwei Produktionsstandorte. Die Knotenmenge der dritten Stufe (Kunden des Abnehmers) sei mit KC bezeichnet (siehe Abbildung 3).5
5
Abnehmer, Zulieferer, Kunden sind Systemelemente der institutionellen Ebene der SC. Ihre Standorte sind Elemente der Prozess-/Ressourcenebene. Verfügt eine Institution nur über einen, mit der Planungsinstanz räumlich identischen Standort, fallen die Knoten beider Ebenen zusammen (hier bei den Kunden).
76
R. Pibernik, E. Sucky Produktionsstandort
1,1
Zulieferer (S1)
Planungshoheit
2,1
1,2
3,1 Kunde (C1)
1,3
3,2
2,2
Zulieferer (S2)
1,4
Kunde (C2)
Abnehmer (B)
Abb. 3. Betrachteter Ausschnitt einer Supply Chain
Mit NS1 bzw. NS2 seien die Mengen der Produkte bezeichnet, die (B) von (S1) bzw. (S2) bezieht. Es seien NS1 und NS2 disjunkte Produktmengen (N1=NS1∪NS2; NS1∩NS2=∅), d.h. (B) betreibt ein single sourcing. Die Produktpreise seien im Planungszeitraum gegeben und konstant. Der Planungszeitraum umfasst zwei Perioden, wobei die relevanten Planungsdaten beider Perioden identisch sind. Die Produktions- und Lagerkapazitäten seien unbeschränkt und alle Produktions- und Lagerplatzkoeffizienten seien eins.6 Die relevanten Planungsdaten zeigt die nachfolgende Tabelle 1. Tabelle 1. Relevante Planungsdaten des SCMP i,k
1,1 1,2 1,3 1,4 2,1 2,2
3,1
3,2
cs in,k ,l
2,1 2,2 3,1 3,2
cp in,k
5
4
5,5
5
10
11
-
-
1,1
1
3
-
-
cf in,k
45
40
35
35
45
55
-
-
1,2
2
5
-
-
ch in,k
0,1 0,1 0,2 0,2 0,8 0,8
-
-
1,3
1
1,5
-
-
-
-
1,4
2
2,5
-
-
2,1
-
-
2
3
2,2
-
-
1
0,5
ch im,k
-
-
-
-
D ln,t
-
-
-
-
0,6 0,6 -
-
100 100
Das zentrale SCMP liefert einen kostenminimalen, SC-weiten Masterplan, d.h. Produktions-, Transport- und Lagerpläne für alle Knoten und Pfeile der SC, für den gesamten Planungszeitraum (zwei Perioden). In Abbildung 4 sind für die aktivierten Knoten und Pfeile die resultierenden Leistungsprogramme der Teilperioden des Planungszeitraums angegeben. Die 6
Zur Erzeugung einer Einheit des (End-)Produkts n∈N2 benötigt der Abnehmer jeweils eine Einheit der (Vor-)Produkte m∈NS1 und m∈NS2 der Zulieferer.
Master Planning in Supply Chains
77
Knotenbewertungen geben Produktions- und Lagerquantitäten an, während Pfeilbewertungen die entsprechenden Transportquantitäten repräsentieren.7 (200;0) (400;200) 200 1,2 (200;0) 1,3
2,1
200
100
(200;0) 3,1
100 3,2
1. Periode
(0;0) 1,2 (200;0) 1,3
200
2,1
100
3,1
100 200
3,2
2. Periode
Abb. 4. Ergebnisse des zentralen SCMP
Sowohl bei den Zulieferern als auch auf Seiten des Abnehmers wird jeweils nur ein Standort beansprucht: (1,2), (1,3) und (2,1). Während in den Knoten (1,3) und (2,1) jeweils entsprechend der Periodennachfrage der nachfolgenden Knoten produziert wird (woraus Lagerbestände von 0 am Ende beider Perioden resultieren), wird in (1,2) der Gesamtbedarf von 400 Stück bereits in der ersten Periode produziert. In der zweiten Periode wird daher in (1,2) nicht produziert und die Nachfrage von (2,1) aus dem Lager befriedigt. Die resultierenden, minimalen, gesamten SC-Kosten betragen 10220 Geldeinheiten [GE]. Dabei entfallen auf (S1) 2460 [GE], auf (S2) 2670 [GE] und auf (B) 5090 [GE]. Diese Ergebnisse werden später als Referenzwerte zur Beurteilung alternativer Formen des SCMP herangezogen. Zunächst wird jedoch die Realisierbarkeit des zentralen SCMP analysiert. 2.3 Grenzen und Hemmnisse des zentralen SCMP Bezüglich eines SC-weiten, zentralen SCMP in der Praxis führen Holström et al. [23] aus: „(...) it is difficult, or maybe even impossible, to get a large network consisting of independent companies to agree and implement a centralized planning and control solution.“ Auf der Basis des vorgestellten Planungsmodells lassen sich zwei Problembereiche konkretisieren, die der Realisierung eines zentralen SCMP entgegenstehen: (a) Orientierung an einer SC-weiten Zielsetzung und (b) Bereitstellung von planungsrelevanten Informationen. Der erste Problembereich manifestiert sich in der Zielfunktion und Höhenpräferenzrelation des Planungsmodells. Es wird die Orientierung an einer übergeordneten, gemeinsamen SC-Zielsetzung, hier die Minimierung der gesamten SC-Kosten zur Erfüllung der Endkunden7
Alle Ergebnisse wurden mit der Software LINGO 8.0 generiert.
78
R. Pibernik, E. Sucky
nachfrage, angenommen. Diese Annahme ist aus einer praxisorientierten Perspektive äußerst kritisch zu betrachten. In einer SC agieren i.d.R. mehrere autonome Unternehmen, die ihre individuellen Zielsetzungen verfolgen. Aufgrund interpersoneller Zielkonflikte wird ausgehend von einem gegebenen Leistungsprogramm der gesamten SC die Verbesserung des individuellen Zielfunktionswertes eines Unternehmens zu einer Verschlechterung des individuellen Zielfunktionswertes mindestens eines anderen Unternehmens in der SC führen. Ein autonomes, seine individuellen Ziele verfolgendes Unternehmen wird jedoch nur dann seine Entscheidungen im Rahmen des MP an einem übergeordneten SC-Ziel ausrichten, wenn Komplementarität oder zumindest Indifferenz zwischen den individuellen Zielen und dem übergeordneten SC-Ziel besteht. Agieren R autonome Unternehmen in einer SC, ist die Realisierung eines zentralen SCMP nur dann sicher gestellt, wenn eine „R-Win“-Situation8 realisiert werden kann. Ist dies nicht der Fall, wird ein zentrales SCMP nur realisiert, wenn sich ein (fokales) Unternehmen in der Machtposition befindet, dieses gegen den Willen der anderen Akteure durchzusetzen. Das fokale Unternehmen hat hierzu jedoch nur einen Anreiz, wenn es durch ein zentrales SCMP besser gestellt wird als bei einem dezentralen MP. Unter der Annahme, dass alle beteiligten Akteure grundsätzlich bereit sind, sich an der übergeordneten SC-Zielsetzung zu orientieren, kann anhand des vorgestellten Planungsmodells ein weiterer „zentraler“ Problembereich eines zentralen SCMP identifiziert werden. Die zentrale Planungsinstanz (fokales Unternehmen, SC-Gremium, 4PL) muss über vollständige Information bezüglich aller planungsrelevanten Parameter (Produktions-, Lager- und Transportkostensätze, Nachfragequantitäten, Kapazitäten, etc.) verfügen [1]. Auch wenn in verschiedenen Fallstudien der Nutzen einer zentralen Planung aufgezeigt wurde, z.B. für eine zentrale Distributionsplanung in der SC [9], eine zentrale mehrstufige Losgrößenplanung [42] und ein zentrales, einperiodiges SCMP [31], fokussieren konkrete Praxisprojekte i.d.R. auf eine gemeinsame Nachfrage- und Bestellprognose im Rahmen des Collaborative Planning, Forecasting and Replenishment (CPFR). Denn im Gegensatz zu CPFR, das auf der Basis ausgetauschter Nachfrageinformationen erfolgt, handelt es sich bei Bestands-, Kapazitätsund insbesondere Kosteninformationen um sensible Informationen, die von den Akteuren in der SC nicht bereitwillig preisgegeben werden [26, 2, 7]. Hinzu kommt, dass erhebliche Zweifel daran bestehen, dass Unternehmen ihre Planungsautonomie zu Gunsten eines fokalen Unternehmens oder gar eines Logistikdienstleisters aufgeben [50].
8
Bei zwei Planungsinstanzen, wird von einer “Win-Win”-Situation gesprochen.
Master Planning in Supply Chains
79
Es zeigt sich, dass ein zentrales SCMP – obwohl aus einer SC-weiten Perspektive grundsätzlich erstrebenswert – in den meisten Fällen nicht realisierbar ist. Sowohl das vorgestellte Planungsmodell als auch die für einen SC-weiten Einsatz propagierten APS weisen daher im Rahmen des MP zunächst nur ein unternehmensinternes Einsatzpotenzial auf [44].
3
Upstream Koordination
Upstream Koordination (top-down planning) ist ein einfacher Mechanismus zur SC-weiten Koordination unternehmensbezogener Produktions-, Lager- und Transportentscheidungen [6]. Es erfolgt eine iterative, stufenweise Bestimmung von Leistungsprogrammen: Beginnend auf Stufe I der SC erfolgt zunächst – auf Basis der geschätzten Endkundennachfrage sowie bereits vorliegender Aufträge – die unternehmensinterne Leistungsprogrammplanung (intra-organisatorisches MP). Die aus diesen individuell optimalen Leistungsprogrammen resultierenden Bedarfe werden als Bestellungen an die Unternehmen auf der vorgelagerten Stufe I-1 weitergegeben. Basierend auf diesen Bestellungen generieren die Lieferanten auf der vorgelagerten Stufe isoliert ihre individuell optimalen, unternehmensinternen Leistungsprogramme. Dieser stufenweise Planungsprozess setzt sich so lange fort, bis die erste Stufe (i=1) der SC erreicht ist [14]. Abbildung 5 zeigt für zwei Unternehmen auf benachbarten Stufen der SC den Planungsprozess bei Upstream Koordination. Um die der Upstream Koordination inhärenten Probleme darzustellen, wird das Beispiel aus Abschnitt 2.2 herangezogen. Der Abnehmer (B) ermittelt zunächst – ohne Beachtung der Auswirkungen seiner Entscheidung auf die vorgelagerten Zulieferer (S1) und (S2) – seine standort- und periodenspezifischen Produktionsquantitäten auf der Basis der (geschätzten) Kundennachfrage.
Abb. 5. Planungsprozess bei Upstream Koordination (Quelle: Dudek [14])
80
R. Pibernik, E. Sucky
Der Abnehmer (B) möchte seine Leistungsprogramme bei gegebenen und konstanten Preisen im Planungszeitraum so festlegen, dass bei Erfüllung der Kundennachfrage, seine relevanten Kosten (TRCB) minimal werden. Für dieses standortübergreifende, aber unternehmensinterne MP kann der Abnehmer (B) eine modifizierte Version des Planungsmodells aus Abschnitt 2.1 verwenden. T
min TRC B ( x, y , z ) = ∑ ∑
(
n n n n ∑ y k , t ⋅ cp k + z k , t ⋅ cf k
t =1 k∈K B n∈N B
⎞ inv mk , t ⋅ ch mk ⎟⎟ m∈NS1 ∪ N S 2 ⎠
(10)
inv kn , t = inv nk , t −1 + y kn , t − ∑ x nk ,l, t ∀ n ∈ N B , k ∈ K B , t
(11)
inv km, t = inv km, t −1 − ∑ y kn , t ⋅ α m , n + x Sm1, k , t + x Sm2,k , t
(12)
+ ∑ x nk ,l, t ⋅ cs nk ,l + inv nk , t ⋅ ch nk + l∈K C
∑
u.d.N. l∈K C
n∈N B
∀ m ∈ N S1 ∪ N S2 , k ∈ K B , t n n ∑ x k , l, t = D l , t ∀ n ∈ N B , l ∈ K C , t
(13)
prod n n ∑ y k , t ⋅ β k = cap k , t ∀ k ∈ K B , t
(14)
k∈K B
n∈N B
∑
m∈N S1 ∪ N S 2
inv mk , t ⋅ ϕ mk + ∑ inv nk , t ⋅ χ nk ≤ cap inv k,t ∀ k ∈ K B , t y kn , t ≤ Ψ ⋅ z kn , t ∀ k ∈ K B , n ∈ N B , t
y nk ,t
,
inv kn , t
(15)
n∈N B
,
(16)
z kn , t ∈ {0,1} ∀ k ∈ K B , n ∈ N B , t
(17)
inv km, t
(18)
∀ k ∈ K B , n ∈ N B , t , m ∈ N S1 ∪ N S2
Ergebnis dieses unternehmensinternen MP sind standort- (k∈KB) und periodenspezifische Bestellungen x Sm1,k , t und x Sm2, k , t von (B) bei (S1) und (S2) für deren Produkte m∈NS1∪NS2 (NS1∩NS2=∅). Die Werte der Variablen x Sm1,k , t und x Sm2, k , t resultieren implizit aus den ermittelten Produktionsmengen und den Lagerbeständen an bezogenen Produkten (Bedingung (12)).9 Das Ergebnis des isolierten MP im Beispiel zeigt Abbildung 6. 9
Differieren die Preise der Zulieferer-Produkte im Planungszeitraum oder bezieht der Abnehmer ein Produkt bei alternativen Zulieferern (double- oder multiple-sourcing), so entstehen beim Abnehmer zusätzliche Freiheitsgrade und entsprechende Variablen müssen in die Zielfunktion (10) integriert werden.
Master Planning in Supply Chains
1. Periode
1,1
3,1
200
1,2
100
Zulieferer (S1) 1,3
200
3,2
1,4
1,3
Kunde (C1)
(200;0)
2,2
200
100
1,4
Kunde (C2)
Abnehmer (B)
3,1 100
Zulieferer (S1) 100
2,2
Zulieferer (S2)
1,2
Kunde (C1)
(200;0) 200
2. Periode
1,1
81
Abnehmer (B)
Zulieferer (S2)
3,2 Kunde (C2)
Abb. 6. Master Planning des Abnehmers
Die relevanten Kosten des Abnehmers (B) betragen 4810 [GE] und sind damit um 5,5% niedriger als bei zentralem SCMP. Auf der Basis der Bestellungen von (B) – in Abbildung 6 durch gestrichelte Linien dargestellt – und gegebenenfalls weiterer Bestellungen anderer Abnehmer führen nun (S1) und (S2) ein isoliertes MP durch. Die Bestellquantitäten stellen den extern gegebenen Modellinput der MP-Modelle der Zulieferer dar (siehe Abbildung 5). Für (S1) ergibt sich das folgende MP-Modell. Es bezeichnet NV die Menge der Produkte (m∈NV), die nun der Zulieferer (S1) bei Lieferanten auf der ihm vorgelagerten SC-Stufe beschafft. Schließlich ist exd kn , t die gegebene Nachfrage anderer Abnehmer in der Periode t.
⎛ n n n n ∑ ⎜⎜ y k , t ⋅ cp k + z k , t ⋅ cf k t =1 k∈K S1 n∈N S1 ⎝ T
min TRC S1 ( x, y , z ) = ∑ ∑ + ∑
l∈K B
x nk ,l , t
⋅ cs kn ,l
+
inv nk , t
⋅ ch nk
+ ∑
m∈N V
inv km, t
⋅ ch mk
⎞ ⎟⎟ ⎠
(19)
u.d.N.
inv nk , t = inv nk , t −1 + y nk , t − ∑ x nk ,l, t − exd nk , t ∀ n ∈ NS1, k ∈ KS1 , t
(20)
inv km, t = inv mk , t −1 + ∑ y kn , t ⋅ α m , n + x km, t ∀ m ∈ N V , k ∈ K S1 , t
(21)
l∈K B
n∈NS1
n n ∑ x k ,l, t = D l, t ∀ n ∈ N S1 , l ∈ K B , t
(22)
prod n n ∑ y k , t ⋅ β k = cap k , t ∀ k ∈ K S1 , t
(23)
m m n n inv ∑ inv k , t ⋅ ϕ k + ∑ inv k , t ⋅ χ k ≤ cap k , t ∀ k ∈ K S1 , t
(24)
k∈K S1
n∈N S1
m∈N V
n∈NS1
y nk , t ≤ Ψ ⋅ z nk , t ∀ k ∈ K S1 , n ∈ N S1 , t
(25)
82
R. Pibernik, E. Sucky
z nk , t ∈ {0,1} ∀ k ∈ K S1 , n ∈ N S1 , t
(26)
y kn , t ≥ 0 , inv kn , t ≥ 0 , inv km, t ≥ 0 ∀ k ∈ K S1 , n ∈ N S1 , m ∈ NV , t
(27)
Ein analoges Planungsmodell des isolierten MP lässt sich für den Zulieferer (S2) formulieren. Aus einem stufenweisen MP im Rahmen der Upstream Koordination resultiert schließlich ein SC-weiter Master Plan. Die Ermittlung eines SC-weiten Master Plans durch Upstream Koordination führt i.d.R. nicht zu einem, bezüglich der gesamten SC-Kosten, optimalem Ergebnis. Die Planungsinstanzen auf nachgelagerten Stufen der SC generieren jeweils nur einen individuell optimalen Master Plan ohne Beachtung der daraus resultierenden Auswirkungen auf den vorgelagerten Stufen der SC. Da das SC-weite Planungsergebnis aus der Summe der interdependenten Entscheidungen der einzelnen Planungsinstanzen in der SC resultiert, führt Upstream Koordination zwar zu lokal optimalen Leistungsprogrammen, aber nicht zu einem SC-weiten Optimum. Abbildung 7 zeigt die Ergebnisse der Upstream Koordination im Beispiel. Es ergeben sich SC-Kosten von 10545 [GE] (eine Kostenerhöhung von 3,2% gegenüber einem zentralen SCMP). Davon entfallen 4810 [GE] auf den Abnehmer (B), 2865 [GE] auf den Zulieferer (S1) sowie 2870 [GE] auf den Zulieferer (S2). Während der Abnehmer sich gegenüber dem zentralen SCMP besser stellt, werden die Zulieferer schlechter gestellt.
(400;200)
(0;0)
1. Periode
1,1 (200;0)
3,1
200 (200;0)
1,3 200
2,2
100 100
2. Periode
1,1 (200;0)
(200;0)
1,3 3,2
3,1
200
200
2,2
100 100
3,2
Abb. 7. Ergebnisse der Upstream Koordination
Die von Zäpfel [49] angeführten „Optimierungsverluste durch mangelnde Abstimmung der (...) voneinander abhängigen Entscheidungen“ können durch Upstream Koordination somit nicht vermieden werden. Im Gegensatz zu einem zentralen SCMP führt Upstream Koordination nicht zu einer optimalen horizontalen (stufenbezogenen), vertikalen (stufenübergreifenden) und zeitlichen (periodenbezogenen) Allokation der Produktions-, Lager- und Transportmengen zu den Knoten und Pfeilen der SC. Eine simultane horizontale Koordination im Rahmen des MP gelingt, wenn alle
Master Planning in Supply Chains
83
Knoten auf einer Stufe der SC zum Verantwortungsbereich einer einzigen Planungsinstanz gehören. Dann können unterschiedliche Produktions- und Lagerkosten im Rahmen des MP berücksichtigt werden und Größendegressionseffekte bezüglich der Rüstkosten realisiert werden. Eine horizontale und vertikale Koordination wird sicher gestellt, wenn auch alle Knotenpaare der SC, die eine Vorgänger-Nachfolger-Beziehung aufweisen einer einzigen Planungsinstanz unterstehen. Dann ist es möglich auch Differenzen bei den Transportkosten zielgerichtet auszunutzen. Aufgrund der unbefriedigenden Ergebnisse der Upstream Koordination schlägt Dudek [14] eine verhandlungsbasierte, bilaterale Koordination im Rahmen des SCMP vor. Hierbei ermittelt zunächst eine Planungsinstanz (der Abnehmer) isoliert ihr optimales Leistungsprogramm und übermittelt die resultierenden standort- und periodenspezifischen Bestellungen, d.h. gewünschte Liefermengen und -termine, an die Planungsinstanz auf der vorgelagerten SC-Stufe (den Zulieferer). Auf der Basis der Summe der Bestellquantitäten des gesamten Planungszeitraums ermittelt die vorgelagerte Planungsinstanz ihrerseits ein Leistungsprogramm ohne die gewünschten Liefertermine und lieferterminbezogenen Mengen des Abnehmers zu beachten. Ergebnis dieser Planung ist ein neuer Lieferplan, d.h. isoliert optimale Liefertermine/-mengen des Zulieferers. Weicht dieser neue Lieferplan von den durch den Abnehmer vorgegebenen Mengen und Terminen ab, so versucht der Zulieferer den Abnehmer durch Preisnachlässe oder Transferzahlungen zur Annahme des modifizierten Lieferplans zu bewegen. Der Abnehmer kann das Angebot prüfen und gegebenenfalls verändern. Im Rahmen eines iterativen Verhandlungsprozesses einigen sich die Akteure dann auf ein gemeinsames Leistungsprogramm. Bei einer verhandlungsbasierten Koordination sind jedoch folgende Punkte zu beachten. Erstens wird der Abnehmer einem modifizierten Lieferplan, der von seiner individuell optimalen Lösung abweicht, nur zustimmen, wenn mindestens seine daraus resultierende Kostenerhöhung durch den Zulieferer kompensiert wird. Der Zulieferer benötigt daher die entsprechenden Informationen des Abnehmers. Dieser hat jedoch kein Interesse, diese Informationen preiszugeben. Im Gegenteil, der Abnehmer hat ein Interesse eine höhere als die tatsächlich resultierende Kostenerhöhung anzugeben, um eine möglichst hohe Transferzahlung zu realisieren.10 Zweitens kann, da die Kostenfunktionen (10) des Abnehmers und (19) des Zulieferers nicht streng konvex sind, eine aus dem modifizierten Lieferplan resultierende Kostensenkung des Zulieferers durch die beim Abnehmer ausgelöste Kostenerhöhung überkompensiert werden. Eine Transfer10
Zur Problematik der Angebotsermittlung bei asymmetrischer Informationsverteilung in Zulieferer-Abnehmer-Beziehungen vgl. [45].
84
R. Pibernik, E. Sucky
zahlung des Zulieferers zum Ausgleich der Kostenerhöhung des Abnehmers würde dann den Zulieferer schlechter stellen als die Annahme des ursprünglichen Lieferplans des Abnehmers. Im Beispiel wäre es aus der Sicht von (S2) vorteilhaft, den Bedarf von 400 Stück von (B) im Planungszeitraum vollständig in der ersten Periode in (1,3) zu fertigen und auch auszuliefern (modifizierter Lieferplan). Der Rüstkostenersparnis von 35 [GE] bei (S2) stehen dann jedoch Lagerkosten von 120 [GE] bei (B) gegenüber, d.h. die Kostensenkung bei (S2) ist geringer als die Kostenerhöhung bei (B). Ein weiterer Vorschlag von (S2) wäre eine standortbezogene Verlagerung der Liefermengen. Aus Sicht des Zulieferers (S2) ist es dann kostenminimal, in (1,3) zu produzieren und nur an den Standort (2,1) des Abnehmers zu liefern. Die Kostenersparnis von 200 [GE] bei (S2) resultiert aus den niedrigeren Transportkosten zwischen (1,3) und (2,1). Beim Abnehmer (B) kommt es aufgrund der Produktionsverlagerung von (2,2) nach (2,1) aber zu einer Kostenerhöhung von 280 [GE]: einer Rüstkostenersparnis von 20 [GE] und einer Produktionskostenersparnis von 400 [GE] steht eine Transportkostenerhöhung von 700 [GE] entgegen. Im Allgemeinen gilt: Schlägt ein Zulieferer vor, standortspezifische Liefermengen zusammenzulegen (wie im obigen Beispiel), so zieht dies, neben einer Verlagerung der Produktionsmengen des Abnehmers, auch eine Revision bereits getätigter Bestellungen bei anderen Zulieferern nach sich. Standortspezifische Bestellungen des Abnehmers sind somit i.d.R. nicht disponierbar, d.h. der Verhandlungsprozess führt im günstigsten Fall lediglich zu einer besseren zeitlichen Allokation der Leistungsprogramme.
4
Hybride Koordinationsformen des SCMP
Aufgrund der oben dargestellten Hemmnisse einer verhandlungsbasierten Koordination werden im Folgenden hybride Koordinationsformen entwickelt und analysiert, die bessere Ergebnisse als Upstream Koordination induzieren (aus Unternehmensperspektive und aus SC-weiter Sicht) und im Gegensatz zu einem zentralen SCMP realisierbar sind. Produktions-, Lager- und Transportentscheidungen in der SC werden von R≥1 autonom agierenden Planungsinstanzen getroffen, wobei jede einˆ ⊆ K (r=1,...,R) Knoten der SC verzelne über die Planungshoheit für K r 11 fügt. Bei einem zentralen SCMP gilt R=1, d.h. eine einzige Planungsinstanz hat die Planungsverantwortung für die gesamte SC. In einer 11
Es werden nur die Knoten der SC betrachtet, da Produktions- und Lagerentscheidungen die Transportquantitäten determinieren.
Master Planning in Supply Chains
85
vollständig dezentral organisierten SC verfügt jede Planungsinstanz lediglich über die Planungshoheit bezüglich genau eines Knotens der SC: ˆ ⎜=1∀r, d.h. es gilt ⎜K⎜=R. Zwischenformen zu diesen Extrema, d.h. ⎜K r partiell zentralisierte SC, ergeben sich, wenn mindestens eine Planungsinstanz r∈{1,...,R} in der SC für zwei oder mehr Knoten verantwortlich ist: ˆ ⎜>1 und ⎜K⎜>R. Allgemein lässt sich mit der Anzahl der Planungsin⎜K r stanzen und der Knoten der Zentralisierungsgrad einer SC bestimmen: Z=
K −R K −1
, mit Z ∈ [0,1] .
(28)
Für eine zentrale SC ergibt sich somit Z=1, während für eine partiell zentralisierte SC 1
86
R. Pibernik, E. Sucky
le Planungsinstanz, z.B. einen 4PL oder ein SC-Gremium, mit der „zentralen“ Leistungsprogrammplanung zu betrauen. Im Kontext eines partiell zentralisierten SCMP ergeben sich drei substantielle Fragen: • Welche erfolgversprechenden Alternativen eines partiell zentralisierten SCMP existieren? • Wie können diese Alternativen bezüglich ihres Erfolgspotenzials bewertet werden? • Wie können diese Erfolgspotenziale zwischen den SC-Partnern aufgeteilt werden, damit ein Anreiz für die Realisierung eines partiellen SCMP entsteht? 4.1 Identifizierung und Bewertung von Alternativen Für eine SC lassen sich Q potenziell realisierbare Alternativen eines partiell zentralisierten SCMP identifizieren. Jede Alternative q∈{1,...,Q} ist ˆ = (K ˆ ,..., charakterisierbar durch einen R(q) dimensionalen Vektor K q 1( q ) ˆ ˆ , wobei die Knoten des SC-Ausschnittes angibt, für die PlaK ) K R (q ) r (q ) nungsinstanz r verantwortlich ist. Für den im Beispiel betrachteten Ausschnitt einer SC, mit r∈{(B), (S1), (S2), (C1), (C2)}, lassen sich z.B. vier (Q=4) potenzielle Alternativen eines partiell zentralisierten SCMP identifiˆ die Unterlassungsalternative darstellt zieren. Während die Alternative K 1 ˆ ein unternehmens(Upstream Koordination), erfolgt in Alternative K 2 ˆ beschreibt ein parübergreifendes SCMP für (B) und (S1). Alternative K 3 tiell zentralisiertes SCMP für (B) und (S2). Eine weitergehende Integration ergibt sich, wenn der Abnehmer und beide Zulieferer ein zentrales SCMP ˆ . Zur Leistungsprogrammplanung innerhalb eines zentradurchführen: K 4 lisierten Subsystems kann das Planungsmodell (1) – (9) problemadäquat angepasst und eingesetzt werden. Aus der Lösung dieser Subsystemweiten Leistungsprogrammplanung resultiert eine Subsystem-weite, zeitlich, vertikal und horizontal optimale Allokation von Produktions-, Lagerˆ ergeben sich für (B) und (S2) im Beiund Transportquantitäten. Für K 3 spiel folgende Leistungsprogramme bei partiell zentralisiertem SCMP:
Master Planning in Supply Chains (100;0) (200;0) 100
2,1 (100;0)
1,3 100
2,2
100
100
(100;0) 3,1
(200;0) 100
(100;0)
1,3 3,2
1. Periode
2,1
100
2,2
100
100
87
3,1
3,2
2. Periode
Abb. 8. Ergebnisse eines partiell zentralen SCMP
Die Subsystem-weiten Kosten betragen 7670 [GE], wobei auf (B) 4900 [GE] entfallen und bei (S2) 2770 [GE] anfallen. Gegenüber der Upstream Koordination erhöhen sich somit die Kosten bei (B) um 90 [GE], während die Kosten bei (S2) um 100 [GE] sinken. Kompensiert (S2) die Kostenerhöhung bei (B), so ergibt sich, im Gegensatz sowohl zur Upstream Koordination als auch zu einer verhandlungsbasierten Koordination, eine „WinWin“-Situation. Eine partielle Zentralisierung der Planungsaktivitäten im Rahmen des MP in der dargestellten Form ist aus Sicht der Beteiligten jedoch nur attraktiv, wenn signifikante Erfolgspotenziale, hier Kosteneinsparpotenziale, identifiziert werden können. Sind die Preise und die Liefermengen im Planungszeitraum gegeben, können unter Einsatz der in diesem Beitrag vorgestellten Planungsmodelle ˆ die Leistungsprogramme bei Upstream des MP für jede Alternative K q Koordination und partiell zentralisiertem SCMP ermittelt und die daraus resultierenden relevanten Kosten sowohl der beteiligten Akteure als auch des gesamten betrachteten zentralisierten Subsystems abgeleitet werden. Auf der Basis dieser Ergebnisse lassen sich dann die einzelnen Alternativen bewerten. Im Vorfeld, d.h. in der Anbahnungsphase, kann die eine partielle Zentralisierung initiierende Planungsinstanz – z.B. der Abnehmer (B) – die potenziellen Alternativen hinsichtlich ihrer Erfolgspotenziale bewerten. Unter Einsatz des Planungsmodells (1) – (9) und unter Verwendung geschätzter Kosten- und Kapazitätsdaten kann der Abnehmer (B) eine fiktive Leistungsprogrammplanung für die jeweiligen Subsysteme durchführen. Die Ergebnisse können dann im Rahmen von Verhandlungen mit dem oder den betroffenen Zulieferer(n) bezüglich einer Zentralisierung der Leistungsprogrammplanung genutzt werden.
88
R. Pibernik, E. Sucky
4.2 Allokation der realisierten Erfolgspotenziale Die Realisierung von Erfolgspotenzialen im Rahmen eines partiell zentralisierten SCMP setzt voraus, dass die zentrale Planungsinstanz über die notwendigen relevanten Daten verfügt. Möchte ein SC-Partner eine partielle Zentralisierung initiieren, so muss er einen Anreiz zum Austausch der relevanten Daten schaffen. Ein solcher Anreiz wird geschaffen, wenn alle involvierten Partner von einem partiell zentralisierten SCMP profitieren, d.h. wenn eine R-Win-Situation realisiert werden kann. In diesem Fall wird das Risiko der Weitergabe falscher Informationen zwar nicht eliminiert, jedoch ist der Anreiz für ein solches opportunistisches Verhalten geringer als z.B. bei einer verhandlungsbasierten Koordination der Leistungsprogrammen (siehe Kapitel 3). Grund dafür ist, dass sich bei einer verhandlungsbasierten Koordination der Leistungsprogramme ein einzelner SC-Akteur durch falsche Kosteninformationen besser stellen kann. Bei einem partiell zentralisierten SCMP resultiert die Besserstellung einzelner Akteure aus der Realisierung Subsystem-weiter Erfolgspotenziale. Die Weitergabe falscher Informationen kann in diesem Fall dazu führen, dass eine Alternative des partiell zentralisierten SCMP unattraktiv wird und somit nicht weiter verfolgt wird. Wird in dem betrachteten Ausschnitt der ˆ (Upstream Koordination) herangezogen, so SC die Ausgangssituation K 1 T
T
resultieren die Bestellungen ∑ ∑ x Sm1,k ,t , ∑ ∑ x Sm2,k ,t ∀ m ∈ N S1 ∪ N S2 t =1 k∈K B
t =1 k∈K B
des Abnehmers (B) bei seinen Zulieferern (S1) und (S2) aus dem isoliert durchgeführten MP des Abnehmers. Der Übergang zu einer Alternative ˆ , K ˆ oder K ˆ ) verändert lediglich des partiell zentralisierten SCMP ( K 2 3 4 die knoten- und pfeilspezifische sowie die zeitliche Verteilung der Produktions-, Lager- und Transportquantitäten. Die gesamten Liefermengen im Planungszeitraum ändern sich jedoch nicht. Die Realisierung einer der Alˆ , K ˆ oder K ˆ führt dann zwar i.d.R. zu geringeren Subsysternativen K 2 3 4 tem-weiten Kosten als bei Upstream Koordination, jedoch können einzelne Akteure überproportional besser gestellt werden, während andere von einem partiell zentralisierten SCMP nicht profitieren oder gar schlechter gestellt werden. Um zu verhindern, dass einzelne SC-Partner benachteiligt werden, ist eine „faire“ Kostenaufteilung nötig. Für die in Abschnitt 4.1 ˆ lässt sich die Kostenaufteilungsregel (29) festbetrachtet Alternative K 3 legen. Hierbei bezeichnen TRC upstream und TRC Supstream die relevanten B 2 Kosten des Abnehmers (B) und des Zulieferers (S2) bei Upstream Koordination und TRC central sowie TRC Scentral die entsprechenden Kosten bei parB 2
Master Planning in Supply Chains
89
tiell zentralisiertem SCMP. TRC central sind die gesamten Subsystemweiten Kosten bei einem partiell zentralisierten SCMP.
TRCScentral = µ ⋅ (TRCcentral ) ; TRC central = (1 − µ) ⋅ (TRC central ) ; 2 B µ=
(29)
TRC Supstream 2 TRC upstream + TRC Supstream B 2
Die Kostenaufteilungsregel (29) gewährleistet, dass sich die relative Verteilung der Subsystem-weiten Kosten nicht gegenüber der Upstream Koordination ändert. Daher realisieren beide SC-Partner die gleiche relative Kosteneinsparung gegenüber der Ausgangssituation und eine Win-WinSituation wird sichergestellt. Im Beispiel folgt unter Verwendung der Regel (29): TRC Scentral =2866,26 und TRC central =4803,74, mit µ=0,3737. 2 B Neben dieser „fairen“ Kostenaufteilungsregel sind weitere Möglichkeiten denkbar. Initiiert beispielsweise der Abnehmer (B) die partielle Zentralisierung des MP, so kann er die Ergebnisse der Vorteilhaftigkeitsanalyse, d.h. der Bewertung potenzieller Alternativen hinsichtlich ihrer Erfolgspotenziale (siehe Abschnitt 4.1), nutzen, um einem SC-Partner ein Angebot zur Zusammenarbeit zu unterbreiten. Unter Beachtung der Realisierung einer „Win-Win“-Situation, kann dann die Erfolgsbeteiligung des Zulieferers auch geringer ausfallen als bei Anwendung der Kostenaufteilungsregel (29), z.B. TRC Scentral =2869 und TRC central =4801. Spieltheoretisch handelt 2 B es sich bei der Allokation der resultierenden Kosteneinsparung um ein Mehr-Personen-Kostantsummenspiel, dessen Ergebnis von den bestehenden Machtverhältnissen und dem individuellen Verhandlungsgeschick abhängig ist. Als beispielsweise die Metro-Gruppe die Beschaffungslogistik zentralisierte und die Planungshoheit auf die Metro MGL Logistik GmbH überging, wurde den Herstellern der Kosumgüterindustrie lediglich zugesichert, dass sie keine höheren Kosten als bei dezentraler Versorgungsplanung tragen müssen.
5
Zusammenfassung und Fazit
Sowohl in der relevanten Literatur als auch in Softwaresystemen des SCM werden zentrale, SC-weite Ansätze des MP propagiert. In diesem Beitrag wurde gezeigt, dass eine Vielzahl von praktischen Probleme einer zentralen Koordination der SC im Rahmen des MP entgegenstehen. Allerdings führt der in der Praxis weit verbreitete Ansatz der Upstream Koordination zu einer sub-optimalen Allokation von Produktions-, Lager- und Trans-
90
R. Pibernik, E. Sucky
portquantitäten zu den Standorten und Transportverbindungen in der SC. Ist ein zentrales, SC-weites SCMP (first-best solution) nicht realisierbar und führt Upstream Koordination zu unbefriedigenden Ergebnissen, sind alternative Ansätze des SCMP zu identifizieren und zu analysieren. In diesem Beitrag wurden zunächst die Grenzen und Hemmnisse SC-weiter zentraler Ansätze des SCMP dargestellt und die Defizite der Upstream Koordination herausgearbeitet. Darauf aufbauend wurden realisierbare, hybride Koordinationsformen identifiziert und hinsichtlich ihrer Erfolgspotenziale bewertet. Der entwickelte Ansatz eines so genannten partiell zentralisierten SCMP induziert im Vergleich zu Upstream Koordination bessere Ergebnisse (sowohl aus Unternehmensperspektive als auch aus SC-weiter Sicht) und ist, im Vergleich zu SC-weiten zentralen Ansätzen leichter zu realisieren. Die einfachere Realisierung eines partiell zentralisierten SCMP basiert einerseits auf dem vorhandenen Vertrauen zwischen langjährigen SCPartnern. Andererseits ist der Austausch sensibler Planungsdaten innerhalb eines Subsystems mit wenigen Partnern leichter zu realisieren als eine SCweite Informationsintegration. Aus diesem Grund ist ein partiell zentralisiertes SCMP zunächst bilateral zu initiieren. Unter Einsatz der in diesem Beitrag vorgestellten Planungsmodelle des MP können für jede Alternative eines partiell zentralisierten SCMP die Erfolgspotenziale abgeleitet werden. Auf dieser Basis kann der ein partiell zentralisiertes SCMP initiierende Akteur die potenziellen Alternativen bewerten und die profitabelste Alternative auswählen. Durch die Generierung von Informationen bezüglich unternehmensbezogener als auch Subsystem-weiter Kosten bietet der vorgestellte Ansatz auch die Basis für Verhandlungen der SC-Partner über eine weitreichende Zusammenarbeit und Integration im Rahmen des MP.
Literatur 1.
2.
3.
Anupindi R, Bassok Y (1999) Supply Contracts with Quantity Commitments and Stochastic Demand. In: Tayur S, Ganeshan R, Magazine M (Hrsg) Quantitative Models for Supply Chain Management. Kluwer, Dordrecht Boston London, S 197-232 Arthur Andersen Business Consulting (2003) Zusammenarbeit oder verschärfte Konkurrenz? Wie wirkt sich das Internet auf die Beschaffungsstrategien für komplexe Materialien in der deutschen Automobilindustrie aus? http://www.arthurandersen.de/AAHome.nsf/d7a25ae.pdf. Abruf: 04.07.2003 Aviv Y (2001) The Effect of Collaborative Forecasting on Supply Chain Performance. Management Science 47 (10): 1326-1343
Master Planning in Supply Chains 4.
5.
6. 7. 8.
9.
10. 11. 12.
13. 14. 15.
16. 17.
18.
19. 20.
91
Baumgarten H, Darkow I (2002) Konzepte im Supply Chain Management. In: Busch A, Dangelmaier, W (Hrsg) Integriertes Supply Chain Management. Gabler, Wiesbaden, S 89-108 Berning G, Brandenburger M, Gürsoy K, Mehta V, Tölle F. J. (2002) An integral system solution for supply chain optimization in the chemical process industry. OR Spectrum 24: 371-402 Bhatnagar R, Chandra P, Goyal S K (1993) Models for Multi-Plant Coordination. European Journal of Operational Research 67: 141-160 Bretzke WR (2002) „SCM Collaboration“ und „4PL’s“: Bemerkungen über die Grenzen eines Paradigmas. Logistik-Management, 4 (1): 41-44 Busch A, Dangelmaier W (2002) Integriertes Supply Chain Management – ein koordinationsorientierter Überblick. In: Busch A, Dangelmaier W (Hrsg) Integriertes Supply Chain Management. Gabler, Wiesbaden, S 1-21 Buxmann P, Martín Díaz L, von Ahsen A (2003) Kooperationen in SupplyChains – Ökonomische Bewertungsansätze eines Simulationsmodells. Wirtschaftsinformatik 45 (5): 509-514 Clark A, Scarf H (1960) Optimal policies for a multi-echelon inventory problem. Management Science 6: 475-490 Cohen MA, Lee HL (1988) Strategic analysis of integrated productiondistribution systems. Operations Research 36 (2): 216-228 Corsten H (2001) Grundlagen der Koordination in Unternehmungsnetzwerken. In: Corsten H (Hrsg) Unternehmensnetzwerke – Formen unternehmensübergreifender Zusammenarbeit. Oldenbourg, München Wien, S 1-57 Corsten H, Gössinger R (2001) Einführung in das Supply Chain Management. Oldenbourg, München Wien Dudek G (2004) Collaborative Planning in Supply Chains – A NegotiationBased Approach. Springer, Berlin Heidelberg New York Fandel G, Stammen M (2004) Strategic Supply Chain Management: A New Approach to Analyze Product Life Cycles. In: Fandel G, Backes-Gellner U, Schlüter M, Staufenbiel JE (Hrsg) Modern Concepts of the Theory of the Firm. Springer, Berlin Heidelberg New York, S 191-284 Federgruen A, Zipkin P (1984) Computational issues in an infinite-horizon multi-echelon inventory model. Operations Research 32 (4): 818-836 Fleischmann B, Meyr H (2003) Planning Hierarchy, Modeling and Advanced Planning Systems. In: de Kok, A, Graves S (Hrsg) Supply Chain Management: Design, Coordination and Operation. Elsevier, Amsterdam, S 457-502 Gössinger R (2001) Hierarchische Planung zur hierarchischen Koordination in Unternehmungsnetzwerken. In: Corsten, H. (Hrsg): Unternehmensnetzwerke – Formen unternehmensübergreifender Zusammenarbeit. Oldenbourg, München Wien, S 83-120 Grunow M, Günther HO, Yang G (2003) Plant co-ordination in pharmaceutics supply networks. OR Spectrum 25: 109-141 Haehling von Lanzenauer Ch, Pilz-Glombik K (2002) Coordinating supply chain decisions: an optimization model. OR Spectrum 24 (1): 59-78
92
R. Pibernik, E. Sucky
21. Hahn D (2000) Problemfelder des Supply Chain Management. In: Wildemann H (Hrsg) Supply Chain Management: Konzepte und Anwendungen. TCW Transfer Centrum, München, S 9-19 22. Hax H (1965) Die Koordination von Entscheidungen – Ein Beitrag zur betriebswirtschaftlichen Organisationslehre. Heymanns, Köln Berlin Bonn 23. Holmström J, Främling K, Tuomi J, Kärkkäinen M, Ala-Risku T (2002) Implementing collaboration process networks. The International Journal of Logistics Management 13 (2): 39-50 24. Jayaraman V, Pirkul H (2001) Planning and coordination of production and distribution facilities for multiple commodities. European Journal of Operational Research 133: 394-408 25. Jehle E (2000) Steuerung von großen Netzen in der Logistik unter besonderer Berücksichtigung von Supply Chains. In: Wildemann H (Hrsg) Supply Chain Management: Konzepte und Anwendungen. TCW Transfer Centrum, München, S 205-226 26. Kersten W, Kern EM, Koeppen B, Steinhorst U (2003) Internetgestützte Beschaffung komplexer Zulieferteile in der Automobilindustrie - Wertschöpfungspartnerschaften im Wandel? In: Wildemann H (Hrsg) Moderne Produktionskonzepte für Güter- und Dienstleistungsproduktionen. TCW Transfer Centrum, München, S 317-337 27. Lee HL, Billington C (1993) Material management in decentralized supply chains. Operations Research 41 (5): 835-847 28. Melo M, Nickel, S, Saldanha de Gama F (2004) Dynamic Multi-Commodity Facility Location: A Mathematical Modeling Framework for Strategic Supply Chain Planning. In: Ahr D, Fahrion R, Oswald M, Reinelt G (Hrsg) Operations Research Proceedings 2003. Springer, Berlin New York, S 95-102 29. Nissen V, Bothe M (2002) Fourth Party Logistics – Ein Überblick. LogistikManagement 4 (1): 16-26 30. Otto A (2002) Management und Controlling von Supply Chains – Ein Modell auf der Basis der Netzwerktheorie. Gabler, Wiesbaden 31. Pibernik R, Sucky E (2004) Zentrales und dezentrales Supply Chain Planning am Beispiel einer Supply Chain der Pharma-Industrie. WiSt Wirtschaftswissenschaftliches Studium 33 (1): 59-64 32. Pibernik R (2001) Flexibilitätsplanung in Wertschöpfungsnetzwerken. Gabler, Wiesbaden 33. Poensgen OH (1980) Koordination. In: Grochla E (Hrsg) Handwörterbuch der Organisation. Stuttgart, Sp 1130-1141 34. Rapoport A (1992) Allgemeine Systemtheorie. Verlag Darmstädter Blätter, Darmstadt 35. Rohde J, Meyr H, Wagner M (2000) Die Supply Chain Planning Matrix. PPS Management 5: 10-15 36. Rosling K (1989) Optimal inventory policies for assembly systems under random demands. Operations Research 37 (4): 565-579 37. Sabri EH, Beamon BM (2000) A Multi-Objective Approach to Simultaneous Strategic and Operational Planning in Supply Chains. Omega 28 (5): 581598
Master Planning in Supply Chains
93
38. SAP (2002) SAP Functions in Detail: mySAP™ SCM Supply Chain Planning, White Paper 39. Schmidt CP, Nahmias S (1985) Optimal policy for a two-stage assembly system under random demand. Operations Research 33: 1130-1145 40. Silver EA, Pyke DF, Peterson R (1998) Inventory Management and Production Planning and Scheduling. Wiley, New York Singapore Toronto 41. Simchi-Levi D, Kaminsky P, Simchi-Levi E (2000) Designing and Managing the Supply Chain – Concepts, Strategies, and Case Studies. McGraw-Hill, Boston 42. Simpson N, Erengüc S (2001) Modeling the order picking function in supply chain systems: formulation, experimentation, and insights. IIE Transaction 33 (2): 119-130 43. Stadtler H (1999) Was bedeutet ... Supply Chain Management und Supply Chain Planning. OR News 5: 35-37 44. Steven M, Krüger R (2002) Advanced Planning Systems – Grundlagen, Funktionalitäten, Anwendungen. In: Busch A, Dangelmaier W (Hrsg) Integriertes Supply Chain Management. Gabler, Wiesbaden, S 169-186 45. Sucky E (2004) Koordination in Supply Chains: Spieltheoretische Ansätze zur Ermittlung integrierter Bestell- und Produktionspolitiken. Gabler, Wiesbaden 46. Timpe C, Kallrath J (2000) Optimal planning in large multi-site production networks. European Journal of Operational Research 126: 422-435 47. Wildemann, H. (1997) Koordination von Unternehmensnetzwerken. Zeitschrift für Betriebswirtschaft (ZfB) 67 (4): 417-439 48. Yu Z, Yan H, Cheng T (2001) Benefits of information sharing with supply chain management. Industrial Management & Data Systems: 114-119 49. Zäpfel G (2000) Supply Chain Management. In: Baumgarten H, Wiendahl HP, Zentes J (Hrsg) Logistik-Management. Springer, Berlin Heidelberg New York, Abschnitt 7-02-03, S 1-32 50. Zinn H (2002) Fourth Party Logistics – Mehr als nur ein Modebegriff? Logistik Heute 24 (9): 36
LP Modelling and Simulation of Supply Chain Networks Margaretha Preusser1, Christian Almeder1, Richard F. Hartl1, Markus Klug2 1
Department of Business Studies, University of Vienna, Brünnerstr. 72, 1210 Vienna, Austria, {margaretha.preusser, christian.almeder, richard.hartl}@univie.ac.at 2
ARC Seibersdorf research, 2444 Seibersdorf, Austria, [email protected]
Abstract In this paper we present a new approach to support the operational decisions for supply chain networks by combining LP modelling and discreteevent simulation. The network structure is assumed as given, but the transportation, production and inventory amounts are optimized. We develop an LP model of a general supply chain network including production, inventory and transportation using different transportation modes. This LP is connected with a discrete-event simulation model representation of the supply chain including its full complexity and nonlinearities. Alternating the LP model is solved and using its solution simulation runs are performed to gain new estimates for the linearized parameters of the LP. This method allows improving the supply chain by approximating an optimal solution.
1
Introduction
The developments of the economy during the last decades show a clear globalization trend. Firms act globally and large networks of manufacturing and distribution facilities are built to meet these trends. Hence, supply chain networks increase in size, i.e., the number of facilities within the network, as well as in material flow. So managing supply chains becomes a more important but also a more sophisticated task.
96
M. Preusser, C. Almeder, R. F. Hartl, M. Klug
In this paper we want to investigate a given supply chain network with different facilities (suppliers, manufacturers, distributors) and different transportation modes connecting those facilities. The aim is to reduce costs by simultaneously optimizing the production/transportation schedule and reducing inventory levels. If we compare our problem to the tasks in the supply chain matrix (cf. Stadtler 2005), the problem is a combination of several short-term tasks in the matrix: production planning, distribution planning and transport planning. Aspects of the integration of transport and production planning within supply chains has been investigated in several papers (e.g. Erengüc et al. 1999, Arbib a. Marinelli 2005). For simplicity, we assume that there is a central decision maker in the supply chain with perfect information. Schneeweiss (2003) describes possibilities to incorporate distributed decision making circumstances. This approach is beyond the scope of our model, but it could be a possible direction for further extensions. Traditionally there are two possibilities for analyzing and improving supply chain networks and the material flow through them: (1) modelling the supply chain as an LP or MIP and trying finding an optimal solution using exact methods or approximations of the optimal solution using heuristics; (2) using a simulation based approach to analyze the complex behaviour of a supply chain and try improving the current situation based on a trail-and-error principle. The first approach is well known and is often discussed in the literature. Pankaj and Fisher (1994) showed that based on an MIP model the coordination of production and distribution can reduce the operating cost substantially. Erengüc, Simpson, Vakharia (1999) summarized the developments on LP modelling of the production and distribution planning in a supply chain, whereas Owen and Daskin (1998) gave an overview on facility location problems. In general the problems solved with LPs and MIPs are usually very restricted in order to keep them solvable. For example, Tsiakis, Shah, Pantelides (2001) did some work on designing supply chain networks, where manufacturing and customer zones are already fixed, and only warehouses and distribution centres are of unknown locations. Dogan and Goetschalckx (1999) showed that larger design problems can be solved using decomposition. Other papers concentrate on the transportation aspect as Vidal and Goetschalckx (2001). In the field of supply chain simulation Kleijnen (2004) gives a short overview of simulation tools and techniques used for supply chains. He distinguishes between four different approaches: spreadsheet simulation, system dynamics, discrete-event dynamic systems simulation, and business games. Clearly, discrete-event simulation is the most powerful tool to consider complex stochastic systems. For discrete-event simulation numerous
LP Modelling and Simulation of Supply Chain Networks
97
software packages are available, both very specialized ones for a specific part of the supply chain and general ones with a high functionality in modelling and visualization of supply chains (cf. Kelton et al. 2002; Kuhn a. Rabe 1998). The point we are focusing on is to investigate the possibilities of combining optimization and simulation in the field of network flow optimization. The idea is to iteratively exchange data between a simulation model and the optimization model, in order to be able to consider non-linearities within the model and combine the advantages of discrete-event simulation and optimization via linear programming. There are a few papers on simulation optimization, which deal with the problem of doing parameter optimization within a simulation model. Swisher and Hyden (2000) describe key issues when doing parameter optimization of a simulation model. Fu (2002) gives a survey on the available software solutions for doing such parameter optimizations. Truong and Azadivar (2003) developed an environment for solving supply chain design problems, where they combine simulation with genetic algorithms and mixed-integer programs. But they remain on a strategic level with the questions of facility location and partner selection. In our paper we want to demonstrate how simulation and LP/MIP optimization can be combined on operational level. We do not use the optimization on top of the simulation (optimizing parameters), but we include simulation and optimization in an iterative process in order to gain the advantages of optimization (exact solution) and simulation (nonlinearities, complex structure). The supply chain is represented as a discrete-event model (D-E model) and a linearized version of it is modelled as an LP. Due to the structure of the LP model, it is possible to consider only specific subsystems of the supply chain. At first we perform several simulation runs including all stochastics in order to get average values of the parameters (e.g. unit transportation costs) which are fed into the LP model. Now we can solve the LP. This result is transformed into decision rules and is used in the discreteevent model. Then we start again with further simulation experiments (see Figure 1).
98
M. Preusser, C. Almeder, R. F. Hartl, M. Klug
simulate
Solutions of simulation experiments
Decision rules in D-E Model
interpret
linearize
LP Model
LP-Solution
optimize
Fig. 1. Interaction between simulation and optimization
The paper is organized as follows: In Section 2 we describe the underlying LP model. The implementation of this model in Xpress-MP and some test results are shown in Section 3 and Section 4 contains a small example for combining the LP model with a simulation model. We conclude the paper and give an outlook for further research in Section 5.
2
The Model
2.1 General Description The basis for our supply chain model is a predefined network, i.e., the locations of all actors and the distances between them are given. Within the network we differentiate between three types of participants: (i) suppliers providing raw materials; (ii) customers who demand certain products at a specific time; (iii) intermediate nodes where production, stocking and also transshipment takes place. Additionally we consider different transportation modes and different products. We distinguish between 4 different categories of decision variables: transportation, production, transshipment, and inventory amounts and allocations. Therefore it is necessary to determine for every period the amount of each product, that has to be transported from one location to another and which of the transportation modes should be used. The intermediate nodes either transship the incoming products or use them as new materials for manufacturing other goods. At every location we may keep products on stock, intermediate nodes actually have two inventories (inbound and outbound). The decisions concerning the optimal inventory levels are included in the model.
LP Modelling and Simulation of Supply Chain Networks
99
Figure 2 illustrates a simplified version of the key elements of the supply chain model in connection with some of the variables and parameters used. The figure just serves for a better visualization of the network. The exact notation of the variables and parameters will be explained in combination with the mathematical formulation in the following section. The supply nodes have a given supply, and an outbound inventory. Each intermediate node has an inbound inventory. The incoming products are either used for the production of other products or are just transshipped. Both, production and transshipment require a given number of periods of time. The manufactured products and the transshipped products, finally arrive at the outbound inventory. From there they are sent away, either to another intermediate node, or to the end of the supply chain, the customer nodes. The supply chain is completed by the customer nodes, which have a given demand and an inbound inventory level. In the following sections we develop an LP model representing the above situation.
J0
Js
A
v
Jc
p x AD
v
D v
B
C
F
p x BD
v v
v
p x DF
p xDE
E
p xBE
v
p xEF
v
v
p x EG
G
p x EH
H
p xCE
v
τ CE
Fig. 2. Illustration of a possible supply network
100
M. Preusser, C. Almeder, R. F. Hartl, M. Klug
2.2 Objective Function The supply chain consists of J={1,...,nj} locations, which can be separated into three subsets, i.e the suppliers JS, the intermediates J0 and the customers JC. Further the model includes a set of products P={1,...,P} and a set of transportation modes V={1,…,V}. T indicates the number of periods. The model implies three decision variables: v x ijp (t ) , mip (t ) and u ip (t ) . Each of them can be assigned to one subproblem, i.e. transportation, production and transshipment. The inventory subproblem does not have an explicit decision variable. The inventory levels are implicitly determined by the solutions of transportation, production, and transshipment subproblems. The transportation variable v xijp (t ) indicates the amount of product p transported from location i to location j with transportation mode v in period t (cf. Figure 2). The decision variable mip (t ) is the amount of product p, that starts being produced at location i in period t. Clearly, every production process consists of an initial product and of an end product. The index p in the production decision variable stands for the end product of the production process. The decision variable for the transshipment processes is u ip (t ) , which represents the amount of product p transshipped at location i in period t. Although we explicitly differentiate between production and transshipment, these two subproblems could have been combined, resulting in less variable types. The decision to treat production and transshipment separately has been made to make the implementation of the model easier and more readable. The overall goal, which is represented by the objective function (1), is to minimize the total costs.
min
∑∑ ∑∑
v p v p ij ij
+∑
⋅ u (t) + ∑
ij∈J
p∈P t =1,..T v∈V
i∈J
+
0
∑ ∑z p∈P t =1,..T
∑∑ ∑ 0
s
i∈J ∪J p∈P t =1,..T
p i
c ⋅ x (t ) + ∑ p i
∑ ∑w
i∈J 0
i∈J
0
p∈P t =1,..T
∑ ∑
p∈P t =1,..T
h ⋅ l (t ) + ∑
out p out p i i
i∈J
c
p i
⋅ mip (t)
(1)
in p in p i i
h ⋅ l (t)
∑ ∑ρ p∈P t =1,..T
p i
⋅ (−inlip (t ))
In principle, there are four types of costs: transportation cost, production cost, transshipment cost, and inventory cost. The first term of the objective function indicates the transportation costs. The second term, which represents the production costs, contains the decision variable mip (t ) multiplied by the corresponding production costs wip . The next term is the multiplication of the transshipment decision variable u ip (t ) with certain
LP Modelling and Simulation of Supply Chain Networks
101
transshipment costs z ip . The inventory costs are calculated with the following three terms. These consist of three parts, because we differentiate within the model three kinds of inventories: inbound inventories located at the intermediates, outbound inventories located at the suppliers and at the intermediates and inbound inventories located at the customers. The inbound inventory levels of the intermediates are represented by the variable in p l i (t ) . Consequently, the inbound inventory costs at intermediates are calculated by in l ip (t ) times the respective inventory costs at inbound inventories in hip . Due to the fact, that an excess of customer demand is not allowed, the stock-level at the customers can only take negative values. This under-satisfaction of customer demands will be penalized with penalty costs ρ ip . The six different cost coefficients in the objective function are given parameters, which are measured in monetary units per unit of quantity per period. 2.3 Constraints The objective function is minimized with respect to several constraints1: 2.3.1
Transportation
Constraint (2) ensures that given transport capacities v Cij (t ) for each transportation mode between location i and location j is not exceeded. The parameter v g p represents the amount of capacity units used by one unit of product p to be transported on transportation mode v. In addition to the capacity constraint (2), constraint (3) provide the opportunity to impose an upper bound or to explicitly prohibit the transportation of a certain product on a certain route. In the latter case, the respective capacity vCapijp (t ) is set to zero.
∑
v
g p ⋅v xijp ( t ) ≤ vC ij (t )
(2)
xijp (t ) ≤ vCap ijp (t )
(3)
p∈ P
v
1
All constraints must hold for all free indices (all indices i, j, p, t, v except the summation indices)
102
2.3.2
M. Preusser, C. Almeder, R. F. Hartl, M. Klug
Production and Transshipment
Constraints (4) and (6) are similar to the capacity constraints. They state, that given production capacities, prod C i (t ) , and given transshipment capacities, ta C i (t ) , are not exceeded. These two parameters are location- and time-dependent, i.e. temporal capacity differences are considered in the model. The parameter a ip indicates the amount of production capacity units required to produce one unit of product p at location i. For transshipment, instead of factor a ip an equivalent transshipment factor d ip is used. Constraints (5) and (7) impose individual upper bounds on transshipment or production at a certain intermediate.
∑a
p i
⋅ mip (t ) ≤
prod
Ci (t )
(4)
p∈P
mip (t ) ≤
∑d
i
p
Cap ip (t )
(5)
⋅ uip (t ) ≤ taCi (t )
(6)
prod
p∈P
uip (t ) ≤ taCapip (t )
2.3.3
(7)
Inventory
In this section the restrictions concerning the inbound and outbound inventories are explained. Clearly, the inventory levels arise in combination with some inventory balance equations. Due to a better overview those are listed and explained in the next section. out p l i (t )
≥0
∀i ∈ J s
(8)
in p l i (t )
≥0
∀i ∈ J 0
(9)
∀i ∈ J 0
(10)
out p l i (t )
≥0
Constraints (8), (9) and (10) ensure the nonnegativity of all inventory levels of suppliers and intermediates. in p l i (t )
≤0
∀i ∈ J c
(11)
LP Modelling and Simulation of Supply Chain Networks
103
It has already been mentioned above, that the inbound inventory level at customer nodes can only take negative values. This restriction is given in constraint (11).
∑q
p in p in i ⋅ li (t ) ≤ Li (t )
∀i ∈ J 0
(12)
∀i ∈ J 0
(13)
p∈P
in p li (t )
≤
invin
Capip (t )
∑q
p out p i ⋅ li (t )
Li (t )
∀i ∈ J 0
(14)
Capip (t )
∀i ∈ J 0
(15)
≤
out
p∈P
out p li (t )
≤
invout
The inbound and outbound inventories at the intermediates are furthermore capacitated. These capacities are denoted by variables in Li (t ) and out Li (t ) , respectively, and are considered in constraints (12) and (14). For every product p, a factor q ip is given, indicating the amount of capacity units required to hold one unit of p at the inventory (regardless if it is an inbound or an outbound inventory) of location i in period t. The factor is multiplied with the relevant inventory level and summed up over all products; the value must not exceed the corresponding inventory capacity. Additionally there are capacity restrictions for each product itself, i.e. restrictions (13) and (15). These offer the possibility to ascertain a maximum amount, invin Cap ip (t ) , for the inbound inventory or invout Cap ip (t ) for the outbound inventory, for each product that can be held in the inbound and outbound inventories at the intermediates in period t. 2.3.4
Inventory Balance and Flow Equations
In order to calculate the total inflow or outflow of a product p at the node j in period t, two auxiliary variables have been included: in
f jp (t ) =
∑∑
v
xijp (t − v τ ij )
∑∑
v
x jip (t )
∀j ∈ J 0 ∪ J c
(16)
∀j ∈ J s ∪ J 0 .
(17)
i∈J v∈V v τ ij
out
f jp (t ) =
i∈J v∈V
The inflow variable is the sum over all intermediate nodes and customer nodes, and further the sum is not built over v xijp (t ) , but over v x ijp (t − v τ ij ) .
104
M. Preusser, C. Almeder, R. F. Hartl, M. Klug
The parameter vτ ij indicates the transportation lead time, i.e. the number of periods that are needed to transport products with transportation mode v from location i to location j. Therefore products p, that are sent away at location i in period t − v τ ij , arrive at location j in period t. out p li (t )
=
out p li (t
− 1) −
out
f i p (t ) + S ip (t )
∀i ∈ J s
(18)
The last four equations in the model are the inventory balance equations. The first one, equation (18), considers the outbound inventory at the suppliers. S ip (t ) is the exogenously given supply of product p in period t at supplier i. in p i
l (t ) = inlip (t − 1) + inf i p (t )
(19)
− ∑ α ip ( p′) ⋅ mip′ (t ) − uip (t ) + ri p (t )
∀i ∈ J 0
p′∈P
Equation (19) balances the inbound inventory level at the intermediates. The inbound inventory level at the intermediates is diminished by two possible scenarios. In fact, products are taken out of the inventory to either be used for the production of other products or to be transshipped. The given parameter α ip ( p′) denotes the amount of product p that is required to produce one unit of product p’ at location i. We do not consider alternative production plans in the model, which means that the usage of any product does not substitute the usage of another product. The second scenario, which decreases the inventory level, is simply the transshipment decision variable u ip (t ) . The inventory level of period t is reduced exactly by that amount of product p that is transshipped at location i in period t. The value of ri p (t ) is a given parameter and should cover the inflow of products that are already on the way to location i before the first planning period actually begins. These products will arrive at location i in period t. This parameter offers furthermore the possibility to consider external deliveries to the inventories. The outbound inventory level out l ip (t ) at intermediate nodes is defined as follows: out p i
l (t ) =
l (t − 1) − outfi p (t ) + χ t≥δ p ⋅ mip (t − δ ip )
out p i
+ χ t≥σ p ⋅ uip (t − σ ip ) + bip (t ) i
where ⎧1 χ t ≥ε = ⎨ ⎩0
t ≥ε t < ε.
(20)
i
∀i ∈ J 0
LP Modelling and Simulation of Supply Chain Networks
105
The inventory level of product p in period t is increased by the amount of product p that has been started to be produced a certain amount of δ ip periods ago. This increase is certainly only possible, if the actual period t is greater than δ ip . Therefore we use the indicator function χ t ≥ε , that takes value 1 if t is larger than ε , and 0 otherwise. The next term in the inventory balance equation for the outbound inventory level at intermediate represents the increase of the inventory level by products that are transshipped at location i. Transshipment takes a given amount of periods σ ip . Again we use the indicator function χ t ≥ε to avoid negative periods. The last variable in this equation, bip (t ) , has been added to the model in order to consider an increase of inventory levels by products that are already in the production process in period 0, and will be finished in period t. It is also possible to consider external deliveries to the outbound inventories. in p li (t )
= inlip (t − 1)+infi p (t ) − Dip (t ) + ri p (t )
∀i ∈ J c
(21)
The inbound inventory levels at the customers, in l ip (t ) , represented in equation (21), are calculated in a similar way as in equation (20). The customers have a given demand Dip (t ) , which reduces the inventory level at location i. Finally the value of variable ri p (t ) is added to in l ip (t ) , in order to consider the deliveries that are already on the way to the customers in period 0 and will arrive in period t. 2.3.5
Nonnegativities
The nonnegativity of the decision variables is ensured in constraints (22) to (24): x ijp (t ) ≥ 0
(22)
mip (t ) ≥ 0
(23)
uip (t ) ≥ 0 .
(24)
v
3
Implementation and Test Instances
The first implementation of the LP model has been done in Xpress-MP, the LP solver of Dash Optimization (http://www.dashoptimization.com). In order to have a flexible model, which can be used for different problem in-
106
M. Preusser, C. Almeder, R. F. Hartl, M. Klug
stances all parameters are defined in an external data file. In contrast to the formal LP model, where all of the locations are indexed with i or j, the implementation contains for each actor group an appropriate index. Hence, there are six indices needed for the implementation: suppliers, intermediates, customers, products, periods, transportation modes. Due to the fact that the three groups of actors are treated separately of the implementation, we have to distinguish between the transportation decision variables for connecting these groups, or, if possible, for transportations within the groups. Therefore three types of transportation decision variables are defined, namely: supplier to intermediate, intermediate to intermediate, and intermediate to customer. The implemented code has been validated on the basis of several test instances with simplified supply networks. Each of them focuses on one of the subproblems of the overall optimization goal. Since we want to couple the optimization with the simulation in an iterative procedure, it is important to ensure that the optimization algorithm does not exceed a certain time limit. In order to find the limitation of the implementation regarding the problem size, we implemented also a generator for large test instances. This generator creates networks with a given number of production layers (sets of intermediate nodes which transform the incoming products into new ones) and one or more transshipment layers (set of intermediate nodes where semi-finished products are stored). All cost and capacity parameters are chosen randomly between given lower and upper bounds. Table 1 shows the results of some test runs with different problem complexities. Each row represents the result of one test instance. The first nine columns define the size of the problem. From left to the right they show: the number of suppliers, the number of customers, the number of production-only facilities, the number transshipment-only facilities, the number of layers of the production facilities, the length of the chain (minimal number of intermediate nodes between supplier and customer), the number of transportation modes, the number of products, and finally the number of periods. The last two columns give the ‘total time’ needed to load the model parameters, solve the model and store the result, whereas the ‘calculation time’ is only the part that was needed for the solution algorithm. Nearly all runs are completed within one minute, which seems an acceptable calculation time for coupling the optimization with simulation. With the computer and software configuration we used (Pentium 4, 2.4 GHz, 1GB memory, MS Windows 2000), it was not possible to increase the size of the problems further than 45 products or 60 periods.
LP Modelling and Simulation of Supply Chain Networks
107
4
3 3 3 3 3 3 3 3 3 3 3 3 3 3
2 2 2 2 2 2 2 2 2 2 2 2 2 2
16 16 16 16 16 16 16 16 16 16 16 16 16 16
13 13 13 13 13 13 13 13 13 13 13 13 13 13
3 5 5 5 5 5
2 5 5 5 5 5
16 16 16 16 16 16
13 13 15 20 30 30
increase products 4 9 2 12 4 9 2 15 4 9 2 30 4 9 2 45 increase periods 4 9 2 12 4 9 2 12 4 9 2 12 4 9 2 12 4 9 2 12 4 9 2 12 4 9 2 12 4 9 2 12 4 9 2 12 4 9 2 12 4 9 2 12 4 9 2 12 4 9 2 12 4 9 2 12 other variations 4 9 2 12 4 9 2 12 4 9 2 12 4 9 2 12 4 9 2 12 4 13 2 12
periods
13 13 13 13
products
trans. nodes
16 16 16 16
transp. modes
prod. nodes
2 2 2 2
len. of chain
customers
3 3 3 3
prod. layers
suppliers
Table 1. Calculation time for different test instances
Time (s) Total Calc.
10 10 10 10
10,61 19,97 37,25 235,03
6,14 12,42 21,47 210,11
10 11 12 13 14 15 20 25 30 35 40 45 50 60
10,61 11,49 12,88 13,80 15,45 15,78 21,75 27,52 33,23 41,14 46,61 67,17 100,02 393,77
6,14 6,58 7,53 8,00 9,20 9,13 12,92 16,52 19,97 25,80 29,64 48,05 77,81 367,06
10 10 10 10 10 10
10,61 11,92 13,66 21,81 32,58 32,92
6,14 6,80 7,94 12,38 18,66 18,98
Interaction between Simulation and Optimization
The basis for our experiments is Comparison 14, a simulation reference model published by the ARGESIM working group in the SNE (Simulation News Europe) Journal (cf. Tauböck 2001). The simulation model has been
108
M. Preusser, C. Almeder, R. F. Hartl, M. Klug
implemented in AnyLogic, the simulation tool from XJ Technologies (http://www.xjtek.com). The comparison addresses a discrete modelling and simulation problem. It considers a relatively simple network, consisting of four factories, four distributors and a customer (Figure 3). Some parameters of the original definition of the comparison have been changed slightly in order to apply optimization and to meet the requirements of the LP model. Root
factory1
distributor1
factory2
distributor2 customer
factory3
distributor3
factory4
distributor4
Fig. 3. Comparison 14, implemented in Any Logic
The time horizon considered consists of 10 days (240 hours). We assume that the factories produce 12 different products, whereas each factory produces only 6 of them. Factories F1 and F3 supply products P1 to P6, and factories F2 and F4 supply products P7 to P12. The amounts of products supplied at each factory have been generated randomly. The 4 distributors order products at the suppliers and supply the demand of the customer. In the simulation model the distributors order the products following an ordering plan, which is at first determined in the optimization model and afterwards fed into the simulation. Both the suppliers and the distributors are provided with an initial inventory level for each product. Furthermore, the network is actually separated into two parts. Distributors D1 and D2 can only order products at factories F1 and F2, and distributors D3 and D4 order their products only at factories F3 and F4. Transporting the products from a supplier to a distributor takes some periods of time.
LP Modelling and Simulation of Supply Chain Networks
109
The customer orders products at the distributors, the transportation time between wholesalers and distributors is not taken into account within the model. The deliveries between factories and distributors can only take place once a day, i.e. in every 24th period. The inventory levels are always measured in the precedent periods. Therefore the total costs of the system consist of the inventory costs at the suppliers, the inventory costs of the distributors and the transportation costs between suppliers and distributors. The inventory costs for suppliers and distributors are calculated once a day based on the stock level just before the distributors place their orders. To prohibit a solution where no product is delivered at all, the objective function of the optimization model is augmented by penalty costs, occurring if one of the wholesalers has a negative inventory level. Without taking into account any stochastics, the goal of this experiment was to find the optimal solution for the whole network. For the inventory cost of the factories we use a piecewise linear function: if stock ≤ 10 stock ⎧ holding cost factory = ⎨ 10 4 ( 10 ) otherwise stock + × − ⎩
(25)
For the distributors’ inventory cost we tested 3 different costs functions: 1. a piecewise linear convex function: if stock ≤ 40 stock ⎧ holding cost distributo r = ⎨ 40 + 2 × ( − 40 ) otherwise stock ⎩
(26)
2. a concave function: holding cost distributo r = log( stock + 1)
(27)
3. a piecewise linear step function: ⎧10 + 0.1 × stock holding cost distributo r = ⎨ ⎩50 + 0.1 × stock
if stock ≤ 20 otherwise
(28)
The above cost functions are used only in the simulation model. For the optimization model we have to linearize those functions. As a first step we performed an optimization run, with some initial inventory costs at the factories and distributors. The output of this optimization run was the exact transportation quantities for each day and each factory. Those were in turn fed into the simulation model and were used for the first simulation run. After having simulated the flow of products within
110
M. Preusser, C. Almeder, R. F. Hartl, M. Klug
the system for the complete time horizon, the average inventory costs at the different nodes were computed and incorporated into the optimization model. Clearly, the changed inventory costs led to an adjustment concerning the transportation amounts. Three iterations of this ping-pong game had to be performed, until the simulation model provided the same average inventory costs as in the previous round. Table 2 shows the changes of the inventory costs at the factories (F) and at the distributors (D) during the experiment. Table 2. Change of linearized inventory costs (piecewise linear convex cost functions (26)) Iterations 1 2 3
Inventory costs (per unit) F1 F2 F3 1,5 3,44 3,39
1,5 3,29 3,11
1,5 3,23 3,04
F4
D1
D2
D3
D4
1,5 3,19 2,92
2,5 1,00 1,04
2,5 1,03 1,04
2,5 1,02 1,06
2,5 1,01 1,04
For the second experiment (Table 3) we used a concave cost function for the distributors’ inventories. Again we get the same total cost values from simulation and optimization after 3 iterations. Table 3. Change of linearized inventory costs (case of concave cost function for distributors (27)) Iterations 1 2 3
Inventory costs (per unit) F1 F2 F3 1,5 3,44 3,39
1,5 3,29 3,11
1,5 3,23 3,04
F4
D1
D2
D3
D4
1,5 3,19 2,92
2,5 0,146 0,114
2,5 0,120 0,108
2,5 0,120 0,095
2,5 0,141 0,120
Although we can gain convergence in these first two examples, we do not know if we are trapped in a local minimum or if we have found the global optimum. Especially if we consider more complex networks with different types of nonlinearities, it will be very difficult to find some general conditions under which we can guarantee to find a global optimum. As a last experiment we implemented a step function for the distributors’ inventory costs. In this case we cannot reach convergence. After the 5th iteration we get the same results as in the 3rd iteration (see Table 4). Here the problem arises that it is not possible to guarantee convergence in the general case.
LP Modelling and Simulation of Supply Chain Networks
111
Table 4. Change of linearized inventory costs (case of step cost function for the distributors (28)) Iterations 1 2 3 4 5
Inventory costs (per unit) F1 F2 F3 1,5 3,44 3,39 3,39 3,39
1,5 3,29 3,11 3,11 3,11
1,5 3,04 3,04 3,04 3,04
F4
D1
D2
D3
D4
1,5 2,92 2,92 2,92 2,92
2,5 1,96 1,96 1,96 1,96
2,5 2,22 2,22 2,22 2,22
2,5 2,34 2,34 2,06 2,34
2,5 2,10 2,10 2,18 2,10
For this last case we can try to iterate with different initial values and see if we can get convergence, or we take one of the solutions in the cycle (4th or 5th iteration) and use this solution as approximation for the optimal result.
5
Conclusions and Outlook
Analyzing and improving supply chains are difficult problems and several different approaches have been proposed in the literature. We presented a new possibility to combine the two main tools, namely simulation and optimization. The aim is to put the advantages of simulation (complex models, nonlinearities) and the advantages of optimization (exact solution) into one method. Within this framework it is possible to test the optimal deterministic solution of the LP model in a stochastic environment and to analyze whether this solution is also feasible in the context of a more complex and more realistic simulation model. The underlying LP model is a very general representation of a supply chain, which ensures that it can be applied easily to a large variety of problems. Due to its structure, it is possible to restrict the optimization to parts of the supply chain. In this paper we presented only some small examples for the combination of simulation and optimization and there are still some open research questions. Especially the last example in Section 4, where we did not gain convergence, shows that a special effort has to be undertaken to find out the limitations of this method and maybe to develop further solution methods. Furthermore it is necessary to investigate in more detail, if in the case of convergence we really find the optimal solution. Another possibility might be to apply metaheuristics using the results of our approach as initial solution in order to leave a local optimum and to further improve the solution.
112
M. Preusser, C. Almeder, R. F. Hartl, M. Klug
Our further work will improve the interfaces between simulation and optimization on both sides: (i) how can we derive automatically a linearized model out of the discrete-event model and (ii) how can we interpret the solution of the LP model as general decision rules in the simulation model? In the literature of production/distribution planning there are several examples of complex LP/MIP models, and sophisticated methods (e.g. Langrangian relaxation, decomposition) for simplifying and solving such problems available (e.g. Shapiro 1993). So another possibility for further research is to increase the complexity of the underlying LP model. But this would imply a possible loss of generality and more complications for the interface to the simulation model.
Acknowledgment We gratefully acknowledge the support of ARC Seibersdorf research and of Dash Optimization.
References Arbib C, Marinelli F (2005) Integrating process optimization and inventory planning in cutting stock with skiving option: An optimization model and its application. European Journal of Operational Research 163: 617-630 Dogan K, Goetschalckx M (1999) A primal decomposition method for the integrated design of multi-period production-distribution systems. IIE Transactions 31: 1027-1036 Erengüc SS, Simpson NC, Vakharia AJ (1999) Integrated production/distribution planning in supply chains: an invited review. European Journal of Operational Research 115: 219-236 Fu MC (2002) Optimization for Simulation: theory vs practice. INFORMS Journal on Computing 14: 192-215 Kelton WD, Sadowski RP, Sadowski DA (2002) Simulation with Arena, 2nd edn. McGraw-Hill Kleijnen JPC (2004) Supply chain simulation tools and techniques: A survey. International Journal of Simulation and Process Modelling (in press) Kuhn A, Rabe M (1998) Simulation in Produktion und Logistik (Fallbeispielsammlung). Springer Pankaj C, Fisher ML (1994) Coordination of production and distribution planning. European Journal of Operational Research 72: 503-517 Owen SH , Daskin MS (1998) Strategic Facility Location: A Review. European Journal of Operational Research 111: 423-447
LP Modelling and Simulation of Supply Chain Networks
113
Schneeweiss C (2003) Distributed Decision Making, 2nd edn. Springer Shapiro JF (1993) Mathematical Programming Models and Methods for Production Planning and Scheduling, In: Graves SC, Rinnooy Kan AHG, Zipkin PH (eds) Handbooks in Operations Research and Management Science: Logistics of Production and Inventory. North-Holland Stadtler H (2005) Supply chain management and advanced planning – basics, overview and challenges. European Journal of Operational Research 163: 575-588 Swisher JR, Hyden PD (2000) A survey of simulation optimization techniques and procedures. Proceedings of the 2000 Winter Simulation Conference Tauböck SM (2001) C14 supply chain management definition. SNE Simulation News Europe 32/33: 28-29 Truong TH, Azadivar F (2003) Simulation based optimization for supply chain configuration design. Proceedings of the 2003 Winter Simulation Conference. Tsiakis P, Shah N, Pantelides CC (2001) Design of multi-echelon supply chains under demand uncertainty. Ind Eng Chem Res Vidal CJ, Goetschalckx M (2001) A global supply chain model with transfer pricing and transportation cost allocation. European Journal of Operational Research 129: 134-158
Bewertung unterschiedlicher Beschaffungsstrategien für Risk-Hedging Supply Chains unter Berücksichtigung intermodaler Transportprozesse Gerald Reiner, Werner Jammernegg Abteilung für Produktionsmanagement, Wirtschaftsuniversität Wien, Norbergstraße 15, 1090 Wien
Abstract In der vorliegenden Arbeit wird anhand einer realen Supply Chain der chemischen Industrie ein Vorgangsmodell für die Leistungsbewertung von Risk-Hedging Supply Chains (hohes Beschaffungsrisiko, geringes Nachfragerisiko) in einem dynamischen Umfeld vorgestellt. Insbesondere werden so genannte Portfolio-Beschaffungsstrategien entwickelt, die sich aus kurz- und langfristigen Verträgen zusammensetzen. Weitere analysierte Beschaffungsstrategien berücksichtigen Spekulationslager und die Auswirkungen unterschiedlicher Transportmittel (intermodaler Transport) zur Absicherung gegenüber der Volatilität des Rohmaterialpreises. Die Simulationsergebnisse zeigen, dass die gesamten Beschaffungskosten durch die alternativen Beschaffungsstrategien und Transportmittel durchschnittlich um bis zu 12% im Vergleich zu einer „reinen“ Beschaffungsstrategie, ohne die Nutzung eines Spekulationslager und ohne den Einsatz eines alternativen (langsameren) Transportmittels mit höherer Ladekapazität, gesenkt werden können. Abschließend werden Handlungsrichtlinien für das Supply Chain Management für die Auswahl einer effizienten Beschaffungsstrategie und eines passenden Transportmittels vorgestellt.
1
Einleitung
In der Unternehmenspraxis ist vielfach die Meinung zu finden, dass eine langfristige Partnerschaft zwischen Lieferanten und Kunden im Businessto-Business Bereich einer kurzfristigen Geschäftsbeziehung bzgl. Kostenreduktion überlegen ist. In der wissenschaftlichen Literatur wird jedoch
116
G. Reiner, W. Jammernegg
aufgrund von charakteristischen Eigenschaften der Supply Chain Prozesse eine genauere Differenzierung vorgenommen. Langfristige Partnerschaften sind beispielsweise dann vorteilhaft, wenn dadurch geringere Beschaffungspreise und eine verbesserte Lieferperformance realisiert werden kann (vgl. Elmaghraby 2000). Im Gegensatz dazu ermöglicht eine kurzfristige Beschaffung am Markt sowohl eine Nutzung von Spekulationsvorteilen als auch die Flexibilität zu alternativen Lieferanten zu wechseln, da die fixen Investitionskosten bei dieser Art der Geschäftsbeziehung normalerweise gering sind (vgl. Cohen u. Agrawal 1999). Cohen u. Agrawal (1999) verwenden dabei den Minimum-Varianz Ansatz von Markowitz zur Ermittlung eines optimalen Portfolios aufgrund von kurz- und langfristigen Beschaffungsverträgen. Die Indikatoren, die für die Auswahl des Typs der Geschäftsbeziehung entscheidend sind, sollten unter Berücksichtigung der Ziele Qualität, Lieferservice, Flexibilität und Kosten bewertet werden. Eine engere langfristige Partnerschaft sollte von den Kunden angestrebt werden, wenn die Zukaufteile von strategischer Bedeutung sind, nur wenige Lieferanten vorhanden sind, komplexe Schnittstellen zwischen der beschafften Komponente und dem Endprodukt (z.B. Anforderungen an die Softwareentwicklung) bestehen sowie bei hohen Nachfrage- und/oder Lieferunsicherheiten (vgl. Pyke u. Johnson 2003). Insbesondere in der taktischen Planung hat die Berücksichtigung einer stochastischen Nachfrage und von Preisfluktuation große Auswirkungen auf die Leistungsfähigkeit der Supply Chain Prozesse (vgl. Van Landeghem u. Vanmaele 2002). In der vorliegenden Arbeit wird ein Vorgangsmodell für die Leistungsbewertung von Risk-Hedging Supply Chains in einem dynamischen Umfeld entwickelt. Insbesondere werden dabei auch kurz- und langfristige Verträge zu so genannten Portfolio-Beschaffungsstrategien verknüpft. Eine weitere Alternative ist die Absicherung gegen Beschaffungspreisschwankungen durch Spekulationslager und der Einsatz alternativer Transportmittel (intermodaler Transport). Basierend auf den Beschaffungs-, Transportund Lagerhaltungskosten wird die Leistungsfähigkeit der alternativen Strategien und Transportprozesse mittels einer dynamischen Prozesssimulation analysiert und bewertet. Aufgrund der Ergebnisse ist es möglich, Handlungsrichtlinien für das Management zur Auswahl einer effizienten Beschaffungsstrategie und eines passenden Transportmittels zu entwickeln.
Beschaffungsstrategien für Risk-Hedging Supply Chains
2
117
Problemformulierung
Die Gestaltung von Supply Chain Prozessen wird entscheidend von Marktrisiken und operativen Risiken beeinflusst. Die Arbeit von Johnson (2001) gibt einen Überblick über die wichtigsten Risiken, die für das Supply Chain Management von Bedeutung sind. Zu den Marktrisiken zählen Nachfragerisiken, Preisrisiken, Wechselkursrisiken etc. Die operativen Risiken können grundsätzlich in Beschaffungsrisiken und Prozessrisiken eingeteilt werden, wobei eine weitere Unterteilung in externe (Terror, Wetter etc.) und interne (menschliches Versagen, technische Probleme etc.) Einflussfaktoren möglich ist. Lee (2002) hat für seine Identifizierung unterschiedlicher Supply Chain Typen insbesondere die Beschaffungs- und Nachfragerisiken ausgewählt, wobei zwischen Lean Supply Chains (geringes Beschaffungs- und geringes Nachfragerisiko), Risk-Heding Supply Chains (hohes Beschaffungs- und geringes Nachfragerisiko), reaktionsschnellen Supply Chains (geringes Beschaffungs- und hohes Nachfragerisiko) und agilen Supply Chains (hohes Beschaffungs- und hohes Nachfragerisiko) unterschieden werden kann. In jüngster Zeit wurden eine Reihe von Publikationen über das Thema reaktionsschnelle Supply Chains verfasst, wobei primär die Kombination von langfristigen und kurzfristigen Verträgen zur Verbesserung der Geschäftsbeziehung behandelt wurde (vgl. beispielsweise Peleg et al. 2002; Kleindorfer u. Wu 2003). Auf der anderen Seite gibt es zu diesem Thema für Risk-Hedging Supply Chains beispielsweise eine Publikation von Li und Kouvelis (1999), die sich mit der Leistungsfähigkeit verschiedener Supply Chain Verträge beschäftigt, wobei das Umfeld durch unsichere Preise aufgrund stochastischer Wechselkurse und deterministischer Nachfrage gekennzeichnet ist. Grundsätzlich gibt es einige wenige Publikationen, die Probleme der Beschaffungsplanung quantitativ behandeln. Bonser u. Wu (2001) stellen eine Übersicht über die relevanten Beiträge vor. In diesem Zusammenhang wird auch darauf hingewiesen, dass es sich meistens um statische Modelle handelt, wobei Beschaffungsentscheidungen a priori zu einem bestimmten Zeitpunkt getroffen werden und keine Möglichkeit besteht, Risiken bzgl. Nachfrage und Preis zu berücksichtigen. Eine Ausnahme stellen beispielsweise die Beiträge von Bonser u. Wu (2001), Kingsman (1986) und Kingsman u. Boussofiane (1989) dar, die diese Risiken berücksichtigen. Diese weiterführenden Arbeiten weisen jedoch ebenfalls Einschränkungen auf. Auf der einen Seite berücksichtigen diese Modelle nicht die tatsächlichen Materialflüsse. Insbesondere besteht daher auch nicht die Möglichkeit, alternative Transportmittel und deren Auswirkungen im Zeitablauf zu
118
G. Reiner, W. Jammernegg
analysieren. Auf der anderen Seite werden die Modelle nicht mit realen Daten erprobt und die Variabilität der stochastischen Inputdaten wird eingeschränkt, z.B. durch die Annahme steigender Preise. Zusätzlich gibt es auch Forschungsarbeiten aus dem Bereich der Lagerhaltungstheorie, die sich mit Bestandspolitiken für Lagerhaltungssysteme primär unter Berücksichtigung stochastischer Nachfrage beschäftigen. Für eine Verallgemeinerung dieser Modelle unter Berücksichtigung von stochastischen Preisen existieren noch keine geeigneten Lösungsverfahren (vgl. Bonser u. Wu 2001; Axsäter 1993). Anhand einer realen Supply Chain der chemischen Industrie analysieren wir unterschiedliche Beschaffungsstrategien und Transportmittel für eine Risk-Hedging Supply Chain. Im Rahmen der weiteren Analysen wird primär die Beschaffung des Rohmaterials betrachtet. Die Nachfrage nach dem Endprodukt ist stabil und beträgt ca. 960 Tonnen pro Woche und muss immer erfüllt werden, d.h. es gibt einen so genannten „ForcedCompliance“ Vertrag mit den Kunden, wobei es sich ausschließlich um Business-to-Business Kunden handelt. Auf der Lieferseite variiert der Rohmaterialpreis beträchtlich im Zeitablauf. Grundsätzlich gibt es zwei Rohmaterialpreise. Einerseits kann das Rohmaterial auf dem Spot Markt, auf dem das betrachtete Rohmaterial gehandelt wird, beschafft werden. Die empirische Verteilung (siehe dazu Abb. 1.) des Rohmaterialpreis am Spot Markt weist während der Vorlaufperioden (Jahr 1 - Woche 1 bis Jahr 4 - Woche 21) einen Mittelwert von 587 Euro pro Tonne bei einer Standardabweichung von 230 Euro pro Tonne auf. Andererseits ist es möglich, das Rohmaterial unter Verwendung eines Liefervertrages, des so genannten „European Contract Price“ (ECP) Vertrages zu beschaffen. Im Allgemeinen wird dieser Preis durch zwei dominierende Unternehmen der betrachteten Industrie einmal pro Quartal festgelegt. Durchschnittlich beträgt der ECP währende der Beobachtungsdauer (Vorlaufperioden) 615 Euro pro Tonne bei einer Standardabweichung von 199 Euro pro Tonne (siehe dazu Abb. 1.). Das Unternehmen hat die Möglichkeit, das Rohmaterial von unterschiedlichen Lieferanten zu beziehen, wobei entweder die Bezahlung mittels Spot Markt Preis bzw. ECP Vertrag vereinbart werden kann. Momentan wird der erforderliche Rohmaterialbedarf anhand einer Portfolio-Beschaffungsstrategie eingekauft: 2/3 des Beschaffungsvolumens werden mittels ECP Vertrag und das verbleibende Drittel auf dem Spot Markt eingekauft.
Beschaffungsstrategien für Risk-Hedging Supply Chains
119
1.2
Vorlauf
1.1
Analyse
1
Preis/kg
0.9
0.8
0.7
0.6
ECP
0.5
Spot Markt
0.4
0.3
4 1 3 3 2 5 0 0 3 0 2 5 6 1 9 8 5 7 8 3 7 6 6 3 0 6 5 9 0 8 9 2 1 _0 _0 _1 _2 _2 _3 _4 _5 _0 _1 _1 _2 _3 _4 _4 _0 _1 _1 _2 _3 _3 _4 _0 _0 _1 _2 _2 _3 _4 _5 _0 _1 _2 01 01 01 01 01 01 01 01 02 02 02 02 02 02 02 03 03 03 03 03 03 03 04 04 04 04 04 04 04 04 05 05 05 hr hr hr hr hr hr hr hr hr hr hr hr hr hr hr hr hr hr hr hr hr hr hr hr hr hr hr hr hr hr hr hr hr Ja Ja Ja Ja Ja Ja Ja Ja Ja Ja Ja Ja Ja Ja Ja Ja Ja Ja Ja Ja Ja Ja Ja Ja Ja Ja Ja Ja Ja Ja Ja Ja Ja
Abb. 1. ECP und Spot Markt Preise pro Woche
Aufgrund der Schwankungen des Rohmaterialpreises und einer geringen Nachfrageunsicherheit handelt es sich um eine Risk-Hedging Supply Chain. Es wird daher in der vorliegenden Arbeit versucht eine effiziente Beschaffungsstrategie und einen entsprechenden Transportprozesses für das Rohmaterial zu identifizieren. Insbesondere werden die Möglichkeiten eines Spekulationslagers bzw. von alternativen Transportmitteln mit unterschiedlichen Eigenschaften (z.B. Lagerkapazität, Mengenflexibilität, Transportzeit) zum Managen des Risikos analysiert und bewertet. Wie bereits erwähnt, ermöglicht ein Spekulationslager eine Absicherung gegenüber der Volatilität des Rohmaterialpreises. Die Grundidee basiert darauf, wenn der Rohmaterialpreis nieder ist, mehr als die Nachfragemenge einer Periode zu beschaffen und die zusätzliche Menge für Perioden mit hohen Rohmaterialpreisen einzulagern (Lageraufbau). Die Beschaffungsmenge für das Spekulationslager pro Periode wird dabei wesentlich durch den aktuellen Rohmaterialpreis bestimmt. Der Preis, der genau an der Grenze zwischen Beschaffung von Rohmaterial (Unterschreitung) und Nutzung des Lagers (Überschreitung) liegt, wird in weiterer Folge als Beschaffungspreisschranke bezeichnet. Abb. 2. illustriert beispielhaft anhand eines normalverteilten Rohmaterialpreises eine Beschaffungspreisschranke, die über dem durchschnittlichen Rohmaterialpreis liegt. Die Beschaffungspreisschranke wird dabei auch unter Berücksichtigung des aktuellen
120
G. Reiner, W. Jammernegg
Lagerbestandes berechnet. Bei einem geringen (hohen) Lagerbestand wird ein Wert für die Beschaffungspreisschranke errechnet, der höher (niedriger) als der erwartete Rohmaterialpreis ist. Dadurch ist es möglich, die Beschaffung von Rohmaterial zu hohen Preisen zu verhindern. Wenn die Beschaffungspreise hoch sind und ein ausreichender Lagerbestand vorhanden ist, wird kein Rohmaterial in der betrachteten Periode beschafft, wobei die Nachfrage durch das Lager abgedeckt wird. Wenn der aktuelle Preis unter der Beschaffungspreisschranke liegt, ist es erforderlich die Beschaffungsmenge genauer zu spezifizieren. In diesem Zusammenhang ist natürlich zu berücksichtigen, dass die maximale Bestellmenge durch die maximale Lagerkapazität und den aktuellen Lagerbestand limitiert ist. Die Bestellmenge pro Periode ist abhängig vom aktuellen Rohmaterialpreis aufgrund der gewählten Vertragsform und wird als Produkt des Kehrwerts der Verteilungsfunktion beim realisierten Rohmaterialpreis mal der Nachfrage pro Periode berechnet. Diese Definition wird anhand eines nomalverteilten Preises und einer Beschaffungspreisschranke veranschaulicht, die über dem durchschnittlichen Preis liegt (Abb. 2.). Für den Fall, dass der aktuelle Rohmaterialpreis gleich dem durchschnittlichen Rohmaterialpreis ist, sollte die doppelte (1/0,5=2) Nachfragemenge beschafft werden. Die Berechung der Bestellmenge kann auch allgemeiner in der folgenden Form durchgeführt werden: Wenn der aktuelle Rohmaterialpreis gleich dem p-Quantil ist, dann ist die Bestellmenge das 1/p fache der Nachfrage pro Periode. In der Arbeit von Paulitsch (2003) ist die hier dargestellte Berechnung der Bestellmenge bei Nutzung eines Spekulationslagers ausführlich beschrieben. Zusätzlich werden dabei auch unterschiedliche Beschaffungsstrategien analysiert und bewertet, wobei immer ein normalverteilter Rohmaterialpreis zur Illustration des Modells vorausgesetzt wird. In der vorliegenden Arbeit wird die empirische Verteilung der Rohmaterialpreise herangezogen, wodurch die problematische Annahme nomalverteilter Rohmaterialpreise (mögliche negative Werte!) nicht mehr notwendig ist.
Beschaffungsstrategien für Risk-Hedging Supply Chains
121
Abb. 2. Spekulationslager
Abb. 3. zeigt die tatsächliche Verteilung der Spotmarktpreise während der Vorlaufperioden, auf deren Basis die Bestellmenge für das Spekulationslager pro Periode im Modell berechnet wird. 30%
25%
20%
15%
10%
5%
0% <=
3 0. 3 0,
5 ,3 -0 0
5 ,3
-0
,4 4 0,
5 ,4 -0
45 0,
-0
,5 5 0,
5 ,5 -0
55 0,
,6 -0
6 0,
5 ,6 -0
65 0,
-0
,7 7 0,
5 ,7 -0
75 0,
-0
,8 8 0,
5 ,8 -0
85 0,
-0
,9 9 0,
-0
5 ,9
95 0,
Preis/kg
Abb. 3. Verteilung der Spot Markt Preise – Vorlaufperioden
-1 1
5 ,0 -1
05 1,
-1
,1 1 1,
5 ,1 -1
15 1,
-1
,2
>
2 1,
122
G. Reiner, W. Jammernegg
Abb. 4. zeigt die Verteilung der ECP während der Vorlaufperioden, auf deren Basis die Bestellmenge für das Spekulationslager pro Periode im Modell berechnet wird. 30%
25%
20%
15%
10%
5%
2
,2
1, >
5 ,1
-1 15 1,
,1
-1 1 1,
5
-1
-1 ,0
05 1,
1
5
-1 5
,9 -0 9
0,
0, 9
,9
5
-0 85 0,
,8
,8 -0 8
0,
5 ,7
-0
-0
75 0,
7 0,
0,
65
-0
,7
5
,6
,6 -0 6
0,
0,
55
-0
5
,5
,5 -0 5
0,
5 ,4
-0 45 0,
,4
-0 4 0,
,3
-0 5 ,3 0
-0 0,
3
<=
0. 3
5
0%
Preis/kg
Abb. 4. Verteilung des ECP – Vorlaufperioden
3
Modellbeschreibung
In der vorliegenden Arbeit wird die bereits dargestellte reale Supply Chain aus der chemischen Industrie für die Illustration eines Leistungsbewertungsmodells für Risk-Hedging Supply Chains in einem dynamischen Umfeld eingesetzt. Unter diesen Rahmenbedingungen ist es nicht möglich analytische Tools zur Modellanalyse einzusetzen. Dies gilt insbesondere für den instationären Zustand des Modells. Daher wurde eine dynamische Prozesssimulation zur Analyse und Bewertung der alternativen Beschaffungsstrategien und Transportprozesse eingesetzt. Im Detail werden die relevanten Supply Chain Prozesse mittels eines diskreten ereignisorientierten Simulationstool (ProcessModel) und VBA modelliert. Die wichtigsten Input-Parameter für das Simulationsmodell sind die Nachfrageverteilung, die empirische Preisverteilung (siehe oben) für den ECP und den Spot Markt Preis, die Lagerhaltungskosten, der Anfangs- und Maximalbestand des Rohmateriallagers, die ECP Variabilität und die Parameter bzgl. Zusammensetzung des Portfolios (Anteil der mittels ECP beschafften Rohmaterialien). Der Output-Parameter Gesamtkosten der Be-
Beschaffungsstrategien für Risk-Hedging Supply Chains
123
schaffung (= Materialkosten + Lagerhaltungskosten + Transportkosten) wird für die Bewertung bzw. den Vergleich der unterschiedlichen Strategien herangezogen. Das direkte Umfeld des Unternehmens und die allgemeine Situation der betrachteten Industrie führen zu den folgenden Annahmen für die Erstellung des Simulationsmodells. • Der Produzent bezieht das Rohmaterial von perfekten Lieferanten, d.h. es kommt zu keinen Lieferengpässen, die durch den Lieferanten verursacht werden. Qualitätsprobleme treten nur bei 0,01% der Lieferungen auf. • Der ECP und der Spot Markt Preis sind exogene Parameter. Abb. 1. veranschaulicht, dass die Entwicklung des ECP durch den Spot Markt beeinflusst wird. Daher sind diese beiden Variablen nicht voneinander unabhängig. Die Abb. 3. und die Abb. 4. zeigen auch die empirischen Verteilungen (Vorlaufperioden), die für die Schätzung der Parameter für die Beschaffungsstrategien mit Spekulationslager herangezogen werden. Auf Basis dieser Werte wird die Beschaffungspreisschranke in Abhängigkeit vom Lagerbestand berechnet. • Das Rohmaterial ist mehr oder weniger unlimitiert lagerfähig, wobei keine Qualitätsprobleme durch Alterung auftreten. • Die Nachfrage des Produktionsprozesses nach Rohmaterial muss immer erfüllt werden, da die Rüstkosten, die durch eine Unterbrechung des chemischen Prozesses (z.B.: durch einen Lagerengpass) verursacht werden, sehr hoch sind. • Die Produktionsmenge des betrachteten Unternehmens ist mehr oder weniger konstant. Aufgrund geringfügiger saisonaler Nachfrageschwankungen, Schwankungen bei den verfügbaren Ressourcen (z.B. verursacht durch Urlaub, Krankenstände) und kleiner Unterschiede bei der chemischen Zusammensetzung des angelieferten Rohmaterials kann es jedoch zu Problemen bei der Produktionsplanung und in weiterer Folge zu Schwankungen der Produktionszeit pro Tonne mit einem Mittelwert von 10,5 Minuten und einer Standardabweichung von 1.3 Minuten kommen. Sämtliche Beschaffungsstrategien wurden mittels eines dynamischen Simulationsmodells des Beschaffungsprozesses über eine Periode von einem Jahr analysiert. Es wurden daher während der Analyseperioden (Jahr 4 – Woche 22 bis Jahr 5 – Woche 21, siehe dazu auch Abb. 1.) die tatsächlichen ECP und Spot Markt Preise berücksichtigt. Der durchschnittliche ECP beträgt 588 Euro pro Tonne, und ist damit höher als der durchschnittliche Spot Markt Preis von 547 Euro pro Tonne. Demgegenüber weist der
124
G. Reiner, W. Jammernegg
ECP eine Standardabweichung von 90 Euro pro Tonne auf (Variationskoeffizient: 0,15). Diese Werte sind wesentlich geringer als die Standardabweichung des Spot Markt Preises mit 164 Euro pro Tonne (Variationskoeffizient: 0,3). Die Ergebnisse der 25 Simulationsläufe ermöglichen für die relevanten Output-Parameter die Ermittlung der empirischen Verteilungsfunktion, die primär durch Mittelwert und Standardabweichung charakterisiert ist.
4
Beschreibung der Beschaffungsstrategien
Die analysierten Beschaffungsstrategien können anhand der folgenden Ausprägungen differenziert werden. Auf der einen Seite können verschiedene Arten von Supply Chain Verträgen zu so genannten Portfolio-Beschaffungsstrategien zusammengestellt werden. Für Vergleichszwecke werden jedoch auch „reine“ Beschaffungsstrategien dargestellt, d.h. das gesamte Rohmaterial wird entweder mittels ECP oder auf dem Spot Markt beschafft. Im Falle einer Portfolio-Strategie ist es erlaubt, den Anteil des mittels ECP beschafften Rohmaterials innerhalb bestimmter Toleranzen zu variieren. Auf der anderen Seite besteht die Möglichkeit, im Falle eines günstigen Einkaufpreises, ein Rohmateriallager aufzubauen. Dieses zusätzliche Lager wird als Spekulationslager bezeichnet, und bietet die Möglichkeit der Absicherung gegenüber der Preisvolatilität des Rohmaterials. Wir beschränken uns beim Vergleich der alternativen Strategien auf acht, die im nächsten Abschnitt ausführlich beschrieben werden. Sechs dieser Beschaffungsstrategien werden mit einem Transportprozess entsprechend der aktuellen Situation in der Supply Chain modelliert, wobei nur ein Transportmittel (Straßentankwagen) zum Einsatz kommt. Abb. 5. zeigt die einzelnen Aktivitäten und Lager bei einem LKW-Transport. Grundsätzlich ist der Straßentransport für das Rohmaterial durch hohe Transportkosten pro Tonne und geringe Ladekapazität – im Vergleich zu alternativen Transportmitteln, wie z.B. Bahn-Kesselwagon und Schiff – gekennzeichnet. Auf der anderen Seite zeichnet sich der Straßentransport durch eine geringe Transportzeit und große Flexibilität aus.
Beschaffungsstrategien für Risk-Hedging Supply Chains
Rohmaterialproduzent
125
Rückweisung des Rohmaterials
ECP / Spot Markt
Start des Beschaffungsvorganges
Bereitstellung der Ware
Beladung des Tankwagens
Qualitätsprüfung
Transport
Entladung
ok Rohmateriallager
Lagerstand
Produktionsprozess
Fertigwarenlager
Kunde
Abb. 5. Beschaffungsprozess mit LKW-Transport
Zusätzlich werden auch zwei Beschaffungsstrategien mit einem intermodalen Transport (Schiff und LKW) des Rohmaterials analysiert, wobei der Transport primär auf dem Wasserweg erfolgt und nur die Distanz zwischen Hafen und Produktionsstandort (ca. 30 km) mit dem LKW überbrückt werden muss. Abb. 6. zeigt die einzelnen Aktivitäten und Lager bei einem Schiff-Transport. Dieser Transportprozess ist durch eine hohe Ladekapazität, geringere Transportkosten, höhere operative Risiken (z.B. Wasserstand beeinflusst die maximale Ladekapazität) und geringere Flexibilität gekennzeichnet. Rohmaterialproduzent
Rückweisung des Rohmaterials
ECP/Spot Markt
Start des Beschaffungsvorganges
Bereitstellung der Ware
Lager Hafen
Lagerbestand
Rohmateriallager
Beladung des Schiffs
Beladung des Tankwagens
Produktionsprozess
Transport
Transport
Qualitätsprüfung
ok
Lager Schiff
Entladung des Schiffs
Entladung des Tanwagens
Fertigwarenlager
Kunde
Abb. 6. Beschaffungsprozess mittels Binnenschiff
Im Anschluss werden die ausgewählten Beschaffungsstrategien im Detail beschrieben.
126
G. Reiner, W. Jammernegg
4.1 Beschaffungsstrategien ohne Spekulationslager Die folgenden drei Beschaffungsstrategien zeigen die Situation ohne den Einsatz eines Spekulationslagers und bilden dadurch auch die Basis für die weiterführenden Vergleiche mit den alternativen Beschaffungsstrategien. Strategie 1 – reine ECP Beschaffung: Jede Woche wird das Rohmaterial, das für die Befriedigung der Produktionsnachfrage erforderlich ist mittels ECP beschafft. Strategie 2 – reine Spot Markt Beschaffung: Das für die Befriedigung der Produktionsnachfrage erforderlich Rohmaterial wird jede Woche auf dem Spot Markt beschafft. Strategie 3 – Portfolio: Das Rohmaterial wird dabei mittels eines Portfolios von ECP und Spot Markt beschafft, wobei der ECP Anteil der Prozentsatz des ECP Vertrages am Beschaffungsvolumen ist. Zusätzlich erlaubt diese Beschaffungsstrategie auch eine Flexibilität bzgl. der Zusammensetzung des Beschaffungsportfolios für jede Woche. Die maximale Abweichung vom ECP wird mit dem Parameter ECP Variabilität charakterisiert und in Prozent der wöchentlichen Nachfrage angegeben. Der Anteil der mittels ECP beschafften Rohmaterialen beträgt 66,7% mit einer Variabilität, die auf 10% limitiert ist. Dabei handelt es sich auch um eine Art Vertrag mit Mengenflexibilität, wobei dem Käufer das Recht eingeräumt wird, die Beschaffungsmenge aufgrund des ECP Vertrages innerhalb des folgenden Intervalls zu wählen:
[((ECP Anteil − ECP Variabilität ) 100) ⋅ Nachfrage, ((ECP Anteil + ECP Variabilität ) 100) ⋅ Nachfrage] 4.2 Beschaffungsstrategien mit Spekulationslager Die folgenden drei Beschaffungsstrategien verwenden die bereits beschriebene Methode zur Nutzung eines Spekulationslagers. Für die Berechnung der Beschaffungspreisschranke ist es notwendig einen neuen maximalen Lagerbestand festzulegen. Bei den nun betrachteten Beschaffungsstrategien beträgt der maximale Lagerbestand 6000 Tonnen. Die Beschaffungspreisschranke wird wöchentlich in Abhängigkeit vom Lagerbestand neu ermittelt. Eine weitere Bedingung ist, dass die Nachfrage immer erfüllt werden muss. Für den Fall, dass die Versorgung mit Rohmaterial aufgrund eines geringen Lagerbestandes nicht mehr sichergestellt werden kann, ist es erforderlich die fehlende Rohmaterialmenge zu bestellen, auch wenn der aktuelle Beschaffungspreis über der Beschaffungspreisschranke liegt. Der Lageraufbau des Spekulationslagers erfolgt aufgrund von Verträgen, die durch die Beschaffungsstrategie festgelegt werden.
Beschaffungsstrategien für Risk-Hedging Supply Chains
127
Strategie 4 – reine Spot Markt Beschaffung mit Spekulationslager: Diese Beschaffungsstrategie verwendet so wie die Strategie 2 ausschließlich den Spot Markt zu Beschaffung des Rohmaterials. Strategie 5 – reine ECP Beschaffung mit Spekulationslager: Der ECP Vertrag ist so wie bei der Beschaffungsstrategie 1, die einzige Möglichkeit zur Rohmaterialbeschaffung. Diese Beschaffungsstrategie ermöglicht auch eine zusätzliche Mengenflexibilität. Strategie 6 – Portfolio Beschaffung mit Spekulationslager: Ähnlich wie bei der Beschaffungsstrategie 3 wird diese Strategie durch die Parameter ECP Anteil und ECP Variabilität charakterisiert. Wenn der aktuelle Lagerbestand zu Beginn der Woche und die Bestellmenge – berechnet auf Basis der Preisverteilungen und der Beschaffungspreisschranke – die Nachfrage nicht abdecken, wird die Fehlmenge entsprechend dem Portfolio (ECP Anteil und ECP Variabilität) beschafft. 4.3 Beschaffungsstrategien mit Binnenschiff und Spekulationslager Im Anschluss werden zwei Beschaffungsstrategien dargestellt, die das Binnenschiff als Transportmittel einsetzten. Dadurch ist es möglich, das Rohmateriallager direkt beim Produzenten zu reduzieren, da das Binnenschiff bzw. der Zielhafen zusätzliche Lagerkapazitäten bereitstellen. Der maximale Lagerbestand kann auf 14100 Tonne erhöht werden, wobei jedoch nur 6000 Tonnen (Rohmateriallager beim Produzenten und Lager im Zielhafen) kostenwirksam sind, da die restlichen Lagerkapazitäten durch das Transportmittel (3 Schiffe mit jeweils 2700 Tonnen maximaler Ladekapazität) bereitgestellt werden. Auch hier wird die gleiche Methodik bzgl. Managements des Spekulationslagers eingesetzt, die bereits weiter oben beschrieben wurde. Ein wichtiger Aspekt bei der Binnenschifffahrt ist eine Erhöhung des operativen Risikos durch unterschiedliche Wasserstände (exogene Variable), die zu einer Schwankung der Transportkapazität führen. Tabelle 1. zeigt dabei die minimalen bzw. maximalen Werte für die Ladekapazität eines Standardschiffes.
128
G. Reiner, W. Jammernegg
Tabelle 1. Binnenschifffahrt – Ladekapazität (Quelle: Via Donau 2002) Monat Jänner Februar März April Mai Juni Juli August September Oktober November Dezember
Ladekapazität Min
Ladekapazität Max
69,19% 100,00% 100,00% 88,71% 77,51% 55,44% 100,00% 55,44% 0,00% 44,48% 0,00% 71,91%
100,00% 100,00% 100,00% 100,00% 100,00% 100,00% 100,00% 71,91% 44,48% 55,44% 55,44% 100,00%
Strategie 7 – reine Spot Markt Beschaffung mit Spekulationslager und Schiff-Transport: Die Rohmaterialbeschaffung erfolgt hier mit der gleichen Methodik wie bei Strategie 4. Strategie 8 – Portfolio mit Spekulationslager und Schiff-Transport: Ähnlich wie bei der Beschaffungsstrategie 6 wird diese Strategie durch die Parameter ECP Anteil und ECP Variabilität charakterisiert. Zusätzlich gelten auch die gleichen Regeln für die Beschaffung in dem Fall, dass der Lagerbestand und die Bestellmenge die Nachfrage nicht abdecken. Tabelle 2. gibt einen Überblick über die wichtigsten Inputparameter, der analysierten Beschaffungsstrategien. Insbesondere werden hier auch die unterschiedlichen Transportzeiten in Abhängigkeit vom Transportmittel dargestellt, die wesentlich die Wiederbeschaffungszeit beeinflussen. Der Anfangsbestand für alle Alternativen wurde mit 3000 Tonnen gewählt, um einen Vergleich der Handlungsalternativen zu ermöglichen. Die Lagerhaltungskosten betragen 2 Euro pro Tonne und Woche. Zusätzlich werden Transportkosten von 68,77 Euro pro Tonne beim reinen LKW-Transport sowie 62 Euro pro Tonne beim intermodalen Schiff und LKW Transport verrechnet. Diese Transportkosten beinhalten dabei die Kosten für die Beladung der Schiffe, Transport, Löschung im Tanklager, Umpumpen in die Straßentankzüge, Nachlauf, Umpumpen in das Werklager, Ufergeld, Bereithaltungskosten und Liegekosten.
Beschaffungsstrategien für Risk-Hedging Supply Chains
129
Tabelle 2. Parameter des Simulationsmodells Eigenschaften Spot Markt ECP Vertrag
Beschaffungsstrategie 1
2
3
4
5
6
7
8
nein
ja
ja
ja
nein
ja
Ja
ja
ja
nein
ja
nein
ja
ja
nein
ja
Maximaler Lagerbestand [t]
3270
3270
3270
6000
6000
6000
14100
14100
Initialbestand [t]
3000
3000
3000
3000
3000
3000
3000
3000
Anzahl der Binnenschiffe
-
-
-
-
-
-
3
3
Schiff Transportzeit [t]. - µ (min,max)
-
-
-
-
-
-
216 (192; 240)
216 (192; 240)
14
14
14
14
14
14
4
4
30 (28;32)
30 (28;32)
30 (28;32)
30 (28;32)
30 (28;32)
27
27
27
27
27
27
27
27
-
-
-
-
-
-
2700
2700
Anzahl der LkW LKW Transporzeit [h] - µ (min,max) Transportkapazität/LKW [t] Max. Transportkapazität/Schiff [t]
30 1,5 1,5 (28;32) (1,2;1,8) (1,2;1,8)
4.4 Analyseergebnisse In diesem Abschnitt werden die Analyseergebnisse der acht ausgewählten Beschaffungsstrategien präsentiert. Abschließend wird versucht, aufgrund der Analyseergebnisse Handlungsempfehlungen für das Management abzugeben. Tabelle 3. gibt die Gesamtkosten der Beschaffung an, die während einer vollständigen Simulationsperiode von einem Jahr ermittelt wurden. Die Beschaffungsstrategie 1 (reine ECP Beschaffung ohne Nutzung eines Spekulationslagers) wird dabei als Referenzstrategie benutzt, d.h. das Ergebnis dieser Strategie (Mittelwert der Gesamtkosten der Beschaffung pro Jahr) bildet die Basis für die relativen Werte der weiteren Strategien. Ein Vergleich der Strategien 1, 2 und 3 zeigt, dass eine ausschließliche Beschaffung am Spot Markt (Strategie 2), einer Portfolio Strategie (Strategie 3) vorzuziehen ist, da die mittleren Gesamtkosten um 3% niedriger sind. Strategie 2 und 3 zeigen wiederum geringere Gesamtkosten als die Referenzstrategie (Strategie 1).
130
G. Reiner, W. Jammernegg
Tabelle 3. Gesamtkosten der Beschaffung (inkl. Bestell-, Lager- und Transportkosten) Strategie
X pro Jahr [€]
X pro Jahr [%]
Min. [%]
Max. [%]
σ [€]
v
1
31.759.815
100,00%
99,88%
100,17%
35.733
0,0011
2
29.509.315
92,91%
92,76%
93,11%
47.935
0,0016
3
30.456.413
95,90%
95,77%
96,07%
40.525
0,0013
4
29.362.522
92,45%
92,27%
92,66%
34.691
0,0012
5
31.917.910
100,50%
100,45%
100,55%
187.810
0,0059
6
29.878.201
94,08%
93,97%
94,23%
36.910
0,0012
7
27.986.825
88,12%
82,77%
94,92%
1.221.625
0,0437
8
29.290.156
92,22%
88,03%
96,77%
775.293
0,0265
X σ v
Mittelwert Standardabweichung Variationskoeffizient
Tabelle 3. zeigt auch, dass eine Beschaffungsstrategie unter Verwendung des ECP mit Spekulationslager (Strategie 5) zu geringen Verschlechterungen (0,5%) im Vergleich zur Ausgangssituation (ECP ohne Spekulationslager, Strategie 1) führt. Diese Verschlechterung ist auf die Limitierung der Mengenflexibilität durch die ECP Variabilität und auf die steigenden Lagerhaltungskosten für das Spekulationslager zurückzuführen. Ohne die Limitierung durch die ECP Variabilität wäre es beispielsweise möglich, die Gesamtkosten um ca. 1% zu reduzieren, wobei die restlichen Input Parameter nicht verändert werden. Eine Gegenüberstellung der Beschaffungsstrategien 2 bzw. 3 (ohne Spekulationslager) und der Strategien 4 bzw. 6 (mit Spekulationslager) zeigt, dass durch das Spekulationslager bei reiner Spot Markt Beschaffung eine geringfügige Verbesserung von 0,46% und bei der Portfolio Strategie eine etwas größere Verbesserung von 1,82% erzielt werden kann. Zusätzliche Sensitivitätsanalysen haben in diesem Fall gezeigt, dass eine Erhöhung der Kapazität des Spekulationslagers zu weiteren Verbesserungen führen kann. Eine Alternative zur Erhöhung des Spekulationslagers ohne zusätzliche Lagerhaltungskosten stellt der Einsatz eines langsameren Transportmittels mit einer größeren Ladekapazität, in der vorliegenden Analyse das Binnenschiff, dar. Daher ist insbesondere ein Vergleich der Strategien 4 und 6 sowie 7 und 8 von Interesse. Die Gegenüberstellung zeigt, dass bei einer
Beschaffungsstrategien für Risk-Hedging Supply Chains
131
reinen Spot Markt Beschaffung eine Reduktion der mittleren Gesamtkosten von 4,33% durch den Einsatz des Binnenschiffs (Strategie 7) erreicht werden kann. Aufgrund der höheren Variabilität der Ergebnisse, die durch größere operative Risiken (z.B. Wasserstand) verursacht werden, kann es jedoch auch im ungünstigsten Fall zu einer Verschlechterung kommen. Eine Detailbetrachtung der Analyseergebnisse zeigt, dass 20% der Simulationsläufe ein schlechteres Ergebnis im Vergleich zur Strategie 4 zeigen (siehe Abb. 7.). Ähnlich stellt sich auch die Situation beim Vergleich der Portfolio Strategien dar, wobei die durchschnittliche Reduktion der Gesamtkosten 1,86% bei Strategie 8 gegenüber Strategie 6 beträgt. Bei 36% der Simulationsläufe kommt es jedoch zu einer Verschlechterung der Ergebnisse. Strategie 4
Strategie 7
Mittelwert Strategie 4
8
Anzahl der Simulationsläufe
7
6
5
4
Mittelwert Strategie 7
3
2
1
0
<
0 4 8 2 6 0 4 8 2 6 0 4 8 2 6 0 4 8 2 6 0 4 8 2 6 0 4 8 2 6 0 4 8 2. 2. 2. 3. 3. 4. 4. 4. 5. 5. 6. 6. 6. 7. 7. 8. 8. 8. 9. 9. 0. 0. 0. 1. 1. 2. 2. 2. 3. 3. 4. 4. 4. =8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 9 9 9 9 9 9 9 9 9 9 9 9 9
Gesamtkosten [%]
Abb. 7. Verteilung der Gesamtkosten für Strategie 4 und 7
Abschließend kann aufgrund der Gesamtkosten festgestellt werden, dass die Beschaffungsstrategie 7 (ausschließlich Beschaffung vom Spot Markt mittels Schiff) den niedrigsten mittleren Wert für die Gesamtkosten zeigt. Diese Strategie 7 ist gegenüber den Strategien 4 und 8 vorzuziehen, wobei jedoch keine eindeutige Reihung zwischen Strategie 4 und 8 möglich ist. Die beiden Strategien 4 und 8 unterscheiden sich durch die Variabilität deutlich, der Mittelwert der Gesamtkosten weicht jedoch nur geringfügig ab. Daher sollte Strategie 4 der Strategie 8 aufgrund der geringeren Variabilität vorgezogen werden. Aufgrund dieser Analyseergebnisse sollte es
132
G. Reiner, W. Jammernegg
möglich sein, die Auswahl einer effizienten Beschaffungsstrategie unter Berücksichtigung der Transportprozesse zu treffen. Beispielsweise kann es für ein Unternehmen, das momentan eine reine ECP Strategie ohne Spekulationslager einsetzt, sinnvoll sein, zur Strategie 8 zu wechseln, wodurch ein kostengünstiges Spekulationslager (Schifftransport) mit einer eingeschränkten Mengenflexibilität realisiert werden kann. Aufgrund der größeren Transportmenge pro Schiff muss für den Fall, dass die Versorgung mit Rohmaterial aufgrund eines geringen Lagerbestandes nicht mehr sichergestellt werden kann, die fehlende Rohmaterialmenge beschafft werden, auch wenn der aktuelle Beschaffungspreis über der Beschaffungspreisschranke liegt („Forced-Compliance“ Vertrag), wobei die Bestellmenge der Ladekapazität des Schiffs entspricht. In weiterer Folge sollte auch ein Wechsel zu einer Strategie mit ausschließlicher Beschaffung vom Spot Markt überdacht werden (Strategie 7).
5
Zusammenfassung und Ausblick
Die vorliegende Arbeit beschäftigt sich mit dem Vergleich alternativer Beschaffungsstrategien unter Berücksichtigung unterschiedlicher Transportprozesse. Im Detail wurden für die betrachtete Risk-Hedging Supply Chain mehrere wichtige Ausprägungen und Besonderheiten modelliert: PortfolioBeschaffungsstrategien zusammengesetzt aus „reinen“ Strategien (gleichzeitiges „Dual Sourcing“), Mengenflexibilität der Vertragstypen, Spekulationslager zur Absicherung der Schwankungen des Rohmaterialpreises und des dynamischen Unternehmensumfeldes. Die Portfolio Strategien erzielen in Abhängigkeit vom Einsatz eines Spekulationslagers und des gewählten Transportprozesses eine Einsparung von 4% bis 8% der gesamten Beschaffungskosten im Vergleich zur Referenzstrategie (reine ECP Beschaffung). Weiterführende Verbesserungen sind nur durch eine reine Spot Markt Beschaffung mit Spekulationslager bzw. alternativen Transportprozessen möglich. Wir zeigen, dass durch den Einsatz eines langsamen Transportmittels (Binnenschiff) mit großer Ladekapazität ein zusätzliches Spekulationslager genutzt werden kann. Grundsätzlich sind durch diese zusätzlichen Verbesserungen Einsparungen von 7% - 12% möglich. Die Ergebnisse ermöglichen auch die Ableitung von Handlungsrichtlinien zur Auswahl einer geeigneten Beschaffungsstrategie und eines passenden Transportprozesses. Eine ausschließlich Nutzung des Binnenschiffs für den Transport des Rohmaterials kann jedoch bei Bestellungen zur Erfüllung der „ForcedCompliance“ Verträge, aufgrund der eingeschränkten Mengenflexibilität
Beschaffungsstrategien für Risk-Hedging Supply Chains
133
zu Problemen führen. Eine Lösungsmöglichkeit, die im Rahmen von weiterführenden Prozessanalysen betrachtet werden sollte, ist eine Kombination der beiden Prozessalternativen Schiff-Transport und LKW-Transport mit einer angepassten Beschaffungsstrategie und Lagerpolitik. Wenn der Rohmaterialpreis hoch ist und eine Beschaffung zur Sicherung der Produktion notwendig ist, dann sollte mittels LKW Transport beschafft werden. Im umgekehrten Falle (Rohmaterialpreis ist nieder) sollte das Rohmaterial mittels Schiff beschafft werden. Dadurch wäre es möglich die Vorteile beider Transportalternativen (Schiff und LKW) zu kombinieren und die Nachteile zu eliminieren. Im Detail werden sowohl die eingeschränkte Mengenflexibilität beim Schiffs-Transport verbessert als auch die Auswirkungen der operativen Risiken beim Schiff (z.B. reduzierte Ladekapazität durch Niederwasser) abgeschwächt. Normalerweise ist es erforderlich, die Leistungsfähigkeit einer Supply Chain anhand von mehreren Kennzahlen zu bestimmen. Bei der vorliegenden Untersuchung einer Risk-Hedging Supply Chain ist die Bewertung der Ergebnisse anhand einer einzelnen Kennzahl (Gesamtkosten der Beschaffung) und ihrer Bestandteile (Einkaufspreis des Rohmaterials, Transportkosten und Lagerhaltungskosten) zulässig, da weitere Kennzahlen implizit berücksichtigt wurden, beispielsweise muss der Transportprozess so dimensioniert werden, dass die „Forced-Compliance“ Verträge immer erfüllt werden können. Sowohl für eine reaktionsschnelle als auch agile Supply Chain mit hohen Nachfrageunsicherheiten, kann es durchaus zweckmäßig bzw. notwendig sein, zusätzliche Leistungskennzahlen für die Analyse und Bewertung heranzuziehen, wie beispielsweise Durchlaufzeiten und Servicegrade. Das vorliegende Modell kann auf unterschiedliche Art und Weise erweitert werden. Grundsätzlich können auch reaktionsschnelle und agile Supply Chains mit der dargestellten Modellierungsmethodik analysiert werden.
Literatur Axsäter S (1993) Continuous Review Policies for Multi-Level Inventory Systems with Stochastic Demand. In: Graves SC, Rinnooy Kan, AHG, Zipkin PH (Hrsg) Handbooks in Operations Research and Management Science. vol 4, North-Holland, Amsterdam, pp 175-198 Bonser JS, Wu SD (2001) Procurement Planning to Maintain Both Short-Term Adaptiveness and Long-Term Perspective. Management Science 47: 769-786 Cohen M, Agrawal N (1999) An analytical comparison of long and short term contracts. IIE Transactions 31: 783-796
134
G. Reiner, W. Jammernegg
Elmaghraby W (2000) Supply contract competition and sourcing policies. Manufacturing and Service Operations Management 2: 350-371 Johnson M (2001) Learning from toys: Lessons in managing supply chain risk from the toy industry. California Management Review 43: 106–124 Kingsman BG (1986) Purchasing raw materials with uncertain fluctuating prices. European Journal of Operational Research 25: 358-372 Kingsman BG, Boussofiane A (1989) Ordering and stockholding under price inflation when prices increase in successive discrete jumps. Engineering Costs and Production Economics 17: 395-407 Kleindorfer P, Wu D (2003) Integrating long-term and short-term contracting via business-to-business exchanges for capitalintensive industries. Management Science 49: 1597-1615 Lee H (2002) Aligning supply chain strategies with product uncertainties. California Management Review 44: 105-119 Li C, Kouvelis P (1999) Flexible and risk-sharing supply contracts under price uncertainty. Management Science 45: 1378-1398 Paulitsch M (2003) Dynamic Coordination of Supply Chains. Dissertation. Abteilung für Produktionsmanagement, Wirtschaftsuniversität Wien, Wien Peleg B, Lee H, Hausman W (2002) Short-term e-procurement strategies versus long-term contracts. Production and Operations Management 11: 458-479 Pyke D, Johnson M (2003) Sourcing strategies and supplier relationships: Alliances vs. eProcurement. In: Harrison T, Lee H, Neale J (Hrsg) The Practice of Supply Chain Management, Kluwer, Boston, pp 77-89 Van Landeghem H, Vanmaele H (2002) Robust planning: A new paradigm for demand chain planning. Journal of Operations Management 20: 769-783 Via Donau (2002) Handbuch der Donauschifffahrt. Wien
Coverage of Shelf Life in APS Systems Hans-Otto Günther1, Paul van Beek2, Martin Grunow1, Matthias Lütke Entrup1 1
Dept. of Production Management, Berlin University of Technology, Wilmersdorfer Str. 148, 10585 Berlin, [email protected] 2
Operations Research and Logistics Group, Wageningen University Hollandseweg 1, 6706 KN Wageningen, The Netherlands [email protected]
Abstract Despite the progress provided by modern Advanced Planning and Scheduling (APS) systems, implementations in the fresh food industries such as dairy, meat, or bakery goods remain sparse. In this application domain, the consideration of shelf life in production planning is of particular importance. Therefore, we analyze three software packages (SAP APO, the Supply Chain Planning suite of Oracle’s EnterpriseOne package, and the CSB system) with respect to their consideration of shelf life and derive several improvement potentials.
1
Introduction
With an approximate turnover of € 100 bn., the food processing industry is one of the major sectors of the German economy; approx. 50% of this number being generated by fresh food industries such as fresh and processed meat, dairy, fish, fruit, vegetables and bakery products (Lebensmittel Zeitung 2001, p 84). Due to factors such as the large variety of raw materials, intermediate and final products, extremely fluctuating prices, and variable processing times and yields, production planning in fresh food industries is generally a challenging task. In this environment, APS systems can constitute significant means of support for the planner. Driven by developments in Supply Chain Management (SCM) and Information Techno-
136
H.-O. Günther, P. van Beek, M. Grunow, M. Lütke Entrup
logy (IT), APS systems are a shift of paradigm in production planning (Günther 2005). Unlike traditional Enterprise Resource Planning (ERP) systems implemented by most companies, they address material restrictions and capacity constraints simultaneously. Hence, APS systems help to avoid high work-in-progress, to increase service levels, and to shorten planning times. Moreover, APS systems allow to optimize the entire supply network by integrating several production sites, distribution centers, suppliers and customers into one single planning model. However, implementation numbers of APS systems in fresh food industries remain rather low, none of the leading APS providers reports significant implementation numbers in these industries. One of the most distinctive factors to consider in fresh food production planning is the limited shelf life of the products. Shelf life restrictions directly influence wastage, out-of-stock rates and inventory levels. Furthermore, consumers tend to buy the product that has the longest shelf life. The shelf life of a product is defined as the time in which the food product will remain safe and retain the desired sensory, chemical, physical, and microbiological characteristics as well as comply with any label declaration of nutritional data (Kilcast and Subramanian 2000, according to the London Institute of Food Science and Technology Guidelines of 1993). A second key issue is the so-called maturation time during which a product must be stored, e.g. for quality or hygiene reasons. The maturation time is part of the total shelf life. The possibility to offer a longer shelf life than the competitors constitutes a pivotal competitive advantage for fresh food producers. Hence, the ability to model shelf life and related issues such as maturation time is crucial for the proliferation of modern production planning systems in this industry. Therefore, this investigation aims at analyzing the scope of the shelf life support in production planning systems. For the analysis, three systems have been chosen that cover different software segments. Two of the packages are leading APS systems: The Advanced Planner and Optimizer (APO) of SAP and the Supply Chain Planning suite of Oracle’s EnterpriseOne software package. The third analyzed system (the CSB-System) is basically an ERP system with some APS functions. However, as it has very high implementation numbers in fresh food industries (particularly the meat and the dairy segment), it has been considered in addition. The assessment of the systems is principally based on interviews with product managers and sales representatives of the providers. In addition, relevant literature on the systems, technical notes, brochures, and internet sources have also been taken into consideration. Due to the different structures of the systems, the assessment of each system does not always cover
Coverage of Shelf Life in APS Systems
137
all aspects for all systems. Emphasis is given on the functions that distinguish a system from the others in order to derive possible areas of improvement. The remainder of this paper is organized as follows. Each of the Sections 2 to 4 is dedicated to one of the analyzed systems (SAP APO, Oracle EnterpriseOne and CSB). Within each section, a brief overview of structure and the major components of each system are given. Then, the offered shelf life support of each of the modules of an individual system is described. For the future development of the systems, several improvement potentials are highlighted in Section 5. Finally, the major findings are summarized in Section 6.
2
SAP APO
2.1 System Overview SAP is the leading provider of enterprise software in the world, broadly recognized by its ERP system R/3. SAP is a relatively young player in the APS arena; the first release of its APS system SAP APO was in January 1999 (Davies et al. 2002, p 45). In the recent years, SAP enlarged and deepened the functions of the system so that today it is in a state to compete head-to-head with the other leading APS systems (cf. Cap Gemini Ernst & Young 2002, p 13). One of the main sales arguments for SAP APO is the easy integration with the SAP R/3 system. Even though SAP APO can also be integrated with any other ERP system or even run stand alone (Davies et al. 2002, p 78), almost all clients use the system as a layer on top of SAP R/3. Due to the widespread distribution of SAP R/3, SAP is expected to gain many new customers for its APO system and to increase its share in the APS market in the future (Cap Gemini Ernst & Young 2002, p 13). The SAP APO system, together with SAP R/3, constitutes the backbone of the so-called “mySAP Supply Chain Management” suite. This software suite aims at covering all aspects of managing the entire SC and integrates for example with the “mySAP Customer Relationship Management” suite, the “mySAP Supplier Relationship Management” suite, and the “mySAP Product Lifecycle Management” suite (Davies et al. 2002, p 207). SAP APO consists of four main system components: the liveCache, a database, the solvers, and the applications (see Figure 1).
138
H.-O. Günther, P. van Beek, M. Grunow, M. Lütke Entrup
Business Warehouse
Demand Planning
Supply Network Planning
Supply Chain Cockpit
Production Transport Planning / Planning/ Detailed Vehicle ScheduScheduling ling liveCache
Global ATP
Solvers
Application Link Enabling
R/3
R/3
Legacy ERP
Non R/3 ERP
CRM
SRM
Fig. 1. SAP APO system architecture1
The liveCache technology is fundamental to solve complex planning problems in real time. It keeps the relevant data memory-resistent in order to avoid time-consuming reading and writing from and to a database. Within SAP APO, the liveCache orchestrates all data and processes in the main memory. For the resolution of the various planning problems, SAP APO applies a bundle of optimization algorithms, which have been either developed in-house or delivered by ILOG and which are stored in the solver component. The solvers receive the data of the underlying planning problem from the liveCache and write the results of the optimization runs back to the liveCache. All data is finally stored in a database (Business Warehouse). SAP APO supports all common Database Management Systems such as SAP DB, IBM DB/2, MS SQL Server, or Oracle (Bartsch and Bickenbach 2002, pp 221-223). Furthermore, the “Supply Chain Cockpit” is the central entry point for the management of the SC (Bartsch and Bickenbach 2002, p 113). It provides visualization capabilities for planning and controlling the network and contains a network design component for the modeling of the network, a navigation component and a monitor that sends out problem-related messages in case of pre-defined exceptions (Knolmayer et al. 2002, pp 117-120). The “applications” part contains the modules used to perform the actual planning tasks: 1
based on Bartsch and Bickenbach (2002), p. 221
Coverage of Shelf Life in APS Systems
139
• The Demand Planning (DP) module offers a relatively broad range of conventional statistical methods. Moreover, it provides several additional features covering the planning of promotions, new product introductions and phasing-out of products, product lifecycles, or collaboration support (Davies et al. 2002, pp 210-212; Knolmayer et al. 2002, pp 120-129). • The Supply Network Planning (SNP) module integrates the areas of purchasing, production, distribution and transport and enables the simulation and implementation of tactical planning decisions. This mid-term plan determines the volumes to be transported, produced or sourced per time period. Three different methods are available to generate this plan. On the one hand, heuristic approaches are rule-based methods that can handle complex planning problems, but that do not necessarily deliver an optimal solution. On the other hand, optimization approaches are available that are based on Linear Programming (LP) and Mixed-Integer Linear Programming (MILP) models, which use ILOG CPLEX for the solution process. Finally, the Capable-to-Match (CTM) procedure aligns prioritized demand with the available stocks. For the implementation of the generated plans, SNP additionally contains a Deployment function, which determines when and how stocks should be delivered to distribution centers or customers, and a Transport Load Builder (TLB) which aims at optimizing transport loads (Bartsch and Bickenbach 2002, pp 141-155). • On a short-term planning level, the Production Planning / Detailed Scheduling (PP/DS) module enables the planning of multi-site production while simultaneously considering product availability, sequence constraints and capacity (Davies et al. 2002, p 217). PP/DS applies constraint programming techniques and genetic algorithms to solve the planning problems (Knolmayer et al. 2002, p 141-142). In contrast to the SNP module that applies a time bucket approach, the PP/DS module makes use of a continuous representation of time. • Transport Planning / Vehicle Scheduling (TP/VS) is the short-term planning application for transportation-related issues. It allows the simultaneous consideration of constraints for in- and outbound transportation and for replenishment. The main functions are load consolidation and vehicle scheduling, route determination and carrier selection (Knolmayer et al. 2002, pp 142-143). Optimal vehicle loadings and routings are derived using ILOG components, completed by genetic algorithms and heuristics (Meyr et al. 2002, pp 302-303). • The Global Available-to-Promise (ATP) is a rule-based multi-level component and capacity check. In addition, it includes advanced tech-
140
H.-O. Günther, P. van Beek, M. Grunow, M. Lütke Entrup
niques such as the determination of alternative products or locations for production and purchasing. Moreover, the Global ATP module can assign scarce products to specific orders, regions or customers (Meyr et al. 2002, p 302). • Finally, the Supply Chain Network Design (SND) is an application that supports the strategic realignment of the supply network and helps to locate plants and facilities. The module is based on the demand data of the DP module and provides four different planning methods in order to, for example, assign distribution centers or locations to customers (Meyr et al. 2002, p 301). Starting from version 3.0 it is only delivered based on specific customer requirements.2 Interfaces between SAP APO and other systems constitute a critical element for the success of the implementation. A tight integration with the company’s ERP systems is required as the underlying data for an APS system is usually stored in one or several ERP systems. Furthermore, in order to address all issues in SCM, other systems such as Customer Relationship Management (CRM) or Supplier Relationship Management (SRM) systems must be integrated as well (see Figure 1). Finally, the APS system must also address collaboration aspects with customers and suppliers because inter-company planning aspects become increasingly important. However, the integration of these different systems is a challenging task if the IT landscape is very heterogeneous. Therefore, SAP APO offers a variety of interfaces within the Application Link Enabling part that allow to read and to write back data to other systems (Bartsch and Bickenbach 2002, pp 226-232): • The most important interface connects SAP APO to SAP R/3. This plug-in is called “Core-Interface” (Bartsch and Bickenbach 2002, p 228). • “Business Application Programming Interfaces” which are open and provider-independent interfaces to manipulate business objects in distributed systems can connect other ERP systems (Bartsch and Bickenbach 2002, p 427). • A connection via the internet is supported by Electronic Data Interchange (EDI) and eXtensible Markup Language (XML) interfaces (Knolmayer et al. 2002, p 117).
2
Information provided by Dr. G. Heisig, SAP AG, telephone interview on 26.05.2004
Coverage of Shelf Life in APS Systems
141
2.2 Coverage of Shelf Life3 Within SAP APO, shelf life is considered in two of the mentioned modules, the SNP and the PP/DS module. Other modules such as DP, Global ATP, or TP/VS do not take shelf life issues into account. Further, the approach and scope of shelf life integration differs significantly between the SNP and the PP/DS module. Therefore, both ways of shelf life integration are described in the following paragraphs. Principally, the SAP APO system can administrate four shelf life related dates (SAP AG 2003c, p 1): • The shelf life of a product or batch refers to the time period after which the product or batch expires. It is maintained in APO’s product master data. • APO blocks products during maturation time. In this period they cannot be used to fill customer orders. The maturation time is part of the total shelf life. Hence, the total shelf life is composed of the maturation time and the availability time. The maturation time is also maintained in the product master data. • The required minimum shelf life stands for the minimum residual shelf life that a product has to have in order to be considered for a customer order. • The required maximum shelf life is defined analogously. This data is required for some special cases. An example is the production of sausages, which lose water over time. If they are delivered with an excessively long shelf life, they may not meet the weight specification by the time of their sale. Both the required minimum and the required maximum shelf life can either be maintained in the product master data or refer to a specific customer order if a “characteristic dependent planning” approach is chosen (SAP AG 2003b, p 2). In the latter case, different customer requirements for an identical product are possible. This shelf life related data can be stored either directly in the SAP APO system or it can be imported from a third system, e.g. from an ERP system. Within SAP R/3 for example, the following shelf life related information can be maintained: • In the product master data, the total shelf life is stored. • Batch-related information, e.g. the production, availability, expiry dates. • The required minimum and maximum shelf life can be defined as characteristics of a customer order (SAP AG 2003c, p 1). 3
If not indicated otherwise, this chapter is based on a telephone interview with Dr. G. Heisig, SAP AG, 26.05.2004
142
H.-O. Günther, P. van Beek, M. Grunow, M. Lütke Entrup
When planning with shelf life, it must be noticed that the shelf life settings are not location dependent, they are always valid for all locations (Dickersbach 2003, p 233). In case of location-specific shelf lives (e.g. caused by different manufacturing technologies at different sites), a new product has to be introduced for each shelf life. Furthermore, the shelf life cannot be propagated, it is thus not possible to pass the shelf life of raw materials or of intermediate products on to the shelf life of the corresponding final products. In addition, there is no possibility to assign two different shelf lives to the same production batch (e.g. in case of overnight production). The PP/DS module can take all four shelf life related dates into account. The shelf life information can be respected within the planning process, but it may also be neglected. If the planner wants the shelf life to be considered, he must select the “Planning with shelf life” indicator. In that case, the shelf life information is used in pegging. The shelf life can either be represented on a daily basis (e.g. production day + x shelf life days) or exactly (e.g. 10.10.2004, 10:30, until 25.10.2004, 10:30). As depicted in Figure 2, the shelf life and the maturity time of a supply element (production order) which is given in the product master data are checked against the required minimum and maximum shelf life of a demand element. In determining the production schedule and the resulting availability dates, three constraints are checked to consider shelf life (Dickersbach 2003, pp 232233): Requirement Date ≥ Availability Date + Maturity
(1)
Requirement Date + Required Max. Shelf Life ≥ Availability Date + Shelf Life
(2)
Requirement Date + Required Min. Shelf Life ≤ Availability Date + Shelf Life
(3)
Therefore, in Figure 2 only in case 3 all constraints are met. In case 1, Equations 1 and 2 are violated, in case 2 Equation 2 and in case 4 Equations 2 and 3. In these three latter cases, the demand element cannot be pegged to the production order as shelf life, maturation times and the required shelf lives are considered as hard constraints in PP/DS. Therefore, taking into account the shelf life information can complicate the search for a solution to the planning problem. Starting with version 3.1 of APO, SAP provides two heuristics for PP/DS (previously only one) which support
Coverage of Shelf Life in APS Systems
143
shelf life (SAP_PP_SL001 and SAP_PP_SL002, cf. Dickersbach 2003, pp 233-234). 1
Demand Element
Req. Min. Shelf Life
Production Maturity Order 2
Shelf Life Req. Min. Shelf Life
Demand Element Production Maturity Order
3
Req. Max. Shelf Life
Time Req. Max. Shelf Life
Shelf Life Demand Element
Production Maturity Order 4
Req. Min. Shelf Life
Shelf Life Demand Element
Production Maturity Order
Time
Shelf Life
Req. Max. Shelf Life
Time Req. Min. Shelf Life
Req. Max. Shelf Life
Time
Fig. 2. Organization of orders in a supply chain4
SAP APO provides four different types of alerts. The most important indicates the unpegged receipts with the corresponding expiration dates. In addition, three alerts are made available for fixed pegging edges violating shelf life constraints. These are “shelf life too short”, “shelf life too long”, and “fall below maturation time” (SAP AG 2003b, p 4). This information may for example be used to peg the demand element to a different production order by unfixing the pegging edge and recalculating the production schedule. Only one of the alternative planning procedures provided in SAP’s SNP module accounts for shelf life constraints and even that only very rudimen4
based on Dickersbach (2003), p. 232
144
H.-O. Günther, P. van Beek, M. Grunow, M. Lütke Entrup
tary. Neither the Capable-to-Match procedure nor the Deployment function nor the Transport Load Builder take shelf life information into consideration (SAP AG 2003b, p 4). However, some features are available in the SNP optimizer which covers the total shelf life of a product, while maturation times as well as required minimum and maximum shelf lives are not included (SAP AG 2003d, p 1). There are two options in the SNP optimizer to integrate shelf life: the product can either be disposed after the expiry date, or its further use can be allowed. In the latter case, penalty costs can be specified, usually the procurement cost of the product (SAP AG 2002, p 32). However, it is not possible to use penalties that reflect the degree by which the customer requirements are violated. Furthermore, as concept of batches is not used in SNP, the shelf life of stocks cannot be transferred from an ERP system to this module of SAP’s APO (SAP AG 2003d, p 1). It is important to note that the shelf life is not passed on to other locations during transport. This leads to the fact that the determined shelf life period starts again if the product is transported from one location to another. In case of cycle-free networks (no transport of a product from one location back to the start location), this limitation might be managed by considering only the last stage in the distribution chain (e.g. the DC) with the correct shelf life and deduct the average inventory times of the other SC stages from the total shelf life. However, even in that case the consideration of shelf life will be inaccurate. Moreover, if a product can be transported back to the start location, the SNP optimizer will likely use this option to virtually extend the shelf life. Therefore, this type of inventory movements must be monitored closely (SAP AG 2003a, p 1).
3
Oracle
3.1 System Overview As of the end of year 2004, Oracle assumed control of PeopleSoft. Previously, PeopleSoft alone had already been the second largest provider of enterprise application software with a turnover of US$ 2.3 bn. and 12,000 employees (PeopleSoft Inc. 2004a). Throughout the recent years, PeopleSoft had itself acquired several smaller companies that were specialized in the Advanced Planning and Scheduling segment (e.g. Red Pepper in October 1996 or Advanced Planning Solutions in May 2000). By acquiring J.D. Edwards in August 2000, PeopleSoft became one of the leading providers of APS systems worldwide (PeopleSoft Inc. 2004b). Although J.D. Ed-
Coverage of Shelf Life in APS Systems
145
wards traditionally offered ERP software, it had strengthened its APS capabilities by the acquisition of Numetrix in 1999, a specialized APS provider with more than 20 years of experience (Meyr et al. 2005, p 346). The APS capabilities are part of the EnterpriseOne software package, which are modular pre-integrated industry-specific business applications based on a pure internet architecture. The APS functions belong to the Supply Chain Management suite; other suites are for example Customer Relationship Management, Supplier Relationship Management, Financial Management or Human Capital Management (PeopleSoft Inc. 2004c). The Supply Chain Management suite includes four main product solutions: Customer Order Management, Logistics, Manufacturing, and Supply Chain Planning, the last covering the following APS modules (PeopleSoft Inc 2004e): • The Strategic Network Optimization module allows modeling the entire supply chain and supports decision making on a strategic level. The optimization methods applied include LP and MILP models as well as heuristics in order to find optimal configurations and flows (Davies et al. 2002, p 158, Fleischmann and Meyr 2003, p 513). Günther et al. (1998) and Meyr et al. (2005, p 347) underline in particular the powerful visualization and modeling capabilities. A special heuristic is provided for capital asset decisions, which proposes not only the best assets to open or close, but also the corresponding transition plan (Davies et al. 2002, p 158). • Two modules support the demand planning process: the Demand Forecasting and the Demand Consensus module. Demand Forecasting allows performing statistical forecasting based on historical sales data and causal factors, relying on multiple statistical methods (e.g. time series methods, causal methods). Statistical planning of promotions and events is integrated as well (PeopleSoft Inc. 2004h). • In addition, the Demand Consensus module addresses collaborative activities in the forecasting process. It supports internet-based collaboration between internal users, partners, and customers in order to reconcile their different forecasts into a single forecast valid for the entire corporation (PeopleSoft Inc. 2004g). • The Production and Distribution Planning module supports mid-term and also short-term planning decisions. On the mid-term planning level, the module generates procurement, production and distribution plans for the supply network. In addition, the sub-module Vehicle Loading covers short-term transportation planning tasks (Davies et al. 2002, p 166). • On the short-term production planning level, two distinct modules are available. On the one hand, Production Scheduling – Process focuses on
146
H.-O. Günther, P. van Beek, M. Grunow, M. Lütke Entrup
process industries such as food and beverages, consumer goods, chemicals, and pharmaceuticals (PeopleSoft Inc. 2004k). It aims at creating feasible schedules while respecting constraints such as machine and labor capacities, product sequencing, or changeovers. The module is especially suited for parallel continuous production lines with up to two stages of production in a make-and-pack environment. In contrast to many other scheduling applications, the module considers cost-based objectives in addition to the usual time-based objectives (Meyr et al. 2005, p 347 et seq.). • On the other hand, Production Scheduling – Discrete is particularly designed to support scheduling decisions in production environments with complex products, complex bill-of-material structures and floating bottlenecks (PeopleSoft Inc., 2004j). • Finally, the Order Promising module includes three methods to determine the order delivery date. Besides the common ATP and CTM procedures, the module offers in addition a Profitable-to-Promise (PTP) function that indicates the best way to satisfy customer demand while maintaining expected margins (PeopleSoft Inc. 2004i). Two operating modes can be distinguished: While the Autopromise function automatically generates promise date proposals, the Scenario Management function allows the user to evaluate different promising alternatives (Davies et al. 2002, p 167). Starting with version 8.9, EnterpriseOne applies Pure Internet Technology, thus avoiding the installation of client software. The communication with the internet application server is ensured by standard internet technologies such as HTTP, HTML, or XML (PeopleSoft Inc. 2004d). Horizontal and vertical integration is done by the Supply Chain Business Modeler (SCBM), which relies on XML-based input and output as well as an Object Oriented database and which offers functionalities for data aggregation into higher planning levels. SCBM integrates APS with EnterpriseOne and has the capabilities to integrate with every system that can provide the required data (and with different systems in parallel).5 Other databases or ERP systems can be integrated by the “eXtended Business Processes” framework that executes the business logic and data transformations (PeopleSoft Inc. 2004f).
5
Information provided by Dr. Hans-Hartwig Schulz, PeopleSoft, 28.09.2004
Coverage of Shelf Life in APS Systems
147
3.2 Coverage of Shelf Life6 The support of shelf life functions within EnterpriseOne differs significantly between the Production and Distribution Planning and the Order Promising module on the one hand and the Production Scheduling - Process module on the other hand. Other modules do not offer a shelf life support. The Production and Distribution Planning module considers two shelf life related parameters, the shelf life of a product and the minimum customer requirement on shelf life. While the shelf life of the products is available per batch, the customer requirements on shelf life are originally alert parameters which can however be used to cover required functionality. However, the requirements may only be defined product specific, not customer specific. Furthermore, as the shelf life is stored in the product master data, only a single shelf life is available per product. The shelf life data in the Production and Distribution Planning module is given in days since a day constitutes the lowest possible planning granularity. With regard to the optimization, the shelf life and the minimum customer requirement on shelf life are modeled as soft constraints. In case of a violation of the constraints, the procurement costs of a new product are applied as penalties. The penalty costs cannot be individualized (e.g. application of other costs than the procurement costs for a new product or penalties depending on the number of days the time constraint is exceeded by). The Order Promising module applies the same data model as the Production and Distribution Planning module. Therefore, the shelf life of a product and the minimum customer requirement on shelf life are respected in the ATP, CTP and PTP procedures. Again, the customer requirement on shelf life is product-dependent, not customer-dependent. A prioritization of customer orders with regard to shelf life can be performed by manually assigning orders and batches. In view of the Production Scheduling modules, shelf life functions are only provided in the Production Scheduling – Process module; the Production Scheduling for Discrete Industries module incorporates no shelf life functions. The supported shelf life related parameters include the shelf life of a product, the minimum customer requirement on shelf life as well as minimum and maximum maturation time. In contrast to the Production and Distribution Planning module, the customer requirements on shelf life can also be customer-dependent, not only product-dependent. Furthermore, different shelf lives for a single product depending on the production site are possible as the module can be implemented on a site-specific basis. In 6
This chapter is based on a questionnaire and a telephone interview with Dr. Hans-Hartwig Schulz, PeopleSoft, 15.07.2004
148
H.-O. Günther, P. van Beek, M. Grunow, M. Lütke Entrup
addition, the shelf life of raw and intermediate products can be considered as well. The shelf life of products can be represented in both ways, in days or exact. The assignment of two shelf lives for the same production batch (e.g. in case of a production of a batch over several days) is not possible, in this case the batch must be split. Moreover, the shelf life cannot be propagated (e.g. from intermediate product to final product). With respect to the optimization, all constraints (e.g. shelf life, customer requirements and maturation times) are soft constraints; a bonus for the delivery of fresher products is not provided. Several alerts are available, e.g. for the violation of shelf lives constraints, of customer requirements on shelf life or of maturation time constraints. The alerts can be distinguished into yellow alerts that are activated if a deadline (e.g. the expiry date) is approached, and red alerts if the deadline is exceeded.
4
CSB
4.1 System Overview In contrast to the presented APS systems, the CSB system is not a pure APS system; it is rather an integrated solution for specific industries. It has a strong focus on batch-oriented process industries and is particularly suited for food and beverages, for chemicals and paints, for pharmaceuticals and cosmetics and for retail and logistics. The system has been considered in addition as it has a relatively high number of implementations in fresh food industries, especially in the meat, the dairy and the bakery industry (CSB-System AG 2004a, p 9 and p 14). The structure of the system is given in Figure 3. On the one hand, the CSB contains modules that are usually part of an ERP system. Examples are the accounting and finance module, the management and controlling module, the human resources module. However, on the other hand the system incorporates a variety of functions that are very specific for batch-oriented process industries and especially for the food industry. Some examples are (CSB-System 2004a): • Integrated quality management system in compliance with the ISO 9000 or HACCP standards, • Batch traceability, • Integrated laboratory information and management system,
Coverage of Shelf Life in APS Systems
149
Management & Controlling Communication Ware iCRM iSCM ECR EDI CTI
Accounting & Finance
Human Resources
Industry-Specific Software
Supplier
Customer
ERP Procurement Inventory&Warehouse Production Sales&Distribution Quality Management Laboratory Information and Management Systems
APS
ADC
MDC
CIM
MES
Inte rnet-Integration E-Commerce b2b E-Procurement E-Shop Archives Management
Fig. 3. Structure of the CSB system7
• • • •
A hazardous materials management component, A livestock management module, A producer clearance system for purchasing agricultural products, or A nutritional value calculation module.
One of the major differentiating factors of the CSB system is the availability of industry-specific optimization algorithms; three different types are offered. First, a “cutting process and joint package acquisition” component helps to choose the right cutting variation for the cutting of joint product packages into individual products. Second, the “standardization procedures and optimization” component can be applied in order to divide raw materials into standardized groups. Third, the “recipe organization and optimization” component allows to generate cost-optimal recipes while complying with food regulations and sensory requirements (Schimitzek 2004, pp 244-248). However, the system does not support other planning 7
based on CSB-System (2004b), p. 6
150
H.-O. Günther, P. van Beek, M. Grunow, M. Lütke Entrup
problems such as those incorporated in the two presented previously systems. (Algorithms for supply network planning or scheduling are not provided. This limitation is justified with the argument that “only those models should be supported that include transparent approaches (or objectives) and, at the same time, allow the user to intervene in process details” (Schimitzek 2004, p 243).) The APS module of the CSB System covers the production planning processes (see Figure 3). In the notation of the CSB system, APS stands for Advanced Production Scheduling and resembles the MRP II process. The production planning process of the CSB system is given in detail in Figure 4. At the beginning of the process, sales forecasts are generated by means of forecasting models. A period overview is provided by checking the long-term planning data against four types of capacities (labor, machines, materials and financial). As a result, “planned production orders” are established by the forecasting system. For the generation of final production orders, the forecasted data is updated with current sales order data. Their feasibility is again checked against capacity and material requirements. Occurring bottlenecks can be resolved by adjusting intensity, time, or quantities (Schimitzek 2004, p 229-235). 4.2 Coverage of Shelf Life8 The CSB system supports more shelf life related parameters than the APS systems presented before: • The shelf life of product (Best-Before-Date, “Mindesthaltbarkeitsdatum”), • The “Use-by-Date” (after which the product perishes), • An alert date, • The customer requirement on shelf life, and • A maturation time. In addition, the system distinguishes a “blocking time” which occurs between the testing of a product and the time the result of the test is obtained as well as a “quarantine time” which stands for the time between a negative test result and the resolution of the conflict. In both cases, the products cannot be used to satisfy customer orders. Different shelf lives (e.g. in case of different sites of different raw material batches) and different minimum
8
This chapter is based on a personal interview with Sven Schiller, CSB System AG, 05.07.2004
Coverage of Shelf Life in APS Systems
151
customer requirements for the same product can be integrated via product variants.
Fig. 4. Advanced production scheduling process in the CSB system 9
Furthermore, the shelf lives of raw and intermediate products are considered by the system. The system even allows the propagation of shelf life (e.g. from intermediate products to the final product). Both a daily and an exact representation of shelf life are enabled by the CSB system. In addition, several alerts are supported (e.g. for the violation of shelf life constraints, minimum customer self life requirements, or maturation time constraints). The assignment of two shelf lives to the same batch is not possible. In that case, the batch must be split. As the system offers op9
Figure provided by Sven Schiller, CSB System AG
152
H.-O. Günther, P. van Beek, M. Grunow, M. Lütke Entrup
timization algorithms only for very specific problems, shelf life is not part of the optimization. For this reason, no penalty costs are applied for exceeding shelf life and no bonus is applied for delivering fresher products.
5
Improvement Potentials
In summary, all analyzed systems cover some basic shelf life functions. Concerning the available data fields, the total product shelf life, a minimum maturation time and a minimum customer requirement on shelf life are usually supported. The shelf life is not only considered for final products, but also for raw materials and intermediate products. With regard to the production scheduling modules, both a daily and an exact representation of shelf life are normally available; however, most fresh food producers use the daily representation of shelf life. For the optimization, shelf life constraints are frequently modeled as soft constraints in order to increase the solvability of the models. The procurement costs of a new product at a specific location are often applied as penalty costs. Finally, many different alerts are supported (e.g. exceeding of shelf life, of the minimum customer requirements, or of the maturation times). Nonetheless, several shelf life functions that are important for the production of fresh foods are currently only available in selected systems or not available at all. Hence, the APS providers should address the following issues in the near future in order to increase the dissemination of their software in fresh food industries and to enhance effective planning: • Currently, the providers focus their shelf life functions particularly on the short-term production planning modules. However, shelf life is not only an issue for short-term production planning, but should also be integrated into other planning tasks. Shelf life is very important for the SNP and ATP module and it can become important for the SND and TP modules. For example, SAP APO provides no shelf life support within the ATP module and the CTM, Deployment, or TLB procedures of the SNP module. • In addition to the consideration of shelf life functions within other modules, the providers should aim at completing the supported parameters. The most important are the total shelf life, a minimum and a maximum maturation time, a minimum and a maximum customer requirement on shelf life, a use-by-date, as well as blocking and quarantine times. • The shelf life of a product is the result of many different processing steps, which can vary significantly between for example the sites of a company or even within a single site. Consequently, it may become
Coverage of Shelf Life in APS Systems
•
•
•
•
•
153
necessary to assign different shelf lives to the same product, depending for instance on the production location, the used raw materials or the applied processing equipment. In the considered systems, the shelf life of a product is either fixed globally for all sites or locally for one site. A differentiation by raw material or processing equipment is not possible. In many fresh food industries, the shelf life of a product depends on the shelf life of the raw materials (e.g. in fruits and vegetables processing) or of the intermediate products (e.g. in sausage production). Therefore, the propagation of the shelf life of these products and material on to the final products is a prerequisite for these industries, which should be supported by the software. Besides the simple one-to-one propagation of the shelf life, it can also become necessary to propagate the shelf life by means of a formula (for example shelf life of final product = shelf life of intermediate product + 10 days due to e.g. modified atmosphere packaging). In some systems, the determined shelf life period starts again if the product is transported from one location to another. In case of cyclic networks, the optimizer will use this option to virtually extend the shelf life of the products which have long exceeded their shelf life. In order to avoid these problems, the shelf life of a product should also be propagated during transport. Currently, no system supports the assignment of two different shelf lives to the same production batch. This can be the case, for example, in the dairy industry when high volumes of the same product are produced based on several batches of intermediate products or over several days (e.g. yogurt for the discount channel or private labels). The batch must always be split; yet if sequence-dependent set-up times are not considered, the set-up times of the second batch must be corrected manually. As a longer shelf life of products is more important for some retail customers than for others, the system should enable a prioritization of the customer orders with regard to shelf life. For example, a longer shelf life of the products is more important for a traditional grocer with a complex assortment and lower turn rates than for a discounter with very high turn rates in the outlet. Currently, this prioritization can only be performed manually, if at all. With regard to the optimization, shelf life constraints are usually modeled as soft constraints, especially in the SNP module. The penalty costs applied if the constraint is violated are generally the procurement cost of the product. However, as the products have a value even after having exceeded the minimum customer requirement, it is desirable to assign individual and also time-dependent penalty costs.
154
H.-O. Günther, P. van Beek, M. Grunow, M. Lütke Entrup
• Similar to the penalties for exceeding the shelf life constraints, the system should reward the delivery of fresher products, as fresher products are of a higher value for the retail customers regarding wastage and outof-stock rates. Currently, no system can offer this function. To demonstrate how the above key issues may be included in an advanced planning system, we developed mixed integer modeling approaches for the example of the yogurt production which involves a number of the characteristic planning problems in fresh food production (Günther et al. 2004). We show that a systematic, optimization based management of shelf life may significantly improve the freshness of the delivered products. For our prototypical implementation we employed the standard solvers provided by ILOG, which are also part of APS systems. Hence, such approaches could easily be integrated in future APS versions.
6
Conclusion
In this investigation, three production planning software packages (SAP APO, the Supply Chain Planning suite of Oracle’s EnterpriseOne package and the CSB system) have been analyzed with respect to their support of planning with shelf life constraints. Some generally available functions have been highlighted and several improvement potentials have been derived. As shelf life is of utmost importance in fresh food industries, the mentioned deficits are certainly one major reason for the comparatively small implementation numbers in these industries. Significant improvements are required in order to provide an efficient and effective planning support for fresh food production planning.
References Bartsch H, Bickenbach P (2002) Supply Chain Management mit SAP APO, 2nd ed. Galileo, Bonn Cap Gemini Ernst & Young (2002) Advanced Planning Systems (APS) 2003 - An overview of the vendors, developments and trends in the Dutch APS market. Utrecht CSB-System AG (2004a) CSB-System Gruppenbericht 2003. Geilenkirchen CSB-System AG (2004b) Management & Controlling - BI-Business Intelligence im CSB-System. Geilenkirchen
Coverage of Shelf Life in APS Systems
155
Davies R, Diepeveen N, Diks E, Vloemans V (2002) How to get the most out of your supply chain? - An overview of APS systems in the consumer products manufacturing and process industry. Report of Deloitte Consulting Dickersbach JT (2003) Supply Chain Management with APO - Structures, Modelling Approaches and Implementation Pecularities. Springer, Berlin Fleischmann B, Meyr H (2003) Planning Hierarchy, Modeling and Advanced Planning Systems. In: de Kok AG, Graves SC (eds) Supply Chain Management: Design, Coordination, Operation. Series “Handbooks in Operations Research and Management Science”. Elsevier, Amsterdam et al, pp 457-523 Günther HO (2005) Supply Chain Management and Advanced Planning Systems: A Tutorial. In: Günther HO, Mattfeld DC, Suhl L (eds) Entscheidungsunterstützende Systeme in Supply Chain Management und Logistik. Physica, Heidelberg Günther HO, Blömer F, Grunow M (1998) Moderne Softwaretools für das Supply Chain Management. Zeitschrift für den wirtschaftlichen Fabrikbetrieb, 93 (78): pp 330-333 Günther HO, van Beek P, Grunow M, Lütke-Entrup M, Seiler T (2004) MILP approaches to shelf life integrated planning and scheduling in yogurt production. Schriften zum Produktionsmanagement No. 5, Lehrstuhl für Produktionsmanagement, TU Berlin Kilcast D, Subramaniam P (2000) The stability and shelf-life of food. Woodhead, Cambridge Knolmayer G, Mertens P, Zeier A (2002) Supply Chain Management Based on SAP Systems - Order Management in Manufacturing Companies. Springer, Berlin Lebensmittel Zeitung (2001) LZ Report 2001/2002. Verlagsgruppe Deutscher Fachverlag, Frankfurt am Main Meyr H, Rohde J, Schneeweiss L, Wagner M (2005) Architecture of Selected APS. In: Stadtler H, Kilger C (eds) Supply Chain Management and Advanced Planning, 3rd ed. Springer, Berlin, pp 341-353 PeopleSoft Inc. (2004a) About PeopleSoft. http://www.peoplesoft.com/corp/en/ about/index.jsp?site=corp. Last hit: Sept. 13, 2004 PeopleSoft Inc. (2004b) Corporate Acquisitions. http://www.peoplesoft.com/ corp/en/about/overview/corp_acq.jsp. Last hit: Sept. 13, 2004 PeopleSoft Inc. (2004c) EnterpriseOne Product Lines. http://www.peoplesoft.com/corp/en/products/ent_one/index.jsp. Last hit: Sept. 13, 2004 PeopleSoft Inc. (2004d) PeopleSoft EnterpriseOne Pure Internet Architecture. http://www.peoplesoft.com/corp/en/products/ent_one/tools_tech/solution_ pure_internet_arch.jsp. Last hit: Sept. 13, 2004 PeopleSoft Inc. (2004e) PeopleSoft EnterpriseOne: Supply Chain Management. http://www.peoplesoft.com/corp/en/products/ent_one/scm/index.jsp. Last hit: Sept. 13, 2004
156
H.-O. Günther, P. van Beek, M. Grunow, M. Lütke Entrup
PeopleSoft Inc. (2004f) PeopleSoft eXtended Business Processes. http://www.peoplesoft.com/corp/en/products/dev_integration_portals/module/ extended_business_process.jsp. Last hit: Sept. 13, 2004 PeopleSoft Inc. (2004g) PeopleSoft Demand Consensus. http://www.peoplesoft.com/corp/en/products/ent_one/scm/module/demand_ consen.jsp. Last hit: Sept. 13, 2004 PeopleSoft Inc. (2004h) PeopleSoft Demand Forecasting and Advanced Forecast Modeling. http://www.peoplesoft.com/corp/en/products/ent_one/scm/module/ demand_forecast jsp. Last hit: Sept. 13, 2004 PeopleSoft Inc. (2004i) PeopleSoft Order Promising. http://www.peoplesoft.com/ corp/en/products/ent_one/scm/module/order_promising.jsp. Last hit: Sept. 13, 2004 PeopleSoft Inc. (2004j) PeopleSoft Production Scheduling - Discrete - Data Sheet. http://www.peoplesoft.com/media/en/pdf/datasheet/ent1_scm_prod_discrete_ ds_1203.pdf. Last hit: Sept. 13, 2004 PeopleSoft Inc. (2004k) PeopleSoft Production Scheduling - Process. http://www.peoplesoft.com/corp/en/products/ent_one/scm/module/prod_ sched_process.jsp. Last hit: Sept. 13, 2004 SAP AG (2002) SAP Advanced Planner and Optimizer (SAP APO) - Release 3.1. Release Notes, Walldorf SAP AG (2003a) Taking shelf life into account with SNP optimizer. SAP Note No. 579556, Walldorf SAP AG (2003b) Planning with shelf life in APO 3.1. SAP Note No. 563863, Walldorf SAP AG (2003c) Planen mit Haltbarkeitsdaten. Help-function of SAP APO 3.1. Walldorf SAP AG (2003d) SNP does not support any shelf life. SAP Note No. 574321, Walldorf Schimitzek P (2004) The Efficient Enterprise - Increased Corporate Success with Industry-Specific Information Technology and Knowledge Management. CRC Press, Boca Raton
Strategische Supply-Chain Entscheidungen in der Stahlindustrie - Eine Fallstudie Stefan Nickel, Sebastian Velten, Gilles Weimerskirch Lehrstuhl für Operations Research und Logistik, Universität des Saarlandes, Postfach 15 11 50, 66041 Saarbrücken, {s.nickel, s.velten}@orl.uni-saarland.de; [email protected]
Abstract Diese Arbeit befasst sich mit strategischen Entscheidungen im Bereich des Supply-Chain-Managements. Dabei wird ein allgemeines mathematisches Optimierungsmodell zur Standortplanung vorgestellt. Das Modell ist dynamisch und kapazitätsbeschränkt; es kann auf mehrere Produkte und Ebenen angewendet werden und berücksichtigt externe Materialbeschaffung, Produktions-, Vertriebs- und Lagerentscheidungen, Sicherheitsbestände, Budgetrestriktionen und Kapazitätsverlegungen. Um die Nachfrage möglichst kostenminimal zu decken, werden Kapazitätserweiterungen bzw. -reduzierungen betrachtet. Das formale Modell wird auf ein Beispiel aus der Stahlindustrie angewendet, wobei die Praxistauglichkeit des Modells analysiert wird. Alle Berechnungen erfolgen mit Hilfe des Optimierungstools XPressMP (Dash Optimization 2004).
1
Einleitung
Der Begriff Supply-Chain kann als Synonym für Wertschöpfungskette bzw. Wertschöpfungsnetzwerk verstanden werden. In Anlehnung an Monczka et al. (2001) berücksichtigt eine Supply-Chain alle Aktivitäten, die sich auf den Fluss und die Transformation von Gütern, von der Rohstoffbeschaffung bis zum Endkunden, und auf den Informationsfluss beziehen. Material- und Informationsflüsse werden dabei sowohl auf- als auch abwärts entlang der Supply-Chain berücksichtigt. Die Aktivitäten beinhalten die Führung, den Betrieb und die Montage, den Einkauf, die Produktion, die Arbeitsplanung, das Bestellwesen, die Lagerhaltung, das Transportwesen, den Verkauf und die Kundenbetreuung.
158
S. Nickel, S. Velten, G. Weimerskirch
Um strategische Entscheidungen treffen zu können, muss auf Ergebnisse der strategischen Planung zurückgegriffen werden, die in dieser Arbeit durch ein mathematisches Modell unterstützt wird. In unserem Fall umfassen die strategischen Entscheidungen vor allem die Festlegung der Standortstruktur. Unter dem Begriff Standortstruktur wird die räumliche Verteilung der Gesamtheit der Betriebsstätten eines oder mehrerer Unternehmen verstanden (Lüder u. Küpper 1983). Dieser Planungsansatz wird mit dem Begriff strategische Standortplanung umschrieben. Eine Fehlplanung bei der strategischen Standortplanung kann für ein Unternehmen Existenz bedrohend sein, da die Investitions- und Betriebskosten sehr hoch und langfristig festgelegt sind. Deshalb liegt das Hauptaugenmerk des Modells auf diesem Planungsbereich. Bevor wir die Einleitung beenden, wollen wir unser Modell noch in die bestehende Literatur einordnen. Nach der Pionierarbeit von Ballou (1968) wurden viele Arbeiten über die dynamische Standortplanung verfasst. Sweeny u. Tatham (1976) machten die ersten Versuche Kapazitätsbeschränkungen einzuführen. Um steigende Nachfragen decken zu können betrachteten u. a. Erlenkotter (1981), Fong u. Srinivasan (1981, 1986) und Jacobsen (1990) Kapazitätserweiterungen. Canel et al. (2001) stellen ein dynamisches Modell vor, das Entscheidungen für den besten Standort von einer Menge an beschränkten Einrichtungen unterstützt und mehrere Produkte betrachtet. Min und Melachrinoudis (1999, 2000) befassen sich mit Standortverlegungen. Letztendlich fassen Hinojosa et al. (2000) die dynamischen, Mehr-Ebenen- und MehrProdukt-Aspekte zusammen. Hinojosa et al. (2004) erweitern dieses Modell um Lagerbestandsentscheidungen. Melo et al. (2004) stellen ein dynamisches Mehr-Ebenen- und MehrProdukt-Modell vor, das Supply-Chain-Planungen (Produktion, Lagerung, Distribution), Standortplanung und Budgetbeschränkungen berücksichtigt. Weiterhin wird als spezieller Aspekt die Kapazitätsverlegung eingeführt. Die vorliegende Arbeit erweitert dieses Modell um Sicherheitsbestände, Kopplungen (siehe Abschnitt 3) und Produktionskoeffizienten aus Stücklisten. Zudem wird die Kapazität in mehrere Kapazitätstypen aufgeteilt. Alle diese Erweiterungen führen dazu, dass das Modell praxistauglicher wird. Der Aufbau der vorliegenden Arbeit gestaltet sich wie folgt. Abschnitt 2 stellt das Konzept der Kapazitätsverlegung, -erweiterung und -reduzierung vor, welche die Grundlage für unser Modell bietet. In Abschnitt 3 wird zuerst eine Problembeschreibungen mit allen verwendeten Variablen und Parametern gegeben, und anschließend wird das formale Modell vorgestellt und erklärt. Abschnitt 4 beschreibt die Anwendung des Modells auf ein Praxisbeispiel aus der Stahlindustrie. Wir untersuchen das Stahlunterneh-
Strategische Supply-Chain Entscheidungen in der Stahlindustrie
159
men, angefangen bei der Problemstellung bis zur Ergebnisvorstellung und -analyse. Die Arbeit schließt in Abschnitt 5 mit einer Zusammenfassung und einem Ausblick ab.
2
Das Prinzip der Kapazitätsverlegung, -erweiterung und -reduzierung
Das mathematische Modell zur strategischen Standortplanung, welches im nächsten Abschnitt eingeführt wird, bildet vor allem das Konzept der Kapazitätsverlegung ab, wobei bestehende Einrichtungen Kapazität an neue Einrichtungen abgeben können. Die Menge der potentiellen neuen Standorte ist dabei bekannt und fest. Um nun darüber hinaus auch Änderungen der Gesamtkapazität abbilden zu können, werden zwei fiktive Einrichtungen eingeführt. Dabei besitzt eine dieser Einrichtungen zu Beginn des Planungszeitraums die Kapazität, um die die Gesamtkapazität maximal erweitert werden kann. Von dieser Einrichtung kann dann im Bedarfsfall Kapazität an neue oder bestehende Einrichtungen abgegeben werden. Die zweite fiktive Einrichtung hingegen besitzt zu Beginn des Planungszeitraums keine Kapazität, kann aber bei Bedarf abgebaute Kapazität bestehender Einrichtungen aufnehmen. Zur Verdeutlichung der Kapazitätsveränderungen, die mit Hilfe des Modells abgebildet werden können, betrachten wir Abbildung 1. Periode t − 1
Periode t j1 i1
i1 j0
j1 j0
i2
j2 i2
j2
i3
j3 i3
j3
i0 i4
i0 j4 i4
Abb. 1. Mögliche Kapazitätsverlegungen
j4
160
S. Nickel, S. Velten, G. Weimerskirch
In dieser Abbildung stellen i1, … , i4 bzw. j1, … , j4 die bestehenden bzw. potentiellen Standorte in Periode t – 1 dar. Weiterhin bezeichnet i0 bzw. j0 die fiktive Einrichtung für die Kapazitätserweiterung bzw. –reduzierung. Die rechte Seite von Abbildung 1 zeigt eine Möglichkeit der Kapazitätsverteilung in Periode t, wobei Kapazität verlegt, erweitert und reduziert wird. Somit kommt es zur Schließung des bestehenden Standortes i1, und an den potentiellen Standorten j1, j3 und j4 werden neue Einrichtungen eröffnet.
3
Problembeschreibung und formales Modell
Das mathematische Modell, welches auf die Fallstudie in Abschnitt 4 angewendet wird, beruht auf dem Modell von Melo et al. (2004) und betrachtet eine Menge L von Einrichtungen in einer Supply-Chain, die sich wie folgt zusammensetzt: L = Se ∪ Sn ∪ NS Dabei sei Se die Menge der selektierbaren bestehenden Einrichtungen (Fabriken, Lagerhäuser, usw.), Sn die Menge der potentiellen Standorte und NS die Menge der nicht-selektierbaren Einrichtungen (Stammwerke, Kunden,…). Die fiktiven Einrichtungen zur Kapazitätserweiterung bzw. –reduzierung werden wie in Abschnitt 2 mit i0 bzw. j0 bezeichnet. Weiterhin sei P = PF ∪ PR die Menge der betrachteten Produkte (PF = Fertigprodukte, PR = Rohstoffe) und T die Menge der betrachteten Zeitperioden (Jahre, Monate, usw.). Darüber hinaus definieren wir Kopk ⊂ Se ∪ Sn als Kopplung. Die Einrichtungen einer Kopplung sind entweder alle geschlossen oder alle geöffnet. Dabei sei K (indiziert mit k ∈ K) die Menge aller Kopplungen. Das Ziel ist es, die Kapazitätsverlegungen, -erweiterung und –reduzierungen für jede Periode so zu bestimmen, dass eine gegebene Kundennachfrage kostenminimal gedeckt werden kann. Dazu werden folgende Kosten definiert: Kosten: PClt, p :
TC lt,l ', p :
variable Beschaffungs-/Produktionskosten pro Einheit von Produkt p ∈ P in Einrichtung l ∈ L in Periode t ∈ T variable Transportkosten pro Einheit von Produkt p ∈ P von Einrichtung l ∈ L nach Einrichtung l’ ∈ L (l ≠ l’) in t ∈ T
Strategische Supply-Chain Entscheidungen in der Stahlindustrie
161
IClt, p : variable Lagerhaltungskosten für eine Einheit von Produkt p ∈ P in Einrichtung l ∈ L am Ende von Periode t ∈ T
MC it, j : variable Kapazitätsverlegungskosten pro Kapazitätseinheit
OC lt SCit
: :
FC tj
:
von bestehender Einrichtung i ∈ Se zur neuen Einrichtung j ∈ Sn zu Beginn von t ∈ T \{1} fixe Betriebskosten für Einrichtung l ∈ L in Periode t ∈ T fixe Kosten (die am Anfang von Periode t ∈ T \{1} anfallen), um Einrichtung i ∈ Se am Ende von Periode t – 1 zu schließen fixe Errichtungskosten (die in Periode t ∈ T \{n} anfallen), um eine Einrichtung j ∈ Sn am Anfang von Periode t + 1 in Betrieb zu nehmen
Zur Definition des Modells werden weiterhin die folgenden Parameter benötigt. Parameter: Kmax tl : maximal zulässige Produktions-/Beschaffungs- und Transportkapazität in Einrichtung l ∈ L ∪ {i0} ∪ {j0} in t ∈ T Kmin ti : minimale wirtschaftlich sinnvolle Produktions-/Beschaffungsund Transportkapazität in Einrichtung i ∈ Se ∪ Sn ∪ {j0} in Periode t ∈ T t Lmax l : obere Lagerkapazitätsschranke in Einrichtung l ∈ L am Ende von Periode t ∈ T t λl, p : Produktions-/Beschaffungskapazitätsverbrauchsfaktor einer Einheit von Produkt p ∈ P in Einrichtung l ∈ L in t ∈ T t ϕl, p : Kapazitätsverbrauchsfaktor für eingehende Transporte einer Einheit von Produkt p ∈ P in Einrichtung l ∈ L in t ∈ T t : Lagerkapazitätsverbrauchsfaktor einer Einheit von Produkt γ l, p p ∈ P in Einrichtung l ∈ L am Ende von Periode t ∈ T t al , q , p : Menge an Produkt q ∈ PR, die zur Herstellung von Produkt p ∈ P in Einrichtung l ∈ L in Periode t ∈ T benötigt wird ωl : Sicherheitsbestandsfaktor für Einrichtung l ∈ L, 0 ≤ ωl ≤ 1 H l , p : verfügbarer Lagerbestand von Produkt p ∈ P in Einrichtung l ∈ L zu Beginn der Planungsperiode Dlt, p : Nachfrage nach Produkt p ∈ P in Einrichtung l ∈ L in t ∈ T αt : Zinsfaktor für nicht verwendeten Budgetanteil in t ∈ T \ {n} Bt : verfügbares Budget in Periode t ∈ T
162
S. Nickel, S. Velten, G. Weimerskirch
Darüber hinaus werden zur Formulierung des Modells nun noch folgende Entscheidungsvariablen benötigt. Entscheidungsvariablen: blt, p = produzierte oder extern beschaffte Menge von Produkt p ∈ P in Einrichtung l ∈ L in Periode t ∈ T xlt,l ', p = von Einrichtung l ∈ L nach Einrichtung l’ ∈ L (l ≠ l’) transportierte Menge an Produkt p ∈ P in Periode t ∈ T t = gelagerte Menge an Produkt p ∈ P in Einrichtung l ∈ L am yl , p Ende von Periode t ∈ T ∪ {0} zit, j = von einer bestehenden Einrichtung i ∈ Se zu einer neuen Einrichtung j ∈ Sn transportierte Menge an Produktions-/ Beschaffungs- und Transportkapazität zu Beginn von t ∈ T t zi 0 , l = von der fiktiven Einrichtung i0 zu einer Einrichtung l ∈ Se ∪ Sn verlegte Menge an Produktions-/Beschaffungs- und Transportkapazität zu Beginn von Periode t ∈ T zit, j0 = von einer Einrichtung i ∈ Se zur fiktiven Einrichtung j0 verlegte Menge an reduzierter Produktions-/Beschaffungs- und Transportkapazität zu Beginn von Periode t ∈ T t ξ = nicht investiertes Budget in Periode t ∈ T ⎧1 falls Einrichtung l ∈ S e ∪ S n ∪ { j0 } in t ∈ T in Betrieb ist ⎪ t δl = ⎨ ⎪⎩0 sonst ⎧1 falls Einrichtung i ∈ S e erweitert wird ⎪ ρi = ⎨ ⎪⎩0 sonst
Die fixen Errichtungskosten FC tj fallen in der Periode vor der Inbetriebnahme neuer Einrichtungen an. Aus diesem Grund ist es nicht möglich, dass eine neue Einrichtung j ∈ Sn in der ersten Periode geöffnet ist, d.h. es gilt: δ 1j = 0 . Folglich kann in der ersten Periode auch noch keine Kapazität zu den neuen Einrichtungen verlegt werden: zi1, j = 0 für i ∈ Se ∪ {i0} und j ∈ Sn. Im Gegensatz hierzu sind zu Beginn des Planungshorizonts alle bestehenden Einrichtungen i ∈ Se geöffnet ( δ i1 = 1 ) und können mit neuer Kapazität erweitert werden. Zu Beginn des Planungshorizonts gilt yl0, p = H l , p für alle Produkte p ∈ P und Einrichtungen l ∈ L. Nun können wir das Modell formal aufstellen.
Strategische Supply-Chain Entscheidungen in der Stahlindustrie
163
Zielfunktion:
∑ ∑ OC
t l
t∈T l ∈ NS
+
(1)
∑ ∑ OC δ + ∑∑ ∑ PC
Min
e
t∈T l ∈S ∪ S
n
t t l l
t t l , p bl , p
t∈T l∈L p∈ P
∑∑ ∑ ∑ TC t∈T l∈L l '∈L\{l } p∈ P
t t l , l ', p xl , l ', p
+
+
∑∑ ∑ IC t ∈T l ∈L p∈P
t t l , p yl , p
Nebenbedingungen: a) Flusserhaltung:
blt, p +
∑x
l '∈L\{l }
t l ', l , p
+ ylt,−p1 = Dlt, p +
∑x
l '∈L\{l }
t l , l ', p
+ ylt, p
(2)
l ∈ L, p ∈ P F , t ∈ T blt, q +
∑x
l '∈L\{l}
t l ', l , q
+ ylt,−q1 =
∑x
l '∈L\{l'}
t l , l ', q
+ ylt, q +
∑a p∈P
t t l , q , p bl , p
(3)
l ∈ L, q ∈ P R , t ∈ T b) Sicherheitsbestand:
(
ylt,−q1 ≥ ωl alt, q , p blt, p
)
(4)
l ∈ S e ∪ NS , q ∈ P R , p ∈ P F , t ∈ T \ {1}
(
) (
)
y tj−, q1 ≥ ω j a tj , q , p btj , p − 1 − δ tj −1 M
(5)
j ∈ S n , q ∈ P R , p ∈ P F , t ∈ T \ {1} yln, q = yln, q−1
l ∈ L, q ∈ P R
(6)
l , l '∈ Kopk , k ∈ K , t ∈ T
(7)
c) Kopplungen:
δ lt = δ lt'
164
S. Nickel, S. Velten, G. Weimerskirch
d) Kapazitätsverlegung:
Kmaxi1 −
t
∑ ∑
τ =1 j∈S n ∪{ j 0 }
t
∑ ∑z
τ i, j n τ =1 i∈S ∪{i0 } t
∑ ∑z
τ i, j τ =1 j∈S n ∪{ j 0 }
∑z t∈T
t i0 , i
n
∑∑z t∈T i∈S e
t
∑ τ =1
ziτ0 ,i ≤ Kmaxitδ it
≤ Kmax tjδ tj
i ∈ S e,t ∈T
j ∈ S n ∪ { j0 }, t ∈ T
+ δ it ε ≤ Kmaxi1
i ∈ Se, t ∈ T
≤ Kmaxit0 ρi
∑ ∑z t∈T j∈S
zit, j +
t i, j
+
t i0 , i
+
∑z t∈T
≤ Kmaxi1 (1 − ρi )
t i , j0
∑ ∑z t∈T j∈S n
t i0 , j
(8)
(9)
(10)
i ∈ Se
(11)
i ∈ Se
(12)
≤ Kmaxi10
(13)
e) Kapazitätsbeschränkung: t ⎞ ⎛ ⎜ λi , p bit, p + ϕi , p xlt,i , p ⎟ ≤ Kmaxi1 − ⎟ ⎜ p∈P ⎝ l∈L\{i} τ =1 ⎠
∑
∑
∑ ∑
ziτ, j +
j∈S n ∪{ j0 }
t
∑z τ =1
τ i0 ,i
(14)
i ∈ S e,t ∈T
∑γ p∈P
t l , p yl , p
≤ Lmaxl1
l ∈ L, t ∈ T
⎛ ⎞ t ⎜ λ j , pb tj , p + ϕ j , p xlt, j , p ⎟ ≤ ziτ, j ⎜ ⎟ p∈P ⎝ l∈L\{j} ⎠ τ =1 i∈S e ∪{i0 }
j ∈ S n , t ∈T
⎞ ⎛ ⎜ λl , p blt, p + ϕl , p xlt', l , p ⎟ ≤ Kmaxlt ⎟ ⎜ p∈P ⎝ l '∈L\{l} ⎠
l ∈ NS , t ∈ T
∑ ∑
∑
∑
∑ ∑
(15)
(16)
(17)
Strategische Supply-Chain Entscheidungen in der Stahlindustrie
165
d) Wirtschaftliche Mindestaktivität:
⎛ ⎞ ⎜ λl , pblt, p + ϕl , p xlt',l , p ⎟ ≥ Kminltδ lt ⎜ ⎟ p∈P ⎝ l '∈L\{l } ⎠
∑
∑
t
∑∑z τ =1 i∈S e
τ i , j0
l ∈ S e ∪ S n ,t ∈T
≥ Kmintj0 δ tj0
t ∈T
(18)
(19)
g) Standortplanung:
δ it ≥ δ it +1
i ∈ S e , t ∈ T \ {n}
(20)
δ tj ≤ δ tj +1
j ∈ S n ∪ { j0 }, t ∈ T \ {n}
(21)
i ∈ Se
(22)
ρi ≤ δ in h) Budgetbeschränkung:
∑ FC δ + ∑ MC
j ∈S
n
1 j
∑
2 j
i∈ S
∑ MC
i∈S e ∪{i0 } j∈S n ∪{ j0 }
∑ FC (δ n
1 1 i 0 , i zi0 , i
e
t j
t +1 j
t t i , j zi , j
+
∑ MC
+
i∈S
1 1 i , j 0 zi , j 0
e
∑ MC
t t i0 ,i zi0 ,i
i∈S r
+
+ ξ 1 = B1
∑ SC (δ
i∈S e
− δ tj ) + ξ t = B t + α t −1ξ t −1
t i
t −1 i
(23)
)
− δ it +
t ∈ T \ {1, n}
(24)
j∈S ∪{ j 0 }
∑ e
∑ MC n
n n i , j zi , j
+
i∈S ∪{i0 } j∈S ∪{ j 0 }
∑ MC
i∈S
n n i 0 , i zi 0 , i
e
∑ SC
i∈S
e
n n −1 i (δ i
+
− δ in ) + ξ n = B n + α n −1ξ n −1
(25)
166
S. Nickel, S. Velten, G. Weimerskirch
i) Ganzzahligkeit bzw. Nichtnegativität:
blt, p , ylt, p ≥ 0 xlt,l ', p ≥ 0 zit, j , zit0 , l , zit, j 0 ≥ 0
δ lt , δ tj0 , ρ i ∈ {0,1}, ζ t ≥ 0
l ∈ L, p ∈ P , t ∈ T
(26)
l ∈ L, l '∈ L \ {l}, p ∈ P, t ∈ T
(27)
i ∈ S e , j ∈ S n ,l ∈ S e ∪ S n ,t ∈ T
(28)
l ∈ S e ∪ S n,i ∈ S e,t ∈T
(29)
Die Zielfunktion (1) minimiert die Gesamtkosten, die notwendig sind, um die Kundennachfrage unter folgenden Nebenbedingungen zu befriedigen: a) Flusserhaltung: Für jede Periode und jede Einrichtung muss die Menge der produzierten, eingehenden und aus der vorhergehenden Periode gelagerten Produkte gleich der Menge der verbrauchten, weitertransportierten und bis zur nächsten Periode gelagerten Produkte sein. b) Sicherheitsbestand: Die Bedingungen (4) und (5) gewährleisten, dass der Lagerbestand ylt,−p1 am Ende von Periode t - 1 für Nicht-Endprodukte q ∈ PR in den Einrichtungen l ∈ Se ∪ NS einen gewissen Sicherheitsbestand aufweist. c) Kopplung: Alle gekoppelten Einrichtungen können nur zusammen geöffnet oder geschlossen sein. d) Kapazitätsverlegung: Die Bedingungen (8)-(10) gewährleisten, dass nur zulässige Kapazitätsverlegungen von bestehenden zu neuen Einrichtungen (inkl. der fiktiven Einrichtungen) stattfinden und Einrichtungen ohne verbleibende Kapazität geschlossen bzw. neue Einrichtungen geöffnet werden. ε ist dabei eine ausreichend kleine Zahl. Die Bedingungen (11) und (12) garantieren, dass eine bestehende Einrichtung entweder Kapazität abgeben oder Kapazität erweitern kann. Beides ist nicht erlaubt. Weiterhin lassen die Bedingungen (13) keine Überschreitung der maximal verfügbaren Kapazitäten der fiktiven Einrichtung zu. e) Kapazitätsbeschränkung: Die Bedingungen (14), (16) und (17) gewährleisten, dass die Produktions-/Beschaffungs- und Transportkapazitäten, die der Produktfluss in den Einrichtungen benötigt, die verfügbare aktuelle Kapazität in den Einrichtungen nicht übersteigt. Die Bedingungen (15) gelten für alle Arten von Einrichtungen, wobei die oberen Schranken der Lagerkapazitäten weder erweiter- noch reduzierbar sind.
Strategische Supply-Chain Entscheidungen in der Stahlindustrie
167
f) Wirtschaftliche Mindestaktivität: In den meisten Fällen gibt es für bestehende Einrichtungen eine Untergrenze, unter der es wirtschaftlich keinen Sinn macht eine Einrichtung noch weiterzuführen, obwohl die komplette Kapazität noch nicht verlegt wurde. Analog gibt es ebenfalls eine wirtschaftlich sinnvolle Untergrenze für neue Einrichtungen. Die neue Einrichtung wird erst geöffnet, falls diese Grenze überschritten wurde. Diese Annahmen werden durch die Bedingungen (18) beschrieben. Wenn in Periode t Kapazität reduziert wird, müssen dies mindestens Kmin tj0 Einheiten sein (Bedingungen (19)). g) Standortplanung: Die Bedingungen (20) und (21) erlauben genau eine Veränderung des gegebenen Zustands, d.h. eine Einrichtung kann während des Planungszeitraums nur einmal geöffnet oder geschlossen werden. Die Bedingungen (22) zusammen mit den Bedingungen (20) stellen sicher, dass eine erweiterte bestehende Einrichtung i ∈ Se während des Planungshorizonts nicht mehr geschlossen werden kann. Der Umkehrschluss gilt natürlich auch; Eine bestehende Einrichtung, die in der letzten Periode nicht mehr in Betrieb ist, muss in einer vorangehenden Periode geschlossen worden sein und kann somit während des Planungshorizonts nicht Gegenstand einer Kapazitätserweiterung gewesen sein. h) Budgetbeschränkung: Wir gehen davon aus, dass die notwendige Geldmenge für die Kapazitätsverlegungen und das Öffnen und Schließen von Einrichtungen budgetiert ist. Das verfügbare Gesamtbudget der einzelnen Perioden setzt sich dabei aus dem verfügbaren Budget der betreffenden Periode und den nicht investierten Anteilen des Budgets aus der Vorperiode, multipliziert mit dem Zinsfaktor α , zusammen.
4
Praxisbeispiel Stahlunternehmen
4.1 Problemstellung Das Unternehmen, welches nun näher betrachtet wird, gehört der Stahlbranche an. Das heute börsennotierte Stahlunternehmen ist das Ergebnis einer Fusion im Jahre 2001, wobei der Name auf Wunsch nicht genannt wird. Drei große internationale Stahlunternehmen haben sich zum weltweit führenden Stahlhersteller zusammengeschlossen. Der Zusammenschluss soll die einzelnen technischen, industriellen und Vertriebskompetenzen für ein gemeinsames Vorhaben mobilisieren, um nicht nur die Nummer 1 der Stahlbranche, sondern auch das Referenzunternehmen in der Stahlindustrie zu werden. Durch zahlreiche Synergieeffekte wird eine starke Reduzierung
168
S. Nickel, S. Velten, G. Weimerskirch
der Kosten erwartet, um auch in neuen Märkten wie z.B. den neuen EUMitgliedsländern Fuß zu fassen und die Aktivitäten auszuweiten. Die Erschließung neuer Märkte gehört zu den obersten strategischen Zielen, da hier die Wachstumsraten für Stahlprodukte deutlich über denen der EU-15 Länder oder der Vereinigten Staaten liegen. Die Tatsache, dass sich das Unternehmen noch immer im Umbruch befindet und die erhofften Synergieeffekte erst noch durch Änderungen der Unternehmensstruktur herbeigeführt werden müssen, macht dieses Stahlunternehmen zu einem idealen Testobjekt für strategische Standortplanungen. Kennzahlen des Unternehmens des abgelaufenen Geschäftsjahres: • Etwa 104 000 Mitarbeiter in über 60 Ländern • Jahresumsatz von 27 Milliarden Euro • Börsenwert knapp 8 Milliarden Euro • Jahresproduktion von rund 44 Millionen Tonnen Stahl Obwohl das Stahlunternehmen mit rund 44 Millionen Tonnen pro Jahr der führende Stahlproduzent weltweit ist, besitzt es nur einen Anteil von ca. 4,89% der Weltstahlproduktion, die sich auf ungefähr 900 Millionen Tonnen beläuft. Die Tatsache, dass das Stahlunternehmen kein Monopol besitzt, ist wichtig für die strategische Betrachtung. Die Stahlpreise sind das Ergebnis vom Nachfrage/Angebot-Verhältnis und werden an der Börse festgelegt. Somit kann das Stahlunternehmen kaum Einfluss auf die Preise nehmen und muss diese als gegeben hinnehmen. Das Unternehmen steht also vor der Aufgabe, eine Planung für die kommenden 5 Jahre aufzustellen und sucht Antworten auf die folgenden Fragen: • Wo und wann sollen Kapazitätsverlegungen stattfinden? Welche Einrichtungen sollen geschlossen bzw. geöffnet werden? • Wie soll die Kapazität stufenweise von den bestehenden Einrichtungen zu den neuen Einrichtungen verlegt werden, ohne die Supply-Chain Aktivitäten zu unterbrechen und ohne die Budget- und Kapazitätsrestriktionen zu verletzen? 4.2 Die Datenerhebung Es ist praktisch nicht möglich, alle Daten mit allen Einzelheiten zu berücksichtigen. Deshalb muss ein Mittelweg zwischen dem Genauigkeitsverlust einer Aggregation und unnötig hoher Komplexität gefunden werden. Obwohl das Modell die Minimierung der Gesamtkosten der Mitglieder der
Strategische Supply-Chain Entscheidungen in der Stahlindustrie
169
Supply-Chain anstrebt, sind nicht alle Einrichtungen Gegenstand der Standortplanung. Nur Einrichtungen, die dem Stahlunternehmen angehören sind selektierbar. Auch wenn Lieferanten nicht geschlossen werden können, bedeutet dies nicht, dass das Stahlunternehmen die Dienste jedes Lieferanten in Anspruch nehmen muss. Es kann sehr wohl entscheiden, ob und welche Menge ein Lieferant liefern soll. Kunden können nicht verlegt werden und wir wollen sie auch auf keinen Fall „schließen“, deshalb ist klar, dass sie ebenfalls nicht selektierbar sind. Das Stahlunternehmen verfügt über eine außerordentlich große Produktpalette. Mehr als 1000 Stahlprodukte unterscheiden sich in Größe, Gewicht und Materialbeschaffenheit. In der Literatur wird eine Vielzahl von Aggregationsverfahren beschrieben, die festlegen, wie die einzelnen Produkte zu Produktgruppen oder Produktklassen zusammengeführt werden können. Mathematische Modelle wie z.B. hierarchische Produktionsplanung sind dabei eher bei operativen Entscheidungen sinnvoll, da in diesen Modellen alle Produkte berücksichtigt werden müssen. Wir werden die Zusammenfassung der Endprodukte mit Hilfe der beiden Anhaltspunkte, Produkt- und Produktionsähnlichkeit vornehmen. Somit werden die Endprodukte in Flach- und Langstahlprodukte klassifiziert. Langstahl wird in Elektrostahlwerken mit Hilfe von Stahlschrott hergestellt. Flachstahl hingegen wird konventionell in Konverterstahlwerken aus Eisenerz und Koks produziert. Stahl, der aus Stahlschrott gewonnen wird, ist im Gegensatz zu Stahl aus Eisenerz viel unreiner und kann deshalb nicht für die gleichen Zwecke verwendet werden. Da die Produktionskosten von Stahl hauptsächlich durch die Preise der Rohstoffe bestimmt werden, ist es in unserem Fall notwendig, neben den zwei Endprodukten auch die Rohstoffe zu berücksichtigen und zu aggregieren. Wir berücksichtigen nur die Hauptrohstoffe Eisenerz, Koks und Stahlschrott, da diese den größten Anteil an den Produktions- und den Transportkosten ausmachen. Wir halten also fest, dass die gesamte Produktpalette und die Rohstoffe in fünf Produkte zusammengefasst werden: Lang- und Flachstahl, Eisenerz, Koks und Stahlschrott. Aufbauend auf der Produktaggregation wurde eine Aggregation der Einrichtungen der Supply-Chain wie folgt vorgenommen. Die Lieferanten für Eisenerz und Koks wurden zu Ländern zusammengefasst, da Transportkosten und Preise innerhalb der Länder nur geringfügig schwanken. Die Stahlschrottlieferanten wurden nicht zusammengefasst. Die Stahlwerke und ihre Stahllager wurden gemäß der Produktaggregation in Langstahlund Flachstahlwerke bzw. Langstahl- und Flachstahllager unterteilt. Ein besonderes Verfahren zur Aggregation der Großkunden war in unserem Fall nicht notwendig, da unternehmensintern die Kunden bereits in geographische Gebiete bzw. Länder aufgeteilt sind. So ist z.B. die Abteilung
170
S. Nickel, S. Velten, G. Weimerskirch
„Frankreich Nord“ verantwortlich für den Absatz in Nordfrankreich. Eine Änderung dieses Aggregationskonzepts ist nicht sinnvoll, da die Daten bereits in geeigneter Form zur Verfügung stehen. Je weiter die Zeiträume der Prognosen in der Zukunft liegen, desto ungenauer und unzuverlässiger werden die Vorhersagen. In unserem Fall ist der fünfjährige Planungszeitraum wohl ein guter Mittelwert. Außerdem entspricht eine Periode einem Kalenderjahr; dies macht zum einen strategisch Sinn, und zum anderen standen die Rohdaten als Jahresdaten zur Verfügung. Es ist zweckmäßig aber nicht notwendig, für alle Parameter die gleichen Mengenangaben bzw. -einheiten zu verwenden. In unserem Modell wurden die Einheiten auf Tausend Tonnen pro Jahr normiert. Das verfügbare Budget für Standortentscheidungen sollte im Hinblick auf die Unsicherheit der Prognosen so gewählt werden, dass die Existenz des Unternehmens nie in Gefahr gerät. In der Praxis ist die Budgetfestlegung mit einer hohen Verantwortung verbunden und wird aus diesem Grund eher mit einer gewissen Risikoaversität beschlossen. In unserem Fall macht das verfügbare Budget pro Periode maximal 5% des prognostizierten Jahresumsatzes aus. Der Zinssatz, mit dem das nicht verwendete Budget verrechnet wird, orientiert sich an den Marktzinssätzen bzw. an der Rentabilität von anderen Investitionen. Wir nehmen einen Zinssatz von 5% an. 4.3 Die Prognosen Um die Nachfrage nach den Produkten festzulegen, ist es wichtig, die Phase im Marktzyklus zu bestimmen, in der sich das Produkt befindet. Die Modellfestlegung geschieht in Abhängigkeit davon, ob ein Produkt sich in der Wachstums-, Reife-, Sättigungs- oder Degenerationsphase befindet. Stahl befindet sich in den EU-15 Ländern in der Reife- bzw. Sättigungsphase, in China und in den neuen EU-Ländern eher in der Wachstumsbzw. Reifephase. Aufgrund der verfügbaren Nachfragehistorie wird die Modellauswahl weiter spezifiziert. Je nach Nachfrageverlauf wird z.B. ein Konstant- (zufällige Schwankungen um ein konstantes Niveau) oder Trendmodell (zufällige Schwankungen um einen linear ansteigenden/fallenden Trend) angewendet. Saisonale Schwankungen werden hier vernachlässigt, da es sich bei den Perioden um Jahre handelt. Aufgrund der Trendtests (t-Tests), die für fast alle Länder einen linearen Trend der Nachfrage bestätigen, reicht die einfache lineare Regression für unsere Zwecke aus. Ein Spezialfall der einfachen linearen Regression ist
Strategische Supply-Chain Entscheidungen in der Stahlindustrie
171
die Zeitreihenanalyse, die speziell die Abhängigkeit der Nachfrage von der Zeit untersucht (Backhaus et al. 2000). Nur wenige Regressionsgeraden, wie z. B. die für Flachstahl der osteuropäischen Länder, haben den Trendtest nicht bestanden. Es kann also kein linearer Trend unterstellt werden. Für diese wenigen Fälle wurden zwei verschiedene Szenarien eingeführt. Das erste Szenario geht von einem hohen Wachstum aus und wird als optimistisch bezeichnet. Das Gegenstück ist das pessimistische Szenario, welches von einem Rückgang des Wachstums ausgeht. Somit wird das Modell mit zwei verschiedenen Szenarien durchgerechnet, und es wird überprüft, ob die Lösungen sich in Bezug auf die Standortplanung gravierend unterscheiden. 4.4 Die Supply-Chain des Stahlunternehmens Die aktuelle Supply-Chain des Unternehmens (Abbildung 2) setzt sich aus insgesamt 63 Einrichtungen zusammen. Die Anzahl der einzelnen Einrichtungen, die zu Beginn des Planungszeitraums in Betrieb sind, ist jeweils in Klammern angegeben. Am Anfang der Kette stehen die Rohstofflieferanten, wobei Eisenerz und Koks vor allem aus Südamerika und Australien bezogen werden. Stahlschrott muss nicht über den Seeweg beschafft werden. Mittelpunkt der Supply-Chain sind die Stahlwerke. Wie bereits erwähnt gibt es zwei verschiedene Arten von Stahlwerken: Elektrostahlwerke für Langstahl und Konverterstahlwerke für Flachstahl. Neben Rohstofflagern, die in den Stahlwerkeinrichtungen integriert sind, gibt es noch Endproduktlager. Diese liegen zwar auch unmittelbar neben den Werken, werden aus modelltechnischer Sicht jedoch als eigene Einrichtungen behandelt. Lieferanten
Stahlwerke
Stahllager
Schrott (3)
Elektro-Werk (9)
Langstahl (9)
ServiceZentren
ServiceZentrum (6)
Eisenerz (3) Konverter-Werk (9)
Flachstahl (9)
Koks (3)
Abb. 2. Aktuelle Supply-Chain des Stahlunternehmens
Kunden
Kunde (10)
172
S. Nickel, S. Velten, G. Weimerskirch
Nach der Produktion und Lagerung werden die Endprodukte über Servicezentren vertrieben. Diese verfügen über sehr große Lager für alle Endprodukte und über alle notwendigen logistischen Kompetenzen, um den Verkauf der Produkte an die Kunden abzuwickeln. Die Kunden, hauptsächlich Großkunden, stammen aus folgenden Märkten: Automobilbranche, Haushaltsgeräte, Verpackungsindustrie, Bausektor und verarbeitende Industrie. Sie besitzen eine Nachfrage an Stahlprodukten, die es unbedingt zu decken gilt. Zu Beginn des Planungszeitraums sind an den in Tabelle 1 angegebenen Standorten 63 Einrichtungen in Betrieb. 4.5 Ergebnisvorstellung und –analyse Es werden hauptsächlich die strategischen Entscheidungen, die auf der Standortplanung beruhen, betrachtet. Strategische Standortentscheidungen gehören zu den schwierigsten und wichtigsten Entscheidungen, da in diesem Bereich Fehlentscheidungen Existenz bedrohend sein können. Alle Lösungen unseres mathematischen Optimierungsmodells wurden mit Hilfe der Optimierungssoftware XPressMP (Dash Optimization 2004) und einem Rechner mit Pentium IV Technologie, 2,40 GHz und 512 MB RAM erzielt. Tabelle 1. Standorte der aktuellen Supply-Chain Funktion Lieferanten: Stahlschrott: Eisenerz: Koks: Stahlwerke/Lager: Langstahl:
Flachstahl:
Servicezentren: Großkunden:
Standort/Gebiet/Land Florange (F), Göttingen, Heilbronn (D), Echeverria, Sestao (E) Australien, Schweden, Brasilien Deutschland, Australien, Polen
Sheffield (GB), Unterschwellenborn (D), Cheb (CZ), Rodange (L), Longwy (F), La Coruna, Gijon, Zumarraga, Madrid (E) Bremen, Eisenhüttenstadt (D), Gand, Dunkerque (B), Dudelange (L), Lesaca (E), Basse Indre, Fos-Sur-Mer (F), Piombino (I) Longlain, Imphy (F), Reichshof, Sersheim (D), Viladecane (E), Differdange (L) Benelux, Deutschland Süd/Nord, Frankreich Süd/Nord, Spanien, Italien/Schweiz, Polen, Tschechien, NordAmerika
Strategische Supply-Chain Entscheidungen in der Stahlindustrie
173
Jede selektierbare Einrichtung kann während des Planungszeitraums genau einmal geöffnet oder geschlossen werden. Aus diesem Grund wollen wir uns zuerst einmal die Standortstruktur in der Anfangsperiode t = 1 und in der Endperiode t = 5 anschauen. Dies verschafft uns einen Überblick welche Einrichtungen während des Planungszeitraums geöffnet bzw. geschlossen wurden. Dazu betrachten wir Tabelle 2. Wir erinnern uns, dass die Stahlwerke und deren Endproduktlager gekoppelt sind, deshalb können wir die beiden Einrichtungstypen jeweils zusammen darstellen. Es mag zunächst erstaunen, dass bei dem optimistischen Szenario mit höherer Nachfrage zwei Stahlwerke mehr geschlossen werden als beim pessimistischen Szenario. Bei genauer Beobachtung erkennen wir aber, dass diese Stahlwerke und die angeschlossenen Lager erst in der letzten Periode geschlossen werden. Diese Tatsache verhilft dem Entscheidungsträger noch über einen Beobachtungszeitraum der Nachfragentwicklung von ungefähr drei Perioden. Außerdem gehören zu den strategischen Standortentscheidungen auch die Kapazitätsverlegungen bzw. -erweiterungen und -reduzierungen. Die Kapazitäten der beiden geschlossenen Werke werden durch Kapazitätserweiterungen bei anderen Einrichtungen kompensiert. Insgesamt ist somit die zur Verfügung stehende Kapazität der Supply-Chain beim optimistischen Szenario höher, obwohl zwei Einrichtungen mehr geschlossen werden. Tabelle 2. Überblick über die Einrichtungen, die neu eröffnet werden
Neue Einrichtungen: Elektrowerke/Langstahllager: Konverterwerke/Flachstahllager: Servicezentren: Geschlossene Einrichtungen: Elektrowerke/Langstahllager: Konverterwerke/Flachstahllager: Servicezentren:
Optimistisches Szenario
Pessimistisches Szenario
Garbsen, Bayonne, Massalenge Sagunto, Cremona, Bytom , Tschechien Plzen, Peschiera, Polen
Garbsen, Bayonne Massalenge Sagunto, Cremona, Bytom, Tschechien Plzen, Peschiera, Polen
La Coruna, Sheffield Bremen, Piombino, Eisenhüttenstadt, Lesaca, Basse-Indre Reichshof, Viladecane, Differdange
La Coruna Bremen, Piombino, Eisenhüttenstadt, Lesaca Reichshof, Viladecane, Differdange
174
S. Nickel, S. Velten, G. Weimerskirch
Weiterhin kann festgestellt werden, dass die Menge an verlegter Kapazität, d.h. Verlegungen, bei denen keine fiktive Einrichtung mit einbezogen wird, im Verhältnis zu den Kapazitätserweiterungen bzw. -reduzierungen eher gering ist. So ist das Verhältnis von verlegter Kapazität zu erweiterter Kapazität im optimistischen Szenario 1 zu 9,84. Im pessimistischen Szenario ist es deutlich geringer, und zwar nur 1 zu 343,7. Es ist also fast immer kostengünstiger, mit neuer Kapazität zu erweitern und bestehende Kapazität zu reduzieren als bestehende Kapazität zu verlegen. Das Budget wird in beiden Szenarien komplett aufgebraucht; nur die Verwendung und der Zeitpunkt der Verwendung unterscheiden sich. Die Gesamtkosten haben eigentlich nur einen informativen Charakter, trotzdem wollen wir sie kurz betrachten (siehe Tabelle 3). Die Auswirkungen auf die Gesamtkosten sind nicht sehr groß; der Unterschied beträgt ungefähr 35,7 Millionen Euro. Gemessen an den Gesamtkosten ist dies weniger als 0,14 %. Schlüsseln wir die Gesamtkosten auf, können wir genau feststellen, welche Kosten für diesen kleinen Unterschied verantwortlich sind, wobei die einzelnen Kosten im optimistischen Szenario nicht unbedingt höher sein müssen. Neben den Ergebnissen der strategischen Standortplanung, gibt das Modell auch Lösungen zu Produktions-/Beschaffungs-, Transport- und Lagerhaltungsplanung an. Wie werden uns nicht detailliert mit diesen Werten auseinandersetzen, da sie in erster Linie gewährleisten, dass die operative Planung ihre Ziele überhaupt erreichen kann. Tabelle 3. Kostenüberblick
Gesamtkosten [Mill. €] Produktions-/Beschaffungskosten [Mill. €] Transportkosten [Mill. €] Betriebskosten [Mill. €] Lagerhaltungsosten [Mill. €]
Optimistisches Szenario 26780 5515 3583 17571 110
Pessimistisches Szenario 26744 5459 3599 17583 103
Zum Abschluss gibt Tabelle 4 noch die durchschnittlichen Lösungszeiten im optimistischen und pessimistischen Szenario für das komplette Modell und die erweiterten Basismodelle mit den einzeln angewendeten Ausbaustufen wieder.
Strategische Supply-Chain Entscheidungen in der Stahlindustrie
175
Tabelle 4. Rechenzeiten der einzelnen Modelle
Komplettes Modell (in s) Modell ohne • Kopplungen • Sicherheitsbestände • unterschiedliche Kapazitätsverbrauchsfaktoren • Produktionskoeffizienten
5
Optimistisches Szenario 1292
Pessimistisches Szenario 4661
8973 331 124
8987 313 383
218
679
Zusammenfassung und Ausblick
In dieser Arbeit wurde ein allgemeines mathematisches Modell vorgestellt, das auch in der Praxis eine gute Hilfe sein kann, um strategische Entscheidungen zu treffen. Zudem ist für zukünftige Forschungsarbeiten ein umfassendes reales Beispiel verfügbar. Hauptproblem einer Planung sind oft die Prognosen. Das Einführen verschiedener Szenarien, gibt bereits einen guten Überblick, wie verschiedene zukünftige Situationen sich auf die Planung und die strategischen Entscheidungen auswirken können. Ein weiterer Ansatz zu Behebung dieses Problems ist die Einführung von stochastischen Parametern, wobei Wahrscheinlichkeiten für die einzelnen Parameter eingeführt werden. Die Arbeit von Alonso et al. (2003) scheint eine gute Antwort auf dieses Problem zu geben. Die Unsicherheit selbst kann natürlich nie behoben, wohl aber berücksichtigt werden. Die Festlegung der Wahrscheinlichkeiten erscheint in diesem Zusammenhang jedoch auch nicht evident. Anlass für weitere Forschungsanregungen könnten wiederum die Auswirkungen einer Fusion geben. Stehen mehrere Unternehmen vor einer Fusionsentscheidung, die wohl als eine der höchsten strategischen Entscheidungen überhaupt angesehen werden kann, stellt sich die Frage, welche Unternehmen sich zusammenschließen sollen. Unser Modell nimmt an, dass Einrichtungen mit Nachfragen nicht geschlossen werden können. Ist dies doch der Fall, würde das Konzept der Kostenminimierung dazu führen, dass alle Einrichtungen mit Nachfragen geschlossen werden, da so eine Deckung der „Nachfrage“, die in dem Fall null ist, kostenminimal erfolgt. Unser Modell müsste dann, um auch die Möglichkeit, fremde existierende Einrichtungen mit Nachfragen kaufen zu können, z.B. in ein Gewinnmaximierungsmodell überführt werden.
176
S. Nickel, S. Velten, G. Weimerskirch
Auch die Übernahme eines kleinen Unternehmens durch ein größeres Unternehmen derselben Branche kann zu einer weiteren interessanten Ausbaustufe führen. Angenommen die kleineren Unternehmen verfügen über eine überschaubare Menge an Einrichtungen. Somit ist der Kauf dieser existierende Einrichtungen nur im Paket möglich. Es kann durchaus vorkommen, dass einige Einrichtungen sehr interessant für das große Unternehmen sind und andere nicht. Es stellt sich also die Frage, ob es insgesamt sinnvoll ist, das kleine Unternehmen aufzukaufen. Hierbei ist wie oben das Konzept der Kostenminimierung wiederum ungeeignet. Zudem muss ein Konzept formuliert werden ähnlich den Kopplungen, um den Kauf im Paket zu berücksichtigen. In unserem Fall müssen alle Nachfragen komplett in jeder Periode gedeckt werden können. Diese Annahme muss jedoch nicht immer gelten. Andere Ansätze sind eine Einführung von Fehlmengen- oder Strafkosten bei Nichterfüllung der Nachfrage oder die Einführung von Servicegraden. Insgesamt gesehen ist es interessant, das Modell an Fusions- bzw. Unternehmenskaufentscheidungen anzupassen, da in diesen Fällen nicht nur Unternehmen zusammengeschlossen werden, sondern auch ihre jeweiligen Supply-Chains. Die Analyse der Fusion der Supply-Chains kann dabei zu mehr Synergieeffekten führen als nur die einzelne Betrachtung der Unternehmen.
Literatur Alonso A, Escudero F, Garín A, Ortuño MT, Pérez G (2003) A stochastic 0-1 program based approach for strategic supply chain planning under uncertainty. Journal of Global Optimization 24: 97-124 Backhaus K, Erichson B, Plinke W, Weiber R (2000) Multivariate Analysemethoden: Eine anwendungsorientierte Einführung, 9. Aufl. Springer, Berlin Ballou RH (1968) Dynamic warehouse location analysis. Journal of Marketing Research 5: 271-276 Canel C, Khumawala M, Law J, Loh A (2001) An algorithm for the capacitated, multi-commodity multi-period facility location problem. Computers & Operations Research 28: 411-427 Dash Optimization (2004) XpressMP, http://www.dashoptimization.com Erlenkotter D (1981) A comparative study of approaches to dynamic location problems. European Journal of Operations Research 6: 133-143 Fong CO, Srinivasan V (1981) The multiregion dynamic capacity expansion problem - Parts I and II. Operations Research 29: 787-816 Fong CO, Srinivasan V (1986) The multiregion dynamic capacity expansion problem: An improved heuristic. Management Science 32: 1140-1152
Strategische Supply-Chain Entscheidungen in der Stahlindustrie
177
Hinojosa Y, Puerto J, Fernandez FR (2000) A multiperiod two-echelon multicommodity capacitated plant location problem. European Journal of Operational Research 123: 271-291 Hinojosa Y, Kalcsics J, Nickel S, Puerto J, Velten S (2004) A dynamic two-echolon capacitated location problem with inventory. Technical Report Jacobsen SK (1990) Multiperiod cpacitated location models In: Mirchandani PB und Francis RL (1990) Discrete location theory 4. Wiley, New York Lüder K, Küpper W (1983) Unternehmerische Standortplanung und regionale Wirtschaftsförderung: Eine empirische Analyse des Standortverhaltens industrieller Großunternehmen. Vandenhoeck & Ruprecht, Göttingen Melachrinoudis E, Min H (2000) The dynamic relocation and phase-out of a hybrid, two-echelon plant/warehousing facility: A multiple objective approach. European Journal of Operational Research 123: 1-15 Melo MT, Nickel S, Saldanha da Gama F (2004) Large-scale models for dynamic multi-commodity capacitated facility location. Erscheint in Computers & Operations Research Min H, Melachrinoudis E (1999) The relocation of a hybrid manufacturing/distribution facility from supply chain perspectives: A case study. OMEGA 27: 7585 Monczka RM, Handfield RB, Trent RJ (2001) Purchasing and Supply Chain Management. South Western Thompsom Learning Sweeny RL, Tatham RL (1976) An improved long-run model for multiple warehouse location. Management Science 22: 748-758
Koordination in einer internen Supply Chain zwischen Produktions- und Vertriebsgesellschaften eines international tätigen Süßwarenherstellers Frank Bliesener1, Stephan Kress2 1
Bruchdamm 21, 49084 Osnabrück
2
Fachhochschule Osnabrück, Fakultät für Gesellschaft und Technik, Am Wall Süd 16, 49809 Lingen
Abstract In der betrieblichen Praxis haben die Lösungskonzepte des Supply Chain Managements Einzug gefunden. Ausgehend von dem Kristallisationskern „Produktionsplanung und -steuerung“ sehen sich die Unternehmen vor die Herausforderung gestellt, unternehmensübergreifende Wertschöpfungsketten zu koordinieren und zu planen. Supply Chains bezeichnen hierbei Produktionsnetzwerke mit Unternehmen, die an der Entwicklung, Produktion und Vermarktung eines Produkts beteiligt sind. Auch in Unternehmen, insbesondere in Konzernstrukturen, wenn sich unter einer Holdingstruktur Produktionsgesellschaften auf die Entwicklung und die Produktion von Produkten konzentrieren und rechtlich selbständige Vertriebsgesellschaften – meist für ein oder mehrere Länder – Distributionsaufgaben bis hin zum Einzelhandel oder Konsumenten wahrnehmen, finden sich Supply Chains oder zumindest Teile von diesen; es liegen daher auch hier ähnlich gelagerte Koordinationsprobleme vor. Eine Herausforderung in derartigen Konzernstrukturen besteht mithin darin, Prozesse zu definieren, die eine reibungslose Abwicklung des Wertschöpfungsprozesses zwischen den Tochtergesellschaften sicherstellen, wobei die Absatzplanung meist den Vertriebsgesellschaften und die Produktions- und die Versandplanung den Produktionsgesellschaften obliegt. Im Folgenden wird daher der Prozess der Disposition von Fertigware in der internen, standortübergreifenden Supply Chain eines international tätigen Herstellers der Süßwarenindustrie vorgestellt und im Hinblick auf die Koordination im Rahmen der Absatz-, Versand-, und Produktionspro-
180
F. Bliesener, S. Kress
grammplanung untersucht. Es handelt sich hierbei also um ein mehrstufiges Lagerhaltungsproblem, da eine optimale Aufteilung des Bestandes auf die verschiedenen Lagerhäuser in der internen Supply Chain des Konzerns angestrebt wird. In der wissenschaftlichen Literatur werden derartige Problemstellungen im Kontext des Supply Chain Managements unternehmensübergreifend intensiv diskutiert. Skizziert werden daher Lösungsansätze des Supply Chain Managements mit Blick auf die Koordination der gesamten Wertschöpfungskette des Süßwarenkonzerns. Rahmenbedingungen für die Prozessgestaltung im Bereich der Süßwarenindustrie sind dabei eine Reihe branchenspezifischer Bestimmungsfaktoren. Im Wesentlichen sind dies: • die Verderblichkeit der Produkte und daher eine begrenzte Lagerdauer, • eine hohe Anforderung des Handels an die Lieferfähigkeit des Herstellers, • die Notwendigkeit, Bestände vorzuhalten, um eine nahezu 100% Lieferfähigkeit zu garantieren, • die Notwendigkeit einer Absatzprognose im Konsumgüterbereich, • ein stark saisonaler Absatzverlauf der Süßwaren, • unterjährige Promotions-Aktivitäten des Vertriebs sowie • eine teilweise erhebliche Unsicherheit der tatsächlichen Kundennachfrage. Standardsoftware bietet heute insbesondere im Bereich der APSSysteme eine Vielzahl von Programmfunktionalitäten, die diese Koordinationsaufgaben lösen helfen. Die Einführung und der laufende Betrieb solcher Software erweist sich für viele Unternehmen jedoch häufig als sehr zeit- und kostenintensiv, insbesondere dann, wenn nur ein kleiner Teil der angebotenen Programmfunktionalitäten wirklich benötigt wird oder das Unternehmen kein PPS-System oder kein ERP-Modul, wie z.B. SAP R/3 PP, einsetzt; Unternehmen verzichten daher auch häufig auf den Einsatz dieser Systeme. In diesem Beitrag wird daher zunächst eine Individualentwicklung vorgeschlagen und vorgestellt.
1
Ausgangssituation
1.1 Unternehmen und Problemstellung Das international aufgestellte Unternehmen produziert und vertreibt Süßwaren über eigene Vertriebsgesellschaften. Mit 4.500 Mitarbeitern in 47 Ländern wurden im Jahr 2003 250.000 Tonnen Süßwaren produziert, die
Koordination in einer internen Supply Chain
181
in mehr als 90 Ländern erhältlich sind. Die Produktion der Süßwaren findet ausschließlich in Deutschland an drei Produktionsstandorten der Gruppe statt. Als Unternehmen der Konsumgüterindustrie folgt die Auftragsauslösungsart der Fertigung auf Lager (make-to-stock). Typische Elemente der Lagerfertigung sind daher auch hier zu finden: • Die Bedarfsermittlung erfolgt durch Prognoserechnungen, • die Bevorratungsebene ist das Endprodukt sowie • durch Prognose erstellte auftragsanonyme Planprimärbedarfe verrechnen sich mit den tatsächlichen Kundenbedarfen (Bartsch u. Bickenbach 2002, S. 49). Der Vertrieb der Produkte erfolgt über ein Netz von Auslandstochtergesellschaften, welche die Vertriebs- und Marketingaktivitäten für die jeweiligen Märkte wahrnehmen. Zu dem Aufgabenbereich der Tochtergesellschaften zählt aufgrund der Nähe zum jeweiligen Markt auch die Absatzplanung. Für die physische Distribution der Ware kommen verschiedene Strategien zum Einsatz, von denen im Weiteren nur die Lagerlieferung betrachtet werden soll, da sie für die untersuchten ausländischen Vertriebsgesellschaften zum Einsatz kommt. Die Waren werden hierbei zunächst von dem Zentrallager der deutschen Produktionsgesellschaft in ein Lager der Auslandstochtergesellschaft geliefert, bevor sie an den Kunden (Handelsorganisationen) weitergeliefert werden. Es ergibt sich somit ein zweistufiges Lagerhaltungsproblem. Abbildung 1 zeigt die Prozesse der internen Supply Chain im Überblick. Basierend auf Kundeninformationen wird vom Vertrieb ein Absatzplan (Sales Forecast) erstellt. Der Absatzplan gibt die geplanten Verkaufszahlen für die nächsten 12 Monate rollierend wieder. Dieser ist die Basis für alle nachgelagerten Planungsfunktionen, insbesondere der Produktions- und Versandplanung bei lagerbelieferten Ländern. Die Funktionen werden hierzu zentral durch den Logistikbereich in der Produktionsgesellschaft wahrgenommen.
182
F. Bliesener, S. Kress
Unternehmensgruppe Vertriebsgesellschaft
Produktionsgesellschaft (Holding)
Absatzplan
Logistik Einkauf
Vertrieb Ausland
Prod.Plan
Versandplan
Lieferant
Produktion
Lager Deutschland
Lager Ausland
Kunde
Informationsfluss Materialfluss
Abb. 1. Interne Supply Chain des Unternehmens
Die Ziele des gesamten Logistikbereiches des Herstellers zeigt Abbildung 2. Hierbei handelt es sich zum Teil um konfliktäre Zielsetzungen (Schulte 2001, S. 36). Hohe Lieferfähigkeit Impliziert: • Häufiger Artikelwechsel in der Produktion • Hohe Bestände
Losgrößenoptimierung Impliziert: • Seltener Artikelwechsel in der Produktion • Hohe Bestände
Hoher Lagerumschlag Impliziert: • Häufiger Artikelwechsel in der Produktion • Geringe Bestände
Abb. 2. Logistisches Zieldreieck des Unternehmens
Koordination in einer internen Supply Chain
183
Die Herausforderung an die Planung besteht nun darin, unter Berücksichtigung der branchen- und firmenspezifischen Rahmenbedingungen das Produktions- und insbesondere das Versandprogramm unter Beachtung des Absatzplanes zu optimieren. Priorität wird dabei vor allem auf die Lieferfähigkeit gelegt, da Lieferengpässe neben unmittelbaren Umsatzeinbußen den Kunden häufig zum Wechsel der Marke veranlassen, wie eine aktuelle Untersuchung in der Lebensmittelbranche zeigt.
Kauf einer anderen Packungsgröße
16% 37%
Kauf einer anderen Marke
9%
Aufgabe des Kaufs
21%
Wechsel des Stores
17%
Verschieben des Kaufs
0% Quelle: ECR Europe 2003
5% 10% 15% 20% 25% 30% 35% 40% Konsumentenverhalten bei Out-of-Stocks
Abb. 3. Konsumentenverhalten bei Lieferunfähigkeit (Lebensmittelzeitung 36/2004, S. 68)
1.2 Rahmenbedingungen der internen Supply Chain des Konzerns Rahmenbedingungen einer Planung der internen Supply Chain können einerseits in branchenspezifische Rahmenbedingen, die in der Lebensmittelbranche insbesondere der Süßwarenindustrie vorzufinden sind, und andererseits in unternehmensinterne Rahmenbedingungen unterteilt werden. 1.2.1
Branchenspezifische Rahmenbedingungen
Folgende Anforderungen bzw. Besonderheiten können aus dem Vertrieb und der Produktion von Süßwaren abgeleitet werden: • Saisonalität Der Absatzverlauf weist eine starke Saisonalität auf. Während der Saisonhöhepunkt für Zuckerwaren im Frühjahr ist, steigt der Absatz von Schokoladenspezialitäten in den Herbst- und Wintermonaten stark an und fällt in den warmen Sommermonaten ab. Zur Unterstützung der Saisonschwerpunkte (Valentin, Ostern und Weihnachten) gibt es zudem
184
F. Bliesener, S. Kress
spezielle Artikel, die nur zu diesen Zeitpunkten angeboten werden und außerhalb dieser Zeiträume nicht verkäuflich sind. • Promotions-Aktivitäten Promotions-Aktivitäten sind Marketingmaßnahmen zur Absatzförderung. Je nach Art der Promotion kommt hier zeitlich befristet eine Kombination aus produkt- und kommunikationspolitischen Maßnahmen zum Einsatz. Durch produktpolitische Maßnahmen entsteht ein neuer Artikel (z. B. Bonbonbeutel mit Gewinnspielauslobung), der zeitlich befristet im Handel angeboten wird. Der isolierte Einsatz kommunikationspolitischer Maßnahmen zielt dagegen auf eine Absatzsteigerung bestehender Artikel ab. • Verhalten des Handels Das Bestellverhalten des Handels ist für den Hersteller von Süßwaren nicht transparent bzw. vorhersagbar. Es kann jedoch davon ausgegangen werden, dass im Handel immer dann eine Bestellung ausgelöst wird, wenn ein bestimmter Meldebestand unterschritten wird. Da keine Einsicht in die Bestände des Handels genommen werden kann, lässt sich der Bestellzeitpunkt der Kunden nicht exakt prognostizieren. Daraus leitet sich die Notwendigkeit eines Sicherheitsbestandes ab, um stets Lieferfähigkeit zu gewährleisten. Eine auftragsbezogene Fertigung ist somit nicht möglich. Die Fertigung erfolgt daher kundenanonym auf Lager und basiert auf der Absatzprognose des eigenen Vertriebs. • Mindesthaltbarkeit und Handelslaufzeit Bei Lebensmitteln handelt es sich im Regelfall um verderbliche Produkte. Daher wird für die Produkte eine Mindesthaltbarkeitsperiode (MHD) festgelegt, nach dessen Ablauf das Produkt nicht mehr an den Konsumenten verkauft werden darf. Des Weiteren wird dem Handel eine feste Laufzeit, die Handelslaufzeit (HLZ), garantiert, die dem Handel zum Verkauf des Produktes zur Verfügung steht. Aus diesen beiden Laufzeiten lässt sich die „eigene Laufzeit“ (ELZ) ableiten, die dem Hersteller für Produktion und Lagerung zur Verfügung steht. Die eigene Laufzeit begrenzt somit auch die Bestandsreichweite. Abbildung 4 verdeutlicht diesen Zusammenhang.
Koordination in einer internen Supply Chain
ELZ
185
HLZ MHD
Abb. 4. Restriktionen der Lagerdauer für Lebensmittel
1.2.2
Firmenspezifische Rahmenbedingungen
Eine Reihe weiterer firmenspezifischer Rahmenbedingungen erschwert zudem die Planung. Diese ergeben sich insbesondere aus der Struktur des Versands und der Produktion von Süßwaren. • Versand zwischen den Lagerhäusern und Transit-Dauer (Intransit) Die untersuchten Märkte verfügen über ein oder mehrere Lagerhäuser. Entscheidendes Kriterium bei der Disposition von Fertigware ist die Transitzeit für die Belieferung der Läger aus dem Zentrallager der Produktionsgesellschaft. Die Transitzeit ist definiert als Zeitspanne zwischen dem Warenausgang im Lager Deutschland und dem Wareneingang im Lagerhaus der Tochtergesellschaft. Tabelle 1 zeigt die untersuchten Lagerhäuser und die entsprechende Transitzeit. Es handelt sich hierbei um Durchschnittswerte der Transitzeit. Die hohe Transitdauer für die Lagerhäuser in Übersee führt zu einer langen Vorlaufzeit für die Produktion und Distribution von Fertigware. Dies beeinflusst in hohem Maße die Reaktionsfähigkeit bei Nachfrageschwankungen.
Tabelle 1. Lagerhäuser und Transitzeit Tochtergesellschaft USA
Lagerhaus
Taylor Atlanta Houston Stockton Munster Kanada Missisauga Calgary Großbritannien Andover
Bundesstaat / Region Pennsylvania / USA Georgia /USA Texas /USA Kalifornien /USA Illinois /USA Ontario / Kanada Alberta / Kanada Hampshire / UK
Ø Transitzeit in Tagen 21 28 35 42 28 21 28 1
186
F. Bliesener, S. Kress
• Artikelstruktur des Süßwarenherstellers Artikel werden durch das Gewicht der Verbrauchereinheit (z.B. 150g) und die Anzahl der Verbrauchereinheiten pro Liefereinheit (z.B. 24 Einheiten) gebildet (Artikelnummer nnnn-xx). Ein Artikel wird jedoch in verschiedenen sog. Varianten (-xx) angeboten. Auf der Variantenebene werden die im Artikel verwendeten Verpackungsmaterialien durch eine Stückliste spezifiziert. Auf den Verpackungsmaterialien der Verbrauchereinheiten sind unterschiedliche Texte enthalten, darunter auch die Zutatenliste in verschiedenen Sprachen. Die auf der Verpackung enthaltene Sprachkombination sowie spezielle Deklarationsvorschriften für bestimmte Märkte beeinflussen letztlich, in welchen Märkten das Produkt verkaufsfähig ist. Dies führt zu ca. 3.000 Artikeln, die beplant werden müssen. • Produktion Der Fertigungstyp entspricht der Fließ- und Sortenfertigung. Im Rahmen des langfristig vorgegeben Produktionsprogramms wird dabei für einen Planungszeitraum von 6 Wochen (rollierend) der Produktionsplan erstellt, der die geplanten Produktionen je Artikel ausweist. Das primäre Ziel der Produktionsplanung ist es dabei geeignete Losgrößen zu bilden, die das Umrüsten der Produktionsanlagen auf ein Minimum beschränken, gleichzeitig aber auch die Lieferfähigkeit für alle Artikel sicherstellen. Zur Steuerung der internen Supply Chain stehen dem Logistikbereich hierbei folgende Daten zur Verfügung: • • • • •
Bestandsdaten für alle in- und ausländischen Werke, Transitbestände mit Eintreffdatum, Absatzplan (Sales Forecast) je Artikel und Land, aktuelle und historische Absatzdaten, offene Aufträge mit Lieferdatum.
Abbildung 5 zeigt die Datenstruktur des Sales Forecasts im StarSchema.
Koordination in einer internen Supply Chain Dimension Artikel
Dimension Zeit
Artikel
Monat
187
Bezeichnung Stammdaten
Faktentabelle Sales Forecast Dimension Artikel Dimension Land Dimension Zeit Menge
Dimension Land Land Bezeichung EU ja/nein
Abb. 5. Datenstruktur Sales Forecast als Star-Schema
2
Planungsaufgaben im Rahmen der internen Supply Chain
Auch im Zeitalter des Supply Chain Managements sind die Ziele unternehmerischen Handelns im Bereich der Logistik im Kern noch die gleichen; nämlich die richtigen Materialien in der richtigen Menge in der richtigen Qualität am richtigen Ort bereitzustellen (Schulte 2001, S. 22). Im Kern lassen sich – Sicherheitsbestände unterstellt – diese Zielsetzungen auf ein Mengenproblem reduzieren. Der Süßwarenhersteller sollte dabei eine Bestandshöhe anstreben, die eine Bedienung aller Kundenaufträge ermöglicht, jedoch nicht die durch Mindesthaltbarkeit und Handelslaufzeit definierte Zeitspanne für die eigene Lagerfähigkeit überschreitet. Rahmenbedingungen der Planung der internen Supply Chain sind folglich: • das Sicherstellen der Lieferfähigkeit aller Artikel zu jedem Zeitpunkt und gleichzeitig • das Verhindern der Überschreitung der Lagerfähigkeit der Süßwaren. Dies ist durch eine isolierte Betrachtung der Größe „Bestand“ im Fertigwarenlager kaum möglich. Zudem erfordern Änderungen des Primärbedarfes eine sofortige Reaktion im nachgelagerten Produktionsbereich bzw. eine Berücksichtigung in der Produktionsplanung.
188
F. Bliesener, S. Kress
Grundsätzlich können Planungsaufgaben innerhalb des Supply Chain Managements zum einen bezüglich des Zeithorizonts (langfristig, mittelfristig, kurzfristig), zum anderen bezüglich des betroffenen Kernprozesses systematisiert werden (Fleischmann et al. 2000, S. 62). procurement
production
distribution
sales
long-term
•materials program •supplier selection •cooperations
•plant location •production system
•product program •physical distribution •strategic sales structure planning
mid-term
•personnel planning •material requirements planning •contracts
•master production scheduling •capacity planning
•distribution planning
•mid-term sales planning
•personnel planning •ordering materials
•lot-sizing •machne scheduling •shop floor control
•warehouse replenishment •transport planning
•short term sales planning
short-term
Abb. 6. Supply Chain Planning Matrix (Fleischmann et al., S. 63)
Abbildung 6 zeigt die Einteilung der Planungsaufgaben in der Supply Chain Planning Matrix nach Fleischmann et al. Bei der vorliegenden Problemstellung des Süßwarenherstellers handelt es sich im Kern um eine „distribution planning“ Aufgabenstellung mit Verbindung auch zum „master production scheduling“ und zum „warehouse replenishment“. APSSysteme bieten für derartige Problemstellungen ein umfangreiches Spektrum an Funktionalitäten an. Eine Beschreibung des Einsatz solcher Systeme in der Lebensmittelindustrie findet sich beispielsweise bei Wagner und Meyr (2000, S. 297-313). Ihre Einführung erweist sich jedoch häufig als sehr kosten- und zeitintensiv. Zudem ist die Einführung eines Planungssystems zu hinterfragen, wenn nur ein kleiner Teil der angebotenen Funktionalitäten tatsächlich genutzt wird. ERP-Systeme wie z. B. SAP R/3 bieten die Möglichkeit, unternehmensmaßgeschneiderte Programmfunktionen als Add-Ons zu bestehenden Funktionen hinzuzufügen. Der betrachtete Süßwarenhersteller hat bislang auf den Einsatz einer Produktionsplanungs- und -steuerung unter SAP R/3 verzichtet; der Einsatz eines APS-Systems für die interne Koordination ist bislang ebenfalls nicht vorgesehen. Im Folgenden sollen daher erst einige konzeptionelle Überlegungen dargestellt werden, die Funktionen zur Unterstützung der Aussteuerung der Supply Chain bei dem Süß-
Koordination in einer internen Supply Chain
189
warenhersteller anbieten müssen. Anschließend wird die Realisier- und Umsetzbarkeit in der betrieblichen Praxis anhand eines ersten Prototypen kurz dargestellt.
3
Lösungskonzepte zur Steuerung der internen Supply Chain
Zur Überwachung und Steuerung der internen Supply Chain kommen zwei Kennzahlen „Reichweite“ und „Auftragsdeckungsgrad“, zum Einsatz. Die Planung der Versandmenge (distribrution planning) folgt dem Prinzip des Vendor Managed Inventories und wird ebenfalls durch die Kennzahl „Reichweite“ gesteuert. 3.1 Reichweitenbetrachtung 3.1.1
Vorüberlegungen
Da Bestände stets in Relation zum Bedarf betrachtet werden müssen, erscheint es sinnvoll, eine Kennzahl zu bilden, die diese Basisdaten miteinander verbindet. „Die Kennzahl Reichweite gibt Auskunft über die Höhe des Lagerbestandes relativ betrachtet zur Nachfrage. Sie gibt an, „wie lange ein Lagerbestand bei einem durchschnittlichen Tagesbedarf ausreicht“ (SAP AG 2004). Die Reichweite des Bedarfswertes errechnet sich somit wie folgt: Reichweite =
aktueller Bestand mittlerer Tagesbedarf
Während die Größe „aktueller Bestand“ wenig Spielraum für Interpretationen lässt, bedarf die Größe „mittlerer Tagesbedarf“ vor dem Hintergrund der aufgestellten Rahmenbedingungen in der Süßwarenindustrie einer näheren Betrachtung. Im Falle konstanter Nachfrage könnte der gesamte Jahresbedarf durch die Anzahl der Tage geteilt werden. Da die monatliche Bedarfsmenge aufgrund des saisonalen Absatzverlaufes der Süßwaren und der Promotions-Aktivitäten sehr unterschiedlich ist, kann unterjährig von keinem konstanten mittleren Tagesbedarf ausgegangen werden. Eine Reichweitenberechnung ist daher durch diese einfache arithmetische Berechnung nicht möglich, sondern sollte der roulierenden Absatzplanung folgen. Ein Algorithmus zur Reichweitenberechung muss daher in einen iterativen Prozess den Bestand um den Tagesbedarf reduzieren. Mit jeder Iterati-
190
F. Bliesener, S. Kress
on wird die Reichweite in Tagen um Eins erhöht. Sinkt der Bestand unter Null, so ist die Berechnung der Reichweite abgeschlossen. Abbildung 7 zeigt die Funktion zur Reichweitenberechnung; hierbei ist der mittlere Tagesbedarf unterjährig mindestens monatlich neu zu ermitteln. Aufbauend auf dem vorgestellten Algorithmus lässt sich eine Reichweitenberechnung für alle erfassten Warenbestände sowie geplante Produktionen der standortübergreifenden Supply Chain durchführen. Dies umfasst die Bestände der Tochtergesellschaft, die Transit-Bestände auf dem Weg zur ausländischen Tochtergesellschaft, sortiert nach Kalenderwoche des Eintreffens im Lager sowie die geplanten Produktionen der nächsten 6 Wochen. FUNCTION „Reichweitenfunktion“ IN: Monatsbedarf MB(i) für alle Monate i Lageranfangsbestand LAB Planverschiebung PV OUT: Startdatum := aktuelles Datum + PV /* PV ggf. 0, dann Startdatum := aktuelles Datum */ Bestand := Lageranfangsbestand Datum := Startdatum Monats_index := Monat(Datum) WHILE Bestand >0 LOOP Tagesverkauf := MB (Monats_Index) / AT_M(Monats_index) Arbeitstag ? wahr Bestand := Bestand-Tagesverkauf ./. Datum:= Datum+1 Monatswechsel ? wahr Monats_Index := Monats_Index +1 ./. Tagesverkauf := MB(Monats_Index) / AT_M(Monats_index) END LOOP Reichweite := (Datum – Startdatum) -1 RETURN Reichweite END FUNCTION Abb. 7. Struktogramm der Reichweitenfunktion
falsch
falsch
Koordination in einer internen Supply Chain
191
Werden diese Daten nach dem Kriterium „zeitliche Nähe zum Kunden“ geordnet, so ergibt sich die in Abbildung 8 dargestellte Anordnung. Der Reichweitenbetrachtung liegt zugrunde, dass zunächst der Bestand der vorgelagerten Stufe (näher am Kunden) aufgebraucht wird, bis der Bestand der nachgelagerten Stufe angebrochen wird (FIFO-Prinzip). In Abbildung 8 ist dieser Warenfluss durch die Pfeile dargestellt. Neben dieser „Bestandsverschiebung“ im Zeitablauf, findet gleichzeitig eine „Bedarfsverschiebung“ statt. Das heißt, dass für die Reichweitenermittlung einer nachgelagerten Stufe (z. B. Transit-Bestand_W2) ein anderer Primärbedarf (Sales Forecast) zugrunde gelegt werden muss, als für eine vorgelagerte Stufe.
Absatzplan M0
Stufe n:
M1
1
2
Bestand Tochter
Kunde
Verkauf
aktuell
3
4
M2
5
Intransit Bestand mit Kalenderwoche
6 Bestand Deutschland
Prior W 0 W 1 W 2 Future aktuell
M3
7 8
9 10 11 12
geplante Produktion
W0 W 1 W2 W3 W4 W 5
Warenfluss
Zeit Reichweite Kumulierte Reichweite
rw2 rw3
rw1
r12
RW3 RW12
Abb. 8. Reichweitenbetrachtung der Supply Chain
Das zugrunde liegende Prinzip der Bedarfsverschiebung soll an einem einfachen Beispiel erläutert werden. Die Auslands- und Transitbestände
192
F. Bliesener, S. Kress
weisen eine Reichweite von zwei Monaten auf (August und September). Der relevante Bedarfszeitraum für die Reichweite des Bestandes in Deutschland beginnt durch diese „Bedarfsverschiebung“ erst ab dem Monat Oktober. Im Beispiel reicht der Bestand in Deutschland dann noch für vier weitere Monate (Oktober bis Januar) Tabelle 2. Beispiel zur Bedarfsverschiebung Bestand Ausland 50 August 60
Transit-Bestand Bestand total Deutschland 50 100 September 40
Absatzplan Oktober November Dezember 25 25 25
Januar 25
Zur Reichweitenbetrachtung wird für jede Stufe n der Supply Chain gemäß Abbildung 8 eine einzelne Reichweite ermittelt. Hierzu muss zunächst der Zeitpunkt t ermittelt werden, ab dem der relevante Bedarfszeitraum beginnt. Dieser ist um die kumulierte Reichweite RWn-1 vom aktuellen Datum aus nach hinten verschoben. Die Reichweite rwn einer festgelegten Stufe n ist daher eine Funktion der Monatsbedarfe (MB) des aktuellen und 11 weiterer Monate (m), des Lageranfangbestandes (LAB) der Stufe n und der kumulierten Reichweite RWn-1, die der Funktion Reichweite (siehe Abbildung 7) als Parameter zur Planverschiebung (PV) übergeben wird. 11
rw n = Reichweite nfunktion ( ∑ MB ( m ), LAB n , PV = RWn −1 ) m =0
(1)
wobei: n −1
RWn−1 = ∑ rwi
(2)
i =1
rwn RWn n 3.1.2
isolierte Reichweite der Stufe n kumulierte Reichweite bis zur Stufe n einschließlich Stufe der Supply Chain gemäß Abbildung 8 Festlegung von Zielreichweiten
Für die konkrete Beurteilung der Reichweitensituation müssen nun für jede Stufe n der Supply Chain und für jeden Artikel bzw. Artikelgruppe Zielreichweiten festgelegt werden.
Koordination in einer internen Supply Chain
193
Determinanten für die Bestimmung der Zielreichweite sind die folgenden Faktoren: • maximale Lagerfähigkeit des Artikels (entspricht der „eigenen Laufzeit“, ELZ, gemäß Abbildung 4) • Transitdauer (TD), spezifisch je Lagerhaus • Prognosequalität des Absatzes je Lagerhaus (Standardabweichung des Prognosefehlers) (Tempelmeier 2003, S. 443) Die differenzierte Festlegung der Zielreichweite erfordert eine langfristige Datenerhebung über die Planungsqualität des Absatzes. Ausführliche theoretische Erläuterungen zur Festlegung des Sicherheitsbestandes mit Hilfe stochastischer Methoden finden sich beispielsweise bei Tempelmeier (2003, S. 442-461). Der Süßwarenhersteller arbeitet hier mit artikelgruppen- und standortspezifischen Erfahrungswerten, die für die vorliegende Planung der Supply Chain als gegeben angenommen werden sollen. Da bei der Zielreichweite ferner meist ein bestimmtes Toleranzintervall (von… bis…) vorgegeben wird, erfolgt die Festlegung sowohl einer minimalen Zielreichweite (Soll_Min_RWn) als auch einer maximalen Reichweite (Soll_Min_RWn). 3.1.3
Reichweitenmonitoring
Die Festlegung von Soll-Reichweiten ermöglicht einen Soll-Ist-Vergleich auf der Ebene der Fertigwaren. Auf Basis dieses Soll-Ist-Vergleiches, der alle Bestände und auch die (geplante) Produktion in der internen Supply Chain berücksichtigt, können sodann Maßnahmen (Produktion erhöhen, Produktion reduzieren, Versandmenge erhöhen, geplante Versandmenge reduzieren) eingeleitet werden, um unmittelbar gegenzusteuern. Für die Steuerung ist dazu die Einrichtung eines automatischen Alarms sinnvoll, der alle zuständigen Stellen sowohl in der Produktions- als auch in den Vertriebsgesellschaften über eine Reichweitenabweichung informiert, damit ggf. Korrekturmaßnahmen eingeleitet werden können. Die Bedingung wird entweder bei einer Über- oder bei einer Unterschreitung der festgelegten Soll-Reichweite erfüllt. Daraus ergibt sich ein Korridor, der einen zulässigen Bereich für die Reichweite eines spezifischen Artikels je Lagerhaus kennzeichnet (Werner 2002, S. 165-169).
194
F. Bliesener, S. Kress
Soll _ Min _ rwn < rwn < Soll _ Max _ rwn Soll_Max_rwn Soll_Min_rwn n p
(4)
maximale Soll-Reichweite bis zur Stufe n minimale Soll-Reichweite bis zur Stufe n Stufe der Supply Chain festzulegende Anzahl Stufen für die eine Reichweitenabweichung zulässig ist
Ein „Gegensteuern“ ist bei einer Reichweitenabweichung jedoch erst dann zwingend nötig, wenn diese Abweichung über mehrere der oben definierten Reichweitenstufen hinweg Bestand hat. Führt etwa die Produktion in der nächsten Woche zu einer Überschreitung der Sollreichweite, die sich jedoch in den Folgewochen wieder korrigiert, so braucht kein Alarm ausgelöst werden. Für eine Reichweitenüberschreitung sieht die Bedingung daher wie folgt aus:
rwn > Soll_ Max_ rwn ∧ rwn+1 > Soll_ Max_ rwn+1 ∧ .....∧
(5)
rwn+ p > Soll_ rwn+ p Festgelegt werden muss daher die Anzahl der Stufen p, für die eine Reichweitenabweichung tolerierbar ist. Hierbei ist vor dem Hintergrund der aufgestellten Rahmenbedingungen zu unterscheiden, ob es sich um eine Unter- (Gefahr von Umsatz- und Kundenverlusten) oder eine Überschreitung (Gefahr der Überalterung von Ware) handelt. Liegt nach dieser definierten Stufe die Reichweite nicht im Soll-Bereich, so wird der Alarm ausgelöst. Eine allgemeine Handlungsvorgabe kann jedoch nicht gemacht werden, vielmehr muss der einzelne Disponent auf Basis der Alerts entscheiden, wann und in welchem Umfang in die interne Supply Chain steuernd einzugreifen ist; vor dem Hintergrund des umfangreichen Artikelspektrums erfolgt so jedoch eine deutliche Fokussierung und Erleichterung der gesamten Dispositionsaktivitäten. 3.2 Auftragsdeckungsgrad Als weitere Steuerungskennzahl erfolgt die Einführung eines Auftragsdeckungsgrads (AD%) auf der Ebene der disponierten Artikel. Diese Kennzahl gibt an, wie weit der Bestand zum aktuellen Zeitpunkt (t=0) die offenen Aufträge vom aktuellen Zeitpunkt bis zu einem festgelegten Zeitpunkt (t*) in der Zukunft abdeckt. Da der Süßwarenhersteller das Ziel einer 100-
Koordination in einer internen Supply Chain
195
prozentigen Lieferfähigkeit verfolgt, muss der Auftragsdeckungsgrad stets ≥ 100 % sein. Im Rahmen eines alarmgesteuerten Konzeptes zur Überwachung der Supply Chain kann die Kennzahl Auftragsdeckungsgrad dazu dienen, den Disponenten auf eine kurzfristige Änderung der Auftrags - Bestandsrelation aufmerksam zu machen, um ggf. steuernd einzuwirken. Zu berücksichtigen ist außerdem die Zeitkomponente der Aufträge. Maßgeblich ist hierbei das Lieferdatum des Auftrags. Zu diesem Zeitpunkt muss die Ware im Lager der Tochtergesellschaft verfügbar sein, damit eine 100-prozentige Erfüllung des Auftrags sichergestellt ist. Bestand t =0 AD % = * 100 t* t ∑ Aufträge t t =0
(6)
Aus der Betrachtung der gesamten internen Supply Chain lässt sich zusätzlich ableiten, dass für die Beurteilung des Auftragsdeckungsgrades (ADG%) zu einem bestimmten Termin additiv jene Zugänge zu berücksichtigen sind, die zwischen dem aktuellen Datum und einen Tag vor dem Lieferdatum (t-1) im Lagerhaus eintreffen. t *−1 Bestand t =0 + ∑ Zugänge t t =0 * 100 ADG% = t* t ∑ Aufträge t t =0
(7)
Die Art der Steuerung des Bestandes der Auslandstochtergesellschaften (Distribution Planning) zeigt Analogien zu dem Prinzip des Vendor Managed Inventory. Die Grundidee des Vendor Managed Inventory Ansatzes (VMI) sieht eine „Verlagerung des Bestandsmanagements von der nachgelagerten Stufe auf die vorgelagerte Stufe des logistischen Systems vor“ (Tucher u. Wiezorek 1998, S. 96ff.). Klassischerweise handelt es sich bei der vorgelagerten Stufe um den Produzenten und bei der nachgelagerten Stufe um den Kunden. Im Fall des Süßwarenherstellers übernimmt die Produktionsgesellschaft hier die Funktion des „Vendors“ und bestimmt nach festgelegten Regeln die Bestandshöhe der Tochtergesellschaft („Buyer“). Auch diese Funktion in der internen Supply Chain lässt sich im Kern durch die Kennzahl „Reichweite“ steuern. Dazu muss zunächst ein bedarfsseitig abzudeckender Zeitraum (p) definiert werden. Auf Basis einer Reichweitenbetrachtung umfasst diese Periode p zum einen die interne Transit-Dauer (TD) als auch
196
F. Bliesener, S. Kress
die gewünschte Zielreichweite (Ziel_rw1) des Bestandes im Lager der ausländischen Tochtergesellschaft.
p = TD + Ziel _ rw1
[in Tagen]
(8)
Für die Ermittlung der Versandmenge (VM) der aktuellen Woche in der Supply Chain werden von der zu deckenden Bedarfsmenge die Bestände der Auslandstochtergesellschaft (Stufe 1), sowie die sich bereits im Transit befindlichen Bestände abgezogen (Stufen 2 - 5). Zudem werden Verlademengen abgezogen, die in einem vorherigen Planungszyklus bereits vorgesehen wurden, jedoch noch nicht verladen sind. p
5
t =0
n =1
(9)
VM W = ∑ Bedarfet − ∑ Bestand n − offene_VerladungenW 0
−1
Tabelle 3. Beispiel zur Versandmengenberechnung Datum: 01.08. p= 60 Tage (2 Monate) Bedarfe August 60 Bestände Ausland Transit offene Verladungen Versandmenge
September 40 40 30 10 20
Die Versandmengen der folgenden Wochen errechnen sich wie folgt: p + j *7
5
j −1
VM W = ∑ Bedarfe − ∑ Bestand n − ∑ VM W i j t n =1 i =0 t =0
(10)
Für die Verlademenge einer weiteren Woche (j=1) ist der abzudeckende Bedarfszeitraum in Tagen entsprechend größer (j*7). Zudem müssen jedoch alle bis zur aktuellen Woche (j-1) geplanten Versandmengen subtrahiert werden. Dies erlaubt eine Vorrauschau über die theoretischen Verlademengen zukünftiger Perioden und somit eine zukunftsgerichtete Steuerung der in der Supply Chain vorgelagerten Produktionsplanung. Der
Koordination in einer internen Supply Chain
197
einzige vom Unternehmen festzulegende Parameter ist im vorgestellten Modell die gewünschte Zielreichweite im Lager der Tochtergesellschaft. Kerngedanke ist, dass sich der Bedarf des Abdeckungszeitraums in den Beständen der Auslandsgesellschaft zuzüglich der Transitbestände wiederfinden muss. Bei festgelegten Planungsintervallen (r) wird durch das vorgestellte Modell der Lagerbestand der Auslandstochtergesellschaft auf ein konstantes Reichweiteniveau (R) aufgefüllt. Es handelt sich bei dieser Art der Lagerbefüllung folglich um eine modifizierte Form der (r, S)-Politik (s. z. B. Tempelmeier 2003, S. 422), bei welcher in konstanten Abständen der Bestand auf ein bestimmtes Mengenniveau aufgefüllt wird.
4
Prototypische Realisierung
Das in Kapitel 3 vorgestellte Konzept ist im Unternehmen prototypisch realisiert worden. Die Planungsdaten werden per Download aus SAP R/3 übernommen. Der Reichweitenalgorithmus wurde für den Prototypen in der Programmiersprache VBA (Visual Basic for Applications) zunächst als erweiterte Excel-Anwendung realisiert. Eine Umsetzung als Erweiterung zum SAP-Standard ist nach Durchführung einer ersten Testphase, die zurzeit läuft, geplant. 4.1 Reichweitenanalyse und Berechnung der Versandmenge Das folgende Beispiel zeigt anhand der Tochtergesellschaft die Reichweitenberechnung für die Vertriebstochtergesellschaft in Großbritannien mit einer durchschnittlichen Transit-Zeit von einem Tag und den vorgegebenen maximalen und minimalen Zielreichweiten. Durch den Parameter Forecast Typ wird im Eingabebereich (Tabelle 4) festgelegt, ob für die Berechnung der Absatzplan des Vertriebs (V) oder ein alternativer Absatzplan der Logistik des Produktionsunternehmens (L) bei der Planung zugrunde gelegt werden soll. Dies ermöglicht eine Bewertung der Planzahlen des Vertriebs durch die Logistik.
198
F. Bliesener, S. Kress
Tabelle 4. Eingabebereich für Reichweitenberechnung und Versandmengenberechnung Forecast Typ
V
Parameter für die Reichweitenrechnung Tage
Wochen
minimale Zielreichweite Tochtergesellschaft maxmimale Zielreichweite Tochtergesellschaft
14 21
minimale Zielreichweite Deutschland maximale Zielreichweite Deutschland
28 42 1 7
2,00 3,00 0,00 4,00 6,00 0,00 0,14 1,00
25 26
3,57 3,71
Intransitdauer Toleranzmaß für Reichweitenabweichung
Zusätzliche Parameter für die Versandmengenberechnung Zielreichweite Lager Tochtergesellschaft Abzudeckende Reichweite
Tabelle 5 zeigt den Ausgabebereich der Reichweitenanalyse in Wochen. In den oberen Zeilen wird dabei die minimale und maximale Sollreichweite festgelegt. Diese wird für die verschiedenen Stufen erhöht. Pro Artikel wird die Reichweite des kumulierten Bestandes für jede Stufe der internen Supply Chain ermittelt. Tabelle 5. Ausgabebereich Reichweitenberechnung in Wochen Tochtergesellschaft Intransit Wochen Vorgabe Bestand Reichweite aktuell prior 0 1 2 min 2 2 2,5 2,5 2,5 max 3 3 3,5 3,5 3,5 Toleranz: 1,0 Reichweite [Wochen] 1,0 Artikel 1 2,9 2,9 2,9 2,9 2,9 Artikel 2 2,7 2,7 2,7 2,7 2,7 Artikel 3 2,6 2,6 2,6 2,6 2,6 Artikel 4 1,1 1,1 1,1 1,1 1,1 Artikel 5 0,7 0,7 2,3 2,3 2,3 Artikel 6 1,4 1,4 1,4 1,4 1,4 Artikel 7 1,1 1,6 1,6 1,6 1,6 Artikel 8 1,6 1,6 1,6 1,6 1,6
Deutschland gepl. Produktion (Wochen) Bestand fut aktuell 0 1 2 3 4 5 2,5 4,0 4,0 4,0 4,0 4,0 4,0 4,0 3,5 6,0 6,0 6,0 6,0 6,0 6,0 6,0
2,9 2,7 2,6 1,1 2,3 1,4 1,6 1,6
5,3 4,9 6,6 8,0 5,4 7,6 5,7 7,0
5,4 4,2 4,2 6,0 4,2 4,2 5,3 4,9
7,2 4,8 4,8 7,0 4,8 4,8 5,3 7,6
5,0 4,0 2,9 4,0 7,2 6,0 5,5 4,0 5,0 6,0 5,5 4,0 7,8 6,0 5,5 4,0 6,0 6,0 7,1 4,0 5,0 6,0 5,5 4,0 9,3 13,6 13,6 13,6 7,6 7,6 7,6 10,3
Koordination in einer internen Supply Chain
199
Alerts weisen den Disponenten auf Über- und Unterschreitungen der Zielreichweite hin. Aufbauend auf Basis der Reichweitenberechnung erfolgt die Ermittlung der wöchentlichen Versandmenge. Tabelle 6 zeigt für das obige Beispiel die Soll-Verlademenge für eine Woche (Spalte „Woche 39 Soll“). Die tatsächliche Verlademenge kann in der Spalte „Ist“ weiterhin manuell beeinflusst werden, falls z. B. die gewünschte Menge nicht verfügbar ist. Basierend auf dieser Zahl werden auch die Verlademengen weiterer Wochen berechnet. Tabelle 6. Ausgabebereich der Versandmengenberechnung Abdeckung zu Ende Sep 04
Woche 38
Woche 39
lfd.
SOLL
Verladungen Woche Woche 39 40 IST
Woche 41
Soll
Soll
Artikel 1
48
7,6
7,4
7,4
20,2
Artikel 2
2
0,0
4,3
4,3
4,5
20,2 4,5
Artikel 3
12
13,0
-0,6
0,0
10,2
10,8
Artikel 4
-4
6,0
0,3
0,3
1,8
1,8
Artikel 5
10
11,5
5,0
5,0
12,6
12,6
Artikel 6
0
5,8
2,1
2,1
3,5
3,5
Artikel 7
12
22,8
2,1
2,1
12,4
12,4
Artikel 8
-1
2,0
1,0
1,0
1,4
1,4
4.2 Berechnung der Auftragsdeckung Tabelle 7 zeigt beispielhaft die Ein- und Ausgabewerte der Programmfunktion Auftragsdeckung. Unterschreitungen der Auftragsdeckungen werden hervorgehoben. Tabelle 7. Auftragsdeckung Bestand Tochter 3.9 Artikel 1 Artikel 2 Artikel 3 Artikel 4 Artikel 5 Artikel 6 Artikel 7 Artikel 8
4.9 56 14 18 4 26 10 2 10
TOTAL GB
INTRANSIT
10 1 0 0 3 0 1 4
Eintreffdatum 5.9 6.9 7.9 1 0 3 2 0 5 1 4
0 3 0 0 4 0 3 2
20 0 0 16 0 6 0 0
Auftragsdeckung [%]
Lieferdatum 1.1 2.1 3.1 4.1 5.1
8.9 0 0 4 0 6 0 3 4
Offene Aufträge
56 14 18 4 26 0 2 0
20 1 5 1 7 4 3 2
10 10 3 1 5 4 4 0
6 3 2 4 4 5 4 2
10 5 1 1 3 7 5 0
1 6 0 2 4 8 7 1
1.1
2.1
3.1
4.1
5.1
281 1158 337 430 358 250 63 500
221 133 213 215 236 125 34 636
187 105 201 105 178 115 31 429
146 93 183 90 171 75 40 465
186 71 100 248 141 75 28 377
200
5
F. Bliesener, S. Kress
Zusammenfassung und Fazit
Koordinationsprobleme, wie sie im Rahmen des Supply Chain Managements behandelt werden, treten aufgrund der Änderung von Unternehmensstrukturen, bei denen eine Unterteilung in Produktions- und Vertriebsgesellschaften erfolgt, zunehmend auch intraorganisatorisch in Konzernstrukturen auf. Nach Vorstellung der Arbeitsteilung zwischen Produktions- und Vertriebsgesellschaften eines Süßwarenherstellers zeigte sich, dass auch für diese interne Supply Chain Lösungskonzepte gefunden werden müssen. Erschwert insbesondere durch die Rahmenbedingungen der Lebensmittel- bzw. Süßwarenbranche, stehen der Planung indes die benötigten Daten bis zur Schnittstelle zur Handelskette zur Verfügung. Das vorgestellte Konzept zur Steuerung der Supply Chain verfolgt einen Überwachungs- und Steuerungsansatz auf Basis von Kennzahlen zur Reichweitenbetrachtung und zum Auftragsdeckungsgrad. Es zeigt sich, dass sich eine Überwachung und Steuerung der innerbetrieblichen Supply Chain durch wenige Kennzahlen und einfache Planungsverfahren verbessert werden kann. Diese dienen als Entscheidungsunterstützung im Rahmen der täglichen Disposition der Fertigware (Planung der Versandmenge, Änderung der Produktionsplanung). Die vorgesehenen Alert-Funktionalitäten verfolgen dabei den Management-by-Exception Ansatz, so dass ein Programmhinweis nur dann erfolgt, wenn eine signifikante Veränderung der betrachteten Kennzahl auftritt und damit ein steuernder Eingriff notwendig erscheint. Das aufgezeigte Konzept wurde bereits prototypisch realisiert und lässt sich durchgängig durch Individualprogrammierung in der Umgebung eines ERP-Systems als Erweiterung des Standards integrieren. Trotz dieses zusätzlichen Werkzeugs, das darauf abzielt, durch Fokussierung auf wenige, wichtige Kennzahlen, die Reaktionsfähigkeit der internen Logistik zu erhöhen, um schneller auf Bedarfsänderungen zu reagieren, ist die Süßwarenindustrie bzw. deren Hersteller weiterhin mit Planungsunsicherheit konfrontiert. Letztlich bestimmt das letzte Glied in der Supply Chain, der Konsument, durch seine freie Kaufentscheidung den tatsächlichen Bedarf in der Kette.
Literatur Bartsch H, Bickenbach P (2002) Supply-Chain-Management mit SAP APO: Supply-Chain-Modelle mit dem Advanced Planner & Optimizer 3.1. Gallileo Press, Bonn
Koordination in einer internen Supply Chain
201
Fleischmann B, Meyr H, Wagner M (2000) Advanced Planning. In: Stadtler H, Kilger C (Hrsg) Supply Chain Managmenet and Advance Planning: Concepts, Models, Software and Case Studies. Springer, Berlin Heidelberg New York, pp 57-74 Lebensmittelzeitung (2004) Ausgabe 36, Deutscher Fachverlag SAP AG (2004) Online Hilfe Logistik Informationssystem, Stichwort Reichweite. http//help.sap.com, Abruf am 30.09.2004 Schulte G (2001) Material- und Logistikmanagement. Oldenbourg, München Wien Tempelmeier H (2003) Material-Logistik : Modelle und Algorithmen für die Produktionsplanung und -steuerung und das Supply Chain Management. Springer, Berlin Heidelberg New York Tucher FW von, Wiezorek H (1998) Efficient Consumer Response. In: Klaus, P, Krieger W (Hrsg) Gabler Lexikon Logistik: Management logistischer Netzwerke und Flüsse. Gabler, Wiesbaden, S 93-99 Wagner M, Meyr H (2000) Food and Beverages. In: Stadtler H, Kilger C (Hrsg) Supply Chain Managment and Advance Planning: Concepts, Models, Software and Case Studies. Springer, Berlin Heidelberg New York, pp 297-316 Werner H (2002) Supply Chain Management: Grundlagen, Strategien, Instrumente und Controlling. Gaber, Wiesbaden
II. Produktionslogistik
Abbildungsfehler in zeitdiskreten Optimierungsmodellen – Auftreten und Maßnahmen zu ihrer Behebung Christopher Sürie Fachgebiet Produktion & Supply Chain Management, Institut für Betriebswirtschaftslehre, Fachbereich Rechts- und Wirtschaftswissenschaften, Technische Universität Darmstadt, Hochschulstraße 1, 64289 Darmstadt, [email protected]
Abstract Optimierungsmodelle sind Modelle und damit ein Abbild der Realität. Eine entscheidende Voraussetzung für die Einsetzbarkeit eines Optimierungsmodells (beispielsweise für die Produktionsplanung einer Supply Chain) ist eine hinreichende Abbildungsgenauigkeit der wesentlichen Eigenschaften des zugrundeliegenden Produktionssystems. Standardmodelle der Losgrößenplanung basieren häufig auf einer Diskretisierung der Zeit in Perioden. Sollen kontinuierliche Prozesse geplant werden, induziert diese Form der Abbildung der Zeit Abbildungsfehler. Auf diese Fehler geht der vorliegende Aufsatz ein und zeigt ihre Behebung an einem Beispiel aus der Prozessindustrie. Die hierbei gewonnenen Erkenntnisse werden mit Ergebnissen aus Rechentests untermauert.
1
Einleitung
Im Gegensatz zur Stückgüterproduktion sind bei verfahrenstechnischer Produktion einige besondere Charakteristika zu beachten. Diese Charakteristika sind in für die Stückgüterproduktion entwickelten Planungsansätzen und darauf basierender betriebswirtschaftlicher Planungssoftware häufig nur unzureichend berücksichtigt. Andererseits sprechen gerade der hohe Komplexitätsgrad der Produktionsprozesse, ihr hoher Automatisierungsgrad und der Fortschritt mathematischer Optimierungsverfahren sowie der zugrundeliegenden Hardware für den Einsatz formaler Planungsmethoden (vgl. Günther 2004, S. 331). Vor diesem Hintergrund zeigt der vorliegende
206
C. Sürie
Aufsatz Modellierungsmöglichkeiten für Produktionsplanungsprobleme insbesondere für die verfahrenstechnische Produktion auf. Entsprechende Modelle eignen sich für den Einsatz in sogenannten Advanced Planning Systemen (vgl. Stadtler u. Kilger 2005) zur Planung in Supply Chains. Ein Beispiel soll die wesentlichen Charakteristika veranschaulichen. Abbildung 1 stellt einen mehrstufigen verfahrenstechnischen Produktionsprozess dar. Verschiedene Rohstoffe, die in Tanks gelagert werden, sind über Rohrleitungen (symbolisiert durch Pfeile) mit einem Reaktor verbunden. Auf diesen Reaktor folgt eine zweite Reaktion in einem weiteren Reaktor, wonach das Zwischenprodukt in einem Tank gelagert werden kann. Dieser Tank ist als Puffer zu verstehen, da die sich anschließende Produktionsstufe auch von anderen Reaktoren angesteuert werden kann und einen Engpass darstellt. Die fertigen Produkte werden wiederum in Tanks gelagert.
1./2. Produktionsstufe Tanks (Rohstoffe)
3. Produktionsstufe Tanks (Zwischenprodukte)
Tanks (Endprodukte)
Abb. 1. Motivierendes Beispiel
Die in der verfahrenstechnischen Produktion zu beachtenden Besonderheiten ergeben sich im Wesentlichen durch die Eigenschaften der im Beispiel als Reaktoren bezeichneten Produktionsstufen. Die Reaktoren sind dadurch gekennzeichnet, dass Produktwechsel in der Regel sehr komplexe und damit zeitaufwändige und teure Umrüstvorgänge erfordern. Zudem sind häufig hohe Anforderungen an die Reinheit der Produkte anzutreffen, so dass umfangreiche Reinigungsvorgänge als Bestandteil der Umrüstvorgänge zu berücksichtigen sind. Hinsichtlich der zu verarbeitenden Menge sind die Reaktoren ebenfalls häufig beschränkt.
Abbildungsfehler in zeitdiskreten Optimierungsmodellen
207
Als Restriktionen können zum einen Mindestproduktionsmengen gefordert werden, wenn beispielsweise eine kritische Masse für die Durchführung der Reaktion erforderlich ist. Eine weitere Restriktion stellt die Vorgabe einer maximalen Produktionsmenge dar. Diese Form der Restriktion ist beispielsweise dann anzutreffen, wenn nach einer bestimmten Produktionsmenge ein Reinigungsvorgang in der Anlage einzuplanen ist, weil sich im Laufe der Produktion Bestandteile der Reaktionsmasse an den Wänden des Reaktors abgesetzt haben und eine weitere Produktion in der geforderten Qualität verhindern. Schließlich ist als dritte anzutreffende Restriktion der Fall zu nennen, dass die Produktion nur als ganzzahliges Vielfaches einer Basisgröße (auch Batchgröße; hier: der Reaktorkapazität) durchgeführt werden kann. Dies ist beispielsweise dann der Fall, wenn der Reaktor zur Durchführung der Reaktion immer komplett gefüllt sein muss (vgl. Kallrath 2002, S. 224-225). Die genannten Restriktionen werden hier jeweils auf die zu produzierende Menge bezogen. Allgemein gesprochen können diese Bedingungen jedoch auch auf die Produktionszeit bezogen werden (vgl. Hui u. Gupta 2001, S. 5961). Hier zeigt sich ein weiterer wesentlicher Unterschied zur Stückgüterproduktion. Diese ist dadurch gekennzeichnet, dass in der Regel eine proportionale Beziehung zwischen Produktionsmenge und Produktionszeit (ausgedrückt durch den Produktionskoeffizienten) besteht. Diese Entsprechung besteht in der verfahrenstechnischen Produktion so nicht immer. Bei Batchproduktion (oder Chargenproduktion) ist die Produktionszeit eines Batches (einer Charge) häufig unabhängig von der Größe des Batches (der Charge). In dem vorgestellten Beispiel könnte das bedeuten, dass die Reaktionszeit (Produktionszeit) in einem Reaktor unabhängig von dessen Füllhöhe ist. Der Aufsatz ist im Weiteren wie folgt gegliedert: Im zweiten Abschnitt werden Abbildungsdefekte, die sich aus der Diskretisierung der Zeit in Standardlosgrößenmodellen ergeben, diskutiert. Dabei wird aufgezeigt, welche Erweiterungen notwendig sind, um kontinuierliche Prozesse in einem fixierten Zeitraster korrekt abzubilden. Der dritte Abschnitt beschreibt ein spezielles Problem, das bei unmodifizierter Übernahme der im zweiten Abschnitt angesprochenen Modellerweiterungen auftreten kann, sowie seine Lösung (im Rahmen gemischt-ganzzahliger Optimierung) durch die Ergänzung zusätzlicher Nebenbedingungen. Schließlich enthält der vierte Abschnitt eine Darstellung von Rechentestergebnissen und der fünfte Abschnitt eine kurze Zusammenfassung.
208
2
C. Sürie
Abbildung von Zeitkontinuität in zeitdiskreten Modellen
Durch die Einteilung der Zeitachse in Perioden werden künstlich Grenzen geschaffen, was sich auf die Abbildung insbesondere verfahrenstechnischer Produktionsprozesse nachteilig auswirken kann. Obwohl aus diesem Grund auch Modelle basierend auf einer kontinuierlichen Zeitachse entwickelt worden sind (vgl. bspw. Grunow et al. 2003), basieren dennoch die meisten Planungssysteme auf einer Einteilung des Planungshorizontes in Perioden (engl. auch „buckets“). Diese Diskretisierung der Zeit (in Schichten, Tage, Wochen oder Monate) besitzt durchaus Vorteile, indem sie die Interpretation der Ergebnisse und die Abstimmung mit anderen Unternehmensfunktionen erleichtert. Sie soll daher erhalten bleiben, und die auf ihr aufbauenden Modelle sollen hinsichtlich der sich aus der verfahrenstechnischen Produktion ergebenden Charakteristika erweitert werden. Beginnen wir mit dem einfachsten Fall, der Abbildung von Rüstzuständen an den Periodengrenzen. Ausgangspunkt der Erläuterungen soll ein Standardlosgrößenmodell, das CLSP (capacitated lot-sizing problem, vgl. bspw. Dixon u. Silver 1981, S. 24 oder Trigeiro et al. 1989, S. 354-355), sein. Das CLSP basiert auf den folgenden Prämissen: • Mehrere verschiedene Produkte j werden auf einer gemeinsamen Ressource produziert. • Die Ressource hat eine beschränkte Kapazität. • Der Planungshorizont ist endlich und in T Perioden unterteilt. • Alle Produkte sind einer deterministischen dynamischen Nachfrage ausgesetzt, die befriedigt werden muss. • Wenn ein Produkt in einer Periode produziert werden soll, so ist in der Periode ein Rüstvorgang für dieses Produkt erforderlich. • Ziel ist die Minimierung der Summe aus Rüstkosten und Lagerhaltungskosten. In Abb. 2 (CLSP) ist ein typisches Resultat der Produktionsplanung auf Basis des CLSP dargestellt. In jeder der fünf dargestellten Perioden werden verschiedene Produkte (gekennzeichnet durch unterschiedliche Muster) in verschiedenen Mengen (dargestellt durch die unterschiedliche Höhe der Säulen) produziert, so dass die verfügbare Kapazität (dargestellt durch die gestrichelte Linie) in keiner Periode überschritten wird. Dennoch induziert die fünfte aufgeführte Prämisse, nämlich dass mit jeder Produktion eines Produktes in einer Periode ein Rüstvorgang (bewertet mit Rüstkosten und gegebenenfalls einer die verfügbare Kapazität mindernden Rüstzeit [hier nicht dargestellt]) verbunden ist, einen Abbildungsdefekt.
Abbildungsfehler in zeitdiskreten Optimierungsmodellen
209
Betrachtet man die Produktion in der Realität, so ist es im Normalfall möglich, eine in einer Periode begonnene Produktion in der Folgeperiode fortzuführen, ohne erneut einen Rüstvorgang durchzuführen. Dies betrifft insbesondere Produktionssysteme, die 24 Stunden pro Tag und 7 Tage in der Woche betrieben werden, denn für diese ist der Periodenwechsel (beispielsweise von Sonntag Abend auf Montag Morgen) ein willkürlich gewählter Zeitpunkt. Aber auch nicht durchgängig betriebene Anlagen können häufig in ihrer bestehenden Konfiguration (auch nach Stillstand, beispielsweise am Wochenende) weiter betrieben werden.
CLSP
CLSPL
Produktion, Kapazität
1
2
3
4
5
1
2
3
4
5
Zeit
Produktion, Kapazität
Zeit
PLSP Produktion
1
2
3
4
5
6
7
8
9
10
Zeit
Abb. 2. Modellierung von Rüstzuständen an Periodengrenzen
Eine konsequente Erweiterung (bzw. Verallgemeinerung) des CLSP besteht daher in der Modellierung des Rüstzustandes der Ressource an den Periodengrenzen. Diese Erweiterung ist in Abb. 2 (CLSPL) durch Pfeile symbolisiert. Das zugehörige Losgrößenmodell, das diese Erweiterung abbildet, ist das sogenannte CLSPL (capacitated lot-sizing problem with linked lot sizes, vgl. Gopalakrishnan et al. 2001 sowie Suerie u. Stadtler 2003). Daneben gibt es eine weitere Gruppe von Losgrößenmodellen, die eine Rüstzustandserhaltung über Periodengrenzen hinweg explizit vorsehen. Dies sind die sogenannten „small-bucket“ Modelle, deren wesentliche Eigenschaft darin besteht, dass sie in jeder Periode maximal einen Rüstvorgang erlauben. Die Bezeichnung „small-bucket“ kommt daher, dass die
210
C. Sürie
Periodenlänge im Verhältnis zur erwarteten Losgröße klein ist. Das „small-bucket“ Modell mit dem größten Freiheitsgrad ist das PLSP (proportional lot-sizing and scheduling problem; vgl. Drexl u. Haase 1995). Ein typischer Produktionsplan auf Basis des PLSP ist in Abb. 2 (PLSP) dargestellt. Dieses Modell dient seiner Einfachheit wegen als Basis für die weiteren Ausführungen. Die vorgestellten Erweiterungen sind jedoch ohne Weiteres auch auf sogenannte „big-bucket“ Modelle wie das CLSPL übertragbar. Nach der Modellierung der Rüstzustandserhaltung an den Periodengrenzen kann eine weitere Erweiterung darin bestehen, zusammengehörende Produktionsmengen zu einem Los zu verbinden. Ergebnis der Produktionsplanung sind allerdings noch immer periodenbezogene Mengenvorgaben. Dem Produktionsplan in Abb. 3 ist beispielsweise zu entnehmen, dass von Produkt A 25 Einheiten in Periode 2 zu produzieren sind und 30 Einheiten in Periode 3. Dieser Umstand stellt den zweiten Abbildungsdefekt dar. Die im ersten Abschnitt eingeführten Restriktionen, nämlich dass einzuplanende Lose eine minimale Menge oder eine maximale Menge aufweisen müssen oder dass sie sich als ganzzahliges Vielfaches einer Basisgröße ergeben müssen, können erst dann bei der Lösung des Modells berücksichtigt werden, wenn die gesamte Losmenge (in diesem Fall 55 Einheiten) als Variable im Modell zur Verfügung steht. Produkt
A
25 30
B
35
20 25 t=1
30 2
3
35 4
Zeit
Nebenbedingungen bezüglich • minimaler Mengen / Längen • maximaler Mengen / Längen • Menge / Länge als ganzzahliges Vielfaches einer Basisgröße
Abb. 3. Modellierung von periodenübergreifenden Produktionsmengen
Wegen ihrer Praxisrelevanz wurden auch für diese Charakteristika Erweiterungen der Standardlosgrößenmodelle entwickelt (vgl. Kallrath 1999 und Suerie 2005a). Damit ist es neben der Modellierung von Rüstzuständen möglich, periodenübergreifende Losgrößen abzubilden. Schließlich verbleibt ein dritter Abbildungsdefekt, der sich auf die Rüstvorgänge bezieht. Rüstvorgänge werden in den Standardmodellen der Los-
Abbildungsfehler in zeitdiskreten Optimierungsmodellen
211
größenplanung häufig mit Hilfe von Binärvariablen abgebildet. Diese nehmen dann den Wert „1“ an, wenn ein Rüstvorgang für ein Produkt in einer bestimmten Periode stattfindet, beziehungsweise den Wert „0“, wenn kein Rüstvorgang für das Produkt in der Periode eingeplant wird. Durch diese Form der Abbildung ergibt sich, dass Rüstvorgänge jeweils komplett einer bestimmten Periode zugeschrieben werden, d.h. vollständig in einer Periode liegen. In Abb. 4 sind zwei Produktionspläne dargestellt. Der obere Produktionsplan leidet nicht unter dem beschriebenen Abbildungsdefekt. Rüstvorgänge können hier Periodengrenzen überdecken und es ergibt sich eine zulässige Belegung der Ressource durch die beiden Produkte A und B. Im unteren Produktionsplan wurden die Lose so verschoben, dass Rüstvorgänge jeweils komplett in einer Periode liegen. Dies ist im gegebenen Fall nicht möglich, ohne dass eine Unzulässigkeit (hier: in Periode 5) auftritt. In der logischen Umkehrung folgt daraus: Ein Produktionsplanungssystem, das periodenübergreifende Rüstvorgänge nicht erlaubt (Abb. 4, unten), kann in dem vorliegenden Fall eventuell keinen zulässigen Plan erzeugen. Dies führt aber möglicherweise dazu, dass zusätzliche Aufträge abgelehnt werden, obwohl in der Realität eine zulässige Belegung existiert (Abb. 4, oben). Produkt
A B
Zeit Produkt
A B
Zeit Legende:
Rüstzeit
Produktion
Abb. 4. Modellierung von periodenübergreifenden Rüstvorgängen
Auch für den Fall periodenübergreifender Rüstvorgänge sind Modelle in der Literatur entwickelt worden (vgl. Drexl u. Haase 1995 und Suerie 2005b, S. 104-115).
212
C. Sürie
In ihrer Gesamtheit erlauben die zur Behebung der drei beschriebenen Abbildungsdefekte entwickelten Modellerweiterungen quasi die Erstellung beliebiger Produktionspläne unabhängig von der als Basis gewählten Zeitstruktur. Einschränkungen sind lediglich noch die Beschränkung der Rüstvorgänge auf einen Vorgang pro Periode (für den Fall, dass das PLSP als Ausgangsmodell gewählt wird) sowie auf einen Rüstvorgang pro Produkt und Periode (für den Fall, dass das CLSPL als Ausgangsmodell gewählt wird). Die letzte Einschränkung besagt, dass die Zeitdiskretisierung so gewählt werden muss, dass Vorgaben maximaler Produktionsmengen und ein günstiges Verhältnis von Rüst- und Lagerkosten nicht dazu führen dürfen, dass es notwendig oder günstiger ist, ein Produkt mehrfach in einer Periode aufzulegen.
3
Mangelnde Ressourcenauslastung als Akzeptanzproblem – Problemstellung und ihre Lösung
Schon die Behebung des ersten Abbildungsfehlers, der Modellierung von Rüstzuständen an den Periodengrenzen, führt dazu, dass diese Eigenschaft in (optimalen) Lösungen fast in jeder Periode genutzt wird, um Rüstvorgänge zu sparen. Diese Nutzung der Rüstzustandserhaltung führt jedoch gelegentlich zu dem unerwünschten Effekt, dass die Produktion mangels anderer Verwendungsmöglichkeiten der Ressource mit einer sehr niedrigen Produktionsrate aufrecht erhalten wird.
Abb. 5. Niedrige Ressourcenauslastung
Abbildungsfehler in zeitdiskreten Optimierungsmodellen
213
In Abb. 5 (oben) ist dieser Effekt dargestellt. Produkt 1 wird in der zweiten Woche nur gering, in den darauffolgenden Wochen jedoch stärker nachgefragt. Um die Lagerhaltungskosten gering zu halten, wird in der zweiten Woche nur der zu deckende Bedarf produziert, während in der dritten Woche mit voller Auslastung produziert wird. Ein solcher Produktionsplan findet kaum die Zustimmung des zuständigen Planers. Denn es ergibt sich hieraus nicht nur eine sehr ungleichmäßige Belastung der Belegschaft, sondern auch die verwendeten Anlagen weisen nicht die besonders in der verfahrenstechnischen Produktion häufig anzutreffenden Mindestnutzungsgrade zur Aufrechterhaltung der Reaktionen auf. In Abb. 5 (unten) sind zwei potentielle Gegenmaßnahmen dargestellt. Für Produkt 1 hat eine Verlagerung der Produktionsmengen in den Wochen zwei bis vier zu einer Erfüllung des geforderten Mindestauslastungsgrades geführt. Im zweiten Monat wird dieser Effekt für Produkt 3 durch eine Abschaltung der Ressource für einen kurzen Zeitraum erreicht. Allgemein betrachtet, lassen sich in der verfahrenstechnischen Produktion folgende drei Fälle in Bezug auf die Ressourcenauslastung unterscheiden: • Minimale Auslastung: Minimale Ressourcenauslastung ist meistens durch den Produktionsprozess bedingt. Verschiedene Autoren haben für diesen Fall Modellerweitungen vorgeschlagen (vgl. Kallrath 1999, S. 332 und Lee u. Chen 2002, S. 21-22). • Volle Auslastung: Ein (sehr restriktiver) Spezialfall besteht darin, immer eine volle Auslastung der Ressourcen zu fordern. Diesen Fall kann beispielsweise ein „small-bucket“ Modell, das DLSP (vgl. Fleischmann 1990), abbilden. Ein volle Auslastung der Ressourcen wurde aber auch schon in Verbindung mit einem „big-bucket“ Modell, dem CLSPL (vgl. Porkka et al. 2003, S. 1138), betrachtet. • Konstante Auslastung: Eine weitere Restriktion kann darin bestehen, dass die Anlage durch den Rüstvorgang auf eine bestimmte Produktionsgeschwindigkeit eingestellt wird, die während des Produktionsvorgangs nicht variiert werden kann. In diesem Fall ist die Auslastung der Ressource für das gesamte Los konstant. Diese konstante Auslastung ist beispielsweise in Produktionsprozessen für die Papierproduktion anzutreffen (vgl. Porkka et al. 2003, S. 1138). Gleichzeitig kann diese konstante Auslastung durch eine minimale Auslastungsvorgabe beschränkt sein. Des Weiteren ist hinsichtlich der zu berücksichtigenden Auslastungsgrade zwischen ausschaltbaren und nicht-ausschaltbaren Ressourcen zu unterscheiden.
214
C. Sürie
Betrachten wir zunächst den Fall ausschaltbarer Ressourcen (vgl. Suerie 2005b, S. 116-118). In diesem Fall kann die Ressource außer durch ein Produkt auch durch eine Leerzeit belegt sein. Es bietet sich daher an, die Menge der Produkte durch ein Dummy-Produkt zu erweitern, das eine Stillstandszeit der Ressource ausdrückt. Dieses Dummy-Produkt führt, auch wenn als Grundmodell das PLSP gewählt wird, welches nur einen Rüstvorgang pro Periode erlaubt, nicht zu einer Einschränkung der abbildbaren Produktionspläne. Dies hat folgende Ursache: In Abb. 5 (unten) sieht es so aus, als ob zwei Produktwechsel im zweiten Monat stattfinden, der erste von Produkt 2 auf das DummyProdukt und der zweite vom Dummy-Produkt auf Produkt 3. Dies ist jedoch ein falscher Eindruck, da die zugrundeliegende Modellformulierung bezüglich des im zweiten Monat auftretenden Falles nicht zwischen den beiden Ausprägungen (Abb. 5 oben und unten) unterscheidet. Die einzuhaltende Mindestauslastung wird erzwungen durch die Nebenbedingungen X jt ≥ util j ⋅
ct ⋅ ( Z jt −1 + Z jt − 1) aj
∀ j∈J, t∈T ,
(1)
wobei Xjt die von Produkt j in Periode t zu produzierende Menge bezeichnet, Zjt die Binärvariable für den Rüstzustand von Produkt j am Ende von Periode t symbolisiert und ct, aj und utilj die verfügbare Kapazität in Periode t sowie die Produktionskoeffizienten und den Mindestauslastungsgrad bei Produktion von Produkt j beschreiben. Für den Fall, dass der gleiche Rüstzustand an beiden Periodengrenzen besteht (Zjt-1=1 und Zjt=1, beispielsweise für Produkt 1 in der dritten Woche), erzwingen die zusätzlichen Nebenbedingungen (1), dass die Produktionsmenge die Mindestauslastung erreicht. Besteht ein Rüstzustand nur an einer Periodengrenze (Zjt-1=1 oder Zjt=1, beispielsweise für Produkt 2 im zweiten Monat), so sind die Nebenbedingungen (1) relaxiert und entsprechen Nichtnegativitätsbedingungen. Da der Rüstzustand an zwei aufeinander folgenden Periodengrenzen unterschiedlich ist, muss in diesem Fall in der eingeschlossenen Periode ein Rüstvorgang stattfinden, und die Produktionsmengen der beiden herzustellenden Produkte können so verteilt werden, dass die Mindestauslastung eingehalten und eine Stillstandszeit zwischen den Produkten eingeplant wird (Abb. 5 (unten, 2. Monat)). Für den Fall, dass ein Rüstzustand für Produkt j an keiner Periodengrenze besteht, sind (1) ebenfalls relaxiert. Das eingeführte Dummy-Produkt wird nur in dem Fall verwendet, dass komplette Perioden durch Stillstandszeit überbrückt werden müssen. Etwas schwieriger gestaltet sich die Modellierung, wenn Ressourcen nicht ausgeschaltet werden können (vgl. Suerie 2005b, S. 118-119). In diesem Fall muss über die gesamte verfügbare Kapazität abzüglich der durch
Abbildungsfehler in zeitdiskreten Optimierungsmodellen
215
Rüstvorgänge beanspruchten Zeit mit der geforderten Mindestauslastung produziert werden. Dies wird durch Nebenbedingungen (2) erreicht, in denen Yjt die Binärvariable für Rüstvorgänge für Produkt j in Periode t symbolisiert und stj die damit verknüpfte Rüstzeit ausdrückt. aj
∑ util j∈J
j
⋅ X jt ≥ ct − ∑ st j ⋅ Y jt j∈J
∀ t∈T
(2)
Wenn das Kapazitätsangebot die vorhandene Nachfrage übersteigt, ist jedoch zu beachten, dass die Nebenbedingungen (2) einige unerwünschte Eigenschaften nach sich ziehen. In diesem Fall existieren prinzipiell zwei Ausweichmöglichkeiten, wobei das Optimierungsmodell die jeweils günstigere vorschlagen wird. Die erste Möglichkeit besteht aus Modellsicht darin, das Kapazitätsangebot durch ständiges Umrüsten künstlich zu verknappen und auf diese Weise eine Produktion unter Berücksichtigung der Mindestauslastung zu erreichen. Die zweite Möglichkeit besteht aus Modellsicht darin, das gemessen an den Lagerhaltungskosten günstigste Produkt über die vorhandene Nachfrage hinaus zu produzieren. Beide Möglichkeiten sind nicht erwünscht. Daher sind die für den Fall nichtabschaltbarer Ressourcen erzeugten Pläne vor ihrer Umsetzung kritisch zu hinterfragen. Alternativ kann der Planer versuchen, im Voraus Einfluss zu nehmen, indem er durch Berücksichtigung von Lenkungskosten in der Zielfunktion die Auswahl des/der über den Bedarf hinaus produzierten Produkte(s) steuert und eventuell deren Mengen beschränkt.
4
Ergebnisse von Rechentests
Im Folgenden wird der Einfluss der im dritten Abschnitt untersuchten Erweiterungen sowohl auf die Lösung von Produktionsplanungsproblemen als auch auf deren Lösbarkeit hin untersucht. Als Grundlage dienen die auf Trigeiro et al. (1989) basierenden und auch in Suerie (2005a, 2005b) verwendeten 180 Testinstanzen. Bei diesen handelt es sich um Produktionsplanungsprobleme für J=4 Produkte über T=20 Perioden. Die Testinstanzen sind so generiert, dass Auswertungen hinsichtlich verschiedener Charakteristika möglich sind (siehe Tabellen 1 und 2). Tabelle 1 untersucht die Veränderung der Lösungen bei einer Variation des geforderten Mindestauslastungsgrades (55 %, 70 % und 85 %). Als Grundmodell wird das PLSP ohne prozessindustriespezifische Erweiterungen verwendet. Können Ressourcen ausgeschaltet werden (+Aus(Mindestauslastungsgrad)), so verändern sich die Produktionspläne gemessen an den Produktionskosten im Vergleich zur optimalen Lösung des Basisproblems kaum. Erwartungsgemäß sind die Mehrkosten höher, je einschrän-
216
C. Sürie
kender die zusätzliche Restriktion wirkt (55 % vs. 70 % vs. 85 %). Zudem zeigt sich, dass die Mehrkosten höher sind, wenn die Kapazitätsauslastung durch die Nachfrage relativ niedrig oder aber Rüsten relativ teuer ist (TBO Profil1: hoch). Hinsichtlich verschiedener Streuungen der Nachfrage oder unterschiedlicher Rüstzeiten ergeben sich keine Unterschiede. Tabelle 1. Durchschnittliche Kostenerhöhung in Prozent (Basis: Optimale Lösung des PLSP) (in Anlehnung an Suerie 2005b, S. 179) Kapazitätsauslastung
PLSP +An(55) +An(70) +An(85) +Aus(55) +Aus(70) +Aus(85)
TBO Profil
niedrig mittel hoch niedrig mittel hoch 0.0 0.0 0.0 0.0 0.0 0.0 21.1 10.0 4.5 25.1 8.3 2.2 111.6 46.2 15.2 132.3 34.8 5.9 286.6 158.9 64.7 357.4 126.1 26.7 0.4 0.2 0.0 0.0 0.1 0.5 0.8 0.4 0.1 0.0 0.1 1.1 1.2 0.6 0.1 0.0 0.1 1.8
NachfrageLänge der variation Rüstzeiten niedrig hoch niedrig hoch 0.0 0.0 0.0 0.0 11.8 12.0 7.4 16.4 58.7 56.6 28.7 86.6 170.4 169.7 113.5 226.7 0.2 0.3 0.2 0.3 0.3 0.5 0.3 0.5 0.6 0.7 0.5 0.8
Können Ressourcen nicht ausgeschaltet werden (+An(Mindestauslastungsgrad)), ergeben sich hohe Mehrkosten. Diese resultieren – wie in Abschnitt 3 angedeutet – aus unnötigen Rüstvorgängen beziehungsweise aus Überproduktion. Dies ist aus Tabelle 1 ebenfalls klar ersichtlich, wobei der Effekt umso größer ist, je höher der geforderte Mindestauslastungsgrad gewählt wird. Hohe Nachfragen (Kapazitätsauslastung: hoch), relativ hohe Rüstkosten (TBO Profil: hoch) sowie kurze Rüstzeiten lassen diesen Effekt am wenigsten zu Tage treten. In Tabelle 2 ist die gleiche Auswertung für ein Grundmodell mit zusätzlichen Beschränkungen dargestellt. Das hier untersuchte Modell enthält zusätzlich Restriktionen hinsichtlich der in einem Los minimal und maximal zu produzierenden Menge. Außerdem musste die periodenübergreifende Losmenge sich als ganzzahliges Vielfaches einer Basisgröße ergeben. Man kann erkennen, dass auch wenn sich die einzelnen Zahlen leicht verändert haben, sich in der Grundtendenz die gleichen Beobachtungen ableiten lassen wie für das PLSP in Tabelle 1. Die beobachteten Mehrkosten sind etwas höher für den Fall ausschaltbarer Ressourcen, während sich im 1
Das TBO Profil (TBO = Time Between Orders) gibt Auskunft über das erwartete Zeitintervall zwischen zwei Losauflagen desselben Produkts basierend auf der EOQ-Losgröße. Eine niedrige TBO (= häufige Losauflage) entspricht somit niedrigen Rüstkosten im Vergleich zu den Kosten der Lagerung. Vgl. bspw. Trigeiro et al. (1989), S. 358-359.
Abbildungsfehler in zeitdiskreten Optimierungsmodellen
217
Fall nicht-ausschaltbarer Ressourcen tendenziell geringere Mehrkosten ergeben. Die „Mehrkosten“ für das Grundmodell kommen dadurch zustande, dass hier einheitlich die gefundene Lösung nach einer Rechenzeitschranke von drei Minuten gewählt wurde und nicht für alle Testinstanzen optimale Lösungen bestimmt werden konnten. Tabelle 2. Durchschnittliche Kostenerhöhung in Prozent der jeweils nach 180 Sekunden gefundenen Lösung (Basis: Optimale Lösung des PLSP mit folgenden zusätzlichen Beschränkungen: minimale Losgröße: 250; maximale Losgröße: 3.000; Batchgröße: 250) (in Anlehnung an Suerie 2005b, S. 180) Kapazitätsauslastung
Grundmodell
+An(55) +An(70) +An(85) +Aus(55) +Aus(70) +Aus(85)
niedrig 0.1 10.7 66.4 192.1 1.3 1.8 2.2
mit- hoch tel 0.2 0.3 4.8 2.3 24.7 7.4 98.4 35.8 0.8 1.0 1.3
0.5 0.6 0.7
TBO Profil niedrig 0.0 11.0 73.4 219.7 0.2 0.3 0.4
mit- hoch tel 0.1 0.4 4.4 2.3 19.5 5.5 84.4 22.2 0.8 0.9 1.0
1.5 2.2 2.9
NachfrageLänge der variation Rüstzeiten nied- hoch nied- hoch rig rig 0.2 0.1 0.1 0.2 5.6 6.2 3.5 8.3 33.7 31.9 14.4 51.2 110.0 107.5 69.6 148. 0 0.8 0.9 0.7 1.0 1.1 1.2 0.9 1.4 1.4 1.5 1.2 1.6
Tabelle 3. Durchschnittliche und maximale Optimalitätslücke nach einer Rechenzeit von drei Minuten in Prozent (in Anlehnung an Suerie 2005b, S. 181) Durchschnittliche cke
Optimalitätslü-
Kapazitätsauslastung ≥ PLSP PLSP + minimale und maximale Mengen PLSP + minimale und maximale Mengen und Batchbeschränkung
An
Ohne
55% 0.0
70% 0.0
85% 0.0
55% 0.1
70% 0.0
85% 0.1
0% 0.0
0.5
0.7
0.6
0.6
0.7
0.8
0.3
2.7
3.3
2.8
2.7
2.9
3.1
1.7
55% 4.1
An 70% 5.0
85% 2.6
55% 7.2
Aus 70% 3.7
85% 4.5
Ohne 0% 2.6
11.4
10.9
6.9
9.4
11.9
9.9
8.4
15.1
18.5
15.0
15.7
14.0
19.2
13.5
Maximale Optimalitätslücke Kapazitätsauslastung ≥ PLSP PLSP + minimale und maximale Mengen PLSP + minimale und maximale Mengen und Batchbeschränkung
Aus
Tabelle 3 bezieht sich nicht mehr auf eine Analyse der gefundenen Lösungen, sondern untersucht die Lösbarkeit der aus den Erweiterungen re-
218
C. Sürie
sultierenden Modelle. Angegeben ist jeweils die sich aus 180 Testinstanzen ergebende durchschnittliche sowie die maximal auftretende Optimalitätslücke. Die Optimalitätslücke bezeichnet den nach einer Rechenzeit von drei Minuten verbleibenden prozentualen Abstand der bis dahin besten gefundenen Lösung von der bis dahin ermittelten unteren Schranke. Untersucht werden hier drei Modelle: das PLSP, das PLSP mit einer Beschränkung der minimalen und maximalen Produktionsmenge sowie das PLSP mit einer zusätzlichen Beschränkung der Produktionsmenge auf ein ganzzahliges Vielfaches einer Basisgröße. Hinsichtlich der Ressourcenauslastung wird wieder zwischen ausschaltbaren (aus) und nicht-ausschaltbaren (an) Ressourcen mit unterschiedlicher Höhe der geforderten Ressourcenauslastung unterschieden. In der Spalte „Ohne“ sind Referenzwerte angegeben für den Fall, dass keine minimale Ressourcenauslastung modelliert wurde. Auf Basis der in Tabelle 3 angegebenen Ergebnisse kann zunächst festgestellt werden, dass die in Tabellen 1 und 2 angegebenen Ergebnisse nicht stark verzerrt sind, wenn statt der optimalen Lösung die beste nach 180 Sekunden gefundene Lösung verwendet wird. Dies ist insbesondere für die hohen Mehrkosten bei nicht-ausschaltbaren Ressourcen eine wichtige Feststellung. Eine weitere interessante Beobachtung ist, dass sich hinsichtlich der beobachteten Optimalitätslücke keine Unterschiede zwischen ausschaltbaren und nicht-ausschaltbaren Ressourcen nachweisen lassen.
Anteil optimal gelöster Testinstanzen
80% 70% 60% 50% 40% 30% 20% 10% 0% 5
30
55
80
105
130
155
180
Rechenzeit [s] Basismodell
+Aus(85)
+Aus(70)
+Aus(55)
Abb. 6. Anteil optimal gelöster Testinstanzen über der Zeit bei ausschaltbaren Ressourcen in Prozent (Basis: PLSP mit folgenden zusätzlichen Beschränkungen: minimale Losgröße: 250; maximale Losgröße: 3.000; Batchgröße: 250)
Abbildungsfehler in zeitdiskreten Optimierungsmodellen
219
Dennoch besteht weiterhin ein Unterschied zwischen ausschaltbaren Ressourcen (Abb. 6) und nicht-ausschaltbaren Ressourcen (Abb. 7). In diesen beiden Abbildungen ist jeweils dargestellt, welcher relative Anteil der Testinstanzen sich in einer bestimmten Rechenzeit optimal lösen lässt. Für ausschaltbare Ressourcen (Abb. 6) lässt sich kein unterschiedliches Lösungsverhalten bei unterschiedlichen Auslastungsgraden beobachten. Die Kurven für 55 %, 70 % und 85 % Mindestauslastungsgrad weisen einen ähnlichen Verlauf auf und liegen leicht unterhalb der Kurve, die keine Mindestressourcenauslastung berücksichtigt (Basismodell). Dahingegen ergibt sich für den Fall nicht-ausschaltbarer Ressourcen (Abb. 7) eine deutliche Abstufung. Testinstanzen mit niedriger geforderter Mindestauslastung lassen sich tendenziell schneller optimal lösen als solche mit hoher geforderter Mindestauslastung.
Anteil optimal gelöster Testinstanzen
80% 70% 60% 50% 40% 30% 20% 10% 0% 5
30
55
80
105
130
155
180
Rechenzeit [s] Basismodell
+An(85)
+An(70)
+An(55)
Abb. 7. Anteil optimal gelöster Testinstanzen über der Zeit bei nicht-ausschaltbaren Ressourcen in Prozent (Basis: PLSP mit folgenden zusätzlichen Beschränkungen: minimale Losgröße: 250; maximale Losgröße: 3.000; Batchgröße: 250)
Zusammenfassend lässt sich feststellen, dass eine Modellierung der Ressourcenauslastung (zumindest bei ausschaltbaren Ressourcen) ohne einen wesentlich erhöhten Rechenaufwand bei ungefähr gleichbleibender Lösungsgüte möglich ist. Lösungsgüte bezieht sich hierbei auf die Geschwindigkeit der Lösungsfindung sowie die durchschnittliche Abweichung vom Optimum. Aus Sicht des Anwenders bleibt jedoch festzuhalten, dass das zugrundeliegende Planungsproblem beziehungsweise die erzielten
220
C. Sürie
Ergebnisse wegen möglicher Überproduktion sorgfältig zu überdenken sind, sofern Ressourcen durchgängig betrieben werden müssen.
5
Zusammenfassung
Der vorstehende Aufsatz hat gezeigt, wie häufig in der verfahrenstechnischen Produktion auftretende Charakteristika, die eigentlich eine kontinuierliche Modellierung der Zeit erfordern, mit Hilfe von zeitdiskreten Modellen behandelt werden können und sollten. Dabei wurde ein Aspekt, die Modellierung von Mindestauslastungsgraden, vertiefend analysiert und diskutiert. Ferner wurden für diesen Fall Ergebnisse von Rechentests präsentiert, die zeigen, dass eine entsprechende Berücksichtigung dieser Charakteristika mit vertretbarem Aufwand möglich ist.
Literatur Dixon PS, Silver EA (1981) A heuristic solution procedure for the multi-item, single level, limited capacity lot sizing problem. Journal of Operations Management 2: 23-39 Drexl A, Haase K (1995) Propotional lotsizing and scheduling. International Journal of Production Economics 40: 73-87 Fleischmann B (1990) The discrete lot-sizing and scheduling problem. European Journal of Operational Research 44: 337-348 Gopalakrishnan M, Ding K, Bourjolly JM, Mohan S (2001) A tabu-search heuristic for the capacitated lot-sizing problem with setup carryover. Management Science 47: 851-863 Grunow M, Günther H-O, Yang G (2003) Plant co-ordination in pharmaceutics supply networks. OR Spectrum 25: 109-141 Günther H-O (2004) Produktionsplanung in der Prozessindustrie. Wirtschaftswissenschaftliches Studium, 33.6: 326-331 Hui C-W, Gupta A (2001) A Bi-index Continuous-Time Mixed-Integer Linear Programming Model for Single-Stage Batch Scheduling with Parallel Units. Industrial Engineering & Chemistry Research 40: 5960-5967 Kallrath J (1999) The concept of contiguity in models based on time-indexed formulations. In: Keil F, Mackens W, Werther J (eds) Scientific computing in chemical engineering II. Springer, Berlin Heidelberg New York, pp 330-337 Kallrath J (2002) Planning and scheduling in the process industry. OR Spectrum 24: 219-250 Lee YM, Chen EJ (2002) BASF uses a framework for developing web-based production-planning-optimization tools. Interfaces 32.6: 15-24
Abbildungsfehler in zeitdiskreten Optimierungsmodellen
221
Porkka P, Vepsäläinen APJ, Kuula M (2003) Multiperiod production planning carrying over set-up time. International Journal of Production Research 41: 11331148 Stadtler H, Kilger C (eds) (2005) Supply Chain Management and Advanced Planning – Concepts, Models, Software and Case Studies, 3rd edn. Springer, Berlin Heidelberg New York Suerie C (2005a) Campaign planning in time-indexed model formulations. International Journal of Production Research 43: 49-66 Suerie C (2005b) Time Continuity in Discrete Time Models – New Approaches for Production Planning in Process Industries. Lecture Notes in Economics and Mathematical Systems, Vol. 553. Springer, Berlin Heidelberg New York Suerie C, Stadtler H (2003): The capacitated lot-sizing problem with linked lotsizes. Management Science 49: 1039-1054 Trigeiro WW, Thomas LJ, McClain JO (1989) Capacitated lot sizing with setup times. Management Science 35: 353-366
Belegungsplanung einer Make&Pack-Anlage: eine Fallstudie aus der Konsumgüterindustrie Cord-Ulrich Fündeling, Norbert Trautmann Institut für Wirtschaftstheorie und Operations Research, Universität Karlsruhe, Schlossbezirk 14, 76131 Karlsruhe, {fuendeling, trautmann}@wior.uni-karlsruhe.de
Abstract Advanced-Planning-Systeme stellen u.a. Verfahren zur operativen Planung der Produktion bereit. Eine der Herausforderungen bei der Entwicklung solcher Verfahren liegt in der Vielzahl der in der Praxis zu beachtenden technologischen und ablauforganisatorischen Restriktionen. Im vorliegenden Beitrag erläutern wir solche Restriktionen exemplarisch an Hand einer Fallstudie aus der Konsumgüterindustrie und stellen ein entsprechendes Planungsverfahren vor.
1
Einleitung
Seit einigen Jahren werden so genannte Advanced-Planning-Systeme (APS) zum Supply-Chain-Management angeboten (vgl. z.B. Stadtler und Kilger, 2002). APS sind nach dem Prinzip der hierarchischen Planung modular aufgebaute entscheidungsunterstützende Systeme und stellen leistungsfähige OR-Methoden zur Beschaffungs-, Produktions-, Distributions- und Absatzplanung bereit. Für einen Überblick über die Aufgaben der einzelnen Module verweisen wir auf Rohde et al. (2000). Viele APS enthalten ein Modul zur operativen Produktionsplanung (Production Planning). Aufgabe dieses Moduls ist die Ermittlung eines Ablaufplans der Produktion für eine gegebene Produktionsanlage, durch dessen Ausführung die von der taktischen Planung (Master Planning) vorgegebenen Produktmengen hergestellt werden. Bei der Planung sind eine Vielzahl technologischer und ablauforganisatorischer Randbedingungen zu beachten, die z.T. spezifisch für den jeweiligen Industriezweig sind. Ziel des vorliegenden Beitrags ist es, exemplarisch an Hand einer Fallstudie aus der Konsumgüterindustrie ein konkretes Planungsproblem und insbesonde-
224
C.-U. Fündeling, N. Trautmann
re die bei der Planung zu beachtenden Randbedingungen zu erläutern und ein entsprechendes Lösungsverfahren vorzustellen. Gegenstand der Fallstudie ist eine Make&Pack-Anlage, d.h. eine Produktionsanlage, die sich in zwei voneinander durch kapazitiv begrenzte Zwischenlager getrennte Stufen unterteilen lässt. Die beiden Stufen bestehen jeweils aus einer Menge von Apparaten. Auf der ersten Stufe (MakeStufe) läuft der eigentliche Produktionsprozess ab, an den sich der auf der zweiten Stufe (Pack-Stufe) ablaufende Verpackungsprozess anschließt. Zwischen der Herstellung und der Verpackung müssen die Produkte mindestens während einer vorgegebenen Zeit gelagert werden. Die Herstellung bzw. Verpackung der Produkte geschieht durch Ausführung verschiedener Prozessschritte, die jeweils in unterschiedlichen Apparaten ablaufen. Ein Apparat muss zwischen der Ausführung verschiedener Prozessschritte umgerüstet werden. Auch die Zwischenlager müssen zwischen der Lagerung verschiedener Produkte gereinigt werden. Die Dauer der Reinigung hängt jeweils von den bearbeiteten bzw. gelagerten Produkten ab. In der Fallstudie sind Bedarfe für die einzelnen Produkte in den verschiedenen Verpackungsformen für 10 Wochen vorgegeben. Die im vorliegenden Beitrag betrachtete Problemstellung besteht darin, für die einzelnen Wochen Belegungspläne der Anlage zu ermitteln, so dass alle Bedarfe termingerecht gedeckt werden, alle technologischen Restriktionen eingehalten werden und die Zykluszeit minimiert wird. Für diese Problemstellung stellen wir ein Prioritätsregelverfahren vor. Bei diesem Verfahren werden die zur Erfüllung der Bedarfe notwendigen Ausführungen der einzelnen Prozessschritte unter Beachtung der technologischen Restriktionen sukzessive eingeplant. Die Reihenfolge der Einplanung wird durch Prioritätswerte bestimmt, die den Prozessschritten durch eine Prioritätsregel zugewiesen werden. Dieses Schema zur Generierung zulässiger Pläne liegt auch den meisten Metaheuristiken zur operativen Produktionsplanung zu Grunde, die in vielen APS zum Einsatz kommen (vgl. Bartsch und Bickenbach 2002; Fleischmann und Meyr 2003; Günther und Tempelmeier 2003). Der Beitrag ist wie folgt gegliedert: Im Anschluss an die Einleitung beschreiben wir in Abschnitt 2 die bereits erwähnte Fallstudie und das im vorliegenden Beitrag betrachtete Planungsproblem. In Abschnitt 3 geben wir einen Überblick über in der Literatur vorgeschlagene Lösungsansätze für ähnliche Problemstellungen. In Abschnitt 4 stellen wir das Prioritätsregelverfahren zur Belegungsplanung der Make&Pack-Anlage vor. In Abschnitt 5 berichten wir über Ergebnisse einer experimentellen Performance-Analyse dieses Verfahrens. Der Beitrag schließt mit einer Zusammenfassung und einem Ausblick auf künftige Entwicklungen in Abschnitt 6.
Belegungsplanung einer Make&Pack-Anlage
2
225
Fallstudie
Die Daten zu der im vorliegenden Beitrag betrachteten Fallstudie wurden von der Firma Procter & Gamble zur Verfügung gestellt. Abbildung 1 zeigt schematisch den Aufbau der Make&Pack-Anlage (vgl. auch Honkomp et al. 2000). Die Make-Stufe besteht aus 3 Premix- und 6 FinalmixBehältern, wobei jeweils zwei Finalmix-Behälter einem Premix-Behälter fest zugeordnet sind. Die Make- und die Pack-Stufe sind durch 80 Zwischenlagertanks voneinander getrennt. Die Pack-Stufe besteht aus 7 Packstraßen. Auf der Anlage können 59 verschiedene Endprodukte hergestellt werden, die jeweils in verschiedenen Varianten verpackt werden können. In der Fallstudie ist für 10 Wochen jeweils die Nachfrage für 203 verschiedene Kombinationen aus Endprodukt und Verpackungsvariante gegeben. Die Nachfrage für die einzelnen Kombinationen variiert unsystematisch zwischen 0 und 228,11 ME.
Make-Stufe
FM1
Zwischenlager
Pack-Stufe
S1
PM1
PL1 PL2
FM2 S2
…
PL5 S79
PM3 FM6
S80
PremixBehälter x
FMx
FinalmixBehälter x
Sx
Zwischenlagertank x
PLx
Packstraße x
PL4
FM4
FM5
PMx
PL3
FM3 PM2
Legende:
PL6 PL7
Abb. 1. Aufbau der Make&Pack-Anlage
Die Herstellung und Verpackung eines beliebigen Endprodukts läuft wie folgt ab (vgl. Abbildung 2): • Produktionsprozess (Make-Stufe): In einem Premix-Behälter wird aus Rohstoffen durch Ausführung eines Prozessschritts (PS1) ein Vorprodukt erzeugt. Für jedes Vorprodukt ist gegeben, welche der PremixBehälter zur Produktion genutzt werden können. Unmittelbar nach dem Ende des Prozessschritts wird das Vorprodukt in einen Finalmix-
226
C.-U. Fündeling, N. Trautmann
Behälter umgefüllt (UF). Dort werden durch Ausführung eines weiteren Prozessschritts (PS2) aus dem Vorprodukt und weiteren Rohstoffen 10 ME des Endprodukts hergestellt. Bei einigen Endprodukten entfällt der erste Prozessschritt; in diesem Fall findet die gesamte Produktion im Finalmix-Behälter statt. Die Prozessschritte zur Herstellung des Vor- bzw. des Endprodukts laufen diskontinuierlich ab, d.h., während der Ausführung werden keine Stoffe zu- oder abgeführt. Das Umfüllen dagegen läuft kontinuierlich ab; während des Umfüllens sind also beide beteiligten Behälter belegt. Die Vor- und Endprodukte sind verschiedenen Produktgruppen zugeordnet. Zwischen der Herstellung von Produkten aus verschiedenen Produktgruppen muss der benutzte Apparat, d.h. der Premix- bzw. Finalmix-Behälter, gereinigt werden. Die Dauer der einzelnen Prozessschritte hängt vom Produkt, nicht aber vom belegten Apparat ab. • Zwischenlagerung: Unmittelbar nach dem Ende des Prozessschritts im Finalmix-Behälter wird das Endprodukt in einen oder in zwei Zwischenlager-Tanks umgefüllt (UF). Sechs der Zwischenlagertanks haben ein Fassungsvermögen von 10 ME. Die übrigen Zwischenlagertanks haben ein Fassungsvermögen von 5 ME. Bezüglich der Tankwahl gibt es keine Einschränkungen. In einem Tank dürfen allerdings nicht verschiedene Produkte gleichzeitig gelagert werden. Ein Produkt darf nur in einen leeren Tank eingefüllt werden. Vor dem Befüllen muss der Tank gereinigt werden. Ein Tank darf nicht gleichzeitig gefüllt, gereinigt oder geleert werden. Während der Lagerung härtet das Produkt aus, so dass eine produktabhängige untere Schranke tL für die Verweilzeit des Produkts im Tank gegeben ist. • Verpackungsprozess (Pack-Stufe): Durch Ausführung eines Prozessschritts (PS3 bzw. PS4) auf einer der Packstraßen werden 5 ME des Endprodukts verpackt. Aus prozesstechnischen Gründen können bestimmte Endprodukte in bestimmten Varianten nicht auf allen Packstraßen verpackt werden. Die Dauer des Verpackens hängt von der verwendeten Packstraße ab. Während des Verpackens wird das Endprodukt kontinuierlich dem Zwischenlagertank entnommen. Zwischen der Verpackung von Produkten aus verschiedenen Produktgruppen bzw. in verschiedenen Varianten muss der benutzte Apparat, d.h. die Packstraße, gereinigt bzw. umgerüstet werden. Von den Rohstoffen sind unbegrenzte Mengen verfügbar. Die Lagerbehältnisse für die verpackten Endprodukte sind nicht kapazitiv beschränkt. Die Anzahl der notwendigen Ausführungen der Prozessschritte ergibt sich durch eine einfache Rückwärtsrechnung. Insgesamt sind pro Woche zwischen 679 und 917 Ausführungen von Prozessschritten zu planen. Die
Belegungsplanung einer Make&Pack-Anlage
227
im vorliegenden Beitrag betrachtete Problemstellung besteht darin, für jede Ausführung eines Prozessschrittes einen Apparat und einen Startzeitpunkt zu wählen, so dass alle technologischen Randbedingungen eingehalten werden und die gesamte Zykluszeit minimiert wird.
PM1
PS1
UF t
FM2
UF
PS2
Legende:
UF t
S35
10 ≥
tL t
PL4
PS3 t
PL6
PM1 FM2 S35 PL4 PL6
Premix-Behälter 1 Finalmix-Behälter 2 Zwischenlagertank 35 Packstraße 4 Packstraße 6 Reinigung bzw. Umrüstung
PS4 t
Abb. 2. Herstellung und Verpackung eines Endprodukts
3
Literatur
In der Literatur wurde eine Vielzahl von Modellen und Lösungsverfahren zur operativen Produktionsplanung veröffentlicht; für einen Überblick verweisen wir auf Brucker (2004). Mit der Belegungsplanung von Make&Pack-Anlagen befassen sich nur wenige Arbeiten, auf die wir im Folgenden kurz eingehen wollen. Belarbi und Hindi (1992) stellen ein Verfahren zur Belegungsplanung einer Make&Pack-Anlage mit kapazitiv begrenzten Zwischenlagern vor. Die Materialflüsse auf der Pack-Stufe sind diskontinuierlich. Auf der Make-Stufe treten sowohl kontinuierliche als auch diskontinuierliche Materialflüsse auf. Bei der betrachteten Problemstellung werden Mitarbeiter und Handlingeinrichtungen zur Ausführungen von Prozessschritten benötigt. Für die Verweilzeit der Produkte in den Zwischenlagern wird keine untere Schranke berücksichtigt. Die Belegungsplanung der Anlage erfolgt iterativ, bis eine zulässige Lösung gefunden wird, und in jeder Iteration sukzessiv, wobei die Belegung der Pack-Stufe als Vorgabe in die Belegungsplanung der Make-Stufe eingeht. Die Teilprobleme werden mit Hilfe von Branch-and-Bound-Verfahren gelöst. Im Rahmen einer PerformanceAnalyse werden zwei Beispiele gelöst, die jeweils ca. 30 Ausführungen
228
C.-U. Fündeling, N. Trautmann
von Prozessschritten umfassen. Über die Rechenzeiten werden keine Angaben gemacht. Ramudhin und Ratliff (1995) betrachten einen Anwendungsfall aus der Nahrungsmittelindustrie. Aus Hygienegründen müssen die Endprodukte nach der Herstellung sofort verpackt werden, so dass kein Zwischenlager existiert. Zur Lösung des Problems werden ein einfaches Prioritätsregelverfahren sowie eine auf einer Lagrange-Relaxation beruhende Heuristik entwickelt. Für Testinstanzen mit bis zu 300 Ausführungen von Prozessschritten geben die Autoren Rechenzeiten von bis zu 140 Sekunden auf einem Macintosh IIci an. Méndez und Cerdà (2002) formulieren das Problem der Belegungsplanung von Make&Pack-Anlagen als gemischt-ganzzahliges lineares Optimierungsproblem. In der zu Grunde gelegten Problemstellung sind alle Materialflüsse kontinuierlich, und die Zwischenlager sind kapazitiv nicht beschränkt. Die größte in der Arbeit betrachtete Probleminstanz umfasst 53 Ausführungen von Prozessschritten. Zur Verkürzung der Rechenzeiten wird die Menge der zulässigen Lösungen des Optimierungsproblems verkleinert, indem z.B. bestimmte Reihenfolgen der Herstellung verschiedener Produkte ausgeschlossen oder vorgegeben werden. Mit Hilfe dieser heuristischen Vereinfachung können in wenigen Sekunden Rechenzeit zulässige Lösungen auf einem 1GHz-PC ermittelt werden. Gupta und Karimi (2003) entwickeln eine alternative Modellierung des Problems der Belegungsplanung von Make&Pack-Anlagen als gemischtganzzahliges lineares Optimierungsproblem. Sie gehen dabei von rein diskontinuierlichen Materialflüssen und kapazitiv unbeschränkten Zwischenlagern aus. Zwischen Prozessschritten verschiedenartiger Produkte müssen die belegten Apparate umgerüstet werden. Nachliegezeiten von Produkten werden nicht betrachtet. Zur Lösung einer Probleminstanz mit 90 Ausführungen von Prozessschritten wird eine Rechenzeit von mehr als 40 Minuten auf einer 400MHz-SUN-Workstation benötigt, was mit der großen Anzahl von Binärvariablen begründet wird.
4
Lösungsverfahren
Die in der Literatur angegebenen Rechenzeiten lassen vermuten, dass eine Modellierung und Lösung des Problems der Belegungsplanung der in Abschnitt 2 beschriebenen Make&Pack-Anlage als gemischt-ganzzahliges lineares Optimierungsproblem auf Grund der großen Anzahl zu planender Ausführungen von Prozessschritten nicht zielführend ist. Deshalb schlagen wir im Folgenden ein Prioritätsregelverfahren zur Anlagenbelegungspla-
Belegungsplanung einer Make&Pack-Anlage
229
nung vor. Ein Vorteil eines Prioritätsregelverfahrens ist, dass es sehr schnell gute zulässige Lösungen für Ablaufplanungsprobleme finden kann (vgl. z.B. Franck et al. 2001). Das Verfahren beruht auf dem Prinzip, die zur Erfüllung der Bedarfe notwendigen Ausführungen der einzelnen Prozessschritte unter Beachtung der technologischen Restriktionen sukzessive einzuplanen. Vor der Einplanung werden den Prozessschritten auf der Pack-Stufe Prioritätswerte zugeordnet. Auf die dabei verwendeten Prioritätsregeln gehen wir am Ende dieses Abschnitts ein. Eine Iteration des Verfahrens läuft dann wie folgt in drei Schritten ab: • In Schritt 1 wird die Ausführung eines noch nicht eingeplanten Prozessschrittes auf der Pack-Stufe mit dem kleinsten Prioritätswert (Verpackung von 5 ME eines Endprodukts) zum spätestmöglichen Zeitintervall eingeplant. Dabei wird die Randbedingung, dass das zu verpackende Endprodukt vorher hergestellt und hinreichend lange gelagert worden sein muss, vorerst außer Acht gelassen. Die Einhaltung dieser Randbedingung wird in Schritt 3 sichergestellt. Die Einplanung erfolgt so, dass sichergestellt ist, dass ein Zwischenlagertank l1 existiert, in dem 5 ME des zu verpackenden Endprodukts hinreichend lange gelagert werden können. • In Schritt 2 wird die Ausführung eines noch nicht eingeplanten Prozessschrittes auf der Pack-Stufe mit dem kleinsten Prioritätswert (Verpackung weiterer 5 ME des gleichen Endprodukts) zum spätestmöglichen Zeitintervall eingeplant. Die Randbedingung der Materialverfügbarkeit wird wieder außer Acht gelassen. Die Einplanung erfolgt so, dass ein Zwischenlagertank l2 existiert, in dem 5 ME des zu verpackenden Endprodukts hinreichend lange gelagert werden können. Bei l1 und l2 kann es sich um zwei verschiedene Tanks mit einem Fassungsvermögen von 5 ME oder um einen Tank mit einem Fassungsvermögen von 10 ME handeln. Bei der Wahl von l1 und l2 muss aber beachtet werden, dass die Lagerung der insgesamt 10 ME des Endprodukts zum gleichen Zeitpunkt startet, da sie als Ganzes hergestellt werden. • In Schritt 3 wird die Ausführung der beiden entsprechenden Prozessschritte auf der Make-Stufe (Herstellung von 10 ME des Endprodukts) zum spätestmöglichen Zeitintervall eingeplant. In allen drei Schritten werden (mit Ausnahme der Materialverfügbarkeit in den Schritten 1 und 2) jeweils alle in Abschnitt 2 beschriebenen Randbedingungen beachtet. Wird in einem Schritt kein zulässiges Zeitintervall zur Ausführung eines Prozessschrittes gefunden, so werden die in den vorangehenden Schritten bereits eingeplanten Ausführungen der Prozess-
230
C.-U. Fündeling, N. Trautmann
schritte zeitlich geeignet vorgezogen. Die Schritte 1 bis 3 werden so lange wiederholt, bis alle zur Deckung der Bedarfe notwendigen Ausführungen der Prozessschritte eingeplant worden sind. Der Zielfunktionswert der mit diesem Verfahren gefundenen Lösung hängt von der Reihenfolge der Einplanung und somit von der verwendeten Prioritätsregel ab. Im ungünstigsten Fall kann es sogar sein, dass die Zykluszeit die Länge des Planungszeitraums überschreitet, d.h., dass keine zulässige Lösung gefunden wird. Zur Zuordnung von Prioritätswerten zu den Prozessschritten verwenden wir eine mehrstufige Prioritätsregel. Stimmen zwei Prozessschritte bezüglich des Sortierkriteriums auf der ersten Stufe überein, so wird anschließend die zweite Stufe betrachtet usw. Folgende Sortierkriterien haben wir untersucht: • SWF (Smallest Wash-out Family): Die Sortierung erfolgt entsprechend den Produktgruppen der bearbeiteten Endprodukte. Zwei Prozessschritte stimmen genau dann bezüglich des Sortierkriteriums überein, wenn die bearbeiteten Produkte der gleichen Produktgruppe angehören. • SCF (Smallest Change-over Family): Die Sortierung erfolgt entsprechend den Verpackungsvarianten. • LMS (Least Manufacturing units Suitable): Die Sortierung erfolgt entsprechend der Anzahl alternativer Apparate der Make-Stufe, in denen das Endprodukt hergestellt werden kann. • LPS (Least Packing lines Suitable): Die Sortierung erfolgt entsprechend der Anzahl alternativer Apparate der Pack-Stufe, die zur Verpackung des Endprodukts verwendet werden können. Als Sortierkriterium auf der letzten Stufe verwenden wir Realisationen einer gleichverteilten Zufallsvariable.
5
Experimentelle Performance-Analyse
Das in Abschnitt 4 beschriebene Prioritätsregelverfahren haben wir in der Programmiersprache Ansi-C implementiert. Im Rahmen einer experimentellen Performance-Analyse haben wir untersucht, mit welchen Kombinationen der Sortierkriterien gute zulässige Lösungen für die Fallstudie aus Abschnitt 2 ermittelt werden können. Die Testrechnungen haben wir auf einem PC mit 2,8GHz-Pentium-Prozessor und 256MB RAM durchgeführt. Für die Erzeugung eines Belegungsplans der Anlage benötigt das Verfahren eine Rechenzeit von ca. 0,1 Sekunden.
Belegungsplanung einer Make&Pack-Anlage
231
Für jede der 10 Wochen, für die Nachfragedaten gegeben sind, haben wir für jede der 64 Kombinationen aus den verschiedenen Prioritätsregeln 100 Durchläufe des Verfahrens gestartet. Bei jedem Durchlauf wurden neue Realisationen der Zufallsvariablen ermittelt, die als Sortierkriterium auf der letzten Stufe in die Prioritätsregel eingehen. 8500
Zykluszeit
8000 7500 7000 6500 6000 1
2
3
4
5
6
7
8
9
10
Woche LMS-SCF-SWF
LMS-SCF-SWF-LPS
LMS-SCF-LPS-SWF
Abb. 3. Zielfunktionswerte der Lösungen der besten Prioritätsregeln
Die besten zulässigen Lösungen wurden mit den Sortierkriterien LMS (1. Stufe) und SCF (2. Stufe) gefunden. Abbildung 3 zeigt die Zielfunktionswerte der für die einzelnen Wochen gefundenen Lösungen bei Verwendung der Kriterien SWF/Zufall, SWF/LPS und LPS/SWF auf der 3. bzw. 4. Stufe der Prioritätsregel. Bei Verwendung anderer Prioritätsregeln wurden Belegungspläne ermittelt, deren Zykluszeit bis zu 41% länger als die des besten gefundenen Plans ist und somit die Länge des Planungszeitraums deutlich übersteigt. Dies verdeutlicht, dass die Verwendung quantitativer Methoden zur Planung der Belegung der Make&Pack-Anlage aus der Fallstudie aus Abschnitt 2 zu einer deutlich effizienteren Ausnutzung der Produktionskapazität führen kann. Bei einer schlechten Planung kann sogar der Fall eintreten, dass die Nachfrage nicht vollständig gedeckt werden kann, obwohl die Produktionskapazität dazu ausreicht. Abbildung 4 zeigt das Gantt-Chart des besten gefundenen Anlagenbelegungsplans für die erste Woche.
232
C.-U. Fündeling, N. Trautmann
Abb. 4. Gantt-Chart der besten gefunden Lösung für Woche 1
6
Zusammenfassung und Ausblick
Im vorliegenden Beitrag haben wir ein Prioritätsregelverfahren zur Belegungsplanung einer Make&Pack-Anlage vorgestellt. Das Verfahren basiert auf einem ähnlichen Schema zur Generierung zulässiger Pläne wie die meisten Metaheuristiken, die in Advanced-Planning-Systemen zum Supply-Chain-Management verwendet werden. Im Rahmen einer experimentellen Performance-Analyse haben wir die Leistungsfähigkeit des Prioritätsregelverfahrens an Hand einer Fallstudie aus der Konsumgüterindustrie untersucht. Es hat sich gezeigt, dass mit dem Prioritätsregelverfahren innerhalb einer Rechenzeit von weniger als einer Sekunde zulässige Lösungen für die Fallstudie gefunden werden. Uns ist nicht bekannt, dass mit anderen Verfahren zulässige Lösungen gefunden worden sind. Erweiterungsmöglichkeiten des vorgestellten Ansatzes ergeben sich durch Verallgemeinerungen der Problemstellung, beispielsweise durch Berücksichtigung konvergierender Materialflüsse oder von Verfallszeiten von Produkten oder durch Betrachtung weiterer Zielkriterien, beispielsweise der Minimierung der Umrüst- und Reinigungszeiten. Interessant erscheint
Belegungsplanung einer Make&Pack-Anlage
233
uns auch die Untersuchung, ob die im vorliegenden Beitrag betrachtete Fallstudie mit einem kommerziellen APS gelöst werden kann, und wie gut die gefundenen Lösungen im Vergleich mit den Lösungen sind, die mit dem im vorliegenden Beitrag vorgestellten Prioritätsregelverfahren gefunden werden.
Literatur Bartsch H, Bickenbach P (2002) Supply Chain Management mit SAP APO. Galileo Press., Bonn Belarbi K, Hindi KS (1992) Detailed scheduling for a class of two-stage intermittent manufacturing systems. Production Planning & Control 3: 36–47 Brucker P (2004) Scheduling Algorithms, 4. Aufl. Springer, Berlin Fleischmann B, Meyr H (2003) Planning hierarchy, modeling and advanced planning systems. In: de Kok AG, Graves SC (Hrsg), Supply Chain Management: Design, Coordination and Operation. Handbooks in Operations Research and Management Science 11, pp 457–523. Elsevier, Amsterdam Franck B, Neumann K, Schwindt C (2001) Truncated branch-and-bound, schedule-construction, and schedule-improvement procedures for resource-constrained project scheduling. OR Spektrum 23: 297–324 Günther HO, Tempelmeier H (2005) Produktion und Logistik, 6. Aufl. Springer, Berlin Gupta S, Karimi IA (2003) Scheduling a two-stage multiproduct process with limited product shelf life in intermediate storage. Industrial Engineering & Chemistry Research42: 490–508 Honkomp SJ, Lombardo S, Rosen O, Pekny JF (2000) The curse of reality — why process scheduling optimization problems are difficult in practice. Computers and Chemical Engineering 24: 323–328 Méndez CA, Cerdá J (2002) An MILP-based approach to the short-term scheduling of make-and-pack continuous production plants. OR Spectrum 24: 403– 429 Ramudhin A, Ratliff HD (1995) Generating daily production schedules in process industries. IIE Transactions 27: 646–656 Rohde J, Meyr H, Wagner M (2000) Die Supply Chain Planning Matrix. PPSManagement 5: 10–15 Stadtler H, Kilger C (Hrsg) (2002) Supply Chain Management and Advanced Planning. Springer, Berlin
Optimierung der Südzucker Rübenlogistik mittels iterativer linearer Programmierung Steffen Lukesch Südzucker AG Mannheim/Ochsenfurt, Maximilianstr. 10, 68165 Mannheim
Abstract Die Südzucker AG verarbeitet in Deutschland pro Jahr zehn Millionen Tonnen Zuckerrüben. Produziert wird an elf Standorten in der Zeit zwischen Mitte September und Ende Dezember. Auf Grund der unterschiedlichen Witterungsbedingungen in den Anbauregionen kommt es jedes Jahr zu unterschiedlichen Rübenmengen in den Anbaugemeinden. Das mit den Rübenanbauern vertraglich vereinbarte Vergütungssystem für die Lieferung der Rüben zu einem bestimmten Zeitpunkt führt zu einer nichtlinearen Zielfunktion und einer komplexen Struktur von Nebenbedingungen, die das Optimierungssystem einzuhalten hat. In diesem Beitrag wird eine Heuristik vorgestellt, die in einem iterativen Ansatz eine kostenoptimierte Zuordnung der Rübenmengen auf die vorhandenen Produktionskapazitäten an den Südzucker Standorten unter den gegebenen Nebenbedingungen ermittelt.
1
Einleitung
Die kostenoptimale Verteilung der Zuckerrüben auf die Produktionswerke ist die wichtigste operative Aufgabe im Bereich der Südzucker Logistik. Auf einer Fläche von etwa 175.000 ha werden im süddeutschen Raum und in den neuen Bundesländern Zuckerrüben von Landwirten angebaut (vgl. Abbildung 1), die Lieferverträge mit der Südzucker AG abgeschlossen haben und damit über eine Abnahmegarantie ihrer Rüben verfügen. Auf dieser Fläche wachsen je nach Wachstumsbedingungen zwischen zehn und elf Millionen Tonnen Zuckerrüben pro Jahr, die in einem Zeitraum von etwa 85 Tagen geliefert und verarbeitet werden müssen. Die Entscheidung über
236
S. Lukesch
die Zuordnung der Rübenanbauflächen zu den elf Südzucker Verarbeitungswerken stellt sich vor jeder Kampagne neu, da die unterschiedlichen Witterungsbedingungen in den Anbauregionen zu teilweise drastischen Unterschieden im Rübenertrag führen (Vgl. Strohm 1999). Im Trockenjahr 2003 brach der durchschnittliche Hektarertrag in einigen Regionen um 35% ein, während in anderen Regionen nur Einbußen von 6% zu verzeichnen waren. Um unter diesen Bedingungen eine kosteneffektive Zuckererzeugung zu gewährleisten, wurde das in diesem Bericht vorgestellte Optimierungsverfahren entwickelt. Obwohl die dabei zur Anwendung kommende Lösung iterativ angepasster LP-Modelle das Auffinden der optimalen Lösung des nichtlinearen Problems nicht garantieren kann, genügt die erreichte Ergebnisqualität völlig, um die Ziele der Planungsrechnungen zu erreichen. In der OR-Literatur finden sich einige Arbeiten, die sich mit der Lösung ähnlich strukturierter Transport- bzw. Netzwerkflussprobleme mit nichtlinearen Kostenfunktionen beschäftigen (z.B. Bertsekas et al. 1997). Dabei zeigt sich die lineare Approximation der Zielfunktion in einem iterativen Lösungsprozess als ein bewährtes Verfahren in dieser Problemklasse. (Vgl. Kim und Pardalos 1999, Paraschis 1989)
Abb. 1. Rübenanbaugebiete und Werksstandorte der Südzucker
Optimierung der Südzucker Rübenlogistik
2
237
Planungsumfeld
Wie in den meisten praktischen Betätigungsfeldern müssen sich die mathematischen Methoden des OR in ein komplexes Entscheidungsumfeld gewachsener Strukturen einfügen, um von den Planern akzeptiert zu werden. Nur durch die Akzeptanz der Planer kann ein System zur Entscheidungsunterstützung seinen vollen Nutzen erbringen. 2.1 Planungsprozess Der betrachtete Planungsprozess gliedert sich bei der Südzucker AG in mehrere Phasen. In der ersten Phase werden auf Grund von Proberodungen die erwarteten Hektarerträge in den verschiedenen Anbauregionen ermittelt. Auf Basis dieser Daten werden die erwarteten Rübenerträge der einzelnen Anbaugemeinden hochgerechnet. Diese Mengen stellen die Grundlage für die Modellrechnungen in der nächsten Phase dar. In der letzten Phase nutzen die Mitarbeiter des Geschäftsbereichs Zuckerrüben die Ergebnisse der Modellrechnungen, um die Lieferwerke für alle Rübenanbauer, den Kampagnestart und die Kampagnedauer festzulegen. Damit ist die wichtigste Entscheidung im Bereich der Südzucker Logistik getroffen, denn mit der Zuordnung der Rüben auf die Werke, sind die Auslastung der Werke und Lager, sowie die verfügbare Zuckermenge an den Standorten definiert und damit wesentliche Kostenpositionen des Kampagnejahres1 fixiert. 2.2 Problemstellung Das Planungsmodell ist als lineares Programm formuliert, welches unter Berücksichtigung der vorhandenen Verarbeitungskapazitäten auf jeder Iterationsstufe ein kostenminimales Ergebnis liefert. Dabei werden Transport-, variable Produktions-, Prämien- und Mietenkosten berücksichtigt. Die letzten beiden (eigentlich nichtlinearen) Kostenblöcke erfordern eine genauere Betrachtung, da in ihnen die Begründung für die iterative Wiederholung der LP-Rechnungen zu finden ist.
1
Kampagnejahr: 12 Monate, gerechnet vom Beginn einer Kampagne bis zum Start der Folgekampagne.
238
S. Lukesch
2.2.1 Das Südzucker Vergütungsmodell für Zuckerrüben2 In jedem Liefervertrag zwischen einem Rübenanbauer und der Südzucker AG ist eine so genannte Garantiemenge fixiert. Für diese Liefermenge erhält der Rübenanbauer den vollen Rübenpreis. In aller Regel wird der Landwirt auf einer Ackerfläche Rüben anbauen, die eher zu einer Überdeckung als zu einer Unterdeckung der Garantiemenge führen wird, da er seine vertraglichen Lieferrechte voll ausschöpfen muss, wenn er seinen Gewinn maximieren will. Liefert der Landwirt eine Rübenmenge ab, die die Garantiemenge übersteigt, so erhält er für die Differenzmenge (die so genannte C2-Menge) nur eine geringere Vergütung. Da diese Kosten nicht entscheidungsrelevant sind werden sie im Modell nicht berücksichtigt. Allerdings ist die Unterscheidung in Garantiemenge (GAME) und C2-Menge deswegen wichtig, weil sie sich auf die Zahlung von Früh- und Spätlieferprämien, sowie auf die Kostenerstattung für die Mietenabdeckung3 auswirkt. Früh- und Spätlieferprämie/Mietenpflege Da im Lieferzeitraum an einem Standort etwa 40 bis 60 LKWs pro Stunde entladen werden müssen, wird die Reihenfolge der Rübenanlieferungen im Vorfeld der Kampagne genau geplant, um einen Stau vor dem Werk zu vermeiden und die Kapazität gleichmäßig auszulasten. Dadurch ist es notwendig, dass einige Anbauer ihre Rübenmengen besonders früh bzw. spät im Kampagnezeitraum abliefern. Rüben die besonders früh geerntet werden müssen, haben noch nicht ihr volles Ertrags- und Qualitätspotential erreicht. Da im Prinzip nur der gewichtsmäßige Zuckeranteil der Rübe bezahlt wird, entgeht dem Anbauer durch die Notwendigkeit der frühen Anlieferung ein Teil seines Ertrages. Um diesen Minderertrag auszugleichen erhält der Landwirt für jede Tonne besonders früh gelieferte Rüben eine Frühlieferprämie (vgl. Abbildung 2). Allerdings wird die Frühlieferprämie nur für gelieferte Rübenmengen bis zur Garantiemenge bezahlt. Für C2-Rüben wird keine Frühlieferprämie ausgezahlt. Die vor der Abholung am Feldrand gelagerten Rüben müssen vom Landwirt ab Mitte November zum Schutz vor Nachernteverlusten und Frostschäden mit einem Flies abgedeckt werden (vgl. Strohm 1999). Für diesen Aufwand erhält der Anbauer für Garantiemenge-Rüben eine Spät2
3
Das Vergütungsmodell wird hier nur in Auszügen und teilweise vereinfachend dargestellt, da eine Darstellung der vollen Komplexität der Bezahlungsmodalitäten nicht Thema dieses Beitrags ist und für sein Verständnis auch nicht notwendig ist. Unter einer Miete versteht man die geernteten, aber noch am Feldrand gelagerten Rüben.
Optimierung der Südzucker Rübenlogistik
239
lieferprämie, für C2-Rüben erhält er einen geringeren Satz, der als Mietenpflege bezeichnet wird.
Betrag in Euro pro Tonne
14 12 10
Frühlieferpräm ie
8
Spätlieferpräm ie
6
Mietenpflege
4 2 0 1. Sep.
1. Okt.
31. Okt.
30. Nov.
30. Dez.
Abb. 2. Prämien für frühe und späte Lieferung, sowie Mietenpflege
Festzuhalten bleibt, dass es zwei verschiedene Rübenmengen je Anbaugemeinde gibt, die mit unterschiedlichen, vom Lieferzeitpunkt abhängigen und entscheidungsrelevanten Kosten in das Modell eingehen. Verteilung von GAME- und C2-Rüben bei der Anlieferung In der Regel wird nicht die gesamte Rübenmenge eines Anbauers an einem Tag angeliefert. Im Falle mehrerer Anlieferungen werden die gelieferten Rüben solange als GAME-Rüben gebucht, bis die Garantiemenge erreicht ist. Rüben die über diese Menge hinaus geliefert werden, sind als C2Rüben zu buchen. Diese Vorgehensweise führt dazu, dass am Anfang der Kampagne fast ausschließlich GAME-Rüben geliefert werden und der gelieferte C2-Anteil mit steigender Kampagnedauer wächst (vgl. Abbildung 3). 100% 80% 60% 40% 20% 0% 6. Sep. 26. Sep. 16. Okt.
5. Nov. 25. Nov. 15. Dez.
Abb. 3. Charakteristischer Verlauf des C2-Anteils an den Lieferungen
240
S. Lukesch
Der tatsächlich an einem bestimmten Kampagnetag gelieferte C2-Anteil ist vor allem von der Güte der Ernte in der Anbauregion abhängig, da in Jahren mit regional hohem Hektarertrag insgesamt mehr C2-Rüben anfallen. Dadurch ist eine Bestimmung des tatsächlich zu erwartenden C2Verlaufs vor der Optimierung nicht präzise möglich, weil es die Optimierung selbst ist, die die Lieferwerke für die Anbauregionen bestimmen soll. Es bleibt also festzustellen, dass sich das Mengenverhältnis von GAME zu C2-Rüben bei den täglichen Lieferungen zwar auf die entscheidungsrelevanten Kosten auswirkt, im Planungsszenario aber nicht genau ermittelt werden kann. 2.2.2 Folgen des Vergütungssystems für die Optimierung In den beiden voranstehenden Abschnitten wurde erläutert, dass Kosten für Prämien und Mietenpflege zwar entscheidungsrelevant sind, aber von der Planung nur durch eine Näherung erfasst werden können. Dies geschieht durch die Vorgabe von Kurven, die den jeweiligen C2-Anteil an den Liefermengen für jedes Werk an jedem Kampagnetag individuell definieren. Der Kurvenverlauf wird aus Vergangenheitsdaten abgeleitet und im Verlauf des iterativen Algorithmus schrittweise an die Verhältnisse der beplanten Kampagne angepasst. Dieser Sachverhalt wird im Rahmen der Algorithmen-Beschreibung noch näher erläutert.
3
Optimierungsalgorithmus
Die Beschreibung des Optimierungsalgorithmus gliedert sich in zwei Teile. Zuerst wird das eingesetzte LP-Modell beschrieben, danach folgt die Beschreibung der einzelnen Phasen des iterativen Planungsprozesses. 3.1 LP-Modell In diesem Abschnitt werden die wichtigsten Teile des verwendeten LPModells beschrieben. Das Modell umfasst (je nach Szenario) 85.000 bis 90.000 Variablen und 13.000 bis 14.000 Nebenbedingungen. Verwendete Indizes und Indexmengen: a∈ A Anbaugemeinden w∈ W Verarbeitungswerke t ∈T Produktionsperioden (Ein Kalendertag)
Optimierung der Südzucker Rübenlogistik
241
Parameter: vw Variable Produktionskosten von Werk w
pt mt f aw Kw z wt Ra
Früh- bzw. Spätlieferprämie für GAME-Rüben in Periode t Kosten für Mietenpflege für C2-Rüben in Periode t Frachtkosten für Transporte von Anbaugemeinde a zu Werk w Tagesverarbeitungskapazität von Werk w Anteil C2-Rüben der Tageskapazität von Werk w in Periode t Gesamte zu liefernde Rübenmenge (GAME und C2) von Gemeinde a Anteil GAME-Rüben der zu liefernden Rübenmenge von Gemeinde a
sa
Entscheidungsvariablen: raw Gesamte gelieferte Rübenmenge von Anbaugemeinde a zu Werk w g wt Verarbeitete Menge GAME-Rüben im Werk w in Periode t
cwt
Verarbeitete Menge C2-Rüben im Werk w in Periode t
Modellformulierung:
∑f
min
a∈A, w∈W
aw
⋅ raw +
Transport
∑ v ⋅ (g
w∈W ,t∈T
w
wt
+ cwt ) +
Produktion
∑ p ⋅g
w∈W ,t∈T
t
Prämien
wt
+
∑ m ⋅c
w∈W ,t∈T
t
wt
Mietenpflege
u.d.N.
∑r
w∈W
∑s a∈A
aw
a
= Ra
⋅ raw ≤ ∑ g wt
Abnahme der gesamten Rübenmenge
∀ w∈W
Verarbeitung aller GAME-Rüben
t∈T
∑ (1 − s )⋅ r a∈A
∀ a∈ A
a
aw
≤ ∑ cwt ∀ w∈W
Verarbeitung aller C2-Rüben
t∈T
g wt + cwt ≤ K wt
∀ w ∈W , t ∈ T
Einhalten der Gesamtkapazität
g wt ≤ (1 − z wt ) ⋅ K wt
∀ w ∈W , t ∈ T
Einhalten der GAME-Kapazität
242
S. Lukesch
Neben diesen wichtigen Nebenbedingungen kommen je nach Optimierungsszenario noch weitere Restriktionen hinzu, die auf Grund ihrer Einfachheit aber keiner näheren Erläuterung bedürfen. Dies sind z.B.: • • • •
Vorgabe der maximalen Kampagnelänge in bestimmten Werken Vorgabe der minimalen Kampagnelänge in bestimmten Werken Vorgabe des Starttermins der Kampagne in bestimmten Werken Vorgabe des spätesten möglichen Kampagneendes in bestimmten Werken
Die Parameter z wt zwingen das Modell, einen vorgegebenen Verlauf der C2-Anteile abzubilden. Die Werte für z wt werden im Vorfeld der Optimierung aus Vergangenheitsdaten abgeleitet, werden aber den Bedingungen der tatsächlichen (aus der regionalen Erntegüte und der Zuordnung der Regionen zu den Werken folgenden) Verläufe nicht gerecht. Folge ist ein untypischer Verlauf mit nicht der Realität entsprechende Kosten für Prämien und Mietenpflege und damit ein unrealistisches Optimierungsergebnis. Abbildung 4 zeigt das Ergebnis des LP-Modells nach der ersten Berechnung. 14.000 t 12.000 t 10.000 t 8.000 t 6.000 t 4.000 t 2.000 t 0t 10. Sep. 30. Sep.
20. Okt. GAME
9. Nov. C2
29. Nov.
19. Dez.
Abb. 4. Verteilung GAME/C2 nach einem Iterationsschritt
Der Anteil angelieferter C2-Rüben steigt nur sehr langsam an, aber die letzten sechs Kampagnetage werden ausschließlich C2-Rüben angeliefert. Dies ist ein unrealistisches Ergebnis. Aus diesem Grund wird die im Modell vorgegebene Kurve schrittweise über mehrere Iterationen an die Bedingungen der betrachteten Kampagne angepasst.
Optimierung der Südzucker Rübenlogistik
243
3.2 Iterativer Algorithmus Der benutzte Algorithmus umfasst insgesamt vier Schritte (vgl. Abbildung 5). Im ersten Schritt werden die aus den Vorsystemen übernommenen Daten für die Übergabe an das LP-Modell aufbereitet. In diesem Schritt werden auch szenariospezifische Einstellungen, wie z.B. die Aktivierung/Deaktivierung verschiedener zusätzlicher Nebenbedingungen vorgenommen. Die vorgegebenen, werksindividuellen C2-Kurven werden initialisiert. Im zweiten Schritt werden die Daten an das LP-Modell übergeben und eine optimale Lösung ermittelt. 1) Datenaufbereitung
2) Optim ierung LP-Modell
Kurven O.K.?
Nein
3) Anpassung der Kurven
Ja 4) Aufbereitung Endergebnis
Abb. 5. Ablaufdiagramm iterativer Algorithmus
Im dritten Schritt wird die Abweichung zwischen den vorgegebenen C2Kurven und den vom Modell ausgegebenen C2-Kurven errechnet. Liegt die Abweichung oberhalb eines bestimmten Grenzwertes, so wird werksweise durch Stauchung/Dehnung und Hebung/Senkung der Vorgabekurve eine neue C2-Kurve für den nächsten Optimierungslauf ermittelt (vgl. Abbildung 6).
244
S. Lukesch 100% 80% 60% 40% 20% 0% 6. Sep.
26. Sep.
16. Okt.
5. Nov.
25. Nov.
15. Dez.
26. Sep.
16. Okt.
5. Nov.
25. Nov.
15. Dez.
Vorgabe
Gestaucht
100% 80% 60% 40% 20% 0% 6. Sep.
Verschoben
Gestaucht
Abb. 6. Beispielhafte Anpassung der C2-Vorgabekurven durch Stauchung und Hebung
Schritt 2 und 3 werden solange wiederholt, bis die Abweichungen für alle Werke unterhalb des Grenzwertes liegen, oder eine maximale Anzahl Iterationen erreicht ist. Je nach Szenariodesign sind zwischen 3 und 10 Iterationen notwendig, um gut angepasste C2-Kurven für alle Werke zu erreichen (vgl. Abbildung 7). 14.000 t 12.000 t 10.000 t 8.000 t 6.000 t 4.000 t 2.000 t 0t 10. Sep. 30. Sep.
20. Okt. GAME
9. Nov. C2
29. Nov.
19. Dez.
Abb. 7. Verteilung GAME/C2 am Ende des Algorithmus (Hier: 3 Iterationen)
Optimierung der Südzucker Rübenlogistik
245
Im vierten Schritt werden die vom LP-Modell zurückgelieferten Daten für die Ergebnisdarstellung aufbereitet. Neben verschiedenen Kosten- und Mengenübersichten, Daten zu Kampagnestart und -dauer, erhält die zuständige Fachabteilung eine Liste der vom Algorithmus für die Anbaugemeinden ermittelten Werke. Auf Basis dieser Daten werden die endgültigen Anbauer-Werks-Relationen für die Produktionskampagne und der Kampagnestart für jedes Werk festgelegt. Eine beispielhafte Zuordnung der Anbauflächen (aggregiert auf PLZ5) zeigt Abbildung 8.
Abb. 8. Zuordnung der Anbauflächen zu den Verarbeitungswerken (PLZ 5)
4
Technische Implementierung
Die Stammdaten der Anbauer werden auf Gemeindebene aggregiert und über eine FTP-Schnittstelle in eine MS Access-Datenbank übertragen. Zusätzliche Informationen, wie z.B. erwartete Hektarerträge, Verarbeitungskapazitäten, Kosten für Produktion, Prämien und Mietenpflege, etc. werden direkt in der Access Datenbank gepflegt. Hier werden auch die zu berechnenden Szenarien festgelegt. Die Szenarien unterscheiden sich in der Regel durch unterschiedliche maximale Kampagnedauern, veränderte Erträge oder Kapazitäten. Das LP-Modell ist in OPL-Studio implementiert
246
S. Lukesch
und wird über eine COM-Bibliothek direkt aus der MS Access-Datenbank gestartet. Der gesamte Programmcode zur Datenaufbereitung, Anpassung der C2-Kurven, Steuerung der Optimierung und Ergebnisaufbereitung ist in Visual Basic for Applications (VBA) geschrieben. Die Kommunikation zwischen OPL-Studio und der Datenbank erfolgt über ODBC. Die aufbereiteten Ergebnisse werden mittels VBA von der Datenbank in MS ExcelTabellen überführt, die dann der Fachabteilung zur Verfügung gestellt werden. In besonderen Fällen werden GIS-Auswertungen (vgl. Abbildung 8) angefertigt, um eine bessere Vorstellung von der Zuordnung Anbauregion-Werk zu erhalten. Auf diese Weise ist ein schlankes und kostengünstiges System zur Entscheidungsunterstützung im Bereich der Kampagneplanung entstanden, welches auch zur Unterstützung bei strategisch/taktischen Entscheidungen (z.B. Kapazitätsanpassungen) genutzt wird. Die Laufzeit für die Optimierung eines einzelnen Szenarios beträgt pro Iterationsschritt ca. 25 Sekunden, so dass bei im Schnitt drei bis fünf notwendigen Iterationen eine Gesamtlaufzeit von etwa zwei Minuten zu erwarten ist. Die kurze Laufzeit ermöglicht der Fachabteilung Entscheidungen durch die Berechnung vieler unterschiedlicher Szenarien gründlich vorzubereiten.
5
Fazit
Die Anwendung von OR-Methoden in der betrieblichen Praxis gewinnt zunehmend an Bedeutung. Neben dem Einsatz in APS-Systemen zeigt dieser Beitrag, dass auch der direkte Einsatz von LP-Modellen in der Industrie mit relativ geringem Aufwand ein enormes Nutzenpotential erschließen kann. Im beschriebenen Fall bringt die Kombination aus linearer Optimierung und heuristischer Anpassung der Modellparameter die in der Praxis entscheidende Akzeptanz bei den Anwendern in der Fachabteilung. Die Optimierung liefert klar nachvollziehbare Ergebnisse, welche die Qualität der Entscheidungen bei der Kampagneplanung und bei strategisch/taktischen Planungsszenarien deutlich verbessert haben.
Literatur Belenky AS (1998) Operations Research in Transportation Systems. Kluwer Academic Publishers, Dordrecht, Boston London Bertsekas DP, Polymenakos LC, Tseng P (1997) ε-Relaxation and Auction Methods for seperable convex cost Network Flow Problems. In: Hager WW, Hearn DW, Pardalos PM (Hrsg) Network optimization. Springer, Berlin Heidelberg
Optimierung der Südzucker Rübenlogistik
247
Higgins AJ (1999) Optimizing cane supply decisions within a sugar mill region. In: Burke E (Hrsg) Journal of Scheduling, vol 2, pp 229-244. John Wiley & Sons Kim D, Pardalos PM (1999) A solution approach to the fixed charge network flow problem using a dynamic slope scaling procedure. Operations Research Letters 24: 195-203. Elsevier, Amsterdam [u.a.] Paraschis I (1989) Optimale Gestaltung von Mehrprodukt-Distributionssystemen: Modelle - Methoden - Anwendungen. Physica, Heidelberg Strohm R (1999) Logistik im Zuckerrübenanbau. In: Bierwirth C, Kopfer H (Hrsg) Logistik Management, Springer, Berlin Heidelberg New York, S 41-48 Strohm R (2000) Zuckerrübenernte und -transport: Modelle zur strategischen, taktischen und operativen Logistikplanung. Agrimedia, Bergen/Dumme
Zum Einsatz von Chaku-Chaku-Systemen in der Montage konsumentennaher Erzeugnisse – eine Fallstudie bei Rahmenauftragsfertigung Thomas Spengler, Thomas Volling, Stefan Rehkopf Institut für Wirtschaftswissenschaften, Abteilung Betriebswirtschaftslehre, insb. Produktionswirtschaft, Technische Universität Braunschweig, Katharinenstr. 3, 38106 Braunschweig, {t.spengler, t.volling, s.rehkopf}@tu-braunschweig.de
Abstract Chaku-Chaku-Systeme sind manuelle Produktionszellen, die auf der Basis des Chaku-Chaku-Prinzips beruhen. Die namensgebende Bezeichnung „Chaku-Chaku“ stammt aus dem Japanischen und steht für „LadenLaden“. Das Chaku-Chaku-Prinzip beschreibt folglich eine Betriebsweise, bei der der Schwerpunkt der Tätigkeiten des beschäftigten Personals auf dem Be- und Entladen von automatisierten Montagestationen sowie dem Transport der Werkstücke liegt. Die Montage mit derartigen Systemen gestattet eine Skalierung der Leistungserstellung durch den variablen Einsatz von Personal bei (nahezu) gleich bleibender Personalproduktivität. Ermöglicht wird dadurch eine flexiblere Reaktion auf veränderte Marktbedingungen, die in der konsumentennahen Industrie u.a. durch eine hohe Unsicherheit der marktlichen Entwicklung induziert wird. Im vorliegenden Beitrag wird eine ökonomische Analyse von Chaku-Chaku-Systemen anhand einer Fallstudie bei Rahmenauftragsfertigung durchgeführt. Die Analyse zeigt, dass bei volatilen Marktbedingungen manuelle Montagesysteme bei entsprechender Gestaltung gegenüber konventionellen (automatisierten) Konzepten wirtschaftliche Vorteile aufweisen.
1
Einleitung
Die Situation in der endverbrauchernahen Industrie ist durch eine hohe Unsicherheit bezüglich der marktlichen Entwicklung gekennzeichnet. Als Konsequenz ergeben sich in der Montage als letzter Stufe der industriellen Wertschöpfung hohe Anforderungen hinsichtlich der Varianz der darzu-
250
T. Spengler, T. Volling, S. Rehkopf
stellenden Mengenleistung (Stückzahlflexibilität). Hinzu kommt, dass die fortschreitende technologische Entwicklung wie auch Verschiebungen im Konsumverhalten eine kontinuierliche Verkürzung des Zeitraums zwischen Markteinführung und Auslauf der Serienproduktion, dem so genannten Produktlebenszyklus, bewirken (Neugebauer 2000). Unternehmen sind daher mit zunehmender Frequenz gezwungen produktionstechnische Infrastrukturen für neuartige Erzeugnisse zu schaffen (Umstellungsflexibilität) sowie Maßnahmen zur Organisation der An- und Auslaufphase einzuleiten (An-/ Auslaufflexibilität). Die zunehmende Dynamik führt indes zu Problemen bei der Planung von Montagesystemen. Das Ziel konventioneller Vorgehensmodelle besteht darin, betriebswirtschaftlich effiziente Montagekonzepte für gegebene Rahmenbedingungen zu entwickeln (Lotter u. Schilling 1994). An Standorten wie Deutschland kommen dabei aufgrund hoher Kosten für den Faktor Arbeit überwiegend kapitalintensive automatisierte Montagesysteme zum Einsatz (Lay u. Schirrmeister 2001). Jedoch belegen Erfahrungen mit der Konstellation erheblicher Investitionen bei gleichzeitig unbeständigen Rahmenbedingungen die Nachteile der Hochautomatisierung eindrucksvoll. Durch ihre Komplexität sind derartige Systeme äußerst unflexibel. Ungeplante Kosten für Anlauf, technische Unterstützung sowie variantenbedingte Anpassungen führen schnell zu einem Verlust des eingangs kalkulierten ökonomischen Vorteils (Feldmann u. Junker 2003; Haller 1999). Eine mögliche Reaktion besteht darin, durch neue Lösungen im Bereich Organisation und Logistik die geforderte einfache und schnelle Anpassungsfähigkeit an sich verändernde Rahmenbedingungen darzustellen. Ansatzpunkte hierfür finden sich beispielsweise in dem aus Japan stammenden Lean Manufacturing. Bei diesem wird durch eine Abkehr von Skaleneffekten und die konsequente Fokussierung auf schlanke, prozessorientierte Strukturen eine Steigerung von Effizienz und Effektivität des Ressourceneinsatzes angestrebt (Sullivan et al. 2002). Diesem Ansatz zuzuordnen ist das unkonventionelle Konzept der Chaku-Chaku-Systeme. Chaku-Chaku-Systeme ermöglichen über weite Bereiche eine kontinuierliche Skalierung der Produktionsleistung bei nahezu konstanter Produktivität des eingesetzten Personals. Damit lässt die Berücksichtigung des Chaku-Chaku-Prinzips eine Erschließung erweiterter Freiheitsgrade bei der Definition zukünftiger Montagestrategien zu. Unbeantwortet bleibt unterdessen die Frage, in wie fern derartige Systeme gegenüber konventionellen Konzepten, wie teil- oder vollautomatisierten Montagelinien, Vorteile in Bezug auf die ökonomische Realisierung einer gegebenen Montageaufgabe aufweisen. Vor diesem Hintergrund liegt die Zielsetzung des vorliegenden Beitrags in der wissenschaftlichen Analyse von Montagesystemen
Zum Einsatz von Chaku-Chaku-Systemen in der Montage
251
nach dem Chaku-Chaku-Prinzip für die Montage von Produkten bei Rahmenauftragsfertigung, als Referenzfall volatiler Nachfragebedingungen. Hierzu gliedert sich der Beitrag wie folgt. Im Anschluss an dieses einführende Kapitel werden in Kap. 2 grundlegende Wirkungszusammenhänge im Betrachtungsbereich dargestellt. Dies sind einerseits Ursachen und Konsequenzen marktinduzierter Flexibilitätsanforderungen in der Rahmenauftragsfertigung und andererseits Strategien zur funktionalen Realisierung der Montageaufgabe. Diesem schließt sich in Kap. 3 die Erörterung des Chaku-Chaku-Prinzips als Instrument zur Flexibilisierung der Montage an. Im Vordergrund stehen dabei ablauforganisatorische Aspekte sowie konzeptionelle Potenziale und Grenzen des Prinzips. Die folgende Diskussion der ökonomischen Vorteilhaftigkeit in Kap. 4 erfolgt zweigeteilt. Einerseits wird eine ökonomische Analyse der statischen Kausalbeziehungen im Vergleich zu konventionellen Montagealternativen dargelegt. Andererseits erfordert die abschließende Beurteilung der Vorteilhaftigkeit des Chaku-Chaku-Konzepts für komplexe Montageaufgaben einen analytischen Entscheidungsunterstützungsansatz, der zeitliche Interdependenzen integriert. Hierzu wird ein kombinatorisches Optimierungsmodell zur Bestimmung der optimalen Investitionsstrategie entwickelt. Der Beitrag schließt mit der Anwendung der dargestellten Methodik auf eine Fallstudie aus der Automobilzuliefererindustrie.
2
Montage im Kontext konsumentennaher Rahmenauftragsfertigung
Die Rahmenauftragsfertigung unterscheidet sich von der klassischen Typologie der Auftragsabwicklung dadurch, dass gleichermaßen Merkmale der Auftrags- wie auch der Variantenfertigung zum Tragen kommen (make-toorder bzw. assemble-to-order). Aufträge (hier: Rahmenaufträge) sind kundenspezifisch und definieren zumeist für große Volumina gleichartiger Erzeugnisse die längerfristigen Eigenschaften (Varianten). Demgegenüber bestimmen konkrete Lieferabrufe zur Deckung der Kundennachfrage die kurzfristig darzustellenden Produktionsmengen. Ein Zugang zum Konsumentenmarkt und damit die Beeinflussbarkeit desselben ist für Unternehmen in dieser Konstellation nur mittelbar existent. In den Mittelpunkt rückt aus Sicht der Produzenten vielmehr eine effiziente Bereitstellung der kurzfristig geforderten Mengen. Aufgrund der dominierenden Beziehungsstruktur (Hersteller als fokales Unternehmen) sind Lieferengpässe prioritär auszuschließen. Damit leiten sich drei wesentliche Charakteristika bezüglich der Nachfrage ab. Diese gehen auch aus dem in Abbildung 1 darge-
252
T. Spengler, T. Volling, S. Rehkopf
Ablieferungen
Polynomische Glättung 4. Ordnung
Zeit
Stückzahl
Stückzahl
stellten exemplarischen Stückzahlverlauf von Vorgängerprodukten des in Kap. 5 präsentierten Fallbeispiels hervor.
A lie erungen Ablieferungen
Polynomische Glättung 4. Ordnung
Zeit
Abb. 1. Exemplarischer Stückzahlverlauf bei Rahmenauftragsfertigung
• Hinsichtlich der Mikrostruktur (kurzfristige Stückzahlschwankungen) induzieren kurzfristige Lieferabrufe eine hohe Volatilität. Kapazitätsunterdeckung ist vornehmlich zu vermeiden, d.h. auch kurzfristige Nachfragespitzen werden bedient. • Projektabhängige Subzyklen begründen ergänzende Makroschwankungen. In der Regel werden mehrere Rahmenaufträge durch Varianten eines Produktes bedient. Damit resultieren durch An- und Auslaufen von Rahmenverträgen Diskontinuitäten im Nachfrageverlauf. • Ersatzteilstrategien bestehen häufig darin, durch Abschlusslose den Allzeitbedarf von Erzeugnissen zu decken (Spengler u. Schröter 2003). Damit ist zumeist zum Ende der Produktionsphase eine erneut erhöhte Mengenleistung darzustellen. Zusammenfassend erschweren diese Umstände eine sichere Prognose bezüglich Zeit und Volumen der zu produzierenden Stückzahlen erheblich und stellen hohe Anforderungen an die Anpassungsfähigkeit der Montage (Stückzahl-, Varianten-, An- und Auslaufflexibilität). Montagesysteme in der konsumentennahen Industrie sind an Hochlohnstandorten wie Deutschland durch einen ausgeprägten Einsatz kapitalintensiver Anlagen gekennzeichnet (Schraft u. Kaun 1998). Der Parameter Automatisierungsgrad gilt dabei häufig als systembildendes Merkmal. Dieser wird als prozentuale Größe angegeben und ist definiert als das Verhältnis von maschineller Bearbeitungszeit zur Summe von maschineller und menschlicher Arbeitszeit (Sekine 1995). Zu unterscheiden ist zwischen dem inneren, weitestgehend technologiegetriebenen sowie dem äu-
Zum Einsatz von Chaku-Chaku-Systemen in der Montage
253
ßeren organisatorisch determinierten Automatisierungsgrad. Ersterer reflektiert die Gestaltung der Stationen, d.h. die montagetechnische Realisierung von Handhabungs-, Transformations- und Inspektionstätigkeiten, während letzterer die äußere Struktur des Montagesystems, d.h. die Verknüpfung der Stationen zur Erfüllung der Montageaufgabe, beschreibt. Manuelle Montagesysteme bestehen folglich aus beliebig automatisierten und durch manuellen Werkstücktransport miteinander verbundenen Stationen. Dagegen ist das charakteristische Merkmal automatischer Montagesysteme eine „menschenlose Montage“. Mischformen werden als hybride Montagesysteme bezeichnet (Spath u. Baumeister 2000). Insbesondere in der industriellen Serien- und Massenfertigung ermöglichen automatisierte Montagesysteme aufgrund einer hohen Mengenleistung sowie einer gleichmäßigen und hohen Produktqualität eine wirtschaftliche Leistungserstellung (Schraft u. Kaun 1998). Allerdings bedingen die mit der Automatisierung verbundenen Investitionen ein erhöhtes unternehmerisches Risiko (Feldmann u. Junker 2003). Auch ist eine vollständige Automatisierung häufig technisch nicht möglich oder aber unter wirtschaftlichen Gesichtspunkten nicht zweckmäßig. In diesem Fall stellen hybride bzw. teilautomatisierte Montagesysteme eine mögliche Lösung dar (Lay u. Schirrmeister 2001). Bestrebungen zur Begegnung der dargestellten Anforderungen, auch als Rationalisierung betitelt, können unterteilt werden nach technik- und human- bzw. organisationszentrierten Ansätzen (Schraft u. Kaun 1998). Technikzentrierte Maßnahmen zur Rationalisierung der Montage werden vielfach synonym zur Automatisierung derselben verstanden (Eversheim 1989). Ergebnis derartiger Bestrebungen sind die beschriebenen hybriden oder automatischen Montagestrategien insbesondere in der Ausprägung von Fließmontagesystemen. Aufgrund der hohen Verbreitung dieser Gestaltungsart werden sie in diesem Beitrag als konventionelle Montagesysteme bezeichnet. Neben technikzentrierten Ansätzen stellen organisatorische Ansätze eine Möglichkeit zur Rationalisierung der Montage dar. Hierbei rückt die Optimierung der zeitlichen, mengenmäßigen sowie räumlichen Abstimmung der Arbeitsinhalte in den Mittelpunkt. Ein vieldiskutierter Ansatz dieser Klasse beruht auf dem Prinzip der „Schlanken Montage“ japanischen Ursprungs (lean assembly bzw. lean manufacturing) (Jordan u. Michel 2001). In diesem Kontext sind die nachfolgend vorgestellten Chaku-Chaku-Systeme zu sehen.
254
3
T. Spengler, T. Volling, S. Rehkopf
Das Chaku-Chaku Prinzip als Flexibilisierungsinstrument
3.1 Begriffsbestimmung und Klassifizierung Chaku-Chaku-Systeme sind einzigartig in ihrem Gesamtkonzept. Unterschiede zu konventionell genutzten Fertigungssystemen existieren sowohl in Aspekten der Prozess- als auch der Arbeitsorganisation. Im Zentrum stehen dabei Produktionszellen, die auf der Basis des so genannten ChakuChaku-Prinzips beruhen. Die namensgebende Bezeichnung „ChakuChaku“ stammt aus dem Japanischen und steht für „Laden-Laden“. Das Chaku-Chaku-Prinzip beschreibt folglich eine Betriebsweise, bei der sich die Tätigkeiten des beschäftigten Personals auf das Be- und Entladen von automatisierten Montagestationen sowie den Transport der Werkstücke konzentrieren (Diegruber u. Meister 1995). Synonyme Bezeichnungen umfassen die Begriffe „synchrone Produktionssysteme“, „cellular manufacturing systems“ oder schlicht „japanisches Montieren“. Einheitlich liegt derartigen Systemen das Prinzip der Mehrprozessbedienung in Fertigungszellen mit Einzelstückfließfertigung zugrunde (Sekine 1995). Obiger Definition des Automatisierungsgrades folgend handelt es sich um manuelle Montagesysteme mit einem hohen inneren Automatisierungsgrad. ChakuChaku-Systeme weisen eine Reihe charakteristischer Merkmale auf (Takeda 1996). • Um kurze Gehwege und einen guten Informationsfluss zu realisieren, kommen kompakte Anordnungsstrukturen mit beieinander liegenden Ein- und Ausgängen (z.B. U-Form) zum Einsatz. • One Touch und Standardisierung: Die Arbeit beinhaltet mit dem Einsetzen und der Betätigung des Auslösers jeweils nur eine standardisierte Handbewegung. • Automatisierter Vorschub, Bearbeitung und Prozesskontrolle (Autonomation): Durch Trennung von maschineller und menschlicher Arbeit kann der Mitarbeiter nach Auslösen des Vorschubs weitergehen. Im Bedarfsfall (Fehlerfall) und nach Beendigung des Prozesses stoppt die Station automatisch (Jidoka). Alle Vorrichtungen fahren nach Beendigung in eine definierte Startposition (Bodine 1998). • Entkopplung von menschlicher und maschineller Arbeit: Gemäß dem Prinzip „Maschine wartet auf Mensch“ wird neben einer möglichst hohen Auslastung der Arbeitskräfte ein kontinuierlicher Materialfluss angestrebt. Maschinelle Arbeitsinhalte erfolgen parallel und unabhängig von den manuellen (Aulinger et al. 2003).
Zum Einsatz von Chaku-Chaku-Systemen in der Montage
255
• Einzelstückfluss (one-piece-flow): Montageobjekte durchlaufen den Montageprozess stückweise, werden also nach einem Prozess ohne Zwischenlagerung dem nächsten zugeführt. Der Prozessorientierung der Lean-Initiative folgend sind in ChakuChaku-Systemen die Arbeitsstationen in der Reihenfolge der Arbeitsschritte angeordnet. Die Montageobjekte durchlaufen das Montagesystem gemäß ihrer Bearbeitungsfolge, so dass ein von Montageprozessen unterbrochener quasi-kontinuierlicher Materialfluss zustande kommt. Eine starre materialflusstechnische Verbindung der Stationen wird dabei zugunsten eines flexiblen manuellen Handlings vermieden. Folglich treffen Eigenschaften einer zeitlich intermittierenden Fließfertigung zu. Gleichzeitig kommt dem Team, das in einer solchen Linie beschäftigt ist, eine größere Eigenverantwortung zu. Arbeits- und Kooperationsprozesse werden weitestgehend selbststeuernd organisiert. Auch sind die Betriebsmittel räumlich und organisatorisch in Zellen zusammengefasst und können in ihrer Reihenfolge wahlfrei angesteuert werden. Diese Eigenschaften weisen eher auf die Organisationsform einer Montageinsel hin. Eine klare Klassifizierung der Organisationsform von Chaku-Chaku-Systemen ist folglich nicht durchführbar. Vielmehr handelt es sich um eine Mischform aus Montageinsel und zeitlich intermittierender Fließfertigung. 3.2 Betriebsarten und Kundentakt Wesentlich für die Implementierung von Chaku-Chaku-Systemen ist die Betriebsart. Es lassen sich zwei Ansätze unterscheiden. Dies sind das Karawanensystem einerseits und das Handübergabesystem andererseits (Abbildung 2) (Takeda 1996).
Laufwege
Materialfluss
Abb. 2. Betriebsarten Karawanensystem (links) und Handübergabe (rechts)
256
T. Spengler, T. Volling, S. Rehkopf
Grundlegender Vorteil des Karawanensystems ist die unterbrechungsfreie Veränderbarkeit der Anzahl gleichzeitig im System arbeitender Personen. Dazu durchläuft ein Mitarbeiter in jedem Zyklus den gesamten Montageablauf. Um höhere Mengenleistungen einzustellen, kommen zeitlich versetzt weitere Mitarbeiter hinzu (modifizierte Mengenteilung). Zum einen leitet sich daraus ein erweitertes Aufgabenspektrum ab, da jede einzelne Tätigkeit beherrscht werden muss, zum anderen müssen die individuellen Arbeitsgeschwindigkeiten auf einem vergleichbaren Niveau liegen, damit eine gegenseitige Behinderung ausgeschlossen werden kann. Überdies setzt diese Betriebsart eine hohe Durchdringung teamorientierter Arbeitsstrukturen voraus, da aufgrund der abwechselnden Leistungserstellung Arbeitsergebnisse, insbesondere Qualitätsaspekte, nicht länger einzelnen Personen sondern ausschließlich Arbeitsgruppen zugeordnet werden können. Im Handübergabesystem können ebenfalls mehrere Mitarbeiter in einem System eingesetzt werden. In diesem Fall erfolgt jedoch eine klare Abgrenzung der individuellen Arbeitsbereiche (Arbeitsteilung). Im Kontrast zu herkömmlichen manuellen Montagesystemen sind die Übergabestellen nicht fixiert, sondern ergeben sich aus der geforderten Mengenleistung. Nach Vollendung der jeweiligen Montageoperationen werden die Montageobjekte übergeben. Aufgrund der erhöhten Zahl einzelner Teilbereiche resultieren verstärkt Fragestellungen der Zuordnung von Arbeitsinhalten zu Mitarbeitern. Dies resultiert aus konzeptioneller Sicht, wie in Abschn. 3.3 erläutert, in erhöhten Abstimmungsverlusten, exekutiv erweist sich die reibungslose Veränderung der Personenzahl als problematisch. Demgegenüber ermöglicht die klare Arbeitsteilung eine eindeutige Zuweisung von Verantwortung. Ein wesentliches Merkmal von Chaku-Chaku-Systemen ist die Möglichkeit durch eine Skalierung des Personaleinsatzes auf die tatsächlich nachgefragte Stückzahl zu reagieren (Abbildung 3). Hierzu wird auf das Konzept des Kundentakts zurückgegriffen (Aulinger et al. 2003; Schmidt 2003). Dieser ergibt sich als Quotient der disponiblen Zeitspanne sowie der Zielmenge und beschreibt die durchschnittlich zur Verfügung stehende Zeit, um ein nachgefragtes Erzeugnis fertig zu stellen. In Abhängigkeit des Kundentakts kann die jeweils erforderliche Personalstärke durch Division der systemspezifischen Summe der manuellen Ausführungszeiten und dem geforderten Kundentakt abgeleitet werden.
Zum Einsatz von Chaku-Chaku-Systemen in der Montage
257
Abb. 3. Skalierung durch Personaleinsatz im Handübergabesystem
3.3 Potenziale und Grenzen Im Kontrast zu der konventionellen anlagenorientierten Perspektive, die sich in dem Streben nach einer maximalen Auslastung der Maschinenkapazität zeigt, fokussieren Chaku-Chaku-Systeme auf die Betrachtung des Gesamtsystems Mitarbeiter/Maschine (Augustin 1993). Damit eröffnen sich in Abhängigkeit des Anwendungsfalls unterschiedliche Nutzenpotenziale. Allerdings können zugleich konzeptionelle Restriktionen aufgezeigt werden. Ein wesentliches Potenzial von Chaku-Chaku-Systemen liegt in der flexiblen Skalierbarkeit der Leistungserstellung durch den variablen Einsatz von Personal (Shojinka) bei (nahezu) gleichbleibender Personalproduktivität (Monden 1998). Indem einzelne Arbeitskräfte Teilaufgaben in mehr als einer Zelle verrichten, können zudem gebrochene Personalzahlen realisiert werden. Damit eignen sich Chaku-Chaku-Systeme insbesondere für nichtstationäre Nachfrageverläufe (z.B. An-, Auslauf). Auch begünstigen veränderbare Montageabläufe (z.B. Auslassen von Stationen) und manuelles Teilehandling eine erweiterte Variantenflexibilität. Eine zeitlich versetzte Fertigung von Serien- und Vorserienteilen wie auch verschiedener Varianten eines Produktes auf identischen Einrichtungen ist möglich. Gemäß dem Prinzip der Mehrmaschinenbedienung bedient jede Arbeitskraft mehr als eine Station. Die Arbeitsstrukturierungsmaßnahmen Job-Enlargement, Job-Rotation und die Bildung autonomer Arbeitsgruppen sind leicht möglich und verbessern das Arbeitsempfinden gegenüber monotonen Arbeitsinhalten an Einzelstationen (Feldmann u. Junker 2003). Insgesamt wird durch die Gestaltung schlanker und leicht überschaubarer Abläufe auf einen kontinuierlichen Fluss in Bezug auf Material, Arbeitskräfte und Information fokussiert. Bestände verursachen Kosten durch gebundenes Kapital und Bedarf an Lagerflächen sowie Investitionen für die Puffereinrichtungen. Im Einzelstückflussbetrieb sinken die Bestände in der Produktion auf ein Minimum, die genannten Nachteile können damit vermieden werden (Monden 1998). Durch die reduzierte Zwischenlagerung verringert sich zudem die Durchlaufzeit. Störungen im Materialfluss wer-
258
T. Spengler, T. Volling, S. Rehkopf
den sofort und nicht erst nach Ausschöpfung von Zwischenpuffern erkannt (Rother u. Harris 2001). Auch können in Chaku-Chaku-Systemen Prozessfehler identifiziert werden, noch bevor eine größere Anzahl von Ausschussteilen produziert worden ist, da jedes einzelne Teil nach jeder Station von einem Mitarbeiter in die Hand genommen und kurz sichtgeprüft wird. Doch auch ohne diese fortwährende Qualitätskontrolle bleiben Fehler höchstens bis zur Fertigstellung von Produkten unerkannt. Mit der vordergründigen Auslastung des Personals gehen bewusst in Kauf genommene Stillstandszeiten, d.h. eine systematische Überdimensionierung der Anlagen einher. Da allerdings die Arbeitskräfte eine insgesamt höhere Flexibilität aufweisen ermöglicht diese Strategie eine effektive Reaktion auf veränderte Marktbedingungen (Rother u. Harris 2001). Zur bewussten Überdimensionierung ist hinzuzufügen, dass sich die Auslastung einer vorhandenen Produktionsinfrastruktur in Zeiten, in denen nicht die volle Kapazität nachgefragt wird, unabhängig vom Montagekonzept als problematisch erweist. Für den Fall einer volatilen Nachfrage ist damit in jedem Fall zeitweise mit technischen Überkapazitäten zu rechnen. Die Flexibilität des Personals wird unterstützt durch eine insgesamt als unkompliziert zu bewertende Arbeitsorganisation. Aufgrund der Entkopplung von autonomatischer Bearbeitung und manuellem Handling werden Abstimmungsverluste weitestgehend vermieden. Das Personal kann im Betrieb kurzfristig und selbstorganisatorisch eine konkrete Mengenleistung des Systems einstellen. Zur Erläuterung sei auf ein reales Szenario verwiesen. In einem Taktsystem mit fünf teilautomatisierten Stationen und einer Taktzeit von 24 Sekunden beträgt die kürzeste Durchlaufzeit 120 Sekunden. Aus Sicht der Arbeitskräfte sind davon jedoch lediglich 87% reine Bearbeitungszeit, der verbleibende Rest besteht aus Wartezeit. Im Falle von Chaku-Chaku-Sytemen treten anstelle der Abstimmungsverluste Übergangszeiten zwischen den einzelnen Stationen auf. Für eine Übergangszeit von zwei Sekunden ergibt sich damit im vorliegenden Fall unabhängig von der konkreten Personalstärke eine um fünf Prozentpunkte höhere Produktivität (Abbildung 4). Restriktionen im Einsatz von Chaku-Chaku-Systemen lassen sich hinsichtlich der betroffenen Teilaspekte (marktliche Merkmale, Arbeitsorganisation, Anlagen und Produkte) unterscheiden. Bezogen auf die Nachfrage wird die Eignung des Prinzips beeinflusst durch die absolute Höhe und Varianz der geforderten Mengenleistung. Zentrale Nutzenpotenziale von Chaku-Chaku-Systemen beruhen auf der effizienten Anpassungsfähigkeit. Für gleichbleibend bzw. überwiegend hohe Nachfragevolumina scheinen demgegenüber konventionelle, insbesondere automatisierte Fertigungskonzepte vorteilhaft (Abschnitt 4.1). Die veränderte Arbeitsorganisation zieht überdies Auswirkungen in Bezug auf die Arbeitskräfte nach sich. Ei-
Zum Einsatz von Chaku-Chaku-Systemen in der Montage
259
nerseits gehen mit der universellen Maschinenbedienung monetäre Konsequenzen einher, da oftmals höhere Bereichslohngruppen zu zahlen sind, andererseits führen die Steh-/Geh-Arbeitsplätze anstelle der ergonomisch günstigeren Sitz-/Steh-Arbeitsplätze zu erhöhten physischen Anforderungen. Auch setzen Chaku-Chaku-Systeme Teamarbeit und autonome Fertigungssteuerung voraus, stellen also deutlich höhere Anforderungen an die Mitarbeiter (Feldmann u. Junker 2003). 30
Taktzeit
Abstimmungsverlust 2
20
Zeit [s]
Bearbeitungszeit Station 1
25
5
4
5
24
Bearbeitungszeit 22
Station 2
Zeitersparnis 15
19
Station 3 24
10
22
19
20
19
Station 4
20 Übergangszeit
5
Station 5
19
0
Station 1
Station 2
Station 3
Station 4
Station 5
0
20
40
60
80
100
120
Zeit [s]
Abb. 4. Gegenüberstellung herkömmlich manueller Montage (links) mit ChakuChaku-Systemen (rechts)
Eine zwingende Voraussetzung für den effektiven Einsatz des Einzelstückflusses ist eine hohe Verfügbarkeit der Einzelstationen, da anderenfalls massive Verfügbarkeitsverluste des Gesamtsystems die Folge sein würden (Bullinger et al. 1993). Auch erfordert die konsequente Anwendung des Chaku-Chaku-Prinzips modularisierbare Montageeinrichtungen (z.B. standardisierte Schnittstellen, autarke Module), um die Prämisse der technischen Überdimensionierung (Arbeitskraft als Engpass) aufrecht zu halten. Je nach Nachfrageentwicklung sind dann strukturelle Anpassungsmaßnahmen notwendig (Spath u. Baumeister 2000). Abschließend betreffen einige Restriktionen die Produkte. Hierzu zählen logistische Eigenschaften wie Handhabbarkeit und Transportierbarkeit sowie darzustellende Qualitätsanforderungen (z.B. Sauberkeit) und technische Restriktionen bzw. Sicherheitsvorschriften.
4
Ökonomische Analyse der Vorteilhaftigkeit
Chaku-Chaku-Systemen kommt aufgrund der mit ihnen verbundenen Nutzenpotenziale eine intensive Beachtung in der industriellen Praxis zu. So sind auch im deutschen Wirtschaftsraum erste Implementierungen zu beo-
260
T. Spengler, T. Volling, S. Rehkopf
bachten (Aulinger et al. 2003). Der Schwerpunkt der wissenschaftlichen Auseinandersetzung lag bislang auf der konzeptionellen Diskussion des Chaku-Chaku-Prinzips sowie einer Einordnung desselben in die LeanInitiative. Zu nennen sind Beiträge von Takeda (2004), Aulinger et al. (2003), Rother und Harris (2001), Productivity Team (1999), Bodine (1998), Takeda (1996), Sekine (1995) sowie Diegruber und Meister (1995). Die Untersuchungen fokussieren bislang einheitlich auf qualitative, managementorientierte Aspekte, ohne jedoch explizit bezug auf die ökonomische Vorteilhaftigkeit zu nehmen. Ziel der nachfolgenden Ausführungen ist es, diese Lücke zu füllen. Hierzu gilt es einerseits, die statischen Kausalbeziehungen im Vergleich zu konventionellen Montagealternativen aus einer ökonomischen Blickrichtung zu analysieren, andererseits erfordert die Beurteilung der projektspezifischen Vorteilhaftigkeit eine erweiterte Berücksichtigung zeitlicher Aspekte. 4.1 Statische Analyse Grundlagen zur investitionstheoretischen Beurteilung von Montagesystemen sind in der betriebswirtschaftlichen Literatur hinlänglich bekannt (Plinke u. Rese 2002). Monetäre Bewertungsverfahren beruhen dabei auf der These, dass sich die Auswahl von Montagekonzepten letztlich an deren Wirtschaftlichkeit zu orientieren hat. Gesucht wird ein Ermittlungsmodell, das für die Kombination von Montagekonzept und Umweltzustand die zu erwartenden Konsequenzen abbildet (Ewert u. Wagenhofer 2003). Die alleinige Betrachtung von Aufwendungen ist dann zulässig und ausreichend, wenn von einer identischen und unabhängigen Ertragssituation ausgegangen werden kann (Götze u. Bloech 2004). Aus einer statischen Perspektive definieren die konzeptabhängigen unmittelbar mit der Erfüllung der Montageaufgabe verbundenen Kosten1 die Kostenstruktur eines Montagesystems. Dies sind im Wesentlichen die Kosten der an der Leistungserstellung beteiligten Arbeitskräfte (direkte Personalkosten) und die mittel- oder unmittelbar der Investition zuzurechnenden Kosten (z.B. Abschreibungen, Kapital-, Wartungs- und Energiekosten). Neben der absoluten Darstellung sind insbesondere relative Größen (Stückkosten) zur Beschreibung und zum Vergleich der Kostenstruktur von Montagesystemen geeignet (Däumler 2000).
1
Kosten seien hier allgemein definiert als „Verringerungen der die ggf. unsicheren, mehrperiodigen monetären Konsequenzen einer Aktion widerspiegelnden Repräsentanzgrößen.“ (Ewert u. Wagenhofer 2003, S. 42)
Zum Einsatz von Chaku-Chaku-Systemen in der Montage
261
Wie in Abbildung 5 qualitativ dargestellt, hat der Automatisierungsgrad einen maßgeblichen Einfluss auf die Kostenstruktur der Leistungserstellung. Als Konsequenz eines zunehmenden Automatisierungsgrades nimmt der Anteil der direkten Personalkosten stetig ab, während die investitionsabhängigen Kosten überproportional zunehmen. Dies ist darauf zurückzuführen, dass nachdem zunächst einfache Tätigkeiten automatisiert werden können, mit zunehmendem Automatisierungsgrad auch komplexere Prozesse automatisch durchgeführt werden müssen (Konold u. Reger 2003). Für eine gegebene Montageaufgabe, d.h. insbesondere ein bekanntes Nachfragevolumen, existiert folglich ein hinsichtlich der personal- und investitionsabhängigen Kosten optimaler Automatisierungsgrad. Als Folge veränderter Stückzahlen ergeben sich abweichende Ergebnisse. Zur Verdeutlichung sind in Abbildung 5 ergänzend die Verläufe der Summenstückkosten für jeweils 40 Prozent Stückzahlabweichung nach oben und unten dargestellt. Darüber hinaus steht die Kostenstruktur für einen gewählten Automatisierungsgrad in einem direkten Abhängigkeitsverhältnis zum Montagevolumen. Als stückzahlkonstante, fixe Kosten fallen überwiegend investitionsabhängige Kosten an, während die stückzahlabhängigen, variablen Kosten maßgeblich durch die direkten Personalkosten bestimmt werden.2 In einer stückkostenbezogenen Darstellung steht damit dem konstanten Anteil variabler Kosten ein abnehmender Anteil Fixkosten gegenüber (Abbildung 5). Wird ein bestimmter Schwellwert überschritten (Nennkapazität), führt dies in der Regel zu einem erneuten Anstieg des Fixkostenanteils (z.B. erhöhter Verschleiß). Der ökonomische Betriebspunkt eines Montagesystems definiert sich durch die Minimierung der Summe der variablen und fixen Kosten (Summenkosten). Ein konstanter Stückkostenanteil variabler Kosten setzt indes eine ebenfalls konstante Personalproduktivität voraus (Kurve ideal in Abbildung 5). Ist diese beispielsweise aufgrund von Schichtzulagen oder Effizienzverlusten (z.B. zunehmende Ausgleichsverluste bei zunehmenden Taktzeiten) nicht gewährleistet, so ergeben sich Nichtlinearitäten im Verlauf der Personalkosten (Kurve real in Abbildung 5).
2
Dabei wird vorausgesetzt, dass die Personalkapazität kostenneutral angepasst werden kann.
262
T. Spengler, T. Volling, S. Rehkopf 800
1400
variable Kosten (ideal) 700
0 10
20
30
40
50
60
70
80
9 0 1 00
Automatisierungsgrad [%]
300 200 100 0 10 0 11 0 12 0
200
Veränderung der summarischen Stückkosten bei Stückzahlabweichungen von +/-40 Prozent
80 90
400
sum. Stückkosten (real)
400
70
summarische Stückkosten
600
variable Kosten (real)
500
30 40
800
sum. Stückkosten (ideal)
600
10 20
investitionsabhängige Kosten
Stückkosten [€]
Stückkosten [€]
1000
50 60
Personalkosten 1200
Mengenleistung (normiert) [%]
Abb. 5. Automatisierungsgradbezogene Stückkosten (links) und stückzahlabhängiger Stückkostenverlauf (rechts)
Damit folgt: • Die Veränderung der summarischen Stückkosten verhält sich a) asymmetrisch zu Stückzahlveränderungen und nimmt b) mit zunehmendem Automatisierungsgrad zu. • Nichtlinearitäten in Bezug auf die stückzahlabhängigen Personalstückkosten führen zu c) einer tendenziell zunehmenden Veränderung der summarischen Stückkosten. Zu a): Auswirkungen von Stückzahlveränderungen auf die summarischen Stückkosten sind asymmetrisch, da betragsgleiche der Stückzahlabweichungen unterschiedliche Konsequenzen auf das Ergebnis haben. So ergeben sich für eine gegebene Systemrealisierung deutlich ausgeprägtere Verschiebungen der summarischen Stückkosten bei Verringerungen der Stückzahl als bei Erhöhungen. Ursächlich hierfür ist der unveränderliche Anteil insgesamt zu berücksichtigender investitionsabhängiger Kosten.3 Zu b): Bei manuellen Montagesystemen überwiegt definitionsgemäß der Anteil direkter Personalkosten. Da diese im Gegensatz zu den investitionsabhängigen Kosten variabel in Bezug auf die geforderte Mengenleistung sind, weisen Stückzahlveränderungen, d.h. Veränderungen der Nachfrage mit abnehmenden Automatisierungsgrad tendenziell geringere Auswirkungen auf die resultierenden summarischen Stückkosten auf. Zu c): Aus dem rechten Teil von Abbildung 5 geht der Effekt nichtlinearer Personalkosten hervor. Diese verstärken die Auswirkungen der investitionsabhängigen Kosten in Bezug auf die Stückzahlabhängigkeit der summarischen Stückkosten. Als Konsequenz ergeben sich höhere Ergebnisverschiebungen bei Abweichungen zu den Auslegungsparametern. 3
Für den Fixkostenanteil ergibt sich ein reziproker Zusammenhang zwischen Stückzahl- und Stückkostenveränderungen.
Zum Einsatz von Chaku-Chaku-Systemen in der Montage
263
Unter Berücksichtigung der Erkenntnisse lassen sich charakteristische Einsatzgebiete von Montagesystemen ableiten. Konventionelle, automatisierte Montagesysteme profitieren von beständigen Randbedingungen sowie hohen Ausbringungsvolumina und ermöglichen in diesem Fall eine kostengünstige Leistungserstellung. Dagegen verfügen manuelle Systeme über eine hohe Flexibilität, werden jedoch mit zunehmender Leistung im Vergleich zu automatisierten Systemen wirtschaftlich unvorteilhafter. Zudem führt eine stückzahlsensitive Personalproduktivität zur Schlechterstellung manueller Konzepte. Ein grundlegendes Ziel von Chaku-ChakuSystemen ist es, durch die Kombination eines ausgewogenen Automatisierungsgrades und organisatorischer Maßnahmen zur Entkopplung der Personalproduktivität vom Betriebspunkt, zugleich eine hohe Wirtschaftlichkeit und eine hohe Flexibilität darzustellen. 4.2 Dynamische Analyse Für den Fall einer dynamischen mehrperiodigen Betrachtung ergibt sich ein erweitertes Problem. Ziel einer optimalen Montagestrategie ist es, für ermittelte stückzahlabhängige und montagesystemspezifische Periodenauszahlungen sowie die einmaligen Auszahlungen bei einem Systemwechsel, den günstigsten, d.h. den kleinsten ausgabenbezogenen Kapitalwert zu realisieren. Die Vorteilhaftigkeit des Chaku-Chaku-Konzeptes kann dabei ermittelt werden, indem es als zusätzliche Option ceteris paribus in der regulären Planung Berücksichtigung findet. Ein geeignetes Bewertungsverfahren muss einerseits die zeitlich variablen Stückzahlen, andererseits die zeitlichen Interdependenzen der Entscheidung berücksichtigen. Es bietet sich damit ein mehrstufiges Vorgehen an. Zunächst sind (1) für eine diskrete Anzahl von Lösungsalternativen die konzeptbezogenen entscheidungsrelevanten Auszahlungen unterteilt nach periodischen (personalabhängige und investitionsabhängige Auszahlungen) und einmaligen Zahlungen (wechselbezogene Auszahlungen, Investitionen) zu bestimmen. In einem zweiten Schritt geht es um (2) die Ermittlung der optimalen Investitionsstrategien im Zeitverlauf unter Verwendung eines geeigneten kombinatorischen Optimierungsmodells. Abschließend ist in einem dritten Schritt (3) die Stabilität der ermittelten Lösung in Bezug auf Parameterveränderungen (Stückzahlveränderungen) zu untersuchen, um die vorhandene Prognoseunsicherheit zu berücksichtigen. Zu 1): Unabhängig vom jeweiligen Analyseverfahren sind für eine Anzahl geeigneter Systemalternativen zunächst die systemgebundenen ökonomischen Größen zu ermitteln. In der betrieblichen Praxis ist in dieser Funktion zugleich der entscheidende Hebel für Qualität und Aufwand der
264
T. Spengler, T. Volling, S. Rehkopf
Entscheidungsunterstützung zu sehen (Götze u. Bloech 2004). Als Eingangsvoraussetzung müssen weiterhin die Ergebnisse der Grobplanung (z.B. Montagezeiten, Flächenbedarf und Investitionsvolumen) vorliegen (Konold u. Reger 2003). Ziel ist es, ein möglichst umfassendes Abbild der entscheidungsrelevanten, d. h. der durch die Investitionsalternative verursachten Zahlungskonsequenzen zu erzeugen. Aufgrund fehlender Alternativen wird dazu häufig auf die (operativen) Kostenrechnungssysteme im Unternehmen zurückgegriffen. Hierbei werden die ermittelten Kosten bei Vernachlässigung von kalkulatorischen Kosten und Abschreibungen (pagatorischer Kostenbegriff) Zahlungszeitpunkten zugeordnet und Auszahlungen gleichgesetzt. Allerdings wird als Bezugsgröße im Rahmen derartiger Kalküle einheitlich auf Erzeugnisse zurückgegriffen. Die Attribute entscheidungsrelevant bzw. verursachungsgerecht beziehen sich konsequenterweise auf diese Einheit. Entscheidungsrelevant im Sinne der Montageplanung sind demgegenüber die mit der Wahl einer Handlungsalternative einhergehenden Kosten. Dies führt zu der so genannten Differenzkostenbetrachtung, bei der lediglich die durch das Montagesystem beeinflussten und damit entscheidungsrelevanten Kosten betrachtet werden (Fichtmüller 1996). Im Rahmen der Investitionsrechnung sind häufig verschiedene Annahmen zu treffen, die eine geeignete Bestimmung der entscheidungsrelevanten Kosten ermöglichen. Es wird versucht, anhand bestimmter Kennzahlen von Montagesystemen auf deren Kostenwirksamkeit zu schließen (Schimpf 2001). Dies sind beispielsweise das Investitionsvolumen, der Flächenbedarf und der Personalbedarf. In einem zweiten Schritt werden aufgrund von Erfahrungswerten resultierende Kosten abgeleitet (z.B. Kosten für die Bereitstellung der Montagefläche). Zu 2): Auf Basis der ermittelten Auszahlungsreihen sind in der Folge vorteilhafte Montagestrategien zu ermitteln. Als Zielfunktion ergibt sich im vorliegenden Fall die Minimierung des durch Abzinsung der Auszahlungen mit dem Kalkulationszinssatz r auf einen Bezugszeitpunkt (t = 0) bestimmbaren Kapitalwerts KW. Im Einzelnen sind dabei die Summe der Anfangs(investitions)auszahlung AZi0 für Montagesystem i, der periodenbezogenen montagesystemspezifischen Auszahlungen PZit bei Betrieb des Montagesystems i im Zeitraum [t, t+1] sowie die einmalige Auszahlung bei einem Systemwechsel von System i zu System i’ WZii’ zu einem Zeitpunkt t zu berücksichtigen. Zeitliche Aspekte in der Verteilung der Auszahlungen finden durch Zinseszinseffekte bei der Bestimmung des auszahlungsbezogenen Kapitalwertes Berücksichtigung, wobei die zeitraumbezogenen Auszahlungen als (einmalige) zeitpunktbezogene Auszahlung in der Mitte der jeweils betrachteten Periode berücksichtigt werden.
Zum Einsatz von Chaku-Chaku-Systemen in der Montage
265
Die Entscheidungsvariablen xit sind gleich eins, wenn das Montagesystem i zum Zeitpunkt t (und damit auch im Zeitraum [t, t+1]) genutzt wird. Die Entscheidungsvariablen yii’t sind eins, falls zum Zeitpunkt t von Montagesystem i zu Montagesystem i’ gewechselt wird. Dies wird durch die Nebenbedingungen (2) sichergestellt. Die Nebenbedingungen (3) stellen die Befriedigung der Nachfrage Nt zu jeder Zeit sicher, wobei die Ci die Kapazität des Montagesystems i darstellen. Beide Größen, die Nachfrage wie auch die Kapazität werden angegeben in Einheiten pro Periode.4 Durch die Nebenbedingungen (4) wird sichergestellt, dass zu jedem Zeitpunkt t genau ein Montagesystem installiert ist. Die beiden letzten Nebenbedingungssysteme definieren die Entscheidungsvariablen xit als binäre Variablen und yii’t als positiv reell.
Min
KW =
I
∑
AZ i 0 xi 0 +
i =1
+
I
T
∑∑ PZit xit (1 + r )−(t + 0,5) i =1 t = 0 I I T
∑∑∑WZii' yii't
(1 + r )−t
(1)
i =1 i ' =1 t =1 i'≠i
u.d.N.
xi (t −1) + xi 't − yii 't ≤ 1
für i, i’ =1,…,I und i ≠ i’; t = 1,…,T
I
∑ xit Ci ≥ Nt
(2)
für t = 0,…,T
(3)
∑ xit = 1
für t = 0,…,T
(4)
xit ∈ {0,1}
für i =1,…,I ; t = 0,…,T
(5)
i =1 I
i =1
4
Die Kapazität im Kontext der mathematischen Programmierung entspricht der montagesystemspezifischen Maximalkapazität. Dieses fixe Datum dient damit der Sicherstellung der technischen Realisierbarkeit, ohne operative Fragestellungen der Kapazitätsplanung vorwegzunehmen.
266
T. Spengler, T. Volling, S. Rehkopf
yii 't ≥ 0
für i, i’ =1,…,I ; t = 1,…,T
(6)
Zu 3): Bei der dargestellten Investitionsrechnung wird mit einer Anzahl von Inputvariablen gerechnet, die als sicher vorausgesetzt werden. Diese Sicherheit ist in der Realität jedoch nicht immer zu erwarten. Es ist vielmehr davon auszugehen, dass einige dieser Inputgrößen geringen, andere dagegen starken Schwankungen unterliegen können. Durch diese Schwankungen ergeben sich wiederum Veränderungen der in der Investitionsrechnung ermittelten Ergebnisgrößen, die der Investitionsentscheidung zugrunde liegen. Im Rahmen einer Szenarioanalyse wird ein Variationsintervall der Inputgrößen festgelegt, um im folgenden Schritt die Auswirkungen auf den Output zu berechnen. Dazu ist jedoch bereits im Voraus eine Abschätzung der möglichen Schwankungsbreite einer Inputgröße notwendig. Mit Hilfe dieser geschätzten Schwankungsbreite lassen sich schon in der frühen Planungsphase verschiedene Szenarien über den zukünftigen Verlauf der jeweiligen Größe erstellen und zur Berechnung verwenden. Neben dem Szenario mit der höchsten Eintrittswahrscheinlichkeit (Trendszenario), können auch positive (progressives Szenario) oder negative (konservatives Szenario) Szenarien beurteilt werden (Schreiber 1994).
5
Fallstudie
5.1 Ausgangslage Die Montageaufgabe im betrachteten Fallbeispiel lässt sich wie folgt charakterisieren. Es galt ein innovatives Produkt im Umfeld der Automobilzuliefererindustrie zu montieren. Dieses bestand aus 15 Komponenten, von denen vier variantenspezifisch waren. Das Gewicht wurde mit weniger als 150 Gramm angegeben. Von den 29 benötigten Arbeitsgängen handelte es sich bei 14 um Prüf- und Einstellprozesse. Das Unternehmensumfeld war dadurch gekennzeichnet, dass Vorgängermodelle ausschließlich auf automatischen Montagesystemen gefertigt wurden. Aufgrund unbeständiger Rahmenbedingungen bestand allerdings ein Interesse daran, Chaku-ChakuSysteme in die Montageplanung einzubeziehen. Unsicherheit bestand insbesondere bezüglich der prognostizierten Marktentwicklung. So war eine erhebliche Varianz in der Stückzahlprognose zu beobachten, die sich in kumulierten Abweichungen von 59 Prozent nach unten bzw. 115 Prozent nach oben zwischen einzelnen Prognosen innerhalb eines Quartals zeigte. Eine Ursachenanalyse ergab eine für Rahmenauftragsfertigung charakteris-
Zum Einsatz von Chaku-Chaku-Systemen in der Montage
267
tische Auftragsstruktur. In Abbildung 6 illustriert sind die nach geschätzten Wahrscheinlichkeiten klassifizierten Mengengerüste für Rahmenaufträge gemäß ihrem geplanten Anlauftermin. Die Fläche der Kreise ist proportional zum Gesamtvolumen des jeweiligen Rahmenauftrags. Projekte gleicher Klassifizierung sind übereinander, in Form konzentrischer Kreise dargestellt. Auffällig ist, dass große Volumina über geringe bis mittlere Eintrittswahrscheinlichkeiten verfügten, also eine große Prognoseunsicherheit induzierten. Positiv auf die Prognosesicherheit wirkte sich dagegen der hohe Anteil wahrscheinlicher Projekte in den ersten Jahren aus, der zu einer sinkenden Abhängigkeit von Einzelprojekten und somit einer Diversifizierung der Unsicherheit führte. Im Rahmen der Szenarioermittlung stellt sich die Frage, wie konkrete Prämissen zu wählen sind, so dass sich neben einem konservativen und einem progressiven Szenario ein Trendszenario für den Verlauf der Stückzahlen ableiten lässt. Hierzu wurden vom Marketing drei Planungsszenarien generiert. Diese sind in Abbildung 6 zusammenfassend dargestellt. 140
Fläche ist proportional zum Gesamtvolumen des Rahmenauftrags
80 70
Stückzahl pro Jahr (normiert) [%]
subjektive Eintrittswarhscheinlichkeit einzelner Aufträge [%]
90
60 50 40 30 20 10
120
Progressives Szenario
100 80 60
Trendszenario
40 20
Konservatives Szenario
0
0 0
1
2 3 4 5 6 Jahr des Produktlebenszyklusses
7
8
1
2
3
4
5 6 7 8 9 10 11 12 13 14 15 16 Jahr des Produktlebenszyklusses
Abb. 6. Struktur potenzieller Rahmenaufträge (links) und Stückzahlszenarien (rechts)
Der lösungsneutralen Analyse der Montageaufgabe schloss sich die technologische Konzeption alternativer Montagesysteme im Rahmen der Grobplanung an. Für die definierten Randbedingungen waren prinzipielle Varianten zu bilden. Das Ziel des Vorgehens bestand in der Ermittlung lösungsspezifischer Kennzahlen zur nachfolgenden Bewertung. Nach einer Vorselektion möglicher Lösungsalternativen anhand systementscheidender Faktoren, insbesondere dem geforderten Taktzeitspektrum, verblieben sechs aussichtsreiche Montagekonzepte (Tabelle 1). Hinzuzufügen ist, dass eine Taktzeit von 16 Sekunden für den wirtschaftlichen Einsatz automatischer Montagesysteme einen Grenzfall darstellt (Konold u. Reger 2003).
268
T. Spengler, T. Volling, S. Rehkopf
Um allerdings dem Fertigungsumfeld gerecht zu werden, fand dennoch ein automatisches System in der Planung Berücksichtigung. Tabelle 1. Übersicht alternativer Montagesysteme Bezeichnung
Kurzname
Montagprinzip
AG
Minimale Taktzeit
Montagesystem 1 MS1
chaku-chaku
67 %
50 Sekunden
Montagesystem 2 MS2
chaku-chaku
67 %
27 Sekunden
Montagesystem 3 MS3
chaku-chaku
67 %
16 Sekunden
Montagesystem 4 MS4
hybrid
77 %
27 Sekunden
Montagesystem 5 MS5
hybrid
77 %
16 Sekunden
Montagesystem 6 MS6
automatisch
100 %
16 Sekunden
AG Automatisierungsgrad
5.2 Vorstellung des Chaku-Chaku-Systems Aufgrund der engen Wechselbeziehung zwischen Layout und Zeitbedarf bieten sich kombinierte Methoden auf der Basis von Arbeitsverteilungsblatt (standard work combination sheet) und Standardarbeitsblatt (standard work sheet) zur Darstellung des Chaku-Chaku-Konzepts an (Productivity Team 1999). In Abbildung 7 dargestellt ist das Arbeitsverteilungsblatt für MS 1. Es beruht auf Überlegungen, die Ausbringung des Montagesystems durch den flexiblen Einsatz von Arbeitskräften zu skalieren. Hierzu wird zunächst unterstellt, dass ein Mitarbeiter den gesamten Montageprozess durchführt. Die Arbeitsinhalte werden in der Darstellung über den Montageprozess kumuliert und setzen sich anteilig aus manuellen Montageoperationen und Weg- bzw. Transportzeiten zusammen. Maschinelle Zeitanteile laufen nach Start eines Prozesses durch den Mitarbeiter parallel und autonom zum übrigen Montageprozess. Wartezeiten treten somit erst mit Erreichen der Taktzeit der Engpassstation auf. Der Kundentakt kann in einem Bereich zwischen dem Gesamtarbeitsinhalt (192 Sekunden) und der Taktzeit der Engpassstation (50 Sekunden) durch die Anzahl der gleichzeitig arbeitenden Personen eingestellt werden. Eine weitergehende Erhöhung der Ausbringung setzt strukturelle Anpassungsmaßnahmen voraus. Im vorliegenden Fall waren die Engpassstationen durch geeignete Maßnahmen zu modifizieren. Mit dem Ziel erprobte Prozesse zu verwenden, wurde eine Duplizierung der entsprechenden Stationen beschlossen. Während die Anpassungsmaßnahmen, neben der
Zum Einsatz von Chaku-Chaku-Systemen in der Montage
269
angestrebten Reduzierung der maschinellen Arbeitszeit, keine weiteren Auswirkungen auf die (manuellen) Arbeitsinhalte und damit die Darstellung im Arbeitsverteilungsblatt hatten, resultierten hieraus Veränderungen im Standardarbeitsblatt (Abbildung 8). Dieses korrespondiert mit dem im Arbeitsverteilungsdiagramm beschriebenen Sachverhalt und bildet die zugehörige Systemstruktur ab. Aufgrund vielfältiger Wechselwirkungen zwischen Wegzeiten und Layout erwies sich die simultane Planung als zweckmäßig und notwendig. Die dargestellte Struktur war Ergebnis fallspezifischer Überlegungen, den Umfang struktureller Anpassungsmaßnamen und damit sekundärer Aufwendungen (z.B. Maschinenfähigkeitsuntersuchungen) beim Übergang auf ein verändertes Montagesystem zu reduzieren. Prozess 1 Prozess 2 Prozess 3 Prozess 4 Prozess 5 Prozess 6 Prozess 7 Prozess 8 Prozess 9 Prozess 10 Prozess 11 Prozess 12 Prozess 13 Prozess 14 Prozess 15 Prozess 16 Prozess 17 Prozess 18 Prozess 19 Prozess 20 Prozess 21 Prozess 22 Prozess 23 Prozess 24 Prozess 25 Prozess 26 Prozess 27 Prozess 28 Prozess 29
Manuelle Bearbeitungszeit
Maschinelle Bearbeitungszeit
0
50
100
150
Abb. 7. Arbeitsverteilungsblatt des Chaku-Chaku-Systems MS1
Zeit [s] 200
270
T. Spengler, T. Volling, S. Rehkopf
Abb. 8. Standardarbeitsblatt der Chaku-Chaku-Systeme
Auf dieser Basis konnten nunmehr Kennzahlen zur abschließenden Beschreibung der Lösungsalternativen bestimmt werden. Methodisch wurde hierzu auf eine MTM-Planungsanalyse5 sowie eine Grobauslegung der Stationen zurückgegriffen. In Tabelle 2 ist eine Zusammenfassung gegeben. Auch dargestellt sind die Kennzahlen der übrigen Montagesysteme. Charakteristisch für die Chaku-Chaku-Systeme ist, dass einer Erhöhung der technischen Kapazität keine proportionale Zunahme des Personalbedarfs gegenübersteht. Dieser Größendegressionseffekt ist maßgeblich auf einen erhöhten Grundaufwand in den unterstützenden Bereichen zurückzuführen. Beispielsweise fällt der überwiegende Anteil von Planungs-, Prüf- und Dokumentationsaufgaben unabhängig von der Stückzahl an. Tabelle 2. Kennzahlen der Montagesysteme
5
Montagesystem
MS1
MS2
MS3
MS4
MS5
MS6
Einmalige Auszahlungen [%]
100
111
123
161
198
247
Flächenbedarf [%]
100
121
143
121
143
143
direkte Mitarbeiter bei Nenntakt
7
11
14
6
9
5
indirekte Mitarbeiter
4
5
5
5
5
6
MTM: Methods Time Measurement
Zum Einsatz von Chaku-Chaku-Systemen in der Montage
271
5.3 Vergleichende Bewertung Oben dargelegter Argumentation folgend wurde eine zweistufige Analyse der Montagekonzepte durchgeführt. Zunächst wurde die Kostenwirksamkeit der entwickelten Montagesysteme anhand eines statischen Verfahrens zur Bestimmung der Differenzstückkosten ermittelt. Als einheitliche Referenz diente die Unterlassungsalternative, wobei es sich aufgrund des Vergleichs der Montagesysteme untereinander um eine relative Betrachtung handelte. Eine übergeordnete Beschäftigungsglättung zugrundelegend fallen als stückzahlabhängige Kosten die Kosten des direkt an der Leistungserstellung beteiligten Personals an. Dagegen lassen sich die stückzahlunabhängigen Kosten untergliedern nach Personalkosten indirekter Arbeitskräfte, investitionsabhängigen Kosten sowie Flächenkosten. Auf dieser Basis konnten Kostenprofile für die verschiedenen Montagesysteme bestimmt werden (Abbildung 9). Die Analyse bestätigt das oben angesprochene Phänomen charakteristischer Kostenstrukturen von Montagesystemen. Der optimale Auslastungsbereich ergibt sich demnach aus der relativen Vorteilhaftigkeit der Montagesysteme zueinander. Folglich existieren Betriebspunkte an denen sich die Vorteilhaftigkeitsbeziehungen verschieben. So erweist sich ab einer Jahresproduktion entsprechend 65 Prozent der Bezugsstückzahl (Maximalstückzahl des Trendszenarios) die als MS4 bezeichnete hybride Lösung günstiger als das Chaku-Chaku-System MS2. Ein analoges Bild zeigt sich für den Vergleich der Lösungsalternativen MS3, MS5 und MS6. An dieser Stelle werden zugleich Überlegungen zum optimalen Automatisierungsgrad deutlich. Für die Bezugsstückzahl sind aus einer statischen Perspektive durch die hybride Lösung MS5 die niedrigsten Vergleichstückkosten zu realisieren. Allerdings wird zugleich die Sensitivität dieses Ergebnisses deutlich. Während Stückzahlabweichungen nach unten zu einer Dominanz des Chaku-Chaku-Systems führen, erweist sich für Abweichungen nach oben die automatische Lösung als diejenige mit den günstigsten Vergleichstückkosten.
272
T. Spengler, T. Volling, S. Rehkopf
195%
195% 175%
Montagesystem 4
S tückkosten (norm iert)
S tü ckkosten (no rm ie rt)
175% 155% 135% 115%
Montagesystem 2
95%
135% 115%
75%
55%
55% 43%
58% 70% Stückzahl (normiert)
Montagesystem 5
95%
75%
27%
Montagesystem 6
155%
83%
Montagesystem 3 43%
70%
94% 114% Stückzahl (normiert)
134%
Abb. 9. Kostenprofile
Das Ergebnis der dynamischen Betrachtung sind die in Abbildung 10 zusammenfassend dargestellten Handlungsstrategien. Diese entsprechen der optimalen Lösung für die gewählten Prämissen. Auffallend ist, dass unabhängig vom jeweiligen Szenario ausschließlich MS1 und MS3, also die Chaku-Chaku-Systeme, Anwendung finden. Insbesondere die Handlungsempfehlung für Periode 1 erweist sich für die betrachteten Szenarien als robust. Szenario
Jahr des Produktlebenszyklusses 1
Konservativ
Trend
Progressiv
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
-
-
-
-
-
-
-
-
Legende: : Montagesystem 1; : Montagesystem 3
Abb. 10. Ergebnisse der modellbasierten Optimierung
Bei der Realisierung einer Montagealternative nach den in der industriellen Praxis üblichen statischen Überlegungen, würde bei dem konservativen Szenario das Chaku-Chaku-System mit einer Taktzeit von 27 Sekunden gewählt werden. Maßgeblich für diese Entscheidung sind die geringsten Vergleichstückkosten bei Maximalstückzahl des Szenarios. Bei der Betrachtung des Trendszenarios würde nach den vorgestellten Kriterien eine Investition in MS5 vorteilhaft erscheinen während das vollautomatisierte System MS6 die geringsten Vergleichstückkosten bei der Betrachtung des progressiven Szenarios liefert. In Abbildung 11 sind die
Zum Einsatz von Chaku-Chaku-Systemen in der Montage
273
resultierenden mit dem vorgestellten dynamischen Modell ermittelten normierten Kapitalwerte bei einer (Anfangs-)Investition in die zuvor dargelegten Montagesysteme dargestellt. Aus Gründen einer verbesserten Interpretierbarkeit sind die Kapitelwerte auf die jeweils optimale Handlungsalternative der Szenarien normiert. Es zeigt sich, dass die durch statische Überlegungen ermittelten Anfangsinvestitionsstrategien erheblich schlechtere Ergebnisse (in Form des ermittelten Kapitalwertes) liefern, als die mit dem dynamischen Modell ermittelte optimale Lösung. Die Berücksichtigung von Chaku-ChakuSystemen und die Anwendung der mehrperiodigen Analyse eröffnet damit für die dargelegten Rahmenbedingungen nachhaltige Rationalisierungspotenziale.
Kapitalwert (normiert) [%]
160
157
140 131 121
120
112
111 106
100
100
100
100
Montagesystem 80
A uto Hy bri
konservativ trend
Szenario
progressiv
Ch ak u -Ch
m atik
d
aku ( optim a
l)
Abb. 11. Ergebnisse des dynamischen Modells bei Realisierung einer (Anfangs-) Investition, die durch die statische Analyse ermittelt wurde, im Vergleich zur szenariospezifisch optimalen Lösung
6
Schlussbetrachtung
Mit Chaku-Chaku-Systemen wurde für die industrielle Praxis eine Möglichkeit aufgezeigt, marktlich induzierten Flexibilitätsanforderungen wirkungsvoll zu begegnen. Es zeigt sich, dass sich durch Integration organisationszentrierter Aspekte in der Montageplanung nachhaltige Rationalisierungspotenziale unter verstärktem Einsatz menschlicher Arbeitskraft erschließen lassen. Mit zunehmender Unsicherheit kann eine Verschiebung
274
T. Spengler, T. Volling, S. Rehkopf
der optimalen Entscheidungen weg von effizienten Betriebspunkten (statische Betrachtung) hin zu effizienten Anpassungsstrategien (dynamische Betrachtung) beobachtet werden. Konventionelle Bewertungsmethoden, die auf einem undifferenzierten Vergleich von Handlungsalternativen anhand einzelner Beobachtungszeitpunkte beruhen, sind damit in Frage zu stellen. Interessant ist, dass bei der erörterten optimalen Handlungsstrategie bereits vor Erreichen der Maximalausbringung Systemwechsel auftreten. Die betriebswirtschaftlich zweckmäßige Montage setzt damit eine fortwährende Verfolgung geeigneter Kenngrößen und gegebenenfalls strukturelle Anpassungsmaßnahmen voraus. Aus einer wissenschaftlichen Perspektive steht mit dem Chaku-ChakuPrinzip ein Instrument zur montagetechnischen Fortführung heutiger Quick bzw. Efficient Consumer Response Ansätze im Rahmen des Supply Chain Managements zur Verfügung. Die einfache und schnelle Anpassungsfähigkeit von Chaku-Chaku-Systemen an veränderte Nachfragebedingungen ermöglicht eine marktorientierte Leistungserstellung. Allerdings führen die erweiterten Freiheitsgrade zu modifizierten Planungs- und Steuerungsproblemen. In diesem Bereich besteht weitergehender Forschungsbedarf.
Literatur Augustin S (1993) Auswirkungen neuer Organisationskonzepte auf anlagenintensive Unternehmen. Verlag der GAB, Lauf an der Pegnitz Aulinger G, Rist T, Rother M (2003) Montage-Handhabung. Verein Deutscher Ingenieure: VDI-Z 145: 54–56 Bodine WE (1998) Making Agile Assembly Profitable. Manufacturing Engineering 121: 60–69 Bullinger H, Rieth D, Euler HP (1993) Planung entkoppelter Montagesysteme. Teubner, Stuttgart Diegruber J, Meister B (1995) Produzieren ohne Verschwendung. In: Sekine K (Hrsg) Produzieren ohne Verschwendung. Verlag Moderne Industrie, Landsberg/Lech, S 13–24 Däumler K (2000) Grundlagen der Investitions- und Wirtschaftlichkeitsrechnung. Verl. Neue Wirtschafts-Briefe, Herne Eversheim W (1989) Organisation in der Produktionstechnik. VDI-Verlag, Düsseldorf Ewert R, Wagenhofer A (2003) Interne Unternehmensrechnung. Springer, Berlin Heidelberg New York Feldmann K, Junker S (2003) Development of new concepts and software tools for the optimization of manual assembly systems. In: International Institution for Production Engineering Research: CIRP annals 52: 1–4
Zum Einsatz von Chaku-Chaku-Systemen in der Montage
275
Fichtmüller N (1996) Rationalisierung durch flexible, hybride Montagesysteme. Springer, Berlin Heidelberg New York Götze U, Bloech J (2004) Investitionsrechnung. Springer, Berlin Heidelberg New York Haller M (1999) Bewertung der Flexibilität automatisierter Materialflußsysteme der variantenreichen Großserienproduktion. Utz, München Jordan JA, Michel F (2001) The lean company. SME, Dearborn, MI Konold P, Reger H (2003) Praxis der Montagetechnik. Vieweg, Wiesbaden Lay G, Schirrmeister E (2001) Sackgasse Hochautomatisierung. Fraunhofer Institut für Systemtechnik und Innovationsforschung, Karlsruhe Lotter B, Schilling W (1994) Manuelle Montage. VDI-Verlag, Düsseldorf Monden Y (1998) Toyota production system. Engineering Management Press, Norcross, Ga Neugebauer J (2000) Erfolgreich Automatisieren. CIM-Management 16: 9–12 Plinke W, Rese M (2002) Industrielle Kostenrechnung. Springer, Berlin Heidelberg New York Productivity Team (1999) Cellular manufacturing. Productivity Press, Portland, Oregon Rother M, Harris R (2001) Creating continuous flow. Lean Enterprise Institute, Brookline, Massachusetts Schimpf T (2001) Effizientes Prozesskostenmanagement in montageunterstützenden Bereichen. In Westkämper E, Bullinger HJ, Horvath P, Zahn E (Hrsg) Montageplanung. Springer, Berlin Heidelberg New York, S 157–192 Schmidt S (2003) Erfolgreiche Automatisierung in der Montage. Wetzlarer Fachtagung für Automatisierungstechnik, Wetzlar Schraft RD, Kaun R (1998) Automatisierung der Produktion. Springer, Berlin Heidelberg New York Schreiber M (1994) Wirtschaftliche Investitionsbewertung komplexer Produktionssysteme unter Berücksichtigung von Unsicherheit. Dissertation, Universität Karlsruhe Sekine K (1995) Produzieren ohne Verschwendung. Verlag Moderne Industrie Landsberg/Lech Spath D, Baumeister M (2000) Hybride Montagesysteme mit absatzsynchroner Materialbereitstellung. CIM-Management 16: 35–38 Spengler T, Schröter M (2003) Strategic Management of Spare Parts in Closedloop Supply Chains – a System Dynamics Approach. Interfaces 33:7–17 Sullivan WG, McDonald TN, Van Aken EM (2002) Equipment replacement decisions and lean manufacturing. Robotics and computer integrated manufacturing 18: 255–266 Takeda H (1996) Das System der Mixed Production. Verlag Moderne Industrie, Landsberg/Lech Takeda H (2004) Das synchrone Produktionssystem. Redline Wirtschaft, Frankfurt am Main
Product and Raw Material Storage at Omnova Solutions: A Case Study Michael Jacob, Danny Myers Department of Applied Statistics and Operations Research, Bowling Green State University, Bowling Green, OH 43402 USA [email protected], [email protected]>
Abstract Management at Omnova Solutions, a manufacturing firm located in the southeastern United States, recently eliminated a product line. This led to the partial closing of a warehouse and created a storage problem due to relocation of finished products to the production facility. These finished products compete for storage space with raw materials used to produce the products. The goal of this research is to come up with an efficient storage plan for these items.
1
Introduction
Omnova Solutions’ manufacturing facility in Monroe, North Carolina (USA) has two major types of material to store during any given month, raw materials and finished products. Finished products build up throughout the month and are shipped out within a few days at the end of the month. The quantity of raw materials used to make and package the finished products do not fluctuate greatly during the month compared to the finished products. These two types of items will be referred to collectively as products throughout this paper. Management at the plant would like to be able to place and retrieve these products only once. The plant has some floor space dedicated to the storage of some of the taller and heavier products but the major form of storage at the plant is metal racks. Racks basically consist of four uprights arranged in a rectangle with cross members across the long sides to create a series of shelves. The combination of suboptimal racking setup and limited number of racks has forced the company to store some of the products on the floor in front of the racks as inventory grows. This necessitates multiple movements of products when products on the
278
M. Jacob, D. Myers
racks need to be shipped before those on the floor. Management would like to find a setup for the current racks so that all of the products (except for the larger and heavier items) can be placed in the racks, if possible. If this is not possible, they would like to minimize the number of additional racks they will need in order to place all products in racks. Finding a better racking setup and determining a minimum number of additional racks can be broken down as first filling a horizontal shelf of the rack and then allocating these shelving strips to fill the rack vertically. This is the basic premise behind two-dimensional bin packing and twodimensional cutting stock problems. Such problems are NP-hard and hence are usually solved by heuristics that have no guarantee of optimality. The case of placing products in racks can be described in the language of bin packing as problems having fixed orientation and guillotine cuts. Fixed orientation means that a product cannot be rotated before placing it in the racks, while the guillotine constraint forces the items to be placed through a series of top to bottom cuts parallel to the edges of the rack. This situation is depicted in figure 1. Even if a product does not take up the entire vertical space, another product cannot be placed on top of it in the shelf because the nature of the products prohibits stacking them on the same shelf.
Prod 1
Prod 2 Prod 3
Prod 4
Fig. 1. Demonstration of guillotine constraint
2
Previous Research
Many articles have been written on the two-dimensional bin packing problem as well as the closely related two-dimensional cutting stock problem. Methods proposed for finding solutions to these problems range from classical optimization techniques such as branch and bound (Martello and Vigo 1998), dynamic programming (Christofides and Hadjiconstantinou
Product and Raw Material Storage at Omnova Solutions: A Case Study
279
1995; Antonio et al.1999) to the finite fit heuristics of Berkey and Wang (1987), the “modern” heuristics of tabu search (Bortfeldt and Gehring, 1998), genetic algorithms (Kroeger 1995; Gehring and Bortfeldt 1997), and ant colony optimization (Levine and Ducatelle 2004). Other heuristic and metaheuristic approaches are described by Lodi et al.(1999) and also by Faina (1999). For a recent survey of research on two-dimensional bin packing problems, see Lodi et al. (2002). In addition to some of the techniques mentioned above, this survey contains an interesting graphtheoretic model for two-dimensional packing by Fekete and Schepers (1997). Morabitio and Arenales (1996) also apply graph theory concepts in solving two-dimensional cutting problems. The majority of the solution approaches in the literature are based on finding solutions in parts (placing items in strips first and then placing the strips in the bins) or first finding a feasible solution and then improving the solution. The basic premise behind each of these algorithms is that there are a number of rectangles each with a given height and width that must fit into an unlimited supply of uniformly dimensioned containers. The idea is to maximize the space used in each container and therefore minimize the number of containers it takes to contain all of the rectangles. At Omnova Solutions, the situation is more complicated due to the variety of available rack sizes. None of the existing algorithms address this issue. Another difference between typical bin packing and the Omnova Solutions case is the relaxed constraint on height. In the traditional problem, rectangles are placed until none will fit in the height allowed. When dealing with racks, the top of the product can be above the top of the rack as long as the bottom of the product is not above the top of the rack because the ceiling at the Omnova Solutions facility is high enough above the top of the rack to permit this. This is essentially a flexible height limit that must be handled differently than the traditional height limit.
3
Model
For each rack, the problem can be described as: m
Max
n
∑∑ x k =1 i =1
ik
wi hi
Subject to: n
∑x i =1
ik
wi ≤ W
k = 1, K, m
xik ≤ q i i = 1, K, n, k = 1, K , m
280
M. Jacob, D. Myers m
∑S k =1
k
≤H
y ik hi ≤ S k 1 ≤ i ≤ n , 1 ≤ k ≤ m xik ≤ y ik * M 1 ≤ i ≤ n , 1 ≤ k ≤ m xik integer,
yik =1 if product i is placed on shelf k, 0 otherwise, where • W is the width of the rack. • H is the effective height of the rack-defined as the height of the rack minus the distance that a new shelf can be placed from the top. • xik is the number of units of product i placed on shelf k,
wi is the width of product i, • hi is the height of product i, • qi is the quantity of product i left to place and n is the number of prod•
ucts. • S k is the height of shelf k and m is the number of shelves in the rack. The bound on m is computed by m = int( H / min(hi )) over all i. The sum of shelf heights is forced to be less than the height of the rack. A new shelf can then be placed at the top of this rack.
4
Solution Techniques
The description above gives the major details about the situation at Omnova Solutions but there are a few details that remain to be mentioned. A small number of racks are situated next to the machinery used to make the finished products. These racks are used to hold raw materials and packaging materials. For these racks, constraints have to be added so that only these types of products are considered. Furthermore, some products are too heavy to be placed on the shelves of a rack and must be placed on the floor in a specially designated area of the facility or on the floor below a rack. Some of these products are also arranged two deep under the racks. These situations are addressed separately from finding a solution to filling the racks.
Product and Raw Material Storage at Omnova Solutions: A Case Study
281
Information about Omnova’s products is contained in an EXCEL® spreadsheet. The information includes each product’s purpose, height, width, and depth, the number that need to be stored, and whether or not the product needs to be placed on the floor. Other information required to carry out the analysis is any necessary buffer on the width and height of the products. A width buffer is used to allow for space between the products to make placing them easier. A height buffer is used to account for the height of the cross-member for the shelf above the product as well as providing space to place the product safely. Before carrying out the analysis, the user must input information about the available storage capability. This includes the dimensions of each type of rack, the intended use of the rack (some are limited to specific storage uses), and the number of units of this type of rack that are currently available. Furthermore, they must input the size of any floor area that is to be designated as storage space and any limitations on its use. The last input is a dimension of racking to be used if the products cannot be placed in the available racking. Output is created that gives the user suggestions for the number of shelves for each rack and the height of each of the shelves. The number of extra racks of the input dimension is also output along with number of shelves for each new rack and height for each of the shelves. The placement of each product is output as well. This is given as a rack or floor number, the rack number within that rack group, the shelf, and the distance from the left side of the shelf to the left side of the product. As mentioned earlier, some tall and/or heavy products have traditionally been placed in designated areas on the floor. In our approach, this space is filled first by sorting the products initially by whether a product must be placed on the floor and then in non-increasing order by height. This insures that the tallest products that must be placed on the floor will be placed in this floor area and not take up space under a rack. The algorithm used to determine how to fill this space is not a critical part of the analysis because the space is not very large and it is not likely to affect the final outcome significantly. The floor space is filled using a naïve approach which evaluates each product to see if it fits in the space provided either by placing the product straight in or by rotating the product. Products are then placed until all of a given product is in place or there is no more space for products. The remaining products that must be placed on the floor are then placed directly on the floor under the first shelf of a rack (Effectively, this constitutes the first shelf of the rack.). This is done by first sorting the racks so that those that have a specific purpose are evaluated first. For each remaining product requiring floor placement, the racks are examined for use compatibility and amount of space left on the first shelf. The first rack with the same use as the product or no specified use and sufficient space avail-
282
M. Jacob, D. Myers
able is used to store the product. If there are more than one of a product and it is not too deep, two of the products are placed at the same horizontal position. This could lead to a three-dimensional problem but only a few products are allowed to be placed like this and they may be placed only in front of an identical product. Basically this has the effect that two units of the product are treated as one product with twice the depth. The height of the shelf is set to the height of the first product placed on the shelf since the products are sorted in non-increasing order. This height is then subtracted from the available height of the rack. This process continues until all products that need to be placed on the floor have been placed. After handling these two special situations, the procedure considers the placement of the remaining products in racks. Except for the variations in effective rack height due to the onfloor/under-rack storage, placing the off-the-floor products in the remaining shelf space is a classical bin packing problem. Five different techniques were examined for placing the products in the racks and the results were compared. Each technique requires that the products be sorted by non-increasing height. The first approach is described by Lodi et al. (1999) as finite first fit (FFF). The idea is to place each product in the first shelf that will accommodate its width and use. If no shelves can do this, a new shelf is created. If there is no room for the new shelf on the current rack, a shelf is created on the next rack. This process continues until all products are placed or the products left have no existing rack in which they will fit. The racking dimension supplied by the user for additional racking is then used to place all of the remaining products using the same approach. Different ways of sorting the racks were tried but using the racks with a specific use first and then using the racks in order of non-decreasing height worked best. All of the remaining algorithms were inspired by a knapsack algorithm described by Lodi et al. (1999). The first of these algorithms will be referred to as KS Tall Product, Tall Shelf (KS-TPTS). As an initial step the racks are sorted first by whether they have a specific use and then in nondecreasing order by height and finally in non-decreasing order by width. The algorithm fills up shelves with all of the products left to place for each new width or rack use it encounters. It does this by first placing the tallest product available in the shelf. A product knapsack problem is then set up having a variable for each unplaced product i with the structure:
Product and Raw Material Storage at Omnova Solutions: A Case Study
∑x
Max
i
i
283
* wi * hi
Subject to:
xi ≤ q i
∑x i
i
* wi ≤ W
xi ≥ 0 , integer
where • xi is the quantity of product i placed, • wi is the width of product i, • hi is the height of product i, • qi is the quantity of product i that is left to be placed after the first product is placed on the current shelf, and • W is the width of the shelf available after the first product is placed on the shelf. The objective function ensures that the maximum amount of total space is used since it is based on total area. This ensures that vertical space is not wasted at the expense of totally filling a shelf horizontally. This problem was set up and solved until every product was placed on a temporary shelf. Placing the shelves in racks is then done by first placing the tallest shelf into the current rack. A shelving knapsack problem is then created for this problem with the structure: Max y * hk k k
∑
Subject to
yk ≤ qk
∑
k
y k * hk ≤ H
y k ≥ 0 , integer
where • y k is the quantity of shelves of height k placed, • hk is the height of shelf k, • q k is the number of shelves of height k available to place after the first shelf is placed in the rack, and • H is the available height of the rack.
284
M. Jacob, D. Myers
This value is computed by subtracting the height of the first shelf plus the distance a new shelf can be placed to the top from the height of the rack. For example, consider a rack of height 168”. If a new shelf must be placed at least six inches from the top and the first shelf was forty inches tall, then H=168-(40+6)=122. After placing the shelves as suggested by the solution of the shelving knapsack problem, the tallest shelf available is then placed at the top of this rack. This problem is solved for each rack until all of the shelves are gone or the rack use or width changes. When the use or width changes, the product knapsack problems are solved again and then these new shelves are used in solving the shelving knapsack problem for racks of this use and width. This continues until all products are placed or all of the racks have a solution. If not all of the products are placed, the dimensions for additional shelving are used and racks of these dimensions are filled according to the same algorithm until all of the products are placed. The third algorithm, referred to as KS Random Product, Random Shelf (KS-RPRS), is the same as KS-TPTS except for the selection of the first product to be placed and the first shelf to be placed. The first product to be placed on a shelf is randomly chosen from the products left to be placed. The product knapsack problem is set up exactly the same as before, but if a product is taller than the first product placed on the shelf, is set to zero. This forces all products placed on the shelf to be the same height or shorter than the original. The first shelf placed in a rack is also chosen randomly from the shelf heights that are left to place. The shelving knapsack problem is then solved exactly as before and the tallest shelf left is placed at the top of the rack. Various ways of sorting the racks were tried, but they did not affect the final solution. The next algorithm, referred to as KS Tall Product, KS Shelf (KSTPKSS) was tried after seeing the results from the previous two. The products are placed on the shelves as in KS Tall Product, Tall Shelf, but the shelves are placed into the rack by solving a knapsack problem without first placing any shelf in the rack first. The tallest shelf left is then placed at the top of the rack. The final algorithm examined is a blend of KS Tall Product, Tall Shelf and KS Random Product, Random Shelf and is called KS Tall Product, Random Shelf (KS-TPRS). As the name implies the tallest product is placed on the shelf and then the product knapsack problem is solved exactly as in KS Tall Product, Tall Shelf. The first shelf is then placed into each rack randomly. The rest of the rack is solved using the shelving knapsack set up and the tallest shelf left is placed on the top.
Product and Raw Material Storage at Omnova Solutions: A Case Study
5
285
Results
Each of these algorithms was tested using the same product and storage data and the same dimensions for additional racking. The product types, dimensions, and quantities to place are presented in Table 1. There are a total of 447 products that need to be stored. Product quantities given in the table are management’s estimates of the maximum amount of each product expected to be in the plant at any given time. The storage available is summarized in Table 2. There are currently five different sizes of racks and a total of thirty-three racks in the plant. The floor space was set at a dimension to contain all of the finished good with height 87 inches. This was done because this product is currently being stored in that area of the plant. The dimensions for additional racking were chosen as 105” x 168” because this is the dimension of current racking that appears to waste the least horizontal space and because the company wants to avoid creating more variation in the types of racks used for storage. The results of each algorithm are presented in Table 3. Table 1. Product descriptions
Packaging
Width (inches) 47
Depth (inches) 51
Height (inches) 70
Packaging
47
51
70
5
Packaging
47
51
70
2
Packaging
45
63
70
5
Packaging
47
67
70
2
Packaging
47
91
76
2
Packaging
47
95
76
2
Packaging
47
53
70
3
Packaging
47
64
70
3
Packaging
47
84
54
12
Packaging
50
71
54
11
Packaging
47
67
54
11
Packaging
47
77
54
11
Packaging
47
84
54
11
Packaging
56
101
54
11
Packaging
38
38
38
2
Packaging
28
28
40
2
Packaging
36
36
38
2
Type
Quantity 2
286
M. Jacob, D. Myers
Packaging
Width (inches) 38
Depth (inches) 38
Height (inches) 38
Packaging
38
38
38
2
Packaging
35
35
37
2
Packaging
44
67
46
4
Packaging
27
60
27
3
Packaging
22
21
15
8
Packaging Finished Goods Finished Goods Finished Goods Finished Goods
44
44
54
12
44
54
24
105
32
66
26
60
44
66
50
120
40
57
87
30
Type
Quantity 2
Table 2. Storage available Width (inches)
Height (inches)
Quantity
Rack
120
144
13
Rack
105
168
14
Item
Use
Rack
120
192
2
Rack
Packaging
96
192
2
Rack
Packaging
144
192
2
Floor
43
1800
Additional Racking
105
168
Table 3. Comparison of algorithms Method FFF KS-TPTS KS-RPRS KS-TPKSS KS-TPRS
Additional Racks Needed 20
Total Horizontal Wasted Space 2385
13 15 15 15
2076 2580 2340 2106
Computation time (secs.) 2.64 89.41 86.03 97.39 83.95
FFF obviously shows the worst performance in the group being by far the fastest running algorithm (on a Dell PC with 1.8 GHz Pentium® 4 Processor). This was to be expected since it is purely heuristic and makes no attempt at optimization. Based on this result, the plant would need to
Product and Raw Material Storage at Omnova Solutions: A Case Study
287
install 20 additional racks to store all of their products. The other algorithms are close to one another in outcome as well as time to run, but KS Tall Product, Tall Shelf produced the best result in terms of the number of additional racks to be used and also horizontal wasted space. KS Tall Product, Tall Shelf indicates that 13 additional racks will need to be installed to contain all of the products. The remaining heuristics all indicate that 15 additional racks need to be installed. Thus, for Omnova Solutions’ projected worst case storage situation, KS Tall Product, Tall Shelf produces the best results. To assess the effect of errors in management’s estimates of demand for storage space, four additional data sets were generated by randomly revising the initial maximum quantity estimate for each product within a range of plus or minus ten percent. Table 4 contains the results of applying each of the five heuristics to the four new data sets. For each data set, KS Tall Product, Tall Shelf is again the winner in terms of packing the products using the fewest number of additional racks. Table 4. Results for revised quantity estimates Dataset
Method
Additional Racks Needed
Total Horizontal Wasted Space
FFF KS-TPTS KS-RPRS KS-TPKSS KS-TPRS
20 13 15 17 14
2371 1972 2602 2570 1987
2,80 90,45 89,05 109,48 88,56
FFF KS-TPTS KS-RPRS KS-TPKSS KS-TPRS
19 12 15 17 13
2316 2007 3012 2594 1946
2,83 87,99 90,29 111,10 85,54
FFF KS-TPTS KS-RPRS KS-TPKSS KS-TPRS
21 13 15 18 15
2341 2038 2679 2735 2085
3,06 94,75 101,89 112,06 91,23
FFF KS-TPTS KS-RPRS KS-TPKSS KS-TPRS
20 12 14 17 13
2225 2015 2535 2549 1935
2,98 95,46 91,03 111,65 91,03
Computation Time
1
2
3
4
288
M. Jacob, D. Myers
An EXCEL®-based decision support system utilizing Visual Basic® for Applications was developed for implementing these methods. The company intends to use the models in planning future storage modifications. Future academic work in this project is to develop a theoretical lower bound for the number of racks needed to see how well these algorithms are performing. Several techniques exist for developing lower bounds for traditional two-dimensional bin packing problems but nothing concerning problems with different sized bins. In a recent article, Lodi et al. (2004) present a new mathematical model for the two-dimensional level packing problem and use it to develop improved bounds for this problem. This work may be useful in obtaining bounds for the problem discussed herein. Additional future work involves investigating the use of the algorithms described in this paper combined with some type of local search procedure. Metaheuristics such as simulated annealing and ant colony optimization techniques have been used by others on these types of problems so they are both promising possibilities here also.
References Antonio J et al (1999) The cutting stock problem with mixed objectives: Two heuristics based on dynamic programming. European Journal of Operational Research 114: 395-402 Berkey J, Wang Y (1987) Two-dimensional finite bin-packing algorithms. Journal of the Operational Research Society 38: 423-429 Bortfeldt A, Gehring H (1998) Ein Tabu Search-Verfahren für Containerbeladeprobleme mit schwach heterogenem Kistenvorrat. Operations Research Spektrum 20: 237-250 Christofides N, Hadjiconstantinou E (1995) An exact algorithm for orthogonal 2D cutting problems using guillotine cuts. European Journal of Operational Research 83: 21-38 Faina L (1999) An application of simulated annealing to the cutting stock problem. European Journal of Operational Research 114: 542-556 Fekete S, Schepers J (1997) On more-dimensional packing I: Modeling. Technical paper ZPR97-288, Mathematisches Institut, Universität zu Köln Gehring, H, Bortfeldt A (1997) A genetic algorithm for solving the container loading problem. International Transactions in Operational Research 4: 401-418 Kroeger B (1995) Guillotineable bin packing: A genetic approach. European Journal of Operational Research 84: 645-661 Levine J, Levine F (2004) Ant colony optimisation and local search for bin packing and cutting stock problems. Journal of the Operational Research Society 55: 705-716 Lodi A, Martello S, Monaci M (2002) Two-dimensional packing problems: A survey. European Journal of Operational Research 141: 241-252
Product and Raw Material Storage at Omnova Solutions: A Case Study
289
Lodi A, Martello S, Vigo D (1999) Heuristic and metaheuristic approaches for a class of two-dimensional bin packing problems. INFORMS Journal on Computing 11: 345-357 Lodi A, Martello S, Vigo D (2002) Heuristic algorithms for the three-dimensional bin packing problem. European Journal of Operational Research 141: 410-420 Lodi A, Martello S, Vigo D (2004) Models and bounds for two-dimensional level packing problems. Journal of Combinatorial Optimization 8: 363-379 Martello S, Vigo D (1998) Exact solution of the two-dimensional finite bin packing problem. Management Science 44: 388-399 Morabito R, Arenales M (1996) Staged and constrained two-dimensional guillotine cutting problems: An AND/OR-graph approach. European Journal of Operational Research 94: 548-560
Fallstudie zur Logistikkostenrechnung: Darstellung und vergleichende Analyse verschiedener Verfahren Christoph Siepermann Forschungsgruppe Produktionswirtschaft und Logistik, Universität Kassel, FB 7 – Wirtschaftswissenschaften, Nora-Platiel-Str. 4, 34127 Kassel, [email protected]
Abstract In der Literatur werden mit der Logistikkostenrechnung nach Weber, nach Reichmann und der Prozesskostenrechnung unterschiedliche Verfahren zur Verbesserung der Aussagefähigkeit der Kostenrechnung in Bezug auf den Ausweis und die Verrechnung von Logistikkosten diskutiert. Die Verfahren werden üblicherweise anhand isolierter Beispiele erläutert und mit der klassischen Kostenrechnung verglichen, so dass ein unmittelbarer und in Einzelheiten nachvollziehbarer Ergebnisvergleich nicht möglich ist. Dieser Beitrag präsentiert eine Fallstudie, die die relevanten Verfahren der Logistikkostenrechnung (einschließlich der klassischen Kostenrechnung) anhand durchgehender Zahlen erläutert.
1
Problemstellung
Die klassische Kostenrechnung erlaubt aufgrund ihrer primären Ausrichtung auf den Produktionsbereich im allgemeinen keine verursachungsgerechte Verrechnung der Logistikkosten auf die betrieblichen Kostenträger, da eine zentrale Voraussetzung für eine verursachungsgerechte Kostenverrechnung, nämlich die Erfassbarkeit eines Großteils der Kosten als (Kostenträger-) Einzelkosten, in der Logistik im Gegensatz zur Produktion zumindest für die Kosten logistischer Eigenleistungen in der Regel nicht gegeben ist. Aber auch die Kosten fremdbezogener Logistikleistungen lassen sich entgegen in der Literatur zu findender anders lautender Aussagen
292
C. Siepermann
(vgl. Weber 2002a, S. 106) nur selten als (Kostenträger-) Einzelkosten erfassen (vgl. Rogler 1997, S. 594). Logistikkosten stellen vielmehr überwiegend Gemeinkosten dar, die in der klassischen Kostenrechnung aufgrund des unterstellten fehlenden Produktbezugs dieser Kosten nur pauschal und undifferenziert auf die Kostenträger verrechnet werden. So werden für die Verrechnung von Logistikkosten auf die Kostenträger überwiegend indirekte Bezugsgrößen (Materialeinzelkosten, Fertigungslöhne bzw. Herstellkosten) herangezogen, so dass ein Produkt um so stärker mit Logistikgemeinkosten belastet wird, je höher dessen Materialwert, dessen Fertigungseinzelkosten und dessen Herstellkosten sind. Der logistische Aufwand, den ein Produkt verursacht, hängt jedoch keineswegs von diesen Größen ab, sondern vielmehr von der individuellen Inanspruchnahme der Leistungen der Logistikendkostenstellen. Beispielsweise wird ein Produkt, das aus vielen geringwertigen Einzelteilen besteht, einen wesentlich höheren beschaffungslogistischen Aufwand verursachen als ein Produkt, das aus wenigen teuren Komponenten besteht. In der klassischen Zuschlagskalkulation wird das zweite Produkt jedoch aufgrund seines höheren Materialwertes mit mehr Logistikgemeinkosten belastet als das Produkt der ersten Kategorie. Das gleiche gilt für Produktions- und Distributionslogistikkosten, wobei im Falle der Produktionslogistikkosten auch eine Kalkulation mit Maschinenstundensätzen nichts an der Problematik ändert, da auch die Fertigungszeit nicht ausschlaggebend für den produktionslogistischen Aufwand ist, den ein Produkt verursacht; dieser hängt vielmehr von der Komplexität der Fertigungsprozesse ab. Ebenso werden die Distributionslogistikkosten eines Produktes nicht von den Herstellkosten, sondern vielmehr von dessen Lager- und Transporteigenschaften (z.B. Abmessungen, Gewicht) beeinflusst (vgl. Weber 2002b, S. 247). Aus diesen Zurechnungsfehlern resultieren verzerrte Kosteninformationen, die bei einem Logistikkostenanteil an den Gesamtkosten von bis zu 25% (vgl. Baumgarten 2002) und angesichts der zunehmenden Bedeutung der Logistik als Wettbewerbsfaktor (vgl. Straube 2001, S. 178-181) zu erheblichen Fehlentscheidungen führen können. Hinzu kommt, dass die Logistikkosten in der klassischen Kostenrechnung nicht separat, sondern als Teil der Beschaffungs-, Produktions-, Vertriebs- und ggf. Verwaltungsgemeinkosten ausgewiesen werden, da es sich bei vielen Logistikkostenstellen um Vorkostenstellen handelt und auch die Kosten der Logistikendkostenstellen undifferenziert zusammen mit den übrigen Gemeinkosten der jeweiligen Bereiche verrechnet werden. Diese Vorgehensweise hat eine unzureichende Transparenz der Logistikkosten zur Folge. Vor diesem Hintergrund haben sich zwei grundsätzliche Lösungsalternativen herausgebildet, um zu einer erhöhten Transparenz und verursa-
Fallstudie zur Logistikkostenrechnung
293
chungsgerechten Zuordnung der Logistikkosten auf die Kostenträger zu gelangen: • Weber schlägt eine Verfeinerung der klassischen Kostenrechnung vor und bezeichnet diese als Logistikkosten- und -leistungsrechnung (vgl. Weber 2002b). Einen ähnlichen Ansatz verfolgt auch Reichmann (vgl. Reichmann 2001, S. 421-429). • Die zweite Alternative besteht in der Anwendung der speziell für die indirekten Leistungsbereiche entwickelten Prozesskostenrechnung, die ebenfalls als Form der Logistikkostenrechnung (im weiteren Sinne) angesehen werden kann. Die einzelnen Verfahren werden üblicherweise anhand isolierter, häufig nicht einmal in sich geschlossener Beispiele dargestellt, so dass die verwendeten Zahlen und damit die Ergebnisse nicht vollständig nachvollziehbar sind. Ein Vergleich der von den unterschiedlichen Verfahren einschließlich der klassischen Kostenrechnung gelieferten Ergebnisse ist aufgrund dieser Vorgehensweise erst recht nicht möglich. Zur Schließung dieser Lücke wird im Folgenden eine Fallstudie vorgestellt, die die einzelnen Verfahren der Logistikkostenrechnung anhand eines durchgehenden Beispiels erläutert und mit der klassischen Kostenrechnung vergleicht. Dabei wird eine kombinierte Voll- und Grenzkostenrechnung zugrunde gelegt. Auf diese Weise werden Gemeinsamkeiten und Unterschiede der in der Literatur diskutierten Vorgehensweisen deutlich gemacht.1
2
Ausgangsdaten der Fallstudie
Dieter Unkel und seine Söhne Heinz-Dieter und Klaus-Dieter sind Inhaber der Firma „D. Unkel & Söhne GmbH“. Das Unternehmen ist auf die Herstellung von Leuchten spezialisiert. Dabei werden drei Produktgruppen unterschieden: • Produktgruppe I: Deckenleuchten • Produktgruppe II: Tischleuchten • Produktgruppe III: Lichterketten
1
Das Beispiel basiert auf einer umfangreichen Excel-Arbeitsmappe, die beim Verfasser kostenfrei bezogen werden kann.
294
C. Siepermann
Das Unternehmen stellt folgende Produkte her: • • • • • •
Produkt 1: Produkt 2: Produkt 3: Produkt 4: Produkt 5: Produkt 6:
12-armiger Kronleuchter einfacher Bauart mit Hütchen Hochwertige rostfreie Badleuchte Schreibtischlampe für den europäischen Markt Schreibtischlampe für den außereuropäischen Markt Weihnachtsbaum-Lichterkette 12 Volt mit Trafo Party-Lampionkette (220 Volt)
Die Produkte 1 und 2 gehören zu Produktgruppe I, die Produkte 3 und 4 zu Produktgruppe II und die Produkte 5 und 6 zu Produktgruppe III. Die Fertigung vollzieht sich in fünf Kostenstellen: • • • • •
Fertigung I: Fertigung II: Fertigung III: Fertigung IV: Fertigung V:
Herstellung der Hütchen für Produkt 1 Herstellung der Metallteile für Produkt 1 und 2 Montage der Produkte 1 bis 4 Trafoherstellung für Produkt 5 Herstellung der Lichterketten (Produkt 5 und 6)
Tabelle 1 zeigt die produktbezogenen Ausgangsdaten. In Tabelle 2 sind die sich unter Berücksichtigung der herzustellenden und abzusetzenden Stückzahlen ergebenden Umsatzerlöse, Einzelkosten und das sich daraus ergebende Mengengerüst der Periode dargestellt. Der untere Teil von Tabelle 1 macht die unterschiedliche Logistikintensität der einzelnen Produkte deutlich. So sind die Produkte 1 und 5 aufgrund ihrer Teilevielfalt durch einen im Vergleich zu den übrigen Produkten höheren beschaffungslogistischen Aufwand gekennzeichnet. Produkt 1 verursacht zusätzlich aufgrund des größeren Volumens und Gewichts einen höheren Aufwand in der Distributionslogistik als die übrigen Produkte. Durch die unterschiedliche Zahl an Arbeitsgängen und die unterschiedlichen Losgrößen unterscheiden sich die Produkte ferner in der Inanspruchnahme produktionslogistischer Leistungen. Schließlich verursacht Produkt 4 aufgrund seiner Bestimmung für den außereuropäischen Markt einen höheren Aufwand in der Auftragsabwicklung als die übrigen Produkte. Tabelle 3 enthält die Plankosten der einzelnen Kostenstellen und Tabelle 4 die für die innerbetriebliche Leistungsverrechnung benötigten Leistungsverflechtungen zwischen Vor- und Endkostenstellen. Aus Gründen der Übersichtlichkeit wurde die Kostenspaltung in variable und fixe Kosten in Tabelle 3 nur für die Kostenstellen insgesamt und nicht, wie normalerweise üblich, je Kostenart dargestellt. In Tabelle 4 sind in der Zeile "variabel" jeweils die in Abhängigkeit vom Leistungsvolumen der empfangenden Kostenstellen nachgefragten Leistungsmengen dargestellt. Die Zeile "fix" enthält diejenigen Leistungsmengen, die unabhängig vom Leis-
Fallstudie zur Logistikkostenrechnung
295
tungsvolumen der empfangenden Kostenstellen nachgefragt werden. Beispielsweise werden vom innerbetrieblichen Transport 5 Werkstattstunden unabhängig von der Anzahl der geplanten Transporte für zeitabhängige Instandhaltungsmaßnahmen in Anspruch genommen; 25 Werkstattstunden fallen hingegen aufgrund des geplanten Transportvolumens an. Tabelle 1. Produktbezogene Ausgangsdaten Stückzahl Stückerlös Durchlaufene Fertigungsstellen Fertigungsmaterial Fertigungslöhne Fertigung I Fertigungslöhne Fertigung II Fertigungslöhne Fertigung III Fertigungslöhne Fertigung IV Fertigungslöhne Fertigung V Summe Fertigungslöhne Maschinenstunden Fertigung I Maschinenstunden Fertigung II Maschinenstunden Fertigung III Maschinenstunden Fertigung IV Maschinenstunden Fertigung V Summe Maschinenstunden Anzahl fremdbezogener Teile Anzahl Teilearten Fertigungslosgröße Anzahl Arbeitsgänge je Los Volumen Gewicht
[Stück/Periode] [€/Stück] [€/Stück] [€/Stück] [€/Stück] [€/Stück] [€/Stück] [€/Stück] [€/Stück] [Std./Stück] [Std./Stück] [Std./Stück] [Std./Stück] [Std./Stück] [Std./Stück] [Teile/Stück] [Teilearten/St.] [Stück/Los] [AG/Los] [m³/Stück] [kg/Stück]
P1 1.500 95,00 I, II, III 20,00 2,00 6,00 4,00
12,00 0,30 0,50 0,25
1,05 100 30 25 34 1,0 5,0
P2 1.500 95,00 II, III 20,00
P3 1.500 35,00 III 5,00
P4 500 35,00 III 5,00
10,00 2,00
5,00
5,00
12,00
5,00
5,00
0,50 0,25
0,50
0,50
0,75 5 5 100 8 0,1 0,5
0,50 5 5 100 4 0,1 0,5
0,50 5 5 10 4 0,1 0,5
P5 500 25,00 IV, V 8,00
P6 500 35,00 V 6,00
2,00 2,00 4,00
4,00 4,00
0,50 0,25 0,75 100 3 10 7 0,1 0,5
0,25 0,25 20 2 100 4 0,1 0,5
Tabelle 2. Einzelkosten und Mengengerüst der Periode Umsatzerlöse Fertigungsmaterial Fertigungslöhne Fertigung I Fertigungslöhne Fertigung II Fertigungslöhne Fertigung III Fertigungslöhne Fertigung IV Fertigungslöhne Fertigung V Summe Fertigungslöhne Maschinenstunden Fertigung I Maschinenstunden Fertigung II Maschinenstunden Fertigung III Maschinenstunden Fertigung IV Maschinenstunden Fertigung V Summe Maschinenstunden Anzahl fremdbezogener Teile Anzahl Fertigungsaufträge/-lose Anzahl Arbeitsgänge Volumen Gewicht
P1 [€/Periode] 142.500 [€/Periode] 30.000 [€/Periode] 3.000 9.000 [€/Periode] [€/Periode] 6.000 [€/Periode] [€/Periode] 18.000 [€/Periode] [Std./Periode] 450 [Std./Periode] 750 375 [Std./Periode] [Std./Periode] [Std./Periode] [Std./Periode] 1.575 [Teile/Periode] 150.000 60 [Lose/Periode] [AG/Periode] 2.040 1.500 [m³/Periode] 7.500 [kg/Periode]
P2 142.500 30.000
P3 52.500 7.500
P4 17.500 2.500
15.000 3.000
7.500
2.500
18.000
7.500
2.500
750 375
750
250
1.125 7.500 15 120 150 750
750 7.500 15 60 150 750
250 2.500 50 200 50 250
P5 12.500 4.000
P6 17.500 3.000
1.000 1.000 2.000
2.000 2.000
250 125 375 50.000 50 350 50 250
125 125 10.000 5 20 50 250
Summe 385.000 77.000 3.000 24.000 19.000 1.000 3.000 50.000 450 1.500 1.750 250 250 4.200 227.500 195 2.790 1.950 9.750
296
Tabelle 3. Plankosten der Kostenstellen
Fertigungsmaterial Fertigungslöhne
Innerbetrieblicher Tr ans port
Technische Betriebs leitung
Fer tigungssteuer ung
W arenannahme
Materiallager
127.000 104.500 66.200 9.850 25.600 23.550 229.700 46.300 183.400
Fertigung I
Fertigung II
Fertigung III
Fertigung IV
Endkostenstellen Verwaltungsbereich
Fertigung V
Rechnungswesen
Endkostenstellen Vertriebsbereich Fertigwarenlager
G es chäftsführung
P ersonalabteilung
Ver sand
Leitung Vertriebsbereich
Vertrieb
77.000
77.000 50.000
Summe Einzelkosten Personalkosten Anlagenkosten Materialkosten (ohne Fertigungsmaterial) Energiekosten Sonstige Gemeinkosten Summe primäre Gemeinkosten davon variabel davon fix
Leitung Materialbereich
E inkauf
0 6.250 1.500 1.000 1.000 2.250 12.000 4.000 8.000
0 6.250 3.250 100 3.000 1.000 13.600 7.500 6.100
0 3.500 500 100 200 100 4.400 400 4.000
0 3.500 500 100 200 100 4.400 400 4.000
0 12.500 750 250 500 500 14.500 2.000 12.500
0 9.500 3.500 200 500 500 14.200 5.000 9.200
77.000 9.500 200 100 200 100 10.100 1.000 9.100
0 3.500 200 100 200 100 4.100 0 4.100
3.000
24.000
19.000
1.000
3.000
24.000
19.000
1.000
3.000
2.000 1.000 1.000 1.000 5.000 1.000 4.000
28.000 1.000 5.000 6.000 40.000 4.000 36.000
20.000 1.000 5.000 6.000 32.000 4.000 28.000
1.000 1.000 1.000 1.000 4.000 1.000 3.000
1.000 1.000 5.000 3.000 10.000 4.000 6.000
3.000 0 6.500 200 500 500 100 7.800 500 7.300
0 6.500 200 500 500 100 7.800 500 7.300
0 5.000 200 100 400 100 5.800 0 5.800
0 9.500 1.500 200 500 500 12.200 5.000 7.200
0 9.500 1.000 1.000 200 500 12.200 5.000 7.200
0 9.500 500 500 500 500 11.500 1.000 10.500
0 3.500 200 100 200 100 4.100 0 4.100
Tabelle 4. Leistungsverflechtungen zwischen Vor- und Endkostenstellen Empfangende Kostenstellen → Leistende Kostenstellen ↓ Werkstatt davon variabel davon fix Innerbetrieblicher Transport davon variabel davon fix Technische Betriebsleitung davon variabel davon fix Fertigungssteuerung davon variabel davon fix
Vorkostenstellen Bezugsgröße
Stunden
Anzahl Transporte Meisterstunden Anzahl Arbeitsgänge
Leistungsvolumen
300 205 95 1.570 1.570 0 150 150 0 2.790 2.790 0
Werks tatt
Innerbetrieblicher Transport
30 25 5
Endkostenstellen Materialbereich
Technische B etriebsleitung
Fertigungs steuerung
5
5
5 0
5 0
25 25
War enannahm e
10 5 5 0 0
Mater iallager
25 20 5 455 455
Einkauf
Endkostenstellen Verwaltungsbereich
Endkostenstellen Fertigungsbereich
Leitung M aterialbereich
Fertigung I
5
5
5 0
5 0
Fertigung II
Fer tigung III
Fertigung IV
Fertigung V
25 20 5 180 180
40 35 5 210 210
40 35 5 275 275
20 15 5 100 100
20 15 5 105 105
25 25
25 25
25 25
25 25
25 25
240 240
1.275 1.275
905 905
150 150
220 220
Rechnungswesen
Endkostenstellen Vertriebsbereich
G eschäftsführung
Personalabteilung
Fer tigwarenlager
5
5
5
5 0
5 0
5 0
30 25 5 245 245
Ver sand
15 10 5 0 0
Leitung Vertriebsbereich
Vertrieb
5
5
5 0
5 0
C. Siepermann
summe
Werk statt
Endkostenstellen Fertigungsbereich
Endkostenstellen Materialbereich
Vorkostenstellen Kostenarten-
Kostenart
Fallstudie zur Logistikkostenrechnung
3
297
Die Verrechnung von Logistikkosten in der klassischen Kostenrechnung
In der klassischen Kostenrechnung werden üblicherweise die Kostenstellen des Materialbereichs, des Verwaltungsbereichs und des Vertriebsbereichs zu jeweils einem Block zusammengefasst. Auf diese Weise erhält man den in Tabelle 5 dargestellten Betriebsabrechnungsbogen. Die innerbetriebliche Leistungsverrechnung wird nach dem Stufenleiterverfahren durchgeführt. Die zugrundeliegenden Verrechnungssätze zeigt Tabelle 6; sie ergeben sich durch Division der gesamten bzw. variablen Kosten der jeweiligen Vorkostenstelle durch das von der Kostenstelle zu erbringende Leistungsvolumen. In den Zeilen "variabel" und "variabel/fix" werden die variablen Kosten der leistenden Kostenstellen an die empfangenden Kostenstellen weitergegeben. Die Zeile "variabel" enthält jeweils die variablen Kosten für die in Abhängigkeit vom Leistungsvolumen der empfangenden Kostenstellen nachgefragten Leistungsmengen der Vorkostenstellen. Die Zeile "variabel/fix" hingegen enthält die Kosten für die unabhängig vom Leistungsvolumen der empfangenden Kostenstellen nachgefragten Leistungen; diese für die leistenden Kostenstellen variablen Kosten stellen für die empfangenden Kostenstellen fixe Kosten dar. In der Zeile "fix" werden schließlich die in der Teilkostenrechnung nicht verrechneten fixen Kosten der leistenden Kostenstellen ausgewiesen. In Tabelle 7 werden die Kalkulationssätze der Endkostenstellen berechnet, die die Schnittstelle zur Kostenträgerrechnung darstellen. Sie ergeben sich durch Division der gesamten bzw. variablen Kosten der Kostenstellen(bereiche) durch die jeweilige Bezugsgröße (z.B. (variable) Vertriebsgemeinkosten/(variable) Herstellkosten für den Vertriebsbereich, wobei sich die (variablen) Herstellkosten als Summe der (variablen) Gemeinkosten des Material- und Fertigungsbereichs (drittletzte bzw. vorletzte Zeile in Tabelle 5) zzgl. der Einzelkosten errechnen). Die Kosten des Material-, Verwaltungs- und Vertriebsbereichs werden aufgrund des in der klassischen Kostenrechnung unterstellten fehlenden Zusammenhangs zwischen den Leistungen dieser Kostenstellen und den einzelnen Kostenträgern (hilfsweise) über Zuschlagssätze auf wertmäßige, indirekte Bezugsgrößen (Materialeinzelkosten bzw. Herstellkosten) auf die Produkte verrechnet (vgl. Kilger/Pampel/Vikas 2002, S. 254-256). Die Verrechnung der Fertigungsgemeinkosten erfolgt über Maschinenstundensätze (in €/Stunde).
Bezugsgröße
150
300 1.570
5.367
4.600
12.000 14.800
KSt.-Kosten gesamt V.-Satz gesamt
40,00 9,43
1,92
30,67
V.-Satz variabel
2,67
13,33 4,99
KSt.-Kosten variabel
4.000 7.833
0,17
400
467
Werkstatt davon variabel davon fix Innerbetrieblicher Transport davon variabel davon fix Technische Betriebsleitung davon variabel davon fix Fertigungssteuerung davon variabel davon fix
Bezugsgröße
Stunden
Anzahl Transporte Meisterstunden Anzahl Arbeitsgänge
Leistungsvolumen
300 205 95 1.570 1.570 0 150 150 0 2.790 2.790 0
Technische Betriebsleitung
Fertigungssteuerung
Materialbereich
Fertigung I
Fertigung II
Fertigung III
Fertigung IV
Fertigung V
Verwaltungsbereich
Vertriebsbereich
77.000 0 6.250 1.500 1.000 1.000 2.250 12.000 4.000 8.000
0 6.250 3.250 100 3.000 1.000 13.600 7.500 6.100 1.200 333 67 800
0 3.500 500 100 200 100 4.400 400 4.000 200 0 67 133 0 0 0 0
0 3.500 500 100 200 100 4.400 400 4.000 200 0 67 133 0 0 0 0 767 67 0 700
77.000 35.000 4.650 650 1.400 1.200 42.900 8.000 34.900 1.800 333 267 1.200 4.289 2.270 0 2.019 0 0 0 0
0 0 0 0 12.000 4.000 8.000
1.200 333 67 800 14.800 7.833 6.967
200 0 67 133 4.600 400 4.200
967 67 67 833 5.367 467 4.900
6.089 2.604 267 3.219 48.989 10.604 38.386
Werkstatt
Innerbetrieblicher Transport
30 25 5
Technische Betriebsleitung
5 0 5 0 0 0
Fertigungssteuerung
5 0 5 0 0 0 25 25 0
Materialbereich
45 25 20 455 455 0
3.000 3.000 0 2.000 1.000 1.000 1.000 5.000 1.000 4.000 1.000 267 67 667 1.697 898 0 799 767 67 0 700 462 40 0 422 3.925 1.272 67 2.587 8.925 2.272 6.654
Fertigung I
25 20 5 180 180 0 25 25 0 240 240 0
24.000 24.000 0 28.000 1.000 5.000 6.000 40.000 4.000 36.000 1.600 467 67 1.067 1.980 1.048 0 932 767 67 0 700 2.453 213 0 2.239 6.799 1.794 67 4.938 46.799 5.794 41.004
Fertigung II
40 35 5 210 210 0 25 25 0 1.275 1.275 0
19.000 19.000 0 20.000 1.000 5.000 6.000 32.000 4.000 28.000 1.600 467 67 1.067 2.592 1.372 0 1.220 767 67 0 700 1.741 151 0 1.589 6.700 2.057 67 4.576 38.700 6.057 32.643
Fertigung III
40 35 5 275 275 0 25 25 0 905 905 0
1.000 1.000 0 1.000 1.000 1.000 1.000 4.000 1.000 3.000 800 200 67 533 943 499 0 444 767 67 0 700 289 25 0 263 2.798 791 67 1.941 6.798 1.791 5.007
Fertigung IV
20 15 5 100 100 0 25 25 0 150 150 0
3.000 3.000 0 1.000 1.000 5.000 3.000 10.000 4.000 6.000 800 200 67 533 990 524 0 466 767 67 0 700 423 37 0 386 2.980 827 67 2.086 12.980 4.827 8.152
Fertigung V
20 15 5 105 105 0 25 25 0 220 220 0
0 18.000 600 1.100 1.400 300 21.400 1.000 20.400 600 0 200 400 0 0 0 0
0 32.000 3.200 1.800 1.400 1.600 40.000 11.000 29.000 2.200 467 267 1.467 2.310 1.222 0 1.087
600 0 200 400 22.000 1.000 21.000
4.510 1.689 267 2.554 44.510 12.689 31.820
Verwaltungsbereich
15 0 15 0 0 0
Vertriebsbereich
55 35 20 245 245 0
C. Siepermann
Stunden Anz. Transp.
2.790
Empfangende Kostenstellen → Leiste nde Kostenstellen ↓
77.000 50.000 127.000 104.500 66.200 9.850 25.600 23.550 229.700 46.300 183.400 12.000 2.733 1.267 8.000 14.800 7.833 0 6.967 4.600 400 0 4.200 5.367 467 0 4.900
Innerbetrieblicher Transport
298
Verrechnungssätze für die innerbetriebliche Leistungsverrechnung
Meisterstd.
Fertigungsmaterial Fertigungslöhne Summ e Einzelkosten Personalkosten Anlagenkosten Materialkosten (ohne Fertigungsmaterial) Energiekosten Sonstige Gemeinkosten Summ e primäre Gemeinkosten dav on variabel dav on fix Werkstatt davon variabel davon variabel/fix davon fix Innerbetrieblicher Transport davon variabel davon variabel/fix davon fix Technische Betriebsleitung davon variabel davon variabel/fix davon fix Fertigungssteuerung davon variabel davon variabel/fix davon fix Summ e sekundäre Gemeinkosten dav on variabel dav on variabel/fix dav on fix Summ e Gemeinkosten dav on variabel dav on fix
Werkstatt
Tabelle 5. Betriebsabrechnungsbogen in der klassischen Kostenrechnung
Werkstatt Innerbetrieblicher Transport
Anz. AG
Tabelle 6. Verrechnungssätze für die innerbetriebliche Leistungsverrechnung
Technische Betriebsleitung
Leistungsvolumen
Fertigungssteuerung
Endkostenstellen (bereiche)
Vorkostenstellen Kostenartensumme
Koste nart
Fallstudie zur Logistikkostenrechnung
299
Tabelle 7. Kalkulationssätze der Endkostenstellen Vollkostenrechnung Kalkulationssätze der Endkostenstellen Materialbereich Fertigung I Fertigung II Fertigung III Fertigung IV Fertigung V Verwaltungsbereich Vertriebsbereich
Bezugsgröße Z.-/V.-Basis
MEK M.-Std. M.-Std. M.-Std. M.-Std. M.-Std. HK HK
77.000 450 1.500 1.750 250 250 290.190 290.190
Grenzkostenrechnung
KSt.-Kosten KSt.-Kosten Z.-/V.-Satz Bezugsgröße Z.-/V.-Basis Z.-/V.-Satz gesamt variabel
48.989 8.925 46.799 38.700 6.798 12.980 22.000 44.510
63,62% 19,83 31,20 22,11 27,19 51,92 7,58% 15,34%
MEK M.-Std. M.-Std. M.-Std. M.-Std. M.-Std. Var. HK Var. HK
77.000 450 1.500 1.750 250 250 158.344 158.344
10.604 2.272 5.794 6.057 1.791 4.827 1.000 12.689
13,77% 5,05 3,86 3,46 7,16 19,31 0,63% 8,01%
Durch Anwendung dieser Kalkulationssätze auf die Bezugsgrößen je Produkteinheit erhält man die Selbstkosten je Produkteinheit auf Vollkostenbasis (Tabelle 8) bzw. Grenzkostenbasis (Tabelle 9). Da Voll- und Grenzkostenkalkulation vom Aufbau her identisch sind, wird die Kalkulation auf Grenzkostenbasis nur in verkürzter Form wiedergegeben. Tabelle 8. Klassische Vollkostenkalkulation Kostenarten Fertigungsmaterial Materialgemeinkosten Materialkosten Fertigungslöhne I Fertigungsgemeinkosten I Fertigungslöhne II Fertigungsgemeinkosten II Fertigungslöhne III Fertigungsgemeinkosten III Fertigungslöhne IV Fertigungsgemeinkosten IV Fertigungslöhne V Fertigungsgemeinkosten V Fertigungskosten Herstellkosten Verwaltungsgemeinkosten Vertriebsgemeinkosten Selbstkosten Stückerlös Stückerfolg
Z.-/V.-Satz 63,62%
19,83 31,20 22,11 27,19 51,92
7,58% 15,34%
Produktgruppe I P1 P2 20,00 20,00 12,72 12,72 32,72 32,72 2,00 0,00 5,95 0,00 6,00 10,00 15,60 15,60 4,00 2,00 5,53 5,53 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 39,08 33,13 71,80 65,85 5,44 4,99 11,01 10,10 88,26 80,95 95,00 95,00 6,74 14,05
Produktgruppe II P3 P4 5,00 5,00 3,18 3,18 8,18 8,18 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 5,00 5,00 11,06 11,06 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 16,06 16,06 24,24 24,24 1,84 1,84 3,72 3,72 29,79 29,79 35,00 35,00 5,21 5,21
Produktgruppe III P5 P6 8,00 6,00 5,09 3,82 13,09 9,82 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 2,00 0,00 13,60 0,00 2,00 4,00 12,98 12,98 30,58 16,98 43,67 26,80 3,31 2,03 6,70 4,11 53,67 32,94 25,00 35,00 -28,67 2,06
Unabhängig vom gewählten Kostenrechnungssystem (Voll- oder Grenzkostenrechnung) werden zwei Schwachstellen der klassischen Produktkalkulation bei der Zurechnung von Logistikkosten deutlich: • Der Anteil der Logistikkosten an den Selbstkosten des Produktes wird nicht ersichtlich. Die Logistikkosten sind vielmehr Bestandteil der Material-, Fertigungs-, Vertriebs- und ggf. Verwaltungsgemeinkosten (Intransparenz der Logistikkosten). • Ein Produkt wird umso stärker mit Gemein- und damit auch mit Logistikkosten belastet, je höher dessen Materialeinzelkosten, die zur Herstel-
300
C. Siepermann
lung benötigten Maschinenstunden und dessen Herstellkosten sind. Ein Vergleich mit den von den einzelnen Produkten in Anspruch genommenen Logistikleistungen (unterer Teil von Tabelle 1) macht jedoch deutlich, dass diese Verrechnungsmethodik keineswegs verursachungsgerecht ist. So nimmt z.B. Produkt 1 aufgrund der Vielzahl an Teilen und Arbeitsgängen sowie seines größeren Volumens und Gewichts in wesentlich stärkerem Maße logistische Leistungen in Anspruch als Produkt 2, was sich in der Kalkulation jedoch nicht niederschlägt (nicht-verursachungsgerechte Verrechnung von Logistikkosten). Tabelle 9. Klassische Grenzkostenkalkulation Kostenarten Fertigungsmaterial Var. Materialgemeinkosten Var. Materialkosten Fertigungslöhne Var. Fertigungsgemeinkosten Var. Fertigungskosten Var. Herstellkosten Var. Verwaltungsgemeinkosten Var. Vertriebsgemeinkosten Var. Selbstkosten Stückerlös Stückdeckungsbeitrag
4
Z.-/V.-Satz 13,77%
0,63% 8,01%
Produktgruppe I P1 P2 20,00 20,00 2,75 2,75 22,75 22,75 12,00 12,00 4,31 2,80 16,31 14,80 39,07 37,55 0,25 0,24 3,13 3,01 42,44 40,80 95,00 95,00 52,56 54,20
Produktgruppe II P3 P4 5,00 5,00 0,69 0,69 5,69 5,69 5,00 5,00 1,73 1,73 6,73 6,73 12,42 12,42 0,08 0,08 1,00 1,00 13,49 13,49 35,00 35,00 21,51 21,51
Produktgruppe III P5 P6 8,00 6,00 1,10 0,83 9,10 6,83 4,00 4,00 8,41 4,83 12,41 8,83 21,51 15,65 0,14 0,10 1,72 1,25 23,37 17,01 25,00 35,00 1,63 17,99
Die Logistikkostenrechnung nach Weber
Um zu einer erhöhten Transparenz und einer verursachungsgerechteren Verrechnung der Logistikkosten gemäß der tatsächlichen Inanspruchnahme logistischer Leistungen durch die einzelnen Kostenträger zu gelangen, schlägt Weber vor, wichtige oder alle Logistikkostenstellen als Endkostenstellen einzurichten und die Kosten der Logistikkostenstellen mit Hilfe mengenmäßiger, direkter Bezugsgrößen auf die Kostenträger zu verrechnen (vgl. Weber 2002b, S. 255). Voraussetzung für eine derartige Vorgehensweise ist allerdings die Erstellung detaillierter logistischer Leistungspläne, die für jedes Produkt die über den gesamten Wertschöpfungsprozess erforderlichen logistischen Leistungen ausweisen (vgl. Weber 2002b, S. 249-250). Dadurch ist eine verursachungsgerechte, an der Inanspruchnahme logistischer Leistungen ausgerichtete Verrechnung sowie ein direkter Ausweis der Logistikkosten in der Kostenträgerrechnung gewährleistet. Die Einrichtung sämtlicher Logistikkostenstellen als Endkostenstellen hat eine Modifikation des Betriebsabrechnungsbogens zur Folge. Als Vorkostenstellen bleiben nunmehr lediglich die Werkstatt und die Technische Betriebsleitung übrig (vgl. Tabelle 10).
Vorkostenstellen Kostenartensumme
Kostenart Fertigungsmaterial Fertigungslöhne Summe Einzelkosten Personalkosten Anlagenkosten Materialkosten (ohne Fertigungsmaterial) Energiekosten Sons tige Gemeinkosten Summe primäre Gemeinkosten davon variabel davon fix Werkstatt davon variabel davon variabel/fix davon fix Technische Betriebsleitung davon variabel davon variabel/fix davon fix Summe sekundäre Gemeinkosten davon variabel davon variabel/fix davon fix Summe Gemeinkosten davon variabel davon fix
Empfangende Kostenstellen → Leistende Kostenstellen↓ Werkstatt davon variabel davon fix Technische Betriebsleitung davon variabel davon fix
77.000 50.000 127.000 104.500 66.200 9.850 25.600 23.550 229.700 46.300 183.400 12.000 2.733 1.267 8.000 4.600 400 0 4.200
Bezugsgröße
Stunden
Meisterstunden
Bezugsgröße
Werkstatt Technische Betriebsleitung
Stunden Meisters td.
300 150
Warenannahme
Materiallager
Inner betrieblicher Transport
Fertigungssteuerung
Auslieferungslager
Ver sand
Materialbereich (ohne Logistik)
Fertigung I
Fertigung II
Fertigung III
Fertigung IV
Fertigung V
VertriebsVerwaltungsbereich (ohne ber eich Logistik)
77.000 0 6.250 1.500 1.000 1.000 2.250 12.000 4.000 8.000
0 3.500 500 100 200 100 4.400 400 4.000 200 0 67 133
0 12.500 750 250 500 500 14.500 2.000 12.500 400 67 67 267
0 9.500 3.500 200 500 500 14.200 5.000 9.200 1.000 267 67 667
0 6.250 3.250 100 3.000 1.000 13.600 7.500 6.100 1.200 333 67 800
0 0 0 0 12.000 4.000 8.000
200 0 67 133 4.600 400 4.200
400 67 67 267 14.900 2.067 12.833
1.000 267 67 667 15.200 5.267 9.933
1.200 333 67 800 14.800 7.833 6.967
Werkstatt
Technische Betriebsleitung
300 205 95 150 150 0
Leistungsvolumen
Übrige Endkostenstellen (bereiche)
Endkostenstellen Logistik
Technische Betriebsleitung
5 0 5
KSt.-Kosten gesamt
12.000 4.600
V.-S atz gesamt
40,00 30,67
Warenannahme
10 5 5
KSt.-Kosten variabel
4.000 400
Materiallager
25 20 5
Inner betrieblicher Transport
30 25 5
0 3.500 500 100 200 100 4.400 400 4.000 200 0 67 133 767 67 0 700 967 67 67 833 5.367 467 4.900
Fertigungssteuerung
5 0 5 25 25 0
0 9.500 1.500 200 500 500 12.200 5.000 7.200 1.200 333 67 800
0 9.500 1.000 1.000 200 500 12.200 5.000 7.200 600 133 67 400
1.200 333 67 800 13.400 5.333 8.067
600 133 67 400 12.800 5.133 7.667
Auslieferungslager
30 25 5
Ver sand
15 10 5
77.000 13.000 400 200 400 200 14.200 1.000 13.200 400 0 133 267 0 0 0 0 400 0 133 267 14.600 1.000 13.600
Materialbereich (ohne Logistik)
10 0 10
3.000 3.000 0 2.000 1.000 1.000 1.000 5.000 1.000 4.000 1.000 267 67 667 767 67 0 700 1.767 333 67 1.367 6.767 1.333 5.433
Fertigung I
25 20 5 25 25 0
24.000 24.000 0 28.000 1.000 5.000 6.000 40.000 4.000 36.000 1.600 467 67 1.067 767 67 0 700 2.367 533 67 1.767 42.367 4.533 37.833
Fertigung II
40 35 5 25 25 0
19.000 19.000 0 20.000 1.000 5.000 6.000 32.000 4.000 28.000 1.600 467 67 1.067 767 67 0 700 2.367 533 67 1.767 34.367 4.533 29.833
Fertigung III
40 35 5 25 25 0
1.000 1.000 0 1.000 1.000 1.000 1.000 4.000 1.000 3.000 800 200 67 533 767 67 0 700 1.567 267 67 1.233 5.567 1.267 4.300
Fertigung IV
20 15 5 25 25 0
3.000 3.000 0 1.000 1.000 5.000 3.000 10.000 4.000 6.000 800 200 67 533 767 67 0 700 1.567 267 67 1.233 11.567 4.267 7.300
Fertigung V
20 15 5 25 25 0
0 18.000 600 1.100 1.400 300 21.400 1.000 20.400 600 0 200 400
0 13.000 700 600 700 600 15.600 1.000 14.600 400 0 133 267
600 0 200 400 22.000 1.000 21.000
400 0 133 267 16.000 1.000 15.000
VertriebsVerwaltungsbereich (ohne ber eich Logistik)
15 0 15
10 0 10
V.-Satz variabel
13,33 2,67
301
Verrechnungssätze für die innerbetriebliche Leistungsverrechnung
Leistungsvolumen
Werkstatt
Fallstudie zur Logistikkostenrechnung
Für die Verrechnung der Kosten der Logistikkostenstellen auf die Produkte werden die in Tabelle 11 dargestellten Bezugsgrößen verwendet. Die
Tabelle 10. Für die Logistikkostenrechnung modifizierter Betriebsabrechnungsbogen einschließlich Verrechnungssätze für die innerbetriebliche Leistungsverrechnung
302
C. Siepermann
Tabelle weist die geplante Inanspruchnahme logistischer Leistungen durch die einzelnen Produkte in der betrachteten Periode aus. Die Inanspruchnahme durch eine Produkteinheit ergibt sich durch Division der jeweiligen Mengen durch die geplante Stückzahl (siehe Tabelle 1). Durch Division der geplanten Kostenstellenkosten (variabel bzw. gesamt) durch das geplante Leistungsvolumen der Endkostenstellen erhält man die Kalkulationssätze der Endkostenstellen (vgl. Tabelle 12). Lediglich die Kostenstellen Einkauf, Leitung Materialbereich, Vertrieb, Leitung Vertriebsbereich sowie die Kostenstellen des Verwaltungsbereichs werden aufgrund der schwierigen Strukturierbarkeit der Leistungen dieser Kostenstellen bzw. der dort herrschenden heterogenen Kostenverursachung noch über Zuschlagssätze auf Wertgrößen abgerechnet. Auf diese Weise ergeben sich die Tabelle 13 und Tabelle 14 dargestellten Kalkulationsergebnisse. Da die Kalkulation der Fertigungslöhne und der direkten Fertigungsgemeinkosten (bis auf die Höhe der Verrechnungssätze) keine Unterschiede zur klassischen Kostenrechnung aufweist, wird hier und im Folgenden bei der Darstellung der Kalkulationsergebnisse auf eine Differenzierung nach Fertigungsstellen verzichtet. Tabelle 11. Bezugsgrößen der Logistikkostenstellen in der Logistikkostenrechnung nach Weber Bezugsgrößen Logistikkostenstellen Warenannahme Materiallager Innerbetrieblicher Transport Fertigungssteuerung Auslieferungslager Versand
Anzahl Paletten Anzahl Paletten Anzahl Transporte Anzahl Arbeitsgänge Lagervolumen (m³) Transportgewicht (kg)
Produktgruppe I P1 P2 300 15 300 15 900 90 2.040 120 1.500 150 7.500 750
Produktgruppe II P3 P4 15 5 15 5 45 105 60 200 150 50 750 250
Produktgruppe III P5 P6 100 20 100 20 400 30 350 20 50 50 250 250
Summe 455 455 1.570 2.790 1.950 9.750
Tabelle 12. Kalkulationssätze der Endkostenstellen in der Logistikkostenrechnung nach Weber Vollkostenrechnung Kostenstelle Warenannahme Materiallager Übriger Materialbereich Innerbetrieblicher Transport Fertigungssteuerung Fertigung I Fertigung II Fertigung III Fertigung IV Fertigung V Verwaltung Fertigwarenlager Versand Übriger Vertriebsbereich
Bezugsgröße Anzahl Paletten Anzahl Paletten Materialeinzelkosten Anzahl Transporte Anzahl Arbeitsgänge Maschinenstunden Maschinenstunden Maschinenstunden Maschinenstunden Maschinenstunden Herstellkosten Volumen (m³) Gewicht (kg) Herstellkosten
Z.-/V.Basis 455 455 77.000 1.570 2.790 450 1.500 1.750 250 250 292.500 1.950 9.750 292.500
KSt.Kosten Z.-/V.-Satz gesamt 14.900 32,75 15.200 33,41 14.600 18,96% 14.800 9,43 5.367 1,92 6.767 15,04 42.367 28,24 34.367 19,64 5.567 22,27 11.567 46,27 22.000 7,52% 13.400 6,87 12.800 1,31 16.000 5,47%
Grenzkostenrechnung Z.-/V.Basis 455 455 77.000 1.570 2.790 450 1.500 1.750 250 250 159.567 1.950 9.750 159.567
KSt.Kosten Z.-/V.-Satz variabel 2.067 4,54 5.267 11,58 1.000 1,30% 7.833 4,99 467 0,17 1.333 2,96 4.533 3,02 4.533 2,59 1.267 5,07 4.267 17,07 1.000 0,63% 5.333 2,74 5.133 0,53 1.000 0,63%
Fallstudie zur Logistikkostenrechnung
303
Ein Vergleich mit den Ergebnissen der klassischen Kostenrechnung macht die veränderte Kostenzuordnung unmittelbar ersichtlich. Durch die Verrechnung der Logistikkosten gemäß der Inanspruchnahme logistischer Leistungen werden Produkt 1 wesentlich höhere Logistikkosten zugerechnet als Produkt 2. Der nunmehr negative Stückerfolg von Produkt 1 lässt strategischen Handlungsbedarf offenbar werden, da die durch das Produkt verursachten Kosten langfristig nicht durch die Erlöse gedeckt werden können. Tabelle 13. Vollkostenkalkulation in der Logistikkostenrechnung nach Weber Kostenarten
Z.-/V.-Satz
Fertigungsmaterial Kosten Warenannahme Kosten Materiallager Sonstige Materialgemeinkosten Materialkosten Fertigungslöhne Direkte Fertigungsgemeinkosten Kosten innerbetrieblicher Transport Kosten Fertigungssteuerung Fertigungskosten Herstellkosten Verwaltungsgemeinkosten Kosten Fertigwarenlager Kosten Versand Sonstige Vertriebsgemeinkosten Selbstkosten Stückerlös Stückerfolg
32,75 33,41 18,96%
9,43 1,92
7,52% 6,87 1,31 5,47%
Produktgruppe I P1 P2 20,00 20,00 6,55 0,33 6,68 0,33 3,79 3,79 37,02 24,45 12,00 12,00 23,54 19,03 5,66 0,57 2,62 0,15 43,81 31,75 80,84 56,20 6,08 4,23 6,87 0,69 6,56 0,66 4,42 3,07 104,78 64,85 95,00 95,00 -9,78 30,15
Produktgruppe II P3 P4 5,00 5,00 0,33 0,33 0,33 0,33 0,95 0,95 6,61 6,61 5,00 5,00 9,82 9,82 0,28 1,98 0,08 0,77 15,18 17,57 21,79 24,18 1,64 1,82 0,69 0,69 0,66 0,66 1,19 1,32 25,96 28,66 35,00 35,00 9,04 6,34
Produktgruppe III P5 P6 8,00 6,00 6,55 1,31 6,68 1,34 1,52 1,14 22,75 9,78 4,00 4,00 22,70 11,57 7,54 0,57 1,35 0,08 35,59 16,21 58,34 25,99 4,39 1,96 0,69 0,69 0,66 0,66 3,19 1,42 67,26 30,71 25,00 35,00 -42,26 4,29
Tabelle 14. Grenzkostenkalkulation in der Logistikkostenrechnung nach Weber Kostenarten Fertigungsmaterial Var. Kosten Warenannahme Var. Kosten Materiallager Sonstige var. Materialgemeinkosten Var. Materialkosten Fertigungslöhne Direkte var. Fertigungsgemeinkosten Var. Kosten innerbetrieblicher Transport Var. Kosten Fertigungssteuerung Var. Fertigungskosten Var. Herstellkosten Var. Verwaltungsgemeinkosten Var. Kosten Fertigwarenlager Var. Kosten Versand Sonstige var. Vertriebsgemeinkosten Var. Selbstkosten Stückerlös Stückdeckungsbeitrag
Z.-/V.-Satz 4,54 11,58 1,30%
4,99 0,17
0,63% 2,74 0,53 0,63%
Produktgruppe I P1 P2 20,00 20,00 0,91 0,05 2,32 0,12 0,26 0,26 23,48 20,42 12,00 12,00 3,05 2,16 2,99 0,30 0,23 0,01 18,27 14,47 41,75 34,89 0,26 0,22 2,74 0,27 2,63 0,26 0,26 0,22 47,64 35,87 95,00 95,00 47,36 59,13
Produktgruppe II P3 P4 5,00 5,00 0,05 0,05 0,12 0,12 0,06 0,06 5,23 5,23 5,00 5,00 1,30 1,30 0,15 1,05 0,01 0,07 6,45 7,41 11,68 12,64 0,07 0,08 0,27 0,27 0,26 0,26 0,07 0,08 12,36 13,33 35,00 35,00 22,64 21,67
Produktgruppe III P5 P6 8,00 6,00 0,91 0,18 2,32 0,46 0,10 0,08 11,33 6,72 4,00 4,00 6,80 4,27 3,99 0,30 0,12 0,01 14,91 8,57 26,24 15,30 0,16 0,10 0,27 0,27 0,26 0,26 0,16 0,10 27,10 16,02 25,00 35,00 -2,10 18,98
304
5
C. Siepermann
Die Logistikkostenrechnung nach Reichmann
Da die Ausarbeitung logistischer Leistungspläne als elementare Voraussetzung für die von Weber vorgeschlagene Vorgehensweise zur Verrechnung der Logistikkosten einen vergleichsweise hohen Aufwand erfordert und in der Praxis keinesfalls so einfach ist, wie es im Beispiel vielleicht erscheinen mag, schlägt Reichmann die Bildung je eines Beschaffungs-, Fertigungs- und Absatzlogistik-Gemeinkostenzuschlagssatzes zur Verrechnung der Kosten der Logistikendkostenstellen auf die Kostenträger vor (vgl. Reichmann 2001, S. 423), um (wenigstens) einen separaten Ausweis der Logistikkosten in der Kalkulation zu erreichen. Bezugsgrößen sind wiederum die Materialeinzelkosten für den Beschaffungslogistik-Gemeinkostenzuschlagssatz, die Fertigungslöhne für den Fertigungslogistik-Gemeinkostenzuschlagssatz und die Herstellkosten für den Absatzlogistik-Gemeinkostenzuschlagssatz. Durch diese Vorgehensweise werden allerdings die Fehler der klassischen Zuschlagskalkulation nicht vermieden, es wird lediglich eine höhere Transparenz der Logistikkosten erreicht. Tabelle 15. Kalkulationssätze der Endkostenstellen in der Logistikkostenrechnung nach Reichmann Vollkostenrechnung Kostenstelle Beschaffungslogistik Übriger Materialbereich Produktionslogistik Fertigung I Fertigung II Fertigung III Fertigung IV Fertigung V Verwaltung Distributionslogistik Übriger Vertriebsbereich
Bezugsgröße Materialeinzelkosten Materialeinzelkosten Fertigungslöhne Maschinenstunden Maschinenstunden Maschinenstunden Maschinenstunden Maschinenstunden Herstellkosten Herstellkosten Herstellkosten
Z.-/V.Basis 77.000 77.000 50.000 450 1.500 1.750 250 250 292.500 292.500 292.500
KSt.Kosten Z.-/V.-Satz gesamt 30.100 39,09% 14.600 18,96% 20.167 40,33% 6.767 15,04 42.367 28,24 34.367 19,64 5.567 22,27 11.567 46,27 22.000 7,52% 26.200 8,96% 16.000 5,47%
Grenzkostenrechnung Z.-/V.Basis 77.000 77.000 50.000 450 1.500 1.750 250 250 159.567 159.567 159.567
KSt.Kosten Z.-/V.-Satz variabel 7.333 9,52% 1.000 1,30% 8.300 16,60% 1.333 2,96 4.533 3,02 4.533 2,59 1.267 5,07 4.267 17,07 1.000 0,63% 10.467 6,56% 1.000 0,63%
Im Beispiel ergeben sich die in Tabelle 15 dargestellten Kalkulationssätze der Endkostenstellen sowie die in Tabelle 16 und Tabelle 17 ausgewiesenen Kalkulationsergebnisse. Die geringfügigen Veränderungen gegenüber der klassischen Kostenrechnung resultieren aus der Umwandlung der Kostenstellen Innerbetrieblicher Transport und Fertigungssteuerung von Vor- in Endkostenstellen.
Fallstudie zur Logistikkostenrechnung
305
Tabelle 16. Vollkostenkalkulation in der Logistikkostenrechnung nach Reichmann Kostenarten
Z.-/V.-Satz
Fertigungsmaterial Beschaffungslogistikgemeinkosten Sonstige Materialgemeinkosten Materialkosten Fertigungslöhne Direkte Fertigungsgemeinkosten Fertigungslogistikgemeinkosten Fertigungskosten Herstellkosten Verwaltungsgemeinkosten Distributionslogistikgemeinkosten Sonstige Vertriebsgemeinkosten Selbstkosten Stückerlös Stückerfolg
39,09% 18,96%
40,33%
7,52% 8,96% 5,47%
Produktgruppe I P1 P2 20,00 20,00 7,82 7,82 3,79 3,79 31,61 31,61 12,00 12,00 23,54 19,03 4,84 4,84 40,38 35,87 71,99 67,48 5,41 5,08 6,45 6,04 3,94 3,69 87,79 82,29 95,00 95,00 7,21 12,71
Produktgruppe II P3 P4 5,00 5,00 1,95 1,95 0,95 0,95 7,90 7,90 5,00 5,00 9,82 9,82 2,02 2,02 16,84 16,84 24,74 24,74 1,86 1,86 2,22 2,22 1,35 1,35 30,17 30,17 35,00 35,00 4,83 4,83
Produktgruppe III P5 P6 8,00 6,00 3,13 2,35 1,52 1,14 12,64 9,48 4,00 4,00 22,70 11,57 1,61 1,61 28,31 17,18 40,96 26,66 3,08 2,01 3,67 2,39 2,24 1,46 49,95 32,52 25,00 35,00 -24,95 2,48
Tabelle 17. Grenzkostenkalkulation in der Logistikkostenrechnung nach Reichmann Kostenarten Fertigungsmaterial Var. Beschaffungslogistikgemeinkosten Sonstige var. Materialgemeinkosten Var. Materialkosten Fertigungslöhne Direkte var. Fertigungsgemeinkosten Var. Fertigungslogistikgemeinkosten Var. Fertigungskosten Var. Herstellkosten Var. Verwaltungsgemeinkosten Var. Distributionslogistikgemeinkosten Sonstige var. Vertriebsgemeinkosten Var. Selbstkosten Stückerlös Stückdeckungsbeitrag
6
Z.-/V.-Satz 9,52% 1,30%
16,60%
0,63% 6,56% 0,63%
Produktgruppe I P1 P2 20,00 20,00 1,90 1,90 0,26 0,26 22,16 22,16 12,00 12,00 3,05 2,16 1,99 1,99 17,04 16,15 39,20 38,32 0,25 0,24 2,57 2,51 0,25 0,24 42,27 41,31 95,00 95,00 52,73 53,69
Produktgruppe II P3 P4 5,00 5,00 0,48 0,48 0,06 0,06 5,54 5,54 5,00 5,00 1,30 1,30 0,83 0,83 7,13 7,13 12,67 12,67 0,08 0,08 0,83 0,83 0,08 0,08 13,66 13,66 35,00 35,00 21,34 21,34
Produktgruppe III P5 P6 8,00 6,00 0,76 0,57 0,10 0,08 8,87 6,65 4,00 4,00 6,80 4,27 0,66 0,66 11,46 8,93 20,33 15,58 0,13 0,10 1,33 1,02 0,13 0,10 21,92 16,80 25,00 35,00 3,08 18,20
Die Prozesskostenrechnung als Logistikkostenrechnung
Die Grundidee der Prozesskostenrechnung besteht darin, die in den Kostenstellen der indirekten Leistungsbereiche ablaufenden Tätigkeiten zu analysieren und in Form von kostenstellenbezogenen Teilprozessen und kostenstellenübergreifenden Hauptprozessen zu strukturieren und diese mit Kosten zu bewerten. Voraussetzung für diese Vorgehensweise ist das Vorhandensein überwiegend repetitiver, d.h. sich regelmäßig wiederholender Tätigkeiten mit vergleichsweise geringem Entscheidungsspielraum, wie sie für große Teile der Logistik typisch sind. In diesen Bereichen wird die Ko-
306
C. Siepermann
stenstellenrechnung um eine Kostenprozessrechnung erweitert (vgl. Schweitzer/Küpper 1998, S. 327). Die in die Kostenprozessrechnung einbezogenen Kostenstellen werden in der Regel als Endkostenstellen behandelt (vgl. Dierkes 1998, S. 31). Im Beispiel werden die Kostenstellen Warenannahme, Materiallager, Einkauf, Fertigungssteuerung, Innerbetrieblicher Transport, Fertigwarenlager, Versand, Vertrieb, Rechnungswesen und Personalabteilung in die Kostenprozessrechnung einbezogen. Dadurch ergibt sich der in Tabelle 18 dargestellte, für die Prozesskostenrechnung modifizierte Betriebsabrechnungsbogen, der die Basis für die Durchführung der Kostenprozessrechnung darstellt. Da der überwiegende Teil der Kosten der indirekten Leistungsbereiche als kurz- bis mittelfristig beschäftigungsunabhängig anzusehen ist, ist die Prozesskostenrechnung in ihrer ursprünglichen Form als reine Vollkostenrechnung konzipiert, d.h. es wird keine Trennung in fixe und variable Kosten vorgenommen und alle Kosten werden auf die Kostenträger verrechnet. Im Laufe der Zeit wurden jedoch auch Vorschläge zur Ausgestaltung der Prozesskostenrechnung als Teilkostenrechnung erarbeitet (vgl. insbesondere Glaser 1998 und Dierkes 1998). Im folgenden wird zunächst die Vollkostenrechnungsvariante erläutert. Die Vorgehensweise der Kostenprozessrechnung wird exemplarisch anhand der Kostenstelle Materiallager dargestellt (vgl. Tabelle 19). Der Aufbau vollzieht sich in folgenden Schritten (vgl. Vahrenkamp 2005): • In einem ersten Schritt werden die in den Kostenstellen der indirekten Bereiche ablaufenden Tätigkeiten analysiert und inhaltlich zusammengehörige Tätigkeiten zu Teilprozessen zusammengefasst (Spalte 1). Dabei sind zwei Arten von Teilprozessen zu unterscheiden (Spalte 2): Leistungsmengeninduzierte (lmi) Teilprozesse beinhalten überwiegend repetitive Tätigkeiten, deren Wiederholhäufigkeit vom insgesamt von der Kostenstelle zu erbringenden Leistungsvolumen abhängt. Leistungsmengenneutrale (lmn) Teilprozesse hingegen stellen überwiegend dispositive, planende und organisatorische Tätigkeiten dar, die unabhängig vom zu erbringenden Leistungsvolumen der Kostenstelle anfallen. • In einem zweiten Schritt sind für die leistungsmengeninduzierten Teilprozesse geeignete Maßgrößen zu finden, die den Kosteneinflussfaktor des Prozesses widerspiegeln und somit einen Maßstab der Kostenverursachung darstellen (Spalte 3). • Im dritten Schritt der Kostenprozessrechnung sind die Ausprägungen der Maßgrößen zu bestimmen. Sie werden als Prozessmengen bezeichnet und geben die Anzahl der Prozessdurchführungen in der betrachteten Periode an (Spalte 4).
Tabelle 18. Für die Prozesskostenrechnung modifizierter Betriebsabrechnungsbogen einschließlich Verrechnungssätze für die innerbetriebliche Leistungsverrechnung Vorkostenstellen Kostenarten-
Kostenart
summe
Fertigungsmaterial Fertigungslöhne
Endkostenstellen Materialbereich
Te chn ische Bet rieb sleitung
W erk statt
Wa renanna hm e
M ateriallager
77.000 50.000
E inkauf
Endkostenstellen Verwaltungsbereich
Endkostenstellen Fertigungsbereich
Leitung M ate r ialbere ich
Inne rb etr ieblic her T rans por t
Fe rtig ungs steue rung
Fertigun g I
Fertigun g II
Fertigung III
Fertigu ng IV
Fe r tig ung V
Rech nung swes en
Endkostenstllen Vertriebsbereich
G es ch äftsfüh rung
Pe rso nalab tei lung
Fertigw aren la ger
Vers and
Le itu ng Vertrieb sbe reic h
Vertrieb
77.000 24.000
19.000
1.000
3.000
127.000 104.500 66.200 9.850
0 6.250 1.500 1.000
0 3.500 500 100
0 12.500 750 250
0 9.500 3.500 200
77.000 9.500 200 100
0 3.500 200 100
0 6.250 3.250 100
0 3.500 500 100
3.000 0 2.000 1.000
24.000 0 28.000 1.000
19.000 0 20.000 1.000
1.000 0 1.000 1.000
3.000 0 1.000 1.000
0 6.500 200 500
0 6.500 200 500
0 5.000 200 100
0 9.500 1.500 200
0 9.500 1.000 1.000
0 9.500 500 500
0 3.500 200 100
Energiekos ten Sonstige Gemeinkosten Summe primäre Gemeinkosten davon variabel
25.600 23.550 229.700 46.300
1.000 2.250 12.000 4.000
200 100 4.400 400
500 500 14.500 2.000
500 500 14.200 5.000
200 100 10.100 1.000
200 100 4.100 0
3.000 1.000 13.600 7.500
200 100 4.400 400
1.000 1.000 5.000 1.000
5.000 6.000 40.000 4.000
5.000 6.000 32.000 4.000
1.000 1.000 4.000 1.000
5.000 3.000 10.000 4.000
500 100 7.800 500
500 100 7.800 500
400 100 5.800 0
500 500 12.200 5.000
200 500 12.200 5.000
500 500 11.500 1.000
200 100 4.100 0
davon fix Werkstatt davon variabel davon variabel/fix davon fix
183.400 12.000 2.733 1.267
8.000
4.000 200 0 67 133
12.500 400 67 67 267
9.200 1.000 267 67 667
9.100 200 0 67 133
4.100 200 0 67 133
6.100 1.200 333 67 800
4.000 200 0 67 133
4.000 1.000 267 67 667
36.000 1.600 467 67 1.067
28.000 1.600 467 67 1.067
3.000 800 200 67 533
6.000 800 200 67 533
7.300 200 0 67 133
7.300 200 0 67 133
5.800 200 0 67 133
7.200 1.200 333 67 800
7.200 600 133 67 400
10.500 200 0 67 133
4.100 200 0 67 133
767 67 0 700
767 67 0 700
767 67 0 700
767 67 0 700
767 67 0 700
767 67 0 700
8.000 4.600 400
Technis che Betriebsleitung davon variabel davon variabel/fix davon fix
0 4.200 0 0
200 0
400 67
1.000 267
200 0
200 0
1.200 333
967 67
1.767 333
2.367 533
2.367 533
1.567 267
1.567 267
200 0
200 0
200 0
1.200 333
600 133
200 0
200 0
0 0 12.000 4.000
67 133 4.600 400
67 267 14.900 2.067
67 667 15.200 5.267
67 133 10.300 1.000
67 133 4.300 0
67 800 14.800 7.833
67 833 5.367 467
67 1.367 6.767 1.333
67 1.767 42.367 4.533
67 1.767 34.367 4.533
67 1.233 5.567 1.267
67 1.233 11.567 4.267
67 133 8.000 500
67 133 8.000 500
67 133 6.000 0
67 800 13.400 5.333
67 400 12.800 5.133
67 133 11.700 1.000
67 133 4.300 0
8.000
4.200
12.833
9.933
9.300
4.300
6.967
4.900
5.433
37.833
29.833
4.300
7.300
7.500
7.500
6.000
8.067
7.667
10.700
4.300
Fertigung III
Fertigu ng IV
Summe sekundäre Gemeinkosten davon variabel davon variabel/fix davon fix Summe Gemeinkosten davon variabel davon fix
Empfangende Kostenstellen → Leistende Kostenstellen↓
Bezu gsgröße
Werkstatt davon variabel davon fix
Stunden
Technis che Betriebsleitung davon variabel davon fix
Meisterstunden
Verrechnungssätze für die innerbetriebliche Leistungsverrechnung
Be zu gs größe
Werkstatt Technis che Betriebsleitung
Stunden Meisterstd.
Leistu ngs volumen
W erk statt
Te chn ische Bet rieb sleitung
300 205
5 0 5
95 150 150 0
Leistungsv olum en
300 150
K St.-K os ten ge sa mt
12.000 4.600
V.- S atz ges amt
40,00 30,67
Wa renanna hm e
10 5 5
KSt.- Kos ten var iabel
4.000 400
M aterial lager
25 20 5
V.-Sa tz variab el
13,33 2,67
Inne rb etr ieblic her T rans por t
Leitung M ate r ialbere ich
E inkauf
5 0 5
5 0 5
30 25 5
Fe rtig ungs steue rung
Fertigun g I
Fertigun g II
Fe r tig ung V
5 0 5
25 20 5
40 35 5
40 35 5
20 15 5
20 15 5
25 25 0
25 25 0
25 25 0
25 25 0
25 25 0
25 25 0
Rech nung swes en
5 0 5
G es ch äftsfüh rung
Pe rso nalab tei lung
5 0 5
5 0 5
Auslie fer ungslage r
30 25 5
Vers and
15 10 5
Le itu ng Vertrieb sbe reic h
Vertrieb
5 0 5
5 0 5
Fallstudie zur Logistikkostenrechnung
3.000
Summe Einzelkosten Personalkosten Anlagenkosten Materialkosten (ohne Fertigungsmaterial)
307
308
C. Siepermann
• Im vierten Schritt sind die Kosten der Teilprozesse zu bestimmen (Spalte 6). Die Prozesskosten stellen die Summe aller Kosten(arten) dar, die durch einen Teilprozess in dem betrachteten Zeitraum verursacht werden. Da in den indirekten Leistungsbereichen die Personalkosten überwiegen, besteht die einfachste Möglichkeit der Prozesskostenermittlung darin, die Kostenstellenkosten nach den für die einzelnen Prozesse erforderlichen Personalkapazitäten (Spalte 5) auf die Prozesse zu verteilen. • Im fünften Schritt werden für die lmi-Prozesse durch Division der Prozesskosten durch die zugehörigen Prozessmengen Prozesskostensätze ermittelt, die die (durchschnittliche) Kosten der einmaligen Durchführung bzw. Inanspruchnahme eines lmi-Teilprozesses angeben (Spalte 7). Die Kosten der lmn-Prozesse können entweder proportional zu den lmiProzesskosten auf die lmi-Prozesse verteilt werden (Spalten 8 und 9) oder in einer kostenstellenübergreifenden Sammelposition gesammelt werden. Im ersten Fall ergibt sich durch Addition des lmiProzesskostensatzes (Spalte 7) und des Umlagesatzes für die lmnKosten (Spalte 9) der Gesamtprozesskostensatz (Spalte 10). • Im sechsten Schritt der Kostenprozessrechnung werden schließlich sachlich zusammenhängende (lmi) Teilprozesse zu kostenstellenübergreifenden Hauptprozessen zusammengefasst. Die Kosteneinflussfaktoren der Hauptprozesse werden durch Kostentreiber gemessen, die mit den Maßgrößen der in den jeweiligen Hauptprozess eingehenden Teilprozesse identisch sein können, aber nicht müssen. Die Spalten 11 und 12 von Tabelle 19 zeigen die Zuordnung der Prozessmengen zu den in Tabelle 21 dargestellten Hauptprozessen, in die neben den Teilprozessen der Kostenstelle Materiallager die Prozesse der übrigen in die Kostenprozessrechnung einbezogenen Kostenstellen einfließen (vgl. Tabelle 20). Tabelle 19. Kostenprozessrechnung für die Kostenstelle Materiallager Teilprozess (1) Material einlagern Materialzugang erfassen Fertigungsmaterial kommissionieren Materialabgang erfassen Kostenstelle leiten Summe
Art
Maßgröße
(2) (3) lmi Anzahl Paletten lmi Anzahl Bestellpositionen lmi Anzahl Stücklistenpositionen lmi Anzahl Stücklistenpositionen lmn —
Prozess-
Voll-
Prozess-
menge
kräfte
kosten
(4) 455 228 1.167 1.167 —
(5) 0,8 0,2 0,8 0,2 1,0 3,0
Prozess-
kostensatz (lmi) (6) (7)=(6):(4) 4.053 8,91 1.013 4,44 4.053 3,47
1.013 5.067 15.200
0,87 —
Umlage
Umlage-
Gesamt-
lmnsatz prozessKosten (lmn) kostensatz (8)=(6)•u (9)=(8)/(4) (10)=(7)+(9) 2.027 4,45 13,36 507 2,22 6,67 2.027 1,74 5,21 507
0,43 —
1,30 —
Zuordnung zu HP
Zugeordnete
1 1 2
Prozessmenge (12) 455 228 1.167
2
1.167
(11)
Bei den Hauptprozessen ist zwischen produktnahen und produktfernen bzw. produktunabhängigen Prozessen zu unterscheiden. Produktnahe Prozesse sind dadurch gekennzeichnet, dass ein Zusammenhang zwischen den hergestellten Produkten und den für die Herstellung in Anspruch genommenen Prozessmengen besteht. Dieser Produkt-Prozess-Zusammenhang
Fallstudie zur Logistikkostenrechnung
309
wird durch einen Prozesskoeffizienten ausgedrückt, der die von einer Produkteinheit in Anspruch genommene Prozessmenge angibt. Bei den produktfernen und produktunabhängigen Prozessen besteht ein derartiger Produkt-Prozess-Zusammenhang nicht. Die Kosten dieser Prozesse sowie die Kosten der nicht in die Kostenprozessrechnung einbezogenen Kostenstellen (außerhalb der Fertigung) werden über Zuschlagssätze auf die Produkte verrechnet. Im Beispiel werden die produktnahen Prozesse durch die Hauptprozesse 1-7, die produktfernen Prozesse durch Hauptprozess 8 und die produktunabhängige Prozesse durch die Hauptprozesse 9 und 10 repräsentiert. Tabelle 20. Zuordnung der Teilprozesse zu Hauptprozessen Kostenstelle
Warenannahme
Materiallager
Einkauf
Innerbetrieblicher Transport Fertigungssteuerung
Teilprozesse (lmi)
Maßgröße
Ware entgegennehmen Identitätsprüfung durchführen Qualitätskontrolle durchführen Material einlagern Materialzugang erfassen Fertigungsmaterial kommissionieren Materialabgang erfassen Rahmenverträge abschließen Abrufe über Rahmenverträge Einzelbestellungen tätigen Teilestammdaten pflegen Lieferanten betreuen Material ins Lager transportieren Material in den Werkstätten bereitstellen Fertigprodukte ins Lager transportieren
Anzahl Paletten Anzahl Paletten Anzahl Paletten Anzahl Paletten Anzahl Bestellpositionen Anzahl Stücklistenpositionen Anzahl Stücklistenpositionen Anzahl der Rahmenverträge Anzahl der Abrufe Anzahl der Einzelbestellungen Anzahl Teilestämme Anzahl Lieferanten Anzahl Materialtransporte Anzahl Materialtransporte Anzahl Fertigprodukttransporte
Fertigungsaufträge steuern
Anzahl Arbeitsgänge
Ware einlagern Warenzugang erfassen Fertigwarenlager Ware kommissionieren Warenabgang erfassen Ware verpacken Versand Versandpapiere erstellen Ware versenden Angebote Inland erstellen Angebote Ausland erstellen Vertrieb Inlandsaufträge bearbeiten Auslandsaufträge bearbeiten Kostenstellenstammdaten pflegen Kostenstellenkosten planen u. kontrollieren Rechnungswesen Kreditorenrechnungen erfassen Debitorenrechnungen erstellen Lohn- und Gehaltsabrechnung Personalabteilung Personal betreuen * Aufteilung im Verhältnis von Inlands- zu Auslandsaufträgen
Anzahl Fertigungsaufträge Anzahl Fertigungsaufträge Anzahl Kundenauftragspositionen Anzahl Kundenauftragspositionen Anzahl Kundenaufträge Anzahl Kundenaufträge Anzahl Kundenaufträge Anzahl Angebote Inland Anzahl Angebote Ausland Anzahl Kundenaufträge Inland Anzahl Kundenaufträge Ausland Anzahl Kostenstellen Anzahl Kostenstellen Anzahl Kreditorenrechnungen Anzahl Debitorenrechnungen Anzahl Mitarbeiter Anzahl Mitarbeiter
Zuordnung zu Hauptprozess 1 1 1 1 1 2 2 1 1 1 7 8 1 2 2 3 2 2 4 4 4 4 4 5 6 5 6 9 9 1 5 und 6 * 10 10
Tabelle 22 zeigt die Prozesskoeffizienten je Produkt für die Hauptprozesse 1-7 sowie die prozessbezogenen Zuschlagssätze für die Hauptprozesse 8-10. Die Kalkulation wird auf Basis der lmi-Prozesskostensätze durchgeführt. Die lmn-Kosten werden in Form eines prozentualen Aufschlags auf die zugerechneten lmi-Prozesskosten verrechnet. Die Zuschlagssätze enthält Tabelle 23. In Tabelle 24 sind die Kalkulationssätze der nicht in die Kostenprozessrechnung einbezogenen Endkostenstellen
310
C. Siepermann
ausgewiesen. Da durch die kostenstellenübergreifende Hauptprozessbildung die Grenzen zwischen den klassischen Kostenstellenbereichen Material, Fertigung, Verwaltung und Vertrieb verschwimmen, werden als Bezugsgröße anstelle der Herstellkosten nur die Einzelkosten (Material- und Fertigungseinzelkosten) herangezogen. Tabelle 21. Hauptprozesse im Beispiel Nr.
Bezeichnung
Kostentreiber
1 2 3 4 5 6
Material beschaffen Innerbetriebliches Handling Fertigungssteuerung Kunden beliefern Auftragsabwicklung Inland Auftragsabwicklung Ausland
Anzahl bestellter Paletten Anzahl der Fertigungsaufträge Anzahl der Arbeitsgänge Anzahl der Kundenaufträge Anzahl der Inlandsaufträge Anzahl der Auslandsaufträge
7 8 9 10
Teile verwalten Lieferanten betreuen Kostenplanung und -kontrolle Personal betreuen
Anzahl der Teilestämme Anzahl der Lieferanten Anzahl Kostenstellen Anzahl der Mitarbeiter
Prozess-
Prozess-
Prozess-
Prozess-
Prozess-
menge
kosten lmi
kosten gesamt
kostensatz lmi
kostensatz gesamt
455 195 2.790 120 110 10
29.495 16.933 4.293 13.000 8.073 1.727
39.164 24.167 5.367 19.500 11.804 2.562
64,82 86,84 1,54 108,33 73,39 172,67
86,07 123,93 1,92 162,50 107,31 256,22
50 70 20 80
343 687 2.000 6.000
412 824 2.667 8.000
6,87 9,81 100,00 75,00
8,24 11,77 133,33 100,00
Tabelle 22. Prozesskoeffizienten und prozessbezogene Zuschlagssätze Hauptprozeß 1 Material beschaffen 2 Innerbetriebliches Handling 3 Fertigungssteuerung 4 Kunden beliefern 5 Auftragsabwicklung Inland
P1 P2 P3 P4 P5 P6 0,200 0,010 0,010 0,010 0,200 0,040 0,040 0,010 0,010 0,100 0,100 0,010 1,360 0,080 0,040 0,400 0,700 0,040 0,020 0,020 0,020 0,020 0,020 0,020 0,020 0,020 0,020
Teile verwalten Lieferanten betreuen Kostenplanung u. -kontrolle Personal betreuen
0,020 0,020 0,020
6 Auftragsabwicklung Ausland 7 8 9 10
Z.-Satz
0,020 0,003 0,003 0,010 0,006 0,004 0,89% 1,57% 4,72%
Berechnung Anz. Teile/Anz. Teile je Palette (500) 1/Losgröße Anz. Arbeitsgänge/Losgröße 1/durchschnittl. Auftragsgröße (50) 1/durchschnittl. Auftragsgröße (50) 1/durchschnittl. Auftragsgröße (50) Anz. Teilearten/Periodenmenge Prozesskosten HP 8/MEK Prozesskosten HP 9/HK Prozesskosten HP 10/HK
Tabelle 23. Zuschlagssätze für die Verrechnung der lmn-Kosten Lmn-Zuschlagssätze Prozesskosten Beschaffungslogistik Prozesskosten Produktionslogistik Prozesskosten Distributionslogistik Prozesskosten Verwaltung Summe
Lmi-Kosten Lmn-Kosten 30.525 9.875 21.227 8.307 22.800 11.067 8.000 2.667 82.552 31.915
Zuschlag 32,35% 39,13% 48,54% 33,33%
Mit diesen Daten kann nun die prozessorientierte Kalkulation durchgeführt werden (siehe Tabelle 25). Anhand der Kalkulationsergebnisse lassen sich die Effekte der Prozesskostenrechnung (vgl. Coenenberg/Fischer 1991, S. 31-33) verdeutlichen: • Der Allokationseffekt kommt in der veränderten Kostenzuordnung gegenüber der klassischen Kostenrechnung zum Ausdruck. So schlägt sich in der Kalkulation von Produkt 4 der kostenintensive Auslandsvertrieb
Fallstudie zur Logistikkostenrechnung
311
deutlich nieder und führt zu einem negativen Stückgewinn, der strategischen Handlungsbedarf deutlich werden lässt. • Der Komplexitätseffekt hängt eng mit dem Allokationseffekt zusammen und bringt zum Ausdruck, dass komplexe (aus vielen Teilen bestehende und in vielen Arbeitsgängen gefertigte) Produkte (z.B. Produkt 1 und 5) mit höheren (Logistik-) Gemeinkosten belastet werden als einfache (aus wenigen Teilen bestehende und in wenigen Arbeitsgängen gefertigte) Produkte (z.B. Produkt 2 und 6). • Der Degressionseffekt beinhaltet, dass die Inanspruchnahme von Prozessmengen vielfach unabhängig von der beschafften, gefertigten oder vertriebenen Produktmenge, sondern vielmehr pro Beschaffungsvorgang, Fertigungslos bzw. Auftrag anfällt. Dadurch sinken die Prozesskosten pro Stück mit steigender Los- bzw. Auftragsgröße. Daher wird z.B. Produkt 4 aufgrund der kleineren Fertigungslosgröße mit höheren Produktionslogistikgemeinkosten (Hauptprozesse 2 und 3) belastet als das ansonsten identische Produkt 3. Tabelle 24. Kalkulationssätze der nicht in die Kostenprozessrechnung einbezogenen Endkostenstellen Vollkostenrechnung Kalkulationssätze der Endkostenstellen Materialbereich Fertigung I Fertigung II Fertigung III Fertigung IV Fertigung V Verwaltungsbereich Vertriebsbereich
Grenzkostenrechnung
KSt.-Kosten KSt.-Kosten Z.-/V.-Satz Bezugsgröße Z.-/V.-Basis Bezugsgröße Z.-/V.-Basis Z.-/V.-Satz gesamt variabel
MEK M.-Std. M.-Std. M.-Std. M.-Std. M.-Std. MEK+FL MEK+FL
77.000 450 1.500 1.750 250 250 127.000 127.000
4.300 6.767 42.367 34.367 5.567 11.567 6.000 4.300
5,58% 15,04 28,24 19,64 22,27 46,27 4,72% 3,39%
MEK M.-Std. M.-Std. M.-Std. M.-Std. M.-Std. MEK+FL MEK+FL
77.000 450 1.500 1.750 250 250 127.000 127.000
0 1.333 4.533 4.533 1.267 4.267 0 0
0,00% 2,96 3,02 2,59 5,07 17,07 0,00% 0,00%
312
C. Siepermann
Tabelle 25. Kalkulation in der Prozessvollkostenrechnung Kostenarten Fertigungsmaterial Lmi-Kosten Beschaffungslogistik (HP 1,7,8) Lmn-Kosten Beschaffungslogistik Sonstige Materialgemeinkosten Materialkosten Fertigungslöhne Direkte Fertigungsgemeinkosten Lmi-Kosten Produktionslogistik (HP 2+3) Lmn-Kosten Produktionslogistik Fertigungskosten Herstellkosten Lmi-Kosten Verwaltung (HP 9+10) Lmn-Kosten Verwaltung Sonst. Verwaltungsgemeinkosten Lmi-Kosten Distributionslogistik (HP 4-6) Lmn-Kosten Distributionslogistik Sonstige Vertriebsgemeinkosten Selbstkosten Stückerlös Stückerfolg
Z.-/V.-Satz
32,35% 5,58%
39,13%
33,33% 4,72% 48,54% 3,39%
Produktgruppe I P1 P2 20,00 20,00 13,28 0,85 4,30 0,27 1,12 1,12 38,69 22,24 12,00 12,00 23,54 19,03 5,57 0,99 2,18 0,39 43,29 32,41 81,98 54,65 2,02 2,02 0,67 0,67 1,51 1,51 3,63 3,63 1,76 1,76 1,08 1,08 92,66 65,33 95,00 95,00 2,34 29,67
Produktgruppe II P3 P4 5,00 5,00 0,72 0,76 0,23 0,25 0,28 0,28 6,23 6,29 5,00 5,00 9,82 9,82 0,93 9,30 0,36 3,64 16,11 27,76 22,34 34,04 0,63 0,63 0,21 0,21 0,47 0,47 3,63 5,62 1,76 2,73 0,34 0,34 29,39 44,04 35,00 35,00 5,61 -9,04
Produktgruppe III P5 P6 8,00 6,00 13,08 2,67 4,23 0,87 0,45 0,34 25,75 9,87 4,00 4,00 22,70 11,57 9,76 0,93 3,82 0,36 40,28 16,86 66,04 26,73 0,76 0,63 0,25 0,21 0,57 0,47 3,63 3,63 1,76 1,76 0,41 0,34 73,42 33,78 25,00 35,00 -48,42 1,22
Tabelle 26. Kalkulation in der Prozessteilkostenrechnung Kostenarten Fertigungsmaterial Var. Kosten Beschaffungslogistik (HP 1) Sonstige var. Materialgemeinkosten Materialkosten Fertigungslöhne Direkte var. Fertigungsgemeinkosten Var. Kosten Produktionslogistik (HP 2+3) Var. Fertigungskosten Var. Herstellkosten Var. Verwaltungsgemeinkosten Var. Kosten Distributionslogistik (HP 4-6) Sonstige var. Vertriebsgemeinkosten Var. Selbstkosten Stückerlös Stückdeckungsbeitrag
Z.-/V.-Satz
0,00%
0,00% 0,00%
Produktgruppe I P1 P2 20,00 20,00 3,67 0,18 0,00 0,00 23,67 20,18 12,00 12,00 3,05 2,16 2,39 0,55 17,43 14,71 41,11 34,90 0,00 0,00 1,47 1,47 0,00 0,00 42,58 36,37 95,00 95,00 52,42 58,63
Produktgruppe II P3 P4 5,00 5,00 0,18 0,18 0,00 0,00 5,18 5,18 5,00 5,00 1,30 1,30 0,55 5,46 6,84 11,76 12,03 16,94 0,00 0,00 1,47 1,73 0,00 0,00 13,50 18,67 35,00 35,00 21,50 16,33
Produktgruppe III P5 P6 8,00 6,00 3,67 0,73 0,00 0,00 11,67 6,73 4,00 4,00 6,80 4,27 5,51 0,55 16,31 8,81 27,99 15,55 0,00 0,00 1,47 1,47 0,00 0,00 29,46 17,02 25,00 35,00 -4,46 17,98
Abschließend soll eine Möglichkeit aufgezeigt werden, die Prozesskostenrechnung als Grenzkostenrechnung auszugestalten. Die Vorgehensweise orientiert sich am Ansatz von Dierkes (1998). In der Kostenprozessrechnung wird bei den lmi-Teilprozessen zwischen variablen und fixen Kosten unterschieden. Die Kosten der lmn-Prozesse gelten grundsätzlich als fix, da sie unabhängig von der Ausbringungsmenge an Produkten anfallen; die Umlage der lmn-Kosten auf die lmi-Prozesse kann daher entfallen. Auf die Produkteinheiten werden nur die variablen Kosten der produktnahen Prozesse und innerhalb dieser Gruppe auch nur derjenigen Prozesse verrechnet, deren Prozessmengen in einem hinreichenden Zusammenhang zur Ausbringungsmenge stehen. Diese Voraussetzung trifft im Beispiel nur auf die Hauptprozesse 1-6 zu. Die variablen Kosten der übrigen (Haupt-) Prozesse werden nicht auf die Produkteinheiten verrechnet, sondern gehen zusammen mit den fixen Kosten direkt in die Kostenträgerrechnung ein.
Fallstudie zur Logistikkostenrechnung
313
Das Kalkulationsergebnis einer so gestalteten Prozessteilkostenrechnung zeigt Tabelle 26.
7
Interpretation und Vergleich der Ergebnisse
In Abb. 1 und Abb. 2 sind die sich nach den verschiedenen (Logistik-) Kostenrechnungsverfahren ergebenden Kalkulationsergebnisse noch einmal zusammengefasst. Die bei einigen Produkten gravierenden Unterschiede zwischen den Ergebnissen der klassischen Kostenrechnung sowie der Logistikkostenrechnung nach Reichmann einerseits und der Logistikkostenrechnung nach Weber sowie der Prozesskostenrechnung andererseits lassen die Gefahr von Fehlentscheidungen durch verzerrte Kosteninformationen aufgrund der Verwendung ungeeigneter Bezugsgrößen für die Verrechnung von Logistikkosten unmittelbar erkennen. Am deutlichsten wird dies am Vorzeichenwechsel der Deckungsbeiträge von Produkt 5 sichtbar. Stückkosten Vollkostenrechnung
Stückkosten Grenzkostenrechnung
120
60
100
Klassisch
80
Reichmann
60
Weber
40
PKR
20 0
50
Klassisch
40
Reichmann
30
Weber
20
PKR
10 0
P1
P2
P3
P4
P5
P6
P1
P2
P3
P4
P5
P6
Abb. 1. Stückkosten nach den verschiedenen Kostenrechnungssystemen
Stückgewinne Vollkostenrechnung
Stückdeckungsbeiträge Grenzkostenrechnung
40 20
Klassisch
0 -20 -40 -60
P1
P2
P3
P4
P5
P6
Reichmann Weber PKR
70 60 50 40 30 20 10 0 -10
Klassisch Reichmann Weber PKR P1
P2
P3
P4
P5
P6
Abb. 2. Stückgewinne bzw. -deckungsbeiträge in den verschiedenen Kostenrechnungssystemen
314
C. Siepermann
Auffällig sind die zum Teil erheblichen Abweichungen zwischen Prozesskostenrechnung und Logistikkostenrechnung nach Weber, die sich folgendermaßen erklären lassen: • Durch die bevorzugte Verwendung der Durchführungshäufigkeit von Prozessen als Bezugsgrößen in der Prozesskostenrechnung schlagen sich die volumen- und gewichtsbedingten Unterschiede zwischen den Produkten in der Inanspruchnahme der distributionslogistischen Leistungen in der Prozesskostenrechnung im Gegensatz zur Logistikkostenrechnung nach Weber nicht nieder. Während Produkt 1 in der Logistikkostenrechnung nach Weber aufgrund seines Volumens und Gewichts mit deutlich höheren Distributionslogistikkosten belastet wird als die anderen Produkte, ist dies in der Prozesskostenrechnung nicht der Fall. • Durch die Verdichtung von Teilprozessen zu Hauptprozessen kommt es in der Prozesskostenrechnung immer dann, wenn Teilprozesse mit unterschiedlichen Maßgrößen zu einem Hauptprozess zusammengefasst werden, zu einem Informationsverlust, der die Kalkulationsgenauigkeit beeinträchtigt. Dieser Effekt zeigt sich im Beispiel bei Hauptprozess 2. Durch die Wahl der Anzahl der Fertigungsaufträge als Kostentreiber bleibt die aus der großen Anzahl an Teilen und Arbeitsgängen resultierende hohe Inanspruchnahme der Leistungen der Kostenstellen Materiallager und Innerbetrieblicher Transport durch die Produkte 1 und 5 in der Kalkulation zum Teil unberücksichtigt. Daher wird von einigen Autoren eine Kalkulation auf Teilprozessebene empfohlen (vgl. z.B. Dierkes 1998, S. 59-60). • Der Degressionseffekt der Prozesskostenrechnung führt im Gegensatz zu den übrigen Verfahren bei kleineren Fertigungslosgrößen zu einer höheren Belastung der Produkteinheiten mit Produktionslogistikkosten (Hauptprozess 3) als bei größeren Losen. Dies zeigt sich besonders deutlich bei Produkt 4, während sich bei den Produkten 1 und 5 die Auswirkungen von Degressionseffekt und Informationsverlust bei der Hauptprozessverdichtung (siehe oben) zum Teil gegenseitig aufheben. • Neben dem Degressionseffekt ist auch der Allokationseffekt der Prozesskostenrechnung für die hohe Belastung von Produkt 4 mit (Logistik-) Gemeinkosten verantwortlich, indem im Gegensatz zu den anderen Kostenrechnungssystemen die höheren Kosten für den Vertrieb im Ausland adäquat berücksichtigt werden.
Fallstudie zur Logistikkostenrechnung
8
315
Schlussfolgerungen
Bedeutung der Logistik als Wettbewerbsfaktor
Das Beispiel macht die hohen Anforderungen einer aussagefähigen Logistikkostenrechnung an die betriebliche Leistungserfassung deutlich. Der dafür zu betreibende Aufwand lässt sich nur dann rechtfertigen, wenn der Logistik eine hinreichende Bedeutung als strategischer Wettbewerbsfaktor für ein Unternehmen zukommt. Da der (zusätzliche) Aufwand für die Erfassung der Logistikleistungen entscheidend vom (DV-technischen) Ausbaustand der (logistischen) Betriebsdatenerfassung und deren Integration in das betriebliche Kostenrechnungssystem abhängt, stellen diese beiden Kriterien zentrale Einflussfaktoren auf die Entscheidung für oder gegen die Einführung einer Logistikkostenrechnung dar. Die Entscheidungssituation lässt sich somit anhand des in Abb. 3 dargestellten Portfolios strukturieren und mit Handlungsempfehlungen versehen. Im Falle einer positiven Entscheidung für die Einführung einer Logistikkostenrechnung (laufend oder fallweise) ist im zweiten Schritt eine Entscheidung über das anzuwendende Verfahren zu treffen. Der Vorschlag von Reichmann scheidet dabei aufgrund der fehlenden Verursachungsgerechtigkeit der Kostenverrechnung von vornherein aus, so dass eigentlich nur die Logistikkostenrechnung nach Weber und die Prozesskostenrechnung zur Auswahl stehen. Beide Verfahren stellen jedoch keineswegs sich gegenseitig ausschließende Alternativen dar, sondern lassen sich vielmehr leicht miteinander kombinieren, indem in der Prozesskostenrechnung über die Verwendung von Zählgrößen (Anzahl von Prozessdurchführungen) hinaus auch Zeit- (z.B. Transportzeit), Volumen- (z.B. Lagervolumen) und Gewichtsgrößen (z.B. Transportgewicht) als Maßgrößen bzw. Kostentreiber Berücksichtigung finden. Auf diese Weise lassen sich die Vorzüge beider Verfahren in idealer Weise miteinander verbinden.
hoch
LKR (zunächst) fallweise durchführen
LKR als laufende Rechnung durchführen
niedrig
Keine LKR durchführen
?
niedrig
hoch
Ausbaustand der logistischen Betriebsdatenerfassung
Abb. 3. Portfolio zur Einführung einer Logistikkostenrechnung (LKR)
316
C. Siepermann
Literatur Baumgarten H (2002) Logistik als Wertsteigerung in Unternehmensnetzwerken – Ergebnisse der aktuellen Untersuchung. In: Bundesverband Logistik (Hrsg) Tagungsband zum 19. Deutschen Logistik-Kongress 2002, Bd 2. Huss-Verlag, München, S E1-0-1 – E1-0-16 Coenenberg AG, Fischer TM (1991) Prozesskostenrechnung – Strategische Neuorientierung in der Kostenrechnung. Die Betriebswirtschaft 51: 21-38 Dierkes St (1998): Planung und Kontrolle von Prozesskosten. Deutscher Universitäts-Verlag, Wiesbaden Glaser K (1998) Prozessorientierte Deckungsbeitragsrechnung. Vahlen, München Kilger W, Pampel J, Vikas K (2002) Flexible Plankostenrechnung und Deckungsbeitragsrechnung, 11. Aufl. Gabler, Wiesbaden Reichmann Th (2001) Controlling mit Kennzahlen und Managementberichten, 6. Aufl. Vahlen, München Rogler S (1997) Logistikkosten, interne und externe. In: Bloech J, Ihde GB (Hrsg) Vahlens großes Logistiklexikon. Vahlen, München, S 594 Schweitzer M, Küpper HU (1998): Systeme der Kosten- und Erlösrechnung, 7. Aufl. Vahlen, München Straube F (2001) E-Business braucht E-Logistics. In: Baumgarten H (Hrsg) Logistik im E-Zeitalter. FAZ-Verlag, Frankfurt am Main, S 177-196 Vahrenkamp R (2005) Logistik: Management und Strategien, 5. Aufl. Oldenbourg, München Wien Weber J (2002a) Logistik- und Supply Chain Controlling, 5. Aufl. Schäffer-Pöschel, Stuttgart Weber J (2002b) Logistikkostenrechnung, 2. Aufl. Springer, Berlin Heidelberg
III. Logistik und Verkehr
IT-Integration of Terminal Operations Planning Dirk Christian Mattfeld Wirtschaftsinformatik, Inst. für Wirtschaftswissenschaften, Technische Universität Braunschweig, Spielmannstr. 8, 38106 Braunschweig, [email protected]
Abstract The integration of terminal operations planning into an existing ITinfrastructure of a terminal is subject of this article. Using the example of the vehicle terminal Bremerhaven we outline general concepts of integrating automated planning and scheduling into an ERP context as a reengineering activity. We focus on the integration of information objects and handle this issue at the level of the requirement definition, the design specification and the implementation description. We conclude with a discussion of the impact of planning for the Bremerhaven vehicle terminal.
I
Introduction
In this paper we consider the integration of automated planning and scheduling support into an existing IT-infrastructure of a transhipment terminal. Using the example of the finished vehicle transhipment terminal in Bremerhaven, we propose an advanced planning functionality beyond the functions provided by typical Enterprise Resource Planning (ERP) systems. By viewing the process of planning as a business process, the need for a proper integration of optimization as well as the need for reengineering of the terminal operations processes become obvious. The design of the integrated system is covered at the level of the requirements definition, the design specification and the implementation description. In Section 2 we motivate our research by describing the growing logistics field of vehicle transportation and transhipment. In Section 3 we outline transhipment terminal operations before going to discuss an ERP support for these operations. Then, we proceed in Section 4 by proposing a
320
D. C. Mattfeld
planning and scheduling support for terminal operations. In Section 5 we describe the integration of planning into an existing IT-infrastructure in detail. In so doing we focus on the specification of information objects, their modelling as well as their processing in a distributed environment. Finally we discuss the impact of the planning and scheduling support for the particular application at hand in Section 6, before we conclude in Section 7.
2
Finished Vehicle Transhipment
Automobile manufacturers aim at strategic competitive advantages by distributing their activities around the globe [21]. The division of automobile production entails an increased volume of vehicles shipped by means of worldwide transportation networks. These networks are typically run by logistics service providers consigned with the transportation, transhipment and storage of vehicles [18]. Service providers aim at economies of scale due to a consolidation of transport volume incurred on behalf of different vehicle manufacturers [22]. This has led to the emergence of inter-modal vehicle terminals, handling enormous volumes. This development impacts the transhipment of finished vehicles particularly at European ports. Europe traditionally imports a vast number of vehicles, but has also strengthened its overseas exports in recent years [1]. Bremerhaven is one of the largest vehicle ports in Europe [8]. Its operator, Bremer Lagerhaus Gesellschaft (BLG), handles approximately 1.4 million vehicles per year. Almost balanced incoming and outgoing traffic produces a high frequency of 1,350 car-carrier callings, because vessels regularly discharge and load vehicles in almost equal quantities. Concerning incoming traffic, vehicles arrive by car-carrier in large numbers and are either directly forwarded to the hinterland, or they are consolidated for ongoing carriage by feeder ship. As a third alternative, vehicles are stored at the compound of a distribution centre located at the port. Distribution centres are run by the domestic subsidiaries of the manufacturing companies located abroad [13]. Concerning outgoing traffic, again large quantities of vehicles arrive via rail of feeder ship. Vehicles are unloaded and stay for the purpose of consolidation before they are loaded for car-carrier transportation. Altogether, approximately 90,000 vehicles can be stored in the terminal area at Bremerhaven. In order to provide methodological support for the various supply chains the terminal is involved in, rather complex transhipment arrangements have to be carried out by the terminal operator [11]. Since transhipment of vehicles is performed in a self-propelling fashion, the avoidance of damage
IT-Integration of Terminal Operations Planning
321
assumes top priority. Nevertheless, efficient operations have to be ensured, which seemingly contradicts the principle of safety and reliability. The anticipation of terminal operations by means of automated planning and scheduling enables the terminal management to provide both, safe and efficient operations at the same time [3]. To this end the authors have set out to develop a decision planning and scheduling system intended to support terminal operations at the vehicle transhipment terminal in Bremerhaven [12]. Central to the planning approach is the notion of a task. A task comprises the relocation of a number of identical (assumed) vehicles, which are treated as bulk cargo. The vehicles forming a task are supposed to be transported from an origin to a destination in a given, typically narrow time window. We differentiate between “storage tasks” entering vehicles to the terminal and “retrieval tasks”, performing the vehicle dispatch from the terminal. A pure modal shift consists of two successive tasks comprising the same volume of vehicles. If intermediate storage beyond the planning horizon is required, storage and retrieval tasks are handled independently. The same treatment applies for vehicles to be kept in distribution compounds. Here, a single storage or retrieval task depicts the consolidation into a storage area, or the vehicle commission from a storage area. Given a number of tasks and a planning horizon, the automated planning module determines a certain shift for processing a task and selects an appropriate location for intermediate storage. The automated scheduling module then derives shift schedules by determining the starting times for the tasks assigned to a shift, as well as the number of drivers required to perform the assigned tasks in time. In order to ensure safe and reliable processing, tasks are performed by gangs of between 5 and 50 drivers assigned to a dedicated foreman. However, neither the number of gangs per shift nor their sizes are known in advance. In actual fact, gangs are set up flexibly depending on the characteristics of the tasks to be performed in a shift.
3
Control of Terminal Operations
The initiation and control of task processing is a primary goal of an Enterprise Resource Planning (ERP) system. In vehicle transhipment, the sales department derives internal tasks from customer orders. The execution of tasks is then controlled by tracing the state of vehicle transhipments. This comprises the tracking of the vehicle discharge, the storing and the retrieval activities performed by terminal operations. After a vehicle has
322
D. C. Mattfeld
been retrieved from the terminal, its transhipment is recorded by issuing an invoice to the customer. Finally, transhipment operations are controlled retrospectively by means of target/actual comparisons. In summary, the ERP system supports typical business functions in a highly integrated fashion. For the Bremerhaven terminal, the above ERP functionality is implemented in the “car individual network” software CARIN, developed by BLG Data Services, a subsidiary of BLG Logistics AG. The system’s name implies that it covers the entire logistics network on the basis of individual vehicles. This functionality of CARIN is emphasized by [5]: “BLG was amongst the first terminal operators to set up an on-line status tracking system for car exports. This was designed initially for BMW and Mercedes exports to England, the Far East and USA and has been expanded to include all vehicle movements”. In order to offer more complex transhipment arrangements to the customer, the tracking and tracing of vehicles beyond the terminal is supported too [16]. The CARIN system “is designed to act as a link from the manufacturer’s office overseas via Bremerhaven, via the various port status indicators and pre-delivery inspection facilities, direct to the dealer. The customers can thus ascertain the exact position of their cars at any time with BLG providing the communications interface” [10]. The tracing of vehicles along the logistics import chain requires interfaces to many external and internal sub-systems [15]. For the case of vehicle import, Figure 1 shows control interactions between the terminal execution level and the information system. First, a vehicles advice is received from the manufacturer by notice of dispatch via electronic data interchange (EDI) [7]. Before the respective vehicles are discharged at Bremerhaven, usually also a “manifesto” is received from the carrier describing the type of the vehicles to be unload from the calling car-carrier. Since the responsibility is incurred from the carrier to the BLG at the point of discharge, vehicles are checked for damage etc., when entering the terminal. A bar-code badge is placed inside the front window of the vehicle, which is then associated with the vehicle’s serial number already received from the manufacturer. In this way the vehicle becomes visible for the CARIN system. After the vehicle has been stored into a storage area, its physical position is transferred to the ERP system by scanning its barcode badge. After the release order for a vehicle has been received from the importer or forwarder, the vehicle is retrieved from the storage area and loaded onto rail, truck or feeder ship. Since the responsibility for the vehicle is passed on at this point, the vehicle is once more checked for damages, this time on the behalf of the forwarder. Finally its departure is noted in the ERP sys-
IT-Integration of Terminal Operations Planning
323
tem. For controlling purposes, the productivity of transhipment operations is recorded retrospectively.
Fig. 1. Interaction of execution and planning activities
Although substantial effort has been spent on the design of the ERP system, its use for planning and scheduling purposes is limited [20]. Data structures are designed to cover processes on a per vehicle level as required for tracking & tracing and controlling issues. As it is typical for ERP systems, aggregated entities as demanded for planning purposes are missing; moreover data structures suitable for tentative “what-if” considerations are omitted from the system’s design [14]. Furthermore, the terminal infrastructure is only rudimentary covered. Data access paths acquire storing positions via individual vehicle data sets, and not vice versa. In this way the physical position of a vehicle in the terminal can be easily tracked, but to determine the number of vehicles stored at a certain location, as demanded by capacitated planning, will be a tedious task. Therefore, as is typical for ERP systems, the “planning functionality”, i.e. the anticipation of decision alternatives, is not explicitly pronounced. [17] mention, the “implementation of an integrated warehouse management information system does not actually guarantee the optimization of warehouse logistics”.
324
4
D. C. Mattfeld
Planning Support
In order to incorporate planning and scheduling support into the ERP functionality, the authors have developed an optimization software module for the multi-period resource planning and scheduling of tasks. However, in the absence of a proper integration of this Terminal Operations Planning module (TOP) one cannot expect any positive impact on the efficiency and reliability of operations [6]. Therefore, in the following we focus on the IT-integration of TOP as a business engineering activity.
Fig. 2. Business interaction diagram of the planning process
Prior to automated planning support, the planning and execution of a vehicle transhipment has been teamwork of just two organizational units, see the dark-grey shaded systems on the right of Figure 2: 1. The sales department defines tasks in the ERP system in accordance with incoming customer orders. After a task has been executed, the corresponding invoice is issued and finally process execution data are provided for controlling. 2. The terminal operation department receives a target schedule from the ERP system and controls the execution of scheduled tasks via PC standard software. The recently finished schedule is transferred back to the ERP system to be recorded. The planning department is introduced as a new organizational unit. For this new configuration, the Institute of Shipping Economics and Logistics (ISL) has developed a graphical user interface for planning purposes, called Terminal Information System (TIS). As one part of TIS, the “terminal viewer” is able to display geo-data about travel ways, quaysides, rail ramps, transfer points and storage areas in several scales ranging from a port overview to a detailed mapping of one storage area [9]. Besides a geo-
IT-Integration of Terminal Operations Planning
325
visualization, actual and target storage utilizations produced by automated planning can also be displayed. In this new configuration, tasks are no longer scheduled by the sales department. Instead, tasks are analyzed by TIS and are optimized by the TOP. 1. The planning department converts a set of tasks into an optimization problem and transfers this problem to the TOP module. After a solution has been generated, TIS checks this solution for validity and meaningful work-processes are written back to the ERP system. 2. The TOP module is evoked as a callable library from TIS. A problem instance is passed, and a solution to the optimization problem is returned. Thereby, TIS performs several consistency checks on the input data and provides an interface for the parameterization of the algorithms of TOP. The main advantage of this extended planning functionality is the opportunity of frequent re-planning of tasks on the basis of a rolling horizon. A task first appears at the end of the planning horizon and is then replanned for a number of planning iterations before it is eventually confirmed. Apart from the IT-support described, the reengineered configuration requires a new organizational unit, which is concerned with the anticipation of terminal capacity utilization. Thus, emphasis in this new configuration switches from short-term reaction of terminal operations to mid-term anticipation of planning.
5
Integration of Planning
Subjects of this section are the requirements planning, the design specification and the implementation description of the integration of the automated planning and scheduling support. Thereby, we view the planning and scheduling activity as a business process, starting from the dispatch of a customer’s order and ending with the activities scheduled for execution. The design, development and documentation of business processes have received various methodological supports. In the following we confine ourselves to depictions with regard to the ARIS toolset [19].
326
6
D. C. Mattfeld
Requirements Definition
The requirements definition considers the functions and interactions of a business process with respect to different organizational units. The process chain diagram of Figure 3 illustrates the interplay of the various functions related to planning in more depth. In analogy to the level of requirements definition in ARIS, the diagram shows the interaction of functions and business states in terms of an event driven process chain. Additionally the diagram integrates the use of information objects and the organizational embedding of functions. Three organization units are involved in the planning process. The workflow at the interface between different departments is depicted as a dashed line connecting the final function of one subsystem and the initial state of the next subsystem. The sales department receives the customer orders as a notification of dispatch and derives internal tasks from this data. The planning department sets up a problem definition from the partially specified set of tasks and runs an optimization cycle resulting in a solution of the problem. The solution is carefully analyzed and validated. In case of refusal, the task data are slightly modified and the optimization cycle is repeated. Otherwise the solution is accepted, and a schedule for the forthcoming shift is dispatched to the terminal operations department. The schedule is further processed by a deployment of personnel in terms of the schedule’s gang structure, which finishes the planning activities. Interestingly, the information objects generated along the business process resemble each other to a certain extent, cf. the third column from the left hand side of Figure 3. First, internal tasks are derived from external customer orders. Then, the subset of tasks whose time windows fall into the current planning horizon are passed on to the problem definition. Apart from the tasks selected and the planning horizon covered, the resources available and the objective pursued also contribute to the constitution of an optimization problem. For a problem at hand a solution is generated by specifying the storage area, the processing gang and the starting time for every task considered. In refined optimization cycles the problem data will be modified even by means of a re-definition of task data. Once accepted, a solution is dispatched into a schedule, i.e. fully specified tasks for a nearby shift are confirmed for execution. At the same time, decisions concerning later shifts close to the planning horizon are deferred to consecutive planning and scheduling cycles. For the tasks of a schedule a gang structure is specified by means of the personnel deployment.
IT-Integration of Terminal Operations Planning
327
Fig. 3. Process chain diagram of the planning process
Since the information objects involved are subsequently used and reused by the business functions depicted, an integral data model will support the integration of planning and scheduling. The development of such an integral data model is subject to the following considerations.
7
Design Specification
One purpose of the design specification for business processes is the semiformal description of data objects involved. Documentation approaches supporting this goal make use of the entity-relationship model (ERM), originally proposed by [4]. An advantage of this modelling approach is,
328
D. C. Mattfeld
that relationships between objects (entities in this context) are modelled explicitly. Figure 4 shows a reasonable, although simplified ERM for data objects related to task planning and scheduling. Rectangular boxes denote entities whereas rhombuses denote relationships.
Fig. 4. Objects related to planning in entity-relationship model (notation with min/max cardinalities)
For our purpose, we have chosen an ERM extension which presents minimum and maximum cardinalities of relationships between entities. For example, the entities “area” and “task” are coupled by the relationship “allocate”. Reading the cardinality from left to right means, that (minimal) zero and (maximal) n tasks allocate a certain storage area. Reading the relationship in the opposite direction means that every task is assigned to exactly one area. Similarly, exactly one gang performs a task, but a gang will typically perform more than one task. A task starts at a discrete time step, and at each time step anything from zero to many tasks can be started.
IT-Integration of Terminal Operations Planning
329
Table 1. We differentiate states of a task with respect to its prescribed attributes and with respect to the attributes acquired by planning. Six meaningful states exist.
state
prescribed
acquired
system
description
UN
undefined
not known
ERP
task not yet described
DN
defined
not known
ERP
task described, but not yet planned
DP
defined
planned
TIS
planning attributes acquired
RN
refined
not known
TIS
prescribed attributes modified
RP
refined
planned
TIS
acquired attributes for modified data
DS
defined
scheduled
ERP
task fully determined for execution
A prescribed number of time steps constitute a working shift. A gang exists for exactly one shift, although any one shift may comprise many gangs. Since the existence of a gang is restricted to one shift, but many shifts are considered, drivers work in many gangs. On the other hand, typically many drivers form a gang. Finally, several areas can be aggregated into one region, but every area is dedicated to exactly one region. We recognize by means of the (1,1) cardinalities for the task entity in Figure 4, that a task is fully specified by a) allocating a certain area, b) a certain gang performing this task and c) the assignment of a unique starting time. However, little is said about the state transitions necessary for acquiring this data. In Figure 4 we identify several information objects as they appear over the course of planning, i.e. a set of tasks, a problem, a solution, a schedule, and finally a gang deployment. The entity-relationship model presented integrates all these information objects. In doing so, the temporal dependencies between the information objects as depicted in Figure 3 are obscured. Therefore, in the following we suggest a state-transition model in order to make the temporal dependencies between information objects explicit. At the level of the design specification, states can be seen as counterpart to the information objects at the level of requirements definition.
330
D. C. Mattfeld
States of a task with respect to its prescribed attributes (task type, time window, vehicle volume, etc.) can be distinguished. We consider three states, undefined the task is not yet defined in the ERP system, defined the task has been specified by the sales department, and refined the attributes are tentatively changed for planning purposes. Furthermore we consider the states of tasks acquired from planning (starting time, assignment to gang, storage area allocation). Here, we also distinguish three states, not-known a planning cycle has either not taken place or its results have been discarded, planned a planning cycle in the TIS has been successfully performed, and finally scheduled the results of a planning cycle have already been accepted by the ERP system for execution. Together, the Cartesian product of nine states results, but merely six states are meaningful, such that they correspond to an information object, compare Figure 3. For example, (DN) corresponds to the information object “problem”, because tasks are specified but planning attributes are not yet known. Consequently (DP) corresponds to a solution, because next to the prescribed attributes also the planning attributes have been determined. The six states considered are listed in Table 1. The life cycle of a task starts from UN with its definition in the ERP system (DN), see Figure 5. The task is considered for planning in the TIS and therefore planning attributes for this task are acquired (DP). The task can be either written back to the ERP system as scheduled for execution (DS), or its prescribed data attributes can be refined in order to generate a different solution in a further planning cycle. In the latter case, its acquired data cannot be used anymore and its prescribed data is noted to be refined (RN). In sub-sequent planning cycles several planning scenarios can be validated (RP). In the event that a refined task is accepted for execution by the ERP system, in addition to its acquired data also its prescribed data attributes have to be modified in the ERP database.
IT-Integration of Terminal Operations Planning
331
Fig. 5. State transition model for task attributes.
The formulation of information objects by means of states and state transitions with respect to an integral data model allows the close integration of the planning and scheduling functionality into the existing ERP system. In the remainder of this section we discuss the implementation of state transition issues in the planning and scheduling software modules.
8
Implementation Description
The planning and scheduling is implemented as a distributed system. This allows a flexible usage of the system modules, eases maintenance effort significantly, and provides a way to a future re-engineering of individual modules. The modules are separated in accordance with a four-layered model, with the presentation layer further separated into several software components. Figure 6 shows the modules of the entire system arranged in a fourlayered structure [2]. The layers depict the levels of data generation and modification, application and presentation. Additionally a communication layer is provided in order to physically split the modules of the data layer from the application layer. The presentation layer consists of several graphical user interface (GUI) components. These components are integrated by means of the TIS presentation manager. Changes made in one component have to be propagated to other components. A central presentation management checks for out-ofdate contents in currently open components. If out-of-date information is detected, the respective component is notified to reload its data content.
332
D. C. Mattfeld
Fig. 6. Hard- and software components involved in planning.
The presentation manager interacts closely with the TIS data manager, which corresponds to the application layer of the four-layered model. The data manager stores an integral model of the planning data and controls its modification by means of the state transition model described in Section 5.2. The data manager is linked via the open database connect protocol (ODBC) directly to the ERP system. Once a planning scenario has been read-in by the application layer and displayed by the presentation layer, the automated planning is performed by the TOP module. This module is connected to the application layer via a common open request broker architecture (CORBA) interface, which allows the integration of heterogeneous hard- and software by means of the CORBA middle-ware protocol.
IT-Integration of Terminal Operations Planning
333
Fig. 7. Hard- and software components involved in planning.
The strict appliance of software layers allows the integration of planning in a fairly heterogeneous IT-infrastructure. Figure 7 gives a brief overview. The ERP system is based on a SPARC workstation running the Sun/Solaris operating system. The Oracle database software supports remote access via an ODBC server. The TIS component is developed in Delphi and runs on an ordinary PC under Windows NT. Despite its wide user oriented functionality, its hardware requirement is limited. Obviously, the converse holds for the TOP component. Although heuristics have been chosen to produce a reasonable solution quality in a time span a human planner is willing to wait for, a fast computer directly increases the response time of planning. Because of the rapid and continuous increase of PC power, a UNIX based operating system has been used on a PC architecture. The TOP module is written in C++ and is interconnected via Mico CORBA to the Visibroker CORBA implementation of the TIS module.
9
Impact of Automated Planning
The planning system described has been in use for the terminal operations of the Bremerhaven terminal since January 2001. From the current viewpoint, efficiency gains can be reported by comparing productivity meas-
334
D. C. Mattfeld
ures and transhipment volumes of 2001 and 2002 with the ones of 2000 as the last year of manual planning. The main challenge of the vehicle terminal in 2001 was to cope with an exceptionally high volume of 1,193 thousand vehicles (in comparison to 1,073 thousand vehicles in 2000). Managing this peak volume by automated planning and scheduling was actually a great success. Generally, an increasing transhipment volume will lead to a decreasing productivity of operations. Despite the increased transhipment volume, marginal productivity gains have been achieved by automated planning and scheduling. The average time of a vehicle storage took 9.21 minutes in 2000 and was decreased to 9.17 minutes in 2001. With respect to the retrieval of vehicles, 15.2 minutes per unit in 2000 has been reduced to 14.8 minutes in 2001. After returning to typical load conditions, according to BLG representatives, the productivity i.e. for import transhipment has been increased to currently 16.3% compared with 2000. By emanating from 363 employees of regular driving personnel, this figure will lead to an annual reduction of personnel costs of more than 1 million €. Mr. Michael Reiter, the manager of terminal operations, sees the major contribution to this positive development in the process orientation imposed by the automated planning and scheduling system. System modelling and software implementation have changed the managerial focus from inventory management to transhipment processes, such that currently more than 60 % of import vehicles are not relocated beyond the necessary storage and retrieval movements.
10 Conclusion In this paper we have dealt with the integration of an automated planning software module into an existing IT-infrastructure of a firm. Based on the example of vehicle transhipment in Bremerhaven we have described typical functions of ERP systems and their interfaces to the operations execution level. Then, we have outlined requirements to a user interface connecting the ERP system and the automated planning module. We have focused on the planning activities as business process, for which we have proposed a re-engineering step. In analogy to the ARIS toolset we have passed through the requirements definition, where we have defined functions and states of planning. We have assigned information objects to functions and we have embedded those functions into organizational units.
IT-Integration of Terminal Operations Planning
335
In the design specification we have developed an integral data model for planning by means of an entity relationship approach. Furthermore, we have identified states for the possible alteration of data attributes. Finally, in the implementation description we have presented a four-layered model of the software modules involved, which allows the physical separation of modules in a distributed computing environment. Although this paper is written with respect to a particular application at hand, we claim that the way of incorporating planning and scheduling support into an existing ERP functionality can serve as a blueprint also for related logistics applications. The impact of the reported project is worth the effort spent.
References 1. Auto & Truck International (2002) World automotive market report 20012002. Issued annually by Auto & Truck International, Chicago, Illinois, USA 2. Bass L, Clements P, Bass K (2000) Software architecture documentation in practice. Software Engineering Institute, Carnegie Mellon University, Pittsburgh. Special report of the book "Software Architecture in Practice". Prentice-Hall 3. Bubois A, Gadde LE (1997) Information technology and distribution strategy. In: Tilanus B (ed) Information systems in logistics and transportation. Pergamon, pp 33–56 4. Chen, P.-S. (1976) The entity-relationship model — toward a unified view of data. ACM Transactions on Database Systems 1(1): 9–36 5. Drewry (1999) Market Outlook for Car Carriers. Drewry Shipping Consultants Ltd., Drewry House, Meridian Gate – Sourth Quay, 23 Marsh Wall, London E14 9FJ, England 6. Galliers R (1994) Information systems, operational research and business reengineering. International Transactions in Operational Research 1(2): 159– 167 7. Garstone S (1995) Electronic data interchange (EDI) in port operations. Logistics Information Management 8(2): 30–33 8. Herfort R (2002) Handling with care. Automotive Logistics July/September: 38–47 9. Jiang B, Huang B, Vasek V (2003) Geovisualisation for planning support systems. In Geertman, S. and Stillwell, J., editors, Planning Support Systems in Practice, Advances in spatial science, pages 177–192. Springer, Berlin 10. Kuhr M (2000) Extending the hub-and-spoke concept in the vehicle trades. In: Global Automotive Trades & Logistics Conference and Exhibition. Lloyd’s List Events
336
D. C. Mattfeld
11. Mason S, Ribera P, Farris J, Kirk R (2003) Integrating the warehousing and transportation functions of the supply chain. Transportation Research Part E, 39(141-159) 12. Mattfeld D, Kopfer H (2003) Terminal operations management in vehicle transshipment. Transportation Research A, 37: 435–452 13. Miemczyk J, Holweg M (2001) Build-to-order: Rethinking the automotive supply chain. In: Survey on Vehicle Logistics 2001. European Car-Transport Group of Interest, Madrid, Spain, pp 273–278 14. Ng J, Ip W, Lee T (1999) A paradigm for ERP and BPR integration. International Journal of Production Research, 37(9): 2093–2108 15. Nijkamp P, Pepping G, Banister D (1996) Telematics and transport behaviour. Advances in spatial science. Springer, Berlin 16. Polewa R, Lumsden K, Sjöstedt L (1997) Information as a value adder for the transport user. In: Tilanus, B (ed) Information systems in logistics and transportation. Pergamon, pp 157–168 17. Rizzi A, Zamboni R (1999) Efficiency improvement in manual warehouses through erp systems implementation and redesign of the logistics processes. Logistics Information Management 12(5): 367–377 18. Rodrigue J (1999) Globalization and the synchronization of transport terminals. Journal of Transport Geography 7: 255–261 19. Scheer AW (1999) ARIS - business process modelling, 3rd ed. Springer, Berlin 20. Shobrys D, White D (2002) Planning, scheduling and control systems: why cannot they work together. Computers and Chemical Engineering 26: 149– 160 21. Spatz J, Nunnenkamp P (2002) Globalization of the automobile industry - traditional locations under pressure? Aussenwirtschaft 57(4): 469–493. 22. Tyan J, Wang FK, Du T (2003) An evaluation of freight consolidation policies in global third party logistics. Omega 31: 55–62
Das Reparaturspiel als Formalisierung von Planung unter Zufallseinflüssen, angewendet in der Flugplanung Sven Grothklags1, Ulf Lorenz1, Jan Ehrhoff2 1
Institut für Informatik, Universität Paderborn, Fürstenallee 11, 33102 Paderborn, {sven, flulo}@upb.de 2
Network Management Solutions, Lufthansa Systems Airline Services GmbH, Am Prime Parc 9, 65479 Raunheim, [email protected]
Abstract Eine häufig anzutreffende Schwäche von Plänen moderner Planungsprozesse ist ihre fehlende Robustheit. Störungen verhindern, dass ein Unternehmen wie vorgeplant handeln kann, und verursachen hohe Kosten im Störungsmanagement. Dass Störungen einen solch schwer wiegenden Einfluss auf die Planumsetzung haben können, liegt in der Tatsache begründet, dass bei der Planung traditionell davon ausgegangen wird, dass alle Eingabegrößen zum Planungszeitpunkt genau bekannt sind. Tatsächlich sind in der Realität aber häufig nur statistische Verteilungen über die Eingabegrößen verfügbar. Das Reparaturspiel ist eine Formalisierung eines Planungsprozesses mit stochastischen Eingabedaten, bei dem zwei Bereiche der Informatik – Spielbaumsuche und logistische Planung – zusammengebracht werden. Durch Spielen des Reparaturspiels kann man Störungsmanagement betreiben und robuste Reparaturpläne erzeugen. Wir präsentieren die Definition des Reparaturspiels und motivieren es anhand eines Beispiels aus der Flugplanung. Erste experimentelle Ergebnisse sind viel versprechend und zeigen, dass unser neues Verfahren in der Lage ist, die Kosten für Störungsbehebung signifikant zu senken: Das Reparaturspiel schlägt ein traditionelles Verfahren zur Störungsbehebung im Rahmen unserer Simulationsumgebung.
338
1
S. Grothklags, U. Lorenz, J. Ehrhoff
Einleitung
1.1 Robuste Planung Ein wichtiges Problem in der Flugplanung ist es, nach dem Auftreten von Störungen, die ein Unternehmen daran hindern, wie vorgeplant zu handeln, mit sofortigen Umplanungsentscheidungen zu reagieren. Der Grund für Störungen liegt offensichtlich in der Tatsache begründet, dass Planer Informationen über das reale Verhalten über eine sich verändernde Umgebung entweder nicht haben oder diese bewusst missachten. Oft sind Plandaten nicht so fest, wie sie für traditionelle Planungsvorgänge angenommen werden. Stattdessen kennt man Eingabedaten nur ungefähr, man kennt evtl. Verteilungen über die Daten. In unserem Flugplanungsbeispiel kennen wir z.B. eine Verteilung über die möglichen Ankunftszeitpunkte von Flügen, wobei „kennen“ auch hier lediglich unsere Modellvorstellung widerspiegelt. Traditionellerweise werden in der Planung Pläne erzeugt, die das Ziel haben, den Gewinn unter Verwendung von Schätzdaten bzw. „Erwartungsdaten“ zu maximieren. Wir glauben, dass es stattdessen realistischer ist, den erwarteten Gewinn über alle möglichen Szenarien zu maximieren. Diese Sicht auf die Welt führt uns zu einem Gebiet, das oft als „Mehrstufige Entscheidungen unter Risikoeinfluss“ bezeichnet wird. Es ist ein Teilgebiet des größeren Feldes von entscheidungstheoretischen Ansätzen (Horvitz et al. 1988). Auch die lineare stochastische Programmierung gehört in diese Kategorie (Engell et al. 2001; Römisch et al. 2001). Der größte Teil der Forschung beschäftigt sich bei diesem Problem mit der Generierung statischer, vorberechneter Pläne im Rahmen modellgestützter Planung. Sobald ein vorberechneter Plan in der echten Welt eingesetzt wird, werden verschiedene Unsicherheitsaspekte des Systems, in dem der Plan abläuft, zu Störungen führen, so dass der ursprüngliche Plan seine Güte oder sogar seine Zulässigkeit verliert. Es ist dann die Aufgabe des Störungsmanagements, einen teilweise neuen Plan zu entwickeln, der das System wieder in einen zulässigen Zustand überführt. Der alte Plan wird also schnell außer Kraft gesetzt, bzw. muss „repariert“ werden, oder es muss sogar komplett neu geplant werden. Nichtsdestotrotz wird häufig ein vorberechneter Plan benötigt, um langfristige Ziele optimieren zu können. Erstrebenswert ist allerdings, dass der Plan so gebaut wird, dass er sich im Falle von auftretenden Störungen einfach und schnell reparieren lässt. Auch die vom Störungsdienst ausgearbeiteten Neu- oder Umplanungen sollten diese Eigenschaft haben. Insofern können wir die beiden Probleme nicht völlig voneinander trennen. Unser neuer Ansatz, das Reparaturspiel, stellt eine generische Methodik für allgemeine logistische Planungsaufgaben dar, um mit stochastischen
Das Reparaturspiel als Formalisierung von Planung unter Zufallseinflüssen
339
Eingabegrößen sinnvoll umgehen zu können. Der Einfachheit halber beschränken wir uns im Folgenden aber hauptsächlich auf den Bereich der Flugzeugeinsatzplanung von Fluggesellschaften. Wir erarbeiten eine Kontrollstrategie, die eine Lösung für das obige Problem darstellt. Die vorgeschlagene Methode macht Informationen über mögliche zukünftige Ereignisse nutzbar, um die Ausführung von Aktionen zu kontrollieren. Solch eine Kontrollstrategie ist von großer praktischer Bedeutung, da sie es ermöglicht, statische Pläne in unsicheren Umgebungen zu nutzen. In diesem Sinne ist unsere Arbeit ähnlich zu der Kontrollstrategie von Leon et al. (1994). Die dort vorgestellte Umsetzung der Kontrollstrategie auf JobShop Scheduling ist allerdings nicht direkt auf unsere Problemstellung übertragbar, da sie zu speziell auf Job-Shop Probleme zugeschnitten ist. Insbesondere wird dort in der Anwendung nicht auf die Kosten-Messung eingegangen, wenn man nach endlicher Zeit wieder in den Ursprungsplan zurückkehrt. Beim Job-Shop Problem ist das nicht wichtig, da dort in diesem Fall keine Kosten anfallen. In der Flugplanung ist es klar, dass wir in den alten Plan zurück wollen, und die Kosten hängen dann von dem Weg ab, den wir dorthinein nehmen. Unser Ansatz liegt im Schnittfeld von Entscheidungstheorie, Operations Research, Robuster Optimierung (Scholl 2001) und Künstlicher Intelligenz (Russel u. Norvig 2003). Im Sinne der Entscheidungstheorie legen wir Wert auf rationale Bewertung und eine Auswahl aus vorgegebenen Handlungsalternativen. Diese Alternativen sind allerdings implizit vorgegeben und ähnlich wie im Operations Research üblich durch Regeln beschrieben – jedoch nicht durch lineare Nebenbedingungen, sondern in graphentheoretischer Form, wie in der Theoretischen Informatik, aber auch im Bereich der Künstlichen Intelligenz, üblich. Sich ergebende Teilprobleme deterministischer Planung werden wie im klassischen Operations Research Stil modelliert. Der Begriff des robusten Plans wird in der Literatur auf zwei Arten verwendet. Zum einen informal als Plan, dessen Wert relativ unsensibel auf mögliche Realisierungen der echten Welt reagiert. Sobald es an eine formale Definition von Robustheit geht, unterscheidet man eine Vielzahl von Varianten. Scholl (2001) unterscheidet zudem zwischen robuster Planung, bei der die Robustheit als zentrales Bewertungskriterium im Mittelpunkt steht, und robuster Optimierung, die Modelle und Methoden zur Verfügung stellt, um robuste Pläne zu erzeugen. Man geht dabei von grundsätzlicher Risikoscheu des Anwenders bei Entscheidungssituationen mit ausgeprägter Unsicherheit der verfügbaren Informationen aus. Wir sehen uns im Bereich zwischen robuster Optimierung und stochastischer Optimierung, wobei wir uns am Erwartungswert orientieren
340
S. Grothklags, U. Lorenz, J. Ehrhoff
und nicht an Minimax-, (µ,σ)- oder Bernoulli-Kriterien (Daniels u. Kouvelis 1995; Kouvelis et al. 2000; Mulvey et al. 1995; Scholl 2001). Wir stellen die unsichere zukünftige Welt mit Hilfe von (implizit gegebenen) diskreten Szenarien dar und kombinieren diese mit Modellierungsansätzen der gemischt-ganzzahligen linearen Programmierung. Die Szenarien werden mit Hilfe von Baumsuche, die simulativen Charakter hat, systematisch untersucht. Wir nennen einen Plan robust, wenn ihm eine Kontrollstrategie zugeordnet werden kann, deren Erwartungswert optimal ist. Besonderes Interesse haben wir an Plänen, die selber on-line Umplanungen sind und aufgrund von Störungen kreiert wurden, die Abweichungen von einem Ursprungsplan erzwangen. In gewissem Sinne stellen wir hier ein auf der Durchführungsebene stattfindendes reagierendes und zugleich präventives Störungsmanagement vor. 1.2 Stand der Technik in der Flugplanung In logistischen Planungsabteilungen wird das ganze Spektrum von Methoden des Operations Research genutzt, um anstehende Planungsprobleme insbesondere mit sehr großen LP und IP Modellen zu lösen. Diese Methoden feiern dabei eine großartige Erfolgsgeschichte für alle Arten von logistischen Planungsproblemen. Der Planungsprozess von Fluggesellschaften (Carl u. Gesing 2000) beginnt mit dem so genannten Netzwerk-Design, bei dem grob festgelegt wird, welche Flugverbindungen mit welcher Häufigkeit bedient werden sollen. Daraus wird ein erster „Plan“, das Flug-Schedule, generiert, der festlegt, welche Non-Stop-Flugverbindungen (Flüge) zu welchen Zeiten den Passagieren angeboten werden sollen. Danach folgen diejenigen Planungsprozesse, die wir im Folgenden genauer betrachten wollen. Im Allgemeinen besitzen Fluggesellschaften Flugzeuge unterschiedlichen Typs (Flotten). Sie unterscheiden sich in ihrer Sitzkapazität und anderen wirtschaftlich relevanten Kenngrößen. Die Aufgabe des Fleet Assignments ist es, aus einem gegebenen Flug-Schedule und einer Menge von Flotten eine gewinnmaximale Zuweisung von Flugzeugtypen zu den einzelnen Flügen zu bestimmen. Damit beantwortet eine Lösung des Fleet Assignment Problems (FAP) die Frage, wie viele Flugzeuge von welchem Typ sich wo zu welcher Zeit befinden sollen. Vom FAP ist bekannt, dass es NP-vollständig ist (Gu et al. 1994). So genannte Time-Space Netzwerke, bei denen es sich um spezielle Fluss-Graphen handelt, können verwendet werden, um eine mathematische Formulierung für das FAP zu erzeugen. Dieser Ansatz wurde von Hane et al. (1995) zum Lösen des Fleet Assignment Problems erstmals eingesetzt
Das Reparaturspiel als Formalisierung von Planung unter Zufallseinflüssen
341
und ist seitdem von verschiedenen Autoren modifiziert und erweitert worden (Grothklags 2003; Jarrah et al. 2000). Das sich ergebene Min-CostFlow Problem auf dem Time-Space Netzwerk wird typischerweise in ein gemischt-ganzzahliges lineares Programm (MIP) transformiert und mit Standardsoftware (z.B. ILOG CPLEX) gelöst. In einem nächsten Schritt wird aus der FAP-Lösung ein so genannter Rotationsplan erzeugt. Ein solcher Rotationsplan legt für jedes (physikalische) Flugzeug genau fest, zu welcher Zeit es sich an welchem Ort der Welt aufhalten soll. Anschließend folgen weitere Planungsschritte, mit denen wir uns hier nicht weiter beschäftigen wollen: Die Flugzeugbesatzungen werden zum Beispiel im so genannten Crew-Rostering und CrewPairing den Flugzeugen zugewiesen. Fleet Assignment und Rotationsplanung gehören zu den lang- bis mittelfristigen Planungsphasen einer Fluggesellschaft (1 Jahr bis 2 Monate vor Operations). Sie liefern (Flugzeug-)Pläne unter Berücksichtigung von ökonomischen Parametern (Passagieraufkommen, Kosten, Erlöse, …), fluggesellschaftsspezifischen Parametern (Anzahl verfügbarer Flugzeuge, Sitzkapazitäten, Verfügbarkeit von Flugbesatzungen, …) und operationellen Einschränkungen (Flugdauern, Wartungsvorschriften, …). Das Ziel ist es dabei, den Gesamtgewinn zu maximieren. Um die Wirtschaftlichkeit zu erhöhen, wird unter Einsatz moderner Optimierungsverfahren die Auslastung der Flugzeuge mehr und mehr erhöht, was zur Folge hat, dass die Flugzeugumläufe immer weniger Pufferzeiten aufweisen. Je kleiner die Pufferzeiten in den Umläufen werden, desto häufiger treten allerdings Störungen auf, die vom Operations-Control-Management behoben werden müssen (Rosenberger 2000; Rosenberger et al. 2001). Im Falle von Fluggesellschaften führen sie zu Verspätungen, geänderten Flugzeugumläufen, Flugstreichungen, Slot-Problemen, usw. Zusammengefasst: Störungen verursachen Schwierigkeiten und Kosten. Deshalb sollte es ein wichtiges Kriterium der lang- und mittelfristig arbeitenden Planungsabteilungen sein, Pläne zu erzeugen, die im Falle von Störungen schnell und Kosten sparend repariert werden können. Lufthansa Systems sieht ein Problem darin, dass die klassische Planung an ihre Umsetzbarkeitsgrenzen stößt und man neue Methoden braucht, um eine weitere Wertschöpfung durch verbesserte Planungen zu erreichen. 1.3 Stand der Technik in der Spielbaumsuche Wenn es darum geht, Computer Gesellschafts- und Brettspiele spielen zu lassen, bildet Spielbaumsuche oft die algorithmische Grundlage. Der Spielbaum agiert dabei als Fehlerfilter, und die Spielbaumsuche verhält
342
S. Grothklags, U. Lorenz, J. Ehrhoff
sich ähnlich einem Näherungsverfahren. Computerschach ist das berühmteste Beispiel für die Effektivität der Spielbaumsuche und feiert in diesem Zusammenhang seit Jahren herausragende Erfolge. Interessanterweise kennen wir für die meisten spannenden Brettspiele nicht die wahren Werte aller Stellungen. Deshalb sind wir gezwungen, unsere Entscheidungen auf unscharfes und heuristisches Wissen aufzubauen. Spielbaum
Weiß am Zug Schwarz am Zug
Abb. 1. Nur der vorher ausgewählte Teilbaum eines Spielbaums wird ausgewertet.
Typischerweise besteht ein Spielprogramm aus drei Teilen: einem Zuggenerator, der zu einer gegebenen Stellung alle Nachfolgestellungen erzeugt, einer Bewertungsprozedur, die das menschliche Expertenwissen über die Bewertung von Stellungen implementiert, und einem Suchalgorithmus, der die Vorausschau organisiert. Ab einer bestimmten Suchtiefe wird der vollständige Spielbaum, wie er vom Spiel vorgegeben wird, abgeschnitten. Die künstlich entstandenen Blätter des resultierenden Teilbaums werden mit der heuristischen Bewertungsprozedur bewertet, und diese Werte werden gemäß dem MinimaxPrinzip zur Wurzel propagiert, als wären es die echten Werte. Der Alphabeta-Algorithmus (Knuth et al. 1975) bildet die Grundlage der Spielbaumsuchalgorithmen. In professionellen Computerspiel-Programmen (Donninger et al. 2004) wird meistens die Negascout-Variante (Reinefeld 1983) des Alphabeta-Algorithmus benutzt. Die wichtigste Beobachtung über die letzten 40 Jahre hinweg in Spielen wie Schach und Ähnlichen ist dabei: Der Spielbaum wirkt wie ein Fehlerfilter. Deshalb gilt: Je schneller und je intelligenter der Suchalgorithmus ist, desto besser werden die Spielergebnisse! Dass dieses nicht selbstverständlich ist, zeigen theoretische Untersuchungen zu Fehlerfortpflanzungen von Nau (1979), Althöfer (1988), Lorenz und Monien (2004).
Das Reparaturspiel als Formalisierung von Planung unter Zufallseinflüssen
343
1.4 Organisation des Beitrags In diesem Beitrag bringen wir zwei Zweige der Informatik – Spielbaumsuche und Optimierung logistischer Planung mit Hilfe von OR Werkzeugen – zusammen, um bessere Plan-Reparaturentscheidungen fällen zu können, sowie robustere Pläne erzeugen zu können. Das Ziel ist es, Reparaturalternativen (also Teilpläne) aufzuspüren, die den zu erwartenden Schaden durch Störungen in der Zukunft minimieren. Wir definieren das Reparaturspiel als eine vernünftige Formalisierung der Fluglinienplanungsaufgabe auf der Ebene des Störungsmanagements. Zunächst beschreiben wir in Abschnitt 2 das Reparaturspiel, seine formale Definition sowie ein erläuterndes Beispiel aus der Flugplanung. Dann beschreiben wir in Abschnitt 3 unseren Prototypen, der mit Hilfe des Reparaturspiels robuste Reparaturentscheidungen für einen gestörten Ablauf fällt. Wir vergleichen schlussendlich in Abschnitt 4 dessen Ergebnisse mit einer, im traditionellen Sinne optimalen Reparaturprozedur.
2
Das Reparaturspiel
Das Besondere an unserem neuen Ansatz, das Reparaturspiel zu spielen, ist eine besonders kleine Problembeschreibung. Zudem können wir Lösungstechniken verwenden, die es uns erlauben, bestehende Heuristiken einzusetzen, die uns schnell zu guten Lösungen führen, so dass wir auch in großen realen Anwendungen in der Lage sind, Gewinn zu erzielen. 2.1 Der neue Ansatz Unser neuer Ansatz kann am besten erklärt werden, indem wir eine (stochastische) Planungsaufgabe als Baum der Möglichkeiten in der Zeit betrachten. Sei also ein Baum T gegeben, der alle möglichen Szenarien sowie unsere möglichen Aktionen im Vorausschau-Zeittrichter wiedergibt. Er bestehe aus zwei verschiedenen Knotentypen, MIN-Knoten und AVGKnoten. Ein Knoten kann als ein „Systemzustand“ zu einem bestimmten Zeitpunkt betrachtet werden, an dem verschiedene Aktionen angestoßen werden können, bzw. an denen verschiedene Szenarien entstehen können. Herausgehende Kanten aus MIN-Knoten repräsentieren unsere möglichen Aktionen, herausgehende Kanten aus AVG-Knoten repräsentieren die Fähigkeit der Natur, auf verschiedene Arten zu agieren. Jeder Pfad von der Wurzel zu einem Blatt kann als eine mögliche traditionelle Lösung unserer Planungsaufgabe angesehen werden: Unsere Aktionen sind definiert durch
344
S. Grothklags, U. Lorenz, J. Ehrhoff
die Kanten, die wir an MIN-Knoten nehmen, immer unter der Annahme, dass die Natur eine eindeutige, vorher bekannte Kante aus den AVGKnoten auswählt. Wir nehmen nun an, dass Kostenwerte an den Blättern des Baums bekannt sind. Sie repräsentieren die totalen Kosten des „Planungspfades“ von der Wurzel zum Blatt. Der Wert an inneren MIN-Knoten errechnet sich als das Minimum der Werte der Nachfolgeknoten. (Wir nehmen in diesem Beitrag immer an, dass wir ein Minimierungsproblem lösen wollen.) Der Wert an inneren AVG-Knoten wird gebildet, indem ein gewichteter Durchschnittswert über die Werte der Nachfolgeknoten gebildet wird. Diese Gewichte sind die Realisierungswahrscheinlichkeiten der Szenarien. Es folgen die wichtigsten Begriffe und das grobe Vorgehen. Sei eine so genannte Min-Strategie S ein Teilbaum von T, der die Wurzel von T, sowie genau einen Nachfolger an MIN-Knoten und alle Nachfolger an AVGKnoten enthält. Jede Strategie S habe einen Wert f(S), der als der Wurzelwert von S bzgl. des (Teil-)Baumes S definiert ist. Eine so genannte Hauptvariante p(S), auch Plan genannt, einer solchen Min-Strategie kann dadurch bestimmt werden, dass wir die Kanten die die MIN-Knoten verlassen, sowie die am höchsten gewichtete Kante jedes AVG-Knotens auswählen. Der Pfad, der sich von der Wurzel ausgehend zu einem Blatt ergibt, ist p(S). Wir sind an dem Plan p(SB) der besten Strategie SB, sowie den erwarteten Kosten E(SB) von SB interessiert. Trivialerweise sind die Kosten E(SB) gleich dem Wurzelwert von T. Die erwarteten Kosten E(p) eines Plans p werden definiert als die erwarteten Kosten der besten Strategie S, zu der Plan p gehört. Es ist also E(p) = min{E(S) | p(S) = p}. Wir nennen einen Plan p optimal, wenn gilt p ∈ {p’ | E(p’) ist minimal}. Weil Unterschiede zwischen geplanten Abläufen und tatsächlichen Abläufen Kosten verursachen, sind die zu erwartenden Kosten (bzw. Gewinne), die zu einem Plan gehören, nicht dieselben, bevor und nachdem ein Plan an Kunden und Zulieferer herausgegeben wurde. Ein Plan erhält einen eigenen Wert, nachdem er veröffentlicht wurde und andere Parteien von ihm abhängen. Um uns den Gegebenheiten der Praxis den entscheidenden Schritt anzunähern, berücksichtigen wir zusätzlich die folgende Beobachtung. Nach einer Störung will man auf jeden Fall so schnell und kostengünstig wie möglich in den Ursprungsplan zurückfinden. Die Umplanungskosten bemessen sich also nach der Größe des Umweges, den der neue Plan gegenüber dem alten beschreibt. Um dieses umzusetzen, ist es notwendig, einen Baumknoten nicht nur mit dem Zustand des Systems zu einem gegebenen Zeitpunkt zu identifizieren, sondern einen Baumknoten mit dem Systemzustand und dem Pfad, auf dem der Zustand erreicht wurde, zu identifizieren. Im ersten Moment scheint dieses Detail die Situation unnötig zu ver-
Das Reparaturspiel als Formalisierung von Planung unter Zufallseinflüssen
345
komplizieren. In der Tat ist es aber genau dieses Detail, das unsere Forschungsbemühungen praxisrelevant werden lässt. Zudem vermuten wir, dass das beschriebene Problem, einen Plan zu finden, der zugleich Hauptvariante einer optimalen Strategie ist, PSPACEvollständig ist. Deshalb sehen wir keine Chance, solch einen Plan über eine Planungsperiode von mehreren Tagen oder gar Wochen zu finden. Die Konsequenz ist, dass wir mögliche zukünftige Szenarien nur lokal um einen gegebenen Zeitpunkt untersuchen können. Das impliziert jedoch wiederum, dass wir wie beim Schachspiel heuristische Werte an künstlich entstehenden Blättern benötigen. Aber wie könnte so eine Bewertungsprozedur aussehen? Wenn wir einfach nur einen lokalen Zeitschritt in die Zukunft schauen und ein Flugzeug A von B nach C und ein anderes Flugzeug D von E nach F schicken, wie soll man die entstandenen Situationen bewerten? Ein vorgegebener Plan, den wir Masterplan nennen wollen, ermöglicht uns die Erzeugung heuristischer Blattwerte: Wir können messen, wie weit ein aktueller Plan vom Masterplan abweicht. Sobald eine Störung im Masterplan auftaucht, starten wir eine Analyse von möglichen Umplanungen wie folgt: Wir erzeugen mehrere sinnvoll erscheinende Teilpläne, die alle mit geringen Umplanungskosten in den Ursprungsplan zurückführen, erzeugen weitere mögliche Störungen im nächsten Zeitschritt, erzeugen weitere optionale Reparaturpläne, untersuchen den nächsten Zeitschritt usw., bis wir eine Suchtiefe erreichen, die lediglich von unserer Rechenkraft begrenzt wird. Unser Ansatz unterscheidet sich von traditionellen Ansätzen in mindestens einem der folgenden Aspekte: • Wir planen gegen die Widrigkeiten einer sich ändernden und nicht determinierten Umgebung mit Hilfe in die Zukunft gerichteter lokaler Baumsuche. Wenn eine Störung eintritt, generieren wir mehrere Reparaturpläne, die in den Ursprungsplan zurückführen, untersuchen weitere mögliche Störungen im nächsten Zeitschritt, generieren weitere Reparaturpläne usw. • Wir definieren Robustheit mit Hilfe möglicher zukünftiger Ereignisse. • Wir generieren Szenarien automatisch und versuchen Gewinn aus der großen Menge von Szenarien zu schlagen. Die Untersuchung der Szenarien arbeitet zusammen mit den eingesetzten Heuristiken wie ein Näherungsverfahren. • Die möglichen Aktionen der Natur brauchen nicht in allen Ästen des Vorauschaubaums die gleichen zu sein.
346
S. Grothklags, U. Lorenz, J. Ehrhoff
2.2 Definition Wir definieren das Reparaturspiel über seinen Spielbaum. Seine Untersuchung gibt uns ein Maß für die Robustheit eines Plans, und sie gibt uns konkrete Handlungsempfehlungen. Spielbaum. Für einen Baum T=(V,E) sei L(T) ⊂ V die Menge der Blätter von T. In diesem Beitrag ist ein Spielbaum G=(V,E,h) ein Baum, bei dem die Knoten in die drei Klassen VMAX ∪ VMIN ∪ VAVG = V unterteilt sind und jedem Knoten ein Wert zugeordnet ist, der durch die Funktion h: V IN0 bestimmt ist. Knoten eines Spielbaums repräsentieren Stellungen des zugrunde liegenden Spiels, Kanten Züge von einer Stellung zur nächsten. Die Klassen VMAX, VMIN und VAVG repräsentieren die drei Spieler MAX, MIN und AVG. Für einen Knoten v ∈ Vi bestimmt die Klasse Vi den Spieler i, der als nächstes ziehen muss. Der Wert des Spiels ist definiert als der so genannte *minimax-Wert (Ballard 1983) der Spielbaumwurzel: *minimax-Wert. Sei G=(V, E, h) ein Spielbaum und wv:N(v) [0,1] sei eine Gewichtsfunktion für alle v ∈ VAVG, N(v) die Menge aller Nachfolger des Knotens v. Die Funktion *minimax: V IN0 ist rekursiv wie folgt definiert. h(v) max{ *minimax(v') | v' ∈ N(v)} *minimax := min{ *minimax(v') | v' ∈ N(v)} ∑ v’ ∈ N(v) (wv(v’) · *mimimax(v’))
, falls v ∈ L(G) , falls v ∈ VMAX \ L(G) , falls v ∈ VMIN \ L(G) , falls v ∈ VAVG \ L(G)
Reparaturspiel. Das Ziel des Reparaturspiels = (G,p,g,f,s) ist die Berechnung von *minimax(r) für einen speziellen Spielbaum G=(V,E,g+f) mit Wurzel r und uniformer Tiefe t. p ∈ L(G) ist ein spezielles Blatt und g, f und s sind Funktionen. Der Spielbaum hat folgende Eigenschaften: • Sei P = (r=v1, v2,…, p=vt) ∈ Vt der eindeutige Pfad von r nach p. P beschreibt einen traditionellen, initialen Plan, den Masterplan. • V ist partitioniert in Mengen S1,…, Sn, |V| ≥ n ≥ t durch die Funktion s:V {Si}1≤i≤n. Alle Knoten, die zur selben Partition Si gehören, sind im selben Systemzustand – z.B. in der Flugplanung: welches Flugzeug ist wann wo – unterscheiden sich aber in ihren Historien, die in diesen Zustand geführt haben. • Die Funktion g: {Si}1≤i≤n IN0 spezifiziert die erwarteten zukünftigen Kosten für Knoten, abhängig nur von ihrem Zustand. Für das spezielle Blatt p gilt g(s(p)) = 0.
Das Reparaturspiel als Formalisierung von Planung unter Zufallseinflüssen
347
• f: U 1≤τ≤t Vτ IN0 beschreibt die induzierten Reparaturkosten für jeden möglichen Teilpfad im Baum (V,E). Insbesondere hat jeder Teilpfad P’ von P Reparaturkosten Null, f(P’)=0. • Die Knotenbewertungsfunktion h: V IN0 ist definiert als h(v) = g(s(v)) + f(r … v); h(p)=0 gilt gemäß der Definition von g und f. 2.3 Interpretation und Beispiel für die Flugplanung Ein Planungsteam z.B. einer Fluggesellschaft mag das Reparaturspiel mit der Erzeugung eines traditionellen Planes für ihre Aktivitäten beginnen. Der Pfad P repräsentiert diesen Plan, der zugleich der am meisten erwartete Plan im Zeittrichter ist, und der interessanterweise einen eigenen Wert bekommt, sobald er erst einmal generiert worden ist. Er ist klein, kann kommuniziert werden, und sobald ein Kunde oder Zulieferer diesen Plan empfangen hat, verursacht jede weitere Änderung des Plans Änderungskosten. Wir nehmen diesen Plan als Masterplan her. Störungen im Ablauf können die Luftfahrtgesellschaft nun daran hindern voranzuschreiten, wie es ursprünglich geplant war. In der Tat ist zwar bekannt, dass ein Flugzeug ungefähr x Minuten von A nach B benötigt, aber dieses „ungefähr“ enthält eine Wahrscheinlichkeitsverteilung über verschiedene Möglichkeiten. AVG-Konten sind Naturknoten, und der AVG-Spieler formalisiert seine diskrete Wahrscheinlichkeitsverteilung über seine Handlungsalternativen. Ein MAX-Spieler tritt nur auf, wenn wir mitberücksichtigen wollen, dass sich eine Fluggesellschaft in Konkurrenz mit anderen Gesellschaften befindet. Wir verzichten derzeit auf diese Option. Jede Störung zwingt die Gesellschaft, ihren Plan anzupassen und einen neuen Plan zu produzieren. Der MIN-Spieler repräsentiert das Unternehmen selbst. Sobald eine Störung aufgetreten ist, wählt es einen reparierenden Teilplan aus, dessen Reparaturkosten plus seine erwarteten zukünftigen Kosten minimal sind.
348
S. Grothklags, U. Lorenz, J. Ehrhoff Rotationsplan
r Zeit Rotationsplan
f(Pfad)
g(Zustand)
p
Abb. 2. Der Reparaturspiel-Spielbaum
Weil der Wert eines Blattes v auch davon abhängt, wie „weit“ der Pfad (r,…,v) vom Pfad P entfernt ist, ist es nicht möglich, Systemzustände – wo ist welches Flugzeug zu welchem Zeitpunkt – mit Baumknoten gleichzusetzen. Deshalb gibt es die Partition V = S1 ∪ … ∪ Sn. In Si sind alle Knoten zusammengefasst, die zu einem bestimmten Systemzustand gehören, aber verschiedene Historien haben. Alle Knoten innerhalb einer Partition Si beschreiben denselben Zustand und haben dieselben erwarteten zukünftigen Reparaturkosten, die durch die Funktion g geschätzt werden. Die Funktion f bewertet für beliebige Teilpfade, wie weit diese von dem Ebenen-korrespondierenden Teilpfad von P entfernt sind. Innere Knoten des Spielbaums werden mit Hilfe der *minimax-Funktion bewertet. Abbildung 2 zeigt einen Rotationsplan auf der rechten Seite. Die Flugzeuge A, B, und C befinden sich entweder auf dem Boden oder in der Luft, was durch Boxen angezeigt wird. Eine schattierte Box bedeutet, dass der Masterplan verändert wurde. Die Zeit läuft von oben nach unten. Der linke Teil der Abbildung zeigt einen Spielbaum, dessen am weitesten links verlaufender Pfad den Masterplan P darstellt. Wenn eine Störung auftritt, sind wir gezwungen, diesen Plan zu verlassen, können aber hoffentlich bei einem Knoten v wieder in ihn zurückkehren. Der fette Pfad startend von Knoten v besteht aus Knoten mit denselben Zuständen wie im Masterplan. Am Knoten v haben wir somit Kosten für den Pfad von der Wurzel r nach v, gegeben durch f(r,…,v) und erwartete zukünftige Kosten, gegeben durch g(s(v)). Wenn wir dem Masterplan die ganze Zeit über gefolgt wären, hätten wir dieselben erwarteten zukünftigen Kosten zu verbuchen, jedoch geringere Pfadkosten. Typischerweise ist der einzige Knoten mit erwarteten Gesamtkosten Null das Blatt p des Masterplans.
Das Reparaturspiel als Formalisierung von Planung unter Zufallseinflüssen
3
349
Experimente mit dem Reparaturspiel in der Flugplanung
Im Folgenden beschreiben wir zwei Reparaturprogramme, so genannte Reparatur-Engines, die wir miteinander vergleichen. Die erste Engine repariert einen Plan nach einer Störung unter der Annahme, dass keine weiteren Störungen auftreten werden. Sie benutzt dazu ein leicht modifiziertes Time-Space Netzwerk, so dass die Lösung des dazugehörigen Flussproblems optimal unter der gegebenen Annahme ist. Die zweite Engine, die auf dem Reparaturspiel aufbaut, vergleicht verschiedene Lösungen des modifizierten Time-Space Netzwerk-Flussproblems und untersucht verschiedene Szenarien, die in nächster Zukunft entstehen können. 3.1 Eine einfache Reparatur-Engine: Der „kurzsichtige MIP“Löser Eine Möglichkeit, einen Reparaturplan zu finden, besteht darin, ein gemischt-ganzzahliges lineares Programm aufzustellen, das ähnlich zu demjenigen ist, mit dem auch das ursprüngliche Fleet Assignment und der ursprüngliche Rotationsplan erzeugt wurden. Man braucht lediglich von einem Startzeitpunkt T auszugehen und einige Nebenbedingungen für die gestörten Flüge zu verändern (Hane et al. 1995; Jarrah et al. 2000) sowie die Kostenfunktion abzuändern, weil die Reparaturkosten hauptsächlich von den Veränderungen am Plan verursacht werden. Wir modellieren das Problem, eine Reparaturlösung zu finden, als ganzzahliges Min-CostMulti-Commodity-Flussproblem auf einem erweiterten Time-Space Netzwerk. Wir fügen die Besonderheiten von Verspätungen und Ausfällen von Flügen zu dem Modell hinzu. In einem MIP, das zu diesem modifizierten Time-Space Netzwerk gehört, gibt es für jeden Flug l und für jede Flotte f eine binäre Entscheidungsvariablen xl,f, die anzeigt, ob Flug l von Flugzeugtyp f geflogen werden soll. In einer gültigen Lösung ist xl,f genau dann gleich 1, wenn Flug l von Flugzeugtyp f geflogen wird. Ausfälle von Flügen können eingebracht werden, indem für jeden Flug l eine zusätzliche Entscheidungsvariable xl,* eingeführt wird, die genau dann 1 wird, wenn Flug l gelöscht werden soll. Die Fähigkeit, Verspätungen zu modellieren, geschieht auf die folgende Weise: Zunächst schränken wir die Freiheitsgrade, wie ein Flug verzögert werden kann, auf eine kleine Anzahl von D vielen möglichen Verspätungen ein; sagen wir auf 0, 30, 60 und 120 Minuten (D=4). Dann führen wir anstelle der einen Variable xl,f für eine Flotte f, die Flug l bedienen kann, D viele Variablen ein, jeweils eine für jede Verspätungsart. Die beschriebe-
350
S. Grothklags, U. Lorenz, J. Ehrhoff
nen Erweiterungen lassen sich problemlos in das Time-Space Netzwerk einfügen. Darüber hinaus erlauben uns diese Variablen, direkt die Kosten einer Reparaturalternative zu minimieren, indem wir sie in die Kostenfunktion mit einbringen. Wir zählen dort die Anzahl von Verspätungen, Neuzuweisungen von Flotten und Ausfälle. Auf diese Weise werden Reparaturkosten minimiert, und der resultierende Plan ist optimal unter der Annahme, dass keine weiteren Störungen auftreten werden. Nichtsdestotrotz ist diese Engine ein kurzsichtiger Löser innerhalb des von uns angestrebten dynamischen Modells. 3.2 „T3“: Eine Engine, die das Reparaturspiel spielt 3.2.1 Der vorausschauende Suchalgorithmus Eine Vorausschauprozedur macht sich die Dynamik des Problems lokal um einen Zeitpunk T und T+d folgendermaßen zu Nutze: Anstelle lediglich eine kurzsichtige optimale Lösung für die Reparatur zu erzeugen, generiert sie gleich mehrere. Diese werden unsere möglichen Züge genannt. Nur für diese Züge untersuchen wir, welche relevanten Störungen in den nächsten d Minuten auftreten können. In all den entstehenden Szenarien reparieren wir den Plan mit Hilfe des oben beschriebenen kurzsichtigen MIP-Lösers, der uns Schätzwerte für die Szenarien liefert. Im Moment experimentieren wir nur mit dieser Tiefe-3Suche. Wir gewichten die Szenarien bzgl. ihrer Eintrittswahrscheinlichkeiten und minimieren an der Wurzel über die Erwartungswerte der Szenarien. Bezüglich des neuen Übergangsplans haben wir nun nicht die Kosten über erwartete Inputdaten minimiert, sondern näherungsweise die erwarteten Kosten über die möglichen Szenarien optimiert. Seien nun U und L untere und die obere Schranken aller möglichen Werte, die das Spiel annehmen kann. Der Suchalgorithmus, den wir verwenden, ist ein modifizierter Alphabeta-Algorithmus, der durch die Hinzunahme eines Naturspielers erweitert wurde. Wenn die Natur am Zuge ist, bekommt jeder Zug der Natur ein Gewicht, und die Werte der Nachfolger werden bzgl. ihrer Gewichte summiert. Wenn wir uns also an einem Naturknoten befinden und die Untersuchung der ersten Nachfolger dazu geführt hat, dass auch im Extremfall der Wert des Knotens nicht mehr unter eine Schranke β fallen kann, haben wir einen Cutoff. Analoges gilt natürlich auch für die α-Schranke. Der folgende Algorithmus ist eine vereinfachte Beschreibung des von Ballard vorgestellten Alphabeta-Verfahrens (Ballard 1983).
Das Reparaturspiel als Formalisierung von Planung unter Zufallseinflüssen
351
Wert *minimax(Knoten v, Wert α, Wert β) generiere alle Nachfolger v1,…,vb von v val := 0; if b = 0 return h(v) // ein Blatt for i := 1 to b if v ist MAX-Knoten α := maximum(α,*minimax(v i,α,β)); if α≥β or i = b return α; else if v ist MIN-Knoten β := minimum(β,*minimax(v i,α,β)); if α≥β or i = b return β; else // seien w1,…,wb die Gewichte der Knoten v1,…,vb val += *minimax(vi,α,β) · wi; if val + L · ∑bj=i+1 wj ≥ β return β; if val + U · ∑bj=i+1 wj ≤ α return α; if i = b return val;
3.2.2 Der Zuggenerator für den MIN-Spieler Der Zuggenerator für den MIN-Spieler erzeugt mehrere „gute“, aber unterschiedliche Reparaturalternativen für einen gestörten Plan. Sie führen alle so schnell und kostengünstig wie möglich zurück in den Masterplan. Dabei kann jede Alternative aus einer Mehrzahl von Reparaturoperationen bestehen: aus Start- und Landezeitverschiebungen, aus Neuzuweisungen von Flügen auf Flotten und aus Streichungen von Flügen. Als Basis benutzen wir dabei das kurzsichtige MIP des vorangegangenen Abschnitts 3.1, um Reparaturalternativen zu erzeugen. Wir modifizieren jedoch die Branch&Bound-Suche des MIP-Lösers. Wenn eine neue ganzzahlige Lösung (also in unseren Worten eine gute und gültige Reparaturalternative) gefunden wurde, die außerdem noch nah am kurzsichtigen Optimum (z.B. nur 1% weit weg) liegt, wird diese Lösung gespeichert und durch Hinzufügen geeigneter Cuts ungültig gemacht. Die Branch&Bound-Suche terminiert, sobald c viele Reparaturalternativen gefunden wurden. Zurzeit benutzen wir c=3. Um auch wirklich unterschiedliche Lösungsvorschläge zu bekommen, muss man die zusätzlichen Cuts sorgfältig auswählen. Wir berücksichtigen für Cuts nur Entscheidungsvariablen von Flügen, die anders gehandhabt werden (verspätet, neu zugewiesen oder gestrichen) als im Originalplan. Wir gruppieren diese Variablen nach Flugzeugen. Für jedes Flugzeug, das k>0 geänderte Flüge bedient, fügen wir einen Schnitt hinzu, der alle Entscheidungsvariablen der k geänderten Flüge (für die Flotte, zu der das Flugzeug gehört) zusammenaddiert. Dann schränken wir diese Summe auf höchstens k-1 ein. Man beachte, dass diese Summe in der aktuellen ganz-
352
S. Grothklags, U. Lorenz, J. Ehrhoff
zahligen Lösung gleich k ist. Deshalb schneidet diese Ungleichung auch die aktuelle ganzzahlige Lösung aus dem Lösungsraum des MIP heraus. 3.2.3 Der Zuggenerator für den AVG-Spieler An AVG-Knoten untersucht der Naturspieler, welche Abflüge in den nächsten 15 Minuten anstehen. Die atomaren Störungen „Streichung“ und „Verspätung von 30, 60 und 120 Minuten“ werden für jeden Flug, der in diesem Zeitraum den Boden verlässt, generiert. Die atomaren Störungen werden gemäß ihren (vorgegebenen) Eintrittswahrscheinlichkeiten gewichtet. Im Prinzip würden wir jetzt gerne alle diese atomaren Störungen sowie alle ihre Kombinationen untersuchen. Leider führt dies zu einer zu großen Anzahl möglicher Szenarien. Zurzeit beschränken wir daher die Suchbreite dadurch, dass wir nur atomare Störungen betrachten.
4
Experimentelle Ergebnisse
In Abstimmung mit unserem industriellen Partner Lufthansa Systems haben wir eine Simulationsumgebung entwickelt, mit der wir das Verhalten unseres neuen Ansatzes aus Abschnitt 3.2 mit dem traditionellen kurzsichtigen Verfahren aus Abschnitt 3.1 vergleichen können. Unser Simulator ist nicht so detailliert wie zum Beispiel SimAir (Rosenberger 2000), aber wir sind überzeugt, dass er detailliert genug ist, um den für uns relevanten Teil der Realität hinreichend genau zu beschreiben. Dabei ist der Simulator einfach genug gehalten, um die auftretenden Probleminstanzen in annehmbarer Zeit abarbeiten zu können. Dazu haben wir zuerst die Zeit in Intervalle von d = 15 Minuten diskretisiert. Jeder Abflug des aktuellen Umlaufplans stellt ein mögliches Ereignis dar, und alle Ereignisse, die innerhalb eines 15-Minuten-Intervalls liegen, werden als gleichzeitig stattfindend angesehen. Wenn während der Simulation ein Ereignis (ein abgehender Flug) auftritt, kann der betroffene Flug gestört werden, d.h. er kann um 30, 60 oder 120 Minuten verzögert werden oder auch ganz aus dem Schedule gestrichen werden. Die Störungen treten dabei jeweils mit einer vorgegebenen Wahrscheinlichkeit auf. Bezeichne T den aktuellen Simulationszeitpunkt. Der Simulator betrachtet und stört gegebenenfalls alle Ereignisse im Intervall [T,T+d], übergibt die Störungen an eine Reparatur-Engine, wartet auf den reparierten FlugzeugUmlaufplan und geht d Minuten in der Zeit vorwärts. Die Basis für unsere Simulation stellt ein kontinentaler Lufthansa Flugplan dar. Zusätzlich stehen uns weitere Daten zur Verfügung, um alternative Pläne für die Reparatur berechnen zu können. Der Plan besteht aus
Das Reparaturspiel als Formalisierung von Planung unter Zufallseinflüssen
353
20603 Flügen, die von 144 Flugzeugen aus 6 Flotten bedient werden. Das MIP, das den Ausgangsplan erzeugt hat, besteht aus 220460 Spalten, 99765 Zeilen und 580793 Nicht-Null-Einträge. Wir haben aus dem Ausgangsplan 14 aufeinander folgende Tage, startend am 3. Januar 1995, herausgenommen und daraus 14 unabhängige Teilpläne als Testinstanzen generiert, für jeden der 14 Tage eine Instanz. Wie oben bereits erwähnt, wird dabei jede Instanz in 15 Minuten-Intervalle diskretisiert, und alle Ereignisse innerhalb eines Intervalls als gleichzeitig stattfindend angenommen. Der Simulator kann verschiedene ReparaturEngines zur Störungsbehebung einsetzen, und so haben wir das Verhalten des kursichtigen MIP-Lösers mit der T3-Engine verglichen. Für einen ersten Lauf haben wir die Wahrscheinlichkeiten für Störungen wie folgt festgelegt: Leg-Streichung 0.001, Verzögerung um 120 Minuten 0.02, Verzögerung um 60 Minuten 0.08, Verzögerung um 30 Minuten 0.12. Als Bewertung der Simulationsergebnisse haben wir vier relevante Maße während der Simulation protokolliert und über eine gewichtete Kostenfunktion zu unseren Reparaturkosten umgerechnet. Als Maße kamen dabei die Summe der benötigten Startverzögerungen in Minuten (TIM), die Anzahl der Wechsel eines Flugzeugtyps für einen Flug (ECH) und die Anzahl der Flug-Streichungen (CNL) zum Einsatz. Zusätzlich haben wir noch die Änderungen der Erlöse, die sich aus verloren gegangenen Passagieren ergeben, berücksichtigt. Unser Industriepartner hat als Kostenfunktion c(TIM,ECH,CNL,Erlöse) = 50 TIM + 10000 ECH + 100000 CNL - Erlöse vorgeschlagen, mit der wir die Simulationsergebnisse der verschiedenen Reparatur-Engines vergleichen sollen. Die Spalten 2 bis 5 von Tabelle 1 zeigen die Ergebnisse des kurzsichtigen MIP-Lösers, die Spalten 6 bis 9 gehören zu der T3-Engine. FlugStreichungen (CNL) werden nicht gezeigt, da sie wegen der geringen Wahrscheinlichkeit während der Simulation nicht aufgetreten sind. Die ∆Spalte zeigt die Kostendifferenz der c-Spalten der zwei Reparatur-Engines; positive Werte bedeuten, dass die T3-Engine weniger Reparaturkosten verursacht hat als der kurzsichtige Löser. Wie aus der Tabelle ersichtlich wird, gewinnt die T3-Engine 11 von 14 Tagen gegenüber dem kurzsichtigen Löser. Über alle 14 Tage zusammen kann die T3-Engine 2.21% Reparaturkosten einsparen. Für jeden Reparaturschritt eines 15 Minuten-Intervalls benötigt der MIP-Löser ungefähr 8 Sekunden. Die T3-Engine ist ungefähr 200mal langsamer, da sie im Mittel 213 Szenarien in jedem Schritt untersuchen muss. Was die Qualität der produzierten Reparaturpläne angeht, kann allerdings T3 den MIP-Löser in allen drei Kategorien TIM, ECH und Erlöse schlagen. Das ist ein wenig überraschend, da wir erwartet haben, dass T3
354
S. Grothklags, U. Lorenz, J. Ehrhoff
eher die „billigen“ TIMs einsetzen würde, um die teureren ECHs zu vermeiden, um damit die Gesamtreparaturkosten zu senken. Tabelle 1. Simulationsergebnisse für Wahrscheinlichkeiten 0.001/0.02/0.08/0.12 Datum
MIP
T3
TIM
ECH
Erlöse
c
TIM
ECH
01/03
6270
0
0
313500
5850
01/04
6090
0
0
304500
6540
01/05
5820
0
0
291000
5910
01/06
6240
2
-3717
335717
5910
01/07
5160
4
-28602
326602
01/08
3600
4
-51674
271674
01/09
5250
2
-28193
310693
01/10
5730
0
0
286500
01/11
6270
4
-19915
373415
01/12
6660
0
0
01/13
6750
4
-24790
01/14
5730
0
01/15
3390
0
∆
Erlöse
c
0
0
292500
21000
2
2219
344781
-40281
0
0
295500
-4500
2
-3717
319217
16500
5130
4
-28073
324573
2029
3570
4
-47784
266284
5390
5370
2
-6091
294591
16102
5940
0
0
297000
-10500
6090
4
-19915
364415
9000
333000
6420
0
0
321000
12000
402290
6810
2
-8782
369282
33008
0
286500
5670
0
0
283500
3000
0
169500
3270
0
0
163500
6000
01/16
5880
2
-4775
318775
5880
0
0
294000
24775
Σ
78840
22
-161666
4323666
78360
20
-112143
4230143
93523
In einem zweiten Lauf haben wir die Wahrscheinlichkeiten für Störungen auf 0.003/0.04/0.16/0.24 erhöht. Die Ergebnisse finden sich in Tabelle 2. Wieder schlägt die T3-Engine den kursichtigen MIP-Löser an 10 von 14 Tagen, und T3 verursacht insgesamt um 3.35% niedrigere Reparaturkosten. Hier können wir auch sehen, dass T3 weniger von den sehr teuren Flug-Streichungen produziert, dafür aber zusätzliche ECHs in Kauf nimmt. Eine interessante Beobachtung ist, dass man an den Ergebnissen erkennen kann, dass es sich beim 8. und 15. Januar um Sonntage handeln muss. Störungen haben an diesen Tagen signifikant geringere Auswirkungen, da der Schedule an Sonntagen nicht so „dicht gepackt“ ist.
Das Reparaturspiel als Formalisierung von Planung unter Zufallseinflüssen
355
Tabelle 2. Simulationsergebnisse für Wahrscheinlichkeiten 0.003/0.04/0.16/0.24 MIP
T3
Datum
∆ TIM
CNL
ECH
Erlöse
c
TIM
CNL
ECH
Erlöse
c
01/03
12210
8
2
-684
1431184
12120
8
2
-11374
1437374
01/04
11460
6
1
2028
1180972
11550
4
0
1145
976355
204617
01/05
10950
6
4
-24978
1212478
11340
8
5
-20407
1437407
-224929
01/06
13830
8
1
-5654
1507154
13470
8
1
-2567
1486067
21087
01/07
10530
7
2
-28385
1274885
10950
7
3
-33248
1310748
-35863
01/08
6000
4
4
-49501
789501
5430
2
4
-49784
561284
228217
01/09
11640
4
2
-29410
1031410
11570
4
2
-20977
1019477
6933
01/10
11730
6
3
-20403
1236903
11130
6
3
-25713
1212213
24690
01/11
12060
8
0
2003
1400997
12150
6
3
12119
1225381
175616
01/12
12030
6
2
-1971
1223471
11790
8
2
974
1408526
-185055
01/13
12630
8
0
580
1430920
12570
6
1
1036
1237464
193456
01/14
10410
6
4
-38488
1198988
10020
6
4
-36133
1177133
21855
-6190
01/15
5790
2
0
-1000
490500
5760
2
0
-1000
489000
1500
01/16
12270
5
0
-133
1113633
12090
4
0
257
1004243
109390
153540
84
25
-195996
16522996
152040
79
30
-185672
15987672
535324
Σ
Zwei bis drei Prozent Einsparungen sehen zwar schon schön aus, die gegebenen Daten klären aber noch nicht die Signifikanz. Obwohl an jedem Simulationstag fast 100 Entscheidungen getroffen werden, kann man diese nicht für Signifikanzfragen zu Hilfe nehmen, da die einzelnen Entscheidungen nicht unabhängig voneinander sind. Innerhalb eines Tages sind die Entscheidungen Folgeentscheidungen von Folgeentscheidungen… Die Resultate von einzelnen Tagen sind ebenfalls mit Vorsicht zu genießen. Zum einen scheinen sie nicht einer Normalverteilung zu genügen, zum anderen sind sie auch von der Struktur des Plans an einem bestimmten Tag abgängig. Wir sehen daher keine andere Möglichkeit, als Durchschnittswerte mehrerer Tagesdaten als Messpunkte zu nehmen. Tabelle 3. Durchschnittlich eingesparte Tagesreparaturkosten der T3-Engine gegenüber dem MIP-Löser Lauf 1
Lauf 2
Lauf 3
Lauf 4
Lauf 5
Lauf 6
Woche 1
2320
27696
32261
-9238
-15799
13150
Woche 2
11040
48778
11580
-1253
9144
8389
356
S. Grothklags, U. Lorenz, J. Ehrhoff
Wir haben deshalb fünf zusätzliche Testläufe mit den bereits oben verwendeten Störungswahrscheinlichkeiten 0.003/0.04/0.16/0.24 durchgeführt. Dabei kam jeweils ein anderer Random-Seed zum Einsatz. Als Messpunkte haben wir die durchschnittlichen Tagesreparaturkosten über eine komplette Woche genommen, da wir davon ausgehen, dass sich die beiden Wochen des Plans „hinreichend wenig“ in ihrer Struktur unterscheiden. Damit sind strukturelle Einflüsse (außer denjenigen, die auf die Pseudo-Zufälligkeit des Zufallsgenerators zurückzuführen sind) eliminiert, und wir erhalten insgesamt 12 Messpunkte, die in Tabelle 3 angegeben sind. Ein Eintrag Woche i / Lauf j beschreibt den durchschnittlichen absoluten Tagesgewinn bzw. Verlust des T3-Verfahrens gegenüber dem MIPVerfahren in Woche i bei Simulationslauf j. Positive Werte sind günstig für das T3-Verfahren. Der Mittelwert über diese Werte beträgt 11505 Einheiten, die Standardabweichung 17897. Gehen wir nun von einer Normalverteilung aus, ergibt sich mit Hilfe der t-Verteilung, dass mit 95% Sicherheit der Erwartungswert größer oder gleich 2309 Einheiten ist.
5
Zusammenfassung und Ausblick
Durch Spielen des Reparaturspiels kann man robustere (Teil-)Pläne für die Flugzeugumlaufplanung erzeugen als mit einem kurzsichtigen MIP-Löser. Unser vorausschauender Reparaturalgorithmus schlägt einen kurzsichtigen MIP-Löser klar in unserer Simulationsumgebung. Als nächstes planen wir, die Suchstrategie unserer neuen Reparatur-Engine zu verbessern und zu beschleunigen, indem wir schlaue und selektive Auswahlheuristiken einführen und den Code parallelisieren. Ziel ist, die Simulationszeit auf Echtzeit-Niveau zu bringen. Ferner wollen wir alternative, schnellere Reparaturgeneratoren für die vorausschauende Suche entwickeln und den Simulator weiter verfeinern.
Literatur Althöfer I (1988) Root evaluation errors: how they arise and propagate. ICCA Journal 11: 55–63 Ballard BW (1983) The *-minimax search procedure for trees containing chance nodes. Artificial Intelligence 21: 327–350 Carl G, Gesing T (2000) Flugplanung als Instrument des Informationsmanagements zu Ressourcenplanung und -steuerung einer Linienfluggesellschaft. In:
Das Reparaturspiel als Formalisierung von Planung unter Zufallseinflüssen
357
Daduna JR, Voß S (Hrsg) Informationsmanagement im Verkehr. Springer, Heidelberg, S 167–198 Daniels RL, Kouvelis P (1995) Robust scheduling to hedge against processing time uncertainty in single-stage production. Management Science 41: 363– 376 Donninger C, Kure A, Lorenz U (2004) Parallel Brutus: The first distributed, FPGA accelerated chess program. ACM Proceedings of 18th International Parallel & Distributed Processing Symposium (IPDPS'04), Santa Fe, S 44 + CD-ROM Engell S, Märkert A, Sand G, Schultz R (2001) Production planning in a multiproduct batch plant under uncertainty. Preprint 495-2001, FB Mathematik, Gerhard-Mercator-Universität Duisburg Grothklags S (2003) Fleet assignment with connection dependent ground times. Proceedings of the 11th Annual European Symposium on Algorithms (ESA 2003), Budapest, S 667–678 Gu Z, Johnson EL, Nemhauser GL, Wang Y (1994) Some properties of the fleet assignment problem. Operations Research Letters 15: 59–71 Hane CA, Barnhart C. Johnson EL, Marsten RE, Nemhauser GL, Sigismondi G (1995) The fleet assignment problem: solving a large-scale integer program. Mathematical Programming 70: 211–232 Horvitz E, Breese J, Henrion M (1988) Decision theory in expert systems and artificial intelligence. Journal of Approximate Reasoning, Special Issue on Uncertainty in Artificial Intelligence, S 247-302 Jarrah AI, Goodstein J, Narasimhan R (2000) An efficient airline re-fleeting model for the incremental modification of planned fleet assignments. Transportation Science 34: 349–363 Knuth DE, Moore RW (1975) An analysis of alpha-beta pruning. Artificial Intelligence 6: 293–326 Kouvelis P, Daniels RL, Vairaktarakis G (2000) Robust scheduling of a twomachine flow shop with uncertain processing times. IIE Transactions 32: 421– 432 Leon VJ, Wu SD, Storer RH (1994) A game-theoretic control approach for job shops in the presence of disruptions. International Journal of Production Research 32: 1451–1476 Lorenz U, Monien B (2004) Error analysis in minimax trees. Theoretical Computer Science 313: 485–498 Mulvey JM, Vanderbei RJ, Zenios SA (1995) Robust optimization of large-scale systems. Operaions Research 43: 264–281 Nau DS (1979) Quality of decision versus depth of search on game trees. PhD Thesis, Duke University, Durham Reinefeld A (1983) An improvement of the Scout tree search algorithm. ICCA Journal 6: 4–14 Römisch W, Schultz R (2001) Multistage stochastic integer programming: An introduction. In: Grötschel M, Krumke SO, Rambau J (eds) Online Optimization of Large Scale Systems, Springer, Berlin Heidelberg New York, S 579– 598
358
S. Grothklags, U. Lorenz, J. Ehrhoff
Rosenberger JM (2000) Topics in Airline Operations. PhD Thesis, Georgia Institute of Technology, Atlanta Rosenberger JM, Johnson EL, Nemhauser GL (2001) Rerouting aircraft for airline recovery. TLI-LEC 01-04 Georgia Institute of Technology Rosenberger JM, Schaefer AJ, Goldsman D, Johnson EL, Kleywegt AJ, Nemhauser GL (2000) Simair: A stochastic model of airline operations. Winter Simulation Conference Proceedings Russel S, Norvig P (1995) Artificial intelligence: A modern approach. Prentice Hall, Upper Saddle River Scholl A (2001) Robuste Planung und Optimierung: Grundlagen, Konzepte und Methoden, Experimentelle Untersuchungen. Springer, Berlin Heidelberg New York
A Decision Support System for Airline Crew Management: Crew Scheduling and Rescheduling Yufeng Guo, Leena Suhl, Markus P. Thiel Decision Support & Operations Research Laboratory in cooperation with International Graduate School of Dynamic Intelligent Systems, University of Paderborn, Warburger Str. 100, 33098 Paderborn, {guo, suhl, thiel}@dsor.de
Abstract We propose a decision support system that covers the complete life cycle of the airline crew scheduling process. A tool has been designed to meet the requirements for both planning and operational phase. We develop a general infrastructure for the crew management tasks in which alternative solution methods, such as mathematical programming and heuristics, can be easily incorporated. Besides the conventional two-phase scheduling (crew pairing and crew assignment) in the planning phase, the focus of our research lies on a partially integrated approach including an extension for the consideration of teams during the assignment step. For daily operations, we suggest a dedicated crew recovery approach to handle unexpected disruptions. A test case is presented to illustrate the system’s capabilities in solving a real-life problem for a medium-sized European airline.
1
Introduction
As crew costs constitute the second largest expense of major airlines after the cost for fuel (Yu et al. 2003), crew management plays a crucial role in the overall operation of the airline industry. Much research has been conducted for decades to handle such a complex problem. The latest advances in operations research (OR) are applied to build a variety of real-life decision support systems (DSS) employed in this area.
360
Y. Guo, L. Suhl, M. P. Thiel
A DSS can be seen as a system that interactively assists users in making complex decisions rather than replacing them and making decisions automatically. The goal of this approach for airline crew management is to develop a system that assists planners and coordinators in commercial airlines supporting their daily work. A DSS builds up crew schedules as applicable sequences of flights together with fixed pre-scheduled activities that are assigned to a crew member within a certain planning period, and updates them whenever it is necessary. In this paper, we propose a decision support system that is designed to cover the complete crew management process of airlines, including the planning and the operational phase. This makes it possible to handle the two different tasks within one infrastructure in which several common components can be shared for both problems. It thus may provide higher levels of interaction between each stage of the entire process, and general problem solving techniques can be incorporated seamlessly into the system. Consequently, in addition to the benefit from the application of sophisticated solution methods, better results can be achieved in the system level. This article focuses on the discussion of the system architecture, and we refer to literature mentioned in each section for technical details. We use the abbreviation CSP for the airline crew scheduling problem in the planning phase, and CRP for the airline crew recovery in operational phase. Notably, the abbreviation CRP also appears in some literature with a different meaning, airline crew rostering problem. Therefore, we apply another commonly used terminology CAP (derived from airline crew assignment problem) to address the rostering problem. This article is organized as follows: In Section 2, we firstly give an overview of the airline crew management, and introduce the general scheduling and rescheduling processes involved. Furthermore, the special consideration regarding teamwork is discussed in 2.1.3. A dedicated decision support system architecture is described in Section 3 in detail. Finally, a case study applied to a medium-sized European airline is described.
2
Airline Crew Management
The airline crew management problem is usually divided into two major phases, planning and operations control. In the planning phase, crew schedules are generated and published ahead of their actual operation, and stay intact if they are applicable. In the operational (operations control) phase, crew schedules have to be updated because of unpredictable disruptions or the change of market demands. The general task during operations
A Decision Support System for Airline Crew Management
361
control is to reschedule those crews who are affected in disrupted situations, since every flight still needs to be operated. In the following, we first describe two individual approaches that are considered during the planning phase, a sequential approach and an integrated approach. Additionally, we address a team-oriented approach, in which a certain degree of teamwork is granted. Finally, an operational rescheduling approach is applied on a day-to-day basis, in which several solution methods are applied to repair disturbed crew schedules. 2.1 Crew Scheduling As described above, airline crew scheduling is a process that assigns a set of flights, together with pre-scheduled activities, such as trainings, office and simulator duties, vacancy, or requested off-duty days, to a limited number of crew members stationed at one or multiple airports (called home base). Generally speaking, the result of such a process is a set of crew schedules with minimal operational cost, taking into account a variety of rules and regulations imposed by civil aviation authorities, union contracts, and company policies, see (Kohl and Karisch 2004; Suhl 1995). Due to the complexity of the problem, the CSP is normally divided into two sequentially solved sub-problems: the crew pairing problem (CPP) and the crew assignment problem, see (Barnhart et al. 1999) for an overview. In order to avoid disadvantages connected to the pure sequential approach, we have developed an integrated approach that partially combines the two steps described above. In this approach, parts of the CAP are already considered during the pairing generation step. In other words, the crew capacity is calculated prior to the generation of pairings by taking all pre-scheduled activities into account.
Fig. 1. The crew scheduling process in planning phase
362
Y. Guo, L. Suhl, M. P. Thiel
As one can see in Fig. 1, pre-scheduled activities are considered as an input to the assignment step of the sequential approach, but they are already taken into consideration in the crew pairing step within an integrated approach. More details regarding the two approaches are given in the remaining subsections. 2.1.1
Sequential Crew Scheduling
The sequential crew scheduling approach is traditionally used by most airlines; it clearly distinguishes between crew pairing and crew assignment. Given an airline’s flight schedule and aircraft rotations, the crew pairing step generates a collection of pairings (a group of flights that can be operated by one crew member, starts and ends at his/her home base with the duration of up to five calendar days) for each home base. All pairings are generated anonymously, i.e., regardless which crew member serves them as long as the number of crew members required by the set of pairings is satisfied by the actual number of crew members located at the home base. In the crew assignment step all pairings are assigned to individual crew members in such a way that the operational cost, such as overnight expenses of crews, compensation for time that crew spends outside their home domicile, and cost for transiting crews is minimized. We often transit crew members by taxi, train, or aircraft from one airport to another where they have to start the next flight. Usually the airline CPP can be formulated as a set partitioning model (or set covering model, if deadheads are allowed). The main objective is the minimization of operational cost. The basic constraint guarantees that every flight is covered by a set of pairings exactly (for set covering model: at least) once. The airline CAP is based on earlier generated pairings and constructs a schedule for each crew member by linking pairings together with prescheduled activities into bid lines (also called roster), a work schedule of a crew member for a given planning period of normally half or full month). The set partitioning model is commonly applied to formulate such a problem. Similar to the CPP, the objective function minimizes the total operational cost summing up over all crew members at all home bases, and the primary constraint is the coverage of each flight. Additionally, the workload is evenly distributed among crew members within every home base, and among home bases. Several techniques have been proposed to solve the airline CPP and CAP. Generally, solution methods can be categorized into two groups, integer programming and heuristics. A set partitioning (covering) model is typically adopted as the master problem, while a sub-problem is created to
A Decision Support System for Airline Crew Management
363
generate pairings for CPP (or rosters for CAP accordingly). This can be done, e.g., within a column generation procedure to build the master problem during iterations, see (Gamache and Soumis 1998; Fahle et al. 2002). The group of heuristics includes local search based algorithms, e.g., simulated annealing and tabu search, as well as evolutionary search such as genetic algorithms, see (El Moudani et al. 2001) for an example. 2.1.2
Integrated Crew Scheduling
Because of the anonymous pairing generation in the sequential approach, difficulties may arise within the assignment step where individual prescheduled activities have to be taken into account. The partially integrated approach reduces such problems because the pre-scheduled activities are considered already in the scheduling phase thus implying realistic information about the number of crew members available. Furthermore, an even distribution of workload can be considered at an early scheduling stage not only among home bases, but also among all crew members. We propose the so-called state-expanded aggregated time-space network flow model to solve the airline CPP. An aggregated time-space network is constructed for each crew member. The aggregation of end and start nodes at each airport is conducted in order to reduce the network size without loss of generality. Certainly, decomposition is applied in the end of the process. In these networks, all pre-scheduled activities are added as off-duty arcs and should be served by one (anonymous) crew member. The output of such an approach is a set of so-called pairing chains that already link pairings with those pre-scheduled activities. For further details we refer to (Mellouli 2001; Guo et al. 2003). After the pairing chains have been generated, a multi-weight based constructive heuristic is developed to assign them to individual crew members. Pairing chains are firstly decomposed into atomic pairings (parts of rosters corresponding home base to home base trips). Crew schedules are constructed in such a way that the most “promising” atomic pairing is mapped to the most “suitable” available crew member within the examined home base. Step by step, crew schedules are built with minimal operational costs complying all the regulations and rules, see (Guo et al. 2003) for details. Because of the consideration of pre-scheduled activities in the previous step, such a greedy algorithm is able to perform well in terms of computational time and solution quality, while general integer programming methods may need more time to find the optimal solution due to the tremendous number of rosters (columns) in the integer model. But both solution methods are practical for medium-sized airlines, as our computational experiences confirm.
364
2.1.3
Y. Guo, L. Suhl, M. P. Thiel
Team-oriented Rostering
Besides the pure cost consideration in the crew scheduling process, other quality-of-life requirements are addressed by airlines as well, such as the time crew stays away from his/her home base, and effective team building. In our approach, the degree of teamwork is specially addressed. We define the so-called Team-oriented rostering problem (ToRP) as the consideration of teams in the crew assignment phase within both the sequential and the integrated approach. It is fulfilled by, e.g., minimizing the number of team changes occurring if at least one crew member is scheduled to service the next flight activity together with a different colleague. For realizing the ToRP, we have added an extension to the general set partitioning CAP model, which includes the minimization of the penalty for team changes in the objective function, and some additional coverage constraints have to be added. We call this approach the extended rostering model. Alternatively, a so-called roster combination model is proposed, having the advantage of fixed size in comparison to the extended rostering model. By considering team changes, a certain degree of teamwork is achieved, which implies an increased level of quality-of-life without requiring much more additional cost. More details can be found in (Thiel 2004). 2.2 Operational Rescheduling Airlines’ regular operations are often disturbed by unpredictable disruptions, such as aircraft mechanical problems, severe weather conditions, crew unavailability, or air congestion. These types of disruptions may impact an airline’s normal operations in a dramatic fashion, and tremendous cost may be required to repair the crew schedules. Generally, three kinds of resources are involved in the recovery process: aircraft, passengers and crews. Hence airlines need to recover their disrupted aircraft routings, flight schedules, and crew schedules. The way an airline takes care of recovery may differ from airline to airline. However, in practice it is usually carried out by different departments, involving many interactions between the three resources. Typically, the aircraft recovery and the passenger recovery are conducted prior to the crew recovery. The latter, receives the updated flight schedules as input, and then reschedules crew members accordingly to assure that all disrupted flights are properly covered. The emphasis of this article is on the crew resource. Therefore, we assume that aircraft recovery and passenger recovery are already finished before crew recovery starts. In other words, updated flight schedules are already given.
A Decision Support System for Airline Crew Management
365
Due to the similarity between CRP and CSP, some algorithms applied for solving CSP may also be adopted in CRP with some extensions. For example, (Stojković et al. 1998) solve such a problem as an integer nonlinear multi-commodity network flow model with time windows and additional constraints. In (Lettovský et al. 2000), a pairing generation method works together with special branching strategies. Furthermore, (Yu et al. 2003) described an award-winning real-life application employed by Continental Airlines in the US, in which the master problem is treated as a set covering problem and a so-called generate-and-test heuristic is applied to generate updated rosters. In our approach we apply, three solution methods: column generation, a genetic algorithm, and constructive heuristic. Each method may be selected and configured based on investigation of the given situation. As shown in Fig. 2, when disruptions occur, they are identified by monitoring systems or coordinators of the airline operational control center (OCC). Disruptions are then classified regarding the scale and its source, and a proper strategy out of a predefined set is chosen based on the classification and experts’ experience.
Fig. 2. The crew recovery process in operations control phase
3
A DSS for Airline Crew Management
After we have presented the underlying crew scheduling processes and involved tasks within airlines, a multitude of requirements considering the scheduling phases will be derived in Section 3.1. They constitute the fundamental basis for a later construction of a DSS and its components in Section 3.2, whereas the remaining Section 3.3 discusses their specific functionality.
366
Y. Guo, L. Suhl, M. P. Thiel
3.1 Requirement Description The way we understand a DSS is expressed by supporting, not replacing, the user in front of the system. Its recommendations to the planning and operations control personnel should be based on the full set of available information at the time of a service request. Nevertheless, due to the distinct goals of the two sequential phases, planning and operations control, we determine their requirements separately as follows. 3.1.1
Requirements in the Planning Phase
As described in Section 2.1, the crew scheduling determines the assignment of flights to crew members during the planning phase. The input information includes the flight schedule, aircraft rotations, crews’ individual pre-scheduled activities, payment and cost structures, as well as work rules. Therefore, a DSS for this problem setting has to combine the complex data for the solution processing. It needs to set up and coordinate dedicated solution methods in combination with appropriate, sometimes alternative, optimization strategies. These still require intensive testing and evaluation, whereas results are necessarily presented in an understandable way to the users: Firstly to the planning experts, secondly to the operating air crew by official publications after the final crew schedule has been determined. In a subsequent step, statistics may help to uncover unbalanced workload situations, and expert rules may be used for more strategic decisions. 3.1.2
Requirements in the Operational Phase
The input for the crew rescheduling problem differs from the CSP: In addition to the actually operated schedule, the CRP has to recover from disruptions for crew members as soon as possible. Note that the given schedule might be already different to the scheduled one of the CSP because of earlier disruptions. Hence a DSS for crew management in the operational phase has to model not only the situation scheduled (until this point of time), but also more actual events caused by delays, cancellations, absentness etc, as long as they are related to the crew. It is especially important for operations personnel to reveal a disruption’s impact on the remaining schedule and to act quickly and appropriately towards the full schedule recovery. In this case the user needs support to handle the vast amount of input data, an appropriate environment to address the disruptions by dedicated solution approaches and their evaluation for quick and efficient decision
A Decision Support System for Airline Crew Management
367
making. Hereby, it is favorable to learn from earlier recovery operations. Sometimes it is possible to use earlier information to proactively prevent the occurrence of disruptions. 3.2 System Architecture and its Components In this subsection we emphasize on the extracted requirements of a crew management system and, therefore, we suggest the following components of a DSS. The architecture can be observed by identifying three tiers from the left side to the right side: users, core components and input data. 3.2.1
Users and User Interface
The graphical user interface (GUI) allows users to interact with the system. For airline crew management, we differentiate between planners (for the planning phase) and coordinators (for the operational phase) who are usually working for different departments at the airline. The interface covers their needs, especially in order to support their jobs effectively by utilizing components efficiently. 3.2.2
Core Components of the DSS
The core of the system architecture consists of components that characterize the DSS and provide its most important functionalities. In the following, we briefly describe the essential components that have been implemented and incorporated into the system. • DSS configuration: The system configuration is a central component as it constitutes the basis of the DSS. A bundle of functions and settings should be enabled or disabled when and where necessary. Therefore, it is essential to group and to set up a complete definition of the company’s objectives since they decide how to set the parameters which are associated with achieving the intended goal(s) within all further components. • Data communication: This component works on the exchange of data between the DSS and the necessary databases and other data. There is a high similarity of input data for the crew management tasks. Therefore a fully shared component is proposed. • Solution methods: Based on the objectives of the task and the given parameters, a set of solution methods is provided. This includes set partitioning (or covering) models for integer programming, their LP relaxation, network flow model, branch-and-bound approach, column
368
•
•
•
•
•
•
Y. Guo, L. Suhl, M. P. Thiel
generation, constructive or modern heuristics, e.g., genetic algorithms, simulated annealing etc. These solution methods might be combined or sequenced in a defined order to calculate the desired result(s). What-if analysis: This component enables the handling of different parameter settings within the DSS. Even for well-experienced experts it is sometimes very hard to decide in advance all details of the “best” values for certain parameters. As a result, examining further alternatives might present valuable insights rather than what a single intuitive approach is able to provide. Simulation: Since the operation of an airline is not a deterministic system, the application of a simulation component is very useful. Thus it is possible to evaluate more stochastic characteristics of crew schedules, e.g., robustness against delays or delay propagations, and their impacts on the entire system. Visualization: Both crew scheduling and rescheduling are based on a huge amount of data. A proper visualization helps the user to understand the underlying information more easily in a way that over-demanding or misinterpretable output is prevented. Evaluation: This component is responsible for the complex evaluation of alternative solutions, through which it supports the final decision making, e.g., based on comparisons. After several solutions are generated by a single or multiple components introduced above (e.g., solution methods, what-if-analysis, simulation) an evaluation scheme has be been defined which determines the pros and cons among the alternatives and provides a concrete suggestion on how to react in the current situation. Publication/Notification: All decisions that are made during the crew management need to be published which has to be done in a way that all individual crew members affected by the updated information are informed accordingly by print-outs or only via terminal stations at their current location. Statistics: In order to improve the solution quality, the consideration of tracked data may produce additional benefits. Derived from the experienced problems, expert rules can be extracted and, therefore, future disruptions might be avoided before their occurrence.
3.2.3
Input Data
The two major categories of data are static data as well as rules and expertise.
A Decision Support System for Airline Crew Management
369
• Static data: For the crew management tasks the input data is served by several databases: They include information of crew members (e.g., individually contracted flying hours, vacations, pre-scheduled activities and home bases), the flight plan (e.g., flights with arrival and departure times, requested crew qualifications and fleet requirements etc.), and airport information (such as landing capacities and hotel availability). Furthermore, a tracking database provides the real-time data as it is executed during operations which monitors also delays, cancellations, crew sickness/absentness etc. A knowledge container covers all less structured information, such as general guidelines and concepts, knowledge access points (or yellow pages) with contact information, and so on. • Rule sets and expertise: In addition, more or less structured regulations based on governmental instances, union agreements or company internal rules have to be instantly satisfied during the crew scheduling and rescheduling. Besides this, expert rules are usually considered that may define even more restrictive (sometimes simpler) constraints on the problem setting or – based on the users’ experience – they turned out to speed up the solution process. The overall architecture is given in Fig. 3. The upper third part of this illustration represents the crew scheduling during the planning phase, including different alternatives, such as sequential or integrated approaches with or without team-orientation (see Section 2.1). In contrast to this, the lower third part of the figure highlights the rescheduling processes encountered in the operational phase as discussed in Section 2.2. In the center – and, therefore, embedded in-between both scheduling phases – the core components of the DSS can be found. It consists of the components introduced above and arranges them according the architecture proposed.
370
Y. Guo, L. Suhl, M. P. Thiel
Fig. 3. The architecture of the DSS for airline crew management
3.3 DSS Functionality Despite the fact that all components mentioned above are commonly shared among both scheduling phases, some of them require a special functionality set as discussed earlier in Section 3.1. For example, regarding components such as configuration, what-if-analysis, evaluation, databases and rule set, there are no obvious differences apart from the general purpose of the scheduling phase as described in Section 3.2. For all other components, Table 1 compares the functionality requested in both phases and exemplifies their specifications.
A Decision Support System for Airline Crew Management
371
Table 1. Comparison of DSS functionality for different crew scheduling phases DSS Component
DSS Functionality Crew Scheduling (CSP) (planning)
Graphical User Interface
• Preparation of crew schedules by planning department
Data Communication
• Access to planning information of current and earlier scheduling periods
• Monitoring and handling of unexpected events by airline OCC • Providing multiple options of strategies and their configuration
• Access to static data regarding crew, airports, aircraft etc
Solution Methods
Crew Rescheduling (CRP) (operations)
• Dedicated models and heuristics regarding the DSS configuration on complete planning period. • Optimality more important than computational time
• Access to detected disruptions • Access to current crew schedule, planning information of current and earlier time periods, and other static data • Dedicated models and heuristics • Preprocessing to reduce the problem size • Real-time solution methods more important than optimality
Simulation
• Evaluation of crew schedules, e.g., regarding robustness, bottlenecks etc.
• Analysis of impacts regarding current and/or future events
Visualization
• Overview on the planning task, especially the results achieved in different scheduling steps
• Overview on scheduled and actual scheduling situation
• Regular publication of crew schedule information days ahead of execution to all crew members
• Early notifications only of affected crew
• Generation of accumulated or calculated schedule quality indicators, e.g., workload balancing, scheduled activities, hotels stays, proceedings, operational cost etc.
• Computing quality indicators for the operated schedule, but also review on rescheduling strategies, impact analysis, detection of disruption regularities etc.
Publication/ Notification
Statistics
• Visualization of variations from originally planned schedules
• Consideration of crew’s current location.
372
Y. Guo, L. Suhl, M. P. Thiel
In the next section we show how some of the above components are realized on instances from a European tourist airline.
4
Case Study
The system described was implemented during the past years. It was applied to solve real-life crew management problems. In general, it may handle medium-sized airline crew (re)scheduling problems efficiently. It automates the most computation intensive work which is normally impossible for human beings to do in a relatively short period of time. As a decision support system, it resorts to intervening by users whenever it is necessary and requires human experiences and expertise. In this section, we firstly describe the scenario of instances in 4.1, and parts of our decision support tool are presented in more detail in 4.2. 4.1 Scenario Description All instances presented in this article origin from a medium-sized European tourist airline, where its operating network is a point-to-point type of network. Within such a network, multiple home bases are located in Germany, while many other airports are spread out around Europe. The airports outside Germany are normally those resorts which attract large numbers of travelers every year. Passengers, therefore, usually spend some days at a destination and come back few days or weeks later. An effect of such a characteristic is that a large portion of the flights can be observed as round trips. In other words, a typical schedule for one crew member may be a trip to one city, and come back within the day if he/she has only two flights to serve. Sometimes the crew member may not fly back directly after he/she arrives at the destination, and goes somewhere else instead. This may happen, because his/her next flight heads for other places. However, it is usual that there are other flights going back to his/her departure airport, and the flight is operated by someone else. In the setting of the airline involved, crew members, particularly cockpit crew, are qualified to operate only a limited number of aircraft types, and airlines group their aircraft into fleets regarding an aircraft’s generic specification. Therefore, we may decompose the problem and examine it fleet by fleet. Moreover, crew positions (captain, first officer etc.) are usually not interchangeable, further decomposition thus can be made by separated crew positions. Notably, more than one crew position is also considered in the case that a certain level of teamwork is required, e.g., the team may be
A Decision Support System for Airline Crew Management
373
built among captains and first officers. In this section we take cockpit crew as an example to illustrate how the system works. The planning period is usually half or one month, within which the number of crew members with one crew position (e.g., first officer) ranges from around 50 to nearly 200. Depending on the fleet, the number of flights involved may grow up to 2,000 for half a month. 4.2 Decision Support Tools The components in the system, e.g., simulation, evaluation, visualization, solution methods, have been developed to meet not only general requirements, but also specific needs of different problems (see Subsection 3.3). Here, we describe three of them, namely configuration, evaluation and visualization, in more detail. 4.2.1
Configuration
Through forming configurations, the system can be customized to different scenarios in many ways, and it may thus outperform over other settings on specific instances. There are many parameters involved, which may be categorized as follows (see Fig. 4):
Fig. 4. Configuration of the DSS
374
Y. Guo, L. Suhl, M. P. Thiel
• Airline scenario: Regarding the applicability and legality, crew schedules must respect governmental rules and collective agreements. However, there are possible exceptions to the rules permitting violation of some limits in certain situations, but still the rules are relatively simple and generally identical for all airlines. Airline specific collective agreements change this picture slightly, but the structure of the problem is the same for all major North American airlines. In Europe, collective agreements are usually much stronger than governmental regulations, and they are typically very detailed and change often. As a result, the set of regulations and rules, together with airline’s policies, determine the fundamental scenario of one airline. The configuration of the airline scenario thus turns out to be the basis of the system, with the result that it has fundamental effects on decisions of setting other configurations and strategies. • Instance: An instance is basically selected by setting three parameters: Which fleet tends to be planned, what time period is examined, and which crew position is taken into consideration. The three parameters have tremendous effects on the size of the problem and the complexity for solving the problem. • Strategy: In this article, a strategy can be understood as the combination of several strategic decisions made to solve both problems differently and efficiently. As shown in Fig. 4, five most important units play a significant role to form a strategy: solution method, objective function, preprocessing, recovery related, and team-orientation. As described earlier, many solution methods have been developed to solve these types of problems. Beside manual or semi-manual approaches, the crew pairing problem can be solved with pure integer programming or network flow model, while crew assignment is solved with either integer programming or constructive heuristic, refer to (Mellouli 2001; Guo et al. 2003). In the operations control phase, rescheduling may be carried out by applying a column generation heuristic and a genetic algorithm, see (Guo 2004). Furthermore, the special consideration regarding the team aspect can be addressed by adopting integer programming, branch-and-cut, and methods applied for solving the quadratic assignment problem, see (Thiel 2004) for details. Each solution method is far too complex to explain with few sentences, however, planners and coordinators may individually configure the system based on specific details of given planning or rescheduling situations, e.g., a strategy might be adopted to reach a compromise between optimality and overall computational performance.
A Decision Support System for Airline Crew Management
375
For each problem, the objective may differ regarding an airline’s particular policies. It might be built based on one single criterion, or several criteria as a weighted combination. Within the rescheduling process, many decisions have to be made before the actual problem is solved. Coordinators in airline OCC have to determine at which point in time the recovery process should start, how long the period can be within which schedules are allowed to be changed, and how many crew members and home bases can be involved in the process. Regarding the final result of the rescheduling, a longer recovery period, more crew members and home bases are normally considered in the process in order to reach a higher possibility of achieving a high solution quality. Accordingly, specific configurations should be set in order to avoid undesired results, and to provide a solution in a short period of time, e.g., more penalties for variations from original schedules help to avoid too many changes. When team aspects are considered in the system, one first has to determine the goal level of the teamwork. Moreover, different types of team changes may be considered separately, and corresponding priorities with respect to their individual importance have to be addressed. 4.2.2
Evaluation
The evaluation of crew schedules is an important process which reflects the perception of the quality and the performance of crew schedules. A certain set of criteria on which decisions are made must be considered, regardless the actual way any airline performs this in practice. For example, planned operational cost, even distribution of workload, number of team changes etc are important criteria for evaluating crew schedules in planning phase. Meanwhile, updated (additional) operational cost, variations from original schedules, and number of notifications etc, are rather crucial factors to evaluate recovered crew schedules. Because many criteria are involved in the process and multiple schedules are usually compared, visualization becomes also critical to assist planners and coordinators effectively. As an example shown in Fig. 5, two schedules resulted from a crew scheduling process are to be evaluated and compared with each other. For each schedule, four criteria are considered: operational cost, number of team changes, connection time, and workload distribution. The average, maximal, and minimal value of the criteria and their deviation among crew members are presented. Additionally, the highest and lowest values among all schedules examined are also given with horizontal dashed lines, which may show clearly how one schedule can be compared based on one spe-
376
Y. Guo, L. Suhl, M. P. Thiel
cific criterion. Apart from showing the full information regarding the quality of a schedule, another advantage is that it enables the user to evaluate multiple schedules at a time.
Fig. 5. The evaluation of multiple schedules
4.2.3
Visualization
The DSS provides a friendly graphical user interface and comprehensive visualizations of schedules. Fig. 6 illustrates the different stages of crew pairing generation. The upper part shows the preprocessing of flights in aircraft rotations, flight connections, as well as prefixed duties and pairings, while the middle part presents flight/duty trees. The bottom of the figure is the visualization of main results after solving crew pairing chain generation partitioned among home bases. At every stage of the process, visualization presents information and supports users in many ways by providing adequate related information and corresponding options of actions.
A Decision Support System for Airline Crew Management
377
Fig. 6. A screenshot of the DSS
5
Conclusion
In this article we presented a general architecture of a decision support system for supporting the airline crew management process, more precisely crew scheduling and rescheduling. The DSS covers the entire life cycle of crew schedules and solves problems that appear during the crew management process by incorporating several advanced problem solving techniques into one general infrastructure. Therefore, components can be shared by sub-processes at different stages, and customized to specific requirements of sub-processes by setting corresponding parameters. Apart from the partial integration in the planning phase, the major benefit of such a system is that it allows a higher level of interaction between each step, and thus better global results may be achieved in an interactive way. Enhanced with sophisticated solution methods, it can solve both planning and operations control problems efficiently within the setting described above.
378
Y. Guo, L. Suhl, M. P. Thiel
References Barnhart C, Johnson EL, Nemhauser GL, Vance PH (1999) Crew scheduling. In: Hall RW (ed) Handbook of Transportation Science. Kluwer Academic Publishers, pp 493-521 El Moudani W, Cosenza C, de Coligny M, Mora-Camino F (2001) A bi-criterion approach for the airline crew rostering problem. In: Zitzler et al. (eds) Proceedings of the First International Conference on Evolutionary Multi-Criterion Optimization (EMO 2001). Springer, Berlin, pp 486-500 Fahle T, Junker U, Karisch S, Kohl N, Sellmann M, Vaaben B, (2002) Constraint programming based column generation for crew assignment. Journal of Heuristics 8: 59–81 Gamache M, Soumis F (1998) A method for optimally solving the rostering problem. In Yu G (ed) Operations Research in the Airline Industry, pp 124–157 Guo Y, Mellouli T, Suhl L, Thiel MP, (2003) A partially integrated airline crew scheduling approach with time-dependent crew capacities and multiple home bases. Tech. rep. WP0303, DS&OR Lab., University of Paderborn, Germany. Accepted by European Journal of Operational Research, Special Issue: New Opportunities in Operations Research Guo Y (2004) A decision support framework for the airline crew schedule disruption management with strategy mapping. Tech. rep. WP0413, DS&OR Lab., University of Paderborn, Germany. Accepted for Proceedings of Operations Research 2004 (OR2004), Tilburg, Netherlands Kohl N and Karisch SE (2004) Airline crew rostering: problem types, modeling, and optimization. Annals of Operations Research 127: 223-257 Lettovský L, Johnson EL, Nemhauser GL (2000) Airline crew recovery. Transportation Science 34 (4): 337–348 Mellouli T (2001) A network flow approach to crew scheduling based on an analogy to a train/aircraft maintenance routing problem. In: Voß S, Daduna J (eds) Computer-Aided Scheduling of Public Transport, Lecture Notes in Economics and Mathematical Systems vol 505. Springer, Berlin, pp 91-120 Stojković M, Soumis F, Desrosiers J (1998) The operational airline crew scheduling problem. Transportation Science 32 (3): 232–245. Suhl L (1995) Computer-aided scheduling - an airline perspective. Deutscher Universitäts-Verlag (DUV), Wiesbaden Thiel MP (2004) Team-oriented airline crew rostering for cockpit personnel. Tech. rep. WP0406, DS&OR Lab., University of Paderborn, Germany. Presented at 9th International Conference on Computer-Aided Scheduling of Public Transportation (CASPT 2004), San Diego, CA Yu G, Argüello M, Song G, McCowan SM, White A (2003) A new era for crew recovery at Continental Airlines. Interfaces 33: 5-22
Die Auswirkungen von Verspätungen in Verkehrsnetzen – Ansätze einer Analyse auf der Grundlage der Max-Plus Algebra Ina Bauerdorf Institut für Betriebswirtschaftliche Produktions- und Investitionsforschung, Abteilung für Unternehmensplanung, Platz der Göttinger Sieben 3, 37073 Göttingen, [email protected]
Abstract Verkehrsnetze zeigen wesentliche Merkmale diskreter Ereignissysteme (DES) und können daher in Modellen auf der Grundlage der Max-Plus Algebra abgebildet werden. In der vorliegenden Arbeit wird zunächst den Kriterien für die Analyse der Stabilität von Fahrplänen durch die Ableitung einer (zeitlichen) Untergrenze für die planmäßigen Abfahrtszeiten ein weiteres hinzugefügt. Weiterhin wird eine in der Max-Plus Algebra lineare Funktion für die rekursive Berechnung von Verspätungen konstruiert, mit deren Hilfe beispielsweise die Fortpflanzung von Verspätungen abgebildet werden kann.
1
Einleitung
Viele Phänomene im Bereich der Transport- und Verkehrsplanung zeigen charakteristische Merkmale diskreter Ereignissysteme (DES), deren Dynamik nicht in Abhängigkeit von der Zeit, sondern in Abhängigkeit von dem Eintritt bestimmter Ereignisse beschrieben wird. Ein Ereignis ist in diesem Zusammenhang der Beginn oder das Ende einer Aktivität, also beispielsweise der Beginn oder das Ende eines Arbeitsvorgangs sowie die Ankunft oder die Abfahrt eines Zuges. Abhängigkeiten innerhalb des Systems ergeben sich aus der Vorschrift, dass bestimmte Ereignisse erst dann beginnen sollten, wenn andere Ereignisse beendet sind. Eine solche Reihenfolge kann zwingend gegeben sein, etwa durch technische Gründe im
380
I. Bauerdorf
Bereich der Produktion, oder planerisch erwünscht, etwa durch die Vorgabe, dass ein bestimmter Zug ein Anschlusszug für andere Züge sein soll. Ereignisse treten zu diskreten Zeitpunkten ein und die (zeitlichen) Abstände zwischen diesen Ereignissen sind in der Regel nicht konstant. Typische Fragestellungen, die für diskrete Ereignissysteme untersucht werden, sind etwa Fragen nach der Performance (Wieviele Ereignisse eines speziellen Typs treten in einem bestimmten Zeitintervall auf? Zu welchem Zeitpunkt tritt das n-te Ereignis eines bestimmten Typs auf?), nach der Periodizität (Repliziert sich das Systemverhalten im Zeitablauf selbst?), nach der Stabilität des Systems (Schwingt sich das System nach einer (externen) Störung wieder autark in den Ausgangszustand ein?) und nach Möglichkeiten der Optimierung des Systems (Wie kann der Systemzustand so beeinflusst werden, dass eine systemabhängige Zielgröße maximiert bzw. minimiert wird?); Fragestellungen also, die auch bei der Analyse von Fahrplänen aufgegriffen werden. Es gibt eine Reihe von Theorien und Methoden, die bei der Beschreibung und Analyse von diskreten Ereignissystemen eingesetzt werden. Beispielsweise können hier die Kontrolltheorie, die Warteschlangentheorie, die Graphentheorie, die Automatentheorie, die Netzplantechnik, die PetriNetze, der Network Calculus oder die Algebra der Dioids genannt werden (Cao et al. 2002). Bei den beiden letzteren handelt es sich um relativ junge Ansätze. Der Network Calculus wurde speziell für die Performanceanalyse von Computernetzwerken und insbesondere des Internet entwickelt. Er beruht wesentlich auf der Theorie der Min-Plus Algebra, einem speziellen Dioid. Der Ansatzpunkt für die Verwendung von Dioids im vorliegenden Kontext ist die Beobachtung, dass die konventionelle oder klassische Algebra in der Regel auf nichtlineare Modelle für diskrete Ereignissysteme führt. Linearität jedoch ist mathematisch gesehen eine sehr angenehme Eigenschaft, die insbesondere eine weitgehende Behandlung der oben angesprochenen Fragestellungen ermöglicht. Der Übergang von der klassischen Algebra zu einem Dioid führt nun dazu, dass diskrete Ereignissysteme durch mathematische Modelle beschrieben werden können, die (in dem betreffenden Dioid) linear sind. Weiterhin finden viele Definitionen und Aussagen der klassischen linearen Algebra in den Dioids ebenfalls eine Entsprechung, wodurch eine weitgehende mathematische Behandlung der oben genannten Fragestellungen ermöglicht wird. Die Beschreibung von diskreten Ereignissystemen durch algebraische Strukturen, die den Dioids zugerechnet werden können, begann in den 1960er und 1970er Jahren. Seitdem wurde die Theorie der Dioids stetig weiterentwickelt. Einen umfangreichen Überblick über den Stand der ersten Jahre geben Cunninghame-Green (Cunninghame-Green 1979) und
Die Auswirkungen von Verspätungen in Verkehrsnetzen
381
Zimmermann (Zimmermann 1981), über die spätere Entwicklung Baccelli, Cohen, Olser und Quadrat (Baccelli et al. 2001). Obwohl bereits in den ersten Arbeiten viele potentielle Anwendungen genannt wurden, verlief die Entwicklung diesbezüglich sehr heterogen. Am weitesten untersucht und fortgeschritten ist wohl die Verwendung der Dioids und insbesondere der Min-Plus Algebra im Bereich der Performanceanalyse des Internet. Nicht zuletzt angeregt durch die Arbeiten von Cruz (Cruz 1991a; 1991b) wurden hier zahlreiche Methoden entwickelt und unter dem Namen Network Calculus zu einer reichhaltigen Theorie ausgebaut. Den derzeitigen Stand dieser Entwicklung geben die Arbeiten von Le Boudec und Thiran (Le Boudec u. Thiran 2001) sowie Chang (Chang 2000) wieder. Auch typische Fragestellungen aus dem Bereich der Verkehrsplanung können auf der Grundlage der Dioids und hier insbesondere der Max-Plus Algebra abgebildet werden. Beispielsweise formulierte Braker einige Kriterien für eine Analyse der Stabilität von Fahrplänen und untersuchte auf dieser Grundlage den Intercity-Fahrplan der Niederlande (Braker 1993). De Schutter und van den Boom (De Schutter u. van den Boom 2001) sowie Heidergott und de Vries (Heidergott u. de Vries 2001) schlugen Ansätze zum kostenminimalen Abbau von Verspätungen vor, in denen Anschlusszüge gegebenenfalls nicht warten. Goverde und Odijk implementierten ihre Software PETER (Performance Evaluation of Timed Events in Railways) auf der theoretischen Basis der Max-Plus Algebra (Goverde u. Odijk 2002). In der vorliegenden Arbeit wird zunächst den Kriterien für die Analyse der Stabilität von Fahrplänen durch die Ableitung einer (zeitlichen) Untergrenze für die planmäßigen Abfahrtszeiten ein weiteres hinzugefügt. Weiterhin wird eine in der Max-Plus Algebra lineare Funktion für die rekursive Berechnung von Verspätungen konstruiert, mit deren Hilfe beispielsweise die Fortpflanzung von Verspätungen abgebildet werden kann. Im Zuge der diesbezüglichen Überlegungen wird auch gezeigt, dass die Entwicklung der tatsächlichen Abfahrtszeiten in der klassischen Algebra als Faltungsprodukt charakterisiert werden kann. Besonderer Wert wird bei der Darstellung auf die Interpretation der eingeführten Begriffe und mathematischen Zusammenhänge im Kontext der Verkehrsplanung gelegt. Nach dieser Einleitung sollen in Abschnitt 2 zunächst die algebraische Struktur der Dioids und die Grundzüge einer Spektraltheorie vorgestellt werden. Nach diesen Vorbereitungen erfolgt in Abschnitt 3 die Abbildung eines fahrplangesteuerten Verkehrssystems in einem Modell der Max-Plus Algebra. In Abschnitt 4 werden schließlich die Möglichkeiten der Analyse von Verspätungen auf der Grundlage dieses Modells betrachtet, indem u. a. das bereits angesprochene Kriterium für die Abfahrtszeiten und die
382
I. Bauerdorf
Rekursionsformel für die Berechnung der Fortpflanzung von Verspätungen konstruiert werden. Die Darstellung schließt mit einer Zusammenfassung.
2
Grundlagen
In diesem Abschnitt werden zunächst die algebraische Struktur der Dioids und als Beispiele die Min-Plus Algebra und die im vorliegenden Kontext besonders interessierende Max-Plus Algebra vorgestellt. Die Definitionen von Eigenwert und Eigenvektor sind Gegenstand des zweiten Teils dieses Abschnitts. Hierbei ist es nicht beabsichtigt, die Theorie möglichst allgemein darzustellen, sondern vielmehr so, wie sie im vorliegenden Kontext benötigt wird. 2.1 Die Struktur des Dioids Die Taxonomie der algebraischen Struktur des Dioids kann in folgender Weise beschrieben werden (Baccelli et a. 2001): DEFINITION 1 Ein Dioid besteht aus einer nichtleeren Menge D auf der zwei innere Operationen ⊕ und ⊗ definiert sind, die folgende Bedingungen erfüllen: Die „Addition“ ⊕ ist abgeschlossen, assoziativ, kommutativ, idempotent und besitzt in D ein neutrales Element ε . Die „Multiplikation“ ⊗ ist abgeschlossen, assoziativ und besitzt in D ein neutrales Element e. Das Element ε ist absorbierend bezüglich der Multiplikation, weiterhin gelten die Distributivgesetze. Falls auch ⊗ kommutativ ist, heißt der Dioid (D, ⊕ , ⊗ ) kommutativ.
Wegen der Abgeschlossenheit, der Assoziativität und der Existenz des neutralen Elements handelt es sich sowohl bei der Struktur (D, ⊕ ) als auch bei (D, ⊗ ) um einen Monoid. Damit ist die Struktur (D, ⊕ , ⊗ ) quasi ein zweifacher Monoid oder eben ein Dioid. In der Hierarchie der algebraischen Strukturen stehen die Dioids zwischen dem Halbring und dem Ring mit Eins. Im Vergleich zur Ringstruktur fehlt ein Inverses bzgl. ⊕ . Im Vergleich zu den Verbänden ist zu bemerken, dass sich die Idempotenz der Addition dort aus den Absoptionsgesetzen ergibt, während sie in einem Dioid explizit gefordert wird. Um Verwechslungen zu vermeiden, werden im Folgenden alle Begriffe, die sich auf die Dioids beziehen und Begriffe aus der klassischen Algebra unterschieden, indem Letztere mit dem Zusatz „gewöhnlich“ oder „klassisch“ gekennzeichnet werden. Beispielsweise stehen die Bezeichnungen „gewöhnliche Addition“ und „gewöhnliche Multiplikation“ für die gewohnten Rechenoperationen; mit den Begriffen Addition und Multiplikati-
Die Auswirkungen von Verspätungen in Verkehrsnetzen
383
on ohne Zusatz werden hingegen die Operationen in einem Dioid angesprochen. Ein im vorliegenden Kontext besonders wichtiges Beispiel für einen Dioid ist die Max-Plus Algebra IRmax. BEISPIEL 1 Die Trägermenge der Max-Plus Algebra IRmax ist die Menge IR ∪{−∞} . Addition und Multiplikation sind gegeben durch
a ⊕ b = max(a, b)
(1)
a⊗b =a +b,
(2)
Es gilt ε = −∞ und e = 0 .
In einem Dioid D kann eine Ordnungsrelation definiert werden durch:
a p b ⇔ a ⊕ b = b für alle a,b ∈ D.
(3)
In IRmax entspricht diese Ordnungsrelation gerade der gewöhnlichen Ordnungsrelation. Dies muss jedoch nicht so sein, wie das folgende Beispiel der Min-Plus Algebra IRmin zeigt, die insbesondere im Rahmen des Network Calculus Verwendung findet. BEISPIEL 2 Die Min-Plus Algebra IRmin wird durch die Menge IR ∪{∞} und die hierauf definierten Operationen
a ⊕ b = min(a, b)
(4)
a⊗b =a+b,
(5)
gebildet. Es gilt nun ε = ∞ , aber wiederum e = 0 . Die durch ⊕ gegebene Ordnungsrelation entspricht in dieser Algebra der inversen gewöhnlichen Ordnungsrelation.
Durch die Abbildung φ (x ) = − x ist ein Isomorphismus zwischen den beiden vorstehenden Strukturen gegeben. Hinsichtlich der Anwendungsfelder können sich beide jedoch deutlich voneinander unterscheiden. Matrizen über Dioids sind wie gewohnt definiert als rechteckige Zahlenschemata der Art
⎛ a11 L a1m ⎞ ⎜ ⎟ ⎜ M O M ⎟ = (a ij ) 1≤i ≤ n , 1≤ j≤ m ⎜a ⎟ ⎝ n1 L a nm ⎠
(6)
384
I. Bauerdorf
wobei die Einträge aij der Matrix nun aus einem Dioid stammen. Mit D n× m wird die Menge der n × m – Matrizen über einem Dioid bezeichnet. Die Addition zweier Matrizen A und B über einem Dioid ist komponentenweise definiert durch
A ⊕ B := (a ij ⊕ bij ) 1≤i ≤ n ,
(7)
1≤ j≤ m
die Multiplikation einer Matrix mit einem Element a aus dem Dioid elementweise durch
a ⊗ B := (a ⊗ bij ) 1≤i ≤ n .
(8)
1≤ j≤ m
Die Operationen entsprechen also formal den Definitionen im klassischen Matrixkalkül. Das neutrale Element hinsichtlich der Matrizenaddition, die Nullmatrix, ist gegeben durch
⎛ε L ε⎞ ⎜ ⎟ O=⎜M O M⎟ , ⎜ε L ε⎟ ⎝ ⎠
(9)
wobei die Dimension der Matrix jeweils entsprechend dem Kontext zu wählen ist. Ausgestattet mit der Matrizenaddition und der Multiplikation mit einem Dioidelement bildet die Menge D n× m einen D -Moduloid. Im vorliegenden Kontext von besonderer Bedeutung ist die Multiplikation zweier Matrizen. Sie ist für eine n × m -Matrix A und eine m × r Matrix B definiert durch ⎛m ⎞ A ⊗ B := ⎜ ⊕ (a ik ⊗ b kj ) ⎟ := ( (a i1 ⊗ b1j ) ⊕ L ⊕ (a im ⊗ b mj ) )1≤i ≤ n , ⎝ k =1 ⎠1≤i ≤ n 1≤ j≤ r
(10)
1≤ j≤ r
entspricht also formal ebenfalls völlig der Definition der gewöhnlichen Matrizenmultiplikation. Die Einheitsmatrix als neutrales Element bezüglich der Matrizenmultiplikation ist gegeben durch
⎛ε e L e⎞ ⎜ ⎟ e ε O M⎟ ⎜ , E := ⎜ M O O e⎟ ⎜ ⎟ ⎝e L e ε⎠
(11)
in der Hauptdiagonalen steht also das Einselement des Dioids und die übrigen Matrizeneinträge haben den Wert Null. Ihre Dimension ist wieder
Die Auswirkungen von Verspätungen in Verkehrsnetzen
385
entsprechend dem Kontext zu wählen. Angemerkt sei, dass die Menge D n× m ausgestattet mit der Matrizenmultiplikation einen Monoid bildet. Es existiert mittlerweile eine Reihe von Softwareimplementierungen für die numerische Realisierung des Matrixkalküls insbesondere in IRmax. Exemplarisch sei hier auf die entsprechenden Toolboxen für SKILAB MAXPLUS ForScilab2.7 (INRIA MaxPlus Working Group 2003) und für MATLAB die Max-Plus Algebra Toolbox for Matlab® (Stańczyk 2004) hingewiesen. Werden nun in einem klassischen linearen Gleichungssystem mechanisch die Symbole für die Operatoren ausgetauscht, führt dies zunächst auf
y1
=
( a11 ⊗ x1 )
⊕L ⊕
( a1m ⊗ x m )
M yn
=
( a n1 ⊗ x1 )
⊕L ⊕
( a nm ⊗ x m )
(12)
und durch Anwendung des Matrixkalküls in Dioids auf die folgende Matrixgleichung
y=A⊗x.
(13)
Beide Formulierungen zeigen zumindest äußerlich eine große Ähnlichkeit zu einem gewöhnlichen linearen Gleichungssystem und aus der Matrixschreibweise folgt, dass eine Matrix aus D n× m analog zu einer Matrix in der klassischen linearen Algebra eine Abbildung von D m nach D n repräsentiert. Charakteristische Eigenschaften klassischer linearer Abbildungen sind die Additivität und die Homogenität. Mit Hilfe des Matrixkalküls kann aber auch für eine Matrix D n× m nachgewiesen werden, dass die Beziehungen A ⊗ ( x ⊕ y ) = (A ⊗ x) ⊕ (A ⊗ y) für A ∈ D n× m und x, y ∈ D m
(14)
und A ⊗ (a ⊗ x) = a ⊗ (A ⊗ x) für A ∈ D n× m und x ∈ D m , a ∈D
(15)
gelten. Natürlich handelt es sich bei D n und D m nicht um Vektorräume. Da aber mit der Homogenität und der Additivität wesentliche Merkmale linearer Abbildungen gegeben sind, ist es nicht unberechtigt, auch die durch Matrizen über Dioids induzierten Abbildungen in gewisser Weise als linear anzusehen; nur wird diese Linearität von anderen algebraischen Strukturen, den Dioids, getragen.
386
I. Bauerdorf
2.2 Eigenwert und Eigenvektoren Bei der Analyse von DES spielen die Eigenwerte und Eigenvektoren von Matrizen über Dioids eine zentrale Rolle. Diese werden analog zur klassischen Theorie definiert (Baccelli et a. 2001): DEFINITION 2 In einem Dioid ist λ ∈ D ein Eigenwert zu einer quadratischen Matrix A ∈ D n× m und v ∈ D n der zu diesem Eigenwert gehörende Eigenvektor, wenn
A ⊗ v = λ ⊗ v für λ ≠ ε
(16)
erfüllt ist.
Eine graphische Interpretation des Eigenwerts ergibt sich beispielsweise für IRmax und IRmin mit Hilfe des zu einer Matrix A korrespondierenden Graphen. Hierbei handelt es sich um einen gerichteten Graphen mit n Knoten. Zwei Knoten j und i sind miteinander verbunden, wenn aij > ε ist. Der Wert aij ist dann das Gewicht des Pfeiles vom j-ten zum i-ten Knoten. Die Matrix A heißt irreduzibel, wenn der korrespondierende Graph stark zusammenhängend ist (Baccelli et al. 2001), wenn also jeder Knoten von jedem anderen Knoten aus durch einen Pfad erreichbar ist. Für die Eigenwerte irreduzibler Matrizen in IRmax (bzw. IRmin) gilt (Baccelli et al. 2001): SATZ 1 Irreduzible Matrizen besitzen genau einen Eigenwert λ. Dieser ist gegeben durch
λ = max ρ
ρw ρl
( bzw. λ = min ρ
ρw ρl
),
(17)
wobei ρ w die Summe der Gewichte eines Zyklus ρ bezeichnet und ρ l die Länge des Zyklus.
Der Eigenwert einer irreduziblen Matrix ist also eineindeutig durch die maximale (minimale) durchschnittliche Gewichtung aller Zyklen bestimmt. Neben der rein graphentheoretischen Interpretation ist diese Charakterisierung auch der Ansatzpunkt für den Algorithmus von Karp zur Eigenwertberechnung, der wiederum die Grundlage für viele Softwareimplementierungen zu diesem Thema ist (Karp 1978). Die Berechnung der zugehörigen Eigenvektoren gestaltet sich bei einer irreduziblen Matrix ebenfalls sehr einfach (Baccelli et al. 2001). Exemplarisch soll sie hier für den Fall IRmax vorgeführt werden, die Vorgehensweise für IRmin folgt analog. Zunächst wird eine Hilfsmatrix Aλ durch A λ := λ −1 ⊗ A definiert, was gemäß der Definition der elementweise durchzuführenden Operationen in
Die Auswirkungen von Verspätungen in Verkehrsnetzen
387
IRmax dem Ausdruck (A λ )ij = A ij − λ in der klassischen Algebra entspricht. Er ist definiert, da der Dioid divisibel ist. Nach dieser Vorbereitung kann nun
A λ+ = A λ ⊕ A λ2 ⊕ L ⊕ A λn
(18)
berechnet werden. Graphentheoretisch beschreibt jedes Element ( A λ+ )ij dieser Matrix die maximale Summe der Gewichte der Pfade der Länge 1,…,n von Knoten j nach Knoten i. Aus dieser Matrix können nun Eigenvektoren zum Eigenwert λ unmittelbar abgelesen werden: Jeder Spaltenvektor ( A λ+ )·j für dessen Hauptdiagonalelement ( A λ+ )ij = e gilt, ist ein Eigenvektor. Es existiert mindestens ein solcher Spaltenvektor. Das folgende Zahlenbeispiel soll diese Vorgehensweise verdeutlichen: BEISPIEL 3 Zu der folgenden Matrix A sind Eigenwert und Eigenvektoren zu bestimmen:
⎛ 1 ε 1⎞ ⎜ ⎟ A = ⎜ 2 2 3⎟ . ⎜ ε 5 ε⎟ ⎝ ⎠
(19)
Die Matrix hat die Zyklen (1), (2), (1,2,3), (2,3) mit den durchschnittlichen Gewichtungen
1 2 6 8 = 1 ; = 2 ; = 2 und = 4 . Damit gilt λ = 4 . Nun kann die 1 1 3 2
Matrix A λ+ bestimmt werden:
⎛ −3 ε −3 ⎞ ⎜ ⎟ A λ = ⎜ −2 − 2 − 1 ⎟ . ⎜ ε 1 ε ⎟⎠ ⎝
(20)
Hiermit können die Matrizen A λ2 und A 3λ berechnet werden:
⎛ −6 −2 −6 ⎞ ⎛ −4 − 4 − 3 ⎞ ⎜ ⎟ ⎜ ⎟ 2 3 A λ = ⎜ −4 0 −3 ⎟ und A λ = ⎜ −2 −2 −1 ⎟ . ⎜ −1 − 1 0 ⎟ ⎜ −3 1 − 2 ⎟ ⎝ ⎠ ⎝ ⎠
(21)
Und hieraus ergibt sich die Matrix A λ+ : ⎛ −3 ε −3 ⎞ ⎛ −6 −2 −6 ⎞ ⎛ −4 −4 −3 ⎞ ⎛ −3 −2 −3 ⎞ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ A = ⎜ −2 −2 −1 ⎟ ⊕ ⎜ −4 0 −3 ⎟ ⊕ ⎜ −2 −2 −1 ⎟ = ⎜ −2 0 −1 ⎟ . ⎜ ε 1 ε ⎟⎠ ⎜⎝ −1 −1 0 ⎟⎠ ⎜⎝ −3 1 −2 ⎟⎠ ⎜⎝ −1 1 0 ⎟⎠ ⎝ + λ
(22)
388
I. Bauerdorf
Aus dieser Matrix kann nun entsprechend den vorstehend geschilderten Überlegungen abgelesen werden, dass die zweite und die dritte Spalte Eigenvektoren zum Eigenwert λ = 4 sind, die erste Spalte hingegen ist kein Eigenvektor.
Irreduzible Matrizen ermöglichen eine anschauliche graphentheoretische Interpretation und eine rasche Berechnung von Eigenwert und zugehörigen Eigenvektoren. Aber auch für nicht irreduzible Matrizen sind Algorithmen zur Berechnung dieser Größen entwickelt worden, die in ihren Konzepten recht unterschiedlich sein können. So greifen einige Ansätze beispielsweise auf den Fall der irreduziblen Matrizen zurück, andere verwenden die (klassische) lineare Programmierung. Für eine Darstellung der Algorithmen insbesondere der ersten Kategorie und eine vergleichende Analyse sei an dieser Stelle auf die Literatur verwiesen (Dasdan 1998; Cochet-Terrasson et al. 1998).
3
Die Darstellung eines Liniensystems in IRmax
Ziel dieses Abschnittes ist es darzustellen, wie aus den Informationen von Fahr- und Umsteigezeiten, von planmäßigen Abfahrtzeiten und von Anschlussverbindungen ein Modell in der Max-Plus Algebra konstruiert wird. Auch in IRmax erfolgt die Beschreibung eines dynamischen Systems grundsätzlich über Zustandsgleichungen, die ein Gleichungssystem der folgenden Art bilden (Baccelli et al. 2001):
⎧ x(k + 1) = A ⊗ x(k) ⊕ B ⊗ d(k + 1) ⎪ = C ⊗ x(k) ⎨ y(k) ⎪ x(0) = x0 . ⎩
(23)
Hierin bezeichnet x(k) ∈IR nmax den Vektor der Zustandsvariablen, der Vektor d(k) ∈IR nmax den Inputvektor und y(k) ∈IR mmax den Outputvektor. Die Systemmatrix ist durch A ∈ D n×n gegeben, für die anderen Matrizen gilt B ∈ D n×n und C ∈ D m×n . Die Variable k steht nicht für die Zeit, sondern für eine Zählvariable. Damit bezeichnet beispielsweise x(k) den k-ten Zustand des Systems und nicht den Zustand des Systems zum Zeitpunkt k. Zur Beschreibung des Liniensystems wird nun die Variable xi(k) als die tatsächliche Abfahrtszeit der i-ten Linie bei der k-ten Abfahrt definiert. Der Vektor x(k) enthält somit die k-ten Abfahrtszeiten aller Linien. Ein Matrixelement aij besitzt den Wert ε, wenn Linie i nicht auf Linie j warten muss. Andernfalls entspricht aij der planmäßigen Fahrzeit des Zuges j von seinem Startpunkt zu der Station, an der der Zug i auf ihn wartet,
Die Auswirkungen von Verspätungen in Verkehrsnetzen
389
zuzüglich der Umsteigezeit zwischen diesen Linien, also quasi der Zeit, die planmäßig von der Abfahrt des Zuges j bis zum Einstieg in den Anschlusszug i vergeht. Der Vektor d(k) enthält für jede Linie die planmäßige k-te Abfahrtszeit. Über ihn fließen explizit die Angaben des Fahrplans in das Modell ein. Fährt beispielsweise eine Linie jeweils „um 5 nach“ und „um 5 nach Halb“, verkehrt sie im Takt T = 30. Für die k-te Abfahrtszeit gilt dann:
d i (k) = d i (0) + kT bzw. d i (k) = d i (0) ⊗ T k .
(24)
Bei der Abbildung eines Liniensystems entspricht die Matrix B der Einheitsmatrix. Sie wird also nicht explizit benötigt. Eine typische Zeile des bisher beschriebenen Gleichungssystems lautet nun etwa: x i (k + 1) = (a i1 ⊗ x1 (k)) ⊕ L ⊕ (a ii ⊗ x i (k)) ⊕ L L ⊕ (a in ⊗ x n (k)) ⊕ d i (k + 1) = max(a i1 + x1 (k),L,a ii + x i (k),L,a in + x n (k),d i (k + 1))
(25)
Damit ergibt sich die tatsächliche k+1-te Abfahrtszeit des Zuges i als Maximum der tatsächlichen Abfahrtszeiten der Zubringerzüge zuzüglich Fahrt- und Umsteigezeit und der planmäßigen k+1-ten Abfahrtszeit. Werden nun zunächst die Informationen eines Liniensystems in Gleichungen abgebildet, kann es aufgrund der speziellen Kombination von Takt- und Fahrzeiten zu Verwerfungen derart kommen, dass der k+1-te Zug der Linie i auf den k-l-ten Zug der Linie j warten muss und nicht auf den k-ten Zug (was der obigen Gleichung entsprechen würde), mithin eine Abbildung des resultierenden Gleichungssystems in der gewünschten Form so unmittelbar nicht möglich ist. Dies Problem kann durch die Einführung von fiktiven Linien und fiktiven Anschlüssen behoben werden. Für eine genaue Beschreibung dieser Vorgehensweise sei an dieser Stelle auf die Literatur verwiesen (Braker 1993). Nach diesen Vorbereitungen besteht der Vektor x(k) nun also aus den Abfahrtszeiten der realen Linien und etwaiger fiktiver Linien, die jedoch bei einer Auswertung des Systems nicht von Interesse sind. Durch eine entsprechende Dimensionierung und Wahl der Einträge e und ε in der Matrix C können diese fiktiven Abfahrtzeiten über das Gleichungssystem y(k+1) = C ⊗ x(k+1)
(26)
wieder „herausgekürzt“ werden, so dass der Outputvektor y(k+1) dann nur noch die Abfahrtzeiten realer Linien enthält. Entsprechen beispielsweise in einem Vektor x(k+1) die ersten beiden Komponenten den Abfahrtszeiten
390
I. Bauerdorf
realer Züge, während die letzte Komponente für eine fiktive Linie steht, kann diese durch folgende Rechnung „herausgefiltert“ werden:
⎛ x1 (k + 1) ⎞ ⎛ x1 (k + 1) ⎞ ⎛ e ε ε ⎞ ⎜ ⎟ y(k + t) = ⎜ ⎟=⎜ ⎟ ⊗ ⎜ x 2 (k + 1) ⎟ . x (k 1) + e ε ε ⎠ ⎜ x (k + 1) ⎟ ⎝ 2 ⎠ ⎝ ⎝ 3 ⎠
(27)
Auch die in diesem Abschnitt eingeführten Definitionen und Zusammenhänge sollen nun anhand eines Beispiels illustriert werden: BEISPIEL 4 Zwei Orte A und B sind durch die Linien 1 und 2 miteinander verbunden. Abfahrtszeiten, Fahrzeiten und Takt der Linien sind in der folgenden Tabelle wiedergegeben: Linie
von
nach
1 2
A B
B A
d0 05 18
Fahrzeiten
T
34 min 12 min
30 min 30 min
Die Züge der Linie 1 sind Anschlusszüge der Linie 2 und umgekehrt. Mit diesen Informationen können die tatsächlichen Abfahrtzeiten x1(k) bzw. x2(k) wie folgt beschrieben werden:
x1 (k + 1) = max(x 2 (k) + 12,d1 (k + 1)) x 2 (k + 1) = max(x1 (k) + 34,d 2 (k + 1))
(28)
Eine Verwerfung der oben angesprochenen Art liegt hier nicht vor, daher kann auf die Einführung von Hilfsvariablen verzichtet werden. Unter Verwendung des Matrixkalküls in IRmax kann aus den beiden obigen Gleichungen nun folgende Systemgleichung formuliert werden:
⎛ x1 (k + 1) ⎞ ⎛ ε 12 ⎞ ⎛ x1 (k) ⎞ ⎛ d1 (k + 1) ⎞ ⎜ ⎟=⎜ ⎟⊕⎜ ⎟ ⎟⊗⎜ ⎝ x 2 (k + 1) ⎠ ⎝ 34 ε ⎠ ⎝ x 2 (k) ⎠ ⎝ d 2 (k + 1) ⎠
(29)
x(k + 1) = A ⊗ x(k) ⊕ d(k + 1) y(k + 1) = E ⊗ x(k + 1) . x0 = d(0)
(30)
⎛ ε 12 ⎞ ⎛ T ⎞ ⎛ 05 ⎞ ⎛ 30 ⎞ A=⎜ ⎟ und d(k + 1) = d(0) + k ⎜ ⎟ = ⎜ ⎟ + (k + 1) ⎜ ⎟ . ⎝ 34 ε ⎠ ⎝ T ⎠ ⎝ 18 ⎠ ⎝ 30 ⎠
(31)
bzw.
Hierbei gilt:
Die Auswirkungen von Verspätungen in Verkehrsnetzen
4
391
Darstellung und Analyse der Verspätung
Nach den Vorbereitungen im letzten Abschnitt steht nun die Analyse des Systems im Hinblick auf das Auftreten von Verspätungen im Mittelpunkt der Betrachtung. Zunächst wird in Abschnitt 4.1 hergeleitet, wie die Robustheit des Systems mit Hilfe der Größen Eigenwert und (zugehörige) Eigenvektoren der Systemmatrix beschrieben werden kann. Daran anschließend werden in Abschnitt 4.2 rekursive Gleichungen in IRmax vorgestellt, mit deren Hilfe die Entwicklung von tatsächlichen Fahrzeiten und von Verspätungen simuliert werden kann. 4.1 Untersuchung der Stabilität Eine grundsätzliche Frage bei der Untersuchung der Stabilität eines Fahrplans ist, ob dieser so überhaupt praktikabel ist, d.h. ob alle vorgesehenen Anschlüsse bei gegebenen Abfahrts-, Umsteige- und Taktzeiten und störungsfreiem Betrieb eingehalten werden können. In diesem Zusammenhang ist die folgende Definition zu sehen (Braker 1993): DEFINITION 3 Ein Fahrplan mit den planmäßigen Abfahrtszeiten d(k) für
k ≥ 0 heißt realistisch, wenn gilt:
A ⊗ d(k) ≤ d(k + 1) für alle k ≥ 0 .
(32)
Diese Definition beschreibt anschaulich den einleuchtenden Tatbestand, dass die fahrplanmäßige k+1-te Abfahrtszeit eines realistischen Fahrplans jeder Linie nicht früher liegen kann als der Zeitpunkt, der sich ausgehend von der vorhergehenden fahrplanmäßigen Abfahrtzeit d(k) zuzüglich der Fahr- und Umsteigezeiten der Zubringerlinien ergibt. Durch diese Definition werden quasi Ober- und Untergrenzen für die Abfahrtszeiten rekursiv festgelegt. FORTSETZUNG BEISPIEL 4 Der Fahrplan in Beispiel 4 ist realistisch, wie die folgende Rechnung zeigt:
⎛ ε 12 ⎞ ⎛ d1 (k) ⎞ ⎛ 30(k + 1) ⎞ ⎛ −5 ⎞ ⎟=⎜ ⎜ ⎟⊗⎜ ⎟ = d(k + 1) + ⎜ ⎟ < d(k + 1) . ⎝ 34 ε ⎠ ⎝ d 2 (k) ⎠ ⎝ 9 + 30(k + 1) ⎠ ⎝ −9 ⎠
(33)
Allerdings gibt es auch eine absolute Untergrenze für die Abfahrtszeiten in einem realistischen Fahrplan. Da auf diesen Punkt in der Literatur nicht so explizit eingegangen wird, soll er hier genauer betrachtet werden. Mit der Definition der Operation ⊗ folgt zunächst aus den Systemgleichungen:
392
I. Bauerdorf
A ⊗ x(k) ≤ (A ⊗ x(k)) ⊕ d(k) = x(k + 1) .
(34)
Die maximale Performance im Sinne möglichst kurzer zeitlicher Abstände zwischen den tatsächlichen Abfahrtszeiten erreicht das System also dann, wenn
A ⊗ x(k) = x(k + 1) für alle k ≥ 0
(35)
erreicht ist. Ein Lösungspfad für diese Gleichungen ist durch x(k) = λ k ⊗ x 0 und A ⊗ x 0 = λ ⊗ x 0 ,
(36)
also durch einen Eigenwert und den zugehörigen Eigenvektor der Systemmatrix A gegeben, denn es gilt A ⊗ x(k) = A ⊗ λ k ⊗ x 0 = λ k +1 x 0 = x(k + 1) für alle k ≥ 0 .
(37)
Die Abfahrtszeiten der Linien bilden bei maximaler Performance also die Folge x 0 , λ ⊗ x 0 , λ 2 ⊗ x 0 ,...
(38)
oder in klassischer Schreibweise
x 0 , λ + x 0 , λ + λ + x 0 ,...
(39)
bzw. in klassischer Komponentenschreibweise
⎛ x1 (0) ⎞ ⎛ x1 (0) + λ ⎞ ⎛ x1 (0) + λ + λ ⎞ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ M M ⎜ M ⎟,⎜ ⎟,⎜ ⎟ ,... ⎜ x (0) ⎟ ⎜ x (0) + λ ⎟ ⎜ x (0) + λ + λ ⎟ ⎝ n ⎠ ⎝ n ⎠ ⎝ n ⎠
(40)
Bei maximaler Performance im obigen Sinn zeigt das Liniensystem also ein sehr regelmäßiges Verhalten, das mit Hilfe eines Eigenwertes und des dazugehörigen Eigenvektors beschrieben werden kann. Der Eigenwert gibt hierbei die Zeitdifferenz wieder, die zwischen den Abfahrtszeiten der Linien liegt. Aus den Komponenten eines zugehörigen Eigenvektors können dann die Startzeiten für jede Linie abgelesen werden. Natürlich setzt die Entwicklung der Abfahrtszeiten mit der oben beschriebenen Performance einen völlig reibungslosen Betrieb der Linien voraus, wovon in der Realität in der Regel jedoch nicht ausgegangen werden kann. Daher sollten die Abfahrtszeiten d(k) eines realistischen Fahrplans einen zeitlichen Puffer gegenüber der durch Eigenvektor und Eigenwert beschriebenen Abfahrtszeiten aufweisen.
Die Auswirkungen von Verspätungen in Verkehrsnetzen
393
SATZ 2 In einem realistischen Fahrplan sollten die fahrplanmäßigen Abfahrtszeiten d(k) die folgende Bedingung erfüllen
λ k ⊗ x 0 < d(k) für alle k ≥ 0 und A ⊗ x 0 = λ ⊗ x 0 .
(41)
FORTSETZUNG BEISPIEL 4 Die Abfahrtszeiten des Fahrplans liegen oberhalb der Untergrenzen, denn es gilt:
⎛ 0 ⎞ ⎛ 23k ⎞ ⎛ −5 − 7k ⎞ 23k + ⎜ ⎟ = ⎜ ⎟ = d(k) + ⎜ ⎟ < d(k) . ⎝12 ⎠ ⎝12 + 23k ⎠ ⎝ −6 − 7k ⎠
(42)
Natürlich können auch in einem realistischen Fahrplan Verspätungen nie ganz ausgeschlossen werden. Grundsätzlich stellt sich diesbezüglich die Frage, ob sich auftretende Verspätungen verlaufen oder aber weiter aufschaukeln. Ein wichtiges Kriterium hierfür liefert der folgende (Braker 1993) SATZ
3
Ein
System
ist
stabil
in dem
Sinn, dass
Verspätungen
x(k) − d(k) > 0 autonom ausgeglichen werden, genau dann, wenn für den größten Eigenwert λ der Systemmatrix A gilt: λ < T . Die Aussage dieses Satzes ist nicht unplausibel, wenn zum einen berücksichtigt wird, dass T die Zeitdifferenz zwischen den planmäßigen Abfahrtszeiten und λ die Zeitdifferenz zwischen den tatsächlichen Abfahrtzeiten eines Systems mit maximaler Performance ist, denn aus
d(k) = d(k − 1) + T und x(k) = x(k − 1) + λ
(43)
folgt durch (klassische) Subtraktion der Gleichungen
x(k) − d(k) = x(k − 1) − d(k − 1) + λ − T ,
(44)
aus der abgelesen werden kann, dass sich (zumindest bei maximaler Performance) die Verspätung beim Übergang von k-1 auf k nur dann verringert, wenn λ < T gilt. Für den exakten Beweis sei auf die Literatur verwiesen (Braker 1993). Für einen Überblick über Softwareimplementierungen für die Berechnung von Eigenwerten und Eigenvektoren sei noch einmal auf die bereits zitierten Arbeiten verwiesen. 4.2 Die Entwicklung von Verspätungen Neben der algebraischen Beschreibung durch Eigenwerte und Eigenvektoren besteht in IRmax die Möglichkeit, das Systemverhalten auf der Basis von
394
I. Bauerdorf
Gleichungen zu simulieren. Hierbei können etwa die Entwicklung der tatsächlichen Abfahrtszeiten oder natürlich die Entwicklung von Verspätungen in Abhängigkeit von dem Parameter k von Interesse sein. Um eine Formel für die Entwicklung der tatsächlichen Abfahrtszeiten x(k) herzuleiten, wird die erste der Systemgleichungen aus Abschnitt 3 herangezogen. Ferner soll im Folgenden zur Vereinfachung der Notation immer von der Vorschrift “Punktrechnung vor Strichrechnung“ ausgegangen werden. Mit den fahrplanmäßigen Abfahrtszeiten als Input-Variablen ergibt sich zunächst:
x(k) = A ⊗ x(k − 1) ⊕ d(k) .
(45)
Entsprechend gilt für die vorhergehende Abfahrtszeit x(k-1)
x(k − 1) = A ⊗ x(k − 2) ⊕ d(k − 1) .
(46)
Durch Einsetzen in die erste Gleichung ergibt sich die Beziehung x(k) = A ⊗ (A ⊗ x(k − 2) ⊕ d(k − 1)) ⊕ d(k) = A 2 ⊗ x(k − 2) ⊕ A ⊗ d(k − 1) ⊕ d(k)
(47)
und nach erneuten rekursiven Ersetzungen die Beziehung k −1
x(k) = A k ⊗ x(0) ⊕ A j ⊗ d(k − j).
(48)
j= 0
Wird weiterhin vorausgesetzt, dass zumindest die 0-te Abfahrt planmäßig erfolgt, d.h. x 0 = d(0) erfüllt ist, zeigt sich wegen k −1
k
j= 0
j= 0
x(k) = A k ⊗ x(0) ⊕ A j ⊗ d(k − j) = ⊕ A j ⊗ d(k − j),
(49)
dass die Funktion der planmäßigen Abfahrtzeiten in IRmax nichts anderes ist als die Faltung der Funktion Aj mit der Funktion der planmäßigen Abfahrtszeiten: SATZ 4 Die tatsächlichen Abfahrtzeiten eines Liniensystems mit dem Fahrplan d(k) entwickeln sich gemäß der Gleichung k
x(k) = ⊕ A j ⊗ d(k − j) = (g ∗ d)(k), mit g( j) = A j .
(50)
j= 0
Im Kontext der Fahrplangestaltung kann der Wert a ijk > ε eines Elementes der k-ten Potenz der Systemmatrix A als die (maximale) Zeitdauer interpretiert werden, die vom Einstieg in einen Zug der i-ten Linie bis zur Abfahrt eines Zuges der j-ten Linie vergeht, wenn hierbei k-1-mal umge-
Die Auswirkungen von Verspätungen in Verkehrsnetzen
395
stiegen wird und die planmäßigen Fahrzeiten, aber nur die tatsächlichen und nicht die planmäßigen Abfahrtszeiten, berücksichtigt werden. Eine Angabe darüber, in welche Linien hierbei jeweils umgestiegen wird, kann der Matrix allerdings nicht entnommen werden. Gilt a ijk = ε , gibt es keine Möglichkeit, von einem Zug der Linie i in einen Zug der Linie j zu gelangen, wenn man dabei k-1-mal umsteigen möchte. Ein weiterer Punkt, der bei der Simulation eines Liniensystems von Interesse sein kann, ist die Folgenabschätzung von Verspätungen. Ist die Bedingung aus Satz 3 erfüllt, weiß man zwar, dass sich die Verspätung im Zeitablauf „verläuft“, eine genaue Kenntnis über diese Entwicklung ergibt sich hieraus aber nicht. Sie kann jedoch über eine rekursive Gleichung in IRmax modelliert werden. Eine Verspätung liegt in der klassischen Algebra formuliert mit x(k) − d(k) > 0 vor, wenn also mindestens für einen Index i in 1 ≤ i ≤ n die Beziehung x i (k) − d i (k) > 0 erfüllt ist. Aus den Systemgleichungen ergibt sich für x(k) die Bedingung
x(k) = (A ⊗ x(k − 1)) ⊕ d(k) ,
(51)
und damit entsprechend dem Kalkül für eine Komponente des Vektors x(k) die Vorschrift
x i (k) = (A ⊗ x(k − 1))i ⊕ di (k)
(52)
= max [ max(a i1 + x1 (k),...,a im + x m (k)),di (k)]
.
Hieraus folgt mit den Regeln für die Maximumbildung in der klassischen Algebra die Beziehung
x i (k) − di (k) = max [ max(a i1 + x1 (k − 1) − di (k),... ..., a in + x n (k − 1) − di (k)), 0]
(53) .
Durch die klassische Addition von d j (k − 1) − d j (k − 1) innerhalb des Maximumoperators ergibt sich hieraus
x i (k) − d i (k) = max ⎡ max(a ij − d i (k) + d j (k − 1) + ⎢⎣ 1≤ j≤ m + x j (k − 1) − d j (k − 1)),0 ⎤⎦ und damit der
(54)
396
I. Bauerdorf
SATZ 5 Die Formulierung der rekursiven Beziehung in IRmax lautet
x(k) − d(k) = R(k) ⊕ ( x(k − 1) − d(k − 1) ) ⊕ O ,
(55)
wobei die Matrix R definiert ist durch
R = (d j (k − 1) − d i (k) + a ij ) 1≤i ≤ n .
(56)
1≤ j≤ m
Interessanterweise stimmt die Matrix R mit der Matrix überein, die auch Goverde bei der Herleitung seiner rekursiven Formel für die tatsächlichen Abfahrtszeiten erhält (Goverde 1998). Inhaltlich können die Elemente der Matrix R wie folgt interpretiert werden: Durch die Differenz d j (k − 1) − d i (k) wird die fahrplanmäßige Zeitdifferenz zwischen der Abfahrt eines Zuges der Linie j und der Abfahrt eines Anschlusszuges der Linie i beschrieben, durch a ij die tatsächlich benötigte Zeit. Somit stellt die Differenz d i (k) − d j (k − 1) − a ij quasi einen zeitlichen Puffer dar, mit dem Verspätungen (sukzessive) abgefedert werden können, da in einem realistischen Fahrplan wegen A ⊗ d(k − 1) ≤ d(k) die Bedingung
d j (k − 1) + a ij − di (k) ≤ 0 für k ≥ 0
(57)
gilt. Dies bedeutet, dass sich bei einem realistischen Fahrplan die Verspätung x j (k − 1) − d j (k − 1) in jeder Periode um den Betrag d j (k − 1) + a ij − di (k) vermindert und damit insgesamt reduziert, vorausgesetzt natürlich, dass während dieses Prozesses keine neuen Verspätungen auftreten. FORTSETZUNG BEISPIEL 4 Die Matrix R lautet für das Beispiel 4
d 2 (k − 1) + 12 − d1 (k) ⎞ ⎛ ε −5 ⎞ ε ⎛ R =⎜ ⎟=⎜ ⎟. d (k 1) 34 d (k) − + − ε 2 ⎝ 1 ⎠ ⎝ −9 ε ⎠
(58)
In diesem Fall ist R also nicht von k abhängig. Mit Hilfe dieser Matrix kann nun die Fortpflanzung einer Verspätung beispielsweise der Linie 1 um 25 Minuten bei der p-ten Abfahrt berechnet werden. Es gilt:
⎛ 25 ⎞ ⎛ 25 ⎞ ⎛ 0 ⎞ x(p) − d(p) = ⎜ ⎟ ; x(p + 1) − d(p + 1) = R ⊗ ⎜ ⎟ = ⎜ ⎟ ⎝0⎠ ⎝ 0 ⎠ ⎝15 ⎠
und
entspre-
chend
⎛0⎞ ⎛10 ⎞ ⎛ 0⎞ x(p + 2) − d(p + 2) = ⎜ ⎟ ; x(p + 3) − d(p + 3) = ⎜ ⎟ ; x(p + 4) − d(p + 4) = ⎜ ⎟ . 1 0 ⎝ ⎠ ⎝ ⎠ ⎝ 0⎠ Nach vier weiteren Perioden ist also die Verspätung durch die Pufferzeiten wieder ausgeglichen worden.
Die Auswirkungen von Verspätungen in Verkehrsnetzen
397
4.3 Anwendungsbeispiele der Max-Plus Algebra in der Verkehrsplanung Ein Beispiel für den Einsatz der auf der Max-Plus Algebra basierenden Theorie bei der Analyse von Fahrplänen wird von Braker dokumentiert (Braker 1993). Bei dem hierbei betrachteten Verkehrsnetz handelt es sich wie bereits erwähnt um das Intercity-Liniennetz der Niederlande. Aus Gründen der Vereinfachung vernachlässigt Braker bei seiner Modellierung die Verbindungen nördlich von Zwolle und südlich von Sittard und von Roosendaal. Weiterhin modifiziert er die Abfahrtzeiten des offiziellen Fahrplans der Saison 1989/90 einiger Linien um wenige Minuten, so dass sich ein Takt von 30 Minuten für alle Strecken ergibt. Seine Abbildung führt Braker auf ein Modell 4-ter Ordnung mit 53 Variablen, welches er mit Hilfe von 26 Hilfsvariablen in ein Modell 1-ter Ordnung, also ein Modell der in Abschnitt 3 dargestellten Form überführt. Auf der Grundlage dieses Modells berechnet Braker den Eigenwert der sich ergebenden Systemmatrix und analysiert einige hypothetische Störungen des regulären Betriebs. Bei diesem Beispiel standen Fragen der Modellierung wie beispielsweise die Ermittlung der Hilfsvariablen und die Berechnung der relevanten Größen im Vordergrund. Dennoch vermittelt es auch einen ersten Eindruck hinsichtlich der Möglichkeiten der Darstellung und Analyse realistischer Beispiele. Knapp zehn Jahre später wurde das Intercity-Linienetz der Niederlande erneut als Referenzbeispiel für die Möglichkeiten des Einsatzes der MaxPlus Algebra bei der Analyse von Fahrplänen herangezogen, diesmal im Zusammenhang mit der Software PETER (Performance Evaluation of Timed Events in Railways), die an der Delft University of Technologie auf der Grundlage der Theorie der Max-Plus Algebra entwickelt wurde (Goverde u. Odijk 2002). Auf der Internetpräsenz des Projekts werden die Möglichkeiten und die graphische Benutzeroberfläche am Beispiel der niederländischen Intercity-Verbindungen auch anhand von Screenshots demonstriert (Goverde u. Hansen 2004). Leider werden Hinweise auf Ergebnisse weiterer Anwendungsbeispiele von PETER bislang dort nicht gegeben.
5
Zusammenfassung
Um die Auswirkungen von Verspätungen auf ein mit einem Fahrplan betriebenes Liniensystem zu untersuchen, kann die Problemstellung in der Max-Plus Algebra formuliert werden. Die hierbei konstruierten Systemgleichungen weisen nicht nur formal große Ähnlichkeiten zu klassischen
398
I. Bauerdorf
linearen Gleichungssystemen auf. Daher ist es möglich, Definitionen und Zusammenhänge aus der linearen Algebra auch in der Max-Plus Algebra darzustellen. Auf der Grundlage der hierbei erzielten Resultate wird es möglich, die Robustheit eines Fahrplans gegenüber Verspätungen mit Hilfe des Eigenwertes und der zugehörigen Eigenvektoren der Systemmatrix zu charakterisieren. Weiterhin können in der Max-Plus Algebra rekursive, quasi lineare Gleichungen für die Simulation der Entwicklung von Verspätungen konstruiert werden.
Literatur Baccelli F; Cohen G; Olsder GJ; Quadrat JP (2001) Synchronization and Linearity – An Algebra for Discrete Event Systems. Korrigierte Version der 1. Auflage. http://www-rocq.inria.fr/metalau/cohen/SED/book-online.html. Letzter Abruf: 04.10.2004 Braker JG (1993) Algorithms and Applications in Timed Discrete Event Systems. Dissertation, Faculty of Technical Mathematics and Informatics Delft, Delft Cao XR, Cohen G; Giua A, Wonham WM, van Schuppen JH (2002) Unity in Diversity, Diversity in Unity: Retrospective and Prospective Views on Control of Discrete Event System. In: Discrete Event Dynamic Systems: Theory and Applications 12: 253-264 Chang CS (2000) Performance Guarantees in Communication Networks. Springer, London Cochet-Terrasson J, Cohen G, Gaubert S, McGettrick M, Quadrat JP (1998) Numerical Computation of Spectral Elements in Max-Plus Algebra. In: Proceedings of the IFAC Conference on System Structure and Control. Nantes, France. http://www-rocq.inria.fr/metalau/quadrat/Howard-Nantes.pdf. Letzter Abruf: 04.10.2004 Cruz CS (1991a) A Calculus for Network Delay, Part I: Network Elements in Isolation. IEEE Transactions on Information Theory vol 37 no 1: 114-131 Cruz CS (1991b) A Calculus for Network Delay, Part II: Network Analysis. IEEE Transactions on Information Theory vol 37 no 1: 132-141 Cunninghame-Green RA (1979) Minmax Algebra. Springer, Berlin De Schutter B, van den Boon T (2001) Model predicitve control for max-pluslinear discrete event system. Automatica vol 37 no 7: 1049-1056 Dasdan A, Irani SS, Gupta RK (1998) An Experimantal Study of Minimum Mean Cycle Algorithms. University of Illinois, University of California, UCI-ICS Technical Report # 98-32 Goverde RMP (1998) Synchronization Control of Scheduled Train Services to Minimize Passenger Waiting Times. http://vkk042.citg.tudelft.nl/ verkeerskunde/taff/goverde/publ.html. Letzter Abruf: 10.10.2004
Die Auswirkungen von Verspätungen in Verkehrsnetzen
399
Goverde RMP, Odijk MA (2002) Performance evaluation of network timetables using PETER. http://cttrailf.ct.tudelft.nl/verkeerskunde/peter/comprailVIII% 20preprint.pdf. Letzter Abruf: 14.10.2004 Goverde RMP, Hansen A (2004) Performance Evaluation of Timed Events in Railways (PETER). http:/cttrailf.ct.tudelft.nl/verkeerskunde/peter/. Letzter Abruf: 10.10.2004 Heidergott B, de Vries R (2001) Towards a (Max,+) Control Theory for Public Transportation Networks. Discrete Event Dynamic Systems: Theory and Applications 11: 371-398 INRIA MaxPlus Working Group (2003) MAXPLUS ForScilab2.7. http://scilabsoft.inria.fr/contribution/displayContribution.php?fileID=174. Letzter Abruf: 10.10.2004 Karp RM (1978) A characterization of the minimum cycle mean in a digraph. Discrete Mathematics 23: 309-311 Le Boudec JY, Thiran P (2001) Network Calculus – A Theory of Deterministic Queuing Systems for the Internet. Springer, Berlin. http://www.springerlink.com/app/home/issue.asp?wasp=h8gnrvyrlkdp69xrkc3u&referrer=parent &backto=journal,1116,1714;linkingpublicationresults,1:105633,1. Letzter Abruf: 05.10.2004 Stańczyk J (2004) Max-Plus Algebra Toolbox for Matlab®. http://ifatwww.et. uni-magdeurg.de/~stanczyk/publications/toolbox_descrip-tion_1.01.pdf. Letzter Abruf: 04.10.2004 Zimmermann U (1981) Linear Combinatorial Optimization in Ordered Algebraic Structures. North Holland, Amsterdam
Heuristische Lösungsverfahren für das Probabilistic Traveling Salesman Problem Andreas Wels1, Andreas Richter2 1
Lehrstuhl für Betriebswirtschaftslehre, insb. Industrielles Management, Fakultät Wirtschaftswissenschaften, Technische Universität Dresden, 01062 Dresden, [email protected] 2
Lehrstuhl für Betriebswirtschaftslehre, insb. Logistik, Fakultät Wirtschaftswissenschaften, Technische Universität Dresden, 01062 Dresden, [email protected]
Abstract Viele Beiträge zum Traveling Salesman Problem behandeln ausschließlich den klassischen, deterministischen Fall. Diese Arbeit beschäftigt sich hingegen mit dem Probabilistic Traveling Salesman Problem (PTSP). Dabei ist unbekannt, welche der potentiellen Kunden in der aktuellen Problemstufe bedient werden müssen. Das Problem wird mit Hilfe der A-PrioriOptimierung behandelt. Die erzielte Lösung für das Gesamtproblem kann unter der Benutzung einer Updating-Methode auf jedes Teilproblem übertragen werden. Es werden zwei Modifikationen des für den deterministischen Fall bekannten Verfahrens der „Sukzessiven Einbeziehung“ vorgestellt und getestet. Die Ergebnisse zeigen die Vorteilhaftigkeit zu bisher für diese Problemstellung genutzten Heuristiken auf.
1
Einordnung und Motivation
Rundreise- und Tourenplanungsprobleme spielen in der Praxis und der wissenschaftlichen Literatur eine große Rolle. Es werden zahlreiche Problemstellungen mit bestimmten Eigenschaften und Lösungsvorschlägen angegeben. Das Rundreiseproblem bildet einen Spezialfall allgemeiner Tourenplanungsprobleme, indem nur eine Tour gesucht wird, und soll im weiteren Verlauf in den Mittelpunkt der Betrachtungen rücken.
402
A. Wels, A. Richter
Bei Rundreiseplanungen wird zwischen knotenorientierten Problemstellungen, mit dem bekanntesten Vertreter Traveling Salesman Problem (TSP), und kantenorientierten Problemstellungen (u. a. Chinese Postman Problem) unterschieden. Da Probleme betrachtet werden, in denen die Belieferung bekannter Kunden möglichst effizient gestaltet werden soll, sind knotenorientierte Lösungen angebracht. Um dieses Problem zu lösen, stehen exakte und heuristische Verfahren zur Verfügung. Ein häufig angewendetes exaktes Lösungsverfahren ist das Branch-and-Bound-Verfahren (Domschke 1997, S. 7 ff. und Eddelbüttel 1997, S. 25 ff.), welches der ganzzahligen Programmierung (Aberle 2003, S. 503) zuzuordnen ist. Des Weiteren kommen Branch-and-Cut Algorithmen zum Einsatz, welche allerdings sehr rechenaufwendig sind (Blasum 2000, S. 80 ff. und Applegate, et al. 1995, S. 1 ff.). Die Anzahl der existierenden Heuristiken ist vielfältig (Reinelt 1994, S. 73 ff. und Vahrenkamp 2003, S. 204 ff.). Nachdem Eröffnungsverfahren eine Lösung bereitgestellt haben, kann diese mit Hilfe von Verbesserungsverfahren der Optimallösung angenähert werden. Solche Verfahren sind vergleichsweise weniger aufwendig und auch für sehr umfangreiche Probleme anwendbar. Im Folgenden wird mit dem PTSP ein etwas verändertes Problem betrachtet. Im Gegensatz zum klassischen TSP sind hier nicht mehr alle Komponenten deterministisch und es ergibt sich somit ein stochastisches Tourenplanungsproblem (SRP). Insbesondere die Tatsache, ob ein Kunde beliefert werden muss, unterliegt dem Zufall. Konkret bekommt jeder Kunde i eine Wahrscheinlichkeit pi für sein Auftreten zugeordnet. Ziel ist es, im Vorhinein eine Tour (A-Priori-Tour) zu bestimmen, die den Erwartungswert der Tourlänge E[L] über alle möglichen Teilprobleme minimiert.1 Ein Teilproblem stellt dabei die auftretende Kundenmenge zum Betrachtungszeitpunkt dar. Die tatsächlich zu fahrende Tour für jedes Teilproblem ergibt sich aus der Reihenfolge der Kunden in der A-PrioriTour. Nicht auftretende Kunden werden eliminiert. In vielen Unternehmen kommt die dynamische Tourenplanung für tägliche Anwendungen zum Einsatz. Im Unterschied zur statischen Tourenplanung liegen zum Start des Planungsprozesses nicht alle für die Planung der Touren notwendigen Informationen vor. Somit ist wie beim PTSP die Unsicherheit der Daten zu beachten. Da während der Ausführung der Touren ständig neuer zu beachtender Input auftritt, werden die Planungsergebnisse vorheriger Planungsschritte immer wieder unter Einbeziehung der neuen oder veränderten Informationen aktualisiert. Damit wird der Gegensatz zur statischen Tourenplanung beschrieben, bei der die Touren nur einmal bestimmt werden und eine spätere Anpassung nicht stattfindet (Psaraftis 1
Die Definition der erwarteten Tourlänge E[L] erfolgt in Abschnitt 2.
Heuristische Lösungsverfahren für das PTSP
403
1988, S. 223 ff., Psaraftis 1995, S. 143 ff., Bertsimas u. van Ryzin, 1991, S. 601 ff., Bertsimas u. Simchi-Levi, 1996, S. 286 ff., Gendreau u. Potvin, 1998, S. 115 ff. und Ghiani et al. 2003, S. 1 ff.). Als die ersten Arbeiten zum PTSP, das den statischen Tourenplanungsproblemen zugeordnet wird, entstanden (Jaillet, Odoni 1988, S. 311 ff.), wurde die Bestimmung einer A-Priori-Tour im Rahmen des PTSP damit gerechtfertigt, dass mangelnde Rechenkapazitäten eine dynamische Tourenplanung unmöglich machen. Heutzutage liegen die Einsatzgebiete des PTSP vor allem im Bereich der taktischen Planung. Mit Hilfe des PTSP können Lösungen "im Mittel'' bestimmt werden. Somit sind Abschätzungen der Fahrtstrecken für einen größeren Zeitraum2 möglich. Beispielsweise kann für Touren von Außendienstmitarbeitern, Versicherungsvertretern oder KEP-Diensten, die aus einem festen Kundenstamm täglich eine Teilmenge bedienen müssen, eine Abschätzung der mittleren Tourlängen vorgenommen werden. Diese Richtwerte können als Hilfestellung bei Fuhrpark- und Personalkapazitätsplanungen dienen. Außerdem können auftretende Veränderungen infolge sich erhöhender Kundenauftrittswahrscheinlichkeiten, z. B. hervorgerufen durch steigenden Absatz bei saisonalen Produkten, besser eingeschätzt werden. Die Grundlage der anschließenden Betrachtung sind vollständige3 Graphen G=(V,E,D,P), wobei V die Knotenmenge, E die Kantenmenge, D die Distanzmatrix und P die vorliegende Wahrscheinlichkeitsverteilung symbolisieren. In weiter reichenden Betrachtungen kann die Knotenmenge noch einmal partitioniert werden (Jaillet 1985, S. 27 ff.). Es ergeben sich dabei die Mengen V1, bestehend aus allen Knoten i mit pi<1, und V2 mit allen Knoten i mit pi=1. Die Knoten der Menge V1 werden im Folgenden auch als weiße Knoten bezeichnet und die Knoten der Menge V2 als Schwarze. Aus praktischer Sicht ist diese Unterteilung durchaus sinnvoll. In der zweiten Menge befindet sich das Depot, das sowohl als Ausgangspunkt als auch als Endpunkt dient. Außerdem beinhaltet sie Kunden, welche täglich einen Bedarf anmelden und somit in jeder zu planenden Tour vorkommen müssen. Die restlichen Kunden werden in der Menge V1 zusammengefasst. Das folgende illustrierende Beispiel soll aufzeigen, dass bereits für sehr kleine Probleme unterschiedliche Lösungen entstehen, wenn einerseits das klassische TSP und andererseits das PTSP angewendet werden. Dabei
2 3
Denkbar wäre ein Jahr oder eine Planungsperiode. Jeder Knoten ist mit jedem Knoten direkt verbunden.
404
A. Wels, A. Richter
wurde die Problemgröße gering gehalten, um die Optimallösungen4 durch vollständige Enumeration zu ermitteln. Außerdem kann auf diesem Wege gezeigt werden, dass bereits bei sehr einfachen Problemstellungen Unterschiede zu erkennen sind: Der betrachtete Graph besteht aus sechs Knoten und es gilt V=^0,...,5` wobei die Distanz zwischen zwei Knoten der euklidischen Entfernung entspricht. Die Koordinaten (x;y) der Knoten lauten: (0;0), (18;25), (20;10), (10;10), (15;5) und (30;0).5 In Abbildung 1 werden die unterschiedlichen Ergebnisse sichtbar. Im ersten Fall wurde die optimale TSP-Tour t1 ermittelt und es ergibt sich t1=(0,1,2,3,4,5,0). Im weiteren Verlauf bekam jeder Kunde eine einheitliche Auftrittswahrscheinlichkeit p zugeordnet. Die Ausnahme bildet der Knoten (0;0). Er soll das Depot symbolisieren und fungiert immer als Ausgangs- und Endpunkt. Somit gilt p0=1. Mit diesen Daten wurde die optimale PTSP-Tour t2 bestimmt. Dabei kamen verschiedene Werte für p zum Einsatz.6 Die optimalen Lösungen weichen für alle p<0,89 von t1 ab und es ergibt sich immer t2=(0,1,3,2,4,5,0) als optimale Tour. Dieser Zusammenhang lässt sich mit den entsprechenden Zahlen belegen. Im deterministischen Fall ergeben sich die Längen
L1 = 108,82 LE und L2 = 110,62 LE als Lösung. Gilt hingegen p1=...=p5=0,88, so können die Ergebnisse
E [L1 ] = 99,88 LE und E [L2 ] = 99,81 LE bestimmt werden. Die prozentuale Abweichung nimmt für kleiner werdende p weiter zu. Im Beispiel wurde die Veränderung deutlich. Die erwartete Länge der optimalen TSP-Tour ist für kleine Werte von p größer als die erwartete Länge der optimalen PTSP-Tour. Damit ist es nicht immer vorteilhaft, die Lösung des TSP auf die stochastische Problemstellung zu übertragen. Der folgende Abschnitt gibt eine exakte Definition der Problemstellung an. Außerdem wird eine effektive Methode zur Berechnung der erwarteten Länge aufgezeigt. Da zur Lösung speziell angepasste Verfahren benötigt werden, stellt Abschnitt 3 zwei neue Heuristiken vor, die für das PTSP
4
5
Eine Lösung wird als optimal bezeichnet, wenn keine kostengünstigere Lösung existiert. Somit lassen sich die Entfernungen über den Zusammenhang d (i, j ) = ( xi − x j ) 2 + ( yi − y j ) 2 bestimmen.
6
Es gilt aber pi=pj für alle i,j∈^`
Heuristische Lösungsverfahren für das PTSP
405
modifiziert wurden. Die erzielten Ergebnisse werden in Abschnitt 4 vorgestellt und mit den Resultaten bisher bekannter Verfahren verglichen.
1
3
1
2
3
4 0
4 5
optimale TSP-Tour
2
0
5 optimale PTSP-Tour für p<0,89
Abb. 1. Illustration der verschieden Lösungen für ein Beispiel mit 6 Knoten
2
Definition des PTSP
Im Folgenden soll auf den zentralen Lösungsansatz für SPRs eingegangen werden. Diese Vorgehensweise wird als A-Priori-Optimierung bezeichnet (Jaillet, Odoni 1988, S. 24). In vielen Anwendungen ist es nach der Lösung einer Problemstellung notwendig, immer wieder Modifikationen bzw. Teilprobleme desselben Hauptproblems zu lösen.7 In den meisten Fällen wird sogar jedes mögliche Teilproblem optimal gelöst, bzw. eine fast optimale Lösung mit einer guten Heuristik erzielt. Dies wird als ReOptimierungsstrategie bezeichnet (Powell, Jaillet, Odoni 1995, S. 148). Sie wird aber von einem großen Nachteil begleitet. Liegt dem zu lösenden Tourenproblem z. B. ein vollständiger Graph zu Grunde, sind exponentiell viele, genauer gesagt 2N Teilprobleme zu lösen. Die Alternative bildet eine andere Vorgehensweise. Anstatt jedes mögliche Teilproblem zu einer optimalen Lösung zu führen, wird eine A-Priori-Lösung des Gesamtproblems gesucht. Diese kann durch eine einfache Anpassung zur Lösung aller mög7
Es kommt z. B. ein Kunde dazu oder es fällt einer weg.
406
A. Wels, A. Richter
lichen Teilprobleme genutzt werden, was mit Hilfe einer als UpdatingMethode U bezeichneten Vorgehensweise geschieht (Jaillet 1986, S. 200). Das PTSP ist eines der bekanntesten SRPs und wurde in dieser Form erstmals von JAILLET (Jaillet 1985, S. 24 ff.) definiert. Es handelt sich dabei um eine Problemstellung, bei der die Menge der zu besuchenden Punkte in jeder Problemstufe eine Zufallsvariable ist. Sie wird mit S bezeichnet und beschreibt formal die Abbildung: S : ( Ω , Α, Ρ ) → ( Ω ' , Α ' ) Dabei symbolisiert Ω den Grundraum8 und A die zugehörige σ-Algebra. Diese entspricht der Potenzmenge von Ω, da es sich um ein diskretes Problem handelt. Es ist zu beachten, dass für den allgemeinen Fall9 Ω ' = {s | s = t ∪ V2 : t ∈℘(V1 )} gilt, wobei ℘(V1) die Potenzmenge von V1 symbolisiert. Es wird ein Routingproblem mit einer Menge von N bekannten Punkten betrachtet. In jedem Teilproblem ist nur eine Teilmenge S, bestehend aus |S| = k der N Knoten zu besuchen. Die Wahrscheinlichkeit, dass die Zufallsvariable S auftritt, soll mit P(S=s) bezeichnet werden. Es wäre wünschenswert, die Tour für jeden auftretenden Fall neu zu optimieren. Dies ist aber im Vorfeld einer Planungsperiode nicht möglich. Um entsprechende Richtwerte für die Bereitstellung der nötigen Ressourcen, z. B. Fahrzeuge und Mitarbeiter, zu erhalten, ist die folgende Vorgehensweise angebracht. Es wird eine A-Priori-Tour durch alle N Punkte gesucht. Für jedes Teilproblem werden die k vorhandenen Punkte dann in derselben Reihenfolge abgefahren wie in der A-Priori-Tour. Eine solche A-Priori-Tour mit minimaler erwarteter Länge zu finden, wird als PTSP definiert. Diese erzeugte A-Priori-Lösung für das Gesamtproblem kann auf eine einfache Art und Weise zur Lösung jedes Teilproblems angewendet werden. Das in diesem Falle auftretende UPTSP bewirkt, dass die vorhandenen Punkte in derselben Reihenfolge wie in der A-Priori-Tour abgefahren werden und die in diesem Teilproblem nicht vorkommenden Punkte einfach wegbleiben. Zur Veranschaulichung soll Abbildung 2 dienen. Damit lässt sich folgende Definition formulieren: Ein stochastisches Routingproblem, dessen Anzahl der zu besuchenden Punkte in jeder Problemstufe eine Zufallsvariable ist, wird genau dann als PTSP bezeichnet, wenn eine A-Priori-Lösung durch alle N vorliegenden Punkte mit minimaler erwarteter Länge gesucht wird, die gemäß UPTSP auf alle Teilprobleme angewendet werden kann. 8 9
Für das vorliegende Problem kann Ω=V gesetzt werden. Es sind sowohl schwarze als auch weiße Knoten vorhanden.
Heuristische Lösungsverfahren für das PTSP
407
Damit wird auch die mathematische Formulierung des PTSP sehr umfangreich. Entsprechende Formulierungen für den deterministischen Fall werden sehr anschaulich von DOMSCHKE (Domschke 1997, S. 104 ff.) formuliert. Bei der notwendigen Anpassung für die wahrscheinlichkeitsorientierte Variante, nimmt sowohl die Anzahl der benötigten binären Variablen, als auch die der Nebenbedingungen deutlich zu. Demzufolge ergibt sich eine veränderte Darstellungsweise, welche erstmals von JAILLET (Jaillet 1985, S. 152 ff.) formuliert wurde. 4 2
1
0
4 2
3
5
7
1
6
0
3
5
7 6
Die Tour, wenn 4, 5 und 7 nicht aufgetreten sind
A-Priori-Tour durch 8 Punkte
Abb. 2. Updating-Methode UPTSP
Die erwartete Länge wird über alle möglichen Teilprobleme berechnet, z. B. über alle Teilmengen der Knotenmenge V={1,...,N-1}. Gegeben ist eine A-Priori-Tour t deren Länge mit Lt bezeichnet wird.10 Das Ereignis S tritt mit der Wahrscheinlichkeit P(S=s) ein. Die Länge der Tour, um die gesamte Menge der laut S enthaltenen Kunden zu besuchen, beträgt Lt(s). Das Problem besteht demnach darin, eine A-Priori-Tour für alle N potentiellen Kunden zu finden, welche die erwartete Länge E[ Lt ( S )] = ∑ P ( S = s ) Lt ( s ) s ⊆V
minimiert. Um die erwartete Länge einer gegebenen A-Priori-Tour zu bestimmen, ist eine angepasste Berechnungsvorschrift von Nöten. Mit d(i,j) sollen die 10
Es sollte beachtet werden, dass diese Länge selbst wieder eine Zufallsvariable ist.
408
A. Wels, A. Richter
Elemente der Distanzmatrix D bezeichnet werden. Jeder Kunde i bekommt eine Wahrscheinlichkeit pi zugeordnet, mit der er in der Tour auftritt. Nachdem eine A-Priori-Tour t ermittelt wurde, die nach eventuellen Umnummerierungen die Gestalt t=(0,...,N-1,0) annimmt, lässt sich die erwartete Länge mit Hilfe des folgenden Zusammenhangs ermitteln (Jaillet, Odoni 1988, S. 300): N −1 N −1
E[ Lt ( S )] = ∑ ∑ aij d (i, j ) i =0 j =0
mit
aii = 0 ai ,i +1 = pi pi +1
∀i ∈ {1,..., N − 1}
∀i ∈ {1,..., N − 1}
⎞ ⎛ j −1 aij = pi p j ⎜⎜ ∏ (1 − p k ) ⎟⎟ sonst ⎠ ⎝ k =i +1 Dieses Resultat folgt unmittelbar aus der Definition des PTSP. Es setzt voraus, dass das Auftreten eines Kunden unabhängig vom Auftreten eines anderen Kunden stattfindet. Wird nach dem Knoten i sofort der Knoten j besucht, so befinden sich gemäß UPTSP die Kunden i+1,...,j-1 nicht in der aktuellen Tour. Dieser Zusammenhang wird durch die aij`s zum Ausdruck gebracht. Zur Illustration soll die Berechnung der bereits im Beispiel in Abschnitt 1 angegebenen erwarteten Länge dienen. Als optimale PTSP-Tour wurde t2=(0,1,3,2,4,5,0) bestimmt. Gilt für die Wahrscheinlichkeiten p1=p2=...=p5=0,88 bzw. p0=1, ergibt sich der folgende Ausdruck: E [L2 ] = 0,88 ⋅ 30,81 + 0,88(1 − 0,88) ⋅ 14.14 + 0,88(1 − 0,88) 2 ⋅ 22,36 + 0,88(1 − 0,88) 3 ⋅ 15,81 + 0,88(1 − 0,88) 4 ⋅ 30,00 + 0,88 2 ⋅ 17,00 + 0,88 2 (1 − 0,88) ⋅ 15,13 + 0,88 2 (1 − 0,88) 2 ⋅ 20,22 + 0,88 2 (1 − 0,88) 3 ⋅ 27,73 + 0,88(1 − 0,88) 4 ⋅ 30,81 + 0,88 2 ⋅ 10,00 + 0,88 2 (1 − 0,88) ⋅ 7,07 + 0,88 2 (1 − 0,88) 2 ⋅ 22,36 + 0,88(1 − 0,88) 3 ⋅ 14,14 + 0,88 2 ⋅ 7,07 + 0,88 2 (1 − 0,88) ⋅ 14.14 + 0,88(1 − 0,88) 2 ⋅ 22,36 + 0,88 2 ⋅ 15,81 + 0,88(1 − 0,88) ⋅ 15,81 + 0,88 ⋅ 30,00 = 99,81
Somit steht eine sehr effiziente Möglichkeit zur Verfügung, die erwartete Länge einer vorhandenen A-Priori-Tour zu berechnen. Sie zeichnet sich einerseits durch ihre Struktur aus, welche den Einsatz in Computerprogrammen sehr gut ermöglicht. Andererseits ist durch die Tatsache, allen
Heuristische Lösungsverfahren für das PTSP
409
Kunden verschiedene Wahrscheinlichkeiten zuordnen zu können, ein hoher Verallgemeinerungsgrad erreicht. Damit diese Berechnungsvorschrift angewendet werden kann, ist allerdings noch die Bereitstellung der entsprechenden A-Priori-Touren von Nöten. Dafür sollen im Folgenden verschiedene Möglichkeiten aufgezeigt werden.
3
Modifizierte Lösungsverfahren
Aufgrund der großen Komplexität der Problemstellung ist es nicht möglich, exakte Lösungsverfahren für beliebige Problemgrößen zu konstruieren. Bereits bei 300 Kunden sind 90.000 binäre Variablen und 600 Nebenbedingungen zu berücksichtigen, wenn das von JAILLET erstellte Model genutzt wird (Jaillet, 1985, S. 236). Damit wird der Rechenaufwand sehr groß. Zu den besten bekannten exakten Algorithmen zählt ein modifiziertes Branch-and-Cut Verfahren, welches Aufgaben mit bis zu 50 Knoten optimal löst (Laporte et al. 1994, S. 543). Um größere Problemstellungen untersuchen zu können, ist der Einsatz von Heuristiken angebracht, welche im deterministischen Fall sehr erfolgreich zur Bestimmung von zulässigen Lösungen für praxisrelevante Probleme eingesetzt werden (Domschke 1997, S. 110 ff.). In bisherigen Untersuchungen wurden bereits einige Modifikationen dieser Herangehensweisen vorgenommen. Es existiert eine wahrscheinlichkeitsorientierte Variante des Verfahrens „Bester Nachfolger“ (Domschke 1997, S. 110), die als „Probabilistic Nearest Neighbour“ bezeichnet wird (Jaillet, 1985, S. 182 ff. und Rossi 1986, S. 219 ff.). Als weitere Möglichkeit wird das „Supersavings-Verfahren“ ( Jaillet 1985, 175 ff.), eine angepasste Variante des klassischen „Savings-Verfahren“ (Domschke 1997, S. 112) angeboten. Aber bereits einfache Tests im Zuge dieser Arbeit zeigen, dass die Güte dieser Lösungen nicht sehr gut ist. Dabei wurde folgender Zusammenhang deutlich. Es ist von großem Vorteil, solche Kunden zuerst in die Tour einzubinden, welche sehr weit vom Ausgangspunkt (Depot) entfernt liegen. Im deterministischen Fall erfüllt das Verfahren „Sukzessive Einbeziehung“ (Domschke 1997, S. 111) bedingt diese Forderung. In jedem Iterationsschritt wird genau der Knoten hinzugefügt, dessen kleinste Entfernung zu allen bisher aufgenommen Knoten am größten ist. Somit erfolgt eine Anpassung des deterministischen Algorithmus an die veränderte Aufgabenstellung. Die notwendige Veränderung findet bei der Bestimmung der Einfügeposition statt. Dabei bezeichnet Kj,i,j+1 die resultierende Tour, wenn der Knoten i zwischen den Knoten j und j+1 eingefügt wird. Das Ergebnis bildet ein hier als „Probabilistic Gradual Add“ bezeichnetes Verfahren:
410
A. Wels, A. Richter
Start:
- Bestimme einen Startknoten i0 und finde einen Knoten i1 mit maximaler Entfernung, d. h. d (i0 , i1 ) = max{d (i0 , j ) | j ≠ i0 } . - Bilde Kurzrundreise K=( i0, i1, i0) mit erwarteter Länge E[LK]. Iteration: - Für j=2,...,N-1 bestimme Knoten ϑ ∉ K und i K ∈ K so, dass d (i K ,ϑ ) = max min d (ih , l ) l∉K ih ∈K
sowie eine Kante [im,im+1] auf K mit E[ LKi ,ϑ ,i ] = min E[ LKi ,ϑ ,i ] | h = 0,..., j − 1} m
{
m +1
h
h +1
und füge den Knoten ϑ zwischen im und im+1 ein. - E[ LK ] := E[ LKi ,ϑ ,i ] . m
Ergebnis:
m +1
Rundreise (i0,i1,...,iN-1,i0) mit erwarteter Länge E[LK].
Zusammenfassend kann folgende Besonderheit des entwickelten Verfahrens gegenüber dem klassischen Pendant genannt werden: Es ist während der Iteration nicht mehr ausreichend, nur den Vorgänger bzw. Nachfolger der möglichen Einfügeposition zu beachten. Vielmehr muss jetzt immer die gesamte, dabei entstehende Tour betrachtet werden, um die entsprechenden Veränderungen feststellen zu können. Es werden somit in jedem Iterationsschritt j erwartete Längen bestimmt und miteinander verglichen. Damit erhöht sich die Komplexität bzw. der Rechenaufwand des Verfahrens. Andererseits gleicht die damit erzielte Verbesserung der erhaltenen Lösungen diesen Nachteil mehr als aus. Die Ausgangsforderung, weit vom Depot entfernt liegende Knoten sehr früh in die Tour einzubinden, kann mit diesem Verfahren aber noch nicht vollständig umgesetzt werden. Somit ist eine weitere Modifikation nötig. Im Folgenden werden zu Beginn die Entfernungen aller Knoten zum Depot bestimmt und in einer Liste vermerkt. Diese wird absteigend sortiert, so dass der am weitesten entfernte Punkt den ersten Platz einnimmt. Diese Liste bildet die Grundlage für die Einfügereihenfolge, welche somit schon im Vorhinein festgelegt ist. Die Einfügeposition bestimmt sich wie im vorigen Verfahren. Als Ergebnis kann der „Modified Probabilistic Gradual Add“-Algorithmus präsentiert werden: Start:
- Bestimme einen Startknoten i0 und finde einen Knoten i1 mit maximaler Entfernung, d. h. d (i0 , i1 ) = max{d (i0 , j ) | j ≠ i0 } . - Bilde Kurzrundreise K=( i0, i1, i0) mit erwarteter Länge E[LK]. - Vi = {i0 , i1 } .
Heuristische Lösungsverfahren für das PTSP
411
- Bestimme die Entfernungen d(i0,j) aller restlichen Kunden j ∉ Vi zum Depot und schreibe die Kunden geordnet, mit der größten Entfernung beginnend, in eine Liste R. Iteration: - Für j=2,...,N-1 nehme den ersten Knoten r aus R und bestimme eine Kante [im,im+1] auf K mit E[ LKi , r ,i ] = min E[ LKi , r ,i ] | h = 0,..., j − 1} m
m +1
{
h
h +1
und füge den Knoten l zwischen im und im+1 ein. - Vi = l ∪ Vi . - E[ LK ] := E[ LK i , r ,i ] . m
m +1
- Streiche r aus R. Abbruch: R= ∅ . Ergebnis: Rundreise (i0,i1,...,iN-1,i0) mit erwarteter Länge E[LK]. Es stehen somit zwei neue Lösungsheuristiken zur Verfügung. Diese werden im folgenden Abschnitt umfangreich getestet und mit den bisher vorhandenen Möglichkeiten verglichen.
4
Simulationsstudie
Um aussagekräftige Ergebnisse zu erhalten, wurden verschiedene Simulationen durchgeführt. Für die Durchführung der Tests erfolgte die Erstellung eines speziellen Softwareprogramms in Delphi. Dabei ist folgende Vorgehensweise gewählt worden: Es wurden drei verschiedene Problemgrößen betrachtet. Zu einem festen Knoten kamen 50, 75 oder 100 unsichere Knoten hinzu. Das Programm erzeugte zufällige Beispiele, d. h. es bestimmt die Koordinaten der gewünschten Anzahl von Punkten als stochastisch unabhängige und gleichverteilte Zufallszahlen. Als Ergebnis folgen N erzeugte Kundenstandorte, die unabhängig und gleichverteilt auf dem betrachteten Gebiet sind. Für diese erzeugten Daten werden vom Programm folgende Algorithmen zur Lösung herangezogen: „Bester Nachfolger“ (NN), „Probabilistic Nearest Neighbour“ (PNN), „Savings-Verfahren“ (SAV), „Supersavings-Verfahren“ (PSAV), „Sukzessive Einbeziehung“ (SE), „Probabilistic Gradual Add“ (PGA), „Einbeziehung weitentferntester Knoten (EWE)“ und „Modified Probabilistic Gradual Add“ (MPGA). Somit erfolgt nicht nur eine Überprüfung der Güte der für das PTSP angepassten Algorithmen, sondern es findet auch ein Vergleich mit den Ergebnissen statt, welche die deterministischen Verfahren ermitteln. In jedem Schritt wurden die erzielten Ergebnisse, d. h. die erwarteten Längen der bestimmten Touren, miteinan-
412
A. Wels, A. Richter
der verglichen und eine Reihenfolge festgelegt. Die beste Lösung bekam eine eins zugewiesen, die zweitbeste eine zwei und die schlechteste dementsprechend eine acht. Nachdem die Untersuchungen abgeschlossen waren, wurden die Durchschnittswerte für die erwarteten Tourlängen und die durchschnittlichen Ränge über alle Testbeispiele je Verfahren berechnet. Die Ergebnisse werden in Tabelle 1, Tabelle 2 und Tabelle 3 präsentiert. Die weißen Knoten bekamen bei jeder der betrachteten Problemstellungen einheitliche Auftrittswahrscheinlichkeiten p zugewiesen. Die Werte wurden während der Simulation in Zehntelschritten von 0,1 auf 0,9 erhöht. Für weitere Berechnungen erhielt jeder weiße Knoten vom Programm eine zufällige Wahrscheinlichkeit zugewiesen. In diesem Fall schloss sich demnach ein zweites Zufallsexperiment an, was jedem erzeugten Koordinatenpaar einen Wert zwischen 0 und 1 als Wahrscheinlichkeit zuteilte. Es erfolgt sowohl unabhängig vom ersten Zufallsexperiment, als auch unabhängig von der Vergabe der restlichen Wahrscheinlichkeiten. Für alle drei untersuchten Problemgrößen wurden jeweils 100 Durchläufe in die Betrachtung aufgenommen.11 Bei allen Problemstellungen ist zunächst ein erwartetes Resultat erkennbar. Steigt die Auftrittswahrscheinlichkeit p an, schneiden die mit deterministischen Verfahren erzielten Lösungen im Vergleich zu den Stochastischen deutlich besser ab. Die Begründung liefert die Tatsache, dass ein PTSP mit pi=1 für alle Kunden i genau dem TSP und damit dem deterministischen Fall entspricht. Insgesamt liegt eine klare Dominanz des Verfahrens der sukzessiven Einbeziehung mit all seinen Modifikationen vor. Dabei ragt vor allem der MPGA-Algorithmus heraus, der am häufigsten die besten Ergebnisse erzielte. Es ist noch festzuhalten, dass sich diese Tendenz bei größeren Problemen verstärkt. Dies ist ansatzweise bereits an den hier dargestellten Problemgrößen erkennbar. Damit wird noch einmal die Leistungsfähigkeit dieser erstmals ausgearbeiteten Modifikationen unterstrichen. Der „Supersavings-Algorithmus“ liefert nur für sehr kleine Auftrittswahrscheinlichkeiten ansprechende Ergebnisse. Ähnliches gilt für das Verfahren „Probabilistic Nearest Neighbour“. Eine weitere interessante Beobachtung zeigt, dass die neu entwickelten Verfahren im Gegensatz zum „Supersavings-Algorithmus“ und dem Verfahren „Probabilistic Nearest Neighbour“ auch bei nichthomogenen Problemen sehr gute Ergebnisse erzielen. Tabelle 4 gibt einen Überblick bezüglich der benötigten Rechenzeiten für die betrachteten Problemgrößen je Verfahren. Für die Tests wurde ein Rechner mit einem 3 GHz Pentium 4 Prozessor verwendet. 11
Für jede auftretende Wahrscheinlichkeit wurden 100 Simulationen durchgeführt.
Heuristische Lösungsverfahren für das PTSP
413
Tabelle 1. Testergebnisse für zufällige Graphen mit einem Depot und 50 unsicheren Kunden Wahrscheinlichkeiten ∅ E[L] 0,1 ∅ Abw. %
NN
PNN
SAV
232,8
232,8
226,0
6,9
6,9
3,8
PSAV
SE
PGA
EWE
MPGA
219,0
219,5
218,7
219,0
217,8
0,5
0,8
0,4
0,5
-
∅ Rang
7,1
7,2
6,0
3,6
3,8
2,9
3,4
1,9
∅ E[L]
355,4
339,9
329,9
323,1
316,3
315,7
314,8
313,0
13,6
8,6
5,4
3,2
1,1
0,9
0,6
-
0,2 ∅ Abw. % ∅ Rang
7,5
6,7
5,6
4,8
3,5
2,9
3,1
2,0
∅ E[L]
431,8
413,4
398,9
396,1
379,4
375,8
377,3
372,0
0,3 ∅ Abw. %
15,8
10,8
7,0
6,2
1,7
0,8
1,2
-
∅ Rang
7,4
6,6
5,5
5,6
3,4
2,6
3,0
1,8
∅ E[L]
484,4
472,7
439,6
449,7
423,0
420,1
422,8
418,0
15,9
13,1
5,2
7,6
1,2
0,5
1,2
-
∅ Rang
7,3
6,8
4,9
5,8
3,2
2,6
3,3
2,0
∅ E[L]
536,1
521,9
474,4
497,3
459,4
459,1
461,0
457,5
17,2
14,1
3,7
8,7
0,4
0,3
0,8
-
0,4 ∅ Abw. %
0,5 ∅ Abw. % ∅ Rang
7,6
6,9
4,5
6,1
2,6
2,8
3,2
2,4
∅ E[L]
573,4
564,1
510,9
547,7
498,1
497,9
499,0
495,1
15,8
13,9
3,2
10,6
0,6
0,6
0,8
-
∅ Rang
7,3
6,9
4,1
6,4
2,9
2,8
3,1
2,4
∅ E[L]
607,8
604,8
538,7
580,6
530,1
531,1
532,8
530,5
0,6 ∅ Abw. %
0,7 ∅ Abw. %
14,7
14,1
1,6
9,5
-
0,2
0,5
0,1
∅ Rang
7,1
7,1
3,7
6,4
2,8
2,8
3,1
2,8
∅ E[L]
642,2
642,7
564,1
596,9
557,6
558,4
559,4
558,8
15,2
15,3
1,2
7,0
-
0,2
0,3
0,2
0,8 ∅ Abw. % ∅ Rang
7,2
7,3
3,5
6,0
2,8
2,6
3,2
3,0
∅ E[L]
666,7
664,0
585,1
601,7
579,1
579,2
581,3
581,6
15,1
14,7
1,0
3,9
-
0,0
0,4
0,4
0,9 ∅ Abw. % ∅ Rang
7,2
7,1
3,6
5,4
2,8
2,7
3,0
3,0
∅ E[L]
533,4
691,9
476,2
641,4
462,0
464,6
461,7
454,7
17,3
52,2
4,7
41,1
1,6
2,2
1,6
-
5,9
7,9
4,1
7,1
3,0
3,1
3,0
2,0
zu∅ Abw. % fällig ∅ Rang
414
A. Wels, A. Richter
Tabelle 2. Testergebnisse für zufällige Graphen mit einem Depot und 75 unsicheren Kunden Wahrscheinlichkeiten ∅ E[L] 0,1 ∅ Abw. %
NN
PNN
SAV
310,1
295,1
292,0
12,6
7,2
6,1
PSAV
SE
PGA
EWE
MPGA
281,2
277,9
276,5
276,2
275,3
2,1
1,0
0,4
0,3
-
∅ Rang
7,7
6,6
6,1
4,4
3,6
2,7
2,9
2,1
∅ E[L]
446,5
412,2
406,2
400,0
380,7
375,6
378,7
375,2
19,0
9,9
8,3
6,6
1,5
0,1
0,9
-
0,2 ∅ Abw. % ∅ Rang
7,7
6,3
5,9
5,7
3,4
2,2
3,0
1,9
∅ E[L]
532,5
509,0
479,9
484,7
453,2
447,8
451,9
445,1
0,3 ∅ Abw. %
19,6
14,4
7,8
8,9
1,8
0,6
1,5
-
∅ Rang
7,7
6,9
5,4
5,8
3,3
2,3
3,1
1,6
∅ E[L]
597,9
579,4
532,2
550,0
506,9
505,7
509,5
504,2
18,6
14,9
5,6
9,1
0,5
0,3
1,1
-
∅ Rang
7,6
7,0
4,9
6,0
2,8
2,6
3,1
2,0
∅ E[L]
655,9
641,4
573,4
611,3
555,8
555,7
559,4
550,7
19,1
16,5
4,1
11,0
0,9
0,9
1,6
-
0,4 ∅ Abw. %
0,5 ∅ Abw. % ∅ Rang
7,4
7,1
4,3
6,2
2,7
2,9
3,2
2,1
∅ E[L]
705,0
691,9
615,5
672,2
599,9
600,7
603,4
599,2
17,7
15,5
2,7
12,2
0,1
0,2
0,7
-
∅ Rang
7,4
7,0
4,0
6,5
2,6
2,7
3,1
2,7
∅ E[L]
738,8
731,4
647,3
706,3
629,8
632,2
639,9
635,8
0,6 ∅ Abw. %
0,7 ∅ Abw. %
17,3
16,1
2,8
12,1
-
0,4
1,6
1,0
∅ Rang
7,3
7,1
3,8
6,5
2,3
2,6
3,5
2,9
∅ E[L]
771,1
766,2
675,8
728,8
667,4
669,5
674,4
672,2
15,5
14,8
1,3
9,2
-
0,3
1,1
0,7
0,8 ∅ Abw. % ∅ Rang
7,4
7,1
3,4
6,3
2,6
2,9
3,3
3,0
∅ E[L]
797,6
801,1
707,7
733,5
698,6
701,0
708,4
709,0
14,2
14,7
1,3
5,0
-
0,4
1,4
1,5
0,9 ∅ Abw. % ∅ Rang
7,3
7,4
3,4
5,5
2,5
2,7
3,5
3,4
∅ E[L]
649,1
876,9
574,3
871,4
555,9
560,2
558,2
548,7
18,3
59,8
4,7
58,8
1,3
2,1
1,7
-
5,8
7,5
4,3
7,5
2,8
3,0
3,0
2,0
zu∅ Abw. % fällig ∅ Rang
Heuristische Lösungsverfahren für das PTSP
415
Tabelle 3. Testergebnisse für zufällige Graphen mit einem Depot und 100 unsicheren Kunden Wahrscheinlichkeiten ∅ E[L] 0,1 ∅ Abw. %
NN
PNN
SAV
370,1
344,0
347,5
16,6
8,4
9,5
PSAV
SE
PGA
EWE
MPGA
330,2
323,4
317,5
319,9
317,5
4,0
1,9
0,0
0,8
-
∅ Rang
7,8
6,2
6,4
4,8
3,7
2,3
2,8
2,2
∅ E[L]
524,1
486,4
470,4
471,4
435,7
426,4
435,5
427,1
22,9
14,1
10,3
10,6
2,2
-
2,1
0,2
5,9
3,2
1,8 505,1
0,2 ∅ Abw. % ∅ Rang
7,8
6,5
5,6
3,3
1,9
∅ E[L]
626,1
605,9
546,8
563,3
516,7
509,4
518,7
24,0
19,9
8,2
11,5
2,3
0,8
2,7
-
∅ Rang
7,7
7,1
5,0
5,9
3,2
2,3
3,4
1,4
∅ E[L]
694,7
675,2
610,5
640,0
579,0
581,4
585,2
576,2
20,6
17,1
5,9
11,1
0,5
0,9
1,6
-
∅ Rang
7,6
7,1
4,9
6,1
2,3
2,7
3,2
2,1
∅ E[L]
744,8
731,9
652,7
700,0
631,3
634,6
641,1
631,9
18,0
15,9
3,4
10,9
-
0,5
1,6
0,1
0,3 ∅ Abw. %
0,4 ∅ Abw. %
0,5 ∅ Abw. % ∅ Rang
7,4
7,3
4,2
6,3
2,4
2,8
3,4
2,2
∅ E[L]
811,6
793,8
697,8
771,0
679,3
684,7
688,5
682,4
19,5
16,9
2,7
13,5
-
0,8
1,4
0,5
∅ Rang
7,5
7,1
4,1
6,4
2,2
2,7
3,5
2,5
∅ E[L]
847,4
835,7
739,4
830,1
724,6
728,3
738,6
735,0
0,6 ∅ Abw. %
16,9
15,3
2,0
14,6
-
0,5
1,9
1,4
∅ Rang
7,2
7,0
3,5
6,8
2,2
2,6
3,6
3,1
∅ E[L]
872,9
883,4
764,2
824,8
748,7
752,6
765,6
762,1
16,6
18,0
2,1
10,1
-
0,5
2,3
1,8
0,7 ∅ Abw. %
0,8 ∅ Abw. % ∅ Rang
7,2
7,8
2,8
6,0
2,4
2,6
4,0
3,2
∅ E[L]
906,2
889,6
792,5
825,9
821,7
817,2
853,4
852,9
15,4
13,3
0,9
5,2
0,7
-
4,3
4,0
0,9 ∅ Abw. % ∅ Rang
7,6
7,4
2,2
5,6
2,2
2,0
4,4
4,6
∅ E[L]
760,1
1013,0
657,9
1067,8
632,2
634,8
643,1
624,9
21,6
62,1
5,3
70,9
1,2
1,6
2,9
-
5,9
7,1
4,2
7,9
2,6
2,7
3,6
2,0
zu∅ Abw. % fällig ∅ Rang
416
A. Wels, A. Richter
Tabelle 4. Rechenzeiten Knotenanzahl
5
PNN
PSAV 1,40 s
PGA 1,61 s
MPGA
50 Knoten
0,07 s
1,52 s
75 Knoten
0,15 s
7,10 s
7,41 s
7,23 s
100 Knoten
0,31 s
27,98 s
33,01 s
32,85 s
Zusammenfassung
Die vorgestellten Heuristiken sind aufgrund ihrer Struktur verständlich, gut für die Programmierung geeignet und gewährleisteten relativ kurze Rechenzeiten. Es erfolgte die Implementierung der neuen Verfahren in einer Software. Dadurch mögliche Tests wurden durchgeführt, um die Güte der erzielten Lösungen festzustellen. Die Realisierung in der Software sowie die Testläufe zeigen die Überlegenheit zu bisher bekannten Heuristiken auf. Insgesamt bleibt festzuhalten, dass sich der Einsatz modifizierter Verfahren lohnt. Aufgrund der durchgeführten Tests kann der MPGAAlgorithmus besonders empfohlen werden. Trotz kurzer Rechenzeiten konnten sehr gute Ergebnisse erzielt werden. Diese Beobachtung wird durch die Tatsache verstärkt, dass deterministische Verfahren bereits bei sehr einfachen Problemen schlechtere Lösungen liefern können. Die Qualität der erzielten Ergebnisse konnte in weiterführenden Tests nochmals bestätigt werden. Dabei wurden wie im deterministischen Fall Verbesserungsverfahren eingesetzt. Dies führte nur zu sehr kleinen Veränderungen. Dabei kamen die Cycle-Heuristik (Bertsimas u. Simchi-Levi 1996, S. 296) und das 2-p-opt-Verfahren12 zum Einsatz. Die erwarteten Tourlängen konnten aber nur um 0,2% - 0,5% reduziert werden. Weiterer Forschungsbedarf ergibt sich in der Modifizierung von Verbesserungsverfahren (bspw. Verfahren von Lin/Kernighan) und Metaheuristiken für den stochastischen Fall sowie in der Untersuchung von inhomogenen Problemstellungen.
12
Für jede auftretende Wahrscheinlichkeit wurden 100 Simulationen durchgeführt.
Heuristische Lösungsverfahren für das PTSP
417
Literatur Aberle G (2003) Transportwirtschaft, einzelwirtschaftliche und gesamtwirtschaftliche Grundlagen. Oldenbourg, München Wien Applegate D, Chvàtal V, Cook W (1995) Finding cuts in the TSP. In: DIMACS Technical Report, pp 95-05 Bertsimas D, van Ryzin G (1991) A stochastic and dynamic vehicle routing problem in the euclidean plane. Operations Research 39: 601-615 Bertsimas D, Howell, LH (1991) Further results on the probabilistic traveling salesman problem. European Journal of Operational Research 65: 68-95 Bertsimas D, Simchi-Levi D (1996) A new generation of vehicle routing research: robust algorithms, addressing uncertainty. Operations Research 44: 286-304 Blasum U (2000): Anwendung des Branch & Cut Verfahrens auf das kapazitierte Vehicle Routing Problem. Köln Domschke W (1997): Logistik: Rundreisen und Touren. Oldenbourg, München Wien Domschke W, Drexl A (2002): Einführung in Operations Research. Springer, Berlin Eddelbüttel J (1997) Exakte Verfahren für das Standardproblem der Tourenplanung. Hamburg Gendreau M, Potvin JY (1998): Dynamic vehicle routing and dispatching. In: Crainic T, Laporte G (eds) Fleet management and logistics. Kluwer, Boston, pp 115-126 Ghiani G, Guerriero F, Laporte G, Musmanno R (2003) Real-time vehicle routing: Solution concepts, algorithms and parallel computing strategies. European Journal of Operational Research 151: 1-11 Jaillet P (1985) Probabilistic Traveling Salesman Problems. Ph.D. Thesis, Technical Report No. 185, Operations Research Center, Massachusetts Institut of Technologie, Cambridge, MA Jaillet P (1986) Stochastic Routing Problems. In: Andreatta G, Serafini P (eds) Proceedings of CISM Advanced School of Stochastic and Optimization. Springer, Berlin, pp 199-213 Jaillet P, Odoni AR (1988): The Probabilistic Vehicle Routing Problem. In: Golden BL, Assad A (eds) Vehicle Routing Methods and Studies, Elsevier Science Publishers B. V. (North-Holland), pp 293-318 Laporte G, Louveaux FV, Mercure H (1994) A priori optimization of the probabilistic traveling salesman problem. In: Operations Research vol 42: 543-548 Psaraftis H (1995) Dynamic vehicle routing: Status and prospects. In: Annals of Operations Research vol 61, pp 143-164 Powell WB, Jaillet P, Odoni AR (1995) Stochastic and Dynamic Networks and Routing. In: Ball MO et al (eds) Handbooks in OR and MS, vol 8. Elsevier Science, pp 141-181 Reinelt G (1994) The traveling salesman - computational solutions for TSP applications. Springer, Berlin
418
A. Wels, A. Richter
Rossi F (1986) Aspects of heuristic methods in the Probabilistic Traveling Salesman Problem. In: Andreatta G, Serafini P (eds) Proceedings of CISM Advanced School on Stochastic and Optimization. Springer, Berlin, pp 214-227 Vahrenkamp R (2003) Quantitative Logistik für das Supply Chain Management. Oldenbourg, München
Ein Planungstool zur Schulzeitstaffelung Armin Fügenschuh1, Alexander Martin1, Christian Mehlert2, Peter Stöveken3 1
Technische Universität Darmstadt, Schlossgartenstr. 7, 64289 Darmstadt, {fuegenschuh,martin}@mathematik.tu-darmstadt.de 2
BPI-Consult GmbH, Marburger Straße 10, 10789 Berlin, [email protected]
3
ZIV – Zentrum für integrierte Verkehrssysteme GmbH, Robert-Bosch-Str. 7, 64293 Darmstadt, [email protected]
Abstract Eine erfolgreich erprobte Idee zur Reduzierung von Verkehrs- und damit verbundenen Kostenspitzen bildet die ÖPNV-Optimierung durch Staffelung von Schulanfangszeiten mit erfolgsabhängiger Honorierung. Die ÖPNV-Optimierung basiert auf dem Ansatz, bei mindestens gleichwertigem Angebot einen wirtschaftlicheren Fahrzeug- und Personaleinsatz zu ermöglichen. Die für die Optimierung nötigen Planungsschritte manuell durchzuführen ist jedoch ein komplexes und zeitaufwändiges Vorhaben. Mittels eines geeigneten Planungstools lässt sich dieser Aufwand deutlich reduzieren. In diesem Artikel beschreiben wir das Problem aus Anwendersicht, formulieren es als mathematisches Modell und erläutern die Methoden, die bei der Generierung von Lösungen innerhalb der von uns entwickelten Planungssoftware zum Einsatz kommen.
1
Ein Problem aus der ÖPNV-Praxis
Verkehrsspitzen sind Kostenspitzen. Diese Binsenweisheit gilt insbesondere auch in den Landkreisen, in denen der öffentliche Personennahverkehr (ÖPNV) zeitlich und räumlich auf die Schülerbeförderung ausgerichtet ist (Abb. 1). Angesichts leerer öffentlicher Haushalte und den ab 2005 kassenwirksam werdenden §45a-Mittel-Kürzungen sind Ideen gefragt, die politisch umsetzbare Einsparungen ermöglichen. Eine erfolgreich erprobte
420
A. Fügenschuh, A. Martin, C. Mehlert, P. Stöveken
Idee bildet die ÖPNV-Optimierung durch Staffelung von Schulanfangszeiten mit erfolgsabhängiger Honorierung.
Abb. 1. Schülerbeförderung als tragende Säule im ÖPNV in der Fläche
1.1 Optimierungskonzept Die ÖPNV-Optimierung basiert auf dem Ansatz, bei mindestens gleichwertigem Angebot einen wirtschaftlicheren Fahrzeug- und Personaleinsatz zu ermöglichen. Dies wird durch eine Staffelung der Unterrichtszeiten möglich. Wenn alle Schulen (fast) zum selben Zeitpunkt beginnen, kann ein Bus (wie in Abb. 2 links) nur einen Schulstandort anfahren. Bei gestaffelten Anfangszeiten kann derselbe Bus einen weiteren Schulstandort andienen. Dies ermöglicht die Einsparung eines Fahrzeugs (siehe Abb. 2 rechts).
Ein Planungstool zur Schulzeitstaffelung
421
Abb. 2. Das Optimierungsprinzip
Dabei bleiben Fahrtenangebot, Fahrtdauer und Linienverlauf konstant. Deshalb geht diese ÖPNV-Optimierung nicht durch Angebotsverschlechterungen wie Angebotsausdünnung, Umwegfahrten oder überfüllte Busse zu Lasten der Fahrgäste. Im Gegenteil: Die neuen Busabfahrts- und Unterrichtszeiten ermöglichen Einsparungen, von denen ein Teil in Angebotsverbesserungen oder in die Ausstattung von Schulen investiert werden kann. Da die Änderungen im Regelfall nur die Fahrpläne des öffentlichen Linienverkehrs betreffen, bleiben die geltenden Verträge zur Schülerbeförderung nahezu unberührt. Die Genehmigungsbehörden haben die Änderungen nicht nur akzeptiert, sondern sogar unterstützt, da lediglich die Startund Endzeit der Fahrten verändert werden, um Kosten für die öffentliche Hand einzusparen. 1.2 Innovatives Consulting Die BPI-Consult GmbH und die ZIV GmbH sind führende, unabhängige Beratungsunternehmen mit Tätigkeitschwerpunkten im Bereich des Verkehrsconsult. Zur Planung und Umsetzung der Schulzeitstaffelung wurde ein intelligentes und innovatives Honorarkonzept entwickelt. Dabei wird eine WinWin-Situation für alle Beteiligten geschaffen, indem das ConsultingUnternehmen nicht nur die Planung erstellt, sondern auch die Umsetzung begleitet und hierfür ein ausschließlich erfolgsabhängiges Honorar erhält. Dieser Ansatz bietet folgende Vorteile: • • • •
Begleitung von der Analyse über die Planung bis zur Umsetzung Konsequente Orientierung der Planung an einer Umsetzung Honorierung nur bei erfolgreicher Umsetzung Einmaliger Honorarbetrag geringer als jährliche Kosteneinsparung.
422
A. Fügenschuh, A. Martin, C. Mehlert, P. Stöveken
Das Planungs- und Honorarkonzept wurde 2002 nach der Umsetzung im Landkreis Uecker-Randow mit dem 1. ÖPNV-Innovationspreis unter der Schirmherrschaft des Bundesministeriums für Verkehr, Bau- und Wohnungswesen ausgezeichnet. 1.3 Projektablauf Planung und Umsetzung einer ÖPNV-Optimierung erfolgen in zwei Stufen. In einer ersten Stufe wird eine Vorstudie erstellt. In dieser Machbarkeitsuntersuchung ist ein Konzept zur Schulzeitstaffelung sowie zur Optimierung der Fahr- und Umlaufplanung zu erarbeiten. Das daraus ermittelte Einsparungspotenzial bildet die Entscheidungsgrundlage bezüglich einer Umsetzung. Die Bearbeitungszeit für die Vorstudie beträgt etwa zwei Monate. Bei fachlicher und politischer Zustimmung erfolgt in einer zweiten Stufe die Umsetzung im Rahmen eines Werkvertrages mit erfolgsabhängiger Honorierung. Erfahrungsgemäß liegt dabei der Schwerpunkt auf der Abstimmung der neuen Unterrichtszeiten mit Schulleitern, Lehrern, Eltern und Schülern. Diese Phase ist von äußerst komplexen Kommunikationsund Moderationsprozessen geprägt. Im Anschluss erfolgt die Begleitung des Verkehrsunternehmens bei der rechnergestützten Optimierung der Fahr- und Umlaufplanung. Für die Umsetzung ist im Regelfall ein Zeitraum von etwa acht bis zehn Monaten einzukalkulieren. 1.4 Praxiserfahrungen Inzwischen liegen Erfahrungen aus über zwei Dutzend Vorstudien vor. In allen Fällen, in denen die Auftraggeber aufgrund der erzielbaren Kostenreduzierungen bei gleicher Angebotsqualität eine Umsetzung entschieden haben, konnte die Planung auch erfolgreich realisiert werden. Die Erfahrungen reichen von dünn besiedelten Landkreisen in den neuen Bundesländern bis zu Großstädten in den alten Bundesländern. Auftraggeber sind sowohl Aufgabenträger als auch Verkehrsunternehmen, die sich auf den Wettbewerb vorbereiten. Die Planungen betreffen private und kommunale Busdienste sowie Bahnbus-Nachfolgegesellschaften. Im Regelfall ist dabei die Schülerbeförderung in den öffentlichen Linienverkehr integriert. Bei den fünf erfolgreichen Umsetzungen werden Vorhaltekosten für vier bis 14 Fahrzeuge in einer Größenordnung von 150.000 bis 700.000 Euro pro Jahr gespart (Beispiel siehe Abb. 3). Die Gesamtprojektdauer lag zwischen sechs Monaten bei Umsetzungen in Städten und zwei Jahren bei stufenweisen Umsetzungen in ländlichen Regionen.
Ein Planungstool zur Schulzeitstaffelung
423
Abb. 3. Tagesganglinien vor (ist) und nach (plan) der Optimierung
2
Auf dem Weg zu einem Planungstool
Das Auffinden von „vernünftigen“ Plänen und das Nachbessern ist ein hochkomplexes Unterfangen, da man als Planer stets Überblick über das gesamte Problem behalten muss. Ein Gefühl für die Größenordnung vermitteln die folgenden Eckdaten: Im Allgemeinen hat ein Landkreis 5.000 – 15.000 Schüler, die etwa 50 – 150 Schulen besuchen. Der durchschnittliche Schulweg hat eine Länge von 10 km, jedoch gibt es auch vereinzelt Schüler, die bis zu 30 km zwei Mal täglich zwischen Schule und Elternhaus pendeln, und dabei ein oder gar zwei Mal umsteigen müssen. Für die Schülerbeförderung werden zwischen 40 und 200 Fahrzeuge eingesetzt, die zwischen 100 und 500 Fahrten durchführen, je nach Größe des Landkreises. Dieses Beförderungsproblem muss der Planer zusätzlich in Einklang bringen mit den Möglichkeiten, die eine Veränderung hinsichtlich der Schulanfangszeiten innerhalb eines Zeitfensters von einer Stunde bietet. Aus diesem Grund entstand die Idee, mit Hilfe eines EDV-gestützten, automatischen Planungstools die Suche nach Lösungen zu vereinfachen.
424
A. Fügenschuh, A. Martin, C. Mehlert, P. Stöveken
2.1 Literatur Transportprobleme mit speziellem Fokus auf den Schülerverkehr wurden von verschiedenen Forschern in den letzten 20 Jahren untersucht, siehe zum Beispiel Bodin und Berman [2], Bowerman et al. [3], Braca et al. [4], Corberan et al. [5], Desaulniers et al. [8] oder Spada et al. [11], um nur einige zu nennen. In diesen Arbeiten wurden, ausgehend von der Nachfrage (d.h. Schüler, die von bestimmten Wohnorten zu bestimmten Schulen befördert werden müssen) unterschiedliche mathematische Modelle aufgestellt und gelöst. Die Lösung eines dieser Modelle entspricht dabei einem Nahverkehrs-Angebot, welches die Nachfrage befriedigt, also alle Schüler rechtzeitig zur Schule befördert. Die Modelle unterscheiden sich im Wesentlichen durch den Detailgrad, mit dem das Problem in der mathematischen Welt abgebildet wird; so sind zum Beispiel bei einigen Modellen die Fahrtstrecken (Linienplanungen) oder die Lage der Haltestellen variabel. Hieran ist zu ersehen, dass sich diese Arbeiten auf Länder wie die USA, Kanada, Spanien oder die Schweiz beziehen, in denen die Schüler überwiegend oder ausschließlich in speziellen Schulbussen befördert werden. Die dort betrachteten Rahmenbedingungen (wie Linien- oder Haltestellenplanung) sind allerdings nicht auf die deutschen Verhältnisse übertragbar, da hier zu Lande Schüler zumeist im Linienverkehr befördert werden. Zudem taucht die Schulanfangszeit als Freiheitsgrad der Optimierung in keinem der Modelle auf. Es musste aus diesen Gründen ein neues Planungsmodell entwickelt werden. 2.2 Rechtliche Grundlagen Die rechtliche Grundlage für eine integrierte Optimierung, welche Schulanfangszeiten und Nahverkehrsangebot gemeinsam betrachtet, bilden verschiedene Gesetze und Verwaltungsvorschriften, die von den jeweiligen Ländern und Landkreisen erlassen werden. Betrachten wir als Beispiel Mecklenburg-Vorpommern und den Landkreis Demmin, so sind dies: das Schulgesetz des Landes [10], eine Regelung des Landkreises bezüglich der Kostenübernahme [9] und eine Verwaltungsvorschrift des Landes zur Schulorganisation [7]. In diesen wird u. a. der zeitliche Rahmen für den Schulanfang geregelt sowie maximale Wartezeiten für die Schüler vor Schulbeginn und nach Schulende festgelegt.
Ein Planungstool zur Schulzeitstaffelung
425
2.3 Anforderungen an ein Planungstool Nach zahlreichen Diskussionen haben wir aus diesen Verwaltungsvorschriften sowie den verkehrlichen und betrieblichen Rahmenbedingungen des ÖPNV ein mathematisches Planungsmodell abgeleitet, welches als Variablen die Umläufe der Fahrzeuge (Busse), die Startzeiten der Fahrten und die Anfangszeiten der Schulen berücksichtigt. Diese Variablen sind nicht unanhängig voneinander, sondern durch Nebenbedingungen aneinander gekoppelt. Zu berücksichtigen sind im Einzelnen: Der (gesetzliche) Rahmen für die Schulanfangszeit (7:30 – 8:30 Uhr), die Mindest- und Höchstübergangszeiten für Schüler von der Schulbushaltestelle zur Schule, die Mindest- und Höchstwartezeiten für Schüler an Umsteigehaltestellen und früheste und späteste Abfahrzeiten der Fahrten. Unter allen Lösungen, die diesen Randbedingungen genügen, suchen wir diejenige mit der kleinsten Zahl an eingesetzten Fahrzeugen sowie den kürzesten Umsetzfahrten.
3
Modellbildung
Aus Sicht des Operations Research kann das oben skizzierte Planungsproblem als ein ganzzahliges Programm mit linearen Nebenbedingungen und linearer Zielfunktion modelliert werden. Sei V die Menge aller Fahrten und V die Menge aller Schulen des zu untersuchenden Landkreises. Eine Fahrt t ist eine Liste von Haltestellen, wobei jeder Haltestelle dieser Liste eine Ankunft- und Abfahrtszeit zugeordnet ist. Die Startzeit der Fahrt t ∈ V , d.h. die Abfahrtzeit eines Busses an der ersten Haltestelle dieser Fahrt, wird festgelegt durch die ganzzahlige Variable α t ∈ Z + , welche innerhalb eines gegebenen Zeitfensters α t ,α t ∈ Z + liegen muss: α t ≤ α t ≤ α t . Analog dazu gibt es für jede Schule s ∈ S ein Zeitfenster τ s,τ s ∈ Z + mit τ s ≤ τ s , innerhalb dessen die Schulanfangszeit liegen muss. Die Anfangszeit der Schule muss im Allgemeinen ein Vielfaches von 5 (Minuten) sein, d.h. die Schule soll um 7:30 oder 7:35 beginnen, nicht aber um 7:32 Uhr. Für jede Schule s führen wir daher eine ganzzahlige Variable τ s ∈ Z + mit τ s ≤ 5 ⋅ τ s ≤ τ s ein, so dass die Schulanfangszeit als 5 ⋅ τ s gegeben ist. Wenn eine Fahrt t Schüler zu einer Haltestelle von Schule s befördert, dann wird t als Schülerfahrt für Schule s bezeichnet. Sei P ⊂ S × T die Menge aller Schülerfahrten. Die Fahrzeit von der ersten Haltestelle bis zur Schulhaltestelle ist gegeben durch δstschool . Für die Übergangszeit der Schüler von der Schulhalschool
testelle bis zur Schule ist das Zeitfenster ω st
school
,ω st
∈ Z + mit
426
A. Fügenschuh, A. Martin, C. Mehlert, P. Stöveken
school
ω st
school
school
≤ ω st
vorgegeben. Die untere Schranke ω st ist dabei die Zeit, die Schüler mindestens benötigen, um die Strecke zu Fuß zurückzulegen, school
die obere Schranke ω st ist durch gesetzliche Vorschriften vorgebenen (z.B. 30 Minuten für Grundschüler und 60 Minuten für Oberstufenschüler). Damit die Busse relativ zur Schulanfangszeit innerhalb dieses Zeitfenster an der Schulhaltestelle ankommen, enthält das Modell die folgenden Nebenbedingungen: school
≤ 5 ⋅ τ s,
school
≥ 5 ⋅ τ s.
α t + δstschool + ω st α t + δstschool + ω st
(1)
Nicht alle Schüler sind in der glücklichen Lage, ihre Schule mittels eines einzigen Busses zu erreichen. Sei C ⊂ V × V die Menge aller Umsteigebeziehungen. Das heißt: Falls es Schüler gibt, die auf ihrem Schulweg von Fahrt t1 zur Fahrt t 2 umsteigen müssen (an einer Umsteigehaltestelle), dann ist (t1,t 2 ) ∈ C . Wir nennen dann t1 eine Zubringerfahrt für die Abholerfahrt t 2 . Die Zeit, welche die Zubringerfahrt t1 von der ersten Halte∈ Z+. stelle bis zur Umsteigehaltestelle benötigt, ist gegeben durch δtfeeder 1t2 Für die Abholerfahrt t 2 ist diese Fahrzeit entsprechend gegeben durch δtcollector ∈ Z + . Die minimale und die maximale Wartezeit für Umsteiger 1t2 an dieser Haltestelle ist gegeben durch das Zeitfenster change
change
change
change
ω t1 t 2 ,ω t1 t2 ∈ Z + mit ω t1 t 2 ≤ ω t1 t2 . Ist (t1,t 2 ) ∈ C , so muss die Fahrt t 2 an der Umsteigehaltestelle nach Fahrt t1 innerhalb des gegebenen Zeitfensters ankommen. Diese Synchronisation wird durch die folgende Nebenbedingung des Modells gewährleistet:
α t1 + δtfeeder + ω t1 t 2 1t2
change
≤ α t2 + δtcollector , 1t2
change
≥ α t2 + δtcollector . 1t2
+ ω t1 t 2 α t1 + δtfeeder 1t2
(2)
Sobald ein Bus die Bedienung einer Fahrt beendet hat, steht er entweder für die Bedienung einer weiteren Fahrt zur Verfügung oder er wird zurück ins Depot geschickt. Die Fahrt ohne Passagiere von der letzten Haltestelle von Fahrt t1 zur ersten Haltestelle von Fahrt t 2 wird auch als Umsetzfahrt oder Leerfahrt bezeichnet. Sei A ⊂ V × V die Menge aller Fahrten (t1,t 2 ) , die durch eine Umsetzfahrt verknüpft werden können. Die Verbindung mehrerer Fahrten durch Leerfahrten, die später durch denselben Bus bedient werden, wird als Block oder Umlauf bezeichnet. Für die Verbindung zweier Fahrten (t1,t 2 ) ∈ A in einem Block benutzen wir die Variable
Ein Planungstool zur Schulzeitstaffelung
427
x t1 t 2 ∈ {0,1} , wobei x t1 t 2 = 1 genau dann, wenn t 2 direkt nach t1 durch den gleichen Bus bedient wird. Die Zeit, die der Bus braucht, um die Fahrt t zu bedienen, d.h. um von der ersten zur letzten Haltestelle zu fahren, ist gegeben durch δttrip ∈ Z + . Die Fahrzeit für die Umsetzfahrt ist gegeben durch δtshift ∈ Z + für alle (t1,t 2 ) ∈ A . Sobald zwei Fahrten t1 und t 2 ver1 t2 bunden sind, kann Fahrt t 2 erst starten, nachdem der Bus die Fahrt t1 beendet und die Umsetzfahrt von der Endhaltestelle von t1 zur Anfangshaltestelle von t 2 abgeschlossen hat. Warten ist erlaubt, falls der Bus vor dem Start von t 2 dort ankommt. Diese (nichtlineare) Bedingung kann als lineare Ungleichung formuliert werden, wobei M eine hinreichend große Zahl ist:
α t1 + δttrip + δtshift − M ≤ α t2 − M ⋅ x t1 t 2 . 1 1t2
(3)
Für jede Fahrt t ∈ V führen wir eine Entscheidungsvariable v t ∈ {0,1} ein, wobei v t = 1 genau dann, wenn t die erste Fahrt innerhalb eines Blocks ist. Entsprechend sei w t ∈ {0,1} eine Entscheidungsvariable mit w t = 1 genau dann, wenn t die letzte Fahrt in einem Block ist. In einer zulässigen Lösung des Problems muss jede Fahrt von genau einem Bus bedient werden. Jede Fahrt t 2 hat daher entweder eine eindeutige Vorgängerfahrt, oder sie ist die erste in einem Block:
∑x
t1 t 2 t1 :(t1 ,t 2 )∈A
+ v t 2 = 1.
(4)
Entsprechend hat jede Fahrt t1 entweder genau eine Nachfolgerfahrt, oder sie ist die letzte innerhalb eines Blocks:
∑x
t1 t 2 t 2 :(t1 ,t 2 )∈A
+ w t1 = 1.
(5)
Das wichtigste Ziel ist die Einsparung von Bussen, ein nachgeordnetes Ziel ist ein möglichst effizienter Einsatz der Busse bezüglich der Leerfahrzeiten. Für eine hinreichend große Zahl C können diese Ziele durch die folgende bikriterielle Zielfunktion abgebildet werden:
⎞ ⎛ ⎞ ⎛ ⎟ z = min C ⋅ ⎜ ∑ v t ⎟ + ⎜⎜ ∑ (δtout ⋅ v t + δtin ⋅ w t ) + ∑δtshift ⋅ x t1 t 2 ⎟ 1t2 ⎝ t ∈V ⎠ ⎝ t ∈V (t1 ,t 2 )∈A ⎠
(6)
428
A. Fügenschuh, A. Martin, C. Mehlert, P. Stöveken
wobei δtout ,δtin die Zeit für die Ein- bzw. Aussetzfahrten bezeichnet.1 Dieses sind die Leerfahrten vom Depot zur Starthaltestelle von Fahrt t bzw. von der Endhaltestelle zurück zum Depot. Zusammengefasst besteht das Modell damit aus der Zielfunktion (6), welche unter Berücksichtigung der linearen Nebenbedingungen (1) – (5) und der Ganzzahligkeitsbedingung der Variablen zu minimieren ist. Als wichtiges Teilproblem entdeckt man in diesem Modell das bekannte Tourenplanungsproblem mit Zeitfenstern (Vehicle Routing with Time Windows, VRPTW, siehe zum Beispiel [6]). Der mathematisch neue Aspekt sind Kopplungsbedingungen auf den Abfahrtszeiten, die bislang nicht in VRPTW-Modellen vorkamen, und die von uns eingehend untersucht wurden. Dabei kamen mathematische Theorien zum Einsatz (zum Beispiel [1], siehe Abschnitt 4.1), die bislang noch nicht im Zusammenhang mit angewandten Fragestellungen eingesetzt wurden.
4
Lösungsalgorithmen
Zum Lösen ganzzahliger linearer Programme gibt es zahlreiche kommerzielle Programme (wie CPlex oder XPress), die in den letzten Jahren immer schneller immer größere Probleme lösen können. Dennoch sind diese Programme beim gegenwärtigen Stand der Technik immer noch nicht in der Lage, unsere Modelle für Datensätze aus mittelgroßen bis großen Landkreisen in annehmbarer Zeit zu lösen. Daher haben wir eine Heuristik zur Lösung des Modells entwickelt, die in der Lage ist, qualitativ hochwertige Lösungen (in Bezug auf die gegebenen Ziele) in kurzer Zeit zu berechnen (typischerweise in wenigen Sekunden auf einem handelsüblichen PC). Ein wichtiger Teilschritt dieser Heuristik ist ein Verfahrung zur Verschärfung von Schranken auf den Variablen für die Fahrt- bzw. Schulanfangszeiten α bzw. τ . 4.1 Verschärfung der Schranken Das aus den Nebenbedingungen (1), (2) und (3) (wobei (3) nur für solche (t1,t 2 ) ∈ A mit x t1 t 2 = 1) sowie den trivialen Schranken α ≤ α ≤ α ,
τ ≤ 5 ⋅ τ ≤ τ bestehende Teilsystem des Modells ist ein monotones IP2, 1
Man beachte, dass die Einsetzfahrten im englischen pull-out trips und die Aussetzfahrten pull-in trips heißen, woraus sich die „verkehrte“ Bezeichnung der Parameter ableitet.
Ein Planungstool zur Schulzeitstaffelung
429
d.h. ein linear-ganzzahliges Programm mit höchstens zwei von Null verschiedenen Koeffizienten je Ungleichung. Es wird monoton genannt, da in jenen Ungleichungen mit zwei von Null verschiedenen Koeffizienten genau einer positiv und der andere negativ ist. Um für derartige System zulässige Lösungen zu konstruieren oder um zu zeigen, dass es keine solchen gibt, haben Bar-Yehuda und Rawitz [1] das im Folgenden beschriebene Verfahren entwickelt. Gegeben seien die ganzzahligen Variablen y i ∈ Z für i = 1,. ,n (dieses sind die Variablen α und τ in unserem Modell) mit den Schranken li ≤ y i ≤ ui , und das monotone Ungleichungssystem ak y ik + bk y j k ≤ c k mit ak ⋅ bk < 0 für k = 1,. ,m . Der zentrale Schritt des Algorithmus ist die Verwendung von Constraint Propagation, um den Einfluss der Ungleichung k und den Schranken lik ,uik auf die Schranken l j k ,u jk zu bestimmen. Ist ak > 0 und bk < 0 , dann erhalten wir eine verbesserte untere Schranke für y jk durch die Setzung
⎧ ⎡c k − ak li ⎤⎫ k l j k := max⎨ l j k ,⎢ ⎥⎬. b ⎢ ⎥⎭ ⎩ k
(7)
Andernfalls, für ak < 0 und bk > 0 , erhalten wir eine verbesserte obere Schranke für y jk durch
⎧ ⎢ c k − ak ui ⎥⎫ k u jk := min⎨ u j k ,⎢ ⎥⎬. b ⎦⎭ ⎩ ⎣ k
(8)
(Für den Einfluss der Schranken ljk,ujk auf die Schranken lik,uik können analoge Formeln hergeleitet werden.) Diese beiden Schritte (7) und (8) werden jetzt iterativ für alle Variablen so lange wiederholt, bis sich keine Schranke mehr verbessern lässt. Tritt im Verlauf des Verfahrens der Fall u jk < l j k ein, so ist das System unzulässig. Bar-Yehuda und Rawitz haben gezeigt, dass dieses Verfahren so implementiert werden kann, dass die Laufzeitkomplexität O(mU) beträgt, mit U := max{ui − li : i = 1,. ,n} . Wir benutzen dieses Verfahren innerhalb unserer Heuristik einerseits am Anfang, um zu entscheiden, ob es überhaupt zulässige Lösungen gibt. Im weiteren Verlauf werden in jedem Schritt der Heuristik Schranken der Variablen geändert, so dass diese Auswirkungen auf andere Variablen auch mittels dieses Verfahrens berechnet werden müssen.
430
A. Fügenschuh, A. Martin, C. Mehlert, P. Stöveken
4.2 Eine parametrische Greedy-Heuristik Greedy-artige Konstruktionsheuristiken zur Lösung von Optimierungsproblemen finden sich oftmals in Softwarepaketen, bei denen die Lösung des Problems in möglichst kurzer Zeit im Vordergrund steht. Ziel einer solchen Heuristik ist es, eine Lösung schrittweise aufzubauen, ohne dabei, was sie von den Verbesserungsheuristiken unterscheidet, auf eine bereits vorhandene Lösung zurückzugreifen. In jedem Schritt der Heuristik werden Lösungskomponenten anhand einer Bewertungsfunktion bewertet, und die bezüglich dieses Maßes beste Komponente zur partiellen Lösung hinzugefügt. Beispiele für derartige Heuristiken sind die Nächste-NachbarHeuristik für das Traveling Salesman Problem (TSP), der DijkstraAlgorithmus zur Bestimmung kürzester Wege in Graphen oder der Kruskal-Algorithmus für minimal aufspannende Bäume. In den letzten beiden Fällen kann man sogar beweisen, dass die Verwendung bestimmter Greedy-Heuristiken stets zu einer globalen Optimallösung führt. Für die Güte der durch eine Greedy-Heuristik gefundenen Lösung ist es entscheidend, mit welchem lokalen Suchkriterium das Verfahren arbeitet. In jedem Schritt unserer Heuristik wird die „Greedy-beste“ Umsetzfahrt ermittelt:
(t1* ,t2* ) = argmin{st1 t2 : (t1,t 2 ) ∈ A},
(9)
wobei st1 t 2 eine Bewertungsfunktion ist, welche eine Aussage darüber trifft, wie gut die beiden Fahrten t1,t 2 in einem gemeinsamen Block zu, so erhält man die besammenpassen. Setzt man zum Beispiel st1 t 2 := δtshift 1t2 kannte Strategie, stets den nächstgelegenen Nachbarn in eine Tour einzufügen. In unserem Fall aber, bedingt durch die Kopplungsbedingungen der Zeitfenster untereinander, führt dieses zu Lösungen mit verhältnismäßig vielen Fahrzeugen. Wesentlich bessere Ergebnisse haben wir mit folgender Maßfunktion erzielt:
st1 t 2 (λ) :=
λ1 ⋅ δtshift 1t2
+ λ2 ⋅ α t1 + δttrip + δtshift − α t2 1 1t2 + λ3 ⋅ α t1 + δttrip + δtshift − α t2 1 1t2 + λ4 ⋅ α t1 + δ
trip t1
+δ
shift t1 t 2
(10)
− α t2
+ λ5 ⋅ α t1 + δttrip + δtshift − α t2 , 1 1t2 wobei λ = (λ1,. ,λ5 ) ∈ [0,1]5 Gewichte der Summanden sind, mit denen sich die Heuristik steuern lässt (siehe 4.2). Für fest gewähltes λ ist die
Ein Planungstool zur Schulzeitstaffelung
431
Idee hinter dieser Definition die folgende: Der zweite bis letzte Summand in (10) liefern keinen Beitrag zur Bewertungsfunktion, falls die Zeitfenster der Fahrten t1 und t 2 exakt zusammenpassen in dem Sinn, dass ein Bus nach der Bedienung von Fahrt t1 und der Leerfahrt an der ersten Haltestelle von Fahrt t 2 genau zur Startzeit von t 2 zur Verfügung steht, d.h. α t1 + δttrip + δtshift = α t2 , α t1 + δttrip + δtshift = α t2 , α t1 + δttrip + δtshift = α t2 1 1t2 1 1t2 1 1t2
und α t1 + δttrip + δtshift = α t2 . Daher kann die Bewertung (10) als eine Art 1 1t2 zeitsensitive Nächster-Nachbar-Strategie gesehen werden. Die auf diese Weise ermittelten Fahrten (t1* ,t 2* ) ∈ A werden verknüpft, indem zunächst x t * t * = 1 gesetzt wird. Durch dieses verändern sich poten1 2
ziell die Zeitfenster weiterer Fahrten bzw. Schulen, so dass an dieser Stelle das Constraint-Propagation-Verfahren aufgerufen wird, um alle Zeitfenster entsprechend anzupassen. Dadurch erhalten wir entweder das Ergebnis, dass (t1* ,t 2* ) eine unzulässige Leerfahrt war. In diesem Fall setzen wir x t * t * = 0 , entfernen (t1* ,t 2* ) aus der Menge A und suchen die nächst-beste 1 2
Umsetzfahrt. Andernfalls erhalten wir die verbesserten (verkleinerten) Schranken auf den Zeitfenstern, wodurch sich ggfs. zusätzliche Entscheidungsvariablen fixieren lassen. Die beschriebenen Schritte werden so lange wiederholt, bis alle Entscheidungsvariablen v,w, x entweder auf Null oder Eins fixiert sind. Am Ende dieses Verfahrens erhält man eine Einteilung der Fahrten in Blöcke sowie entsprechend angepasste Zeitfenster, d.h. die unteren und oberen Schranken α,α und τ,τ wurden im Laufe des Verfahrens ständig geändert und die Differenz zwischen der jeweiligen oberen und unteren Schranke ist jetzt in der Regel deutlich geringer als zu Beginn des Verfahrens. Innerhalb dieser geänderten Zeitfenster werden in einem abschließenden Schritt konkrete Anfangszeiten für die Schulen und die Fahrten gewählt, wobei wiederum eine Reihe von IP2-Systemen gelöst werden muss. Wir beginnen mit den Schulen und unterscheiden drei Fälle. Liegt die gegenwärtige Schulanfangszeit τˆ s der Schule s ∈ S unterhalb der unteren Schranke τ s , dann legen wir die Schulanfangszeit auf die untere Schranke, d.h. wir setzen τ s = 15 τ s. Damit beginn die Schule zukünftig zur Zeit τ s . Liegt die gegenwärtige Schulanfangszeit oberhalb der oberen Schranke τ s , dann legen wir die Schulanfangszeit auf die obere Schranke, d.h. wir setzen τ s = 15 τ s. Damit beginnt die Schule zukünftig zur Zeit τ s . Liegt die gegenwärtige Schulanfangszeit zwischen der unteren und oberen Schran-
432
A. Fügenschuh, A. Martin, C. Mehlert, P. Stöveken
ke, also τ s ≤ τˆ s ≤ τ s, dann braucht die gegenwärtige Anfangszeit nicht verändert zu werden, d.h. wir setzen τ s = 15 τˆ s , und die Schule s startet wie gewohnt zum Zeitpunkt τˆ s. Die Idee hinter diesem Verfahren ist es, die zukünftige Anfangszeit möglichst nahe an der gegenwärtigen Anfangszeit zu halten, da davon auszugehen ist, dass Schüler, deren Familien sowie die Lehrer ihr Leben an diese Zeiten bereits angepasst haben. Nach jeder Setzung einer Schulanfangszeit auf die beschriebene Weise muss wieder das Verfahren zur Verbesserung der Variablen-Schranken aufgerufen werden, um die Veränderungen auf die anderen Schulen sowie die Anfangszeiten der Fahrten zu berechnen. Nachdem die Schulanfangszeiten festgelegt sind, werden die Anfangszeiten der Fahrten auf ähnliche Weise innerhalb der entsprechenden Zeitfenster gewählt. 4.3 Lokale Suche mit Improving Hit-and-Run Wenn die Heuristik letztlich terminiert, erhalten wir eine zulässige Lösung des Problems (v,w, x,α,τ ) . Diese Lösung, und damit ihr Zielfunktionswert z heur (λ) , hängt wesentlich von der Wahl der Gewichte λ ab. Wir stehen somit vor dem Problem, einen Gewichtsvektor λ zu finden, der zu einer Lösung mit möglichst kleinem Zielfunktionswert z heur (λ) führt. Es hat sich herausgestellt, dass sowohl zufälliges Ausprobieren von Werten als auch eine reguläre Zerlegung des 5-dimensionalen Einheitswürfels [0,1]5 nicht effizient genug sind, um schnell an gute Lösungen zu gelangen. Statt dessen verwenden wir improving hit-and-run (IHR), ein Verfahren der Globalen Optimierung von Zabinsky et al. [14]. IHR wird benutzt, um Gewichte λ zu bestimmen, mit denen dann die Greedy-Heuristik als Black-Box aufgerufen wird. Gegeben sei das globale Optimierungsproblem
min{z(λ) : λ ∈ X}
(11)
wobei X ⊂ Rn eine beschränkte, nicht-leere Menge zulässiger Lösungen und z : X → R eine reellwertige Zielfunktion ist. Die zentrale Idee von IHR ist es, auf eine bestimmte Art einen zufälligen Kandidatenpunkt zu generieren und diesen nur dann zu akzeptieren, falls er die Zielfunktion verbessert. In unserem Fall ist die Menge der zulässigen Punkte X in (11) das Gebiet der Gewichte X := [0,1]5 , dem Auswerten der Zielfunktion entspricht ein Aufruf der Greedy-Heuristik. Allgemein funktioniert der IHR-Algorithmus wie folgt. Wir starten mit einer Initiallösung λ0 ∈ X und setzen den Iterationszähler k := 0 . Die
Ein Planungstool zur Schulzeitstaffelung
433
nun folgenden Schritte werden wiederholt, bis ein Stop-Kriterium erfüllt ist, zum Beispiel, die Anzahl der Iterationen erreicht ein voreingestelltes Limit. Es wird ein zufälliger Richtungsvektor dk , gleichverteilt auf dem Rand der Einheitshypersphäre S n := {λ ∈ R n : λ 2 = 1} , erzeugt. Mittels dessen wird jetzt ein Kandidatenpunkt w k +1 := λk + t ⋅ dk erzeugt, wobei t gleichverteilt auf der Linienmenge Lk := {λ ∈ X : λ = λk + t ⋅ dk ,t ∈ R + } gezogen wird. Stellt der Kandidatenpunkt eine Verbesserung der Zielfunktion dar, d.h. z(w k +1 ) < z(λk ) , so setzen wir λk +1 := w k , andernfalls λk +1 := λk . Abschließend wird k um 1 erhöht. Man beachte, dass argmin{st1 t 2 (λ) : (t1,t 2 ) ∈ A} = argmin{st1 t 2 (cλ) : (t1,t2 ) ∈ A} für alle c > 0 . Das bedeutet, dass die gleiche Umsetzfahrt (t1,t 2 ) gewählt wird, sobald der Gewichtungsvektor nur linear skaliert wird. Um die wiederholte Berechnung derselben Lösung zu vermeiden, bietet es sich an, das Gebiet der Gewichte X in (11) so einzuschränken, dass nur solche Vektoren darin enthalten sind, die nicht positives Vielfaches eines anderen Vektors sind. Dieses kann zum Beispiel durch Verwendung des Standardsimplex X := {λ ∈ Rn+ : λ1 + . + λn = 1} erreicht werden.
5
Das Planungstool im Praxiseinsatz
Die beschriebene Heuristik wurde entwickelt und getestet anhand von Datensätzen aus verschiedenen Landkreisen, in denen BPI-Consult in den vergangenen Jahres beratend tätig war. Instanz ct_1 stammt aus einem Landkreis in Mecklenburg-Vorpommern, Instanz ct_4 aus SachsenAnhalt und die Instanzen ct_2, ct_3 und ct_5 aus verschiedenen Landkreisen in Nordrhein-Westfalen. Die Rechenzeit der Heuristik ist maßgeblich beeinflusst durch die jeweilige Anzahl der zu bedienenden Fahrten V , welches daher entscheidende Kennzahl zur Bewertung der Größe einer Instanz ist. Da prinzipiell jede Fahrt mit jeder anderen verknüpft werden kann, enthält die Menge A stets V ⋅ (V −1) viele Fahrten. Die Anzahl der Schulen S , der Schülerfahrten P sowie der Umsteigebeziehungen C spielt hingegen bei der Rechenzeit des Verfahrens nur eine untergeordnete Rolle.
434
A. Fügenschuh, A. Martin, C. Mehlert, P. Stöveken
Tabelle 1. Problem-Instanzen
V ct_1 ct_2 ct_3 ct_4 ct_5
247 490 192 78 404
A
S
P
C
60.762 239.610 36.672 6.006 162.812
43 102 78 38 84
195 574 263 157 577
165 406 133 0 701
In Abb. 4 finden sich unsere Rechenergebnisse. Die jeweils linke (helle) Säule zeigt die Anzahl Busse im Ist-Zustand, d.h. vor der Optimierung. Die rechte (dunkle) Säule in Abb. 4 zeigt den Plan-Zustand nach der Optimierung. Als Grenze haben wir für jeden Datensatz 1000 IHR-Iterationen (= Anzahl Aufrufe der Heuristik) vorgegeben. Die Rechenzeit ist im Wesentlichen proportional zu A ; ein einzelner Aufruf der Heuristik dauert dabei zwischen einer (für den kleinsten Datensatz ct_4) und 20 Sekunden (für ct_2, den größten Datensatz). Eine Einsparung von 9-31% in der Anzahl der eingesetzten Busse ist mittels des in diesem Artikel vorgestellten Verfahrens (zumindest theoretisch) möglich.
Abb. 4. Rechenergebnisse
Einen beispielhaften Überblick über die Verteilung von Schulanfangszeiten (für ct_3) vor und nach der Optimierung findet sich in Abb. 5. Wie
Ein Planungstool zur Schulzeitstaffelung
435
man sieht, wurde die Häufung von Schulen, die zwischen 7:45 und 8:00 Uhr beginnen, durch die Optimierung aufgelöst. Der gesetzlich vorgegebene Rahmen von 7:30 bis 8:30 Uhr wird vollständig ausgeschöpft.
Abb. 5. Schulanfangszeiten vor und nach der Optimierung in ct_3
Gegenwärtig werden die mit dem automatischen Planungstool generierten Lösungen dahingehend überprüft, ob und wie sie umsetzbar sind und den Abstimmungsprozess in der Praxis vereinfachen können. Hierbei sind vielfältige weitergehende Restriktionen wie Anschlussbeziehungen, Schulkooperationen oder Wendezeitvorgaben zu berücksichtigen. Sollten derartige Restriktionen verletzt sein, muss die generierte Lösung in weiteren Iterationen noch verfeinert werden. Durch den Einsatz des Planungstools wird davon ausgegangen, dass die automatisch generierten Lösungen bei mindestens gleichwertiger Angebotsqualität im Vergleich zur herkömmlichen, manuellen Planung zu geringeren Änderungen der Schulanfangszeiten und gleichzeitig größeren Kosteneinsparungen führen. Dies erhöht deutlich die Umsetzungswahrscheinlichkeit aufgrund reduzierter Widerstände der betroffenen politischen Gremien sowie Schulgremien. Es ist zu erwarten, dass die Mehraufwendungen für die Dateneingabe in das Planungsprogramm durch die Minderaufwendungen im Rahmen des Planungs- und vor allem Abstimmungsprozesses mehr als deutlich überkompensiert werden. Damit würde sich die bereits bestehende Win-Win-Situation für alle Beteiligten nochmals verbessern. Die an der Entwicklung des Planungstool beteiligten Partner aus Wissenschaft und Praxis untersuchen gegenwärtig, inwiefern das Programm zur Optimierung von freigestellten Schülerverkehren und Schülerspezialverkehren eingesetzt werden kann. Auch die Begleitung von Ausschrei-
436
A. Fügenschuh, A. Martin, C. Mehlert, P. Stöveken
bungen von Linienkonzessionen unter der zusätzlichen Berücksichtigung einer Koordinierung der Schulanfangszeit ist zukünftig ein denkbares Anwendungsfeld.
Literatur 1. Bar-Yehuda R, Rawitz D (2001) Efficient algorithms for integer programs with two variables per constraint. Algorithmica 29(4): 595–609 2. Bodin L, Berman L (1979) Routing and Scheduling of School Buses by Computer. Transportation Science 13(2): 113–129 3. Bowerman RL, Hall GB, Calamai PH (1995) A multi-objective optimisation approach to school bus routing problems. Transp. Research A 28(5): 107–123 4. Braca J, Bramel J, Posner B, Simchi-Levi D (1997) A Computerized Approach to the New York City School Bus Routing Problem. IIE Transactions 29: 693–702 5. Corberan A, Fernandez E, Laguna M, Marti R (2000) Heuristic Solutions to the Problem of Routing School Buses with Multiple Objectives. Technical Report TR08-2000, Dep. of Statistics and OR, University of Valencia, Spain 6. Cordeau JF, Desaulniers G, Desrosiers J, Solomon M, Soumis F (2002) VRP with Time Windows. In: Toth P., Vigo D. (Eds.), The Vehicle Routing Problem. SIAM Monogr. on Disc. Math. and Applications. SIAM, Philadelphia 7. Hinweise (2000) zur Schulorganisation für allgemein bildende Schulen. Verwaltungsvorschrift des Ministeriums für Bildung, Wissenschaft und Kultur vom 21. Juli 2000. Aus: Mitteilungsblatt des Ministeriums für Bildung, Wissenschaft und Kultur Mecklenburg-Vorpommern, Nr. 8/2000, S 362–365 8. Desaulniers G, Lavigne J, Soumis F (1998) Multi-depot vehicle scheduling with time windows and waiting costs. European Journal of Operational Research 111: 479–494 9. Satzung (1997) über die Anerkennung der notwendigen Kosten für die Schülerbeförderung des Landkreises Demmin. Aus: Kreisanzeiger des Landkreises Demmin, Nr. 6/97. Amtliche Mitteilungen und Informationen, S 7–8 10. Schulgesetz (2000) Mecklenburg-Vorpommern vom 15.05.1996. Stand Feb. 2000, S 68 11. Spada M, Bierlaire M, Liebling T (2003) Decision-aid Methodology for the School Bus Routing and Scheduling Problem. Conference Paper of the 3rd Swiss Transport Research Conference (SWTR) 12. Stöveken P (2000) Wirtschaftlicherer Schulverkehr: ÖPNV-Optimierung mit erfolgsabhängiger Honorierung. Der Nahverkehr 3: 65–68 13. Stöveken P, Mehlert C (2002) ÖPNV-Optimierung mit erfolgsabhängiger Honorierung. Kommunalwirtschaft, Sonderausgabe Verkehr, S 14–16 14. Zabinsky ZB, Smith RL, McDonald JF, Romeijn HE, Kaufman DE (1993) Improving Hit-and-Run for Global Optimization. Journal of Global Optimization 3: 171–192
IV. Decision Support und OR-Methoden
Entwicklung eines interaktiven SchedulingSupport-Systems für verfahrenstechnische Prozesse Martin Grunow, Hans-Otto Günther, Gang Yang TU Berlin, Produktionsmanagement, Wilmersdorfer Str. 148, 10585 Berlin, [email protected]
Abstract Untersucht werden Probleme der Ablaufplanung und Ressourcenbelegung bei verfahrenstechnischen Prozessen schwerpunktmäßig im Bereich der chemischen und pharmazeutischen Industrie. Berichtet wird über ein von der Deutschen Forschungsgemeinschaft (DFG; Kennzeichen GU 459/3) gefördertes Projekt zur Entwicklung eines simulationsgestützten, interaktiven Scheduling-Support-Systems. Mit Hilfe dieses Systems werden zunächst über ein allgemeines Repräsentationsschema die Produktionsprozesse sowie die eingesetzten Anlagenkonfigurationen erfasst. Hieraus wird dann unter Rückgriff auf eine generische Modellformulierung automatisch ein anwenderspezifisches Modell des zugrunde liegenden betriebswirtschaftlichen Optimierungsproblems generiert. Zur Lösung des Modells wird auf Standardoptimierungssoftware zurückgegriffen. Die ermittelte Lösung wird anschließend in ein Simulationsmodell übernommen. Auf diese Weise kann der Produktionsprozess im Detail nachvollzogen und der erzeugte Belegungsplan unter betriebswirtschaftlichen Gesichtspunkten ausgewertet werden. Die jeweiligen Module sind in einem anwendungsgerechten Planungstool integriert, das die zur Modellierung benötigten Daten weitgehend aus vorhandenen betrieblichen Datenbanken akquiriert und eine interaktive Benutzerführung ermöglicht.
440
1
M. Grunow, H.-O. Günther, G. Yang
Einleitung
Die Prozessindustrie, die in Deutschland mit einem Anteil von 31% an der Bruttowertschöpfung des verarbeitenden Gewerbes eine herausragende Stellung einnimmt (Statistisches Bundesamt, Fachserie 18, 2002), stellt einen der bedeutendsten Wirtschaftssektoren dar. Vor allem die chemische und pharmazeutische Industrie sind durch den Einsatz kapitalintensiver, verfahrenstechnischer Prozesse geprägt. Einerseits finden sich dort kontinuierliche Produktionsprozesse (z.B. in der Mineralölindustrie oder der Herstellung von Dünge- und Pflanzenschutzmitteln), andererseits werden Spezialchemikalien in Chargen- bzw. Batchproduktion hergestellt. Die Einsatzplanung der Produktionsanlagen, die Bildung von Kampagnen sowie die logistische Koordination der verschiedenen Produktionsstufen stellen äußerst komplexe Optimierungsprobleme dar. Bisher ist die wissenschaftliche Literatur zur Ablaufplanung von Produktionsprozessen überwiegend an der Produktion von Stückgütern und an mechanischen Fertigungsprozessen orientiert. Für die Ressourceneinsatz- und Ablaufplanung bei verfahrenstechnischen Prozessen sind Lösungsansätze jedoch nur dann geeignet, wenn die folgenden Besonderheiten erfasst werden, durch die sich die verfahrensstechnische von der stückgutorientierten Produktion maßgeblich unterscheidet (vgl. Reklaitis et al. 1996): • vernetzte, teilweise zyklische Materialflüsse, • mehrstufige Produktion unter Einsatz variabel konfigurierbarer Mehrzweckanlagen (Vielstoffanlagen), • Kuppelproduktion sowie Mischprozesse mit starren bzw. flexiblen Mengenverhältnissen, • Lagerung von Zwischenprodukten in produktspezifischen Tanks, Silos o.ä. mit beschränktem Fassungsvermögen, • begrenzte Haltbarkeit von Zwischenprodukten sowie nicht-unterbrechbare Produktionsvorgänge, • sowohl kontinuierliche als auch chargenweise Produktion (Batchproduktion), die oftmals in Kampagnenfahrweise betrieben wird, • minimale bzw. maximale Batchgrößen mit konstanten (d.h. von der Batchgröße unabhängigen) Laufzeiten, • reihenfolge- bzw. einsatzdauerabhängige Reinigungsprozesse. Gerade bei verfahrenstechnischen Prozessen erscheint der Rückgriff auf formale Planungsmethoden geboten. Zum einen sind die Produktionsprozesse oft so komplex, dass eine auf „Trial and Error“ beruhende Planung sehr schnell an ihre Grenzen stößt und angesichts der im Vergleich zur Fertigungsindustrie besonders hohen Kapitalintensität äußerst bedenklich
Entwicklung eines interaktiven Scheduling-Support-Systems
441
erscheint. Andererseits begünstigen gerade der hohe Automatisierungsgrad und die häufig anzutreffenden Systeme der Prozessleittechnik die Anwendung qualifizierter formaler Methoden ungemein. Planungsansätze für die Prozessindustrie müssen jedoch auf die Besonderheiten der zugrunde liegenden Produktionstechnologien eingehen (cf. Honkomp et al. 2000). Eine Übertragung von Planungsansätzen aus der stückgutorientierten Produktion ist allenfalls auf der mittelfristigen, aggregierten Planungsebene (Supply-Network-Planning) möglich. Ein anwendungsgerechtes interaktives Scheduling-Support-System für verfahrenstechnische Prozesse muss die folgenden Hauptfunktionen erfüllen, für die bisher nur teilweise geeignete Lösungsansätze zur Verfügung stehen: • Zur Erfassung der zugrunde liegenden Produktionsprozesse sowie der eingesetzten Anlagenkonfigurationen wird ein allgemeines Repräsentationsschema benötigt. Hierzu ist das auf Kondili et al. (1993) zurückgehende „state-task-network“ Konzept geeignet, das in Blömer und Günther (1998 u. 2000) aufgegriffen und erweitert wurde. • Aus einem allgemeinen Repräsentationsschema lässt sich unter Rückgriff auf eine generische Modellformulierung ein anwenderspezifisches Modell des zugrunde liegenden betriebswirtschaftlichen Optimierungsproblems generieren. Als klassische Modellierung der Ressourceneinsatz- und Ablaufplanung in der Prozessindustrie kann die Mathematische Optimierung (MILP, mixed-integer linear programming) angesehen werden (Kallrath 2002). Ihre Hauptvorteile liegen in der hohen Flexibilität des Modellierungsinstrumentariums und im breiten Angebot von Softwareprodukten (z.B. ILOG CPLEX) mit leistungsfähigen, problemunabhängigen Lösungsverfahren. • Die computergestützte Simulation (discrete event simulation) bildet einen wesentlichen Bestandteil eines interaktiven Scheduling-SupportSystems. Die Simulation verfolgt nicht die Optimierung eines Formalproblems, sondern die dynamische Abbildung der realen Produktionsvorgänge. Durch die Integration von Entscheidungsregeln, die Nutzung von Schnittstellen zu höheren Programmiersprachen und die Verknüpfung mit externer Standardsoftware können Simulationsmodelle jedoch auch zu operativen Planungsinstrumenten ausgebaut werden. Simulationsmodelle eignen sich hervorragend zur interaktiven Erzeugung und Bewertung von Belegungsplänen im Hinblick auf vorgegebene Zielgrößen. Die Kombination von Optimierungs- und Simulationsmodellen eröffnet zudem die Möglichkeit, zunächst mit Hilfe eines die Realität in vertretbarer Weise vereinfachenden Optimierungsmodells eine Aus-
442
M. Grunow, H.-O. Günther, G. Yang
gangslösung zu ermitteln, während dann anschließend in einem Simulationsmodell, das den betrachteten Produktionsprozess realitätsnah abbildet, die gefundene Lösung angepasst und verfeinert wird.
2
Interaktives Scheduling-Support-System
Für die Akzeptanz bei industriellen Anwendern ist entscheidend, dass die genannten Module in ein interaktives und durch den Anwender konfigurierbares Scheduling-Support-System integriert sind. In einem solchen System werden die Erfassung des Prozesses über ein allgemeines Repräsentationsschema, die Generierung eines anwenderspezifischen aus einem generischen Modell sowie dessen numerische Lösung zusammengeführt. Dazu ist ein einheitliches, die genannten Funktionen umfassendes Softwaretool erforderlich, das die folgenden Anforderungen erfüllen muss: • Verwendung eines hierarchischen Modellierungskonzepts auf der Grundlage unterschiedlicher Aggregationsgrade, • Bereitstellung einer Bibliothek alternativer Lösungsverfahren für Probleme unterschiedlicher Komplexität, • Möglichkeit zur interaktiven Erzeugung von Belegungsplänen sowie von modellgestützten Umplanungen, • Simulation und Animation der generierten Lösung, • Durchführung von Sensitivitäts- sowie Performanceanalysen. Das Konzept des im Folgenden beschriebenen interaktiven Decision Support Systems (iDSS) vereinigt die Vorteile der modellbasierten Optimierung und der diskreten, ereignisbasierten Simulation. Beide Methodologien weisen spezifische Vorteile auf (Günther u. Yang 2004; Iassinovski et al. 2003). Beispielsweise können mit Hilfe der Simulation die einzelnen Vorgänge des Produktions- und Logistiksystems sehr viel genauer und zudem unter Berücksichtigung ihres stochastischen Systemverhaltens abgebildet werden. Auf diese Weise können u.a. stochastische Prozesszeiten und Nachfragemengen erfasst werden. Simulationsmodelle werden in der Industrie vor allem bei der Konfigurierung von Produktionsanlagen oder zur Bewertung von Materialflussstrategien eingesetzt (vgl. Baudet et al. 1995; Blömer et al. 2000; Vaessen 1989; Watson 1997; Winkel et al. 1995); ein Optimierungsinstrument im engeren Sinne stellen Simulationsmodelle jedoch nicht dar. Die Anwendung von Optimierungsmodellen hingegen erfordert zumeist Vereinfachungen in der Abbildung der realen Gegebenheiten sowie die Aggregation relevanter Daten. Vor allem in der Prozessindustrie werden
Entwicklung eines interaktiven Scheduling-Support-Systems
443
im Supply Chain Management überwiegend deterministische Optimierungsmodelle eingesetzt. Um die Vorteile beider Methodologien, nämlich der Simulation und der Optimierung, zu nutzen, erscheint ihre Integration in einem gemeinsamen Planungstool sinnvoll. Hierfür weist die wissenschaftliche Literatur erste Ansätze auf (vgl. Bogusch u. Marquardt 1997; Bogusch et al. 2001; Dessouky et al. 1993; Halasz et al. 1996; Hofmeister 1998; Shah et al. 1995; Zentner et al. 1998). Allerdings haben diese Ansätze bisher keine konsequente Weiterentwicklung erfahren. Eine praktische Umsetzung quantitativer Methodologien ist hingegen in den sog. Advanced Planning Systems zu finden (vgl. Günther u. van Beek 2003). Das entwickelte iDSS besteht im Wesentlichen aus drei Modulen (siehe Abb. 1). Das Prozess-Anlagen-Modul dient der Erfassung der jeweiligen verfahrenstechnischen Prozesse und der verfügbaren Produktionseinrichtungen. Das Planungsmodul unterstützt die automatische Generierung und Lösung von Optimierungsmodellen. Schließlich können mit Hilfe des Visualisierungsmoduls die Ergebnisse des Optimierungslaufes graphisch dargestellt und als Input für ein Simulationsmodell aufbereitet werden. Da überwiegend Standardsoftware verwendet wird, ist eine Anpassung an den neuesten Stand der Softwaretechnologie und der OR-Verfahren jederzeit möglich. Zur Integration der verschiedenen Module kann auf leistungsfähige, objektorientierte Simulationssoftware als Entwicklungsumgebung zurückgegriffen werden. Durch die graphische Benutzeroberfläche, den systematischen Modellierungsablauf sowie die Anwendung von generischen Optimierungsmodellen ermöglicht das iDSS den Einsatz von komplexen mathematischen Modellen für die Produktionsplanung ohne großen Modellierungsaufwand. Auch Anwender ohne adäquate mathematische Kenntnisse können sich nach entsprechender Einarbeitung leicht im iDSS zurechtfinden.
444
M. Grunow, H.-O. Günther, G. Yang
Process stucture Equipment structure Demand data
Data representing the production system
User interface
Process/equipment module
Automatic generation of userspecific model parameters
Solution methods
Model parameters MILP model Optimization run
Standard optimization software (AMPL, OPL, CPLEX)
Generic model formulation
Planning module
Production schedule
Visualization module Generation of Gantt charts and simulation models
Abb. 1. Architektur des interaktiven Scheduling-Support-Systems (iDSS)
In Abb. 2 ist der Verlauf eines Planungsprozesses veranschaulicht. Die vordefinierten Bausteinbibliotheken dienen der Unterstützung der Modellierung. Mit Hilfe von Standardbausteinen kann das zugrunde liegende Produktionssystem systematisch erfasst werden. Nach der Modellierungsphase erzeugt das iDSS automatisch auf der Grundlage eines hinterlegten generischen Optimierungsmodells ein anwendungsspezifisches Optimierungsmodell, ohne dass der Planer sich mit den mathematischen Details der Modellformulierung auseinandersetzen muss. Nach Abschluss des Optimieungslaufes kann sich der Anwender an Hand der graphisch aufbereiteten Planungsergebnisse einen Überblick über den Produktionsplan verschaffen und ggf. Modifikationen vornehmen. Auch die Kopplung der Si-
Entwicklung eines interaktiven Scheduling-Support-Systems
445
mulation und Optimierung bietet weitere Möglichkeiten, die Planungsergebnisse zu verifizieren oder eine Szenarioanalyse durchzuführen. Modellierung Bausteinbibliothek
Optimierung
Simulation Visualisierung
Abb. 2. Planungsablauf mit Hilfe des iDSS
3
Repräsentationsschema verfahrenstechnischer Prozesse
3.1 Aufgaben des Repräsentationsschemas Zur Erfassung der jeweiligen Planungsumgebung wird ein allgemeines Repräsentationsschema benötigt. Dieses stellt eine formalisierte Grundlage zur Beschreibung und Klassifizierung der realen Gegebenheiten sowie zur Erfassung der relevanten Grunddaten dar. Wesentliche Elemente des Repräsentationsschemas bilden die verfahrenstechnischen Prozesse sowie die eingesetzten Ressourcen. Diese Elemente werden durch Attribute mit definierten Ausprägungen beschrieben. Im iDSS werden die Prozess- und Materialflussstruktur sowie der Kapazitätsaufbau interaktiv über eine graphische Benutzeroberfläche erfasst und entsprechend visualisiert. Das zugehörige Datengerüst wird über Schnittstellen aus betrieblichen Stan-
446
M. Grunow, H.-O. Günther, G. Yang
dardsoftwaresystemen eingelesen oder kann im Einzelfall über die Benutzeroberfläche eingegeben werden. Die für die automatische Generierung eines formalen Planungsmodells wesentlichen Entitäten sowie die zugehörigen Merkmalsausprägungen werden über zwei Sichtweisen erfasst: eine Prozesssicht, bei der die Eigenschaften der jeweiligen verfahrenstechnischen Prozesse im Vordergrund stehen, sowie eine Anlagensicht, die sich auf die jeweils eingesetzten Anlagenkonfiguration richtet. Prozesssicht: In Erweiterung der klassischen Rezepturdarstellung bilden „state-task-networks“ den zugrunde liegenden Prozess in Form eines gerichteten (häufig zyklischen) Graphen ab. Der Graph besteht aus drei zentralen Elementen. • „Task nodes“ bilden die auszuführenden elementaren Prozessschritte ab. Über die zugehörigen Attribute werden die Einsatz- und Ausbringungsgüter mit ihren jeweiligen Mengenrelationen sowie die Prozesszeit, die einsetzbaren Anlageneinheiten und weitere Parameter definiert. • Jeder Zustand des Prozesses wird durch einen „state node“ beschrieben. Die „states“ repräsentieren Rohmaterialien, Zwischen- und Endprodukte, deren Attribute sich u.a. auf die Lagerfähigkeit, die einsetzbaren Tanks sowie die das betreffende Produkt erzeugenden bzw. verbrauchenden Prozessschritte beziehen. Durch Prozessschritte werden ein oder mehrere States in ein oder mehrere andere States transformiert. • Die entsprechenden Materialflüsse werden durch Pfeile dargestellt, so dass ein Netzwerk entsteht. Abb. 3 zeigt ein einfaches Beispiel eines STN. „States“ sind darin durch Kreise, “Tasks” durch Rechtecke dargestellt. Zwischenprodukte
Rohmaterial
1
Endprodukte
2
Task 2
4
3
Task 3
5
Task 1
Abb. 3. Beispiel eines state-task-networks (STN)
Entwicklung eines interaktiven Scheduling-Support-Systems
447
Anlagensicht: Es wird ein zweiter Graph aufgebaut, dessen Knoten die Anlageneinheiten (sog. Units, mit ihren Attributen minimale bzw. maximale Batchgröße, ausführbare Prozessschritte, Betriebszeiten usw.) sowie Tanks (mit ihren Attributen Kapazität, alternativ lagerbare Produkte usw.) repräsentieren. Die vorhandenen Pipelines und Fördereinrichtungen werden durch Pfeile abgebildet. Aus den Graphen der Prozess- bzw. Anlagendarstellung lassen sich die Entscheidungsvariablen eines Optimierungsmodells (z.B. Batchgrößen, Lagerbestände) und die Modellgleichungen (z.B. logische Bedingungen der Anlagenbelegung oder von Reinigungsprozessen sowie Lager- und Massenbilanzen) ableiten. 3.2 Anlagen-Prozess-Modul des iDSS Das Anlagen-Prozess-Modul des iDSS basiert im Wesentlichen auf einem hierarchischen Darstellungsschema, einer Erweiterung des klassischen "state-task-netzworks" (STN). Zur Implementierung wurde das objektorientierte Simulationssystem eM-Plant (vormals SIMPLE++) verwendet. Die nach dem oben beschriebenen allgemeinen Repräsentationsschema benötigten Bausteine (z.B. State, Task und Unit) wurden in eM-Plant vordefiniert und in einer Bibliothek für den Anwender zur Verfügung gestellt (siehe Abb. 4). Mit Hilfe dieser vordefinierten Bausteine können zum einen state-task-networks aufgebaut werden, welche die Prozessstruktur einer Produktionsumgebung beschreiben. Darüber hinaus lassen sich Netzwerkdarstellungen der eingesetzten Ressourcen erzeugen, aus denen die Konfiguration der Produktionsanlagen und die Materialflüsse ersichtlich sind. Dabei wird das zu betrachtende Produktionssystem aus der Prozessund Anlagensicht mit einem angemessenen Detaillierungsgrad abgebildet. Im iDSS werden jeweils zwei Detaillierungsgrade realisiert: Prozess- und Prozessabschnittsebene auf Seiten der Produkt-Prozess-Struktur sowie Werks- und Teilanlagenebene auf Seiten der Anlagenstruktur. Für die Modellierung werden vordefinierte Bausteine bereitgestellt.
448
M. Grunow, H.-O. Günther, G. Yang
Modellierungsumgebung .ProductionNetwork
Produkt-ProzessStruktur .State
.Task
.Path
.Connector
.Tank
.Reactor
.Plant
.Connector
Anlagenstruktur
Abb. 4. Bausteinbibliothek des Anlagen-Prozess-Moduls
• Der .State-Baustein repräsentiert alle Rohstoffe, Zwischen- und Endprodukte. Er wird sowohl beim aggregtierten STN als auch beim detaillierten STN verwendet. Jedem .State-Baustein wird ein .Tank-Baustein zugeordnet. • Prozessabschnitte werden durch den Baustein .Task abgebildet, der bei der Gestaltung des detaillierten STN Verwendung findet. • In einem aggregierten STN werden die zusammengefassten Prozesse mit Hilfe des .Path-Bausteins modelliert, wobei ein Prozess auch einen einzigen Prozessabschnitt beinhalten kann. • Zur Abbildung der Anlagenstruktur werden die Bausteine .Reactor und .Tank definiert, die jeweils eine Teilanlage bzw. eine Lagereinheit verkörpern. • Teilanlagen, die flexibel konfigurierbar sind, werden zu (Sub-) Werken zusammengefasst und durch den .Plant-Baustein dargestellt. • Der .Connector symbolisiert den Materialfluss innerhalb des Produktionsnetzwerks. • Der .ProductionNetwork-Baustein entspricht dem gesamten Produktionsnetzwerk und dient als Modellierungsumgebung. In diesem Baustein wird die Produktionsstruktur modelliert. Dabei werden auch die benötigten Daten mit Hilfe von vorgegebenen Funktionen erfasst und in entsprechenden Tabellen gespeichert.
Entwicklung eines interaktiven Scheduling-Support-Systems
449
Unter Anwendung der vordefinierten Bausteine kann die Anlagen- sowie Prozess-Produkt-Struktur eines Produktionssystems mit vergleichsweise geringem Aufwand systematisch modelliert werden. Die graphikorientierte Benutzeroberfläche sowie die automatische Plausibilitätsprüfung erleichtern zudem die Verifikation des abgebildeten Produktionsprozesses. Abb. 5 und 6 veranschaulichen die Ergebnisse der Modellierung auf der detaillierten Planungsebene für einen ausgewählten chemischen Batchprozess.
Abb. 5. Modellierung der Prozessstruktur
450
M. Grunow, H.-O. Günther, G. Yang
Abb. 6. Modellierung der Anlagenstruktur
4
Generische Optimierungsmodelle
4.1 MILP-Modellierung Für die automatische Erzeugung eines formalen Planungsmodells aus dem oben geschilderten Repräsentationsschema wird eine generische Modellformulierung benötigt. Hierdurch wird aus einem allgemeinen Modell des
Entwicklung eines interaktiven Scheduling-Support-Systems
451
zugrunde liegenden Optimierungsproblems ein anwendungsspezifisches Modell generiert. Hervorzuheben ist, dass generische Modelle unabhängig von der jeweiligen konkreten Problemausprägung rechnergestützt mit Hilfe moderner algebraischer Modellierungssprachen verwaltet werden können. Für die Produktionsplanung von mehrstufigen Batchprozessen wurde ein gemischt-ganzzahliges Modell auf der Basis einer diskreten Zeitrepräsentation entwickelt, das als generische Modellformulierung die gültige algebraische Problemrepräsentation darstellt. Folgende Annahmen wurden für die Modellformulierung getroffen: • Sämtliche Prozesse unterliegen dem Prinzip der Batchproduktion, d.h. die Prozesszeiten eines Batches, das nach einer bestimmten Rezeptur auf einem bestimmten Reaktor produziert wird, werden als konstant und nicht von der Füllmenge abhängig angenommen. • Für jedes Batch ist eine minimale und eine maximale Batchgröße vorgegeben, die nicht unter- bzw. überschritten werden darf. • Das Modell berücksichtigt die Mehrstufigkeit der Produktion, wobei nicht alle Produkte alle Stufen durchlaufen müssen. • Auf einzelnen Prozessstufen können parallele Reaktoren existieren, d.h. Reaktoren die ähnliche bzw. die gleichen Prozessschritte ausführen können. • Es herrscht eine komplexe, vernetzte Materialflussstruktur vor, d.h. neben konvergierenden (Mischprozessen) und divergierenden Materialflüssen (starre Kuppelproduktion) werden auch zyklische Materialflüsse berücksichtigt, die stufenübergreifend sein können. Weiterhin kann Splitting und Merging von Batches vorkommen. • Für die zu produzierenden Güter können alternative Rezepturen vorliegen. • Zwischen einzelnen Prozessstufen können produktspezifische Puffer vorhanden sein, die volumenmäßig begrenzt sind. • Ein einmal begonnener Prozessschritt kann nicht unterbrochen werden („non-preemptive production“). • Einzelne Güter können begrenzt haltbar sein, oder eine Lagerung zwischen den zugehörigen Prozessschritten kann ganz ausgeschlossen sein. • Alle Zwischen- und Endprodukte können in allen Perioden des Planungszeitraumes dem Produktionsprozess zugeführt bzw. extern nachgefragt werden. • Die Ablaufplanung unterliegt keiner Beschränkung auf Kampagnenfahrweisen, d.h. die Reihenfolge der einzelnen Prozessschritte auf einer Anlage ist frei wählbar.
452
M. Grunow, H.-O. Günther, G. Yang
• Abhängig von der Reihenfolge der Prozessschritte bzw. bei Leerstand eines Reaktors werden konstante Reinigungs- bzw. Umstellzeiten notwendig. Nach Abschluss eines Prozessschritts auf einem Reaktor muss ein Reinigungsvorgang erfolgen, wenn nicht in der gleichen Periode die Produktion mit demselben Prozessschritt fortgesetzt wird. Wegen des häufig fehlenden wissenschaftlichen Hintergrundwissens der Planer in der Praxis wird die generische Modellformulierung im System “unsichtbar” hinterlegt. Die anwendungsspezifischen Daten werden automatisch aus der Prozess- und Anlagenstruktur sowie den erfassten Planungsdaten generiert. Diese werden dann mit spezifischen Direktiven einem Standardsolver zur Lösungsfindung übergeben. (Die Realisierung dieses Konzeptes mit Hilfe der Simulationssoftware eM-Plant ist in Yang et al. (2005) näher beschrieben.) Für die beispielhaft betrachteten Planungsprobleme wird auf die Optimierungsmodelle von Blömer et al. (1998 u. 2000) sowie Grunow et al. (2002 u. 2003) zurückgegriffen. Die genauen Modellformulierungen sind in diesen Quellen nachzulesen. 4.2 Planungsmodul des iDSS Das Planungsmodul des iDSS bedient sich verschiedener hinterlegter generischer Modellformulierungen und entsprechender Lösungsverfahren. Die generische Modellformulierung stellt für alle zu betrachtenden Probleminstanzen die gültige algebraische Repräsentation dar. Aufgrund ihrer weiten Verbreitung und Akzeptanz in der Praxis sowie der umfassenden Modellierungsmöglichkeiten wurden die Modellierungssprachen AMPL und OPL zur Implementierung der generischen Modellformulierung verwendet. Die Anbindung der Modellierungssprache OPL eröffnet weiterhin die Möglichkeit zur Modellformulierung mit Hilfe des Constraint Logic Programming (CLP). Als Anwendungsszenarien wurden beispielhaft die chemische Batchproduktion sowie die netzwerkweite Produktions- und Distributionsplanung untersucht. Nachdem die Prozess- und Anlagenstruktur über das Repräsentationsschema erhoben wurden, werden anschließend die Dateien für die Generierung des anwendungsspezifischen Modells und für die Durchführung der Optimierungsrechnung in den jeweils erforderlichen Datenformaten automatisch erzeugt. Hierzu wird die Modellierungssoftware OPL-Studio von ILOG verwendet. Das Nachvollziehen bzw. die Modifikation der komplexen mathematischen Modellformulierung ist bei üblichen Anwendungen nicht erforderlich. Zusammen mit den anwendungsspezifischen Daten sowie einer sog. Skriptdatei, in der die Steuerung des
Entwicklung eines interaktiven Scheduling-Support-Systems
453
Optimierungsablaufs enthalten ist, wird die Modellformulierung der Optimierungssoftware CPLEX übergeben. Ergebnis des Optimierungslaufs sind u.a. die Zuordnung der Prozessschritte zu den erforderlichen Anlageneinheiten, die jeweiligen Batchgrößen, die Reihenfolge der Batches auf den Anlageneinheiten, die genaue zeitliche Abfolge der Verarbeitungsund Reinigungsvorgänge sowie die Verteilung der Materialflüsse im Zeitablauf. Als Beispiel ist in Abb. 7 auf der linken Seite ein einzelner Prozessschritt in der Darstellungsweise des Anlagen-Prozess-Moduls wiedergegeben. In dem Prozessschritt werden zwei Outputprodukte 7 und 9 aus zwei Inputprodukten 4 und 5 hergestellt. Die jeweiligen Mengenverhältnisse sind an den Pfeilen notiert. Auf der rechten Seite der Abbildung sind die zugehörigen automatisch generierten Lagerbilanzen sowie die Batchgrößenrestriktionen in AMPL-Notation angegeben. Stock balance State 4
0,4
State 5
0,6 Task 2
0,6
State 7
0,4
State 9
subject to STOCK {k in 1..S,t in 2..H}: j[k,t] = j[k,t-1] + sum {i in T_out[k],hh in C:not i in TC[hh]} rho_out[i,k] * sum {h in K[i]:t-T[h,i]>=1} m[h,i,t-T[h,i]] + sum {i in T_out[k]:card(C)=0} rho_out[i,k] * sum {h in K[i]:t-T[h,i]>=1} m[h,i,t-T[h,i]] - sum {i in T_in[k]} rho_in[i,k] * sum {h in K[i]} m[h,i,t] - D[k,t] + R[k,t];
Batch size limits subject to BATCH_SIZE_MIN{u in U,i in TA[u],t in 1..H}: s[u,i,t] * A_min[u] <= m[u,i,t]; subject to BATCH_SIZE_MAX{u in U,i in TA[u],t in 1..H}: m[u,i,t] <= s[u,i,t] * A_max[u];
Abb. 7. Prozessschritt in STN-Darstellung und korrespondierende Constraints
Die Optimierungsrechnungen zeigen, dass die Rechenzeit mit steigernder Komplexität des Optimierungsproblems (mit/ohne Berücksichtigung von Reinigungsvorgängen) und mit wachsender Problemgröße überproportional zunimmt. Um die Rechenzeit zu reduzieren, wurden daher die LPbasierten heuristischen Lösungsverfahren von Blömer und Günther (1998 u. 2000) auf der Ebene der detaillierten Ablaufplanung verwendet. Nach Abschluss des Optimierungslaufes wird ebenfalls eine Schnittstellendatei erzeugt, die den Produktionsplan, so wie er mit Hilfe des hinterlegten generischen Modells erzeugt wurde, beinhaltet. Ausgehend von diesem ermittelten Plan werden die Datendateien für die einzelne Produk-
454
M. Grunow, H.-O. Günther, G. Yang
tionsbereiche generiert, für die in weiteren Optimierungsläufen ggf. eine detaillierte Ablaufplanung durchgeführt wird.
5
Visualisierung
Die unter Verwendung von Standardsolvern bzw. von alternativen Lösungsverfahren ermittelte Lösung des Optimierungsproblems wird abschließend in das Visualisierungsmodul des iDSS übernommen. Dieses Modul dient in erster Linie zur anschaulichen Darstellung der erzielten Ergebnisse. Während ein Gantt-Chart-Generator lediglich die numerischen Ergebnisse graphisch aufbereitet, bietet das integrierte Simulationsmodell die Möglichkeit, die Ergebnisse auch im dynamischen Ablauf zu evaluieren. Aufgrund des damit verbundenen Programmieraufwands konnten für die Simulation lediglich einfache Prototypen realisiert werden. Gantt-Charts gehören zu den populärsten Tools zur Visualisierung von Ablaufplänen. Obwohl sie nicht zu den eigentlichen Lösungstechniken zählen, ist die Gantt-Chart-Technik häufig sehr hilfreich bei der Entscheidungsfindung. Der Gantt-Chart-Generator des iDSS wurde mit Hilfe der Standard-Microsoft-Produkte Excel und Visio realisiert. Als Ausgangsdaten der Gantt-Chart-Generierung dient eine Ergebnisdatei im Text-Format, die OPL-Studio nach dem Optimierungslauf erzeugt. Anschließend wird die Datei in eine Excel-Tabelle umgewandelt. Mit Hilfe eines VBAMakroprogramms wird dann das entsprechende Gantt-Chart als VisioZeichnung bzw. als Excel-Diagramm erstellt. Abb. 8 stellt den Ablauf der Gantt-Chart-Generierung im iDSS dar. Die Implementierung des Gantt-Chart-Generators im iDSS ist aus programmiertechnischer Sicht eher rudimentär. Eine Entwicklung hin zur interaktiven Plantafel stellt jedoch eine hohe Herausforderung für die praktische Anwendung dar, die im Rahmen des durchgeführten Forschungsprojektes nicht bewältigt werden konnte.
Entwicklung eines interaktiven Scheduling-Support-Systems
455
Excel-Diagramm
Gantt Chart Gantt Chart Generator Generator
VBA Makro
Excel-Datei
Visio-Vorlage
Ergebnisdatei
Visio-Zeichnung
Abb. 8. Ablauf zur Gantt-Chart-Generierung
Mit Hilfe der Simulation kann der zugrunde liegende Produktionsprozess wesentlich genauer als in einem mathematischen Optimierungsmodell abgebildet werden. Dies betrifft sowohl die Erfassung der zeitlichen Struktur des Prozesses als auch die Abbildung der Materialflüsse. Insbesondere lassen sich dynamische Prozesse abbilden und Experimente durchführen. In der chemischen Industrie wird die Simulationstechnik in vielfältiger Weise eingesetzt. Um den Modellierungsaufwand zu reduzieren, wurde eine Vorgehensweise zur rechnergestützten Generierung von Simulationsmodellen entwickelt. Bevor ein Simulationsmodell erstellt werden kann, müssen alle erforderlichen Daten zunächst abgeleitet und erfasst werden. Aus der Anlagen- bzw. Produkt-Prozess-Struktur des Produktionssystems können die Daten zu den Teilanlagen und Rezepturen der Produkte automatisch abgeleitet werden. Bei der Erfassung der Rezepturen wird angenommen, dass jeder Prozessabschnitt aus vier Prozessoperationen besteht: dem Befüllen der Apparate mit Einsatzstoffen, dem Reaktionsprozess, der Entnahme der Output-Produkte sowie der Reinigung. Weitere Prozessoperationen können ggf. nachträglich erfasst werden. Nachdem alle erforderlichen Daten im System verfügbar sind, wird das Simulationsmodell auto-
456
M. Grunow, H.-O. Günther, G. Yang
matisch generiert. Abb. 9 zeigt das automatisch erzeugte Simulationsmodell eines Beispielnetzwerks.
Abb. 9. Automatisch generiertes Simulationsmodell
Das automatisch generierte Simulationsmodell bildet eine geeignete Grundlage für weitere Analysen unter Einbeziehung von stochastischen Einflussgrößen. Allerdings beschränkt sich die vollautomatische Generierung von Simulationsmodellen in der prototypischen Realisierung auf einfache lineare Strukturen. Nach Abschluss der Simulationsläufe lassen sich verschiedene Auswertungen durchführen, die in Abb. 10 und 11 beispielhaft dargestellt sind. Insgesamt stellt der Simulator eine wesentliche Ergänzung zur modellbasierten Optimierung dar. Vor allem die automatische Generierung von Simulationsmodellen verringert den Modellierungsaufwand und ermöglichlicht den Einsatz der Simulation in der Steuerung des Produktionsbetriebs. Aufgrund des hohen Detaillierungsgrads und der Experimentierfähigkeit unter dynamischen Bedingungen bietet ein Simulationsmodell zudem eine hervorragende Testumgebung für reaktive Scheduling-Strategien, die große Bedeutungen für die Praxis aufweisen.
Entwicklung eines interaktiven Scheduling-Support-Systems
457
Abb. 10. Beispiel für Auswertungen: Gantt-Chart
Abb. 11. Beispiel für Auswertungen: Auslastungsdiagramm
6
Ausblick
Im Rahmen eines weiteren von der Deutschen Forschungsgemeinschaft (DFG) geförderten Projektes ist beabsichtigt, die bisher erzielten Forschungsergebnisse auf den Bereich der kollaborativen (gemeinschaftlichen) Produktions- und Distributionsplanung innerhalb eines auf verschiedene Standorte verteilten Wertschöpfungsnetzwerkes in der Prozessindu-
458
M. Grunow, H.-O. Günther, G. Yang
strie zu übertragen und mit Hilfe des iDSS ein geeignetes Szenario eines Wertschöpfungsnetzwerkes der chemischen Industrie zu modellieren. Hierzu wird für die netzwerkweite Kampagnenplanung unter Berücksichtigung der beschränkten Verfügbarkeit der Produktions- und Logistikressourcen ein hierarchisches Planungssystem auf der Grundlage der linearen Optimierung entwickelt. Mit Hilfe spezieller, an den besonderen Erfordernissen der verfahrenstechnischen Produktion ausgerichteter Aggregationsund Disaggregationstechniken sollen handhabbare Modelle erzielt werden. Aus der netzwerkweiten Kampagnenplanung werden dann Vorgaben für die einzelnen lokalen Planungsdomänen (z.B. Werke) abgeleitet. Die Planung ist hierbei nicht an einem „Neuaufwurfprinzip“ im Sinne einer vollständigen, periodischen Neuplanung ausgerichtet, sondern erfolgt reaktiv auf Grund der jeweiligen Datenänderungen. Das hierarchische Planungssystem ist so aufgebaut, dass es auch über geeignete Schnittstellen in Module moderner Advanced Planning Systeme (APS) integriert werden kann.
Literatur Baudet P, Azzaro-Pantel C, Domenech S, Pibouleau L (1995) A discrete-event simulation approach for scheduling batch processes. Computers and Chemical Engineering 19: S633-S638 Bogusch R, Marquardt W (1997) A formal representation of process model equations. Computers and Chemical Engineering 21: 1105-1115 Bogusch R, Lohmann B, Marquardt W (2001) Computer-aided process modelling with ModKit. Computers and Chemical Engineering 25: 963-995 Blömer F, Günther HO (1998) Scheduling of a multi-product batch process in the chemical industry. Computers in Industry 36: 245-259 Blömer F, Günther HO (2000) LP-based heuristics for scheduling chemical batch processes. International Journal of Production Research 38: 1029-1051 Blömer F, Günther HO, Kaminiarz B (2000) Simulation-aided material flow control and strategic cost analysis of a processing plant. Chemical Engineering and Technology 23: 401-405 Dessouky Y, Beaumariage T, Roberts C, Ogle M (1993) An intelligent system for batch scheduling for the process industry. Computers in Industry 22: 233-247 Grunow M, Günther HO, Yang G (2003) Plant coordination in pharmaceutics supply networks. OR Spectrum 25: 109-141 Grunow M, Günther HO, Lehmann M (2002) Campaign planning for multi-stage batch processes in the chemical industry. OR Spectrum 24: 281-314 Günther HO, Yang G. (2004), Integration of simulation and optimization for production scheduling in the chemical industry. Proceedings of the 2nd Industrial Simulation Conference 2004, Malaga, Spain, pp 205-209
Entwicklung eines interaktiven Scheduling-Support-Systems
459
Günther HO, van Beek P (2003) Advanced planning and scheduling solutions in process industry. Springer, Berlin et al. Halasz L, Hofmeister M, Rippin DWT (1996) GanttKit – An interactive scheduling tool. In: Reklaitis GV, Sunol AK, Rippin DWT, Hortacsu O (eds) Batch processing systems engineering. Springer, Berlin et al., pp 706-749 Hofmeister M (1998) BatchKit - A knowledge integration environment for process engineering. Computers and Chemical Engineering 22: 109-123 Honcomp SJ, Lombardo S, Rosen O, Pekny JF (2000) The curse of reality – why process scheduling optimization problems are difficult in practice. Computers and Chemical Engineering 24: 323-328 Iassinowski S, Artiba A, Bachelet V, Riane F (2003) Integration of simulation and optimization for solving complex decision making problems. International Journal of Production Economics 85: 3-10 Kallrath J (2002) Planning and scheduling in the process industry. OR Spectrum 24: 219-250 Kondili E, Pantelides CC, Sargent RWH (1993) A general algorithm for shortterm scheduling of batch operations - I. MILP formulation. Computers and Chemical Engineering 17: 211-227 Reklaitis GV (1996) Overview of scheduling and planning of batch process operations. In: Reklaitis GV, Sunol AK, Rippin DWT, Hortacsu O (eds) Batch processing systems engineering. Springer, Berlin et al., pp 660-705 Shah N, Kuriyan K, Liberis L, Pantelides CC, Papageorgiu LG, Rimunicci P (1995) User interfaces for mathematical programming based multipurpose plant optimisation systems. Computers and Chemical Engineering 19: S765S772 Statistisches Bundesamt (2002), Fachserie 18 Vaessen W (1989) ProfiSEE: A workbench for visual interactive simulation modelling in the chemical-pharmaceutical industry. OR Spektrum 11: 239-249 Watson EF (1997) An application of discrete-event simulation for batch-process chemical-plant design. Interfaces 27(6): 35-50 Winkel ML, Zullo LC, Verheijen PJT, Pantelides CC (1995) Modelling and simulation approach of the operation of an industrial batch plant using gPROMS. Computers and Chemical Engineering 19: S571-S576 Yang G (2005) Integrierte hierarchische Produktionsplanung in komplexen Wertschöpfungsnetzwerken der chemischen Industrie. Gabler – Deutscher Universitätsverlag, Wiesbaden Zentner MG, Elkamel A, Pekny JF, Reklaitis GV (1998) A language for describing process scheduling problems. Computers and Chemical Engineering 22: 125-145
Optimierung von Warteschlangensystemen in Call Centern auf Basis von Kennzahlenapproximation Frank Köller, Michael H. Breitner Institut für Wirtschaftsinformatik, Universität Hannover, Königsworther Platz 1, 30167 Hannover, {koeller;breitner}@iwi.uni-hannover.de
Abstract In diesem Aufsatz wird der Fragestellung nachgegangen, ob neuronale Netze in der Lage sind Kennzahlen für Warteschlangensysteme zu approximieren. Da für die meisten in der Praxis vorkommenden Warteschlangenprobleme keine exakten, expliziten Lösungen für die Warteschlangenkennzahlen existieren, werden diese entweder mit aufwendigen, diskreten Simulationen gelöst, oder aber das Grundproblem wird soweit vereinfacht, dass es analytisch lösbar wird. Im Gegensatz dazu muss für das Training neuronaler Netze nicht die Struktur des Problems verändert werden. Weiterhin brauchen auch nur wenige Simulationspunkte gegenüber einer „flächendeckenden“ Auswertung mit einer Simulation generiert werden, da das unvermeidliche Rauschen in den Simulationsdaten durch die kontinuierliche, approximierte Lösung geglättet wird, d. h. die Kennzahlen genauer verfügbar sind. Aufgrund deutlich weniger Simulationen besteht ein erheblicher Zeitvorteil, denn der zusätzliche Schritt des Trainings der neuronalen Netze dauert i. d. R. nur wenige Sekunden. Anhand von Simulationen für Inbound-Call-Center wird gezeigt, dass künstliche neuronale Netze Kennzahlen von Warteschlangenproblemen, bei denen analytische Lösungen existieren, sehr gut approximieren können. Dieser Aufsatz bildet also die Grundlage dafür, dass in einem weiteren Schritt künstliche neuronale Netze auch auf allgemeine Warteschlangenprobleme angewendet werden können, für die keine exakten, expliziten Lösungen für die Warteschlangenkennzahlen existieren1.
1
Meist können obere und untere Schranken bestimmt werden, die die Bandbreiten für Warteschlangenkennzahlen begrenzen. Somit ist überprüfbar, ob die approximierten Kennzahlen innerhalb dieser Bandbreiten liegen.
462
1
F. Köller, M. H. Breitner
Einleitung
Kundenservice Center bilden die Schnittstelle zwischen Unternehmen und Kunden und haben somit eine Schlüsselposition inne: Von hier aus werden Geschäftsbeziehungen aufgebaut, gesteuert und ausgebaut, sowohl im B2B- als auch im B2C-Bereich. Insbesondere in den Unternehmen, wo heute bereits 90 % aller Kundenkontakte im Kundenservice Center abgewickelt werden, kommt dem Call Center eine nicht zu unterschätzende Bedeutung für den Gesamterfolg des Unternehmens zu. Es ist daher unabdingbar, die Abläufe im Call Center permanent im Blick zu haben und zu verbessern. Maßgebliche Erfolgsfaktoren sind hierbei Kosten und Performance. Der überwiegende Anteil, etwa dreiviertel des Gesamtbudgets, in einem Call Center sind personalbezogene Ausgaben (Call Center-Benchmark Kooperation 2004). In der Praxis erfolgt gegenwärtig die Personalbedarfsermittlung und -einsatzplanung in der Regel in den folgenden drei Schritten (vgl. Helber und Stolletz 2004): 1. Prognose des Anrufaufkommens je Periode (häufig 30- oder 60Minutenintervalle). 2. Ermittlung der erforderlichen Zahl von Agenten je Periode für einen vorgegebenen Servicegrad hinsichtlich der Wartezeit (meist mit dem M/M/c-Modell). 3. Zeitliche Einplanung der Mitarbeiter über die Perioden (oder zeitliche Einplanung „anonymer“ Schichten mit anschließender Zuordnung der Mitarbeiter zu den Schichten). An die Personaleinsatzplanung im Schritt 3 schließt sich noch eine Echtzeit-Steuerung an, in der in Abhängigkeit des aktuellen Systemzustandes z. B. die Pausen der Agenten, Besprechungen oder Trainingsmaßnahmen zeitlich festgelegt werden. Im ersten Schritt, der Prognose, ist ein Anrufaufkommen vorherzusagen, das zwar innerhalb eines Tages oder einer Woche hochgradig variabel ist, dabei aber häufig wiederkehrende Muster aufweist (vgl. Abbildung 1). Die Datengrundlage für die Prognose wird dabei in der Regel von der automatischen Anrufverteilungsanlage (Automatic call distribution (ACD)-Anlage) geliefert. Relativ einfache Prognoseverfahren sind die exponentielle Glättung erster Ordnung auf Basis korrespondierender Zeitabschnitte oder eine Prognose durch gleitende Mittelwerte. Zieht man aufwendigere ARIMA-Methoden heran, vgl. Box et al. (1994), so erhält man bessere Ergebnisse. Wir werden uns in dieser Arbeit auf den Schritt 2 beschränken und Rückschlüsse auf eine mögliche Einsatzplanung an dem konkreten
Optimierung von Warteschlangensystemen in Call Centern
463
Beispiel eines Inbound-Call-Centers machen2. Das folgende Kapitel gibt einen allgemeinen Überblick zu Call Centern. In der Praxis wird in Call Centern meist noch das M/M/c-(oder „Erlang-C“-)Warteschlangenmodell, welches in Kapitel 3 erläutert wird, bei der Personaleinsatzplanung eingesetzt. Da für das M/M/c-Modell analytische Lösungen für alle Kennzahlen existieren wird die mathematische Analyse von mit dem Neurosimulator FAUN3 approximierten Kennzahlen möglich4. Dies geschieht nach einer kurzen Einführung in die künstliche Intelligenz in Kapitel 4 und der Erläuterung in Kapitel 5, wie die Simulationsdaten für das Training der neuronalen Netze generiert werden, in Kapitel 6.
Abb. 1. Anrufaufkommen und Prognosen in Halbstundenintervallen in den Call Centern des Auskunftsdienstes der Deutschen Telegate AG vom 2. – 8.11.1998. Deutlich sind die Auswirkung der Mittagspausen und des Wochenendes zu erkennen (Helber und Stolletz 2004). 2
3
4
In Helber und Stolletz (2004) wird eine gewinnmaximierende Agentenallokation vorgestellt, bei der gewissermaßen als „Nebenprodukt“ entsprechende Wartezeitmaße ermittelt werden. Hier wird dagegen nur das M/M/c-Modell betrachtet. „Fast Approximation with Universal Neural Networks“. Neurosimulator bezieht sich nicht auf die Simulation von Warteschlangen, sondern auf die komfortable, GUI-unterstützte Simulation gehirnanaloger Vorgänge, die als Training bzw. Lernen von künstlichen neuronalen Netzen bekannt sind (Breitner 2003). Für das M/M/1-Modell teilweise untersucht in Barthel (2003), einer Diplomarbeit betreut durch die Autoren.
464
2
F. Köller, M. H. Breitner
Beispiel Call Center
In einem Call Center werden organisatorisch Telefonarbeitsplätze in Verbindung mit informations- und kommunikationstechnischer Unterstützung in Großraumbüros zusammengefasst. Die Mitarbeiter, welche in koordinierte Gruppen eingeteilt und auf die Durchführung von Telefongesprächen spezialisiert sind, werden auch als Agenten bezeichnet. Ziel eines jeden Call Centers ist ein verbesserter Kundenkontakt bzw. die Kundenbetreuung und -gewinnung bei gleichzeitiger Optimierung der Wirtschaftlichkeit. Dementsprechend wird ein Call Center als Dienstleistungsbetrieb bezeichnet, bei dem der Produzent des Dienstes und der Konsument zwar räumlich voneinander getrennt, aber zeitlich in der Regel aneinander gebunden sind. Stehen dem Agenten neben dem Telefon noch mehrere Kommunikationskanäle zur Verfügung, nennt man dies auch Contact Center oder Kundenservice Center. Grundsätzlich werden hereinkommende Anrufe als Inbound-Gespräche und ausgehende Anrufe als Outbound-Gespräche bezeichnet. Entsprechend können Call Center in Inbound- und Outbound-Call-Center bzw. Mischformen unterteilt werden5. 2.1 Call-Center-Marktentwicklung Über die Call-Center-Marktentwicklung gibt es unterschiedliche Meinungen. Beispielsweise prognostizieren die Analysten von Datamonitor (Datamonitor 2004), dass der Call-Center-Markt weiter rasant wächst: Die Zahl der Call Center soll in Deutschland fortlaufend steigen, doch ebenso kontinuierlich die Zahl der Beschäftigten je Call Center sinken. Trotzdem sollen hier unter dem Strich viele Arbeitsplätze entstehen6 (vgl. Abbildung 2). Allerdings warnen die Analysten auch davor, dass immer mehr Call Center nach Polen, Tschechien oder Ungarn abwandern, wo qualifiziertes und kundenfreundliches Personal zu niedrigeren Kosten bereit stehe. In der Call Center Benchmarkstudie 2003 wurde hingegen gezeigt, „…dass die Anforderungen des Marktes beinahe alle Betreiber vor die gleichen Probleme und Schwierigkeiten stellen. Inhouse-Center und Dienstleister haben gleichermaßen mit den Auswirkungen zu kämpfen, die wirtschaftlicher Stillstand, Kostendruck und dennoch hohe Service-Erwartungen mit sich 5 6
In diesem Artikel beziehen wir uns nur auf die Inbound-Call-Center. Es ist darauf zu achten, dass zwischen der Zahl der Beschäftigten und der Zahl der Arbeitsplätze genau differenziert wird, da Call Center i. d. R. einen hohen Anteil an Teilzeitkräften einsetzen.
Optimierung von Warteschlangensystemen in Call Centern
465
bringen. Die einstige „Boom“-Branche, in der „maximaler“ Service ohne Rücksicht auf die Kosten geboten wurde, expandiert nicht mehr, sondern konzentriert sich mit den vorhandenen Kapazitäten auf den Versuch, sich den veränderten Rahmenbedingungen anzupassen“ (Kestling 2004). 5435 268.400 67 49 3088 205.400
Beschäftigte in Call Centern insgesamt Zahl der Call Center Agenten je Call Center
2003
2008
Abb. 2. Die Zahl der Call Center steigt in Deutschland fortlaufend, doch ebenso kontinuierlich sinkt die Zahl der Beschäftigten je Call Center (Datamonitor 2004).
2.2 Steigender Kostendruck in Call Centern Das steigende Kommunikationsaufkommen in den beiden vergangenen Jahren und unreflektierter maximaler Service in Call Centern verursachten eine Kostenexplosion, die in keinem proportionalen Verhältnis zur Umsatzentwicklung steht (Call Center-Benchmark Kooperation 2004). Somit stehen Call Center nun vor der konkreten Aufgabe, Maßnahmen zur Kostensenkung aktiv umzusetzen. Dieses ist jedoch problematisch, da der überwiegende Anteil des Gesamtbudgets personalbezogene Ausgaben sind (Gehälter, Personalauswahl, Schulung und Training). Während dieser Kostenblock im Jahre 1998 noch mit rund 61% des Gesamtbudgets beziffert wird (Henn et al. 1998, S. 99), ist der Wert laut der Benchmarkstudie im Jahre 2003 schon auf rund 75% gestiegen. Die verbleibenden Positionen (Miete, lfd. Betriebskosten, Ausstattung, etc.) weisen jeweils nur eine nachgeordnete Größenordnung auf und können in der Praxis auch nicht weiter gesenkt werden. Somit sind nunmehr Ansätze gefordert, das angebotene Servicespektrum an die tatsächlichen Bedürfnisse anzupassen und gleichzeitig die Effizienz der Prozesse bzw. die Auslastung der Agenten zu steigern. Bei der Fokussierung auf Einsparpotenziale, wie die Freisetzung der tatsächlich entbehrlichen Kapazitäten, darf das Call-Center-Manage-
466
F. Köller, M. H. Breitner
ment jedoch nicht die notwendige Kundenzufriedenheit gefährden (vgl. Abbildung 3).
Abb. 3. Ziel eines jeden Call Centers ist es einen guten Service bei möglichst geringen Kosten anzubieten (links). Je höher aber der angebotene Service (und damit auch die Kundenzufriedenheit) ist, desto höher sind die hierfür aufzuwendenden Kosten (rechts) (Call Center-Benchmark Kooperation 2004).
3
Warteschlangentheorie anhand eines Inbound-CallCenters
Die Warteschlangentheorie beschäftigt sich mit den strukturellen Zusammenhängen innerhalb von Warteschlangensystemen. Sie sucht nach mathematischen Lösungen um die Kennzahlen von Warteschlangensystemen berechnen zu können. Das erste Mal wurde die Warteschlangentheorie im Jahre 1908 durch die optimale Dimensionierung von Telefonnetzen durch A. K. Erlang bekannt (Zimmermann 1997, S. 362). Mit der Entwicklung der Computer wurde es dann möglich, Warteschlangenprozesse zu simulieren, um für Systeme ohne analytische Lösung Kennzahlen zu ermitteln, ohne dabei einen direkten mathematischen Systemzusammenhang herzustellen. 3.1 Warteschlangensysteme Eine Warteschlange entsteht beispielsweise, wenn Personen in einem Call Center anrufen und dort alle Agenten besetzt sind. Meist werden sie dann in einer Warteschleife abgefangen und warten solange bis der nächste Agent frei ist. Im Kontext von Warteschlangen werden alle Personen oder Jobs als Kunden und die Warteschleife als Warteschlange bezeichnet. Die
Optimierung von Warteschlangensystemen in Call Centern
467
Elemente, die ein Warteschlangensystem bilden, sind in Abbildung 4 anhand eines Schalters, wie er z. B. bei einer Post vorkommt, dargestellt.
Abb. 4. Das Warteschlangensystem
Dabei sind die wichtigsten Elemente im Einzelnen:G • Der Ankunftsprozess. Wenn Kunden zu den Zeiten t1 , t2 , … , tn eintreffen, so werden die Zeiten τj = tj – tj – 1 als Zwischenankunftszeiten bezeichnet. Es wird allgemein angenommen, dass die τj eine Folge von unabhängigen und identisch verteilten (iid) Zufallsvariablen sind. • Die Verteilung der Bedienzeit. Die Zeit, die jede Person am Schalter bzw. im Gespräch mit dem Call Center Agenten verbringt wird ihre Bedienzeit genannt. Die Bedienzeiten werden ebenfalls als unabhängige, identisch verteilte Zufallsvariablen angenommen. • Anzahl an Bedieneinheiten. Oft arbeiten in einem Call Center mehrere Agenten, die alle dieselben Dienste anbieten. In diesem Fall spricht man von mehreren Bedieneinheiten. Bieten die Agenten jedoch verschiedene Dienste an, so werden sie in Gruppen mit gleichem Angebot gegliedert, die dann jeweils eine Warteschlange bilden7. Die Kapazität der Warteschleife ist in Call Centern begrenzt, d. h. wenn die Warteschleife voll ist, werden weitere Anrufer abgewiesen bzw. erhalten ein Besetztzeichen. Dennoch wird zur Vereinfachung der Berechnung der Personaleinsatzplanung in Call Centern eine unbegrenzte Warteschlange angenommen. Ebenso ist bei dieser Berechnung die Anzahl aller potentiellen Kunden (Population) unendlich und die Kunden werden in der Reihenfolge bedient, in der sie ankommen (First Come, First Served (FCFS)). 7
Ausführliche Darstellungen zur Warteschlangentheorie findet man z. B. in Schassberger (1973), Bolch (1989), Meyer und Hansen (1996, S. 210 ff.) oder Hillier und Lieberman (1997, S. 502 ff.).
468
F. Köller, M. H. Breitner
Sind zusätzlich noch der Ankunftsprozess poissonverteilt, d. h. die Zwischenankunftszeiten sind iid und exponentialverteilt und die Bedienzeit exponentialverteilt, so wird dies als M/M/c-Modell bezeichnet. Dabei stehen die beiden „M“ für „Markovian“ und entsprechen den Exponentialverteilungen der Zwischenankunftszeiten und der Bedienzeit. c ist hierbei die Anzahl der Bedieneinheiten. 3.2 Das M/M/c-System und ein Inbound-Call-Center Die in der Praxis eingesetzte Personaleinsatzplanungssoftware zieht regelmäßig das so genannte M/M/c- (oder “Erlang-C”-) Warteschlangenmodell heran, mit dem a priori unter bestimmten Annahmen zum einen • die Wahrscheinlichkeit P(W ≤ t), dass die zufällige Wartezeit W nicht länger als t Zeiteinheiten ist, und zum anderen • die mittlere Wartezeit E(W) der Anrufer berechnet werden kann. In diesem Modell wird unterstellt, dass in dem Call Center Anrufe mit der durchschnittlichen Rate λ eingehen und jeder der c identischen Agenten Anrufe mit einer durchschnittlichen Rate µ bearbeitet. Die Zwischenankunftszeiten seien ebenso wie die Bearbeitungszeiten unabhängig exponentialverteilt, der Warteraum unendlich groß und alle Anrufer geduldig. Unter diesen Bedingungen ist das System stabil in dem Sinn, dass die Anzahl der Anrufer im System nicht über alle Grenzen steigt, wenn die Anrufrate λ strikt kleiner ist als die kombinierte Bearbeitungsrate (oder -geschwindigkeit) cµ aller c Agenten: λ < cµ , a :=
1λ a λ = . und ρ := µ cµ c
(1)
Dabei stellt a das Arbeitsvolumen in der dimensionslosen Einheit „Erlangs“ dar. Die stationären Lösungen im allgemeinen Fall für die Kennzahlen des M/M/c-Systems existieren genau dann, wenn der Servicegrad ρ < 1 ist8, welches hier durch die Annahme λ < cµ schon gegeben ist. Der stationäre Zustand von Warteschlangenprozessen ist eine wichtige Eigenschaft in der Warteschlangentheorie. Er dient, zusammen mit der MarkovEigenschaft, als Voraussetzung dafür, dass die Kennzahlen von Warteschlangensystemen und deren Verteilungen überhaupt analytisch bestimmt werden können9. Eine wichtige Kenngröße für eine M/M/c-Warteschlange 8 9
Siehe hierzu auch Kapitel 5.2. Ein stochastischer Prozess ist stationär, wenn sich der Erwartungswert und die Varianz in der Zeit nicht ändern.
Optimierung von Warteschlangensystemen in Call Centern
469
ist die Wahrscheinlichkeit, dass ein ankommender Kunde warten muss. Der Ausdruck dafür ist bekannt unter dem Namen Erlangsche C-Formel oder Erlangsche Warteformel. Sie ist gegeben durch P ( N ≥ c) =
ac c!
n ac ⎛ a ⎞ c −1 a − + 1 ⎜ c ⎟ ∑ n! c! ⎝ ⎠ n=0
=: C ( c, a )
(2) ,
wobei N die Zahl der Kunden im System ist, d.h. die Zahl der Wartenden Nq plus der Zahl der Kunden, die gerade bedient werden Ns. Die zu erwartende Zahl der Kunden in der Schlange ist
( )
E Nq =
ρ C ( c, a ) . 1− ρ
(3)
Die zu erwartende Wartezeit in der Schlange ist also
( )
E Wq =
4
1 E Nq . λ
( )
(4)
Neuronale Netze
Im Idealfall lernen neuronale Netze ähnlich wie ein Gehirn an Beispielen. In künstlichen neuronalen Netzen werden einige Strukturen eines Nervensystems in karikativer Weise imitiert, um so ein Programm zu erhalten, mit dem Daten in einer bestimmten Weise verarbeitet werden können. Ein künstliches neuronales Netz besteht aus einer Menge von Knoten und deren Verbindungen untereinander, wobei jeder Knoten eine einzelne Nervenzelle modelliert. Vereinfacht ist ein neuronales Netz ein gerichteter und gewichteter Graph. Jeder Knoten j wird durch eine Variable aj(t) zum Zeitpunkt t beschrieben, die seinen Aktivierungszustand anzeigt. Für jede Verbindung zwischen zwei Knoten wird eine weitere Variable wij eingeführt, die die Stärke der Verbindung zwischen den Nervenzellen modelliert und als das Gewicht von Neuron i nach Neuron j bezeichnet wird (vgl. Abbildung 5). 4.1 Neurosimulator FAUN Die Entwicklung des Neurosimulators FAUN begann 1997 an der TU Clausthal und wird mit der FAUN-Projektgruppe an der Universität Han-
470
F. Köller, M. H. Breitner
nover weitergeführt10. Heute ist es mit FAUN Release 1.0 komfortabel möglich, Probleme des überwachten Lernens mit künstlichen neuronalen Netzen zu lösen. Als Netze sind so genannte 3- und 4-lagige Perzeptrons und Radial-Basis-Netze mit und ohne Direktverbindungen verfügbar (vgl. Abbildung 5). Direktverbindungen zwischen der Eingabeschicht und der Ausgabeschicht erhöhen die Flexibilität eines künstlichen neuronalen Netzes. Es können „schwach nichtlineare“ Abhängigkeiten in den Ein- und Ausgabezusammenhängen leichter und besser approximiert werden. Im Vergleich zu anderen Neurosimulatoren trainiert FAUN Netze extrem schnell und konvergiert, dank globaler Optimierung, sehr zuverlässig (Breitner (2003)). Für FAUN 1.0 ist eine sehr komfortable, graphische Benutzeroberfläche unter Microsoft Windows und LINUX verfügbar. Mit der Benutzeroberfläche (GUI) kann das Training der künstlichen neuronalen Netze einfach gesteuert und überwacht werden. Ferner können die besten trainierten Netze einfach ausgewählt und durch Bereitstellung des C- und FORTRAN-Quellcodes evaluiert werden.
Abb. 5. Vollständig verbundenes dreilagiges Perzeptron ohne (links) bzw. mit Direktverbindungen (rechts) mit n2 inneren Neuronen für eine ne-dimensionale Eingabe xk und eine na-dimensionale Ausgabe fapp(xk; p).
10
Siehe auch www.iwi.uni-hannover.de/faun.html.
Optimierung von Warteschlangensystemen in Call Centern
471
4.2 Überwachtes Lernen Überwachtes Lernen bedeutet, dass Ein-/Ausgabezusammenhänge (xi, yi) n n so genannte Muster - mit Input xi ∈ IR e und Soll-Output yi ∈ IR a, i = 1, 2,…, nm, aus einem Musterdatensatz Dm gegeben sind, für die eine „möglichst gute“ C∞-Approximationsfunktion fapp(x; p*) berechnet werden n
n
n
soll, wobei fapp(x; p*) : IR e × IR p → IR a ist. fapp(x; p) hängt unendlich oft differenzierbar von x und dem wählbaren Parametervektor p ab. Dies ist u. a. wichtig für die Verwendbarkeit in der Praxis bzw. das Lösen schwieriger, multivariater Approximationsprobleme, wie z. B. Prognosen für Aktien, Indizes oder Zinsen sowie Kapitalmarktanalysen und -bewertungen (auch für Derivate). Dabei müssen die Muster in Dm problemgerecht auf den Trainingsdatensatz Dt := {(x1, y1),…,(xnt, ynt)} und den Validierungsdatensatz Dt := {(xnt+1, ynt+1),…,(xnm, ynm)} aufgeteilt werden. Wichtig ist eine n
n
+
Equilibrierung und Skalierung xi ∈ [–1,1] e und yi ∈ [–c,c] a mit c ∈ ]0,1[ für alle Muster. Für das Training der neuronalen Netze wird in der Regel der Trainings- und Validierungsfehler nt
na
(
ε t ( p ) := ∑∑ f appk ( xi ; p ) − yi , k i =1 k =1
ε v ( p ) :=
nm
)
na
2q
∑ ∑ ( f ( x ; p) − y )
i = nt +1 k =1
appk
i
, 2q
(5)
i,k
benutzt, wobei q ∈ IN gelten muss und oft q = 1 verwendet wird. Eine gute Approximationsfunktion fapp(x; p*) weist einen kleinen Fehler εt ( p*) pro Muster auf, d. h. fapp(x; p*) synthetisiert die Ein/Ausgabezusammenhänge aus Dt ausreichend genau. Darüber hinaus ist ein gutes globales Approximations- bzw. Extrapolationsverhalten von fapp(x; p*) erforderlich. Dafür ist notwendig, dass auch der Fehler εv ( p*) pro Muster klein ist. In der Praxis muss fapp(x; p*) noch weiteren Anforderungen genügen, wie z. B. eine kleine Maximal- oder Gesamtkrümmung aufweisen (Breitner 2003).
5
Simulation von Warteschlangenmodellen
Simulation ist „der experimentelle Zweig des Operations Research“ (Hillier und Lieberman 1997). Komplexe Zusammenhänge werden auf dem
472
F. Köller, M. H. Breitner
Rechner nachgespielt, weil Ausprobieren in der Realität oft zu teuer ist oder das Objekt dabei zerstört wird. Beispielsweise werden im Flugsimulator kritische Turbulenzen untersucht. Simulation kann auch dann verwendet werden, wenn es keine (exakten) mathematischen Lösungsverfahren gibt, oder wenn es zwar prinzipiell mathematische Lösungsmöglichkeiten gibt, diese jedoch zu kompliziert sind. Oft erfordern mathematisch exakte Lösungen zudem einschränkende Annahmen. Etwa bei der Untersuchung von stochastischen Zufallseinflüssen, wie z. B. dem Wartesystem M/M/c. 5.1 Simulation des Inbound-Call-Centers Für ein Inbound-Call-Center sind einschränkende Annahmen bei dem M/M/c-Wartesystem, dass die Zwischenankunftszeiten ebenso wie die Bearbeitungszeiten unabhängig exponentialverteilt seien, alle Anrufer geduldig sind und der Warteraum unendlich groß sei. Auf viele Inbound-CallCenter treffen diese Annahmen des Erlang-C-Modells eher nicht zu. Meist steht nur eine begrenzte Zahl an Wartepositionen zur Verfügung, das heißt, wenn dieser Warteraum voll ist, erhält der Anrufer ein Besetztzeichen. Meist weisen Call Center mehrere Klassen von Anrufern oder Agenten auf oder die Anrufer sind ungeduldig und legen vorzeitig auf. Sind die Zwischenankunftszeiten und die Bearbeitungszeiten nicht exponentialverteilt, so ist es nur schwer bzw. gar nicht möglich, eine analytische Lösung zu finden. Dennoch können grundlegende Zusammenhänge auf der Basis dieses einfachsten Modells in konzeptionell klarer Weise erläutert werden und so wird es regelmäßig bei der Personaleinsatzplanung in der Praxis eingesetzt. Die etablierten verschiedenen Simulationsprachen, wie z. B. GPSS (ab 1962 entwickelt), SIMSCRIPT, SIMULA oder DYNAMO besitzen integrierte Prozeduren, die es ermöglichen einige Warteschlangenprobleme in kurzer Zeit zu modellieren. Die Prozeduren der Programme sind aber nur allgemein anwendbar und nicht direkt problemspezifisch angepasst11. Deshalb und weil verschiedenste komplexere Warteschlangenprobleme ohne einschränkende Annahmen simuliert werden sollen, wurde ein eigenes Simulations-Tool erst in Maple, dann in C++ entworfen. Während die Simulationen auf einem Intel Pentium 4 mit 1,8 GHz und 512 MB RAM in Maple durchaus eine Stunde betragen können, sind es bei dem C++ Pro11
Vertiefende Beispiele und Erläuterungen zu den Simulationsprogrammiersprachen sind in Zimmermann (1997, S. 338), Domschke (2002, S. 220) und Siegert (1991) zu finden.
Optimierung von Warteschlangensystemen in Call Centern
473
gramm nur wenige Sekunden12. Für das Maple-Tool spricht jedoch, dass jede Simulation sofort mit Maple sowohl mathematisch, als auch graphisch analysiert werden kann. Weiterhin besitzt der Neurosimulator FAUN eine Maple Schnittstelle, die es einfach ermöglicht, die neuronalen Netze nicht nur mit den Simulationspunkten zu vergleichen, sondern auch mit den exakten analytischen Lösungen der Kennzahlen. Mit den Simulationsprogrammen können alle Kennzahlen simuliert werden, wir gehen hier aber nur speziell auf die mittlere Wartezeit in der Schlange und auf die Auslastung des Systems ein (vgl. Abbildung 6 und 11), da dies die relevanten Entscheidungsvariablen für einen Call-Center-Manager zur Personaleinsatzplanung sind.
Abb. 6. Links: 349 Simulationspunkte, wobei für die Ankunftsrate λ < cµ gilt und c = 1, 2,…, 20 die Anzahl der Agenten und µ = 1/3 die Bedienrate ist. Rechts: Die 349 Punkte und die dazugehörige mittlere Wartezeit, wobei für jeden Punkt 5.000 ankommende Anrufer simuliert wurden.
Rechts in Abbildung 6 sind die Simulationspunkte für die mittlere Wartezeit (in Minuten) für die Kunden in der Warteschleife in Abhängigkeit von der Ankunftsrate und der Anzahl an Agenten zu sehen. Die Verteilung der Simulationspunkte in der Ebene, die aufgespannt wird durch die Anzahl der Agenten und der Ankunftsrate, ist links zu sehen. Es ist eindeutig zu erkennen, dass die Bedingung aus Gleichung (1), welche besagt, dass die Anrufrate λ strikt kleiner ist als die kombinierte Bearbeitungsrate cµ aller c Agenten, eingehalten wird. Hierbei wird angenommen, dass ein Beratungsgespräch durchschnittlich bei allen Agenten drei Minuten dauert, also 12
Die Zeit für die Simulationen hängt direkt proportional ab von der Anzahl der simulierten Punkte und der Anzahl an Kunden, die pro Punkt simuliert werden.
474
F. Köller, M. H. Breitner
die Bedienrate µ = 1/3 ist und maximal 20 Agenten eingesetzt werden. Geht die Ankunftsrate gegen die Bedienrate, so ist in der Simulation zu erkennen, dass die mittleren Wartezeiten schlagartig ansteigen (vgl. Abbildung 6 rechts), während sie vorher nahezu Null sind. In dem Bereich, wo die mittlere Wartezeit nahezu Null ist, werden die Simulationspunkte durch eine variable Schrittweite bezüglich der Ankunftsrate „ausgedünnt“, um nicht zu viele redundante Informationen für das Training der künstlichen neuronalen Netze zur Verfügung zu stellen und um die Zeit für die Simulationen zu senken13. Die Anzahl der Simulationspunkte in diesem Bereich sollte aber ungefähr genauso groß sein wie die Anzahl der übrigen Punkte, da sonst die zu approximierende Funktion hier einen zu hohen Fehler aufweist und nicht wie die analytische Lösung, bzw. auch die Simulation, eine mittlere Wartezeit von nahe Null hat (vgl. Kapitel 6).
Abb. 7. Stationäres Verhalten der durchschnittlichen Wartezeit bei einer Simulation von n = 1.000 Ankünften und einer Bedienstation (ein Call Center Agent): bis n = 200 Ankünfte unterliegt das System noch starken Schwankungen, stabilisiert sich dann aber und konvergiert gegen seinen Erwartungswert.
5.2 Genauigkeit stochastischer Simulationen Der stationäre Zustand des simulierten Systems schwankt im Zeitablauf, hat aber einen Mittelwert, um den die einzelnen Zustände schwanken bzw. zu dem sie konvergieren (vgl. Abbildung 7). Simulationen, die mit Verteilungen arbeiten, generieren Zufallsvariablen. Bei unendlich vielen Versu13
Der Zeitfaktor ist hauptsächlich von Bedeutung, wenn das Maple-Tool benutzt wird bzw. auch bei dem C++ Tool, wenn wesentlich mehr als 100.000 Ankünfte pro Simulationspunkt simuliert werden sollen.
Optimierung von Warteschlangensystemen in Call Centern
475
chen würde der Zustand des Systems durch die generierten Zufallsvariablen genau seinen Erwartungswert E(x) treffen. Die Unendlichkeit in diesem Zusammenhang zu simulieren ist aber unmöglich. Die Genauigkeit des Erwartungswertes kann jedoch nach einer Gesetzmäßigkeit verbessert werden. Die Gesetzmäßigkeit besagt, wenn die Versuche um das n-fache steigen, verbessert sich der Fehler um das 1n -fache. Wenn der Fehler also auf nur noch 1/10 verbessert werden soll, müssen die Versuche verhundertfacht werden (Siegert 1991, S. 167). Dieses Verhältnis zeigt auf, wie zeitaufwendig eine solche Simulation sein kann, ohne dass eine wesentliche Verbesserung der Genauigkeit erreicht wird.
Abb. 8. Genauigkeit der Simulationen für die mittlere Wartezeit: jeweils die Seitenansicht der Abbildung 6 (rechts) mit 1.) 100 Anrufer pro Punkt, 2.) 1.000 Anrufer pro Punkt, 3.) 5.000 Anrufer pro Punkt und 4.) 10.000 Anrufer pro Punkt; die Punkte „ziehen von unten“ immer näher an die tatsächliche analytische Lösung, da das Einschwingen an Bedeutung verliert.
476
F. Köller, M. H. Breitner
Werden nur wenige Anrufer simuliert, wie z. B. 100 Anrufer (Abbildung 8 1.), so ist schnell ersichtlich, dass bei 20 Call Center Agenten für die ersten 20 Anrufer keine Wartezeiten und für die folgenden kaum Wartezeiten entstehen, da die Agenten den Anstrom an Kunden sehr leicht bewältigen können. Die Simulation für die mittlere Wartezeit befindet sich noch in der Einschwingphase (Anlaufphase) in den stationären Zustand. Wird die Anzahl der simulierten Anrufe schrittweise von 100 auf 1.000, 5.000 und 10.000 erhöht, so hat die Anlaufphase immer weniger Auswirkung auf die Simulationsdaten (vgl. Abbildung 8 2., 3. und 4.) und das System stabilisiert sich. Der stationäre Zustand der einzelnen Simulationspunkte ist abhängig von der Ankunfts- und der Bedienrate. Während bei einem Agenten nur ca. 1.000 Anrufer simuliert werden müssen, sind es bei 20 schon über 5.000 Anrufer um nahezu den stationären Zustand zu erreichen14. Im Folgenden werden daher nur noch die Simulationsdaten mit 5.000 bzw. 10.000 simulierten Anrufern pro Punkt für das Training der neuronalen Netze benutzt. Es sei hier schon darauf hingewiesen, dass sich das System nur annähernd im stationären Zustand befinden muss, da die neuronalen Netze ein Rauschen in den Simulationsdaten sehr gut ausgleichen können. Dennoch sollten sich die Simulationsdaten sehr nah an der analytischen Lösung befinden. Besonders wenn der Bereich betrachtet wird, wo die Ankunftsrate gegen die Bedienrate geht und somit die mittlere Wartezeit sprunghaft ansteigt und die Simulationsdaten nur noch unterhalb der analytischen Lösung sind (vgl. Abbildung 8 und Abbildung 6 rechts). Aber in einem Call Center sind aus Servicegründen nur geringe Wartezeiten der Kunden erwünscht, so dass eigentlich nur der Bereich analysiert werden muss, wo die Wartezeiten nahezu Null sind bzw. nur leicht ansteigen15. In diesem Bereich liegt die analytische Lösung bei 5.000 bzw. 10.000 simulierten Anrufern direkt in den Simulationsdaten (vgl. Abbildung 8 3. und 4. jeweils der untere Bereich bis zu 2 Minuten Wartezeit).
14
15
Es gibt keine exakten statistischen Verfahren zur Bestimmung der Anlaufphase, nur heuristische Ansätze wie die Regeln nach Conway, bzw. nach Tocher oder nach Morse, wobei letztere eine Abschätzung liefert: Anlaufzeit > 3 · Ankunftsrate / (Ankunftsrate – Bedienrate)2, vgl. Page (1991) und Ripley (1987). In der Praxis beträgt die maximale Zeit, die ein Kunde warten darf, meist nur wenige Sekunden. Wir betrachten hier dennoch den Bereich weit über zwei Minuten Wartezeit, dementsprechend müssen 5.000 bis 10.000 Anrufer simuliert werden, obwohl für den Praxisfall Call Center weniger gereicht hätten.
Optimierung von Warteschlangensystemen in Call Centern
6
477
Approximation von Kennzahlen für Warteschlangensysteme
Wesentliche Vorteile der Approximation gegenüber der einfachen diskreten Simulation von Kennzahlen sind, • dass eine kontinuierliche Funktion zur Kostenminimierung generiert wird, und • dass die approximierte Funktion eine bessere Annäherung an die analytische Lösung aufweist als die Simulationsdaten. Letzteres ist dadurch begründet, dass die Simulationsdaten immer ein Rauschen aufweisen und die approximierte Funktion in diesen Daten liegt. Da auch stärkere Schwankungen der verwendeten Musterdatensätze durch das neuronale Netz wieder ausgeglichen werden, ist die Simulation, die der Approximation durch den Neurosimulator FAUN vorangestellt ist, zeitlich wesentlich weniger aufwendig, als wenn die gewünschte Kennzahl nur alleine durch Simulation bestimmt werden soll. Wichtig ist jedoch, dass die zugrunde liegende Simulation annähernd den stationären Zustand erreicht und somit hinreichend nahe der analytischen Lösung ist (vgl. Kapitel 5). Da der weitere Arbeitsschritt durch die Approximation mit FAUN nur wenige Sekunden beträgt, entsteht hierdurch kein wesentlicher Nachteil.
Abb. 9. Das Neuronale Netz mit einem verdeckten Neuron (links) weist einen höheren Trainingsfehler auf als das neuronale Netz mit drei inneren Neuronen (rechts), dennoch ist das rechte Netz unbrauchbar für die Kennzahlenbestimmung, da es in den Daten oszilliert.
478
F. Köller, M. H. Breitner
6.1 Approximation mit FAUN 1.0 Nach der Aufteilung der 349 Simulationsdaten16 in nt = 285 Trainings- und nv = 64 Validierungsdaten17 und der Equilibrierung und Skalierung aller Muster stellt sich beim Training der neuronalen Netze schnell heraus, dass dreilagige Perceptrons ohne Shortcuts mit nur einem inneren Neuron in der verdeckten Schicht die besten Resultate für die Approximation der mittleren Wartezeit liefern18 (vgl. Abbildung 9). Dabei wurden Topologien untersucht, bei denen die innere Neuronenanzahl n2 von 1 bis 10 variierte. Gemäß (7) wurde zu den einzelnen Topologien der Trainingsfehler εt und Validierungsfehler εv bestimmt. Neuronale Netze mit einer höheren Anzahl an inneren Neuronen weisen zwar einen geringeren Trainings- und Validierungsfehler auf (vgl. Tabelle 1), sind aber zur Kennzahlenbestimmung unbrauchbar, da sie nicht mehr eine „glatte Fläche“ aufweisen, sondern „wellig“ sind (vgl. Abbildung 9 und 10). Dies ist auch schon bei zwei inneren Neuronen der Fall.
Abb. 10. Links: Vergleich der analytischen Lösung für die mittlere Wartezeit (Gitternetz) mit dem neuronalen Netz (Fläche) bei 10.000 simulierten Anrufern pro Punkt. Rechts: Absolute Differenz der beiden Lösungen in Minuten.
Neuronale Netze mit mehreren inneren Neuronen neigen dazu zwischen den Daten zu oszillieren um diese auswendig zu lernen. Diese Oszillation ist aber in vielen Praxisanwendungen, so auch hier, nicht erwünscht, und so liefern neuronale Netze mit nur wenigen inneren Neuronen trotz eines höheren Trainingsfehlers bessere Ergebnisse. Daher ist eine graphische 16 17
18
Vgl. Abbildungen 5 und 9. Dabei sollten Trainings- und Validierungsdaten so gewählt werden, dass 1 ≤ nt/nv ≤ 9 gilt (vgl. Breitner (2003)). Dies wurde auch schon für das M/M/1 gezeigt (Barthel 2003).
Optimierung von Warteschlangensystemen in Call Centern
479
Analyse empfehlenswert bzw. in einer mathematischen Analyse muss der Krümmungstensor möglichst klein sein (vgl. Breitner 2003). Dies zeigt auch der graphische Vergleich mit der analytischen Lösung für die zu erwartende Wartezeit in der Schlange aus (4) in Abbildung 10 (links). Die absolute Differenz der beiden Lösungen (Abbildung 10 rechts) ist fast über den ganzen Bereich nahezu immer Null. Nur in dem Bereich, wo die Ankunftsrate gegen die kombinierte Bedienrate geht, steigt die absolute Differenz sprungartig an, da hier die analytische Lösung gegen unendlich divergiert. Anhand dieser graphischen Betrachtung ist schon zu erkennen, wie gut das neuronale Netz diese Kennzahl approximiert. Die entsprechende mathematische Analyse bezüglich der Abweichungen der beiden Verfahren wird in Tabelle 2 dargestellt. Tabelle 1. Trainings- und Validierungsfehler der besten Approximationsfunktionen Topologie
1 inneres Neuron
2 innere Neuronen
3 innere Neuronen
5 innere Neuronen
10 innere Neuronen
εt*
2,64
2,56
2,49
1,95
1,91
prozentualer Fehler
7,3 %
7,2 %
7,1 %
6,3 %
6,2 %
εv*
0,64
0,74
0,55
0,47
0,53
Rechenzeit in sec.
6,4
10,7
14,9
23,0
43,5
6.2 Qualität der Approximation Um die Approximation der mittleren Wartezeit in der Warteschleife mit der analytischen Lösung und den tatsächlichen Simulationspunkten vergleichen zu können, ist zu beachten, dass die Inputwerte für das neuronale Netz skaliert eingehen, während die Ausgabe zurückskaliert werden muss, so dass die Wartezeit wieder in Minuten abzulesen ist. In der Tabelle 2 werden die drei Verfahren Approximation, Simulation und analytische Lösung der mittleren Wartezeit in der Warteschleife für das entsprechende Beispiel des Inbound-Call-Centers mit maximal 20 Agenten verglichen. Dazu werden für drei verschiedene Bereiche des Lösungsraumes, aufgespannt durch die Ankunftsrate, die kombinierte Bedienrate und die zugehörige mittlere Wartezeit, die minimale, maximale
480
F. Köller, M. H. Breitner
und durchschnittliche Abweichung der drei Verfahren untereinander in Minuten bestimmt. Die approximierte Lösung auf Basis von neuronalen Netzen hat bis auf einen Wert immer eine geringere durchschnittliche Abweichung zu der analytischen Lösung als die beiden Simulationen einmal mit 5.000 Anrufern pro Punkt und einmal mit 10.000 Anrufern pro Punkt (vgl. Tabelle 2)19. Wird der gesamte Bereich (jeweils die ersten drei Zeilen der Tabelle 2) betrachtet, so treten hier die größten maximalen Abweichungen auf. Dies ist dadurch begründet, dass, wenn die Ankunftsrate λ sich der kombinierten Bearbeitungsrate cµ annähert, die analytische Lösung sehr schnell gegen unendlich geht und auch die Simulationspunkte in diesem Bereich größere Schwankungen aufweisen. Dennoch beträgt die durchschnittliche Abweichung des neuronalen Netzes zur exakten Lösung jeweils nur etwas mehr als eine Minute, da auch der Bereich betrachtet wird, wo alle drei Verfahren eine mittlere Wartezeit von nahezu Null haben. Tabelle 2. Vergleich des besten künstlichen neuronalen Netzes (NN) mit der analytischen Lösung (Ana.) und den Simulationsdaten (Simu.) (alle Werte in Minuten angegeben) Ana. vs. NN
349 Pkt
E(Wq) ≤ 5 280 Pkt
0,1 ≤ E(Wq) ≤ 5 122 Pkt
19
Ana. vs. Simu.
5.000
10.000
5.000
10.000
5.000
10.000
min Abw.
0,0003
0,0007
0,0002
0,0001
2·10–21
2·10–21
max Abw.
19,04
17,25
9,37
16,76
22,87
22,15
Ø Abw.
1,45
1,32
0,51
0,67
1,65
1,45
min Abw.
0,0003
0,0007
0,0002
0,0001
2·10–21
2·10–21
max Abw.
1,32
1,33
3,09
2,94
3,64
2,89
Ø Abw.
0,12
0,16
0,19
0,23
0,20
0,16
min Abw.
0,0003
0,0007
0,003
0,002
0,0005
0,01
max Abw.
1,32
1,33
3,09
2,94
3,64
2,89
Ø Abw.
0.24
0.26
0,39
0,42
0,47
0,37
Anzahl Anrufer E(Wq) gesamt
NN vs. Simu.
Ausnahme bildet der zweite Bereich bei 10.000 simulierten Anrufern, da sind beide Werte gleich 0,16.
Optimierung von Warteschlangensystemen in Call Centern
481
Dementsprechend werden noch zwei zusätzliche Bereiche analysiert. Zum einen wird der Lösungsraum betrachtet, für den die mittlere Wartezeit nicht größer als fünf Minuten ist (E(Wq) ≤ 5), da hier angenommen wird, dass dies für die Kunden des Inbound-Call-Centers eine zumutbarer Wartezeit ist20. Zum anderen wird der Lösungsraum analysiert für den zusätzlich der Bereich nicht betrachtet wird, wo alle drei Verfahren fast Null sind (0,1 ≤ E(Wq) ≤ 5). Es ist ersichtlich, dass das neuronale Netz, welches durch nur 5.000 Anrufer pro Simulationspunkt generiert wurde, geringere Werte aufweist als das beste neuronale Netz mit 10.000 Anrufern pro Punkt. Die durchschnittliche Abweichung beträgt dann nur noch ungefähr sechs (für E(Wq) ≤ 5) bzw. 12 Sekunden (für 0,1 ≤ E(Wq) ≤ 5) und die maximale Abweichung etwas mehr als eine Minute, vgl. Tabelle 2. Es ist daher anzunehmen, dass für diese eingeschränkten praxisrelevanten Bereiche jedoch 5.000 simulierte Anrufer zur Generierung der neuronalen Netze ausreichen, obwohl die approximierte Lösung, generiert durch 10.000 Anrufer pro Punkt, insgesamt eine bessere durchschnittliche Abweichung aufweist. Das beste neuronale Netz weicht auf einem Intervall von null bis fünf Minuten für die mittlere Wartezeit nur im Durchschnitt sechs Sekunden von der analytischen Lösung ab. 6.3 Auswertung des Inbound-Call-Centers Neben der durchschnittlichen Wartezeit der Kunden in der Warteschleife ist für einen Call-Center-Manager noch der Auslastungsgrad bzw. Servicegrad ρ seiner Agenten entscheidend. Wenngleich auch der Auslastungsgrad hier durch (1) sehr einfach bestimmt werden kann, wurde er mit simuliert und dann mit FAUN approximiert, da ρ bei weit aus schwierigeren Problemen nicht mehr so leicht zu bestimmen ist (z. B. sind nicht alle Agenten identisch und haben alle die gleiche Bedienrate µ). Während die Ankunftsrate tageszeitabhängig und exogen ist (vgl. Abbildung 1), d. h. nicht beeinflussbar vom Call-Center-Manager21, ist die Anzahl an Agenten dagegen endogen, also steuerbar. In Abbildung 11 ist zu erkennen, dass, wenn die Ankunftsrate gegen die kombinierte Bedienrate geht, die durchschnittliche Wartezeit (links) lange Zeit Null bleibt, dagegen aber der Auslastungsgrad (rechts) ständig steigt. Ein Call-CenterManager ist also bei vorgegebener Ankunftsrate bestrebt, einen möglichst 20 21
Oft liegt diese obere Grenze in der Praxis doch weit niedriger. Die Warteschleifen in Call Centern haben eine vom System bzw. auch vom Call-Center-Manager vorgegebene bzw. einstellbare Kapazität, so dass Kunden bei voller Warteschleife abgewiesen werden, und somit kann indirekt Einfluss genommen werden.
482
F. Köller, M. H. Breitner
hohen zumutbaren Auslastungsgrad seiner Agenten gegenüber möglichst geringen Wartezeiten der Kunden zu erreichen. Die approximierten Lösungen dieser beiden Kennzahlen sind also nur dann sinnvoll einsetzbar, wenn ein hinreichend genaues Prognoseverfahren für die Ankunftsrate der nächsten Stunden bzw. Tage zur Verfügung steht.
Abb. 11. Approximierte durchschnittliche Wartezeit der Kunden in der Warteschleife (links) und der dazugehörige approximierte Auslastungsgrad (rechts) mit den jeweiligen Simulationspunkten.
Soll zum Beispiel die mittlere Wartezeit eines Kunden nur eine Minute betragen und die prognostizierte Ankunftsrate für die nächsten Zeitintervalle fünf Kunden pro Minute beträgt, so liefert die approximierte Lösung, dass 16,32 Agenten, also 17, eingesetzt werden müssen. Dabei beträgt der approximierte Auslastungsgrad der 17 Agenten 87,85%. Die analytische Lösung für die mittlere Wartezeit in der Schleife liefert einen Wert von 16,49 Agenten, also auch 17, und der Auslastungsgrad der 17 Agenten beträgt bei der analytischen Lösung 88,23%.
7
Fazit und Ausblick
Der Neurosimulator FAUN bietet eine Möglichkeit, für alle Warteschlangensysteme eine approximierte, explizite Lösung für deren Kennzahlen zu generieren. Dieser Aufsatz zeigt anhand des Standardmodells M/M/c wie dies möglich wird und welche Güte die approximierte Lösung im Gegensatz zur – hier ermittelbaren – analytischen Lösung besitzt. Die so gewonnenen Erkenntnisse können auf Modelle ohne analytische Lösung übertragen werden, die bisher nur mit Simulationen gelöst werden können.
Optimierung von Warteschlangensystemen in Call Centern
483
Vorteile der Approximation von Warteschlangenkennzahlen bei schwierigen Warteschlangenproblemen gegenüber der Analyse durch diskrete Simulationen sind, • dass eine analytische Funktion zur Personaleinsatzplanung und Kostenminimierung generiert wird, die extrem schnell auswertbar ist, und • dass das unvermeidliche Rauschen in den Simulationsdaten geglättet wird, d. h. die Kennzahlen genauer verfügbar sind bzw. deutlich weniger Simulationen nötig sind. Es brauchen nicht besonders viele Punkte zum Training der neuronalen Netze simuliert zu werden gegenüber einer „flächendeckenden“ Auswertung mit einer Simulation. Dies ist ein erheblicher Zeitvorteil, da der zusätzliche Schritt des FAUN-Trainings i. d. R. nur wenige Sekunden dauert. Ein weiterer Vorteil ist, dass bei der Simulation der Muster für das Training mit FAUN unterschiedlichste Verteilungen für die Ankunfts- und Bedienrate, so wie sie in der Praxis tatsächlich vorkommen, eingesetzt werden können. Beispielsweise kann so anhand des realen Anruferaufkommens in einem Call Center die tatsächliche Verteilung über einen längeren Zeitraum bestimmt und für die Simulation verwendet werden. Analog kann mit dem Bedienprozess verfahren werden. Aus realen Daten können dann Simulationspunkte für das Training der künstlichen neuronalen Netze generiert werden, um so die Abläufe in einem Call Center durch realistischere Bestimmung der Warteschlangenkennzahlen wesentlich praxisnäher abzubilden. Es muss also nicht das M/M/c-Modell mit all seinen Einschränkungen als Grundlage für die Mustergenerierung dienen. Dieses aus der Praxis gewonnene Datenmaterial kann durchaus verrauscht sein, da neuronale Netze mit wenigen inneren Neuronen sich „in die Daten legen“ und so oft ein gleichmäßiges, oft weißes Rauschen ausgleichen. Bevor jedoch schwierigere Warteschlangenprobleme ohne analytische Lösung anhand neuronaler Netze analysiert werden, muss weiter untersucht werden, ab wann die Simulationspunkte in Abhängigkeit von der Ankunfts- und Bedienrate nahezu ihren stationären Zustand erreichen. Wichtig ist, dass der jeweilige Einschwingvorgang der Simulationen nur wenig mitgelernt wird. Ein Ansatz zur besseren Generierung der Simulationsdaten wäre zum Beispiel, dass die Auswertung der Wartezeiten bzw. die Bestimmung der Kennzahlen erst nach einer gewissen Anzahl von ankommenden Kunden anfängt, um so den Vorgang des Einschwingens abzuschneiden.
484
F. Köller, M. H. Breitner
Literatur Barthel A (2003) Effiziente Approximation von Kenngrößen für Warteschlangen mit dem Neurosimulator FAUN 1.0. Diplomarbeit am Institut für Wirtschaftswissenschaft der Universität Hannover, Königsworther Platz 1, 30167 Hannover Bolch G (1989) Leistungsbewertung von Rechensystemen mittels analytischer Warteschlangenmodelle. Teubner, Stuttgart Box GEP, Jenkins G M, Reinsel G C (1994) Time Series Analysis: Forecasting and Control, 3. Aufl. Prentice Hall, New Jersey Breitner MH (2003) Nichtlineare, multivariate Approximation mit Perzeptrons und anderen Funktionen auf verschiedenen Hochleistungsrechnern. Akademische Verlagsgesellschaft Aka GmbH, Berlin Call Center-Benchmark Kooperation (2004) Kooperationsprojekt: Purdue University, Universität Hamburg, Initiator der profiTel MANAGEMENT CONSULTING. http://www.callcenter-benchmark.de/index3.html. Letzter Abruf: 10.10.2004 Datamonitor (2004) Datamonitor. http://www.datamonitor.com. Letzter Abruf 21.05.2004 Domschke W, Drexl A (2002) Einführung in Operations Research, 5. Aufl. Springer, Berlin Helber S, Stolletz R (2004) Call Center Management in der Praxis: Strukturen und Prozesse betriebswirtschaftlich optimieren. Springe, Berlin Henn H, Kruse JP, Strawe OV (1998) Handbuch Call Center Management, 2. Aufl. Telepublic Verlag, Hannover Hillier FS, Lieberman GJ (1997) Operations Research, 5. Aufl. Oldenbourg, München Wien Kestling V (2004) Das Call Center-Jahr 2003 – Rückblick und Ausblick. Markt & Trends CallCenter, CRM, IT/TK, Telesales und –services. Presse Mitteilung Meyer M, Hansen K (1996) Planungsverfahren des Operations Research, 4. Aufl. Vahlen, München Page B (1991) Diskrete Simulation. Springer, Berlin Ripley BD (1987) Stochastic Simulation. John Wiley & Sons, New York Schassberger R (1973) Warteschlangen. Springer, Berlin Siegert HJ (1991) Simulation zeitdiskreter Systeme. Oldenbourg, München Wien Zimmermann W (1997) Operations Research: quantitative Methoden zur Entscheidungsvorbereitung, 8. Aufl. Oldenbourg, München Wien
Das kapazitierte Standortproblem: Branch-andPrice und die Wahl der Verzweigungsvariable Simon Görtz1, Andreas Klose2 1
Fachbereich Wirtschafts-und Sozialwissenschaften, Bergische Universität Wuppertal, Gaußstr. 20, 42119 Wuppertal, [email protected] 2
Institut für Operations Research, Universität Zürich, Moussonstr. 15, 8044 Zürich, Schweiz, [email protected]
Abstract Das kapazitierte Standortproblem, welches in der englischsprachigen Literatur als „Capacitated Facility Location Problem” (CFLP) bezeichnet wird, ist eine sehr bekannte kombinatorische Optimierungsaufgabe mit zahlreichen Anwendungen in der Produktions- und Distributionsplanung. Das Problem besteht in der Auswahl von Standorten für Depots bzw. Warenlager aus einer gegebenen Menge potentieller Standorte und der Bestimmung der Liefermengen an gegebene Kundenorte derart, dass die Nachfragemengen zu minimalen totalen Kosten – bestehend aus den Kosten des Transports sowie den variablen und fixen Standortkosten – bei Beachtung gegebener Kapazitätsgrenzen für die Umschlagsmengen der Depotstandorte befriedigt werden können. Zur exakten und approximativen Lösung dieser Aufgabe wurden in der Literatur eine Reihe von Verfahren vorgestellt. Exakte Branch-and-Bound-Algorithmen beruhen dabei i. d. R. auf Lagrange-Relaxationen und dem Einsatz von Subgradientenverfahren. Dies hat den Nachteil, dass zum Aufbau des Enumertionsbaumes keine (fraktionalen) primalen Lösungen als Leitlinie zur Verfügung stehen. Mit Hilfe von Verfahren der Spaltengenerierung lässt sich jedoch die zur LagrangeSchranke gehörige primale Lösung ermitteln. In dieser Arbeit wird ein auf diesem Prinzip beruhendes Branch-and-Bound-Verfahren vorgestellt, wobei vor allem die Untersuchung unterschiedlicher Regeln zur Bestimmung der Verzweigungsvariablen im Vordergrund steht.
486
1
S. Görtz, A. Klose
Einleitung
Das kapazitierte Standortproblem oder „Capacitated Facility Location Problem” (CFLP) beinhaltet die für die strategische Distributionsplanung zentrale Aufgabe der Einplanung von Standorten für Depots bzw. Warenlager, der Abgrenzung zugehöriger Lieferbereiche und der Ermittlung der entsprechenden Liefermengen. Standorte können dabei aus einer gegebenen Menge potentieller Standorte ausgewählt werden. Die zugrundeliegende Zielsetzung beinhaltet die Minimierung der aus Transportkosten sowie variablen Umschlags- und fixen Standortkosten sich zusammensetzenden totalen Distributionskosten; Restriktionen bestehen in dem Erfordernis der vollständigen Abdeckung gegebener periodischer Nachfragemengen sowie in der Beachtung von maximalen Umschlagskapazitäten der Depots. Die Kosten des Transports als auch des Umschlags im Depot werden hierbei vereinfachend als proportional zur transportierten bzw. umgeschlagenen Menge angenommen.1 Die Aufgabe kann als ein gemischtganzzahliges lineares Programm formuliert werden. Das zugehörige Modell besitzt nicht nur Anwendungen im Rahmen der Distributionsplanung, sondern auch bei der Planung von Losgrößen in der Produktion (Pochet u. Wolsey 1988) als auch beim Design von Telekommunikationsnetzwerken (Kochmann u. McCallum 1981; Mirzaian 1985; Boffey 1989). Zur Lösung des CFLPs wurden in der Literatur eine Vielzahl heuristischer als auch eine Reihe exakter Verfahren entwickelt. Die Arbeiten von Kuehn und Hamburger (1963), Khumawala (1974), Jacobsen (1983), Domschke und Drexl (1985) sowie Mateus und Bornstein (1991) beschreiben klassische Add-, Drop- und Interchange-Verfahren, welche zulässige Lösungen durch iterative Aufnahme bzw. Ausschluss von Standorten ermitteln, wobei regelmäßig Approximationen der dadurch bewirkten Zielwertveränderungen sowie Dominanzkriterien zum Einsatz gelangen. Verfahren der Tabu-Suche schlagen Delmaire et al. (1999) für das rein binäre CFLP sowie Rolland et al. (1996) für das mit dem CFLP verwandte pMedian-Problem vor. Shmoys et al. (1997) entwickeln auf der Basis der LP-Relaxation und der „Filtern-und-Runden”-Technik ein Approximationsverfahren mit fester Gütegarantie für das sogenannte metrische CFLP. Korupolu et al. (2000) zeigen, dass für diese Aufgabe lokale Suchverfahren Approximationsalgorithmen mit konstanter Gütegarantie darstellen. Methoden der Benders-Dekomposition zur exakten Lösung des CFLPs auf der Basis verschärfter Benders-Schnitte werden von Magnanti und Wong (1981) sowie Wentges (1996) vorgestellt. Untersuchungen der polyedri1
Konvexe Umschlagskosten und zugehörige Modellformulierungen behandeln Harkness und ReVelle (2003).
Das kapazitierte Standortproblem
487
schen Struktur des CFLPs liefern die Arbeiten von Leung und Magnanti (1989), Aardal et al. (1995) und Aardal (1998). Aardal (1998) nutzt diese Ergebnisse zur Entwicklung eines Branch-and-Cut-Verfahrens für das CFLP. Eine Vielzahl von Heuristiken als auch von Branch-and-BoundAlgorithmen beruht schließlich auf der Vornahme von Lagrange-Relaxationen in unterschiedlichen Modellformulierungen des CFLPs. Zu nennen sind in diesem Zusammenhang insbesondere die Arbeiten von Geoffrion und McBride (1978), Nauss (1978), Christofides und Beasley (1983), Beasley (1988), Shetty (1990) sowie Ryu und Guignard (1992). Alle diese Ansätze benutzen Subgradientenverfahren zur approximativen Lösung des Lagrange-Duals. Lediglich Van Roy (1986), welcher eine Lagrange-Relaxation der Kapazitätsrestriktionen vornimmt, verwendet das Verfahren der Cross-Dekomposition, welches eine exakte Lösung des Lagrange-Duals ermöglicht. Subgradientenverfahren liefern lediglich eine approximative Lösung des Lagrange-Duals. Die für den Aufbau der Enumeration und die (geschickte) Vornahme von Verzweigungen wichtige Information über primale (fraktionale) Lösungen fehlt somit. Die Ermittlung solcher Lösungen erfordert allerdings die (exakte) Lösung des primalen Masterproblems unter Einsatz von Verfahren der Spaltengenerierung, wobei, insbesondere im Fall von größeren Probleminstanzen, das Ergreifen verschiedener Maßnahmen zur Konvergenzbeschleunigung unerlässlich ist. Ein derartiges, auf einer Lagrange-Relaxation der Nachfragerestriktionen basierendes Verfahren der Spaltengenerierung wird in Klose und Drexl (2001) vorgeschlagen und in Klose und Görtz (2003, 2004) zu einem exakten Branch-and-PriceVerfahren für das CFLP ausgebaut. Der von diesem Verfahren benötigte Rechenaufwand lässt sich jedoch z.T. erheblich durch die Wahl der Variablen, anhand derer eine Verzweigung vorgenommen wird, beeinflussen. In dieser Arbeit sollen eine Reihe alternativer Regeln zur Auswahl der Verzweigungsvariablen innerhalb eines solchen Branch-and-Price-Verfahrens dargelegt und anhand umfangreicher Testprobleme analysiert werden. Hierzu sei im folgenden Abschnitt 2 auf die der Spaltengenerierung zugrundeliegende Formulierung des CFLPs eingegangen und in den Abschnitten 3.1 und 3.2 das Branch-and-Price-Verfahren nochmals zusammenfassend beschrieben. Abschnitt 3.3 diskutiert sodann alternative Regeln zur Auswahl der Verzweigungsvariablen, welche schließlich in Abschnitt 4 umfangreichen numerischen Experimenten unterzogen werden.
488
2
S. Görtz, A. Klose
Problemformulierung und Problemreformulierung
Sei J die Menge potentieller Depotstandorte, I die gegebene Menge der zu beliefernden Nachfrageorte, fj die fixen Kosten der Errichtung und Unterhaltung eines Depots am Standort j∈J, di die Bedarfsmenge pro Periode beim Nachfrageort i∈I, sj die Kapazität eines Depots am Standort j∈J, sowie cij die gesamten Kosten der Belieferung des Kunden i∈I durch ein Depot am Standort j∈J.2 Ferner beschreibe die kontinuierliche Variable xij den Anteil der Nachfrage di, welchen der Nachfrageort i∈I von einem Depot am Standort j∈J pro Periode bezieht, und die binäre Variable yj korrespondiere zu der Entscheidung, am Standort j∈J ein Depot zu errichten (yj=1) oder nicht zu errichten (yj=0). Das CFLP kann damit wie folgt als ein gemischt-ganzzahliges lineares Programm formuliert werden:
Z = min
∑ ∑ cij xij + ∑ f j y j
(1)
∑ xij = 1
∀i ∈ I
(2)
∑ di xij ≤ s j y j
∀ j∈J
(3)
0 ≤ xij ≤ 1
∀i ∈ I, j ∈ J
(4)
0 ≤ yj ≤1
∀ j∈J
(5)
y j ∈ {0,1}
∀ j∈J .
(6)
i∈I j∈J
u.d.N.:
j∈J
j∈ J
i∈I
Die Nebenbedingungen (2) bringen zum Ausdruck, dass die gesamte Nachfrage jedes Kunden zu sättigen ist, und die Bedingungen (3) limitieren den Umschlag eines Depots am Standort j auf die verfügbare Kapazität in Höhe von sj für yj=1 bzw. in Höhe von 0 für yj=0. Ohne Einschränkung der Allgemeinheit kann dabei angenommen werden, dass sowohl cij≥ 0, fj≥0, di≥0 sowie sj>0 für alle i∈I und j∈J gilt als auch S ( J ) :=
s j ≥ D( I ) ∑ s j > D( I ) := ∑ di und S ( J ) − min j∈ J j∈J
i∈I
erfüllt ist. Das obige Modell genügt zur Beschreibung des CFLPs als ein gemischt-ganzzahliges Programm. Gegebenenfalls werden jedoch zum Zweck der Verschärfung der LP-Relaxation sowie bestimmter LagrangeRelaxationen noch zusätzlich die Bedingungen 2
Hierbei werden lineare Kosten unterstellt, d.h. cij = kijdi mit kij als Kosten pro Einheit.
Das kapazitierte Standortproblem
489
xij − y j ≤ 0 ∀ i ∈ I , j ∈ J
(7)
∑ s j y j ≥ D( I )
(8)
und j∈ J
zur Problemformulierung hinzugefügt.3 Wie jedes andere gemischt-ganzzahlige Programm kann auch das CFLP als ein ganzzahliges bzw. gemischt-ganzzahliges Optimierungsproblem geschrieben werden, welches eine mit der Problemgröße exponentiell wachsende Anzahl von Variablen aufweist. Ziel derartiger Reformulierungen ist die Gewinnung einer schärferen linearen Relaxation, die sodann mit Hilfe von Methoden der Spaltengenerierung bearbeitet wird, wobei gegebenenfalls dieses Dekompositionsverfahren im Rahmen sogenannter Branchand-Price-Algorithmen zur Ermittlung nachgewiesen optimaler Lösungen ausgenutzt wird. Im Hinblick auf das CFLP bezeichne dazu
Y := { y t : t ∈ T} die Menge aller y, welche den Nebenbedingungen (6) und (8) genügen.4 Die endliche Menge Y korrespondiert somit zu sämtlichen Teilmengen von Depotstandorten, deren Gesamtkapazität ausreichend ist, um die Gesamtnachfrage zu befriedigen. Ferner sei
X j := conv( X Ej ) mit X Ej := {x rj = ( xijr )i∈I : r ∈ R j } die (konvexe und beschränkte) Menge aller Lösungen xj = (xij)i∈I, welche für gegebenes j den Nebenbedingungen (3) und (4) im Fall von yj = 1 genügen, wobei die Menge XjE die Menge aller Eckpunkte von Xj bezeichne. 5 Lösungen xj ∈ Xj repräsentieren somit von einem Depot am Standort j ausgehende und der Depotkapazität genügende Flussmengen (ausgedrückt als Anteil an der Nachfrage) zu den Kundenorten i ∈ I. Das CFLP lässt sich 3
4
5
Die Nebenbedingungen (7) werden durch die Kapazitätsrestriktionen (3) und die Ganzzahligkeitsbedingungen (6) impliziert. Sie erlauben somit eine Relaxationsverschärfung bei Relaxation einer dieser Restriktionen. Entsprechend folgt die Restriktion (8) aus den Nachfrage- und den Kapazitätsrestriktionen (2) bzw. (3), so dass sie bei Relaxation einer dieser Nebenbedingungen eine Relaxationsverschärfung bewirken kann. Die Menge T fungiert als eine (endliche) Indexmenge aller binären Lösungen, welche der Restriktion (8) genügen. Die Menge Rj ist Indexmenge der endlich vielen Eckpunkte des Polytops Xj.
490
S. Görtz, A. Klose
damit beschreiben als die Aufgabe der Auswahl einer Depotteilmenge O = {j ∈ J : yj = 1, y ∈ Y} mit genügender Kapazität und die Wahl von je höchstens einem kapazitätszulässigen Flussmengenvektor xj ∈ Xj für jedes j ∈ J derart, dass eine vollständige Belieferung jedes Nachfragers zu minimalen Gesamtkosten resultiert. Da jedes xj ∈ Xj in der Form xj =
∑ β jr x rj , wobei ∑ β jr ≤ 1 und β jr ≥ 0 ∀r ∈ R j
,
r∈R j
r ∈R j
dargestellt werden kann und 0 ∈ Xj für jedes j ∈ J ist, ergibt sich sodann mit
Ft =
∑ f j ytj j∈J
∀ t ∈ T und C jr =
∑ cij xijr i∈I
∀ j∈ J, r ∈R j
die folgende äquivalente Beschreibung des CFLPs:
∑ Ftα t + ∑ ∑ C jr β jr
Z = min
t∈T
u.d.N:
(9)
j∈J r∈R j
∑α t = 1
(10)
t ∈T
∑ ∑ xijr β jr ≥ 1
∀i ∈ I
(11)
∑ y tjα t − ∑ β jr ≥ 0
∀ j∈J
(12)
β jr ≥ 0
∀ j ∈ J, r ∈R j
(13)
α t ∈ {0,1}
∀t ∈ T ,
(14)
j∈J r∈R j
t ∈T
r∈R j
wobei die binäre Variable αt den Wert 1 annimmt, wenn die zu y tj gehörige Depotteilmenge ausgewählt wird. Die Nebenbedingungen (11) beinhalten wiederum die Forderung nach der Belieferung eines jeden Kunden mit seiner vollständigen Nachfrage. Ferner kann gemäβ den Restriktionen (12) kein positiver Fluss von einem geschlossenen Depot ausgehen bzw. maximal nur ein Flussvektor für jedes offene Depot ausgewählt werden.
3
Lösungsansatz
Die Formulierung (9)–(14) bildet die Basis eines Branch-and-Bound- bzw. Branch-and-Price-Verfahrens wie es in unterschiedlicher Form unter Aus-
Das kapazitierte Standortproblem
491
nutzung jeweils verschiedener Verzweigungsstrategien in Klose und Görtz (2003, 2004) zur exakten Lösung von Instanzen des CFLPs vorgeschlagen wird. Da die Anzahl Variablen der Formulierung (9)–(14) exponentiell mit der Anzahl Kunden und potentieller Standorte wächst, kann die lineare Relaxation von (9)–(14), d.h. das lineare Programm, welches entsteht, wenn die Ganzzahligkeitsbedingungen (14) durch αt≥0 ersetzt werden6, nur mit Hilfe von Methoden der Spaltengenerierung exakt gelöst werden. Ausgehend von kleinen Teilmengen T⊂T und Rj⊂Rj, bekannter Spalten werden hierzu in jeder Iteration mittels Lösen des „Pricing-Subproblems” die reduzierten Kosten von Nichtbasisvariablen t∉T bzw. r∉Rj ermittelt und zusätzliche Spalten mit negativen reduzierten Kosten in die Optimierung einbezogen, bis Optimalität erreicht ist. Ein derartiges Verfahren der Spaltengenerierung wird in Klose und Drexl (2001) zur Lösung der linearen Relaxation von (9)–(14) vorgeschlagen und von Klose und Görtz (2003, 2004) innerhalb verschiedener Branch-and-Price-Verfahren für das CFLP genutzt. An dieser Stelle seien diese Vorgehensweisen in den Abschnitten 3.1 und 3.2 nochmals kurz skizziert, um anschließend in Abschnitt 3.3 auf die Problematik der Wahl von Verzweigungsvariablen eingehen zu können. 3.1 Spaltengenerierung Die lineare Relaxation des Programms (9)–(14) kann mit Hilfe von Methoden der Spaltengenerierung gelöst werden. Bezeichnen θ0, θi für i∈I und νj für j∈J zu den Restriktionen (10), (11) und (12) gehörige Dualvariablen, so entspricht das Dual der linearen Relaxation von (9)–(14) dem linearen Programm
Z D = max θ 0 + u.d.N.: θ 0 +
∑θ i ∑ y tjν j ≤ Ft
∀t ∈ T
(16)
∑ xijrθ i −ν j ≤ C jr
∀ j ∈ J,r ∈R j
(17)
θ i ≥ 0, ν j ≥ 0
∀i ∈ I, j ∈ J .
(18)
j∈ J
i∈I
6
(15)
i∈I
Die Bedingungen αt ≤ 1 und βjr ≤ 1 werden bereits durch die Nebenbedingungen (10) und (12) impliziert.
492
S. Görtz, A. Klose
Bezeichnet nun (θ 0 ,θ ,ν ) eine optimale Lösung des obigen Duals unter der Einschränkung, dass die Mengen T und Rj, j ∈ J, auf bereits generierte Teilmengen T ⊂ T und Rj ⊂ Rj von Spalten des primalen Masterproblems beschränkt werden, so sind die reduzierten Kosten von Variablen βjr durch C jr = C jr −
∑ xijrθ i + ν j i∈ I
∀ j ∈ J, r ∈ R j ,
gegeben, während sich die reduzierten Kosten von Variablen αt auf
Ft = Ft −
∑ y tjν j − θ 0
∀t ∈ T
j∈ J
belaufen. Zur Überprüfung der Optimalität der aktuellen Lösung des Masterproblems ist es somit erforderlich, die Pricing-Subprobleme
⎧⎪ ⎫⎪ ⎫⎪ ⎧⎪ ν j (θ ) := max ⎨ xijrθ i − C jr ⎬ = max ⎨ (θ i − cij ) xij : x j ∈ X j ⎬ r∈R j ⎪ ⎪⎭ ⎪⎭ ⎪⎩ i∈I ⎩ i∈I
∑
∑
⎧⎪ ⎫⎪ = max ⎨ (θ i − cij ) xij : di xij ≤ s j und 0 ≤ xij ≤ 1 ∀ i ∈ I ⎬ ⎪⎩ i∈I ⎪⎭ i∈I
∑
(19)
∑
und ⎧⎪ θ 0 (ν ) := min ⎨ Ft − t∈T ⎪ ⎩
⎫⎪ ⎧⎪ ⎫⎪ y tjν j ⎬ = min ⎨ ( f j − ν j ) y j : y ∈ Y ⎬ ⎪⎭ ⎪⎩ j∈J ⎪⎭ j∈J
∑
∑
⎫⎪ ⎧⎪ s j y j ≥ D ( I ) und y j ∈{0,1} ∀ j ∈ J ⎬ = min ⎨ ( f j − ν j ) y j : ⎪⎭ ⎪⎩ j∈J j∈ J
∑
(20)
∑
zu lösen, wobei (19) ein einfach lösbares kontinuierliches Rucksackproblem und (20) ein in pseudo-polynomialer Zeit lösbares binäres Rucksackproblem darstellt. Gilt sodann
ν j (θ ) > ν j für ein j ∈ J bzw. θ 0 (ν ) < θ 0 , so liefern die optimalen Lösungen der obigen Pricing-Subprobleme entsprechende Spalten mit negativen reduzierten Kosten, welche zusätzlich in das Masterproblem aufzunehmen sind. Im herkömmlichen Ansatz der Spaltengenerierung, welcher einer Dantzig-Wolfe-Dekomposition (Dantzig u. Wolfe 1960) in linearen Programmen entspricht, wird sodann solange zwischen der Ermittlung optimaler
Das kapazitierte Standortproblem
493
Lösungen der Pricing-Subprobleme und des Masterproblems iteriert, bis Optimalität erreicht ist, d.h. keine Spalten mit negativen reduzierten Kosten mehr existieren. Aufgrund der schwachen Konvergenz des Standardverfahrens ist dieses hier jedoch nicht verwendbar. Betrachtet man die Struktur des dualen Problems (15)–(18), so ist erkennbar, dass dieses die Maximierung der stückweise linearen und konkaven Funktion Z D (θ ) =
⎧⎪ ⎫⎪ θ i + min ⎨ f j − ν j (θ ) y j ⎬ y∈Y ⎪ ⎪⎭ i∈ I ⎩ j∈ J
∑
∑(
)
(21)
beinhaltet, wobei die stückweise linearen und konvexen Funktionen νj(θ) durch (19) definiert sind. Für festes θ ist ZD(θ) nichts anderes als die Lagrange-Schranke, welche aus einer Lagrange-Relaxation der Nachfragebedingungen (2) im CFLP gewonnen werden kann.7 Zur Bestimmung optimaler primaler und dualer Lösungen des Masterproblems, d.h. der linearen Relaxation des Programms (9)–(13), kann somit insbesondere auf verschiedene Methoden der nichtdifferenzierbaren Optimierung zurückgegriffen werden. Einen Überblick über alternative Methoden der nichtdifferenzierbaren Optimierung liefern beispielsweise die Aufsätze von Lemaréchal (1989) sowie Goffin und Vial (2002). In dem hier vorliegenden Fall verursacht allerdings die Optimierung und Reoptimierung des relaxierten linearen Masterproblems den Hauptaufwand. Selbst bei Einschränkung auf bekannte Spalten ist das Masterproblem beim Vorliegen großer Instanzen des CFLPs sehr umfangreich und in jeder Iteration werden eine ganze Reihe von Spalten dem Masterproblem hinzugefügt.8 Hingegen sind die PricingSubprobleme (19) aber auch (20) zumeist sehr schnell gelöst. In Klose und Drexl (2001) wird daher eine Methode der Spaltengenerierung verwendet, welche versucht, die Anzahl Aufrufe des Masterproblems unter Inkaufnah7
8
Dies zeigt insbesondere auch, dass die lineare Relaxation der Reformulierung (9)–(13) schärfer bzw. nicht schwächer ist als die LP-Relaxation der ursprünglichen Formulierung (1)–(6). Einen numerischen und insbesondere auch theoretischen Vergleich verschiedener Lagrange-Relaxationen des CFLPs liefern Cornuejols et al. (1991). Die Schranke ZD(θ) schneidet dabei in Relation zu anderen Lagrange-Relaxationen bzw. Ansätzen der Lagrange-Dekomposition sehr gut ab, da sie einerseits die LP-Schranke dominiert und andererseits noch mit pseudo-polynomialem Aufwand berechenbar ist. Alternativ könnte anstatt eines solchen „Multiple Pricings” ein „Single Pricing” bzw. eine Mischung daraus verwendet werden. Dies schwächt jedoch das Konvergenzverhalten und hat eine höhere Anzahl an Iterationen des Dekompositionsverfahrens zur Folge, so dass insgesamt i.d.R. ein höherer Gesamtaufwand anstatt einer Rechenzeitersparnis resultiert.
494
S. Görtz, A. Klose
me einer erhöhten Anzahl gelöster Pricing-Subprobleme zu reduzieren, wozu ein Verfahren der „gewichteten Dekomposition” mit einem Subgradientenverfahren zur Maximierung der Funktion (21) verknüpft wird. Es bezeichne wieder θ die optimale Lösung für die Dualvariablen θ im Dual des relaxierten Masterprogramms. Sei ferner θ * jener Vektor der Dualvariablen θ, welcher im Laufe des Dekompositionsverfahrens zur soweit besten unteren Schranke Z D (θ * ) führte. Die von Wentges (1997) vorgeschlagene „gewichtete Dekomposition” verwendet sodann das gewichtete Mittel ~ θ = γθ + (1 − γ )θ * , mit 0 < γ < 1, als Schattenpreise und somit Input für die in der nächsten Iteration zu lösenden Pricing-Subprobleme. Die Gewichtung kann dazu führen, dass die ~ erhaltene duale Lösung θ für das vollständige duale Masterproblem (15)– (18) zulässig ist und daher keine zusätzliche Spalte zu diesen Schattenpreisen negative reduzierte Kosten besitzt. Sofern in diesem Fall das Optimum ~ noch nicht erreicht ist, verbessert jedoch die untere Schranke Z D (θ ) die bisher beste erzielte Schranke mindestens um den Betrag
(
)
γ Z D − Z D (θ * ) , wobei Z D = θ 0 +
∑θ i . i∈I
Insbesondere eröffnet dies die Chance auf zusätzliche Verbesserungen der Schranke, wenn der Gewichtungsparameter γ vorsichtig erhöht wird. In Klose und Drexl (2001) wird daher der Parameter γ in kleinen Schritten erhöht und so die Verbindungslinie zwischen θ * und θ nach weiteren Verbesserungen abgesucht, bis zu den aktuellen Schattenpreisen neue Spalten mit negativen reduzierten Kosten bestimmt worden sind. Wird allerdings die Differenz zwischen der unteren und oberen Schranke Z D (θ * ) bzw. Z D auf den Zielwert ZD des Masterproblems gegen Ende des Verfahrens gering, so verschlechtert sich das Konvergenzverhalten der gewichteten Dekomposition – aufgrund der damit verbundenen geringen Verbesserungsmöglichkeiten der unteren Schranke im Fall der Zulässigkeit der ~ dualen Variablen θ – zum Teil erheblich. Um diesen Effekt abzuschwächen, wird in Klose und Drexl (2001) nach jeder Lösung des relaxierten Masterproblems zusätzlich im Fall der Unzulässigkeit der gewichteten du~ alen Lösung θ eine kleine Anzahl von Subgradientenschritten durchgeführt. Subgradientenschritte werden dort ferner zur Initialisierung des Dekompositionsverfahrens herangezogen, indem das relaxierte Masterprob-
Das kapazitierte Standortproblem
495
lem mit ausgewählten, innerhalb der Subgradientenschritte erzeugten Spalten initialisiert wird. Zulässige Lösungen für das CFLP werden im Rahmen dieses Verfahrens mittels Lösen des Transportproblems ermittelt, welches sich ergibt, wenn die Depotstandorte gemäß einer optimalen Lösung des Pricing-Subproblems (20) gewählt werden. Weitere Rechenzeitverkürzungen werden schließlich erzielt, indem • zum Zweck der Problemreduktion nach Durchführung des anfänglichen Subgradientenverfahrens bzw. nach jedem Erhalt verbesserter zulässiger Lösungen für das CFLP ein „Lagrangean Probing” durchgeführt wird, • für das CFLP berechnete zulässige Lösungen dem Masterproblem als Spalten hinzugefügt werden und • inaktive Spalten wieder aus dem Masterproblem entfernt werden, wobei eine Spalte als inaktiv betrachtet wird, wenn sie sich in 5 aufeinanderfolgenden Iterationen nicht in der Basis einer optimalen Lösung des relaxierten Masterproblems befand. Insgesamt werden mit Hilfe dieses Spaltengenerierungsverfahrens insbesondere für große Instanzen des CFLPs gute Ergebnisse erzielt. So lagen im Falle großer Instanzen die zur Lösung der linearen Relaxation der Problemformulierung (9)–(14) benötigten Rechenzeiten zum Teil erheblich unter dem zur Lösung der linearen Relaxation der ursprünglichen Problemformulierung erforderlichem Aufwand. 3.2 Branch-and-Price-Verfahren Nach Durchführung des im vorherigen Abschnitt beschriebenen Verfahrens der Spaltengenerierung genügt die berechnete Lösung des Masterproblems, welche durch (α , β ) gebeben sei, i. d. R. nicht den Ganzzahligkeitserfordernissen (14). Ferner liegt die berechnete untere Schranke ZD zumeist unterhalb des Zielwerts der soweit besten gefundenen heuristischen Lösung. Eine Ermittlung optimaler Lösungen für das CFLP kann jedoch vorgenommen werden, indem das Spaltengenerierungsverfahren in eine Branch-and-Bound-Prozedur eingebunden wird. Verzweigungen können hierbei allerdings nicht anhand der binären Variablen αt der „disaggregierten Formulierung” (9)–(14) vorgenommen werden, da die Setzung von αt =0 die Berechnung zweit- bzw. generell k-ter bester Lösungen des Pricing-Subproblems (20) erfordern würde, was ohne Veränderung der Struktur des Pricing-Problems nicht möglich ist. Innerhalb von Branch-andPrice-Verfahren werden daher Verzweigungen i. d. R. durch Formulierung
496
S. Görtz, A. Klose
von Verzweigungsrestriktionen in den Originalvariablen durchgeführt (vgl. Barnhart et al. 1998). Im Raum der Originalvariablen (x, y) ist die Lösung (α , β ) der linearen Relaxation von (9)-(14) gegeben durch
y=
∑αt yt
und
t∈T
xj =
∑ β jr x rj
∀ j∈J.
r ∈R j
Obige Lösung verletzt genau dann die Ganzzahligkeitsbedingungen (6), wenn α nicht ganzzahlig ist. In Klose und Görtz (2004) wird in einem solchen Fall eine Verzweigung durchgeführt, welche auf einem Ast des Enumerationsbaumes yj=0 für alle j∈L⊂J fordert, während auf dem anderen Ast die Verzweigungsrestriktion
∑ yj ≥1 j ∈L
⇔
∑ηtα t ≥ 1 mit ηt = ∑ y tj
t ∈T
(22)
j ∈L
gesetzt wird. Dabei ist L ⊂ J so gewählt, dass
∑ y j ≈ 0.5 j∈ L
gilt. Innerhalb der Spaltengenerierung ist das Erfordernis yj = 0 ∀ j ∈ L noch einfach zu handhaben, indem alle generierten Spalten, die gegen diese Forderung verstoßen, aus dem Masterprogramm eliminiert, die Restriktion dem Subproblem beigefügt und das Masterproblem mittels der Spaltengenerierung reoptimiert wird. Schwieriger zu handhaben ist jedoch die Verzweigungsrestriktion (22). Diese wird lediglich dem Masterproblem beigefügt, womit sich die Dimension des dualen Problems und bei weiteren Verzweigungen auch der Aufwand zur Durchführung der Spaltengenerierung zum Teil erheblich erhöht. Zudem zeigte sich, dass der Anstieg der unteren Schranke bei Hinzufügung dieser Restriktionen häufig zu gering ist.9 In Klose und Görtz (2003) wird daher zu simplen Verzweigungen der Form
yk = 0 versus
9
yk = 1
Hingegen bewirkt die Zusatzbedingung yj = 0 ∀ j ∈ L zumeist einen relativ starken Anstieg der unteren Schranke, so dass diese Äste des Enumerationsbaumes, wie auch beabsichtigt wurde, i.d.R. schnell ausgelotet werden können. Dies bewirkt, dass die Restriktionen (22) mehr die Funktion von (allerdings zu schwachen) „Schnitten” erfüllen.
Das kapazitierte Standortproblem
497
zurückgekehrt. Obige Verzweigungsrestriktionen können im Subproblem leicht berücksichtigt werden, so dass eine Reoptimierung des Masterproblems erfolgen kann, indem Spalten, welche gegen die Verzweigungsrestriktion verstoßen, eliminiert werden und die Spaltengenerierung wieder aufgenommen wird. Auf diese Weise konnten auch große Instanzen des CFLPs erfolgreich gelöst werden. Die Wahl der Verzweigungsvariable beruht dabei auf dem Kriterium des größten Verstoß gegen die Ganzzahligkeit, d.h.
y k = max min{ y j ,1 − y j } . j∈ J
(23)
Allerdings ist diese Wahl zumeist nicht eindeutig. Ferner ist das Masterprogramm häufig primal degeneriert. Es erscheint somit sinnvoll, alternative Regeln zur Auswahl der Verzweigungsvariablen zu untersuchen, um den erforderlichen Rechenaufwand möglichst positiv zu beeinflussen. 3.3 Alternative Regeln zur Wahl der Verzweigungsvariablen Im Gegensatz zu Branch-and-Price-Verfahren werden für LP-basierte Branch-and-Bound-Methoden in der Literatur eine ganze Reihe alternativer Regeln zur Auswahl der Verzweigungsvariablen genannt (Forrest et al. 1974; Linderoth u. Savelsbergh 1999; Achterberg et al. 2005). Hervorzuheben sind insbesondere die Kriterien • • • •
des maximalen Verstoßes gegen die Ganzzahligkeit, des maximalen Penalties, der maximalen Pseudo-Kosten sowie das sogenannte „Strong-Branching”.
Penalties sind einfach berechenbare untere Schranken auf den Zielwertverlust im linearen Programm, der durch die Forderung nach Ganzzahligkeit für eine einzelne Variable verursacht wird. Ihre Berechnung beruht auf der Vornahme eines einzelnen Schrittes der dualen Simplexmethode nach Hinzufügung der jeweiligen Verzweigungsrestriktion. Das „Strong-Branching” erweitert dieses Konzept, indem für eine ausgewählte Kandidatenmenge von Variablen mit fraktionalem Wert in der aktuellen LP-Lösung eine untere Schranke für den durch die Ganzzahligkeitsforderung bewirkten Zielwertverlust durch die Anwendung von mehr als nur einem Schritt der dualen Simplexmethode berechnet wird. Das Konzept der PseudoKosten verzichtet schließlich auf die Angabe einer echten unteren Schranke für die Zielwertänderung nach Verzweigung; vielmehr wird der durch die Ganzzahligkeit einer Variablen bewirkte Zielwertverlust abgeschätzt
498
S. Görtz, A. Klose
durch die Zielwertänderung, welche früher vorgenommene Verzweigungen anhand der gleichen Variablen verursachten. Bis auf das simple Kriterium der maximalen Verletzung der Ganzzahligkeit sind obige Auswahlregeln innerhalb eines Branch-and-Price-Verfahrens jedoch kaum anwendbar. Penalties als auch das „Strong-Branching” setzen voraus, dass die reduzierten Kosten aller Nichtbasisvariablen sowie die zur betrachteten Basisvariable gehörige vollständige Zeile des Simplextableaus vorliegt bzw. leicht berechnet werden können. Dies ist bei Verwendung eines Spaltengenerierungsverfahrens naturgemäß nicht der Fall. Auch Pseudo-Kosten sind kaum anwendbar, da der Reoptimierungsaufwand bei Spaltengenerierungsverfahren sehr hoch ist und somit nicht genügend Verzweigungen vorgenommen werden können, um ausreichende Informationen über den Einfluss einzelner Variablen auf den Zielwert zu sammeln. Es muss somit versucht werden, entsprechende Ersatzkriterien zu finden, welche mit vertretbarem Aufwand eine gute Entscheidung über die Wahl der Verzweigungsvariablen ermöglichen. Analog zu der dem Konzept von Penalties und Pseudo-Kosten zugrundeliegenden Grundidee sollte dabei prinzipiell versucht werden, den Einfluss von Variablen auf den Zielwert der Relaxation direkt oder indirekt abzuschätzen, um so die Wahl einer Variablen von „hoher Bedeutung”, d.h. hohen „Kosten der Ganzzahligkeitsforderung”, zu ermöglichen. Durch die Vornahme einer Verzweigung anhand einer solchen Variablen wird insbesondere erhofft, dass die untere Schranke auf beiden durch die Verzweigung definierten Ästen des Enumerationsbaumes signifikant ansteigt. Eine den obigen Konzepten von Penalties bzw. Pseudo-Kosten ähnliche Möglichkeit hierzu besteht darin, im zuletzt erhaltenen Masterproblem alle gegen die Restriktion yj = 0 bzw. yj = 1 verstoßenden Spalten zu eliminieren, und das Masterproblem ohne Hinzufügung anderer Spalten einmalig zu reoptimieren. Bezeichnet ∆0j bzw. ∆1j die so erhaltene Veränderung im Zielwert des Masterprogramms bei Setzung von yj = 0 bzw. yj = 1, so kann der Einfluss der Variablen yj auf den Zielwert beispielsweise mittels der Funktion
Eval(∆0j , ∆1j ) mit Eval(a, b) = (1 − µ ) min{a, b} + µ max{a, b}
(24)
abgeschätzt werden, wobei µ ∈ [0,1] ein geeignet zu wählender Parameter darstellt. Ist dann
K = { j ∈ J : 0 < l ≤ y j ≤ u < 1}
(25)
eine durch geeignete Parameter l und u festgelegte Menge an Kandidaten von Variablen mit fraktionalem Lösungswert, so erscheint die Wahl einer
Das kapazitierte Standortproblem
499
Variablen yj mit j ∈ K und maximalem Wert von Eval(∆0j , ∆1j ) als plausibel. Da einerseits der Aufwand zur Ermittlung der obigen Zielwertveränderungen relativ groß werden kann und andererseits der Informationsgehalt dieser Werte aufgrund von Degeneration im Masterprogramm u. U. recht gering ist, werden hier noch die folgenden alternativen Kriterien in Betracht gezogen: • Sei H die Anzahl an Pricing-Subproblemen (20), welche im aktuellen Knoten des Enumerationsbaumes zur Optimierung des zugehörigen Masterproblems gelöst worden sind. Sei ferner h 0j bzw. h1j die Anzahl der ermittelten Lösungen y dieser Pricing-Subprobleme mit yj = 0 bzw. yj = 1. Als Verzweigungsvariable wähle nun jene Variable yj, j ∈ K, mit minimalem Wert von
h 0j / H − 0.5 .
(26)
• Bezeichne e 0j bzw. e1j die Anzahl Spalten des Masterproblems, welche infolge der Setzung von yj = 0 bzw. yj = 1 unzulässig werden. Ferner sei wieder y die Lösung des Masterproblems. Bestimme
⎧⎪e1 , y ≤ 0.5 e j = ⎨ 0j j ⎪⎩e j , y j > 0.5
(27)
und verzweige anhand der Variablen yj, j ∈ K, mit maximalem Wert von ej. Das erste der beiden obigen Kriterien versucht, ein Gleichgewicht hinsichtlich der Auswirkungen der Setzung von yj=0 bzw. yj=1 in den beiden durch die Verzweigung resultierenden Ästen des Enumerationsbaumes herzustellen. Bei Variablen yj, für die in Lösungen des Pricing-Subproblems häufig yj=1 galt, dürfte eine Setzung von yj=1 geringen Einfluss auf die untere Schranke haben. Entsprechendes gilt für Variablen yj bei Setzung von yj=0, wenn für diese Variable in Lösungen des Pricing-Subproblems oft yj=0 galt. Im zweiten Kriterium soll die Variable bestimmt werden, die den stärksten Einfluss auf die Struktur des Masterproblems und somit auf den zur Reoptimierung erforderlichen Aufwand besitzt. Für Variablen yj mit einem Lösungswert nahe bei 0 würde die Streichung der unzulässigen Spalten in Folge der Setzung von yj=0 vermutlich nur geringen Einfluss auf den zur Reoptimierung des Masters erforderlichen Auf-
500
S. Görtz, A. Klose
wand ausüben. Für diese Variablen wird daher die Anzahl der Spalten des Masterproblems bestimmt, die bei einer Setzung von yj=1 unzulässig werden, et vice versa.
4
Numerische Experimente
Der in Klose und Görtz (2003) noch auf einer SUN Workstation getestete Branch-and-Price-Code wurde zur Untersuchung der genannten Verzweigungsregeln unter Benutzung der Programmiersprache GNU Pascal, Version 2.95.3, auf einen Personalcomputer (Pentium IV, 1500 MHz) mit Linux-Betriebssystem (Kernel 2.4.10) portiert. Die binären Rucksackprobleme (20) wurden mit Hilfe des COMBO-Verfahrens von Martello et al. (1999) und Pisingers C-Code (http://www.diku.dk/~pisinger/codes.html) gelöst.10 Zur Lösung der linearen Masterprobleme wurden die Programmbibliothek von ILOG CPLEX, Version 8.0, eingesetzt. Die verwendeten Testprobleme, welche gemäß einer von Cornuejols et al. (1991) beschriebenen Vorgehensweise erzeugt worden sind, teilen sich in drei Gruppen, die sich im Verhältnis r = S(J)/D(I) von Gesamtkapazität S(J) zur Gesamtnachfrage D(I) unterscheiden. Zugrundegelegt wurden die Werte r = 3, r = 5 und r = 10. Für jede der drei Gruppen von Testinstanzen wurden 5 Problemgrößen |I|×|J| = 100×100, 200×100, 200×200, 500×100 und 500×200 benutzt und je 5 Instanzen pro Problemgruppe und –größe erzeugt. Zu Vergleichszwecken wurden diese 75 Testprobleme zusätzlich mit einem der zur Zeit vielleicht besten exakten Verfahren für das CFLP, dem CAPLOC-Verfahren von Ryu und Guignard (1992) gelöst.11 Getestet wurden insgesamt die folgenden sechs alternativen Verzweigungsregeln: • RAND: zufällige Wahl einer Variablen aus der durch (25) gegebenen Kandidatenmenge K; • APS: Auswahl der Verzweigungsvariablen anhand der Häufigkeit des Lösungswertes von 0 oder 1 in Lösungen des Pricing-Subproblems, also jene Variable aus K, welche den Ausdruck (26) minimiert;
10 11
Der C-code wurde mit dem GNU C-Compiler gcc, Version 2.95.3, übersetzt. Die Hauptkomponente des CAPLOC-Verfahrens bildet eine Lagrange-Relaxation der Nachfragebedingungen (2) und der Einsatz von Subgradientenverfahren zur Ermittlung der unteren Schranke. CAPLOC ist in FORTRAN geschrieben. Zur Kompilierung wurde der GNU FORTRAN-Compiler g77, Version 2.95.3 mit Bibliotheksversion Nr. 0.5.25, verwendet.
Das kapazitierte Standortproblem
501
• ASM: Bestimmung einer Variablen aus K mit maximalen Wert der durch (27) definierten Anzahl ej unzulässig werdender Spalten; • ADµ: Wahl der Variablen aus K mit maximalen Wert der durch (24) definierten Funktion Eval(∆0j , ∆1j ) , wobei die beiden Parameterwerte µ = 0,0 und µ = 0,5 getestet wurden; • GVG: Wahl der Variablen aus K mit größtem Verstoß (23) gegen die Ganzzahligkeit. Analog zu einer beim „Strong-Branching” üblichen Vorgehensweise (vgl. Linderoth u. Savelsbergh 1997) wurden in allen obigen Verzweigungsregeln die Parameter l und u, welche die Kandidatenmenge K in (25) bestimmen, durch12
l = 0.75 max{ y j : 0 < y j ≤ 0.5} und u = 0.25 + 0.75 min{ y j : 0.5 ≤ y j < 1} j∈ J
j∈J
festgelegt, wobei wiederum y die berechnete fraktionale Lösung darstellt. Die erzielten Ergebnisse sind in den Tabellen 1 bis 3 zusammengefasst. Für jede Problemgröße ist die Anzahl der untersuchten Knoten (#Kn), die maximale Tiefe des Enumerationsbaumes (Tiefe) sowie die Rechenzeit in Sekunden (Zeit) angegeben. Um die Darstellung übersichtlich zu halten, sind die gemittelten Ergebnisse für die jeweiligen fünf Testinstanzen pro Problemgruppe und -größe ausgewiesen. Die Ergebnisse zeigen, dass die verschiedenen Regeln für die Wahl der Verzweigungsvariablen deutlichen Einfluss auf das Laufzeitverhalten des Branch-and-Price-Verfahrens haben. Dennoch liegen sowohl die Größe und Tiefe des Enumerationsbaumes als auch die Laufzeit über die verschiedenen Problemgruppen und -größen hinweg relativ nahe beieinander. Keine Alternative dominiert alle anderen. Allerdings ist die benötigte Rechenzeit bei Verwendung der Alternative ASM trotz eines zum Teil größeren Enumerationsbaumes in allen Problemgruppen und -größen verhältnismäßig gering. Die auf der Funktion Eval(∆0j , ∆1j ) aufbauende Verzweigungsregel ADµ zeigt von allen Alternativen auch bei unterschiedlicher Wahl des Parameters µ ein schlechtes Laufzeitverhalten. Hervorzuheben ist, dass die Alternativen APS, ASM, AD0,0, AD0,5 und GVG im Vergleich zu der zufälligen Verzweigung RAND in den Problemgrößen 500×100 und
12
Es wird l = 0.5 bzw. u = 0.5 gesetzt, wenn { j ∈ J : 0 < y j ≤ 0.5} = ∅ bzw. { j ∈ J : 0.5 ≤ y j < 1} = ∅ ist.
502
S. Görtz, A. Klose
500×200 deutlich weniger Rechenzeit im Mittel benötigen und somit für die Wahl der Verzweigungsvariable sinnvolle Kriterien darstellen. Tabelle 1. Vergleich der Verzweigungsregeln für die Problemgruppe r = 3 Größe 100×100
RAND #Kn. Tiefe Zeit
200×100
#Kn.
200×200
#Kn.
AD0,5
GVG
CAPLOC
7 2
8 3
7 2
0,87
0,77
0,78
1,25
1,46
0,77
49
41
45
47
52
47
6
7
8
8
9
7
13,60
11,78
11,81
20,63
22,29
13,44
25
18
20
19
17
21
6
5
5
5
5
5
Zeit
8,00
6,98
6,75
13,95
13,49
7,56
#Kn.
691
428
516
347
383
494
Tiefe Zeit 500×200
AD0,0 6 2
Tiefe 500×100
ASM 6 2
Tiefe Zeit
APS 9 3
#Kn. Tiefe Zeit
21
11
14
12
15
16
4255,04
3036,29
3019,73
3565,05
3390,48
3326,86
981
493
647
339
428
475
19
14
15
14
16
13
3443,58
1931,60
2442,95
1882,01
2261,65
1884,08
0,68
11,57
31,68
1514,49
3892,00
Tabelle 2. Vergleich der Verzweigungsregeln für die Problemgruppe r = 5 Größe
RAND
100×100 #Kn. Tiefe Zeit 200×100 #Kn. Tiefe Zeit 200×200 #Kn. Tiefe Zeit 500×100 #Kn. Tiefe Zeit 500×200 #Kn. Tiefe Zeit
APS
ASM
AD0,0
AD0,5
GVG
CAPLOC
16 5
12 4
15 4
11 4
13 4
12 4
1,81
1,59
1,84
2,28
2,53
1,55
126
96
90
73
82
90
12
9
10
8
10
9
66,99
56,83
49,94
68,60
68,09
52,83
62
39
58
46
37
46
8
6
6
6
6
6
24,42
18,04
25,12
32,52
28,85
20,29
389
233
221
198
234
252
18
10
11
10
12
11
5759,07
3650,00
3357,60
4132,93
4561,37
4341,39
3673
2380
2058
1650
1698
3029
25
15
19
14
19
18
28084,17 19312,43 19182,26 20676,31 19494,16 26587,40
1,48
30,41
23,52
1914,58
99771,19
Das kapazitierte Standortproblem
503
Tabelle 3. Vergleich der Verzweigungsregeln für die Problemgruppe r = 10 Größe
RAND
APS
ASM
AD0,0
AD0,5
GVG
CAPLOC
100×100 #Kn.
7
5
6
5
6
6
Tiefe
3
2
2
2
2
2
1,33
1,08
1,11
1,30
1,56
1,25
30
25
25
21
24
21
Zeit 200×100 #Kn. Tiefe Zeit 200×200 #Kn. Tiefe
6
4
5
4
5
4
44,46
44,98
36,15
54,99
53,97
39,31
21
25
27
21
22
23
5
5
5
5
6
5
12,13
16,69
15,28
18,73
18,29
14,87
500×100 #Kn.
52
32
35
35
39
28
Tiefe
10
5
6
6
9
5
1773,90 1064,35
1048,58
1664,88
503
482
Zeit
Zeit 500×200 #Kn.
1029
780
Tiefe
25
12
11
11
Zeit 22109,55 18718,26
11555,27
16093,00
1235,20 1037,87 455
583
16
11
0,56
21,66
7,42
747,77
13902,80 14638,30 14020,15
Aufgrund des relativ hohen Aufwands, der zur Lösung des Masterproblems benötigt wird, ist das CAPLOC-Verfahren für kleine Probleminstanzen in der Regel schneller als das Branch-and-Price-Verfahren. Dies ist unabhängig von der Wahl der Verzweigungsvariable. Die Kenntnis einer fraktionalen primalen Lösung erlaubt es jedoch, für größere Testprobleme die Verzweigungsvariable geschickter zu wählen. Dadurch kann der Enumerationsbaum sowohl hinsichtlich der Anzahl der Knoten als auch der Tiefe klein gehalten werden: Für die größten Probleminstanzen ist das Branch-and-Price-Verfahren häufig deutlich schneller als das CAPLOCVerfahren. Die Verwendung der Alternativen ASM und AD0,5 führt für die Problemgröße 500x200 in allen drei Problemgruppen sogar stets zu kürzeren Rechenzeiten.
5
Schlussfolgerungen
In dieser Arbeit wurde ein Branch-and-Price-Verfahren vorgestellt, um das kapazitierte Standortproblem exakt zu lösen. Das Verfahren basiert auf der Lagrange-Relaxation der Nachfragerestriktionen. Das resultierende lineare primale Masterproblem wird durch Spaltengenerierung gelöst und die anhand der Originalvariablen ausgedrückte Lösung genutzt, um eine Verzweigungsvariable anhand einer festen Regel auszuwählen. Die Verzwei-
504
S. Görtz, A. Klose
gung erfolgt dabei durch Setzung der Variablen auf einen ganzzahligen Wert. Übliche Verzweigungsregeln, wie sie für LP-basierte Branch-andBound-Verfahren vorgeschlagen wurden, sind allerdings auf Branch-andPrice-Verfahren nicht ohne weiteres übertragbar. In dieser Arbeit wurden daher alternative Regeln für die Wahl der Verzweigungsvariable vorgeschlagen und ihre numerischen Auswirkungen anhand umfangreicher Testprobleme untersucht. Für kleine Testinstanzen ist das Vorgehen erwartungsgemäß langsamer als das CAPLOC-Verfahren, eines der gegenwärtig besten exakten Verfahren zur Lösung des kapazitierten Standortproblems. Bei großen Testinstanzen hingegen zeigt das vorgestellte Branch-andPrice-Verfahren ein besseres Laufzeitverhalten unabhängig von der Wahl der Verzweigungsvariablen. Dennoch kann eine Regel (ASM) ausgezeichnet werden, die im Vergleich zu den anderen vorgestellten Alternativen zu vergleichsweise kurzen Rechenzeiten in allen Problemgruppen und -größen führt. Ein Grund dafür könnte darin liegen, dass diese Regel den zur Reoptimierung des Masterproblems erforderlichen Aufwand abzuschätzen versucht. Trotz eines zumeist größeren Enumerationsbaumes ist bei Verwendung dieser Regel die für die Lösung der jeweiligen Masterprobleme benötigte Rechenzeit vergleichsweise niedrig. Gegebenenfalls bleibt hier allerdings noch zu untersuchen, ob weitere Reduktionen der Rechenzeit mittels einer Kombination dieser Regel mit anderen Alternativen erzielbar sind.
Danksagung Diese Arbeit wurde durch den Schweizerischen Nationalfonds zur Förderung der wissenschaftlichen Forschung (SNF) unterstützt (Projekt-Nr. 101512-103869).
Literatur Aardal K (1998) Capacitated facility location: Separation algorithm and computational experience. Math Programming 81: 149–175 Aardal K, Pochet Y, Wolsey LA (1995) Capacitated facility location: Valid inequalities and facets. Math Oper Res 20: 552–582 Achterberg T, Koch T, Martin A (2005) Branching rules revisited. Oper Res Letters 33: 42–54 Barnhart C, Johnson EL, Nemhauser GL, Savelsbergh MWP, Vance PH (1998) Branch-and-price: Column generation for solving huge integer programs. Oper Res 46: 316–329
Das kapazitierte Standortproblem
505
Beasley JE (1988) An algorithm for solving large capacitated warehouse location problems. European J Oper Res 33: 314–325 Boffey TB (1989) Location problems arising in computer networks. J Oper Res Soc 40: 347–354 Christofides N, Beasley JE (1983) Extensions to a Lagrangean relaxation approach for the capacitated warehouse location problem. European J Oper Res 12: 19–28 Cornuéjols G, Sridharan R, Thizy J-M (1991) A comparison of heuristics and relaxations for the capacitated plant location problem. European J Oper Res 50: 280–297 Dantzig GB, Wolfe P (1960) Decomposition principle for linear programs. Oper Res 8: 101–111 Delmaire H, Díaz JA, Fernández E (1999) Reactive GRASP and tabu search based heuristics for the single source capacitated plant location problem. INFOR – Canad J Oper Res Inform Process 37: 194–225 Domschke W, Drexl A (1985) ADD-heuristics' starting procedures for capacitated plant location models. European J Oper Res 21:47–53 Forrest JJH, Hirst JPH, Tomlin JA (1974) Practical solution of large mixed integer programming problems with UMPIRE. Management Sci 20: 736–773 Geoffrion AM, McBride R (1978) Lagrangean relaxation applied to capacitated facility location problems. AIIE Trans 10: 40–47 Goffin J-L, Vial J-P (2002) Convex nondifferentiable optimization: A survey focussed on the analytic center cutting plane method. Optimization Methods and Software 17: 805–867 Harkness J, ReVelle C (2003) Facility location with increasing production costs. European J Oper Res 145: 1–13 Jacobsen SK (1983) Heuristics for the capacitated plant location model. European J Oper Res 12:253–261 Khumawala BM (1974) An efficient heuristic procedure for the capacitated warehouse location problem. Naval Res Logist Quart 21: 609–623 Klose A, Drexl A (2001) Lower bounds for the capacitated facility location problem based on column generation. Arbeitsbericht, Universität St. Gallen, http://www.wiwi.uni-wuppertal.de/fileadmin/OR/00-09-03.pdf. Letzter Abruf: 30.09.2004 Klose A, Görtz S (2003) A branch-and-price algorithm for the capacitated facility location problem. Arbeitsbericht, Bergische Universität Wuppertal, http:// www.wiwi.uni-wuppertal.de/fileadmin/OR/03-12-30.pdf. Letzter Abruf: 30.09.2004 Klose A, Görtz, S (2004) An exact column generation algorithm for the capacitated facility location problem. In: Fleischmann B, Klose A (eds) Distribution Logistics: Advanced Solutions to Practical Problems. Lecture Notes in Economics and Mathematical Systems, vol 544, Springer, Berlin, pp 1–26 Kochmann GA, McCallum CJ (1981) Facility location models for planning a transatlantic communications network. European J Oper Res 6: 205–211
506
S. Görtz, A. Klose
Korupolu MR, Plaxton CG, Rajaraman R (2000) Analysis of a local search heuristic for facility location problems. J Algorithms 37: 146–188. Kuehn AA, Hamburger MJ (1963) A heuristic program for locating warehouses. Management Sci 9: 643–666 Lemaréchal C (1989) Nondifferentiable optimization. In: Nemhauser GL, Rinnooy Kan AHG, Todd MJ (eds.) Optimization. Handbooks in Operations Research and Management Science, vol 1, North-Holland, Amsterdam, pp 529–572 Leung JMY, Magnanti TL (1989) Valid inequalities and facets of the capacitated plant location problem. Math Programming 44: 271–291 Linderoth JT, Savelsbergh MWP (1999) A computational study of search strategies for mixed integer programming. Informs J Comp 11: 173–187 Magnanti TL, Wong RT (1981) Accelerating Benders decomposition: Algorithmic enhancement and model selection criteria. Oper Res 29: 464–484 Martello S, Pisinger D, Toth P (1999) Dynamic programming and strong bounds for the 0–1 knapsack problem. Management Sci 45: 414–424 Mateus GR, Bornstein CT (1991) Dominance criteria for the capacitated warehouse location problem. J Oper Res Soc 42: 145–149 Mirzaian A (1985) Lagrangian relaxation for the star-star concentrator location problem: Approximation algorithm and bounds. Networks 15: 1–20 Nauss RM (1978) An improved algorithm for the capacitated facility location problem. J Oper Res Soc 29: 1195–1201 Pochet Y, Wolsey LA (1988) Lot-size models with backlogging: Strong reformulations and cutting planes. Math Programming 40: 317–335 Rolland E, Schilling DA, Current JR (1996) An efficient tabu search procedure for the p-median problem. European J Oper Res 96: 329–342 Van Roy TJ (1986) A cross decomposition algorithm for capacitated facility location. Oper Res 34: 145–163 Ryu C, Guignard M (1992) An efficient algorithm for the capacitated plant location problem. Working Paper 92-11-02, Decision Sciences Department, University of Pennsylvania, The Wharton School Shetty B (1990) Approximate solutions to large scale capacitated facility location problems. Appl Math and Comput 39: 159–175 Shmoys DB, Tardos É, Aardal K (1997) Approximation algorithms for facility location problems. In: Proceedings of the 29th Annual ACM Symposium on Theory of Computing, pp 265–274 Wentges P (1996) Accelerating Benders' decomposition for the capacitated facility location problem. Math Methods Oper Res 44: 267–290 Wentges P (1997) Weighted Dantzig-Wolfe decomposition for linear mixedinteger programming. Internat Trans Oper Res 4: 151–162
Lagrange-Ansätze zur Lösung des Transportproblems mit Fixkosten Andreas Klose1, Thomas Lidke2 1
Institut für Operations Research, Universität Zürich, Moussonstr. 15, 8044 Zürich, Schweiz, [email protected] 2
Fachbereich Wirtschafts- und Sozialwissenschaften, Bergische Universität Wuppertal, Gaußstr. 20, 42119 Wuppertal, [email protected]
Abstract Das Fixkosten-Transportproblem ist ein Spezialfall von Netzwerkflussproblemen mit Fixkosten, welche zur Unterstützung von Entscheidungen bei der Planung und dem Design logistischer Netzwerke von Bedeutung sind. Zur Lösung des Fixkosten-Transportproblems wird in der Literatur primär auf die lineare Relaxation abgestellt, um gute zulässige Lösungen mit Hilfe von Heuristiken oder optimale Lösungen mittels Branch-andBound-Algorithmen zu bestimmen. Heuristische bzw. exakte Verfahren, die auf der Methodik der Lagrange-Relaxation beruhen, scheinen hingegen in der Literatur zum Fixkosten-Transportproblem nur eine geringe Rolle zu spielen. In dieser Arbeit sollen unterschiedliche Möglichkeiten der Bildung von Lagrange-Relaxationen des Fixkosten-Transportproblems ausgelotet und ihre Anwendbarkeit zur Bestimmung unterer Schranken als auch zulässiger Lösungen untersucht werden. Die zusätzliche Verwendung unterschiedlicher Surrogatrestriktionen ist dabei von besonderer Bedeutung.
1
Einleitung
Das Fixkosten-Transportproblem (FKTP) bildet eine Erweiterung des klassischen Transportproblems, indem neben mengenproportionalen Transportkosten auch fixe Kosten des Transports berücksichtigt werden. Die Fixkosten können beispielsweise Investitionskosten, Personalkosten, Leasing-Kosten oder aber den fixen Bestandteil eines entsprechenden Transportkosten-Tarifs darstellen. Das FKTP ist ferner ein Spezialfall eines
508
A. Klose, T. Lidke
Netzwerkflussproblems mit Fixkosten, eine Gruppe von Optimierungsproblemen, welche insbesondere in der Standortplanung, bei der Planung von Logistik- als auch Telekommunikationsnetzwerken (Gendreau et al. 1999) sowie in der Transport- und Produktionsplanung eine Rolle spielen (Magnanti u. Wong 1984). Das FKTP wird üblicherweise wie folgt als eine nichtlineare Optimierungsaufgabe mit konkaver Zielfunktion und konvexer Lösungsmenge formuliert: Ein homogenes Gut ist kostengünstigst von m Angebotsorten i ∈ I mit einem jeweiligen Angebot in Höhe von si > 0 Mengeneinheiten zu n Nachfrageorten j ∈ J mit einem jeweiligen Bedarf von dj > 0 Einheiten zu transportieren. Die Kosten Kij(xij) des Transports von xij > 0 Mengeneinheiten von einem Angebotsort i zu einem Nachfrageort j belaufen sich auf Kij(xij) = fij + cij xij Geldeinheiten, wobei fij ≥ 0 die Fixkosten und cij ≥ 0 die mengenproportionalen Kosten darstellt. Zu bestimmen sind die Transportmengen xij derart, dass die gesamten Transportkosten minimiert, das Angebot ausgeschöpft und der Bedarf gedeckt wird, was durch das folgende mathematische Programm zum Ausdruck gebracht wird:
Z = min z ( x) =
∑ ∑ Kij ( xij )
(1)
i∈I j∈J
u.d.N.:
∑ xij = si
∀i ∈ I
(2)
∑ xij = d j
∀ j∈J
(3)
0 ≤ xij ≤ kij
∀i ∈ I, j ∈ J ,
(4)
j∈J
i∈ I
wobei kij mit 0 ≤ kij ≤ min{si, dj} eine Obergrenze (Transportkapazität) für die von i nach j zu transportierende Menge darstellt. Ferner entspricht das Gesamtangebot der Gesamtnachfrage. Mittels binärer Variablen yij, welche im Fall von xij > 0 den Wert 1 und sonst den Wert 0 annehmen, ist die Optimierungsaufgabe (1)-(4) auf die Form des linearen gemischt-ganzzahligen Programms
Z = min
∑ ∑ (cij xij + f ij yij )
(5)
∑ xij = si
(6)
i∈ I j ∈ J
u.d.N.:
∀i ∈ I
j∈J
∑ xij = d j
∀ j∈J
(7)
i∈ I
xij − kij yij ≤ 0 ∀ i ∈ I , j ∈ J
(8)
Lagrange-Ansätze zur Lösung des Transportproblems mit Fixkosten
509
xij ≥ 0
∀i ∈ I, j ∈ J
(9)
yij ∈ {0,1}
∀i ∈ I, j ∈ J
(10)
überführbar. Wie bereits Balinski (1961) bemerkt, kann die lineare Relaxation des obigen gemischt-ganzzahligen Programms auf das klassische lineare Transportproblem
Z LP = min
∑ ∑ (cij + fij i∈ I j ∈ J
kij ) xij (11)
u.d.N: (6), (7) und (4) reduziert und mit Hilfe von Netzwerk-Simplexverfahren (Kennington und Helgason 1980; Ahuja 1993) oder auch primal-dualen Methoden mit Kostenskalierung (Goldberg 1997) sehr schnell gelöst werden. Ist dann x eine optimale Lösung des Transportproblems (11), so resultiert yij = xij / kij für die y-Variablen in einer optimalen Lösung der LP-Relaxation (11) von (5)(10). Aufgrund der Einfacheit der linearen Relaxation des FixkostenTransportproblems stehen zu dessen Lösung auf dieser Relaxation beruhende heuristische und exakte Methoden im Vordergrund. Auf LagrangeRelaxationen des gemischt-ganzzahligen Programms (5)-(10) basierende Methoden scheinen hingegen in der Literatur wenig Beachtung zu finden. Im Folgenden sollen eine Reihe von Möglichkeiten der Bildung von Lagrange-Relaxationen des FKTP aufgezeigt und diskutiert werden. Bevor hierzu im Abschnitt 3.1 auf klassische Lagrange-Relaxationen und in Abschnitt 3.2 auf Techniken der Lagrange-Dekomposition und LagrangeSubstitution eingegangen wird, sei in Abschnitt 2 ein kurzer Literaturüberblick gegeben. Abschnitt 4 beschreibt eine Lagrange-Heuristik, welche auf einem der in Abschnitt 3 dargestellten Lagrange-Ansätze beruht. Abschnitt 5 stellt sodann numerische Ergebnisse für diesen Ansatz vor. Eine Zusammenfassung der erzielten Resultate und Schlussfolgerungen liefert schließlich der Abschnitt 6.
2
Literaturüberblick
Das FKTP ist ein strikt NP-schweres Optimierungsproblem (Guisewite u. Pardalos 1990). Die Ermittlung exakter Lösungen kann daher u.U. bereits bei relativ kleinen Instanzen erhebliche Schwierigkeiten bereiten.
510
A. Klose, T. Lidke
Erste heuristische Lösungsansätze gehen auf Balinski (1961) sowie Kuhn und Baumol (1962) zurück.1 Baumol bestimmt eine zulässige Lösung für das FKTP (1)-(4) durch Lösen der linearen Relaxation (11). Kuhn und Baumol berechnen zulässige Lösungen für das FKTP, indem sie mittels eines Ansatzes, welcher typischen Eröffnungsverfahren für das klassische Transportproblem ähnelt, degenerierte Basislösungen ermitteln. Wie Hirsch und Dantzig (1968) für allgemeine „Fixed-Charge-Probleme“ nachweisen, liefert eine der Basislösung des Transportproblems (11) auch eine optimale Lösung des FKTP. Murty (1968) nutzt diese Eigenschaft des FKTPs, um optimale Lösungen mittels Enumeration der Basislösungen zu ermitteln. Weitere heuristische Verfahren, die auf die lineare Relaxation (11) und die Ermittlung zugehöriger Basislösungen abstellen, wurden von Yaged (1971), Kim und Pardalos (1999) und Sun et al. (1998) vorgeschlagen. Kim und Pardalos erweitern eines auf der Linearisierung der Zielfunktion (1) beruhendes Verfahren von Yaged. Ausgehend von einer optimalen Basislösung des Transportproblems (11) verteilt Yaged die Fixkosten fij gemäß der ermittelten Transportmengen xij > 0 und löst das so linearisierte Problem neu, bis ein Fixpunkt erreicht ist. Kanten (i,j), die in der anfänglichen Basislösung keine Transportmengen tragen, bleiben somit auch in nachfolgenden Lösungen Nichtbasisvariablen. Pardalos und Kim bewerten hingegen in einer sonst analogen Vorgehensweise die Kosten (variable Kosten inklusive proportionalisierte Fixkosten) von Nichtbasisvariablen (i,j) mittels Kostensätzen aus vorherigen Iterationen, womit in anschließenden Lösungen wieder positive Transportmengen auf diesen Kanten möglich sind. Sun et al. beschreiben schließlich ein Verfahren der TabuSuche, welches auf der Bestimmung benachbarter Basislösungen des Transportproblems (11) beruht. Neue Lösungen werden somit ermittelt, indem ein Basistausch des primalen Netzwerk-Simplexverfahrens durchgeführt wird. Die Aufnahme (Herausnahme) von Nichtbasisvariablen (Basisvariablen) wird sodann für eine bestimmte Anzahl an Iterationen verboten (tabu gesetzt). In der Literatur steht die lineare Relaxation (11) des FKTP (1)-(4) auch bei der Ermittlung optimaler Lösungen mittels Branch-and-Bound-Methoden im Vordergrund. Eine besondere Rolle spielen dabei sogenannte „Penalties“, d.h. einfach berechenbare untere Schranken für die Erhöhung des Zielwerts bei Setzung von yij = 0 bzw. yij = 1, welche es bei Kenntnis guter zulässiger Lösungen u.U. erlauben, einzelne Kanten zu eliminieren bzw. zu erzwingen. Kennington und Unger (1976), Barr et al. (1981), Cabot und 1
Siehe auch Domschke (1997) für eine zusammenfassende Beschreibung dieser und weiterer Verfahren.
Lagrange-Ansätze zur Lösung des Transportproblems mit Fixkosten
511
Erenguc (1984, 1986), Palekar et al. (1990) sowie Bell et al. (1999) schlagen u.a. derartige auf Penalties basierende Branch-and-Bound-Verfahren für das FKTP vor. Die verwendeten Penalties beruhen dabei auf postoptimalen Analysen der LP-Relaxation oder einer Lagrange-Relaxation. Bell et al. versuchen darüber hinaus, die Kantenkapazität kij ohne Ausschluss optimaler Lösungen möglichst zu reduzieren. Für das allgemeine Fixkosten-Problem schlagen Wright und Haehling von Lanzenauer (1989) eine Lagrange-Relaxation der „variablen oberen Schranken“ (8) vor. Die daraus erzielbare untere Schranke ist zwar nicht schärfer als jene der linearen Relaxation; zulässige Lösungen resultieren jedoch unmittelbar aus Lösungen des Lagrange-Subproblems. Shetty (1990) wendet diese Lagrange-Relaxation auf das Fixkosten-Netzwerkflussproblem an. Darüber hinaus stellt er den Zielfunktionswert der linearen Relaxation, analog zur Vorgehensweise in der Benders-Dekomposition, als stückweise lineare und konvexe Funktion der y-Variablen dar. Zur Minimierung dieser Funktion dient ein Subgradientenverfahren, wobei die in den einzelnen Iterationen resultierenden Lösungen jedoch auf yij = 0 bzw. yij = 1 gerundet werden, um zulässige Lösungen für das FKTP zu erhalten. Larrson et al. (1994) verwenden neben dieser Lagrange-Relaxation auch eine Lagrange-Dekomposition für das mit dem FKTP eng verwandte Netzwerkflussproblem mit konkaver Zielfunktion. Zum Zweck der Relaxationsverschärfung werden jedoch ausgewählte Flusserhaltungsbedingungen, die zu Knoten einer stabile Menge des Graphen gehören, nicht relaxiert, sondern in der Relaxation beibehalten. Göthe-Lundgren und Larsson (1994) verwenden eine Benders-Dekomposition zur Lösung des reinen Fixkosten-Transportproblems. Da hier für alle Kanten cij = 0 gilt, sind alle Benders-Schnitte Zulässigkeitsschnitte. Göthe-Lundgren und Larrson zeigen, dass in diesem Fall das Benders-Masterprogramm ein Mengenüberdeckungsproblem darstellt. Ferner beschreiben sie ein heuristisches Verfahren, welches auf einer Lagrange-Relaxation generierter Benders-Schnitte beruht. Ein reines FKTP mit Fixkosten in Höhe von jeweils 1 betrachten Hultberg und Cardoso (1997). Sie weisen nach, dass die Aufgabe strikt NPschwer ist und schlagen ein Verfahren der impliziten Enumeration zu dessen Lösung vor. Als mögliche Anwendung nennen Sie die Zuteilung von Kursen zu Dozenten derart, dass die mittlere Anzahl der von einem Dozierenden zu erteilenden und thematisch verschiedener Kurse minimiert wird. Anwendungsmöglichkeiten des FKTP im Rahmen der Beschaffung sowie der Produktionsplanung betonen Herer et al. (1996). Sie diskutieren das FKTP mit nur einem Nachfrageknoten und dynamische Programmierverfahren zu dessen Lösung. Als Anwendungen nennen sie einerseits die Lie-
512
A. Klose, T. Lidke
ferantenauswahl und Bestimmung zugehöriger periodischer Bestellmengen sowie andererseits die Prozessauswahl im Rahmen der Produktionsplanung. Auf weitere Anwendungen, insbesondere auch im Bereich der Produktionsplanung, weisen auch Guisewite und Pardalos (1990) hin.
3
Lagrange-Relaxationen und LagrangeDekompositionen
Im folgenden wird die Anwendung unterschiedlicher Lagrange-Relaxationen auf das FKTP in Form des gemischt-ganzzahligen Programms (5)-(10) diskutiert, wobei Abschnitt 3.1 konventionelle Lagrange-Relaxationen und Abschnitt 3.2 Techniken der Lagrange-Dekomposition sowie LagrangeSubstitution behandelt. Da ohne die Hinzufügung weiterer Restriktionen viele dieser Lagrange-Relaxationen nicht schärfer sind als die lineare Relaxation (11), wird versucht, mittels einfacher Surrogatrestriktionen eine Relaxationsverschärfung zu erzielen. 3.1 Lagrange-Relaxationen Mögliche Lagrange-Relaxationen des FKTP (5)-(10) bestehen in der Relaxation der Angebots- (6) oder Nachfragerestriktionen (7), in der Relaxation der variablen oberen Schranken (8) und schließlich in der Relaxation sowohl der Angebots- (6) als auch der Nachfragerestriktionen (7). 3.1.1 Lagrange-Relaxation der Angebots- oder Nachfragerestriktionen Eine Relaxation der Angebotsrestriktionen (6) mit zugehörigen LagrangeMultiplikatoren πi für jedes i∈I führt auf das Lagrange-Subproblem Z S (π ) = min
∑ ∑ ((cij + π i ) xij + fij yij ) − ∑ siπ i i∈ I j ∈ J
i∈ I
(12)
u.d.N.: (7), (8), (9) und (10), welches in |J| Fixkosten-Transportprobleme mit jeweils nur einem Nachfrageknoten zerfällt, d.h. es ist Z S (π ) = mit
∑ ζ j (π ) − ∑ siπ i j∈ J
i∈I
Lagrange-Ansätze zur Lösung des Transportproblems mit Fixkosten
ζ j (π ) = min u.d.N. :
513
∑ ((cij + π i ) xij + fij yij ) i∈ I
∑ xij = d j i∈ I
0 ≤ xij ≤ kij yij
∀i ∈ I
yij ∈ {0,1}
∀i ∈ I .
Obige Aufgabe ist ein strikt NP-schweres „Einknoten-Netzwerkflussproblem mit Fixkosten”, zu dessen Lösung beispielsweise das Verfahren von Herer et al. (1996) herangezogen werden kann. Andererseits sind für diese Aufgabe scharfe gültige Ungleichungen bekannt (Padberg et al. 1985; Nemhauser u. Wolsey 1986), so dass u.U. auch übliche Solver zur gemischt-ganzzahligen Optimierung eingesetzt werden können. Aus Lösungen des Lagrange-Subproblems (12) können ferner Lösungen für das FKTP gewonnen werden, indem das Transportproblem über das Netzwerk der ausgewählten Kanten (i,j) mit yij =1 gelöst wird.2 In analoger Weise resultiert die Lagrange-Relaxation der Nachfragebedingungen (7). Welche dieser beiden Relaxationen hinsichtlich Lösungsaufwand und Schärfe der Schranke zu bevorzugen ist, kann allerdings a priori nicht entschieden werden. Beide Relaxationen haben den Nachteil eines relativ hohen Aufwands zur Lösung des strikt NP-schweren Subproblems; die daraus erzielbare untere Schranke ZS := maxπ ZS(π) dominiert allerdings die LP-Schranke ZLP, d.h. es ist ZS ≥ ZLP und es gibt Instanzen des FKTP mit ZS > ZLP. 3.1.2
Lagrange-Relaxation der variablen oberen Schranken
Eine Lagrange-Relaxation der variablen oberen Schranken (8) wird von Wright und Haehling von Lanzenauer (1989) für allgemeine Fixkostenprobleme vorgeschlagen und von Shetty (1990) für das Fixkosten-Netzwerkflussproblem benutzt. Die Anwendung dieser Relaxation auf das FKTP (5)-(10) mit Lagrange-Multiplikatoren ωij für jede Kante (i,j) führt auf das Lagrange-Subproblem
ZV (ω ) = min
∑ ∑ ((cij + ϖ ij ) xij + ( fij − kijϖ ij ) yij ) i∈ I j ∈ J
u.d.N.: (6), (7), (9) und (10).
2
Dieses Transportproblem besitzt jedoch u.U. keine zulässige Lösung.
(13)
514
A. Klose, T. Lidke
In der Aufgabe (13) treten die binären Variablen yij nur noch in den Ganzzahligkeitsforderungen (10) auf. In optimalen Lösungen von (13) ist also ⎧0, f ≥ ω ij kij yij = ⎨ ij ⎩ 1, f ij < ω ij kij
womit sich das Subproblem (13) auf das (lineare) Transportproblem
ZV (ω ) = ZT (ω ) +
∑ ∑ min{0, fij − kijωij } i∈ I j ∈ J
mit
ZT (ω ) = min
∑ ∑ (cij + ϖ ij ) xij i∈ I j ∈ J
(14)
u.d.N.: (6), (7) und (9) reduziert. Die Lagrange-Relaxation (13) besitzt dementsprechend die „Integrality Property” und ist nicht stärker als die lineare Relaxation (11), d.h. ZV := maxω ≥0 ZV(ω) = ZLP. Zulässige Lösungen für das FKTP ergeben sich unmittelbar aus der Lösung des obigen Transportproblems.3 Eine weitere Lösung ist u.U. bestimmbar, indem das Transportsproblem über das Netzwerk der ausgewählten Kanten (i,j) mit yij = 1 gelöst wird, sofern diese Aufgabe überhaupt eine zulässige Lösung besitzt. Da die Lagrange-Relaxation (13) nicht schärfer ist als die lineare Relaxation (11) besteht im Hinblick auf die erzielbare untere Schranke kein Grund in der Verwendung dieser Vorgehensweise. Die Relaxation (13) kann jedoch wie folgt verschärft werden: Summation der variablen oberen Schranken (8) über alle Angebotsorte i ∈ I liefert unter Beachtung der Nebenbedingungen (6) die Surrogatrestriktionen
∑ kij yij ≥ si
∀i ∈ I.
(15)
j∈ J
Werden obige zusätzliche Bedingungen zum FKTP hinzugefügt und die Restriktionen (8) relaxiert, so zerfällt das Lagrange-Subproblem in das Transportproblem (14) und nunmehr |I| binäre Knapsackprobleme, d.h. es resultiert die untere Schranke 3
Ist kij < min{si,dj}, so sind zur Sicherstellung der Zulässigkeit der Lösung gegebenenfalls die Restriktionen xij ≤ kij zum Lagrange-Subproblem hinzuzufügen. Dies ändert nichts an der Schärfe der Schranke.
Lagrange-Ansätze zur Lösung des Transportproblems mit Fixkosten
ZV′ (ω ) = ZT (ω ) +
∑ zi (ω )
515
(16)
i∈ I
mit
zi (ω ) = min
∑ ( fij − kijωij ) yij j∈J
(17)
u.d.N.: (15) und yij ∈{0,1} ∀ j ∈ J . Das binäre Knapsackproblem (17) ist zwar NP-schwer, aber pseudo-polynomial lösbar und mit Hilfe des COMBO-Verfahrens von Martello et al. (1999) i.d.R. schnell bewältigt. Die um obige Surrogatrestriktionen ergänzte Lagrange-Relaxation besitzt nicht mehr die „Integrality Property” und kann somit prinzipiell schärfer sein als die lineare Relaxation (11). Eine analoge Lagrange-Relaxation entsteht schließlich, indem anstatt der Restriktionen (15) die Bedingungen
∑ kij yij ≥ d j
∀ j ∈ J,
(18)
i∈ I
welche als Summe der Restriktionen (8) über alle Nachfrageorte j ∈ J resultieren, verwendet werden. Beide beide Gruppen von Zusatzbedingungen können allerdings nicht ohne weiteres hinzugefügt werden, da das dann entstehende Lagrange-Subproblem nicht mehr auf eine Folge noch gut bewältigbarer binärer Knapsackprobleme zurückgeführt werden könnte. 3.1.3 Lagrange-Relaxation der Angebots- und Nachfragerestriktionen Eine zu der Lagrange-Relaxation (13) der variablen oberen Schranken (8) gleichwertige Relaxation resultiert mittels Dualisierung sowohl der Angebots- (6) als auch der Nachfragerestriktionen (7). Bezeichnet wieder πi für i∈I zu (6) und σj für j∈J zu (7) gehörige Dualvariablen, so ergibt sich durch Dualisierung dieser Nebenbedingungen das Lagrange-Subproblem Z SD (π , σ ) = min
∑ ∑ ((cij + π i − σ j ) xij + fij yij ) + ∑ d jσ j − ∑ siπ i i∈I j∈ J
j∈ J
i∈I
(19)
u.d.N.: (8), (9) und (10). In obiger Aufgabe sind die Variablen xij und yij nur noch durch die variablen oberen Schranken (8) verbunden. Eine bestmögliche Setzung der xij in (19) ergibt sich damit aus
516
A. Klose, T. Lidke
⎧0, c + π i − σ j ≥ 0 xij = ⎨ ij ⎩kij yij , cij + π i − σ j < 0 womit in optimalen Lösungen von (19) aufgrund von fij > 0 auch ⎧0, f ≥ (σ j − cij − π i )kij yij = ⎨ ij ⎩ 1, f ij < (σ j − cij − π i )kij
resultiert und sich (19) auf
Z SD (π , σ ) =
min
∑ ∑ ((cij + π i − σ j )kij + fij ) yij
y∈{0,1} I × J i∈I j∈J
+
∑ d jσ j − ∑ siπ i j∈J
=
i∈I
∑ ∑ min{0, fij − (σ j − cij − π i )kij } + ∑ d jσ j − ∑ siπ i i∈I j∈J
j∈ J
i∈I
reduziert. Ersichtlich besitzt somit die Lagrange-Relaxation (19) ebenfalls die „Integrality Property” und es ist Z SD := max Z SD (π , σ ) = ZV = Z LP . π ,σ
Im Hinblick auf die Schärfe der unteren Schranke ist die LagrangeRelaxation (19) somit weder der linearen Relaxation (11) noch der Relaxation (13) vorzuziehen. Gegenüber der Lagrange-Relaxation (13) besitzt die obige Relaxation (19) jedoch den Vorteil, dass hier nur |I| + |J| anstatt |I|⋅|J| Lagrange-Multiplikatoren zu optimieren sind. Demgegenüber liefert eine optimale Lösung (x, y) des Lagrange-Subproblems (13) unmittelbar auch eine zulässige Lösung x für das FKTP (1)-(4), während aus einer optimalen Lösung (x, y) des Lagrange-Subproblems (19) eine zulässige Lösung für das FKTP erst konstruiert werden muss. Hierzu könnte beispielsweise das Transportproblem über das Netzwerk der ausgewählten Kanten (i,j) mit yij = 1 gelöst werden, wobei diese Aufgabe jedoch u. U. keine zulässige Lösung besitzt. Dieser Nachteil der Lagrange-Relaxation (19) kann u.U. überwunden werden, indem die zugehörigen LagrangeMultiplikatoren bzw. Dualvariablen ω und (π, σ ) der Lagrange-Relaxationen (8) und (19) zueinander in Beziehung gesetzt werden. Da beide Lagrange-Relaxationen die „Integrality Property” aufweisen, resultieren optimale Lagrange-Multiplikatoren aus optimalen Lösungen des Duals der LPRelaxation von (5)-(10). Dieses ist durch das lineare Programm
Lagrange-Ansätze zur Lösung des Transportproblems mit Fixkosten
517
∑ d jσ j −∑ siπ i
(20)
Z LP = max
j∈J
i∈I
u.d.N.: σ j − π i − ω ij ≤ cij ∀ i ∈ I , j ∈ J
(21)
kijω ij ≤ f ij
∀i ∈ I, j ∈ J
(22)
ω ij ≥ 0
∀i ∈ I, j ∈ J
(23)
gegeben, wobei wiederum die πi, σj und ωij zu den Restriktionen (6), (7) sowie (8) gehörige Dualvariablen bezeichnen. In einer optimalen Basislösung des obigen linearen Programm gilt dann
ω ij = max{0, σ j − π i − cij }.
(24)
Mit dieser Setzung sind die Restriktionen (21) automatisch erfüllt und die Nebenbedingungen (22) werden zu σj−πi≤cij+fij/kij; einer Bedingung, welche aufgrund der Reduzierbarkeit des Programms (5)-(10) auf (11) im LP-Optimum erfüllt sein muss. Optimale Lagrange-Multiplikatoren ω der Relaxation (13) bzw. π und σ der Lagrange-Relaxation (19) sind somit über die obige Beziehung (24) verbunden. Dies legt es nahe, in jeder Iteration eines Verfahrens zur Optimierung der Multiplikatoren (π,σ) der Lagrange-Relaxationen (19), die Multiplikatoren ω aus (24) zu bestimmen, um eine zulässige Lösung für das FKTP durch anschließende Lösung des Transportproblems (14) zu gewinnen. Analog zur Lagrange-Relaxation (13) ermöglichen die Surrogatrestriktionen (15) bzw. (18) eine Verschärfung der Lagrange-Relaxation (19). Bei Hinzufügung der Zusatzrestriktionen (15) resultiert bei gegebenen Lagrange-Multiplikatoren (π, σ ) wiederum das Lagrange-Subproblem (16), wobei die ωij gemäß (24) zu bestimmen sind. Entsprechendes ergibt sich, wenn anstatt der Restriktionen (15) die Restriktionen (18) hinzugefügt werden. 3.2 Lagrange-Dekompositionen Die Methode der Lagrange-Dekomposition versucht, mittels Duplizierung von Variablen eine Verschärfung konventioneller Lagrange-Relaxationen zu erreichen. Die Technik geht auf Arbeiten von Guignard und Kim (1987) als auch Glover und Klingman (1988) zurück. Das Verfahren beruht darauf, die Ausgangsaufgabe zu reformulieren, indem zwei ausgewählte Blöcke von Restriktionen R1 und R2 auschließlich in den Originalvariablen (x, y) bzw. allein in Abhängigkeit von Kopien (x′,y′) der ursprünglichenVariablen geschrieben werden. Alle anderen Nebenbedingungen wer-
518
A. Klose, T. Lidke
den sowohl in den Original- als auch den Kopievariablen ausgedrückt. Durch Lagrange-Relaxation der „Identitätsrestriktionen” (x,y)=(x′,y′) entsteht sodann ein dekomponierbares Lagrange-Subproblem, welches die Restriktionenblöcke R1 und R2 voneinander trennt. Eine LagrangeDekomposition erlaubt gegenüber einer herkömmlichen Lagrange-Relaxation der Nebenbedingungen R1 oder R2 jedoch nur dann die Ermittlung einer u. U. verbesserten (unteren) Schranke, wenn keine der beiden herkömmlichen Lagrange-Relaxationen die „Integrality-Property” aufweist.4 Das Prinzip der Lagrange-Dekomposition lässt sich gut am Beispiel der Lagrange-Relaxation (12) der Angebots- (6) oder der Nachfragerestriktionen (7) im FKTP illustrieren, da keine dieser beiden Lagrange-Relaxationen die „Integrality-Property” besitzt. Zudem kann im Hinblick auf die theoretische Schärfe der resultierenden Lagrange-Schranke keiner dieser Lagrange-Relaxationen der Vorzug gegeben werden. Die Formulierung (5)-(9) des FKTP sei nun erweitert, indem Kopievariablen x′ und y′ eingeführt, die Angebotsrestriktionen (6) nur in den Variablen x, die Nachfragerestriktionen (7) lediglich in den Kopievariablen x′ sowie alle anderen Nebenbedingungen sowohl in (x, y) als auch in (x′, y′) ausgedrückt und schließlich noch die Bedingungen (x, y) = (x′, y′) hinzugefügt werden. Eine Dualisierung der Bedingungen x = x′ mit Dualvariablen λij sowie der Bedingungen y = y′ mit Dualvariablen µij liefert sodann das Lagrange-Subproblem
Z S / D (λ , µ ) = Z 1S / D (λ , µ ) + Z S2 / D (λ , µ )
(25)
mit
Z 1S / D (λ , µ ) = min
∑ ∑ ((cij − λij ) xij + ( fij − µij ) yij ) i∈I j∈J
u.d.N.: (6), (8), (9) und (10) und
Z S2 / D (λ , µ ) = min
∑ ∑ (λij xij + µij yij ) i∈I j∈J
u.d.N.: (7), (8), (9) und (10). Das Lagrange-Subproblem zerfällt also in zwei Einknoten-Netzwerkflussprobleme mit Fixkosten. Der Nachteil dieser Vorgehensweise besteht dementsprechend einerseits in einer Duplizierung des Aufwands zur Lö4
Vgl. hierzu z. B. Klose (2001).
Lagrange-Ansätze zur Lösung des Transportproblems mit Fixkosten
519
sung des Subproblems und andererseits in der hohen Anzahl zu optimierender Lagrange-Multiplikatoren. Einen weiteren möglichen Anwendungsfall für eine Lagrange-Dekomposition liefert die Lagrange-Relaxation der Angebots- und Nachfragebedingungen (6) und (7) unter zusätzlicher Berücksichtigung der Surrogatrestriktionen (15) bzw. (18). Da einerseits a priori nicht feststellbar ist, welche dieser beiden Zusatzbedingungen die größere Schrankenverschärfung bewirkt, andererseits aufgrund der Komplexität des resultierenden Subproblems nicht beide Zusatzbedingungen in einem Subproblem auftauchen sollten, erscheint es sinnvoll, beide Restriktionen zwar zu nutzen, sie jedoch mittels Lagrange-Dekomposition voneinander zu trennen. Das FKTP sei hierzu wie folgt reformuliert:
Z = min
∑ ∑ (cij xij + fij yij ) i∈ I j ∈ J
u.d.N.: (6), (7), (8), (9), (10), (15) und kij yij′ ≥ d j ∀ j ∈ J
∑ i∈ I
xij′ − kij yij′ ≤ 0 ∀ i ∈ I , j ∈ J xij′ − xij = 0
∀i ∈ I, j ∈ J
yij′ − yij = 0
∀i ∈ I, j ∈ J
xij′ ≥ 0
∀i ∈ I, j ∈ J
yij′ ∈ {0,1}
∀i ∈ I, j ∈ J .
Eine Lagrange-Relaxation der Bedingungen (6) und (7) mit Multiplikatoren πi für i ∈ I und σj für j ∈ J sowie der Identitätsbedingungen x = x′ bzw. y = y′ des obigen Modells mit Dualvariablen λij bzw. µij liefert dann das Lagrange-Subproblem 2 ′′ (π , σ , λ , µ ) = Z 1SD (π , σ , λ , µ ) + Z SD Z SD (λ , µ ) +
∑ d jσ j − ∑ siπ i j∈ J
(26)
i∈ I
mit
Z 1SD (π , σ , λ , µ ) = min
∑ ∑ ((cij − λij + π i − σ j ) xij + ( fij − µij ) yij ) i∈I j∈J
u.d.N.: (8), (9), (10) und (15) und
520
A. Klose, T. Lidke
∑ ∑ (λij xij′ + µij yij′ )
2 Z SD (λ , µ ) = min
i∈ I j ∈ J
∑ kij yij′ ≥ d j
u.d.N. :
∀ j∈J
i∈ I
xij′ − kij yij′ ≤ 0 ∀ i ∈ I , j ∈ J xij′ ≥ 0
∀i ∈ I, j ∈ J
yij′ ∈ {0,1}
∀i ∈ I, j ∈ J .
Da in optimalen Lösungen dieser beiden Teilprobleme
⎧0, c − λij + π i − σ j ≥ 0 xij = ⎨ ij und ⎩kij yij , cij − λij + π i − σ j < 0
⎧0, λ ≥ 0 xij′ = ⎨ ij ⎩kij yij , λij < 0
gilt, reduzieren sich die obigen Subprobleme weiter auf die Folge binärer Knapsackprobleme
Z 1SD (π , σ , λ , µ ) =
∑ z1i (π , σ , λ , µ ) i∈ I
mit
∑ (min{0, cij − λij + π i − σ j }kij + ( fij − µij )) yij
zi1 (π , σ , λ , µ ) = min
j∈ J
u.d.N. :
∑ kij yij ≥ si j∈ J
yij ∈ {0,1} ∀ j ∈ J sowie 2 Z SD (λ , µ ) =
∑ z 2j (λ , µ ) j∈ J
mit
z 2j (λ , µ ) = min u.d.N. :
∑ (min{0, λij }kij + µij ) yij′ i∈ I
∑ kij yij′ ≥ d j i∈ I
yij′ ∈ {0,1} ∀ i ∈ I . Da für die obigen Knapsackprobleme die „Integrality Property” nicht gilt, ist insbesondere
Lagrange-Ansätze zur Lösung des Transportproblems mit Fixkosten
521
′′ := max Z SD ′′ (π , σ , λ , µ ) ≥ Z SD ′ ≥ Z SD = Z LP , Z SD π ,σ , λ , µ
wobei Z′SD die beste Schranke bezeichnet, welche aus einer Lagrange-Relaxation der Angebots- und Nachfragerestriktionen (6) bzw. (7) unter zusätzlicher Berücksichtigung entweder der Surrogatrestriktionen (15) oder (18) ermittelt werden kann. Ein erheblicher Nachteil der obigen Vorgehensweise einer LagrangeDekomposition besteht in der mit |I| + |J| + 2|I|⋅|J| recht hohen Anzahl zu optimierender Lagrange-Multiplikatoren. Generell kann jedoch die Dimensionalität des Lagrange-Duals – allerdings zumeist nur unter Inkaufnahme einer Abschwächung der unteren Schranke5 – reduziert werden, indem die Identitätsbedingungen x = x′ durch eine aggregierte Form der Art Ax = Ax′ ersetzt werden. Die Koeffizientenmatrix A bildet dabei einen Bestandteil der ursprünglichen Aufgabe und die Äquivalenz beider Problemreformulierung ist sicherzustellen. Eine solche als Lagrange-Substitution bezeichnete Vorgehensweise wurde von Chen und Guignard (1998) vorgeschlagen und auf das kapazitierte Standortplanungsproblem angewandt. Im Hinblick auf das FKTP lässt sich diese Technik zur Reduktion der Dimensionalität des zur Lagrange-Dekomposition (26) gehörigen Lagrange-Duals gut nutzen. Eine erste Möglichkeit besteht darin, die Identitätsbedingungen x = x′ durch
∑ xij′ − ∑ xij = 0 j∈ J
∀i ∈ I
und
j∈ J
∑ xij′ −∑ xij = 0 i∈ I
∀j∈J
i∈ I
zu ersetzen, während die Bedingungen y = y′ erhalten bleiben. Dualisierung der Bedingungen yij′ − yij = 0 wiederum mit Dualvariablen µij und der obigen Restriktionen mit Dualvariablen θi für i ∈ I bzw. ηj für j ∈ J liefert sodann ein zu (26) analoges Lagrange-Subproblem6, wobei jedoch die Anzahl Multiplikatoren von |I| + |J| + 2|I|⋅|J| auf 2(|I| + |J|) + |I|⋅|J| reduziert ist. Alternativ oder zusätzlich können natürlich auch die Bedingungen y = y′ durch
∑ kij yij′ − ∑ kij yij = 0 ∀ i ∈ I j∈ J
j∈ J
und
∑ kij yij′ −∑ kij yij = 0 ∀ j ∈ J i∈ I
i∈ I
ersetzt werden. Wird diese Substitution zusätzlich zum obigen Ersatz der 5
6
Die Schranke ist jedoch weiterhin mindestens so gut wie jene, welche aus einer üblichen Lagrange-Relaxation eines der voneinander getrennten Restriktionenblöcke bestimmt werden kann. Lediglich die Dualvariable λij ist in (26) und den dazu gehörigen weiteren Ableitungen jeweils durch θi + ηj zu ersetzen.
522
A. Klose, T. Lidke
Bedingung x = x′ eingeführt, so reduziert sich die Anzahl an LagrangeMultiplikatoren weiter auf 3(|I| + |J|), was allerdings mit einer weiteren Abschwächung der unteren Schranke gegenüber dem Dekompositionsansatz (26) verbunden sein dürfte.
4
Eine Lagrange-Heuristik für das Fixkosten-Transportproblem
Im Folgenden wird ein Verfahren zur Berechnung einer unteren Schranke als auch einer zulässigen Lösung für das FKTP näher beschrieben. Das Verfahren beruht auf der in Abschnitt 3.1 dargelegten Lagrange-Relaxation (19) der Angebots- und Nachfragerestriktionen (6) bzw. (7) unter zusätzlicher Berücksichtigung der Surrogatrestriktionen (15) bzw. alternativ (18). Diese Relaxation wurde gewählt, da sie einerseits eine Verbesserung gegenüber der LP-Schranke ZLP erlaubt, andererseits das Lagrange-Subproblem noch gut lösbar ist. Die Relaxation sollte damit die Ermittlung guter unterer und oberer Schranken in annehmbaren Rechenzeiten erlauben. Zur Berechnung der Schranke, d.h. zur näherungsweisen Maximierung der Funktion Z′SD(π,σ)7, wird ein Subgradientenverfahren eingesetzt, wobei zur Verbesserung der Konvergenz, einem Vorschlag von Baker und Sheasby (1999) folgend, Subgradienten exponentiell geglättet werden. Für den Fall, dass das Transportproblem, in welchem nur über die in der Lösung y der Lagrange-Relaxation ausgewählten Kanten transportiert werden darf, keine zulässige Lösung besitzt, verwendet das Verfahren folgende Prozedur zur Konstruktion einer zulässigen Lösung für das FKTP: 1. Der aus den Kanten (i, j) mit yij = 1 bestehende Graph wird, wie in der Abb. 1 skizziert, um einen zusätzlichen Umladeknoten erweitert. Der Zusatzknoten ist sowohl mit allen Angebotsorten i ∈ I als auch mit allen Nachfrageorten j ∈ J durch Kanten mit einer Kapazität in Höhe des jeweiligen Angebots si bzw. der jeweiligen Nachfrage dj verbunden. Transportkosten auf diesen zusätzlichen Kanten sind mit einem beliebig hohen Wert M bewertet, während die ursprünglichen Kanten (i, j), für die in der Lagrange-Lösung yij = 1 gilt, weiterhin die ursprünglichen Transportkosten cij angesetzt werden.
7
Z′SD(π,σ) beschreibt den Zielfunktionswert des Programms (19) in Abhängigkeit von π und σ unter zusätzlicher Berücksichtung der Nebenbedingungen (15) oder alternativ (18).
Lagrange-Ansätze zur Lösung des Transportproblems mit Fixkosten
523
2. Sei x′ eine optimale Lösung des in Punkt 1 konstruierten Netzwerkflussproblems. Setze
d ′j = d j −
∑ xij′ ∀ j ∈ J i∈I
und si′ = si −
∑ xij′ ∀ i ∈ I j∈ J
sowie kij′ = kij − xij′ ∀ (i, j ) ∈ I × J und cij′ = cij + f ij / kij′ ∀ (i, j ) ∈ I × J .
Sei dann x′′ eine optimale Lösung des Transportproblems, in welchem alle Kanten zugelassen sind und sich die Angebotsmengen, Nachfragemengen, Kapazitäten und Transportkosten auf die durch s′, d′, k′und c′ gegebenen Werte belaufen. Eine zulässige Lösung xF für die Ausgangsaufgabe ist sodann durch xF = x′ + x′′ gegeben. Angebotsorte
i
ursprüngliche Kante mit yij =1
si dj
künstliche Kante zusätzlicher Umladeknoten j
Nachfrageorte
Abb. 1. Konstruktion einer zulässigen Lösung
Das gesamte Verfahren besteht dann in der Anwendung der nachfolgenden Schritte: Schritt 1: Löse die LP-Relaxation (11) des FKTP. Besitzt diese keine zulässige Lösung, so terminiere. Ansonsten sei x eine optimale primale und (π , σ ) eine optimale duale Lösung von (11). Wähle geeignete Werte für die Parameter hmax, αmin, Failmax und β des Subgradientenverfahrens, wobei hmax die maximale Anzahl durchzuführender Subgradientenschritte, αmin einen Minimalwert für den Schrittlängenparameter α∈(0,2], β∈(0,1] den Faktor zur exponentiellen Gewichtung von Subgradienten, und Failmax jene Anzahl an Iterationen bezeichnet, welche ohne eine Verbesserung der
524
A. Klose, T. Lidke
unteren Schranke höchstens durchgeführt werden können, bevor der Schritlängenparameter α halbiert wird.8 Setze h=0, Fail=0, αh=2 und
x B = x , UB = z ( x ), LB =
∑ ∑ (cij + fij / kij ) xij , π h = π und σ h = σ . i∈ I j ∈ J
Schritt 2: Löse das Lagrange-Subproblem (19) mit (π,σ)=(πh,σh) unter zusätzlicher Berücksichtigung der Bedingungen (15) (bzw. alternativ (18)). Sei (xh,yh) die zugehörige Lösung. Gilt Z′SD(πh,σh)>LB, setze LB := Z′SD(πh, σh) und Fail := 0. Falls Fail ≥ Failmax gilt, so setze αh = αh-1/2 und Fail := 0. Schritt 3: Löse das Transportproblem (14) mit
ω ij = max{0, σ hj − π hj − cij } ∀i, j. Sei xF die erhaltene Lösung. Gilt z(xF)<UB, setze xB:= xF und UB=z(xF). Schritt 4: Löse das Transportproblem (14) mit ωij=0 für alle i und j, wobei ferner alle Kanten (i, j ) mit yijh = 0 eliminiert seien. Besitzt diese Auf-
gabe keine zulässigen Lösungen, so gehe zu Schritt 5. Ansonsten sei xF die erhaltene zulässige Lösung. Gilt z(xF)<UB, setze xB:= xF und UB=z(xF). Gehe zu Schritt 6. Schritt 5: Konstruiere, wie auf Seite 523 dargestellt, eine zulässige Lösung xF für das FKTP mittels Einführung eines zusätzlichen Umladeknotens. Gilt z(xF)<UB, setze xB:= xF und UB=z(xF). Schritt 6: Ist LB=UB, so terminiere, da mit xB eine optimale Lösung gefunden wurde. Sonst setze mit β∈(0,1], m:= |I|, n:= |J|:
g ih =
∑ xijh − si für i = 1,K, m , j∈ J
g mh + j = d j −
∑ xijh für j = 1,K n i∈I
h
⎧ g , für h = 0 und g h = ⎨ h −1 + βg h , für h > 0 ⎩(1 − β ) g 8
Der Computerimplementation des Verfahrens und den im nachfolgenden Abschnitt beschriebenen Testergebnissen liegen die Parameterwerte hmax = 500, αmin = 0.0005, Failmax = 10 und β = 0.85 zugrunde.
Lagrange-Ansätze zur Lösung des Transportproblems mit Fixkosten
525
sowie
th = α h
(UB − Z ′
SD (π 2 h
g
h
,σ h )
),
⎛ π h +1 ⎞ ⎛ π h ⎞ ⎜⎜ h +1 ⎟⎟ = ⎜⎜ h ⎟⎟ + t h g h ⎝σ ⎠ ⎝σ ⎠
und h := h + 1.
Gilt h<hmax und α≥αmin, gehe zurück zu Schritt 2. Ansonsten terminiere mit xB als bester gefundener zulässiger Lösung und LB als unterer Schranke auf Z.
5
Numerische Experimente
Die im vorherigen Abschnitt vorgestellte Lagrange-Heuristik wurde in der Programmiersprache C kodiert und anhand von 14 unter der Internetadresse ftp://plato.asu.edu/pub/fctp/ zugänglichen Probleminstanzen auf einem Personalcomputer (Pentium IV, 1500 MHz) mit Linux-Betriebssystem (Kernel 2.4.10) getestet.9 Zur Lösung der im Rahmen des Verfahrens auftretenden linearen Transport- bzw. Netzwerkflussprobleme wurde auf die Bibliotheksfunktionen von CPLEX, Version 8.0, zurückgegriffen. In der nachfolgenden Tabelle 1 zeigt der Name einer Probleminstanz auch die Größe in der Form |I| × |J|. Die drei Probleminstanzen ran10×10a, ran10×10b und ran10×10c unterscheiden sich darüber hinaus in der Höhe der Fixkosten; während die Fixkosten bei der erstgenannten Instanz zwischen 34 und 231 liegen, variieren diese bei ran10×10b zwischen 109 und 419 und bei ran10×10c zwischen 800 und 1098. Allen Probleminstanzen liegt ein vollständiger Graph zugrunde, wobei alle Kanten mit Fixkosten belegt sind. Die nachstehenden Ergebnisse wurden durch die beschriebene Lagrange-Heuristik unter Berücksichtigung der Surrogatrestriktionen (15) erzielt. Diese Restriktionen führten in einer Reihe von Tests zu durchschnittlich besseren unteren Schranken als die Surrogatrestriktionen (18). In Tabelle 1 sind ferner als Referenzwerte die Zielwerte optimaler Lösungen, welche mit einem Branch-and-Bound-Verfahren bestimmt wurden, angegeben10. Basierend auf diesen Optimallösungen zeigt die Tabelle in 9
10
Verwendet wurde der GNU C-Compiler gcc, Version 2.95.3. Die Testinstanzen werden von Hans Mittelmann, Arizona State University, auf der Webseite http://plato.asu.edu/ bereitgestellt. Auch in der OR-Library von Beasley (siehe http://www.brunel.ac.uk/depts/ma/research/jeb/info.html) wird auf diese Testprobleme verwiesen. Vgl. ftp://plato.asu.edu/pub/fctp/ran.result.
526
A. Klose, T. Lidke
den mit LB (%) und UB (%) betitelten Spalten die jeweilige prozentuale Abweichung der durch die Lagrange-Heuristik berechneten unteren Schranke und oberen Schranke vom Optimum. Zum Vergleich sind ferner die entsprechenden Werte für die mittels der LP-Relaxation erzielten unteren und oberen Schranke als auch für die durch die Heuristik (DSSP) von Kim und Pardalos (1999) ermittelte obere Schranke angegeben.11 Darüber hinaus bezeichnet t die jeweils benötigte Rechenzeit in Sekunden. Tabelle 1. Numerische Ergebnisse Instanz
Optimum Lagrange-Heuristik
LP-Relaxation
LB (%)
UB (%)
t
LB (%)
DSSP
UB (%)
t
UB (%)
t
ran10×10a
1499
9,93
3,60
0,51
16,43 15,81
0,01
15,81
0,01
ran10×10b
3073
8,60
2,02
0,62
14,95
5,17
0,01
5,17
0,01
13007 10,36
0,86
0,50
13,87 26,78
0,01
26,09
0,01
ran10×10c ran10×12
2714
5,88
9,51
0,59
10,60 20,12
0,01
16,54
0,02
ran10×26
4270
5,56
5,01
0,73
9,67 11,12
0,01
11,12
0,05
ran12×12
2291 14,13 11,09
0,55
20,27 17,11
0,01
6,81
0,02
ran12×21
3664
9,44
9,88
0,82
13,83 11,35
0,01
11,35
0,03
ran13×13
3252 13,11
6,86
0,64
17,24
8,27
0,01
8,27
0,02
ran14×18
3712 12,92 11,64
0,71
18,72 14,90
0,02
14,90
0,05
ran16×16
3823 13,23
9,02
0,99
18,48 13,34
0,01
13,34
0,03
ran17×17
1373
7,57
8,67
0,84
11,49
6,63
0,01
6,63
0,05
ran4×64
9711
0,27
1,29
0,87
0,75
3,10
0,01
0,81
0,07
ran6×43
6330
0,79
1,07
0,66
1,35
4,80
0,01
3,27
0,03
ran8×32
5247
3,76
4,92
0,77
5,90 11,24
0,01
8,82
0,06
8,25
6,10
0,70
12,40 12,20
0,01
10,64
0,03
Mittelwert
Wie obige Tabelle zeigt, ist die mit Hilfe der Lagrange-Relaxation (19) unter zusätzlicher Berücksichtigung der Surrogatrestriktionen (15) ermittelte untere Schranke in allen dargestellten Fällen deutlich schärfer als der 11
Das Verfahren von Kim und Pardalos (1999) wurde in Abschnitt 2 kurz skizziert.
Lagrange-Ansätze zur Lösung des Transportproblems mit Fixkosten
527
Zielwert der LP-Relaxation. Die benötigte Rechenzeit ist zwar wesentlich höher als jene, welche zur Lösung der linearen Relaxation aufgewendet wird; absolut betrachtet erscheinen aber die Rechenzeiten des LagrangeVerfahrens noch immer als kurz bzw. zumindest als moderat. Mit Ausnahme der Probleminstanz ran17×17 liefert die Lagrange-Heuristik zudem erheblich bessere zulässige Lösungen als die LP-Relaxation. Die „DynamicSlope Scaling-“Prozedur (DSSP) von Kim und Pardalos startet mit der Lösung der LP-Relaxation. Die mit diesem Verfahren produzierte zulässige Lösung ist daher mindestens genauso gut wie die Lösung der linearen Relaxation. Allerdings wird durch dieses Verfahren die obere Schranke gegenüber der Lösung der LP-Relaxation häufig nicht oder nur wenig verbessert. Mit Ausnahme der Probleminstanzen ran12×12, ran4×64 sowie ran17×17 schneidet die dargestellte Lagrange-Heuristik wesentlich besser ab als das Kim-Pardalos-Verfahren. Gute zulässige Lösungen wurden dabei vor allem durch die Anwendung der Heuristiken in Schritt 4 und 5 des Verfahrens erzeugt, während die Bestimmung zulässiger Lösungen gemäß Schritt 3 kaum zu guten Ergebnissen führte. Obwohl das dargestellte Verfahren die von der LP-Relaxation und dem Kim-Pardalos-Verfahren produzierten Lösungen deutlich verbessert, ist die Abweichung der ermittelten Lösung vom Optimum für einige der obigen Probleminstanzen noch zu groß. Abhilfe schaffen könnte hier vor allem die zusätzliche Anwendung einer lokalen Suche, welche die aktuelle degenerierte Basislösung durch Basistausche zu verbessern sucht. Eine solche lokale Suche kann einmalig nach Abschluss des Subgradientenverfahrens oder aber nach jedem Subgradientenschritt bzw. ausgewählten Subgradientenschritten durchgeführt werden.
6
Schlussfolgerungen
In dieser Arbeit wurde aufgezeigt, wie mittels Hinzufügung zusätzlicher Surrogatrestriktionen unterschiedliche Lagrange-Relaxationen des Fixkosten-Transportproblems derart konstruiert werden können, dass einerseits ein noch handhabbares Lagrange-Subproblem entsteht und andererseits die Ermittlung einer gegenüber der LP-Relaxation deutlich verbesserten unteren Schranke ermöglicht wird. Numerische Tests, die anhand unterschiedlicher Testprobleme mit Hilfe einer auf diesem Prinzip beruhenden Lagrange-Heuristik durchgeführt wurden, bestätigten die signifikante Verbesserung der unteren Schranke durch eine solche Vorgehensweise. Gleichzeitig produzierte die Lagrange-Heuristik zulässige Lösungen, die deutlich besser waren als jene, welche durch die lineare Relaxation sowie mittels
528
A. Klose, T. Lidke
der Dynamic-Slope-Scaling-Prozedur von Kim und Pardalos (1999) berechnet wurden. Für einige schwierigere Testinstanzen ist die von der dargestellten Lagrange-Heuristik bestimmte Lösung jedoch noch zu weit vom Optimum entfernt, so dass hier die Anwendung einer zusätzlichen lokalen Suche notwendig erscheint. Gleichermaßen erscheint die für diese Instanzen durch das Lagrange-Verfahren aus Abschnitt 4 berechnete untere Schranke noch zu schwach, um durch die Anwendung dieser Schranke im Rahmen von Branch-and-Bound- bzw. auch Branch-and-Price-Verfahren gegenüber LP-basierten Branch-and-Bound-Methoden erhebliche Verbesserungen erzielen zu können. Näher zu untersuchen bleiben daher vor allem die in Abschnitt 3.2 dargestellten Möglichkeiten, die untere Schranke durch Anwendung von Techniken der Lagrange-Dekomposition bzw. -substitution weiter zu verbessern.
Danksagung Diese Arbeit wurde durch den Schweizerischen Nationalfonds zur Förderung der wissenschaftlichen Forschung (SNF) unterstützt (Projekt-Nr. 101512-103869).
Literatur Ahuja RK, Magnanti TL, Orlin JB (1993) Network Flows: Theory, Algorithms, and Applications. Prentice-Hall, Englewood Cliffs NJ Baker BM, Sheasby J (1999) Accelerating the convergence of subgradient optimisation. European J Oper Res 117: 136–144 Balinski M (1961) Fixed cost transportation problems. Naval Res Logist 8: 41–54 Barr RS, Glover F, Klingman D (1981) A new optimization method for large scale fixed charge transportation problems. Oper Res 29: 448–463 Bell GJ, Lamar BW, Wallace CA (1999) Capacity improvement, penalties, and the fixed charge transportation problem. Naval Res Logist 46: 341–355 Cabot AV, Erenguc SS (1984) Some branch-and-bound procedures for fixed-cost transportation problems. Naval Res Logist 31: 145–154 Cabot AV, Erenguc SS (1986) Improved penalties for fixed cost linear programs using Lagrangian relaxation. Management Sci 32: 856–869 Chen B, Guignard M (1998) Polyhedral analysis and decompositions for capacitated plant location-type problems. Discrete Appl Math 82: 79–91 Domschke W (1997) Logistik: Rundreisen und Touren, 4. Aufl. Oldenbourg, München
Lagrange-Ansätze zur Lösung des Transportproblems mit Fixkosten
529
Gendron B, Crainic TG, Frangioni A (1999) Multicommodity capacitated network design. In: Sanso B, Soriano P (eds) Telecommunications Network Planning. Kluwer, Boston, pp 1–19 Glover FW, Klingman D (1988) Layering strategies for creating exploitable structure in linear and integer programs. Math Programming 40: 165–181 Goldberg A (1997) An efficient implementation of a scaling minimum-cost flow algorithm. J Algorithms 22: 1–29 Göthe-Lundgren M, Larsson T. (1994) A set covering reformulation of the pure fixed charge transportation problem. Discrete Appl Math 48: 245–259 Guisewite GM, Pardalos PM (1990) Minimum concave-cost network flow problems: Applications, complexity, and algorithms. Ann Oper Res 25: 75–100 Guignard M, Kim S (1987) Lagrangean decomposition: A model yielding stronger Lagrangean bounds. Math Programming 39: 215–228 Herer YT, Rosenblatt MJ, Hefter I (1996) Fast algorithms for single-sink fixed charge transportation problems with applications to manufacturing and transportation. Transportation Sci 30: 276–290 Hirsch WM, Dantzig GB (1968) The fixed charge problem. Naval Res Logist Quart 15: 413–424 Hultberg TH, Cardoso DM (1997) The teacher assignment problem: A special case of the fixed charge transportation problem. European J Oper Res 101: 463–473 Kennington JL, Helgason RV (1980) Algorithms for Network Programming. Wiley, New York Kennington JL, Unger VE (1976) A new branch-and-bound algorithm for the fixed-charge transportation problem. Management Sci 22: 1116–1126 Kim D, Pardalos PM (1999) A solution approach to the fixed charge network flow problem using a dynamic slope scaling procedure. Oper Res Letters 24: 195– 203 Klose A (2001) Standortplanung in distributiven Systemen – Modelle, Methoden, Anwendungen. Physica, Heidelberg Kuhn HW, Baumol W (1962) An approximative algorithm for the fixed-charge transportation problem. Naval Res Logist Quart 9:116–129 Larsson T, Migdalas A, Rönnqvist M (1994) A Lagrangean heuristic for the capacitated concave minimum cost network flow problem. European J Oper Res 78: 116–129 Magnanti TL, Wong RT (1984) Network design and transportation planning: Models and algorithms. Transportation Sci 18: 1–55 Martello S, Pisinger D, Toth P (1999) Dynamic programming and strong bounds for the 0-1 Knapsack problem. Management Sci 45: 414–424 Murty KG (1968) Solving the fixed charge problem by ranking the extreme points. Oper Res 16: 268–279 Nemhauser GL, Wolsey LA (1988) Integer and Combinatorial Optimization. Wiley, New York Padberg M, Wolsey LA, Van Roy TJ (1985) Valid inequalities for fixed charge problems. Oper Res 33: 842–861
530
A. Klose, T. Lidke
Palekar US, Karwan MH, Zionts S (1990) A branch-and-bound method for the fixed charge transportation problem. Management Sci 36: 1092–1105 Shetty B (1990) A relaxation/decomposition algorithm for the fixed charge network problem. Naval Res Logist 37: 327–340 Sun M, Aronson JE, McKeown PG, Drinka D (1998) A tabu search heuristic procedure for the fixed charge transportation problem. European J Oper Res 106: 441–456 Wright DD, Haehling von Lanzenauer C (1989) Solving the fixed charge problem with Lagrangian relaxation and cost allocation heuristics. European J Oper Res 42: 305–312 Yaged B (1971) Minimum cost routing for static network models. Networks 1: 139–172
Solving Complex QAP-Instances by a PC-LAN Stefan Bock International Graduate School Dynamic Intelligent Systems, University of Paderborn, Warburger Straße 100, 33098 Paderborn, [email protected]
Abstract In this paper the well-known standardized Quadratic Assignment Problem (QAP) is addressed. To solve extreme complex instances of this problem a new distributed heuristic is proposed, which can be applied on each ordinary Local Area Network of Personal Computers (PC-LAN). To be efficiently applicable even for problems with up to 400 elements this approach uses a simple but strict reduction of the neighborhood to be examined in each move. In comparison to best known approaches in literature the sequential version of the new approach already yields a small but reliable relative improvement measured for randomly generated instances. To realize further improvements by the use of realistic larger-sized distributed systems the parallel version of the approach has been designed according to the requirements of ordinary distributed systems that can be found as heterogeneous networks of Personal Computers in nearly every company today. Consequently, time-consuming synchronization-, blocking- and communication-operations are reduced to ensure an efficient execution even in networks with an unfavorable communication performance. To deal additionally with the problem of an unpredictable background load caused by simultaneously executed office applications the algorithm integrates a simple dynamic load balancing scheme distributing the occurring work according to the current performance of the connected computers. In detail, the available capacity of each node in the network is continuously controlled in order to execute an iterative adaptation of the current work distribution. Combined with a clustered search structure this simple scheme has proven to yield its solution quality with a high reliability even in a very dynamic environment.
532
1
S. Bock
The Quadratic Assignment Problem
1.1 Problem Statement Before analyzing complexity and solution procedure issues, the QAP is introduced formally. Since this problem has been widely addressed during the past decades, a huge set of problem definitions and solution approaches can be found in literature. Originally, the QAP was introduced in 1957 by Koopmans and Beckmann for modeling plant location problems1. The term “quadratic” is derived from the definition of the objective function in the integer formulation resulting in a quadratic cost calculation. Since the solution approaches proposed in this paper generate only permutation-based solutions an appropriate permutation-based problem definition is used2. Parameters :
(1)
N : Number of elements N × N − Matrix A = (ai , j )1≤i ≤ N ;1≤ j ≤ N N × N − Matrix B = (bi , j )1≤i ≤ N ;1≤ j ≤ N
Variables : π ∈ S N : Sought permutation Objective function : N
N
Minimize Z ( A, B, π ) = ∑∑ a π (i ),π ( j ) ⋅ bi , j i =1 j =1
As defined above, in the QAP-formulation a permutation of the set {1,…,N} has to be generated as the solution of the problem. All interdependencies between the different elements and corresponding targets of the sought permutation are given by the predefined matrices A and B. While the matrix A defines the rated relationship between the respective elements for all pairs, matrix B analogously gives these values for the permutation targets. Consequently, each permutation is rated by the total sum over the resulting values of all pairs of elements. These resulting values are calculated as the product of the matrix entries for the original- and the target1 2
Cf. (Çela 1998) p.ix. Cf. (Çela 1998) p.2-3.
Solving Complex QAP-Instances by a PC-LAN
533
values. Note, that in the original formulation there are no restrictions concerning the definition of the sought permutation, but they can be easily integrated. 1.2 Possible Applications of the QAP In spite of its simplicity, the Quadratic Assignment Problem can be applied to a wide range of existing industrial- and logistical problems. For instance, according to Çela3 there are important applications in the fields of Facility Location and Wiring Problems, which are briefly described in the following: • Facility Location: This kind of applications addresses problems of arranging the layout in an arising warehouse or production system as well as the construction of entire plants. To do so, the problem is reduced to the allocation of N facilities to N uniform locations in the arising layout. Therefore, matrix A is interpreted as the so called Flow-Matrix defining the material flow between all pairs of elements throughout the considered planning horizon. In addition to this, matrix B gives the distances between the available locations while the objective of the problem addresses the minimization of total resulting transportation costs between all pairs of allocated facilities throughout the planning horizon. Therefore, it is assumed that the resulting costs proportionally occur to the resulting distances and quantities. Note that material-dependent cost-rates can be respected by the definition of the facilities-pair-individual quantities in the Flow-Matrix A. • Wiring problems: In such problems a predefined number of modules have to be located on a given board. All these modules are connected by a given individual number of wires. The objective of the problem is to find a complete placement where the total length of the connecting wires is minimized. Again, each feasible solution can be interpreted as a specific permutation π of the set {1,2,…,N}. The matrix A defines the number of wires connecting the respective modules for each pair, while B gives the individual distances between all pairs of available positions on the board.
3
Cf. (Çela 1998) pp.4-5.
534
S. Bock
In addition to these applications, among others there are for example specific problems of distributed and parallel programming4 as well as scheduling5 which can be interpreted and solved as QAP-instances6. 1.3 Problem Complexity Despite of its very compact and simple definition, the Quadratic Assignment Problem belongs to the group of strongly NP-hard problems7. In addition to this basic classification, it can be stated that the QAP is even one of the more complex NP-hard combinatorial problems. Due to the fact, that tight lower bounds are unknown, solving of even small sized problems becomes a challenging task. This is underlined by the result of Sahni and Gonzales who have shown that “even finding a ε-approximation solution for the QAP is a hard problem, in the sense that the existence of a polynomial ε-approximation algorithm implies NP=P”8. As a consequence it can be stated, that out of today’s knowledge guaranteeing any specific solution quality is not possible by using a polynomial time-restricted deterministic algorithm. Consequently, best exact approaches for solving the QAP are frequently constructed as sequential or parallel Branch&Bound-procedures9. However, in worst cases, these solution methods cannot use tight bounds wherefore almost every possible constellation in the solution space has to be generated and examined. Therefore, due to the resulting complexity of O(N!), even small-sized problems of more than 30 elements cannot be solved in reasonable time10. Since this paper addresses much more complex instances with up to 400 elements to be allocated, only heuristics are considered. Among these approaches especially Tabu Searchand Simulated Annealing-based algorithms have yielded most promising results. Therefore the paper on hand concentrates on these well-known Meta-heuristics. 4 5 6
7
8 9
10
Cf. (Bokhari 1981). Cf. (Geoffrion and Graves 1976). For a longer list of existing applications the reader is referred to (Çela 1998) p.3-4. Cf. (Sahni and Gonzalez 1976). The proof is given by a reduction of the well known Hamiltonian Cycle Problem. Cf. (Çela 1998) p.18. Cf. (Brüngger et al. 1997) or (Clausen and Perregaard 1997). For a longer recent list of references of parallel Branch&Bound-procedures cf. (Fedjki and Duffuaa 2004) p. 568. Cf. (Fedjki and Duffuaa 2004) p.568.
Solving Complex QAP-Instances by a PC-LAN
2
535
Literature Review
As mentioned above, the bibliography gives a wide range of different proposed heuristics tackling hard instances of the QAP11. As known from many other applications among them, besides Genetic algorithms Tabu Search- as well as Simulated Annealing approaches are the most efficient ones. Consequently, this review and the upcoming research work presented in this paper address procedures which are only based on these Metaheuristics. Due to its simplicity as well as complexity a huge set of proposed heuristic procedures for solving the QAP can be found in literature. Among them there are simple Greedy approaches as well as specific much more elaborated improvement procedures. While Greedy approaches iteratively generate a solution very fast without changing an already chosen decision, improvement procedures try to improve an already existing solution by the iterative application of local transformations. This is frequently done by a sequence of moves. In each such move specific operations are executed to change the solution currently stored. Applied to a temporary solution the set of all resulting solutions defines the local neighborhood of the current constellation. A Tabu Search approach always realizes the best nonforbidden constellation in each neighborhood, independent from the fact, whether it deteriorates the current solution or not. To prevent cyclical computations, a Tabu List is integrated in the computation which temporarily excludes operations possibly leading back to a constellation just considered before. Such a Tabu State of a move can only be ignored, if its execution leads to an improvement of the objective value12. Frequently, the Tabu List is realized in a cyclical manner. Therefore, after executing a move the inverted operation leading back to the solution just considered is inserted in the current position of the list, indicated by a specific pointer. After a predefined number of further steps the Tabu state of this move is deleted again since its respective entry in the list is overwritten by new added elements. Obviously the length of this Tabu List has an important impact on the efficiency of the Tabu Search procedure. In contrast to Tabu Search approaches where the complete neighborhood has to be examined in each step, Simulated Annealing procedures pick only one randomly or systematically chosen candidate per move. If this new solution leads to an improved objective value it is realized without further computations. Oth11 12
For a recent brief overview cf. (Fedjki and Duffuaa 2004) pp.567/568. This is frequently called the aspiration level criterion (cf. (Skorin-Karpov 1990) p. 34).
536
S. Bock
erwise, a deterioration is only accepted with a specific probability. This probability is determined by the formula e–∆/t, while ∆ gives the total deterioration of the move and t the current temperature of the search process. Note, that deteriorations are much more likely for high temperatures while a “frozen” state only accepts improvements. Consequently the definition of the temperature can be seen as the crucial setting of the algorithm. Its behavior is controlled by the so-called Annealing schedule or temperaturefunction defining the changing rates from move to move. Nearly all Simulated Annealing- and Tabu Search-approaches proposed for the QAP use a simple neighborhood consisting in its original definition of all possible exchanges of the location of two arbitrarily chosen elements in the current solution. Therefore, this neighborhood has the total complexity of ½.N.(N-1)∈O(N2) possible moves. As a first comparison between Tabu Search and Simulated Annealing, it can be stated that Tabu Search frequently takes local decisions with much more care. But as its main drawback, Tabu Search pays for this purpose the price of an incomparable increased computational effort in each move. Note that the impact of the latter aspect increases significantly for larger-sized instances, which are the subject of this paper. Very efficient Tabu Search procedures for the Quadratic Assignment Problem among others are proposed by Skorin-Karpov, Taillard and Battiti and Tecchiolli13. These approaches mainly differ in respect to the applied mechanisms for excluding cyclical computations during the examination process. The well-known approach of Skorin-Karpov14 works interactively in several iterations. Therefore, after executing the search process for a predefined number of moves the user is asked about the subsequent computation. As one possible continuation the search process is restarted from the initial solution with new values for the Tabu List Length as well as for the number of moves to be generated for the new run. Secondly, the identical computation can be continued as well from the best solution found so far. As a third variant the process is restarted with the initial construction phase and penalizes frequently executed moves to yield a higher diversity in the solution space. To record the occurring frequencies of the applicable moves the procedure maintains a long-term memory15. This original approach was refined later by a second work of Skorin-Karpov16 according to 13
14 15 16
For a detailed analysis of the performance of these different approaches cf. (Taillard 1995). Cf. (Skorin-Karpov 1990). Cf. (Skorin-Karpov 1990) p. 34. Cf. (Skorin-Karpov 1994).
Solving Complex QAP-Instances by a PC-LAN
537
three aspects. First, non-improving moves were guided by specific targeting criteria. Secondly, the possibility of an adaptive neighborhoodreduction by fixing a predefined number of exchange-pairs was integrated to intensify temporarily the search in “better” regions of the solution space. Finally, the length of the Tabu List can be changed now dynamically by moving gaps in it to delete temporarily the Tabu State of a subset of moves. Skorin-Karpov showed that these refinements can improve the yielded solution quality of his approach for moderate-sized instances. The Robust Tabu Search procedure proposed by Taillard17 introduces two additional parameters t and u to prevent the algorithm from the execution of cyclical computations. The parameter t defines a lower bound for the number of steps between two moves, where an arbitrary element is allocated to the same position. Analogously, u gives such a lower bound for each pair of machines. Since the value for u is chosen with size O(N) while the value for t is suggested to be out of O(N²) this mechanism is frequently viewed as a combination of short- and long-term memory. Its combined application should enforce a more diversified search. Additionally, Taillard gives a parallel version of this procedure implemented on a ring of transputers. By balancing the total work of each move between p processors for large sized problems the algorithm yielded an almost linear speedup on systems with up to 10 processors. Based on the same principles, the Reactive Tabu Search approach developed by Battiti and Tecchiolli18 changes its current parameter setting dynamically according to the already visited solutions. For instance, if during the examination process the search returns to a defined solution, the parameter u is increased while a decrease is realized, if such a repetition has not occurred for a predefined number of moves. In contrast to this, the Strict Tabu Search procedure proposed by Battiti and Tecchiolli as well records all visited solutions during the computational process. Consequently, each return is forbidden, while the necessary comparisons are realized by specific hashing techniques. The TB2-approach proposed by Bölte and Thonemann19 can still be regarded as the most efficient Simulated Annealing procedure for solving hard instances of the QAP. In comparison to earlier approaches, this procedure uses a specific cooling schedule optimized in offline-computations by Genetic programming. Quite similar to the techniques used for deriving inventory-control policies recently published by Kleinau and Thonemann20, 17 18 19 20
Cf. (Taillard 1991). Cf. (Battiti and Tecchiolli 1994). Cf. (Bölte and Thonemann 1996). Cf. (Kleinau and Thonemann 2004).
538
S. Bock
this Genetic Programming approach generates temperature functions whose qualities are rated by the yielded objective value for specific QAPinstances. By analyzing best results, Bölte and Thonemann derived specific problem-independent features to be included in the cooling schedule of the procedure TB2. It was shown, that this approach significantly improves the results of previously known Simulated Annealing procedures as well as of best Tabu Search approaches. In addition to this, it consumes moderate amounts of computational times recommending the application of this procedure especially for QAP-instances of extreme size. Due to their quite complex neighborhoods to be examined completely in each step and the proposed time-consuming mechanisms for the prevention of cyclical computations the Tabu Search approaches proposed so far in literature cannot efficiently be applied for instances of extreme size. Consequently, an application of the faster Simulated Annealing approach of Bölte and Thonemann as well as the integration of neighborhood reduction instruments in the Tabu Search approaches seem to be much more reasonable.
3
The New Distributed Highest-Ascent-Mildest-DescentApproach (D-HAMD-Approach)
As already mentioned before, the main drawback of Tabu Search approaches results from the computational effort caused by the complete examination of the neighborhood in each move. This limits the number of moves executable during a reasonable amount of time, wherefore the overall solution quality can be deteriorated significantly in comparison to approaches with a much faster move generation. As this paper only faces complex instances of the QAP where between 300 and 400 elements have to be allocated, the integration of instruments for a strict limitation of the neighborhood size becomes a crucial attribute. Consequently, in the following the description of the proposed algorithm starts with its sequential version and its used reduced neighborhood definition. Subsequently, the distributed version applicable in each LAN of Personal Computers is introduced. Due to the fact that the proposed procedure does not longer uses a Tabu List it was classified more generally as a Highest-Ascent-MildestDescent-Approach (HAMD).
Solving Complex QAP-Instances by a PC-LAN
539
3.1 Neighborhood Search of the Proposed HAMD-Approach Similarly to the most promising move-oriented solution approaches designed for the Quadratic Assignment Problem the 2-exchange operation is used as its basis. Consequently, per move there are again up to ½.N.(N-1) pair-wise exchanges to be examined for finding the sought operation subsequently realized. To reduce this neighborhood-search significantly some simple additional rules are integrated. First, the total number of all simulated and compared exchanges is always limited to a predefined upper bound MNE (=”Maximum Number of Exchanges”). Therefore, during the examination process in each move the search is always stopped if this number of exchanges is reached, while the best solution found so far is taken as the new current one. During the search all elements are considered in a strict cyclical ascending order starting always at the position where the preceding move has ended its examination. For each element all exchanges with all other elements are tested to find a maximum improvement of the current objective value. Note, that this covers additionally “negative improvements” resulting in a deterioration of the current objective value. By doing so, the examination process of the original neighborhood is separated in a sequence of steps iteratively applied. To intensify the search in this simple scheme, all elements are rated according to their current impact on the resulting objective value. Due to the fact that this scheme cannot consider all pair-wise exchanges of the neighborhood in each move it is possible that the examination process misses promising alternatives especially for complex instances. To reduce the probability of this unmeant scenario, an additional rule is applied preferring elements for reassignments whose current position causes most significant costs. These significant costs are interpreted as an indicator for a misplaced or very important element. Therefore, for each assigned element in a current solution the contribution to the resulting total transportation costs is calculated and taken as a benchmark for the quality of its currently chosen location. These priority-values are defined relatively to the average contribution in the current solution. In each move the selection process is generated depending on a given parameter c defining a lower bound for the cost-contribution of each element to be chosen during the examination process. In detail, the search process mentioned above is reduced to all elements whose current cost-contribution is at least c percentage above the average of all elements. Only those elements are selected to simulate a possible exchange with all other elements excluding already examined constellations. Those elements are called the significant elements of the current solution. Note, that the applied examination-technique does
540
S. Bock
not require that the element currently exchanged with the respective significant element fulfills any specific restriction. Consequently, only exchanges between two elements with a small relative contribution to the current objective value are excluded from the neighborhood examination. The value of the parameter c is controlled by the current state of the searching process whose setting is completely defined by a vector (MNE, y, (c1,d1),…, (cy,dy)) of an arbitrary but fixed length. According to this specific setting the searching process passes through y states, while in the i-th state where the procedure stays for di percent of the total available computational time the parameter c is set to ci. To realize the execution of the neighborhood-examination, for a current solution the following data structures are maintained throughout the searching process: • • • •
SignElem[1..N]: NsignElem[1..N]: NrSignElem: NrNsignElem:
Array of all significant elements Array of all insignificant elements Number of significant elements Number of insignificant elements
(2)
Note, that after realizing the chosen exchange of the current move, these data structures can be updated in time O(N). To examine the neighborhood, all elements of array SignElem are considered consecutively. In the following, the current element of this list is termed as the starting exchange element of each exchange operation. By examining the i-th entry of this array all higher numbered elements of SignElem are taken for a possible exchange. Subsequently, the examination is continued with all elements of the array NsignElem. Note, that this procedure defines a fixed sequence in which all exchanges of the (reduced) neighborhood are visited exactly once. 3.2 The Distributed Approach (D-HAMD) Today, distributed computer systems as for instance Local Area Networks (LANs) connecting different Personal Computers can be found in nearly every company. But in most cases, these computers by far are not used up to their available capacity. Rather only simple office applications are executed, wherefore the largest proportion of the available capacity remains unused. Consequently, this available capacity can be used for generating more efficient production plans by the application of specific distributed algorithms using the entire LAN’s as one large-sized parallel computer system. For example, by executing the planning procedure on such a paral-
Solving Complex QAP-Instances by a PC-LAN
541
lel system different independent search processes can be started simultaneously. Therefore, in comparison to its sequential version the distributed algorithm becomes able to examine additional parts of the solution space. As a main consequence, better solutions can be generated in the available computational time, or alternatively an identical solution quality can be yielded in a shorter period of time. However, such an efficient use of distributed systems in a realistic environment demands an elaborated algorithm-design taking into account the specific attributes of the used computational system. In detail, among others, especially the following main attributes have to be addressed by an appropriate procedure-design: • Communication costs: In comparison to pure internal computation operations each communication process takes a significant higher effort to be executed. While this is true even for specific strong-connected parallel computers, where this difference is already significant, this is especially true for distributed heterogeneous PC-LANs. In those architectures the execution of a single communication operation consumes the duration of internal instructions several times. • Latency: By designing the communication-structure of a distributed procedure, it has to be additionally taken into account that a significant proportion of the communication duration is consumed by the necessary activities for initializing each communication process. Consequently, an efficient algorithm-design should combine communications to reduce the number of small-sized messages. • Background load: Due to the fact that in a realistic environment the PCLAN is frequently used simultaneously by ordinary office applications a dynamically changing background load occurs. Temporarily, this load can significantly reduce the available performance of an arbitrary subgroup of computers in the network. Consequently, a dynamic load balancer has to be integrated in the algorithm design. To consider these important aspects appropriately in the proposed distributed algorithm, the used network is separated in different teams executing independently different searching paths. In detail, the total network of p computers is divided into q teams of r computers each. Every team generates an individual searching process executing the sequential HAMDprocedure described in subsection 3.1 to improve a solution currently stored. To reduce communication processes and to increase the diversity of the examination all search processes of the different teams work independently on different solutions without any interactions except for the final broadcast at the end of the computation process. In every team the neighborhood to be examined in each step is distributed among the differ-
542
S. Bock
ent team-members to accelerate the move execution. Therefore, all members examine simultaneously a different part of the neighborhood. Subsequently, in each team the best solutions found are broadcasted to decide about the next move. To do so, the nodes of each team are organized theoretically in a binary tree-structure while each father-node receives the results from both of his sons. The better one is subsequently redirected to the next respective father-node until the root-node of this artificial tree can determine the best move in the team. Subsequently, this best constellation is broadcasted back to all team-members using the same tree-structure in opposite direction. After receiving the new constellation, this move is generated by all team-members. To yield the aimed speedup the distribution of the work in each team has to be realized in constant time. During this distribution process, in every team, each computer has to determine which possible exchanges have to be examined. Therefore, instruments have to be elaborated which compute the first and last exchange in the fixed sequence defined at the end of subsection 3.1 allocated to a considered computer (processor). To do so, at first, the starting-exchange element has to be determined, among whose exchanges the examination of the respective computer starts. In the following, in terms of simplicity it is assumed that the search starts with the first possible exchange operation of the complete neighborhood. Otherwise, an additional offset has to be integrated. To derive the needed instruments the following notations are introduced: • p: Number of computers in the used network. • x (1≤ x≤ p): Number of the considered computer. • T(x): Total number of exchanges to be examined by the x-th computer. • (f(x),s(x)): Pair of elements whose exchange is examined first by the x-th computer. • w(k) (1≤ k≤ NrSignElem): Number of exchanges examined after the consideration of the element SignElem[k].
(3)
3.2.1 Lemma: It holds: ∀k ∈ {1,2,..., NrSignElem }: w(k ) = k ⋅ N −
1 2 1 ⋅k − ⋅k 2 2
Proof: The proof is given by induction. For k=1, w(k) is equal to N-1 which is obviously the correct result. For k+1, due to the definition of the examination procedure at the end of subsection 3.1, it can be stated that it holds:
Solving Complex QAP-Instances by a PC-LAN
w(k + 1) = w(k ) + N − NrNsignElem − (k + 1) + 14444244443 Exchanges in array SignElem
543
(4)
NrNsignElem 14 4244 3
Exchanges in array NSignElem
1 1 = w(k ) + N − k − 1 = k ⋅ N − ⋅ k 2 − ⋅ k + N − k − 1 2 2 1 1 1 2 = (k + 1) ⋅ N − ⋅ k + 2 ⋅ k + 1 − ⋅ k − 2 2 2 1 1 2 = (k + 1) ⋅ N − ⋅ (k + 1) − ⋅ (k + 1) 2 2 q.e.d .
(
)
By using this formula, we can determine the starting exchange element f(x) for the x-th computer by using the threshold l = 1 +
∑
x −1 a =1
T (a ) .
1 2 1 1 1 ⋅k − ⋅k = l ⇔ k ⋅ N − ⋅k2 − ⋅k −l = 0 2 2 2 2 ⇔ k 2 + (1 − 2 ⋅ N ) ⋅ k + 2 ⋅ l = 0 w(k ) = l ⇔ k ⋅ N −
⇔k=−
(5)
(1 − 2 ⋅ N ) + (1 − 2 ⋅ N )2 − 2 ⋅ l −
2
4
⇒ wopt ,1 (k ) =
(2 ⋅ N − 1) + (1 − 2 ⋅ N )2 − 2 ⋅ l
⇒ wopt , 2 (k ) =
(2 ⋅ N − 1) − (1 − 2 ⋅ N )2 − 2 ⋅ l
2
2
4
4
As derived above, there are two possible values. Depending on the minimum and maximum value for parameter l (0 < l ≤ ½.N.(N-1)), the value of wopt,2(k) is a real number larger than 0 and smaller or equal to N-1. Consequently, wopt,1(k) lays outside the feasible interval and can be ignored. By setting the index e to the smallest integer value larger than or equal to wopt,2(k) the sought starting-exchange element f(x) for the x-th computer is determined by f(x)=SignElem[e]. The number of the second element s(x) involved in this first exchange to be examined by the considered computer can be determined subsequently by the following formula. Assume, that e ≥ 1 is set to the respective starting exchange element:
544
S. Bock
For e = 1 :
(6)
if NrSignElem − e ≥ l ⎧SignElem[e + l ] s(x ) = ⎨ otherwise ⎩ NsignElem[l − NrSignElem + e] Otherwise :
if NrSignElem − e ≥ l − w(e − 1) ⎧ SignElem[e + l − w(e − 1)] s(x ) = ⎨ otherwise ⎩ NsignElem[l − w(e − 1) − NrSignElem + e]
Altogether, these two formulas can be used to derive the set of exchange-operations for a considered computer x, if for all team-members the number of exchanges to be examined are given. These parameters are determined during the work distribution process using simple rules defined by the applied dynamic load-balancer. These rules already proposed by Bock and Rosenberg21 are briefly introduced next. To do so, the current performance z(x) of the x-th computer in a team X is measured as the number of exchanges per time-unit. This is always measured individually during the examination process by each node in the network and subsequently broadcasted at the end of each move together with the best constellation found. After exchanging these results in each team, every member can determine the average and individual performance of all computers in the respective team. Let ap(X) be the determined total added up performance in the team X. Then, in the next move, the x-th computer has to examine 100 z(x)/ap(X) percent of all exchanges belonging to the current neighborhood. Consequently, each node can derive its work-package individually without contacting the others. Altogether, depending on the chosen version defined by the tuple (q,r) the following parallel procedure is executed on each personal computer of the PC-LAN: 1. Generate an initial solution by a random generation of an initial permutation. To do so, the seed value of the used random number generator is set according to the number of the respective team. To generate uniform distributed numbers with a high probability the generator proposed by Park and Miller is used22. 2. In each team, the sequential HAMD-procedure is applied to improve the solution currently stored. 21 22
Cf. (Bock and Rosenberg 2000) p.952. Cf. (Park and Miller 1988).
Solving Complex QAP-Instances by a PC-LAN
545
a. Determine the total work in the next move and the current average performance of the team (In the first run, it is assumed, that all computers posses an equal performance) b. Distribute the share of work between the different team-members according to their current relative performance c. Each member examines the allocated sub-part of the neighborhood and records its current individual performance d. Broadcast the best constellations found in the current neighborhood as well as the measured performances between all team-members e. All team-members execute the best move found 3. After 95 percent of the available computational time each team executes a Hill Climbing procedure (Pure improvement phase) starting with the best known solution 4. The best solution found over all teams is determined and taken as the final output of the parallel procedure
4
Computational Results
To analyze the efficiency of the proposed procedures, the described approaches have been implemented in C++ using the MPI-library for communication between the connected personal computers. All tests were executed on the PSC-2 Siemens HpcLine, a SCI-Cluster available at the PC² of the University of Paderborn23. This cluster connects altogether 96 Primergy server nodes consisting of two Pentium-III-processors clocked with 850 MHz each. The communication-links of this system yield a bandwidth of 500 mega-bytes/s. Due to the demanded high complexity of the test-instances no appropriate benchmark in literature was found. Consequently, all 15 test-instances comprising between 300 and 400 elements to be allocated were generated randomly and therefore do not cover the specific requirements of real-life problems mentioned by Taillard24. The respective entries of the Flow and Distance Matrices were randomly chosen out of the interval [10,50]. The parameter-setting of the HAMD-procedure was not optimized. In detail, MNE was set to 1000 while only one state of the algorithm was ac-
23 24
For details, see: http://wwwcs.upb.de/pc2/ Cf. (Taillard 1995).
546
S. Bock
tive throughout the computation process with the rate c=025. Consequently, the simplest version (1000, 1, (0,100)) was realized. All executed computations of the applied improvement-procedures were stopped after 1000 seconds of available computational time. Note that a fair and realistic comparison of the performance of different heuristics has to predefine such a global threshold for the available computation time to measure their efficiencies accurately. This is not the case, if for instance there is a threshold limiting only the number of executable moves. 4.1 Comparison Between TB2 and the Sequential HAMDVersion To analyze the impact of the neighborhood reduction scheme, the consideration of the measured results starts with a brief comparison between the TB2-approach of Bölte and Thonemann and the proposed sequential HAMD-procedure. As expected, preliminary tests show that the use of an unrestricted neighborhood as realized in the Tabu Search procedures mentioned in section 2 yields only poor results and was significantly outperformed by TB2. However, as shown in table 1 the integration of the simple neighborhood reduction rules significantly improves the efficiency of the HAMDprocedure. Now, a small but obviously reliable improvement in comparison to the TB2-procedure can be observed. In detail, the sequential version of the HAMD-approach improves the results of the TB2-procedure for all 15 tested instances by 0,26 percent in average, while the smallest improvement rate was higher than 0,21 percent and the largest one almost 0,32 percent. Since Taillard reported that especially randomly chosen instances can be solved very efficiently by iterative search procedures, these small but reliable improvement rates can be again an indicator for a high solution quality even for such complex instances. Since the new heuristic realizes almost equal improvement-rates for all tested instances it can be concluded that this procedure outperforms TB2. However, a significant increased average improvement-rate is potentially prevented by the fact that the computed solutions are already nearly optimal.
25
I.e. in each move only elements whose current cost contribution is larger or equal to the average are taken as starting-exchange elements.
Solving Complex QAP-Instances by a PC-LAN
547
Table 1. Comparison of TB2 and the sequential HAMD-version TB2 vs. HAMD Experiment 1 Experiment 2 Experiment 3 Experiment 4 Experiment 5 Experiment 6 Experiment 7 Experiment 8 Experiment 9 Experiment 10 Experiment 11 Experiment 12 Experiment 13 Experiment 14 Experiment 15 Average
TB2 84874412 109363262 118936139 120604185 89177641 86304901 133616190 139938100 108217382 91644605 83943210 104828990 104799068 103535574 141251759 108069027,87
HAMD 84662862 109065774 118611302 120283505 88985277 86094260 133289282 139580456 107926484 91424703 83679625 104498934 104560644 103299665 140848372 107787409,67
Proc. Diff. -0.2493% -0.2720% -0.2731% -0.2659% -0.2157% -0.2441% -0.2447% -0.2556% -0.2688% -0.2400% -0.3140% -0.3149% -0.2275% -0.2279% -0.2856% -0.2606%
4.2 D-HAMD – The Impact of Using Distributed Systems In this subsection the efficiency of the distributed version of the HAMDprocedure is analyzed. To do so, tests were executed with up to 32 computers (processors) in the network using different team-sizes and numbers. By considering the tables 2 and 3, it becomes obvious that the use of larger sized networks can lead to further improvements of the solution quality. However, as known from the comparison of the sequential algorithms the yielded improvement-rates against the sequential HAMDversion are still quite small (up to 0.1564 %). Hence, this can be interpreted as a further indicator for an already high solution quality of the sequential HAMD-approach for the randomly generated instances. In addition to this, it becomes obvious that more significant impacts on the solution quality can be yielded if the additional computers in systems of larger size are used to accelerate the neighborhood examination instead of realizing additional parallel search-paths. Latter effects can be realized by additional teams while an accelerated processing is enabled by each increase of the team-sizes.
548
S. Bock
Table 2. Average results of the distributed HAMD-procedure. Best results for the different system sizes are bold printed. Number of teams 1 2 4 8 16 32
Number of computers per team 1
2
4
8
16
32
107787804 107736000 107683231 107664955 107625753 107632386 107775094 107717091 107675152 107642964 107619236 107765350 107709439 107669502 107630962 107750184 107694519 107655589 107736526 107688614 107727596
It can be concluded that in spite of the integrated rules for reducing the neighborhood size, the bottleneck of the search process still lays in a slow move execution. Note that the generated instances enlarge this existing bottleneck, since due to the dense and quite balanced matrices different local optima are very slightly correlated26. Consequently, for these instances it is not hard to reach a promising region of the solution space, wherefore an enlarged diversity yields only small improvements. However, intensifying the search processes by an accelerated examination enables the search to expand into the most promising sub-areas. Table 3. Relative improvements of the distributed HAMD-procedure. Again, best results for the different system sizes are bold printed. Number of teams 1 2 4 8 16 32
Number of computers per team 1
2
4
8
16
32
0% 0.0118% 0.0208% 0.0349% 0.0476% 0.0559%
0.0481% 0.0656% 0.0727% 0.0865% 0.0920%
0.0970% 0.1045% 0.1098% 0.1227%
0.1140% 0.1344% 0.1455%
0.1503% 0.1564%
0.1442%
As illustrated in table 4, unless for the largest team-size of 32 processors, the enlargement of the existing team-sizes leads to an almost linear speedup. 26
Cf. (Taillard 1995).
Solving Complex QAP-Instances by a PC-LAN
549
Table 4. Average number of executed steps in each team of the distributed HAMD-procedure Number of Teams 1 2 4 8 16 32
Number of computers per team 1 8477 8483 8452 8466 8513 8558
2 16721 16748 16751 16421 16255
4 32719 32710 32167 32315
8 51790 62014 54749
16 111119 117377
32 144540
By allowing the consideration of an increased number of constellations in each local search area this acceleration improves the intensification of the search processes significantly. The increase of executed steps achieved by the enlargement of team-sizes from 16 to 32 processors is quite poor in comparison to the other speedups. This can be easily explained by the restricted complexity of the neighborhood in each move. Therefore, the total work to be done is not sufficient to use all 32 processors in the team efficiently. Consequently, only smaller intensification effects can be yielded wherefore diversity aspects caused by additional paths become more interesting. In this connection, further analyses for generating an efficient teamsize dependent neighborhood-definition seem to be reasonable to reach additional improvements. As one result, neighborhood-size dependent optimal team-sizes can be derived. However, due to the fact that the yieldable efficiency of a concrete neighborhood-definition is highly applicationdependent the generation of a flexible adaptation mechanism for the used neighborhood setting applied during the execution of the algorithm seems to be a more interesting field of future research.
5
Conclusions and Future Work
In this paper, for solving hard instances of the Quadratic Assignment Problem a new distributed HAMD-procedure is proposed which can be executed in every ordinary Local Area Network of personal computers as it is available in almost all companies today. To improve intensification as well as diversification aspects of the search process the distributed algorithm uses a clustered structure where different teams of processors work independently in different regions of the solution space. To reduce the number
550
S. Bock
of time-consuming communication-operations during the examinationprocesses interaction between the different processors is only possible between members of the same team. In each team an accelerated examination results from a fast distribution of the total neighborhood over all members. To work efficiently even in heterogeneous networks with an existing dynamically changing background load, the algorithm additionally integrates an adaptive dynamic load-balancer distributing the total work according to the current performance of the different computers. Consequently, in each team the available capacity is used more efficiently in comparison to an equal work-distribution. Since especially large-sized instances of the QAP should be solved by the algorithm, simple rules for reducing the size of the neighborhood completely examined in each move are integrated. By doing so, the sequential procedure yields substantial improvements of the solution quality, wherefore even instances of up to 400 elements can be handled efficiently, which was by far not possible by applying the original much larger neighborhood. However, the measured results of the computational tests executed for 15 randomly generated problems also indicate the still existing bottleneck of intensification in the executed search processes. Consequently, up to a threshold of 16 processors per team most significant improvements have been yielded by an enlargement of the team-sizes. Further analyses have shown that the parameter-setting of the proposed HAMD-procedure possesses important potentials for additional improvements. However, these effects seem to be very problem-dependent. Therefore, it can be concluded that it is reasonable to integrate some additional instruments for an aimed application-dependent automatic parameter adaptation. For instance, by analyzing the already yielded improvement rates these instruments can reduce or enlarge the current neighborhood sizes during the computation process. Besides changing dynamically the size of the current neighborhood it can be also reasonable to substitute the fixed teamsegmentation of the network by a dynamically changing one. In this much more flexible version of the procedure for instance computers can change teams either individually or by executing more globally acting operations for unification or separation of existing teams27.
27
The efficiency of such a flexible adaptive segmentation of a given network in a distributed approach has been already shown for an efficient problemindependent parallelization of Simulated Annealing by Diekmann and Simon (Diekmann and Simon 1993).
Solving Complex QAP-Instances by a PC-LAN
551
Acknowledgements This work has been partly supported by the DFG Sonderforschungsbereich 376 “Massive Parallelität: Algorithmen, Entwurfmethoden, Anwendungen. I want to thank Sascha Dietz and Kai Hoberg for their excellent programming work and helpful discussions. In addition to this, many thanks to the employees of the Paderborner PC² for their encouragement.
References Battiti R, Tecchiolli G (1994) The Reactive Tabu Search. ORSA Journal on Computing 6: 126-140 Bock S, Rosenberg O (2000) Dynamic load balancing strategies for planning production processes in a heterogeneous network. Proceedings of the INFORMS Conference 2000 (Seoul): 951-955 Bölte A, Thonemann, UW (1996) Optimizing Simulated Annealing Schedules with Genetic Programming. European Journal of Operational Research 92: 402-416 Brüngger A, Marzetta A, Clausen J, Perregaard M (1997) Joining Forces in Solving Large-Scale Quadratic Assignment Problems in Parallel. Proceedings of the 11th International Parallel Processing Symposium (IPPS 1997): 418-427 Clausen J, Perregaard M (1997) Solving large quadratic assignment problems in parallel. Computational Optimization and Applications 8(2): 11-127 Çela E (1998) The Quadratic Assignment Problem. Theory and Algorithms. Kluwer, Dordrecht et al. Diekmann R, Simon J (1993) Problem Independent Distributed Simulated Annealing and its Applications. In: Vidal RV (eds.) Applied Simulated Annealing. Springer, Heidelberg, pp. 17-44 Fedjki CA, Duffuaa S (2004) An extreme point algorithm for a local minimum solution to the quadratic assignment problem. European Journal of Operational Research 156: 566-578 Geoffrion AM, Graves GW (1976) Scheduling parallel production lines with changeover costs: Practical applications of a quadratic assignment/LP approach. Operations Research 24: 595-610 Kleinau P, Thonemann U (2004) Deriving inventory-control policies with genetic programming. OR Spectrum 26: 521-546 Park SK, Miller KW (1988) Random Number Generators: Good ones are hard to find. Communications of the ACM 31(10): 1192-1201 Sahni S, Gonzalez T (1976) P-complete approximation problems. Journal of the ACM 23: 555-565 Skorin-Kapow J (1990) Tabu Search applied to the Quadratic Assignment Problem. ORSA Journal on Computing 2: 33-45
552
S. Bock
Skorin-Kapow J (1994) Extensions of a Tabu Search adaptation to the Quadratic Assignment Problem. Computers & Operations Research 21(8): 855-865 Taillard ÉD (1991) Robust Taboo Search for the Quadratic Assignment Problem. Parallel Computing 17: 443-455 Taillard ÉD (1995) Comparison of iterative searches for the Quadratic Assignment Problem. Location Science 3(2): 87-105
Optimization of Process Chain Models with Response Surface Methodology and the ProC/B Toolset Peter Buchholz, Dennis Müller, Axel Thümmler University of Dortmund, Informatik IV, 44227 Dortmund http://ls4-www.cs.uni-dortmund.de/MuS
Abstract Large logistics networks often require sophisticated decisions to be made to meet the required service qualities. Often these decisions are made according to a model based analysis and optimization of the network. For this purpose simulation models and appropriate optimization techniques have to be combined. This combination is still a challenge, in particular if the approach should run in a more or less automated way. In this paper we present the combination of a process chain based simulator and the response surface method for optimization. Particular emphasis is placed onto a realization of the response surface method which runs completely automatically after initialization. The quality of the proposed optimization approach is shown by means of two example models.
1
Introduction
The design and operation of logistics networks requires a large number of decisions to be made to find a realization of the network which meets the required service qualities and which can be realized with low costs. Usually several design parameters like the location and capacity of depots, the number and type of vehicles and other resources have to be set to the right values to meet the design goals. Due to the complexity of the problem one cannot expect to find an optimal or at least a good solution in an ad hoc manner. What is required is a systematic approach which can be applied
554
P. Buchholz, D. Müller, A. Thümmler
without too much effort. Such an approach has to be model driven since experiments using the real system are impossible or too costly. The inherent complexity of logistics networks requires an adequate modeling formalism to describe them and adequate methods to analyze them. For the analysis part discrete event simulation often has to be the method of choice since it is the only approach that can be applied for the analysis of large and complex models as they result from real scenarios. For model specification different approaches exist, often process chains are used since they allow a very natural mapping of real world processes onto the corresponding modeling elements [7], [12]. However, usually process chains are only descriptive models and cannot be used as specification of a simulation model. Consequently, process chains have to be enhanced with additional information to allow an automatic mapping onto a simulation program which can be used to determine quantitative results like processing times, filling of depots, down time of vehicles or costs of the whole design. One modeling approach that is based on process chains and can be used to specify simulation models is the ProC/B approach with the corresponding toolset [1] which has been developed in the collaborative research center 559 [5] at the university of Dortmund. The ProC/B Toolset allows the graphical and hierarchical specification of process chain models, the subsequent mapping onto different analyzable models including simulation programs and the representation of the results at the level of the process chain description. With the ProC/B Toolset models of logistics networks can be specified and analyzed, but the finding of optimal or good designs is not supported in the original toolset. From an abstract mathematical point of view the simulator represents a function φ(w1,…,wk) for some input parameter vector w = (w1,…,wk). Due to the stochastic nature of the simulation model φ(w) can only be observed with some statistical fluctuation and confidence intervals can be computed [8]. The optimization goal is to find minw∈W E[φ(w)] where E[φ(w)], also denoted as f(w), is the expectation of φ(w) and W is a feasible range for the parameters. Since φ is only implicitly represented as a simulation model or in other words as a black box, only those optimization methods can be applied which do not exploit the structure of function f. Optimization of simulation model is an important topic, several methods have been developed and some optimization packages are available [6], but most available optimization packages are not fully integrated with the simulation model, are not robust or do not scale well for larger problems. In so far the development and realization of integrated and automated optimization methods is a challenging research topic.
Optimization of Process Chain Models with RSM and ProC/B
555
Among the large number of available optimization methods for simulation models the response surface method (RSM) [10], [11] became very popular and is often used. RSM originally has been developed for optimization based on real experiments, but can be easily extended to be used with simulation. However, although RSM is known for a long time and a well established theory has been developed, the algorithm is usually described in a way that several steps have to be done manually such that the approach cannot be integrated in an optimization package where the whole experimentation and optimization approach is done automatically. Only very few implementations of RSM exist which can be used for automatic optimization [11] and it is not trivial to realize robust implementations of RSM that work for a wide range of models. In this paper we describe the extension of the ProC/B Toolset by an optimization package which applies RSM for the optimization of complex process chains. Of particular importance is the concrete realization of RSM such that it can run with very limited information or support by the user. In this way the toolset supports the whole design process of large logistics networks from the specification of the model to the finding of a good parameterization. The paper is organized as follows. In the next section a brief overview of the ProC/B approach and the corresponding toolset is given. Afterwards RSM as an approach for the optimization of ProC/B models is introduced. Particular emphasis is given to the introduction of a realization of RSM that runs without interaction with the user. In Section 4, the optimization of two example models is represented, one small example, where the complete response function can be computed and one large and realistic model of a cargo transfer station. The paper ends with the conclusions.
2
Modeling Process Chains with the ProC/B Toolset
Process Chains (PCs) are a convenient paradigm to model complex scenarios of logistics networks. As a mixture of graphical and textual description they are often easy to understand, but on the other hand they are usually not completely formalized and therefore do not include a full description of the system dynamics which is necessary for a model based quantitative analysis. Available formal modeling approaches are directly analyzable, but are often more abstract and harder to understand for a modeler, especially if he or she is coming from an application area. Often a trade off between the degree of freedom the modeler has and the strictness of the modeling paradigm exists. However, even if formal models have to be more
556
P. Buchholz, D. Müller, A. Thümmler
strict in their syntax and semantics, they can be designed in a way that they adopt common modeling elements from an application area and become in this way understandable and acceptable by people from that application area. The ProC/B modeling paradigm is a formal approach for the specification of process oriented models of logistics networks which has been defined with two goals in mind: 1. Even complex models should be easy to understand and the modeling elements should be similar to known approaches in the area. 2. Models have to be analyzable by computers according to various analysis goals including quantitative evaluation of technical and economical measures. The model class of ProC/B will be described in more detail in Section 2.1. The ProC/B Toolset is based on the ProC/B modeling paradigm. It includes a graphical editor to specify models and several converters to translate ProC/B models to various analysis tools like the HIT simulator [4]. The toolset is introduced in Section 2.2. 2.1 Description of the ProC/B Paradigm The ProC/B paradigm allows a modular and hierarchical description of process oriented models. Processes are described using process chains (PCs) which are a graphical way to visualize and specify the behavior. Each PC (see e.g. Fig. 5) describes one or several behavior patterns realized by connected activities. Activities are represented graphically with some additional textual annotation. Activities are connected by so called connectors. Different connectors exist to realize common behaviors like conditional branches, fork-joins, or loops. Each behavior pattern starts with a source denoted as a circle with an included dot and ends in a sink denoted as a circle with an included “×”. In the process description of the example in Fig. 5, sources generate activities according to some (stochastic) description of the arrival process and are denoted as unconditional sources. Alternatively one may define conditional sources that are driven by some external process (see e.g., the introduction of hierarchies below). Activities often have some duration and require some resources. To describe a pure delay or timeless data manipulation, activities can be adequately enhanced. For the specification of resource usage activities are enhanced by resource and service names (see Fig. 5). Resources are specified as Functional Units (FUs) which are named elements that are able to perform some named services. Each description of a FU contains one or sev-
Optimization of Process Chain Models with RSM and ProC/B
557
eral named services which are graphically represented by source and sink symbols at the border of the graphical representation (see the lower parts of Fig. 5). FUs describe the consumption of the basic resources time and space. One can distinguish between basic and constructed FUs. The ProC/B paradigm defines two basic FUs Servers and Counters for time and space consumption, respectively. Servers capture the behavior of traditional queues including different scheduling strategies and load dependent speeds. Counters realize the consumption of space and are realized by vectors of integer variables with individual upper and lower bounds. A request to a counter is immediately granted, if the result is within the predefined bound, otherwise the calling activity has to wait until the request becomes possible. Apart from simple ones, FUs may be constructed by defining their behavior using a process chain description including conditional sources and sinks. Each source/sink pair describes a service which can be used by some calling activity. From some upper level basic and constructed FUs look similar from the outside. By construction of FUs from PCs two hierarchies are defined, a behavioral hierarchy of process patterns and a structural hierarchy by the definition of FUs using other FUs. For a flexible use of the approach it is possible to define general (non tree-like) hierarchies by using FUs from another PC in one PC. The corresponding services are denoted as external. Of course, recursive usage of this construct is not allowed since it results in components defined by themselves. Fig. 5 shows a simple example of a ProC/B model containing a single behavior pattern. Processes are generated with negatively exponentially distributed interarrival times and perform several activities. The first activity, named Queue1, uses a service alter_or_skip of a FU named Unit. Depending on the outcome of this activity the process performs additional activities or terminates immediately in the else-branch. Service alter_or_skip has three parameters and a return value which is stored in the local variable success. Depending on the value of success, the if- or the else-branch of the subsequent connector are chosen. Observe that the Unit1 provides further services which are not all used by the PC of the model, but they might be used as external services by some other process description in the model. Of course, this model is very simple and contains only a few features, but it shows the general principle of modeling with PCs. Further details about the ProC/B approach can be found in the literature [1], [2].
558
P. Buchholz, D. Müller, A. Thümmler
2.2 The ProC/B Toolset The ProC/B Toolset is a collection of tools which include an editor for PCs and several tools for quantitative analysis and visualization of the result measures. In this paper only the ProC/B editor and the simulation-based model analysis via the tool HIT will be briefly described. The ProC/B Editor With the ProC/B editor PCs can be modeled following the ProC/B modeling paradigm. The main window of the editor presents the current model in a hierarchical view, which allows the modeler to get an overview of his or her model and to access model parts directly. The ProC/B editor supports two modes, the modeling mode and the experiment mode. In the modeling mode PCs are edited. A selected model part will be opened in a new window similar to the one shown in Fig. 5. The experiment mode allows the definition of measures and values of global variables. Measures can be defined for FUs and include the predefined standard measures throughput, turnaround time, population and utilization. By default these measures are evaluated globally, but it is also possible to obtain results according to a specific calling instance. Apart from the mentioned technically oriented measures it is also possible to define and evaluate economic measures by assigning costs to specific activities. For optimization of models it is necessary to evaluate the model for several parameter settings to obtain an optimal or good design. Series of experiments are supported by the toolbox using global variables for the values that are modified during optimization and setting the values either in a predefined way or, as usually necessary for optimization, by some optimization algorithm that determines new parameter values from the results of the current experiments. Simulation of ProC/B Models with HIT As already mentioned ProC/B models can be transformed into models for several other tools, the resulting models can be analyzed with these tools and the results can be mapped back to the ProC/B model. Our optimization approach uses simulation as analysis method which can be done with HIT [4]. HIT is a powerful software tool originally developed for the analysis of computer and communication systems. It contains a simulator including support for statistical analysis of simulation results. Simulation runs can be controlled by different parameters including stopping criterions depending on the estimated accuracy of result measures.
Optimization of Process Chain Models with RSM and ProC/B
559
For the coupling of optimization and simulation it is most convenient to access ProC/B models at the level of the HIT model. Parameters of the HIT model are modified by the optimization module and simulation control values are set. HIT produces results based on these settings and the results are interpreted by the optimization module. Only the final parameter set and the corresponding results (i.e., the computed optimal configuration) is translated to ProC/B.
3
Model Optimization with Response Surface Methodology
This section describes the framework for fully automated application of the Response Surface Methodology (RSM) for optimization of stochastic simulation models. In general, RSM is a collection of statistical and mathematical techniques, which are applied for the optimization of stochastic functions [10]. RSM relies on low-order linear regression metamodels. Local marginal effects of the simulation model are estimated to find a direction of improvement. Fig. 1 shows a possible course of the general RSM procedure in a two-dimensional search space. In the localexploration phase (see phase I in Fig. 1), RSM uses a sequence of firstorder regression metamodels, combined with steepest ascent search. In this phase four points in a square are simulated and a first-order regression model is approximated to characterize the response surface around the current center point. In the final optimization phase, RSM uses a second-order regression metamodel (see phase II in Fig. 1) to estimate the optimum from the resulting fit. As already mentioned, a simulation model can be represented by a stochastic function φ, which maps a set of input parameters w1, …, wk onto a sample of an output performance measure which is a random variable. The goal of optimization is the optimization of the expectation of this random variable which is expressed by
f (w1 ,..., w k ) = E [ φ(w1 ,..., w k )] = y
(1)
where f is also called the response surface function. Note that a simulator produces a sample of the output random variable according to a given seed value of a particular random number generator implemented in the simulator. In general, the expected value of this random variable is determined by replicating the simulation run for different seed values.
560 w
P. Buchholz, D. Müller, A. Thümmler
2
I I I
I
II w 1
Fig. 1. Illustration of the Response Surface Methodology in two dimensions
The general optimization problem discussed in this section is characterized by finding a setting of the input parameters that maximizes/minimizes the response surface function. In RSM, the input parameters of the simulation model are usually called factors, whereas the stochastic output is called the response of the simulation model. Note, that in general input factors can be quantitative (i.e., continuous) and/or qualitative (i.e., discrete) variables. Nevertheless, in the following we assume that the input factors are continuous variables only, but it should be mentioned that our approach can be applied in a similar way for a mixture of continuous and discrete variables (see [10], pp. 456-478, for a discussion on qualitative variables). The main steps of the proposed RSM optimization algorithm are the following: (i)
Approximate the response surface function in a local region by a loworder linear regression metamodel (ii) Test the metamodel for adequate approximation (iii) Use the metamodel to predict the factor values of improved response Note that steps (i) to (iii) are repeated until a certain stopping criterion is reached. In fact, after step (iii) is finished and an improved response has been determined, a new regression metamodel is approximated in the local region around the improved response. Steps (i) to (iii) are described in more detail in the next sections.
Optimization of Process Chain Models with RSM and ProC/B
561
3.1 Approximating the Response Surface Function by Regression Models In this section the approximation of the response surface function in a local region by a low-order linear regression metamodel is considered. In particular, we consider first-order and second-order regression models and develop the equations required for implementing the RSM algorithm. A comprehensive introduction in regression metamodels and a detailed development of the required theory can be found for example in the textbook [10]. In general, the units of input parameters w1, …, wk of the simulation model differ from each other. Even if some of the parameters have the same units, not all of these parameters will be considered over the same range. For example, one parameter may be the mean arrival rate of customers to a queue, ranging from 0.1 to 10, and a second parameter may be a failure probability of the server, ranging from 10-5 to 10-2. Since input parameters have different units and/or different ranges in the experimental setting, regression analysis should not be performed on the raw (dimensional) parameters themselves. Instead, the input parameters must be normalized before performing the regression analysis. Thus, they are called normalized variables or coded variables. Each of the coded variables is forced to range from −1 to 1. Let li and ui the lower limit and upper limit of input parameter wi, i = 1,…,k, respectively. We denote the coded variable that corresponds to the natural variable wi by xi. The transformation from wi to xi is performed by
xi =
w i − mi bi
(2)
with the center and half-width of the considered range mi = (ui + li)/2 and bi = (ui − li)/2, respectively. The first-order regression metamodel in the coded variables is given by k
y = β 0 + ∑ βi ⋅ x i + ε
(3)
i =1
with k+1 regression coefficients β0, ..., βk and ε an additive error having normal distribution with mean zero and variance σ2. Estimators of the regression coefficients are determined using ordinary least-squares (OLS) estimation. Suppose that n > k observations of the response variable, denoted by y1, ..., yn, are available. Each observed response yi is the result of a simulation experiment with input factor values xi1, …, xik. Note that the input factors must be transferred to the natural variables to carry out the
562
P. Buchholz, D. Müller, A. Thümmler
simulation experiment. Choosing an appropriate set of input factor values xi1, …, xik, i=1,..,n, is called an experimental design [9]. With OLS estimation the regression coefficients are determined such that the sum of squares of the errors εi for each parameter/response pair xi1, …, xik, yi in Eq. (3) is minimized. Writing the OLS system in matrix notations yields
y = X ⋅β + ε
(4)
x12 L x1k ⎞ ⎛ ε1 ⎞ ⎛ β0 ⎞ ⎜ ⎟ ⎜ ⎟ ⎟ ε β1 ⎟ x 22 L x 2k ⎟ ⎜ , β= , ε=⎜ 2⎟ ⎜ ⎜ ⎟ ⎟ M ⎟ M M M ⎜ ⎟ ⎜ ⎟ ⎟ x n 2 L x nk ⎠ ⎝ εn ⎠ ⎝ βk ⎠
(5)
with
⎛ y1 ⎞ ⎛1 x11 ⎜ ⎟ ⎜ y2 ⎟ 1 x 21 ⎜ , X=⎜ y= ⎜ M ⎟ ⎜M M ⎜ ⎟ ⎜ ⎝ yn ⎠ ⎝1 x n1
The least-squares estimates, βˆ , of the regression coefficients β are computed by
(
βˆ = XT X
)
−1
XT y
(6)
Experimental designs, where the regression matrix X satisfies XT·X = n·I, are called orthogonal. Orthogonal designs simplify the computations, since they lead to uncorrelated regression coefficients and to minimal variance of the predicted response in the region of interest. In the proposed RSM algorithm, we use an orthogonal design with two levels for each factor for the approximation of first-order regression models, i.e., a 2k factorial design or a 2k-p fractional factorial design [9]. To approximate a second-order model a 2k factorial design is augmented with nc center points and 2k axial points yielding a central composite design (see Fig. 2). Linear regression in the widest sense is based on regression metamodels which are linear in the regression coefficients but not necessarily linear in the coded variables. In linear regression the computation of the regression coefficients is always based on the solution of Eq. (6) which results from minimizing the error sum of squares. Recall from Section 3.1, that the final optimization phase of the RSM algorithm is based on second-order regression metamodels. Such metamodels are more flexible in approximating the response surface function, since they can capture curvature of the response surface, but on the other hand they also require a higher number of simulation runs to be conducted. The second-order regression metamodel is given by
Optimization of Process Chain Models with RSM and ProC/B k
k
i =1
i =1
k
y = β0 + ∑ βi ⋅ x i + ∑ βi,i ⋅ x i2 + ∑
563
k
∑ βi, j ⋅ x i ⋅ x j + ε
(7)
i =1 j= i +1
where the first sum corresponds to the main effects, the second sum to pure quadratic effects, and the third sum to the interaction effects between the variables. Note from Eq. (7) that the model contains 1 + 2k + k(k−1)/2 regression coefficients. As a result the experimental design used must contain at least this number of distinct design points and at least three levels of each design variable. The central composite design fulfils this conditions. The computation of estimates for the regression coefficients in Eq. (7) can be carried out analogously to the first-order model with OLS estimation based on Eq. (6). The substitution βk+1 := β1,1, ..., β2k := βk,k, β2k+1 := β1,2, ..., etc. and xk+1 := x1·x1, ..., x2k = xk·xk, x2k+1 = x1·x2, ..., etc. transforms Eq. (7) into the regression model of Eq. (3) with k’ = 2k + k(k−1)/2 coded variables. The solution of Eq. (6) and back-substitution yields estimates for the regression coefficients of Eq. (7). _
( 0 ,Ö 2 ) ( 1 ,1 )
( - 1 ,1 )
( - 1 ,1 ) _
( 0 ,0 )
( - Ö 2 ,0 )
( 1 ,- 1 )
( - 1 ,- 1 )
( 1 ,1 )
( - 1 ,- 1 ) _
_
( Ö 2 ,0 )
( 1 ,- 1 )
( 0 ,- Ö 2 ) k
Fig. 2. 2 factorial design (left) and central composite design (right) for k=2 factors
3.2 Testing the Regression Model for Adequate Approximation In Section 3.1 we showed how to fit a low-order regression metamodel to the experimental data, i.e., the input parameter settings and the corresponding simulation responses. When using regression metamodels we assume that it is possible to represent the response surface adequately by a firstorder or a second-order polynomial function. Thus, it should be tested if
564
P. Buchholz, D. Müller, A. Thümmler
the estimated regression model adequately describes the behavior of the response in the current region of interest. For example, if we fitted a firstorder model and if the response shows interaction between the factors or pure curvature, the estimated model will likely show lack-of-fit, which can be assessed by a statistical test. For testing lack-of-fit, multiple observations of the response (i.e., replicated simulation runs) are needed in at least one point of the current region of interest. Suppose that we have mi > 1 observations of the response for input factor values xi = (xi1, …, xik), i=1,…,n. Let yij, denote the j-th observation of the response for input factor values xi. There are m=m1+m2+…+mn observations altogether. The lack-of-fit test involves partitioning the error (or residual) sum of squares (SSE) n
mi
(
SSE = ∑∑ yij − yˆ i i =1 j=1
)
2
= SSPE + SSLOF
(8)
into a pure error sum of squares (SSPE) and a sum of squares for lack of fit (SSLOF) n
mi
(
SSPE = ∑∑ yij − yi i =1 j=1
)
2
n
SSLOF = ∑ m i ⋅ ( yi − yˆ i )
(9)
2
(10)
i =1
where yi denotes the mean simulation response (over all mi replications) and yˆ i denotes the metamodels output for input factor values xi, respectively. As test statistic F0 for lack-of-fit we consider (see [10]): F0 =
SSLOF (n − k − 1) SSPE (m − n)
(11)
If the response surface function is linear, then F0 is the realization of a Fn-k-1,m-n distributed random variable, i.e., an F-distribution with n-k-1 nominator and m-n denominator degrees of freedom, respectively. Therefore, to test for lack-of-fit, we have to compute the test statistic F0 and evaluate the complementary cumulative distribution function of Fn-k-1,m-n at F0 to get the statistical P-value. A small P-value (< 0.05) indicates, that the response surface function can not be adequately represented by a linear model, i.e., we have found lack-of-fit. If lack-of-fit is detected, we suggest to reduce the size of the region of interest or to use a higher-order regres-
Optimization of Process Chain Models with RSM and ProC/B
565
sion metamodel. Nevertheless, in RSM it is not customary to fit a higher than second-order regression metamodels. 3.3 Predicting Factor Values of Improved Response Suppose that a low-order regression metamodel is estimated according to the methods discussed in Section 3.1 and found to be an adequate approximation of the response surface function according to the lack-of-fit test presented in Section 3.2. In this section we show how to use the metamodel to derive input factors where improvement of the simulation response is expected. First of all, we consider first-order metamodels. Since a first-order model is a planar approximation of the response surface function, the method of steepest ascent/descent is used to predict a direction of improved response. The direction of steepest ascent is given by the gradient of the first-order metamodel, i.e., (βˆ 1 ,K , βˆ k ) , and the direction of steepest descent is given by the negative gradient, respectively. A line search is performed starting from the center point of the local region in this direction to find a point of improved response. The question that arises is how to choose the step size for this line search. A common approach is to choose a “most important factor” xj according to the size of its regression coefficient, i.e., j = arg max i =1,..,k | βˆ i | , and to set the step size ∆ = 1 | βˆ j | , i.e., the first step results in a point on the boundary of the local region (in coded variables) corresponding to factor value xj. Since the center of the local region in coded variables is (0,…,0), the m-th point in the direction of steepest ascent is given by
( m∆βˆ ,K, m∆βˆ ) . 1
k
(12)
Negation of Eq. (12) results in the line search points for steepest descent. Starting with m=1 these line search points must be transformed into natural variables and simulations must be conducted to determine the corresponding responses. To end this type of line search a stopping rule has to be chosen. The most recommended rule is to stop the line search when no further improvement of the response is observed [11]. Fig. 3 illustrates the described line search algorithm. Next, we consider the second-order regression metamodel and assume that it is found to be an adequate approximation of the response surface. To determine a point of maximal improvement of the simulation response we use canonical analysis, i.e., the stationary point is derived from the first
566
P. Buchholz, D. Müller, A. Thümmler
derivative of the regression metamodel. The fitted second-order model of Eq. (7) can be written in matrix notation as follows:
ˆ yˆ = βˆ 0 + xT bˆ + xT Bx
(13)
⎛ βˆ 1 ⎞ ⎛ βˆ 11 βˆ 12 2 L βˆ 1k 2 ⎞ ⎛ x1 ⎞ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ˆ ⎟ ˆ ˆ 2⎟ x ⎜ β β β ⎜ L 2 22 2k x = ⎜ ⎟ , bˆ = ⎜ 2 ⎟ , Bˆ = ⎜ ⎟ ⎜ M ⎟ M O M ⎟ ⎜ ⎟ ⎜ ⎜ ⎟ ⎜ˆ ⎟ ⎜ sym. ⎝ xk ⎠ βˆ kk ⎟⎠ ⎝ βk ⎠ ⎝
(14)
with
Differentiating Eq (13) with respect to x and setting the result equal to zero, one can solve for the stationary point:
xs = − 12 ⋅ Bˆ −1bˆ
(15)
The nature of the stationary point can be determined by inspecting the eigenvalues of Bˆ . If all eigenvalues are positive (negative), then the second-order model has a minimum (maximum) at xs. If the eigenvalues have mixed signs, then the stationary point is a saddle point. x 2
( - 1 ,1 )
( 1 ,1 ) ( 0 ,0 )
( - 1 ,- 1 )
lo c a l re g io n o f in te re s t
n o fu rth e r im p ro v e m e n t
( 1 ,- 1 )
n e w c e n te r p o in t x 1
Fig. 3. Line search along the path of steepest ascent/descent
3.4 Implementation Issues This section presents an approach that combines the building blocks of the response surface methodology as discussed in Sections 3.1 to 3.3 in a fully
Optimization of Process Chain Models with RSM and ProC/B
567
automated algorithmic fashion. In fact, Fig. 4 shows a high-level pseudocode representation of the proposed RSM algorithm that we applied for the optimization of the application examples presented in section 4. (1) Transform natural variables into coded variables according to Eq. (2) (2) Choose initial center point cnew = (0,…,0) and half-width of local region ω = 0.4 (3) WHILE ω > ωstop DO (4) cold = cnew (5) Transform local region with center point cold into a [−1,1]k hypercube according to Eq. (2) (6) Approximate response surface function in the local region with center point cold by a first-order linear regression metamodel according to Eq. (6) (7) Test the first-order model for lack-of-fit according to Eq. (11) (8) IF first-order model is adequate THEN DO (9) determine direction of steepest ascent/descent and step size (10) REPEAT (11) go one step in direction of steepest ascent/descent according to Eq. (12) and determine the response for the new factor values via a single simulation run (12) UNTIL new response results in no further improvement (13) cnew = factor values of last improvement of the response (14) IF cnew = cold THEN set new half-width ω := ω/2 (15) ELSE DO (16) IF ω < 4·ωstop THEN DO (17) Approximate response surface function in the local region with center point cold by a second-order linear regression metamodel according to Eq. (6) (18) Test the second-order model for lack-of-fit according to Eq. (11) (19) IF second-order model is adequate THEN DO (20) Determine stationary point of second-order model according to Eq. (15) (21) Determine type of stationary point according to the signs of the eigenvalues of matrix B in Eq. (14) (22) IF type of stationary point is conform with optimization goal THEN cnew = stationary point (23) OD (24) OD (25) set new half-width ω := ω/2 (26) OD (27) OD (28) RETURN optimal solution cnew
Fig. 4. Pseudo-code of the RSM optimization algorithm
When starting the algorithm one has to choose the lower and upper limits of each input parameter in order to transform the whole search space into a [−1,1]k hypercube, i.e., transform the natural into coded variables
568
P. Buchholz, D. Müller, A. Thümmler
(see step (1) in Fig. 4). Furthermore, an initial center point cnew and an initial half-width ω of the local region in the response surface must be specified. If not other mentioned we assume the center point cnew = (0,…,0) and local region [−0.4,0.4]k as initial values. The main steps of the algorithm are performed in the while-loop from step (3) to step (27) in Fig. 5. In our implementation we consider two types of stopping criteria, i.e., stop the RSM iteration if (i) the estimated optimal simulation response does not improve sufficiently anymore or (ii) the local region becomes too small. Note, that the pseudo-code in Fig. 4 implements the second stopping rule, where ωstop is the half-width of the local region when the algorithm should stop. An implementation of the first criterion is quite similar. In each RSM iteration the current local region is transformed into a [−1,1]k hypercube. Then the response surface function is approximated by a first-order linear regression metamodel as discussed in Section 3.1. If the first-order model is found to be an adequate approximation of the response surface function (see lack-of-fit test in Section 3.2) the line-search algorithm according to Section 3.3 is applied in order to find a point of improved response. If no improved response could be found with the linesearch the half-width of local region is decreased and a new RSM iteration is started. This is exactly what is implemented in steps (4) to (14) in Fig. 4. If the first-order model is found to be no adequate approximation of the response surface function, it is likely that the response surface has significant curvature in the local region and may be better approximated by a second-order quadratic metamodel. Nevertheless, we recommend the approximation of a second-order model only in the final steps of the optimization procedure (i.e., if ω is less than 4 times the stop-width ωstop), since second-order models require much more evaluations of the simulation model than first-order models. Thus, a better strategy is to decrease the local region in order to better approximate a first-order model (see step (16) and (25) in Fig. 4). In the final optimization phase it may be reasonable to approximate a second-order model. Similar to the first-order model a lack-of-fit test should be performed. If the approximated model shows no significant lackof-fit, a point of improved simulation response is predicted with canonical analysis as presented in Section 3.3 (see steps (17) to (24) in Fig. 4). At the end of all RSM iterations the algorithm returns the center point of the local region, after transformation from coded to natural variables, as the optimal solution that has been found.
Optimization of Process Chain Models with RSM and ProC/B
4
569
Application Examples
4.1 Optimization of a Tandem Queueing System To illustrate the applicability of the automated RSM algorithm for optimizing simulation models, we consider a tandem queueing system as application example. This model also serves for comparison of the impact of different configurations of the RSM algorithm on the performance of the optimization process and quality of the solution. The tandem queueing system comprises two M/M/1/K queues arranged in a row, that is, customers leaving the first queue are immediately transferred to the second queue as input customers. Both queues are assumed to have finite capacity K = 10. Arrivals of customers to the first queue occur according to a Poisson process with rate λ = 0.5. Each queue comprises a single server with first-come, first-served (FCFS) service discipline and exponentially distributed service time. The service rates (i.e., speed of the servers) at the first and second queue are denoted as w1 and w2, respectively, and are subject to be optimized by the RSM algorithm. A process chain representation of the tandem queue model is shown in Fig. 5. The optimization problem we considered uses the following objective function that determines the revenue earned for given server speeds w1 and w 2:
R ( w1 , w 2 ) = r ⋅ X ( w1 , w 2 ) − c1 ⋅ w1 − c 2 ⋅ w 2
(16)
where X(w1,w2) is the throughput of the tandem queueing system (i.e., the time-averaged number of customers leaving the second queue) and r, c1, and c2 are constants representing a revenue factor and cost factors, respectively. In other words, a faster server is more expensive. Since X(w1,w2) is decreasing for decreasing w1 and/or w2, the revenue function (16) clearly quantifies the trade-off between a high throughput (i.e., a high production rate) and costs of providing fast service. To compute X(w1,w2) quantitative analysis of the model must be conducted. For general models this can only be done by discrete-event simulation. Nevertheless, for the simple tandem queueing system, also numerical transient analysis of the underlying continuous-time Markov chain can be applied for its quantitative solution. For numerical analysis we applied the APNN toolbox [3]. An exact response surface function for the model, computed from transient numerical analysis at time t = 1000 starting with an empty system at time t=0 and with service rates w1 and w2 each varying from 0.1 to 2.0, is presented in Fig. 6. The revenue factor and the cost factors are assumed to be r = 100, c1 = 10, and c2 = 30. From this experiment
570
P. Buchholz, D. Müller, A. Thümmler
we obtained the input parameter vector wopt = (wopt,1,wopt,2) = (0.5959, 0.5284) that maximizes the revenue function (16). The optimal revenue found is R(wopt) = 24080 EUR. Note that the revenue function of the tandem queueing system is quite sensitive for varying the service rates. In fact, a “wrong” configuration of the system may result in an unacceptable negative revenue.
Fig. 5. ProC/B model of the tandem queueing system
In the following we use the optimal parameter vector wopt as a benchmark for our response surface algorithm when evaluating the tandem queueing system via discrete-event simulation. In fact, we consider the Euclidean distance between the optimum wopt and the best found solution ˆ opt . Recall, that the RSM algorithm of the RSM algorithm, denoted as w can only observe the noisy surface that results from possibly replicated simulation runs and not the undisturbed response surface. In contrast to the response surface as shown in Fig. 6, Fig. 7 shows the simulation responses observed by the RSM algorithm after simulating the model for t = 1000 time units, starting at time t = 0 with an empty system. In a first experimental setting, we compare the performance of different configurations of the RSM algorithm. In the experiments we denote
Optimization of Process Chain Models with RSM and ProC/B
571
RSM(nc, Hd) the RSM algorithms using nc replicated evaluations of the design center point and na replications for the remaining design points. In all experiments the upper and lower bounds of the input parameters are li=0 and Ui=2, i=l,2, respectively, and the RSM algorithm starts with center point c = (1,1) and half-width co = 0.4, i.e., center point (0,0) in coded variables. The RSM algorithm stops iterating if co becomes less than 10"^. Revenue [1000 EUR]
Revenue (1000 EUR]
Fig. 6. Response surface for the tandem queue model
Fig. 7. Observed response surface for the tandem queue model
I
250
RSM(1,1) — I — RSM(1,2) - - X - RSM(3,1) - * • RSM(6,2)
I" S
100
B
.
,...e...£j...Q-B-0 O
3 - Q - ° - o Q-Q-f ,..a-B-B-Q-
hrSI^:^-"^'^"^"^"^''^"^'^''^^^
I I
0
8
10
12
14
16
18
20
Number of replications
Fig. 8. Quality of found solutions for different configurations of RSM
Fig. 9. Computational effort for different configurations of RSM
Recall, that the RSM algorithm calls the simulator as a black-box function. By one evaluation of the simulation model we mean one call of this black-box function. Note that one evaluation of the simulation model can comprise several replicated simulation runs, i.e., we assume that the simulator returns the mean response of (say) n simulation runs with identical input parameters but different seed values of the random number generator. Fig. 8 shows the mean distance between Wopt and w^p^ for varying the number of simulation replications that are used for one evaluation of the
572
P. Buchholz, D. Müller, A. Thümmler
simulation model, where the mean distance measure is computed from 100 replications of the whole optimization procedure. Fig. 9 presents the corresponding number of evaluations required by the RSM algorithm. When increasing the number of simulation replications, the simulation responses obviously approximate the “true” response, thus, the RSM algorithm observes a less noisy surface. That is why for all RSM configurations in Fig. 9 the quality of the solution gets better for increasing the number of simulation replications. Comparing the different configurations of the RSM algorithm, we conclude from Fig. 8 that RSM(6,2) finds the best solution and configurations RSM(1,1) and RSM(1,2) produce the worst solutions on average. On the other hand, the number of required evaluations of the RSM(6,2) strategy is much higher than for RSM(1,1) or RSM(1,2). Thus, RSM(6,2) may be not the method of choice if each simulation run is very costly, i.e., takes a long time to produce the response. Considering RSM(3,1), we observe that this strategy finds the second best solution on average but uses only about half of the evaluations of RSM(6,2). Furthermore, it is important to note, that RSM(3,1) requires less evaluations than RSM(1,2) but finds a better solution. We conclude, that RSM(3,1) should be the method of choice if simulation runs are very costly, otherwise RSM(6,2) may be more appropriate. 4.2 Optimization of a Cargo Transfer Station As a second application example we consider a general cargo transfer station with two terminals each having five ramps. Lorries arrive to the terminals 1 and 2 with exponentially distributed interarrival times with mean 24 and 19 minutes, respectively. Arriving lorries are directed to one of the ramps. If no free ramp is available the lorry leaves the station without been unloaded. In order to unload a lorry that arrived at a ramp one of two workers is requested to come from the office to the ramp. For unloading, the worker uses a fork-lift which is located at the terminal (i.e., at each terminal one fork-lift exists). After the lorry is unloaded, the worker starts unloading the next lorry at the same terminal if at least one lorry is still waiting, otherwise he goes back to the office. On average a worker needs 2.4 minutes (drawn from an exponential distribution) to go from the office to one of the terminals as well as to go from the terminal back to the office. To unload a lorry and to transfer the load into the storage the worker needs 36 minutes on average and additional 12 minutes for cleanup after the unloading is finished. The cargo transfer station is depicted in Fig. 10.
Optimization of Process Chain Models with RSM and ProC/B Terminal 1
573
Terminal 2
Fig. 10. Cargo transfer station with 2 terminals each having 5 ramps
23.5
_.^^.-r:^.,,..)l»-X)W >I)K XDie^^iR-^-^tK-^jget^-X '
-j
J
3K""
23'
\
22.5
22 21.5 21 5 Starting with 23 days inter-maintenance time Starting with 25 days inter-maintenance time Starting with 30 days inter-maintenance time •'
Number of iterations
Fig. 11. Improvement of throughput per iteration during an RSM run
20.5
i Starting with 23 days inter-maintenance time Starting with 25 days inter-maintenance time • Starting with 30_days inter-niaintenancetime •
-X-- 1
Number of evaluations
Fig. 12. Improvement of throughput per evaluation during an RSM run
The fork-lifts used in the cargo transfer station have to be maintained from time to time, otherwise they can break down due to a mechanical failure. The time to failure is assumed to be normally distributed with mean 30 working days and standard deviation of 5 days. The repair time and the maintenance time are assumed to be exponentially distributed with mean 6 days and 1 day, respectively. If a failure appears when a lorry is unloaded, the unloading is interrupted until the fork-lift is repaired. If the fork-lift is in use when it should be maintained, the unloading is completed before the maintenance is started. We assume, that a fork-lift is maintained when a deterministic time of 25 days has been elapsed after the last maintenance or repair period. The objective of the optimization problem studied in this section is to maximize the throughput of lorries by choosing the optimal intermaintenance interval length, i.e., the time between two maintenance periods. A small interval length reduces the probability of a failure, which would cause a long repair time, but on the other hand frequent mainte-
574
P. Buchholz, D. Müller, A. Thümmler
nance also results in many time periods where the fork-lift is unavailable and no throughput can be generated. For modeling and simulation of the cargo transfer station we used the ProC/B toolset and the HIT simulator introduced in Section 2. From the simulator we obtained the overall throughput of the system, i.e., the sum of the individual throughputs at each terminal. To ensure that the system is in steady-state we simulated the model for a minimum of 25 years and stopped the simulation when the throughput is within an interval of ± 8% around the mean with 90% confidence level. One simulation run takes about 15 minutes of CPU time on a Sun Sparc station with 2 GByte main memory running the operating system SunOS5.7. Figs. 11 and 12 show the improvement of throughput when running the RSM algorithm. In particular the throughput is presented after each iteration (i.e., loop from steps (3) to (27) in Fig. 4) as well as after each evaluation of the simulation model during a run of RSM(3,1). We considered three different starting conditions as examples for the current “running state” of the system, i.e., 23 days, 25 days, and 30 days inter-maintenance time for the fork-lifts at each terminal. Starting with 30 days intermaintenance time the RSM algorithm improves the throughput from 20.6 lorries/day to 23.5 lorries/day, which corresponds to an improvement of about 14%. Independent of the starting point the best throughput was found for inter-maintenance times of 19.5 days and 20.5 days at terminal 1 and 2, respectively. Of course, the optimum is not known for this complex model, because the complete response surface can only be generated with a huge effort. This example clearly shows the practical applicability of the proposed RSM optimization algorithm.
5
Conclusions
In this paper we present a realization of the response surface method that runs automatically and uses simulation to analyse the models. The response surface method is integrated in the ProC/B Toolset for the modeling of large logistics networks by means of process chains. By means of two examples it has been shown that the proposed approach allows the automatic optimization of complex process chains. Although the response surface method is known for a long time, not many implementations of the method are available. The reason is that a robust implementation of the method is non-trivial and requires a lot of experience. In so far the major aspect is to optimize additional examples with the method to improve its robustness. Furthermore, we plan to extend the
Optimization of Process Chain Models with RSM and ProC/B
575
implemented approach by adding additional features of the response surface method such as other experimental plans and discrete parameters (see [10] for further details).
References 1. Bause F, Beilner H, Fischer M, Kemper P, Völker M (2002) The ProC/B Toolset for the Modelling and Analysis of Process Chains. Proc. 12th Int. Conf. Modelling Tools and Techniques for Computer and Communication System Performance Evaluation, London, UK, LNCS 2324, Springer, pp 5170 2. Bause F, Beilner H, Schwenke M (2003) Semantik des ProC/B-Paradigmas. Technical Report 03001, SFB 559 – Teilprojekt M1 3. Bause F, Buchholz P, Kemper P, (1998) A Toolbox for Functional and Quantitative Analysis of DEDS. Proc. 10th Int. Conf. on Modelling Tools and Techniques for Computer and Communication System Performance Evaluation, Palma de Mallorca, Spain, LNCS 1469, 356-359, Springer. http://ls4www.cs.uni-dortmund.de/APNN-TOOLBOX/ 4. Beilner H, Mäter J, Weißenberg N (1989) Towards a performance modeling environment: News on HIT. Proc. Int. Conf. Modelling Tools and Techniques for Computer Performance Evaluation 5. Collaborative Research Center 559 “Modelling of Large Logistic Networks”, http://www.sfb559.uni-dortmund.de/eng/index.htm 6. Fu MC (2002) Optimization for Simulation: Theory vs. Practice. Informs Journal on Computing 14: 192-215 7. Kuhn A, Hellingrath H (2002) Supply Chain Management – Optimierte Zusammenarbeit in der Wertschöpfungskette. Springer, Berlin 8. Law AM and Kelton WD (2000) Simulation Modeling and Analysis, 3rd edn. McGraw-Hill, Boston 9. Montgomery DC (2001) Design and Analysis of Experiments, 5th edn. John Wiley & Sons, New York 10. Montgomery DC, Myers RH (2002) Response Surface Methodology: Process and Product Optimization Using Designed Experiments, 2nd edn. John Wiley & Sons, New York 11. Neddermeijer HG, van Oortmarssen GJ, Piersma N, Dekker R (2000) A Framework for Response Surface Methodology for Simulation Optimization. Proc. Winter Simulation Conference, Orlando, FL, USA, pp 129-136 12. Winz G, Quint M (1997) Prozesskettenmanagement: Leitfaden für die Praxis, Verlag Praxiswissen, Dortmund