Wolfgang Lassmann (Hrsg.) Wirtschaftsinformatik
Wolfgang Lassmann (Hrsg.)
Wirtschaftsinformatik Nachschlagewerk für S...
158 downloads
4233 Views
7MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Wolfgang Lassmann (Hrsg.) Wirtschaftsinformatik
Wolfgang Lassmann (Hrsg.)
Wirtschaftsinformatik Nachschlagewerk für Studium und Praxis unter besonderer Mitarbeit von Jens Schwarzer Rolf Rogge Weitere Autoren: Dieter Ehrenberg Hans-Jürgen Kaftan Marco Jedlitzke Christian Sprengel Axel Wunder Tobias Schmidt Andreas Lassmann
Bibliografische Information Der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar.
Prof. Dipl.-Ing. Dr. Dr. h. c. Wolfgang Lassmann ist Universitätsprofessor für Wirtschaftsinformatik und Operations Research und Gründungsprofessor und Vorstandsvorsitzender des Instituts für Unternehmensforschung und Unternehmensführung an der Martin-Luther-Universität Halle-Wittenberg (ifu).
1. Auflage September 2006 Alle Rechte vorbehalten © Betriebswirtschaftlicher Verlag Dr. Th. Gabler | GWV Fachverlage GmbH, Wiesbaden 2006 Lektorat: Ulrike Lörcher / Katharina Harsdorf Der Gabler Verlag ist ein Unternehmen von Springer Science+Business Media. www.gabler.de Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlags unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Umschlaggestaltung: Ulrike Weigel, www.CorporateDesignGroup.de Druck und buchbinderische Verarbeitung: Wilhelm & Adam, Heusenstamm Gedruckt auf säurefreiem und chlorfrei gebleichtem Papier Printed in Germany ISBN-10 3-409-12725-9 ISBN-13 978-3-409-12725-7
Vorworte
Vorworte Hochtechnologie-Networks: Eckpfeiler der neuen Wissensökonomie von Prof. Dr. Dipl.-Ing. Jesco Frhr. v. Puttkamer, Space Station Senior Engineer der NASA Die Raumfahrt, früher oft gesehen als ein Randabenteuer einiger Weniger, als Prestigeunternehmen politisch motivierter Großmächte oder gar als militärisches Unternehmen, ist inzwischen dabei, sich voll in die menschliche Kultur zu integrieren, denn ohne sie geht es auf die Dauer nicht. Nach der Erschließung des Bereichs erdnaher Orbits durch Satelliten, bemannte Kapseln und die internationale Raumstation ISS, wenden sich die NASA und ihre Partner nun der Exploration erdfernerer Ziele wie Mond und Mars durch den Menschen zu. Auf dem kommerziellen Sektor entwickelt sich Weltraumtourismus, und auf dem Wirtschaftssektor, wo bereits heute das Internet mit dem Auf-und-Ab der Dot-Coms, E-Business und ECommerce von sich reden macht, entfalten sich aus der Verbindung von Raumfahrt mit Informatik und Bionik neue revolutionierende Entwicklungen. Es sind diese drei Hochtechnologien, die das kommende Jahrhundert charakterisieren und sich dabei zunehmend komplex vernetzen: 1. Biotechnologie und Genmanipulation, 2. global mit Satellitennetworks verknüpfte Informatik einschließlich Virtuelle Realität (VR) mit Neurochips bis hin zu mikroelektronischen Human-Implantaten, und 3. Raumfahrt mit ständiger Lebens- und Arbeitsmöglichkeit im All und Expeditionen hinaus zwecks Erkundung und einstmaliger Besiedlung des Mars – und darüber hinaus. Zunehmend erleben wir heute die schon vor einiger Zeit begonnene Verdrängung der industriellen Revolution nach zwei Jahrhunderten durch das Informationszeitalter, und dieses Phänomen gewinnt weltweite Ausmaße. Ob und wie man in Zukunft sein Glück macht, hängt in den kommenden Jahren mehr davon ab, wie man sich Information zu Nutzen macht und sie vor seinen Karren spannt, und weniger von der Massenproduktion von Sachgut oft zweifelhafter Nützlichkeit. Bereits jetzt wetteifern überall auf der Welt fusionierte Firmenkolosse, ja ganze Nationen mit steigendem Eifer um die dem Informationszeitalter innewohnenden neuen Möglichkeiten, um daraus möglichst große Vorteile zu ziehen und den Zug nicht zu verschlafen. Die kommende Wirtschaftsstruktur wird als eine Wissensökonomie charakterisiert: mehr denn je ist Wissen da Macht. Gewinner wird der sein, der schneller die Auswirkungen einer neuen Entwicklung auf seinem Rechner mit geeigneten Modellen simulieren und studieren kann.
V
Vorworte
Den Beginn der digitalen Revolution mit ihren Faxmaschinen, Beepern, Handys, Blackberrys, Mobilfunk-Handhelds, Laptop-Computern und optischen Disketten haben wir bereits hinter uns. Diejenigen von uns, die damit Schritt gehalten haben, haben es besser, als die, die ihm ferngeblieben sind. Jetzt geht der Trend dahin, diese und andere Technologien in einer Box zu integrieren: der zukünftige PC-Heimcomputer vereint in sich die Eigenschaften eines Fernsehgeräts, Telefons, Nachrichtenanschlusses, Bankschalters und Einkaufswerkzeugs,- als ständig evolvierendes digitales Laboratorium. Als noch weitaus größere Herausforderung für die Technik konstruiert das Informationszeitalter heute gewaltige planetenumspannende Networks, die diese Boxen mit Myriaden von Daten füttern und sie befähigen, miteinander in Wechselwirkung zu treten. Angefangen von Satelliten in niederen Erdbahnen für mobile Radiofrequenzverbindungen, bereits routionemäßig im Gebrauch, bis zu kolossalen Datennetzen, die den Erdball umspannen und Millionen von Anschlüssen mit der Geschwindigkeit des Lichts mit Information versorgen, sind die Ausmaße der kommenden Entwicklung bereits dabei, unser Leben total zu revolutionieren. Der Schlüssel dazu ist die Raumfahrt mit ihren Satelliten und ihrem Management-Know-how. Die von 16 Ländern errichtete Raumstation ISS dient neben der Vorbereitung der Mond/Mars-Exploration auch der Realisierung und Beschleunigung von Durchbrüchen in Technologien und Wissenschaften, in Medizin und Technik. Indem sie ständiges Leben und Arbeiten im All unter schwerefreien Bedingungen ermöglicht, bietet sie das perfekte Testbett für die Entwicklung der robusten Raumfahrttechnologien des 21. Jahrhunderts. Die oben erwähnten Verknüpfungen der Zukunftstechnologien sind schon heute visionshaft erkennbar: Die Forschung in der Mikrogravitation wird für Bionik, Medizin und Gentechnik bedeutende Innovationen, wahrscheinlich sogar große Durchbrüche hervorbringen, zum Beispiel in der Bekämpfung von Osteoporose (Knochenbrüchigkeit und -schwund) durch Entwicklung inorganischer Knochenersatzstoffe oder in der Korrektur genetischer Schäden durch induzierte DNA-Reparatur. Dabei wird die biomedizinische und gentechnische Forschung zunehmend von den Potenzialen der Informationsrevolution gestützt, man denke nur an die erfolgreichen Bemühungen um die Entschlüsselung des menschlichen Genoms und die neuen kolossalen Speicher- und Rechenkapazitäten der Computertechnik: die Leistung der Mikroprozessoren verdoppelt sich zur Zeit alle 15-18 Monate. Aus der Mikrochipherstellung entsteht zusätzlich ein neuer Durchbruch: Mikrotechnologie mechanischer Systeme und, eines ferneren Tages, Nanotechnologie. Mit VR-Technik üben Chirurgen schwierige und für sie neue Operationen. Satelliten übertragen Telemedizin, Telediagnostik, ja Telepräsenz über globale Distanzen und bald auch zwischen irdischen und außerirdischen Stationen. Telescience mit Bodeninstituten ist an Bord der ISS gang und gäbe. In
VI
Vorworte
den Kontrollzentren der Raumfahrt trainieren NASA-Astronauten bereits heute mit VR für die ISS, und in Zukunft wird VR den Weltraum und seine für die geistige Entwicklung wichtige Erfahrungswelt über den Cyberspace zunehmend auch jenen Menschen erfahrbar machen, die nicht selber physisch dorthin fliegen können; einen groben Vorgeschmack geben die heutigen IMAX-Filme. Doch mehr noch: mit VR wird der Mensch „im Computer“ auf Planeten landen, die uns ohne VR auf ewig verschlossen blieben, etwa Jupiter oder die näher liegende, aber glühendheiße Venus. Im VRCyberspace können wir schon bald unbeschadet ins Innere der Sonne fliegen, zu den Sternen reisen oder gar das Universum umrunden. Solche virtuelle Raumreisen im Rahmen von Simulationen benötigen so gut wie keine Energie. Die Möglichkeiten sind schier unbegrenzt und weitaus mehr als reine Unterhaltung: sie sind bewusstseinsbildend wie die physische Raumfahrt selbst. Unser Leben wird danach niemals wieder so wie vorher sein. Durch die zeitweise Beseitigung des Realen durch die Virtualität, durch die Simulationen innerhalb des Cyberspace, entsteht ein neues körperloses Universum. Besteht da nicht die Gefahr, dass VR die Wirklichkeit „ersetzen“ und an Stelle der Realität, etwa der realen Raumfahrt treten könnte? Führt sie zu einem ausufernden Determinismus? Keineswegs, denn VR ist zwar ein Fenster bzw. ein Tor zu unterschiedlichen Realitäten, aber sie ist seelenlos. Bemannte Raumfahrt hat jedoch Seele (man denke nur an die charismatische Ausstrahlung eines Wernher von Braun, eines Neil Armstrong oder des bei seinem letzten Raumflug 77-jährigen John Glenn, an Apollo 13 oder das Ende der Mir) und steht damit im Gegensatz zu robotischen Unternehmungen wie Mars Pathfinder, Sojourner 1997, Marsrover Spirit und Opportunity, bei denen man durch Verniedlichung und Cartoon-Namen so etwas wie Animismus-Beseeltheit evozieren wollte (mit Steinen namens „Yogi“, „Barnacle Bill“, usw). Deshalb wird sich der Mensch nicht mit virtueller Raumfahrt zufrieden geben, die ja den ihm ureigenen Pioniergeist und Entdeckungseifer nicht wirklich, sondern nur virtuell „herüberbringt“, und damit letztendlich auch nicht die Selbstreflektion und die Suche nach einem Verständnis der Schöpfung und nach Gott. Jason und die Argonauten gingen im Mythos auf die Suche nach dem Goldenen Vlies, weil sie Menschen waren und nicht Maschinen. Der Mensch hat eine Seele, und ihr wird VR nicht genügen (wiewohl sie dadurch auf den Geschmack nach echter gelebter Körperlichkeit gebracht wird); deshalb wird der Mensch selber zum Mars fliegen, nachdem ihm seine Roboter und VR den Weg bereitet haben. Die Vernetzung Mensch-Maschine-Natur zum kybernetischen Wesen der Zukunft ist dann auf der Schwelle einer gänzlich neuen Welt angelangt. Prof. Dr. Dipl.-Ing. Jesco Frhr. v. Puttkamer
Washington, DC
NASA Headquarters
im Juli 2006
VII
Vorworte
Informationstechnologie und Globalisierung von Prof. Dr. Ulrich Blum, Präsident des IWH Globalisierung ist mehr als Internationalisierung, die Integration der weltweiten Arbeits-, Kapital- und Gütermärkte, nämlich der Verfall der Informationskosten, der dazu führt, dass die Welt „flach“ wird und sich die Wettbewerbsintensität durch die globalen Möglichkeiten, Informationen und insbesondere Wissen zu tauschen, dramatisch erhöht. Der Grad der weltweiten Internationalisierung zum Ausgang des letzten Jahrhunderts existierte bereits zu Beginn desselben. Er wurde unterbrochen durch den Ausstieg eines Drittels der Weltbevölkerung aus dem Freihandel und auch die handelsschädlichen Folgen des Ersten Weltkrieges. Globalisierung geht, wie bereits oben gesagt, über die Internationalisierung hinaus: Welche Bedeutung Veränderungen der Informationskosten besitzen, lässt sich aus historischer Sicht nachzeichnen: Der Verfall der Informationstransportkosten – und auch der „normalen“ Transportkosten – waren zwingende Voraussetzung für den Aufbau großer Imperien und großer Unternehmen – denken wir an die Wasserstraßen, an denen sich die ersten Reiche ansiedelten, die Wegenetze, die sie ausbauten, oder die Telegraphen- und Funkstrecken. Die Fähigkeit, Informationen preiswert zu speichern, eröffnete die Möglichkeit, Hierarchien zu verflachen. Besonders wichtig war hier die Standardisierung von Sprache, ob es sich dabei um mittelalterliches Latein handelte, das unter Karl dem Großen vom Mönch Alcuin eingeführt wurde, um das Sprachwirrwarr im Reich zu mindern, dessen Nutzung als Sprachplattform es dem clunia-zensischen Papst Gregor VII. ermöglichte, die geistige Herrschaft an sich zu ziehen, dem Buchdruck, ohne den die moderne Konkurrenz der Ideen nicht denkbar wäre – Luther war hier nur der erste – bis hin zum Internet, das klassische (totalitäre) Hierarchien weltweit aus dem Inneren bedroht. Schließlich ist der Verfall der Kosten der Informationsauswertung und Wissensgenerierung zu benennen, der heute atomistischen Firmen die Möglichkeit eröffnet, mit Großunternehmen in Konkurrenz zu treten und erst die Delokalisierung der Dienstleistungen ermöglicht. Mit der Definition der Wirtschaftsinformatik als eigenständiges akademisches Fach und dem Informationssystem als Erkenntnisobjekt entstand eine eigenständige institutionenökonomische Betrachtung des Unternehmens: Neben der positiven Frage, wie Unternehmen ihre Informations-, Kommunikations- und Wissenssysteme gestalten, steht die Frage, wie die informationsökonomisch effiziente Firma aussehen soll und welche Anforderungen in diesem Zusammenhang als optimal zu erfüllen sind. Unter diesem Gesichtspunkt wird das Informationssystem des Unternehmens zum eigen-
VIII
Vorworte
ständigen Wettbewerbsfaktor, also einem Beitrag zum Unternehmenswert, der über das, was gemessen oder gewogen werden kann, hinausgeht. Effiziente unternehmerische Informationssysteme sind damit auch ein Kennzeichen der Bewertung von Unternehmen und damit eines modernen Ratings. In dem Maße, in dem Informationssysteme von Produktionssystemen, vor allem solcher physischer Art, entkoppelt werden, besteht ein zunehmender Bedarf, die Werthaltigkeit eines solchen Systems zu erfassen. Hier besteht eine der großen Herausforderungen für die moderne Wirtschaftsinformatik, aber auch die Betriebswirtschaftlehre und die Volkswirtschaftslehre als sie ergänzende Fächer. Professor Lassmann und sein Team legen mit diesem Lehrbuch und Nachschlagewerk der Wirtschaftsinformatik ein Werkzeug vor, mit dem die Grundlagen moderner Informationsverarbeitung einfach verständlich und leicht anwendbar werden. Sie tragen damit der steigenden Bedeutung der Informationstechnologie und ihrer Anwendung in der Wirtschaft Rechnung und ermöglichen es Studenten, Praktikern und Entscheidungsträgern den Wettbewerbsfaktor Information effizient einzusetzen.
Professor Dr. Ulrich Blum
Halle/Saale
Institut für Wirtschaftsforschung
im Juli 2006
Halle (IWH)
IX
Vorworte
Vorwort zum Wirtschaftsinformatik-Kalender von Erwin Staudt, Vorsitzender der Initiative D21 Rund 30 Prozent der Deutschen sind inzwischen online. Rund 2,5 Milliarden DM werden in diesem Jahr in Deutschland im Netz umgesetzt. Täglich eröffnen mehrere hundert Unternehmen alleine in Deutschland neue Homepages. Die Bundesregierung entwickelt ein zentrales Portal als virtuellen Zugang der Bundesbürger in die Ministerien. Telemedizin, virtuelle Universität, e-democracy, e-government und e-business sind Vokabeln, die heute zum täglichen Wortschatz gehören. Das Netz durchdringt langsam alle Bereiche von Wirtschaft und Gesellschaft. Miniaturisierung, Digitalisierung, Vernetzung, erhöhte Prozessorenleistung und Speicherkapazität sowie verbesserte Bedienerfreundlichkeit sind die technologischen Megatrends. Die neuen Technologien senken die Informatikkosten und steigern die Produktivität. Multimedia, Datenautobahn, Virtual Reality und Online Dienste erschließen völlig neue Formen des Informationserwerbs und der Informationsweitergabe, aber auch der Unterhaltung, der Arbeit, der Aus- und Weiterbildung bis hin zu der Art und Weise, wie Geschäfte getätigt werden. Das Internet wird der Marktplatz der Zukunft sein – als Massenmarkt, in dem der Kunde rund um die Uhr einkaufen kann. Neue Geschäftsstrategien und Businessmodelle entstehen, die mit dem Internet als Kommunikationsmittel arbeiten. Die Kundenbeziehungen erfahren eine Neudefinition, denn das Internet ermöglicht eine direkte und unmittelbare gegenseitige Kontaktaufnahme zwischen dem Anbieter und seinen Kunden. Das Netz und die Informations- und Kommunikationstechnologie verbindet Produkte mit Dienstleistungen und schafft damit Mehrwert für jeden Käufer. Jedes Jahr entstehen 75.000 neue Arbeitsplätze in der IT-Branche. Gegenwärtig können rund 40.000 IT-Arbeitsplätze in Deutschland nicht besetzt werden – offene Stellen, die nachhaltige Auswirkungen auf die Durchführung von IT-Projekten in Deutschland haben. Professor Lassmann mit seinem Team weckt in diesem Buch Neugier auf die Fragen und Probleme, mit denen sich die Wirtschaftsinformatik beschäftigt. Ich bin sicher, dass dieses Buch einen Beitrag leisten wird, dass weitere der 75.000 entstehenden Stellen in der IT-Branche mit gut ausgebildeten neugierigen und kreativen, die Wirtschaftsinformatik effektiv anwendenden Personen besetzt werden können. Erwin Staudt
Stuttgart
Vorsitzender der Geschäftsführung
im Juli 2000
der IBM Deutschland GmbH
X
Danksagung
Danksagung
Es sei allen gedankt, die zum Zustandekommen dieses Buches beigetragen haben. Dieser Dank gilt meinen Kollegen Jochen Picht und Rolf Rogge sowie meinem ehemaligen Assistenten, Herrn Jens Schwarzer, des Instituts für Wirtschaftsinformatik und Operations Research. Sie haben maßgeblich geholfen, das inhaltliche Profil von Lehre und Forschung unseres Instituts in das Lehrbuch Wirtschaftsinformatik zu übertragen. Mein besonderer Dank gilt dabei Herrn Dr. Jens Schwarzer, der mir die gesamte Zeit kreativ und tatkräftig zur Seite stand. Ebenfalls danke ich den Doktoranden unseres Instituts und den zahlreichen Mitarbeitern der itCampus Software- und Systemhaus GmbH Halle-Leipzig für die zahlreichen theoretischen und praktischen Beiträge zu diesem Lehr- und Nachschlagewerk. Gefreut habe ich mich auch sehr über die kooperative Hilfe der beiden Kollegen der Wirtschaftsinformatik an der Universität Leipzig, Herrn Prof. Dr. Dieter Ehrenberg, und an der Fachhochschule Köthen, Herrn Prof. Dr. Hans-Jürgen Kaftan. Für die wissenschaftliche Assistenz seien dankbar erwähnt Frau Kerstin Pankewitsch und Herr Martin Backhaus. Ich danke unserer Sekretärin, Frau Andrea Beckmann, für ihren Fleiß und ihre Geduld, die für das Erscheinen dieses Werkes von so großer Wichtigkeit waren. Eine Wertschätzung erfährt die Fachrichtung Wirtschaftsinformatik durch die Vorworte von Herrn Erwin Staudt aus der Sicht von IBM und der Initiative D21 sowie durch den Präsidenten des Instituts für Wirtschaftforschung Halle (IWH), Herrn Prof. Dr. Ulrich Blum, aus der Sicht sehr komplexer Zusammenhänge in den Wirtschaftswissenschaften. Da in dem vorliegenden Lehrbuch auch der Versuch unternommen wird, Entwicklungslinien der Informatik und ihre Bedeutung für die Wirtschaft aufzuzeigen, bin ich Herrn Prof. Dr. Jesco von Puttkamer, dem Planungschef der NASA, für sein Vorwort ebenfalls sehr dankbar. Mit seinen Ausführungen „Hochtechnologie-Networks: Eckpfeiler der neuen Wissensökonomie“ hat er die sich gegenseitig voranbringenden Wechselbeziehungen der Informatik und der Weltraumforschung auf eindrucksvolle Weise beschrieben. Diesem Lehrbuch gingen zwei Veröffentlichungen in ähnlicher Form voraus, die vom IM Marketing-Forum Verlag Ettlingen unter dem Titel „Wirtschaftsinformatik-Kalender“ herausgegeben wurden. Dafür sei auch an dieser Stelle dem Geschäftsführer, Herrn Dieter Brändli, gedankt. Das vorliegende Buch ist als Lehr- und Nachschlagewerk weiterentwickelt und für einen
XI
Danksagung
längeren Zeitraum angelegt worden. Aus diesem Grunde wurde auf die ergänzende Bezeichnung „Kalender“ verzichtet. Da dieses Buch für den gesamten deutschsprachigen Raum gedacht ist, bin ich dem Gabler-Verlag und seiner leitenden Lektorin, Frau Ulrike Lörcher, sehr dankbar, dass sich dieser international sehr bekannte Verlag unserem Werk gewidmet hat. Gleicher Dank gilt Herrn Dr. Frieder Schäuble, der mit sehr guten Hinweisen die sehr konstruktive Zusammenarbeit mit dem Verlag vertraglich geregelt hat. Für die Überlassung zahlreicher historischer Daten bin ich den folgenden Autoren und Verlagen sehr verbunden: Anderberg, A.: History of the Internet and Web. 2005 Heger, H.: Die Geschichte der maschinellen Datenverarbeitung. IBM Deutschland, Stuttgart 1990 Lee, J. A. N.: The History of Computing. Department of Computer Science Virginia Tech, Blacksburg 2000 Leiner, B. M.: A Brief History of the Internet. 2003 Polsson, K.: Chronology of Personal Computers. 2005 Vorndran, E. P.: Entwicklungsgeschichte des Computers. VDE, Berlin 1986 Zakon, R.H.: Hobbes’ Internet Timeline. 2005
Vorschläge, Wünsche und ergänzende Anregungen, die uns zur Verbesserung dieses Lehrbuches erreichen, werden dankbar entgegen genommen.
Wolfgang Lassmann
Halle-Wittenberg
(Herausgeber)
im August 2006
XII
Inhaltsverzeichnis
Inhaltsverzeichnis
Vorworte.................................................................................................................. V Hochtechnologie-Networks: Eckpfeiler der neuen Wissensökonomie ...... V Informationstechnologie und Globalisierung ............................................ VIII Vorwort zum Wirtschaftsinformatik-Kalender .............................................. X Danksagung ........................................................................................................... XI Inhaltsverzeichnis .............................................................................................. XIII Einleitung ...........................................................................................................XVII 1
2
3
Gegenstand ...................................................................................................... 3 1.1
Wirtschaft und Information ................................................................... 3
1.2
Interdisziplinarität der Wirtschaftsinformatik .................................. 10
1.3
Studium der Wirtschaftsinformatik .................................................... 18
1.4
E-Learning.............................................................................................. 23
1.5
Aufgaben und Betätigungsfelder ........................................................ 32
Computerleistung ......................................................................................... 39 2.1
Geschichtliche Entwicklung................................................................. 39
2.2
Hardware-Generationen....................................................................... 43
2.3
Software-Generationen......................................................................... 48
2.4
Modell-Generationen............................................................................ 52
2.5
Mensch und Computer......................................................................... 54
2.6
Computer-Ethik..................................................................................... 57
Hardware ....................................................................................................... 63 3.1
Grundlagen ............................................................................................ 63
3.2
Zentralprozessor.................................................................................... 66
3.3
Bussysteme............................................................................................. 71
3.4
Speicher .................................................................................................. 78
XIII
Inhaltsverzeichnis
3.5
Eingabegeräte ...................................................................................... 100
3.6
Ausgabegeräte..................................................................................... 107
3.7
Periphere Karten/Komponenten ....................................................... 116
3.8
Klassifikation von Computersystemen ............................................ 122
4
Software ....................................................................................................... 127 4.1
Grundlagen.......................................................................................... 127
4.2
Software-Architektur.......................................................................... 144
4.3
Software-Qualität ................................................................................ 154
4.4
Systemsoftware ................................................................................... 157
4.5
Anwendungssoftware ........................................................................ 166
4.6
Agentenbasierte Software .................................................................. 171
5
Netze............................................................................................................. 179 5.1
Grundlagen.......................................................................................... 179
5.2
Schichten .............................................................................................. 186
5.3
Internet ................................................................................................. 206
5.4
Netzwerkmanagement ....................................................................... 211
6
Daten ............................................................................................................ 215 6.1
Grundlagen.......................................................................................... 215
6.2
Dateiorganisation................................................................................ 223
6.3
Datenbankmodelle.............................................................................. 227
6.4
Datenbanksysteme.............................................................................. 237
6.5
Datenbanksprachen ............................................................................ 245
7
Programmierung......................................................................................... 251 7.1
Programmierung und Sprachen........................................................ 251
7.2
Sprachgenerationen ............................................................................ 259
7.3
Programmaufbau ................................................................................ 261
7.4
Vorgehensweise................................................................................... 273
7.5
Ausgewählte Programmiersprachen................................................ 277
XIV
Inhaltsverzeichnis
8
Informationsmanagement.......................................................................... 291 8.1
Gegenstand .......................................................................................... 291
8.2
IT-Strategie ........................................................................................... 293
8.3
Geschäftsprozessmanagement .......................................................... 297
8.4
IT-Infrastruktur.................................................................................... 317
8.5
Projektmanagement ............................................................................ 334
9
IT-Sicherheit ................................................................................................. 349 9.1
Grundlagen .......................................................................................... 349
9.2
Angriffe................................................................................................. 352
9.3
Schutzmaßnahmen.............................................................................. 361
9.4
Sicherheitstechnologien...................................................................... 367
9.5
Kryptographie ..................................................................................... 384
9.6
IT-Recht................................................................................................. 399
10
Entscheidungsunterstützung............................................................. 411
10.1
Entscheidungsprobleme................................................................ 411
10.2
Operations Research ...................................................................... 418
10.3
Komplexe Optimierung ................................................................ 426
10.4
Entscheidungsunterstützende Systeme ...................................... 432
10.5
Künstliche Intelligenz.................................................................... 436
11
Anwendungen ..................................................................................... 447
11.1
Systematisierung ............................................................................ 447
11.2
Führungsinformationssysteme..................................................... 458
11.3
Bürosysteme ................................................................................... 469
11.4
Telematik ......................................................................................... 483
11.5
ERP-Systeme................................................................................... 489
12
E-Business ............................................................................................ 503
12.1
Grundlagen ..................................................................................... 503
12.2
Business-to-Business...................................................................... 505
12.3
Virtuelle Unternehmen.................................................................. 506
XV
Inhaltsverzeichnis
12.4
E-Commerce ................................................................................... 511
12.5
Zahlungssysteme ........................................................................... 516
12.6
E-Government ................................................................................ 519
12.7
Communication Center................................................................. 529
Historische Ereignisse ........................................................................................ 543 Autoren ................................................................................................................ 567 Stichwortverzeichnis .......................................................................................... 571
XVI
Einleitung
Einleitung
Wenn sich eine Wissenschaftsdisziplin mit einem so hohen Tempo entwickelt, wie es gegenwärtig in der Wirtschaftsinformatik der Fall ist, dann ist es nicht ganz einfach, ein Lehrbuch zu verfassen, das über einen längeren Zeitraum aktuell bleibt. Durch die Weiterentwicklung des „Wirtschaftsinformatik-Kalenders“ und das neue Konzept dieses Lehrbuchs versuchen wir, diesem hohen Anspruch gerecht zu werden. Das Wissen der Wirtschaftsinformatik ist in wesentlichen Bereichen immer noch Herrschaftswissen der IT-Spezialisten. Das muss sich ändern, da Basisund aktuelles Wissen der Informations-Technologien für alle Anwender in Lehre, Forschung, Wirtschaft und Gesellschaft sehr wichtig sind.
Das vorliegende Buch ist Lehr- und Nachschlagewerk zugleich.
Dieses Buch wendet sich an einen breiten Leserkreis. Die Sachbegriffe an den Randleisten und im Stichwortverzeichnis erleichtern das Auffinden und das Erlernen konkreter Zusammenhänge. Es wurden absichtlich eine flache Gliederung und eine leicht verständliche Sprache gewählt. Alle Fachbegriffe sind ausreichend erläutert und werden deshalb nicht nur von IT-geschulten Spezialisten verstanden, sondern erklären sich jedem interessierten Nutzer. Der Grundaufbau dieses Buches besteht aus zwölf Kapiteln. Jedes Kapitel folgt einem fundamentalen Sachbegriff der Wirtschaftsinformatik und ist deshalb eigenständig lesbar. Aus diesem Grunde ist auch keine zwingende Reihenfolge beim Studium vorgeschrieben. Am Ende des Buches ist eine Auswahl interessanter Ereignisse aus der Geschichte der Informationstechnologie jeweils einem Monat zugeordnet. An fast jedem Tag des Kalenderjahres kann somit eine Beziehung zu einem historischen Ereignis hergestellt werden. Überhaupt ist dieses Wirtschaftsinformatik-Buch so geschrieben, dass der gesamte historische Entwicklungsprozess mit seinen Computergenerationen ebenso verstanden werden kann, wie die Leistungsfähigkeit der jüngsten Technologien und Werkzeuge. Der Bogen der Informatik, der von den Wurzeln bis zur Gegenwart gespannt wird, gibt auch dem Neueinsteiger die Chance, die wesentlichen Zusammenhänge schnell zu erkennen und zu begreifen.
XVII
Einleitung
Im gesamten Buch sind einzelne Abhandlungen durch drei Symbole gekennzeichnet: stabiles Basiswissen aktueller Leistungsstand voraussichtliche Entwicklung Der Leser kann auf diese Weise ein Gefühl für den schnellen Innovationsprozess entwickeln. In der Hoffnung, dass dieses Buch „Wirtschaftsinformatik“ für Jung und Alt, für Schüler und Studenten, sowie für Manager und Angestellte eine rationelle Form ist, den ständigen Wissenszuwachs zu bewältigen, wünsche ich allen Lesern einen schnellen Erkenntniszuwachs. Möge das Studium des Buches „Wirtschaftsinformatik“ aus Halle-Wittenberg allen Lesern helfen, den Wandel von der Produktions- in die Wissensgesellschaft zu meistern und gleichzeitig die wesentlichen Entwicklungslinien vorausschauend zu erkennen. Wolfgang Lassmann
Halle-Wittenberg
(Herausgeber)
im August 2006
XVIII
Wirtschaft und Information
Kapitel 1 Gegenstand
1
1.1
Wirtschaft und Information
1
1.1
Gegenstand
1.1 Wirtschaft und Information Untersuchungsgegenstand der Wirtschaftsinformatik sind betriebswirtschaftliche und volkswirtschaftliche Problemstellungen. Für die Beschreibung diesbezüglich grundlegender Zusammenhänge kann die Wirtschaftsinformatik auf die namensgebenden Wirtschaftswissenschaften zurückgreifen. Sie ist darauf spezialisiert, die Informationsflüsse und die daraus resultierenden Kommunikationsbeziehungen im wirtschaftlichen Kontext zu analysieren, zu abstrahieren, zu modellieren, zu optimieren und rechentechnisch zu realisieren. Die Wirtschaftsinformatik untersucht den Einsatz von Instrumentarien der Informatik zur Lösung wirtschaftlicher Problemstellungen. Dazu werden die Bestandteile von Informations- und Kommunikationssystemen (IKS, IuKSysteme) und deren Wechselbeziehungen untereinander betrachtet. Das schließt die Beschreibung von Anforderungen, Prozessen und Rahmenbedingungen zur Entwicklung und Steuerung solcher Systeme ein. Darüber hinaus beschäftigt sich die Wirtschaftsinformatik mit der Entwicklung dieser Systeme. Mittelpunkt von Informations- und Kommunikationssystemen ist der Mensch, der Probleme löst, indem Informationen verarbeitet und ausgetauscht werden. Dabei wird er durch die Informations- und Kommunikationstechnik unterstützt, die Hardware, Software und Netze beinhaltet. Hardware und Software sorgen für die Verarbeitung, während die Netze die Kommunikation örtlich getrennter Systeme ermöglichen. Informations- und Kommunikationssysteme verfügen über eine sehr differenzierte Ausprägung, die sich an den zu erfüllenden Aufgaben orientiert. Abbildung 1-1 zeigt die Bestandteile von Informations- und Kommunikationssystemen im Überblick.
Einsatz von Informationsund Kommunikationssystemen zur Lösung wirtschaftlicher Probleme
Die Information spielt in der Wirtschaftsinformatik eine zentrale Rolle. Der Begriff „Information“ steht in engem Zusammenhang mit den Begriffen „Daten“ und „Wissen“, ist mit diesen aber nicht gleichzusetzen. Wissen ist eine Ansammlung von Kenntnissen, Erfahrungen und Problemlösungsmethoden. Es setzt sich aus einzelnen Inhalten zusammen, die Sachverhalte und Vorgänge beschreiben. Diese Inhalte werden durch die Verknüpfung einzelner Informationen gewonnen. Daten sind die Elemente, die zur Darstellung von Informationen benötigt werden. Sie sind in einer exakt verein-
Daten, Informationen, Wissen
3
1
Gegenstand
barten, maschinell lesbaren und vom Computer oder dem Menschen interpretierbaren Form gestaltet (siehe Kapitel 6).
Abbildung 1-1
Bestandteile von Informations- und Kommunikationssystemen
Der Begriff „Information“ kann unter verschiedenen Gesichtspunkten betrachtet und interpretiert werden. Beispiele dafür sind folgende Aspekte des Informationsbegriffes:
Information in der Umgangssprache Information wirkt beim Empfänger und löst bei diesem gegebenenfalls eine Reaktion oder Handlung aus. Der Informationsfluss ist in Abbildung 1-2 dargestellt.
Abbildung 1-2
Informationsfluss
Information in der Nachrichtentechnik Für die Untersuchung der Information in der Nachrichtentechnik spielen die in Tabelle 1-1 dargestellten kybernetische Kategorien eine Rolle.
4
Wirtschaft und Information
1.1 Tabelle 1-1
Information in der Nachrichtentechnik
Syntax
Formalisierungsregeln
Sigmatik
Beziehung zwischen den Zeichen
Semantik
durch die Zeichen repräsentierter Inhalt
Pragmatik
Beziehungen zwischen den Zeichen und den durch sie repräsentierten Subjekten
Information in der Wissensvermittlung Wissen kann definiert werden als eine Menge gewissheitserhöhender und unsicherheitsreduzierender Aussagen. Informationen sind in diesem Sinne die Bausteine für zweckbezogenes Wissen, welches Handlungen oder Entscheidungen beeinflussen bzw. auslösen kann.
Information in der Erkenntnistheorie Informationen auf erkenntnistheoretischer Ebene können über einen Abstraktionsprozess formalisiert und operationalisiert werden. Sie wirken ihrerseits auf den erkenntnistheoretischen Prozess des Wissenszuwachses unterstützend zurück.
Information als Produktionsfaktor Aufgrund der stark wachsenden Bedeutung der Informationsverarbeitung in der Wirtschaft und im Privatleben und dem damit verbundenen Übergang zur Informationsgesellschaft wird es notwendig, die klassischen Produktionsfaktoren um den Faktor Information zu ergänzen (Tabelle 1-2).
Produktionsfaktor Information
Tabelle 1-2
Produktionsfaktoren in der Wirtschaft volkswirtschaftliche Sicht
betriebswirtschaftliche Sicht
Kapital
Material
natürliche Ressourcen
Betriebsmittel Arbeit Information
5
1
Gegenstand
Informationen bilden die Grundlage für volkswirtschaftliche und betriebliche Entscheidungen und sind deshalb von entscheidender Bedeutung für Unternehmen, Einrichtungen und Organisationen.
Abbildung 1-3
Information als Produktionsfaktor Informationen bilden die Grundlage für volkswirtschaftliche und betriebliche Entscheidungen und sind deshalb von ausschlaggebender Bedeutung für Unternehmen, Einrichtungen und Organisationen. Die Qualität der Information als Produktionsfaktor wird bestimmt durch:
Aktualität Vollständigkeit Verfügbarkeit Genauigkeit
Die mit der Nutzung von Informationen verbundenen Kosten entstehen durch:
Erfassen Sammeln Verarbeiten Speichern Übertragen
Informationsmängel können hervorgerufen werden durch:
Verfälschung Lücken Alterung Redundanz Informationsund Kommunikationssysteme als Wettbewerbsfaktoren
Funktionstüchtige Informations- und Kommunikationssysteme stellen für ein Unternehmen einen wesentlichen Wettbewerbsfaktor dar, da durch eine hohe Qualität der Informationen Entscheidungen schneller, genauer und mit größerem Erfolg getroffen und somit Vorteile gegenüber der Konkurrenz erreicht werden können. Eine Zusammenstellung einzelner Wettbewerbsfaktoren erfolgt in Tabelle 1-3. Das generelle Unternehmensziel bezüglich der Nutzung von Informationen als Produktions- und Wettbewerbsfaktor muss darin bestehen, selbst über ein leistungsstarkes Informations- und Kommunikationssystem auf hohem Niveau zu verfügen!
6
Wirtschaft und Information
Tabelle 1-3
Wettbewerbsfaktoren (Auswahl) Produkt- und Leistungseigenschaften
Kapital- und Produktionsstrukturen
Marktcharakteristik
Informations- und Kommunikationssystem
Qualität
Investitionen
Kunden
Informationsqualität
Preis
Liquidität
Konkurrenten
Integration
Service
Produktivität
Marktpotential
Know-how
Marktentwicklung
Datensicherheit
Kundenorientierung Innovation
1.1
Die Wirtschaftsinformatik unterstützt mit dem Einsatz von Informationsund Kommunikationssystemen und der optimalen Gestaltung von Informationsflüssen unter Berücksichtigung der jeweiligen Bedingungen wirtschaftliches Handeln. Sie fördert die Automatisierung von Arbeitsprozessen, und sie verfolgt vorrangig die in Abbildung 1-4 aufgeführten Zielstellungen.
Ziele der Wirtschaftsinformatik
Ziele der Wirtschaftsinformatik
Abbildung 1-4
Aus dem Selbstverständnis der Wirtschaftsinformatik und ihren Zielstellungen lassen sich spezifische Charakteristika ableiten, die geeignet sind, die Wirtschaftsinformatik von anderen Wissenschaftsdisziplinen abzugrenzen.
Abgrenzung der Wirtschaftsinformatik
7
1 Abbildung 1-5
Gegenstand
Abgrenzung der Wirtschaftsinformatik bezogen auf den Gegenstand:
Die Wirtschaftsinformatik untersucht die Gestaltung von Informations- und Kommunikationssystemen mit Blick auf die Anwendungsbereiche in Wirtschaft und Verwaltung.
Die Wirtschaftsinformatik beschäftigt sich mit soziotechnischen Systemen. Diese umfassen menschliche und technische Komponenten, die voneinander abhängig sind und zusammenwirken.
Die Wirtschaftsinformatik grenzt sich ab zur eher mathematischnaturwissenschaftlichen Ausrichtung der Kerninformatik und ergänzt diese.
Die Wirtschaftsinformatik beinhaltet die Entwicklung, Einführung und Betreuung von Anwendungssystemen für betriebswirtschaftliche Administrations-, Dispositions- und Führungsaufgaben.
bezogen auf den interdisziplinären Charakter:
Die Wirtschaftsinformatik ist eine selbständige Wissenschaft, die auf interdisziplinärer Basis Erkenntnisse verschiedener Disziplinen zusammenführt und diese für den Bereich der Wirtschaft nutzt.
Die Wirtschaftsinformatik führt wirtschaftswissenschaftliche, informatik- und mathematikorientierte Inhalte zusammen.
Die Wirtschaftsinformatik erfüllt eine Brückenfunktion zwischen betrieblichen Abläufen und der Konzeption des IKS-Einsatzes bezüglich der jeweiligen Organisationseinheit.
Die Wirtschaftsinformatik nimmt darüber hinaus eine Mittlerfunktion wahr, und zwar durch den Interessenausgleich zwischen den Anforderungen der Systementwickler und -betreiber einerseits und den Wünschen der Fachabteilungsmitarbeiter bzw. IKS-Benutzer andererseits.
bezogen auf die beteiligten Personen:
An den Wirtschaftsinformatiker wird die Anforderung gestellt, die Begriffs- und Verständnisschwierigkeiten zwischen dem Management, den IKS-Spezialisten und den weiteren Mitarbeitern zu beheben, um die Zusammenarbeit in einem Team zu ermöglichen.
Der Wirtschaftsinformatiker muss sowohl mit den Aufgaben und Erfordernissen des Managements vertraut, als auch in der Lage sein, auf der technischen Ebene mit IKS-Spezialisten und mit den Mitarbeitern in den Fachabteilungen in der jeweiligen Fachsprache angemessen kommunizieren zu können. Dabei kommt es darauf an, dass er die Probleme der Fachabteilungen richtig versteht und vor allem auf im Unternehmen noch nicht erkannte Verbesserungsmöglichkeiten durch den Einsatz von Informationstechnologien hinweist.
Damit erschließen sich für den Wirtschaftsinformatiker die in Abbildung 1-6 dargestellten Aufgabenbereiche.
8
Wirtschaft und Information
1.1 Abbildung 1-6
Aufgaben der Wirtschaftsinformatik
9
1
Gegenstand
1.2 Interdisziplinarität der Wirtschaftsinformatik Das interdisziplinäre Profil der Wirtschaftsinformatik ergibt sich aus den Anforderungen der wirtschaftswissenschaftlichen Problemstellungen und der Verwendung des Instrumentariums der Informatik. Dabei wird auf weitere Grundlagendisziplinen, vor allem auf die Wirtschaftswissenschaften und die Mathematik zurückgegriffen (siehe Abbildung 1-7).
Abbildung 1-7
Interdisziplinäres Profil der Wirtschaftsinformatik
Im Folgenden werden die verbundenen Wissenschaftsdisziplinen näher vorgestellt.
Informatik Die Bezeichnung Informatik setzt sich aus den beiden Begriffen INFORmation und MatheMATIK zusammen. Die Informatik umfasst die Gesamtheit der Wissenschaften, die sich mit der automatischen Verarbeitung von Informationen, deren Anwendung in der Praxis und den Auswirkungen auf Anwender und Benutzer beschäftigen. Sie umfasst die Gebiete Kern-Informatik und Fach-Informatik. In der Abbildung 1-8 sind die einzelnen Disziplinen der Informatik dargestellt.
10
Interdisziplinarität der Wirtschaftsinformatik
1.2 Abbildung 1-8
Disziplinen der Informatik
Kerninformatik Die Kerninformatik beschäftigt sich mit dem Aufbau und der Arbeitsweise der Computersysteme. Sie beinhaltet die Theoretische, Praktische, Technische und Kommunikationsinformatik.
Theoretische Informatik Die Theoretische Informatik befasst sich vorrangig mit dem Gegenstand der Automatentheorie, der Schaltalgebra und der formalen Sprachen.
Praktische Informatik Die Praktische Informatik umfasst die Gebiete Datenstrukturen, Datenbanken, Algorithmentheorie, Programmiersprachen, Programmiertechnologie, Compilertechniken, Betriebssysteme und IT-Sicherheit.
Technische Informatik Die Technische Informatik beschäftigt sich mit allen Teilgebieten der Hardwareentwicklung (insbesondere der Schaltnetze), der Mikroprogrammierung, der Prozessorentechnik, der Computerorganisation, der Schnittstellentechnik und der Architektur von Computersystemen.
11
1
Gegenstand
Kommunikationsinformatik Die Kommunikationsinformatik befasst sich mit dem Austausch von Informationen und den dazu notwendigen Kommunikations-NetzLösungen. Fachinformatik Die Fachinformatik bündelt alle angewandten Informatik-Disziplinen. Beispiele sind die Wirtschafts-, Ingenieur-, Medizin-, Verwaltungs-, Medien-, Rechts-, Bau- und Kunstinformatik.
Wirtschaftsinformatik Die Wirtschaftsinformatik beschäftigt sich mit den Informations- und Kommunikationssystemen der Betriebs- und der Volkswirtschaft. Zum Gegenstand gehören insbesondere das E-Business und die Entscheidungsunterstützungssysteme (Decision Support Systeme – DSS) mit der gesamten Einbindung der Anwendungen des Operations Research.
Ingenieurinformatik Die Ingenieurinformatik befasst sich mit den Informations- und Kommunikationssystemen der Ingenieurwissenschaften. Zum Gegenstand gehören vorrangig die CAx-Funktionen, wie computergestützter Entwurf (CAE), computergestütztes Konstruieren (CAD) und computergestütztes Fertigen (CAM). Außerdem zählen die Steuerungsprogrammierung für die Prozessautomatisierung und die Robotik als Teilgebiet der künstlichen Intelligenz dazu. Eine große Bedeutung haben ebenfalls die technischen Simulationsmodelle und -verfahren erlangt.
Verwaltungsinformatik Die Verwaltungsinformatik befasst sich mit den Informations- und Kommunikationssystemen großer Verwaltungseinrichtungen. Das vorrangige Anwendungsgebiet ist das E-Government. Anwendungsbeispiele sind Liegenschaftsverwaltung, Finanzverwaltung, Polizeiverwaltung, Stadtverwaltung u. a.
Medizininformatik Die Medizininformatik befasst sich mit den Informations- und Kommunikationssystemen der medizinischen Fachgebiete. Zum Gegenstand gehören neben den Aufgaben der medizinischen Statistik insbesondere die Diagnoseunterstützung, die Therapieplanung und Therapieoptimierung, die bildgebenden Verfahren wie beispielsweise die ComputerTomographie, die chirurgische Prozesssteuerung, die Laboranalytik und die Patientenverwaltung. Als Spezialzweig beschäftigt sich die Bioinformatik u. a. mit der Nutzung von Kenntnissen der Mathematik und Informatik für die wissenschaftliche Forschung beispielsweise in der Pharmazie, der Genanalyse und der Epidemiologie.
12
Interdisziplinarität der Wirtschaftsinformatik
1.2
Medieninformatik Die Medieninformatik beschäftigt sich mit dem Einsatz von Informations- und Kommunikationssystemen und der unterschiedlichen Komponenten von Multimedia zur kreativen Gestaltung. Dazu zählen Bilder, Grafiken, Ton sowie jegliche digitalisierten Animationen beispielsweise für Filmproduktionen. Ebenfalls zum Aufgabengebiet gehört die elektronische Präsentation von multimedialen Inhalten z. B. auf Datenträgern oder im Internet.
Rechtsinformatik Die Rechtsinformatik befasst sich mit den Informations- und Kommunikationssystemen der juristischen Fachgebiete. Zum Gegenstand gehören vorrangig die Dokumentations- und Recherchesysteme, die Vertragsgestaltung, der Datenschutz und die Computerkriminalität.
Bauinformatik Die Bauinformatik befasst sich mit den Informations- und Kommunikationssystemen des Bauwesens. Zum Gegenstand gehören insbesondere die statischen und dynamischen Stabilitätsberechnungen, die Dimensionierungen, die Vermessungskunde und die CAx-Funktionen sowie die Organisationslösungen für die Bauablaufprozesse.
Kunstinformatik Die Kunstinformatik beschäftigt sich mit den Informations- und Kommunikationssystemen der künstlerischen Fachgebiete. Zum Gegenstand gehören vorrangig die Simulationstechniken in der Formgestaltung, die Kombinations- und Variationsmethoden in der Musik, der Grafik und der Malerei. Neben diesen wissenschaftlichen Fachgebieten gewinnt das Allgemeinwissen der breiten Bevölkerung auf dem Gebiet der Informations- und Kommunikationstechnik zunehmend an Bedeutung. Dazu gehören grundlegende Kenntnisse über die Bedienung computergestützter Geräte, wie Mobiltelefon oder Videorecorder, und die Nutzung von Informations- und Kommunikationssystemen, wie Textverarbeitung, E-Mail oder Internet. Die Ausweitung dieses Basiswissens ist eine Voraussetzung für den Fortschritt der Informations- und Wissensgesellschaft.
Wirtschaftswissenschaften Die Wirtschaftswissenschaften befassen sich mit der wissenschaftlichen Analyse der Wirtschaft. Wirtschaft umfasst das Gebiet der Befriedigung menschlicher Bedürfnisse durch Güter und Dienstleistungen. Es werden im Wesentlichen zwei Teildisziplinen unterschieden: Die Betriebswirtschafts-
13
Informationsund Wissensgesellschaft
1
Gegenstand
lehre (BWL) und die Volkswirtschaftslehre (VWL). Darüber hinaus werden oft auch die interdisziplinären Fächer Wirtschaftsinformatik, Verwaltungsinformatik, Wirtschaftsingenieurwesen usw. den Wirtschaftswissenschaften zugeordnet, da ihre Untersuchungsgegenstände stark mit der BWL und VWL verbunden sind. In der Abbildung 1-9 sind die BWL- und VWLDisziplinen dargestellt.
Abbildung 1-9
Disziplinen der Wirtschaftswissenschaften
Betriebswirtschaftslehre Untersuchungsgegenstand der Betriebswirtschaftslehre ist der Aufbau, die Organisation und die Führung von Einzelwirtschaften (Betriebe). Die Betriebswirtschaftslehre unterteilt sich in eine Reihe von Wissenschaften, die sich mit speziellen Gebieten der wirtschaftlichen Entscheidungsfindung in Einzelunternehmen beschäftigen. Die Einteilung kann funktional oder entsprechend einzelner Wirtschaftszweige erfolgen. Zu den funktionalen Gebieten gehören Unternehmensführung, Beschaffung, Produktionsmanagement, Logistik, Marketing, Internes und Externes Rechnungswesen, Finanzierung / Investitionen und Wirtschaftsrecht. Bei der Spezialisierung auf einzelne Branchen werden insbesondere Industrie, Handels, Handwerks- und Ver-
14
Interdisziplinarität der Wirtschaftsinformatik
kehrsbetriebe sowie Banken, Versicherungen und landwirtschaftliche Unternehmen betrachtet.
Unternehmensführung Die Unternehmensführung beschäftigt sich mit den Planungs- und Leitungsaufgaben des Unternehmens. Eine besondere Rolle spielt dabei die Führung von Mitarbeitern und die Organisation von Betriebsabläufen.
Beschaffung Die Beschaffung betrachtet die betrieblichen Vorgänge, die notwendig sind, um Güter und Dienstleistungen, die für den Betriebsablauf erforderlich sind, auf den Märkten zu erlangen.
Produktionsmanagement Das Produktionsmanagement beschäftigt sich mit den Aufgaben der Produktionsplanung und -steuerung.
Logistik Die Logistik organisiert einerseits die bedarfsgerechte Lagerung von Material, Betriebsmitteln, Zwischenprodukten und Enderzeugnissen. Andererseits bietet die Logistik Lösungen für inner- und außerbetriebliche Transportprobleme.
Marketing Das Marketing untersucht die Prozesse beim Absatz von Produkten und Dienstleistungen. Insbesondere werden Kundenverhalten, Vertriebswege und Marktbeeinflussungsmöglichkeiten (z. B. Werbung) betrachtet.
Internes und Externes Rechnungswesen Das Interne Rechnungswesen beschäftigt sich mit der Kosten- und Leistungsrechnung des Unternehmens und dem Controlling. Es dient der Planung, Steuerung und Überwachung des unternehmerischen Handelns aus Sicht des Rechnungswesens. Das Externe Rechnungswesen sorgt für die Einhaltung der gesetzlichen Vorschriften auf den Gebieten der Buchführung, der Rechnungslegung und der Bilanzerstellung.
Finanzierung / Investitionen Die Gebiete Finanzierung und Investitionen untersuchen die kurz-, mittel- und langfristigen Entscheidungsprobleme bei der Kapitalaufnahme und bei der Kapitalanlage. Bei der Sicherung der finanziellen Stabilität eines Unternehmens sind diese von großer Bedeutung.
Wirtschaftsrecht Durch die große Zahl rechtlicher Vorschriften auf dem Gebiet unternehmerischen Handelns wird im Rahmen der Betriebswirtschaftslehre eine Reihe rechtlicher Spezialgebiete untersucht. Dazu gehören die betriebli-
15
1.2
1
Gegenstand
che Steuerlehre, das Arbeits-, Handels- und Vertragsrecht sowie neuerdings auch die Anwendung von Rechtsvorschriften auf das Internet. Volkswirtschaftslehre Die Volkswirtschaftslehre beschäftigt sich mit den gesamtwirtschaftlichen Vorgängen eines Landes, von Ländergruppen und der gesamten Welt. Untersucht wird das Zusammenwirken der Einzelwirtschaften. Die Volkswirtschaftslehre gliedert sich in die Volkswirtschaftstheorie, die Volkswirtschaftspolitik und die Finanzwissenschaft.
Volkswirtschaftstheorie Die Volkswirtschaftstheorie befasst sich insbesondere mit der Mikround der Makroökonomie. In der Mikroökonomie wird das wirtschaftliche Verhalten einzelner Individuen oder Unternehmen beim Kontakt miteinander untersucht. Die Makroökonomie betrachtet die volkswirtschaftlichen Probleme, die durch dieses individuelle Verhalten entstehen. Dazu gehören Beschäftigung, Konjunktur, Geld und Außenwirtschaft.
Volkswirtschaftspolitik Die Volkswirtschaftspolitik beschäftigt sich mit den Problemen und Auswirkungen staatlichen Handelns auf die Wirtschaft. Zentraler Untersuchungsgegenstand sind die Wirtschafts-, Struktur-, Standort- und Sozialpolitik.
Finanzwissenschaft Die Finanzwissenschaft untersucht die staatliche Einnahmen- und Ausgabenpolitik im Hinblick auf zu erfüllende hoheitliche Aufgaben einerseits und andererseits als Steuerinstrument für privates oder unternehmerisches Handeln.
Mathematik Die Mathematik ist die Lehre von den Zahlen, Figuren, Mengen, ihren Abstraktionen und Verknüpfungen. Zu den Teilgebieten der Mathematik gehören die Arithmetik, die Algebra, die Analysis, die Geometrie, die Wahrscheinlichkeitsrechnung und die Statistik, das Operations Research und die Mengenlehre. Die Abbildung 1-10 zeigt die einzelnen Disziplinen in der Übersicht.
16
Interdisziplinarität der Wirtschaftsinformatik
1.2 Abbildung 1-10
Disziplinen der Mathematik
Arithmetik Die Arithmetik beschäftigt sich mit den verschiedenen Zahlenarten und ihren Rechengesetzen. Dazu gehören die vier Grundrechenarten, das Potenzieren, Wurzelziehen, Logarithmieren, die Theorie der unendlichen Folgen und Reihen, die Kombinatorik und die Zahlentheorie. Die Grenze zu den Gebieten Algebra und Analysis ist fließend.
Algebra Die Algebra befasst sich mit dem Lösen von Gleichungen. Dazu werden Lösungsmethoden entwickelt und deren Ergebnisse analysiert. Die Algebra untersucht dabei Elemente wie Zahlen, Funktionen, Polynome, Vektoren und Matrizen.
Analysis Die Analysis umfasst die Gebiete der Mathematik, die sich mit Grenzwerten beschäftigen, wie die Differential- und Integralrechnung, die geometrische Sachverhalte mit rechnerischen Methoden untersuchen und die allgemeine mathematische Gesetzmäßigkeiten erforschen (Funktionalanalysis).
Geometrie Die Geometrie untersucht die Gesetze von Linien, Figuren und Körpern und deren Beziehungen zueinander.
17
1
Gegenstand
Wahrscheinlichkeitstheorie Die Wahrscheinlichkeitsrechnung befasst sich mit den Gesetzmäßigkeiten zufälliger Ereignisse.
Statistik Die Statistik beschäftigt sich mit der Erfassung, Untersuchung und Auswertung empirischer (statistischer) Daten. Diese empirischen Daten zeichnen sich dadurch aus, dass sie in großer Menge vorliegen.
Operations Research Das Operations Research (Operationsforschung) liefert Entscheidungsunterstützung mit mathematischen Methoden. Dabei spielt die mathematische Optimierung eine wesentliche Rolle. Das Operations Research löst praktische Probleme durch die Bildung abstrakter Modelle und dem Auffinden geeigneter Lösungsverfahren. Zu den Untersuchungsgegenständen der Operationsforschung gehören vorrangig die Produktionsund Losgrößenoptimierung, die Zuschnittoptimierung, die Transport-, Rundfahrt- und Tourenoptimierung, die Standort- und Stauraumoptimierung, die Netzplantechnik sowie die Optimierung mit Hilfe der Bedienungs-, Erneuerungs- und Lagerhaltungstheorie.
Mengenlehre Die Mengenlehre befasst sich mit Elementen, Mengen sowie deren Beziehungen und Verknüpfungen.
1.3 Studium der Wirtschaftsinformatik Für das Studium der Wirtschaftsinformatik gibt es entsprechend der Spezialisierungstiefe verschiedene Formen:
Wirtschaftsinformatik als Fach innerhalb eines wirtschaftswissenschaftlichen Studiums zur Vermittlung von Grundkenntnissen
Wirtschaftsinformatik als Schwerpunkt eines wirtschaftswissenschaftlichen Studiums
selbständiger Diplom-Studiengang mit Abschluss Diplom-Wirtschaftsinformatiker/in
18
Studium der Wirtschaftsinformatik
Im Folgenden wird der Diplom-Studiengang detaillierter dargestellt. Die geplante Studiendauer (Regelstudienzeit) liegt, abhängig von der jeweiligen Hochschule, bei 8 bis 10 Halbjahren (Semester). Das Studium wird in Grundstudium und Hauptstudium geteilt. Im Grundstudium werden grundlegende Kenntnisse der Gebiete Wirtschaftsinformatik, Betriebswirtschaftslehre, Volkswirtschaftslehre, Informatik und Mathematik vermittelt. Das Grundstudium wird mit den Diplom-Vorprüfungen abgeschlossen. Im sich anschließenden Hauptstudium wird das Wissen vertieft und es erfolgt eine Spezialisierung auf verschiedene Anwendungsgebiete. Die Spezialisierung kann auf einzelne Gebiete der Wirtschaftsinformatik, der Betriebswirtschaftslehre oder der Volkswirtschaftslehre erfolgen. Die Spezialisierungsrichtung ist innerhalb eines bestimmten Rahmens vom Studenten wählbar. In verschiedenen Seminaren werden durch die Studenten Aufgaben bearbeitet und die wissenschaftliche Arbeitsweise angewendet. Innerhalb des Hauptstudiums wird die Praxisausrichtung durch Kontakte mit Unternehmen vertieft. Dazu trägt neben Praktika auch die notwendige Anfertigung einer Diplomarbeit bei. Das Studium wird mit den Diplomprüfungen abgeschlossen.
1.3 Charakterisierung des DiplomStudienganges Wirtschaftsinformatik
Der Aufbau und die Inhalte eines Studiums der Wirtschaftsinformatik in einem eigenständigen universitären Studiengang in Deutschland werden am Beispiel der Martin-Luther-Universität Halle-Wittenberg dargestellt. Die Martin-Luther-Universität führte diese Studienrichtung als erste Hochschule im deutschsprachigen Raum bereits im Jahre 1969 ein. Mit der Diplomprüfungsordnung des Jahres 2000 wurden studienbegleitende Prüfungen und das Kreditpunkte-System entsprechend dem Europäischen System zur Anrechnung von Studienleistungen (European Credit Transfer System – ECTS) eingeführt.
Charakteristik des Diplom-Studienganges Wirtschaftsinformatik
Tabelle 1-4
Diplom-Studiengang Wirtschaftsinformatik Studienabschluss:
Diplom-Wirtschaftsinformatiker/in
Regelstudienzeit:
10 Semester
Hochschulzugangsberechtigung:
Hochschulreife
Besondere Studienvoraussetzungen:
keine
Studienbeginn:
Wintersemester / Sommersemester
19
1
Gegenstand
Struktur des Studiums Grundstudium Struktur des Grundstudiums Hauptfächer: Grundzüge der Wirtschaftsinformatik Grundzüge der Informatik Grundzüge der Betriebswirtschaftslehre Grundzüge der Volkswirtschaftslehre Grundzüge der Statistik
Begleitende Fächer: Buchführung Mathematik und Operations Research Grundzüge des Rechts
Diplom-Vorprüfung Die Prüfungsleistungen zu den Lehrveranstaltungen eines Faches werden studienbegleitend abgenommen. Allen Lehrveranstaltungen sind Kreditpunkte zugeordnet. Die Diplom-Vorprüfung ist bestanden, wenn eine vorgegebene Mindestanzahl von Kreditpunkten erworben wurde. Hauptstudium Struktur des Hauptstudiums Das Hauptstudium gliedert sich in drei Pflichtfächer und zwei Wahlpflichtfächer. Als Wahlpflichtfächer sind ein Fach aus dem ersten und ein Fach aus dem zweiten Wahlpflichtangebot zu wählen. Pflichtfächer: Wirtschaftsinformatik Informatik Operations Research
20
Studium der Wirtschaftsinformatik
erstes Wahlpflichtfach: eine Spezielle Wirtschaftsinformatik: í
Computerintegrierte Systeme
í
Informationsmanagement
í
E-Business
zweites Wahlpflichtfach: Allgemeine Betriebswirtschaftslehre Allgemeine Volkswirtschaftslehre eine Spezielle Betriebswirtschaftslehre: í Betriebswirtschaftliche Steuerlehre í Betriebliches Umweltmanagement í Externes Rechnungswesen und Wirtschaftsprüfung í Finanzwirtschaft und Bankbetriebslehre í Controlling í Marketing und Handel í Organisation und Personalwirtschaft í Produktion und Logistik eine Spezielle Volkswirtschaftslehre: í Allokation und Wachstum í Geld und Währung í Internationale Wirtschaftsbeziehungen Finanzwissenschaft Ökonometrie Statistik Wirtschaftsrecht Wirtschaftssoziologie Japanologie Agrarpolitik und Agrarmärkte Wirtschafts- und Sozialgeschichte Integriertes Auslandsstudium
21
1.3
1
Gegenstand
Praktika Ein Praktikum in Praxiseinrichtungen im Umfang von mindestens 18 Wochen ist in der vorlesungsfreien Zeit zu organisieren.
Seminare In den Seminaren erlernen die Studenten die Fähigkeit zum wissenschaftlichen Arbeiten. Sie bearbeiten Themen und fertigen Seminararbeiten an. Die Ergebnisse werden präsentiert und diskutiert.
Diplomprüfung Die Diplomprüfung erstreckt sich auf die Fächer Wirtschaftsinformatik, Informatik, Operations Research, das gewählte erste und das gewählte zweite Wahlpflichtfach sowie auf die Diplomarbeit. Die Prüfungsleistungen zu den Lehrveranstaltungen eines jeden Fachs werden studienbegleitend abgenommen. Allen Lehrveranstaltungen und der Diplomarbeit sind Kreditpunkte zugeordnet. In jedem Fach muss eine mündliche Fachprüfung abgelegt werden, zu der nur zugelassen wird, wenn eine vorgegebene Mindestanzahl von Kreditpunkten in diesem Fach erworben wurde. Praxisorientierung durch duales Studium
Besonderheiten Zur Unterstützung des Studiums, insbesondere einer praktischen Ausrichtung, werden die Aktivitäten des „Institutes für Unternehmensforschung und Unternehmensführung an der Martin-Luther-Universität e. V.“ in Form des so genannten „Dualen Studiums“ einbezogen. Diese Studienform eröffnet den Studenten die Möglichkeit, Kontakte zu regionalen und überregionalen Unternehmen zu knüpfen. Die Studenten können erlernte Fähigkeiten anwenden und praktische Erfahrungen sammeln. Die Unternehmen profitieren von aktuellen Forschungsergebnissen der Universität und können frühzeitig neue, hoch qualifizierte Mitarbeiter gewinnen. Darüber hinaus wird den Studierenden im Rahmen der Wirtschaftsinformatik-Ausbildung die Möglichkeit geboten, die Ausbildung an integrierter Standardsoftware, wie z. B. SAP R/3 wahr zu nehmen. Mit dem Abschluss des Studiums verfügt ein Diplom-Wirtschaftsinformatiker / eine Diplom-Wirtschaftsinformatikerin über die Fähigkeiten, die im folgenden Abschnitt beschriebenen Aufgaben zu lösen und kann in den genannten Betätigungsfeldern eingesetzt werden. Gegenwärtig laufen die Vorbereitungsmaßnahmen zur Einführung der zweistufigen Studiengänge mit Bachelor- und Masterabschlüssen. Die Europäischen Bildungsminister hatten im Jahre 1999 in Bologna ein derartiges zweistufiges System von Studienabschlüssen vereinbart. Durch die generelle Einführung des Leistungspunktesystems (ECTS), begleitet von Qualitätssi-
22
E-Learning
1.4
cherungsmaßnahmen mit Akkreditierung, soll ein europaweit gültiges Studiensystem bis zum Jahre 2010 erreicht werden.
1.4 E-Learning Durch die Dynamik der Informationsgesellschaft werden die Halbwertszeiten bestimmter Wissensgebiete der Wirtschaftsinformatik immer kürzer, wodurch sich an die Aus- und Weiterbildung von Wirtschaftsinformatikern erhöhte und zum Teil auch völlig neue Anforderungen stellen. Das im Studium erworbene Grundlagenwissen und vor allem das Spezialisierungswissen sind ständig zu erweitern, anzupassen bzw. zu erneuern. Daraus leitet sich ein lebenslanger Lernprozess ab, der stark anwendungs- und problemorientiert sowie entsprechend der eigenen Bedürfnisse bzw. Voraussetzungen individuell zu gestalten ist. Dieser Prozess verlangt einerseits Eigenverantwortlichkeit und Selbständigkeit bei der Aneignung des erforderlichen Wissens und andererseits Voraussetzungen, die dieses Lernen orts- und zeitunabhängig sowie berufsbegleitend unterstützen. Die Wirtschaftsinformatik, als eine „Eckwissenschaft der Informationsgesellschaft“, kann dabei eine wichtige Rolle übernehmen. Das betrifft vor allem die Nutzung der Potenziale, die sich aus den neuen Medien und dem darauf basierenden E-Learning für die Aus- und Weiterbildung ergeben. Folgende Begriffe sind in diesem Zusammenhang von Bedeutung:
Neue Medien charakterisieren die Funktionalitäten der modernen Informations- und Kommunikationstechnologien, die sich auf elektronische multimediale Darstellungen und das Internet beziehen. Dazu gehören Texte, Graphiken, Audio, Video, Hypermedia, Digitalisierung von Dokumenten und die vielseitigen Möglichkeiten, die sich durch Vernetzung auf der Basis des Internet ergeben. Das Internet wird in diesem Zusammenhang mit zu den neuen Medien gezählt.
Unter E-Learning (electronic learning) werden die Lehr-, Lern- und Administrationsprozesse für individuelles, räumlich und zeitlich verteiltes Lernen und Lehren bei Nutzung der neuen Medien verstanden.
Internetbasiertes Lernen und Lehren (web-based learning, online learning) ist die spezifische Ausprägung des E-Learning, bei der die Funktionalitäten des Internet die wesentliche Grundlage bilden.
Blended Learning charakterisiert die Verknüpfung von Präsenzveranstaltungen und E-Learning in einem integrierten Lern- und Lehrkonzept.
23
lebenslanges Lernen orts- und zeitunabhängig
1
Gegenstand
Virtuelles Klassenzimmer (virtual classroom) beinhaltet die Simulation der Funktionen und Abläufe in einem reellen Klassenzimmer unter Nutzung der Informations- und Kommunikationstechnologien mit dem Ziel, teamorientiertes, synchrones, interaktives E-Learning durchzuführen.
Web-based Training (WBT) stellt ein unter Nutzung der neuen Medien online verfügbares und multimedial aufbereitetes Lernmodul für internetbasiertes Lernen und Lehren dar.
Computer-based Training (CBT) ist ein auf CD oder DVD offline verfügbares und multimedial aufbereitetes Lernmodul.
Learning-Management-System (LMS) ist ein IT-System, das als Lernplattform die Prozesse des E-Learning weitestgehend unterstützt. Damit erhalten Lernende, Lehrende sowie Autoren, Anbieter, Betreuer und Systemadministratoren einen zentralen Zugriff auf Lerninhalte, Kommunikationswerkzeuge, Nutzerdaten u. a.
Bildungsnetzwerk ist ein Netzwerk, bei dem Bildungsanbieter und Bildungsabnehmer die Knoten und die zwischen ihnen existierenden möglichen Beziehungen – die Relationen – bilden. Bildungsanbieter (Lieferanten) werden im Allgemeinen Hochschulen, Institute, Hochschullehrer, Weiterbildungsakademien und Verlage sein, während zu den Bildungsabnehmern (Kunden) Hochschulen, Unternehmen, Weiterbildungsakademien und private Endkunden gehören. Die Relationen umfassen den Austausch von Informationen und Wissen, die Bereitstellung von Betreuungsleistungen, vertragliche Absprachen oder informationstechnische Beziehungen. Demnach können Relationen temporär oder langfristig bzw. auch eng oder locker sein. Ein virtuelles Bildungsnetzwerk hat die zusätzliche Eigenschaft, als Informations- und Kommunikationsplattform vorwiegend das Internet zu nutzen.
Vorteile von E-Learning Durch E-Learning ergeben sich folgende Vorteile in der Aus- und Weiterbildung:
kontinuierliche Verfügbarkeit multimedialer Lernangebote Durch die Dienste des Internet erfolgt eine Virtualisierung der Prozesse, weshalb beim Lernen die Entfernung, die Zeit sowie die Präsenz der Lernenden und Lehrenden zunehmend unbedeutender werden. Der
24
E-Learning
ständige weltweite Zugriff auf vorhandene Lernmodule und andere Wissensbestände erfolgt orts- und zeitunabhängig.
bedarfsorientiertes Lernen Durch die ständige Verfügbarkeit der Lernangebote ist Lernen zu dem Zeitpunkt möglich, wenn Wissensbedarf besteht (learning on demand). Die am Bedarf orientierten Lernmodule erlauben ein eigenverantwortliches und problemorientiertes Lernen.
schnelle Aktualisierung der Lerninhalte Gegenüber Büchern, Lehrbriefen und anderen „traditionellen“ Lehrmaterialien lassen sich Online-Lernmodule unter Nutzung von Autorenwerkzeugen schneller aktualisieren, so dass über die Lernplattform stets aktuelle Lerninhalte für die Lernenden zur Verfügung stehen können.
individualisiertes und kooperatives Lernen Das individualisierte Lernen erfolgt entsprechend der Bedürfnisse bzw. der Voraussetzungen der Lernenden, wobei Lerninhalte sowie individuell zugeschnittene Lernpfade und Lerngeschwindigkeit durch die Lernenden eigenverantwortlich oder in Abstimmung mit Tutoren festgelegt werden. Die auf dem Internet basierende Vernetzung sowie die Kommunikation und Interaktivität erlauben auch kooperatives Gruppenlernen. Über Chats, Diskussionsforen, Video-/Audiokonferenzen, E-Mail und weitere Groupware-Werkzeuge lässt sich nicht nur eine Kooperation unter den Lernenden, sondern auch mit den Lehrenden realisieren.
Online-Tutoring und -Service Für das E-Learning ist die tutorielle Unterstützung und Beratung durch Teletutoren charakteristisch. Teletutoren stehen online zur Verfügung und werden gegenüber Lernenden durch Online-Konsultationen bei auftretenden inhaltlichen oder technischen Problemen, aber z. B. auch bei der individuellen Kommentierung von gelösten Übungsaufgaben betreuend und motivierend aktiv. Dazu dienen Chats, Diskussionsforen, Videokonferenzen und E-Mail. Tutoren, aber auch die Lernenden selbst, können den Lernerfolg auf der Grundlage von Online-Tests überprüfen bzw. den erreichten Wissensstand aus der Lernkontoverwaltung erkennen. Zu den Angeboten des Online-Service gehören u. a. Bewerbungen, Zulassungen, Einschreibungen, Anmeldungen zu Prüfungen und die Abfrage von Prüfungsergebnissen über die Lernplattform.
Zeit- und Kostenersparnis Für die Kostenersparnis beim E-Learning gibt es verschiedene Gründe. So ist im Allgemeinen eine Mehrfachnutzung der Lernmodule möglich 25
1.4
1
Gegenstand
und bei Einhaltung von Standards können die Lernmodule auf verschiedenen Lernplattformen genutzt werden. Weiterbildungsmaßnahmen lassen sich orts- und zeitunabhängig durchführen, wodurch Reisezeiten und -kosten sowie Arbeitszeitausfall weitestgehend vermieden werden.
kritische Erfolgsfaktoren Für die Konzeption und die erfolgreiche Realisierung von E-LearningMaßnahmen in der Aus- und Weiterbildung sind inhaltliche, organisatorische und technische Anforderungen zu berücksichtigen, die den Charakter von kritischen Erfolgsfaktoren haben:
Qualität der Lernmodule Die Lernmodule müssen aus inhaltlicher und methodisch-didaktischer Sicht von hoher Qualität sein. Das bedeutet insbesondere, dass bereits bei deren Konzipierung die Möglichkeiten der neuen Medien und die Mehrfachverwendung für verschiedene Zielgruppen und unterschiedliche Lernplattformen berücksichtigt werden.
Infrastruktur Zur Infrastruktur gehören ein effizientes Learning-Management-System, die Ausstattung der Lernenden mit leistungsfähigen PCs einschließlich Internetanschluss und ein effektives Management für die Koordination und Administration innerhalb der E-Learning-Maßnahmen.
tutorielle Betreuung Der Erfolg beim E-Learning hängt wesentlich von der Kompetenz und der ständigen Verfügbarkeit der Teletutoren ab. Dabei sind alle technischen und organisatorischen Möglichkeiten, die sich auf der Grundlage der neuen Medien ergeben, auszunutzen.
Selbstdisziplin der Lernenden Von den Lernenden werden bei der Bearbeitung der Lernmodule, wegen der relativen Unabhängigkeit von Ort, Zeit und den Lehrenden, eine hohe Eigenverantwortung und Disziplin sowie ein konsequentes Zeitmanagement verlangt.
Evaluation Eine kontinuierliche Evaluation der Lernmodule, der Betreuungsleistungen und des eingesetzten Learning-Management-Systems bilden die Grundlage für die Qualitätssicherung beim E-Learning.
26
E-Learning
1.4
Beispiele Die Einsatzmöglichkeiten und der Markt für E-Learning haben sich in den letzten Jahren umfassend erweitert. Trotz mancher Hemmnisse kommen in fast allen Ländern und in zahlreichen Bereichen E-Learning-Funktionalitäten in unterschiedlichem Umfang zum Einsatz. Es ist im Rahmen dieses Kapitels nicht möglich, auf das für E-Learning existierende breite Anwendungsspektrum detailliert einzugehen. Es werden deshalb nur einige Beispiele aus der Aus- und Weiterbildung genannt (Tabelle 1-5) sowie E-Learning im Studium der Wirtschaftsinformatik ausführlicher vorgestellt.
breites Anwendungsspektrum
Die traditionellen Präsenz-Hochschulen bleiben bestehen, werden aber immer mehr ihr Studienangebot durch multimedial aufbereitete Online-Inhalte erweitern.
Tabelle 1-5
Typen von Einrichtungen der Aus- und Weiterbildung, die verstärkt bzw. ausschließlich E-Learning einsetzen Typ
Charakteristik Hochschulnetzwerke
Zusammenschluss mehrerer í Hochschulen zur Bündelung der Kompetenzen und Ressourcen für ein gemeiní sames Bildungsangebot
Gesamtspektrum einer virtuelle Hochschulen Hochschule wird über das Internet zur Verfügung gestellt
Corporate Universities
Beispiele
Singapore-MIT Alliance: web.mit.edu/SMA
í
Virtuelle Hochschule Hagen: www.vu.fernuni-hagen.de
í
Virtuelle Hochschule Bayern: www.vhb.org
í
University of Phoenix Online: phoenixonline.edusearch.com
Unternehmens-spezifische í Aus- und WeiterbildungsAngebote unter Nutzung des Inter-/Intranets í
internationale Kooperation von Unternehmen der Medien- und KomBildungsmunikationsbranche mit konsortien renommierten Hochschulen
Studiengang Wirtschaftsinformatik-Online: www.winfoline.de
DaimlerChrysler Corporate University: career.daimlerchrysler.com SAP University: www.sap.com
í
Cardean University: www.unext.com
í
Pensare: www.pensare.com
27
1
Gegenstand
E-Learning in der Wirtschaftsinformatik: WINFOLINE Im Folgenden wird der Studiengang „Master of Science in Information Systems“ vorgestellt, bei dem Wirtschaftsinformatik online studiert werden kann, weshalb für diesen Masterstudiengang verkürzt der Name WINFOLINE gebräuchlich ist. Es handelt sich dabei um einen universitären Online-Weiterbildungsstudiengang, der eine Erstausbildung an einer Hochschule voraussetzt und parallel zur beruflichen Tätigkeit absolviert werden kann. Auf einer Lernplattform werden über das Internet aktuelle und praxisrelevante Inhalte bereitgestellt, um die am Arbeitsmarkt geforderten Kenntnisse, Fähigkeiten und Fertigkeiten für das Verständnis und die Gestaltung innovativer IT-Anwendungen in Wirtschaft und Verwaltung zu vermitteln. Der Studiengang ermöglicht ein individuelles sowie orts- und zeitunabhängiges Studieren und ist besonders für Berufstätige geeignet. Insbesondere eröffnet sich damit auch so genannten Quereinsteigern, die aus anderen Berufen in die Wirtschaftsinformatik wechseln wollen, wie z. B. Naturwissenschaftlern, Ingenieuren, Juristen, Betriebswirtschaftlern oder Geisteswissenschaftlern, eine international wettbewerbsfähige Qualifizierungsmöglichkeit auf dem Gebiet der Wirtschaftsinformatik. Die Immatrikulation erfolgt an der Universität Göttingen, von der nach erfolgreichem Studium der staatlich anerkannte universitäre MasterAbschluss verliehen wird. Im Folgenden wird der Studienablauf WINFOLINE näher beschrieben. Online Campus Der Studiengang „Master of Science in Information Systems“ ist nahezu vollständig über das Internet absolvierbar, d. h. das Studium erfolgt in einem virtuellen Campus auf der Grundlage einer Lernplattform (Abbildung 1-11). Über diesen Online-Campus buchen und starten Studierende ihre Kurse und absolvieren die Übungen. Der örtlichen und zeitlichen Flexibilität sind hierbei keine Grenzen gesetzt. Der Online-Campus bietet auch die Möglichkeit, mit den Kommilitonen und Teletutoren Kontakt aufzunehmen. Dazu stehen verschiedene Foren, Chaträume und das „Schwarze Brett“ zur Verfügung. Den Online-Campus erreichen Studierende über die Homepage www.winfoline.de unter Nutzung von Benutzername und Passwort. Damit gelangt man direkt in den geschützten Bereich des „Winfoline – Master of Science in Information Systems“. Die Regelstudienzeit beträgt 15 Monate, wobei jeder Studierende das Tempo des Studiums selbst bestimmen kann.
28
E-Learning
1.4 Abbildung 1-11
Ebenen-Architektur einer Lernplattform in Anlehnung an CLIX®
Präsenzphasen Zu den Präsenzphasen gehören lediglich die Einführungsveranstaltung an der Universität Göttingen, ein Projektseminar und Klausuren, für die pro Jahr vier Termine zur Verfügung stehen. Studienaufbau Der WINFOLINE-Studiengang gliedert sich in die drei Studienabschnitte:
Grundlagenstudium Schwerpunktstudium Master Thesis mit den jeweiligen drei Säulen (Fachdisziplinen):
Wirtschaftsinformatik (WI) Betriebswirtschaftslehre (BWL) Informatik (INF)
29
1
Gegenstand
Schwerpunktstudium Im Schwerpunktstudium stehen den Studierenden neben der Pflichtveranstaltung „Projektseminar Wirtschaftsinformatik“ mehrere Kurse aus den einzelnen Fachdisziplinen Informatik, Wirtschaftsinformatik und Betriebswirtschaftslehre als Lernmodule zur Auswahl (folgende Tabellen). Die Studierenden können die Kurse der je nach Interesse selbst wählen.
Tabelle 1-6
Module der Fachdisziplin Informatik im Schwerpunktstudium Modul
ausgewählte Lehrveranstaltungen
Technische Informatik
Mobilkommunikation Kommunikationsnetze / Rechnernetze Rechnerorganisation und -architektur Technische Informatik
Theoretische Informatik
Algorithmen und Datenstrukturen Algorithmen für Internet-Applikationen
Praktische Informatik
Einführung in UML Multimediatechnik HTML, XHTML, CSS Web-Design, Web-Ergonomie
Tabelle 1-7
Module der Fachdisziplin Betriebswirtschaftslehre im Schwerpunktstudium Modul
ausgewählte Lehrveranstaltungen
Finanzen /
Controlling
Marketing /
Marketing
Controlling
Absatzwirtschaft
Produktions- und
Logistikmanagement
Personalwirtschaft / Organisation
Unternehmensführung / Management
30
Fallstudienbasiertes Marketing Logistik Produktionslogistik Personal Organisation Innovationsmanagement
E-Learning
Tabelle 1-8
Module der Fachdisziplin Wirtschaftsinformatik im Schwerpunktstudium Modul
ausgewählte Lehrveranstaltungen
ARIS II – Modellierungsmethoden, Metamodelle und Anwendungen
Planung und Realisierung betrieblicher Anwendungssysteme
Entwicklung von Anwendungssystemen Datenbanken
ARIS I – vom Geschäftsprozess zum Integrierte Informationsverarbeitung Anwendungssystem Informationsverarbeitung in Dienstleistungsbetrieben Prozessorientierte Unternehmenslogistik Betriebliche Anwendungen von Internettechnologien E-Commerce als komplexes Wissensgebiet E-Finance
Informationsmanagement
1.4
Informationsmanagement Management Support Systeme
Prüfungen Die Prüfungsleistungen werden studienbegleitend erbracht, wobei für jede bestandene Prüfung sog. Credit Points vergeben werden (CP). Die Master Thesis kann zu einem Thema der Wirtschaftsinformatik, der Betriebswirtschaftslehre oder der Informatik geschrieben werden. Der Bearbeitungszeitraum beträgt drei Monate. Bildungsnetzwerk WINFOLINE Die Dozenten/Tutoren/Betreuer im Studiengang WINFOLINE stammen als „Lieferanten“ der Bildungsprodukte und Betreuungsleistungen aus verschiedenen Hochschulen des Bildungsnetzwerkes WINFOLINE (s. Abbildung 1-12) Homepage www.winfoline.de Der ausführliche Studienführer, die Studien- und Prüfungsordnung sowie Hinweise über die Zulassungsvoraussetzungen, die Bewerbung und die Studiengebühren stehen unter www.winfoline.de zur Verfügung.
31
1 Abbildung 1-12
Gegenstand
offenes Bildungsnetzwerk WINFOLINE
1.5 Aufgaben und Betätigungsfelder Aufgrund der Vielfalt der Einsatzmöglichkeiten kann der Wirtschaftsinformatiker / die Wirtschaftsinformatikerin Funktionen wahrnehmen als:
anwendungsorientierter Forscher / anwendungsorientierte Forscherin, Systementwickler/-in, Manager/in oder Organisator/-in, Kaufmann/-frau, Unternehmensberater/-in oder Ausbilder/in bzw. Dozent/-in. 32
Aufgaben und Betätigungsfelder
1.5
Grundsätzlich ist ein(e) Wirtschaftsinformatiker(in) in der Lage: betriebswirtschaftliche Verfahren innovativ einzusetzen, die Vorteilhaftigkeit eines betriebswirtschaftlichen Lösungsweges für eine konkrete Aufgabe zu beurteilen und die rechentechnische Unterstützung zu organisieren,
IKS als Anregung bei dem Entwurf der betriebswirtschaftlichen Lösung zu nutzen,
Optimierungsmodelle für konkrete Problemsituationen zu entwickeln oder abzuändern und in die Entscheidungskette einzufügen,
die Grenzen der IKS im Rahmen der betriebswirtschaftlichen Lösung zu erkennen,
die Entwicklungen der Datenverarbeitung über einen längeren Zeitraum zu verfolgen,
bestehende IKS-Lösungen zu analysieren und deren Stark- und Schwachstellen zu ermitteln sowie
neue IKS-Lösungen zu konzipieren und die IKS-Investitionen zukunftsorientiert und ökonomisch vorteilhaft zu realisieren. Die für die einzelnen Betätigungsfelder charakteristischen Aufgaben sind in den nachfolgenden Tabellen dargestellt.
Aufgaben und Betätigungsfelder in der Wirtschaftsinformatik, Einsatzbereich Wirtschaft Aufgaben und Betätigungsfelder im Gesamtunternehmen
Berücksichtigung unternehmenspolitischer, benutzerspezifischer und organisatorischer Ziele
Umgang mit historisch gewachsenen und deshalb nicht immer exakt strukturierten und fehlerfreien Systemen
Systemanalyse
Planung, Entwicklung, Einführung und Betreuung neuer Anwendungssysteme
Verbesserung bereits vorhandener Lösungen Anpassung von Systemen an veränderte Bedingungen und an andere Anwendungssysteme Bestimmung von Schnittstellen zu angrenzenden Informationssystemen
33
Abbildung 1-13
1
Gegenstand
Nutzung von Softwarewerkzeugen und Bausteinen betrieblicher Anwendungssysteme
Erarbeitung fachlicher Anforderungsprofile Durchführung von Markt- und Produktuntersuchungen Berücksichtigung von Kostenentwicklungen und technologischem Fortschritt
Aufgaben und Betätigungsfelder im Management
Sicherstellung der Informationsverarbeitung und Kommunikation für das gesamte Unternehmen, unabhängig von Einzel- und Bereichsinteressen
Gewährleistung der technischen und wirtschaftlichen Effizienz der Informationsverarbeitung und Kommunikation
fachliche Beherrschung aller Bereiche der Informationsverarbeitung und Kommunikation
Verfolgen technologischer Entwicklungen und Überprüfung der Nutzbarkeit für das Unternehmen
Überzeugungsarbeit bei Mitarbeitern und beim Management für neue Entwicklungen und Verfahren sowie Durchsetzung der Anwendungen im Unternehmen
Entscheidung über Art und Umfang der Nutzung externer Systemanbieter Einrichtung und Integration interner Systeme Verantwortung für die Einhaltung gesetzlicher und unternehmensspezifischer Datenschutzbestimmungen
Aufgaben und Betätigungsfelder in der Produktentwicklung
Beschreibung, Analyse und Bewertung von Problemen und Schwachstellen in der Ablauf- und Aufbauorganisation
Erstellung von Sollkonzepten mit dem Ziel des wirtschaftlichen IKS-Einsatzes zur Erhöhung der Effizienz der Ablauf- und Aufbauorganisation
Ableiten von Leistungsbeschreibungen der Verfahren und Spezifikationen für die Software
Erstellen und Testen des Programmcodes und das Implementieren der Software
Aufgaben und Betätigungsfelder im Marketing
Vertrieb von Hard- und Softwareprodukten
Beobachtung des Marktes, insbesondere des Wettbewerbs
34
Unterstützung der Anwender bei der Planung, Implementierung und dem Einsatz der Produkte Information, Beratung und Unterstützung der Entwicklungsabteilung Mitwirkung bei Entwicklung, Anpassung und Erprobung neuer Produkte Information über laufende Entwicklungen im eigenen und in benachbarten Anwendungsbereichen
Aufgaben und Betätigungsfelder
Abbildung 1-14
Aufgaben und Betätigungsfelder in der Wirtschaftsinformatik, Einsatzbereich Informatik Aufgaben und Betätigungsfelder im Informationsmanagement
Erarbeitung und Einführung von Organisationskonzepten
Customizing (Anpassung von Standardsoftware)
Datenorganisation, Datenkommunikation
Organisation der Informationsverarbeitung Entwurf, Entwicklung, Einführung und Betreuung von computergestützten Informationssystemen Daten- und Funktionsintegration zwischen den verschiedenen Bereichen des Unternehmens Sicherheit in der Informationsverarbeitung Datenschutz
Aufgaben und Betätigungsfelder in der Beratung
interne Beratung der Fachabteilungen des eigenen Unternehmens
Mitwirkung bei der Anwendungssoftwareerstellung und -einführung
externe Beratung in Unternehmen, die über keine eigenen IKS-Spezialisten oder Personal mit speziellem Problemlösungs-Know-how verfügen Mitwirkung bei der Entwicklung von Rahmenkonzepten Mitwirkung bei der organisatorischen und rechentechnischen Einführung von IKSLösungen
Aufgaben und Betätigungsfelder in der Lehre
Entwickler- und Anwenderschulungen in den Bereichen Hardware, Software, Datenbanken, Informationstechnik und Kommunikationstechnik
Durchführung von Schulungen für die Nutzung betrieblicher IKS Aus- und Weiterbildung für Hersteller, Anwender und Bildungseinrichtungen theoretische und angewandte Forschung zur Informations- und Kommunikationstechnologie an den Hochschulen, bei großen Anwendern, bei Herstellern, bei staatlichen und öffentlich-rechtlichen Forschungseinrichtungen
Aufgaben und Betätigungsfelder in der Revision von Informationssystemen
Mitwirkung bei der Sicherung von Vermögen und Ertrag eines Unternehmens
Erarbeiten von internen Anforderungen zum ordnungsmäßigen Einsatz von IKS
1.5
interne Revision eines Unternehmens externe Prüfung als Mitarbeiter von Wirtschaftsprüfungsgesellschaften Prüfung und Beratung zur funktionsfähigen, ordnungsgemäßen, sicheren und wirtschaftlichen Abwicklung computergestützter Aufgaben Beratung der Abteilungen für die korrekte Einhaltung der Anforderungen. Prüfen von Anwendersoftware einschließlich vor- und nachgelagerter Abläufe Revision von Rechenzentren Berichtslegung nach den entsprechenden Vorschriften
35
1
Gegenstand
Vertiefende Literatur BACK, A.; BENDEL, O.; STOLLER-SCHAI, D.: E-Learning im Unternehmen: Grundlagen - Strategien - Methoden – Technologien. Orell Füssli, Zürich 2001
DITTLER, U.: E-Learning, Erfolgsfaktoren und Einsatzkonzepte mit interaktiven Medien, Oldenbourg, München 2002
EHRENBERG, D.: Internetbasiertes Lernen und Lehren in der Informationsgesellschaft. In: EHRENBERG, D.; KAFTAN, H.-J. (Hrsg.): Herausforderungen der Wirtschaftsinformatik in der Informationsgesellschaft, Wissenschaftsverlag Edition am Gutenbergplatz Leipzig, Leipzig 2003, S. 107-122
FERSTL, O. K.; SINZ, E. J.: Grundlagen der Wirtschaftsinformatik. Oldenbourg, München 2001
HANSEN, W. R.; PESCHANEL, F. D.: Gabler-Lexikon innovative Informationsverarbeitung. Gabler, Wiesbaden 1995
HEINRICH, L. J.; ROITHMAYR, F.: Wirtschaftsinformatik-Wörterbuch. Oldenbourg, München, Wien 2002
MERTENS, P.; CHAMONI, P; EHRENBERG, D.; GRIESE, J.; HEINRICH, L. J.; KURBEL,
K. (Hrsg.): Studienführer Wirtschaftsinformatik – Fach, Studium, Universitäten, Perspektiven. Vieweg, Wiesbaden 2002
NIEGEMANN, H. et al.: Kompendium E-Learning, Springer, Berlin 2004 PARKIN, M.; KING, D.: Economics. Addison-Wesley, New-York 1996 SEUFERT, S.; EULER, D. (Hrsg.): E-Learning in Hochschulen und Bildungszentren. Oldenbourg, München 2004
STAHLKNECHT, P.; HASENKAMP, U.: Einführung in die Wirtschaftsinformatik. Springer, Berlin 2005
WÖHE, G.; DÖRING, U.: Einführung in die Allgemeine Betriebswirtschaftslehre. Franz Vahlen, München 2005
36
Aufgaben und Betätigungsfelder
Kapitel 2 Computerleistung
37
1.5
Geschichtliche Entwicklung
2
Computerleistung
2.1
Geschichtliche Entwicklung
2.1
Ein Computer ist eine programmgesteuerte Rechen- und informations- bzw. wissensverarbeitende Maschine. Charakteristisch sind:
Computer sind frei programmierbar, d. h. sie sind universell gestaltet und können unter Beibehaltung ihrer physischen Struktur (ihrer Hardware) beliebige Programme ausführen.
Das Aufgabenspektrum geht wesentlich über bloße Berechnungen hinaus. Man unterscheidet
Analogrechner und Digitalrechner Analogrechner benutzen zur Berechnung physikalische Größen, wie Länge, Umdrehung oder elektrische Spannung. Die physikalischen Größen können dabei beliebige Werte innerhalb eines bestimmten Bereiches annehmen. Digitalrechner benutzen einen fest definierten Zeichenvorrat (digits) zur Repräsentation der zu verarbeitenden Eingabedaten. Zur Darstellung, Speicherung und Verarbeitung dieser Zeichen werden zwei verschiedene Zustände verwendet, wie z. B. Spannungspotentiale, Magnetisierungen oder optische Eigenschaften. Damit werden die Repräsentationen auf so genannte zweiwertige bzw. Dualdarstellungen zurückgeführt.
Geschichte der Analogrechner Die Geschichte der Rechenmaschinen reicht über 2000 Jahre zurück. Ca. 60 v. Chr. wurden bereits Maschinen zur Berechnungen des Verlaufs von Sonne und Mond eingesetzt (Antikythera-Rechner). Die damaligen Rechner funktionierten mechanisch durch die Bewegung von Hebeln oder Rädern und gehörten zur Kategorie der Analogrechner. Andere mechanische Analogrechner wurden zur Wegemessung und Flächenberechnung (Planimeter) benutzt. Bereits in den 1870er Jahren war man in der Lage, komplizierte Berechnungen wie Fourieranalysen von Gezeitenkurven mittels mechani-
39
erste mechanische Rechenmaschine
2
Computerleistung
scher Einrichtungen durchzuführen (Harmonic Analyser von Lord Kelvin). Andere Anwendungsgebiete von noch mechanischen Analogrechnern waren zu Beginn und in der Mitte des 20. Jahrhunderts die Berechnung ballistischer Gleichungen im militärischen Bereich (Feuerleitrechner) sowie Geschwindigkeitsberechnungen (Eisenbahn). elektromechanische Analogrechner
Sukzessive wurden mechanische Komponenten durch elektromechanische, wie z. B. Potentiometer, Relais oder Servomotoren ersetzt. Ein erster „universeller“ Analogrechner zur Multiplikation zweier Funktionen und zur Fourieranalyse wurde um 1930 von Bush entwickelt. Der Einsatz von elektrischen Verstärkern in den 1930er Jahren machte es möglich, vollelektronische Analogrechner zu entwickeln, in denen Zahlenwerte durch elektrische Spannungen repräsentiert wurden.
Einsatz von Analogrechnern für Spezialprobleme
Inzwischen sind Analogrechner weitestgehend von den Digitalrechnern verdrängt worden. Sie werden gegenwärtig noch für einige spezielle Aufgaben eingesetzt, wie z. B. der Simulation elektrischer Netzwerke oder zur Berechnung von Differentialgleichungen. Die historische Entwicklung der Analogrechner ist in Tabelle 2-1 dargestellt.
Tabelle 2-1
historische Entwicklung von Analogrechnern* Zeit
Ereignis
60 v. Chr. Antikythera-Rechner zeigt nach Einstellen der Mondphase den Stand von Sonne und Mond zu den Sternbildern an 1. Jh.
Wegemesser (Heron von Alexandria), erster Analog-Digital-Umsetzer
1364
Astronomische Uhr (Giovanni de Dondi)
1614
Publikation der ersten Logarithmentafeln (John Napier), Verwendung logarithmisch unterteilter Rechenstäbe (Edmund Gunter)
1712
Uhrwerke zeigen heliozentrische Planetenbewegungen an (Earl of Orrey)
1814
Planimeter (J. H. Hermann)
1848
Reibradplanimeter (Wetli), bis Mitte des 20. Jh. in Gebrauch
1849
Serienfertigung von Planimetern
1856
Polarplanimeter (Jacob Amsler), noch immer in Gebrauch
1876
Gezeitenrechner Harmonic Analyser (Lord Kelvin), 1. Höhepunkt der Analogrechner
*
40
Vgl.: Breuer, H.: dtv-Atlas zur Informatik. Dt. Taschenbuch-Verlag, München 1995
Geschichtliche Entwicklung
1881
Umfahrungsplanimeter messen den Flächenzuwachs, d. h. integrieren eine Funktion Punkt für Punkt
1910
Rechner zur Lösung eines linearen Gleichungssystems (Josef Nowak)
1914
Erster Fahrdigraph (Udo Knorr), bis in die 70er Jahre in Gebrauch
ab 1920
Elektrische Komponenten in Analogrechnern
1923
Planetarium-Mechanismus (Zeiss)
1927
Feuerleitrechner (Vickers)
1928
Serienproduktion von Rechnern zur Flugabwehr (Zeiss, Siemens)
1930
Erster universeller Analogrechner (Vannevar Bush),
2.1
2. Höhepunkt der Analogrechner 1938
Erfindung des Operationsverstärkers (elektrischer Verstärker)
1941
Erster Prozessrechner (Konrad Zuse), digitale Führung analoger Vorgänge
1942
Differential Analyser (Vannevar Bush), sehr hohe Genauigkeit
ab 1950
vollelektrische Analogrechner dominieren
1951
Fabrikation der letzten großen, rein mechanischen Integrieranlagen (Schoppe & Faeser), 3. Höhepunkt der Analogrechner
um 1970
Digitalrechner verdrängen weitgehend die Analogrechner
Geschichte der Digitalrechner Die Vorläufer von Digitalrechnern waren mechanische Rechenmaschinen. Bereits um 1623 konstruierte Schickard eine Rechenmaschine, die einen Mechanismus zum Speichern und Addieren der bei Multiplikation und Division auftretenden Zwischenwerte besaß. Unabhängig von Schickard konstruierte Pascal um 1640 ein mechanisches Addierwerk, wobei die Multiplikation auf wiederholte Addition und die Division auf wiederholte Subtraktion zurückgeführt wurden. Diese Maschine wurde ab 1670 durch Leibniz verbessert und vervollkommnet, indem die Zahnräder durch so genannte Staffelwalzen ersetzt wurden. Damit wurden eine direkte Multiplikation und Division möglich. Weitere wesentliche Beiträge von Leibniz zur Informatik bestanden im Nachweis der Zerlegbarkeit von Rechenvorgängen in Elementarschritte (1666) und in der Einführung des Dualsystems (1679). Diese so genannten „Vierspezies-Maschinen“ (sie führten ausschließlich die vier Grundrechenarten aus) wurden durch Babbage und Scheutz weiterentwickelt. Babbage entwickelte ab 1821 eine Differenzenmaschine und ab
41
mechanische Digitalrechner
2
Computerleistung
1834 eine Analytische Maschine. Mit der Differenzenmaschine wurde die Berechnung von Funktionswerten, wie z. B. Quadrat- bzw. Kubikzahlen oder Logarithmen auf die Addition von Differenzen zurückgeführt. Diese Maschine wurde durch Scheutz vervollkommnet. Die von Babbage konzipierte, aber mit den mechanischen Mitteln des 19. Jahrhunderts nicht realisierbare analytische Maschine war eine Allzweckmaschine mit Dateneingabe, Ergebnisausgabe, Rechenwerk und Datenzwischenspeicher. Zur Dateneingabe und zur Steuerung des Rechenvorganges waren Lochkarten vorgesehen. Die erstmalige Speicherung von Zahlenwerten auf Lochkarten gelang Hollerith 1880. Das Lochmuster wurde durch elektrische Kontakte abgetastet. Zuse entwickelte 1932 einen mechanischen Speicher für Zahlen in Gleitkommadarstellung und baute 1939 mit dem Z1 den ersten frei programmierbaren Computer für Dualzahlen. Für Rechenwerk und Speicher wurden Relais genutzt. Über die Zwischenstation Z2 entstand 1941 der erste voll funktionsfähige frei programmierbare und programmgesteuerte Computer Z3 ebenfalls noch auf der Basis mechanischer Relais. Die Entwicklung von Digitalrechnern bis zum ersten Computer ist in Tabelle 2-2 zusammengefasst.
Tabelle 2-2
historische Entwicklung von Digitalrechnern bis zum ersten Computer Zeit
Ereignis
1623
mechanische Rechenmaschine (Wilhelm Schickard)
1640
mechanisches Addierwerk (Blaise Pascal)
1670
Verbesserung der Pascalschen Maschine (Gottfried Wilhelm Leibniz), mit so genannten Staffelwalzen wurden direkte Multiplikation und Division möglich
ab 1821 Entwicklung einer Differenzenmaschine und einer Analytischen Maschine (Charles Babbage, George Scheutz) 1880
Speicherung von Zahlenwerten auf Lochkarten (Hermann Hollerith), Voraussetzung für die mechanische Realisierung der Analytischen Maschine
1939
Z1 erster frei programmierbarer Computer für Dualzahlen (Konrad Zuse)
1941
Z3 Weiterentwicklung des Z1, mit 2.600 Relais der erste voll funktionsfähige Digitalcomputer
42
Hardware-Generationen
2.2
2.2 Hardware-Generationen Der technische Fortschritt führte dazu, dass bei den Digitalcomputern die Relais durch Röhren, Transistoren, magnetische Speicher und schließlich integrierte Schaltungen mit ständig zunehmender Packungsdichte abgelöst wurden. Aus den für die Rechnerlogik der digitalen Universalcomputer benutzten Bauelementen lassen sich die im Folgenden beschriebenen Hardware- bzw. Computer-Generationen ableiten.
Erste Computer-Generation Rechenwerk und Speicher werden durch elektromechanische Bauteile (Relais) realisiert. Diese Maschinen arbeiteten vergleichsweise langsam aber zuverlässig. Neben dem oben schon erwähnten Z3 von Konrad Zuse sind Harvard Mark I und Mark II (auch Automatic Sequence Controlled Calculator – ASCC, entwickelt von Howard Aiken) typische Vertreter dieser Computer-Generation. Diese Computer wurden für wissenschaftlich-technische Berechnungen benutzt, z. B. zur Flugzeugkonstruktion. Später wurden die Relais durch Elektronenröhren abgelöst. Der erste vollelektronische Röhrencomputer war der von John Mauchly und John Eckart entworfene und 1946 fertig gestellte ENIAC (Electronic Numerical Integrator And Calculator) mit 18.000 Röhren und einer Stellfläche von 220 m2. Mit dem EDVAC (Electronic Discrete Variable Automatic Calculator), einem Universalrechner, wurden erstmals sowohl Programm als auch Daten im Computer selbst (in Elektronenröhren) gespeichert.
elektromechanische Bauteile, Elektronenröhren
Zweite Computer-Generation Diese Computer-Generation ist gekennzeichnet durch die Ablösung der Elektronenröhren durch Transistoren. Als Hauptspeicher wurden Ferritkernspeicher eingesetzt. Neben dem Einsatz der schon in der ersten Generation benutzten Medien Lochkarte und Lochstreifen wurden periphere Geräte zur Speicherung von Programmen und Daten auf magnetischer Basis entwickelt (Magnetbänder, Magnetplatten). Mit der zweiten Computergeneration konnten kleinere Abmessungen und eine wesentlich geringere Wärmeentwicklung erreicht werden. Allerdings erhöhte sich die Rechengeschwindigkeit kaum.
43
Transistoren
Computerleistung
2
Dritte Computer-Generation
integrierte Schaltkreise
Die bisher getrennten Transistoren, Dioden, Widerstände und Kondensatoren wurden in integrierten Schaltkreisen (Small Scale Integration – SSI, Medium Scale Integration – MSI, Large Scale Integration – LSI) zusammengefasst. Damit wurden eine kompaktere Bauweise und kürzere Zykluszeiten möglich. Diese Bauelemente werden auch als „Chips“ bezeichnet. Die integrierten Schaltkreise wurden zunächst nur für die Verarbeitung der Daten genutzt (Logikchips). Als Medium für den Hauptspeicher dienten weiterhin Ferritkernspeicher. Die Lochkarten als Eingabemedium wurden fast vollständig von der Magnetbandtechnik abgelöst. In Anlehnung an die verwendeten Lochkartenstapel wird die sequentielle Verarbeitungsweise von Kommando- und Datenströmen als „Stapelverarbeitung“ bezeichnet.
Vierte Computer-Generation
hochintegrierte Schaltkreise, z. Zt. dominierende Generation
Die weitere Miniaturisierung der elektronischen Bauelemente und die Erhöhung der Packungsdichte führten zu hochintegrierten Schaltkreisen (Very Large Scale Integration – VLSI). Diese Integration betraf sowohl die logischen Komponenten des Rechenwerks als auch den Hauptspeicher auf Halbleiterbasis (Logik- und Speicherchips). Mit dieser Entwicklung war eine weitere Verringerung des Platzbedarfs und Erhöhung der Rechengeschwindigkeit verbunden.
PC
Besonders die Entwicklung der Personalcomputer (PC) und deren preiswerte Massenfertigung förderte die Verbreitung der Informationstechnologie.
von-NeumannArchitektur ist Grundlage der Generationen 1 bis 4
Die ersten vier Generationen beruhen auf dem Prinzip der „von-NeumannArchitektur“ (Kapitel 3), welche einen Ein-Prozessor-Computer zugrunde legt. Die Leistungssprünge resultieren aus der rasanten Entwicklung der zur Speicherung und zur Ausführung der Operationen benutzten Bauelemente.
Fünfte Computer-Generation
Wissensverarbeitung, Künstliche Intelligenz
Die grundsätzlich neuen Anforderungen an die rechentechnische Bewältigung des sich entwickelnden Wissenschaftsgebietes der Künstlichen Intelligenz, insbesondere die damit verbundene Wissensverarbeitung führte zu neuen Ansätzen im Architekturprinzip von Computern. Charakteristisch ist die Trennung in verschiedene Hardwarekomponenten, die über eigene Prozessoren verfügen und entsprechend der unterschiedlichen Anforderungen bezüglich Speicherfähigkeit, Zugriffszeit und Verarbeitungsgeschwindigkeit konzipiert und ausgeführt werden können. Unter der Voraussetzung einer weiteren Erhöhung der Integration der Chips (Ultra
44
Hardware-Generationen
2.2
Large Scale Integration – ULSI) werden Mehrprozessorsysteme angestrebt, die eine parallele Verarbeitung im Allgemeinen, insbesondere aber das parallele Schlussfolgern zulassen (Parallel Inference Maschine – PIM). Ein solches Konzept wurde erstmals 1981 im Rahmen des japanischen Projektes „Fifth Generation Computer Systems“ vorgestellt. Neu ist das Bestreben, die Informations- durch die Wissensverarbeitung zu ergänzen. Auf charakteristische Unterschiede zwischen diesen beiden Ansätzen wird im Abschnitt 2.3 eingegangen. Die Entwicklung von Computern der fünften Generation ist noch nicht abgeschlossen.
Parallelverarbeitung in Mehrprozessorsystemen
In höherem Maße als erwartet bereiten insbesondere die Realisierung natürlichsprachiger Schnittstellen, eine dem biologischen Vorbild nahe kommende Bildverarbeitung und die Parallelisierung von Schlussfolgerungsmechanismen Schwierigkeiten. Aus diesem Grund werden wissensbasierte Funktionen gegenwärtig auf hochleistungsfähigen Computern der vierten Generation realisiert, die zum Teil schon mit mehreren Prozessoren ausgestattet sind.
Sechste Computer-Generation Parallel zu den Bestrebungen zur Entwicklung von Computern der fünften Generation nach dem oben dargestellten Architekturprinzip bietet die erreichte Leistungsfähigkeit der Hardware (Kapitel 3) die Möglichkeit, die Parallelisierung weiter voranzutreiben und mit den entstehenden Mehrprozessorsystemen und der Zusammenschaltung einer Vielzahl von Rechnern (Rechnercluster) die biologischen Strukturen des menschlichen Gehirns in vergleichsweise sehr einfacher Form nachzubilden. Basis dieses Ansatzes sind so genannte Künstliche Neuronale Netze (KNN). Damit werden dem menschlichen Verhalten ähnliche Verarbeitungsprinzipien erreicht, wie z. B. Generalisierbarkeit, Fehlertoleranz sowie verteilte und unscharfe „Informationsverarbeitung“. Hinzu kommt die Möglichkeit, neuronale Netze für ihr Anwendungsgebiet zu trainieren, d. h. einem Lernprozess zu unterziehen.
Die ersten vier Computer-Generationen haben sich sukzessive abgelöst. Die vierte Computer-Generation stellt die zurzeit am weitesten verbreitete Architektur dar. Parallel dazu existieren die fünfte und sechste Generation, die bislang allerdings nur für spezielle Anwendungsfälle oder zu Forschungszwecken eingesetzt werden. Eine zeitliche Übersicht der Entwicklung liefert die Abbildung 2-1.
45
bioanaloge Nachbildung von Prozessen im Gehirn
2 Abbildung 2-1
Computerleistung
Entwicklung der Computer-Generationen
Ein Vergleich wesentlicher Charakteristika aller Computer-Generationen in der Gegenüberstellung zum Menschen wird in Tabelle 2-3 vorgenommen.
46
Hardware-Generationen
2.2 Tabelle 2-3
Computer-Generationen im Vergleich zum Menschen
47
2
Computerleistung
2.3 Software-Generationen Unter Software werden mit der bereits im Namen deutlich gemachten Abgrenzung zur Hardware diejenigen Teile eines Computers verstanden, die immaterieller Natur sind. Software beschreibt die Steuerung und Verarbeitung von Daten, Informationen und Wissen und veranlasst die technischen Komponenten des Computers (die Hardware) zu diesen Aktionen. Dazu umfasst Software verschiedene Klassen von Programmen (Kapitel 4). Die Charakterisierung von Softwaregenerationen ist eng verknüpft mit den jeweiligen Hardware-Generationen und der Entwicklung von Programmiersprachen. Mit den unterschiedlichen Hardware-Generationen sind sowohl unterschiedliche Anforderungen als auch differenzierte Gestaltungsrahmen für die Software gegeben.
Erste Software-Generation
hardwarespezifische Einzellösungen
Die Software der ersten Generation waren, meist von den Anwendern selbst geschriebene, Programme im so genannten Maschinencode (Maschinensprache). Diese Programme wurden insbesondere für die Lösung spezieller mathematischer Probleme eingesetzt. Die Software war hardwarespezifisch, d. h. die Programme konnten nur auf dem Rechner verwendet werden, für den sie entwickelt wurden.
Zweite Software-Generation
hardwarenahe Spezialsoftware
In der zweiten Softwaregeneration werden zur Erstellung der Programme Assembler verwendet. Sie sind die erste Form von Programmiersprachen. Durch sie wird die Softwareerstellung vereinfacht. Die mit diesen Assemblersprachen entwickelte Software ist stark funktionsorientiert, d. h. sie dient der Lösung eng umrissener Aufgaben. Auch in dieser Generation sind die Programme noch stark maschinenabhängig. Durch diese hardwarenahe Programmierung erreichen sie ein gutes Laufzeitverhalten (schnelle Abarbeitung), deshalb werden auch heute noch, insbesondere zeitkritische, Softwarekomponenten (z. B. Systemsoftware, NC-Steuerungen) auf Basis dieser Softwaregeneration erstellt.
48
Software-Generationen
2.3
Dritte Software-Generation Die dritte Softwaregeneration ist gekennzeichnet durch die Differenzierung nach Anwendungssoftware und Betriebssystemen (Kapitel 4). Mit dieser Trennung wurde es möglich, die Software maschinenunabhängig zu gestalten. Durch eine gleichzeitige Weiterentwicklung der Programmiersprachen waren größere Softwaresysteme möglich, die eine breitere Anwendung, insbesondere im mathematisch-technischen oder kaufmännischen Bereich, fanden. Die Software ist dialogorientiert und erlaubt damit eine Interaktion zwischen Computer und Benutzer. Die Bedienung der Software erfolgt meist durch Kommandoeingabe oder die Benutzung einfacher Menüs. Vor dem Hintergrund gewachsener Leistungsfähigkeit der Hardware war es möglich geworden, mit den entsprechenden Betriebssystemen auf einem Computer mehrere Programme gleichzeitig abzuarbeiten (Multitasking).
Unterscheidung in Betriebssysteme und hardwareunabhängige, dialogorientierte Anwendungssysteme
Vierte Software-Generation Die Software der vierten Generation zeichnet sich durch einen Paradigmenwechsel von der funktionsorientierten zur daten- bzw. datenstrukturorientierten Vorgehensweise aus. Nicht mehr die Lösung von Spezialaufgaben, sondern die Verarbeitung von Massendaten steht im Vordergrund. Mit der Software dieser Generation ist aus diesem Grund die Einbeziehung der Datenbank-Technologie verbunden (vgl. Kapitel 6). Gleichzeitig entstanden Branchenlösungen und Standardsoftware. Zur individuellen Informationsverarbeitung mit Standardsoftware gehören insbesondere Softwaresysteme zur Bürokommunikation, so genannte „OfficePakete“. Diese ermöglichen z. B. Textverarbeitung, Tabellenkalkulation und Datenverwaltung. Die verstärkte Nutzung von Rechnernetzen bei gleichzeitiger Weiterentwicklung der Standard- und Branchensoftware führte zu großen Standardlösungen im kommerziellen Bereich (z. B. ERP-System von SAP). Die Bedienung der Software wird durch den zunehmenden Einsatz von graphischen Benutzeroberflächen stark vereinfacht, da z. B. Funktionen durch einfaches Anklicken von Symbolen ausgelöst werden können. Diese benutzerfreundliche Gestaltung der Software und die Vielfalt der Einsatzmöglichkeiten führen zu einer starken Verbreitung der Informationstechnologie in der Gesellschaft. Eine zunehmende Objektorientierung beim Entwurf der Software ermöglicht eine Wiederverwendung von Programmbausteinen und eine vereinfachte Wartung der Programme.
49
MassendatenVerarbeitung, Standardsoftware
2
Computerleistung
Fünfte Software-Generation
Wissensverarbeitung
Tabelle 2-4
Die ersten vier Software Generationen beschreiben in ihren Programmen, wie Aufgaben zu bearbeiten und Probleme zu lösen sind. Mit der fünften Software-Generation erfolgt ein Übergang von der Daten- und Informationsverarbeitung zur Wissensverarbeitung. Dieser Schritt in Richtung Künstlicher Intelligenz ermöglicht das Lösen von Problemen durch reine Beschreibung von Wissen. Es wird nicht mehr das „Wie“ (wie ist eine Aufgabe zu bearbeiten) in eine Software integriert, sondern das „Was“ (was für eine Aufgabe ist mit welchem Wissen zu bearbeiten). Ausgewählte Unterscheidungskriterien zwischen Informations- und Wissensverarbeitung sind in Tabelle 2-4 dargestellt. Einsatzgebiete der Wissensverarbeitung sind vor allem Expertensysteme zur Entscheidungsunterstützung (Kapitel 10).
ausgewählte Unterscheidungskriterien zwischen Informations- und Wissensverarbeitung Informationsverarbeitung
Wissensverarbeitung
inhaltliche Kriterien
zu automatisierende Verarbeitungsabläu- zu automatisierende Verarbeitungsabläufe sind bekannt fe sind kognitive Prozesse und nicht direkt beobachtbar Wissen über den Anwendungsbereich wird über die Programmentwicklung implizit in einzelne Programme eingebracht
Wissensträger transferiert sein Wissen über den Anwendungsbereich in eine Wissensbasis (ggf. unter Einbeziehung eines Wissensingenieurs)
Verarbeitungsprozess kann nur mit Kenntnis der zugrunde gelegten Algorithmen oder Programme erklärt werden
das wissensbasierte System selbst kann einen ausgeführten Verarbeitungsprozess erklären
Komplexität entsteht durch Umfang der Datenmenge
Komplexität entsteht durch Reichhaltigkeit der Wissensstrukturen
formale Kriterien
Verarbeitung von Zahlen
Symbolverarbeitung
typische Programmiersprachen: COBOL, typische Programmiersprachen: LISP, PASCAL, C PROLOG strukturiertes Programmieren
exploratives Programmieren
Verarbeitungsablauf ist explizit festgelegt
Verarbeitungsablauf ist implizit oder gar nicht vorgegeben
effiziente Verarbeitung mit konventionellen Rechnerarchitekturen möglich
effiziente Verarbeitung mit konventionellen Rechnerarchitekturen nicht möglich
50
Software-Generationen
2.3
Sechste Software-Generation Mit der gestiegenen Leistungsfähigkeit der Hardware wurden erste Ansätze möglich, Verarbeitungsvorgänge nach biologischem Vorbild zu modellieren. Dabei handelt es sich um die bereits erwähnten Künstlichen Neuronalen Netze. Die Software der sechsten Generation bildet den Rahmen für den Einsatz Künstlicher Neuronaler Netze und stellt grundlegende Funktionen für diese bereit. Sie beschreibt weder den Lösungsweg einer Aufgabe, noch das zu verwendende Wissen. Die gesamte Abarbeitung erfolgt innerhalb des Künstlichen Neuronalen Netzes, ohne dass direkt erkennbar ist, wie die Lösung zustande kommt. Anwendungsgebiete sind unter anderem die Sprach- und Mustererkennung.
Künstliche Neuronale Netze
Eine zeitliche Einordnung der Software-Generationen erfolgt in Abbildung 2-2.
Abbildung 2-2
Entwicklung der Software-Generationen
51
2
Computerleistung
2.4 Modell-Generationen
vereinfachtes Abbild der Realität
Abbildung 2-3
Sollen Computer (Hard- und Software) zur Lösung von Problemen herangezogen werden, so erfordert das auch immer die Modellierung des jeweiligen Problems. Ein Modell ist ein vereinfachtes Abbild der Realität, welches die wesentlichen Bestandteile und Strukturelemente wiedergibt und von den für die Problemlösung weniger wichtigen Details abstrahiert. Mit Hilfe des Modells gelingt es, das in der Regel schwer überschaubare Problem transparent zu gestalten.
Entscheidungsdreieck*
Die Probleme und damit die sie beschreibenden Modelle unterscheiden sich sowohl nach ihrer Strukturiertheit Strukturiertheit
gut strukturiert, semi-strukturiert, nicht strukturiert
*
52
Mit „optimaler Lösung“ ist eine zum abstrakten Modell optimale Lösung gemeint!
Modell-Generationen
2.4
als auch nach ihrem Zeithorizont
operativ (kurzfristig),
Zeithorizont
taktisch (mittelfristig), strategisch (langfristig). Infolge der gewachsenen Computerleistungen, die sich in den Software- und Hardware-Generationen widerspiegeln, ist es möglich geworden, immer anspruchsvollere Probleme mit immer komplexeren Modellen abzubilden und zu lösen. Während die ersten Computergenerationen ausschließlich zur Lösung gut strukturierter Probleme herangezogen wurden, eröffnete die Leistungsfähigkeit der Computer ab der dritten Generation bereits die Möglichkeit, sowohl größere Modelldimensionen als auch teilweise variable Modellkomponenten zu berücksichtigen (siehe Kapitel 10 Entscheidungsunterstützung).
zunehmende Lösung komplexer Probleme
Mit der Nutzung der Dialogfähigkeit von Computern wurde durch die Einbeziehung des Nutzers in Berechnungs- und Verarbeitungsabläufe die Lösung semi-strukturierter Modelle möglich. Beim Übergang von der Informations- zur Wissensverarbeitung kann Expertenwissen zum Anwendungsbereich (deklarativ) und zur Problemlösung (prozedural) sowohl in die Modellierung als auch in die Problemlösung und die Bewertung der Lösungen einfließen.
Nutzung von Expertenwissen
Die wissensbasierte Modellierung ist im Kontext der künstlichen Intelligenz gegenwärtig Gegenstand intensiver Forschungen, wobei das Bestreben dahin geht, Modelle zu entwickeln, die sich sowohl verändernden Problemstellungen als auch wechselnden Benutzerbedürfnissen flexibel (und automatisch) anpassen (Adaptivität). Ebenso wie für die Hard- und Software lässt sich für die Modellierungsansätze eine Einteilung in verschiedene Entwicklungsetappen bzw. Generationen finden. Dabei ist interessanterweise feststellbar, dass jede neue und leistungsfähigere Computergeneration auch eine neue und leistungsfähigere Modellgeneration zur Folge hatte. Die zu den Computergenerationen korrespondierenden Modellgenerationen sind in Tabelle 2-5 in knapper Form zusammengefasst.
53
ModellGenerationen
2 Tabelle 2-5
Computerleistung
Modellgenerationen Zeit
ModellGeneration
Charakteristische Merkmale der verwendeten Modelle
seit 1945
1
kleine, gut strukturierte Modelle bei konstanten Modellbestandteilen
seit 1955
2
mittlere, gut strukturierte Modelle bei konstanten Modellbestandteilen
seit 1965
3
große, gut strukturierte Modelle bei teilweise variablen Modellbestandteilen
seit 1975
4
große, gut und semi-strukturierte Modelle bei variablen Modellbestandteilen
seit 1985
5
große Modelle mit variablen Modellbestandteilen unter Einbeziehung deklarativen und prozeduralen Expertenwissens
seit 1995
6
hybride und adaptive Modelle, die ggf. automatisch generiert und bearbeitet werden können
2.5 Mensch und Computer Durch den engen Zusammenhang von Hardware, Software, Modellen, Datenbanken und der Anwendung dieser Instrumentarien durch den Menschen haben sich die Informations- und Kommunikationssysteme über verschiedene Stufen entwickelt. Dieser Fortschritt ist in der Tabelle 2-6 dargestellt. Computerfähigkeiten
Die Leistungsfähigkeit bisheriger Computer resultiert daraus, dass folgende Fähigkeiten gut bzw. sehr gut beherrscht werden:
algorithmischer Operationen (z. B. Rechnen) ausführen Daten und Informationen sammeln, aggregieren, selektieren, auswerten und wiedergeben
logische Schlussfolgerungen ziehen Symbole erkennen
54
Mensch und Computer
Tabelle 2-6
Generationen der Informations- und Kommunikationssysteme Zeitraum
IKS-Generationen
Charakteristik
1960er Jahre
Stapelverarbeitung
í ein Nutzer an einem großen Computer (Mainframe)
2.5
í freiprogrammiertes Rechnen 1970er Jahre
Time Sharing
í viele Nutzer teilen sich einen Computer (Minicomputer) í Dialogverarbeitung í Massendatenverarbeitung
1980er Jahre
vernetzte PersonalComputer
í ein Computer für jeden Nutzer (Mikrocomputer) í Kommunikation
1990er Jahre
verteiltes NetzwerkComputing
í viele Computer für jeden Nutzer (ClientServer-Systeme) integrierte Verarbeitung
2000er Jahre
Intelligente IKS
í Nutzer kümmern sich nicht um realen Computer Erwerb und Verarbeitung von Wissen (Lernfähigkeit), künstliche Intelligenz
eingeschränkte Computerfähigkeiten
Nur bedingt werden gegenwärtig folgende Fähigkeiten beherrscht:
lernen Umweltfaktoren (Umgebungsbedingungen) wahrnehmen fehlertolerant arbeiten verallgemeinern und beispielsweise Konzepte oder Kategorien bilden Computer können noch nicht:
die eigene Kompetenz „einschätzen“ oder abgrenzen (und damit auch nicht sich selbst erkennen)
Allgemeinwissen benutzen auf Intuitionen zurückgreifen Gefühle äußern Die sich daraus ergebende Differenzierung zum menschlichen Verhalten, insbesondere in Problemlösungssituationen, ist in Abbildung 2-4 dargestellt.
55
keine Computerfähigkeiten
2 Abbildung 2-4
Effektive Intelligenz
Computerleistung
Unterschiede zwischen den Denkstrukturen von Mensch und Maschine
Obwohl die Computer über immer mehr Fähigkeiten verfügen, werden die Unterschiede zwischen den Denkstrukturen von Mensch und Maschine in absehbarer Zeit nicht beseitigt werden können. Es kommt deshalb darauf an, die Fähigkeiten des Menschen mit den besonderen Fähigkeiten des Computers in geeigneter Weise zu verknüpfen. Somit ist aus der Symbiose von natürlicher und künstlicher Intelligenz die so genannte „Effektive“ Intelligenz erreichbar (Abbildung 26). Daraus ist erkennbar, dass mit der künstlichen Intelligenz nicht das Ziel verfolgt wird, die natürliche Intelligenz zu ersetzen, sondern vielmehr diese in komplementärer Form zu ergänzen. Auf diesem Wege ist eine größere Leistungsfähigkeit der kombinierten bzw. Effektiven Intelligenz erreichbar.
56
Computer-Ethik
2.6 Abbildung 2-5
Weg zur effektiven Intelligenz
2.6 Computer-Ethik Die Computer-Ethik beschäftigt sich mit den gesellschaftlichen Auswirkungen der Entwicklung und Anwendung von Informations- und Kommunikationstechnologien. Im Vordergrund stehen moralisch-humanistische Problemstellungen. Die Computer-Ethik ist ein Bindeglied zwischen Philosophie und Informatik. Besondere Bedeutung hat sie bei der Bewertung des Einsatzes von Informationstechnologien zur Überwachung und Steuerung von
57
gesellschaftliche Auswirkungen von IT-Systemen
2
Computerleistung
gewaltigen Systemen, beispielsweise in den Bereichen Wirtschaft, Gentechnologie, Kernkraft, Ökologie und Waffentechnik. große Bedeutung der Informationstechnologie
Die Computer-Ethik stellt aufgrund der großen Bedeutung der Informationstechnologien für die Gesellschaft eine eigenständige philosophische Disziplin dar. Ein Hauptproblem dieser Wissenschaft besteht darin, zu vermeiden, dass sie von der rasanten Entwicklung der Informationstechnologien überholt wird. Der Übergang zur Informations- und Wissensgesellschaft ist vergleichbar mit der Bedeutung der industriellen Revolution. Nach Meinung von J. Moor existieren zwei Phasen: 1. Einzelanwendungen mit Technologiesprüngen und 2. flächendeckende Durchdringung mit dramatischen Veränderungen der Gesellschaftsstruktur Computer sind zu dem am besten verfügbaren universellen Werkzeug geworden. Die Grenzen ihres Einsatzes werden nur durch die Kreativität des Menschen bestimmt. Die Computer-Ethik ist für die Menschheit bedeutungsvoll, da sich durch die regionale und globale Vernetzung von Computersystemen die Welt in Bezug auf die Wirkungen der Informationstechnologien entgrenzt. Die Computer-Ethik ist eine bedeutende Herausforderung für die interdisziplinäre Forschung.
Moralisch relevante Themen der Computer-Ethik Computerkriminalität Mit der Entwicklung von Computersystemen sind auch Möglichkeiten entstanden, diese für kriminelle Vorhaben einzusetzen. Dazu gehört der Betrug im Finanzdienstleistungssektor ebenso wie das Ausspionieren, Löschen oder Verfälschen von Informationen (Hacking) und das Verbreiten von Computerviren und Trojanern. Die Zielgruppen von Computerverbrechen sind in der Regel Unternehmen und Institutionen. Im Unterschied zur konventionellen Kriminalität, muss der Täter nicht physisch einbrechen, sondern kann mit seinen intellektuellen Fähigkeiten und der Hilfe des Computers virtuell und von jedem Ort der Welt aus agieren. Betroffene Unternehmen und Institutionen verschweigen die Verbrechen oft, um keine Sicherheitsmängel zugeben zu müssen.
Hacking, Viren, Spionage
Schutz von Eigentumsrechten Durch die Digitalisierung von Informationen hat die Möglichkeit der Verletzung von Eigentumsrechten eine neue Qualität erreicht. Durch das Erstellen identischer und damit verlustfreier Kopien in Sekundenbruchteilen und deren Verbreitung über weltweite Datennetze wird der Missbrauch geistigen Eigentums stark vereinfacht. Das elektronische Kopie-
58
Computer-Ethik
2.6
ren von Software, Musik, Literatur und Videos verursacht weltweit Schäden in Milliardenhöhe. Durch die Einfachheit und Anonymität werden diese Aktivitäten oft nicht mehr als Verbrechen wahrgenommen. Neben großen technischen Problemen beim Schutz geistigen Eigentums vor illegaler Nutzung ist das Patent- und Urheberrecht international nicht eindeutig geregelt und nimmt oft keinen Bezug zu den Besonderheiten digitaler Informationen.
fehlerhafte Hard- und Software Durch fehlerhafte Hard- oder Software können unbeabsichtigte Schäden entstehen, die je nach Anwendungsgebiet des Computersystems hohe wirtschaftliche, gesellschaftliche oder gesundheitliche Auswirkungen haben können. Beispiele sind Flugsicherungs- und Verkehrsleitsysteme, militärische Waffensysteme sowie Steuerungssysteme in der Medizin und in Kernkraftwerken. Man spricht hier von einem „Titanic-Effekt“. Die Folgen des Fehlers sind proportional zum Glauben der Entwickler an die Unfehlbarkeit des Systems. Vor allem die schnelle Fortpflanzung von Fehlern kann zu einer ganzen Schadenskette führen. Der Mensch sollte deshalb bei wichtigen Steuerungssystemen nie dem Computer allein die Kontrolle überlassen, sondern immer im Mensch-Computer-Dialog das Controlling organisieren.
unbeabsichtigte Schäden, Fehlerfortpflanzung
Schutz von Persönlichkeitsrechten Dem Schutz von Persönlichkeitsrechten wie der informationellen Selbstbestimmung über personenbezogene Daten (z. B. Adresse, Einkommen, Gesundheitszustand), der persönlichen Ehre, dem Recht am eigenen Bild und Wort kommt aufgrund der zunehmenden automatischen Informationsverarbeitung, der Vernetzung von Computersystemen und der sehr einfachen weltweiten Veröffentlichung von Informationen ein besonderer Stellenwert zu. Unter anderem durch Datenschutzgesetze werden hier von Seiten des Staates Regelungen erlassen. Deren Überwachung stellt sich jedoch in der Praxis als sehr schwierig heraus.
erhöhte Verletzbarkeit des Datenschutzes
Computerisierung der Arbeit Die Art und Weise der Arbeit hat sich durch den allumfassenden Einsatz des Computers stark verändert. Die menschliche Arbeit konzentriert sich zunehmend auf kreative Tätigkeiten. Die zunehmende Bedeutung von Informations- und Kommunikationssystemen im Arbeitsalltag erfordert eine stärkere Qualifizierung der Mitarbeiter. Sowohl die Geschäftsprozesse als auch die Produktionsprozesse werden durch die Vernetzung der Systeme schneller, präziser und damit effizienter organisiert und gestaltet. Dem Menschen sind die natürlichen Erholungsphasen infolge technologisch bedingter Pausen abhanden gekommen. Die Produktivitätssteigerungen, die durch den Computereinsatz erzielt werden, können den Stressfaktor für den Menschen erhöhen. Stressbedingte Krankheiten 59
Automatisierung von Routinetätigkeiten hohe Qualifizierung notwendig
2
Computerleistung
sind oft die Folge. Gezielte Gegenmaßnahmen, die ein angenehmes Betriebsklima schaffen, sind äußerst wichtig. Überwachung am Arbeitsplatz
Durch die vernetzten Computersysteme hat der Arbeitgeber die Möglichkeit, seine Angestellten und deren Leistungen bis ins Detail zu überwachen. Hier muss Vorsorge getroffen werden, dass der Angestellte nicht total dem Arbeitgeber ausgeliefert ist und über eine notwendige Privatsphäre auch während der Arbeitszeit verfügt.
Unterstützung Behinderter
Über gesundheitliche Risiken an Computerarbeitsplätzen, z. B. Augenleiden bei minderwertigen Bildschirmen, sind die Arbeitnehmer in der Regel gut aufgeklärt. Moderne Informationstechnik ermöglicht aber auch die Integration behinderter Menschen in den Arbeitsalltag und verbessert die Kommunikation mit Nichtbehinderten. Dadurch wird es für Behinderte einfacher, die Position in einer Randgruppe der Gesellschaft zu verlassen. Weiterführende Informationen zu IT-Sicherheit und Computerkriminalität befinden sich in Kapitel 9.
Verantwortung
Verantwortung bei Entwicklern und Nutzern
Die Verantwortung für den Einsatz von Computersystemen ist sowohl von den Entwicklern als auch von den Nutzern zu tragen. Das moralische Problem der Verantwortung liegt in der Komplexität der Systeme und der Schwierigkeit, den Einsatz neu entwickelter Technologien und deren gesellschaftliche Auswirkungen vorauszuahnen. Der Versuch, die Verantwortung auf den Computer zu übertragen, ist aus heutiger Sicht abzulehnen, da es ihm bislang nicht möglich ist, Situationen oder Handlungsweisen moralisch zu bewerten. Man sollte also immer eine Möglichkeit bereithalten, die Kontrolle dem Computer zu entziehen.
Vertiefende Literatur JOHNSON, D. G.; NISSENBAUM, H.: Computers, Ethics and Social Values. Prentice Hall, Upper Saddle River 1995
JOHNSON, D. G.: Computer Ethics. Prentice Hall, Upper Saddle River 2000 STAHLKNECHT, P.; HASENKAMP, U.: Einführung in die Wirtschaftsinformatik. Springer, Berlin 2005
Top 500 Supercomputer Sites. Universität Mannheim, University Tennessee. Website: http://www.top500.org
60
Computer-Ethik
Kapitel 3 Hardware
61
2.6
Grundlagen
3
Hardware
3.1
Grundlagen
3.1
Unter dem Begriff Hardware werden alle physisch existierenden Bestandteile eines Computersystems zusammengefasst. Dazu zählt man in Abhängigkeit von der zugrunde liegenden Hardware-Architektur insbesondere den Zentralprozessor, verschiedene Arten von Speicher sowie die Bussysteme, die die Verbindung zwischen den Einzelkomponenten herstellen. Auch periphere Geräte zur Ein- und Ausgabe von Daten werden als Hardware bezeichnet.
Hardware
Am weitesten verbreitet ist die von-Neumann-Architektur. Sie wurde bereits 1946 durch von Neumann entwickelt und ist durch die folgenden Merkmale gekennzeichnet:
von-NeumannArchitektur
1. Ein Rechner setzt sich aus den vier wesentlichen Bestandteilen Arbeitsspeicher, Steuerwerk, Rechenwerk sowie Ein- und Ausgabewerk zusammen. 2. Der Rechneraufbau ist nicht auf eine spezifische Problemstellung zugeschnitten, da er durch Programme universell gesteuert werden kann. 3. Daten und Programme werden gemeinsam im Arbeitsspeicher gehalten. 4. Der Arbeitsspeicher ist in Zellen gleicher Größe unterteilt, die fortlaufend nummeriert sind. Diese Nummer bezeichnet man als Speicheradresse. 5. Programme bestehen aus einer Reihe von Befehlen, die nacheinander (sequentiell) abgearbeitet werden. 6. Die sequentielle Verarbeitung kann durch Sprungbefehle so beeinflusst werden, dass die weitere Verarbeitung mit Befehlen an einer anderen Stelle im Arbeitsspeicher fortgeführt wird. 7. Alle Informationen werden binär abgebildet, das heißt durch eine Folge aus 0 oder 1. Dabei bestimmt die im jeweiligen Bauelement vorhandene Spannung den Zustand. Eine Spannung von 0 Volt bedeutet 0, die 1 wird durch die jeweilige Arbeitsspannung des Bauelements dargestellt. Alle aus dem Dezimalsystem bekannten Operationen können ebenso für ein binäres Zahlensystem genutzt werden. Durch das binäre System spielen Vielfache von Zwei eine wesentliche Rolle.
63
3
Hardware
Die Abbildung 3-1 verdeutlicht den schematischen Aufbau der von-Neumann-Architektur.
Abbildung 3-1
von-Neumann-Architektur
Im Zuge der technologischen Weiterentwicklung haben sich verschiedene Erweiterungen dieser Architektur durchgesetzt. Die wesentlichsten werden im Folgenden beschrieben. Parallelverarbeitung
Die Vervielfältigung einzelner Komponenten führt zur Erhöhung der Verarbeitungsgeschwindigkeit durch eine Parallelisierung der Abarbeitung. Dabei werden vier verschiedene Arten der Parallelverarbeitung unterschieden:
SISD (Single Instruction Single Data) Ein Befehl bezieht sich auf ein Datum.
64
Grundlagen
3.1
SIMD (Single Instruction Multiple Data) Ein Befehl bezieht sich auf mehrere Daten.
MISD (Multiple Instruction Single Data) Mehrere Befehle beziehen sich auf ein Datum.
MIMD (Multiple Instruction Multiple Data) Mehrere Befehle beziehen sich auf mehrere Daten. Die Einführung einer mehrstufigen Speicherhierarchie beschleunigt den Zugriff auf langsamere Datenspeicher. Dabei fungiert eine Speicherart als Puffer zwischen langsamerem und schnellerem Speicher. In Abhängigkeit von Merkmalen wie Kosten, Zugriffsgeschwindigkeit, Übertragungsrate und Größe des Speicherplatzes können unterschiedliche Speichermedien eingesetzt werden. Derzeit findet man oft eine Unterteilung in Speicherregister, ersten und zweiten Prozessorcache, Hauptspeicher und externen Speicher. Die einzelnen Komponenten werden im Abschnitt Speicher beschrieben.
Speicherhierarchie
In den folgenden Abschnitten werden die einzelnen Bestandteile eines Computers in Anlehnung an die von-Neumann-Architektur erläutert.
Hauptplatine (Mainboard) Das Mainboard ist die zentrale Komponente eines Computers, welche CPU, BIOS (Basic Input/Output System), Speicher (Cache und Arbeitsspeicher), serielle, parallele und Massenspeicheranschlüsse, Erweiterungssteckplätze sowie Controller zur Ansteuerung von Tastatur und Diskettenlaufwerk aufnimmt. Über die verschiedenen Bussysteme können alle weiteren Komponenten direkt oder indirekt angeschlossen werden. Mit wachsender Geschwindigkeit des Bussystems steigt die Anfälligkeit gegenüber elektromagnetischen Interferenzen, so dass sich die Notwendigkeit ergibt, diese Bussysteme nahe an der CPU zu installieren, um so die Wegstrecken zu minimieren.
Träger der einzelnen Komponenten und Basis für deren Verbindung
Neben den genannten Komponenten können auch Grafik-, Sound- und Netzwerkchips sowie spezielle Massenspeichercontroller (z. B. SCSI, S-ATA, evtl. kombiniert mit RAID) direkt auf dem Mainboard platziert werden. Dabei ist zu überlegen, ob ein nachträglicher Austausch dieser Komponenten notwendig wird. In diesem Falle empfiehlt sich der Einsatz separater Steckkarten. Die Gesamtheit der Schaltkreise zur Input/Output-Steuerung, zum Cacheund Speicherzugriff sowie zur CPU- und Busansteuerung bezeichnet man als Chipsatz. Meist werden diese Chipsätze für bestimmte Prozessoren optimiert angeboten und eignen sich daher für bestimmte Anwendungsszena-
65
Chipsatz und Formfaktor
3
Hardware
rien, etwa im mobilen Einsatz oder für hohen Datendurchsatz. Vorgaben für das Layout von Mainboards sowie das Design bestimmter Rechnerkomponenten (Netzteil, Gehäuse, Lüfter, Kabel etc.) werden als Formfaktor bezeichnet. Momentan dominiert ATX (Advanced Technology Extended) mit seinen zahlreichen Subvarianten (Micro-ATX, Flex-ATX, Mini-ATX, E-ATX). Für kompakte, sehr geräuscharme Rechner hat sich das ITX-Format (ITX, MiniITX, Nano-ITX) durchgesetzt. Produkte mit der Nachfolgerspezifikation von ATX, dem BTX-Formfaktor (Balanced Technology Extended), sind noch nicht weit verbreitet. Die aufgezählten Komponenten einer Hauptplatine werden in den folgenden Abschnitten ausführlich erläutert.
3.2 Zentralprozessor Verarbeitung von Daten
Der Zentralprozessor (Central Processing Unit – CPU) ist das Herz eines Computers. Er hat die Aufgabe, binär gespeicherte Daten zu verarbeiten. Dazu besitzt eine CPU mindestens ein Rechenwerk, ein Steuerwerk, einige Speicherzellen sowie verschiedene Datenübertragungswege.
Kommunikation mit anderen Komponenten über den Bus
Die Datenübertragungswege ermöglichen der CPU die interne Kommunikation zwischen ihren einzelnen Komponenten sowie mit den externen Geräten. Diese Kommunikationswege werden als Bus bezeichnet. Die Breite dieser Busse war zu Beginn der Entwicklung auf 8 Bit beschränkt. Dies bedeutet, dass zur gleichen Zeit nur 8 Bit parallel übertragen werden konnten. Um den Durchsatz und somit auch die Geschwindigkeit zu erhöhen, wurde die Busbreite kontinuierlich auf 16, 32 bzw. 64 Bit erweitert.
Rechenwerk
Vergleiche und Berechnungen
Das Rechenwerk besteht aus einer oder mehreren universellen oder spezialisierten Einheiten, die logische Vergleichsoperationen und mathematische Manipulationen an Daten ausführen. Diese Einheiten werden auch als Arithmetic/Logic Unit (ALU) bezeichnet.
66
Zentralprozessor
3.2
Steuerwerk Das Steuerwerk koordiniert die Ausführung von Befehlen, indem es die Befehlsfolge des abzuarbeitenden Programms interpretiert und den nächsten abzuarbeitenden Befehl festlegt. Zu diesem Zweck hat das Steuerwerk separate Speicherzellen (Register), in denen sich die Adressen des aktuellen Befehls, des nächsten Befehls sowie Informationen zum Status der Ausführung des aktuellen Befehls befinden.
Steuerung der Ausführung von Befehlen
Moderne Prozessoren besitzen zunehmend integrierte Verfahren, die anhand statistischer Methoden eine Vorhersage treffen, wann in dem abzuarbeitenden Programm ein Sprungbefehl auftritt und somit die sequentielle Abarbeitung unterbrochen wird. Diese Einheit wird auch als Branch Prediction Unit bezeichnet und hat den Vorteil, dass die Befehle gezielter und schneller geladen werden können. Somit wird eine um ca. 25% schnellere Programmausführung erreicht. Der zur Verarbeitung der Befehle notwendige Zyklus kann in die folgenden sechs Schritte unterteilt werden:
Verarbeitungszyklus
1. Der Befehl wird in das Steuerwerk geladen. 2. Der Befehl wird entschlüsselt und die Adressen der benötigten Operanden werden ermittelt. 3. Die Operanden werden in die Register des Rechenwerkes geladen. 4. Der Befehl wird durch das Rechenwerk ausgeführt. 5. Die Ergebnisse werden in den Arbeitsspeicher zurück geschrieben. 6. Der nächste auszuführende Befehl wird durch das Steuerwerk bestimmt. 7. Durch die genannten Erweiterungen der von-Neumann-Architektur können diese Schritte teilweise auch parallel abgearbeitet werden. Zusätzlich zu den aufgeführten Komponenten enthält jede CPU ein Unterbrechungswerk (Interrupt Control Unit) sowie ein Steuerwerk für die Einund Ausgabe. Diese Komponenten müssen nicht zwangsläufig in die CPU integriert sein, sondern können auch als externe Komponenten die CPU unterstützen. Das Unterbrechungswerk kann die Abarbeitung des aktuellen Programms bei Eintreffen eines bestimmten Signals (Interrupt) anhalten, um eine spezifische Unterbrechungsroutine abzuarbeiten. Danach führt der Prozessor die normale Programmausführung fort. Die Unterbrechungssignale dürfen nur von bestimmten Geräten gesendet werden, die dafür eine spezielle Signalleitung verwenden. Diese wird als IRQ (Interrupt Request – Unterbrechungsanforderung) bezeichnet. Ein Beispiel für eine solche Unterbrechung ist der Disketten-Controller. Wenn dieser Daten von einer Diskette
67
Unterbrechung der Verarbeitung durch äußere Ereignisse
3
Hardware
liest, sendet er ein Interrupt an die CPU, da diese die Übertragung der Daten in den Arbeitsspeicher steuert. Nach der Übertragung der Daten führt die CPU die Verarbeitung des eigentlichen Programms fort. Diese Art der Unterbrechung der CPU beeinträchtigt die Geschwindigkeit der Programmausführung und wird deshalb durch andere Techniken ergänzt. So wird diesen Geräten ein direkter Speicherzugriff (Direct Memory Access – DMA) erlaubt, so dass sie ihre Daten direkt, ohne Hilfe der CPU, in den Hauptspeicher schreiben können. Steuerung peripherer Geräte
Das Steuerwerk für die Ein- und Ausgabe dient der Kommunikation mit allen peripheren Geräten, wie z. B. der Tastatur, der Festplatte oder der Maus.
Prozessortypen Prozessoren lassen sich ausgehend von ihrer Architektur in zwei verschiedene Gruppen unterteilen. Zum einen gibt es CPUs mit einem komplexen Befehlsvorrat, die CISC-Prozessoren (Complex Instruction Set Computer) und zum anderen CPUs mit einem eingeschränkten Befehlssatz, die RISCProzessoren (Reduced Instruction Set Computer). CISC: komplexe Befehle
Die Unterscheidung in CISC und RISC basiert auf der Komplexität der im Prozessor vorhandenen Befehle. So sind in einem CISC-Prozessor sehr komplexe Befehle implementiert, die für ihre Abarbeitung zum Teil mehrere Takte benötigen. Die Implementierung dieser Befehle wird neben der direkten Verdrahtung auch über Programmroutinen vorgenommen, was zu einer Erhöhung der Ausführungszeit führt, jedoch auch eine höhere Flexibilität mit sich bringt. Die wohl bekanntesten Vertreter der CISC-Architektur sind die Prozessoren der 80x86-Reihe von Intel sowie die 68K-Reihe von Motorola.
RISC: einfache Befehle
Im Gegensatz dazu sind in RISC-Prozessoren nur die absolut notwendigen Befehle implementiert. Diese werden in einem Takt abgearbeitet und erreichen somit eine hohe Verarbeitungsgeschwindigkeit. Ein Vertreter dieser Architektur ist die Linie der PowerPC-Prozessoren, die von Apple, IBM und Motorola gefertigt und vertrieben werden.
Kombination von RISC und CISC
Die meisten gegenwärtig verfügbaren Prozessoren sind Mischformen aus RISC und CISC. So werden in CISC-Prozessoren zunehmend komplexe Befehle in einfachere Befehle zerlegt, die wiederum den RISC-Prinzipien genügen und somit effizient implementiert werden können. So begann Intel bereits mit dem 80486-Prozessor die RISC-Architekturen in den Chip zu integrieren. Aktuelle Prozessorgenerationen von AMD und Intel besitzen eine Busbreite von 64 Bit und sind bis nahe an 4 GHz getaktet.
68
Zentralprozessor
Die Leistung von Prozessoren spiegelt sich in vielen verschiedenen Kenngrößen wider, die zur Beurteilung und zum Vergleich herangezogen werden können. Eine dieser Kenngrößen ist die Taktgeschwindigkeit. Sie wird in Hertz (Hz) bzw. Megahertz (MHz) oder Gigahertz (GHz) angegeben und besagt, wie viele Takte pro Sekunde abgearbeitet werden können. Allerdings hängt die Gesamtleistung eines Computersystems nicht nur von der Taktfrequenz des oder der Prozessoren ab. Vielmehr spielen Merkmale wie die Prozessorarchitektur, das Design der Hauptplatine, der Hauptspeicherausbau sowie die Leistung peripherer Geräte eine bedeutende Rolle.
3.2 Taktgeschwindigkeit
Technologie Ausführungen zur Entwicklung der Fertigungstechnologie von Prozessoren und die darauf aufbauende Einteilung in Hardwaregenerationen befinden sich im Kapitel 2 Computerleistung. Für Computer der dritten und vierten Generation, die auf der Halbleitertechnologie basieren, gilt eine Voraussage, die von Moore und Noyce bereits 1965 getroffen wurde. Sie besagt, dass sich die Anzahl der auf einem integrierten Halbleiterbaustein unterzubringenden Transistorfunktionen alle 18 Monate verdoppelt (Mooresches Gesetz), was zur Folge hat, dass bei gleicher Baugröße die Komplexität und somit auch die Rechenleistung verdoppelt werden können. Nach den ursprünglichen Einschätzungen sollte die kritische Grenze für eine weitere Verkleinerung der Mikroprozessoren bereits Mitte der 70er Jahre erreicht werden, was allerdings durch immer neue Innovationen der Halbleiterindustrie verhindert werden konnte. Dennoch ist absehbar, dass aus physikalischen Gründen in etwa 20 Jahren keine Verkleinerung der Bausteine mehr möglich sein wird, so dass schon derzeit nach alternativen Technologien gesucht wird. Eine wichtige Forschungsrichtung wird im Folgenden vorgestellt.
jährliche Verdopplung der Rechenleistung
Ende der Miniaturisierung mit Halbleitern
Quantencomputer In konventionellen Computersystemen werden Informationen durch Bits repräsentiert. Jedes Bit kann genau zwei Zustände (0 oder 1) annehmen. Die bislang verwendeten Schalt- und Speicherelemente in Computerchips können eindeutig zwischen diesen Zuständen unterscheiden. Quantencomputer nutzen zur Speicherung von Informationen beispielsweise die unterschiedlichen Energiezustände einzelner Elektronen. Im Größenbereich solcher Elementarteilchen treten jedoch physikalische Effekte der Quantenmechanik auf. Elementarteilchen besitzen neben ihren Teilcheneigenschaften auch Welleneigenschaften. Dieser Welle-Teilchen-Dualismus sorgt dafür, dass
69
Nutzung der Quantenmechanik und der Heisenbergschen Unschärferelation
3
Hardware
physikalische Eigenschaften eines Elektrons, wie Energiezustand und Ort, nicht genau bestimmt werden können. Diese Unschärfe bietet Quantencomputern völlig neue Berechnungsmöglichkeiten, bereitet den Konstrukteuren dieser Systeme aber gleichzeitig eine Vielzahl von Problemen. Durch die Unschärfe kann sich ein Elektron in einem Zwischenzustand befinden. Es repräsentiert zu einem Teil den Wert 0 und zu einem Teil den Wert 1. Der Wert 0 und der Wert 1 können jeweils als eine Welle unterschiedlichen Energieniveaus angesehen werden. Die Überlagerung der beiden Wellen bildet dann den Zwischenzustand. Die repräsentierte Information wird als Qubit (Quanten-Bit) bezeichnet. extreme Rechengeschwindigkeiten
Für eine Berechnung verwendet ein konventioneller Computer verschiedene Eingabewerte (Bits), verknüpft diese durch logische Operationen und erhält für diese Eingabewerte das Berechnungsergebnis. Ändert sich ein Eingabewert, muss die Berechnung erneut durchgeführt werden. Ein Quantencomputer kann, wenn sämtliche Eingabewerte durch Zwischenzustände repräsentiert werden, alle Möglichkeiten gleichzeitig innerhalb eines Durchlaufs berechnen. Damit wären Rechengeschwindigkeiten möglich, die mit konventionellen Systemen nicht vorstellbar sind.
Probleme bei der Umsetzung
Problematisch erweist sich die praktische Umsetzung der theoretischen Grundlagen für Quantencomputer. Für den Aufbau von quantenmechanischen Speicher- und Logikelementen sowie die Weiterleitung von Informationen zwischen diesen Elementen existieren bereits Lösungen. Hauptprobleme sind die Abschirmung und die Korrektur zufälliger Fehler. Jeder äußere Einfluss auf das System, zum Beispiel das Auftreffen eines Photons (Lichtteilchens) aber auch das Auslesen der Ergebnisdaten einer Berechnung, führt zu quantenmechanischen Effekten und damit zu einer Veränderung des Systems. Deshalb ist eine hocheffektive Isolation des Systems erforderlich. Zudem kommt es auf Teilchenebene zu zufälligen Effekten. Zum Beispiel kann ein Elektron sein Energieniveau verändern, was eine Veränderung der gespeicherten Informationen zur Folge haben kann. Eine effektive Fehlerkorrektur muss berücksichtigen, dass Korrekturmaßnahmen ebenfalls wieder quantenmechanische Effekte hervorrufen können.
Anwendungsbereiche
Anwendungsfeld von Quantencomputern ist neben der Simulation quantenmechanischer Systeme und der Erzeugung echter Zufallszahlen insbesondere die Zerlegung großer natürlicher Zahlen in ihre Faktoren (Faktorisierung). Die Sicherheit vieler kryptographischer Algorithmen beruht darauf, dass diese Zerlegung mit heute existierenden Rechnern nur äußerst zeitaufwendig möglich ist. In den vergangenen Jahren wurden Prototypen erster Schaltkreise entwickelt. Diese beschränken sich jedoch auf wenige Qubits. Bis zur Einsatzfähigkeit ist noch ein erheblicher Forschungsaufwand notwendig.
70
Bussysteme
3.3
3.3 Bussysteme Im Zusammenhang mit Rechnersystemen bezeichnet man als Bus einen elektrischen Leiter, durch den Signale zwischen elektrischen Bauelementen ausgetauscht werden. Meist handelt es sich um die Kommunikation zwischen CPU und anderen Komponenten. Man unterscheidet Busse für interne und externe Peripherie. Durch folgende Merkmale können Busse charakterisiert werden:
elektrische Verbindung der Komponenten
Busbreite
Busmerkmale
Sie kennzeichnet die Anzahl der Leiter, auf denen ein gleichzeitiger Übertragungsvorgang ausgeführt werden kann.
Bustakt Der Bus wird in bestimmten Intervallen, so genannten Takten, angesteuert.
Busgeschwindigkeit Sie gibt an, wie viele Informationen (Bits) pro Bustakt auf einem Leiter übertragen werden können.
Übertragungsrate Aus der Busgeschwindigkeit, dem Bustakt sowie der Busbreite ergibt sich die Übertragungsrate nach folgender Berechnungsvorschrift: Übertragungsrate [Bit/s] = Busgeschwindigkeit [Bit/Takt] · Busbreite · Bustakt [Takt/s] Aufgrund der hohen Zahlenwerte werden Übertragungsraten häufig in MB/s (Megabyte pro Sekunde) angegeben. Umrechnung auf Basis des Binärsystems
1 MB/s = 1024 KB/s = 1024 · 1024 Byte/s = 8 · 1024 · 1024 Bit/s = 8.388.608 Bit/s
Bus-Mastering Damit wird die Fähigkeit bezeichnet, die Steuerfunktion der CPU weitestgehend auszuschalten und den Datentransfer direkt auszuführen, um höhere Übertragungsraten zu erreichen (DMA).
Plug & Play Bei Bussen, die Plug & Play unterstützen, erfolgt die Ressourcenzuteilung der Komponenten automatisch ohne Nutzereingriff beim Einstecken einer neuen peripheren Komponente (z. B. USB).
71
3
Hardware
Interne Bussysteme
Verbindungen auf der Hauptplatine
Interne Bussysteme werden grundsätzlich beim Design der Hauptplatine berücksichtigt (kurze Leitungswege). Nachträglich lässt sich ein solches Bussystem nur durch einen kompletten Tausch der Hauptplatine verändern. Über so genannte Slots können unterschiedliche Erweiterungskarten, die auf dem jeweiligen Bussystem basieren, eingebaut werden. Einige der Bussysteme sind für spezielle Aufgaben, wie etwa Grafikausgabe entwickelt worden, andere lassen sich universell nutzen. Ältere Bussysteme, wie ISA (Industry Standard Architecture), MCA (Micro Channel Architecture)), EISA (Extended Industry Standard Architecture) und VESA (Video Electronics Standards Association) Local Bus sind praktisch nicht mehr von Bedeutung. Die gegenwärtig dominierenden internen Bussysteme werden nachstehend kurz vorgestellt.
PCI/PCI-X (Peripheral Component Interconnect) Der PCI-Bus arbeitet in einem von der CPU unabhängigen Takt von maximal 66 MHz bei maximal 64 Bit Busbreite. In einem PC können mehrere solcher PCI-Busse mit jeweils bis zu 5 Geräten vorhanden sein. Die Übertragungsrate liegt bei maximal 503,5 MB/s. Der PCI-Bus ist der derzeitige Standardbus bei PCs. Als Variante mit noch höherer Geschwindigkeit wurde PCI-X spezifiziert. Hier kann einer der Slots mit 133 MHz Takt bei 64 Bit Busbreite betrieben werden, wobei je Takt maximal 8 Datenwörter à 64 Bit transferiert werden können, was den Durchsatz gegenüber herkömmlichem PCI auf 8.117,7 MB/s versechzehnfacht und insbesondere für die Nutzung von Hochleistungsnetzwerkkarten notwendig ist.
AGP (Accelerated Graphics Port) AGP ist ein Spezialbus für Grafikkarten und ermöglicht den Zugriff auf den Hauptspeicher oder den Speicher der angeschlossenen Grafikkarte des Computers mit Systemtakt, d. h. in derselben Geschwindigkeit, wie die CPU Daten lesen und schreiben kann. Dieser Wert darf nicht mit der Taktrate des Prozessors selbst verwechselt werden. Die derzeit übliche Variante AGP X8 bietet bei einer Taktung von 66 MHz und gleichzeitiger Übertragung von 8 Datenwörtern pro Takt eine theoretische Maximalleistung von 2.014,2 MB/s, allerdings sind die Unterschiede zu AGP X4 in der Praxis gering. Die Variante AGP Pro ist eine Version, die sich hinsichtlich des Slots unterscheidet und der Karte eine wesentlich höhere Leistungsaufnahme ermöglicht.
PCI-Express (Peripheral Component Interconnect Express) Mit diesem Bussystem sollen mittelfristig alle bestehenden vorher genannten Ansätze (PCI, PCI-X, AGP) abgelöst und vereinheitlicht werden.
72
Bussysteme
3.3
PCI-Express ist im Gegensatz zu allen anderen beschriebenen Lösungen ein serielles Bussystem, welches über max. 32 so genannte Lanes (Wege/Bahnen) verfügt, die eine Punkt-zu-Punkt-Verbindung herstellen. Die Taktfrequenz liegt bei 2,5 GHz. Da die serielle Verbindung synchronisiert werden muss, bleiben in der Maximalvariante von den theoretisch möglichen 9.536,7 MB/s für den reinen Datenverkehr 7.152,6 MB/s übrig. In der Tabelle 3-1 sind die wichtigsten Eigenschaften der einzelnen internen Busvarianten gegenübergestellt.
Tabelle 3-1
Vergleich der Bussysteme Bus
Bus- Bustakt Busgeschwindigkeit breite
Übertragungsrate
[Bit]
[MB/s]
[MHz]
[Bit / (Takt · Leitung)]
BusPlug & Maste- Play ring
PCI
64
66
1
503,5 Ja
Ja
PCI-X
64
133
4
8.117,7 Ja
Ja
AGP X8
32
66
8
2.014,2 Ja
Ja
PCIExpress
32*
2.500
1
9.536,7 Ja
Ja
*
Die Leistungsangaben beziehen sich auf die maximale Anzahl (32) einzelner, serieller Lanes.
Externe Bussysteme Während interne Bussysteme ausschließlich in das Design des Mainboards implementiert sind, ist es grundsätzlich möglich, Controller zum Anschluss und zur Steuerung externer Geräte (Peripherie) nachzurüsten. Dafür kommen alle im Folgenden aufgezählten Schnittstellen in Frage.
Seriell (RS-232) Die Übertragung der Daten erfolgt nacheinander. Serielle Schnittstellen bestehen im Grundaufbau aus drei Leitungen. Eine zum Senden, eine zum Empfangen und eine dritte zur Synchronisation und Steuerung. Dieses einfache Konzept bietet universelle Einsatzmöglichkeiten. Eine serielle Schnittstelle kann auch durch eine kabellose Signalübertragung mittels Infrarotlicht realisiert werden (Infrared Data Association – IrDA).
Parallel Die Übertragung erfolgt bitparallel über acht Leitungen. Diese Schnittstelle wird auch als Centronics-Schnittstelle bezeichnet und hauptsächlich zur Ansteuerung von Druckern genutzt. Nachteil dieses Busses ist 73
Verbindung zu externen Geräten
3
Hardware
das so genannte Übersprechen der einzelnen Busleitungen, bei dem sich die Signale auf langen Strecken wechselseitig beeinflussen. Deshalb sollten Parallelkabel je nach Isolation nicht länger als 10 Meter sein.
IDE (Integrated Device Electronics) Bei diesem Bussystem ist die gesamte Steuerelektronik Bestandteil des peripheren Gerätes, in diesem Fall der Festplatte. Dadurch werden die Signalwege zwischen Laufwerk und Controller verkürzt, wodurch höhere Übertragungsraten möglich sind. Mit IDE können maximal zwei Geräte mit jeweils bis zu 504 MB Größe angeschlossen werden. Die Übertragungsrate liegt bei max. 3,3 MB/s.
EIDE (Extended Integrated Device Electronics) EIDE baut auf IDE auf und erweitert die mögliche Plattenkapazität auf 8,4 GB pro Laufwerk. Außerdem können vier Geräte angeschlossen werden (primärer und sekundärer Kanal mit je zwei Laufwerken). Die Transferrate kann 16,6 MB/s betragen. Mit EIDE wurde es möglich, auch Wechselplatten, CD-ROMs und CD-Recorder anzuschließen. Der Einsatz eines Bussystems wie EIDE korrespondiert eng mit der Wahl eines geeigneten internen Busses. So hat sich EIDE erst mit dem VESA Local Bus und später PCI durchgesetzt, da diese die notwendigen Übertragungsraten bewältigen können.
Ultra DMA/33, 66, 100 und 133 Mit Ultra DMA wird die maximale Transferrate gegenüber EIDE auf 33,3, 66,6, 99,9 bzw. 133,2 MB/s erhöht. Außerdem sind höhere Festplattenkapazitäten ansteuerbar.
S-ATA (Serial Advanced Technology Attachment) S-ATA ist ein serielles Bussystem und wird mittelfristig Ultra DMA ablösen. Vorteile bietet es insbesondere hinsichtlich der Übertragungsgeschwindigkeit, der vereinfachten Kabelführung (kleinerer Kabeldurchmesser, Kabellänge bis 1 m), der geringeren Betriebsspannung und der Fähigkeit zum Hot-Plug (Wechsel der Datenträger im laufenden Systembetrieb). Die übliche Unterscheidung in Master- und Slavegerät wird bei S-ATA abgeschafft, pro Anschluss steht genau ein Gerät zur Verfügung. Version III, die für 2007 angekündigt ist, wird bis zu 572,2 MB/s übertragen können.
PCMCIA (Personal Computer Memory Card International Association) PCMCIA wurde ursprünglich zur Erweiterung des (mobilen) PCs mit Speicherkarten entwickelt. Es existieren drei Kartentypen mit unterschiedlichem Einsatzgebiet, die sich äußerlich durch ihre Höhe unterscheiden. Im Markt hat sich neben dem etwas unhandlichen Akronym die Bezeichnung PCCard durchgesetzt, wobei die Karten mit 16 Bit Busbreite auch als PCCard16 bezeichnet werden. 74
Bussysteme
3.3
Kartentyp I mit einer Höhe von 3,3 mm zum Einsatz als ROM oder RAM Kartentyp II mit einer Höhe von 5,0 mm zum Einsatz als Modem, Faxmodem, Netzwerkkarte, Soundkarte oder Controller Kartentyp III mit einer Höhe von 10,5 mm zum Einsatz als Festplatte Normalerweise ist es durch die automatische Konfiguration möglich, die Karten bei laufendem Betrieb zu wechseln. Die Busbreite beträgt 16 Bit bei einem Bustakt von 8 MHz. Daraus ergibt sich eine maximale Übertragungsrate von 15,3 MB/s.
CardBus Der CardBus ist der abwärtskompatible Nachfolger der PCMCIA-Architektur und besitzt eine PCI-ähnliche Struktur. Die Busbreite von 32 Bit bei einem Takt von 33 MHz liefert die maximale Übertragungsrate von 125,9 MB/s.
ExpressCard Die ExpressCard soll PCCard bzw. Cardbus ablösen. Sie besitzt eine veränderte Bauform (je nach Typ 54 oder 34 mm Breite bei 5 mm Höhe und 75 mm Tiefe) und kann entweder über PCI-Express oder USB 2.0 angeschlossen werden. Die maximale Transferrate orientiert sich direkt am verwendeten Bussystem.
SCSI (Small Computer System Interface) SCSI ist wie IDE und seine Weiterentwicklungen ein paralleles Bussystem mit einer Vielzahl unterschiedlicher Entwicklungsstufen und Standards, deren wichtigste Merkmale die folgende Tabelle enthält. SCSI ermöglicht höhere Transferraten als Ultra-DMA bei einer gleichzeitig höheren Anzahl am Bus angeschlossener Geräte. Mit dem Wide UltraSCSI-2Standard wurde auch das Problem zu kurzer Kabellängen überwunden. Diese darf nach Anschluss aller Geräte nun 12 Meter betragen.
Tabelle 3-2
Vergleich der SCSI-Spezifikationen SCSI-Bus
Busbreite [Bit]
Bustakt [MHz]
Busgeschwindigkeit
Übertragungsrate
[Bit / (Takt · Leitung)]
[MB/s]
max. Geräteanzahl
SCSI-I
8
5
1
4,8
7
SCSI-II
8
5
1
4,8
7
Wide SCSI
16
5
1
9,5
15
Fast SCSI
8
10
1
9,5
7
75
3
Hardware
Fast Wide SCSI
16
10
1
19,1
15
8
20
1
19,1
7
Wide UltraSCSI
16
20
1
38,1
7
Wide UltraSCSI-2
16
40
1
76,3
15
Wide UltraSCSI 160
16
80
1
152,6
15
Wide UltraSCSI 320
16
160
1
305,2
15
UltraSCSI
Serial Attached SCSI (SAS) Ursprünglich sollte es auch noch eine Wide UltraSCSI 640 Variante geben. Ob diese jemals vermarktet wird, ist allerdings unklar. Wesentlich wahrscheinlicher ist die Entwicklung in Richtung SAS. Hierbei handelt es sich um ein serielles Übertragungsverfahren, welches ähnlich wie SATA arbeitet und Merkmale von SCSI und S-ATA vereinigt. Neben reinen SAS-Laufwerken können daher auch S-ATA-Geräte genutzt werden. Serielle SCSI-Protokolle existieren bereits zahlreich: für Fibre Channel, Serial Storage Architecture (SSA), Firewire / IEEE 1394, Infiniband und Ethernet (iSCSI). Wie bei S-ATA liegt bei SAS die maximale Transferrate bei 572,2 MB/s in der für 2007 erwarteten Version SAS 600. Während SATA für den Einsatz im Desktop-Bereich positioniert wird, liegt der Schwerpunkt für SAS bei Server- und Speicherlösungen.
Fibre Channel Dieses revolutionäre serielle Bussystem kann derzeit Übertragungsraten bis zu 506,6 MB/s erreichen. Eine spätere Ausbaustufe soll 1.251,7 MB/s bieten können. Durch Einsatz unterschiedlicher Leitungsmedien kann die Distanz variiert werden. So ist es möglich, mit Kupferkabel ca. 300 m Wegstrecke zu überbrücken, während mit Glasfasern bis zu 10 km voneinander entfernte Geräte anschließbar sind. Durch den Einsatz spezieller Transceiver lässt sich die Ausdehnung fast beliebig skalieren. Das Bussystem ist sehr flexibel und kann neben einer Punkt-zu-PunktVerbindung in Form einer endlosen Schleife mit max. 126 Endgeräten implementiert werden (arbitrated loop). Alternativ ist der Aufbau einer sog. Switched-Fabric-Infrastruktur möglich, die aus Komponenten wie Hub, Switch, Router, Gateway und Bridge aufgebaut ist und bei der max. 16 Mio. Geräte angeschlossen werden können. Da es sich dabei um unabhängige Speichersysteme handeln kann, ist dieses Bussystem besonders für den Aufbau so genannter Storage Area Networks (SAN) geeignet, da die Geräte nicht Bestandteil der Serverhardware sind. Das Bussystem ist zudem so flexibel, dass unterschiedliche Übertragungsprotokolle (z. B. SCSI, IP, ATM) gleichzeitig auf Fibre Channel abgebildet werden können.
76
Bussysteme
iSCSI (Internet SCSI) iSCSI bietet als zu Fibre Channel konkurrierendes Bussystem hohe Übertragungsgeschwindigkeiten bei gleichzeitig langen Verbindungsstrecken zu niedrigeren Kosten, da auf zumeist vorhandene Infrastruktur des LAN zurückgegriffen werden kann. Das SCSI-Protokoll wird hierbei auf IP umgesetzt, wodurch sich keine Veränderungen für den Datentransport ergeben. Im Vergleich zu Fibre Channel ist der Netzwerk-Overhead allerdings wesentlich höher, so dass erst mit breiter Verfügbarkeit von 10-Gigabit-Ethernet vergleichbare Leistungsdaten zu erwarten sind. Derzeit liegt die max. Übertragungsrate bei theoretisch 119,2 MB/s. Wie Fibre Channel eignet sich iSCSI insbesondere zum Aufbau großer dezentraler Speicherlösungen.
USB (Universal Serial Bus) Dieses Bussystem sollte mit der Version 1.x serielle und parallele Schnittstellen ablösen, indem alle peripheren Geräte, die eine geringe Transferrate benötigen, über ein einheitliches Interface mit dem Rechner verbunden werden. Durch Kaskadierung können bis zu 127 Geräte an einen USB-Anschluss gekoppelt werden. Die mitgelieferte Spannung von 5 V macht eigenständige Stromversorgungen für viele Geräte überflüssig. Die Transferrate kann bis zu 1,4 MB/s betragen. Mögliche Endgeräte sind Tastaturen, Mäuse, Scanner, Drucker und Modems. Version 2.0 der Spezifikation ist eine Alternative zu Firewire. Hier können bei Abwärtskompatibilität und gleicher Geräteanzahl Übertragungsraten von bis zu 57,2 MB/s erreicht werden, wodurch sich USB mittlerweile auch für Endgeräte wie schnelle Massenspeicher oder Netzwerkkarten eignet.
Firewire / IEEE 1394 Mit diesem zweiten universellen Bussystem, das sich eng an die SCSISpezifikationen anlehnt, können gegenwärtig Transferraten bis zu 101,3 MB/s erreicht werden, in einer späteren Ausbaustufe bis zu 381,5 MB/s und einem max. Geräteabstand von 100 Metern. Gegenwärtig ist der Anschluss von bis zu 63 Geräten an einem Bus vorgesehen. Wie USB unterstützt Firewire Plug & Play sowie Hot Plugging. Anwendung findet dieses Bussystem vorrangig im Bereich der Unterhaltungselektronik (Kameras, Camcorder, Fernseher, DVD-/Festplattenrekorder etc.) Weitere kabelungebundene Bussysteme sind Infrarot, Bluetooth, Wireless USB, ZigBee. Sie bilden im unmittelbaren Umfeld des Rechners ein so genanntes WPAN (Wireless Personal Area Network).
77
3.3
3
Hardware
3.4 Speicher
Aufbewahrung von Informationen
Zur Datenverarbeitung werden Komponenten benötigt, die die binären Informationen temporär oder dauerhaft speichern können. Dazu können die unterschiedlichsten Technologien und Materialien genutzt werden, sofern sie die Eigenschaft besitzen, zwei Zustände eindeutig zu unterscheiden und diese Zustandsänderung von außen herbeizuführen ist. Speicher können nach verschiedenen Merkmalen klassifiziert werden: Abhängigkeit von der Stromversorgung
flüchtig Nach dem Abschalten der Stromversorgung sind alle Daten verloren. Beim flüchtigen Speicher kann eine weitere Unterteilung nach dem so genannten Auffrischen der Inhalte vorgenommen werden. Speicher, der aufgefrischt werden muss, benötigt in bestimmten Intervallen eine Erneuerung der Ladung der Speicherzellen. Demgegenüber existieren flüchtige Speicher, die den Inhalt ihrer Speicherzellen bis zur nächsten Veränderung behalten.
permanent Auch ohne Stromversorgung bleiben die Daten erhalten. Die Haltbarkeit wird lediglich durch die physikalischen Eigenschaften des Speichers begrenzt.
Abhängigkeit vom Zugriffsverfahren
sequentiell Auf Daten kann nicht direkt zugegriffen werden. Es ist eine aufwendige Positionierung notwendig, deren Zeitaufwand von der Kapazität des Speichers, der Transportgeschwindigkeit und der Lage der Daten abhängt.
wahlweise Die erwünschten Daten können direkt angesprochen und gelesen werden.
Abhängigkeit von der Überschreibbarkeit
überschreibbar Die Daten können beliebig oft überschrieben werden. In der Praxis ergibt sich die Einschränkung durch die physikalische Haltbarkeit des Mediums bzw. mechanische oder elektromagnetische Abnutzungen.
78
Speicher
3.4
nicht überschreibbar Nach dem ersten Speichern der Daten können diese nicht wieder gelöscht oder geändert werden. Dies ist nicht zwangsläufig von Nachteil, wenn die gespeicherten Daten nicht gelöscht werden sollen oder dürfen.
Cache / Pufferspeicher Der Cache fungiert primär als Zwischenspeicher von CPU und Arbeitsspeicher. Er ist ein flüchtiger Speicher und erlaubt schnellere Zugriffszeiten als der Arbeitsspeicher. Leistungsbestimmend sind die Größe dieses Speichers, seine Architektur, der Typ der verwendeten Speichermodule sowie die Füllstrategie. Üblich ist eine zweistufige Architektur mit Level 1 und 2. Level-1Cache (interner Cache) ist meist in den Prozessor integriert und weist Größen bis zu 64 KByte auf. Level-2-Cache (externer Cache) ist in einer Größe bis zu 2 MB auf der Platine vorhanden oder durch Steckmodule konfigurierbar. Cache-Speicher benötigt keinen Refresh und wird daher auch als statischer Speicher bezeichnet. Auch Festplatten und optische Laufwerke verfügen in aller Regel über Cachespeicher, der Schreib- und Lesevorgänge deutlich beschleunigt.
Arbeitsspeicher / Hauptspeicher (RAM – Random Access Memory) Beim Arbeitsspeicher handelt es sich um fortlaufend adressierten Speicherplatz. Alle auszuführenden Programme und alle zu verarbeitenden Daten (Eingabedaten, Zwischenresultate und Ausgabedaten) müssen den Hauptspeicher passieren. Der Arbeitsspeicher ist über Adress- und Datenbusse mit der CPU verbunden. Die Breite des Adressbusses kennzeichnet, wie viele Speicherzellen angesprochen werden können. Die Datenbusbreite bestimmt die Menge der an diesen Stellen gespeicherten Daten. Aufgrund der unterschiedlichen Zugriffsgeschwindigkeiten von Prozessor und RAM ist man seit der Entwicklung der ersten Speicherbausteine bemüht, das Ungleichgewicht zu kompensieren. Die langsamen Hauptspeicherzugriffe sollen durch spezielle Speicherchips (Caches) bzw. durch modifizierte Speicher und Zugriffstechnologien innerhalb der Bausteine beschleunigt werden. Auf die wichtigsten Arten von Arbeitsspeicher soll nachfolgend eingegangen werden.
DRAM (Dynamic Random Access Memory) Dies ist der ursprüngliche erste Speicherbaustein der Firma Intel aus den 60er Jahren, der auf Forschungsarbeiten von IBM aufbaut. Das D steht für Dynamic (dynamisch), d. h. von Zeit zu Zeit ist eine Stromzufuhr zu
79
schneller Zwischenspeicher
3
Hardware
den Bausteinen nötig, um deren Transistoreninhalte erhalten zu können. Dieser Vorgang wird auch als Auffrischen bezeichnet. Das AuffrischenSignal wird üblicherweise vom Prozessor initiiert, moderne Bausteine können über einen internen Timer diese Aufgabe übernehmen und die CPU entlasten. Der Zugriff auf Speicherzellen wird zweigeteilt durchgeführt. Die Anordnung der Transistoren eines Speicherbausteins kann man sich in einer matrixartigen Struktur mit Zeilen und Spalten vorstellen. Beim Zugriff auf eines dieser Elemente werden Zeilen- und Spaltenadresse übergeben. Mit dem Row Access Signal (RAS) wird die Zeile lokalisiert und alle Spalten werden parallel ausgelesen und im Baustein zwischengespeichert. Diese Speicherzeile wird auch als Page bezeichnet. Durch das Column Access Signal (CAS) wird die Spalte bestimmt. Damit ist die zu lesende oder schreibende Zelle eindeutig beschrieben. Nach dem Schreib- oder Lesevorgang wird die gesamte Zeile zurück geschrieben. Die Zugriffszeit eines Speicherbausteins deklariert die Zeitspanne für das Auslesen dieser Zelle, üblicherweise im Nanosekundenbereich.
PM (Page Mode) und FPM (Fast Page Mode) Programmcode und Daten werden im Speicher nah beieinander abgelegt (sog. Lokalität). Befinden sich Speicherzellen, die nacheinander bearbeitet werden, in derselben Page, ist es nicht notwendig, die Zeilenadresse zu übergeben. Mit PM-Bausteinen wurde es möglich, innerhalb einer bestimmten Zeitspanne beliebig viele Spalten einer Page zu adressieren, ohne ihre Zeilenadresse anzugeben. Da PM-Module nach jedem CAS die Page zurück schreiben mussten, wurden sie durch Module ersetzt, die erst bei einem Zeilenwechsel speicherten, die FPM-Bausteine.
EDO-DRAM (Extended Data Output-DRAM) Das CAS übernimmt beim FPM nicht nur die Aufgabe des Adressierens einer Speicherzelle, es meldet zusätzlich, ob der Zugriff bereits abgeschlossen ist. Das Adressieren einer neuen Zelle ist demnach erst nach dem Abschluss des Lesens möglich. Beim EDO-DRAM übernimmt ein separates Signal diese Funktion. Während des Lesezugriffs kann bereits das nächste CAS an den Speicherbaustein gesendet werden. Zugriff und Adressierung werden so teilweise parallelisiert.
SDRAM (Synchronous DRAM) Das Besondere an diesen Modulen ist die Signalkopplung an den Bustakt. Dieser Vorteil kommt vor allem beim ebenfalls implementierten Burst-Zugriff zum Tragen. Obwohl der Zugriff auf eine Zelle ähnlich langsam wie bei FPM- oder EDO-Modulen ist, können nachfolgende Speicherzugriffe als Burst taktsynchron ausgeführt werden. Während FPM- und EDO-Module üblicherweise 66 MHz Bustakt gebrauchen, ist SDRAM mit bis zu 133 MHz Bustakt üblich (PC133 SDRAM). 80
Speicher
RDRAM (Rambus DRAM) Diese schon seit einigen Jahren verfügbare Technologie kommt zum Einsatz, wenn höhere Übertragungsleistungen notwendig werden. Die Rambus Technologie ermöglicht höhere Bustakte und Speicherbandbreiten, wobei ein völlig neues Design verwendet wird. Es besteht aus parallelisierbaren terminierten Kanälen mit je einem Controller und einem oder mehreren RDRAMs. Alternativ können Micro-, Signal- und Grafikprozessoren angebunden werden. Durch vier parallele Kanäle ist ein Datendurchsatz von bis zu 11,9 GB/s möglich (PC1600 RDRAM mit 64-BitSpeichermodul). Die Einführung dieses Speichers hat sich aus verschiedenen Gründen stark verzögert: zum einen gab es Probleme mit der Technologie selbst, zum anderen mit benötigten Chipsätzen.
DDR-SDRAM (Double Data Rate SDRAM) DDR-SDRAM ist die Weiterentwicklung des SDRAM und gegenwärtig die dominante Alternativtechnologie zum RDRAM. Während bei herkömmlichen Speicherchips Daten entweder nur bei einem Taktwechsel von 0 auf 1 oder beim Wechsel von 1 auf 0 übertragen werden können, ist der Vorgang bei dieser Speicherart bei beiden Zustandswechseln möglich. So kann die Datenrate verdoppelt werden (DDR), ohne die Taktfrequenz zu erhöhen. DDR arbeitet mit internen Taktfrequenzen von 100 bis 200 MHz. Die verfügbare Variante mit 300 MHz wird kein offizieller Standard mehr werden. Die Speicher orientieren sich in ihrer Bezeichnung an der relativen Taktfrequenz (verdoppelter Chiptakt) sowie der Speicherbandbreite. So steht die Bezeichnung DDR-400/PC3200 für einen Speicher mit 200 MHz Chiptakt und 3,2 GBit Speicherbandbreite. Durch den sog. Dual-Channel-Mode (Mainboard mit zwei unabhängigen Speicherbussen) kann die Übertragungsrate nochmals verdoppelt werden, wenn identische Speichermodule eingesetzt werden.
DDR2-SDRAM (Double Data Rate 2 SDRAM) Bei dieser Speicherart werden je Bustakt statt zwei vier Datenworte übertragen, wodurch die Speicherbandbreite nochmals verdoppelt werden kann. Alternativ ist eine Verringerung des internen Chiptaktes möglich, um bei gleicher Performance wie DDR die Stromaufnahme zu verringern. Da sich Anschlusslayout und Spannungsversorgung unterscheiden, sind neue Chipsätze und Mainboards notwendig. Der Takt wird zunächst intern 133 MHz betragen, spätere Versionen sind bis 200 MHz vorgesehen. Ein DDR2-533/PC4300 besitzt eine Taktung von intern 133 MHz und eine Speicherbandbreite von 4,3 GBit. Für 2007 ist bereits der Nachfolger DDR3 angekündigt, der mit nochmals erhöhten Taktfrequenzen und verringerter Versorgungsspannung aufwarten soll.
81
3.4
3
Hardware
FB-DIMM (Fully Buffered Dual In-line Memory Module) Speziell für den Servermarkt wurde ein Speichersystem entwickelt, welches hinsichtlich der Datenübertragung PCI-Express ähnelt und den Speicherausbau bis 192 GB unterstützt. Besonderheit neben der geringeren Anzahl Pins im Vergleich zum herkömmlichen DDR2 ist, dass mit der Größe des verwendeten Hauptspeichers die Speicherbandbreite ebenfalls ansteigt. Die nachstehende Tabelle verdeutlicht die Entwicklung der unterschiedlichen Halbleiterspeicher und gibt einen Überblick über ihre gegenwärtigen und zukünftigen Marktpositionen.
Tabelle 3-3
Halbleiterspeicherarten im Vergleich RAM-Typ
max. Taktfrequenz
Busbreite
max. Übertra- Marktdurchgungsrate dringung
[MHz]
[Bit]
[MB/s]
Zukunftschancen
DRAM
40
16
76,3 gering
veraltet
FPM
66
32
251,8 gering
veraltet
EDO
75
32
286,1 gering
veraltet
SDRAM
133
64
1.014,7 hoch
gering
DDR-SDRAM
300
64
4.577,6 hoch
gering
DDR2-SDRAM
200
64
6.103,5 gering
hoch
RDRAM
800
16
3.051,8 gering
hoch
organische Speicher Während herkömmliche Arbeitsspeichertechnologien mit dem Material Silizium arbeiten, sind einige Forschungsteams mit der Entwicklung organischer Bauteile auf Eiweißbasis beschäftigt. Dabei werden Substanzen gesucht, die die Wirkungsweise elektronischer Bauteile aufweisen (Dioden, Schalter). Die organischen Materialen werden auf Trägerschichten aufgebracht. Gegenüber zweidimensionalen magnetischen oder magnetooptischen Speichermedien können solche organischen Speicher Daten dreidimensional abspeichern und erreichen dadurch eine weitaus höhere Speicherdichte. Da organische Bauteile wesentlich günstiger zu produzieren sind als siliziumbasierte Komponenten, eignen sie sich insbesondere für den Einsatz bei relativ einfachen und kostensensitiven Anwendungsgebieten.
82
Speicher
ROM (Read Only Memory) ROM-Speicher kann lediglich einmal beschrieben und danach nicht wieder gelöscht werden. Neben der Verwendung zur Speicherung von unveränderbaren Routinen zur Hardwaresteuerung zählen auch Medien wie die CDROM (Compact Disc) oder die WORM-Disc (Write Once Read Multiple) zu dieser Speicherart.
EPROM (Erasable Programmable ROM) Diese Speicherart verhält sich im Prinzip wie ein ROM-Baustein. Sein Inhalt kann jedoch durch ultraviolettes Licht gelöscht werden. Danach ist der Chip neu programmierbar.
EEPROM (Electrically Erasable and Programmable ROM) An die Stelle des UV-Lichtes treten elektrische Impulse, die den Bausteininhalt außerhalb des Systems löschen.
Flash-Memory Flash-Memory ist eine Weiterentwicklung des EEPROM. Das Löschen des Bausteins erfolgt im System selbst. Derzeit findet Flash-Memory häufig als BIOS (Basic Input/Output System) eines Rechners oder von speziellen Komponenten Einsatz. Das BIOS ist eine Spezialsoftware, die den Startvorgang des Computers oder des peripheren Bauteils durchführt und grundlegende Routinen beinhaltet. Der Nutzer kann bei Bedarf das BIOS durch aktuellere Versionen ersetzen. Auch als portable Speichererweiterungen kommen Flash-Bausteine zum Einsatz. Hier haben sich gerade für digitale Kameras, Camcorder und Audioplayer innerhalb der letzten Jahre verschiedenste Typen entwickelt. Als portabler Speicherstick mit USB-Anschluss und Kapazitäten bis zu 8 GB hat sich Flash-Speicher ebenfalls durchgesetzt.
83
3.4
3 Tabelle 3-4
Hardware
Flash-Memory im Vergleich* Bezeichnung
max. Kapazität [MB]
CompactFlash
12.288
20,0
42,8 x 36,4 x 3,3-5,0
MemoryStick Pro
4.096
20,0
50 x 21,45 x 2,8
MemoryStick Pro Duo
1.024
10,0
31 x 20 x 1,6
SD-Card
2.024
20,0
32 x 24 x 2,1
MiniSD
1.024
10,0
20 x 21,5 x 1,4
xD Picture Card
1.024
5,0
20 x 25 x 1,1
128
2,1
45 x 37 x 0,76
Multimedia Card
2.024
20,0
24 x 32 x 1,4
RS Multimedia Card
1.024
2,6
18 x 24 x 1,4
256
6,0
15 x 11 x 1
Smartmedia Card
TransFlash
max. ÜbertraAbmessungen gungsrate [MB/s] (B x H x T) [mm]
Solid State Disks Seit einigen Jahren existieren Solid State Disks, Geräte, die ihre Daten ausschließlich in Flash-Memory ablegen, so dass die Daten im Gegensatz zu Hauptspeicherbausteinen auch ohne Spannungsversorgung erhalten bleiben. Derzeit werden solche Systeme als Alternative für Festplatten nur im High-End-Bereich eingesetzt. Für den Massenmarkt sind die Kapazitäten zu klein bzw. die Systeme zu teuer. Derzeit verfügbare Geräte kosten bei 60 GB Speicher etwa 20.000 €. Mit speziellen Technologien (PLEDM – Phase-state Low Electron Drive Memory) versucht man, bestimmte Eigenschaften von DRAM-Modulen (geringe Zugriffszeit) und Flash-Memory (Nonvolatilität) zu kombinieren, um schnellere und preiswertere Geräte anbieten zu können.
RFID (Radio Frequency Identification) RFID ist ein Oberbegriff für eine Technologie, mit der sich Daten berührungsfrei speichern und lesen lassen. Die notwendige Infrastruktur umfasst mindestens den Transponder (bestehend aus Mikrochip/Speicher, Antenne, Gehäuse sowie bei aktiven Versionen einer Energiequelle) und eine Sendebzw. Empfangseinheit. Je nach Bauform arbeitet man mit einem induktiven *
84
Die Kapazitäts- und Geschwindigkeitsangaben beziehen sich auf erhältliche Karten. MMCmicro und C-Flash wurden nicht aufgenommen, da sie noch nicht verfügbar sind.
Speicher
3.4
Nahfeld oder elektromagnetischen Fernfeld und kann so Entfernungen von einigen Zentimetern bis zu 100 Meter (im Extremfall des sich noch in der Entwicklung befindlichen Frequenzbereiches um 5,8 GHz auch 1.000 Meter) überbrücken. Die Einsatzgebiete sind vielfältig und überall dort zu finden, wo Objekte eindeutig identifiziert werden sollen: Mautsysteme, Bibliotheken, Warenlogistik, Fahrkarten, Ausweise etc. Da für den Konsumenten die gesamte Technologie als Black Box fungiert, gibt es ernste Bedenken seitens der Datenschützer, da es möglich ist, umfangreiche Informationssammlungen ohne Zustimmung des Betroffenen anzulegen. Auch technische Schwierigkeiten (Probleme beim Einsatz in der Nähe von Metall oder Flüssigkeiten, unzureichende Standards) und im Vergleich zu etablierten Systemen höhere Kosten sind ein Hemmnis für den umfassenden Einsatz der Technologie, wenngleich ihr ein bedeutendes Potenzial zugesprochen wird.
Festplatten Festplatten gehören innerhalb der Speicherhierarchie zu den externen Speichermedien, die eine hohe Kapazität zu geringen Kosten bei hohen Zugriffszeiten und hohen Transferraten bieten. Sie sind von einem geschlossenen Gehäuse umgeben, das die empfindlichen Bauteile schützt. Die Datenspeicherung erfolgt auf mit Eisenoxid beschichteten Scheiben. Man unterscheidet Ein- und Mehrscheibenplatten. Die Scheiben sind fest gelagert und rotieren mit bis zu 15.000 Umdrehungen pro Minute. Kammartig angeordnete Lese- und Schreibköpfe werden so bewegt, dass sie in einem Abstand von wenigen tausendstel Millimetern die Magnetisierung der Oberfläche erkennen und verändern können (Polarisierung). Zur Positionierung muss die Festplatte in bestimmte Bereiche unterteilt sein, die eine direkte Adressierung der kleinsten Speichereinheit ermöglichen (Cluster, Sektoren). Festplatten können für unterschiedliche Bussysteme existieren. Unterscheidungsmerkmale und teilweise voneinander abhängig sind die Kapazität, der Typ des Interfaces, eine Reihe von Zugriffszeiten, die Umdrehungsgeschwindigkeit, die Größe des Festplattencaches (Speicher zwischen Arbeitsspeicher und Festplatte) sowie Übertragungsraten. RAID RAID steht für Redundant Array of Independent Disks. Ursprünglich wurde diese Zusammenfassung mehrerer Festplatten entwickelt, um Nutzern eine einzige zusammenhängende Festplatte zur Verfügung zu stellen. Da durch die Nutzung mehrerer Geräte die Ausfallwahrscheinlichkeit stieg, suchte man nach Möglichkeiten, ein sicheres und gleichzeitig leistungsfähiges System zu implementieren. Daraus resultierte die RAID-Spezifikation mit unterschiedlichen Levels, von denen die vier wichtigsten kurz vorgestellt werden. 85
Kopplung mehrerer Festplatten
3
Hardware
Level 0 Geschwindigkeitserhöhung
Abbildung 3-2
Er bietet so genanntes Data Striping. Dabei werden die Informationen einer Datei über mehrere Festplatten verteilt gespeichert. Dadurch steigt beim Zugriff die Übertragungsrate, da gleichzeitig durch mehrere Festplatten gelesen bzw. geschrieben werden kann. Level 0 besitzt jedoch keine Fehlertoleranz. Zum Aufbau werden mindestens 2 Festplatten benötigt.
RAID-Level 0
Level 1 Erhöhung der Datensicherheit durch doppelte Speicherung
Abbildung 3-3
Bei Level 1 werden die Daten auf zwei identischen Festplatten gespeichert und somit gespiegelt. Allerdings wird durch diesen Level die Kapazität der Festplatten stets halbiert. Es sind mindestens 2 Festplatten notwendig. Der weitere Ausbau muss immer paarweise erfolgen.
RAID-Level 1
86
Speicher
3.4
Level 3 Er entspricht dem Level 0 und bietet darüber hinaus Fehlertoleranz durch die Nutzung einer zusätzlichen Festplatte zur Speicherung von Fehlerkorrekturdaten. Daher sind mindestens 3 Festplatten für den Aufbau eines solchen Systems notwendig.
Erhöhung der Datensicherheit durch PrüfdatenFestplatte
Abbildung 3-4
RAID-Level 3
Level 5 Zusätzlich zum verteilten Speichern der Dateien werden die Fehlerkorrekturdaten auf unterschiedlichen Festplatten abgelegt. Dieser Level bietet hohe Leistung verbunden mit der Möglichkeit, bei Ausfall einer Festplatte Daten wiederherstellen zu können und wird gegenwärtig am häufigsten eingesetzt.
Erhöhung der Datensicherheit durch Streuung der Prüfdaten
Abbildung 3-5
RAID-Level 5
87
3
Hardware
Holografische Speicherung Laufende Forschungsprogramme beschäftigen sich mit künftigen Technologien der Datenspeicherung. Ein interessanter Ansatz ist die Nutzung der holografischen Speicherung. Dabei werden in ein spezielles optisches Material (Polymer / optisch sensitiver Kristall) je nach „Blickwinkel“ wie bei einem holografischen Bild unterschiedliche Datenmuster abgelegt. Dazu werden zwei Laser benutzt, ein Referenz- sowie ein Datenlaser. An der Stelle, an der sich die Laser im Material treffen, werden spezifische Interferenzmuster erzeugt. Beim Auslesen der Informationen trifft der Referenzlaser auf das Datenmuster, wodurch der ursprüngliche Datenlaser wiederhergestellt wird. Er kann nun mittels eines Sensorfelds ausgewertet werden. Die möglichen Speichermengen und Übertragungsraten übertreffen bei weitem die Kenndaten gegenwärtig verfügbarer Festplatten. So soll Ende 2006 ein erstes kommerziell verfügbares Laufwerk mit Wechselmedien im 5,25-Zoll-Format erhältlich sein (InPhase Technologies), welches 300 GB bei einer Geschwindigkeit von 160 MB/s speichern kann. Spätere Generationen sind mit bis zu 1,6 TB und 960 MB/s geplant.
Millipede Bei diesem IBM-Forschungsprojekt werden auf einem Speichermedium in Form eines dünnen organischen Films mit Hilfe einer Silikon-Matrix von 64×64 (4.096) Zellen Informationen durch das Einschmelzen winziger Vertiefungen gespeichert. Jede Zelle repräsentiert ein einzelnes Bit. Der Schmelzvorgang findet oberhalb der Glasübergangstemperatur des Polymers statt, bei etwa 200 °C werden die Daten ausgelesen. Mit diesem System, das gegenwärtig erst als Prototyp existiert, soll es später möglich sein, die Fünf- bis Zehnfache Datenmenge gegenüber herkömmlichen magnetischen Speicherverfahren sichern zu können. Derzeit geht man davon aus, dass eine anfängliche Kapazität von ca. 160 GB/cm2 möglich ist.
Wechselspeichermedien
schnelle austauschbare und einfach zu transportierende Speichermedien
Während bei einer Vergrößerung der Festplattenkapazität komplette Geräte angeschafft werden müssen, sind bei Wechselspeichersystemen nur neue Medien notwendig. Je nach Technologie und Einsatzzweck haben sich unterschiedliche Systeme entwickelt. Die eigentlichen Laufwerke können im Rechner installiert sein (intern) oder durch Bussysteme und Gehäuse außerhalb (extern) des Rechners angeschlossen werden. Man unterscheidet Wechselspeichermedien durch die zur Speicherung verwendete Technologie. Die Abbildung 3-6 gibt einen Überblick aktueller Wechselspeichermedien.
88
Speicher
3.4 Abbildung 3-6
Wechselspeichermedien
magnetische Wechselplatten Magnetische Wechselplatten nutzen Medien mit einer Eisenoxidbeschichtung, die flexibel oder starr sein können. Diese Medien sind generell wieder beschreibbar.
Diskette Die Diskette zählt zu den technologisch ältesten magnetischen Wechselmedien. Auf einer flexiblen eisenoxidbeschichteten Oberfläche werden die Daten durch Magnetisierung gespeichert. Üblich sind heute 3,5-ZollLaufwerke mit einer Kapazität von 1,44 oder 2,88 MB. Zugriffszeit und Transferrate liegen weit unter denen einer Festplatte. Da die Technologie mittlerweile über 15 Jahre alt ist und sich veränderte Anforderungen an speicherbare Datenmenge und Geschwindigkeit ergeben haben, existieren zahlreiche Entwicklungen zur Ablösung der Diskette.
89
3
Hardware
REV Bei diesem Laufwerk handelt es sich um ein Produkt mit Festplattentechnologie und einer maximalen Kapazität von 35 GB. Das Medium besteht aus festen Scheiben in einem Hartplastikgehäuse. Die hohe Umdrehungszahl lässt die Köpfe auf einem Luftpolster schweben und erzeugt eine festplattenähnliche Leistung. Während beim nicht mehr vertriebenen Vorgänger, dem Jaz-Laufwerk, die Schreib- und Leseköpfe im Wechselmedium untergebracht waren, sind diese beim REV-Laufwerk Bestandteil des Gerätegehäuses, was die Kosten der Wechselmedien senkt und diese unanfälliger macht. Der Antriebsmotor ist direkt in das Wechselmedium integriert. Das REV-Laufwerk unterstützt ATAPI, USB, SCSI, S-ATA und Firewire. Ein Konkurrenzprodukt aus der Zeit des JazLaufwerks, das Castlewood ORB, welches die MR-Technologie mit magnetwiderstandsbeständigen Köpfen nutzte und Medien mit 2,2 GB Kapazität unterstützte, ist nicht mehr am Markt verfügbar.
Microdrive Das Microdrive ist eine kleine Festplatte im CompactFlash-II-Format und wird insbesondere für digitale Foto- und Videokameras, PDAs sowie mobile Abspielgeräte der Unterhaltungselektronik eingesetzt. Die derzeit max. Kapazität liegt bei 6 GB. Da es sich um ein Gerät mit mechanischen Bauteilen handelt, ist es empfindlicher als Flash-Memory, wenngleich es für eine Festplatte vergleichsweise erschütterungsresistent ist. Im Innern befindet sich eine mit 3.600 Umdrehungen pro Minute rotierende Glassubstratplatte mit 12 ms Zugriffszeit. optische Wechselplatten Bei optischen Wechselplatten wird die magnetische Aufzeichnung durch den Einsatz von Laserlicht ersetzt. Alle Medien gestatten den direkten Datenzugriff. Es existieren Medien zum ausschließlichen Lesen sowie zum einmaligen und mehrmaligen Beschreiben. Der große Vorteil optischer Medien ist ihre Beständigkeit gegenüber Temperatur und magnetischen Einflüssen.
CD (Compact Disc) Die CD ist das älteste und meist genutzte optische Medium. Ursprünglich für die Audio-Aufzeichnung entwickelt (CD-Audio), verbreitete sie sich aufgrund ihrer Kapazität von bis zu 900 MB schnell im Computerumfeld zur Distribution umfangreicher Software, Datenbanken, Enzyklopädien etc. (CD-ROM). CD-ROMs werden ausschließlich industriell mit Hilfe eines Masterrohlings aus Glas gefertigt. Die CD besteht aus einer Polycarbonatscheibe, der Reflexionsschicht und einem Schutzlack auf der bedruckbaren Seite. Die Informationen werden invertiert und direkt als Erhöhungen und Vertiefungen in die Polycarbonatschicht gepresst.
90
Speicher
Beim anschließenden Aufdampfen der Reflexionsschicht erhält diese die Originaldaten. Der Abtastlaser durchdringt die Kunststoffschicht und trifft auf die Reflexionsschicht. Laserlicht, das auf Vertiefungen trifft, wird diffus gestreut, bei Erhöhungen wird das Licht direkt reflektiert. So ergibt sich eine Folge binärer Informationen. Anders als bei den bisher beschriebenen Fest- und Wechselplatten erfolgt die Aufzeichnung auf konzentrischen Kreisen, ähnlich einer Schallplatte, von innen nach außen. Es existieren unterschiedliche Aufzeichnungsformate für die CD, deren Standardisierung mit Hilfe so genannter Books erfolgt. So regelt das Red Book die Audioaufzeichnung, das Yellow Book die Aufzeichnung von Computerdaten. Sollen Daten in zeitlich unregelmäßigen Abständen nacheinander geschrieben werden, spricht man von einer Multisession-CD. Diese ist im Orange Book spezifiziert. Weiterhin existieren das Green Book und das Blue Book zur gleichzeitigen Aufzeichnung von Audio- und Computerdaten auf einer CD. Neben den Formaten zur Definition der physischen Speicherung sind die Dateisysteme zur logischen Verwaltung von großer Bedeutung, d. h. nach welcher Struktur die Daten auf der CD abgelegt sind.
CD-R (Compact Disc Recordable) Bei der CD-R befindet sich zwischen der Kunststoff- und Reflexionsschicht zusätzlich ein Farbstoff, der dem Rohling seine typische Farbe verleiht. Beim laserbasierten Schreiben wird dieser Farbstoff kurzzeitig einer hohen Temperatur ausgesetzt, die eine chemische Reaktion hervorruft. Die Lichtdurchlässigkeit wird verändert, die Reflexionsschicht hebt sich an dieser Stelle und der Polycarbonatträger wird leicht angeschmolzen. Das Lesen der Daten erfolgt analog zur CD-ROM. Daher sind aktuelle CD-Abspielgeräte in der Lage, industriell gefertigte und „gebrannte“ CDs zu lesen. Eine CD-R kann nur einmal beschrieben werden. Die Double Density Compact Disc (DDCD) ermöglicht die Speicherung der doppelten Datenmenge (1,3 GB). Allerdings ist die weitere Verbreitung fraglich, da sich diesem Format bis auf den Entwickler Sony kein weiterer Laufwerkshersteller angeschlossen hat, so dass diese Medien lediglich in Sony-Geräten lesbar sind.
CD-RW (Compact Disc – Rewritable) Bei der CD-RW wird die Farbschicht zwei unterschiedlichen Temperaturen ausgesetzt. Nach dem Abkühlungsprozess entstehen unterschiedlich reflektierende Bereiche. Da die Unterscheidung dieser Bereiche in einem kleineren Intervall als bei CD und CD-R erfolgt, sind Anpassungen der Laseroptik nötig. Ältere CD-Laufwerke können die Daten einer CD-RW daher nicht auslesen. Die bei der CD-RW verwendete Technologie wird als Phase Change Technique bezeichnet und wurde bereits vor einigen Jahren in einem Gerät angewendet, das CDs lesen und optische Medien
91
3.4
3
Hardware
wieder beschreiben konnte, dem Phasewriter Dual Laufwerk (PD). CDRWs können endlich oft wieder beschrieben werden. Es existiert auch eine DDCD-RW mit den oben genannten Einschränkungen bzgl. der Kompatibilität.
DVD (Digital Versatile Disc) Die DVD besitzt die Maße einer CD. Durch veränderte Aufzeichnungstechniken, eine physikalisch dichtere Packung der Daten, verbesserte Korrekturalgorithmen und eine optimale Strukturierung können etwa sieben mal so viele Daten gespeichert werden wie auf einer CD. Erhöhungen der Kapazität können erreicht werden, indem zwei dieser Medien an ihren Oberseiten verbunden werden und eine zweiseitige DVD ergeben. Die beiden Einzelseiten sind dabei halb so hoch wie eine CD. Zusätzlich ist es möglich, die DVD mit zwei Ebenen pro Seite auszustatten. Während die innere Reflexionsschicht vollreflektierend sein muss, kann das Laserlicht die äußere Reflexionsschicht zum Teil passieren. Solche DVDs haben ein Speichervolumen von ca. 17 GB.
DVD-ROM / DVD-Video / DVD-Audio Diese Aufzeichnungsformate nutzen die DVD-Technologie zur Speicherung von Daten und multimedialen Informationen. Die DVD-ROM ähnelt der CD-ROM. Die DVD-Video speichert Bild- und Audiodaten in voller PAL- bzw. NTSC-Auflösung (MPEG-2) mit unterschiedlichen Tonformaten (MPEG, Dolby Digital, DTS, PCM), Untertitelspuren und umfangreichen Navigationsmöglichkeiten. Die DVD-Audio entspricht einer Audio-CD mit verlängerter Aufzeichnungsmöglichkeit, höherer Auflösung (24 Bit) und Abtastrate (96 kHz).
DVD-R (DVD-Recordable) / DVD+R (DVD+Recordable) Wie bei der CD sind Geräte und Medien zum einmaligen Beschreiben einer DVD erhältlich, allerdings in zwei zueinander inkompatiblen Formaten: der DVD-R vom DVD-Forum und der DVD+R von der DVD+RWAllianz. Beide Formate (gemeinsam auch als DVD±R bezeichnet) sind zudem in zwei Versionen erhältlich: als DVD-5 (Single Layer) mit 4,37 GB und als DVD-9 mit 7,95 GB (DL – Dual Layer). Während über mehrere Jahre ein für den Kunden undurchschaubarer Kampf um die Formate stattfand (Lizenzstreitigkeiten der Hardwarehersteller, Versuch der Verhinderung einer Verbreitung beschreibbarer DVD-Medien durch die Filmindustrie), sind mittlerweile Geräte üblich, die sämtliche einfach und mehrfach beschreibbaren Formate lesen und schreiben können. Dabei sind die Unterschiede zwischen DVD-R und DVD+R vergleichsweise gering und betreffen im Kern lediglich die Pressform für die Spirale, der der Laser beim Schreiben folgt (Pregroove). Alle weiteren Komponenten (Trägermaterial, Farbstoffe etc.) sind nahezu identisch, so dass sich beide Typen auf denselben Produktionsanlagen fertigen lassen. Die DVD-R e92
Speicher
xistiert als Variante für das Authoring (DVD-R(A)) und für den Endkunden-Markt (DVD-R(G)). Bei der DVD-R(G) ist der Bereich, der für die Verschlüsselung genutzt wird, bereits ab Werk beschrieben, um das direkte Kopieren der Inhalte von industriell gepressten DVDs zu unterbinden. Die DVD+R besitzt keinen solchen Verschlüsselungsbereich. Technisch ähnelt die Aufzeichnung dem von der CD-RW bekannten PhaseChange-Verfahren. Die Geschwindigkeitsangabe bezieht sich auf eine Multiplikation mit 1,4 MB/s. Heute übliche Brenner sind in der Lage, bei 16x mit einer Geschwindigkeit von 22,5 MB/s zu schreiben. Allerdings bereiten die Abstimmung der Laufwerke und Rohlinge sowie die Qualität preiswerter Rohlinge oft Schwierigkeiten, so dass Geschwindigkeiten über 4x dazu führen können, dass Daten in den Randbereichen aufgrund des hohen Jitters (Fehlerrate) nicht mehr gelesen werden. Anders als bei CD/CD-RW ist die eigentliche Aufzeichnungsschicht besser gegen mechanische Einwirkungen geschützt, so dass die Medien kratzunempfindlicher sind.
DVD-RW (DVD-Rewritable) / DVD+RW (DVD+Rewritable) Für die mehrfach beschreibbare DVD existieren wiederum mehrere zueinander inkompatible Standards. Dabei ist die DVD±RW vorrangig auf Kompatibilität zur installierten Basis an DVD-Laufwerken ausgerichtet. Da die Reflexionseigenschaften der Medien denen einer DVD-ROM bzw. zweilagigen DVD-9 entsprechen, kann es allerdings gerade bei älteren Geräten zu Problemen kommen, da diese versuchen, den nicht vorhandenen zweiten Layer zu fokussieren. Als DVD-5 können diese Medien 4,37 GB speichern. Beide Typen können ca. 1.000 Mal beschrieben werden.
DVD-RAM (DVD Random Access Memory) Als drittes und technologisch anderes Format hat sich die DVD-RAM etabliert, die mit oder ohne Caddy angeboten wird und deren Schwerpunkt eindeutig die Datensicherheit ist. Die Speicherkapazität liegt einseitig bei 4,37 GB, zweiseitig bei 8,74 GB. Neben der Phase-ChangeTechnologie kommen hierbei Verfahren zur Anwendung, die im Bereich magneto-optischer Medien üblich sind (Sektorierung und Formatierung ab Werk). Das Medium bietet eine wesentlich höhere Ausfallsicherheit als die DVD±RW (Defektmanagement wie bei Festplatten), schnellere Zugriffszeiten und kann bis zu 100.000 Mal beschrieben werden. Neuere Brenner sind in der Lage, auch dieses Format zu lesen und zu schreiben. Obwohl die DVD-RAM das älteste der mehrfach beschreibbaren DVDFormate ist, hat es sich bisher lediglich im asiatischen Raum durchgesetzt.
93
3.4
3
Hardware
HD-DVD (High Density DVD) / Blu-ray Disc Mit der HD-DVD und der Blu-ray Disc existieren wiederum zwei zueinander inkompatible Formate, deren Entwicklung insbesondere mit den gesteigerten Anforderungen durch HDTV (High Definition Television) erklärt wird. So benötigt man etwa für die Aufzeichnung von 2 Stunden HDTV im Format 1080i mit einer empfohlenen Datenrate von 27 MBit/s etwa 22,63 GB Kapazität. Die HD-DVD (vorher AOD – Advanced Optical Disc) ist die vom DVD-Forum favorisierte Variante, die als ROM-Version 14,31 GB (einlagig) bzw. 28,61 GB (zweilagig) und als R/RW-Medium 18,63 GB (einlagig) bzw. 37,25 GB (zweilagig) Kapazität bieten soll. Die Blu-ray Disc von der Blu-ray Disc Association, mit ähnlichen Mitgliedern wie die DVD+RW-Allianz, soll als ROM-, R- und RE-Version (RE steht für Rewritable) auf einem Layer 23,28 GB und zweilagig 46,57 GB speichern können. Beide Technologien basieren auf dem Einsatz eines blauen Lasers mit 405 nm Wellenlänge. magneto-optische Wechselplatten (MO) Magneto-optische Laufwerke sind eine Kombination aus magnetischer Aufzeichnung und optischem Auslesen. Beim Schreiben erwärmt ein Laser die Oberfläche des Mediums bis zur Curie-Temperatur (ca. 200 °C). Erst bei dieser Temperatur ist eine magnetische Beeinflussung der kristallinen Oberfläche möglich. Kühlt die Oberfläche ab, wird die Polarisation dauerhaft gespeichert. Bei normaler Umgebungstemperatur sind MO-Medien gegen Magnetfelder geschützt. Das Auslesen erfolgt mit einem Laser wie bei einer CD/DVD. Im Gegensatz zu den beschreibbaren CD- und DVD-Medien, die einen speziellen Treiber benötigen, um unabhängig von einer Brennsoftware als Laufwerk erkannt zu werden, werden MOs generell vom Betriebssystem unterstützt und verhalten sich wie Festplatten. MOs können bis zu 1.000.000 Mal beschrieben werden und sind bis max. 8,48 GB Kapazität verfügbar. Die gestiegenen Anforderungen an die Kapazität der Medien führten zur Entwicklung neuer Technologien, die im Unterschied zu ursprünglichen MOs Phase-Change-Medien nutzen, wie sie ebenfalls für die DVD-Nachfolger Anwendung finden. Insofern haben HD-DVD, Blu-ray Disc und die nachfolgend vorgestellten Technologien gemeinsame Wurzeln.
Ultra Density Optical (UDO) Als Nachfolger herkömmlicher MOs sowie der DVD-RAM ist die UDO positioniert. Wie die DVD-Erben nutzt sie einen blauen Laser, bietet Platz für zunächst 27,94 GB und lässt sich bis zu 10.000 Mal beschreiben. Hinsichtlich Format und Gehäuseform ist sie mit den heutigen MOs identisch. Die UDO ist als WORM- und Rewritable-Version verfügbar. Zweilagige Medien mit bis zu 111,78 GB sind geplant.
94
Speicher
Professional Disc for Data (PDD) Ebenfalls zur professionellen Datenspeicherung hat Sony die PDD entwickelt. Von ihren Eigenschaften her steht sie allerdings eher in Konkurrenz zur HD-DVD bzw. Blu-ray Disc. Sie bietet im Vergleich zu UDO höhere Transferraten. PDD nutzt ebenfalls einen blauen Laser, ist bis zu 1.000 Mal beschreibbar, hat eine Kapazität von derzeit 21,7 GB, wird wie die UDO von einem festen Cartridge geschützt und ist als WORM und Rewritable verfügbar. Bandspeicher Bei Bandlaufwerken ist die informationstragende Beschichtung auf einer flexiblen Oberfläche aufgebracht. Das Bandmedium besteht aus einem Gehäuse mit Führungsteilen und dem aufgewickelten Bandmaterial. Bandgeräte gestatten nur den sequentiellen Zugriff und unterscheiden sich primär hinsichtlich des Aufzeichnungsverfahrens (Längsspuraufzeichnung (QIC, DLT, LTO) und Schrägspuraufzeichnung (DAT, VXA)). Durch das magnetische Medium, den direkten mechanischen Kontakt mit den Schreib/Leseköpfen und den Bandtransport ergeben sich Abnutzungserscheinungen am Band. Die Daten werden per Hard- oder Software mit einem Fehlerbehandlungscode geschrieben. Durch Hard- oder Softwarekomprimierung kann die speicherbare Datenmenge gesteigert werden. Neben Einzelwerken gibt es Autoloader (ein Laufwerk mit mehreren Kassettenfächern und automatischem Bandwechsel) und Libraries (mehrere Laufwerke und Kassettenfächer mit automatischem Bandwechsel).
QIC (Quarter Inch Cartridge) QIC zeichnet die Daten linear auf und ist mit der Audiokassette vergleichbar. Während diese in jeder Richtung über eine Aufzeichnungsspur verfügt, besitzen moderne QIC-Systeme mehrere Spuren pro Richtung. Auf QIC aufbauende Formate sind Travan und SLR (Scalable Linear Recording). Die maximale Kapazität beträgt derzeit 50 GB. Die Bezeichnung QIC verweist sowohl auf das eigentliche Medium als auch auf das Standardisierungsgremium. Während der Aufzeichnung wird die geschriebene mit der Originalinformation verglichen, um Fehler zu minimieren. Durch mehrere Schreib/Leseköpfe kann der Durchsatz vergrößert werden. Wie beim Zip-Drive wurden Technologien entwickelt, die zur Justierung mit vormagnetisierten Servospuren arbeiten. QICLaufwerke findet man überwiegend im privaten oder semiprofessionellen Bereich zur Datensicherung.
DLT (Digital Linear Tape) Ein DLT-Laufwerk zeichnet die Daten wie das QIC-Format linear auf. Ist eine Aufzeichnungsspur am Ende des Mediums angelangt, werden die Köpfe repositioniert und die Aufzeichnung wird in entgegen gesetzter
95
3.4
3
Hardware
Richtung fortgesetzt. DLT-Laufwerke und Medien ermöglichen die Sicherung sehr großer Datenmengen (40 GB unkomprimiert) bei hoher Übertragungsrate. DLT-Laufwerke haben gegenwärtig unter den Bandspeichergeräten im professionellen Einsatz die größte Bedeutung. Weiterentwicklungen wie das Super DLT bieten die Sicherung von 160 GB Daten (SDLT 320). Eine weitere DLT-ähnliche Technologie ist ADR (Advanced Digital Recording).
LTO (Linear Tape Open) LTO ist im Gegensatz zu den meisten anderen Standards offen, so dass von verschiedenen Herstellern Hardware und Medien angeboten werden. Aus den ursprünglich geplanten zwei Vertretern der Technologie, LTO-Ultrium und LTO-Accelis, ist lediglich die erste Variante marktreif entwickelt worden. Die aktuelle Version Ultrium-3 bietet 400 GB Kapazität.
DAT (Digital Audio Tape) Bei DAT-Laufwerken wird das Band aus der Kassette gezogen und über viele mechanische Bauteile um die schräg stehenden Köpfe transportiert. Man spricht daher auch von Schrägspuraufzeichnung. Eine Datenspur ist etwa achtmal so lang wie die Breite des Mediums. Auch bei DATLaufwerken erfolgt eine Überprüfung der geschriebenen Daten. Die Technologie wurde im IT-Bereich als DDS (Digital Data Storage) bekannt. Weiterentwicklungen erfolgten mit (S)AIT ((Super) Advanced Intelligent Tape). Die Kapazitätsgrenze liegt mit SAIT-1 bei derzeit 500 GB.
VXA Auch dieses Format nutzt die Schrägspuraufzeichnung. Im Gegensatz zu allen anderen Varianten werden die Daten paketweise verarbeitet. Da sie eindeutig adressiert sind, lassen sie sich in jeglicher Reihenfolge bei zusätzlich variabler Geschwindigkeit lesen. VXA-2 bietet max. 80 GB.
Die Tabelle 3-4 stellt die verschiedenen Wechselmedien und deren Eigenschaften gegenüber.
96
Speicher
Tabelle 3-5
Vergleich von Wechselmedien* Wechselmedium
Zugriffszeit Preis Preis max. Laufwerk Medium Kapazität [ms] [€] [€-Cent/MB] [MB]
Diskette
3.4
Übertragungsrate [MB/s]
100
9,-
20,00
2,88
0,06
REV
13
200,-
0,12
35.840
20,0
CD-R
120
30,-
0,02
900
7,8
CD-RW
120
30,-
0,12
700
7,8/4,8**
DVD±R
140
5040,-
0,01
8.141
22,1
DVD±RW
140
5040,-
0,02
4.475
22,1/5,5**
DVD-RAM
150
5040,-
0,06
8.950
6,9
MO
35
2.250,-
0,66
8.684
6,0/3,0**
UDO
35
3.200,-
0,15
28.611
8,0/4,0**
PPD
150
1.700,-
0,23
22.221
11,0/9,0**
SLR
sequentiell
1.200,-
0,12
51.200
10,0
SAIT-1
sequentiell
5.800,-
0,03
512.000
30,0
SDLT
sequentiell
2.500,-
0,02
163.840
16,0
VXA
sequentiell
850,-
0,05
81.920
6,0
LTO Ultrium-3
sequentiell
4.000,-
0,03
409.600
80,0
*
Der Vergleich erfolgt mit aktuellen Straßenpreisen von 5/2005. Die Laufwerkspreise beziehen sich auf Geräte, die die angegebene max. Kapazität verarbeiten können.
**
Lesen/Schreiben
Speichernetzwerke Aufgrund des stark wachsenden Speicherbedarfs werden insbesondere von Unternehmen netzwerkorientierte Speicherlösungen eingesetzt. Zwei bedeutende Technologien dieser Art werden im Folgenden erläutert.
NAS (Network Attached Storage) Ein NAS-System ist ein vorkonfigurierter Fileserver, der direkt in das vorhandene lokale Netzwerk (LAN) eingefügt wird. Dabei wird bewusst auf alle nicht für den Fileserver-Betrieb notwendigen Funktionen des Betriebssystems verzichtet. Dadurch sind NAS-Systeme auf identischer Hardware schneller als klassische Fileserver. Außerdem sind NAS-Sys-
97
vorkonfigurierter Fileserver im vorhandenen LAN
3
Hardware
teme in der Regel sofort betriebsbereit und erfordern lediglich geringen Konfigurationsaufwand. Der Datenaustausch erfolgt auf Dateisystemebene (Dateien, Dateifragmente).
Abbildung 3-7
Vor- und Nachteile von NAS Vorteile:
Einsatz erprobter Technologien Verzicht auf zusätzliche Betriebssystemfunktionen Speicheraufrüstung ohne Eingriff in die Serversysteme Inbetriebnahme innerhalb kürzester Zeit / geringer Installationsaufwand kostengünstige Wartung vergleichsweise niedriger Investitionsbedarf Nachteile:
Performance-Probleme bei input/output-intensiven Anwendungen wie Datenbanken
starke Belastung des Netzwerkes durch die direkte Einbindung Herstellerabhängigkeit hohe Belastung des PCI-Busses (Festplatte – PCI-Bus – Hauptspeicher – PCI-Bus – Netzwerkkarte)
SAN (Storage Area Network) Datenspeicherung in unabhängigem Netzwerk
Mit einem SAN wird ein vom LAN vollkommen unabhängiges Netzwerk implementiert, dessen Aufgabe die Datenspeicherung ist. Damit wird das LAN unmittelbar entlastet. Das SAN benutzt spezielle, teilweise unstandardisierte Technologien und Protokolle zum Datenaustausch. Die Server werden von den Speichergeräten getrennt. Der Datenaustausch erfolgt blockorientiert. Dies bedingt eine geringere Trefferquote des Cachings solcher Systeme. Mit Hilfe von komplexen Anwendungsprotokollen wird der Datenaustausch im SAN per Fibre Channel auf das (serialisierte) SCSI-Protokoll abgebildet. Ein angeschlossener Server sieht das SAN als SCSI-Subsystem mit entsprechenden Geräten. SAN-Geräte können außerdem über Ethernet miteinander verbunden werden (iFCP – Internet Fibre Channel Protocol als hybrides Protokoll, FCIP – Fibre Channel over IP als Protokoll zum Tunneln von FCSANs über TCP/IP), wobei sich in diesen Fällen dieselbe Problematik hinsichtlich des Netzwerkdurchsatzes wie bei NAS ergibt.
98
Speicher
3.4 Abbildung 3-8
Vor- und Nachteile von SAN Vorteile :
Entlastung des LAN durch ein dediziertes Speichernetzwerk Virtualisierung des Massenspeichers Überbrückung großer Distanzen durch den Einsatz von Fibre Channel Unempfindlichkeit gegenüber elektromagnetischen Störungen durch Implementierung mit Glasfaserkabeln
umfangreiche Backup- und Recovery-Funktionen hohe Performance bei Datenbanken (Online Transaction Processing OLTP). offene Architektur / gute Integration sehr gute Skalierbarkeit Nachteile:
Planung und Implementierung sehr aufwendig und komplex, insbesondere in gemischten Umgebungen mit parallelem Betrieb von iSCSI
Standardisierung der Komponenten nicht ganzheitlich abgeschlossen Anbieter mit proprietären Systemen notwendige Beschaffung eigenständiger, aktiver Netzwerkkomponenten (Hubs, Switches, Router)
gegenüber einem NAS in der Regel teurer
Tabelle 3-6
Vergleich NAS und SAN Merkmal
NAS
SAN
Datenaustausch
dateibasiert
blockbasiert
Netzwerk
Ethernet
Fibre Channel
Dateisystem
nicht vorhanden
vorhanden
Protokoll
NFS – Network File System, CIFS – Common Internet File System
Fibre Channel
Zugriff
über NAS-internen Server
direkt über SAN
I/O-Anbindung
innerhalb des LANs
autonomes Netzwerk
OLTP (Datenbanken)
langsam
schnell
Optimale Blockgröße
groß
klein
Konfiguration/ Installation
Plug & Play
sehr komplex
Investitionsaufwand
gering
hoch
Skalierbarkeit
sehr gut
sehr gut
99
3
Hardware
LAN-Belastung
hoch
gering
Serverbelastung
hoch
gering
Planungsaufwand
gering
hoch
Netzwerkinfrastruktur
Nutzung des LANs
zusätzliche Hardware
3.5 Eingabegeräte Die Eingabegeräte dienen der Kommunikation des Menschen mit dem Computer. Dabei können Daten sowohl in digitaler als auch in analoger Form bereitgestellt werden. Aufgabe der Eingabegeräte ist es, alle Daten in ein einheitliches digitales Format zu transformieren.
Abbildung 3-9
Eingabegeräte
Tastatur Das wohl bekannteste Eingabegerät ist die Tastatur. Sie besteht aus mehreren Reihen von Tasten, die denen von Schreibmaschinen nachempfunden wurden. Zusätzlich sind auf der Computertastatur Funktions- und Sonder-
100
Eingabegeräte
tasten untergebracht, die eine schnelle und effiziente Bedienung ermöglichen. Die Tastatur wird über USB oder PS/2 angeschlossen und ist kabelgebunden oder kabellos (meist in Verbindung mit einer Maus) erhältlich. Auch eine Verbindung per Bluetooth ist mit bestimmten Modellen möglich.
Maus Die Maus ist ein Zeigegerät, welches bewegungssensitiv ist und über zwei oder mehr integrierte Tasten die Interaktion mit dem Computer zulässt. Die Bewegungen einer Maus werden am Bildschirm über einen Zeiger (Cursor) sichtbar gemacht. Durch diese Form der Eingabe wurde die Nutzung grafischer Benutzeroberflächen möglich. Mäuse können aufgrund ihres Aufbaus in mechanische, opto-mechanische und optische Mäuse unterteilt werden. Mechanische Mäuse besitzen eine Metallkugel, die einen Durchmesser von 2 - 3 cm hat und mit einem griffigen Überzug versehen ist. Diese Kugel ist so angebracht, dass sie bei jeder Bewegung der Maus in Rotation versetzt wird. Diese Bewegung wird von Schleifpotentiometern aufgenommen und durch eine Elektronik in elektrische Signale umgewandelt. Mechanische Mäuse sind empfindlich gegenüber Verschmutzungen und weisen einen hohen Verschleiß auf. Rein mechanische Mäuse werden kaum noch verwendet. Die opto-mechanischen Mäuse sind vom Prinzip genau so aufgebaut wie mechanische Mäuse, nur werden an Stelle der Schleifpotentiometer durch die Kugelrotation bewegte durchlöcherte Scheiben eingesetzt, die sich zwischen einer Lichtschranke drehen. Die optischen Mäuse sind frei von mechanischen Elementen. Von der Maus ausgesandte Licht- und neuerdings Laserstrahlen werden von der Unterlage reflektiert und durch Sensoren ausgewertet. Optische Mäuse besitzen eine sehr hohe Genauigkeit und verschleißen kaum. Die Genauigkeit der Analyse von Bewegungen wird als Auflösung bezeichnet und in cpi (counts per inch = Zähler pro Zoll) oder in dpi (dots per inch = Punkte pro Zoll) angegeben und liegt zwischen 200 und 1.000 cpi. Wheel-Mäuse besitzen zusätzlich zu den Maustasten ein oder zwei drehbar gelagerte Räder, mit denen die Scrollbewegung innerhalb einer Applikation übernommen wird. Der Trackball funktioniert ähnlich einer Maus, jedoch ohne das gesamte Gerät zu bewegen. Die enthaltene Kugel zeigt nach oben und wird direkt mit den Fingern bewegt. Dadurch wird nur eine geringe Auflagefläche benötigt.
101
3.5
3
Hardware
Mäuse werden wie Tastaturen kabelgebunden oder kabelungebunden per USB, PS/2 oder Bluetooth angeschlossen.
Grafiktablett Ein Grafiktablett, oft auch als Digitalisiertablett bezeichnet, entspricht von seinem Funktionsprinzip der optischen Maus. Zusätzlich kann hier statt einer Maus auch ein Eingabestift benutzt werden. Diese Art der Dateneingabe wird oft zur Digitalisierung von Karten sowie zur Handschrifterkennung verwendet.
Joystick Der Joystick ist ein meist ergonomischer Hebel, den man in alle Richtungen bewegen und damit einen Zeiger oder ein anderes Symbol auf dem Bildschirm bewegen kann. Er besitzt mindestens zwei Tasten. Der Unterschied zur Maus besteht darin, dass die Bewegung nicht aufhört, solange sich der Joystick in einer vom Ursprung verschiedenen Position befindet. Joysticks werden hauptsächlich für Spiele aber auch für Anwendungen im CAD/CAM-Bereich eingesetzt. Bei Force Feedback Joysticks ist es möglich, durch Softwareansteuerung den Hebel des Joysticks zu bewegen und somit die Reaktion des Systems auf bestimmte Ereignisse zu simulieren.
Touchpad Das Touchpad ist eine kleine berührungssensitive Fläche, die auf Druck mit Finger oder Stift reagiert. Dabei wird die Position des Fingers oder des Stiftes anhand von Sensoren bestimmt, die z. B. beim Finger den Hautwiderstand messen. Das Touchpad gehört zur Standardausrüstung der meisten Notebooks.
Trackpoint Ein Trackpoint ist ein in der Tastatur integriertes Eingabegerät, welches sich ähnlich wie ein winziger Joystick mit einem Finger bedienen lässt. Er gehört zur Ausstattung vieler Notebooks und ist die Alternative zum Touchpad. Da er zumeist nur einige Millimeter Durchmesser besitzt, ist eine gewisse Gewöhnungsphase erforderlich.
102
Eingabegeräte
Touchscreen Ein Touchscreen (Berührungsbildschirm) ist eine Kombination aus einem Bildschirm und einem Touchpad, welches auf Berührungen mit der Hand reagiert. Diese Kombination ist häufig bei Auskunftsterminals und Informationsstationen im Einsatz. Für die in den letzten Jahren aufgekommenen mobilen TabletPCs ist er elementarer Bestandteil, da diese über eine sehr gute Handschrifterkennung verfügen und normalerweise weder Touchpad noch Trackpoint besitzen.
Lichtstift Ein Lichtstift (Lightpen) nutzt die Kathodenstrahlen von Bildschirmen, um die Position des Zeigers bzw. Stiftes zu ermitteln. Das Bild eines Monitors wird durch einen einzigen Strahl erzeugt, der dieses zeilenweise aufbaut. So kann anhand der verstrichenen Zeit zwischen Bildanfang und Erreichen des Stiftes die genaue Position bestimmt werden. In der Spitze des Stiftes sind zu diesem Zweck Sensoren eingebaut. Zusätzlich gibt es im Stift kleine Taster, die wie Maustasten genutzt werden können.
Mikrofon Ein Mikrofon dient der Erfassung von akustischen Signalen, die in analoger Form an den Computer weitergegeben werden. Einsatzgebiete sind die Spracherkennung zur Steuerung von Computersystemen sowie die Texterfassung.
Scanner Scanner dienen der Erfassung und Digitalisierung von gedruckten Bilddaten. Im Zusammenspiel mit einer nachgeschalteten Texterkennungssoftware ist es auch möglich, gedruckten Text wieder als editierbaren Text in den Computer einzulesen. Man unterscheidet Scanner anhand ihrer Bauform und ihres Verwendungszweckes. In einem Scanner befinden sich eine Lampe zur Ausleuchtung der Vorlage, eine Einheit zur Erfassung der Scanvorlage sowie weitere elektronische Baugruppen. Die Einheit zur Erfassung der Scanvorlage besteht in allen Scannern außer den Trommelscannern aus einer oder mehreren CCD-Zeilen. Eine solche CCD-Zeile (Charge-Coupled Device – Ladungsgekoppeltes Bauelement) besteht aus einer Reihe von lichtempfindlichen Elementen, die die Intensität der Lichteinstrahlung durch eine Spannung repräsentieren.
103
3.5
3
Hardware
Die Spannungen aller in einer solchen Zeile angeordneten Elemente werden sequentiell an einer Stelle ausgelesen. Um dies zu ermöglichen, wird die Spannung von einem Element zum benachbarten weitergegeben, analog einer Kette von Wassereimern.
Handscanner Ein Handscanner ist ein relativ kleines und leicht zu transportierendes Gerät. Es hat eine maximale Scanbreite von ca. 11 cm und eine maximale Auflösung von 400 dpi. Dieser Scanner muss mit der Hand über die Scanvorlage bewegt werden, wodurch die Qualität des Scan-Ergebnisses negativ beeinflusst wird. Die Vorteile dieser Scanner liegen in der Transportabilität. Aufgrund ihrer kleinen Scanbreite können keine Vorlagen in der Größe A4 mit einem einzigen Scanvorgang eingelesen werden. Handscanner werden gegenwärtig nur noch als Barcodescanner eingesetzt.
Flachbettscanner Die Bauform eines Flachbettscanners ist ähnlich der eines Kopierers. Das bedeutet, dass die Vorlage auf ein feststehendes Glas gelegt wird und sich die CCD-Zeile unter dieser entlang bewegt. Die Ansteuerung der CCD-Zeile sowie der damit verbundenen Optik erfolgt über einen Schrittmotor. Übliche Formate für Flachbettscanner sind A4 und A3. Die physikalische Auflösung liegt zwischen 300 und 9.600 dpi. Das Einsatzgebiet dieser Scanner reicht vom Home-Bereich bis zum semiprofessionellen Einsatz.
Dia- / Filmscanner Die Dia- bzw. Filmscanner werden zum Scannen von Diapositiven oder Film-Negativen verwendet. Der Unterschied zu anderen Scannern besteht darin, dass die Vorlage nicht von der Seite der CCD-Zeile angestrahlt, sondern von hinten durchleuchtet wird. Da die Vorlagen hier viel geringere Ausmaße haben, werden diese Geräte mit Auflösungen bis zu 7.200 dpi angeboten. Die Einsatzgebiete für diese Scanner liegen sowohl im privaten als auch professionellen Bereich. Spezielle Funktionen wie automatische Staub- und Kratzerentfernung durch Abtastung im Infrarotbereich oder automatische Farbkorrektur gehören zur Grundausstattung vieler Geräte.
Trommelscanner Dem Namen entsprechend werden bei diesem Scanner die Vorlagen auf eine Trommel aufgespannt und dann durch Drehen der Trommel eingescannt. In Trommelscannern wird ein Elektronenvervielfältiger eingesetzt, der praktisch ein stufenloses Arbeiten ermöglicht. Die Genauigkeit ist somit nur von der Anzahl der Messungen abhängig. Diese Scanner kom-
104
Eingabegeräte
men im professionellen Bereich zum Einsatz und bieten Auflösungen bis zu 24.000 dpi.
Einzugscanner Einzugscanner ziehen die Vorlagen ein und transportieren diese über Walzen an der CCD-Zeile vorbei. Diese Art von Scannern wird hauptsächlich zum Dokumentenscan bis zu einer Größe von A0 eingesetzt. Der Vorteil dieser Geräte liegt in der sehr schnellen Verarbeitung von großen Mengen, wodurch sie sehr gut zur Belegerfassung und Massendigitalisierung geeignet sind.
Barcodescanner Barcodescanner sind darauf spezialisiert, besondere Muster – die Strichcodes – zu erkennen. Dazu tastet ein Laser die Vorlage ab. Barcodescanner werden hauptsächlich in Verbindung mit Kassensystemen in Supermärkten sowie allgemein zur Produktkennzeichnung und -verfolgung eingesetzt.
3D-Scanner Diese Scanner tasten Objekte durch aufgefächerte Laserstrahlen ab, deren Reflexionen durch eine CCD-Kamera aufgenommen werden und eine Punktwolke ergeben. Die Bewegungsgeschwindigkeit des Scanners bzw. des Objektes, die Abtastrate des Systems und die Anzahl der Messpunkte bestimmen die Genauigkeit des Scans. Mit den Daten können entweder Vermessungen durchgeführt oder Polygonmodelle generiert werden. Mittlerweile werden auch Handscanner angeboten. Die Auflösung beträgt bis zu 0,06 mm beim Scannen kleiner Objekte aus kurzer Distanz.
Digitalkameras Der allgemeine Aufbau einer Digitalkamera ist analog dem einer herkömmlichen Kamera mit dem Unterschied, dass statt des Films eine CCD- oder CMOS-Matrix zum Einsatz kommt. Die Bilder werden nach der Aufnahme auf einer Speicherkarte oder Minifestplatte gesichert. Da hier die Technologie von Scannern zum Einsatz kommt, werden auch deren Nachteile mit übernommen. Insbesondere ist das die Farbblindheit der Matrix. Um dies zu umgehen, gibt es drei Alternativen:
Über die Matrix wird eine Farbfiltermatrix gelegt, die die einzelnen Elemente in rote, grüne und blaue unterteilt. Allerdings geschieht dies unproportional hinsichtlich der Pixelanzahl. Durch die Aufteilung der insgesamt zur Verfügung stehenden Bildpunkte ist es notwendig, das entstandene Bild durch mathematische Funktionen nachzubearbeiten. Der
105
3.5
3
Hardware
Nachteil dieser Lösung ist die damit verbundene Unschärfe sowie die relativ geringe Auflösung durch den weiten Abstand zwischen den einzelnen Elementen. In den Leistungsdaten der Kameras wird von den Herstellern meist die Gesamtanzahl der Bildpunkte angegeben, die jedoch nicht die reale Auflösung widerspiegelt.
Die Belichtung erfolgt dreimal hintereinander mit jeweils einem anderen vorgeschalteten Farbfilter. Diese Art der Belichtung ist jedoch nur mit Stativ und bei unbeweglichen Objekten einsetzbar.
In der Kamera werden drei Matrizen mit separaten Farbfiltern untergebracht. Diese werden bei der Aufnahme gleichzeitig belichtet. Diese Technik ist sehr teuer und kommt deshalb nur im (semi-)professionellen Bereich zum Einsatz. Ein solcher Chip ist der X3-Sensor von Foveon. Im Unterschied zu herkömmlichen Kameras kann in digitalen Kameras auch mit digitalen Verschlüssen gearbeitet werden. Dies erspart die mechanische Blende. Realisiert wird dies durch das Verschieben der elektrischen Ladungen der Elemente in zwischengeschaltete Speicher. Zurzeit sind Digitalkameras mit Auflösungen von etwa 4 Megapixel (4 Millionen Bildpunkte) im Einstiegsbereich anzutreffen. Der semiprofessionelle Einsatz ist mit Geräten zwischen 6 und 8 Megapixel möglich. Im professionellen Studioeinsatz sind Kameras mit bis zu 16 Megapixel üblich. Es ist absehbar, dass Digitalkameras ihre analogen Geschwister nahezu vollständig ablösen werden. Objektive mit großer optischer Brennweite und Kameras mit Bildstabilisator erschließen zudem Anwendungsbereiche, die mit herkömmlicher Analogfotografie für den privaten Nutzer bisher kaum möglich waren. Kinderkrankheiten, wie lange Start-, Auslöse und Speicherzeiten gehören der Vergangenheit an. Die Preise für professionelle Abzüge konvergieren mit denen der Analogfotografie. Allerdings werden die verwendeten Sensoren durch ihre fortschreitende Miniaturisierung immer lichtempfindlicher, so dass die meisten Digitalkameras unter schwierigen Lichtverhältnissen stark verrauschte Bilder liefern. Auch optische Probleme beeinflussen die Qualität der Aufnahmen (Kantensäume, chromatische Aberrationen). Der Einsatz des Spiegelreflexmechanismus bei digitalen Kameras reduziert diese Fehler. Digitalkameras verfügen über USB- oder Firewire-Anschluss und speichern ihre Daten meist im TIFF oder JPEG-Format. Einige Kameras ermöglichen die Speicherung der noch nicht von der Kameraelektronik verarbeiteten Originaldaten in einem RAW-Format und bieten damit vielfältige Möglichkeiten für eine Nachbearbeitung. digitale Videokameras
Gegenwärtig gewinnt eine weitere Form digitaler Kameras an Bedeutung: Videokameras zur Aufnahme bewegter und vertonter Bilder. Während das
106
Ausgabegeräte
klassische Bearbeiten von Videomaterial bisher darin bestand, das analoge Filmmaterial zur Weiterverarbeitung zu digitalisieren, kann dieser Vorgang nun durchgängig digital erfolgen. Technisch ähneln diese Camcorder digitalen Kameras, allerdings mit niedrigerer Auflösung. Aufgrund der hohen benötigten Speicherkapazität kommen neben Flash-Speichern und Minifestplatten Magnetbänder (DV, MiniDV, MicroMV, D8) sowie DVD±R/±RW oder DVD-RAM zum Einsatz. Die Schnittstellen sind wiederum USB oder Firewire. Im Zuge der Einführung von HDTV wird HDV (High Definition Video) an Bedeutung gewinnen, welches die Aufzeichnung von HDTV im Format MPEG-2 erlaubt und die Nutzung derselben Mechanik wie bei DV ermöglicht.
Datenhandschuh Zur Bewegung in virtuellen dreidimensionalen Umgebungen reichen die zweidimensionalen Eingabegeräte wie Maus oder Joystick nicht aus. Hier kommen Datenhandschuhe (dataglove) zum Einsatz, durch die zum einen die Bewegung in virtuellen dreidimensionalen Räumen und zum anderen die Interaktion mit diesen erleichtert wird (Greifen, Zeigen). Datenhandschuhe sind im Gegensatz zu normalen Handschuhen zusätzlich mit vielen Sensoren ausgestattet, die jede Bewegung einer Hand erkennen und in elektrische Signale umwandeln können.
Head-Tracking Head-Tracking-Systeme analysieren die Bewegungen des Kopfes einer Person und setzen diese in elektrische Signale um. Das Einsatzgebiet ist hauptsächlich die Steuerung der Bewegung in virtuellen dreidimensionalen Räumen. In Kombination mit Eye-Tracking-Systemen zur Analyse der Augenbewegungen einer Person und speziellen Projektionstechniken werden diese Lösungen bei der Simulation angewendet (Flugzeugsimulatoren, Audiosystemtechnik, Automobilbau, Operationstechnik, Architektur).
3.6 Ausgabegeräte Die verschiedenen Formen von Ausgabegeräten sind in Abbildung 3-10 dargestellt und werden im Folgenden erläutert.
107
3.6
3 Abbildung 3-10
Hardware
Ausgabegeräte
Visuelle Ausgabe Bildschirme
CRT (Cathode Ray Tube) Diese Technologie basiert auf der Erfindung der Kathodenstrahlröhre von Ferdinand Braun im Jahre 1897. Hauptbestandteile sind ein luftleerer Glastubus, dessen vordere Innenseite mit Phosphor beschichtet ist, sowie eine Elektronenkanone. Ein Pixel besteht aus einer Kombination dreier Phosphorarten, die unterschiedlich leuchten, wenn Elektronen auf sie treffen: rot, grün und blau. Die Elektronenkanone besteht aus einer Kathode sowie Heiz- und Fokussierelementen. Bei Farbmonitoren ist für jede Farbe eine eigene Elektronenkanone vorhanden. Die negativ geladenen Elektronen werden von einer in der Nähe der Bildschirmoberfläche angebrachten Anode angezogen und treffen dabei auf die Phosphorschichten, die sie zum Leuchten bringen. Durch unterschiedliche Intensitäten der Phosphorlumineszenz wird die Illusion erzeugt, dass Millionen von Farbtönen darstellbar sind (additive Farbmischung). Bevor die Elektronen auf die Innenseite treffen, passieren sie eine Maske aus Invar, die dafür sorgt, dass die Elektronen immer nur einen Bildpunkt zum Leuch-
108
Ausgabegeräte
ten bringen und nicht streuen. CRT-Monitore existieren noch zahlreich, allerdings ist ihr Verkauf stark rückläufig.
LCD (Liquid Crystal Display) Flüssigkristalle sind transparente Substanzen, die Eigenschaften fester und flüssiger Stoffe vereinen. Durch das Anlegen einer Spannung verändern sich die Molekularstruktur und dadurch die Art der Lichtbrechung. Aufgrund der matrixartigen Anordnung solcher Flüssigkristallzellen gelangt man zu völlig planen und flachen Displays, die vielfältige Einsatzbereiche erobert haben. Von einer fluoreszierenden Platte wird gleichmäßig Licht ausgesendet und trifft auf einen Polarisationsfilter, welcher nur Licht passieren lässt, das sich horizontal oder vertikal zu ihm bewegt. Nach dieser Filterung bewegen sich die Lichtwellen durch den Flüssigkristall. Je nach Ladung der einzelnen Zellen wird das Licht abgelenkt, tritt aus dem Flüssigkristall aus und durchdringt einen der drei Farbfilter (rot, grün, blau). Ein zweiter Polarisationsfilter, der genau 90 Grad gegenüber dem ersten gedreht ist, eliminiert nicht abgelenktes Licht. Durch die Mischung der drei Farbtöne wird an der Displayoberfläche der jeweilige Farbton erzeugt. Die Auflösung eines LCDs entspricht stets der Anzahl der Zellen. Wiederholfrequenzen spielen keine Rolle. Herkömmliche Grafikkarten liefern nach der Wandlung des digitalen ein analoges Signal, das vom LCD wieder digitalisiert werden muss. Vorteilhafter sind daher Grafikkarten, die direkt das digitale Signal ausgeben.
DSTN (Dual Scan Twisted Nematic) Diese Passivdisplays verwenden matrixartig angeordnete Elektroden, die die Zellen durch ein genaues Timing ansteuern. Nachteile dieser Technik sind die lange Reaktionszeit des Displays, wodurch der Bildaufbau sehr träge erscheint, der eingeschränkte Betrachtungswinkel, die mangelnde Farbbrillanz und -tiefe sowie ein Effekt, der sich als horizontale und vertikale Geisterlinien niederschlägt und durch zusätzliche elektrische Felder entlang der Matrix verursacht wird.
TFT (Thin Film Transistor) Dieser Vertreter der Aktivdisplays besitzt für jede Zelle einen oder mehrere separate Transistoren, die die Ladung weitaus genauer steuern können und dadurch die Nachteile von DSTN-Displays überwinden. TFTBildschirme werden mittelfristig die herkömmlichen CRT-Monitore ersetzen. Sie sind außerdem die Basis für 3D-Monitore. Zunächst müssen die darzustellenden Bilder so aufbereitet werden, dass es unterschiedliche Sequenzen für das jeweilige Auge gibt. Zwischen Hintergrundbeleuchtung und TFT-Panel wird ein Bauteil in derselben Breite und Höhe installiert, welches dafür sorgt, dass diese Bilder nur dem jeweils korrekten Auge gezeigt werden. Dazu maskiert man das Panel vertikal, so dass bestimmte Pixelbahnen vom jeweils anderen Auge nicht wahrnehmbar 109
3.6
3
Hardware
sind. Das Gehirn ist dann in der Lage, wie in einer natürlichen Umgebung aus den beiden Bildern die räumlichen Informationen zu generieren. Damit dieser Effekt funktioniert, muss der Betrachter allerdings eine bestimmte Position relativ zum Monitor einnehmen.
PDP (Plasma Display Panel) Diese Displays arbeiten wie die DSTN-Technik mit einem Elektrodengitter und nutzen den physikalischen Effekt, dass das Anlegen einer hohen Spannung an ein Edelgas mit Niedrigdruck Licht erzeugt. In einer kleinen Zelle wird Xenon-Gas zu Plasma verdichtet, welches UV-Licht aussendet und Phosphor zum Leuchten bringt. Plasma-Panel haben eine vergleichsweise hohe Stromaufnahme und finden sich hauptsächlich in TV-Geräten.
FED (Field Emission Display) FED-Bildschirme sind eine Kombination der herkömmlichen Röhrentechnik mit der Anordnung innerhalb einer matrixartigen Struktur. Jeder darzustellende Pixel wird durch einen miniaturisierten Tubus mit Kathode, Anode und Phosphorisierung erzeugt, wodurch sich die Komplexität der Produktion stark erhöht. Die Farben werden im Gegensatz zu CRT-Geräten nacheinander erzeugt. Daher ist die dreifache Bildwiederholfrequenz nötig. Da FED-Displays keine Hintergrundbeleuchtung benötigen, hängt ihre Stromaufnahme lediglich von den darzustellenden Informationen ab.
OLED (Organic Light Emitting Diode) OLED ist ein enger Verwandter der LED (Light Emitting Diode). Anstelle des Halbleitermaterials werden jedoch spezielle Polymere genutzt, die in der Lage sind, Strom zu leiten und Licht abzustrahlen. Gegenüber LCDDisplays bieten OLEDs einige Vorteile: keine Hintergrundbeleuchtung und dadurch geringerer Stromverbrauch, relativ einfacher Produktionsprozess, große Betrachtungswinkel aufgrund der Abstrahlung direkt von der Oberfläche sowie die Möglichkeit, durch Einsatz von Substraten flexible Oberflächen zu schaffen. OLEDs sollen langfristig Nachfolger der TFTs werden, allerdings bereiten die unterschiedliche Alterung der Einzelfarben sowie die Gesamtlebensdauer noch Probleme. Prototypen mit bis zu 21 Zoll Größe existieren bereits. Projektoren Projektoren ermöglichen die großflächige grafische Ausgabe, wobei das Bild auf spezielle Leinwände projiziert werden kann. Projektoren werden deshalb häufig für Präsentationen vor Gruppen von Personen eingesetzt. Wichtige Parameter bei der Auswahl eines Projektors sind die unterstützte Auflösung, die Helligkeit und der Kontrast. Auch der primäre Zweck der Projektion ist zu beachten. So existieren spezielle Projektoren mit 16:9 Bildformat 110
Ausgabegeräte
3.6
und eingebauten Deinterlacern, die sich vorrangig für die Videoprojektion im Heimkino eignen. Die Helligkeit von Projektoren wird in Lumen gemessen. Ein Lumen entspricht genau der Lichtmenge, die eine Lichtquelle mit einer Lichtstärke von 1 Candela innerhalb eines Winkels abstrahlt, der in 1 m Entfernung die Fläche von 1 m2 ausleuchtet.
LCD (Liquid Crystal Display) Mittels starker Hintergrundbeleuchtung und Fokussierungsoptik wird das LCD-Bild in einer max. Auflösung von 1.600 x 1.200 Pixel projiziert. Bauartbedingten Problemen, wie dem gut sichtbaren Gitter, begegnet man durch spezielle Optiken. Gegenüber DLP-Projektoren haben LCDs ein höheres Gewicht, einen geringeren Kontrast und einen schlechteren Schwarzwert, allerdings eine bessere Farbsättigung, höhere Schärfe und bessere Lichtausbeute bezogen auf eine Projektionslampe mit identischer Leistung.
DLP (Digital Light Processor) Kernstück dieses Verfahrens ist ein DMD-Chip (Digital Mirror Device) mit bis zu 1.400 × 1.050 (SXGA+) mikroskopisch kleinen Speicherzellen, wobei sich auf jeder Zelle ein kleiner beweglich gelagerter Spiegel befindet. Pro Zelle wird ein Pixel dargestellt. Liegt Spannung an der Zelle an, bewegt sich der Spiegel und Licht wird reflektiert. Die Ansteuerung eines der Elemente erfolgt mit einer Auflösung von einem Byte. Es können demnach 256 verschiedene Helligkeitsstufen dargestellt werden. Da die Spiegel nur binär zu schalten sind, wird die erforderliche Helligkeit über die Reflexionszeit gesteuert. Farben können durch drei Techniken projiziert werden, die in Tabelle 3-7 näher beschrieben werden.
Tabelle 3-7
Farbprojektionstechniken bei DLP-Projektoren
1 DMD-
Zwischen dem Chip und der Projektionslampe befindet sich ein Farbrad mit drei gleich großen Segmenten für die Grundfarben. Durch die Trägheit des Auges scheint der sequentielle Farbaufbau gleichzeitig stattzufinden. Es kann zu einem Regenbogeneffekt kommen.
2 DMD-
Dieser Aufbau nutzt ein Prisma und ein Farbrad. Da die bei der Beleuchtung genutzten Metalldampflampen einen relativ geringen Rotanteil besitzen, wird dieser künstlich erhöht, indem ein Chip vollständig für die Projektion dieser Farbe genutzt wird. Die beiden anderen Grundfarben teilen sich den zweiten Chip. Das rotierende Farbrad filtert lediglich die Grün- und Blauanteile für den zweiten Chip.
3 DMD-
Durch ein Prisma wird das Licht gebrochen, je Grundfarbe zu einem Chip geleitet und dort reflektiert. Durch die Überlagerung der drei Projektionen entsteht das farbige Bild.
Chip
Chips
Chips
111
3
Hardware
LCOS (Liquid Crystal on Silicon) Hier werden Eigenschaften der LCD- und DLP-Technologie miteinander kombiniert. Anstelle der einzelnen Spiegel werden Flüssigkristalle auf einem reflektierenden Spiegelsubstrat angeordnet, so dass keine Durchleuchtung notwendig ist. Wie bei einem LCD-Projektor werden drei dieser LCOS-Chips benötigt, um die Farben Rot, Grün und Blau darzustellen. LCOS-Geräte haben keine sichtbare Pixelstruktur, gegenüber DLPs eine natürlichere Schärfe und wie LCDs eine sehr gute Farbsättigung. Allerdings sind Kontrast und Lampenlebensdauer der Geräte vergleichsweise gering. Die max. Auflösung beträgt wie bei DLP 1.400 x 1.050 Pixel, jedoch zu wesentlich höheren Preisen.
Laser Light Blue Optics, eine Ausgründung der Cambridge University, entwickelt Projektionssysteme auf der Basis von blauem Laserlicht. Hierbei wird ein holografisches Muster auf einem kleinen LCOS-Chip dargestellt. Ein Laser streut sein Licht durch eine einfache Optik auf diesen Chip, wodurch das auftreffende Licht mit sich selbst interferiert. Diese Technologie führt zu einem projizierbaren Bild, welches in jeglicher Distanz scharf und fokussiert ist. Dies ist das einzige Projektionssystem, welches extrem miniaturisiert werden kann und sehr wenig Energie verbraucht, so dass in absehbarer Zeit sogar mobile Endgeräte großflächige Projektionen ohne spezielle Leinwände erlauben könnten. Derzeitige Prototypen nutzen FPGAs (Field Programmable Gate Array) zur Berechnung des holografischen Musters und sind in der Lage, zweidimensionale hochaufgelöste Videoquellen in Echtzeit darzustellen.
Druckausgabe Zur Datenausgabe auf Papier und anderen bedruckbaren Medien haben sich verschiedene Verfahren entwickelt. Die in der folgenden Tabelle erläuterten Merkmale sind bei der Auswahl von Bedeutung.
Tabelle 3-8
Druckermerkmale
Druckprinzip
112
Das Druckprinzip definiert die Art und Weise, wie die Daten auf das Ausgabemedium gelangen. Man unterscheidet Druckverfahren mit und ohne Anschlag. í
mit Anschlag: Nadeldrucker
í
ohne Anschlag: Tintenstrahl-, Laser-, Thermotransfer- und Thermosublimationsdrucker
Ausgabegeräte
Auflösung
Die Auflösung wird in Punkten pro Zoll horizontal und vertikal angegeben. Drucksysteme, die die Größe der Bildpunkte beim Druck variieren können, haben u. U. trotz einer geringeren physikalischen Auflösung ein optisch besseres Druckbild.
Format
Je nach Druckprinzip sind Formate bis A0 möglich. Im Bürobereich übliche Größen bewegen sich bei Formaten bis A3.
Schnittstellen
Zur Ansteuerung von Druckern sind unterschiedliche Schnittstellen im Einsatz (Seriell, Parallel, Infrarot, USB, Bluetooth, Netzwerk).
Geräuschentwicklung
Je nach Druckprinzip entwickeln die Geräte unterschiedlich stark Geräusche. Durch Dämmstoffe und geeignete Gehäusekonstruktionen kann die Lärmbelästigung verringert werden.
Anschaffungspreis
Abhängig von Druckprinzip, Format, Auflösung und der Fähigkeit zum Farbdruck differieren die Preise in einem großen Intervall.
Seitendruckkosten
Nicht nur der Anschaffungspreis sondern die laufenden Kosten sind von großer Bedeutung. Beim Vergleich erfolgt eine Umlage auf den Seitenpreis.
Geschwindigkeit
Ein weiteres Merkmal von Druckern ist die Seitenzahl, die pro Minute gedruckt werden kann. Zur Messung existieren standardisierte Dokumente.
Speicher
In Abhängigkeit von der Auflösung und möglichem Farbdruck variiert der Speicherbedarf.
Druckbildaufbereitung
Die Aufbereitung kann vom Gerät oder durch den Computer erfolgen. Im zweiten Fall hängt die Performance des Druckers von der Konfiguration des Computers ab. Ein Beispiel für computerbasierte Druckbildaufbereitung ist das Windows Printing System (WPS). Obwohl solche Drucker in der Anschaffung tendenziell preiswerter sind, besitzen sie den Nachteil, an ein bestimmtes Betriebssystem gebunden zu sein. Einige Hersteller haben daher beide Technologien in einem Gerät implementiert.
Druckersprachen
Die Ansteuerung der Drucker erfolgt mittels einer Druckersprache. Aus den in dieser Sprache übermittelten Daten erzeugt der Drucker das Druckbild. Als Standard gelten die Sprachen PCL (Printer Control Language, rasterorientiert) und Postscript (vektororientiert).
Schwarz/Weiß, Farb-
Neben der monochromen Ausgabe lässt sich mit allen aufgeführten Druckprinzipien der Ausdruck von Farben realisieren. Unterschiede in der Qualität ergeben sich neben dem Druckverfahren durch die Auflösung und
druck
113
3.6
3
Hardware
die Anzahl der darstellbaren Farben. Alle Drucker können zumindest auf Papier drucken. Unterschiede ergeben sich hier lediglich durch das 2 zulässige Gewicht, angegeben in Gramm/m . Für den Fotobereich existieren Papiere mit spezieller Beschichtung. Außerdem beherrschen einige Verfahren den Druck auf Folien. Auch die Möglichkeit des beidseitigen Drucks (duplex) ist zu berücksichtigen.
Medien
Nadeldrucker Die Schriftzeichen werden innerhalb einer Matrix punktartig zusammengesetzt. Mit steigender Anzahl der Nadeln ergibt sich ein feineres Druckbild. Die Nadeln treffen mit hoher Geschwindigkeit auf ein Farbband und drücken dessen Farbteilchen auf das Papier. Aufgrund des mechanischen Prinzips können mit Nadeldruckern auch Durchschläge gedruckt werden. Nachteilig ist die hohe Geräuschentwicklung. Durch mehrfarbige Farbbänder ist Farbdruck möglich. Die Anzahl der Nadeln schwankt zwischen 9 und 48.
Tintenstrahldrucker Diese Drucker nutzen flüssige Tinte, die aus Düsen auf das zu bedruckende Medium gespritzt wird. Die beiden in der folgenden Tabelle beschriebenen Druckprinzipien haben sich durchgesetzt. Tintenstrahldrucker verfügen zumeist über vier verschiedene Tintenfarben (zyan, magenta, gelb und schwarz) aus denen die zu druckende Farbe während des Pixeldrucks gemischt wird. Vorteilhaft sind Modelle, bei denen die Tintenbehälter einzeln ausgetauscht werden können. Eine Sonderform von Druckern, die zumeist auf dem Tintenstrahldruck basiert, sind Plotter. Sie ermöglichen großformatigen Druck und verwenden spezielle Druckersprachen. Tabelle 3-9
Druckprinzipien von Tintenstrahldruckern
Drucken durch
Bei diesem Verfahren wird die Tinte erwärmt und aufgrund der Ausdehnung durch die Düse gepresst. Beim Abkühlen der Flüssigkeit bildet sich ein Unterdruck, der Tinte aus der Patrone nachfüllt. Die Tinte muss hitzebeständig sein, für den Druckprozess ist eine Kühlung notwendig.
Drucken durch
Durch das Anlegen einer Spannung wird ein Piezo-Element in Schwingung versetzt. Ähnlich einem Lautsprecherkonus drückt eine Membran die Tinte zusammen und presst sie durch die Düse. Diese Technik hat den Vorteil, dass die Tinte nicht hitzebeständig sein muss und keine Erwärmungs- und Abkühlungszyklen notwendig sind.
Erwärmung
elektrische Spannung
114
Ausgabegeräte
3.6
Laserdrucker Ein Laser erzeugt ein elektrostatisches Abbild der zu druckenden Seite auf einer geladenen Trommel. Dabei werden genau die Stellen der Trommel entladen, die auf dem Medium bei der späteren Ausgabe nicht bedruckt werden. Die Ladung der Trommel zieht ein feines Pulver, den Toner an. Anschließend wird die Trommel auf dem Medium unter hoher Temperatur abgerollt und der Toner durch Druck und Hitze fixiert.
Tabelle 3-10
Technologien zum Entladen der Trommel bei Laserdruckern
konventioneller Laser
Laser und Ablenkspiegel
LED (Light Emitting Diode)
Leuchtdiodenzeile in der physikalischen Auflösung des Druckers
LCD (Liquid Crystal Display)
Flüssigkristallzeile anstelle der LEDs
LCS (Liquid Crystal Shutter)
Flüssigkristallzeile mit Linsenfokussierung
Beim Farbdruck erfolgt der Druckvorgang für die Grundfarben entweder einzeln oder in einem Durchgang. Der Ausdruck auf das Medium erfolgt wie beim Monochromdruck. Der Ausdruck eines Farblasers erreicht allerdings nicht die Qualität eines Farbtintenstrahldruckers auf Spezialpapier.
Thermosublimationsdrucker Bei diesen Druckern sind die Farben wachsartig (in festem Zustand) auf Folien in der Größe des zu bedruckenden Mediums aufgebracht. Durch Erhitzung verflüssigt sich die Farbe und wird auf das Medium (laminiertes Spezialpapier) gepresst. Dabei erfolgt ein Übergang vom festen in den gasförmigen Zustand. Unter der Laminierung erstarrt die Farbe wieder. Der Druck erfolgt seitenweise mit dem aufeinander folgenden Aufbringen der Grundfarben. Thermosublimationsdrucker sind die besten Farbdrucker, da pro Grundfarbe durch die Variation der Temperatur 256 Abstufungen gedruckt werden können und keine Rasterung notwendig ist.
Thermotransferdrucker Die Drucktechnik ähnelt dem Thermosublimationsdrucker. Es handelt sich jedoch um ein Zeilendruckverfahren. Die Grundfarben sind auf schmalen Folienstreifen aufgebracht. Bei der Erwärmung des Druckkopfes verflüssigt sich die Farbe und wird auf das Medium gepresst.
115
3 Tabelle 3-11
Hardware
Vergleich der Druckprinzipien Druckprinzip
A4-Seitenpreis Max. Auflösung [€] [dpi × dpi]
Max. Seitenleistung [Seiten/Minute]
Nadel (monochrom)
0,02 – 0,03
360 × 360
12
(Text)
Nadel (Farbe)
0,02 – 0,03
360 × 360
4
(Grafik)
Tinte (monochrom)
0,03 – 0,06
4.800 × 2.400
8
(Text)
Tinte (Farbe)
0,30 – 2,00
2.400 × 1.200
1
(Grafik)
Laser (monochrom)
0,01 – 0,02
1.200 × 1.200
45
(Text)
Laser (Farbe)
0,09 – 0,14
1.200 × 1.200
30
(Grafik)
Thermosublimation
2,00 – 6,00
300 × 300
1
(Grafik)
Thermotransfer
0,40 – 0,50
600 × 600
0,5
(Grafik)
Akustische Ausgabe Die digitalen Informationen werden in analoge Signale umgewandelt und über Lautsprecher ausgegeben. Die Signalerzeugung kann durch mathematische Verfahren oder gespeicherte Samples erfolgen (siehe dazu auch im Abschnitt 3.7 die Ausführungen zu Soundkarten).
3.7 Periphere Karten/Komponenten
Steckkarten zur Erweiterung der Hauptplatinenfunktionalität
Unter den peripheren Karten werden die Hardwarekomponenten verstanden, die direkt in die Erweiterungssteckplätze der Hauptplatine gesteckt werden und dort eine Schnittstelle für Ein- und Ausgabegeräte bilden. Es existiert eine Vielzahl solcher Karten für die unterschiedlichsten Einsatzzwecke. Die Palette reicht von Komponenten zur analogen und digitalen Bildausgabe über Lösungen zur Video- und Audioverarbeitung bis hin zu zahlreichen Geräten zur Kommunikation (Netzwerkkarten, Modems, ISDNAdapater). Diese internen Komponenten kommunizieren über eines der angesprochenen internen Bussysteme (PCI, PCI-X, PCI-Express, AGP). Außerdem sind etliche dieser Karten auch als externe Version verfügbar, die über eines der externen Bussysteme (USB, Firewire) angeschlossen werden.
116
Periphere Karten/Komponenten
3.7
Grafikkarten Grafikkarten sind darauf spezialisiert, durch wenige Befehle komplexe Grafiken aufzubereiten und in Signale zur Ansteuerung von Bildschirmen umzuwandeln. Hauptziel ist es dabei, die CPU von Aufgaben der GrafikDarstellung zu entlasten. Sie können alternativ in die Hauptplatine integriert sein (On-Board-Grafik). Aktuelle Grafikkarten sind zumeist in der Lage, mehrere Ausgabegeräte anzusteuern (Analog-, Digitalmonitore sowie TVGeräte).
Steuerung der grafischen Ausgabe von Informationen
Die wichtigsten Komponenten einer Grafikkarte sind der Grafikprozessor, der Bildspeicher sowie bei analoger Ausgabe der RAMDAC. Für das Verständnis der Zusammenarbeit dieser Komponenten sind die Merkmale Auflösung und Farbtiefe von Bedeutung.
Auflösung und Farbtiefe Ein von einer Grafikkarte erzeugtes Bild setzt sich aus vielen einzelnen Punkten zusammen, die zeilenweise dargestellt werden. Diese Bildpunkte werden als Pixel bezeichnet und stellen die kleinste separat ansprechbare Einheit dar. Jeder Pixel enthält Farb- und Helligkeitsinformationen. Diese Informationen nennt man Farbtiefe. Durch das binäre Zahlensystem kann jedes Bit genau zwei Zustände annehmen. Bei acht Bit entstehen so genau 28 = 256 Möglichkeiten. Geht man von einem Bild mit 256 Farbtönen aus, so reichen 8 Bit für die Farbcodierung. Folgende Tabelle gibt eine Übersicht über die Farbtiefen und die dafür notwendigen Bit pro Pixel.
Tabelle 3-12
Farbtiefe Anzahl der Farben
Notwendige Bit pro Pixel 16
4
256
8
16.380
14
32.760
15
65.520
16
16.777.216
24
(True Color) 4.294.967.296
32
Die Auflösung eines Bildschirmbildes wird durch zwei Zahlen angegeben, die horizontale und die vertikale Anzahl von Bildpunkten. Je höher
117
3
Hardware
die Auflösung ist, umso mehr Informationen können dargestellt werden und umso mehr Pixel müssen durch die Grafikkarte bearbeitet werden. Gängige Auflösungen sind in Tabelle 3-13 dargestellt. Wird die Anzahl der Pixel mit der gewünschten Farbtiefe multipliziert, so erhält man die notwendige Größe des Bildspeichers in Bit.
Tabelle 3-13
Auflösung und Speicherbedarf Auflösung
Anzahl der Pixel
Speicherbedarf bei 32 Bit Farbtiefe [MB]
Bezeichnung
640 × 480
307.200
1,2
VGA
800 × 600
480.000
1,9
SVGA
1.024 × 768
786.432
3,1
XGA
1.280 × 1.024
1.310.720
5,1
SXGA
1.400 x 1.050
1.470.000
5,7
SXGA+
1.600 × 1.200
1.920.000
7,5
UXGA
1.920 x 1.200
2.304.000
9,0
WUXGA
Grafikprozessor Der Grafikprozessor hat die Aufgabe, die CPU von der Aufbereitung der Grafikdaten zu entlasten. Dadurch wird es möglich, dass nicht mehr der gesamte Bildschirminhalt über den Bus transportiert werden muss, sondern nur noch einige wenige Grafikbefehle. So können heutige Grafikprozessoren Befehle wie Darstellen, Verschieben, Verkleinern und Vergrößern von Fenstern, Zeichnen von Linien, Dreiecken und Polygonen sowie die Darstellung und Skalierung von Schriften selbständig ausführen. Die Geschwindigkeit der Bearbeitung ist sehr hoch, da diese Funktionen als Hardware realisiert sind. Wurde der Grafikprozessor auch für die Darstellung von dreidimensionalen Bildern konzipiert, so werden von ihm die Berechnung und die Darstellung von 3D-Daten mit übernommen. Der Markt wird von lediglich drei Herstellern dominiert (Nvidia, ATI, Intel), deren Chipsätze von zahlreichen Lieferanten in unterschiedlichen Produkten zu finden sind.
Bildspeicher Der Bildspeicher dient der Aufbereitung und Zwischenspeicherung des darzustellenden Bildes. Er befindet sich auf der Grafikkarte und kann somit sehr schnell mit dem Grafikprozessor kommunizieren. Als Speichertyp wird bei den meisten aktuellen Karten GDDR3 (Graphics Double Data Rate 3) eingesetzt, ein spezieller Speicher mit 256 Bit Bandbreite. In
118
Periphere Karten/Komponenten
3.7
modernen Grafikkarten mit 3D-Funktionen wird der Bildspeicher auch zur Zwischenspeicherung von Texturen (Oberflächenmuster von Objekten) und als Speicher für Berechnungsinformationen genutzt. Typische Speichergrößen heutiger Grafikkarten liegen bei 32 bis 512 MB. Es existieren zudem Lösungen für den reinen Bürobereich mit geringen Leistungsansprüchen, die den Grafikspeicher aus dem Hauptspeicher bedienen (shared memory).
RAMDAC Der RAMDAC (Random Access Memory Digital Analog Converter) wandelt das im Bildspeicher enthaltene digitale Bild in analoge Signale zur Bildschirmansteuerung um. Von der Geschwindigkeit dieses Bausteins, die in Megahertz (MHz) angegeben wird, ist die Bildwiederholfrequenz abhängig. Sie steht in direktem Zusammenhang mit der Auflösung. Derzeit sind RAMDAC-Bausteine mit bis zu 400 MHz gebräuchlich. Der Anschluss an den Monitor erfolgt per VGA- oder DVI-A- bzw. DVI-I-Kabel (Digital Visual Interface).
digitale Grafikkarten Im Unterschied zu herkömmlichen Bildschirmen werden LCD-Displays nicht analog sondern digital angesteuert. Dies bedeutet, dass digitale Grafikkarten auf einen RAMDAC verzichten können. Dadurch wird eine Verbesserung der Bildqualität erreicht. Für die Verbindung zum Monitor werden DVI-D- bzw. DVI-I-Stecker und -Kabel genutzt.
Soundkarten Soundkarten dienen der Ein- und Ausgabe von Audiodaten. Dazu gehören sowohl Sprache als auch Musik. Zu diesem Zweck enthält jede Soundkarte einen ADC (Analog Digital Converter) zur Eingabe sowie einen DAC (Digital Analog Converter) zur Ausgabe. Die Eingabe wird auch als Sampling oder Digitalisierung bezeichnet. Dabei können die Daten über verschiedene Anschlüsse an der Soundkarte zum ADC gelangen (Mikrofon, Line-In, CDIn, S/PDIF). Bei der Ausgabe kommen vorrangig die Frequenzmodulation oder die Wave-Table-Synthese zum Einsatz.
Ein- und Ausgabe von Audiodaten
Analog-Modems Diese Geräteklasse erlaubt es dem Nutzer, Daten über das Telefonnetz per Wählverbindung auszutauschen. Bei einem analogen Telefonanschluss ist dies nur über ein Gerät möglich, das eine Konvertierung von analogen und digitalen Daten beherrscht. Dieses Verfahren der Modulation und Demodulation gab dem Modem seinen Namen. Modems dienen der Übertragung
119
Datenaustausch über das analoge Telefonnetz
3
Hardware
von Dateien, als Faxgerät sowie zur Unterstützung der Telefonie (Anwahl, Anrufbeantworter). Heutige Modems erreichen Geschwindigkeiten bis zu 56 kBit/s und liegen somit im Bereich von ISDN-Übertragungen ohne Kanalbündelung.
ISDN-Geräte
digitaler Datenaustausch über ISDNTelefonnetz
Bei ISDN entfällt die Modulation und Demodulation der Daten. Sie werden direkt zur digitalen Vermittlungsstelle übertragen. Die gebräuchliche ISDNVariante (ISDN-2) besteht aus zwei B-Kanälen mit je 64 kBit/s Übertragungsgeschwindigkeit, die beide getrennt oder gemeinsam mit Kanalbündelung betrieben werden können, sowie einem D-Kanal mit 16 kBit/s, der Kontrollinformationen überträgt. Es existieren weitere Varianten mit bis zu 30 BKanälen bzw. Breitband-ISDN (siehe dazu auch Kapitel 5). ISDN ist nur in Europa verbreitet. ISDN-Geräte gibt es als interne und externe Version.
xDSL-Zugangsgeräte
digitaler Datenaustausch mit hohen Übertragungsgeschwindigkeiten
Die DSL-Technologie (Digital Subscriber Line) ermöglicht höhere Übertragungsraten auf vorhandenen Kupferleitungen ohne Investitionen in das Leitungsnetz. Die verschiedenen Ansätze unterscheiden sich bei der Übertragungsrate zum und vom Nutzer sowie hinsichtlich der überbrückbaren Entfernungen. Für den Privatbereich hat sich die Variante ADSL (Asymmetrisches DSL) durchgesetzt. Dabei sind Übertragungsraten zum Nutzer bis zu 3.072 kBit/s und vom Nutzer bis zu 384 kBit/s üblich. Die Technologie nutzt die Tatsache, dass nur ein geringer Frequenzbereich der Kabel für den Telefonverkehr notwendig ist. Zusätzlich zu diesem Frequenzbereich existiert jeweils ein weiterer Bereich für die Übertragung von Daten zum und vom Nutzer. Die DSL-Technologie überbrückt die relativ kurzen Distanzen zwischen Dienstanbieter und Endverbraucher, die „letzte Meile“. Der Nutzer benötigt einen Splitter zur Separierung der Telefonleitung und ein DSL/Endgerät (mit USB oder Ethernetanschluss evtl. in Kombination mit einem LAN/WLAN-Router). Gerade das mit Glasfaser ausgebaute Telefonnetz in Deutschland führt dazu, dass viele Kunden momentan nicht mit DSL versorgt werden können, da diese Technologie auf Kupferkabeln basiert.
Kabelmodems Als Konkurrenz zur xDSL-Technologie werden vorhandene Breitbandfernsehnetze zur Datenübertragung genutzt. Allerdings ist deren Verbreitung
120
Periphere Karten/Komponenten
3.7
vergleichsweise gering. Sind entsprechende Leitungen nicht vorhanden, kann kein Kabelmodem angeschlossen werden. Die in Deutschland verfügbare max. Übertragungsrate beträgt zum Nutzer 10.240 kBit/s und vom Nutzer 1.280 kBit/s. Dieser Wert steht einem Anwender allerdings nie exklusiv zur Verfügung. Die Signale werden auf entsprechende Fernsehfrequenzen aufmoduliert. Dabei wird jeweils ein Kanal für eine Richtung genutzt. Während zu Beginn der Entwicklung nur eine Übertragung zum Nutzer möglich war, ist gegenwärtig die Nutzung von zwei Kanälen zum zusätzlichen Übertragen der Daten vom Nutzer üblich.
Datenübertragung über Fernsehkabelnetze
Powerline Communications (PLC) Ursprünglich als weitere Alternative zu xDSL positioniert, existiert Powerline gegenwärtig nur noch als Nischenangebot in einigen Regionen bzw. zur Inhouse-Vernetzung. Die Daten werden mittels eines hochfrequenten Datenkanals auf die niederfrequente Stromleitung aufmoduliert. Da Stromleitungen dafür allerdings keinerlei Isolation besitzen, ähneln sie Antennen, die anderen Funk in diesem Frequenzbereich erheblich stören können. Damit spielt PLC praktisch nur noch für die interne Vernetzung eine gewisse Rolle, wobei zum einen die Verschlüsselung mit 56 Bit als zu schwach einzustufen ist und zum anderen lediglich Transferraten zwischen 5 und 10 MBit/s je nach Verkabelung zu erreichen sind. Powerline Adapter gibt es als USB- und Ethernetversionen.
Kommunikation über Stromkabel
Netzwerkkarten Eine Netzwerkkarte ist eine Erweiterungskarte, die den Computer physikalisch mit einem Netzwerk verbindet. Die meisten dieser Karten wurden für bestimmte Netzwerktypen, Protokolle und Medien entwickelt (siehe dazu auch Kapitel 5). Im Gegensatz zu einer Wählverbindung bietet eine Netzwerkkarte eine Vollzeitverbindung zum Netzwerk, solange die Verbindung aktiviert ist. Jede Netzwerkkarte wird über die MAC-Adresse (Media Control Access) weltweit eindeutig identifiziert.
Multimediakarten Neben Grafik- und Soundkarten existieren zusätzliche Karten aus dem Multimediabereich:
121
Verbindung zu einem Netzwerk
3
Hardware
Videokarten Eine Videokarte ermöglicht, Video in ein computerlesbares Format umzuwandeln, indem die analogen Videosequenzen digitalisiert werden. Die Qualität ist abhängig von Auflösung, Farbtiefe und Framerate (Bildanzahl je Sekunde). Dabei werden hohe Hardwareanforderungen gestellt. Die Videokarte besitzt eine Vielzahl von Ein- und Ausgängen, um die unterschiedliche Audio- und Videohardware bedienen zu können (Composite Video, S-Video). Das Eingangssignal wird zeilenweise abgetastet und in einzelne Pixel zerlegt. Um die dabei entstehende Datenmenge zu beherrschen, wird das digitale Videoformat komprimiert. Dazu bedient man sich so genannter Codecs (Coder/Decoder), die auf unterschiedlichen Algorithmen basierend ein Komprimat des Ausgangssignals erzeugen (MPEG, Cinepak, IVI – Indeo Video Interactive, AVI – Audio Video Interleaved).
Videokomprimierung
Tunerkarten Radio- und Fernsehempfang
Diese Geräteklasse ermöglicht den Empfang von Radio- und Fernsehprogrammen. Je nach Einsatzgebiet ist es möglich, terrestrisch per Antenne, über Kabelanschluss oder per Satellit analoge und digitale Sender zu nutzen. Die Karten funktionieren wie adäquate Bausteine in Fernsehund Rundfunkgeräten sowie Satellitenreceivern. Auch Besonderheiten wie Videotext können durch entsprechende Decoderbausteine genutzt werden.
3.8 Klassifikation von Computersystemen Microcontroller Ein Microcontroller ist ein hochintegrierter Chip, der aus folgenden Komponenten besteht: CPU, RAM, ROM sowie Eingabe- und Ausgabeanschlüsse. Microcontroller werden für spezielle Einsatzzwecke entwickelt (z. B. Einsatz in der Steuer- und Regelungstechnik).
Embedded System Sie sind Teil größerer Systeme. Meist werden die Komponenten auf einer einzigen Platine aufgebracht. Benötigte Programme werden in ROM-Bausteinen abgelegt. Embedded Systems werden in vielen Konsum- und Industriegütern eingesetzt (z. B. in Digitalkameras, Haushaltsgeräten, Telefonen, Autos oder Werkzeugmaschinen).
122
Klassifikation von Computersystemen
Organizer / Palmtop / Handheld / PDA / Smartphone Diese Gruppe besteht aus kleineren tragbaren Computern, die hauptsächlich Funktionen eines Informationsmanagers übernehmen. Aufgrund der relativ kleinen Tastaturen und Displays sind sie keine Konkurrenz zur Klasse der Notebooks bzw. Laptops. Moderne Vertreter verfügen über Software zur Handschrifterkennung sowie eine umfangreiche Ausstattung an Kommunikationsschnittstellen.
(Sub-)Notebook / Laptop / TabletPC Sie sind das mobile Gegenstück zu stationären Personalcomputern und erreichen deren Leistungsfähigkeit bei einem Gewicht ab ca. 1 Kilogramm (Subnotebook). Die Miniaturisierung aller Komponenten wirkt sich mit einem höheren Anschaffungspreis gegenüber einem vergleichbar ausgestatteten PC aus. Trotz umfangreicher Stromsparmechanismen benötigen die meisten Vertreter dieser Gruppe nach ca. 3 Stunden ein Aufladen der Akkumulatoren. Einer der größten Kostenfaktoren ist die aufwendige Herstellung der Displays.
Personalcomputer / Workstation Für diese Gruppe ist eine klare Abgrenzung sehr schwierig vorzunehmen. Ursprünglich existierte eine klare Unterteilung beider Begriffe. Workstations wurden besonders bei grafik- und rechenintensiven Aufgaben eingesetzt. Mit PCs wurden Büroanwendungen bedient. Gegenwärtig ist die Hardware so leistungsfähig, dass alle genannten Aufgaben von Personalcomputern bewältigt werden können. Die begrifflichen Grenzen sind daher fließend.
Servercomputer / Großrechner Wie in der zuvor beschriebenen Gruppe ist eine Unterteilung ebenfalls schwierig. Diese Systeme unterscheiden sich je nach Leistungsfähigkeit einzelner Komponenten, der Anzahl zu bedienender Nutzer sowie dem Einsatzzweck. Sie übernehmen die Verwaltung von Netzwerkressourcen und sind die Basis für unterschiedliche Applikationen (Datenbank, Web, Mail), die von vielen Nutzern gleichzeitig ausgeführt werden können.
123
3.8
3
Hardware
Supercomputer Für spezielle Einsatzzwecke der Simulation in Forschung und Industrie wie Wettervorhersage, Kernenergieforschung sowie die Erstellung komplexer Animationen werden mathematisch sehr leistungsfähige Computer benötigt. Sie unterscheiden sich gegenüber den Servercomputern / Großrechnern darin, dass sie nicht eine Vielzahl von Nutzern mit unterschiedlichen Programmen bedienen müssen, sondern auf die Abarbeitung weniger Programme optimiert sind. Supercomputer stellen zumeist ein Cluster aus einer Vielzahl identischer Hochleistungsserver, die über ein Hochgeschwindigkeitsnetzwerk miteinander verbunden sind (grid computing), dar.
Vertiefende Literatur BENENTI, G.; STRINI, G.; CASATI, G.: Principles of Quantum Computation and Information, Volume 1: Basic Concepts. World Scientific, 2004
BSI (Bundesamt für Sicherheit in der Informationstechnik): Risiken und Chancen des Einsatzes von RFID-Systemen, 2004
HANSEN, H. R.; NEUMANN, G.: Wirtschaftsinformatik 2 - Informationstechnik, Lucius & Lucius, 2005
HERRMANN, P.: Rechnerarchitektur. Vieweg, 2002 KERSKEN, S.: Kompendium der Informationstechnik, Galileo Press, 2003 OBERSCHELP, W.; VOSSEN, G.: Rechneraufbau und Rechnerstrukturen. Oldenbourg, 2003
ROSCH, W. L.: The Winn L. Rosch Hardware Bible. Que Education & Training, 6th ed., Indianapolis 2003
TROPPENS, U.; ERKENS, R.: Speichernetze. dpunkt, 2002 TANENBAUM, A.; GOODMAN, J.: Computerarchitektur. Prentice Hall, Englewood Cliffs 2001
124
Klassifikation von Computersystemen
Kapitel 4 Software
125
3.8
Grundlagen
4
4.1
Software
4.1 Grundlagen Software ist ein Sammelbegriff für die Gesamtheit der Programme, die zugehörigen Daten und die notwendige Dokumentation, die es erlauben, mit Hilfe eines Computers Aufgaben zu erledigen. Software als Produkt betrachtet die Software aus der Sicht der Käufer, Benutzer oder Auftraggeber. Software hat alle Eigenschaften eines Produktes, wie Qualität, Herstellungskosten, Preis, Einsatzbedingungen und einen Lebenszyklus. Ein Auftraggeber ist für die Vorgabe der Anforderungen an das zu entwickelnde Softwareprodukt verantwortlich. Diese Vorgaben für die Entwicklung werden auch als Produktdefinition bezeichnet. Sie werden in einer Dokumentation als Ergebnis der Bestimmung der Anforderungen (requirements definition) an das Produkt festgehalten. Ergänzt um kommerzielle Konditionen wird die Produktdefinition (auch Produktspezifikation genannt) als Pflichtenheft zwischen dem Auftraggeber und dem Auftragnehmer vereinbart.
Definition der Softwareanforderungen
Besonderheiten des Produktes Software
Abbildung 4-1
Einige Besonderheiten kennzeichnen das Produkt Software:
Software ist ein immaterielles Produkt. Die geistige Urheberschaft ist nicht durch das Urheberrecht gesichert. Die Vervielfältigung der Ware Software ist sehr einfach und verursacht nur geringe Kosten.
Die Erträge steigen überproportional mit der Zahl der verkauften Produkte. Die Einfachheit der Vervielfältigung birgt die Gefahr der unberechtigten Nutzung und sogar des illegalen Vertriebs (Softwarepiraterie).
Das Produkt kann verfälscht werden (Computerviren). Die Ware unterliegt einem hohen moralischen Verschleiß. Das Produkt Software ist ständig zu warten, anzupassen und weiter zu entwickeln.
127
4
Software
Im Folgenden werden der Softwaremarkt und der Produktlebenszyklus etwas näher betrachtet.
Softwaremarkt Der Softwaremarkt ist global und entwickelt sich mit hohen Wachstumsraten. Merkmale des Softwaremarktes sind u. a. die Vertriebskonzepte und die Herstellerbindung.
Vertriebskonzepte Vertriebskonzepte können sich in vielen Aspekten unterscheiden, u. a. in den Vertriebswegen, den Varianten der Softwarebereitstellung, des Schutzes vor Missbrauch und der Preisbildung (Lizenzpolitik). Einige dieser Merkmale sind in der Tabelle 4-1 dargestellt. Die Lizenzierung, d. h. die Berechnung der Anzahl der genutzten Exemplare einer Software, erfolgt zumeist je Arbeitsplatz oder in Mengenstaffeln (z. B. 5, 10, 20 Benutzer). Das Konzept der fließenden Lizenz (Floating Licence) erlaubt dagegen einer beliebigen Zahl von Benutzern, über das Netz auf die Software zuzugreifen. Es dürfen jedoch gleichzeitig nur so viele Benutzer arbeiten, wie Lizenzen gekauft oder gemietet wurden. Diese Form der Lizenzierung ist insbesondere bei solchen Produkten vorteilhaft bei denen eine größere Zahl von Benutzern die Software nur zeitweilig benötigt. Die Angebotsformen Shareware und Freeware erhielten in den letzten Jahren zunehmende Bedeutung. Shareware erlaubt dem potenziellen Anwender eine kostenfreie Benutzung der Software, um die Eignung für den Einsatzzweck hinreichend zu testen. Erst nach Ablauf der Erprobungsfrist wird eine Kaufentscheidung notwendig. Vorwiegend werden vollständig funktionsfähige Produkte, aber mit begrenzter Nutzungsdauer – häufig zum Herunterladen aus dem Internet (download) – bereitgestellt. Nachdem dieses Angebot anfangs vorwiegend für preisgünstige Software mit eher geringem Funktionsumfang genutzt wurde (z. B. Virenscanner, Dienstprogramme, einfache Office-Programme), wird zunehmend auch Software mit größerer Funktionalität (z. B. Softwareentwicklungswerkzeuge) mit limitierter Nutzungszeit oder limitierten Funktionen über das Internet verfügbar gemacht.
kostenloser Test der Software
128
Grundlagen
4.1 Tabelle 4-1
Vertrieb von Software Merkmale
Ausprägungen
Vertriebsweg
í zusammen mit Hardware (OEM) í Direktvertrieb í Zwischenhändler
Lieferweg
í auf Datenträgern (CDs, DVDs) í per Download
Lizenzierung
í Static Licence (je Arbeitsplatz) í Floating Licence (je Programmaufruf) í Staffelpreise í je Unternehmen
Kopierschutz
í Code-Schlüssel í Digital Rights Management (DRM) í Hardwareschutz (Dongle) í kein
Angebotsform
í per Order í Shareware í Freeware í Mietsoftware
Aktualisierung (Update)
í auf Datenträgern (CDs, DVDs) í per Download í kostenfrei í kostenpflichtig
Als Freeware wird Software bezeichnet, für deren Nutzung keine Lizenzgebühren entrichtet werden müssen. Zur am weitesten verbreiteten Freeware gehört Software, die der General Public License (GPL) unterliegt. Sie definiert ein Copyright, das sich in wesentlichen Punkten von herkömmlicher Software unterscheidet. Die GPL geht auf das 1983 gegründete GNU-Projekt der Free Software Foundation (FSF) zurück. Ziel des GNU-Projektes war die Entwicklung eines freien UNIX-kompatiblen Betriebssystems (daher das rekursive Akronym GNU: „GNU is not UNIX“). Daraus entstand schließlich das Betriebssystem Linux. Der Begriff „frei“ wird in der folgenden Bedeutung verwendet:
129
freie Nutzung
4 General Public License
Software
1. Die Software darf für jeden Einsatzzweck genutzt werden. 2. Die Software darf verändert und an Nutzerbedürfnisse angepasst werden. 3. Die Software darf gratis oder gegen Entgelt vertrieben werden. 4. Modifizierte Versionen der Software dürfen vertrieben werden.
Offenlegung des Programmcodes
Um Anpassungen und Weiterentwicklungen einer freien Software zu fördern, wird deren Programmcode offen gelegt (Open Source). Die Veränderungen der Software durch die Nutzer können zentral koordiniert bzw. gesammelt werden und führen zu einer stetigen Verbesserung des Produktes. Insbesondere bei sicherheitsrelevanter Software ist der Einblick in den Programmcode von großer Bedeutung. Jeder Nutzer hat damit die Möglichkeit den Ablauf des Programms zu überprüfen.
Vertrieb von Freeware
Freeware ist nicht zwingend kostenlos. Der Vertrieb freier Software erfolgt zumeist über Distributoren, die beispielsweise für die Auswahl der Software, die Herstellung der CDs, die Erstellung und den Druck von Handbüchern sowie Transport und Verpackung ein Entgelt erheben. Im Unterschied zu Nicht-Freeware kann der Erwerber die Software jedoch an beliebig vielen Rechnern nutzen, Kopien anfertigen und diese weitergeben.
Copyleft
Eine Besonderheit der General Public License ist die Gewährleistung der oben beschriebenen Freiheiten bei jeglicher Verwendung des Programms. Weiterentwickelte Versionen der Software oder Programme in denen diese Software Bestandteil ist, unterliegen automatisch ebenfalls der GPL. Dieses Prinzip wird auch als „Copyleft – all rights reversed“ bezeichnet.
alternative Freeware-Lizenzen
Neben der GPL existieren eine Reihe weiterer Freeware-Lizenzen, die sich zumeist darin unterscheiden, dass sie den Entwicklern die Möglichkeit geben, eigene Copyrights zu verwenden und damit eine breitere Kommerzialisierung der Software erreichen.
Anwendungsbereiche
Der Einsatz von Freeware steigt insbesondere in mittelständischen Unternehmen, da sie eine kostengünstige, qualitativ hochwertige Alternative zu proprietären Systemen darstellt. Aufgrund der bislang eingeschränkten Benutzerfreundlichkeit ist Freeware im Bereich der OfficeAnwendungen noch nicht sehr verbreitet. Anwendungsgebiete sind vor allem Betriebssysteme (z. B. Linux), Webserver (z. B. Apache) und Programmiersprachen. Dies veranlasst auch die Anbieter von betriebswirtschaftlichen Komplettpaketen (ERP-Systeme) und von DatenbankManagementsystemen ihre Software auf Open-Source-Betriebssysteme
130
Grundlagen
4.1
zu migrieren. Für die Zukunft ist auch im Office-Bereich mit einer verstärkten Nutzung zu rechnen. Bei Mietsoftware (Application Service Providing – ASP, siehe Kapitel 8) nutzt der Anwender die Software, indem er über das Internet auf den Server des Anbieters zugreift. Der Anwender besitzt selbst kein Exemplar der Software. Diese läuft nur auf dem Server des Anbieters.
Softwarenutzung per Internet
Herstellerbindung / Standards Hinsichtlich des Grades der Herstellerbindung kann die Software in drei Kategorien eingeteilt werden. Diese werden in Tabelle 4-2 erläutert. Standards in der Informationsinfrastruktur beziehen sich vorrangig auf Schnittstellen zwischen den Komponenten der Informationssysteme. Sie bringen dem Anwender Unabhängigkeit von einzelnen Herstellern und deren Produkten (offene Systeme). Standards beleben den Wettbewerb, da sie ein breites Angebot zahlreicher Anbieter ermöglichen (Beispiele für Standards: SQL, X.25, DIN ISO 9000, CORBA, OSI, ASCII). Neben den durch Gremien – häufig in einem langwierigen Prozess – erarbeiteten Standards spielen die Defacto-Standards (Quasi-Standards), die durch eine marktbeherrschende Stellung entstehen, in der Praxis häufig eine große Rolle. Beispiele sind das Internet-Protokoll TCP/IP, die Formate des Office-Pakets von Microsoft als Austauschformate in der zwischenbetrieblichen Kommunikation, die Schnittstelle BAPI der SAP AG im Bereich der integrierten Unternehmenssoftware. Diese DefactoStandards haben ihre positive Wirkung durch die Existenz gemeinsam akzeptierter Protokolle und Schnittstellen.
Vereinbarung von Normen
Tabelle 4-2
Herstellerbindung Merkmal
Erläuterung
herstellergebunden
Die Software basiert auf nicht öffentlich zugänglichen Quellen.
Defacto-Standard
Der Status eines Standards wird durch eine weite Verbreitung und Akzeptanz am Markt gesetzt. Defacto-Standards können durch die marktbeherrschende Stellung einzelner Hersteller durchgesetzt werden (Beispiele: TCP/ IP, Ethernet).
Standards von Gremien
Gremien können staatliche Organisationen (ISO, DIN, ANSI, IEEE) oder Arbeitsgemeinschaften von Herstellern (X/Open, OMG) sein.
131
4
Software
Produkt-Lebenszyklus Software hat, wie andere Produkte auch, einen Lebenszyklus (life cycle). Er beschreibt eine Abfolge von Phasen der Herstellung (Entwicklung), Nutzung, eventuell der Sanierung und schließlich der Aussonderung des Produkts. Die Phasen des Lebenszyklus einer Software können in einem Lebenszyklus-Modell beschrieben werden. Die Tabelle 4-2 stellt ein Beispiel für ein solches Modell dar.
Abbildung 4-2
Software-Lebenszyklus – Kostenverlauf*
Während bei der Systemsoftware die Nutzungsphase wegen der Dynamik der technischen Entwicklung vorwiegend nur Monate bis wenige Jahre beträgt, wird dagegen Anwendungssoftware längerfristig, oft sogar über Jahrzehnte genutzt. Im günstigen Fall (Kosten ideal) werden bereits nach etwa 30 Monaten seit der Erreichung der Nutzungsreife des Produkts, die Kosten durch den Nutzen aus dem Einsatz der Software gedeckt (Break Even Point). Im ungünstigen Fall (schlechter Kostenverlauf) reicht der Nutzen nicht zur Deckung der steigenden Kosten.
*
132
Vgl.: Hansen, H. R.: Wirtschaftsinformatik I – Grundlagen betrieblicher Informationsverarbeitung. UNI-Taschenbuch, Stuttgart 1996.
Grundlagen
4.1 Abbildung 4-3
Kostenkomponenten
Herstellung Einführung (Schulung, Systemumstellung, Datenbereitstellung) laufende Nutzung (Betriebskosten) Weiterentwicklung der Software bis zum Zeitpunkt der Außerdienststellung Die Analyse der installierten Anwendungen bezüglich ihrer Positionierung im Lebenszyklus liefert Hinweise auf eventuell notwendige Sanierungsmaßnahmen der Altanwendungen (legacy applications) oder deren Ersatz durch Neuentwicklungen.
Softwaresanierung
Softwareentwicklung Mit Softwareentwicklung wird die Herstellung von Software, von der Konstruktion bis zur Freigabe des Produkts für die produktive Nutzung, bezeichnet. Mit der ingenieurmäßigen, arbeitsteiligen Entwicklung von Software befasst sich die Lehr- und Forschungsdisziplin Software Engineering (Software-Technik) innerhalb der Informatik. Dazu wurden Prinzipien, Methoden und Werkzeuge der Software-Produktion in Analogie zum industriellen Herstellungsprozess entwickelt (siehe Tabelle 4-3).
Herstellung von Software
Software-Produktion
Tabelle 4-3
Prinzipien (principles)
stellen einen allgemeinen Handlungsrahmen für eine grundsätzliche Vorgehensweise dar.
Methoden (methods)
sind Vorschriften, wie planmäßig nach einem bestimmten Prinzip (oder einer Kombination von Prinzipien) zur Erreichung festgelegter Ziele vorzugehen ist. Ergebnisse der Anwendung von Methoden sind Modelle, die in einer bestimmten Form (Darstellungstechnik, Notation) beschrieben sind.
Werkzeuge (tools)
sind spezielle Software-Systeme, welche die Entwicklung von Software unterstützen.
Der Abschnitt Softwareentwicklung befasst sich mit den in der Abbildung 44 dargestellten Themenkomplexen. Die Entwicklung der Software kann wiederum – wie der gesamte Lebenszyklus der Software – in Phasen unterteilt werden.
133
4 Abbildung 4-4
Strukturierung der Herstellung von Software
Software
Themen des Abschnitts Softwareentwicklung
Phasenmodelle der Softwareentwicklung Phasenmodelle dienen der Unterstützung des Managements der Softwareentwicklung. Am Ende einer Phase sind definierte Ergebnisse zu erreichen. Das Ereignis des Abschlusses einer Phase wird als Meilenstein geplant und abgerechnet. Im Verlaufe der Geschichte der Software-Produktion wurden verschiedene Phasenmodelle entwickelt. Phasenmodelle werden eingeteilt in das klassische Wasserfallmodell und evolutionäre Phasenmodelle.
Wasserfallmodell Realisierung eines abgeschlossenen Produktes
Das Wasserfallmodell geht davon aus, dass es möglich ist, zunächst die Anforderungen an ein Produkt zu analysieren und vollständig zu definieren, danach das Produkt zu entwerfen und schließlich zu realisieren. Es wird dabei eine sequentielle Abfolge der Phasen unterstellt.
vollständige Spezifikation der Anforderungen
Dieses Modell geht von einem Entwicklungszyklus aus, an dessen Ende ein fertig gestelltes und abgenommenes Produkt steht. In der darauf folgenden Phase – der Nutzung – erfolgt die Weiterentwicklung und Anpassung des Produktes an die Forderungen der Benutzer bzw. an äußere Vorgaben. Diese Anpassungen werden Wartung (maintenance) genannt.
Qualitätssicherung nach jeder Phase
Zur Sicherung der Qualität der Ergebnisse jeder Phase, werden Qualitätsprüfungen durchgeführt. Dabei wird geprüft, ob das Ergebnis den Vorgaben aus der vorhergehenden Phase entspricht bzw. ob Ergebnisse der vorhergehenden Phase korrigiert werden müssen. Die Abbildung 4-5 stellt ein Beispiel für das Wasserfallmodell dar.
evolutionäre Phasenmodelle Herstellung der Software in Stufen
Es hat sich in der Praxis gezeigt, dass eine Definition der Anforderungen an das Produkt nicht vollständig gelingt. Häufig werden erst nach Vorlage einer Anfangslösung die tatsächlichen Anforderungen erkannt.
Vorabversionen dienen der Präzisierung der Anforderungen
Bei evolutionären Phasenmodellen wird die Software in Ausbaustufen entwickelt und eingeführt. Das Risiko von Fehlentwicklungen bei langer Entwicklungsdauer wird reduziert, wenn nicht ein Produkt mit einem Funktionsumfang für alle Bedürfnisse der Anwender als großer Wurf
134
Grundlagen
4.1
entwickelt wird, sondern eine sukzessive Erweiterung und Verbesserung der Funktionalität angestrebt wird. Dabei lernen die Benutzer und die Entwickler aus den Möglichkeiten und Grenzen der zunächst in der Funktionalität eingeschränkten Produktversionen. Dieses Herangehen wird auch als inkrementelle Entwicklungsstrategie bezeichnet.
Wasserfallmodell*
Abbildung 4-5
Es werden zunächst Prototypen mit eingeschränkter Funktionalität entwickelt. Über die Entwicklung von Prototypen können die Anforderungen der Benutzer bzw. auch der künftigen Einsatzumgebung sicherer bestimmt werden. Prototypen sind Hilfsmittel zur Gewinnung von Erfahrungen über die Qualität und den Funktionsumfang eines Anwendungssystems.
*
Vgl.: Balzert, H.: Lehrbuch der Software-Technik. Spektrum Akademischer Verlag, Heidelberg 1998, (nach Royce 1970).
135
4
Software
Für eine schnelle Herstellung von Prototypen wurden spezielle Werkzeuge (rapid development tools) entwickelt.
Abbildung 4-6
Einsatz von Prototypen Prototypen können je nach Zielstellung eingesetzt werden:
zur Erkundung der Anforderungen (Wegwerf-Prototyp) Æ exploratives Prototyping als erste Version (und weiterentwickelte Folgeversionen) Æ evolutionäres Prototyping
zur Erkundung der Einsatzbedingungen im Zusammenspiel mit anderen Hardware- und Softwarekomponenten Æ experimentelles Prototyping
Die Phasenmodelle dienen der prinzipiellen Strukturierung des Softwareentwicklungsprozesses. Eine Untersetzung der Phasen in Aktivitäten und die Vorgabe von Entwicklungsergebnissen erfolgt in Vorgehensmodellen.
Detaillierung eines Phasenmodells
Problematik der Faktoren Zeit und Anforderungsstabilität
Vorgehensmodelle Ein Vorgehensmodell ist die Präzisierung eines Phasenmodells durch Beschreibung der auszuführenden Tätigkeiten und der Ergebnisse der Tätigkeiten. Ein solches spezielles Vorgehensmodell ist das V-Modell als Entwicklungsstandard für IT-Systeme (Informationstechnologie Systeme) der Bundesverwaltung. Das V-Modell regelt die Aktivitäten und Produkte für die „IT-System-Erstellung“ (Errichtung und Pflege der Informationsinfrastruktur) sowie für begleitende Tätigkeiten, wie Qualitätssicherung, Konfigurationsmanagement und Projektmanagement. Anwender des Modells sind sowohl die Behörden als auch die Industrie, zumindest soweit sie für Behörden als Lieferant und Entwickler auftritt. Das V-Modell kann ohne Gebühren genutzt werden. Ein weiteres Vorgehensmodell mit dem Schwerpunkt objektorientierte Softwareentwicklung ist das Modell Rational Unified Process (RUP), eine Ergänzung der Entwicklungs- und Beschreibungsmethode UML (Unified Modeling Language). alternative Konzepte Im Rahmen der Softwareentwicklung spielt in zunehmendem Maße der Faktor Zeit eine entscheidende Rolle. Während bei der konventionellen Softwareentwicklung auf einen relativ langfristigen Geschäftsnutzen für die IT-Lösungen orientiert wird, steht bei vielen heutigen IT-Projekten die kurzfristige Verfügbarkeit der Software-Lösungen im Mittelpunkt. Eine zeitrestriktive Softwareentwicklung wird immer dort notwendig, wo ein nachhaltiger Geschäftsvorteil am Markt nur durch einen schnellen Einstieg in den Wettbewerb zu erzielen ist. Neben dem zeitlichen Entwicklungsmerkmal 136
Grundlagen
4.1
kommt noch erschwerend hinzu, dass meist keine scharf umrissenen Anforderungen für das Produkt existieren und sich diese häufig im Laufe des Projektes ändern. Da die Vorgehensmodelle mit ihrer Orientierung auf eine hohe Planungssicherheit auf der Basis definierter und stabiler Anforderungen zeitrestriktive Entwicklungen nur unzureichend unterstützen, werden seit einigen Jahren adäquate Methoden, so genannte agile Konzepte, diskutiert und zum Teil in der Praxis auch umgesetzt. So wurde beispielsweise für zeitrestriktive Projekte im Jahre 1999 durch Kent Beck der Begriff Extreme Programming (XP) geprägt. Das Ziel von XP besteht vor allem darin, kleinen Entwicklungsteams eine Methodik der Softwareentwicklung bereitzustellen, die Software-Produkte und ihren Entwicklungsprozess so stark wie möglich vereinfacht.
starke Vereinfachung der Softwareentwicklung
Einsatzvoraussetzungen für Extreme Programming (Auswahl)
Abbildung 4-7
Entwicklerteam mit maximal 15 Personen Synchronisation der Arbeitszeiten qualifizierter Vertreter des Projekt-Auftraggebers im Entwicklungsteam Automatisierung der Testverfahren Unter den Nachteilen von XP wird oft auf das Fehlen einer expliziten Spezifikation und Entwurfsdokumentation verwiesen. Eine weitere Methode zur Unterstützung zeitrestriktiver Projekte stellt das Rapid Application Development (RAD) dar. Dieser Begriff wurde von James Martin im Jahre 1991 geprägt und umfasst verschiedene Techniken, wie Time-Box-Scheduling, Rapid Prototyping und inkrementelle Entwicklung. So basiert z. B. das plattformunabhängige und internetfähige Programmentwicklungssystem CONZEPT16 der Vectorsoft AG auf RAD, um eine schnelle und unkomplizierte Entwicklung komplexer Anwendungssoftware zu ermöglichen. Softwareentwicklungsansätze Ein wesentliches Ziel der Softwareentwicklung ist die Entwicklung integrierter Software-Systeme. Integration wird als systeminterne Verknüpfung der einzelnen Verarbeitungsbereiche zu einem Gesamtsystem verstanden. Diese Forderung ist vor allem aus der Tatsache zu verstehen, dass in der Praxis häufig Automatisierungsinseln anzutreffen sind:
Ergebnisse einzelner Programme werden nicht automatisch an nachfolgende Auswertungsprogramme weitergeleitet, 137
schnelle Entwicklung komplexer Anwendungen
Integration als Ziel der Softwareentwicklung
4
Software
Daten werden häufig erneut über eine Tastatur erfasst (Medienbrüche), Probleme durch Automatisierungsinseln
Aufgaben werden an verschiedenen Arbeitsplätzen mit verschiedenen Programmen mehrfach ausgeführt (Funktionsredundanz),
Daten werden mit unterschiedlichem Aktualitätsgrad an unterschiedlichen Arbeitsplätzen oder in unterschiedlichen Dateien bzw. Datenbanken gehalten (Datenredundanz),
Daten mit gleichem Bezeichner werden nach einem unterschiedlichen Bildungsgesetz berechnet oder drücken einen unterschiedlichen Sachverhalt aus (Homonyme). Diese und weitere Probleme führten zu der Forderung nach Integration. Diese Anforderungen sind bei der Softwareentwicklung umzusetzen. SoftwareDimensionen
Abbildung 4-8
In der Softwareentwicklung haben sich historisch verschiedene Entwicklungsansätze herausgebildet, die jeweils eine Dimension von Software als Ausgangspunkt für die Gestaltung der Software wählen. Die Dimensionen werden durch die drei Punkte eines Dreiecks symbolisiert (vgl. Abbildung 48). Software stellt Funktionen zur Manipulation von Daten bereit. Daten beschreiben Zustände oder Ereignisse. Software soll auf äußere oder innere Ereignisse durch die Ausführung von Funktionen reagieren. Dies wird repräsentiert durch den dynamischen Aspekt (Ablauf).
Software-Dimensionen
Softwareentwicklungsansätze verfolgen ein bestimmtes Vorgehen, um die systeminterne Verknüpfung in der Software zu erreichen. Softwareentwicklungsansätze werden durch Handlungsanleitungen in Form von Methoden umgesetzt. Solche Softwareentwicklungsansätze sind:
datenflussorientierter Ansatz (Strukturierte Analyse, SADT) datenorientierter Ansatz (Datenmodellierung) 138
Grundlagen
4.1
Kombination der klassischen Ansätze (Moderne Strukturierte Analyse, Information Engineering)
objektorientierter Ansatz (Objektorientierte Analyse)
Tabelle 4-4
Klassifizierung der Softwareentwicklungsansätze Entwicklungsansatz
Ausprägungen
Erläuterung
datenflussorientiert
í Strukturierte Analyse (Structured Analysis)
Integration über die Definition des Datenflusses zwischen den Funktionen
í SADT (Structured Analysis and Design Technique) datenorientiert Kombination = Datenfluss + Daten + Ereignis
Integration über ein Datenmodell í ASA (Moderne Struktu- Kombination der Stärken der rierte Analyse) klassischen Ansätze í Information Engineering
objektorientiert
Integration über Objekte
datenflussorientierte Softwareentwicklung Die datenflussorientierte Softwareentwicklung verfolgt das Ziel, die Verknüpfung der Komponenten einer Software (eines Anwendungssystems) durch die Modellierung der Datenflüsse zwischen den Funktionen abzubilden (Funktionsintegration). Kern und Ausgangspunkt des Softwaremodells bilden die Funktionen. Das Softwaremodell beschreibt die Anforderungen an die Produktgestaltung.
funktionsorientierter Ansatz
In Deutschland wurde die datenflussorientierte Softwareentwicklung durch Grochla mit dem Kölner Integrationsmodell publiziert. In den USA wurde die Methode Strukturierte Analyse (Structured Analysis – SA) entwickelt. Einen ähnlichen Ansatz verfolgt die Methode SADT (Structured Analysis and Design Technique). Im Mittelpunkt der datenflussorientierten Softwareentwicklung stehen die Datenflussdiagramme, welche die Nachrichtenkanäle zwischen den Funktionen und Speichern definieren. Die Funktionen werden hierarchisch zerlegt und wiederum als Datenflussdiagramm beschrieben (Funktionsdekomposition). Für Funktionen, die nicht weiter zerlegbar sind (Elementarfunktionen) wird die fachliche Aufgabe (das „Was“) in Minispezifikationen (Mini spec) dokumentiert.
139
Nutzung von Datenflussdiagrammen
4 Abbildung 4-9
Software
Notationsformen Die Beschreibung der Minispezifikation kann in verschiedenen Notationsformen erfolgen, z. B.:
in natürlicher Sprache mit Schlüsselworten für die Ablaufstruktur (Pseudocode), in einer grafisch-tabellarischen Form (Struktogramm) als Entscheidungstabelle, Datenflüsse und Speicherinhalte strukturiert in einem Datenlexikon. Ein wesentlicher Nachteil der datenflussorientierten Softwareentwicklung ist die Ausrichtung an den Funktionen. Hier werden die Daten als notwendige Voraussetzung zur Ausführung der Funktionen definiert. Damit entstehen zahlreiche redundante Datenbestände, deren Konsistenz nicht notwendig gesichert ist. Max Vetter bezeichnete die Folgen als das „Jahrhundertproblem der Informatik“. Die Lösung wurde darin gesehen, sich den Daten als Integrationsansatz zuzuwenden.
datenorientierte Softwareentwicklung datenorientierter Ansatz
Die Sicherung der Integration der Software (und der Anwendungssysteme) über die Datenintegration wurde als Antwort auf das „Jahrhundertproblem der Informatik“ propagiert.
Datenintegration und Datenmodelle
Der stabile Faktor in einem Unternehmen sind nicht die Funktionen, die einer starken Veränderung unterliegen, sondern die Daten. So entstand die Forderung, Bereichs- und Unternehmensdatenmodelle als Grundlage für die Softwareentwicklung zu nutzen. Unternehmensdatenmodelle sollen die geplante vielfältige Auswertung der in Datenbanken gespeicherten Daten ermöglichen. Um die vorhandenen Datenbestände richtig nutzen zu können, ist es notwendig zu wissen, welche Daten im Unternehmen in welchen Datenbasen vorhanden sind. Der Nachweis über die Daten erfolgt in einer Metadatenbank (Repository). Eine Metadatenbank beschreibt die Struktur der Daten in den verschiedenen Datenbeständen.
Erzeugung der Datenmodelle
Die Bereichs- und Unternehmensdatenmodelle können auf zwei Wegen gewonnen werden. Nach dem Top-Down-Vorgehen werden die notwendigen Daten durch die Analyse der Geschäftstätigkeit abgeleitet. Dabei orientiert man sich am objektiven Informationsbedarf. Andererseits werden in einem Unternehmen umfangreiche Datenbestände in den verschiedensten Formen gespeichert. Nach dem Bottom-Up-Vorgehen sind die bestehenden Datenbestände (möglichst durch Tools) für das Unternehmensdatenmodell zu erfassen.
140
Grundlagen
Die Notation der Datenmodelle erfolgt in Form von (erweiterten) ObjektBeziehungsmodellen (Entity-Relationship-Model, Kapitel 6).
4.1 Notation der Datenmodelle
Die Aufstellung der Unternehmensdatenmodelle ist eine sehr aufwendige und langwierige Aufgabe, welche die Erwartungen in eine konsistente Entwicklung der Anwendungssysteme nur teilweise erfüllen konnte. Dies liegt vor allem an dem sehr großen Aufwand für die Aufstellung und Pflege der Modelle. Die Wiederverwendung beschränkt sich auf Datenstrukturen. Ein weiterer Nachteil ist eine Vernachlässigung der Funktionen und der Anforderungen an die Software zur Reaktion auf Ereignisse (dynamischer Aspekt).
Kombination der klassischen Ansätze Die Erweiterung der Methode der Strukturierten Analyse um die Methode der Datenmodellierung und der Modellierung der Dynamik von Systemen führte zum Begriff der Modernen Strukturierten Analyse (Advanced Structured Analysis – ASA) bzw. – mit großen Gemeinsamkeiten – zum Information Engineering. Die Reaktion von Software auf Umweltereignisse (vermittelt über Nachrichten an das System, z. B. über Sensoren) bzw. bestimmte Datenzustände (z. B. Überschreitung von Grenzwerten) wird über die Echtzeit-Modellierung (real time modelling) beschrieben. Diese Beschreibung kann z. B. in Form von Zustandsübergangsdiagrammen (state transition diagrams) erfolgen. Sie bringen die dritte Dimension von Software zum Ausdruck. Die Abbildung 4-10 stellt die Kombination der Entwicklungsansätze dar.
Kombination von Daten, Funktionen und Dynamik
Abbildung 4-10
Kombination der Entwicklungsansätze
Die Modellierung der drei Aspekte (Sichten) des Softwaredreiecks – Daten, Funktionen und Dynamik (Ablauf / Interaktion) – brachte eine deutliche Steigerung der Qualität und Effektivität der so entwickelten Software.
141
4
Software
Die Methoden ASA und Information Engineering wurden insbesondere in den achtziger Jahren angewandt und werden vielfach bis in die heutige Zeit genutzt. Sie geben eine gute Handlungsanleitung und sind auch wesentliche Säulen der CASE-Tools. CASE (Computer Aided Software Engineering) war in der euphorischen Phase der CAx-Systeme ein großer Hoffnungsträger für eine wesentliche Steigerung der Produktivität und Qualität der Softwareproduktion. Die Hoffnung auf einen deutlichen Produktivitätssprung durch eine bessere Qualität der Software in der Phase der Nutzung und Weiterentwicklung hat sich jedoch nur teilweise erfüllt. Die Hauptquelle der Produktivitätssteigerung – die Wiederverwendung von Konzepten und Komponenten – konnte durch die Grenzen der Entwicklungsansätze nur in geringem Maße erschlossen werden. Die den CASE-Systemen zugrunde liegenden Methoden waren noch nicht konsequent auf die Wiederverwendung ausgerichtet. Die CASE-Tools haben den Gedanken der ingenieurmäßigen Softwareentwicklung sehr gefördert, da nur durch Werkzeugunterstützung eine methodische Arbeit und eine wirksame Qualitätssicherung möglich sind.
computerunterstützte Softwareentwicklung
objektorientierte Softwareentwicklung Integration von Objekten und deren Eigenschaften und Methoden
Die Integration der Software über die Integration der Objekte ist die Hoffnung zur Lösung der Softwareprobleme. Objektorientierung ist keine Erfindung der neunziger Jahre. Vielmehr gehen die Wurzeln bereits auf die sechziger Jahre zurück. Vor allem die Fortschritte bei der Hardware (Performance) und die Verbreitung moderner Benutzungsschnittstellen förderten die Praktikabilität der Objektorientierung. Mit der Objektorientierung erfolgt eine Fusion der bisher getrennten Sichten auf Funktionen und Daten. Sie werden als Einheit modelliert.
Objekt
Ein Objekt ist ein individuelles Exemplar der realen Welt oder der Vorstellungswelt. Ein Objekt besitzt festgelegte Eigenschaften und reagiert mit einem definierten Verhalten auf seine Umgebung. Jedes Objekt besitzt eine Identität. Die Eigenschaften entsprechen den Attributen der Datensicht. Das Verhalten (Operationen, Methoden) entspricht den Funktionen der Funktionssicht. Die Anzahl der Sichten wird reduziert, indem die Datensicht und die Funktionssicht in einer Sicht – dem statischen Klassendiagramm – vereinigt werden. Als semiformale Notationsform wird die UML (Unified Modeling Language) verwendet.
142
Grundlagen
4.1 Abbildung 4-11
Konzepte des Objektmodells Grundlegende Konzepte des Objektmodells zur Beherrschung der Komplexität der zu entwickelnden Anwendungssysteme sind:
Abstraktion durch Klassenbildung Vererbung Assoziation und Aggregation Polymorphismus Kommunikation durch Nachrichten Software-Sanierung Ein besonderer Zweig der Softwareentwicklung ist die Sanierung von Altsoftware (software reengineering). Die Pflege und Weiterentwicklung von Altanwendungen beschäftigt die Mehrheit der Entwickler. Während für die Neuentwicklung (forward development) zahlreiche Methoden und Werkzeuge geschaffen wurden, ist die Sanierung von Software-Altsystemen noch wenig methodisch und technisch unterstützt.
Pflege und Weiterentwicklung von Altanwendungen
Es ist zunächst zu prüfen, ob eine Sanierung oder eine Aussonderung und ein Ersatz durch neue Software zweckmäßig ist. Eine Aussonderung kommt vor allem dann in Frage, wenn grundlegend neue Funktionen gefordert werden. Wenn dagegen die Programme im Wesentlichen noch die gewünschten Ergebnisse erbringen, kann eine Sanierung zur Erhöhung der Qualität der Software und zur Anpassung an veränderte Anforderungen notwendig sein.
Sanierungsentscheidung
Für die Sanierung müssen die Altbestände analysiert werden (reverse engineering). Dabei sind die häufig schlecht dokumentierten Altanwendungen hinsichtlich der Ablaufstrukturen, der Datenstrukturen und der Beziehungen zwischen Daten und Funktionen zu untersuchen. Es entsteht eine Dokumentation der Altsoftware.
Analyse der Altsoftware
An die Analyse schließt sich meist ein Redesign der Programmstruktur an. Monolithische Programme werden in Module mit abgegrenzten Aufgaben zerlegt. Weiterhin kann eine Restrukturierung des Quellcodes (z. B. für bejahrte COBOL-Programme) erforderlich sein, indem aus Programmen mit zahlreichen Programmsprüngen (sog. Spaghetti-Code) wohlstrukturierte Programme erstellt werden.
Redesign der Programmstruktur
Generell ist festzustellen, dass trotz der erheblichen Modernisierung der Anwendungen als Reaktion auf das Jahr-2000-Problem und die EuroEinführung keineswegs alle Altsysteme in kurzer Frist ersetzt wurden oder werden konnten.
143
4
Software
Middleware zur Kommunikation unterschiedlicher Softwaresysteme
Es ist daher notwendig, dass die Altanwendungen mit modernen Anwendungen zusammen nutzbar sind. Aus diesem Grund wird Software zur Kommunikation der Systeme über Schnittstellen (middleware) entwickelt und eingesetzt. Für die Sicherung der Kooperation zwischen alten und modernen Anwendungen sind die Altsysteme durch eine Schnittstelle quasi zu umhüllen (wrapping). Von zunehmender Bedeutung ist dabei das Enterprise Application Integration (EAI).
Kooperation von Softwaresystemen durch Prozesssteuerung
Eine besondere Form der Kooperation zwischen Altsystemen und modernen Softwarelösungen ermöglicht die Workflow-Technologie (Kapitel 11). Über die Workflow-Steuerung können Programme aufgerufen und mit Daten versorgt werden. Die Ergebnisse der Verarbeitung werden weitergereicht, entweder an einen Bearbeiter oder ein weiteres Programm. Damit wird es möglich, Tätigkeitsabläufe prozessorientiert abzuarbeiten, ohne dass die Folge der Arbeitsschritte in einem Anwendungsprogramm fest programmiert sein muss. Die Makrologik der Integration der Programme wird damit flexibel in eine besondere Schicht – die Workflow-Schicht – ausgelagert.
4.2 Software-Architektur Unter Architektur wird allgemein die Baukunst verstanden. Der Begriff der Architektur wird auch auf die Strukturierung von Software im Sinne eines Gestaltungsansatzes angewendet. Die Software-Architektur umfasst den Bauplan der Softwaresysteme im Sinne der Spezifikation der Komponenten und deren Beziehungen sowie die Konstruktionsregeln für die Erstellung des Bauplans. Der Bauplan ist das mit dem Objektsystem korrespondierende Modellsystem. Eine Beziehung beschreibt jede mögliche Verbindung zwischen den Systemkomponenten. Eine Beziehung zwischen zwei Komponenten kann entweder dynamisch oder statisch sein. SoftwareArchitekturTypen
Aus der Sicht der Verteilung von Software-Komponenten werden folgende Architekturtypen unterschieden:
Host-Architektur, Desktop-Architektur, Client/Server-Architektur, Architektur verteilter Objekte.
144
Software-Architektur
4.2
In Abbildung 4-12 ist die Verteilung von Software-Komponenten als Kontinuum dargestellt.
Abbildung 4-12
Verteilung der Software-Komponenten
Host-Architektur Eine Host-Architektur beschreibt monolithisch gestaltete Softwarelösungen, die nur als abgeschlossenes Ganzes nutzbar sind. Das Adjektiv monolithisch steht in Anlehnung an den Begriff Monolith als ein aus einem Stein gemeißeltes Kunstwerk. Der Begriff Host steht für Wirtsrechner bzw. zentraler Verarbeitungsrechner. Häufig ist mit Host ein Mainframe (Hauptrechner) in einer zentralen Datenverarbeitung gemeint. Neben den Mainframes gibt es in großer Zahl Hardwaresysteme mittlerer Größe (midranges), welche in kleinen Unternehmen oder Abteilungen als zentralisierte Technik eingesetzt werden (z. B. AS/400, R 6000, SPARC xxx, HP 9xxx). Deren Software kann ebenfalls die Merkmale der Host-Architektur tragen. Gemeinsam ist beiden Rechnerklassen, dass die Benutzer-Arbeitsplätze mit Terminals ausgestattet sind, die ausschließlich der Datenein- und Datenausgabe dienen. Die Software wird zentralisiert auf dem Host betrieben. Mainframes werden inzwischen auch in der Rolle eines Servers in einer Client/Server-Architektur mit einer veränderten Software-Architektur eingesetzt. Die Abbildung 4-13 stellt Vor- und Nachteile der Host-Architektur dar.
145
monolithische Softwaresysteme mit zentralisiertem Host
4 Abbildung 4-13
Software
Host-Architektur Kurzcharakteristik :
Zentralisierung der Verarbeitung und Speicherung von Programmen und Daten Vorteile:
Aktualität der dort abgelegten Daten und Funktionen Konsistenz der Daten Sicherheit der Verarbeitung und der Daten Homogenität der Hardware und Systemsoftware hohe Performance für die Transaktionsverarbeitung geringe Arbeitsplatzkosten durch Zentralisierung der Systembetreuung geringer Datentransfer zwischen Host und Terminals und damit auch bei niedrigen Übertragungsraten anwendbar
Nachteile:
Redundanz von Funktionen, da jedes Programmsystem alle Funktionen enthalten muss, weil es sich nicht auf die Leistungen anderer Programme beziehen kann
Benutzungsoberfläche und Möglichkeiten der individuellen Informationsverarbeitung sind eingeschränkt
hohe Hardware- und Softwarekosten Herstellerabhängigkeit bei der Hard- und Software Desktop-Architektur
autonome Personalcomputer oder Workstations
Der Begriff Desktop-Anwendungen (engl. desk für Schreibtisch) steht als Metapher für die Werkzeuge, die man auf einem Schreibtisch benutzt. Die Benutzer-Arbeitsplätze sind bei der Desktop-Architektur mit vollwertigen Rechnern (Personalcomputer – PC oder Workstations) ausgerüstet. Auf jedem Rechner sind sämtliche Teile der Software und die Daten installiert. Die Arbeitsplatzrechner können – im Rahmen ihrer Leistungsklasse – autonom arbeiten. Es existiert kein Zentralrechner. Aus Abbildung 4-14 sind die Vor- und Nachteile der Desktop-Architektur ersichtlich. Zur Verringerung der Nachteile wird die Desktop-Architektur häufig in Kombination mit netzbasierten Anwendungen (Printservice, Fileservice, Maildienste u. a.) genutzt.
146
Software-Architektur
4.2 Abbildung 4-14
Desktop-Architektur Kurzcharakteristik :
Dezentralisierung der Computerfunktionen, wie Applikationslogik in Form der
dezentral verfügbaren Programme, die Datenhaltung und die Präsentation der Benutzungsoberfläche
Vorteile:
schneller Zugriff auf lokale Daten und Funktionen umfassender Service in einer einheitlichen Umgebung Dienstintegration (E-Mail, Fax) direkt aus der Anwendung heraus geringe Kosten von Hardware und Software gute Unterstützung der individuellen Informationsverarbeitung komfortable Benutzungsschnittstellen Nachteile:
fehlende Unterstützung von kooperativer Arbeit der Benutzer hoher Betreuungsaufwand vor Ort (Installation, Wartung, Benutzerservice) und damit hohe Einzelplatzkosten für die Administration
Datensicherung ist Aufgabe des Benutzers Client/Server-Architektur Bei der Client/Server-Architektur (C/S-Architektur) befinden sich zwei Komponenten in einer Dienstnutzer/Dienstleister-Beziehung. Ein Server stellt Dienste (services) zur Verfügung, die von anfordernden Programmen, den Clients, genutzt werden. Client und Server sind Rollen, die von einer Anwendungskomponente temporär wahrgenommen werden können. Eine Anwendungskomponente kann kontextabhängig sowohl Client als auch Server sein. Ein Dienst sind Leistungen, bestehend aus Funktionen und Daten oder Objekten, die mit Hilfe von Schnittstellen anwendungsübergreifend von einem Server zur Verfügung gestellt werden. Die Abbildung 4-15 stellt den schematischen Aufbau der Client/Server-Architektur dar. Leitgedanke der Client/Server-Architektur Der grundlegende Gedanke ist die Integration der Anwendungen und die zentrale Installation gemeinsam benötigter Dienste. Anwendungen werden aus Bausteinen montiert, die auf mehrere Rechner verteilt installiert und in mehr als einer Anwendung benutzt werden können. So ist es möglich, Redundanzen zu vermeiden und spezialisierte Rechner mit speziellen Eigenschaften einzusetzen. Dazu werden
mehrfach verwendbare Dienste identifiziert,
147
Dienstnutzer/ DienstleisterBeziehung
4
Software
diese Dienste aus den Anwendungssystemen herausgelöst, diese Dienste einmal in allgemeingültiger Form implementiert, diese Dienste netzweit mit Hilfe von Programmschnittstellen (Application Programming Interfaces – API) zur Verfügung gestellt.
Abbildung 4-15
Client/Server-Architektur
Die Komponenten (Clients und Server) einer Client/Server-Architektur werden über die Infrastruktur verteilt, um eine optimale Nutzung der zur Verfügung stehenden Ressourcen zu erreichen. Eine rudimentäre Form der Client/Server-Architektur ist der Dateiserver, auf dessen Festplatte die Client-Rechner über das Netz als virtuelle Festplatte zugreifen können. Die folgende Übersicht führt typische Dienste auf, die in einer Client/ServerUmgebung genutzt werden.
148
Software-Architektur
4.2 Abbildung 4-16
typische Dienste in einer Client/Server-Umgebung
Speicherung von Dateien und Programmen (file service) Druckausgabe (print service) Ausführung von umfangreichen Berechnungen (compute service) E-Mail-Empfang, -Versand und -Verwaltung (communication service) Fax-Empfang, -Speicherung und -Versand (fax service) Verwaltung einer Datenbank (database service)
Schichten-Architektur Zur Beherrschung der Komplexität von Softwaresystemen werden den Komponenten Schichten oder Ebenen zugeordnet. Bei der SchichtenArchitektur können die Komponenten innerhalb einer Schicht beliebig aufeinander zugreifen. Zwischen den Schichten gelten strenge Maßstäbe für die Zugriffe. Eine Schichten-Architektur erlaubt eine übersichtliche Strukturierung in Abstraktionsebenen. Dadurch werden die Wiederverwendbarkeit, die Änderbarkeit, die Wartbarkeit, die Portabilität und die Testbarkeit unterstützt. Die im Bereich der Anwendungssysteme übliche Schichtenabgrenzung wird aus Abbildung 4-17 ersichtlich.
Abbildung 4-17
Schichten einer Client/Server-Architektur
Die Verteilung der Ebenen in einem Netzwerk kann in unterschiedlichen Varianten erfolgen. So können Mehr-Ebenen-Architekturen (multi tier architecture), wie in Abbildung 4-18 illustriert, konfiguriert werden.
149
4 Abbildung 4-18
Software
Mehr-Ebenen-Architekturen für Client/Server-Systeme
150
Software-Architektur
4.2
Präsentation Die Präsentationsschicht umfasst die Darstellung der Daten, Formulare und Funktionsangebote am Bildschirm.
Steuerung Die Steuerungsschicht steuert den Dialog mit dem Benutzer und reagiert auf seine Eingaben. Die Steuerungsschicht benutzt die Funktionen der Präsentationsschicht, um Ausgaben auf dem Bildschirm oder dem Drucker durchzuführen.
Anwendungslogik Die Schicht der Anwendungslogik enthält die fachlichen Funktionen des Anwendungssystems.
Datenhaltung Die Datenhaltungsschicht wird in der Regel durch ein Datenbankmanagementsystem realisiert.
Abbildung 4-19
Vor- und Nachteile der Client/Server-Architektur Kurzcharakteristik :
Aufgabenteilung durch Verteilung der Dienste (Präsentation, Steuerung, Anwendungslogik, Datenhaltung) auf Clients und Server
Vorteile:
Dezentralisation als Anpassung an die dezentralen Strukturen von Unternehmen (units)
Offenheit (Standards) hohe Zuverlässigkeit und Verfügbarkeit durch Redundanz möglich Nachteile:
hohe Komplexität hoher Verwaltungsaufwand geringere Sicherheit im Vergleich zur Host-Architektur Architektur verteilter Objekte Einen Schritt weiter in der Verteilung der Funktionalität sind im Netz verteilte Objekte (network computing architecture). Voraussetzung ist die Verwendung einer standardisierten Middleware. Die beiden wichtigsten Architekturen sind CORBA (Common Object Request Broker Architecture) und DCOM (Distributed Component Object Model). Beide Technologien erlauben eine hohe Abstraktion der beteiligten Objekte von der Ebene des
151
4
Software
physischen Datenaustauschs. Die Entwicklung von Software, die verteilte Komponenten nutzt, wird dadurch wesentlich vereinfacht. CORBA
Abbildung 4-20
DCOM
CORBA wurde von der OMG (Object Management Group) entwickelt. Es ermöglicht die gemeinsame, plattformunabhängige Verwendung von Softwarekomponenten, die auf verschiedenen Rechnern zur Verfügung stehen. CORBA stellt dazu das Auffinden und die Kommunikation der einzelnen Komponenten sicher. Hierfür verwendet CORBA den so genannten Object Request Broker (ORB). Der Broker erlaubt eine hohe Unabhängigkeit der Komponenten. Eine Komponente, die eine bestimmte Funktionalität einer anderen Komponente anfordert, benötigt keine Kenntnisse über deren Standort oder das darunter liegende Betriebssystem. Die Kommunikation erfolgt über die Schnittstellen der Komponenten, die programmiersprachenunabhängig mit Hilfe der Interface Definition Language (IDL) beschrieben werden. Dazu werden für Client und Server Stellvertreterelemente (Stub und Skeleton) erzeugt. Die Datenübertragung erfolgt nach dem Internet Inter-ORB Protocol (IIOP). Die folgende Abbildung verdeutlicht die CORBA-Architektur.
vereinfachte CORBA-Architektur
Eine weitere Architektur verteilter Objekte stammt von Microsoft. DCOM war ursprünglich für Windows-Anwendungen vorgesehen. Inzwischen existieren auch Lösungen für andere Plattformen. DCOM verfolgt ähnliche Ziele wie CORBA. Die Steuerung der Kommunikation erfolgt durch die Service Control Manager (SCM), die auf jedem beteiligten Rechner laufen müssen. Sie stellen an Hand der Komponenteninformationen in der Registrierdatenbank eine Verbindung zur gewünschten Komponente her, aktivieren diese erforderlichenfalls, erzeugen Proxy und Stub (marshalling) und übergeben die Kommunikation dann an die beteiligten Objekte. Die Daten-
152
Software-Architektur
4.2
übertragung erfolgt nach dem DCOM Network Protocol. Die Abbildung 422 erläutert die DCOM-Architektur. Eine Weiterentwicklung der DCOM-Architektur stellt das .NET Framework von Microsoft dar. Im Rahmen der Programmiersprache C# wird in Kapitel 7 näher auf diese Architektur eingegangen.
.NET Framework
Die folgende Abbildung fasst die Vor- und Nachteile der Architektur verteilter Objekte zusammen.
Abbildung 4-21
Architektur verteilter Objekte Kurzcharakteristik :
Verteilung der Funktionalität auf im Netz verteilte Objekte Vermittlung der Kooperation über Broker CORBA als Standard für einen universellen ORB Vorteile:
Flexibilität Ausbaufähigkeit Zusammenarbeit von Clients, Server, Mainframes und Internet Nachteile:
erhebliche Vorausleistungen, wie die Standardisierung der Kommunikation zwi-
schen den verteilten Objekten und die hohe Verfügbarkeit der verteilten Infrastruktur
Abbildung 4-22
vereinfachte DCOM-Architektur
153
4
Software
4.3 Software-Qualität Qualitätsbegriff Software-Qualität ist die Gesamtheit der Merkmale und Merkmalswerte eines Software-Produkts, die sich auf dessen Eignung beziehen, festgelegte oder vorausgesetzte Erfordernisse zu erfüllen.* Da die Folgen von Softwarefehlern sehr weit reichend sein können oder erheblichen Aufwand bei den Benutzern hervorrufen, ist die Qualitätssicherung für Software besonders dringlich.
Qualitätsmodelle
Messung von Qualität
Qualitätsmodelle dienen der Quantifizierung von Softwaremerkmalen. Um Qualitätsziele umsetzen zu können, müssen sie messbar sein. Ein Qualitätsmodell definiert die Qualitätsmerkmale und deren Untersetzung durch Teilmerkmale. Schließlich sind Indikatoren bzw. Metriken zur Messung der Erfüllung der Teilmerkmale zu bestimmen. Ein so aufgebautes Modell wird auch als FCM-Modell (Factor Criteria Metrics Model) bezeichnet. Ein Indikator oder eine Metrik sind ausgewiesene Eigenschaften eines Qualitätsprodukts, die zu den Qualitätsmerkmalen in Beziehung gesetzt werden können. Sie drücken ein Qualitätsmaß aus. Als Qualitätsmaß kann auch das Vorhandensein oder die Abwesenheit einer Eigenschaft dienen.
Qualitätsmerkmale Qualitätsmerkmale nach der DIN ISO 9126 für Software-Produkte sind Funktionalität, Zuverlässigkeit, Benutzbarkeit, Effizienz, Änderbarkeit und Übertragbarkeit. Die Norm* enthält keine Teilmerkmale und keine Kennzahlen zur Messung der Qualitätsmerkmale.
Zuverlässigkeit (reliability) wird durch die Teilmerkmale Reife, Fehlertoleranz und Wiederherstellbarkeit näher beschrieben.
Funktionalität (functionality) bedeutet das Vorhandensein von Funktionen entsprechend den definierten Anforderungen.
* *
154
Vgl.: DIN ISO 9126: 1991 DIN ISO 9000 ist ein Normenwerk, das einen allgemeinen, übergeordneten, organisatorischen Rahmen zur Qualitätssicherung von materiellen und immateriellen Produkten bezogen auf das Auftraggeber-Lieferanten-Verhältnis festlegt.
Software-Qualität
4.3 Tabelle 4-5
Teilmerkmale der Funktionalität
Richtigkeit
es werden die richtigen und vereinbarten Ergebnisse geliefert
Angemessenheit
Eignung der Funktionen für bestimmte Aufgaben
Interoperabilität
Fähigkeit mit vorgegebenen Systemen zusammenzuwirken
Ordnungsmäßig-
Erfüllung von Normen und Vorschriften
Sicherheit
unberechtigte Zugriffe auf Daten und Programme werden verhindert
keit
Benutzbarkeit (usability) wird durch die Teilmerkmale Verständlichkeit, Erlernbarkeit (Hilfesystem, integrierte Dokumentation), Bedienbarkeit und Handlungsflexibilität charakterisiert.
Effizienz (efficiency, Wirtschaftlichkeit) bedeutet ein angemessenes Verhältnis zwischen dem Leistungsniveau der Software und dem Aufwand an eingesetzten Ressourcen. Teilmerkmale sind das Zeitverhalten und das Verbrauchsverhalten.
Änderbarkeit (modifyability) bedeutet Änderungen mit angemessenem Aufwand durchführen zu können. Teilmerkmale sind die Analysierbarkeit, die Modifizierbarkeit, die Stabilität und die Prüfbarkeit.
Übertragbarkeit (portability, Portabilität) bedeutet die Eignung der Software, von einer Umgebung in eine andere übertragen zu werden. Teilmerkmale sind die Anpassbarkeit, die Installierbarkeit, die Konformität und die Austauschbarkeit.
Skalierbarkeit, d. h. Anpassung an die Größe der Einsatzumgebung (Anzahl der Nutzer, Rechner, Menge der zu verarbeitenden Daten).
Verfügbarkeit betrachtet die Ausfallsicherheit und den Aufwand bzw. die Zeitdauer zur Wiederherstellung der Betriebsbereitschaft nach einem Ausfall sowie die Nichtbenutzbarkeit des Systems durch Wartung. Aus der Sicht der Benutzer der Software interessieren insbesondere die Unterstützungsfunktionen, d. h. welche Arbeitserleichterung durch den Einsatz der Software erzielt werden kann oder welche zusätzlichen Informationen gewonnen werden, sowie die Software-Ergonomie. Ergonomie ist die humane Gestaltung der Arbeitsmittel. Im Falle der Software-Ergonomie geht es um die Gestaltung der Anwendungssoftware und der Benutzungsschnittstelle (user interface). Die Software-Ergonomie ist
155
Benutzerunterstützung und Ergonomie
4
Software
geprägt durch einige der oben genannten Teilmerkmale der SoftwareQualität, insbesondere die Angemessenheit, Fehlertoleranz und die Teilmerkmale der Benutzbarkeit. Die Softwareergonomie beeinflusst auch die Aufwendungen für die Benutzer und die Unterstützung der Benutzer durch das Betreuungspersonal.
Qualitätsmanagement (QM) Tätigkeiten zur Sicherstellung von Qualität
Qualitätsmanagement sind alle Tätigkeiten, um die Qualität von Prozessen und Produkten im Rahmen eines Qualitätsmanagementsystems sicherzustellen. Aufgaben des Qualitätsmanagements sind die Qualitätsplanung, Qualitätslenkung, Qualitätssicherung und Qualitätsprüfung. Zur Software-Qualitätssicherung gehören alle Tätigkeiten innerhalb des Qualitätsmanagements, die dazu dienen, den Nachweis zu erbringen, dass die Qualitätsanforderungen erfüllt sind. Man unterscheidet zwei Ausrichtungen des Qualitätsmanagements. Das konstruktive Qualitätsmanagement ist auf die Produktion von Qualitätsprodukten durch konstruktive Maßnahmen gerichtet. Das analytische Qualitätsmanagement ist auf die Feststellung der Qualität gerichtet. Beide Ausrichtungen ergänzen sich. konstruktives Qualitätsmanagement Konstruktive Qualitätssicherungsmaßnahmen dienen nicht zur Prüfung der Ergebnisse der Produktion, sondern sie sollen sichern, dass Qualität produziert wird. Dazu gehören Methoden der Softwareentwicklung, Programmiersprachen mit qualitätssichernden Eigenschaften, Werkzeuge, Richtlinien und Standards. Ziel einer qualitätsorientierten Produktion ist nicht nur die Qualität der Produkte, sondern insbesondere auch die Qualität des Produktionsprozesses (die Prozessqualität). analytisches Qualitätsmanagement Das analytische Qualitätsmanagement erfasst die Qualitäts-Istwerte entsprechend der Qualitätsplanung und prüft, ob die konstruktiven Qualitätssicherungsmaßnahmen umgesetzt wurden. Dazu gehören je nach Entwicklungsphase unterschiedliche Prüftechniken.
Prüftechniken
Die Validierung ist eine Bewertung, die prüft, inwiefern ein Produkt den Anforderungen eines Anwenders oder Auftraggebers entspricht. Eine Validierung ist sowohl in der Phase der Analyse als auch bei der Produkterprobung durchzuführen.
Die Verifikation dient der formalen Prüfung der Eigenschaften von Programmen gegenüber der Spezifikation im Entwurf. 156
Systemsoftware
4.4
Ein Review ist eine manuelle Prüfmethode, bei der von einem Gutachter in einer Teamsitzung Stärken und Schwächen eines Prüfobjekts identifiziert werden.
Ein Audit ist eine Überprüfung, ob das Vorgehen vorgegebenen Forderungen (z. B. DIN ISO 900x) bzw. den Festlegungen im Qualitätshandbuch entspricht.
Die Ergebnisse der Implementierung werden umfangreichen Tests unterworfen. Dabei wird eine experimentelle Untersuchung zur Feststellung bestimmter Eigenschaften durchgeführt. Es werden verschiedene Arten des Tests unterschieden (Akzeptanztest, Systemtest, Integrationstest, Unittest, Modultest, Leistungstest, Regressionstest).
4.4 Systemsoftware Begriff und Klassifizierung Eine Klassifizierung der Software nach ihrer Nähe zur Hardware bzw. ihrer Nähe zur fachlichen Aufgabe führt zur Einteilung in Systemsoftware und Anwendungssoftware. Die Dynamik der Hardwareentwicklung korrespondiert mit der Dynamik der Entwicklung der Systemsoftware. Sie wird auch als Basissoftware oder systemnahe Software bezeichnet, weil sie die Basis für die darauf aufsetzende Anwendungssoftware bildet.
Mittler zwischen Anwendungssoftware und Hardware
Dem Benutzer tritt das Anwendungssystem als virtuelle Nutzermaschine entgegen. Für den Benutzer bleibt die Arbeitsteilung zwischen der Hardware, der Systemsoftware und der Anwendungssoftware weitgehend verborgen. Die Abbildung 4-23 schildert den Zusammenhang zwischen Hardware, Systemsoftware und Anwendungssoftware. Systemsoftware ergänzt die Hardware, um den Betrieb und die Wartung der Hardware zu ermöglichen. Systemsoftware erschließt die funktionellen Möglichkeiten der Hardware für deren Nutzung. Die Systemsoftware orientiert sich an den Eigenschaften der Hardware. Zur Systemsoftware gehören das Betriebssystem (als Kern der Systemsoftware zum Betreiben des Computersystems), die Schnittstellen-Software (Middleware), die Software zum Betreiben der Rechnernetze (Kommunikationssoftware, Kapitel 5), die Software zum Betreiben von Datenbanken (Datenbankmanagementsystem, Kapitel 6), die Software zur Softwareentwicklung
157
Sicherung der Erstellung und Einsatzfähigkeit der Anwendungssoftware in der heterogenen ITInfrastruktur
4
Software
(Softwareentwicklungsumgebungen) sowie die Software zur Geschäftsvorgangssteuerung (Workflow-Management, Kapitel 11).
Abbildung 4-23
Ebenenmodell einer Nutzermaschine
Eine Unterteilung der Systemsoftware nach Aufgabenkomplexen zeigt die Abbildung 4-24.
Abbildung 4-24
Komponenten der Systemsoftware
Betriebssystem (operating system) Steuerung von Programmen und Ressourcen
Zentrale Aufgabe eines Betriebssystems ist die Steuerung und Kontrolle der Durchführung von Programmen und die Verwaltung der von diesen Programmen benötigten Ressourcen.
158
Systemsoftware
4.4
Funktionen von Betriebssystemen Ein Betriebssystem steuert den Ablauf der Anwendungsprogramme in der Zentraleinheit und in den peripheren Geräten (Auftragsverwaltung oder Jobmanagement). Es bedient die Anforderungen (system calls) der Anwendungsprogramme (Ablaufsteuerung oder Taskmanagement). Es übernimmt die Kontrolle aller im System vorkommenden Speicher, die Zuteilung von Speicher an die Anwendungsprogramme und die Organisation der Speicherhierarchien (Speicherverwaltung oder Datenmanagement). Die Ein- und Ausgabesteuerung koordiniert die Auswahl der für die Einund Ausgabe geeigneten Geräte entsprechend den Anforderungen der Anwendungsprogramme, sorgt für eine Anpassung an die speziellen physikalischen Eigenschaften der Geräte und überwacht die Datenübertragung zwischen Programm und Gerät (I/O-Control). Merkmale von Betriebssystemen Die in der Tabelle 4-6 genannten Merkmale werden im Anschluss kurz ausgeführt.
Tabelle 4-6
Merkmale von Betriebssystemen Merkmale
Ausprägungen
Parallelität der Programmausfüh-
í Einprogramm-System
rung
Benutzeranzahl
í parallele Verarbeitung í Einbenutzer-System í Mehrbenutzer-System
Automatisierungsgrad und zeitliche Ausführung
í Stapelverarbeitung í Dialogverarbeitung í Echtzeitverarbeitung
Herstellerbindung
í vorhanden í nicht vorhanden
Parallelität der Programmausführung Bei Einprogramm-Systemen (single-program processing) wird ein Programm durch einen Prozessor (CPU) bearbeitet. Parallele Programmausführung wird durch Mehrprogramm-Verarbeitung und Multiprozessor-Systeme möglich. 159
4
Software
Bei der Mehrprogramm-Verarbeitung (multi-program processing) werden mehrere Programme quasi gleichzeitig bearbeitet. Die einzelnen Rechnerressourcen (CPU, Hauptspeicher, Ein/Ausgabegeräte) werden den Programmen entsprechend ihrer Priorität oder für eine bestimmte Zeit (time sharing) zur Verfügung gestellt. Ein tatsächlich paralleles Abarbeiten von Befehlen ist nur mittels Multiprozessor-Systemen (multi-processor system), d. h. durch die Ausstattung mit mehreren Prozessoren, den zugehörigen Steuerprogrammen und der entsprechenden Gestaltung der Systemsoftware und der Anwendungsprogramme möglich.
Benutzeranzahl Bei Einbenutzer-Systemen (single-user system) kann zu einem Zeitpunkt an einem rechnergestützten Arbeitsplatz (z. B. ein PC) nur ein Benutzer arbeiten. Jeder Arbeitsplatz besitzt eine für seine Aufgabe vollständige Funktionalität. (Betriebssystem-Vertreter: DOS) Bei Mehrbenutzer-Systemen (multi-user system) können zu einem Zeitpunkt mehrere Benutzer mit einem Datenverarbeitungssystem arbeiten. Dazu sind durch das Betriebssystem Vorkehrungen zu treffen, dass sich die Benutzer und Programme nicht gegenseitig behindern. (Betriebssystem-Vertreter: UNIX, MVS, VMS, BS 2000, Windows Server)
Automatisierungsgrad und zeitliche Ausführung Bei der Stapelverarbeitung (batch processing) wird eine Menge von Aufgaben vollständig als Auftrag in einem Stapel abgearbeitet. Die Verarbeitung des Auftrags erfolgt dann automatisch. Die Reaktionszeit von der Entstehung der Daten bis zum Vorliegen der Ergebnisse der Auswertung liegt zwischen Stunden und Tagen. Man spricht auch von RechtzeitVerarbeitung unter der Voraussetzung, dass die Ergebnisse rechtzeitig vorliegen. Die vollautomatische Verarbeitung ist für die Aufgaben sinnvoll, die man vollständig einem Automaten übertragen kann, bei deren Lösung also das Fachwissen eines Bearbeiters nicht erforderlich ist. Unter dem Begriff Batch-Datei oder batch-file werden auch Programme verstanden, die eine Reihe von Befehlen automatisch ausführen. Bei der Dialogverarbeitung (dialog processing) erlaubt der Charakter der Aufgabe keine vollautomatische Bearbeitung. Die Programmausführung wird durch den Aufruf von Funktionen durch den Benutzer gesteuert. Mensch und Maschine agieren abwechselnd (interaktiv). Die Arbeitsteilung zwischen Benutzer und Programm ist so zu gestalten, dass jeder den Teil übernimmt, den er am besten lösen kann. Die rechnergestützte Arbeit verlangt Reaktionszeiten des Systems im Bereich von Sekunden. Nur bei zusammenhängenden umfangreichen Aufgaben, die
160
Systemsoftware
4.4
dem System übertragen werden, akzeptieren die Benutzer auch längere Antwortzeiten bis zu wenigen Minuten. Bei der Echtzeitverarbeitung (real time processing) reagiert das Datenverarbeitungssystem im Zeitmaßstab des äußeren Prozesses auf die erfassten Betriebszustände. Die Reaktionszeit liegt im Millisekundenbereich. Die Echtzeitverarbeitung fällt in das Anwendungsfeld der Prozessdatenverarbeitung. Die Verarbeitung erfolgt ohne Eingriff des Menschen.
Herstellerbindung Herstellerspezifische (proprietäre) Betriebssysteme sind nur auf der Hardware des jeweiligen Herstellers lauffähig. (Betriebssystem-Vertreter: MVS, SVM, BS 2000, OS/400) Herstellerunabhängige (offene) Betriebssysteme basieren auf Standards oder Defacto-Standards und sind rechnerunabhängig einsetzbar. Für die Betriebssystemfamilie UNIX trifft die Herstellerunabhängigkeit zu, jedoch gibt es herstellerspezifische Ausprägungen der UNIX-Derivate (AIX, Solaris, HP UX, SINIX).
Middleware Middleware sind Systemsoftware-Komponenten die zwischen verschiedenen Anwendungsprogrammen bzw. zwischen Anwendungsprogramm und Betriebssystem, Datenbanksystem oder dem Netzwerk liegen und der Kommunikation dienen. Der Nutzen der Middleware liegt in drei Bereichen:
Die „unteren“ Komponenten der Transportprotokolle werden abgeschirmt, d. h. dass Anwendungsentwickler nur die Schnittstellen der Anwendungsschicht beachten müssen.
Eine Kommunikationsschnittstelle wird bereitgestellt, die sowohl unabhängig von den Plattformen (Hardware und Betriebssystem) als auch unabhängig von den Transportprotokollen ist.
Die Grenzen zwischen verschiedenen Netzwerkprotokollen können überbrückt werden.
Softwareentwicklungssysteme Softwareentwicklungssysteme (software development systems) sind eine Sammlung von Werkzeugen (tools) zur Entwicklung von Software. Syn-
161
Kommunikation zwischen Anwendung, Betriebssystem, Datenbank und Netzwerk
4
Software
onyme Begriffe sind Softwareentwicklungsumgebung und SoftwareProduktionsumgebung (software production environment). Systeme zur Herstellung von Software unterstützte Entwicklungstätigkeiten
Tätigkeiten der Softwareentwicklung, bei denen Werkzeuge eingesetzt werden, sind insbesondere:
Spezifizieren der Anforderungen an das Produkt Entwerfen der Struktur der Software Implementieren (Programmieren und Testen) Konfigurieren (Komponenten und Versionen verwalten) Dokumentieren Leiten der Softwareentwicklung (Projektmanagement) Sichern der Qualität (Qualitätsmanagement) Sanieren von Altanwendungen (Reverse Engineering) Für die Softwareentwicklungssysteme zur Unterstützung der klassischen Methoden des Software Engineering mit dem Anspruch der Unterstützung eines ingenieurmäßigen Vorgehens wurde in den achtziger Jahren der Begriff CASE als Akronym für Computer Aided Software Engineering geprägt. Die Softwareentwicklungsumgebungen und CASE-Tools lassen sich, wie aus Tabelle 4-7 ersichtlich, nach der Unterstützung der Phasen des Entwicklungsprozesses klassifizieren.
Tabelle 4-7
Arten von Softwareentwicklungssystemen (CASE-Tools) Schwerpunkt
Erläuterung
Programm-Entwicklungssysteme
Unterstützung der Phase Implementierung
Analyse- und Entwurfswerkzeuge
Analyse und Spezifikation sowie Entwurf des Produkts
Integrierte Softwareentwicklungs-
Unterstützung des gesamten Entwicklungsprozesses oder – mit entsprechenden Werkzeugen für die Softwaresanierung – des gesamten Lebenszyklus
(Lower-CASE)
(Upper-CASE)
umgebungen (Integrated CASE – ICASE)
Analyse- und Entwurfswerkzeuge Die Entstehung von Fehlerkosten und Fehlerhäufigkeit konzentriert sich auf die frühen Phasen der Softwareentwicklung. Mehr als 80% der Fehlerkosten entstehen in den frühen Phasen der Softwareentwicklung. Die Folgen der Fehler in den frühen Phasen kumulieren sich über die Folgezeit und werden meist erst spät entdeckt. Ein Fehler in der Definition des Produkts erzeugt
162
Systemsoftware
4.4
zwangsläufig höhere Kosten im weiteren Entwicklungsverlauf als ein Fehler bei der Programmierung. Aus dieser Erkenntnis resultierte in den achtziger Jahren eine stärkere Fokussierung auf die frühen Phasen. Die Komponenten der dazu verwendeten Analyse- und Entwurfswerkzeuge sind in Tabelle 4-8 erläutert. Tabelle 4-8
Komponenten von Analyse- und Entwurfswerkzeugen Komponenten
Ausprägungen Erläuterung
grafische Editoren für
z. B. Erstellung von Datenflussdiagrammen, Datenmodellen, Klassenmodellen, Zustandsübergangsdiagrammen und Struktogrammen
Entwicklungsdatenbank
Verwaltung und Auswertung der Entwicklungsergebnisse
Report-Generatoren
Erzeugung der ProduktDokumentation
Softwaremodelle
(Repository)
Prototyping-Werkzeuge
MaskenGenerator
Maskengestaltung mit Gestaltungskomponenten
List-Generator
Erzeugung von Bildschirm und Druckausgaben
Programm-Entwicklungssysteme Zur Unterstützung der Implementierung dienen die in Tabelle 4-9 dargestellten Komponenten (in unterschiedlicher Vollständigkeit). Tabelle 4-9
Komponenten von Programm-Entwicklungssystemen Komponenten
Ausprägungen
Erläuterung
Editor
Text
Eingabe und Modifikation von Quellcode
Grafik
visuelle Programmierung
Assembler
Übersetzungsprogramme für maschinenorientierte Programmiersprachen
Interpreter
Übersetzung des Quellcodes in den Objektcode zur Programmausführungszeit (jedes Mal erneut)
Compiler
Übersetzung vom Quellcode in den Objektcode einmalig vor der Programmausführung (Performancevorteile)
Übersetzer
163
4
Software
Testunterstützung
Tracer
kontrollierte Verfolgung der Programmausführung
Debugger
Analysieren der Ursachen für Programmfehler
Testdatenbank, Batchprogramme
Stapelprogramme zur Testausführung, Protokollierung und Soll-Ist-Vergleich
TestdatenGenerator
zum Erzeugen von Testdaten
Lasttest
Überprüfung der Performance (z.B. Antwortzeiten) und Skalierbarkeit (z. B. Erweiterung der Zahl der Benutzer, der Zahl der Zugriffe, des Datenvolumens) unter simulierten Bedingungen
Bibliotheken für Komponenten
Verwaltung von Programmbausteinen, Entwurfsmustern, Klassenbibliotheken
Integrierte Softwareentwicklungsumgebungen Die Vorzüge liegen vor allem in der durchgängigen Prozessunterstützung. Die Entwicklungsergebnisse werden für die nächsten Phasen, insbesondere auch für die Pflege und Weiterentwicklung der Produkte genutzt. Zusätzliche Werkzeuge – gegenüber den bereits genannten – sind in Tabelle 4-10 dargestellt.
Tabelle 4-10
zusätzliche Komponenten integrierter Softwareentwicklungsumgebungen Komponenten
Konfigurationsmanagement
Ausprägungen Erläuterung Protokollierung der logischen Beziehungen zwischen den Dateien Verwaltung der Versionen von Komponenten und Installationen (Entwicklungs-, Produktions-, Komponentenversionen) Konfigurieren aus Komponenten
verteilte Entwicklung
164
Unterstützung der parallelen Arbeit der Entwickler
Systemsoftware
Software-
Planer
Planung der Qualitätssicherung für alle Phasen
Auditing-Tool
Verwaltung der Ergebnisse der Qualitätsprüfungen
Codeanalyse
Dokumentieren von Code als Struktogramm und von Verwendungsbeziehungen (cross reference) für die Verfolgung der Auswirkungen von Veränderungen
Verpacker (wrapper)
Schnittstelle zu SoftwareAltsystemen
Qualitätssicherungswerkzeuge
Software-Sanierung (Computer Aided Reengineering – CARE)
Umsetzung der Datenmodelle in die Datenbankbeschreibungssprache
Schemagenerierung Geschäftsprozessmodellierung (BPR-Tool)
4.4
GeschäftsprozessModellierer
Definition der Geschäftsprozesse (Ableitung der Definition des Softwareprodukts in einem mehrstufigen Prozess aus einem Modell des Informationssystems)
Simulationskomponente
Ermittlung der Auswirkungen von Prozessvarianten
Prozesskosten- Bestimmung von Prozessrechnung kosten
Projektmanagementwerkzeuge
Kalkulationsprogramme für die Aufwandskalkulation
Auswirkungsrechnung
Ablaufplanung und Ressourcenmanagement
Balkendiagramm, Netzplan
Projektüberwachung und steuerung
Erfassung des Projektfortschritts, Vergleiche, Frühwarnsysteme
Frameworks Eine neue Generation von integrierten Softwareentwicklungsumgebungen nach dem objektorientierten Ansatz sind Frameworks. Der Terminus Framework (application framework – Rahmenwerk für An-
165
wieder verwendbare Programmgerüste
4
Software
wendungen) wird benutzt, um die Geschlossenheit und Vollständigkeit eines Konzepts oder auch einer Entwicklungsumgebung zu bezeichnen. In einer einfachen Form ist ein Framework ein Programmrahmen – nach einem firmenspezifischen Muster (style guide) – für die Wiederverwendung von immer wieder benötigten Programmteilen, wie z. B. zur Ausgabe von Informationen am Bildschirm, zum Aufruf von Folgemasken, zum Zugriff auf Datenbanken. Mit einem höheren Anspruch an den Grad der Wiederverwendung ist das Framework-Konzept eine Sammlung von Komponenten, die für einen bestimmten Anwendungsfall zusammengefügt werden. Während die bisherige Art der Softwareentwicklung eher dem Stil der Konstruktion entsprach, d. h. es wurden neue Teile konstruiert, wandelt sich der Arbeitsstil in Richtung einer projektierenden Arbeit. Dabei steht nicht die Entwicklung neuer Teile, sondern die Verwendung und Anpassung von Teilen, ähnlich der Verwendung von Normteilen in der Fertigungsindustrie, im Vordergrund der Arbeit. Scheer nennt es das „Prinzip der Komposition“. Ein Framework ist ein unvollkommenes Anwendungssystem, welches durch Austausch von Komponenten auf den Anwender ausgerichtet wird. Eine Reihe von Firmen (IBM, SAP, Siemens, IDS) realisieren Projekte nach dem Framework-Konzept.
Anpassung an spezielle Anforderungen
4.5 Anwendungssoftware
Lösung allgemeiner und spezieller fachlicher Aufgaben
ERP/ERMSysteme
Anwendungssoftware (application software), ist die Software, welche die Benutzer zur Lösung ihrer fachlichen Aufgaben einsetzen. Anwendungssoftware ist – im Unterschied zur Systemsoftware – unmittelbar auf die Lösung von Aufgaben des Benutzers ausgerichtet. Anwendungssoftware setzt auf die Leistungen der Systemsoftware auf. Anwendungssoftware unterstützt das Anwendungsfeld allgemeiner Bürofunktionen, wie Textverarbeitung, Dokumentenmanagement, Termin- und Aufgabenmanagement, aber auch das Anwendungsfeld spezieller fachlicher Aufgaben. Solche Aufgaben sind z. B. die Logistik mit der Auftragsabwicklung, Produktionsplanung und -steuerung, der Vertrieb, die Personalwirtschaft und das Rechnungswesen. Diese integrierten betriebswirtschaftlichen Anwendungssysteme werden auch als ERP-Systeme bezeichnet (Enterprise Resource Planning – ERP. Im Zusammenhang mit Anwendungssoftware wird im Sprachgebrauch auch häufig der Begriff (Software)-Anwendung als Synonym für Anwen-
166
Anwendungssoftware
4.5
dungssoftware benutzt. Weitere Anwendungen werden im Kapitel 11 vorgestellt.
Klassifizierung Anwendungssoftware kann u. a. nach den in der Tabelle 4-11 aufgeführten Merkmalen eingeteilt werden.
Tabelle 4-11
ausgewählte Klassifizierungen von Anwendungssoftware Merkmale
Ausprägungen
Granularität der Architektur
í monolithisch í modular í komponentenbasiert
betriebswirtschaftliche Ausrichtung
í funktionsorientiert í prozessorientiert
Entwicklungsansatz
í prozedural í objektorientiert í wissensbasiert
Art der Anpassung
í durch Parameterspezifikation í durch Konfigurierung
Branchenbezug
í branchenneutral í branchenbezogen í branchenübergreifend
Individualisierung
í Individual-Software í Standard-Software í Standard-Komponenten
Arten von Standard-Software
í Standard-Anwendungssoftware (ERP) í Office-Pakete í weitere
Im Folgenden wird die Klassifizierung nach dem Branchenbezug und nach dem Grad der Individualisierung näher betrachtet.
167
4
Software
Merkmal Branchenbezug Software ohne Branchenbezug Es erfolgt keine Differenzierung nach Branchen. Dabei geht man z. B. davon aus, dass das Rechnungswesen durch den Gesetzgeber stark reglementiert ist und somit keine wesentlichen Unterschiede auftreten können. Weiter wird unterstellt, dass häufig in Unternehmen ein Branchenmix vorkommt. Daher wird versucht, mit einem Ursystem möglichst vielen unterschiedlichen Anforderungen gerecht zu werden.
Software mit Branchenbezug Branchenlösungen werden als individuelle Lösungen entwickelt oder auch zunehmend von den großen Anbietern der StandardSoftwaresysteme vertrieben. Im Falle der Standardsoftware wird die Funktionalität des Ursystems auf die Branchenbedingungen eingeschränkt und um Spezialfunktionen erweitert. So werden unternehmensweite Anwendungen für den Handel, die Prozessindustrie, den Automobilbau, für das Gesundheitswesen, für Versorgungsunternehmen, für die öffentlichen Verwaltungen u. a. Branchen angeboten. Für Handwerksbetriebe wird Standard-Software auf die Gewerke ausgerichtet.
branchenübergreifende Software Branchenübergreifende Software richtet sich insbesondere auf die dokumentenorientierte Datenübermittlung zwischen Geschäftspartnern (Electronic Data Interchange – EDI) und die Kopplung von Anwendungen zwischen den Geschäftspartnern zur Optimierung von Lieferketten (supply chain management).
Merkmal Individualisierung Individual-Software Individual-Software ist Software, die für betriebliche Anwendungen individuell erstellt wird, der so genannte „Maßanzug“. Die Softwareentwicklung erfolgt dabei entweder durch eine eigene Entwicklungsabteilung oder durch ein Softwarehaus. Bis in die siebziger Jahre wurde Anwendungssoftware nahezu ausschließlich für den Eigenbedarf produziert. Die Vorteile von Individual-Software liegen insbesondere bei der Differenzierung in den unternehmenskritischen Bereichen gegenüber den Mitbewerbern.
Lösung spezieller Aufgaben eines Unternehmens
Standard-Software breite Nutzung der Software
Softwarehäuser versuchten ursprünglich, die für ein bestimmtes Unternehmen entwickelte Software bei einem anderen Anwender zumindest
168
Anwendungssoftware
4.5
teilweise wieder zu nutzen. Die Wiederverwendung führte in Richtung Standard-Software. Der Begriff Standard-Software ist mehrdeutig belegt. Gemeinsam ist den verschiedenen Bedeutungen, dass die Software für den vielfachen Einsatz im Markt produziert wird. Der Begriff Standard steht hier für die Bedeutung von allgemein nutzbar. Es wird eine allgemein anerkannte Praxis der Anwendungen implementiert (common practice). Als Standard-Software werden vor allem die Standard-Anwendungssoftware (z. B. ERP-Software) und die Office-Pakete bezeichnet.
Standard-Anwendungssoftware Standard-Software für den betriebswirtschaftlichen Bereich erfüllt sehr ähnliche Aufgaben vieler Unternehmen. Die Lösungen für betriebswirtschaftliche Aufgaben entsprechen einem anerkannten „Standard“. Die Entscheidung für oder gegen Standard-Software (make or buy) fällt deshalb heute vorwiegend zu Gunsten von Standard-Software aus. Vielfach wird der Terminus Standard-Software ausschließlich in der Bedeutung von Standard-Anwendungssoftware verwendet.
Lösung betriebswirtschaftlicher Aufgaben
Office-Pakete Office-Pakete sind standardisierte Software-Produkte der Bürokommunikation, die Werkzeuge für allgemein gebräuchliche Funktionen bereitstellen. Dazu zählen Softwaresysteme für die Textverarbeitung, die Tabellenkalkulation, die Visualisierung als Geschäftsgrafik, die Präsentation, die Datenverwaltung und das Informationsmanagement (Aufgaben, Kalender, Adressen, Mail, Fax, Telefon). Diese Ausprägung der Standard-Software hat die größte Durchdringung bei den rechnergestützten Arbeitsplätzen, die neben einer speziellen betriebswirtschaftlichen Funktion auch Aufgaben der Bürokommunikation zu erfüllen haben. Einige Anbieter von betriebswirtschaftlicher Standard-Software ergänzen ihre betriebswirtschaftlich orientierte Software um Funktionen zur Bürokommunikation (IBM-Office-Vision, SAP-Office). Zunehmend werden diese Speziallösungen durch die Integration der Office-Produkte des Marktführers Microsoft ersetzt.
Lösung von Büroaufgaben
komponentenbasierte Software Ein Kompromiss zwischen Individual-Software und Standard-Software bildet die Synthese von Software, ausgerichtet auf die speziellen Anwendungsbedingungen, konfiguriert aus standardisierten, auf dem Markt verfügbaren Komponenten (componentware). Der Vorteil gegenüber den monolithischen Lösungen mit einem möglichst umfassenden Funktionsangebot besteht darin, dass der Anwender nur die Komponenten erhält, die er auch braucht. Damit werden weniger Ressourcen bei der Nutzung
169
anforderungsgerechte Zusammenstellung von Teilsystemen
4
Software
der Anwendungen erforderlich. Es ist zudem leicht möglich, einzelne Komponenten auszutauschen. Ein komponentenorientierter Ansatz ist die Plug-In-Technologie. PlugIns sind Programmerweiterungen, die als Module an bestehende Software „angestöpselt“ werden (engl.: plug in). Mit Hilfe von Plug-Ins lassen sich neue Funktionalitäten in bestehende Software aufnehmen. Durch genau definierte und offen gelegte Schnittstellen im Hauptsystem können auch Fremdhersteller diese Zusatzmodule anbieten. Die Module werden zumeist vollständig in die Benutzeroberfläche des Hauptprogramms integriert. Plug-Ins werden bei Bedarf vom Hauptprogramm geladen. Besondere Verbreitung finden Plug-Ins in Webbrowsern. Durch sie wird die Anzeige spezieller Datenformate (z. B. Portable Document Format – PDF) oder Animationen möglich. Abschließend wird mit der Tabelle 4-12 ein Vergleich der Ausprägungen der Individualisierung vorgenommen.
Tabelle 4-12
Vergleich der Ausprägungen der Individualisierung Merkmal
IndividualSoftware
Standard-Software
komponentenbasierte Software
Verfügbarkeit
lange Entwicklungszeit
sofort verfügbar
geringe Entwicklungszeit
Weiterentwick-
aufwendig zu sichern
gesichert
gesichert
Kosten
Kosten sind allein zu tragen
günstig, da sich die Entwicklungsaufwendungen auf viele Anwender verteilen
günstig
Dokumentation
häufig nicht herge- gesichert stellt oder nicht aktuell
wird automatisch erzeugt
Abhängigkeit
von den Entwicklern (Fluktuation)
von den Anbietern
lung
weitere Risiken
170
von dem Anbieter (Konkurs oder Wechsel der Produktlinie) bei Modifikation der Standardlösung ist die Aktualisierung (Release-Wechsel) nur mit erheblichem Aufwand möglich
Agentenbasierte Software
Wettbewerb
potenzielle Wettbewerbsvorteile durch Differenzierung
schlank; auf die Anforderungen tatsächlichen Anforderungen reduziert
Ressourcen-
keine (deutliche) Differenzierung zu Mitbewerbern
4.6
potenzielle Wettbewerbsvorteile
noch meist Überfunk- schlank (keine tionalität (ohne Konfi- Überfunktionalität) guration der tatsächlich genutzten Komponenten)
4.6 Agentenbasierte Software Seit einigen Jahren beginnt agentenbasierte Software die Gestaltung von Programmsystemen auf Computern zu revolutionieren. Agenten sind Softwaremodule, die autonom, insbesondere in vernetzten Systemen, Aufgaben im Auftrag eines Nutzers zielgerichtet lösen. Durch „intelligentes“ Handeln der Agenten erreichen diese eine hohe Selbständigkeit. Häufige Rückfragen an den Benutzer sind deshalb nicht notwendig. Agenten können zur Lösung einer Aufgabe miteinander interagieren. Wegen der hohen Selbständigkeit agentenbasierter Software werden solche Programme in der amerikanischen Literatur auch als Software-Roboter bzw. in der Kurzschreibweise als SoftBots bezeichnet. Agenten lassen sich durch die folgenden Eigenschaften charakterisieren:
Autonomie unabhängiges Agieren sowie Steuern und Kontrollieren des eigenen Zustandes
Sozialfähigkeit Kommunikation mit Menschen und anderen Agenten durch eine Sprache, Kooperation mit anderen Agenten, koordiniertes Gruppenverhalten
Umweltwahrnehmung Wahrnehmung von Umwelteigenschaften und deren Veränderung
Handlungsfähigkeit opportunistisches, zielorientiertes Handeln, Reaktion auf relevante Ereignisse, Eigeninitiative, de-eskalierendes Verhalten zur Erhaltung der Eigenstabilität, Planung von Aktionen
Mobilität Unterscheidung in lokale und mobile Agenten, Bewegung zwischen unterschiedlichen Agentenplattformen bei mobilen Agenten
171
autonome Lösung von Aufgaben in vernetzten Systemen
4
Software
Lernfähigkeit Auswertung von Erfahrungen und Anwendung der Erkenntnisse bei zukünftigem Verhalten
Technologie
autonomes Agieren, keine ständige Verbindung zum Nutzer
Software-Agenten arbeiten autonom, d. h. sie benötigen keine ständige Verbindung zwischen Nutzer und Zielsystem, wie beispielsweise bei Client/Server-Systemen. Der Agent führt auf dem Zielsystem seine Aufgabe aus und baut zum Nutzer nur eine Verbindung auf, um Ergebnisdaten zurück zu liefern. Diese unabhängige Arbeitsweise erfordert auf den beteiligten Rechnern besondere Softwaresysteme, so genannte Agentenplattformen.
Migration Migration ist die selbständige Bewegung eines Agenten von einem Computer zu einem anderen über ein Netzwerk. Bei einer Migration wird der Agent auf der aktuellen Plattform deinstalliert, zum gewünschten Ort transportiert und dort wieder installiert, um seine Arbeit fortzusetzen. Die Information, welche Orte der Agent besuchen soll, bezieht er aus einer Liste seines Auftraggebers oder einem Verzeichnisdienst, der von einer Agentenplattform angeboten wird. Eine weitere Methode ist das semantic routing. Dabei migriert der Agent auf Grund seiner Aufgabe. Der Ort wird also auf Basis semantischer Informationen ausgewählt.
Bewegung der Agenten im Netzwerk
Kommunikation Eine wichtige Voraussetzung für die Arbeit eines Agenten ist seine Kommunikation mit dem Computer, auf dem er sich befindet, mit anderen Agenten und mit seinem Besitzer. Ein Modell für die Kommunikation zwischen mehreren Agenten stellt der information space dar. Dieser befindet sich lokal auf jedem Rechner und erlaubt durch dynamische Vermittlerprotokolle die Kommunikation mit mehreren Agenten, dem Agentensystem und dem aktuellen Aufenthaltsort des Agenten. Ein Computer kann im information space eine Art Verzeichnisdienst anbieten, in dem alle auf dem Computer befindlichen Agenten und alle angebotenen Dienste vermerkt sind. Die Kommunikation des Agenten mit seinem Besitzer kann über E-Mail erfolgen. Dabei muss der Besitzer nicht ständig im Computer angemeldet sein. Benötigt der Agent für seine weitere Tätigkeit unbedingt die Zustimmung des Besitzers, so muss er warten oder zum Ausgangscomputer zurückkehren.
Informationsaustausch mit dem Computersystem, anderen Agenten und dem Besitzer
Koordination Die Koordination gehört zu den Basisfähigkeiten eines Agenten. Koordiniert werden die Zuteilung von Ressourcen und die Weitergabe von vorliegenden Ergebnissen. Die Interaktion mit anderen Agenten, die Ergeb-
Regeln für die Zusammenarbeit
172
Agentenbasierte Software
4.6
nisweitergabe und die Nutzung der Fähigkeiten anderer Agenten unterliegen Regeln und Konventionen, die in einem Schema zur Koordination abgelegt sind. Koordination im eigentlichen Sinne findet nur kurzzeitig statt.
Kooperation Im Gegensatz zu Koordination hat die Kooperation einen langfristigen Charakter, da zum einen dynamisch ein Lösungsweg ermittelt und zum anderen die Problemstellung gelöst werden muss. Die Lösung einer Problemstellung lässt sich in vier Phasen unterteilen: die Problemzerlegung, die Problemverteilung, die verteilten Problemlösung und die Synthese der Teillösungen. Die Varianten der Kooperation sind in den Kooperationsprotokollen definiert.
gemeinsame Problemlösung
Sicherheit Bei der Verwendung von Agenten ist das Problem der Sicherheit noch nicht vollständig gelöst. Einerseits muss die Agentenplattform vor böswilligen Agenten geschützt werden, andererseits der Agent vor böswilligen Plattformen. Greift ein Agent erfolgreich eine Agentenplattform an, so kann es dazu kommen, dass er diese Plattform kontrolliert, ankommende Agenten manipuliert oder das gesamte System blockiert. Mittels Public-Key-Verschlüsselungsverfahren kann die Agentenplattform die Authentizität des Agenten prüfen.
Schutz der Agenten und Schutz vor Agenten
Objektorientierung Agenten sind Objekte, die mit Daten und Methoden ausgestattet sind. Agenten agieren durch den Aufruf eigener Methoden. Die Daten eines Agenten werden durch seine dafür vorgesehenen Methoden verändert. Kommunikation kann durch die Ausführung von Methoden anderer Agenten erfolgen, die diese zur Verfügung stellen. Der Zugriff auf bestimmte innere Daten bleibt gesperrt.
Plattformunabhängigkeit Agenten agieren in heterogenen Netzen, d. h. sie treffen auf unterschiedlichste Hard- und Softwareplattformen. Damit die Agenten trotzdem ihre Aufgabe erfüllen können, sind Mechanismen erforderlich, die die Kommunikation mit diesen Systemen sicherstellen. Sie müssen deshalb plattformunabhängig sein. Weitere Fähigkeiten, die eine große Bedeutung bei der Entwicklung von Softwareagenten haben, sind Multitasking, persistente Datenhaltung, Erweiterbarkeit und Veränderung des eigenen Programmcodes. Grundlage für den breiten Einsatz agentenbasierter Software ist die Entwicklung standardisierter Schnittstellen, insbesondere für Kommunikation, Verhandlung und Sicherheit.
173
weitere Anforderungen
4
Software
Anwendung Die zunehmende elektronische Vernetzung im geschäftlichen und privaten Bereich bietet vielfältige Einsatzmöglichkeiten für agentenbasierte Software. Ohne die Entwicklung intelligenter Agenten werden Computernetze für den Nutzer immer undurchschaubarer. Die stark steigende Informationsmenge, die jedem Internetnutzer zur Verfügung steht, lässt sich mit herkömmlichen Technologien kaum bewältigen. Anwendungsbereiche
Einsatzschwerpunkte von Software-Agenten sind die Beschaffung von Informationen, die Koordination anderer Agenten und die Steuerung von Transaktionen.
Informationsagenten unterstützen den Benutzer beim Auffinden von Informationen in verteilten Systemen, spüren Informationsquellen auf, extrahieren selektiv Informationen aus diesen Quellen entsprechend dem Benutzerprofil, bereiten die Ergebnisse auf und präsentieren sie dem Nutzer in anschaulicher Form.
Kooperationsagenten kommen zum Einsatz, wenn ein Einzelagent in seinen Ressourcen und Fähigkeiten überfordert ist. Der Kooperationsagent stellt verschiedene Spezialagenten in einem Agententeam zusammen. Er verfügt dazu über spezielles Metawissen zur Koordination der Agenten.
Transaktionsagenten arbeiten in Datenbankumgebungen und im Netzwerkmanagement. Sie überwachen und führen Transaktionen aus. Die Gewährleistung von Sicherheit und Datenschutz sind von grundlegender Bedeutung. Transaktionsagenten müssen wegen ihres Einsatzes in sehr sensiblen Bereichen robust und vertrauenswürdig sein. Die Kombination aller drei genannten Anwendungsbereiche wird in Zukunft eine wichtige Rolle spielen.
Multiagentensysteme Für die Lösung umfangreicher Aufgabenstellungen müssen mehrere Agenten zusammenarbeiten und miteinander interagieren. Jeder einzelne Agent bearbeitet Teile des Gesamtproblems. Zur Bearbeitung komplexer Aufgabenstellung können verschiedene Lösungsansätze wie Distributed Problem Solver (DSP) und Multiagent Systems (MAS) genutzt werden. Bei DSP ist der Problemlösungsweg vorgegeben. Die Bestimmung der Einzelergebnisse wird zentral koordiniert. Multiagentensysteme hingegen sind dadurch gekennzeichnet, dass der Lösungsweg durch die Agenten dynamisch in Kooperation ermittelt wird.
174
Agentenbasierte Software
Neben der Eigenschaft der Kooperation müssen Agenten in MAS koordinieren und verhandeln können, um eine Problemstellung zu bearbeiten. Multiagentensysteme beinhalten ein Agentenmodell, in dem die Agententypen, die internen Zustände, Ziele und Verhaltensweisen der Agenten aufgeführt sind. Weiterhin wird ein MAS durch ein Organisationsmodell, das die Rollen und Organisationen definiert und ein Kooperationsmodell, welches die Protokolle und Nachrichten spezifiziert, charakterisiert. Durch den Einsatz von Multiagentensystemen lässt sich eine so genannte Schwarmintelligenz bzw. eine Verteilte Künstliche Intelligenz realisieren. Die Umsetzung steckt hier noch in den Anfängen.
Vertiefende Literatur Agententechnologie – Kooperierende Softwareagenten im betrieblichen Einsatz. Schwerpunktheft Wirtschaftsinformatik 43 (2001) 2
BALZERT, H.: Lehrbuch der Software-Technik. Spektrum Akademischer Verlag, Heidelberg 2000
BECK, K.: Extreme Programming. Addison-Wesley, München 2003 BOND, A.; GASSER, L. (Hrsg.): Readings in Distributed Artifical Intelligence. Morgan Kaufmann Publisher, San Mateo 1998
BOOCH, G.: Object-Oriented Analysis and Design with Applications. Benjamin / Cummings, Redwood City 1994
BRADSHAW, J.: Software Agents. AAAI Press / The MIT Press, 1997 BRANDT-POOK, H.; KORZEN, B.; BOIDOL, J.; PEYN, H.: Anwendungsentwicklung in zeitrestriktiven dynamischen Projekten. In: Wirtschaftsinformatik 43 (2001) 3, S. 247 – 254, Vieweg, Wiesbaden 2001
BRAUN, P.; ROSSAK, W.; Mobile Agents. dpunkt, Heidelberg 2005 FERBER, J.: Multiagentensysteme. Eine Einführung in die Verteilte Künstliche Intelligenz. Addison Wesley, München 2001
FERSTL, O. K.; SINZ, E. J.: Grundlagen der Wirtschaftsinformatik. Band 1, Oldenbourg, München 2001
JACOBSON, I.; BOOCH, G; RUMBAUGH, J.: The Unified Software Developement Process. Addison-Wesley, Wokingham 1999
KAIB, M.: Enterprise Application Integration. Deutscher UniversitätsVerlag, Wiesbaden 2002
175
4.6
4
Software
LIPPERT, M.; ROOCK, S.; WOLF, H.: Software entwickeln mit eXtreme Programming: Erfahrungen aus der Praxis. dpunkt, Heidelberg 2002
MARTIN, J.: Rapid Application Development. Prentice Hall, Englewood Cliffs 1991
OESTERREICH, B.: Analyse und Design mit UML 2. Oldenbourg, München 2004
RUMBAUGH, J.; BLAHA, M.; PREMERLANI, W.; EDDY, F.; LORENSEN, B.: Object Oriented Modeling and Design. Prentice Hall, Englewood Cliffs 1991
SCHEER, A.-W.: Vom Geschäftsprozeß zum Anwendungssystem. Springer, Berlin 2002
SCHREIER, U.: Software-Architektur für objektorientierte Geschäftsanwendungen. Oldenbourg, München 2005
WOOLDRIDGE, M. J.: An Indroduction to MultiAgent Systems. John Wiley and Sons Ltd., Chichester 2002
176
Agentenbasierte Software
Kapitel 5 Netze
177
4.6
Grundlagen
5
5.1
Netze
5.1 Grundlagen Begriff Computernetz Ein Computernetz (computer network) ist die Kopplung von mehreren, möglicherweise verschiedenen und meist räumlich getrennten Computern. Die Abbildung 5-1 zeigt ein Beispiel für den schematischen Aufbau eines Computernetzes.
Verbindung mehrerer Computer
Schematischer Aufbau eines Computernetzes (Beispiel)
Abbildung 5-1
Ein Computernetz hat die Aufgabe, Anwendungen für die Nutzung bereitzustellen und die Kommunikation, d. h. die Übertragung von Nachrichten zwischen den Computern, zu ermöglichen. Die Quelle der Nachricht wird als Sender und das Ziel als Empfänger bezeichnet. Sender und Empfänger werden auch Endstellen genannt.
179
5
Netze
Für Computernetze werden synonym auch die Begriffe Netz oder Netzwerk verwendet.
Übertragene Informationen Die in der Nachricht übertragenen Informationen können sein:
Daten Texte Ton, Bilder, Video Kombination der zuvor genannten Medien (Multimedia)
Verbund-Effekte Neben der eigentlichen Aufgabe von Netzen, die Kommunikation zwischen verschiedenen Computern zu realisieren, bieten Netze eine Reihe von Vorteilen, die vor allem im Teilen von Ressourcen sowie im Schaffen erhöhter Zuverlässigkeit und in der Erweiterung der allgemeinen Leistungsfähigkeit bestehen. Diese Verbund-Effekte sind in der Abbildung 5-2 zusammengefasst.
Abbildung 5-2
Verbund-Effekte von Computernetzen
180
Grundlagen
Die Ressourcenteilung im Netzwerk ermöglicht, dass jeder Benutzer auf sämtliche Ressourcen zugreifen kann, ohne Rücksicht auf den jeweiligen Standort. Die nachfolgend genannten Verbundarten sind Ausprägungen der Ressourcenteilung.
Der Datenverbund ermöglicht die Verteilung von Daten auf verschiedene Ressourcen und deren Nutzung unabhängig vom Ort der Speicherung.
Der Geräteverbund (Betriebsmittelverbund) erlaubt die gemeinsame Verwendung teurer oder wenig genutzter peripherer Einrichtungen (Plotter, Jukeboxen, CD-Server).
Der Funktionsverbund (Programmverbund) ermöglicht die Mitbenutzung von Software auf entfernten Computern durch alle autorisierten Benutzer oder Programme (Telearbeit, Außendienst, Nutzung von Hochleistungsrechnern).
Der Lastverbund (Kapazitätsverbund) ermöglicht eine Aufteilung der Kapazitätsanforderungen auf die Ressourcen im Verbundnetz. Durch die Umverteilung von Aufträgen kann man Verbesserungen bei den Antwort- und Transaktionszeiten erreichen.
Der Leistungsverbund ist auf die Integration funktionaler Komponenten ausgerichtet, die zur gemeinschaftlichen, parallelen Nutzung der Ressourcen eingesetzt werden. So können z. B. mehrere Computer parallel an der Lösung einer Aufgabe arbeiten (grid computing). Neben den Effekten aus der Ressourcenteilung wird die Zuverlässigkeit durch den Verfügbarkeitsverbund erhöht. Das Netz sichert die Bereitstellung einer Mindestleistung auch im Falle des Ausfalls von einzelnen Komponenten durch fehlertolerante Systeme. Eine weitere wichtige Eigenschaft der Computernetze ist die Erweiterbarkeit. Netze können den wachsenden Bedürfnissen der Nutzer angepasst werden. Sie lassen sich durch das Ankoppeln neuer Teile ständig erweitern.
Strukturen Netze sind aus verschiedenen Komponenten aufgebaut, die zu Teilnetzen und schließlich zu Netzverbunden zusammengefasst werden können. Den Zusammenhang dieser Struktur erläutert die Abbildung 5-3.
181
5.1 Zugriff auf entfernte Ressourcen
5 Abbildung 5-3
Netze
Strukturen in Computernetzen
Netzelemente Zum Computernetz gehören eine Vielzahl von Hard- und Softwareelementen, die das kooperative Zusammenwirken der angeschlossenen Computer ermöglichen. Diese Elemente können in aktive und passive unterteilt werden. Aktive Elemente dienen der Vermittlung und Übertragung von Nachrichten. Sie werden als Knoten bezeichnet. Zu den aktiven Elementen gehören:
Knotenrechner Knotenrechner sind die Computer, die durch das Netz verbunden werden. Die Verbindung erfolgt über eine Netzwerkkarte bzw. ein Modem. In einem Netz kommunizierende Computer sind „online“.
Repeater Repeater verstärken das Übertragungssignal bei größeren Entfernungen.
Bridge Bridges verbinden Teilnetze mit unterschiedlichen Übertragungsmedien und Zugriffsverfahren.
Router Router verbinden wie Bridges Teilnetze und ermöglichen zusätzlich die logische Strukturierung des Netzes. Router können den Übertragungsweg der Informationen optimieren. Diese Weg-Ermittlung wird Routing genannt.
182
Grundlagen
5.1
Gateway Gateways ermöglichen den Übergang von einem Netzwerk in ein anderes.
Hub Ein Hub ist eine Art „Verteilerkasten“ für den Anschluss weiterer Knoten. Der Hub kann als zentrale Komponente für die Definition der logischen Teilnetze eingesetzt werden. Ein Hub kann je nach technischer Realisierung Bridge, Router- und Verteilerfunktionen integrieren.
Switch Ein Switch stellt für eine bestimmte Zeitdauer eine schnelle Verbindung zwischen zwei Knoten im Netz her. Dabei wird im Unterschied zu konventionellen Technologien (Bridge, Router, Hub) die Nachricht nicht an alle Teilnehmer im Teilnetz gesandt (Broadcasting), sondern es wird eine direkte Verbindung (Vermittlung) zum Zielknoten für die Dauer des „Switches“ hergestellt. Der Vorteil dieses Verfahrens besteht darin, dass die volle Übertragungsbreite des Mediums für den Switch verfügbar ist. Weiterhin steigt die Abhörsicherheit, da nicht mehr an alle Teilnehmer gesendet wird. Passive Elemente sind physische Verbindungen (Kabel) zwischen den aktiven Elementen. Sie dienen der Entfernungsüberbrückung. Neben Kabeln kann auch Funk, Laser- oder Infrarot-Technik zur Verbindung der Knoten eingesetzt werden. Die dazu erforderlichen Geräte gehören zu den aktiven Elementen. Teilnetze Mehrere verbundene Computer bilden ein Teilnetz (Subnetz). Für Teilnetze als Kommunikationsinfrastruktur in Computernetzen gibt es zwei Grundformen:
Teilstreckennetze Bei Teilstreckennetzen gelangt eine Nachricht über eine oder mehrere Teilstrecken vom Sender zum Empfänger (Punkt-zu-Punkt-Verbindung). Jede Station bildet Ende und Anfang mindestens einer Teilstrecke. Nicht benachbarte Knoten müssen über andere Knotenrechner kommunizieren. Nachrichten werden von jedem dazwischen liegenden Knotenrechner empfangen, vorübergehend gespeichert und dann weiterbefördert, sobald eine Leitung frei ist.
Punkt-zu-PunktVerbindung
Diffusionsnetzwerke In Diffusionsnetzwerken (broadcast networks oder shared networks) nutzen alle Stationen ein gemeinsames Übertragungsmedium. Zur Datenübertragung sendet ein Knoten die Daten in das Netz. Alle anderen Knoten können diese Daten empfangen. Jeder Knoten, der Daten emp183
Broadcasting
5
Netze
fängt, prüft, ob diese für ihn bestimmt sind. Wenn ja, verarbeitet er sie weiter, ansonsten werden sie ignoriert. In einem solchen Netzwerk darf zu einem bestimmten Zeitpunkt nur ein Knoten senden. Durch verschiedene Zugriffsverfahren wird geregelt, welcher Knoten senden darf. Die meisten der heute eingesetzten Netzwerke sind Diffusionsnetzwerke. Netzverbund Teilnetze können untereinander gekoppelt werden und bilden dann einen Netzverbund. Der bedeutendste Netzverbund ist das Internet.
Reichweite Eine übliche Einteilung von Computernetzwerken erfolgt nach Entfernungsklassen (Reichweiten). Die Abbildung 5-4 zeigt die verschiedenen Entfernungsklassen.
Abbildung 5-4
Entfernungsklassen für Computernetze
lokale Netze Lokale Netze (Local Area Network – LAN) haben eine geringe Ausdehnung (wenige Kilometer). Sie verbinden Computer innerhalb und zwischen benachbarten Gebäuden eines Standortes.
Stadtnetze Stadtnetze (Metropolitan Area Network – MAN) dienen der Vernetzung einer Stadt oder eines Ballungsraumes.
Fernnetze Fernnetze (Wide Area Network – WAN) verbinden mehrere Städte, Länder oder Kontinente.
globale Netze Globale Netze (Global Area Network – GAN) umspannen die gesamte Erde. Das Internet gehört zu dieser Kategorie der Netze.
184
Grundlagen
5.1
Öffentlichkeit öffentliche Netze Öffentliche Netze werden von Firmen oder Institutionen betrieben und der Öffentlichkeit zur Nutzung, meist gegen Entgelt, zur Verfügung gestellt.
private Netze Private Netze werden von einer geschlossenen Benutzergruppe, z. B. den Mitarbeitern einer Firma, verwendet.
Netzleistung Die wesentlichen Leistungsmerkmale eines Computernetzes werden durch folgende Messgrößen charakterisiert:
Verzögerung Die Verzögerung (gemessen in Sekunden) bestimmt, wie lange es dauert, bis ein Datenbit von einem Computer zum anderen gelangt. Verzögerungen entstehen durch die Verteilung, die Vermittlung, den Zugriff und ggf. die Verarbeitung bei der Paketvermittlung. Je mehr der Verkehr in einem Computernetz ansteigt, umso größer werden die Verzögerungen.
maximale Übertragungsrate Die maximale Übertragungsrate (fälschlicherweise auch als Bandbreite oder Durchsatz bezeichnet) gibt an, welche Datenmenge in einer bestimmten Zeit maximal übertragen werden kann. Sie wird in Bit/s (Bit pro Sekunde – bps) gemessen. Weitere Maßeinheiten sind kBit/s (Kilobit pro Sekunde), MBit/s (Megabit pro Sekunde – Mbps) und GBit/s (Gigabit pro Sekunde – Gbps).
maximal übertragbare Datenmenge pro Sekunde
effektive Übertragungsrate Die effektive Übertragungsrate gibt an, welche Menge von Nutzdaten in einer bestimmten Zeit übertragen wird. Durch die Übertragung von Kopfdaten zur Wegleitung, Prüfinformationen, die wiederholte Übertragung von verloren gegangenen Daten, Überlastung der Netzknoten u. a. liegt die effektive Übertragungsrate wesentlich unter der maximalen Übertragungsrate. Es werden dieselben Maßeinheiten wie bei der maximalen Übertragungsrate verwendet.
tatsächlich übertragene Menge an Nutzdaten pro Sekunde
Die Anforderungen an die Übertragungsrate steigen erheblich durch die Zunahme der unternehmensweiten Kommunikation. Insbesondere verteilte Multimedia-Anwendungen (z. B. Videokonferenzen, MultimediaInformationssysteme, Video-on-demand) stellen sehr hohe Anforderungen an die Übertragungsrate.
hohe Übertragungsraten erforderlich
185
5
Netze
Latenzzeit Verzögerungszeit
Die Latenzzeit (latency, ping time) gibt die Zeit in Millisekunden an, die benötigt wird, um ein einzelnes IP-Datenpaket von einem Server anzufordern. Die Latenzzeit sagt nichts über die Übertragungsrate aus. Vielmehr gibt sie die Reaktionsgeschwindigkeit der Verbindung an. Satellitenverbindungen haben aufgrund der langen Signalwege beispielsweise vergleichsweise hohe Latenzzeiten. Besondere Bedeutung hat die Latenzzeit bei der Telefonie, Videokonferenzen oder Online-Action-Spielen.
5.2 Schichten Differenzierung der Kommunikation
Die Serviceleistungen, die ein Netz den kommunizierenden Knoten anbietet, werden nach Schichten (layer) differenziert. Ein allgemein anerkanntes Modell für diese Differenzierung ist das ISO/OSI-Referenzmodell. Nach einem Überblick über das ISO/OSI-Referenzmodell werden in diesem Abschnitt die einzelnen Schichten und ihre Dienste vorgestellt.
Realisierung durch Netzwerksoftware
Die Realisierung der Dienste in einem Netz erfolgt durch Netzwerksoftware auf der Basis von Protokollen. Die Netzwerksoftware ist entweder in das Betriebssystem integriert (z. B. bei Linux und Windows) oder eine selbständige Software (z. B. Novell Netware).
Protokolle
Vereinbarung zur Form der Datenübertragung
Ein Protokoll ist eine Vereinbarung, die das Format und die Bedeutung von Nachrichten, die Computer austauschen, bestimmt. Die in einem Netz kommunizierenden Anwendungsprogramme interagieren nicht direkt mit der Netzhardware, sondern über die zwischengeschaltete Netzwerksoftware, die den Regeln eines oder mehrerer Protokolle gehorcht. Die heute am weitesten verbreiteten Protokolle sind IPX und TCP/IP. Für die Sicherung der Kommunikation zwischen heterogenen Computern, Betriebssystemen und Netzwerksoftware ist die Standardisierung der Protokolle von hoher Bedeutung.
ISO/OSI-Referenzmodell Das ISO/OSI-Referenzmodell (Open Systems Interconnection – OSI) der ISO (International Standards Organisation) ist ein wichtiger Bezugsrahmen für Protokolle und Kommunikationsprodukte. Das Modell unterteilt die Leis-
186
Schichten
5.2
tungen für die Kommunikation in Netzen in sieben Schichten (layer). Die Tabelle 5-1 erläutert deren Aufgaben.
Tabelle 5-1
Funktionen der ISO/OSI-Referenzmodell-Schichten Schicht
Funktionen
Anwendungsschicht
Standardisierung einiger häufig genutzter Anwendungen, damit sie nicht für jede Anwendung neu programmiert werden müssen (z. B. Dateiaustausch, Elektronische Post, virtuelle Terminals u. a.)
(application layer)
Definition der Netzbenutzung durch eine Anwendung
Darstellungsschicht (presentation layer)
Festlegung der Bedeutung ausgetauschter Daten (Codes, Verschlüsselungen, Sprache, Grafik)
Sitzungssteuerung (Steuerung des Dialogs vom rungsschicht (session layer) Beginn bis zur Beendigung der Übertragung)
Kommunikationssteue Transportschicht
Steuerung und Überwachung der logischen Verbindung zwischen Sender und Empfänger, Durchführung von Vollständigkeitskontrollen
Vermittlungsschicht
Auf- und Abbau des gesamten physischen Übertragungsweges, bestehend aus gekoppelten Teilstrecken zwischen Sender und Empfänger
Sicherungsschicht
Sicherung der Bitübertragungsschicht (Fehlererkennung und -behebung) durch Blöcke aus Bitfolgen und Kontrollinformationen
Bitübertragungsschicht
Übertragung von Bitfolgen (ungesichert) sowie Vereinbarung von Schnittstellen, Übertragungsrate und Gleichlaufverfahren
(transport layer)
(network layer)
(data link layer)
(physical layer)
Diese Schichtenaufteilung geht davon aus, dass jede höhere Schicht die Leistungen der direkt darunter liegenden Schicht nutzen kann. Damit wird eine Entwicklung von Produkten speziell für bestimmte Schichten des Referenzmodells möglich. Die Abbildung 5-5 zeigt den Verlauf der Kommunikation zwischen zwei Anwendungsprogrammen. Dabei werden die Dienst-Schichten von der Anwendung auf dem ersten Computer bis zum physikalischen Übertragungsmedium als Bindeglied zum korrespondierenden Netzknoten durchlaufen. Von dort erfolgt der Weg wiederum über die Dienst-Schichten bis zum Anwendungsprogramm auf dem zweiten Computer.
187
5 Abbildung 5-5
Netze
Kommunikation zwischen Anwendungsprogrammen im ISO/OSI-Referenzmodell
Die einzelnen Schichten werden im Folgenden näher erläutert.
Anwendungsschicht Neben den nachfolgend geschilderten Aufgaben der Anwendungsschicht übernimmt diese in der Praxis oft auch zusätzlich Aufgaben der Kommunikationssteuerungsschicht und der Darstellungsschicht, so dass letztere an Bedeutung verlieren. Client/ServerArchitektur
Besonders die Client/Server-Architektur (siehe auch Kapitel 4) nutzt Funktionalitäten auf der Ebene der Anwendungsschicht. Mit der Client/ServerArchitektur wird die Verarbeitung von Daten auf mehrere kooperierende Computer verteilt, die über ein Netzwerk miteinander verbunden sind. Die Kommunikation zwischen den verteilten Komponenten geschieht über einen entfernten Prozeduraufruf (Remote Procedure Call – RPC). Die Kommunikation erfolgt nach dem Prinzip von Anforderung (request) und Antwort (response). Die Anforderungen werden vom Client-Teil der Anwendung gestellt und vom Server-Teil bearbeitet und beantwortet.
188
Schichten
Ein Server ist eine Funktionseinheit im Netz, deren Leistungen von anderen Teilnehmern im Netz (den Clients) genutzt werden. Eine Anwendung setzt die so genannte Client-Funktion eines Dienstes ein, um auf den Server zuzugreifen. Eine Anwendung kann sich zur Erfüllung ihrer Aufgaben mehrerer Server bedienen.
5.2 Server und Client
Die Begriffe Client und Server werden oft auch für bestimmte Computer im Netz verwendet. Dies ist eigentlich nicht korrekt, da ein Computer sowohl Client- als auch Server-Funktionen ausüben kann. Auf einem Computer können auch mehrere Serverprogramme laufen. Verteilung von Funktionen im Netz clientorientierte Anwendungen Durch die Möglichkeiten der PCs, die ursprünglich auf die autonome Nutzung von Programmen ausgerichtet waren, entstand eine Verteilung der Funktionen, die zu dem Begriff „fetter Client“ (fat client) führte. Dies bedeutet, dass sich von den Schichten eines Anwendungssystems der größte Teil auf dem PC befindet. Dazu gehören zumeist die Präsentation, die Dialogsteuerung und häufig auch die Anwendungslogik sowie die Datenverwaltung. Die stark ausgebauten Clients haben den Vorteil der geringen Netzbelastung, der meist guten Performance und der Einflussmöglichkeiten des Benutzers. Diesen Vorteilen stehen die Nachteile der hohen totalen Arbeitsplatzkosten gegenüber, die vor allem auf zwei grundlegenden Problemen beruhen. Einerseits sind Zugriff, Konsistenz und Sicherheit von Daten, die dezentral auf den PCs der Nutzer gespeichert werden, nicht gewährleistet. Abhilfe schaffen hier zentrale File-Server und Datenbankanwendungen. Andererseits steigt die Komplexität der verteilten, häufig mit verschiedenen Produktlinien ausgerüsteten Informationsinfrastruktur gegenüber den zentralisierten Strukturen mit zunehmender Nutzerzahl stark an. Durch unterschiedliche Hardware- und Softwarekonfigurationen sowie Programmversionen entsteht ein erheblicher Administrationsund Betreuungsaufwand. Neben den serverbasierten Lösungen, die im folgenden Abschnitt behandelt werden, haben aus diesen Gründen vor allem Werkzeuge an Bedeutung gewonnen, die unter Beibehaltung des clientorientierten Ansatzes eine vereinfachte Administration ermöglichen. Diese Werkzeuge bieten dem Administrator Funktionalitäten, um Software unternehmensweit von zentraler Stelle aus auf an das Netzwerk angeschlossenen PCs zu installieren, zu aktualisieren und an diesen PCs Diagnosen durchzuführen. Selbst die Nutzerbetreuung kann ferngesteuert durch Zugriff auf den Bildschirminhalt des Nutzers erfolgen.
189
Client beinhaltet Hauptteil des Anwendungssystems (fat client)
hohe totale Arbeitsplatzkosten
RemoteAdministration
5
Netze
Vereinheitlichung der ITInfrastruktur
Zur Verringerung der Heterogenität der IT-Infrastruktur gehen zudem immer mehr Unternehmen dazu über, sowohl Hard- als auch Software turnusmäßig im gesamten Unternehmen einheitlich auszutauschen.
serverbasierte Anwendungen Server beinhaltet Hauptteil des Anwendungssystems (thick server)
In serverbasierten Anwendungen wird die Anwendungslogik auf dem Server (thick server) von der Benutzungsoberfläche auf dem Arbeitsplatzsystem getrennt. Durch die Konzentration von Funktionen auf Server wird die Administration der Anwendungen und Daten deutlich erleichtert, da die Anwendungsprogramme nicht mehr auf jedem PC oder jeder Workstation, sondern nur noch auf dem Server gepflegt werden müssen. Diese Architektur ist besonders für Nutzergruppen geeignet, die ortsgebunden gut überschaubare Aufgaben bearbeiten. Dabei wird die Kontrolle vom Client zum Server verlagert.
thin client, Netzcomputer, Terminal
Die Lösung für die Probleme clientbasierter Anwendungen wurde vor einigen Jahren in der breiten Rezentraliserung der Anwendungen unter Nutzung von schlanken Clients (thin clients), Netzcomputern oder Terminals gesehen, die auf die dauerhafte Speicherung der Anwendungslogik und der Daten verzichten. Sie nehmen lediglich die Eingabe der Benutzer auf und präsentieren die Ergebnisse der Datenauswertungen. Programme und Daten liegen dann zu 100% auf Servern. Der Wartungsaufwand der schlanken Clients reduziert sich dadurch auf einen Bruchteil herkömmlicher PCs. Dieses Prinzip ist jedoch nur dann einsetzbar, wenn sämtliche vom Nutzer auszuführenden rechnerbasierten Tätigkeiten von der serverbasierten Anwendung unterstützt werden. Dazu muss die Anwendung entweder eine Terminal-Host-Anwendung sein oder mittels eines Terminalservers durch den Host so gekapselt werden, dass eine Kommunikation mit dem Terminal möglich wird. Hierfür gibt es Lösungen von verschiedenen Anbietern. Die Realität hat jedoch gezeigt, dass in vielen Anwendungsfällen eine derartige Umstrukturierung nicht möglich ist. Bei bestimmten Anwendungen erzeugen Netzcomputer, insbesondere bei vielen Nutzern, eine erhebliche Netzlast, die die Verarbeitungsgeschwindigkeit herabsetzt. Zudem sind die Übertragung und der Betrieb von Arbeitsumgebungen, die aus Gründen der spezifischen Arbeitsaufgaben stark individualisiert sind (z. B. Spezialprogramme), auf zentrale Server häufig mit hohem Aufwand verbunden. Diese vollständige Übertragung der Arbeitsumgebung ist jedoch bei einer Ersetzung des PCs durch einen Netzcomputer notwendig.
190
Schichten
5.2
Ein wesentlich weiter verbreitetes Prinzip der serverbasierten Anwendungen sind deshalb mehrschichtige Anwendungen unter Beibehaltung des PCs. Mehrschichtige Client/Server-Anwendungen, meist in Form großer Anwendungssysteme, benutzen ein relativ kleines auf dem PC installiertes Programm (frontend) zur Dateneingabe und Ergebnispräsentation. Komplexe Verarbeitungsfunktionen und Datenbanktransaktionen werden von Servern übernommen.
mehrschichtige Client/ServerAnwendungen
Für Anwendungen, die als reine Host-Terminal-Anwendungen konzipiert wurden, können Terminalemulationen eingesetzt werden, mit deren Hilfe sie auch per PC bedient werden können.
Terminalemulation
Auch auf PCs können per Terminalserver zur Verfügung gestellte Anwendungen genutzt werden. Systemadministratoren können durch diese Flexibilität die IT-Infrastruktur sehr gut skalieren. Je nach Anforderungen und Abwägung zwischen Performance, Netzlast und Administrationsaufwand können Anwendungen stärker auf Server verlagert werden oder auf den PCs verbleiben.
Insbesondere die Client/Server-Architektur nutzt zur Ausführung ihrer Anwendungen Dienste. Es kann zwischen Basis- und Mehrwertdiensten unterschieden werden. Die Basisdienste dienen der Nachrichtenübermittlung. Sie wird durch die unteren OSI-Schichten sichergestellt. Die Mehrwertdienste (value added network, value service network) sind auf einen zusätzlichen Nutzen im Bereich der Anwendungsschicht ausgerichtet.
Basisdienste zur Nachrichtenübermittlung, Mehrwertdienste für zusätzliche Anwendungsfunktionen
Abbildung 5-6
Mehrwertdienste
Speicher- und Verteildienste Informationsdienste Transaktionsdienste Überwachungs-, Steuerungs- und Wartungsdienste Verarbeitungsdienste Speicher- und Verteildienste Sie unterstützen die asynchrone Kommunikation, indem Speicher für Mailboxen bereitgestellt und Nachrichten an die Adressaten versandt werden.
Electronic Mail (E-Mail, elektronische Post) ist der bekannteste und meistgenutzte Dienst. Die E-Mail ist die elektronische Entsprechung des Briefes. Die vom Absender abgeschickte Nachricht wird von einem Mail191
E-Mail
Netze
5
Server gespeichert. Der Empfänger kann die Nachricht zu einem beliebigen Zeitpunkt lesen, indem er sie vom Mail-Server abruft. An die Nachrichten können Dokumente, Bilder u. a. angehängt werden. E-Mail-Adresse
E-Mail-Adressen bestehen aus dem Empfängernamen gefolgt von dem Symbol @ (at) und dem Namen des Mail-Servers (domain name): empfaengername@domainname Der Empfänger kann bei längerer Abwesenheit die potenziellen Absender von seiner Abwesenheit informieren lassen und er kann ausgewählte Post einem Stellvertreter zustellen lassen. Weiterhin ist es möglich, dass die Post durch den Empfänger weitergeleitet und mit Erledigungsvermerken versehen wird.
Computerkriminalität
Die starke Nutzung von E-Mail im privaten und geschäftlichen Leben hat diese Technologie jedoch auch zu einem beliebten Werkzeug für Computerkriminalität werden lassen. Neben der Versendung unerwünschter Werbemails (Spam) sind E-Mails das Hauptverbreitungsmedium für Computerviren geworden. Zudem sind nur wenige Nutzer für den Schutz ihrer Nachrichten vor fremden Zugriff sensibilisiert. Diese Aspekte werden ausführlich in Kapitel 9 behandelt.
Newsgroups
Diskussionsforen (newsgroups) sind eine weitere Form der asynchronen schriftlichen Kommunikation. Sie dienen dem Informationsaustausch in einer Gruppe von Personen mit gleichen Interessengebieten (community) bzw. in Projektgruppen zur gemeinsamen Aufgabenbearbeitung. Diskussionsforen können offen (Internet), von einem geschlossenen Teilnehmerkreis innerhalb eines Unternehmens (Intranet) oder gemeinsam mit Geschäftspartnern (Extranet) betrieben werden. Diskussionsforen sind ebenfalls eine Funktionalität von Werkzeugen zur Unterstützung der Kooperation (E-Collaborative-Tools).
Chat
Chat (Internet Relay Chat – IRC) ist eine Form der synchronen Kommunikation von Teilnehmern. Chat oder in erweiterter Form als Instant Messaging (IM) bezeichnet, ist eine Form der quasi zeitgleichen Anzeige der Texte, die die Gesprächspartner über die Tastatur eingeben.
Voice over IP Internet-Telefonie (IP-Telefonie, Voice over Internet Protocol – VoIP) bezeichnet die Übertragung von Sprache über das Internet Protocol (IP). Im Gegensatz zur traditionellen leitungsvermittelten Übertragung wird dabei für ein Gespräch keine dedizierte Verbindung für die komplette Dauer der Kommunikation geschaltet. Das Netzwerk wird nur dann mit Informationen belastet, wenn auch tatsächlich gesprochen wird. InternetTelefonie kann Kostenvorteile bieten, da eine Abrechnung über das
192
Schichten
5.2
transferierte Datenvolumen und nicht die Dauer und die Entfernung der Verbindung erfolgt. Informationsdienste Informationsdienste bieten den Zugang zu Informationsangeboten, wie
Informationsangebote
Online-Datenbanken (Wirtschaftsdaten, Fahrplanauskunft u. a.) Beratungsdienste von Serviceanbietern Zustelldienste (push service) für die automatische Übertragung aktueller Informationen, wie z. B. Börsenkurse
Angebote zum Dateitransfer (download), z. B. von Software durch FTP
FTP
(File Transfer Protocol)
Suchmaschinen für das Auffinden bestimmter Informationen
Suchmaschinen
Transaktionsdienste Transaktionsdienste sind Anwendungen, die geschäftliche Vorgänge bewirken, wie Telebanking, Reservierungen für Tickets, Hotels, Reisen oder Bestellungen von Waren und Dienstleistungen im Rahmen des E-Commerce. Dabei werden die externen Partner (Kunden, Lieferanten) mit den Anwendungssystemen im Unternehmen, vor allem mit den Warenwirtschaftssystemen verbunden. Auch die Mitarbeiter der Unternehmen haben die Möglichkeit von ihrem Arbeitsplatz aus, Geschäftsvorfälle zu initiieren. So kann z. B. der Abruf von Materialien durch die Bedarfsträger im Unternehmen direkt über das Internet bei den Lieferanten erfolgen (E-Procurement). Dies senkt die Prozesskosten und verkürzt die Beschaffungszeiten durch Verringerung der Anzahl der Bearbeitungsstationen. Weitere Beispiele sind die Bearbeitung von Kundenanfragen und -aufträgen, die über das Internet generiert wurden. Zu den Transaktionsdiensten können aber auch unternehmensinterne Geschäftsvorgänge gehören, welche die Mitarbeiter mit Hilfe der Internet-Technologie starten können, wie die Beantragung und Abrechnung von Dienstreisen oder Urlaub.
E-Commerce
Überwachungs-, Steuerungs- und Wartungsdienste Sie bieten beispielsweise Überwachung und Auslesen von Zählerständen, Überwachung von Alarmanlagen, Meldesysteme für Sozialdienste in der Kranken- und Senioren-Betreuung sowie die Fern-Überwachung und Steuerung von Anlagen und Verkehrsleitsystemen. Verarbeitungsdienste Sie stellen Verarbeitungskapazität von Computern für die Fernnutzung (remote access, remote login) bereit. Dadurch wird ein entfernter Zugriff auf
193
Fernnutzung von Computern
5
Netze
ein Computersystem möglich. Der Benutzer kann an einem entfernten Computer arbeiten, als würde er sich vor Ort befinden. Verzeichnisdienste Verzeichnisdienste ermöglichen den Zugriff auf hierarchisch strukturierte Sammlungen von Objekten, die Verzeichnisse. Verzeichnisdienste vereinfachen die Administration von komplexen Datenstrukturen bspw. durch einmaliges Anmelden (single sign on), einheitlichen Zugriff auf unterschiedliche Datenquellen und Verbesserung der Datenkonsistenz. Ein verbreiteter Verzeichnisdienst ist LDAP (Lightweight Directory Access Protocol).
Darstellungsschicht
Festlegung der Bedeutung ausgetauschter Daten Komprimierung, Verschlüsselung
Während in den tiefer liegenden Schichten 1 bis 5 die ordnungsgemäße Übertragung einzelner Bits im Vordergrund steht, sorgt die Darstellungsschicht für die korrekte Syntax und Semantik der übertragenen Informationen und die Übersetzung der Datendarstellung von einem Computertyp zu einem anderen. Es werden zur Übertragung standardisierte Datenformate (z. B. Text, Gleitkommazahlen, Grafikformate) verwendet. Die Darstellungsschicht kann durch Datenkomprimierung eine schnellere Datenübertragung ermöglichen. Durch den Einsatz kryptographischer Verfahren können der Verbindungsaufbau (Passwortabfrage) und die Daten (Verschlüsselung) gegen unbefugte Verwendung und Verfälschung gesichert werden.
Kommunikationssteuerungsschicht
Steuerung des Dialogs
Hauptaufgabe der Kommunikationssteuerungsschicht (Sitzungsschicht) sind der Aufbau, die Durchführung und die Beendigung einer Kommunikationssitzung. Die Kommunikationssteuerungsschicht schützt zusätzlich vor Datenverlusten bei Abbruch der Kommunikationsverbindung. Es werden Synchronisationspunkte in den Datenpaketen vereinbart, an denen nach Sitzungsabbruch die Übertragung wieder aufgenommen wird. Weiterhin wird, wenn nötig, die Reihenfolge der Kommunikation zwischen den beiden Endstellen gesteuert.
Transportschicht Aufgabe der Transportschicht ist die Gewährleistung einer zuverlässigen, effizienten Verbindung zwischen zwei Endstellen unabhängig von der
194
Schichten
5.2
Struktur des Netzes. Dazu gehören der Aufbau, die Nutzung und der Abbau der Verbindungen. Die von der Kommunikationssteuerungsschicht übernommenen Daten werden bei Bedarf in kleinere Teile zerlegt. Wird eine hohe Übertragungsrate benötigt, baut die Transportschicht mehrere Verbindungen parallel auf und verteilt die Datenübertragung auf diese Verbindungen. Steht der Aufbau einer kostengünstigen Kommunikation im Vordergrund, werden mehrere Sitzungen über eine Verbindung realisiert (multiplexing).
Steuerung und Überwachung der Kommunikationsverbindung
Die Transportschicht stellt die vollständige, korrekte Datenübertragung sicher. Wenn Fehlererkennungs- und -behebungsfunktionen der unteren Schichten nicht ausreichend arbeiten, werden diese Aufgaben von der Transportschicht übernommen.
Vermittlungsschicht Die Vermittlungsschicht legt den Weg der Informationen zwischen Sender und Empfänger fest. Die Bestimmung dieser Wegstrecke wird Routing genannt. Um eine effiziente Datenübertragung zu gewährleisten, müssen die Auslastung und der Ausfall von Netzteilen berücksichtigt werden. Die Vermittlungsschicht sorgt ebenfalls für eine korrekte Übertragung durch verschiedenartige Netze und die Abrechnung der Verbindungskosten.
Auf- und Abbau des physischen Übertragungsweges
Die Vermittlungsverfahren werden in Leitungsvermittlung und Paketvermittlung unterschieden. Leitungsvermittlung (circuit switching) Für die gesamte Dauer der Übertragung besteht eine physikalische Verbindung. Dieses Verfahren wird u. a. im analogen Telefonnetz, aber auch bei ISDN eingesetzt. Die direkte Verbindung hat den Vorteil des schnellen Verbindungsaufbaus. Der Nachteil dieses Verfahrens besteht darin, dass kein Kapazitätsausgleich der verfügbaren Netze, wie bei den paketvermittelnden Verfahren, stattfindet. Die Preisbildung erfolgt entfernungs-, zeitdauer- und zeitzonenabhängig. Die Leitungsvermittlung wird im analogen Telefonnetz und im Schmalband-ISDN eingesetzt.
feste physikalische Verbindung
analoges Telefonnetz Im normalen Telefonnetz wird die Sprache durch elektrische Schwingungen analog übertragen. Um das analoge Telefonnetz für Datenübertragungen nutzen zu können, ist eine Umwandlung der digitalen Daten in analoge notwendig. Analoge Telefonverbindungen sind störanfälliger, benötigen eine aufwändigere Verstärkertechnik und sind schwerer zu warten als digitale Verbindungen. Es werden Übertragungsraten bis zu 33,6 kBit/s erreicht. 195
Umwandlung digitaler Daten notwendig
5
Netze
Schmalband-ISDN (N-ISDN) Aufgrund der stärkeren Nachfrage nach Datenübertragungsmöglichkeiten und der Vorteile der digitalen Übertragung wurde ein neues digitales Telefonnetz entwickelt: ISDN (Integrated Services Digital Network). ISDN bietet neben der Sprach- und Datenübertragung weitere Dienste an (z. B. Konferenzschaltungen, Umleitung eingehender Anrufe, Übermittlung der Rufnummer, Sicherheitsdienste). ISDN bietet Übertragungsraten von 64 kBit/s, bei Kopplung mehrerer Kanäle eines Anschlusses bis zu 128 kBit/s. Da in Netzwerken Übertragungsraten von 100 MBit/s oder sogar 1 GBit/s Standard und für größere technische oder betriebswirtschaftliche Anwendungen auch erforderlich sind, ist ISDN gerade für Unternehmen nicht attraktiv genug.
digitales Telefonnetz
Paketvermittlung (packet switching) Es wird eine virtuelle, aber keine durchgehende physikalische Verbindung zwischen den Teilnehmern aufgebaut. virtuelle Verbindung Teilung der Nachricht in Pakete
Die zu übermittelnde Nachricht wird in genormte Teile zerlegt und paketweise auf freien Wegen von Knoten zu Knoten zum Empfänger übertragen. Jedes Paket (Datagramm) besitzt eine Identifikationsnummer und Informationen über Absender und Empfänger. Die Steuerung der Weitersendung der Pakete erfolgt über die Netzknoten. Beim Empfänger werden die Pakete entsprechend ihrer Identifikationsnummer wieder in ihre ursprüngliche Reihenfolge gebracht. Auf dem Übertragungsweg „verloren gegangene“ Pakete fordert der Empfänger vom Absender automatisch noch einmal an. Durch die Paketvermittlung wird das Netz besser ausgenutzt. Es müssen allerdings mehr Steuerinformationen übertragen werden als bei der Leitungsvermittlung. Zur Zwischenspeicherung der Datenpakete an den Knoten sind leistungsfähige Knotenrechner erforderlich. Die umfangreichen Fehlerprüfungen an den Vermittlungsknoten zur Sicherung der Unversehrtheit der Pakete sind durch die zunehmend höhere Qualität der Netze nur noch eingeschränkt erforderlich. Die Paketvermittlungstechnologie wird in verschiedenen Technologien eingesetzt:
Breitband-ISDN (B-ISDN) Nachdem erkannt wurde, dass die Übertragungsrate von SchmalbandISDN den modernen Anforderungen nicht mehr genügt, wurde Breitband-ISDN entwickelt. Es ermöglicht eine Übertragungsrate von 155 MBit/s. Um dies zu erreichen, ist der Einsatz einer neuen Technologie erforderlich. Diese neue Übertragungstechnologie heißt ATM (Asynchronous Transfer Mode). Die verwendeten Pakete sind sehr klein und von fester Größe (53 Byte). ATM arbeitet mit einer bedarfsorientierten Bandbreitenverwaltung und eignet sich besonders für Multimediaanwendungen, bei denen ein kontinuierliches Streaming von Daten und damit sta-
Erhöhung der Übertragungsrate
196
Schichten
5.2
bile Übertragungsraten erforderlich sind. Da das System moderne verdrillte Kabelpaare oder Glasfaserkabel voraussetzt, ergibt sich für die Telefongesellschaften ein enormer Investitionsaufwand. Kurz- und mittelfristig werden deshalb das analoge Telefonnetz und Schmalband-ISDN ihre Bedeutung behalten. Langfristig werden diese Technologien jedoch von ATM abgelöst.
Frame Relay Frame Relay setzt zur Übertragung sichere Leitungen voraus, da bei dieser Technologie weniger Steuerinformationen verwendet werden. Bei der Übertragung werden Rahmen (Pakete) mit bis zu 1.600 Byte verschickt. Die Übertragungsrate kann dynamisch angepasst werden. Mit dieser Paketvermittlung sind Übertragungsraten zwischen 64 kBit/s und 45 MBit/s möglich.
DSL DSL (Digital Subscriber Line) bietet eine schnelle Verbindung für Datendienste und Telefondienste über herkömmliche Kupferdoppeladern. Voraussetzung ist eine relativ geringe Entfernung zwischen dem Teilnehmer und der Vermittlungsstelle. Die im Vergleich zu ISDN deutlich höheren Übertragungsraten resultieren aus dem Einsatz leistungsfähiger Modems mit eigenem Prozessor, welche die Daten stark komprimieren und sehr schnell übermitteln. Es gibt verschiedene Ausprägungen von DSL (xDSL).
schnelle Kommunikation über herkömmliche Telefonkabel
ADSL steht für asymmetrische Übertragungsraten. Die Übertragung von der Vermittlungsstelle zum Teilnehmer (downstream) erfolgt mit 1,5 bis 8 MBit/s, während die umgekehrte Übertragung vom Teilnehmer zur Vermittlungsstelle (upstream) meist nur mit maximal 768 kBit/s erfolgt. Damit eignet sich dieser Übertragungsdienst insbesondere für die Internet-Nutzung und On-Demand-Dienste (auf Anforderung werden Informationen bereitgestellt, z. B. Videofilme). Bei diesen Anwendungen werden vom Teilnehmer große Datenmengen empfangen und nur geringe gesendet.
asymmetrische Übertragungsraten
UMTS UMTS (Universal Mobile Telecommunications System) ist die dritte Generation der Mobilfunksysteme. Mit UMTS werden Datenübertragungsraten bis 2 MBit/s zur Verfügung stehen. Damit ergibt sich eine enorme Erhöhung gegenüber bisherigen Mobilfunksystemen des GSM-Standards (Global System for Mobile Communications) zu dem das D1- und das D2-Netz gehören, die nur Übertragungsraten von 9,6 kBit/s ermöglichen. Durch die höhere Übertragungsrate können Internetverbindungen auch mit mobilen Geräten effektiv genutzt werden.
197
mobile Datenübertragung
5
Netze
Die Preisbildung für die paketvermittelte Übertragung erfolgt volumenabhängig und nicht entfernungsabhängig, da der Weg der Nachrichten unbestimmt ist. Damit ist das Verfahren für geringe Datenmengen über große Entfernungen besonders interessant. Vermeidung und Beseitigung von Netzüberlastungen
Eine weitere wichtige Aufgabe der Vermittlungsschicht ist die Überlastkontrolle, also das Feststellen von Überlastungen an bestimmten Netzknoten. Durch langsame Knoten oder große gesendete Datenmengen können in einem Zwischenknoten ankommende Datenpakete nicht schnell genug weitergeleitet werden. Es bilden sich Warteschlangen. Von den Sendern werden die nicht angekommenen Pakete erneut abgeschickt, was zu einer immer stärkeren Belastung des Netzes führt. Dadurch kann es zum Zusammenbruch des gesamten Netzes kommen.
Maßnahmen gegen Netzüberlastung
Es existieren mehrere Möglichkeiten zur Lösung dieses Problems:
Bei Überlastung werden keine neuen Verbindungen aufgebaut. Bei Aufbau einer Verbindung wird der Weg zwischen Empfänger und Sender verwendet, der am wenigsten ausgelastet ist.
Bei Aufbau einer Verbindung werden Ressourcen an den Zwischenknoten reserviert.
Will ein Sender einen überlasteten Knoten ansteuern, erhält er von diesem eine Aufforderung, die Übertragungsrate – und damit die Datenmenge – zu reduzieren oder sogar das Senden bis zur Auflösung der Überlastung einzustellen. Informationsübertragungsarten der Vermittlungsschicht
Die Informationsübertragung kann auf drei Arten erfolgen:
Unicasting Die Daten werden vom Sender an einen Empfänger geschickt.
Multicasting Die Daten werden vom Sender an eine Gruppe von Empfängern geschickt.
Broadcasting Die Daten werden vom Sender an alle Knoten im Netzwerk geschickt. Der oder die Empfänger nehmen die Daten an, alle anderen Knoten ignorieren sie. IP-Protokoll, IP-Adresse
Im Internet übernimmt die Aufgaben der Vermittlungsschicht das Protokoll IP (Internet Protocol, Teil des Protokolls TCP/IP). Jedes Gerät, welches über IP kommuniziert, besitzt eine eindeutige 32-Bit-Adresse (IP-Adresse). Die Adresse setzt sich aus vier, durch Punkte getrennte, natürliche Zahlen zu-
198
Schichten
5.2
sammen. Jede dieser Zahlen liegt im Bereich von 0 bis 255. Beispiel: 204.123.56.117 Über 3,7 Milliarden Adressen können so genutzt werden. Dabei sind nichtöffentliche, so genannte Experimental-Adressen nicht mitgezählt. Trotz dieser großen Zahl ist der Adressraum fast ausgeschöpft. Deshalb wird die Einführung einer kompatiblen Erweiterung des Systems vorbereitet (IPV6).
Sicherungsschicht Die Sicherungsschicht hat die Aufgabe, elementare Übertragungsfehler zu beheben. In der Tabelle 5-2 werden einige Ursachen, die daraus entstehenden Fehler und die Fehlerbehebung erläutert.
Tabelle 5-2
Übertragungsfehler und ihre Behebung in der Sicherungsschicht Fehlerursache
Übertragungsfehler
Fehlerbehebung
Störung der Verbindung
Fehler in der Übertragungsfolge:
1. Aufteilung des Bitstromes in so genannte Rahmen und Berechnung einer Prüfsumme beim Sender
í falsche Bits í fehlende Bits í doppelte Bits
2. Übertragung der Rahmen und Prüfsummen 3. Berechnung der Prüfsummen und Vergleich mit den gesendeten beim Empfänger 4. Rückmeldung an Sender über Korrektheit des Empfangs 5. Nochmaliges Senden der fehlerhaften Rahmen
Sender ist schneller als Empfänger
Datenüberschwemmung und damit Verlust von Daten
Einsatz von Flusssteuerungsverfahren: der Empfänger teilt dem Sender mit, ob Daten gesendet werden können und in welcher Menge
mehrere Netzknoten nutzen gleichzeitig dasselbe Übertragungsmedium
Datenverlust durch Kollisionen
Einsatz von Zugriffsverfahren: Regelung welcher Knoten wann senden darf
Das in modernen Netzwerken am häufigsten genutzte Zugriffsverfahren ist Ethernet.
199
5
Netze
Ethernet Damit Datenpakete unterschiedlicher Knoten nicht kollidieren und somit zum Abbruch der Datenübertragung führen, wird das CSMA/CDVerfahren (Carrier-Sensing Multiple Access with Collision Detection) angewandt. Jeder Knoten hört vor dem Senden das Netz ab und prüft, ob es belegt ist. Wenn das Netz frei ist, beginnt der Knoten zu senden, ansonsten wartet er. Können sich die Knoten aufgrund einer zu großen Entfernung nicht hören oder beginnen sie gleichzeitig zu senden, kann es zu Paketkollisionen kommen. Dann wird die Datenübertragung abgebrochen und jede Station versucht nach einer zufälligen Wartezeit erneut eine Übertragung. Die anderen Knoten können in dieser Zeit nicht übertragen.
Bitübertragungsschicht Die Bitübertragungsschicht (physikalische Schicht) leistet die Übertragung der Bits in einem Übertragungskanal. Die Übertragung hat verschiedene Merkmale, die im Folgenden erläutert werden. Übertragungsmedien Die physikalischen Verbindungen (Übertragungsmedien) in Computernetzen lassen sich in kabelgebundene und kabelungebundene Medien einteilen.
Abbildung 5-7
Übertragungsmedien
kabelgebundene Medien Als Kabelgebundene Medien können metallische Leiter (Kupferkabel) und optische Leiter (Lichtwellenleiter / Glasfaserkabel) unterschieden
200
Schichten
5.2
werden. Die kabelgebundenen Medien werden wegen der festen Verlegung der Kabel auch Festnetze, im Gegensatz zu den Mobilnetzen genannt. Kupferkabel werden zumeist als Twisted-Pair-Kabel verlegt. TwistedPair-Kabel sind verdrillte Paare aus Kupferadern mit Isolation, die zu einem Kabel zusammengefasst sind. Durch die Verdrillung lassen sich gegenseitige Störeinflüsse verringern. Twisted-Pair-Kabel werden vor allem im Bereich der Endgeräteverkabelung eingesetzt. Eine Zweidrahtleitung (ein Adernpaar) erlaubt die Übertragung von Signalen zu einer Zeit nur in einer Richtung (halbduplex). Auf einer Vierdrahtleitung (zwei Adernpaare) können Signale gleichzeitig in beide Richtungen übertragen werden (duplex). Twisted-Pair-Kabel sind anfällig gegenüber Störungen von außen und leicht abhörbar.
Endgeräteverkabelung
Glasfaserkabel als optische Leiter transportieren Signale durch Lichtwellen. Optische Leiter haben gegenüber den metallischen Leitern eine Reihe von Vorteilen:
Datenübertragung mittels Licht
Abbildung 5-8
Vorteile von Glasfaserkabeln
sehr hohe Übertragungsraten bis mehrere GBit/s niedrige Fehlerraten große Störsicherheit, da elektromagnetische Felder die Übertragung nicht beeinflussen
hohe Abhörsicherheit, da keine elektromagnetischen Felder abgestrahlt werden geringe Abmessungen, dadurch leichte Verlegbarkeit Ein Nachteil von Lichtwellenleitern sind die im Vergleich zu Kupferkabel (noch) höheren Kabelkosten, insbesondere durch den Konfektionierungsaufwand. Stromleitungen können ebenfalls zur Datenübertragung (digital powerline) genutzt werden. Durch leichte Veränderungen der elektrischen Schwingungen können Daten übertragen werden, ohne die Stromversorgung zu beeinflussen. Der enorme Vorteil dieses Mediums ist seine breite Verfügbarkeit. Sämtliche Haushalte und Unternehmen besitzen nahezu in jedem Raum eine oder mehrere Anschlussdosen. Es sind keine Investitionen für die Neuverlegung von Kabeln notwendig. Aufgrund technischer Probleme bzgl. Stabilität und Übertragungsrate konnte sich diese Technologie bislang jedoch nicht durchsetzen.
201
5
Netze
kabelungebundene Medien Drahtlose Netze (wireless net) leiten die Nachrichten über Funk (Richtfunk, Mobilfunk, Satellitenfunk), Infrarot oder Laser. Eine Funkverbindung kann terrestrisch oder via Satellit erfolgen. Eine terrestrische Übertragung nutzt Funkverbindungen auf der Erde. Beim Richtfunk besteht die Funkverbindung zwischen zwei Antennen mit festen Standorten. Beim Mobilfunk haben die Kommunikationsteilnehmer keinen festen Standort. Das geographische Gebiet wird in einzelne Zellen zerlegt. Im Zentrum jeder Zelle steht eine Basisstation. Die Verbindung wird vom Sender zur Basisstation der Zelle, in der er sich befindet, geleitet. Von dort aus wird die Basisstation der Zelle kontaktiert, in der sich der Empfänger befindet. Diese leitet die Verbindung an den Empfänger weiter. Wechselt ein Kommunikationsteilnehmer seine Zelle, so reicht ihn die aktuelle Basisstation an die benachbarte weiter. Eine Funkverbindung kann auch über Satellit in Kombination mit Festnetzen realisiert werden. Diese Verbindung wird in globalen Netzen für die kontinentübergreifende Kommunikation genutzt. Zurzeit befinden sich verschiedene Satellitenkommunikationssysteme im Aufbau, welche durch mobile Telefone in Handy-Größe eine Kommunikationsverbindung von jedem Ort der Erde aus ermöglichen. Internetverbindung via Satellit
Über die ASTRA-Satelliten ist ein europaweiter Breitband-InternetService möglich. Der Service ist vor allem für Kunden interessant, die sich in Gebieten mit einer für Hochgeschwindigkeitsübertragungen (DSL) ungeeigneten Telekommunikationsinfrastruktur befinden. Die Hardware für das Versenden von Daten an einen Satelliten ist bislang noch sehr teuer, daher wird die Satelliten-Verbindung meist nur zum schnellen Empfang der Daten genutzt, das Versenden erfolgt über einen gewöhnlichen Internet-Zugang. Infrarotstrahlen werden zur Verbindung über geringe Entfernungen genutzt (kabelloser Druckeranschluss, Mausverbindung). Voraussetzung ist jedoch eine Sichtverbindung zwischen den Geräten. Je größer die Entfernung zwischen den Geräten, desto kleiner ist die Übertragungsrate. Bluetooth, nach einem dänischen König benannt, basiert auf dem Standard für kabelloses Ethernet und soll Notebooks, Handys, tragbare Minicomputer und periphere Geräte via Funk miteinander verbinden. Dabei kann die Entfernung der Geräte untereinander je nach Bluetooth-Klasse ca. 10 bis 100 Meter betragen. Die maximale Übertragungsrate liegt bei bis zu 2,2 MBit/s. Die Bluetooth-Technologie verdrängt zunehmend den Einsatz von Infrarotverbindungen.
Funkverbindung von Computerperipherie
202
Schichten
5.2
Ein anderes kabelungebundenes Medium ist die Laser-Verbindung. Dabei können Nachrichten über Entfernungen von einigen 100 Metern günstig transportiert werden, wenn eine Kabelverbindung nur aufwendig herzustellen ist. Der Einsatz erfolgt z. B. innerhalb denkmalgeschützter Gebäude oder in Krankenhäusern. Übertragungsverfahren Übertragungsverfahren beschreiben die Art der technischen Realisierung der Datenübertragung. Ihre Merkmale sind in der Abbildung 5-9 dargestellt.
Merkmale von Übertragungsverfahren*
Abbildung 5-9
Bitübertragungsverfahren bitserielle Übertragung: Die Bits werden nacheinander übertragen. bitparallele Übertragung: Vielfache von einem Byte (8 Bit) werden parallel übertragen.
Gleichlaufverfahren asynchrone Übertragung: Der Gleichlauf zwischen Sender und Empfänger wird jeweils nur für die Übertragung eines Zeichens hergestellt. Die Synchronisation erfolgt durch ein Startbit und ein oder zwei abschließende Stoppbits. synchrone Übertragung: Es werden mehrere Zeichen in einem Block übertragen. Sender und Empfänger sind für die gesamte Dauer der Übertragung synchronisiert. Start- und Stoppbits sind nur noch am Beginn und am Ende *
Vgl.: Stahlknecht, P.; Hasenkamp, U.: Einführung in die Wirtschaftsinformatik. Springer-Verlag, Berlin 1999, S. 119.
203
5
Netze
des Blocks notwendig. Durch die Verringerung der Anzahl der Start- und Stoppbits wird eine höhere Übertragungsrate erreicht. Dazu müssen allerdings Puffer in den Netzknoten zur Zwischenspeicherung der Nachrichten vorhanden sein.
Signalübertragungsverfahren Analoge Übertragungsverfahren nutzen physikalische Größen. Im analogen Telefonnetz werden elektrische Schwingungen zur Abbildung der Zeichen genutzt. Um digitale Daten analog zu übertragen, werden Analog-Digital-Wandler in Form von Modems (Akronym für Modulator/Demodulator) eingesetzt. Digitale Übertragungsverfahren nutzen elektrische Impulse oder Lichtimpulse. Im Unterschied zur analogen Abbildung der Zeichen genügt eine deutliche Differenzierung zwischen einem hohen Pegel für den Binärwert 1 und einem niedrigen Pegel für den Wert 0.
Betriebsverfahren simplex (Richtungsbetrieb): Die Übertragung erfolgt nur in eine Richtung (z. B. Rundfunk). halbduplex (Wechselbetrieb): Die Übertragung erfolgt wechselweise in beiden Richtungen (z. B. Sprechfunk). duplex (Gegenbetrieb): Die Übertragung erfolgt gleichzeitig in beide Richtungen (z. B. Telefon). Verbindungsarten Wählverbindung Sender und Empfänger sind nicht fest miteinander verbunden. Vor jeder Datenübertragung muss die Verbindung neu hergestellt („angewählt“) werden.
Festverbindung (Standleitung) Sender und Empfänger sind über einen festen Übertragungsweg miteinander verbunden. Festverbindungen sind bei häufiger Datenübertragung oder der Übermittlung großer Datenmengen zwischen zwei bestimmten Endstellen vorteilhaft. Der Vorteil geringer Wartezeiten für den Verbindungsaufbau wird allerdings durch die modernen Technologien bei der Wählverbindung weniger bedeutsam.
Struktur des Netzes
Topologien Die Topologie (Netzwerkstruktur) ist eine abstrakte Darstellung der Gesamtheit der Knoten eines Netzwerks und der zu ihnen gehörenden Verbindungen durch Leitungen. Die Leistungsfähigkeit und die Stabilität eines
204
Schichten
5.2
Netzes hängen wesentlich von seiner Topologie ab. Die Topologie beeinflusst außerdem die Wegermittlung (Routing) für eine Nachricht.
Abbildung 5-10
Merkmale der Leistungsfähigkeit einer Topologie
Modularität der Topologie, d. h. das Verhalten des Netzes bei Erweiterung oder Schrumpfung
Modularität der Kosten, d. h. die Veränderung der Kosten bei Erweiterung oder Schrumpfung
Stabilitäts- und Rekonfigurationsverhalten, d. h. das Verhalten bei Ausfall eines Anschlusses oder einer Leitung
Zuverlässigkeit, d. h. die Anzahl der Leitungen, die ausfallen dürfen, ohne dass ein Teilnehmer von der Kommunikation ausgeschlossen wird
Logische Komplexität, d. h. wie viel unterschiedlich organisierte Teilnetze für die Übertragung benötigt werden
maximale Übertragungsrate Für die Endgeräteverkabelung wird heute fast ausschließlich die SternTopologie verwendet. Die Verkabelung von mehreren Netzsegmenten erfolgt meist in Form einer Baumstruktur. Andere Topologien wie Bus oder Ring werden kaum noch verwendet.
Stern-Topologie Abbildung 5-11
Stern-Topologie mit Hub
Die Stern-Topologie verwendet einen zentralen Vermittler (Hub) (vgl. Abbildung 5-11). Dieser Knoten übernimmt in Abhängigkeit von der gegebenen Zieladresse die Weiterleitung der zuvor an ihn geschickten Nachrichten. Diese Struktur hat den Vorteil, dass kaum Störungen beim 205
5
Netze
Ausfall eines Knotens entstehen. Allerdings entsteht ein Totalausfall, wenn der zentrale Vermittler ausfällt. Bei großen Netzen entstehen für die Verkabelung und die Zentrale hohe Kosten. Ab einer bestimmten Netzgröße werden diese deshalb in einzelne Segmente untergliedert.
Baum-Topologie Die Baum-Topologie mit zentralen Teilvermittlern realisiert den Nachrichtentransport über Zwischenknoten. Damit können Subnetze leicht als Äste angefügt werden. Neue Knoten werden als Blätter angefügt (vgl. Abbildung 5-12). Das Routing ist relativ einfach. Zwischen den Teilvermittlern kann es zur Verringerung der Übertragungsrate kommen.
Abbildung 5-12
Baum-Topologie
5.3 Internet Basis: militärisches ARPANET
In den 60er Jahren wurde vom amerikanischen Verteidigungsministerium ein weit reichendes Computernetzwerk eingerichtet. Ziel war ein Netz, welches auch bei Ausfall größerer Teile noch arbeiten kann. Es diente ausschließlich militärischen Zwecken.
zunehmende wissenschaftliche Nutzung
In den 70er Jahren wurde das Netz erweitert und auch von Universitäten und anderen wissenschaftlichen Einrichtungen genutzt. Anfang der 80er Jahre spaltete sich der militärische Bereich ab und verwendet seitdem eigene Netze.
Kommerzialisierung
Seit Ende der 80er Jahre beteiligen sich Privatfirmen an der Weiterentwicklung. Inzwischen ist das Internet stark kommerzialisiert. Insbesondere die Entwicklung einer einfachen, ohne spezielle Vorkenntnisse intuitiv nutzbaren Benutzungsschnittstelle trug zu einer rasanten Entwicklung des Informationsangebotes und ständig steigenden Nutzerzahlen bei. Diese Benutzungsschnittstelle ist der Browser. Es entstand die Anwendung WWW (World Wide Web) als der neben E-Mail bedeutendste Internet-Dienst.
rasante weltweite Verbreitung durch Browser und WWW
206
Internet
5.3
Das Internet als universelles Netz in einer heterogenen Welt
Internet-Konzept*
*
Abbildung 5-13
Vgl.: Comer, D.: Computernetzwerke und Internets. Prentice Hall 1998
207
5
Netze
Zusammenschluss von Teilnetzen
Das Internet ist ein weltweites Computernetz, welches sich aus einzelnen Teilnetzen zusammensetzt. Das Internet verhält sich für den Benutzer wie ein einziges Netz (vgl. Abbildung 5-13 Teil A). Die physische Struktur zeigt die Abbildung 5-13 Teil B. Computer sind an die physischen Teilnetze angeschlossen und diese sind wiederum miteinander verbunden. Das Internet wird auch als virtuelles Netz (virtual network) bezeichnet, da das Kommunikationssystem abstrakt ist.
keine zentrale Organisation
Das Internet untersteht keiner zentralen Organisation. Für die Netzbestandteile sind private oder staatliche Einrichtungen verantwortlich.
TCP/IPProtokoll
Im Internet wird als einheitliches Protokoll TCP/IP (Transmission Control Protocol / Internet Protocol) benutzt. Jeder Computer hat eine eindeutige Adresse, die IP-Adresse. Diese Adresse wird für die gesamte Kommunikation mit dem Computer benutzt. Die Protokollsoftware verbirgt die Details der physischen Netzanschlüsse, der physischen Adressen und der RoutingInformation. Weder die Benutzer noch die Programme kennen die zugrunde liegenden Netze und ihre Verbindungen. Neben den bereits im Abschnitt Anwendungsschicht vorgestellten Mehrwertdiensten hat sich im Internet vor allem der Dienst WWW etabliert.
Webseiten
Im WWW (World Wide Web) sind einzelne Dokumente (Seiten) durch Hyperlinks miteinander verbunden. Hyperlinks sind Verknüpfungen (links) zu anderen Seiten (pages) im Netz. Links werden auf dem Bildschirm durch hervorgehobene Textstellen (unterstrichen oder farblich gekennzeichnet) oder spezielle Bereiche (kontextsensitive Zonen) dargestellt. Durch Anklicken der Links mit der Maus wird eine andere Seite oder Anwendung aufgerufen. Die Dokumente können Text, Bilder, Ton oder Videos enthalten.
WWW-Adressen
Die Startseiten eines Angebots werden Homepage genannt. Damit die Seiten auch gefunden werden, benötigt man sprechende Namen. Die numerischen IP-Adressen der an das Internet angeschlossenen Computer sind zunächst wenig sprechend und lassen sich schlecht merken. Deshalb werden diesen Adressen sprechende Namen zugeordnet, so genannte Alias-Namen (fully qualified domain name). Die Zuordnung der Namen zu den Adressen erfolgt durch DNS-Server (domain name server). Eine Domäne (domain) ist eine Verbindung mehrerer Computer in einem Adressbereich. Beispiel: www.xyunternehmen.de
Wesentliche Merkmale des Internet Die Offenheit durch die Benutzung von Standards ermöglicht jedem Anbieter und Nutzer ohne Einschränkungen an dem System teilzuhaben. 208
Internet
5.3
Die Verantwortung für die Inhalte tragen die Anbieter und Nutzer. Eine weltweit gültige konkrete juristische Regelung existiert nicht und wird auch schwer durchsetzbar sein.
Die Internationalität des Internet führt zur Globalisierung, zu exponentiell anwachsendem Informationsangebot und geringer Regelbarkeit. Aus diesen Eigenschaften entstehen auch Gefahren, so u. a.
die mögliche Verbreitung von vertraulichen oder falschen Aussagen die Verbreitung menschenverachtender Inhalte das Ausforschen von Persönlichkeitsprofilen durch das Sammeln von Daten über das Verhalten von Teilnehmern
Ausprägungen der Internet-Technologie Unter dem Akronym I*Net werden die Ausprägungen der InternetTechnologie zusammengefasst. Dies sind alle Netze, die mit dem TCP/IPProtokoll kommunizieren. Die Ausprägungen sind:
Internet als öffentlicher Mehrwertdienst ohne Zugangsbeschränkung Intranet für eine geschlossene Benutzergruppe in Unternehmen Extranet für eine geschlossene Benutzergruppe einschließlich der Kunden-Lieferanten-Ketten Intranet Der Begriff Intranet steht für den Einsatz der Technik des Internet im Unternehmen bzw. in einer Verwaltung. Im Unterschied zum Internet kommuniziert hier eine geschlossene Benutzergruppe. Die Benutzer können differenzierte Zugriffsrechte zugewiesen bekommen. Intranet bedeutet vor allem die Einführung von Betriebssystem- und hardwareunabhängigen Standards. Damit wird es möglich, einen einfachen Zugang zu Unternehmensdaten zu schaffen, der vorher durch die unterschiedlichen Plattformen der Informationsinfrastruktur kaum möglich war. Das Netzwerk-Protokoll TCP/IP sichert die Verbindung der häufig heterogenen Infrastruktur. Die Techniken des WWW mit der Benutzungsoberfläche Browser erlauben eine einfache Handhabung des Systems. Darüber hinaus können auch die Standards für E-Mail und den Dateitransfer (FTP) eingesetzt werden.
209
Kommunikation in heterogener Infrastruktur
5 Abbildung 5-14
einfache Informationsbereitstellung
Netze
Ausprägung der Internet-Technologie*
Ein Intranet bietet – im Vergleich zu den bestehenden Anwendungen – also vor allem die Chance des einfachen Zugangs zu firmeninternen oder projektgruppenorientierten Informationen für die Mitarbeiter. Darüber hinaus besteht die Möglichkeit für die Mitarbeiter, auf einfache Weise selbst Informationen in das Intranet einzustellen, insbesondere um die Teamarbeit zu unterstützen und Wissen verfügbar zu machen (knowledge management). Im Intranet sind u. a. folgende Anwendungen realisierbar:
Relativ einfach und wirtschaftlich ist die Nutzung von E-Mail, vor allem im Sinne der Beschleunigung von Prozessen.
Die Verbreitung von Informationen nach dem Hole- (pull) oder dem Bringe-Prinzip (push) in Abhängigkeit von den Zielgruppen und Aufgabengebieten ist eine technisch und wirtschaftlich einfach zu realisierende Anwendung.
Die Nutzung von Diskussionsforen zur Lösung von Problemen in einem Unternehmen mit zahlreichen Standorten kann zu erheblichen Zeit- und Kosteneinsparungen führen.
*
210
Vgl.: Bartsch-Beuerlein, S.; Klee, O.: Projektmanagement mit dem Internet. Hanser Verlag, München 2001, S. 77
Netzwerkmanagement
Die Bereitstellung einer einheitlichen Benutzungsoberfläche für die Nutzer (user) zum Aufruf von Programmen kann die Anwendung der verfügbaren Applikationen wesentlich fördern.
Die Unterstützung der Teamarbeit durch Videokonferenzsysteme kann insbesondere zur Beschleunigung von Geschäftsprozessen eingesetzt werden. Bei ausgeprägter Arbeitsteilung kann die gemeinsame Beratung – eventuell zusammen mit externen Partnern – die sequentielle Bearbeitung zumindest teilweise ersetzen sowie Fahrzeit und -kosten sparen. Extranet Der Begriff Extranet steht für die Anwendung von Internet-Technologien bei der Kommunikation zwischen Geschäftspartnern als geschlossene Benutzergruppe. Damit werden die Vorteile des Internets mit einer relativ hohen Sicherheit vereint. Es können die gleichen Anwendungen genutzt werden, wie sie bereits oben beschrieben wurden. Die Besonderheit besteht vor allem darin, dass die Kunden-Lieferanten-Beziehungen intensiviert werden können. Eine besonders intensive Form der Kooperation auf der Basis der Kommunikationstechnologie stellen virtuelle Unternehmen dar. Dies sind Firmen, die sich zeitweilig für ein Projekt zusammenschließen und dabei ihre Informationssysteme gegenseitig öffnen (Kapitel 12).
5.4 einfache Benutzung Förderung von Geschäftsprozessen durch Teamarbeit
geschlossene Kommunikation zwischen Geschäftspartnern
virtuelle Unternehmen
5.4 Netzwerkmanagement Das Netzwerkmanagement koordiniert die Aktivitäten der einzelnen Hardund Softwarekomponenten. Die verschiedensten Hard- und Softwarewerkzeuge unterstützen den Techniker bei dieser Aufgabe. Die wichtigsten Managementaufgaben werden im Folgenden erläutert.
Das Konfigurationsmanagement umfasst die Planung, Erweiterung, Änderung und Dokumentation der Einstellungen (Konfiguration) von Hardware, Software und Benutzerrechten. Einstellungen sind notwendig, um die Hard- und Software einerseits in bestehende Systeme integrieren und an andere Komponenten anbinden zu können. Andererseits erfordert die umfangreiche Funktionalität der Systeme eine Anpassung an nutzerspezifische Bedingungen. Die Einrichtung von detaillierten Zugriffsrechten für die einzelnen Benutzer ist ein wichtiger Faktor zur Gewährleistung von IT-Sicherheit und Datenschutz. Auf dieses Thema wird in Kapitel 9 näher eingegangen.
Das Fehlermanagement ist auf die Fehlerprophylaxe, die Fehlererkennung und Fehlerbehebung im Netzwerk gerichtet. Die Fehlerprophylaxe umfasst die gründliche Auswahl von Hard- und Softwarekomponenten, die Sammlung von aktuellen Informationen zu den eingesetzten Systemen von Herstellern und anderen Nutzern, die regelmäßige Prüfung der 211
Parametereinstellungen an Hard- und Software
Fehlerprophylaxe, -erkennung und -behebung
5
Netze
Systeme sowie die Aufstellung von Plänen, wie bei Fehlern zu verfahren ist. Zur Fehlererkennung und -behebung sind neben gut ausgebildeten Fachkräften insbesondere Software-Werkzeuge erforderlich. Unterstützt wird die Fehlerbehebung durch Hotlines. Hotlines sind Telefon- oder Online-Verbindungen zu Herstellern oder externen Beratern, die durch ihr Spezialwissen eine Fehlersuche und -behebung stark beschleunigen können. Messung, Analyse und Verbesserung der Netzleistung
Das Leistungsmanagement richtet sich auf die Messung, Analyse und
Erfassung und Abrechnung von Verbindungs- und Servicekosten
Das Abrechnungsmanagement dient der Erfassung und Berechnung der
Datenschutz und IT-Sicherheit
Das Sicherheitsmanagement befasst sich mit der Risikoanalyse sowie
Verbesserung (tuning) der Netzleistung. Durch korrekte Konfiguration der beteiligten Netzkomponenten und der zugehörigen Software kann die Leistungsfähigkeit (insbesondere die Übertragungsrate) sowie die Sicherheit eines Netzwerkes wesentlich erhöht werden. Verschiedene Software-Werkzeuge zur Leistungsmessung und zur Netzanalyse unterstützen bei diesen Arbeiten. Dienste sowie der Limitkontrolle. Insbesondere für die Anbieter von Diensten ist die korrekte und schnelle Abrechnung der Verbindungsund Servicekosten notwendig. Die Limitkontrolle überwacht die Einhaltung von eingeräumten Begrenzungen bei der Nutzung der Dienste und der Datenübertragung. der Planung und Umsetzung von Sicherheitsmaßnahmen. Nähere Informationen IT-Sicherheit finden sich im Kapitel 9.
Vertiefende Literatur COMER, D. E.: Computernetzwerke und Internets. Pearson Studium, 2001 Harnisch, C.: Netzwerktechnik. VMI Buch, 2005 Peterson, L. L.; Davie, B. S.: Computernetze. dpunkt, 2004 STAHLKNECHT, P.; HASENKAMP, U.: Einführung in die Wirtschaftsinformatik. Springer, Berlin 2004
Stein, E.: Taschenbuch Rechnernetze und Internet. Hanser Fachbuchverlag, 2003
TANENBAUM, A. S.: Computernetzwerke. Pearson Studium, 2003
212
Netzwerkmanagement
Kapitel 6 Daten
213
5.4
Grundlagen
6
6.1
Daten
6.1 Grundlagen Alle computergestützten Anwendungssysteme verarbeiten Daten. Die weit verbreiteten klassischen Begriffe Elektronische Datenverarbeitung (EDV) und Elektronische Datenverarbeitungsanlage (EDVA) sind Ausdruck für die große Bedeutung der Verarbeitung von Daten durch Computer. Der Datenbegriff ist eng verbunden, aber nicht gleichzusetzen, mit dem Informationsbegriff.
Informationen Informationen bezeichnen allgemein Inhalte, die Sachverhalte und Vorgänge beschreiben. In der Wirtschaftsinformatik sind Informationen handlungsbestimmend, in der Betriebswirtschaftslehre zielgerichtet und zweckorientiert.
Daten Daten sind in einer vereinbarten und maschinell interpretierbaren Form dargestellte Informationen. Eine grundsätzliche Klassifikation von Daten kann nach Art und Weise ihrer Darstellungsform vorgenommen werden, wie in Abbildung 6-1 ersichtlich. Digitale Daten basieren auf der Verwendung von genau zwei Zuständen. Der Digital-Rechner realisiert diese beiden Zustände zum Beispiel dadurch, dass kein Strom fließt oder dass Strom fließt. Die beiden Zustände werden mit 0 und 1 gekennzeichnet. Diese Information nennt man Bit. Acht Bit können zu einem Byte zusammengefasst werden. Für die Darstellung von Informationen werden Folgen von Bits verwendet. Diese Folgen können direkt Daten repräsentieren (bitorientierte Daten) oder bestimmte Folgen von Bits bilden zunächst Zeichen. Die eigentlichen Daten werden dann durch eine Folge von Zeichen repräsentiert (zeichenorientierte Daten). Dieser Zusammenhang wird im Folgenden näher erläutert.
215
Bit und Byte
6 Abbildung 6-1
Daten
Klassifikation von Daten nach der Darstellungsform*
bitorientierte Daten Bitorientierte Daten bestehen aus einer Folge von 0 und 1. Die Digitalisierung von Bildern, Ton und Videos erfolgt beispielsweise durch solch eine Darstellung. Beispiel für bitorientierte Daten: 0011010100010111101 Zusätzlich kann nach statischen Daten (z. B. grafische Darstellungen und stehende Bilder) und dynamischen Daten (z. B. Audioaufzeichnungen, Animationen und Filme) unterschieden werden.
zeichenorientierte Daten Zeichenorientierte Daten bestehen aus einer Folge von Zeichen, welche wiederum aus 0 und 1 aufgebaut sind.
Abbildung 6-2
zeichenorientierte Daten Je nach Art der Zeichen unterscheidet man:
numerische Daten (Ziffern, Sonderzeichen)
*
Vgl. Stahlknecht, P.; Hasenkamp, U.: Einführung in die Wirtschaftsinformatik. Springer-Verlag, Berlin 2005
216
alphabetische Daten (Buchstaben, Sonderzeichen) alphanumerische Daten (Ziffern, Buchstaben, Sonderzeichen) ikonische Daten (Bildzeichen)
Grundlagen
6.1
Der Aufbau der Zeichen aus den einzelnen Bits ist in verschiedenen Standards festgelegt (z. B. ASCII-Code, EBCDI-Code). Abbildung 6-3
Beispiel für zeichenorientierte Daten: Der Begriff COMPUTER besteht aus den einzelnen Zeichen C, O, M, P, U, T, E, R. Diese sind wie folgt kodiert (nach ASCII-Code):
C
– 01000011
O
– 01001111
M
– 01001101
P
– 01010000
U
– 01010101
T
– 01010100
E
– 01000101
R
– 01010010
Daraus ergibt sich als Bitfolge: 0100001101001111010011010101000001010101 010101000100010101010010
Zeichenorientierte Daten heißen formatierte Daten, wenn ihre Länge und Struktur vorgegeben ist, z. B. Adresse bestehend aus Name, Vorname, Straße, Hausnummer, Postleitzahl, Ort. Zeichenorientierte Daten heißen unformatierte Daten, wenn ein beliebiger Text ohne Strukturvereinbarung vorliegt, z. B. Therapieberichte, Zeitschriftenartikel oder Marktanalysen.
Strukturierung von Daten
Multimedia-Anwendungen und das Dokumentenmanagement basieren auf der integrierten Organisation und Verarbeitung bit- und zeichenorientierter Daten. Analoge Daten werden durch kontinuierliche Funktionen physikalischer Größen dargestellt. Im Unterschied zu digitalen Daten sind nicht nur ganz bestimmte Werte (wie z. B. 0 oder 1) möglich, sondern eine Größe kann beliebige Werte in einem festgelegten Bereich annehmen. Die direkte Verarbeitung analoger Daten erfolgt vorrangig auf Analog-Rechnern in technischen Einsatzbereichen. Da heute alle kommerziell genutzten Computer Digital-Rechner sind, treten analoge Daten meist nur noch bei der Kopplung mit analogen Ein- und Ausgabegeräten auf und müssen dann einer entsprechenden Analog-Digital-Umwandlung unterzogen werden.
217
Umwandlung in digitale Daten erforderlich
6 Abbildung 6-4
Daten
Klassifikationsmerkmale von Daten zweckbezogene Daten
Primärdaten: für eine bestimmte Aufgabe Sekundärdaten: für zusätzliche Aufgaben
herkunftsbezogene Daten
externe Daten: außerhalb eines zu betrachtenden Systems interne Daten: innerhalb eines zu betrachtenden Systems
funktionsbezogene Daten
Steuerungsdaten: veranlassen Aktivitäten Passivdaten: werden verarbeitet Ordnungsdaten: dienen zum Ordnen Identifikationsdaten: dienen zum Identifizieren
verarbeitungsbezogene Daten
Eingabedaten: als Voraussetzung des Verarbeitungsprozesses Ausgabedaten: als Ergebnis des Verarbeitungsprozesses
veränderungsbezogene Daten
variable Daten: können sich verändern fixe Daten: können sich nicht verändern
zeitdauerbezogene Daten - Zustandsdaten
Stammdaten: für zeitlich relativ konstante betriebliche Daten (z. B. Kundennummer, -name, -adresse)
Bestandsdaten: für Kontobestände (z. B. Materialkonto, Kapazitätskonto, Bankkonto)
zeitdauerbezogene Daten - Ereignisdaten
Änderungsdaten: für die Änderung von Stammdaten (z. B. Adressenänderung) Bewegungsdaten: für die Änderung von Bestandsdaten (z. B. Zu- und Abgänge im Materiallager)
Datenorganisation Verwaltung von Daten
Zur Verwaltung von Daten ist eine Datenorganisation erforderlich. Darunter versteht man alle Vorgehensweisen, Verfahren und Methoden
der logischen Datenorganisation für die Analyse und Strukturierung von Datenbeständen und
der physischen Datenorganisation für die Speicherung und das Wiederauffinden der Daten auf entsprechenden Speichermedien.
218
Grundlagen
6.1 Abbildung 6-5
Ziele der Datenorganisation generelle und teilweise konfliktäre Ziele der Datenorganisation:
schnelles Zugriffszeitverhalten
flexible Aktualisierbarkeit, Verknüpfung und Auswertung der Daten
logische Richtigkeit (Widerspruchsfreiheit) der Daten (Datenkonsistenz)
Schutz personenbezogener Daten (Datenschutz)
effiziente Nutzung der Speicherkapazitäten redundanzfreie Speicherung zur Vermeidung von Mehrfachspeicherung gleicher Datenbestände Wiederherstellung aller Datenbestände nach einem Systemzusammenbruch (Recovery) Schutz vor unberechtigtem Zugriff und vor Verfälschung der Daten (Datensicherheit)
In der logischen Datenorganisation werden Objekte betrachtet, die durch Merkmale (Attribute) gekennzeichnet sind. Die einzelnen Merkmale können verschiedene Ausprägungen (Attributwerte) annehmen. Eine Menge von Objekten, die durch gleiche Merkmale charakterisiert werden können, heißt Klasse.
Nutzung von Objekten
So enthält z. B. die Klasse Mitarbeiter mit den Attributen Personalnummer, Name, Vorname, Abteilungsnummer ein Objekt mit den Attributwerten: 1234, Meier, Andreas, 55.
Beispiel eines Objektes
Aus Gründen einer einheitlichen und durchgehenden Bezeichnung werden hier bereits die Begriffe Objekt und Klasse verwendet. Sie sind jedoch im eingeschränkten Sinne, d. h. nur auf die Attribute und Attributwerte bezogen, zu verstehen. Eine umfassende Definition dieser Begriffe erfolgt im objektorientierten Datenbankmodell (Abschnitt 6.3) und in der objektorientierten Programmierung (Kapitel 7). Zur detaillierten Beschreibung werden in der logischen Datenorganisation folgende hierarchisch aufgebauten Begriffe verwendet:
Datenelement (item) Datensatz (record) Datei (file) Datenbank (data base) Ein Datenelement ist ein Attributwert eines Objektes einer Klasse (z. B. Meier als Wert des Attributes Name der Klasse Mitarbeiter). Ein Datensatz
219
Begriffe
6
Daten
ist die Zusammenfassung jeweils eines Wertes aller Attribute einer Klasse, entspricht also einem Objekt einer Klasse. Alle Datensätze einer Klasse bilden eine Datei. Die den verschiedenen und logisch miteinander in Beziehung stehenden Klassen zugeordneten Dateien fasst man zur Datenbank zusammen. Schlüssel zur Identifizierung der Datensätze
Für die logische Unterscheidung und zum Auffinden im Speicher ist es erforderlich, dass die einzelnen Datensätze eindeutig identifizierbar sind. Dazu werden Schlüssel verwendet. Ein Attribut oder eine minimale Menge von Attributen einer Klasse heißt Schlüssel, wenn seine Ausprägungen jeweils genau einen Datensatz der Datei identifizieren. Bei mehreren möglichen Schlüsseln muss man sich auf einen Schlüssel, den Primärschlüssel, festlegen. Im Beispiel gemäß Abbildung 6-6 ist das Attribut Personalnummer Primärschlüssel der Datei Mitarbeiter und das Attribut Abteilungsnummer Primärschlüssel der Datei Abteilungen. Alle Attribute einer Klasse, die nicht Primärschlüssel sind, können die Rolle eines Sekundärschlüssels spielen, um alle Datensätze (Objekte) mit einer gemeinsamen Eigenschaft zu erhalten. In Abbildung 62 ist in der Klasse Mitarbeiter das Attribut Abteilungsnummer z. B. ein Sekundärschlüssel. Mit der Angabe eines möglichen Attributwertes 55 kennzeichnet man dann alle Datensätze der Mitarbeiter, die in der Abteilung mit der Abteilungsnummer 55 beschäftigt sind.
Abbildung 6-6
Beispiel zur logischen Datenorganisation
Die Bearbeitung der Dateien erfolgt mit elementaren Dateioperationen, die in Tabelle 6-1 erläutert werden.
220
Grundlagen
Tabelle 6-1
Dateioperationen
Einfügen
die Datei erhält einen neuen Datensatz
Ändern
ein vorhandener Datensatz wird modifiziert
Löschen
ein vorhandener Datensatz wird entfernt
Suchen
mit Hilfe eines vorgegebenen Ordnungsbegriffes wird nach einem oder mehreren Datensätzen gesucht
6.1
Darüber hinaus erfolgen Operationen über mehrere Dateien einer Datenbank entsprechend der durch Verknüpfungen der Primärschlüssel beschriebenen logischen Beziehungen. Gemäß Abbildung 6-6 ist die Abteilungsnummer Primärschlüssel in der Klasse Abteilungen und gleichzeitig Sekundärschlüssel in der Klasse Mitarbeiter (logische Beziehung). Mit der Angabe der Abteilungsnummer 55 in der Klasse Mitarbeiter und der Verknüpfung mit der Klasse Abteilungen erhält man alle Datensätze der Mitarbeiter mit den zusätzlichen Informationen, dass sie in der Abteilung Fertigung am Standort Astadt beschäftigt sind. In der Datenorganisation kann zwischen einer
konventionellen Datenorganisation, die Dateiorganisation und einer modernen Datenorganisation, die Datenbankorganisation unterschieden werden. In Bezug auf die prinzipiellen Vorgehensweisen in der Entwicklung von Anwendungssystemen liegt die Dateiorganisation der funktionsorientierten und die Datenbankorganisation der datenorientierten und objektorientierten Vorgehensweise zugrunde.
Dateiorganisation Ausgangspunkt der funktionsorientierten Vorgehensweise sind die aus betrieblichen Anforderungen abgeleiteten Aufgaben (Funktionen). Für jedes zu entwickelnde aufgabenspezifische Programm werden die Daten in Dateien organisiert, wobei Ausgangsdaten des einen Programms auch Eingangsdaten eines anderen Programms sein können. Spezielle Aspekte der Dateiorganisation, wie Zugriffsmethoden und Speicherungsverfahren werden im Abschnitt 6.3 behandelt.
Funktionsorientierung
Die Nachteile der Dateiorganisation liegen vor allem im Folgenden:
Nachteile
Der direkte Zugriff inhaltlich verschiedener Programme auf gleiche Daten führt zu hohem Aufwand bei Änderungen der Datenstrukturen.
221
6
Daten
Die redundante Datenspeicherung verschwendet Speicherplatz und erfordert eine aufwendige und fehleranfällige Datenpflege.
Die Daten sind inflexibel gegenüber Verknüpfungen und Auswertungen. Die Einbindung neuer Anwendungen ist sehr kompliziert.
Datenbankorganisation Daten- und Objektorientierung
Diese Nachteile können durch die daten- und objektorientierten Vorgehensweisen und der damit verbundenen Datenbankorganisation überwunden werden. Die datenorientierte Vorgehensweise strukturiert logisch alle im Zusammenhang stehenden Daten betrieblicher Bereiche in Datenbanken ohne Berücksichtigung der Funktionen, die in anschließend realisierten Anwendungsprogrammen auf diese Datenbanken zugreifen. Die objektorientierte Vorgehensweise kann als Überlagerung der daten- und funktionsorientierten Vorgehensweise angesehen werden, da hier die betrachteten Klassen aus Daten (Attributen) und darauf arbeitenden Funktionen (Operationen) gebildet werden.
formalisierte Beschreibung durch Datenbankmodelle
Der logischen Datenbankorganisation liegen so genannte Datenbankmodelle zugrunde, die mögliche unterschiedliche Sichten auf Daten (bzw. auf Daten und Funktionen bei objektorientierten Modellen) in formalisierter Beschreibung darstellen. Einige dieser Modelle haben sich als besonders geeignet für den Entwurf von Datenbanken erwiesen, so genannte semantische Datenmodelle (Erweiterte Entity-Relationship-Modelle). Entwirft man Datenbanken mit Hilfe semantischer Datenmodelle, so muss anschließend eine Abbildung dieses Modells in dasjenige Datenbankmodell (meist ein relationales Modell) erfolgen, das einem zu verwendenden, handelsüblichen Datenbankmanagementsystem zugrunde liegt. Die wichtigsten Datenbankmodelle werden in Abschnitt 6.3 erläutert. Bei der physischen Datenbankorganisation werden im Wesentlichen die gleichen Zugriffsformen und Speicherungsverfahren wie bei der Dateiorganisation verwendet.
Datenbanksystem = Datenbank(en) + Datenbankmanagementsystem
Datenbanksysteme integrieren Datenbanken und das Datenbankmanagementsystem zur Verwaltung der Datenbanken. Mögliche Architekturen und Aufgaben der Datenbanksysteme, sowie so genannte Datenbanksprachen zur Beschreibung der Datenbanken und der Kommunikation mit dem Datenbanksystem durch einen Nutzer werden in den Abschnitten 6.4 und 6.5 beschrieben.
222
Dateiorganisation
6.2
6.2 Dateiorganisation Die konventionelle Datenorganisation hat ihre Wurzeln in der in den 60er Jahren aufgekommenen integrierten Datenverarbeitung. Die Realisierung administrativer und dispositiver Funktionen, z. B. Lohn- und Gehaltsabrechnungen, Fakturierung und die Verwaltung von Lagerbeständen, in betrieblichen Anwendungsprogrammen machte es erforderlich, insbesondere die zweck- und zeitdauerbezogenen Massendaten in Dateien zu organisieren. Zwei unterschiedliche Erscheinungsbilder der Dateiorganisation sind dabei zu beobachten:
programm-integrierte Organisation, d. h. jedes Programm definiert und verwaltet getrennt seine Dateien
datei-integrierte Organisation, d. h. mehrere Programme arbeiten gemeinsam auf denselben Dateien und werden durch ein Dateiverwaltungssystem (file management system), einer Komponente des Betriebssystems, unterstützt. Die dateiintegrierte Organisation reduziert redundante Datenbestände und ist auch heute noch weit verbreitet. Die Art und Weise des Zugriffs auf die Datensätze der Dateien, also das Lesen oder Schreiben (meist extern) gespeicherter Daten, wird als Zugriffsmethode (access method) bezeichnet. Die beiden wesentlichen Zugriffsmethoden sind:
Zugriff auf Daten
sequentieller (serieller) Zugriff (sequential access) Hier erfolgt der Zugriff auf die Datensätze in der Reihenfolge, in der sie auf dem Speicher angeordnet sind, d. h. der Zugriff auf einen Datensatz kann nur durch Zugriffe auf alle seine Vorgänger ausgeführt werden.
direkter (wahlfreier) Zugriff (random access) Hier erfolgt der (schnelle) Zugriff auf einen Datensatz direkt mit Hilfe einer Speicheradresse, ohne andere Datensätze zu lesen. Die Anwendung der Zugriffsmethoden hängt vorwiegend vom verwendeten Speichermedium ab. So ist auf Magnetbändern im Allgemeinen nur der sequentielle Zugriff möglich, während ein direkter Zugriff in der Regel bei der Verwendung von Magnetplatten erfolgt. Hinsichtlich der Realisierung des Zugriffs auf die Datensätze sind den Zugriffsmethoden aber auch alle (vom Betriebssystem unterstützten) Speicherungsverfahren zuzuordnen, mit denen die Dateien auf peripheren Speichermedien physisch gespeichert und verwaltet werden.
Zugriffsmethode von Speichermedium abhängig
Die Speicherungsverfahren sind eng mit den Ordnungskriterien für die Datensätze verbunden. In der Dateiorganisation sind dies die Identifizie-
Standards für Identnummern
223
6
Daten
rungsnummern (IDs, Identnummern, Nummernschlüssel), die ein Objekt eindeutig identifizieren und mitunter auch zusätzlich klassifizieren. Hier sei darauf hingewiesen, dass der Begriff Schlüssel (vgl. Kapitel 6.1) allgemeiner als der Identnummernbegriff zu verstehen ist. Für den Aufbau von Identnummern gibt es zahlreiche Standards und Normen. Einige Beispiele sind in Abbildung 6-7 aufgeführt.
Abbildung 6-7
Beispiele für Standards zum Aufbau von Identnummern
10-stellige Internationale Standard Buchnummer (ISBN)
5-stellige bundeseinheitliche Betriebsnummer (bbn) als Bestandteil der EAN, vergeben durch die Zentrale für Koorganisation in Köln
Internationale Lokationsnummer (ILN).
13-stellige europaeinheitliche Artikelnummer (EAN) für Handelswaren analog zum Universal Product Code (UPC) der USA
Die grundlegenden Speicherungsverfahren sind in Abbildung 6-8 aufgeführt und werden anschließend erläutert.
Abbildung 6-8
Speicherungsverfahren
sequentielles Speicherungsverfahren verkettetes Speicherungsverfahren indiziertes Speicherungsverfahren gestreutes Speicherungsverfahren
sequentielle Speicherungsverfahren Sequentielle Speicherungsverfahren speichern alle Datensätze einer Datei hintereinander nach i. A. aufsteigenden Werten des Ordnungskriteriums (Identnummern) und sind nur sinnvoll bei sequentiellem Zugriff. Die Abbildung 6-9 stellt ein Beispiel für dieses Speicherverfahren dar.
verkettete Speicherungsverfahren Verkettete Speicherungsverfahren definieren in jedem Datensatz ein so genanntes Kettenfeld (Zeiger, Pointer), das die physische Speicheradresse des logisch nachfolgenden (bzw. vorangehenden) Datensatzes enthält (einfach verkettete Speicherung). Bei der doppelt verketteten Speicherung enthält der Datensatz noch ein zweites Kettenfeld, das auf den
224
Dateiorganisation
6.2
logisch vorangehenden (bzw. nachfolgenden) Datensatz zeigt. Abbildung 6-10 zeigt ein Beispiel für verkettete Speicherung.
Beispiel für sequentielles Speicherverfahren
Abbildung 6-9
Beispiel für einfach (vorwärts) verkettete Speicherung
Abbildung 6-10
Auf eine so gespeicherte Datei kann logisch sequentiell zugegriffen werden, unabhängig von der physischen Verteilung der Datensätze im Speicher. Der 225
6
Daten
große Speicherplatzbedarf und die erhöhten Zugriffszeiten kompensieren jedoch oft diesen Vorteil. Die Verkettung wird vorwiegend im Zusammenhang mit speziellen indizierten Speicherungsverfahren (indexverkettete Speicherung) verwendet.
indizierte Speicherungsverfahren Indizierte Speicherungsverfahren definieren zu jeder Datei eine IndexDatei, die zu jeder Identnummer die zugeordnete relative oder absolute physische Speicheradresse des entsprechenden Datensatzes enthält. Die Abbildung 6-11 zeigt ein Beispiel für indizierte Speicherung.
Abbildung 6-11
Beispiel für indizierte Speicherung
Gruppiert man die nach der Identnummer geordneten Datensätze einer Datei in Blöcke und ordnet man diesen Blöcken jeweils zusammenhängende Speicherbereiche (z. B. Spuren auf einer Magnetplatte) zu, in denen die Datensätze sequentiell angeordnet sind, spricht man von einer indexsequentiellen Speicherung (Indexed Sequential Access Method – ISAM). Die Indexdatei enthält dann nur noch für jeden Speicherbereich
226
Datenbankmodelle
6.3
die größte Identnummer und die ihr zugeordnete Speicheradresse (z. B. Spuradresse). Eine weitere Variante der indizierten Speicherungsverfahren besteht in der indexverketteten Speicherung. Hierbei wird jeder Identnummer in der Indexdatei zum logisch folgenden Datensatz entweder die Identnummer, die Position in der Indexdatei oder die physische Speicheradresse zugeordnet. Eine zunehmende Bedeutung, vor allem unter dem Aspekt schneller Zugriffszeiten, gewinnen die vielfältigen Speicherungsverfahren auf der Basis so genannter binärer Bäume, einem Begriff der Graphentheorie. Zur Speicherung einer Datei in binärer Baumstruktur werden in der Indexdatei jeder Identnummer zwei Kettenfelder, die auf zwei nachfolgende Datensätze zeigen, zugeordnet.
gestreute Speicherungsverfahren Gestreute Speicherungsverfahren berechnen aus der Identnummer mit Hilfe eines Umrechnungsverfahrens (Hash-Verfahren) die physische Speicheradresse des Datensatzes oder setzen die Gleichheit von Identnummer und Speicheradresse voraus. Ihr Vorteil liegt vor allem beim direkten Zugriff mit kurzen Zugriffszeiten.
6.3 Datenbankmodelle In der Informatik erfolgt die Erfassung und Darstellung der Informationsstruktur von Anwendungen in Datenmodellen. So existieren zahlreiche spezifische Datenmodelle beispielsweise in Bezug auf Programmiersprachen, Grafiksysteme, Expertensysteme und insbesondere Datenbanksysteme, in deren Zusammenhang man von Datenbankmodellen spricht. Ein Datenbankmodell legt die Syntax und Semantik der Datenbankbeschreibungen, so genannte Datenbankschemata, für ein Datenbanksystem fest. Hinsichtlich der Entwurfsphasen der Datenbankentwicklung kann eine Einteilung in abstrakte und konkrete Datenbankmodelle vorgenommen werden. Abstrakte Datenmodelle (z. B. Entity Relationship Modelle – ERM, objektorientierte Datenbankmodelle) werden besonders für frühe Phasen des Datenbankentwurfs verwendet, während konkrete Datenbankmodelle (z. B. hierarchisches Modell, netzwerkorientiertes Modell, relationales Modell) zur Implementierung eines Entwurfs in ein konkretes Datenbanksystem dienen. Die folgende Beschreibung der wichtigsten Datenbankmodelle soll möglichst einheitlich erfolgen und die im Kapitel 6.1 eingeführten Begriffe Klasse, Objekt usw. weiterführend verwenden. Für die modellspezifischen Begriffe werden in der Literatur synonyme Bezeichnungen verwendet. Der
227
Festlegung von Syntax und Semantik der Datenbankbeschreibung abstrakte und konkrete Datenbankmodelle
6
Daten
Zusammenhang ist in nachstehender Tabelle ersichtlich. Die Erläuterung der Begriffe erfolgt beim jeweiligen Modell.
Tabelle 6-2
Beziehungsarten zu einer anderen Klasse
Vergleich von Begriffen in Datenbankmodellen Synonyme in Kapitel 6
relationale Algebra
ERM
relational
objektorientiert
Klasse
Relation
Entitytyp
Tabelle
Klasse
Attribut
Attribut
Attribut
Spalte
Attribut
Objekt
Tupel
Entität
Zeile
Objekt
Beziehung
(Join)
Relation (Beziehung)
(Join)
Vererbung, Aggregation, Assoziation
In jedem Modell ist die Abbildung von Beziehungen zwischen den Klassen von großer Bedeutung. Daher werden zu Beginn des Abschnitts die möglichen Beziehungsausprägungen genannt.
Typ 1: einfache Assoziation Sie liegt vor, wenn zu jedem Objekt einer Klasse genau ein Objekt einer anderen Klasse gehört.
Typ C: konditionelle Assoziation Sie liegt vor, wenn zu jedem Objekt einer Klasse ein oder kein Objekt einer anderen Klasse zugeordnet werden kann.
Typ M: komplexe Assoziation Sie liegt vor, wenn zu jedem Objekt einer Klasse kein, ein oder mehrere Objekte einer korrespondierenden Klasse zugeordnet werden können. Beziehungstypen zwischen Klassen
Aufgrund der hier vorgestellten Verknüpfungstypen können Beziehungen und Rückbeziehungen zwischen zwei Klassen definiert werden. So entstehen Beziehungstypen, wie z. B.:
Typ 1:1 (wechselseitig einfach) Beispiel: Beziehung zwischen Klasse Auto und Klasse Motor, denn jedes Auto hat genau einen Motor und jeder Motor gehört zu genau einem Auto
Typ 1:C bzw. C:1 (einfach konditionell) Beispiel: Beziehung zwischen Klasse Haus und Klasse Keller, denn jeder Keller gehört zu genau einem Haus (1) und ein Haus besitzt entweder keinen oder einen Keller (C)
228
Datenbankmodelle
6.3
Typ 1:M bzw. M:1 (einfach komplex bzw. komplex einfach) Beispiel: Beziehung zwischen Klasse Adresse und Klasse Stadt, denn jeder Adresse kann genau eine Stadt zugeordnet werden (1), aber jede Stadt kann zu einer Vielzahl von Adressen gehören (M).
Typ M:N (wechselseitig komplex) Beispiel: Beziehung zwischen Klasse Bestellung und Klasse Artikel, denn jede Bestellung kann mehrere Artikel umfassen und jeder Artikel kann in verschiedenen Bestellungen enthalten sein.
Relationales Modell Das relationale Modell wurde 1970 von E. F. Codd entwickelt. Es basiert auf der mathematischen Theorie der relationalen Algebra. Klassen werden in diesem Modell durch Tabellen repräsentiert, die sich aus Attributen (Spaltenbezeichnern) und Objekten (Zeilen) zusammensetzen. Ein wesentliches Merkmal des relationalen Modells besteht darin, dass jedes Objekt einer Klasse eindeutig identifiziert und unterschieden wird. Die Attribute des Primärschlüssels (vgl. Abschnitt 6.1) können durch Unterstreichung in der Klasse gekennzeichnet werden. Über den Primärschlüssel ist eine Verknüpfung von Klassen möglich, indem der Primärschlüssel der einen Klasse als Attribut in die andere Klasse aufgenommen wird. In diesem Fall spricht man von einem Fremdschlüssel.
Tabellen mit Attributen und Objekten eindeutige Identifizierung jedes Objekts durch Primärschlüssel
Auf Klassen anwendbare Operationen:
Selektion (selection) Aus einer Klasse wird eine Teilmenge von Objekten ausgewählt. Jedes ausgewählte Objekt enthält alle Attribute der Klasse.
Abbildung 6-12
Selektion
229
6
Daten
Projektion (projection) Aus einer Klasse wird nur ein bestimmter Teil von Attributen ausgewählt.
Abbildung 6-13
Projektion
Verbund (join) Die Klassen A und B werden miteinander verknüpft.
Abbildung 6-14
Verbund
Die dargestellten Operationen lassen sich beliebig kombinieren, und erlauben eine einfache und übersichtliche Bearbeitung der Daten. Anomalien
Für den Entwurf von relationalen Modellen gibt es verschiedene Regeln, die verhindern sollen, dass Daten redundant (mehrfach) gehalten werden und Anomalien auftreten. Dabei werden folgende verschiedene Typen von Anomalien unterschieden:
Änderungsanomalien Änderungen eines Objekts ziehen Änderungen in weiteren Objekten nach sich, um Dateninkonsistenzen zu vermeiden.
230
Datenbankmodelle
6.3
Einfügeanomalien Das Einfügen eines Attributes in ein Objekt ist mit dem Einfügen weiterer Attribute verbunden.
Löschanomalien Das Löschen eines Attributes in einem Objekt zieht das Löschen aller abhängigen Objekte nach sich. Durch den Prozess der Normalisierung können Anomalien und somit auch Redundanzen vermieden werden. Der höchste Grad der Normalisierung ist die fünfte Normalform. Im Folgenden werden die ersten drei Normalformen beschrieben, da diesen in der Praxis die größte Bedeutung zukommt.
Normalformen
Erste Normalform (nur atomare Attribute) Eine Klasse ist in der ersten Normalform, wenn alle Attribute elementar sind, d. h. es gibt keine zusammengesetzten Attribute.
Zweite Normalform (keine Identifizierung durch Teilschlüssel) Eine Klasse ist in der zweiten Normalform, wenn sie sich in der ersten Normalform befindet und kein Nichtschlüsselattribut bereits durch eine Teilmenge des Primärschlüssels eindeutig identifiziert wird. Vorteil: Attribute, die bereits durch Teilschlüssel identifiziert werden, sind aus der Klasse entfernt. Damit sind unerwünschte Eigenschaften bei den Operationen Ändern, Einfügen und Löschen beseitigt.
Dritte Normalform (keine transitive Identifizierung) Eine Klasse ist in der dritten Normalform, wenn sie sich in der zweiten Normalform befindet und kein Nichtschlüsselattribut transitiv (über eine zwischengeschaltete Attributgruppe) durch den Primärschlüssel eindeutig identifiziert wird. Wird in dieser Definition anstelle von „Nichtschlüsselattribut“ allgemein „Attribut“ gesetzt, so erhält man eine schärfere Variante der dritten Normalform, nämlich die Boyce-CoddNormalform (BCNF), bei der auch Transitivitäten im Primärschlüssel entfernt sind. Vorteil: Die Anzahl der Attribute in der Klasse verkleinert sich durch den Wegfall der Transitivitäten. Folglich verringert sich die Anzahl der zu modifizierenden Attributwerte z. B. bei der Operation Ändern.
Entity-Relationship-Modell Das Entity-Relationship-Modell (ERM) basiert auf dem relationalen Modell und verfügt über eine grafische Beschreibungssprache. Ein wesentlicher Unterschied ist die explizite Unterscheidung zwischen Entitytypen (Klassen) und Beziehungstypen, denen jeweils eigene Attribute zugeordnet werden können. Es wird inzwischen auch als semantisches Modell zum Systement-
231
Klassen und Beziehungstypen mit Attributen
6
Daten
wurf genutzt. Die folgende Abbildung zeigt die Darstellung einer einfachen Beziehung in der Notationsform des ERM.
Abbildung 6-15
einfache Beziehung im ERM
Attribute von Klassen sind als Kreise dargestellt, deren Wertebereiche (Menge der für dieses Attribut zulässigen Werte) wie beim relationalen Modell als Domänen bezeichnet werden.
Abbildung 6-16
Darstellungsformen für Beziehungstypen im ERM*
Das ERM, welches von Chen im Jahre 1976 veröffentlicht wurde, ist von verschiedenen Autoren weiterentwickelt worden. Wesentliche Erweiterungen des Basismodells sind:
*
232
Knolmayer; Myrach: Anforderungen an Tools. 1990
Datenbankmodelle
Klassifizierung / Vererbung (Wiederverwendung von Klassen) Generalisierung / Spezialisierung (Zusammenfassung von ähnlichen Klassen)
6.3 Erweiterungen des ursprünglichen ERM
Aggregation (Zusammenfassung von Attributen zu Klassen höherer Ordnung)
Gruppierung schwache Entitytypen (Existenzabhängigkeiten unter Klassen) Erweiterung der Beziehungstypen ([min, max]-Notation) Parallel dazu wurden verschiedene Darstellungsformen für Beziehungstypen entwickelt, die in der Abbildung 6-16 dargestellt sind.
NF2-Modell (Non First Normal Form) Das NF2-Modell basiert auf dem relationalen Modell. In Erweiterung dieses Modells wird die Modellierung hierarchischer komplexer Datenstrukturen zugelassen. Die Attributwerte eines Objekts können wiederum Objekte enthalten. Dadurch ergibt sich die Darstellung von geschachtelten Klassen, wie in Abbildung 6-17 dargestellt. Attribute besitzen keine einfachen sondern komplexe Domänen (Wertebereiche). NF2-Modelle liegen demnach nicht in der ersten Normalform vor.
Modellierung hierarchisch komplexer Datenstrukturen
Geschachtelte Klassen im NF2-Modell
Abbildung 6-17
Die relationale Algebra wird im NF2-Modell um zwei Operationen erweitert.
zusätzliche Operationen
Unnest Der Unnest-Operator erlaubt es, Attribute mit komplexen Domänen in ihre Einzelbestandteile zu zerlegen und die dabei entstehenden Objekte anzupassen. Die Anwendung des Operators ist solange möglich, bis aus der Ausgangsklasse eine denormalisierte Klasse entsteht, deren Attribute nur noch einfache Domänen besitzen.
233
6
Daten
Nest Die inverse Operation ist der Nest-Operator. Er bildet für bestimmte Attributkombinationen geeignete Hierarchien und kann zur Erzeugung von NF2-Klassen genutzt werden. Vor- und Nachteile
Der Vorteil des NF2-Modells liegt in der Vermeidung von Join-Operationen aufgrund der mit der Schachtelung verbundenen Gruppierung der Daten. Da die abzubildenden Strukturen nur in seltenen Fällen reine Hierarchien sind, ergibt sich als Nachteil erhöhte Redundanz. Sie verursacht eine Vergrößerung des Datenvolumens und erzeugt die beim relationalen Modell beschriebenen ungünstigen Anomalien bei redundanter Datenspeicherung.
Objektorientiertes Modell
neue Anforderungen
Attribute und Operationen bilden Klassen
Bestandteile von Operationen
Anwendungsbereiche wie CAD/CAM (Computer Aided Design / Computer Aided Manufacturing, computergestützter Entwurf / computergestützte Fertigung), CIM (Computer Integrated Manufacturing, computerintegrierte Fertigung), Multimedia (Bild- und Videodatenbanken), Archivierungssysteme und Grafische Informationssysteme (GIS) stellen neue Anforderungen an die Informationsverarbeitung. Der Umgang mit komplexen Datenstrukturen, umfangreichen Transaktionsmechanismen, neuen Datentypen (Videos, Bilder, Texte) sowie unstandardisierten applikationsspezifischen Datenoperationen soll durch einen objektorientierten Ansatz erleichtert werden. Dazu werden Konzepte aus der objektorientierten Programmierung in die Modellierung übernommen. Die Entwicklung des objektorientierten Modells begann Ende der 80er Jahre. Die kommerziellen Anbieter solcher Systeme haben sich 1991 zur ODMG (Object Data Management Group) zusammengeschlossen und einen Standard für objektorientierte Datenbankmanagementsysteme festgelegt. Bei der Modellierung werden Attribute und die mit ihnen durchführbaren Operationen nicht getrennt sondern gemeinsam betrachtet. Beide Komponenten bilden eine Klasse. Die Nutzung von Objekten einer Klasse erfolgt über genau definierte Schnittstellen (bestimmte Attribute und Operationen), ohne dass der innere Aufbau eines Objektes bekannt sein muss. Diese Eigenschaft objektorientierter Modelle wird Kapselung genannt. KlassenVorlagen (Templates) unterstützen in der Praxis den Aufbau von Klassenstrukturen. Sie stellen einen bestimmten Umfang elementarer Datenmanipulationsoperationen zur Verfügung, die für jede Klasse gleich sind. Somit sind lediglich spezifische Operationen zu modellieren. Eine Operation besteht aus zwei Bestandteilen:
234
Datenbankmodelle
6.3
Signatur Sie ist der sichtbare Teil einer Operation und deklariert den Operationsnamen sowie die verwendeten Parameter beim Aufruf dieser Operation.
Implementierung Dieser Teil beinhaltet die eigentliche Codierung der Funktionalität und ist nach außen nicht sichtbar. Die Operation zur Erzeugung eines Objekts wird Konstruktor genannt, das Löschen eines Objekts erfolgt durch den Aufruf des Destruktors. Der Aufruf von Operationen erfolgt durch die Übermittlung von Nachrichten. Diese bestehen aus der aufzurufenden Operation und der Übergabe erforderlicher Parameter. Wenn Operationen in Abhängigkeit von der Klassenzugehörigkeit ihrer Objekte unterschiedlich abgearbeitet werden, spricht man von Polymorphismus. Polymorphismus ist eng verbunden mit der Technik des late binding, bei der erst zur Laufzeit (Zeit der Abarbeitung der Operation) die Klasse eines verwendeten Objekts genau feststeht. Zur genauen Identifikation eines Objekts vergibt das objektorientierte DBMS eine eindeutige Identifikationsnummer (Object-ID, OID) für jedes erzeugte Objekt. Um den Modellierungsaufwand zu begrenzen und eine teilweise Wiederverwendung von Modellen zu ermöglichen, können Klassen mit ihren Attributen und Operationen vererbt werden. Dabei ist nach der Anzahl der beteiligten Klassen und dem Umfang der Vererbung zu differenzieren. Ein Beispiel für eine Vererbung stellt die Abbildung 6-19 dar.
Abbildung 6-18
Merkmale der Vererbung Anzahl der Klassen:
Einfachvererbung: Vererbung der Attribute und Operationen einer Klasse Mehrfachvererbung: Vererbung der Attribute und Operationen mehrerer Klassen
Umfang der Vererbung:
vollständig: Vererbung aller Attribute und Operationen selektiv: Vererbung von bestimmten Attributen und Operationen
Mit objektorientierten Modellen lassen sich strukturierte und unstrukturierte Daten abbilden. Unstrukturierte Daten werden als BLOBs (Binary Large Objects) in der Datenbank abgelegt. Die auf diesen Objekten zugelassenen Operationen interpretieren die binär gespeicherten Daten.
235
Speicherung unstrukturierter Daten in BLOBs
6 Abbildung 6-19
Daten
vollständige Einfachvererbung
Beziehungen zwischen Objekten
Beziehungen zwischen Objekten werden über Referenzvariablen (reference by) realisiert. Dabei wird die OID eines der beteiligten Objekte im anderen Objekt gespeichert. Zur Performance-Steigerung kann dies auch wechselseitig erfolgen. Alternativ kann eines der Objekte Bestandteil (part of) des anderen werden.
Existenzdauer von Objekten
Objekte, die dauerhaft in der Datenbank abgelegt werden, bezeichnet man als persistent. Demgegenüber handelt es sich bei temporär erzeugten um transiente Objekte (z. B. nur während der Programmausführung existierende Objekte).
236
Datenbanksysteme
6.4
6.4 Datenbanksysteme Datenbanksysteme (DBS) setzen sich aus ein oder mehreren Datenbanken (DB) und einem Datenbankmanagementsystem (DBMS) zusammen. Die Datenbanken werden durch das Datenbankmanagementsystem verwaltet und können nur durch dieses gelesen, geändert und gelöscht werden. Im Folgenden sollen Architektur und Anforderungen an Datenbanksysteme beschrieben werden.
Datenbanksystem = Datenbank(en) + Datenbankmanagementsystem
Architektur Zur Beschreibung der Architektur von Datenbanksystemen gibt es verschiedene Ansätze. Zum einen die Drei-Ebenen-Architektur nach ANSI/X3/SPARC aus dem Jahre 1975 und zum anderen die Fünf-EbenenArchitektur, die auf Senko zurückzuführen ist und von Härder zur Entwicklung des IBM-Datenbanksystems SYSTEM R weiterentwickelt wurde. Die ANSI/X3/SPARC-Architektur gliedert sich in drei Ebenen, die voneinander unabhängig sind und somit eine logische und physische Datenunabhängigkeit ermöglichen. Die Datenunabhängigkeit ist eine Grundanforderung an Datenbanksysteme.
externe Ebene Die externe Ebene entspricht einer benutzerbezogenen Sicht auf die Daten. Das bedeutet, dass jedem Benutzer des Datenbanksystems in Abhängigkeit von seinem Anwendungsgebiet unterschiedliche Sichten auf die gemeinsame Datenbasis ermöglicht werden. Als Sichten können hierbei Eingabemasken, Übersichtsmasken und Reports angesehen werden. Die Darstellung der Daten erfolgt häufig in stark denormalisierter, d. h. mit redundanten Datengruppen, oder in aggregierter Form.
konzeptuelle Ebene Die konzeptuelle Ebene entspricht einer globalen logischen Sicht auf die Datenbanken, die jedoch unabhängig von der physischen Implementierung ist. Die konzeptuelle Ebene ist soft- und hardwareunabhängig. In der Regel liegt dem konzeptuellen Datenmodell ein relationales Datenbankmodell zugrunde.
interne Ebene Die interne Ebene beschreibt die physische Abbildung der Datenbanken auf Speichermedien sowie die zugehörigen Zugriffsmethoden und wege. Die interne Ebene ist soft- und hardwareabhängig.
237
Drei-EbenenArchitektur
6
Daten
Die folgende Abbildung verdeutlicht den Zusammenhang der drei Ebenen der ANSI/X3/SPARC-Architektur. Abbildung 6-20
Drei-Ebenen-Architektur von Datenbanksystemen
Die Fünf-Ebenen-Architektur (Abbildung 6-21) orientiert sich im Unterschied zur Drei-Ebenen-Architektur verstärkt an den Transformationskomponenten, die eine schrittweise Transformation von der höchsten Abstraktionsebene bis zur physischen Speicherung realisieren. Aus diesem Grund sind für die Betrachtung dieser Architektur nicht so sehr die Schichten, sondern die Schnittstellen zwischen diesen von Bedeutung. Die genannten Architekturen bilden die interne Struktur von Datenbanken ab. Betrachtet man jedoch die Datenbanksysteme hinsichtlich ihrer Verteilung, kann eine Klassifizierung in zentrale und verteilte Datenbanksysteme vorgenommen werden.
zentrale Datenbanksysteme Zentrale Datenbanksysteme sind dadurch gekennzeichnet, dass mehrere Benutzer auf einem Computer arbeiten. Man unterscheidet dabei Computer mit einem und mit mehreren Prozessoren. Auf Computern mit mehreren Prozessoren, kommen parallele Datenbanksysteme zum Ein-
238
Datenbanksysteme
6.4
satz, wodurch kürzere Antwortzeiten erreicht werden können und größere Datenmengen verarbeitet werden können. Fünf-Ebenen-Architektur von Datenbanksystemen
Abbildung 6-21
verteilte Datenbanksysteme
Verteilungsgrad von Datenbanksystemen
In einem verteilten Datenbanksystem werden logisch zusammengehörende Daten in mehreren physischen Datenbanken gespeichert. Dabei können gleiche Daten an unterschiedlichen Orten (redundant) und / oder sich gegenseitig ausschließende Daten an unterschiedlichen Orten (dis-
239
6
Daten
junkt) gespeichert werden. Liegt ein disjunkt verteiltes Datenbanksystem vor, so kann der Ausfall eines einzigen beteiligten Computers zum Gesamtausfall des Datenbanksystems führen. Die Architektur von verteilten Datenbanksystemen basiert auf der Client/Server-Architektur und kann nach verschiedenen Gesichtspunkten systematisiert werden, die in Abbildung 6-22 erläutert werden. Abbildung 6-22
Merkmale verteilter Datenbanksysteme Homogenität
homogen: Alle Server und Clients benutzen für die Verwaltung der verteilten Datenbestände (gemäß eines einheitlichen Datenmodells) das gleiche Datenbankmanagementsystem.
heterogen: Die Server und/oder Clients benutzen unterschiedliche Datenbankmanagementsysteme (gemäß unterschiedlicher Datenmodelle), die durch ein übergeordnetes System verwaltet werden. Verteilte heterogene Datenbanksysteme werden auch föderierte Datenbanksysteme genannt. Sie finden zum Beispiel ihre Anwendung im Data Warehouse zur Gestaltung von Führungsinformationssystemen.
Integration
hohe Integration: Die Benutzer eines verteilten Datenbanksystems sehen nur ein Datenbanksystem ohne Informationen über die Verteilung der Datenbanken.
niedrige Integration: Es existiert keine einheitliche Sicht auf die Datenbanken. Der Benutzer muss alle Informationen der Verteilung kennen und berücksichtigen.
Datenbanksysteme können zudem über aktive oder temporale Funktionalitäten verfügen, die im Folgenden beschrieben werden.
aktive Datenbanksysteme Einsatz von Triggern
Im Gegensatz zur passiven Reaktion auf anwendergetriebene Datenbank-Anfragen und Datenbank-Transaktionen verhält sich hier das Datenbanksystem aktiv. Das Datenbanksystem reagiert selbst auf Ereignisse und kann Aktionen auslösen (Triggerfunktion). Dazu müssen so genannte ECA-Regeln (Ereignis-Bedingung-Aktion-Regeln, event condition action rules) hinterlegt und überwacht werden. Der Einsatz von objektorientierten Datenbanksystemen ist hier besonders vorteilhaft, da neben den Attributen auch die zugehörigen Operationen in der Datenbank gespeichert werden.
temporale Datenbanksysteme Historisierung von Daten
In temporalen (zeitorientierten) Datenbanksystemen erfolgt eine Historisierung der Daten, indem die zeitlich aufeinander folgenden Zustände und Änderungszeitpunkte verwaltet werden. Die Zeitsicht ist hierbei bidirektional, d. h. neben den vergangenheitsbezogenen Zuständen kön-
240
Datenbanksysteme
6.4
nen auch zukunftsbezogene Zustände abgefragt werden. Eine Zeitbeschreibung wird durch die Datentypen Zeitpunkt, relatives Zeitintervall (Zeitdauer) und absolutes Zeitintervall ermöglicht.
Anforderungen an Datenbanksysteme Ad-hoc Querys Das Datenbanksystem unterstützt die spontane Abfrage von Daten und kann diese automatisch optimieren.
Concurrency Control Konkurrierende Zugriffe auf gleiche Daten werden vom Datenbanksystem verwaltet und aufgelöst.
Datensicherheit Datenbanksysteme kontrollieren und überwachen den Zugriff auf Daten sowie deren Sichtbarkeit, um einen unberechtigten Zugriff zu verhindern. Dazu ist es notwendig, Regeln für einzelne Benutzer oder Benutzergruppen festzulegen.
Datenkonsistenz Das Datenbanksystem gewährleistet durch die Einhaltung von Integritätsbedingungen, dass sich die Datenbanken immer in einem konsistenten Zustand befinden oder ohne Datenverlust wieder in einen solchen gebracht werden können.
Datenunabhängigkeit Anwendungssysteme und Datenbanksysteme sind voneinander unabhängig, so dass sich Veränderungen nicht auf das jeweils andere System auswirken. Es wird die logische und physische Datenunabhängigkeit unterschieden. Abbildung 6-23
Datenunabhängigkeit logische Datenunabhängigkeit (Anwendungsunabhängigkeit)
Änderungen im Anwendungssystem wirken sich nicht auf das Datenbanksystem aus.
physische Datenunabhängigkeit (Implementierungsunabhängigkeit)
Änderungen an den internen Speicherstrukturen und Zugriffspfaden eines Datenbanksystems haben keinen Einfluss auf das Anwendungssystem.
Sichten (Views) Sichten ermöglichen es, verschiedene benutzerbezogene Ausschnitte des Gesamtdatenbestandes zu realisieren.
241
6
Daten
Transaktionen Sie sind eine Folge von Befehlen, die auf den Daten eines Datenbanksystems ausgeführt werden und dabei in ihrer Gesamtheit als eine Einheit angesehen werden können. Transaktionen müssen bestimmte Kriterien erfüllen, die in der folgenden Abbildung dargestellt sind. Abbildung 6-24
Kriterien von Transaktionen Atomarität
Transaktionen werden in ihrer Gesamtheit oder gar nicht ausgeführt. Es gibt keine Zwischenzustände.
Integrität und Konsistenz
Transaktionen müssen alle Integritätsbedingungen des Datenbanksystems erfüllen. Dies bedeutet, dass sich die Datenbanken nach einer Transaktion wieder in einem konsistenten Zustand befinden müssen.
Isolation
Jede Transaktion läuft für sich und kann durch keine andere Transaktion beeinflusst werden.
Dauerhaftigkeit
hohe praktische Bedeutung relationaler Datenbanksysteme zunehmende Komplexität der Daten
Die Auswirkungen einer Transaktion auf die Datenbanken sind dauerhaft.
Die genannten Anforderungen bilden die Grundlage für die praktische Realisierung von Datenbanksystemen. Große Verbreitung in der Praxis haben insbesondere relationale Datenbanksysteme. In den letzten Jahren sind jedoch verstärkte Bemühungen der Hersteller von Datenbanksystemen zu beobachten, neue Möglichkeiten in der Datenspeicherung zu erschließen. Die Ursachen dafür liegen in der ständig wachsenden Komplexität der Daten. Beispiele sind Anwendungen wie Bild, Ton- und Videoverwaltung in der Unterhaltungsindustrie, geografische Informationssysteme, starke Zugriffe auf Multimedia-Daten über das Internet sowie Navigation und Analysen (Data Mining) mehrdimensionaler Datenräume im Data Warehouse (Abschnitt 11.2). Bei derartigen Anwendungen werden die Leistungsgrenzen etablierter relationaler und objektorientierter Datenbanksysteme erreicht. Die neueren Entwicklungen von Datenbanksystemen sind verbunden mit den Begriffen
neuere Entwicklungen
objektrelationale Datenbanksysteme und postrelationale Datenbanksysteme.
242
Datenbanksysteme
6.4
Diese Systeme basieren nicht auf grundsätzlich neuen Datenmodellen, sondern kombinieren als effizient bekannte Datenmodelle und schnelle Zugriffstechniken. Objektrelationale Datenbanksysteme integrieren die Vorteile relationaler und objektorientierter Datenbankkonzepte, erweitern die Strukturierungsmöglichkeiten durch benutzerdefinierbare Datentypen und erlauben eine Zuordnung der Anwendungslogik zu den Datentypen durch benutzerdefinierbare Funktionen. Nach M. Stonebraker sind die objektrelationalen Datenbanksysteme durch vier Charakteristiken gekennzeichnet:
Kombination relationaler und objektorientierter Konzepte
1. Basistyperweiterung
Charakteristiken objektrelationaler DBS
2. komplexe Objekte 3. Vererbung 4. Regelsystem. Bei den Typerweiterungen spielen aus der Sicht der Komplexität die Typen für Daten beliebiger Länge eine wichtige Rolle. Schon in relationalen Datenbanksystemen können als Attributausprägungen z. B. binär codierte Bilder enthalten sein. Diese werden in BLOBs (Binary Large Objects) gespeichert. Für die BLOBs werden allerdings keine Operationen zur Verfügung gestellt. Dieser Mangel wird in objektrelationalen Datenbanksystemen durch spezialisierte Module beseitigt. Sie enthalten eine Reihe von (benutzerdefinierbaren) Datentypen, wie z. B. zwei- oder dreidimensionale Geometrietypen, und die mit ihnen verbundenen Funktionen, Operationen und Zugriffsmethoden. So stellen Data-Blades (Illustra / Informix), Cartridges (Oracle) und Extenders (IBM / DB2) herstellerabhängige Ausprägungen dieser Module dar. Für die Interpretation und Verwaltung der Objekte können sie über ein API (Application Programming Interface) in die Datenbank integriert werden. Beispiele für spezielle Module führt die folgende Abbildung auf.
benutzerdefinierbare Datentypen
Beispiele für spezielle Anwendungsmodule
Abbildung 6-25
Dokumentenmanagement Internet-Daten (Einbindung in HTML, Verschlüsselung, Videostreaming) Data Mining im Data Warehouse Bild- und Tonbearbeitung Finanzanalysen
243
6 Nutzung untypisierter dynamischer Arrays Kombination vorhandener Datenmodelle
Abbildung 6-26
Daten
Postrelationale Datenbanksysteme wurden in den vergangenen Jahren zu einem Marketing-Begriff. Im Kern handelt es sich dabei um Datenbanksysteme, die Informationen in untypisierten dynamischen Arrays unter Zuhilfenahme von Hash-Verfahren oder B-Bäumen speichern und an das NF2Datenmodell bzw. prärelationale Technologien erinnern. In der Tat existiert kein eigenständiges postrelationales Datenmodell. Vielmehr kombinieren die Hersteller das Beste aus allen bisher existierenden Datenmodellen und Datenbanktechnologien. Somit wird es möglich, komplexe Datenstrukturen ohne die damit zwangsläufig entstehenden Verbund-Probleme relationaler Datenbanksysteme abzubilden. Durch variable Feldlängen werden die Daten effizient abgelegt. Speicherbereiche können dynamisch erweitert bzw. verringert werden. Auf die Daten kann je nach Produkt auf unterschiedliche Arten zugegriffen werden. Zugriffsmethoden in postrelationalen Datenbanksystemen relational
Die Systeme bieten SQL-Zugriff sowohl zum Anlegen als auch zum Manipulieren und Abfragen der Daten mittels standardisierter Schnittstellen bzw. eigener APIs.
objektorientiert
Komplexe Klassen mit Attributen und Methoden können modelliert und genutzt werden. Dabei steht die gesamte Palette objektorientierter Konzepte bereit (Vererbung, Polymorphismus, Kapselung).
multidimensional
Anwendungsbereiche
Die multidimensionale Speicherung der Daten unterstützt insbesondere den Einsatz von OLAP-Anwendungen. Alternativ wird mit diesem Begriff auch der direkte Zugriff auf die Speicherstrukturen ohne eine relationale oder objektorientierte Sichtweise bezeichnet. In diesem Falle ist das Anwendungsprogramm für die Interpretation der Datenstrukturen verantwortlich.
Gerade bei Transaktionsanwendungen liegt die Performance der postrelationalen Systeme weit vor relationalen oder objektorientierten Datenbanksystemen. Das Haupteinsatzfeld liegt gegenwärtig bei medizinischen und finanzwirtschaftlichen Anwendungen. Ein Hauptvertreter der postrelationalen Datenbanksysteme – das System Caché – hat seine Wurzeln in der seit 1966 entwickelten Programmiersprache M bzw. Mumps (Massachusetts General Hospital Utility Multi-Programming System), die prozedural, stringorientiert, deklarationsfrei und längenvariabel konzipiert wurde. In Abhängigkeit vom zugrunde liegenden Datenmodell bzw. der verwendeten Datenbanksystem-Technologie werden in nachstehender Tabelle 6-3 einige Produkte aufgeführt.
244
Datenbanksprachen
Tabelle 6-3
Datenbanksysteme (Auswahl) Datenbanksystem
Implementierung (Produkt / Hersteller)
í Oracle / Oracle
relational
í Dynamic Server / Informix í Adaptive Server / Sybase í SQL-Server / Microsoft í DB2 / IBM
objektorientiert
í Poet / Poet í Software Gemstone / Gemstone í Systems O2 / Unidata í Versant / Versant í Objectivity DB / Objectivity
objektrelational
í Informix Universal Server / Informix í Oracle 11i / Oracle í Postgres / Great Bridge í Universal Database / IBM í UniSQL / UniSQL
postrelational
6.5
í Caché / Intersystems í UniVerse / Informix í ADABAS / Software AG í Titanium / Micro Database Systems
6.5 Datenbanksprachen Datenbanksprachen können nach ihrem Anwendungsgebiet in zwei Kategorien unterteilt werden:
DDL (Data Definition Language) Mit der Datendefinitionssprache werden die verschiedenen Komponenten und Integritätsbedingungen eines logischen Modells im jeweiligen Datenbanksystem generiert. Meist besitzen die jeweiligen Datenbankmanagementsysteme spezifische Erweiterungen, so dass nicht davon ausgegangen werden kann, dass Definitionen eines Typs von Datenbankmanagementsystemen austauschbar sind.
245
6
Daten
DML (Data Manipulation Language) Die Datenmanipulationssprache ermöglicht das Erzeugen, Ändern, Löschen und Abfragen von Objekten einer Datenbank. Je nach Modell und seiner Umsetzung in einem entsprechenden DBMS existieren verschiedene DDLs und DMLs. In Tabelle 6-4 sind einige Beispiele aufgeführt.
Tabelle 6-4
DDLs und DMLs für unterschiedliche Datenbankmanagementsysteme Datenbanksystem
DDL
DML
Hierarchisch
í HDDL
í HDML
Netzwerkorientiert
í CODASYL
í NDML
Relational
í SQL / QBE / QUEL
í SQL / QBE / QUEL
Objektorientiert
í ODL
í OML / OQL
Objektrelational
í SQL99
í SQL99
Postrelational
í SQL / ODL
í SQL / OML / OQL
HDDL (Hierarchical Data Definition Language) HDML (Hierarchical Data Manipulation Language) Der Zugriff auf hierarchische Datenbanken erfolgt mittels einer Programmiersprache und dem UWA (User Work Area). Innerhalb der Anwendung müssen Variablen definiert sein, die den benötigten Datenbankattributen entsprechen. Die Zuordnung der Programm- zu den Datenbankvariablen erfolgt im UWA, welches die Schnittstelle zwischen Anwendung und Datenbank bildet. Benötigte Variablenbezeichner können automatisch aus der Datenbankdefinition generiert werden. Man unterscheidet Operationen zum Suchen und Manipulieren von Objekten und Beziehungen.
CODASYL NDML (Network Data Manipulation Language) Die NDML arbeitet nach demselben Prinzip wie die HDML. Es existieren Operationen zum Navigieren, Aufsuchen und Bearbeiten.
SQL (Structured Query Language) verbreitetste Datenbanksprache
SQL wird als DDL und DML eingesetzt. Zur Datendefinition werden die drei Operationen create, alter und drop angewendet. Die Abfragesprache basiert im Grunde auf einem Befehl und seinen Parametern, dem Select-Befehl, der folgenden Aufbau besitzt: select [Attributliste] from
246
Datenbanksprachen
6.5
[Klassenliste] where [Bedingungen]. Die Manipulation von Daten erfolgt durch insert, update und delete.
QBE (Query by Example) Der Benutzer muss die komplexe Datenstruktur nicht kennen. Ihm werden die Klassen und ihre Attribute, aus denen er wählen kann, grafisch aufbereitet. Es ist möglich, die Abfrage durch Beispielwerte (Example) einzugrenzen, Ausgabeattribute zu wählen sowie Beziehungen anzugeben. QBE kann auch zur Datendefinition und -manipulation eingesetzt werden.
QUEL (Query Language) QUEL ist ebenfalls eine DDL und DML. Sie besitzt den Funktionsumfang früherer SQL-Versionen und wurde von SQL als Quasi-Standard verdrängt.
ODL (Object Definition Language) Die ODL ist unabhängig vom jeweiligen Datenbanksystem und einer Programmiersprache. Daher werden mit ihr lediglich Attribute und nicht Operationen definiert, da diese implementierungsspezifisch sind.
OML (Object Manipulation Language) Eine OML ist programmiersprachenabhängig. Es existiert kein Standard.
OQL (Object Query Language) OQL ist eine SQL-ähnliche Abfragesprache. Sie stellt ein Superset von SQL-Kommandos zur Verfügung und ist daher in weiten Teilen kompatibel. Die Standardisierungsgremien von OQL und SQL streben für die Zukunft eine vollständige Interoperabilität an. Die genannten Sprachen werden um strukturelle Elemente erweitert, die es ermöglichen, komplexe Softwareapplikationen zu erstellen. Dies geschieht entweder durch eine Einbettung der Datenbanksprache in herkömmliche Programmiersprachen oder eine Erweiterung der Datenbanksprachen um Elemente einer Programmiersprache. Diese Sprachen werden auch als 4GL Sprachen bezeichnet (Kapitel 7).
247
Nutzung von Datenbanksprachen in Anwendungssystemen
6
Daten
Vertiefende Literatur BATINI, C.; CERI, S. ; NAVATHE, S. B.: Conceptual Database Design. Benjamin / Cummings, Redwood City 1992
CLAUSEN, N.: OLAP – Multidimensionale Datenbanken. Addison-Wesley, Bonn 1998
DATE, C. J.: An Introduction to Database Systems. Addison-Wesley, Reading 2003
DOUGLAS, K. B. (Hrsg.): The Object Data Standard: ODMG 3.0. Morgan Kaufmann, San Francisco 2000
ELMASRI, R.; NAVATHE, S. B.: Fundamentals of Database Systems. Addison-Wesley 2003
HANSEN, H. R.; NEUMANN, G.: Wirtschaftsinformatik 1 – Grundlagen und Anwendungen. Lucius&Lucius, Stuttgart 2005
HANSEN, H. R.; Neumann, G.: Wirtschaftsinformatik 2 – Informationstechnik. Lucius&Lucius, Stuttgart 2005
HEINRICH, L. J.; HEINZL, A.; ROITHMAYR, F.: Wirtschaftsinformatik-Lexikon. Oldenbourg, München 2004
HEUER, A.; SAAKE, G.: Datenbanken – Konzepte und Sprachen. MITP, Bonn 2000
LUSTI, M.: Dateien und Datenbanken – Eine anwendungsorientierte Einführung. Springer, Berlin 2003
MEIER, A.: Relationale Datenbanken – Eine Einführung für die Praxis. Springer, Heidelberg 2000
STAHLKNECHT, P.; HASENKAMP, U.: Einführung in die Wirtschaftsinformatik. Springer, Berlin 2005
STONEBRAKER, M.; MOORE, D.: Objektrelationale Datenbanken. Carl Hauser Verlag, München 1999
248
Datenbanksprachen
Kapitel 7 Programmierung
249
6.5
Programmierung und Sprachen
7
7.1
Programmierung
7.1 Programmierung und Sprachen Die menschliche Tätigkeit der Kommunikation mit dem Computer hat sich historisch über zahlreiche Etappen entwickelt. Die ersten Computer wurden dadurch programmiert, dass sie „verdrahtet“ wurden. Die Programmierung durch einen Programmierer erfolgte mittels einer Folge von Schaltereinstellungen (z. B. Stöpseln bei Tabelliermaschinen), die die Verdrahtungswege im Computer so verbanden, dass entsprechende Berechnungen zur Lösung einer Anwendungsaufgabe erfolgen konnten. Als John von Neumann in den 40er Jahren erkannte, dass die Anweisungen für die Aktivierung und Arbeitsweise der Zentraleinheit in Form von Daten zu speichern sind, war die Idee der symbolischen Beschreibung von Anweisungen und Speicherstellen und damit die Idee einer Programmiersprache geboren.
Anfang der Programmiersprachen
Das Ziel der Programmierung (programming) ist die Erarbeitung von Programmen, mit denen eine Rechenmaschine automatisch gesteuert werden kann. Die programmgesteuerte Rechenmaschine heißt Computer. Unter einem Programm (program) versteht man alle Vereinbarungen und Anweisungen zur Lösung einer Aufgabe, die in einer maschinenverständlichen Form vorliegen. Die Gesamtheit der Programme wird als Software bezeichnet. Mit Hilfe der Software ist der Computer in der Lage, Anwendungsaufgaben (Anwendungssoftware) sowie systembedingte Aufgaben (Systemsoftware) zu lösen.
Entwicklung von Programmen zur automatischen Steuerung von Rechenmaschinen
Das vorliegende Kapitel verwendet den Begriff Programmierung im engeren Sinne, und zwar in der Bedeutung der Überführung (Codierung) einer logischen Problemlösung in die Notation einer Programmiersprache, eingebettet in die notwendigen direkt vor- und nachgelagerten Aktivitäten:
logische Problemlösung Codierung Programmtest Programmdokumentation. Dagegen orientiert die Programmierung im weiteren Sinne auf die weiter vorgelagerten Aktivitäten zur Programmentwicklung und ist Gegenstand der Softwareentwicklung (Kapitel 4).
251
7
Programmierung
logische Problemlösung
Eine logische Problemlösung (logisches Modell) ist das Ergebnis des Programmentwurfs (program design), dem Vorgang der Erarbeitung einer generellen Programmkonzeption. Hier gibt es verschiedene Entwurfstechniken. So kann zum Beispiel die logische Problemlösung einer Anwendungsaufgabe in Form eines Struktogramms (Abschnitt 7.4) vorliegen.
Informationen zur Umsetzung in konkrete Programmiersprache
Aus der logischen Problemlösung sollte eine Programmiervorgabe (programming specification) abgeleitet werden, die alle Informationen zur Umsetzung der Problemlösung in eine konkrete Programmiersprache dokumentiert. Die Programmiervorgabe stellt eine wichtige Arbeitsvoraussetzung für den Programmierer dar.
Programmierwerkzeuge
Weit verbreitet für die Programmierung ist die Arbeit mit Werkzeugen (tools). Dabei handelt es sich um vorgefertigte Programme oder Programmsysteme, wie Editoren, Modellierungswerkzeuge usw., die die Arbeit der Programmierer erleichtern. Die durch Werkzeuge unterstützte Programmentwicklung auf Basis der Programmiervorgabe wird auch Programmableitung (program derivation) genannt. Die Nutzung von Werkzeugen besitzt eine große wirtschaftliche Bedeutung, da auf diese Weise der Zeitaufwand zur Erstellung der Programme wesentlich verkürzt wird. Bevor auf die Programmiersprachen näher eingegangen wird, werden noch einige relevante Erläuterungen im Kontext der Begriffe Programm, Programmierung und Programmierer gegeben.
Berücksichtigung der ComputerArchitektur
Hinsichtlich der Berücksichtigung spezieller Computer-Architekturen (z. B. Einsatz von Parallelrechnern) kann beispielsweise ein Programm sequentiell oder verteilt sein. Diese Eigenschaften nennt man Programmtyp (program type). Bei einem sequentiellen Programm werden die Anweisungen von einem Prozessor zeitlich nacheinander, beim verteilten Programm dagegen von mehreren Prozessoren parallel ausgeführt. Der Programmtyp ist schon beim Programmentwurf zu planen, zum Beispiel welche Programmteile parallel abarbeitbar sind. Dieser Aspekt hängt allgemein mit der Modularisierung (modularization) zusammen, d. h. der Zerlegung eines Programms (Systems) in geeignete Module (Teilsysteme). Der Begriff Modul (module) wird in der Programmierung als logische Zusammenfassung von Daten und Algorithmen definiert, wobei die Module drei entscheidende Bedingungen erfüllen müssen:
ProgrammModulEigenschaften
1. Jedes Modul hat eine von außen sichtbare Modulschnittstelle (module interface) und eine unsichtbare Modulimplementation. 2. Der Exportteil in der Modulschnittstelle definiert die Dienste, die durch andere Module verwendbar sind. Der Importteil in der Modulschnittstelle definiert die Anforderungen, die für die Arbeit des Moduls erforderlich sind.
252
Programmierung und Sprachen
7.1
3. Die Dienste des Exportteils sind Ergebnis der Abarbeitung der Modulimplementation. Ziel der auf diesen Modulprinzipien aufbauenden modularen Programmierung (modular programming) ist die Reduzierung der Komplexität der Programme zur Senkung von Entwicklungs-, Implementierungs- und Wartungskosten. Neben einer zusätzlichen positiven Wirkung auf die Zuverlässigkeit und Fehlerfreiheit der modular aufgebauten Programme müssen aber auch Nachteile hinsichtlich längerer Laufzeiten und erhöhtem Speicherplatzbedarf genannt werden.
Reduzierung der Programmkomplexität
Ein Programmierer entwickelt aus der Programmiervorgabe das Programm und übernimmt den Programmtest sowie die Programmwartung. Je nach Aufgabenbereich unterscheidet man
Programmierer
Anwendungsprogrammierer für die Erstellung von Anwendungssoftware und
Systemprogrammierer für die Erstellung von Systemsoftware. Unter dem Programmierverhalten (programming behavior) versteht man alle Verhaltensweisen des Programmierers bei der Programmierung, wie das Eindringen in die zu lösende Aufgabe, Professionalität im Umgang mit der Programmiersprache, Kreativität beim Testen, die Behandlung von Programmfehlern durch Programmänderungen usw. Hat man früher vielleicht den Erfolg eines Programmierers an der Anzahl der Programmzeilen bzw. Programmanweisungen gemessen, so werden heute die Konsequenzen des Programmierverhaltens mit der Übersetzungs-, Test- und Änderungsrate ermittelt.
Verhaltensweisen des Programmierers
Die Übersetzungsrate (compilation rate) CR ist eine Messgröße zur Erfassung der Produktivität beim Programmieren und definiert sich durch
Produktivität beim Programmieren
CR =
Anzahl der Übersetzungsläufe endgültige Programmlänge
Die Testrate (testing rate) TR ist eine Messgröße zur Erfassung der Produktivität beim Testen und definiert sich durch
TR =
Anzahl der Testläufe endgültige Programmlänge
Die Änderungsrate (rate of change) RC ist eine Messgröße für die Konzentration und Sorgfalt des Programmierers und definiert sich durch
RC =
Produktivität beim Testen
Anzahl der Programmänderungen endgültige Programmlänge
253
Häufigkeit von Programmänderungen
7
Programmierung
Es werden nun die Programmiersprachen als wichtigste Hilfsmittel des Programmierers betrachtet. künstliche Sprache zum Formulieren von Computerprogrammen Worte und Grammatik Bedeutung
Eine Programmiersprache (programming language) ist im Gegensatz zu den natürlichen Sprachen (wie Deutsch, Englisch, Russisch usw.) eine künstliche Sprache zum Formulieren von Computerprogrammen. Damit der Computer eine derartige künstliche Sprache „verstehen“ kann, ist es erforderlich, dass ihre Syntax und Semantik eindeutig definiert sind. Die Begriffe Syntax und Semantik werden wie folgt erklärt:
Syntax (syntax) Aus einer definierten Menge von Wörtern können nach den Regeln einer Grammatik die formal richtigen Sätze (Programme) gebildet werden.
Semantik (semantics) Sie ordnet den Sätzen einer Sprache ihre eindeutige Bedeutung zu. Die Erscheinungsformen von Programmiersprachen sind
Quellsprache (source language) und Zielsprache (target language), synonym Objektsprache (object language). Überführung der Quellsprache in Zielsprache
Die Quellsprachen müssen in der Regel durch ein Übersetzungstool (Assembler, Compiler, Interpreter) in eine Objektsprache (z. B. Maschinensprache) überführt werden. Bezüglich der in einer Programmiersprache abgefassten Programme spricht man dann analog von Quellprogrammen (Quellcode, Sourcecode) und Objektprogrammen (Objektcode).
Einteilung der Programmiersprachen nach Hardware-Ferne
Entsprechend dem Grad der Berücksichtigung der Hardware eines Computers bei der Programmierung kann nach dem Kriterium der zunehmenden „Hardware-Ferne“ folgende (grobe) Einteilung der Programmiersprachen vorgenommen werden, die in der Literatur jedoch nicht einheitlich dargestellt wird:
Maschinensprachen, maschinenorientierte Programmiersprachen und höhere Programmiersprachen, die sich nochmals in generelle und spezielle unterteilen lassen hardwareabhängige Programmiersprachen
Eine Maschinensprache (machine language) ist direkt in der Hardware eines bestimmten Computers implementiert und enthält nur Befehle (Maschinenbefehle), die in Binär- oder Dezimalziffern codiert sind (Maschinencode). Die Maschinensprachen stellen die semantisch unterste Ebene der Programmiersprachen dar. Sie können ohne Übersetzer abgearbeitet werden.
254
Programmierung und Sprachen
7.1
Eine maschinenorientierte Programmiersprache (machine-oriented programming language) enthält in der Struktur ähnliche Befehle wie Maschinensprachen. Für die Befehle (und Daten) werden aber symbolische Namen verwendet (z. B. SUB für die Subtraktion zweier Zahlen). In der historischen Entwicklung wurde für die maschinenorientierten Programmiersprachen auch der Begriff Assemblersprachen (Befehle als mnemotechnische Abkürzungen) geprägt. Im engeren Sinn versteht man heute unter einem Assembler, auch Assemblierer, ein Übersetzungsprogramm, dass ein in maschinenorientierter Programmiersprache geschriebenes Quellprogramm in die Maschinensprache des Objektprogramms überführt.
hardwarenah, aber symbolische Namen für Befehle und Daten
Die Maschinensprachen und maschinenorientierten Programmiersprachen haben bei allen Nachteilen hinsichtlich der starken Hardware-Nähe und des geringen Komforts den Vorteil, in Bezug auf die Einsparung von Speicherplatz und verkürzten Programmlaufzeiten optimale Programme zu ermöglichen. Ihr Einsatzgebiet liegt deshalb auch heute noch vorrangig bei zeitkritischen Programmbausteinen.
schnelle Abarbeitung maschinennaher Programme
Eine höhere Programmiersprache (highlevel programming language) ist maschinenunabhängig aufgrund einer abstrakten Darstellung aller Vereinbarungen und Anweisungen. Der Funktionsumfang ist gegenüber den maschinenorientierten Programmiersprachen beträchtlich erweitert. Sie sind leichter erlernbar und erlauben verkürzte Entwicklungszeiten für die Programme, insbesondere durch die Reduzierung des Änderungsaufwandes. Die in einer höheren Programmiersprache geschriebenen Quellprogramme müssen mit Hilfe eines Übersetzers (compiler) oder Interpretierers (interpreter) in ausführbare Maschinenprogramme (Objektprogramme) auf einem konkreten Computer übersetzt werden. Damit ist die Portabilität (Übertragbarkeit) der Quellprogramme auf verschiedene Computertypen gewährleistet und nur von den zur Verfügung stehenden Compilern und Interpretern abhängig. Bei der Übersetzung (compilation) bzw. Interpretation (interpretation) wird eine Syntaxprüfung des Quellprogramms vorgenommen.
Compiler übersetzen das Quellprogramm einmal vollständig in ein Maschinenprogramm. Zur Abarbeitung wird nur noch das Maschinenprogramm benutzt.
Interpreter übersetzen das Quellprogramm jedes Mal während der Abarbeitung Schritt für Schritt. Die Programmlaufzeiten sind deshalb wesentlich höher als bei compilerübersetzten Programmen. Die Nachteile der höheren Programmiersprachen liegen in längeren Programmlaufzeiten und fehlenden Möglichkeiten, Hardwarebesonderheiten auszunutzen.
255
hardwareunabhängige Programmiersprachen
Übersetzertypen Syntaxprüfung
7
Programmierung
Unterteilung der höheren Programmiersprachen
Die höheren Programmiersprachen kann man noch unterteilen in generelle und spezielle höhere Programmiersprachen. Typische generelle höhere Programmiersprachen sind ALGOL, FORTRAN, COBOL, PASCAL und C. Spezielle höhere Programmiersprachen (problemorientierte Programmiersprachen) sind auf spezielle Anwendungsgebiete (Grafikdarstellungen, Textverarbeitung, Planungsprobleme, Simulation usw.) ausgerichtet.
Einteilung der Programmiersprachen nach Programmierparadigma
Neben dem Kriterium „Hardware-Ferne“ können die Programmiersprachen außerdem nach dem zugrunde liegenden Programmierparadigma (Programmiersprachtyp) unterschieden werden:
prozedurale Programmierung/Programmiersprache nicht-prozedurale Programmierung/Programmiersprache, die wiederum in funktionale, logische und objektorientierte unterteilt werden kann Die prozedurale Programmierung (procedural programming), synonym algorithmische bzw. imperative Programmierung, orientiert sich am Johnvon-Neumann-Prinzip und zerlegt eine Aufgabe in eine Folge von Teilschritten (Algorithmus), beschreibt also das „Wie“ der Aufgabenlösung. Die Schrittfolge wird in den Vereinbarungen und Anweisungen einer entsprechenden prozeduralen Programmiersprache (z. B. ALGOL, FORTRAN, COBOL, PASCAL, C) formuliert. Die nicht-prozedurale Programmierung (non-procedural programming), synonym deklarative bzw. prädikative Programmierung, formuliert dagegen keinen Algorithmus zur Aufgabenlösung, sondern beschreibt das „Was“ der Aufgabenstellung. Eine vorliegende Aufgabenstellung wird hierbei durch geeignete Konstrukte einer entsprechenden nicht-prozeduralen Programmiersprache formuliert. Bei der funktionalen Programmierung sind derartige Konstrukte Listen und Funktionen, wobei aus gegebenen Funktionen neue Funktionen mit Hilfe von Funktionalen generiert werden (Anwendung der mathematischen Theorie rekursiver Funktionen). Die Programmiersprache LISP ist ein Vertreter der entsprechenden funktionalen Programmiersprachen. Dagegen sind bei der logischen Programmierung die Konstrukte Fakten, Klauseln und Inferenzregeln. Die entsprechenden logischen Programmiersprachen basieren auf der mathematischen Logik. Ein typisches Beispiel ist die logische Programmiersprache PROLOG, die auf dem Prädikatenkalkül 1. Stufe aufbaut.
Zusammenfassung von Komponenten
Die objektorientierte Programmierung (objectoriented programming) befasst sich vorrangig mit der Organisation, Gruppierung und Bündelung von Daten und Funktionen. Die inneren Abläufe einer Funktion treten hierbei in den Hintergrund. Damit zielt sie auf eine effiziente Bewältigung der
256
Programmierung und Sprachen
7.1
zunehmenden Komplexität der in der Praxis vorliegenden Programmieraufgaben. So steigt in den Softwareprojekten sowohl die Anzahl der Komponenten (lineare Komplexität) als auch die Anzahl der Verknüpfungen der Komponenten untereinander (exponentielle Komplexität). Im Folgenden wird auf einige wichtige Begriffe der objektorientierten Programmierung näher eingegangen. Die prozedurale Programmierung trennt die Daten von den darauf zugreifenden Prozeduren. In der objektorientierten Programmierung werden sie dagegen als eine Einheit zu Objekten (objects) zusammengefasst (Prinzip der Datenkapselung (data encapsulation)):
Vereinigung von Daten und Prozeduren zu Objekten
Objekt = Daten (Attribute) + Prozeduren (Methoden) Die Datenkapselung erlaubt den Zugriff auf die Daten eines Objektes nur durch dieses Objekt selbst auf der Basis seiner eigenen Methoden. Durch die Verbergung (information hiding) des „Wie“ einer internen Realisierung der Methoden und Daten eines Objekts – ein Benutzer weiß nur „Was“ das Objekt für Methoden besitzt – erreicht man den Vorteil bei der Programmierung, dass Methodenimplementierungen später geändert werden können ohne Auswirkungen auf andere Objekte. Datenkapselung und Information Hiding garantieren so eine leichte Änderbarkeit und Erweiterung von Programmen.
Verbergung interner Prozeduren und Daten
Die Objekte einer gleichen Struktur und Semantik fasst man zu Klassen (classes) zusammen. Die oben erwähnte Gruppierung und Bündelung von Daten und Funktionen zur Reduzierung der Komplexität schlägt sich somit in der Klassen- und Objektbildung nieder. Beispiele für Klassen sind vor allem wieder verwendbare Komponenten, also mathematische, geometrische oder Stringverarbeitungskomponenten, alle Zahlen, Mengen oder Ausgabe-Management-Komponenten.
Objekte gleicher Struktur und Semantik
Zwischen den Klassen kann eine hierarchische Beziehung durch die Vererbung (inheritance) aufgebaut werden. In einer derartigen Hierarchie erbt eine Unterklasse alle Eigenschaften, wie die Namen der Datenstrukturen und die Implementierung der Methoden, der zugehörigen Oberklasse. Diese einfache Vererbung in einer hierarchischen Anordnung der Klassen führt zu einer Baumstruktur (Abbildung 7-1). Diese kann zur mehrfachen Vererbung verallgemeinert werden, bei der eine Unterklasse von mehreren Oberklassen erben kann. Die Struktur der Klassen entspricht dann einem nichtzyklischen gerichteten Graphen (Abbildung 7-2).
Wiederverwendung von Klassen
Durch das Vererbungskonzept wird eine Vervielfachung von Programmcode für gleiche Anwendungen vermieden und gleichzeitig eine Mehrfachverwendung von allgemeinen Programmteilen unterstützt.
257
7
Programmierung
Abbildung 7-1
Klassen in Baumstruktur – einfache Vererbung
Abbildung 7-2
Klassen in der Struktur eines nichtzyklischen gerichteten Graphen – mehrfache Vererbung
Kommunikation der Objekte
Über einen Austausch von Botschaften (Nachrichten, messages) können die Objekte untereinander kommunizieren. Diese Botschaften sind vergleichbar mit den Prozeduraufrufen konventioneller Programmiersprachen. Ihre Flexibilität liegt aber darin begründet, dass ihre Bindung an ein Objekt erst zur Laufzeit erfolgt. Man spricht in diesem Zusammenhang von virtuellen Methoden, für sie kann zur Übersetzungszeit noch nicht entschieden werden, auf welches Objekt die Methode anzuwenden ist, und dem späten Binden (late binding), einem Vorgang zur Bestimmung der aktuellen Adresse einer virtuellen Methode zur Programmlaufzeit. Spezielle virtuelle Methoden, die abstrakten Methoden, unterstützen vor allem das Rapid Prototyping, indem ihre Implementierung in Oberklassen nur vorbereitet wird; ihre vollständige Implementierung geschieht später in einer spezialisierten Unterklasse.
258
Sprachgenerationen
7.2
Im Rahmen der virtuellen Methoden versteht man unter Polymorphismus (polymorphism), dass ein und dieselbe Botschaft an unterschiedliche Objekte unterschiedliche Aktionen auslöst. Durch Polymorphismus wird somit die Anzahl von Botschaften reduziert. Mit der so genannten visuellen Programmierung (visual programming) deuten sich Tendenzen eines weiteren Programmiersprachenparadigmas an. Im engeren Sinne bedeutet visuelle Programmierung
visuelle Programmierung
die Möglichkeit einer umkehrbar eindeutigen Zuordnung von Textausdrücken zu grafischen Objekten (visuell transformierte Programmiersprache) bzw. in einer höheren Form
die Möglichkeit, grafische Objekte ohne textliche Darstellungsform für Sprachkonstrukte zu verwenden (natürlich visuelle Programmiersprache). Im weiteren Sinne versteht man unter visueller Programmierung alle geeigneten Visualisierungsformen zur grafischen Darstellung von Daten, Datenstrukturen, Algorithmen und Code eines Programms. Betrachtet man die praktische Umsetzung der erläuterten Programmierparadigmen, so ist generell festzustellen, dass alle vorhandenen nichtprozeduralen Programmiersprachen auch immer über einen bestimmten prozeduralen Sprachanteil verfügen (Hybridsprachen).
Hybridsprachen
7.2 Sprachgenerationen Eine Gruppierung und Ordnung von Programmiersprachen nach charakteristischen Merkmalen führt zu den (zum Teil umstrittenen) Sprachgenerationen (programming language generations). Eine aufsteigende Nummerierung der Generationen deutet auch gleichzeitig auf den zeitlichen (Erst)Entwicklungsprozess der in den entsprechenden Generationen angesiedelten Programmiersprachen. Hinsichtlich der Weiterentwicklung der Programmiersprachen ist dieser Aspekt aber nicht mehr bei den höheren Generationen gegeben. Hier laufen zeitlich parallel Entwicklungsarbeiten an Sprachen unterschiedlicher Generationen. Die historische Entwicklung der Programmiersprachen lässt sich gegenwärtig in fünf Generationen nachzeichnen, wobei in Analogie zu menschlichen Generationen ein gleichzeitiges Auftreten der verschiedenen Generationen durchaus die Regel ist. Überlagert man die Merkmale „Hardware-Ferne“ und „Programmierparadigma“, so bilden die prozeduralen Programmiersprachen die ersten drei Generationen:
259
Ordnung von Programmiersprachen
7
Programmierung
1. Generation – Maschinensprachen, 2. Generation – maschinenorientierte Programmiersprachen, 3. Generation – höhere Programmiersprachen (generelle und spezielle). Die nicht-prozeduralen Programmiersprachen (funktional, logisch und objektorientiert) werden der 5. Generation zugeordnet. Der Einsatz der funktionalen und logischen Programmiersprachen liegt vor allem im Bereich der Künstlichen Intelligenz. Spezialsprachen für Datenbankanwendungen
Welche Programmiersprachen werden nun in die 4. Generation einzuordnen sein? Die so genannten 4GL-Sprachen (fourth generation languages) sollten einen Beitrag zur Bewältigung der „Softwarekrise“ darstellen. Die mit der Verbreitung der Computertechnologie einhergehenden enorm anwachsenden Anforderungen des betrieblichen Managements an die Unterstützung ihrer Führungskräfte durch Softwaresysteme bewirkten einen Druck auf die Computerbranche, sich besonders den datenintensiven Problemlösungen zuzuwenden. Dieser Problemstau ließ sich mit den konventionellen Programmiersprachen der 3. Generation nicht bewältigen. So entwickelten sich die 4GL-Sprachen aus Kommandosprachen für Datenbanksysteme heraus zu Spezialsprachen für Datenbankanwendungen, eingebettet in einer komfortabel mit Entwicklungswerkzeugen (Editoren, Debugger, Dokumentendienste usw.) ausgestatteten Programmierumgebung. Einen typischen Vertreter der 4GL-Sprachen auf Basis relationaler Datenbanksysteme stellt die zur Norm entwickelte Datenbankabfragesprache SQL (Structured Query Language) dar. Mit den deskriptiven Konzepten für die Datenbanksprachen sind die 4GL-Sprachen auch den nicht-prozeduralen Sprachen zuzuordnen. Für eine Anwendung ist es nicht mehr interessant, wie man die Datensätze findet, sondern welche Datensätze benötigt werden. Die 4GL-Sprachen lassen sich durch weitere Merkmale charakterisieren:
Merkmale von 4GL-Sprachen
Die Gestaltung des Bildschirmdialogs wird durch Sprachelemente unterstützt.
Existenz interaktiver Entwicklungsumgebungen für die interaktive Programmierung (interactive programming). Bei dieser Form der Programmierung erfolgt die Programmentwicklung, durch Dialogsprachen unterstützt, im Dialogbetrieb. Eine Dialogsprache (dialog language) ist eine prozedurale Programmiersprache für die Ablaufsteuerung und Programmierung in einer interaktiven Umgebung. Sie enthält Kommandos (z. B. einfügen Text XY), eventuell deren Zusammenfassung zu Makros und einen Editor. BASIC ist beispielsweise eine Dialogsprache.
Existenz von Konstrukten zur vereinfachten Programmierung von Standardanwendungen.
260
Programmaufbau
7.3
Integration eines Datenkatalogs (Data Dictionary) zur Dokumentation von Daten und Datenstrukturen und zur Beschreibung der Datenverwendung. Die Abbildung 7-3 stellt die gegenwärtig fünf Generationen der Programmiersprachen dar.
Abbildung 7-3
Generationenhaus der Programmiersprachen
7.3 Programmaufbau Ein Programm besteht im Allgemeinen aus einem Vereinbarungs- und einem Anweisungsteil. Im Vereinbarungsteil werden die im Programm zu verwendenden Daten und Unterprogramme festgelegt. Der Anweisungsteil enthält die Ablaufschritte des Programms, die Anweisungen. Die Anweisungen lassen sich drei Grundkonstrukten zuordnen:
Sequenz Die Programmschritte werden genau einmal abgearbeitet (z. B. Zuweisung).
261
Vereinbarungsteil und Anweisungsteil Grundkonstrukte von Anweisungen
7
Programmierung
Iteration Die Programmschritte werden mehrmals abgearbeitet (Schleife).
Selektion Nur ein Teil der Programmschritte wird abgearbeitet (Verzweigung). Blöcke
Durch die Bildung von Blöcken können diese Grundkonstrukte miteinander kombiniert oder verschachtelt werden. In einigen Programmiersprachen erfolgt die Vereinbarung der Daten und Unterprogramme innerhalb des Anweisungsteils.
Vereinbarungsteil Konstanten Konstanten sind Daten eines Programms, die sich während der Abarbeitung nicht verändern.
Variablen Variablen sind Daten eines Programms, deren Werte sich während des Ablaufs verändern. Bezeichner
Konstanten und Variablen besitzen einen Namen (Bezeichner). Dieser beginnt mit einem Buchstaben und kann eine unterschiedliche Länge haben.
Datentypen Jeder Variablen muss ein Typ zugeordnet werden, der Datentyp. Der Datentyp legt fest, welche Werte eine Variable annehmen kann. In der Tabelle 7-1 werden die wichtigsten Datentypen vorgestellt. Sie können je nach Programmiersprache abweichende Bezeichnungen haben. Tabelle 7-1
Datentypen Datentyp
Beschreibung/Wertebereich
Boolean
nur zwei zulässige Werte: True (Wahr) Entscheidungen und False (Falsch)
Integer (und verschiedene Untertypen)
ganze Zahlen, z. B.: 12859; 5; 620
Real/Float (und verschiedene Untertypen)
reelle Zahlen (Dezimalzahlen, Fließkommazahlen), z. B.: 29.184; 0.37; 4; 3E+18
Der Bereich der verwendbaren Zahlen ist vom speziellen Datentyp abhängig.
Die Genauigkeit (Stellenzahl) ist vom speziellen Datentyp abhängig.
262
Beispiele für die Anwendung
Berechnungen, Zähler
Berechnungen
Programmaufbau
Char
einzelne Zeichen, z. B.: ‘A’; ‘8’; ‘+’; ‘h’
Tastaturabfragen, Textdarstellungen, Textoperationen
String
Folge von Zeichen (Zeichen kette), z. B.: ‘Otto’; ‘Der Kunde Nr. 3 heißt Meier.’
Textdarstellungen
Array
vereint mehrere Variablen des gleichen Datentyps, z. B.: (2; 3; 4; 5)
Matrizen oder Folgen von Werten
Record/Struct
vereint mehrere Variablen unterschiedlicher Datentypen, z. B.: (Schmidt; Dieter; Schnellstraße; 53; 12 345; Musterstadt)
Darstellung von Objekten der realen Welt
7.3
Anweisungsteil Die Anweisungen werden aus Programmkonstrukten gebildet. Im Folgenden werden die wichtigsten Programmkonstrukte vorgestellt. Für spezielle Aufgaben existieren in den einzelnen Programmiersprachen weitere Befehle. Die Darstellung erfolgt in einer einfachen Notation, d. h. sie entsprechen in ihrer Syntax nicht zwingend einer Programmiersprache. Zuweisungen Zuweisungen sind Programmschritte, die den Variablen Werte zuordnen. Beispiel: a: = 5 Nach diesem Programmschritt hat die Variable a den Wert 5 Operatoren Operatoren verknüpfen Werte, Konstanten und Variablen. In der Tabelle 7-2 sind die wichtigsten Operatoren dargestellt. Unterprogramme Unterprogramme sind Teile eines Programms, die in sich abgeschlossen sind und eine bestimmte Aufgabe lösen. Zum Lösen dieser Aufgaben können Werte, die Parameter, an die Unterprogramme übergeben werden. Unterprogramme bestehen wie das Hauptprogramm aus Vereinbarungs- und Anweisungsteil. Funktionen und Prozeduren sind bestimmte Arten von Unterprogrammen.
263
abgeschlossene Teile eines Programms
7 Tabelle 7-2
Programmierung
Operatoren Operatoren
Beschreibung
Beispiele für die Anwendung (in Klammern das Ergebnis der Operation)
führen Berechnungen durch:
a:=11; b:=4
+
Addition
(=
-
Subtraktion
a+b 15)
Multiplikation
a-b
(= 7)
* /
Division
arithmetische Operationen
ganzzahlige Division:
a*b
(= 44)
a/b
(= 2.75)
11 geteilt durch 4 div
ganzzahliger Wert einer Division
mod
Modulo (Rest einer Division)
ist 2 Rest 3 a div b
(= 2)
a mod b (= 3) Operationen mit booleschen
a: = true;
Operationen
Werten:
b: = false
not
Negation
not a
(= false)
and
Und
a and b
(= false)
or
Oder
a or b
(= true)
xor
Entweder Oder
a xor b
(= true)
vergleichen Werte und liefern
a: = 11; b: = 4
boolesche
relationale Operatoren
booleschen Ausdruck
=
gleich
a=b
(= false)
<>
ungleich
a <> b
(= true)
>
größer als
a
(= true)
<
kleiner als
a>b
(= false)
>=
größer gleich
a >= b
(= true)
<=
kleiner gleich
a <= b
(= false)
Verbindung zweier Zeichenketten
‘dunkel’ + ‘grün’
String-Operator
(= ‘dunkel-
+ grün’)
264
Programmaufbau
7.3
Funktionen Funktionen sind Unterprogramme, die einen Rückgabewert besitzen. Der Rückgabewert ist das Ergebnis der Funktion. Funktionen sind entweder bereits in der Programmiersprache integriert (z. B. für Berechnungen, die Arbeit mit Zeichenketten und für Systeminformationen wie die Uhrzeit) oder können vom Programmierer selbst erstellt werden. Die Rundungsfunktion round(7.642) liefert beispielsweise von der Zahl 7,642 (dem Parameter dieser Funktion) den gerundeten Wert 8 als Rückgabewert. Funktionen können direkt in Anweisungen verwendet werden. Beispiel: 2 + round(7.642) (= 10)
Unterprogramm mit Rückgabewert
Prozeduren Prozeduren lösen Teilprobleme, liefern allerdings keinen Rückgabewert, wie die Funktionen. In den Programmiersprachen ist bereits eine Vielzahl von Prozeduren enthalten (z. B. für Ein- und Ausgabe, Änderung von Datum und Uhrzeit und Erstellung von Grafiken). Prozeduren können auch vom Programmierer erstellt werden. Die Prozedur randomize initialisiert beispielsweise einen Zufallszahlengenerator.
Unterprogramm ohne Rückgabewert
Schleifen Neben der standardmäßigen sequentiellen Abarbeitung von Anweisungen eines Programms können auch Wiederholungen (Schleifen) eingebaut werden. Dabei können die Anweisungen innerhalb der Schleife mehrmals abgearbeitet werden. Es gibt verschiedene Arten von Schleifen:
FOR-Schleife Bei der FOR-Schleife wird eine Variable verwendet, die so genannte Laufvariable. Sie wird zu Beginn auf einen Anfangswert gesetzt. Nach jedem Durchlauf der Schleife wird die Variable um einen festen Wert (Schrittweite) erhöht. Die Schleife wird so lange durchlaufen, bis die Laufvariable einen vorbestimmten Endwert erreicht.
FOR Laufvariable := Anfangswert TO Endwert STEP Schrittweite DO BEGIN ... Anweisungen; ... END;
Beispiel: FOR i:=1 TO 5 STEP 2 DO 265
bestimmte Anzahl von Schleifendurchläufen
7
Programmierung
BEGIN x:=1+i; END; Erklärung: Die Variable i erhält den Wert 1. Nach dem ersten Durchlauf ist x demnach gleich 2 (1 + 1 = 2). Am Ende der Schleife wird i um die Schrittweite 2 erhöht. Die Variable i hat also jetzt den Wert 3 und ist damit kleiner als der Endwert 5. Die Schleife wird also fortgesetzt. Nach dem zweiten Durchlauf ist x gleich 4 (1 + 3 = 4). Am Ende der Schleife wird i wieder um die Schrittweite 2 erhöht. Die Variable i hat also jetzt den Wert 5. Damit ist der Endwert 5 erreicht. Die Schleife wird nur noch einmal durchlaufen. Nach dem dritten Durchlauf ist x gleich 6 (1 + 5 = 6). Die Schleife ist beendet.
REPEAT-UNTIL-Schleife Die REPEAT-UNTIL-Schleife wird solange durchlaufen, bis die Abbruchbedingung erfüllt ist. Die Anweisungen in der Schleife müssen Einfluss auf die Werte der Abbruchbedingung haben.
Schleifendurchlauf bis Abbruchbedingung erfüllt
REPEAT ... Anweisungen; ... UNTIL Abbruchbedingung;
Beispiel: x:=0; REPEAT x:=x+3; UNTIL x > 5; Erklärung: Die Variable x hat zu Beginn den Wert 0. In der REPEAT-UNTIL-Schleife wird sie um 3 erhöht (xneu : = xalt + 3) und hat damit den Wert 3. Am Ende der Schleife wird die Abbruchbedingung geprüft. Die Schleife wird nicht abgebrochen, da x kleiner als 5 ist. Im nächsten Durchlauf wird zu x wieder 3 addiert Æ x hat jetzt den Wert 6 (3 + 3 = 6). Die Abbruchbedingung ist nun erfüllt, da x größer als 5 ist. Die Schleife ist beendet.
266
Programmaufbau
7.3
WHILE-Schleife Die WHILE-Schleife wird solange durchlaufen, wie die Schleifenbedingung erfüllt ist. Die Anweisungen in der Schleife müssen Einfluss auf die Werte der Schleifenbedingung haben.
WHILE Schleifenbedingung DO BEGIN ... Anweisungen; ... END;
Beispiel: x:=0; WHILE x < 2 DO BEGIN x:=x+1; END;
Erklärung: Die Variable x hat zu Beginn den Wert 0. Es wird die Schleifenbedingung geprüft Æ x ist kleiner als 2. Deshalb erfolgt eine Fortsetzung in der Abarbeitung der Schleife. In der Schleife wird x um 1 erhöht und hat damit den Wert 1 (0 +1=1). Ein neuer Durchlauf beginnt mit der Prüfung der Schleifenbedingung Æ x ist immer noch kleiner als 2. Die Schleife wird noch einmal durchlaufen und x um 1 erhöht Æ x hat jetzt den Wert 2. Der neue Durchlauf beginnt wieder mit der Prüfung der Schleifenbedingung. Die Bedingung ist jetzt nicht mehr erfüllt, da x gleich 2 und nicht kleiner 2. Die Schleife wird abgebrochen. Verzweigungen Durch das Treffen von Entscheidungen kann sich der Programmablauf verzweigen. Es gibt zwei wichtige Typen von Verzweigungen:
IF-THEN-Verzweigung Wenn eine bestimmte Bedingung erfüllt ist, dann werden festgelegte Anweisungen ausgeführt. Es können außerdem Alternativanweisungen folgen, die bei Nichterfüllung der Bedingung ausgeführt werden.
267
Schleifendurchlauf solange Schleifenbedingung erfüllt
7
Programmierung
IF Bedingung THEN Anweisung(en) ELSE Alternativanweisung(en);
WENN Bedingung erfüllt DANN Anweisung ausführen SONST andere Anweisung
Beispiel: a:=2; b:=4; IF a > b THEN c := ’a ist größer als b’ ELSE c := ’a ist nicht größer als b’; Erklärung: Den Variablen a und b werden die Werte 2 bzw. 4 zugewiesen. In der IFAnweisung wird die Bedingung a > b geprüft Æ a ist nicht größer als b. Deshalb wird nicht die Anweisung nach THEN sondern die nach ELSE ausgeführt Æ c hat also den Wert ‚a ist nicht größer als b’.
CASE-Verzweigung Die CASE-Verzweigung ermöglicht abhängig vom Wert eines Ausdrucks die Ausführung bestimmter Anweisungen. Auch hier können außerdem Alternativanweisungen folgen, die bei Nichterfüllung der Bedingung ausgeführt werden.
CASE Ausdruck OF Wert1: Anweisung(en)1; Wert2: Anweisung(en)2; ... ELSE Alternativanweisung(en); END;
Beispiel: a:=2; CASE a OF 1: b:= ’a hat den Wert 1’; 2: b:= ’a hat den Wert 2’; 3: b:= ’a hat den Wert 3’; ELSE b:= ’a hat nicht den Wert 1,2 oder 3’; END;
268
Programmaufbau
7.3
Erklärung: Die Variable a hat den Wert 2. In der CASE-Anweisung wird nach dem Ausdruck a entschieden. Da a den Wert 2 hat, wird die Anweisung nach 2: ausgeführt Æ b hat also danach den Wert ‚a hat den Wert 2’. Sprünge Die aufeinander folgende Abarbeitung der Anweisungen bzw. Befehle kann durch Sprünge verändert werden. Der Sprung ermöglicht die Fortsetzung der Abarbeitung des Programms an einer beliebigen Stelle (Marke). Durch die Unübersichtlichkeit von Programmen, in denen Sprünge enthalten sind, wird dieses Programmkonstrukt in der modernen Softwareentwicklung nicht mehr verwendet. Jedes Problem lässt sich auch ohne die Verwendung von Sprüngen programmieren.
Fortsetzung der Programmabarbeitung an beliebiger Stelle
GOTO Marke_1; ... Anweisungen; ... Marke_1; In Abbildung 7-4 bis Abbildung 7-7 wird der Programmablauf von Schleifen, Verzweigungen und Sprüngen grafisch dargestellt. Eingabe Eingaben ermöglichen die Beeinflussung der Abarbeitung des Programms durch den Benutzer und sind die Basis für die Verarbeitung von Informationen durch den Computer. Programmiertechnisch werden zwei wesentliche Eingabearten unterschieden:
Eingabe bei ablauforientierten Systemen: Das Programm wird für die Eingabe angehalten und erst fortgesetzt, wenn die Eingabe abgeschlossen ist. Beispiel: READ(a);
Eingabe bei ereignisorientierten Systemen: Das Programm reagiert während des Ablaufs auf eintretende Ereignisse, z. B. auf Eingaben durch die Tastatur oder die Maus. Ausgabe Durch die Ausgabe werden dem Nutzer die Ergebnisse der Informationsverarbeitung präsentiert. Die Ausgabe erfolgt gewöhnlich auf dem Bildschirm oder dem Drucker. Beispiel: WRITE(’Das ist eine Bildschirmausgabe!’);
269
Eingabearten
7 Abbildung 7-4
Sammlungen von Funktionen und Prozeduren
Programmierung
Schleifen I
Bibliotheken Bibliotheken sind Sammlungen von Funktionen und Prozeduren, meist zu einem bestimmten Thema (z. B. Grafik). Mit dem Einbinden der Bibliotheken in die Programme können die enthaltenen Funktionen und Prozeduren genutzt werden. Bibliotheken ermöglichen die einfache Wiederverwendung von Programmcode. Lösungen für häufig auftretende Teilprobleme müssen nicht ständig neu programmiert werden. Die Bibliotheken können außerdem ausgetauscht und somit einer großen Zahl von Programmierern zur Verfügung gestellt werden.
270
Programmaufbau
7.3
Schleifen II
Abbildung 7-5
Verzweigungen
Abbildung 7-6
271
7 Abbildung 7-7
dauerhafte Datenspeicherung in Dateien
Vorgehen bei der Dateiarbeit
Programmierung
Sprung
Dateioperationen Während der Abarbeitung befinden sich Programme und ihre Informationen im Arbeitsspeicher. Dadurch wird ein schneller Zugriff durch den Zentralprozessor, der die Verarbeitung übernimmt, gewährleistet. Alle Informationen im Arbeitsspeicher gehen jedoch verloren, wenn der Computer abgeschaltet wird. Aus diesem Grund ist die Speicherung auf permanenten Speichermedien, z. B. Festplatten, notwendig. Eine häufig verwendete Art der Speicherung ist die Ordnung der Daten in Dateien. Für die Verwendung von Dateien werden in den Programmen Dateioperationen benötigt. Die Arbeit mit Dateien erfolgt in folgenden Schritten: 1. Initialisierung der Datei Es wird eine Verbindung zwischen einer Dateivariablen im Programm und der Datei auf dem Speichermedium hergestellt. Beispiel: ASSIGN(dateivariable, ’c:\test.dat’); 2. Öffnen der Datei Eine bereits vorhandene Datei wird für die Arbeit mit dem Programm vorbereitet bzw. es wird eine neue Datei erzeugt.
272
Vorgehensweise
7.4
Beispiel: RESET(dateivariable); 3. Lesen oder Schreiben von Daten Daten werden aus der Datei gelesen oder in die Datei geschrieben. Beispiel: WRITE(dateivariable, ’Dieser Text wird in die Datei geschrieben’); 4. Schließen der Datei Die Datei wird geschlossen und auf dem Datenträger gespeichert. Beispiel: CLOSE(dateivariable);
7.4 Vorgehensweise Zur Entwicklung von Software ist eine Reihe methodisch geordneter Arbeitsschritte erforderlich. Diese Arbeitsschritte werden im Kapitel 8 detailliert erläutert. In diesem Kapitel zur Programmierung wird nur die Umsetzung der Vorstellungen der Entwickler in eine Programmiersprache und damit in ein korrekt ablaufendes Programm behandelt.
Logische Problemlösung Vor der eigentlichen Codierung mittels einer Programmiersprache erfolgt die logische Problemlösung. In diesem Arbeitsschritt werden der Programmentwurf (die Abfolge der Programmschritte) und die Programmiervorgabe (zusätzliche Informationen zur Umsetzung in eine konkrete Programmiersprache) erzeugt. Dazu existieren verschiedene Darstellungsmöglichkeiten. Die wichtigsten werden im Folgenden dargestellt.
Programmablaufplan (program flowchart) Im Programmablaufplan (PAP) werden die einzelnen Anweisungen des Programms als Symbole (Vierecke, Ovale) beschrieben. Die Symbole sind durch Pfeile miteinander verbunden und zeigen so den Programmablauf. Wegen der schlechten Strukturierungsmöglichkeiten und der Unübersichtlichkeit bei großen Programmen wird der Programmablaufplan heute kaum noch verwendet. Am Beispiel eines Programms, welches die Ergebnisse des kleinen Einmaleins mit der Zahl 5 liefern soll, wird in Abbildung 7-8 ein Programmablaufplan vorgestellt.
273
Programmentwurf und Programmiervorgabe erstellen Darstellungsmöglichkeiten
7 Abbildung 7-8
Programmierung
Beispiel für einen Programmablaufplan
Struktogramm Das Struktogramm ermöglicht in kompakter Form die strukturierte Darstellung des Programmablaufs. Jede einzelne Anweisung bildet einen Block. Die Blöcke sind bei sequentiellem Ablauf untereinander angeordnet. Bei Verzweigungen werden die einzelnen alternativen Abläufe nebeneinander gruppiert. Ein Block kann Unterblöcke enthalten. In Abbildung 7-9 wurde das bereits beim Programmablaufplan verwendete Beispiel in einem Struktogramm dargestellt.
Abbildung 7-9
Beispiel für ein Struktogramm
274
Vorgehensweise
7.4
Pseudocode Eine weitere Möglichkeit der Darstellung des Programmablaufs ist der Pseudocode. Beim Pseudocode wird das Programm in einer Notation aufgezeichnet, die der Syntax von Programmiersprachen sehr nahe kommt. Eine anschließende Umsetzung in eine Programmiersprache wird dadurch erleichtert. Das obige Beispiel lautet im Pseudocode:
BEGIN FOR i:=0 TO 10 DO ergebnis:= 5*x Ausgabe ergebnis ENDFOR END
Codierung Codierung ist die Programmierung im engeren Sinne, d. h. das Schreiben des Programmcodes mittels einer Programmiersprache. Die bisher verwendete Aufgabe wird beispielsweise in die Programmiersprache PASCAL übertragen:
var i:integer; begin for i:=0 to 10 do begin ergebnis:=5*i; writeln(ergebnis); end; end.
Schreiben des Programmcodes mittels einer Programmiersprache
Programmtest Tests dienen der Überprüfung des Programms auf Fehler. Syntaktische Fehler und falsche Verwendung von Programmkonstrukten (z. B. Datentypen oder Variablen) werden durch entsprechende Software (Compiler oder Interpreter, siehe Abschnitt Systemsoftware) bei der Umsetzung von einer Programmiersprache in einen maschinenlesbaren Code oder bei der Abarbeitung des Programms entdeckt. Weitere Hilfsprogramme (z. B. Debugger) ermöglichen die schrittweise Abarbeitung des Programms und die Kontrolle
275
Überprüfung des Programms auf Fehler
7
Programmierung
aller relevanten Daten. Um weitere Fehler zu finden, gibt es verschiedene Teststrategien.
zufällige Eingaben Es werden zufällig Eingaben gemacht und dann das Ergebnis auf Korrektheit geprüft. Problem: Die Fehler im Programm treten nicht gleichverteilt über die Gesamtheit der Eingabedaten auf.
Black-Box-Test (Schwarzer-Kasten-Test) Es werden alle möglichen Eingaben getestet. Die Struktur des Programms bleibt unbeachtet. Problem: Diese Teststrategie ist nur für Programme mit einer kleinen Zahl von Eingabemöglichkeiten geeignet.
Äquivalenztest Die Eingabedaten werden in Gruppen geteilt, die vom Programm in ähnlicher Weise verarbeitet werden. Aus jeder Gruppe werden zufällig Werte ausgewählt. Problem: Die Einteilung der Daten ist schwierig und das Problem der zufälligen Eingaben wird nur abgeschwächt.
Glass-Box-Test (Gläserner-Kasten-Test) Bei der Auswahl der Testeingabedaten werden der Aufbau und der Ablauf des Programms berücksichtigt. Die Daten werden beispielsweise so ausgewählt, dass alle Programmteile durchlaufen werden. Es kann außerdem unbenutzter Programmcode („toter“ Code) entdeckt werden. Bei dieser Strategie kann auch der Programmcode so erweitert werden, dass zusätzliche, für den Test relevante Informationen ausgegeben werden.
Programmdokumentation Erläuterung der Programmbestandteile und Funktionen
Für die gleichzeitige Arbeit mehrerer Entwickler an einem Programm und für die spätere Wartung oder Weiterentwicklung von Programmen ist die Dokumentation unbedingt erforderlich. In der Dokumentation werden die Programmbestandteile und Funktionen erläutert. Programmablaufplan, Struktogramm und Pseudocode sind ein Teil der Dokumentation. Ein weiterer wichtiger Bestandteil sind die Kommentare im Programm. Der Programmierer hat damit die Möglichkeit, jeden Programmschritt zu erläutern. Kommentare erhöhen die Lesbarkeit eines Programms entscheidend. Außerdem gehört zu einer guten Dokumentation ein Benutzerhandbuch (Bedienungsanleitung).
276
Ausgewählte Programmiersprachen
7.5
7.5 Ausgewählte Programmiersprachen Die folgende Auswahl von Programmiersprachen bezieht sich auf Programmiersprachen der dritten, vierten und fünften Generation, wobei Aspekte ihrer Entwicklungsgeschichte und typische Merkmale vorgestellt werden.
COBOL (COmmon Business Oriented Language) Die sehr verbreitete höhere Programmiersprache COBOL ist besonders für Anwendungsaufgaben der kommerziellen Datenverarbeitung geeignet. Die Veröffentlichung der ersten Version COBOL60 erfolgte 1960 durch die Arbeitsgemeinschaft CODASYL (Conference On DAta SYstems Language), die auf Initiative der Regierung der USA gegründet wurde. Das American National Standards Institute (ANSI) normiert, überarbeitet und erweitert periodisch das ANSI-COBOL (COBOL68, COBOL74, COBOL85, COBOL97; die Zahlen geben das Jahr der Erstausgabe der Norm an). Die Norm definiert jeweils einen Basisvorrat an Vereinbarungen und Anweisungen und nach Funktionen getrennte Module. Auf diese Weise ist es möglich, in Abhängigkeit der Leistungsfähigkeit der Computer und der Spezifik der Anwendungsaufgaben Teilmengen (subsets) der Programmiersprache zu bilden. Mit OO-COBOL steht eine objektorientierte Erweiterung zur Verfügung.
betriebswirtschaftliche Anwendungen
Abbildung 7-10
COBOL-Programmteile Jedes COBOL-Programm untergliedert sich in vier Teile (divisions):
Erkennungsteil (identification division) mit Programmnamen, Programmautoren, Versionsdaten u. a.
Maschinenteil (environment division) mit hardwarebezogenen Angaben Datenteil (data division) zur Beschreibung aller benötigten Daten Prozedurteil (procedure division) mit allen Anweisungen. Typische Merkmale von COBOL:
Großer Sprachumfang durch über 200 der englischen Sprache entlehnte reservierte Wörter. Diese und vom Programmierer definierte Wörter bilden die Vereinbarungen und Anweisungen, die zu Sätzen (sentences),
277
Merkmale von COBOL
7
Programmierung
Paragraphen (paragraphs) und Kapiteln (sections) zusammengestellt werden können.
COBOL verfügt über umfangreiche Ein/Ausgabemöglichkeiten und Dateiverknüpfungstechniken.
COBOL-Programme sind leicht lesbar und bieten sehr gute Möglichkeiten zur Programmdokumentation. 1. Nachteilig ist der hohe Schreibaufwand bei der Programmerstellung.
FORTRAN (FORmula TRANslator)
mathematische und technischnaturwissenschaftliche Anwendungen
Das vorrangige Anwendungsfeld dieser höheren Programmiersprache sind mathematische und technischnaturwissenschaftliche Aufgabenstellungen. Ihre Entwicklung begann im Jahre 1954 bei IBM unter der Leitung von J. W. Backus. Auf der Basis von FORTRAN IV erfolgte 1966 eine erste Normung dieser Sprache (Norm-FORTRAN mit der Teilmenge BASIC FORTRAN). Erweiterungen führten zu FORTRAN 77 und FORTRAN 90. Die Verbesserungen beziehen sich z. B. auf die Unterstützung der nichtsequentiellen Einund Ausgabe und der Verarbeitung von Teilfeldern für Anwendungen auf Vektorrechnern. Mit Hilfe von Zeigern (pointer) können komplexe Datenstrukturen definiert werden und Konstrukte zur Modularisierung und Datenkapselung unterstützen die Entwicklung großer Programmsysteme. FORTRAN war lange Zeit die wichtigste Programmiersprache für Hochleistungsrechner. Industrial FORTRAN ist eine Erweiterung von FORTRAN für Anwendungen in der Prozessdatenverarbeitung. Es enthält Prozeduren (Unterprogramme) für die Programmsteuerung, Ein- und Ausgabe der Prozessdaten und Bitverarbeitung.
Merkmale von FORTRAN
Typische Merkmale von FORTRAN:
Ein FORTRAN-Programm gliedert sich im Allgemeinen in mehrere getrennt übersetzbare Programmbausteine. Ein Baustein ist das Hauptprogramm, die anderen sind die Unterprogramme. Jeder Baustein enthält Vereinbarungen und Anweisungen. In den Vereinbarungen können skalare Größen, wie INTEGER, REAL, DOUBLE PRECISION, COMPLEX, LOGICAL und CHARACTER, sowie lineare und mehrdimensionale Felder definiert werden. Für die statische Speicherverwaltung stehen die COMMON-Vereinbarung (Verwendung vereinbarter Größen gemeinsam durch mehrere Programmbausteine) und die EQUIVALENCEVereinbarung (Verwendung vereinbarter Größen innerhalb eines Pro-
278
Ausgewählte Programmiersprachen
7.5
grammbausteins) zur Verfügung. Zu den Anweisungen zählen Wertzuweisung, Prozeduraufruf, DO-Schleife, Verzweigungen sowie Ein- und Ausgabebefehle.
Bis einschließlich FORTRAN 77 war lediglich eine statische, jedoch für FORTRAN typische effiziente Speicherverwaltung möglich, die zur Übersetzungszeit bearbeitet wurde. Mit FORTRAN 90 (Einführung des Konzepts der Zeiger und rekursiven Unterprogramme) muss das Laufzeitsystem eine dynamische Speicherverwaltung realisieren.
Der relativ einfache Sprachaufbau setzt den Strukturierungsmöglichkeiten der Programme enge Grenzen.
Pascal (benannt nach Blaise Pascal (1623 – 1662), einem französischen Mathematiker und Philosophen) Diese höhere Programmiersprache wurde in den Jahren 1968 bis 1972 vom Schweizer Informatiker N. Wirth entwickelt. Eine Normung der Sprache erfolgte 1980 durch die International Standardization Organization (ISO). Ähnlich wie ALGOL ist Pascal vor allem in Forschung und Lehre verbreitet. Mit dem Dialekt Turbo-Pascal wird eine gute Handhabbarkeit und Leistungsfähigkeit erreicht. Eine Ergänzung von Pascal durch Funktionen der graphischen Datenverarbeitung bietet Pascal/Graph.
Forschung, Lehre
Typische Merkmale von Pascal:
Merkmale von PASCAL
Es werden die Programmentwurfsprinzipien der strukturierten und modularen Programmierung und der Top-Down-Entwurf von Programmen unterstützt.
Eine separate Übersetzung der Module kann nicht erfolgen. Pascal ist auf allen Computerplattformen implementiert, auf Grund des geringen Sprachumfangs besonders auch auf Personalcomputern. Weiterentwicklungen von PASCAL sind MODULA 2 (1977–1980), Oberon (1986 – 1989) bzw. Oberon 2 sowie Object-Pascal. MODULA 2 unterstützt die systemnahe Programmierung und ermöglicht die separate Übersetzung der einzelnen Module. Oberon 2 und Object-Pascal sind objektorientierte Programmiersprachen.
279
7 Nachfolger DELPHI auch zur kommerziellen Anwendungsentwicklung
Programmierung
1995 erschien die Softwareentwicklungsumgebung Delphi, welche auf Object-Pascal basiert. Delphi ermöglicht eine Komponentenbasierte Anwendungsentwicklung und nutzt die Vorteile einer grafischen Benutzeroberfläche.
BASIC (Beginner’s Allpurpose Symbolic Instruction Code)
einfacher Einstieg für Anfänger
betriebswirtschaftliche und mathematischtechnische Anwendungen
Die in den 1960er Jahren am Darthmouth College, Hanover (USA), von Th. E. Kurtz und J. G. Kemeney entwickelte höhere Programmiersprache BASIC orientierte sich an einem vereinfachten FORTRAN und sollte Anfängern als schneller Einstieg in die Programmierung dienen. Da in den anfänglichen BASIC-Versionen nur geringe Strukturierungsmöglichkeiten für die Programme vorhanden waren, ergaben sich gerade durch den Gebrauch der unbedingten Sprünge (GOTO-Befehle) schwer lesbare und schwer zu wartende Programme (so genannter „Spaghetti-Code“). Spätere strukturierte BASIC-Versionen sind um viele Funktionen erweitert, insbesondere auch für die dialogorientierte (visuelle) Programmierung. In den USA gilt heute BASIC als professionelle Standard-Programmiersprache sowohl für kommerzielle als auch für mathematisch-technische Anwendungen. Im PC-Bereich ist Visual BASIC von Microsoft stark verbreitet. Die BASIC-Programme werden in der Regel durch Interpreter abgearbeitet. Zur Verbesserung des Laufzeitverhaltens können auch Compiler eingesetzt werden. Die höhere Programmiersprache BASEX (BASIC for EXperiments) baut auf BASIC auf und wird in der Prozesssteuerung verwendet.
C
systemnahe Programmierung, Anwendungen aus allen Bereichen Merkmale von C
Die weit verbreitete höhere Programmiersprache C wurde Anfang der 70er Jahre in den USA von D. Ritchie (Bell Laboratories, einer Tochter des Fernmeldekonzerns AT&T) entwickelt. Vorrangiges Ziel war die Unterstützung der systemnahen Programmierung und die leichte Portierbarkeit der Programme für kleine Computer. Das Betriebssystem UNIX wurde zu 90% in C geschrieben, wobei die Entwicklung von C selbst unter UNIX erfolgte. Heute ist C auf allen üblichen Computerklassen verfügbar. Typische Merkmale von C:
Der Umfang der Sprache und der Datentypen ist gering. 280
Ausgewählte Programmiersprachen
7.5
Die Portierbarkeit der Compiler auf andere Computersysteme ist relativ einfach. Hierdurch wird die Wiederverwendung von in C geschriebener Anwendungssoftware gefördert, insbesondere auch von UNIXBetriebssystemen.
C ist leicht erweiterbar, Funktionen können getrennt übersetzt werden. C++ ist eine durch B. Stroustrup (1983 Bell Laboratories) vorgenommene Weiterentwicklung von C für das objektorientierte Programmieren, wobei C eine Teilmenge von C++ ist. Durch einen Precompiler können C++ Programme in C-Programme überführt werden. Auf diese Weise bleiben bestehende C-Entwicklungsumgebungen verfügbar.
C++ als objektorientierte Erweiterung
ABAP (Advanced Business Application Programming) Die SAP AG entwickelte in den 1980er Jahren die 4GL-Programmiersprache ABAP und verwendet sie auch gegenwärtig vorrangig für alle Programmierarbeiten im betriebswirtschaftlichen Anwendungsbereich. Die ABAPProgramme ermöglichen insbesondere alle Zugriffe auf die externen Kanäle des integrierten Anwendungssystems R/3.
Anwendungen im Umfeld von SAP R/3
ABAP-Sprachelemente
Abbildung 7-11
Die ABAP-Sprache enthält
deklarative Sprachelemente für die Datenstrukturen (z. B. TABLES), operationale Sprachelemente zur Datenmanipulation (z. B. ADD), Steuerungssprachelemente für die Kontrollstrukturen (z. B. DO) und Zeitpunkt-Sprachelemente zur Verknüpfung von Programmteilen mit Ereignissen (z. B. TOP-OF-PAGE).
Merkmale von ABAP/4
Typische Merkmale von ABAP:
ABAP unterstützt die modulare und strukturierte Programmierung. ABAP ist eine interpretierende Sprache. Das ABAP-Dictionary realisiert die Verbindung zwischen ABAP-Programmen und den benötigten externen Daten, so dass Änderungen in der physikalischen Datenorganisation nur eine automatische Nachgenerierung des Laufzeitobjektes erforderlich machen.
281
7
Programmierung
Die ABAP-Entwicklungsumgebung (ABAP Development Workbench) enthält neben der ABAP-Sprache das R/3-Repository und umfangreiche Entwicklungswerkzeuge.
ABAP Objects ist eine objektorientierte Weiterentwicklung von ABAP, besonders auch für webbasierte Anwendungen.
Die weltweite Verbreitung des R/3-Systems erfordert die Unterstützung einer Mehrsprachigkeit durch Entwicklungswerkzeuge. So existieren sprachabhängige Textpools (z. B. für Reportlisten) und es erfolgt eine Unterstützung piktographischer Sprachen (z. B. Chinesisch) durch die Verwendung des Zwei-Byte-Code-Systems (DBCS – Double Byte Character Set).
LISP (LISt Processing Language)
funktionale Programmierung
Merkmale von LISP
LISP ist eine nicht-prozedurale Programmiersprache zur Unterstützung der funktionalen Programmierung. Sie wurde in den 1950er Jahren entwickelt und 1959 von J. McCarthy am Massachusetts Institute of Technology (MIT) erstmalig implementiert. Vorrangiges Ziel war nicht die Behandlung numerischer Probleme, sondern die Unterstützung der Verarbeitung von Symbolen und Strukturen (Symbol-Manipulationssprache). Sie eignet sich besonders zur Verarbeitung von Zeichenketten (Strings). Typische Merkmale von LISP sind:
Die Datenstruktur basiert auf einer endlichen Folge von Elementen (Liste), wobei die Listenelemente wieder Listen sein können.
Die atomaren Datenobjekte sind z. B. Zahlen, alphanumerische Größen oder Symbole. Sie lassen sich zu komplexen Datenobjekten, den symbolischen Ausdrücken, zusammensetzen. In einer Eigenschaftsliste können ihnen Attribute zugewiesen werden.
Durch die generelle Listendarstellung besteht kein formaler Unterschied zwischen Daten und Funktionen bzw. Programmen (Programmteile können als Daten interpretiert werden). LISP-Programme ermöglichen deshalb, Programme zu modifizieren oder neu zu generieren.
Für die Verarbeitung der Listen werden Basisfunktionen bereitgestellt, die zu komplexen Funktionen kombiniert werden können. Insbesondere sind rekursive Funktionen erlaubt.
282
Ausgewählte Programmiersprachen
7.5
Es existiert eine Vielzahl von LISP-Dialekten. Die wichtigsten sind COMMON LISP und INTER LISP, wobei COMMON LISP (1986) einen akzeptierten Standard darstellt. Der Einsatz von LISP liegt vor allem im Bereich der Künstlichen Intelligenz. Hier wurden insbesondere auf der Grundlage von LISP so genannte Wissensrepräsentationssprachen entwickelt. Neuere funktionale Programmiersprachen sind Haskell (1990) und ML (1997).
PROLOG (PROgramming in LOGic) Diese Anfang der 1970er Jahre entwickelte nicht-prozedurale Programmiersprache greift auf Erkenntnisse und Methoden der Prädikatenlogik zurück. PROLOG-Programme sind charakterisiert durch Fakten (logisch wahre Aussagen), Regeln (logisch bedingte Schlussfolgerungen, die aus Fakten neue Fakten ableiten) und Anfragen (zu beweisende Aussagen). Sie enthalten Folgen von Regeln, die bezüglich vorgegebener Fakten abgearbeitet werden.
logische Programmierung
Im Jahre 1971 entwickelte A. Colmerauer ein Frage-Antwort-System, welches auf so genannte Horn-Klauseln aufbaute (System-Q). Horn-Klauseln sind logische Regeln der Form „Konklusion K falls Prämisse 1 und . . . und Prämisse n“. Die theoretische Entwicklung zur Programmiersprache PROLOG erfolgte durch R. Kowalski und M. van Emden (Edinburgh), während sich A. Colmerauer (Marseille) und D. Warren (Edinburgh) Mitte der 1970er Jahre bezüglich der Implementierung Verdienste erwarben. Aufbauend auf speziellen Beweisverfahren des Prädikatenkalküls wurde eine Programmierumgebung entwickelt, die eine Beschreibung von Sachverhalten in Form der Horn-Klauseln zulässt. PROLOG-Programme bestehen aus einer Ansammlung solcher Klauseln. Auf diese Strukturen werden die Mechanismen des Pattern-Matching und Backtracking angewendet. Dabei realisiert das Pattern-Matching den syntaktischen Vergleich und die Unifikation von Datenstrukturen und das Backtracking die baumbasierte Tiefensuche nach Lösungen. Mit ihrem deskriptiven Grundparadigma entspricht die Programmiersprache PROLOG dem Übergang von der Informationsverarbeitung zur Wissensverarbeitung und spielt eine zentrale Rolle in der Entwicklung der fünften Computergeneration und von Anwendungssystemen, insbesondere Expertensystemen, der Künstlichen Intelligenz.
283
Wissensverarbeitung, Expertensysteme
7
Programmierung
SMALLTALK (bezeichnet nach dem englischen Begriff small talk für Plauderei) objektorientierte Programmiersprache
Merkmale von SMALLTALK
Die in den 1970/80er Jahren am Palo Alto Research Center (PARC) der Firma Xerox (Kalifornien) entwickelte objektorientierte Programmiersprache SMALLTALK wird in Verbindung mit dem SMALLTALK-System zu einer Dialogsprache, die alle wichtigen Elemente einer modernen Programmentwicklung, -pflege und -anwendung enthält. Typische Merkmale des SMALLTALK-Systems sind:
Für die elementaren SMALLTALK-Konstrukte ist der Interpreter als virtuelle Maschine konzipiert, wodurch ein leichtes Portieren auf andere Computer ermöglicht wird. Die größten Vorzüge von SMALLTALK liegen gerade in der Wiederverwendbarkeit der entwickelten Software.
Ein Browser dient u. a. der Methodensuche und dem Austausch von Botschaften.
Ein effizientes Testsystem (Debugger) steht zur Verfügung. Eine leistungsfähige hierarchische Methodenbibliothek (das so genannte Virtual Image) unterstützt die Entwicklung und Pflege gerade auch großer Programmsysteme.
plattformunabhängige Anwendungen, besonders im Internet
Merkmale von Java
Java Diese objektorientierte Programmiersprache wurde in ihren Anfängen 1991 (zunächst unter dem Namen Oak) von P. Naughton und J. Gosling bei Sun Microsystems für die Programmierung elektronischer Konsumgüter und des interaktiven Fernsehens entwickelt. Die große Popularität von Java setzte dann aber Mitte der 90er Jahre mit dem Durchbruch des World Wide Web ein. Da Java gerade auf die Programmierung plattformunabhängiger Software zielt und WWW-Browser als Navigationshilfen auf allen möglichen Plattformen lauffähig sein müssen, eröffnete sich für Java die Möglichkeit, die Programmiersprache im Internet zu werden. So war der 1995 vorgestellte WWW-Browser mit dem Namen HotJava erstmalig in Java geschrieben. Die erste offizielle Entwicklungsumgebung für Java wurde im Jahre 1996 von Sun Microsystems veröffentlicht. Von Microsoft liegt Visual J++ vor, das nach einer richterlichen Anordnung 1999 in einer den Sun-Spezifikationen konformen Version modifiziert wurde. Typische Merkmale von Java:
Java basiert auf C++ und enthält wenige Sprachkonstrukte.
284
Ausgewählte Programmiersprachen
7.5
Java ist konsequent objektorientiert. Es werden nur Klassen programmiert. Objekte werden erst bei Bedarf zur Laufzeit geladen.
Umfangreiche Werkzeuge ermöglichen eine effiziente Programmierung in Netzen.
Durch die Eliminierung der Zeiger- und Sprung-Konstrukte aus C++ werden robuste Java-Programme ermöglicht.
Java-Programme werden mit dem so genannten Java-Compiler (Precompiler) in einen maschinenunabhängigen Byte-Code überführt, der dann durch den Java-Interpreter (Java Virtual Machine – JVM) zur Abarbeitung gebracht wird. Damit ist jeder vom Java-Compiler generierte Byte-Code auf jeder Plattform verwendbar, sofern sie eine JVM besitzt.
In Java ist das Threading-Konzept für die Programmierung parallel laufender Programme integriert.
C# C# (sprich: Csharp) ist eine Programmiersprache, die für Microsofts Entwicklungsplattform .NET Framework entwickelt wurde. Das .NET Framework wurde im Jahr 2000 vorgestellt und verwendet ähnlich wie Java ein Laufzeitumgebung (Common Language Runtime – CLR). In der Laufzeitumgebung werden Anweisungen der Microsoft Intermediate Language (MSIL) verarbeitet. Die MSIL fungiert als Zwischenschicht, die es ermöglicht, Teile einer Anwendung mit unterschiedlichen Programmiersprachen wie C#, C++, Visual Basic oder Delphi zu entwickeln. Das .NET Framework bietet Entwicklern verschiedene Sicherheitsmechanismen zum Schutz von Daten und Programmen an, dazu gehören Zertifikate, kryptographische Methoden und Schutz der erstellten Anwendungen.
Systemsprache für .NETFramework
Trotz der Sprachen-Interoperabilität, die das .NET Framework bietet, ist C# die Systemsprache. Durch ihr spezielles Design nutzt sie die Funktionalitäten des Frameworks am effizientesten. Sie lehnt sich an Sprachen wie C++, Delphi und Java an und integriert deren Vorteile. Merkmale von C#
Typische Merkmale von C#:
C# ist durchgehend bis hin zu den elementaren Datentypen objektorientiert aufgebaut.
C# setzt ein Garbage Collection Verfahren zur automatischen Speicherbereinigung ein.
285
7
Programmierung
Die Entwicklung von Datenbank-Anwendungen, Windows- und Weboberflächen, Web Services und verteilten Anwendungen wird unterstützt.
Ein Threading-Konzept ermöglicht die Entwicklung von Anwendungen für Multiprozessorsysteme.
Der Austausch von Daten kann mittels XML und Document Object Model (DOM) erfolgen.
Programmiersprachen für Internet-Anwendungen Neben einigen der bereits erläuterten Sprachen, die für die Erstellung von Internet-Anwendungen genutzt werden können, existieren Programmiersprachen, die auf den Einsatz im WWW spezialisiert sind. Diese Programmiersprachen ermöglichen die Aktivierung von Anwendungen auf einem Server oder die Ausführung von Anwendungen auf dem Client. Die wichtigsten Vertreter werden im Folgenden vorgestellt.
CGI Vom Nutzer werden Daten an den entfernten Computer geschickt. Dieser übergibt sie per CGI (Common Gateway Interface) an ein Programm, welches sie weiter verarbeitet. Das Ergebnis wird dann vom Computer zurück an den Nutzer geschickt. Mit CGI werden dynamische WebDokumente erzeugt.
ActiveX ActiveX ist ebenfalls eine Sprache zur Verwendung von Programmcode in HTML-Dokumenten. Im Unterschied zu Java sind ActiveXProgramme nur auf Computern mit MS-Windows-Betriebssystemen lauffähig.
Java Script Java Script ist eine Makrosprache, deren Code vollständig in HTML eingebunden ist. Bei Aufruf der HTML-Seite wird das Programm abgearbeitet.
Dokumentenbeschreibungssprachen Dokumentenbeschreibungssprachen dienen der standardisierten Beschreibung der Struktur und des Layouts von Dokumenten. Durch diese Standardisierung ist eine Trennung von Inhalt und Darstellungsform möglich. Bestimmte Sprachkonstrukte ermöglichen die dynamische Erzeugung von Inhalten. Dokumentenbeschreibungssprachen werden vor allem zur Anzei-
286
Ausgewählte Programmiersprachen
ge von WWW-Dokumenten und zum Datenaustausch genutzt. Im Folgenden werden die wichtigsten Dokumentenbeschreibungssprachen kurz vorgestellt.
HTML HTML (Hypertext Markup Language) ist eine Sprache, die den Aufbau eines WWW-Dokumentes (z. B. Titel, Absätze) und die Verweise (Links) auf andere Dokumente beschreibt. Durch Steuerkonstrukte lassen sich Textformatierungen, die Positionierung von Text, Bild und Video sowie der Einsatz von Tonwiedergaben, interaktiven Elementen und Verweise auf andere Seiten realisieren.
XML Die Meta-Auszeichnungssprache XML (Extensible Markup Language) wurde entwickelt, um im Gegensatz zur Hypertext Markup Language (HTML) Inhalt und Darstellung der Informationen voneinander zu trennen. Besondere Bedeutung hat XML für den elektronischen Datenaustausch als einheitliches Format für Geschäftsdaten und als Schnittstelle für die Kommunikation zwischen Applikationen. Der Aufbau der Dokumente, wie Bestellungen, Rechnungen, Kataloge usw. ist in den Branchen sehr unterschiedlich. Mit Hilfe von XML können speziell auf die Anforderungen ausgerichtete Markup-Sprachen definiert werden. Diese werden als XML-Anwendungen bezeichnet und legen ein Vokabular und eine Grammatik fest, welche die Struktur der darauf aufbauenden Dokumente bestimmen. Dies haben bereits viele Unternehmen und Verbände erkannt, so dass es mittlerweile eine große Zahl so genannter Standards für E-Business gibt. Damit ist die Vision vom globalen Marktplatz, auf dem Unternehmen elektronischen Handel in Form von XMLbasierten Geschäftsnachrichten praktizieren können, in weite Ferne gerückt.
PHP PHP (Hypertext Preprocessor) ist eine durch den Web-Server interpretierte, in HTML-Code eingebettete Sprache zur dynamischen Erzeugung von Web-Inhalten. Es handelt sich um eine Open Source Skriptsprache.
Vertiefende Literatur ENGEL, R.: Objektorientierte Programmierung – Eine Einführung. Markt & Technik, Haar 1990
HANSEN, H. R.; NEUMANN, G.: Wirtschaftsinformatik 2 – Informationstechnik. Lucius&Lucius, Stuttgart 2005
287
7.5
7
Programmierung
HEINRICH, L. J.; HEINZL, A.; ROITHMAYR, F.: Wirtschaftsinformatik-Lexikon. Oldenbourg, München 2004
KELLER, H.: ABAP Referenz. Galileo Press, Bonn 2004 KUNZ, J.: Vererbung für Systementwickler – Grundlagen und Anwendungen. Vieweg, Braunschweig 1995
LOUDEN, K. C.: Programmiersprachen – Grundlagen, Konzepte, Entwurf. International Thomson, Bonn 1994
SCHNEIDER, H.-J.: Lexikon Informatik und Datenverarbeitung. Oldenbourg, München 1998
STAHLKNECHT, P.; HASENKAMP, U.: Einführung in die Wirtschaftsinformatik. Springer, Berlin 2005
STROUSTRUP, B.: Die C++ Programmiersprache. Addison-Wesley, München 2000
288
Ausgewählte Programmiersprachen
Kapitel 8 Informationsmanagement
289
7.5
Gegenstand
8
8.1
Informationsmanagement
8.1 Gegenstand Das Informationsmanagement umfasst die Planung, Steuerung und Überwachung von Informationssystemen. Als Informationssysteme werden hier sozio-technische Systeme verstanden, die Informationen erzeugen oder verarbeiten. Das Informationsmanagement kann in eine strategische, eine administrative und eine operative Aufgabenebene gegliedert werden.
Planung, Steuerung und Überwachung von Informationssystemen
strategische Aufgabenebene Die strategische Aufgabenebene des Informationsmanagements hat die Entwicklung der IT-Strategie zum Gegenstand. Sie definiert die Zielrichtung für den Einsatz der Informationsinfrastruktur zur Unterstützung der Unternehmensziele.
IT-Strategie
administrative Aufgabenebene Die administrative Aufgabenebene umfasst die Systementwicklung. Sie setzt die Vorgaben aus der IT-Strategie um. Der Begriff Systementwicklung entstand in Ergänzung der Softwareentwicklung und beinhaltet die Einbettung der Software in eine Systemumgebung. In technischen Systemen steht dafür der Begriff System Engineering. Die Systementwicklung ist ein ingenieurwissenschaftlich orientierter Ansatz zur unternehmensweiten und grundlegenden Gestaltung der Geschäftsprozesse unter Einbeziehung der Geschäftsstrategien und der Anwendungssysteme. Die Modellierung der Geschäftsprozesse bildet dabei die Grundlage für die Entwicklung der Anwendungssysteme. Eng mit den Methoden zur Gestaltung von Geschäftsprozessen verbunden sind die Begriffe Geschäftsprozessmanagement, Business Engineering und Unternehmensmodellierung.
Gestaltung von Geschäftsprozessen
Moderne Methoden und Verfahren der Informationstechnologie unterstützen die Neugestaltung von Geschäftsprozessen bzw. machen diese erst möglich. Der Gegenstand der Systementwicklung reicht, wie in Abbildung 8-1 dargestellt, von der organisatorischen Gestaltung bis zur informationstechnischen Implementierung der Anwendungssysteme.
291
Einrichtung der IT-Infrastruktur
8 Abbildung 8-1
Informationsmanagement
Ebenen der Systementwicklung
operative Aufgabenebene Einsatz der IT-Infrastruktur
Abbildung 8-2
Die dritte, die operative Aufgabenebene ist auf die Produktion und Verarbeitung der Informationen sowie die Sicherung der Funktionsfähigkeit der IT-Infrastruktur ausgerichtet. Die Komponenten der IT-Infrastruktur sind in der folgenden Abbildung aufgeführt. Komponenten der IT-Infrastruktur
Die folgenden Abschnitte führen in die wichtigen Gebiete des Informationsmanagements IT-Strategie, Geschäftsprozessmanagement, IT-Infrastruktur und Projektmanagement ein.
292
IT-Strategie
8.2
8.2 IT-Strategie Die Strategie der Informationstechnologie (IT-Strategie) legt die Zielrichtung für die Entwicklung der Informationsinfrastruktur (IT-Infrastruktur) fest. Dabei werden die Investitionsfelder der Informationstechnologie (IT) in Abstimmung mit der Unternehmensstrategie bestimmt. Die IT-Strategie war in der Vergangenheit vor allem ein Mittel zur Sicherung der bereits getätigten Investitionen. Die Entwicklung der IT-Infrastruktur wurde dabei langfristig konkret geplant. So wurden beispielsweise unternehmensweit geltende Vorgaben für die einzusetzende Basissoftware entwickelt.
Zielrichtung für die Entwicklung der IT-Infrastruktur
Diese Ausrichtung auf eine langfristige deterministische Planung der ITInfrastruktur stößt zunehmend an ihre Grenzen. Eine Umstellung der historisch gewachsenen IT-Infrastruktur mit einem Big Bang auf eine neue, einheitliche Basis ist in größeren Unternehmen kaum möglich. Die zunehmende Dynamik der technischen Entwicklung und die stark wachsende Bedeutung der Informationstechnologie in allen Unternehmensbereichen erfordern die Definition strategischer Leitlinien. Diese haben das Ziel Rahmenbedingungen festzulegen, unter denen sich eine wettbewerbsfähige IT-Landschaft entwickeln kann. Die strategischen Leitlinien orientieren sich dabei an den Unternehmenszielen. Eine moderne IT-Infrastruktur muss die Einbindung neuer Technologien in die bestehende heterogene Systemlandschaft sicherstellen. Die technische ITInfrastruktur soll Veränderungen in den Anwendungssystemen erlauben, die diese in immer kürzeren Zyklen den Marktbedingungen anpassen. Von steigender Bedeutung ist die unternehmensübergreifende Integration der Anwendungssysteme zwischen Geschäftspartnern.
Berücksichtigung der schnellen technischen Entwicklung
Die IT-Strategie kann, wie in Abbildung 8-3 dargestellt, in drei Schritten entwickelt werden.
Abbildung 8-3
Entwicklung der IT-Strategie
293
8
Informationsmanagement
Strategische Situationsanalyse
Analyse der Ist-Situation
Bei der strategischen Situationsanalyse wird die auf den Unternehmenserfolg bezogene Bedeutung der Informationsfunktion, der Wettbewerbssituation, der Informationsinfrastruktur und der Entwicklung der Informationstechnologie untersucht. Im Folgenden werden diese Bereiche näher erläutert. strategische Bedeutung der Informationsfunktion Die Informationsfunktion beinhaltet alle Aufgaben der Erfassung, Verarbeitung und Nutzung von Informationen. Ihre Bedeutung für die Erreichung der strategischen Unternehmensziele kann in einem Portfolio (Abbildung 84) dargestellt werden. Aufgrund der gegenwärtigen und der zukünftigen Bedeutung der Informationsfunktion ergeben sich vier Unternehmenstypen.
Abbildung 8-4
Unternehmenstypologie nach der Bedeutung der Informationsfunktion
Für den Unternehmenstyp I Unterstützung bedeutet dies, dass die Informationsfunktion gegenwärtig und künftig nur eine geringe Bedeutung für den Unternehmenserfolg besitzt.
Der Unternehmenstyp II Fabrik ist dadurch charakterisiert, dass die Informationsfunktion gegenwärtig für das Unternehmen eine große Bedeutung hat. Die Bedeutung der Informationsfunktion sinkt jedoch, so dass künftig nur die Pflege und Weiterentwicklung der bestehenden Anwendungen zu sichern ist.
294
IT-Strategie
8.2
Der Unternehmenstyp III Durchbruch besagt, dass sich die Informationsfunktion im Übergang von einer derzeit geringen Bedeutung auf eine starke Bedeutung in der Zukunft befindet.
Der Unternehmenstyp IV Waffe weist auf eine gegenwärtig und auch künftig hohe Bedeutung der Informationsfunktion für den Unternehmenserfolg hin. Die Einschätzung des Unternehmenstyps wird ergänzt durch die Bestimmung der Wirtschaftlichkeit der Informationsfunktion. Die Ausschöpfung der Bedeutung der Informationsfunktion unterstützt die Unternehmensziele nur, wenn sie wirtschaftlich gerechtfertigt ist. Wettbewerbssituation und Informationsinfrastruktur Zweck der Analyse der Informationsinfrastruktur ist es, deren gegenwärtigen Erfolg einzuschätzen. Dabei sind Stärken und Schwächen der ITInfrastruktur hinsichtlich ihres Einflusses auf den Unternehmenserfolg zu bestimmen. Gegenstand der Analyse sind die Eigenschaften der Infrastruktur bzw. ihr Einfluss auf die Geschäftsprozesse des Unternehmens. Zu untersuchende Eigenschaften der IT-Infrastruktur sind unter anderem Ausstattungsgrad der Arbeitsplätze, Aktualität der Daten, Flexibilität und Benutzerfreundlichkeit der Anwendungssoftware, sowie totale Kosten eines computergestützten Arbeitsplatzes. Die Analyse hinsichtlich der Unterstützung der Geschäftsprozesse betrachtet vor allem den Einfluss der Prozessorganisation und der IT-Infrastruktur auf kundenorientierte Wettbewerbsfaktoren.
Wirtschaftlichkeit der Informationsfunktion
Stärken und Schwächen der IT-Infrastruktur erkennen Eigenschaften der IT-Infrastruktur und ihr Einfluss auf die Geschäftsprozesse
Für die Untersuchung der IT-Infrastruktur stehen verschiedene Analysemethoden zur Verfügung, die jeweils bestimmte Schwerpunkte setzen. Die nachstehend kurz charakterisierten Methoden haben die Gemeinsamkeit, dass zusätzlich zur Analyse die Anforderungen an die Weiterentwicklung der IT-Infrastruktur bestimmt werden. In Tabelle 8-1 bis Tabelle 8-3 werden drei Analysemethoden vorgestellt.
Analysemethoden der IT-Infrastruktur
Erfolgsfaktorenanalyse
Tabelle 8-1
Gegenstand
Stärken und Schwächen der Leistungen der IT-Infrastruktur
Mittel
schriftliche Befragung des Managements, der Mitarbeiter von Fachbereichen sowie der Mitarbeiter des IT-Bereichs
Ergebnisse
Wertung nach der Priorität und dem Erfolg, Bestimmung der Leistungsdifferenz zwischen der Priorität und dem Erfolg in einem Portfolio
295
8 Tabelle 8-2
Tabelle 8-3
technischer Fortschritt
Informationsmanagement
Korrelationsanalyse
Gegenstand
Bestimmung des Zusammenhangs zwischen den kritischen Wettbewerbsfaktoren und der IT-Infrastruktur
Mittel
Matrizenkalkül
Ergebnisse
Grad des Einflusses der IT-Infrastruktur auf die kritischen Wettbewerbsfaktoren, Lücken werden aufgezeigt
Portfolioanalyse
Gegenstand
Bewertung der Ressourcenstärke der Anwendungssysteme in Bezug auf die Wettbewerbsfaktoren im Vergleich mit den wichtigsten Mitbewerbern
Mittel
Portfolio (Ist-, Ideal-, Soll-Portfolio)
Ergebnisse
die relative Stärke der IT-Infrastruktur im Vergleich zu den wichtigsten Mitbewerbern
Entwicklung der Informationstechnologie Neben der Analyse der Informationsinfrastruktur des Unternehmens ist der technische Fortschritt ein wichtiges Untersuchungsfeld. Die Einschätzung der Situation im Unternehmen und die Kenntnis neuer, technischer und technologischer Möglichkeiten sind die Quellen für die Ableitung der strategischen Ziele für die Entwicklung der Informationsfunktion und der ITInfrastruktur.
Strategische Zielplanung
Definition der strategischen Ziele
Auf der Grundlage der Ergebnisse der Situationsanalyse sind die strategischen Ziele für die Gestaltung der Informationsinfrastruktur festzulegen. Die Definition der strategischen Ziele erfolgt in vier Schritten: 1. Festlegen des Zielinhalts (Was?) 2. Festlegen des Zielmaßstabs (Dimension, Messvorschrift) (Wie messen?) 3. Festlegen des Ausmaßes der Zielerreichung (Wie viel?) 4. Festlegen des zeitlichen Bezuges der Zielerreichung (Bis wann?)
296
Geschäftsprozessmanagement
8.3
Strategie-Definition Auf der Grundlage der strategischen Ziele wird die IT-Strategie entwickelt. Sie bildet das Konzept, mit dem die strategischen Ziele verfolgt werden sollen. Die Strategie-Definition verwendet zur Beschreibung die Komponenten der IT-Infrastruktur.
8.3
Konzept zur Erreichung der strategischen Ziele
Geschäftsprozessmanagement
Das Geschäftsprozessmanagement (Business Process Engineering, im Sinne einer Umstrukturierung auch als Business Process Reengineering – BPR bezeichnet) beschäftigt sich mit der prozessorientierten Gestaltung von Ablauf- und Aufbaustrukturen in Unternehmen oder Institutionen. Grundlage des Geschäftsprozessmanagements ist die Umorientierung von der Betrachtung separierter Funktionsbereiche hin zu übergreifenden Abläufen und damit zu einer prozessorientierten Sichtweise.
prozessorientierte Gestaltung von Ablauf- und Aufbaustrukturen
Geschäftsprozessmanagement
Abbildung 8-5
Ausrichtung an den Geschäftsprozessen Optimierung der Geschäftsprozesse Überwachung und Anpassung der Geschäftsprozesse Geschäftsprozessmanagement umfasst die Ausrichtung der Organisation an ihren Geschäftsprozessen, die Optimierung dieser Geschäftsprozesse und ihre ständige Überwachung. Aus funktionaler Sichtweise werden die Unternehmensabläufe verschiedenen Organisationseinheiten zugeordnet, dadurch getrennt und somit Aufgaben auf viele verschiedene Aufgabenträger verteilt. Der ursprüngliche Ablauf wird nicht mehr als Gesamtheit betrachtet. Probleme, die sich daraus ergeben, sind Abteilungsdenken, die wiederholte Ausführung von Aufgaben z. B. bei der Datenerfassung, ein hoher Kommunikations- und Abstimmungsbedarf sowie eine große Zahl von Medienbrüchen, d. h. Wechsel zwischen manueller und IT-gestützter Vorgangsbearbeitung. Folge sind lange Liege-, Warte- und Transportzeiten, Fehler, inkonsistente Daten und hohe administrative Kosten.
297
Funktionsorientierung
8 Prozessorientierung
Informationsmanagement
Bei einer prozessorientierten Betrachtung hingegen wird berücksichtigt, dass die einzelnen Funktionen durch Entscheidungs- und Ablaufzusammenhänge untereinander verknüpft sind. Die Leistungsträger (zu bearbeitende Objekte) durchlaufen zu ihrer Bearbeitung in der Regel mehrere Funktionen. Ziel muss es deshalb sein, zu einer ganzheitlichen Betrachtungsweise des Bearbeitungsablaufes überzugehen. Der Ablauf soll auf möglichst wenige Organisations- und Medienbrüche reduziert werden und auf diese Weise einen möglichst hohen Grad an Funktions- und Datenintegration erreichen. Ein Geschäftsprozess beschreibt den Ablauf eines für die strategischen Ziele des Unternehmens wichtigen Vorganges von seiner Entstehung bis zu seiner Beendigung. Bei der Geschäftsprozessausrichtung werden nicht mehr die Aufgaben eines einzelnen Arbeitsplatzes oder einer Abteilung betrachtet, vielmehr stehen ganze Arbeitsabläufe im Vordergrund. Zentraler Punkt der Prozessgestaltung ist die Erzeugung eines messbaren Nutzens für den Kunden des Prozesses. Kunde ist jeder Abnehmer des Outputs eines Prozesses, z. B. andere Prozesse, Kunden, Mitarbeiter oder externe Partner. Ziel ist die Effizienz im Prozess und damit seine Beschleunigung, Kostenreduktion und Transparenz. Entscheidend für die Unternehmensstruktur sind nicht die Organisationseinheiten, sondern die vorhandenen Prozesse. Die Aufbauorganisation passt sich damit den Prozessen an und nicht umgekehrt. Dies führt dazu, dass für jeden Prozess ein Prozesseigner (process owner) die Verantwortung vollständig vom Beginn des Prozesses bis zu seiner Vollendung trägt. Diese Prozessorientierung sichert die auf gemeinsame Ziele ausgerichtete Bearbeitung der Prozessschritte durch die beteiligten Mitarbeiter bzw. Organisationseinheiten. Der Erfolg wird nicht durch widersprüchliche Ziele der einzelnen Abteilungen behindert. Durch eine transparente Gestaltung der Geschäftsprozesse wird eine leichtere Anpassbarkeit an veränderte interne oder externe Bedingungen (z. B. Vorschriften, Gesetze) erreicht. Die Überwachung der Prozesse und ggf. ihre Anpassung haben zur Folge, dass das Geschäftsprozessmanagement eine permanente Managementaufgabe darstellt.
Abbildung 8-6
Merkmale eines Geschäftsprozesses
Folge logisch zusammenhängender Einzelaktivitäten festgelegter Anfang und festgelegtes Ende Unabhängigkeit von funktionalen Organisationsstrukturen Einbeziehung von Organisationseinheiten Messbarkeit von Prozesskennzahlen (Qualität, Zeit, Kosten u. a.)
298
Geschäftsprozessmanagement
8.3
explizite Unterstützung durch Informationstechnologie möglich wiederkehrend, nicht einmalig Ziele des Geschäftsprozessmanagements Bei der optimalen Gestaltung von Geschäftsprozessen werden die folgenden Ziele verfolgt:
Prozesseffizienz steigern
Ziele des Geschäftsprozessmanagements
Kundennutzen erhöhen Prozesstransparenz verstärken
Beispiele für Maßnahmen zur Erreichung der Ziele des Geschäftsprozessmanagements
Abbildung 8-7
Vermeidung von Medienbrüchen Parallelisierung von Abläufen Sicherung der Datenintegrität Minimierung von Organisationsbrüchen Unterstützung von Teamarbeit Vereinfachung der Prozesse Minimierung der Prozesslaufzeit (Durchlaufzeit) Reduzierung von Prozessschleifen Reduzierung der Abhängigkeit von Einzelpersonen Vorgehen Geschäftsprozesse werden durch Modelle dargestellt. Modelle dienen der vereinfachenden Abbildung eines realen Systems oder Systemausschnitts, wobei trotz aller Vereinfachung Strukturgleichheit oder zumindest Strukturähnlichkeit zwischen Realität und Modell gefordert wird. Im Sinne des Geschäftsprozessmanagements sind Modelle ein Mittel zur Darstellung und Untersuchung der Struktur- und Verhaltenseigenschaften von Unternehmen oder Institutionen. Durch Modelle und Kennzahlen können Geschäftsprozesse bewertet werden (Ist-Situation, Varianten des Soll-Zustandes). Es können Modellexperimente durchgeführt werden, um die Auswirkungen von Varianten zu bestimmen. Aus den Modellen der Geschäftsprozesse lassen sich zudem die Anforderungen an die Informationstechnologie ableiten.
299
vereinfachte Abbildung von Systemen durch Modelle
Anwendung von Modellen
8
Informationsmanagement
Der Begriff „Modell“ wird im Kontext der Entwicklung und Neugestaltung von Geschäftsprozessen u. a. in den folgenden Begriffen verwendet.
Modellierung bezeichnet den Vorgang der Entwicklung von Modellen. Modellierungsprinzipien stellen allgemeine Handlungsrahmen für grundsätzliche Vorgehensweisen bei der Modellierung dar.
Modellierungsmethoden sind Vorschriften, wie planmäßig nach einem bestimmten Prinzip (oder einer Kombination von Prinzipien) bei der Entwicklung eines Modells vorzugehen ist. Ergebnisse der Anwendung von Methoden sind Modelle, die in einer bestimmten Form (Darstellungstechnik, Notation) beschrieben sind (grafisch, tabellarisch, normsprachlich).
Modellierungswerkzeuge sind Computerprogramme, die eingesetzt werden können, um die Entwicklung von Geschäftsprozessmodellen zu unterstützen. Die Abbildung 8-8 beschreibt die Vorgehensweise beim Geschäftsprozessmanagement. Im Folgenden werden wesentliche Punkte dieses Vorgehensmodells herausgegriffen und näher erläutert.
Planung und Bestandsaufnahme
Auswahl und Abgrenzung der zu gestaltenden Geschäftsprozesse Konzentration auf die Kernkompetenz
Die Planung und Bestandsaufnahme dient der Auswahl und Abgrenzung der neu zu gestaltenden Geschäftsprozesse. Dazu werden zunächst die zu optimierenden Geschäftsprozesse definiert und abgegrenzt. Insbesondere die Kernprozesse des Unternehmens sind zu identifizieren. Als Kernprozesse werden diejenigen Geschäftsprozesse eines Unternehmens bezeichnet, welche die besondere Leistung eines Unternehmens beinhalten. Dieser Begriff ist eng verknüpft mit der Kernkompetenz eines Unternehmens, welches die besonderen Fähigkeiten im Vergleich zum Wettbewerb oder auch der besondere Beitrag zum Geschäft im Verbund mit anderen Unternehmen charakterisiert. Die Anzahl der Kerngeschäftsprozesse muss überschaubar bleiben. Alle sonstigen Geschäftsprozesse werden als Hilfsprozesse bzw. Nebenprozesse bezeichnet. Sie können Kernprozesse unterstützen und damit eine wichtige Funktion im Unternehmen erfüllen. Typische Beispiele für Hilfsprozesse sind Abläufe der Finanzbuchhaltung oder der Personalverwaltung. Ein Prozess kann aus mehreren Subprozessen (Teilprozessen) bestehen.
300
Geschäftsprozessmanagement
8.3
Methodologie beim Geschäftsprozessmanagement
Abbildung 8-8
Geeignet für die Optimierung sind solche Prozesse, die einen hohen Beitrag zur Wertschöpfung leisten, einen hohen Wiederholgrad besitzen und insbesondere auch organisationsübergreifend sind.
Auswahl von Prozessen
301
8 Abbildung 8-9
Informationsmanagement
Merkmale von Kernprozessen Kernprozesse
erfüllen Kundenbedürfnisse haben einen hohen Einfluss auf die Erreichung der strategischen Ziele sind Abläufe von hoher wirtschaftlicher Bedeutung beinhalten unternehmensspezifisches Know-how (Kernkompetenz) Auswahl der umzugestaltenden Geschäftsprozesse Festlegung von quantifizierbaren Zielen
Beispiele für operationalisierte Ziele
Geeignet für die Optimierung sind solche Prozesse, die einen hohen Beitrag zur Wertschöpfung leisten, einen hohen Wiederholgrad besitzen und insbesondere auch organisationsübergreifend sind. Nach der Auswahl der zu optimierenden Geschäftsprozesse sind die Ziele für die Neugestaltung abzuleiten. Es ist zweckmäßig, aus globalen Zielen Teilziele in Form einer Zielhierarchie (Zielbaum) zu entwickeln. Die festgelegten Ziele sind schließlich zu operationalisieren. Das bedeutet, dass die Ziele planbar und abrechenbar sein müssen. Dazu werden die Ziele in Kennzahlen ausgedrückt. Die Kennzahlen sollen die Ausgangssituation und den zu erreichenden Stand zu einem bestimmten Zeitpunkt beschreiben. Beispiele für operationalisierte Ziele sind:
Verkürzung der Durchlaufzeit von zurzeit 6 Wochen auf 3 Wochen bis zum übernächsten Quartal,
Senkung des Ausschusses von zurzeit 5% auf 4% zum Jahresende. Bei der Auswahl der Ziele spielt die Kundensicht eine herausragende Rolle. In die Zieldefinition sollten deshalb Faktoren einfließen, die den Kundennutzen repräsentieren. Dazu gehören Qualität, Service und Kosten. Die für den jeweiligen Kundennutzen relevanten Kennzahlen können je nach Prozess sehr unterschiedlich sein und sind deshalb individuell zu ermitteln.
Erhebung des Ist-Zustandes Häufig wird argumentiert, dass auf die Ermittlung des Ist-Zustandes verzichtet werden kann, da dieser Zustand sowieso zu überwinden ist. Die Kreativität sollte besser auf die Entwicklung der Soll-Prozesse ausgerichtet sein. So empfehlen z. B. Hammer und Champy das Redesign eines Unternehmens mit einem leeren Papier zu beginnen, so als könne man das Unternehmen völlig neu konzipieren.
302
Geschäftsprozessmanagement
Dieser Argumentation ist insoweit zu folgen, als die Erhebung des IstZustands nur durchgeführt werden sollte, um den logischen Prozess zu verstehen und Prozessdaten als Maßstab für die Einschätzung der Situation und für die Prozessveränderung zu gewinnen. Die gewonnenen Prozessdaten sind auch Ausgangspunkt für die Bestimmung abrechenbarer Ziele. Die Autoren weisen jedoch darauf hin, dass eine Ist-Analyse immer dann von hohem Wert ist, wenn bereits teilweise gut gestaltete Prozessabläufe (Starkstellen) erhalten bleiben sollen und das Hauptziel in der Überwindung der Schwachstellen begründet liegt.
8.3 Starkstellen erhalten, Schwachstellen überwinden
Durch diese Vorgehensweise wird eine Abstraktion von Details der physischen Realisierung im Ist-Zustand erreicht und damit einerseits der Erhebungsaufwand reduziert und andererseits genug Freiraum für die Umgestaltung der Geschäftsprozesse sichergestellt. Kennzahlen Zur Bewertung von Geschäftsprozessen sind Kennzahlen zu wählen, die die Güte des Prozesses im Hinblick auf die zu erreichenden Ziele abschätzen können. Hierfür steht eine Vielzahl verschiedener Kennzahlen zur Verfügung. Eine wichtige Kennzahl ist die Dauer eines Prozesses (Durchlaufzeit) mit ihren Komponenten. Ein typisches Beispiel für den Anteil der einzelnen Komponenten an der gesamten Durchlaufzeit zeigt die Abbildung 8-10. Die Durchlaufzeit eines Auftrages reicht beispielsweise vom Auftragseingang bis zur Auslieferung des Produkts bzw. zum Abschluss der Leistung. Während die Durchlaufzeit meist noch relativ einfach zu ermitteln ist, werden die Komponenten der Durchlaufzeit häufig nicht erfasst. Es ist aber für die Ableitung wirkungsvoller Maßnahmen von großer Bedeutung, die Struktur der Durchlaufzeit zu kennen.
Durchlaufzeit
Komponenten der Durchlaufzeit (vereinfacht)
Abbildung 8-10
303
8
Informationsmanagement
DurchlaufzeitKomponenten
Eine übermäßige Arbeitsteilung mit vielen Arbeitsstationen führt zu einem hohen Anteil von Wartezeiten und Transportzeiten an der Durchlaufzeit. Sehr oft umfasst die Bearbeitungszeit nur einen geringen Teil der Durchlaufzeit (5-10%). Häufig haben in Fertigungs- und Büroprozessen die Wartezeiten, also die Zeiten in denen das Werkstück oder das Dokument auf seine Bearbeitung wartet, einen unvertretbar hohen Anteil.
Prozesskosten
Ebenfalls von großer Bedeutung sind Kostengesichtspunkte. Für die Beurteilung der Prozesskosten wird die Prozesskostenrechnung (Activity Based Costing – ABC) genutzt. Die Prozesskosten werden den einzelnen Produkten oder Leistungen über Bezugsgrößen, so genannte Kostentreiber oder Prozessgrößen zugerechnet. Prozessgrößen haben eine Korrelation zu den Prozesskosten. Solche Prozessgrößen sind z. B. die Anzahl der Bestellungen, der Lieferanten, der Bauteile oder der Aufträge. Für jeden Prozess können Prozesskostensätze ermittelt werden. Mit Hilfe dieser Prozesskostensätze können Soll-Ist-Vergleiche für die Analyse der Budget- und Volumenabweichungen auf Prozessebene durchgeführt werden. Daraus ergeben sich die Kostenschwerpunkte für die Prozessoptimierung.
Abbildung 8-11
Kostenkomponenten in Geschäftsprozessen Prozesskosten (pro bearbeitetes Objekt) Bearbeitungskosten für die Ausführung von Prozessen:
Kosten einzelner Aktivitäten in Prozessen Kosten von Prozessabschnitten Kosten für Fehlererkennung und -behebung
Abbildung 8-12
Beispiele für weitere Prozesskennzahlen
Durchsatz Auslastungsgrad Fehlerrate Erfüllungsgrad der Kundenwunschtermine Reklamationsrate
Modellierung Die Modellierung von Prozessen wird im Abschnitt „Architektur integrierter Informationssysteme“ beschrieben.
304
Geschäftsprozessmanagement
8.3
Bewertung von Geschäftsprozessen Sowohl für die Einschätzung des Ist-Zustands als auch von Varianten des Soll-Zustands sowie ggf. von Ausbaustufen sind die Geschäftsprozesse zu bewerten. Vor der Bewertung werden die hinsichtlich der Ziele relevanten Merkmale bestimmt und diese anhand der Prozesskennzahlen durch Benchmarking, Simulation oder weitere geeignete Verfahren beurteilt. Benchmarking Benchmarking ist das Messen von Prozesseigenschaften und das Vergleichen der Messergebnisse mit denen von Referenzprozessen (idealer Weise dem „besten Prozess“, also „best practice“). Solche Leistungsvergleiche sind sowohl firmenintern als auch im Vergleich zum Mitbewerb vorzunehmen. Bei der Anwendung des Benchmarking und insbesondere des Best-PracticeAnsatzes ist zu berücksichtigen, dass eine Orientierung an vorliegenden Vergleichsfällen erfolgt. Diese Vorgehensweise kann die Entwicklung innovativer Prozesslösungen erschweren.
Vergleichende Bewertung von Ist- und Sollprozessen
Messen und Vergleichen
Simulation Simulation ist das „zielgerichtete Experimentieren an Modellen, das vor allem dann eingesetzt wird, wenn analytische und numerische Methoden deshalb versagen, weil die Wirklichkeit zu komplex und/oder zu kompliziert ist, um als ein geschlossen lösbares Formalproblem abgebildet werden zu können.“* Durch die Simulation von Prozessvarianten kann geprüft werden,
ob geschätzte Prozesskennzahlen des Ist-Zustandes realistisch sein können,
wie sich bestimmte Parameterveränderungen (Aufgabenverlagerungen, Kapazitätsveränderungen, Veränderungen der Bearbeitungszeiten, der Transportzeiten usw.) im Geschäftsprozessmodell auf die Prozesskennzahlen auswirken.
wie sich die Auslastung der Ressourcen (Stellen, Sachmittel) je Aktivität, je Geschäftsprozess und in der Gesamtheit der die Ressourcen nutzenden Prozesse darstellt. Die Simulation und die Prozesskostenrechnung sind sehr nützliche Methoden zur Prozessbewertung. Sie sind allerdings sehr anspruchsvoll in Bezug auf die notwendige Datenbasis und die Detailliertheit des Prozessmodells.
*
Heinrich, L. J.; Roithmayr, F.: Wirtschaftsinformatik-Lexikon. Oldenbourg, München 1998, S. 479
305
Anwendungsfelder der Simulation
8
Informationsmanagement
Weitere Methoden zur Prozessbewertung sind die Kosten-Nutzen-Analyse und die Qualitätskostenanalyse.
Abbildung 8-13
Eignung der Simulation für die Geschäftsprozessbewertung Je mehr der folgenden Prozesseigenschaften erfüllt sind, um so eher ist eine Simulation zur Geschäftsprozessbewertung geeignet:
starke Vernetzung der Prozesse viele Prozessschleifen häufige auftretende Prozesse ausreichende Qualität der zur Simulation benötigten Daten geringe Menge der zur Simulation benötigten Daten hohe Stabilität der Prozessstruktur hohe Stabilität der Datengrundlage viele beteiligte Organisationseinheiten/Personen starke zeitliche Schwankungen viele Störgrößen
Stark- und Schwachstellen
Tabelle 8-4
ausgewählte Prozessmerkmale und typische Schwachstellen Prozessmerkmale
Schwachstellen
Arbeitsteilung
Große Zahl beteiligter Bearbeitungsstationen und Organisationseinheiten in der Vorgangsbearbeitung
Ablauforganisation
Ausrichtung der Bearbeitung an den komplizierten Fällen
Durchlaufzeit
Verzögerungen durch Warte- und Transportzeiten
Erreichbarkeit
Nichterreichbarkeit von Partnern
Informationsversorgung
Nichtverfügbarkeit notwendiger Information
Trägermedien von
Papier als Hemmnis der Prozessintegration
Objektbezug von
Redundante Datenbestände und Vorgangsbearbeitung
Information
Prozessen
306
Geschäftsprozessmanagement
8.3
Im Ergebnis der Prozessanalyse werden in Bezug auf die Prozessmerkmale Stark- und Schwachstellen bestimmt und bewertet. Die Ausprägungen von Prozessmerkmalen charakterisieren die Güte von Geschäftsprozessen. Starkstellen, d. h. Stärken des Unternehmens oder des Geschäftsbereiches, sollen ausgebaut werden. Dies ist erfolgreicher als die alleinige Ausrichtung auf die Bekämpfung der Schwachstellen. Ausgewählte Prozessmerkmale und häufig anzutreffende Schwachstellen sind in der Tabelle 8-4 zusammengestellt.
Entwicklung des Soll-Konzeptes Die Entwicklung des Soll-Konzeptes bildet die Grundlage der Umgestaltung der Geschäftsprozesse. Dabei sind eine Reihe typischer Gestaltungsaspekte zu berücksichtigen, durch die eine Verbesserung der neu gestalteten Geschäftsprozesse erreicht werden kann.
Tabelle 8-5
typische Gestaltungsaspekte zur Verbesserung der Geschäftsprozesse Gestaltungsaspekt
Wirkung
Tätigkeiten
reduzierte Arbeitsteilung, Aufgabenanreicherung, reduzierte Übernahmeprozeduren (Wartezeiten, Einarbeitung, Rückfragen), Durchlaufzeitverkürzung
Mitarbeiter fällen
Kompetenzverlagerung, Verbesserung der Entscheidungsbasis, aktuelle und transparente Informationen, Reduzierung der Informationsmenge
mehrere
Prozessausrichtung am Standardfall – nicht am Sonderfall, Entscheidungskriterien führen zu Prozessvarianten, Prozesstransparenz, Prozesspriorisierung
sinnvolle
neuartige Arbeitsteilung in Lieferantenketten, Verlagerung auf Prozesskunden
weniger Überwachung
Qualitätssicherung an jedem Arbeitsplatz, Stärkung der Mitarbeiterkompetenz
Einsatz von
Verfahrensmanager starten bzw. beenden Prozesse, Spezialisten im Prozessteam zur Lösung von Kundenaufgaben
Kombination von
dezentrale Einheiten mit Ergebnisverantwortung, zentrale Dienstleistungsbereiche
zusammenfassen
Entscheidungen
Prozessvarianten
Aufgabenverlagerung
und Kontrolle
Prozessverantwortlichen
Zentralisierung und Dezentralisierung
307
8
Informationsmanagement
Für die Erarbeitung von Varianten für die Neugestaltung der Geschäftsprozesse dient u. a. das Mittel der Simulation. Die Varianten sind hinsichtlich ihres Beitrages zur Zielerfüllung zu bewerten.
Einführung und Erfolgskontrolle Nachdem mit dem Soll-Konzept Festlegungen getroffen sind, wie die Geschäftsprozesse gestaltet werden, sind diese im Unternehmen einzuführen und zu überwachen Tabelle 8-6
Aspekte zur Einführung von Prozessen Aspekt
Einführungsvorbereitung
í Einführungsprojekt í Beschaffung, Einrichtung und Aufbau í Übergangszenarien í Einweisung
Einführungszeitpunkt
í unabhängig í (Geschäfts-)Jahresende, í Zeitpunkt mit der geringsten Umstellungsbelastung
Einführungsmethode
í Big Bang (Kompletteinführung in einem Schritt) í schrittweise (Teilprozess-) Einführung í Parallelbetrieb í Aussetzung / Stillstand
Einführungsunterstützung
í Teststellung, Prototyp í Erprobung, Einzelfalltest í Dokumentation í Einsatz von Spezialisten bzw. Zusatzkräften í Sicherung der Datenintegrität í Change Management
Monitoring nach der Einführung
Neu eingeführte bzw. geänderte Geschäftsprozesse bedürfen erfahrungsgemäß einer Nachbetreuungsphase. In dieser Zeit sind die Abläufe sorgfältig auf ihren Einsatz und ihre Wirkungen zu überwachen. Dies kann z. B. durch Workflowsteuerungssysteme automatisch erfolgen. Umgehende Kontrollen, zusätzliche Auswertungen, ein rechtzeitiges Nachsteuern bei Fehlentwick-
308
Geschäftsprozessmanagement
8.3
lungen und eine sorgfältige (Prozess-)Änderungsverwaltung (Change Management) verhindern größere Störungen und erhöhen gleichzeitig den Erfolg und die Akzeptanz der durchgeführten Änderungen.
Architektur integrierter Informationssysteme – ARIS Die Architektur integrierter Informationssysteme (ARIS) nach Scheer ist in der Theorie und Praxis das bekannteste Konzept für die Beschreibung und Gestaltung von Geschäftsprozessen und für die Darstellung von Softwarefunktionen. Das Architekturmodell ARIS wird hier stellvertretend für eine Reihe ähnlicher Konzepte vorgestellt. ARIS strukturiert die Modelle nach Modellebenen (Schichten) und zugehörigen Sichten. Modellebenen Die Modellebenen in ARIS entsprechen den in Abbildung 8-14 aufgeführten Ebenen der Systementwicklung.
Konzept für die Beschreibung und Gestaltung von Geschäftsprozessen und unterstützender Anwendungssysteme
Ebenen der Systementwicklung
Abbildung 8-14
Die Ebene Fachkonzept beschreibt die inhaltlichen (betriebswirtschaftlichen) Anforderungen an den Geschäftsprozess und damit die Logik des Geschäftsprozesses. Sie abstrahiert von den eingesetzten technischen Mitteln. Die Fachkonzeptebene ist im Vergleich zu den nachgelagerten Ebenen relativ stabil. Die Dynamik der Veränderung wächst mit der Nähe zur Implementierung, d. h. den zur Lösung der fachlichen Aufgaben eingesetzten Mitteln. Die Ebene IT-Konzept stellt den Bauplan für die einzusetzenden technischen Mittel dar. In der Ebene Implementierung wird die Umsetzung mit konkreten technischen Mitteln beschrieben.
inhaltliche Anforderungen, technische Mittel und Umsetzung
Sichten Sichten werden gebildet, um die Komplexität von Modellsystemen zu beherrschen. Sichten entsprechen einem Teilausschnitt des Modellsystems einer Modellebene unter einem bestimmten Aspekt. Im Bereich der Technik werden Sichten bei der Darstellung eines Gegenstandes eingesetzt (Drauf-
309
Ausschnitte des Modellsystems
8
Informationsmanagement
sicht, Vorderansicht und Seitenansicht). Die Abbildung 8-15 zeigt das so genannte ARIS-Haus mit den gebräuchlichsten Sichten. Abbildung 8-15
Sichten des ARIS-Hauses
Struktur des Informationssystems
Statische Sichten beschreiben die Struktur eines Informationssystems, d. h. aus welchen Elementen das System besteht und welche Beziehungen es zwischen den Elementen gibt. Statische Sichten sind die Organisations-, die Daten-, die Funktions- und die Leistungssicht.
Aufbauorganisation
Die Organisationssicht beschreibt die Aufbauorganisation eines Unter-
Abbildung 8-16
nehmens. Es werden die Organisationseinheiten definiert, die für die Ausführung der Funktionen zuständig sind. Weiterhin werden die für die Ausführung der Funktionen genutzten und den Organisationseinheiten zugeordneten Ressourcen bestimmt. Eine statische Sicht auf die Organisation eines Unternehmens wird vorwiegend in Form eines Organigramms, wie in Abbildung 8-16, dargestellt. Beispiel eines Organigramms zur Darstellung der Organisationssicht
310
Geschäftsprozessmanagement
Die Datensicht beschreibt die Informationsobjekte des Unternehmens und dessen Umfeld sowie die Beziehungen zwischen ihnen. Die Notation erfolgt in Form eines semantischen Datenmodells, wie zum Beispiel als erweitertes Entity-Relationship-Modell in Abbildung 8-17.
8.3 Informationsobjekte
Datensicht als Entity-Relationship-Modell
Abbildung 8-17
Die Funktionssicht beschreibt die Zusammensetzung von aggregierten
Funktionshierarchie
Funktionen in Form einer Baumstruktur. Dabei bildet die Top-Funktion die Wurzel eines Baumes. Die Elementarfunktionen bilden die Blätter des Baumes. Funktionen werden als abgerundetes Rechteck (Softeck) notiert. Neben den Funktionen können in der Funktionssicht auch die Ziele definiert werden.
Funktionssicht als Funktionsbaum
Abbildung 8-18
Die Leistungssicht erfasst die wichtigsten Leistungen eines Geschäfts-
Input- und Output-Leistungen des Prozesses
prozesses wie z. B. geprüfter Kundenauftrag oder ausgefüllte Formulare. Input-Leistungen werden für die Prozesse bereitgestellt, OutputLeistungen entstehen durch das Erbringen von Leistungen oder die Ver-
311
8
Informationsmanagement
änderung von Input-Leistungen. Es werden insbesondere Dienstleistungen sowie Sachleistungen erbracht. dynamische Sicht Zusammenführung der statischen Sichten
Die Steuerungssicht, auch Prozesssicht genannt, führt die vorher in
dynamische Sicht
Im Unterschied zu den bereits dargestellten statischen Sichten ist die Steuerungssicht eine dynamische Sicht, da das Verhalten des Systems als Reaktion auf Ereignisse beschrieben wird. Die Notation der Steuerungssicht erfolgt als Ereignisgesteuerte Prozesskette (EPK) oder als erweiterte Ereignisgesteuerte Prozesskette (eEPK). Die eEPK unterscheidet sich von einer (schlanken) EPK dadurch, dass neben den Ereignissen und Funktionen auch Input und Output (Datensicht) sowie die für die Funktionsausführung zuständigen Organisationseinheiten (Organisationssicht) dargestellt werden. Die Abbildung 8-19 erläutert diese Notationsform.
Abbildung 8-19
Einzelsichten definierten Komponenten zusammen. Die einzelnen Geschäftsprozesse sind durch die Erbringung von Leistungen im Zusammenwirken der Komponenten (Sichten) gekennzeichnet. Ein Geschäftsprozess beschreibt den ereignisgesteuerten Ablauf der den betrieblichen Objekten zugeordneten Aufgaben. Die Durchführung der Aufgaben wird in Form von Vorgängen beschrieben. Vorgänge werden (ggf. mehrstufig) in Teilvorgänge zerlegt, deren Beziehungen in Form eines Vorgangsnetzes definiert werden.
Prozesssicht als erweiterte Ereignisgesteuerte Prozesskette
312
Geschäftsprozessmanagement
8.3
Modellabstraktionsebenen Im Rahmen der Modellerstellung können verschiedene Modellabstraktionsebenen unterschieden werden. Diese werden im Folgenden vorgestellt.
Metamodell Ein Metamodell beschreibt, welche Eigenschaften der realen Welt in einem Modell abzubilden sind. Es wird in einem Metamodell beschrieben, was im Modell eines Anwendungsbereiches zu beschreiben ist (z. B. Stellen, Informationssysteme, Formulare, Einzeltätigkeiten). Dabei werden keine konkreten Ereignisse, Funktionen oder Objekte benannt. Dies ist Aufgabe des jeweiligen Modells. Weiter wird festgelegt, welche Regeln und Notationsformen für die Beschreibung einzuhalten sind (Beschreibungsnormen), also wie die Darstellung erfolgt. Die Abbildung 8-20 zeigt das Metamodell für das Fachkonzept ARIS. Die in diesem Metamodell enthaltenen Konstruktionselemente (Bausteine) eines Geschäftsprozessmodells werden in Tabelle 8-7 erläutert.
Wie soll das Modell was beschreiben
Abbildung 8-20
Metamodell für das Fachkonzept ARIS
Während das Metamodell auf der höchsten Abstraktionsstufe definiert, was in einem Modell zu beschreiben ist, werden durch zwei darunter liegende Abstraktionsstufen von Modellen eines Fachkonzepts die Geschäftsprozesse dargestellt. Diese Abstraktionsstufen sind das Referenzmodell und das Implementierungsmodell.
313
8 Tabelle 8-7
Informationsmanagement
Konstruktionselemente (Bausteine) des ARIS-Metamodells
Ziel
í Ziele, die mit Durchführung des Prozesses erreicht werden sollen
Ereignis
í Auslöser und Ergebnis von Funktionen
Leistung
í die vom Prozess erbrachten oder verbrauchten Leistungen
Funktion
í Aktivitäten, Tätigkeiten í Abfolge der Funktionen bildet Prozess
Informationsobjekt
í für die Ausführung einer Funktion notwendige Informationen (Input) í durch eine Funktion erzeugte Informationen (Output).
Organisationsein-
í Ausführende der Funktionen
Anwendungssys-
í Unterstützung der Ausführung von Funktionen
heit
tem
í Verwaltung bzw. Verarbeitung von Informationsobjekten í z. B. Informations- und Kommunikationssysteme
Referenzmodell Spezifikation des Metamodells für einen Anwendungsbereich
Abbildung 8-21
Ein Referenzmodell ist eine Spezifikation eines Metamodells für einen bestimmten Anwendungsbereich mit dem Anspruch einer gewissen Allgemeingültigkeit. Der Begriff Referenz weist darauf hin, dass man sich bei der Gestaltung spezieller Modelle auf die Referenzlösung beziehen kann bzw. sogar daraus ableiten kann. Ein Referenzmodell ist auf Wiederverwendung (über eine evtl. Anpassung an die speziellen Bedingungen) ausgerichtet.
Gegenstände von Referenzmodellen
314
Geschäftsprozessmanagement
8.3
Referenzmodelle dienen als Bezugssystem und Vergleichsbasis für die Neugestaltung von Geschäftsprozessen (Branchen-Referenzmodell) oder als Grundlage für die Auswahl und Anpassung von Standardsoftware (Software-Referenzmodell). Software-Referenzmodelle sind Beschreibungen der mit einer Software unterstützten Geschäftsprozesse. Software-Referenzmodelle für Standardsoftware erleichtern die Beurteilung, welche Geschäftsprozesse in welcher Weise durch die Software unterstützt werden. Damit wird einerseits die Auswahl konkurrierender Angebote von Standardsoftware erleichtert. Andererseits kann das Referenzmodell nach der prinzipiellen Entscheidung für einen Anbieter zur Auswahl der einzelnen SoftwareKomponenten dieses Anbieters verwendet werden.
Softwarereferenzmodelle zur Auswahl und Anpassung von Software
Die verschiedenen Notationsformen der Modelle und die unterschiedlichen Termini für gleiche Sachverhalte erschweren allerdings den Vergleich der Softwarelösungen. Der Begriff Referenzmodell soll hier auf die Möglichkeit der Modifikation in Richtung eines Implementierungsmodells für ein konkretes Unternehmen hinweisen. Ein Beispiel für die Anwendung von Software-Referenzmodellen sind die so genannten Prozessmodelle der SAP AG. Diese dokumentieren in Form von Ereignisgesteuerten Prozessketten die Prozessunterstützung der Standardsoftware mySAP bzw. R/3. Die Darstellung erfolgt als schlanke EPK, d. h. es wird auf die Beschreibung von Input und Output sowie auf die Zuordnung der Funktionen zu Organisationseinheiten verzichtet. Diese vereinfachte Darstellung von Geschäftsprozessen ist im Falle der Dokumentation von Standardsoftware darin begründet, dass sowohl die Organisation der Informationsobjekte als auch die Organisationsstruktur in den Unternehmen unterschiedlich sein können.
Implementierungsmodell Ein Implementierungsmodell dient als Vorlage für die Einführung einer Software in einem speziellen Unternehmen. Durch das Auswählen (bzw. Weglassen) von Funktionen aus einem Referenzmodell kann ein Implementierungsmodell abgeleitet werden. Das Implementierungsmodell kann als Bestandteil der Dokumentation über das implementierte Anwendungssystem und als Grundlage für die Schulung der Mitarbeiter dienen. Beispiele von Werkzeugen zur Erstellung solcher Modelle sind ARIS, BONAPART, INCOME, AENEIS und ADONIS. Die Beziehungen zwischen den einzelnen Modellabstraktionsebenen stellt die Abbildung 8-22 dar.
315
unternehmensspezifische Vorlage für die Einführung von Software
8
Informationsmanagement
Abbildung 8-22
Modellabstraktionsebenen
Bewertungskriterien für die Modellierung
Tabelle 8-8
Grundsätze ordnungsmäßiger Modellierung (GoM) Die Modellierung und Modellierungsmethoden bieten in ihrer Vielfalt einen hohen Spielraum für Kreativität und Subjektivität. Verschiedene Modellierer können so zu unterschiedlichen Modellausprägungen kommen. Aus diesem Sachverhalt heraus und zur Ableitung von Gestaltungsempfehlungen wurden von Becker, Rosemann und Schütte Bewertungskriterien entworfen, die als Grundsätze ordnungsmäßiger Modellierung (GoM) bezeichnet werden. Sie stellen eine Rekonstruktion und Erweiterung bestehender Grundsätze ordnungsmäßiger Modellierung dar. Die Kriterien werden in Tabelle 8-8 erläutert.
Grundsätze ordnungsmäßiger Modellierung(GoM)
Grundsatz der
í Konsens über Problemdefinition, Modellierungszweck und Modelldarstellung
Grundsatz der
í Sprachrichtigkeit (Syntaktik)
Konstruktionsadäquanz
Sprachadäquanz
Grundsatz der
Wirtschaftlichkeit
í Spracheignung (Semantik, Sprachverständlichkeit, Formalisierbarkeit) í Detaillierungsgrad, Veränderungshäufigkeit í Sprachanwendung und Verständlichkeit í Verwendung von Werkzeugen, Referenzmodellen í Vergleichbarkeit
316
IT-Infrastruktur
Grundsatz der Klarheit
8.4
í Hierarchisierung í Layoutgestaltung, Anschaulichkeit, Lesbarkeit í Namenskonventionen, Fachbegriffe í Filterung abhängig von Zweck und Nutzer
Grundsatz der
Vergleichbarkeit
Grundsatz des
systematischen Aufbaus
í Vergleichbarkeit auf Ebene des Metamodells í Vollständige Übersetzung bei unterschiedlichen Modellierungsmethoden í Konsistenz zwischen Struktur und Verhaltensmodell í Informationssystem, Integration der Sichten
8.4
IT-Infrastruktur
Die IT-Infrastruktur (Informationsinfrastruktur) beinhaltet die Hardware, die Software, das Personal, das sich professionell mit der Planung und dem Betrieb von Informations- und Kommunikationssystemen beschäftigt sowie die Methoden und Werkzeuge, die zur Planung, Überwachung und Steuerung dieser Systeme verwendet werden. Die Vorgaben an die IT-Infrastruktur werden aus den Ergebnissen der Geschäftsprozessgestaltung abgeleitet. Ausgangspunkt sind die (restrukturierten) Geschäftsprozesse mit ihren prinzipiellen Anforderungen an die Software und ihre Systemumgebung. Der spezifische Änderungsbedarf ist aus dem analysierten Prozess-Input und -Output, zeitlichen und quantitativen Restriktionen sowie den organisatorischen Gegebenheiten abzuleiten. Ein hierauf basierender Maßnahmenkatalog bzw. Lastenheft kann als Vorgabe für die Softwareentwicklung oder als Grundlage für eine Fremdbeschaffung (Ausschreibung) genutzt werden. Im Ergebnis ist aus dieser Dokumentation ein Pflichtenheft zu entwickeln (vgl. auch Kapitel 4), das zudem die softwaretechnische Anforderungsdefinition bzw. Spezifikation, eine Wirtschaftlichkeitsrechnung und die Definition der Rechte und Pflichten der Vertragspartner beinhaltet.
Reengineering von Altsoftware Nach der Definition der Anforderungen an die Infrastruktur sind folgende Fragen zu beantworten:
317
IT-Infrastruktur = Hardware + Software + Personal + Methoden + Werkzeuge
Lastenheft und Pflichtenheft
8
Informationsmanagement
Ist es sinnvoll, die im Einsatz befindliche Altsoftware (legacy systems) durch ein Reengineering auf die neuen Anforderungen hin umzugestalten?
Kann die Altsoftware durch Kapselung weiter genutzt werden? Ist es zweckmäßig, die Softwarebasis komplett gegen neue Software auszutauschen? Es ist zu prüfen, ob die Altsysteme den neuen Anforderungen entsprechen bzw. ob eine Sanierung oder Weiterverwendung in einer neuen Softwareumgebung zweckmäßig ist oder ob eine völlig neue Software eingesetzt werden muss. Portfoliotechnik zur Entscheidungsfindung
Abbildung 8-23
Zur Entscheidungsunterstützung kann die Portfoliotechnik genutzt werden. Dabei wird eine Einordnung der Altsoftware nach der Bedeutung für den Unternehmenserfolg (Wirksamkeit) und nach der Wirtschaftlichkeit vorgenommen. Ein Beispiel-Portfolio zeigt die Abbildung 8-23. Die Positionen der Softwaresysteme im Portfolio sind durch Punkte markiert.
Portfolio der Softwaresysteme
Softwareauswahl und -entwicklung Standardsoftware oder Individualsoftware
Nach der Entscheidung für eine neue Software ist zu prüfen, ob ein am Markt verfügbares Produkt (Standardsoftware) den Anforderungen der neu zu gestaltenden Geschäftsprozesse genügt oder ob die teure Entwicklung von Individualsoftware – in Eigenproduktion oder durch Auftragsfertigung
318
IT-Infrastruktur
– notwendig ist. Weiterhin ist zu bestimmen, ob die eingesetzte Software selbst betrieben oder nur gemietet (Application Service Providing – ASP) werden soll. Die Entscheidung entwickeln, kaufen oder mieten (make or buy or rent) ist von vielen Einflüssen abhängig. Für den Kauf sprechen prinzipiell die Vorzüge von Standardsoftware, wie niedrigere Kosten, sofortige Verfügbarkeit, erprobte Lösungen, erweiterte Nutzungsrechte u. a. Das Mieten standardisierter Software ist dann sinnvoll, wenn deren Aktualität von hoher Bedeutung ist, eine Administration durch eigene Ressourcen nicht möglich ist, hohe Anfangsinvestitionen vermieden werden sollen oder die geringe Nutzung einen Kauf oder eine Eigenentwicklung nicht rechtfertigt. Eine Differenzierung im Wettbewerb ist prinzipiell mit einer Individualsoftware viel eher möglich, als mit einem potenziell für alle Mitbewerber verfügbaren Produkt. So werden insbesondere die Kerngeschäftsprozesse durch Individualsoftware und Sekundärprozesse (z. B. Buchhaltung) eher durch Standardsoftware abzudecken sein. Vor einer Entscheidungsfindung sind deshalb folgende Fragen zu beantworten:
Welche Vorauswahl lässt sich durch eine Markt- und Produktanalyse treffen?
Ist es sinnvoll, eine Software zu mieten? Welcher Anpassungsaufwand von Standardsoftware ist notwendig? Ist die Entwicklung von Individualsoftware sinnvoll, da die unternehmensspezifischen Anforderungen von Standardsoftware nicht oder nur ungenügend erfüllt werden können? Markt- und Produktanalyse Eine aktuelle Analyse des IT-Marktes und seiner Produkte ist für eine fundierte Entscheidungsfindung von entscheidender Bedeutung. Das prinzipielle Vorgehen zur Markt- und Produktanalyse beinhaltet folgende Schritte: 1. Vorauswahl der Anbieter 2. Angebote einholen 3. Grobauswahl 4. Feinauswahl Im Folgenden werden die Inhalte eines solchen Vorgehens kurz erläutert.
319
8.4
8
Informationsmanagement
Vorauswahl der Anbieter Wenn nicht eine Ausschreibung mit ihren genau festgelegten Reglementarien erfolgen muss, sollte vor einem Anbieterkontakt eine umfangreiche Recherche zu möglichen Anbietern und Produkten durchgeführt werden. Hierzu können sowohl öffentlich zugängliche als auch kommerzielle Informationsquellen genutzt werden. Möglichkeiten zur Informationssuche sind:
Suchmaschinen, Messen und Roadshows, Presse- und Recherchedienste, Verbände und Organisationen, Produkt- und Unternehmens-Datenbanken, Geschäftsberichte (Unternehmensdaten). Angebote einholen Nachfolgend können interessante Kandidaten ermittelt und zur Abgabe eines Angebotes aufgefordert werden. Zu diesem Zweck werden aus dem Pflichtenheft die Vorgaben für die Anbieter abgeleitet:
allgemeine Charakteristik des Unternehmens, Funktionalität, Prozesse, Mengengerüst (aktuell und zukünftig), Katalog der Ziele und Mindestanforderungen, Stufenkonzept, Preisobergrenze für das Angebot, Vertragsbedingungen, gewünschter Einsatztermin, Aufforderung zu Angaben über Produkttests, Referenzen, Schulung, Systemeinführung, Abnahme und Wartung,
Termin für die Abgabe des Angebots. Grobauswahl der Angebote Die (fristgerecht) eingegangenen Angebote werden im nächsten Schritt grob bewertet. Dazu wird nach den folgenden Punkten die Anzahl der Anbieter auf eine überschaubare Größenordnung für die Feinauswahl reduziert:
Gewichtung der Auswahlkriterien, Erfüllung von K.O.-Kriterien (Muss-Funktionalität), 320
IT-Infrastruktur
8.4
Erfüllungsgrade der einzelnen Auswahlkriterien, Preise / Kosten, Prüfergebnisse in Kurzform, Anbieterprofile und Referenzen, Stärken/Schwächenprofile der Softwaresysteme, Wirtschaftlichkeitsbetrachtung. Feinauswahl der Anbieter Die Feinauswahl führt zur Auswahl eines Softwareproduktes, eines Service Providers oder aber zur Entscheidung für die Entwicklung einer Software. Dabei wird hier nicht unterschieden, ob ein Partner mit der Entwicklung beauftragt wird oder ob das Unternehmen mit eigenen Entwicklern die Software herstellt. Zusätzliche Entscheidungsmerkmale der Feinauswahl sind:
Installationstopologien (Hardwareinstallation auf der Grundlage des Mengengerüsts und der örtlichen Verteilung)
Anbieterbesuche, Referenzkundenbesuche, Teststellungen Angebotsanalyse (Bewertung der Anwendungssoftware durch Vergabe von Punkten oder Schulnoten vom Einzelkriterium bis zum Gesamtsystem bestehend aus Anwendungssoftware und Hardware)
Tabelle 8-9
exemplarische Auswahlkriterien für Softwarelösungen
betriebswirtschaftliche Kriterien
Leistungsumfang, Schnittstellen zu anderen Anwendungen
softwaretechnische Kriterien
Benutzerfreundlichkeit, Effizienz, Zuverlässigkeit, Datensicherung, Erweiterungsfähigkeit
Kriterien zur Systemeinführung
Anpassungsaufwand, Schulung, Testmöglichkeiten vor Installation, Unterstützung, Verfügbarkeit, Wartung, laufende Kosten, Qualität der Dokumentation
Kriterien zur Anschaffung
Lieferzeit, Kaufpreis/Mietpreis, Zusatzkosten für Schulung, Handbücher, Vertragsbedingungen, Garantien
Kriterien über den Anbieter
Referenzen, Marktstellung, Qualifikation, geographische Nähe
und zum Systembetrieb
321
8
Informationsmanagement
Auswahlkriterien
Zur Evaluierung geeigneter Softwarelösungen gibt es eine Reihe von häufig genutzten Auswahlkriterien, die in Tabelle 8-9 aufgeführt sind.
gewichtete Bewertung
Für die Bewertung der Angebote wird vorwiegend die Nutzwertanalyse eingesetzt. Mit Hilfe dieser Methode können die Angebote der verschiedenen Anbieter unter Berücksichtigung der gewichteten eigenen Anforderungen verglichen werden. Dazu sind folgende Schritte notwendig: 1. Festlegen der Kriterienliste und Gewichtung 2. Bewertung der Merkmalsausprägung (z. B. 0 bis 5) 3. Multiplikation der Ausprägung je Merkmal mit dem Gewicht 4. Addition der Punktwerte = Nutzwert (Summe entspricht dem Nutzwert) 5. Verfeinerung des Ergebnisses durch mehrstufige Nutzwertanalyse (selektive Auswertung der Beurteilungsmerkmale durch hierarchische Merkmalsbildung und Bewertung) 6. Durchführen von Sensitivitätsanalysen (Auswirkungen von Veränderungen in den Gewichten oder Punktbewertungen) Ein Beispiel für die Kriterien zur Bewertung der Anwendungssoftware zeigt die Tabelle 8-10.
Tabelle 8-10
Auswahlfaktoren der Anwendungssoftware (Beispiel) Kriterium Funktionalität
Gewichtung (in %) 40
Software-Architektur
5
Individualisierungsmöglichkeit
5
Benutzungsoberfläche Portabilität
10 5
Datenschutz
20
Schnittstellen zu anderen Systemen
15
Summe
100
Neben der Bewertung der Anwendungssoftware (Gewichtung 60%) sind weitere Faktoren in die Auswahl einzubeziehen, wie die Bewertung der Anbieter (30%) und der Basissoftware (10%). Die – hier beispielhaft angegebenen – Gewichte der Faktoren werden unternehmensindividuell festgelegt.
322
IT-Infrastruktur
8.4
Software mieten durch ASP Beim Application Service Providing greift der Anwender über eine Netzwerkverbindung auf den Server des Anbieters zu. Der Anwender selbst besitzt kein Exemplar der Software. Für die Administration, Pflege und Wartung der Software ist der Anbieter zuständig. Der genaue Umfang dieser Dienstleistungen wird über Service Level Agreements (SLA) festgelegt (z. B. Update Service, Backup Service, Full Service, u. a.). In Tabelle 8-11 sind die entsprechenden Kriterien für eine Entscheidungsfindung zum Mieten einer Software bei einem Provider aufgeführt. Risiken der Nutzung von ASP sind aus Tabelle 8-12 zu entnehmen.
Tabelle 8-11
Vorteile von ASP
Investitionsbedarf
Die gemieteten Anwendungen nutzen bestehende Kapazitäten und greifen entweder über einen Browser (HTML/Java-basiert) oder einen einmalig zu installierenden Client mit eigener grafischer Benutzeroberfläche (Graphical User Interface – GUI ) auf den Server des Anbieters zu. Da nur Ein- und Ausgabedaten übertragen werden, ist nur selten zusätzliche Hardware erforderlich. Die Investitionskosten werden bei Einführung gering gehalten und verteilen sich gleichmäßig über den Mietzeitraum. Dem gegenüber stehen bei längeren Laufzeiten höhere Aufwendungen für Lizenzen und Wartung.
Flexibilität
Es besteht eine geringe Abhängigkeit vom Anbieter. Der Wechsel zu einem anderen Provider ist jedoch mit Anpassungskosten verbunden. Der Gefahr einer Fehlinvestition kann durch eine vertragliche Ausstiegsklausel besser begegnet werden, als dies bei einem Kauf möglich ist.
Aktualität
Die Anwendungen können durch den Provider zentral gewartet und je nach Vereinbarung aktuell gehalten werden. Für den Nutzer ergibt sich kaum Anpassungsaufwand nach einer Softwareaktualisierung.
Häufigkeit der
Anwendungen, die nur selten genutzt werden, können nach Bedarf abgefordert werden (application on demand). Die Abrechnung erfolgt benutzer- oder transaktionsorientiert (pay as you go). Die entstehenden Kosten sind transparent und kalkulierbar.
Nutzung
Softwarenutzung über Netzwerk
ASP wird zumeist bei einfachen Anwendungen, wie Office-Software, EMail-Systeme, Beschaffungsvorgänge, Reisekosten- und Gehaltsabrechnung sowie für sehr teure Spezialprogramme, eingesetzt. Mit ASP können nur Anwendungen unterstützt werden, deren Datenvolumen gering ausfällt und die nur eine eng begrenzte IT-Integration (Schnittstellen zu
323
Anwendungsbereiche
8
Informationsmanagement
anderen Systemen) erfordern. Eine komplette Abwicklung aller Unternehmensprozesse über ASP ist aus heutiger Sicht nicht sinnvoll. Insbesondere für unternehmenskritische Anwendungen bezüglich Performance und Datensicherheit ist ASP nicht geeignet. Tabelle 8-12
Risiken von ASP
Verfügbarkeit
Die Verfügbarkeit der Anwendungen ist vertraglich festzulegen. Da das System beim Anbieter installiert ist, liegen die Probleme vor allem in der Datenübertragung. Üblich ist eine Verfügbarkeit des Systems von mindestens 95%.
Geschwindigkeit
Bei geringen Datenübertragungsraten, wie ISDN oder Analog-Modem, kann ASP nur in unkritischen Bereichen zum Einsatz kommen. Zu beachten ist auch, dass über eine Internetverbindung keine festen Übertragungsraten garantiert werden können, da dies nicht im Einflussbereich der Service Providers liegt. Somit müssen ggf. zusätzliche Wählleitungen eingerichtet werden (Folgekosten).
Datensicherheit
Beim ASP werden sämtliche Daten, die in der betreffenden Software verarbeitet werden, über die Netzwerkverbindung übertragen und auf dem Server des Providers gespeichert. Sowohl für die Übertragung als auch für die Speicherung sind Maßnahmen der IT-Sicherheit zu treffen, um Datenverlust, Manipulation und Spionage zu verhindern.
Anpassung der Standardsoftware Customizing
Für die Auswahl von Standardsoftware (Kauf oder Miete) ist eine Anpassung der Software an die Anforderungen des Anwenders durch Customizing erforderlich. Dazu muss die bei klassischer Standardsoftware für möglichst viele Einsatzfälle vorgesehene Funktionalität auf die geforderten Funktionen reduziert werden. Eventuell sind nicht vorhandene, aber dringend gewünschte Funktionen hinzuzufügen (Zusatzprogrammierung). Andererseits ist vielfach auch eine Anpassung der Organisation im Unternehmen an die in der Software unterstellten Abläufe erforderlich. Dies ist insbesondere dann sinnvoll, wenn in der Software brachenspezifische „best practice“-Prozesse abgebildet sind, die zu einer Verbesserung der Unternehmensabläufe führen.
Parametrierung
Der klassische Weg der Anpassung ist die Parametrierung. Die gewünschten Programmfunktionen werden durch das Setzen von Parametern initialisiert. Nicht angebotene Funktionen sind individuell (vorwiegend in einer 4GL-Sprache) zu programmieren.
324
IT-Infrastruktur
Eine andere Form der Anpassung wird bei der komponentenbasierten Standardsoftware eingesetzt. Aus den einzelnen Komponenten wird ein an die Bedürfnisse des Anwenders angepasstes System generiert. Dazu erfolgt die Auswahl der gewünschten Geschäftsobjekte, einschließlich deren Attribute und Methoden, die Prüfung auf logische Integrität und schließlich die Generierung des Anwendungssystems aus den ausgewählten Geschäftsobjekten. Erweiterungen können mit Hilfe des Frameworks aus Komponenten konfiguriert werden.
8.4 Zusammenstellung aus Komponenten
Entwicklung von Individualsoftware Individualsoftware ist zu entwickeln, wenn geeignete Standardsoftware nicht verfügbar ist oder wenn ein Wettbewerbsvorteil durch eine neuartige Software erzielt werden soll. Meist wird die Softwareentwicklung einem internen oder einem externen Dienstleister übertragen. Die Softwareentwicklung vollzieht zunehmend den Übergang von der konstruierenden zur projektierenden Tätigkeit. Die Projektierung von Anwendungssystemen erfolgt auf der Grundlage von vorgefertigten Baugruppen von Geschäftsobjekten (Business Objects), Entwurfsmustern (Design Patterns) und Normteilen (Components). Diese wieder verwendbaren Bausteine werden im Rahmen der Implementierung in Entwicklungsumgebungen (Frameworks) zusammengeführt und bilden schließlich die Individualsoftware. Mit der detaillierten Vorgehensweise zur Softwareentwicklung beschäftigt sich das Kapitel 4.
Verantwortung für die IT-Infrastruktur Die Verantwortlichkeiten für die IT-Infrastruktur sind meist zentralistisch strukturiert. Die Ausrichtung der Unternehmen auf eine stärkere Kundenorientierung führt auch im IT-Bereich zu einem Wandel von einer technischen Fachabteilung zu einem IT-Service-Center. Insbesondere der Aufbau von Cost- oder Profit-Centern bedingt eine Veränderung im unternehmerischen Denken: Die Fachabteilungen bzw. die Profit-Center sind die Eigentümer der Prozesse. Sie müssen daher auch für die Unterstützung der Geschäftsprozesse Verantwortung tragen und Entscheidungen treffen. Ein ITService-Center ist daher gleichzusetzen mit einem IT-Dienstleister, der kostengünstig (interne) Leistungen erbringt und auf die Aufrechterhaltung der Geschäftsprozesse ausgerichtet ist. Die Aufgabenbereiche der IT-Service-Center werden häufig an den ITILProzessen (IT Infrastructure Library) ausgerichtet. ITIL beschreibt praxiserprobte Service-Prozesse („best practice“) für IT-Infrastrukturen. ITIL ist eine Methodik zur Standardisierung von IT-Prozessen sowie deren Einführung,
325
Wandel zum ITService-Center
Ausrichtung an ITIL-Prozessen
8
Informationsmanagement
Integration, Problembehandlung und Leistungsmessung. Dies führt zu einem effizienteren Einsatz der IT-Ressourcen und einer besseren Qualität der IT-Services. Abbildung 8-24
operative Aufgaben von IT-Service-Centern
System- und Netzmanagement (inkl. Lastoptimierung) Datensicherung und Archivierung Nutzerunterstützung (Helpdesk) und Beratung Inspektion, Wartung und Störungsbeseitigung Softwareverteilung (Einrichtung und Anpassung) Einkauf (Soft- und Hardware, Dienstleistungen) Reporting und Analysen Controlling und Abrechnung Notwendig ist die Einbindung des IT-Service-Centers auch bei Projekten zur Neugestaltung der Geschäftsprozesse, um das Know-how der IT-Spezialisten einzubeziehen und organisationsübergreifende Aspekte einzubringen. Die Mitglieder im Projektteam aus den IT-Service-Centern müssen insbesondere die Integration verschiedener Anwendungssysteme auf der Basis unterschiedlicher Anforderungen und Erwartungen der anderen Projektbeteiligten sichern.
Controlling der IT-Leistungen Aus der Rolle der IT-Service-Center als eigenverantwortliche IT-Dienstleister ergeben sich Anforderungen an die Neugestaltung der Beziehungen zwischen den Partnern. Das Verhältnis der Fachabteilungen zu den ITDienstleistern ist gegenwärtig noch überwiegend dadurch charakterisiert, dass die Fachabteilungen mit der Unterstützung ihrer Geschäftsprozesse durch die Informationstechnologie nicht zufrieden sind. Dieses Problem hat u. a. folgende Ursachen:
Anforderungen für Projekte oder Daueraufgaben werden ungenau definiert.
Die Fachbereiche tragen keine Mitverantwortung für die IT-Kosten. Die Kosten der Informationsverarbeitung werden häufig nur in zentralen Kostenstellen (Rechenzentrum) erfasst. Die Monopolstellung der ITAbteilung erweckt zudem den Verdacht der Ressourcenverschwendung.
326
IT-Infrastruktur
Zur Überwindung dieser Probleme sind die Beziehungen zwischen ITDienstleister (intern oder extern) und Fachabteilung mit den Rollen „Auftraggeber“ und „Auftragnehmer“, einschließlich der gegenseitigen Leistungen, klar zu definieren. Es sind für die Serviceleistungen Ziele zu setzen, die Zielerreichung ist zu messen, und es sind ggf. Steuerungsmaßnahmen einzuleiten.
8.4 Dienstleister / Dienstnutzer
Der Kunde (Auftraggeber) muss wissen, welchen Preis die Leistung hat, die er wünscht. Er sollte sich darüber im Klaren sein, dass es nicht zuletzt seine Aufgabe ist, die Ergebnisse aus der Anwendung der Informationstechnologie und deren Kosten in einem richtigen Verhältnis zu gestalten. Daraus leiten sich folgende Maßnahmen ab:
Für Standardleistungen sind verbindliche Preise mit den Leistungsempfängern zu vereinbaren. Diese Preise sollen marktgerecht sein, d. h. marktüblichen Preisen externer Anbieter entsprechen. Allerdings differieren die Preise der externen Anbieter sehr stark, so dass ein Vergleich sehr aufwendig ist.
Leistungen und Kosten sind zu planen und verursachungsgerecht den verbrauchenden Organisationseinheiten, Prozessen bzw. Produkten zuzurechnen.
verbindliche, marktgerechte Preise
verursachungsgerechte Kostenzuordnung
Verrechnung der Leistungen Die Verrechnungseinheiten orientieren sich zumeist an der technischen Systeminanspruchnahme, die über Abrechnungsroutinen automatisch gemessen werden kann.
automatische Messung der Kennzahlen
Kennzahlen zur Verrechnung von IT-Leistungen
Abbildung 8-25
CPU-Zeit [MIPS-Stunden] Server-Plattenplatz [Gigabyte/Monat] Helpdesk-Nutzung [Stunden oder pauschal] Datensicherung und -archivierung [Gigabyte/Monat] Farbdruck [1.000 Seiten] PC oder Workstation [Monatspreis pro Arbeitsplatz] Übertragungsrate [kBit/s] Datenvolumen [Gigabyte/Monat] In Vereinbarungen über die Bereitstellung und Inanspruchnahme von ITLeistungen wird weiterhin die Servicequalität, wie Systemverfügbarkeit,
327
8
Informationsmanagement
Online-Betriebszeiten, Datensicherungsmaßnahmen, Schulungen und Rufzeiten für den Benutzerservice festgelegt. Zuordnung der IT-Leistungen bei der Leistungsverrechnung Die Leistungs- und Kostenverrechnung für hauseigene IT-Leistungen erfolgt in folgenden Varianten:
Zuordnung nach Kostenstellen bzw. Profit-Centern Zuordnung nach Prozessen (Prozesskostenrechnung) Zuordnung zu IT-Projekten (z. B. Einführung von Standardsoftware, Entwicklung von Individualsoftware) Zumeist wird eine Verrechnung der Leistungen und deren Entgelte nach Kostenstellen (Organisationseinheiten) vorgenommen. Die Kostenart ITLeistung zeigt die Kosten der Inanspruchnahme. Einspareffekte gibt es durch eine bedarfsgerechte Inanspruchnahme von Leistungen durch die Kostenstellen. Die Prozesskostenrechnung erlaubt nicht nur die Kostenbeeinflussung durch die Kostenstellenverantwortlichen, sondern die KostenNutzen-Rechnung für Prozesse und Produkte. Durch die Erfassung der „Output-Größen“ (Kostentreiber, cost driver), wie Anzahl der Bestellungen pro Periode, Anzahl der Lieferanten oder Anzahl der Anträge, können für jeden Prozess Prozesskostensätze ermittelt werden, z. B. Kosten pro Bestellung auf Plan- und Ist-Kostenbasis. Damit werden prozessbezogene Soll-IstVergleiche und Vergleiche im Benchmarking möglich. Der Prozessverantwortliche kennt die wahren Prozesskosten über alle beteiligten Organisationseinheiten. Damit können die Kostenschwerpunkte erkannt werden und Leistungsvergleiche unter Berücksichtigung der Kosten erfolgen.
Verteilung von IT-Infrastruktur Für die Verteilung von IT-Infrastruktur sind drei Trends zu erkennen. Diese sind in Abbildung 8-26 dargestellt und werden im Folgenden erläutert.
Ausweitung der IT-Infrastruktur über die Firmengrenzen hinaus
Externalisierung Externalisierung bedeutet, dass die Unternehmen ihre IT-Funktionen über die Firmengrenzen hinaus ausdehnen. Dies wird vor allem forciert durch den elektronischen Geschäftsverkehr (E-Commerce) und die Kooperation zwischen Unternehmen (Business-to-Business, Collaborative Business) im Rahmen von Lieferantenketten (Supply Chain Management – SCM). Dazu werden Warenwirtschaftssysteme über ein Extranet gekoppelt. In der Beziehung zu den Endkunden (Business-to-Consumer) können diese zum Beispiel online (über das Internet oder eine direkte Netzverbindung) Produkte
328
IT-Infrastruktur
8.4
konfigurieren, die Verfügbarkeit abrufen, Bestellungen durchführen oder Liefertermine und Finanzierungen vereinbaren.
Trends der Verteilung der IT-Infrastruktur
Abbildung 8-26
Beziehungen zwischen Geschäftspartnern
Abbildung 8-27
329
8 über das Internet verfügbare Dienstleistungen
Informationsmanagement
Internet Services Als Internet Services werden Dienstleistungen bezeichnet, deren Bezug über das Internet erfolgt. Für die Bereitstellung der Internet Services sind Internet-Dienstleister (Internet Service Provider – ISP) verantwortlich. Die Abwicklung der Internet-Dienstleistungsgeschäfte wird sich nach dem Vorbild der Telefongesellschaften und Energieversorger entwickeln: Verbindung zum Anbieter herstellen und für bezogene Leistungen bezahlen. Vorteile bieten Internet-Dienstleister insbesondere für kleine und mittlere Unternehmen. Für sie lohnt es sich beispielsweise nicht, einen eigenen Mail- oder Web-Server zu betreiben. Auch Tools zur Koordinierung der Arbeit in Gruppen, wie Terminkalender und Diskussionsforen, sind über das Internet verfügbar. Selbst betriebswirtschaftliche Anwendungen (ERP-Funktionen) werden über das Internet angeboten (application hosting). Zentralisierung der internen Dienstleistungen Ziel der Zentralisierung der internen IT-Angebote ist eine Erhöhung der Skalierbarkeit (Größenanpassung), der Zuverlässigkeit, der Verfügbarkeit und der Wirtschaftlichkeit der Anwendungen.
Stufe A
Abbildung 8-28
Stufe B
Vor der Einführung der elektronischen Datenverarbeitung waren die Funktionen im Unternehmen und die zugehörigen Informationen dezentral angesiedelt. Das bedeutete für den Sachbearbeiter, dass er die Kontrolle über seine Daten und die Art ihrer Bearbeitung ausübte (Stufe A in Abbildung 828).
Entwicklungsstufen der Verteilung der IT-Infrastruktur
Der zunehmende Einsatz elektronischer Datenverarbeitungsanlagen führte dazu, insbesondere die Anwendungen mit Massendaten zu automatisieren. Die Folge war, dass Teilaufgaben aus den Fachbereichen ausgegliedert wurden, um diese durch den zentralen Einsatz von Datenverarbeitungsanlagen
330
IT-Infrastruktur
8.4
wirtschaftlicher und schneller erledigen zu können (Stufe B in Abbildung 828). Die Fachexperten (Anwender) wurden stark abhängig von den Leistungen der Rechenzentren. Anforderungen von speziellen Auswertungen oder Programmveränderungen waren mit erheblichen Wartezeiten verbunden. Die Anwendungen waren Insellösungen, da einzelne Teilaufgaben in einem abgeschlossenen Bereich (closed shop) automatisiert wurden. Verbindungen zu anderen Bereichen existierten nicht oder waren mit sehr hohem Aufwand verbunden. In den letzten zehn Jahren wurden die technischen Möglichkeiten zur Rückverlagerung von Datenverarbeitungsfunktionen in die Fachbereiche immer stärker genutzt. Die Abkehr von einer zentralisierten Macht hin zu dezentralen und schließlich vernetzten Verantwortungsbereichen findet sich sowohl in der Organisation der Unternehmen als auch in der ITInfrastruktur. Veränderungen in der Organisation der Unternehmen führten zu Profit-Centern, die unabhängig und eigenverantwortlich handeln. Sie tragen eine eigene Ressourcenverantwortung für die Informationsverarbeitung. Es entstand damit eine Unabhängigkeit von dem zentralistischen, technikorientierten Rechenzentrum. Die Folge war eine stark verteilte Datenhaltung mit dezentralen Servern (Stufe C in Abbildung 8-28). Diese Dezentralisierung wurde zusätzlich mit Kostenvorteilen, insbesondere im Hardwarebereich, begründet: Die Hardwarekosten für mehrere verteilte Personalcomputer sind wesentlich geringer als die Kosten eines Großrechners (mainframe).
Stufe C
Diese Kostenbetrachtung orientierte sich jedoch einseitig an den Hard- und Softwarekosten. Die hohen Personalaufwendungen für Support, Systemadministration und die nichtproduktiven Aktivitäten der Benutzer wurden nicht berücksichtigt. Ursachen und Folgen des Administrations- und Supportaufwandes sind in Tabelle 8-13 beschrieben. Zudem hat sich das PreisLeistungs-Verhältnis für Großrechner im Zuge der Weiterentwicklung der Informationstechnik verbessert.
Tabelle 8-13
Ursachen und Folgen des hohen Support- und Administrationsaufwands von Client/Server-Systemen Ursachen
Folgen
heterogene Systemlandschaften
umfangreiche und unterschiedliche Systemkenntnisse bei der Supportorganisation
Komplexität der Desktop-Systeme
der Benutzer benötigt eine umfangreiche Unterstützung
lokale Verteilung der Server
an mehreren Orten identische Aktivitäten, z. B. Datensicherung und Installation von Software
331
8
Informationsmanagement
dezentrale Betreuung der Benutzer
Vernachlässigung von Aufgaben, z.B. Inventarisierung von Hard- und Softwareausstattungen, System- und Netzmanagement, Training der Endbenutzer
Stufe D
In den letzten Jahren ist ein Trend zur Re-Zentralisierung von Systemressourcen zu verzeichnen. Begriffe wie Re-Hosting und Web-to-Host bringen zum Ausdruck, dass Applikationen und insbesondere Daten von den dezentralen Systemen auf Großrechner migriert werden. Server werden lokal konzentriert oder kleinere Server durch wenige leistungsfähige zentralisierte Server (Main-Server) ersetzt. Dieser Prozess wird als Server-Konsolidierung bezeichnet. Dem Main-Server kommt dabei die Aufgabe zu, dort für Sicherheit, hohe Verfügbarkeit und Zuverlässigkeit zu sorgen, wo es erforderlich ist. Dies sind insbesondere die unternehmenskritischen Anwendungen (Stufe D in Abbildung 8-28).
unternehmensweites Ressourcenmanagement
Mit Technologien wie Data Warehouse, Intranet, Extranet und Internet, zunehmenden Übertragungsleistungen und sinkenden Telekommunikationskosten entfällt immer mehr die Notwendigkeit für zahlreiche, großräumig verteilte Server. Die neuen Anwendungen verlangen nach einem unternehmensweiten Ressourcenmanagement.
Optimierung verteilter Architekturen
Die Zentralisierung von IT-Leistungen bedeutet jedoch nicht einen Schritt zurück zur zentralmonolithischen IT-Organisation. Ziel ist nicht eine Entscheidung für Dezentralisierung oder für Zentralisierung, sondern die Optimierung verteilter Architekturen. Dabei übernehmen die IT-Service-Center die systemadministrativen Aufgaben. Dazu gehören eine hohe Servicebereitschaft, eine Orientierung an den Geschäftsprozessen und ein tiefes Verständnis für die Bedürfnisse der einzelnen Unternehmenseinheiten. Das Produkt- und Dienstleistungsangebot muss in Leistung und Preis auf den Markt ausgerichtet werden, um gegenüber externen Anbietern bestehen zu können. Dazu werden die IT-Service-Center selbst zu Profit-Centern.
IT-Sourcing Für IT-Dienstleistungen entstehen hohe Kosten, die wie andere Kostenbestandteile transparent und steuerbar sein sollten. Die Kosten und Budgets für die Informationstechnik haben zudem eine relevante Größenordnung, um über Sourcing-Konzepte eine Steigerung der Effizienz erreichen zu können.
332
IT-Infrastruktur
Das Konzept der „Reduzierung der Fertigungstiefe“ kann auch auf die IT angewendet werden; es soll also die Konzentration auf das IT-Kerngeschäft erfolgen. Ein Unternehmen wird nur in den Geschäftsfeldern aktiv, auf die es sich spezialisiert hat und in denen es besonderes Know-how besitzt. ITDienstleistungen werden dann nicht oder nicht vollständig von eigenen Unternehmensbereichen angeboten, sondern durch externe Unternehmen erbracht. Alternativen zur Verringerung der Eigenleistungstiefe für ITDienstleistungen können sein:
8.4 Konzentration auf das IT-Kerngeschäft
interner IT-Service Diese Variante wird auch als Insourcing bezeichnet (Insourcing – Wortschöpfung aus inside und resourcing). Hierbei wird die Leistung innerhalb des Unternehmens zu marktüblichen Preisen und Konditionen erbracht. Der interne Leistungserbringer ist im Allgemeinen ein eigenständiges Profit-Center oder eine rechtlich selbstständige Organisationseinheit (Ausgliederung, Firmenverbund).
interne Leistungserbringung
selektive Auslagerung Diese Variante der Auslagerung wird auch als Selektives/Smart Outsourcing bezeichnet (Outsourcing – Wortschöpfung aus outside und resourcing). Es werden dabei nur Teile der IT-Leistungen an externe Anbieter vergeben. Das Smart Outsourcing wird noch nach Outtasking und Managed Services unterteilt.
teilweise Auslagerung von IT-Leistungen
Beim Outtasking werden Teilaufgaben – jedoch keine kompletten Geschäftsprozesse – an externe Dienstleister ausgelagert. Die Entscheidungsgewalt und die zur Aufgabenerfüllung benötigten IT-Systeme verbleiben jedoch beim Unternehmen (z. B. Web-Server-Dienste, E-Mailund Faxdienste, Firewall-Dienste). Auch bei Managed Services werden keine kompletten Geschäftsprozesse ausgelagert. Jedoch werden die IT-Systeme und das benötigte Fachpersonal vom Service Provider gemietet. Die Entscheidungsgewalt und Verantwortung verbleibt aber weiterhin beim Unternehmen (z. B. Operativer Rechenbetrieb, Netz-Management, Endbenutzer-Betreuung, Management von einzelnen Anwendungssystemen).
vollständige Auslagerung Diese Variante wird auch als Full Scope Outsourcing bezeichnet. Es werden hierbei vollständige Geschäftsbereiche oder Geschäftsprozesse eines Unternehmens an externe Dienstleister ausgelagert. Die einzelnen Outsourcing-Varianten werden häufig noch nach dem Standort der Leistungserbringung klassifiziert. Hier erfolgt die Einteilung nach:
Offshore (Verlagerung der Dienstleistungen in ferne Niedriglohnländer, wie Indien und China), 333
vollständige Auslagerung
8
Informationsmanagement
Nearshore (Verlagerung der Dienstleistungen in nähere Niedriglohnländer innerhalb eines Kontinents, wie Tschechien oder Ungarn),
Onshore (Verlagerung der Dienstleistungen auf inländische Dienstleister). Risiken des Outsourcing
Die Erwartungen an das Outsourcing werden oft nicht erfüllt. Die Auftraggeber sind nicht selten vom Know-how der Dienstleister, den Kosteneinsparungen und der Qualität der Leistungen enttäuscht. Der Preis gilt unglücklicherweise zu oft als Hauptauswahlkriterium bei den Ausschreibungen. Die Vereinbarung von Festpreisen in Werksverträgen bietet dem Dienstleister keinen Anreiz, zum Geschäftserfolg des Auftraggebers beizutragen. Es sollte daher eine Mischung aus Festpreisen für Basisleistungen und erfolgsabhängigen, aufwandsorientierten Preisen vereinbart werden (Risk-RewardPartnerschaft). Die aufwandsabhängige Preiskomponente ist an Projektziele, wie Einhaltung des Budgets, Termintreue und Qualitätsanforderungen oder direkt an Geschäftsmetriken, wie Durchlaufzeiten, Kundenzufriedenheit oder dergleichen zu binden. Risikofaktoren für Outsourcing sind die Langfristigkeit der Verträge (meist drei bis zehn Jahre) und die Abhängigkeit vom Dienstleister. Deshalb ist es notwendig, eine Restkompetenz an Informationstechnologie im Unternehmen zu erhalten, um die Arbeit des Dienstleisters zu überwachen und aktiv steuern zu können. Dazu gehört auch, dass die strategische Planung der Informationsinfrastruktur eine Aufgabe des Unternehmens bleibt, da die ITStrategie eine Führungsaufgabe ist.
8.5
Projektmanagement
Ein Projekt ist ein neuartiges, einmaliges, abgegrenztes Vorhaben mit vorgegebenem Ziel. Ein Projekt unterliegt finanziellen, zeitlichen und personellen Beschränkungen.
effiziente Erreichung des Projektziels
Aufgabe des Projektmanagements ist die effiziente Erreichung des Projektziels. Das Projektmanagement bedient sich bestimmter Methoden und Werkzeuge zur Planung, Steuerung und Unterstützung des Projektes. Es gibt verschiedenartige Vorhaben, die über Projekte realisiert werden, z. B. die Entwicklung eines neuen Produkts, u. a. auch von Software, ein Investitionsvorhaben oder auch ein Reengineering der Geschäftsprozesse. Obwohl jedes Projekt einzigartig ist, treten dennoch einige Gemeinsamkeiten auf:
334
Projektmanagement
8.5
Jedes Projekt hat einen Lebenszyklus. Es durchläuft – wie ein Produkt – mehrere Phasen, von der Problemstellung bis zum Abschluss des Projektes.
Jedes Projekt hat eine bestimmte (Projekt-)Organisation und Projektbeteiligte.
Projektlebenszyklus Die Abbildung 8-29 stellt die Phasen des Projektlebenszyklus dar. Auf die Phasen Projektplanung, Projektdurchführung (insbesondere Projektcontrolling) und Projektabschluss wird im Folgenden näher eingegangen. Phase: Projektplanung Da zu Beginn eines Projektes noch nicht alle Einflussgrößen definiert werden können, erfolgt die Planung generell vom Groben zum Feinen und wird je nach Projektstand angepasst. Die Projektplanung umfasst die in Abbildung 8-30 dargestellten Schritte. Die einzelnen Schritte werden im Folgenden erläutert. 1. Projektstrukturierung Die Erarbeitung des Projektstrukturplanes (PSP) ist der erste und grundlegende Planungsschritt. Oberstes Ziel des Projektstrukturplans ist es, eine komplette Aufstellung aller notwendigen Arbeitspakete (Aufgaben / Aktivitäten) inklusive der jeweils verantwortlichen Personen zu erhalten. Eine häufig verwendete Strukturierungsstrategie ist das Top-Down-Vorgehen. Dabei wird ausgehend von den gesetzten Zielen das Projekt über mehrere Ebenen immer stärker detailliert. Die Arbeitspakete können sich an den Merkmalen des zu entwickelnden Produktes oder am Entwicklungsprozess orientieren. Die Strukturierung wird dann als objektorientiert bzw. prozessorientiert bezeichnet. Kombinationen beider Strukturierungen sind ebenfalls möglich. Für das Projekt werden zudem Meilensteine definiert. Meilensteine sind Etappen des Projektes. Es wird genau festgelegt, welche Arbeitsergebnisse bis zu jedem einzelnen Meilenstein vorliegen müssen. 2. Aufwandsschätzung Die Aufwandsschätzung beinhaltet den geplanten Arbeitszeitaufwand für die einzeln abgegrenzten und dokumentierten Arbeitspakete.
335
Erfassung aller Arbeitspakete in einem Projektstrukturplan
Zeitaufwand einzelner Arbeitspakete
8 Abbildung 8-29
Informationsmanagement
Projektlebenszyklus als Phasenmodell
336
Projektmanagement
8.5 Abbildung 8-30
Schritte der Projektplanung
337
8 Abhängigkeiten zwischen Arbeitspaketen
Kritischer Weg
Zuordnung von Ressourcen zu den Arbeitspaketen
Planung der Projektkosten
Informationsmanagement
3. Ablaufplanung und Terminierung Die Ablaufplanung untersucht die Abhängigkeiten zwischen den verschiedenen Arbeitspaketen. Eine Abhängigkeit besteht beispielsweise, wenn mit der Arbeit an einem Arbeitspaket erst begonnen werden kann, nachdem ein anderes Arbeitspaket abgeschlossen ist. Bei einem geringen Grad von Abhängigkeiten genügt die Verwendung eines Balkendiagramms (GANTTDiagramm). Bei komplexen Abhängigkeitsbeziehungen werden Netzpläne aufgestellt. Netzpläne sind eine Anwendung der Graphentheorie und erlauben die Ermittlung des Kritischen Weges, d. h. aller Arbeitspakete, welche die Gesamtdauer des Projekts bestimmen. Eine Verzögerung kritischer Arbeitspakete hätte eine Verschiebung des Projektendes zur Folge. Auf der Basis der festgelegten Zeitaufwände für die Arbeitspakete und aus ihrer Anordnung in Balkendiagramm, Netzplan und Meilensteinplan wird eine Zeitplanung (Terminierung) des Gesamtprojektes möglich. 4. Ressourcenabgleich Die Ressourcenplanung ordnet den Arbeitspaketen, entsprechend der Terminierung, die notwendigen Ressourcen zu. In einem Belastungsdiagramm wird die Verfügbarkeit der einzelnen Ressourcen (Personal und Sachmittel) dem Kapazitätsbedarf der Projekte gegenübergestellt. Dabei sind die konkurrierenden Anforderungen aus mehreren Projekten zu berücksichtigen (Multiprojektmanagement). Ist eine Ressource stark überlastet, muss der Plan geändert werden. Änderungen können durch das Verschieben von Arbeitspaketen, das Erhöhen der verfügbaren Kapazität oder das Ändern der Ablaufplanung erfolgen. 5. Kostenplanung Die geplanten Projektkosten beinhalten alle Kosten, die notwendig sind, um das Projektziel zu erreichen. Dazu gehören die Kosten der einzelnen Arbeitspakete, die Kosten für das Projektmanagement und die Kosten für die Qualitätssicherung. In den einzelnen Arbeitsschritten werden die Planungsunterlagen erstellt. Für die Vereinbarung mit dem Auftraggeber sind insbesondere folgende Teilpläne relevant:
Projektstrukturplan, Balkendiagramm, Meilenstein-Definitionen, Kostenplan.
338
Projektmanagement
8.5
Die Phase Projektplanung ist abgeschlossen, wenn der Auftraggeber dem Projektplan zugestimmt hat und die Planung freigibt. Tools können die Projekthierarchisierung durch Baumstrukturen, die Ablaufplanung durch Balkendiagramme sowie die Abhängigkeiten zwischen Aktivitäten durch Netzpläne unterstützen. Die Kapazitätsinanspruchnahme, die Kosten-Kalkulation und die Berechnungen zum kritischen Weg bei einer Variation der Prozessparameter sind Funktionen von ProjektmanagementTools. Phase: Projektdurchführung Parallel zur eigentlichen Durchführung des Projektes und der Bearbeitung der festgelegten Arbeitspakete erfolgt ein Projektcontrolling (Projektsteuerung). Das Projektcontrolling verwaltet und koordiniert Aufgaben, Ressourcen sowie Informationen und ist neben der Kostenkontrolle vor allem auf die Erfolgskontrolle orientiert. Das Projektcontrolling dokumentiert, mit welchem Aufwand die Leistungen intern erbracht oder eingekauft werden und ob der (messbare) Erfolg die verursachten Kosten rechtfertigt. Ziel der Projektsteuerung ist es zudem, ein Frühwarnsystem aufzubauen, um auf Abweichungen vom geplanten Ablauf rechtzeitig reagieren zu können. Dazu gehören vor allem die in Fehler! Verweisquelle konnte nicht gefunden werden. aufgeführten Aktivitäten.
Tools zur Projektplanung
Controlling von Terminen, Kosten und Ergebnissen
Besonders bedeutsam für die Projektsteuerung sind Vorausberechnungen zum Projekterfüllungsstand. Für die Vorschaurechnung werden verschiedene Methoden eingesetzt. Eine Methode ist die Meilenstein-Trend-Analyse. An regelmäßigen Berichtszeitpunkten wird die Terminplanung des Projektes durch die Abfrage von Meilensteinterminen graphisch neu erfasst. Aus dem Kurvenverlauf lässt sich ein Trend über die Termintreue des Projektes ableiten. Weitere Methoden sind u. a. die Ermittlung des Fertigstellungsgrades, die Earned-Value-Analyse und der Ergebnisplan.
Vorschaurechnung
Projektcontrolling
Abbildung 8-31
Steuerungsmaßnahmen sind bei Terminverzug und Kostenüberschreitungen einzuleiten. Die Einflussnahme kann beispielsweise erfolgen durch:
Steuerungsmaßnahmen
339
8
Informationsmanagement
Verkürzung der Vorgangsdauer durch Kapazitätserhöhung oder Verminderung des Leistungsumfanges bzw. die Erhöhung der Effizienz bei der Auftragsabwicklung,
Änderung der Reihenfolge von Aktivitäten bzw., wenn möglich, durch Parallelisierung der Ausführung,
Verschiebung von Terminen. Tools zum Projektmanagement
Die Phase Projektdurchführung wird durch Tools zur Erfassung des Projektfortschritts und zur Bestimmung der Auswirkungen des Projektstandes auf die Projektziele (Termineinhaltung, Kosten) unterstützt. Die Kommunikation, Kooperation und Koordinierung zwischen den Mitgliedern eines Projektteams kann mit Hilfe von Groupware-Tools erheblich verbessert werden. Es werden Termine und Ressourcen koordiniert, Informationen geteilt und es wird die gemeinsame verteilte asynchrone und synchrone Dokumentenerstellung ermöglicht. Phase: Projektabschluss Ein Projekt wird beendet, wenn die Projektabnahme durch den Auftraggeber erfolgt ist. Die Ergebnisse werden präsentiert und an die Nutzer übergeben. Die Erreichung der Projektziele wird überprüft und eine Abschlusskalkulation durchgeführt. Die Dokumentation der Projektarbeit (Projektakte und Produktdokumentation) wird vollendet und steht als Erfahrung für neue Projekte zur Verfügung.
Projektbeteiligte und Projektorganisation Projektbeteiligte
Der Auftraggeber ist der Gesamtverantwortliche für ein Projekt. Er legt die Projektziele fest, genehmigt das Projektbudget und die Rahmentermine.
Die Funktion des Projektleiters ist das höchste Amt im Rahmen des Projektes. Er trägt die Verantwortung für den erfolgreichen Abschluss des Projektes. Ein Projektleiter kann sowohl aus der Mitarbeiterebene als auch aus einer Führungsebene stammen. Die Auswahl des richtigen Projektleiters hängt hauptsächlich von seinen Führungsqualitäten und seiner Fähigkeit zur Konfliktbewältigung ab.
Die Teammitglieder sind die Know-how-Träger der Projektaufgabe. Sie bearbeiten das Projekt zielorientiert. Bei größeren Projekten werden Teilprojekte gebildet, denen dann jeweils ein Team zugeordnet wird. In den Teams können neben den ständigen und zeitweiligen Mitgliedern aus
340
Projektmanagement
8.5
dem Unternehmen auch externe Berater mitarbeiten. Die Projektteams stellen die Beziehungen zu den Anwendern und Kooperationspartnern her. Abstimmungen und der Informationsaustausch verlaufen innerhalb und zwischen den Teams. Flache Hierarchien ermöglichen schnelle Entscheidungen und eine Kontrolle des Projektfortschritts. Von großer Bedeutung sind die Identifikation der Teammitglieder mit den Projektaufgaben und ihre Einbeziehung in die Projektplanung. Durch diese Maßnahmen werden die Motivation und die Zusammenarbeit der Mitarbeiter gefördert.
Nutzer und Betroffene sind Personen bzw. Organisationseinheiten, die während und nach Abschluss des Projektes von Projektauswirkungen berührt werden. Sie sollten in die Projektentwicklung einbezogen werden, um ihre Sachkunde zu nutzen und insbesondere, um die Akzeptanz der Lösungen durch die Beteiligung am Entwicklungsprozess zu sichern. Dazu gehört die Schulung der Nutzer, die parallel zur Entwicklung durchgeführt werden sollte. Die Abbildung 8-32 stellt die Beteiligten eines Projektes dar.
Abbildung 8-32
Projektbeteiligte
341
8
Informationsmanagement
Projektorganisation Es werden vorwiegend drei Formen der Projektorganisation unterschieden: reine Projektorganisation, Stabsprojektorganisation und Matrixorganisation. Die für ein Projekt beste Projektorganisation ist von den spezifischen Gegebenheiten des Projektes abhängig.
reine Projektorganisation Bei der „reinen Projektorganisation“ sind die Projektteams für die Dauer der Projektlaufzeit ausschließlich mit der Projektaufgabe betraut. Der Projektleiter hat alle Kompetenzen im Rahmen des Projekts. Damit ist die Verantwortlichkeit eindeutig geregelt. Die Reaktionszeit bei Störungen ist sehr gering. Die Mitarbeiter stehen voll hinter „ihrem“ Projekt. Die Projektmitarbeiter müssen nach Ablauf des Projektes wieder in eine Linienfunktion oder ein neues Projekt integriert werden. Abbildung 8-33
Reine Projektorganisation
Stabsprojektorganisation Die Stabsprojektorganisation besitzt einen Projektkoordinator ohne Weisungs- oder Entscheidungsbefugnisse. Die fehlende Weisungs- und Entscheidungsbefugnis entspricht dem Prinzip der Organisation von Stäben zur Vorbereitung von Entscheidungen durch die Linienleiter. Alle für das Projekt notwendigen Tätigkeiten werden in den Linienabteilungen erledigt. Abbildung 8-34
Stabsprojektorganisation
342
Projektmanagement
8.5
Es erfolgt also lediglich eine Mitarbeit der beteiligten Linieneinheiten in dem Projekt. Damit verbunden ist eine Flexibilität im Einsatz der Mitarbeiter in Abhängigkeit von der jeweiligen Aufgabe. Nachteile sind insbesondere die fehlende Gesamtverantwortung für das Projekt und die schwache Motivation der Teammitglieder. Die Reaktionszeit bei Störungen ist lang, da die Entscheidungen in den beteiligten Fachabteilungen getroffen werden.
Matrixorganisation (Matrix-Projektmanagement) Die Matrixorganisation ist eine Mischform zwischen reiner Projektorganisation und der Stabsprojektorganisation. Die Befugnisse sind zwischen Projekt und Linie aufgeteilt. Die Mitarbeiter verbleiben in der Linienorganisation und sind für einen Teil ihrer Arbeitszeit einem Projekt zugeordnet. Durch die zweifache Zuordnung erklärt sich der Begriff Matrixorganisation. Die Teammitglieder sind gleichzeitig zwei Führungskräften unterstellt (Projekt- und Abteilungsleiter). Der Projektleiter hat ein fachliches Weisungsrecht. Die Projektabwicklung wird jedoch häufig durch Linienaufgaben gestört. Die Aufteilung der Befugnisse zwischen Projekt und Linie birgt Konfliktpotenzial.
Abbildung 8-35
Matrixorganisation
Erfolgsfaktoren des Projektmanagements Der Erfolg eines Projektes ist von mehreren Faktoren abhängig. Die wichtigsten Hindernisse und Erfolgsfaktoren sind in den beiden folgenden Abbildungen aufgeführt.
343
8 Abbildung 8-36
Informationsmanagement
Hindernisse für den Erfolg eines Projektes
pauschale und unklare Zielvorstellungen Planungsfehler übertriebene, utopische Forderungen Durchsetzung eigener Interessen entgegen den Interessen des Projektes unklare Kompetenzen der Beteiligten zu lange Entscheidungswege Resignation der Beteiligten große Hierarchieunterschiede mangelnde Qualifikation der Projektmitarbeiter Angst der betroffenen Mitarbeiter vor Veränderung ihrer Arbeitsorganisation Einengung des Entscheidungsspielraums ständige Überwachung Angst vor Verlust des Arbeitsplatzes unvorhergesehene Ereignisse Inflation der Projektaufgaben Besonderheiten von IT-Projekten IT-Projekte sind zumeist komplexe und innovative Vorhaben, die ein erhebliches Risiko eines Scheiterns beinhalten. Insbesondere zählen hierzu Projekte zur:
Softwareentwicklung (Funktionalität, Ergonomie, Systemoffenheit, Dokumentation),
Softwareauswahl und -einführung (Ausschreibung, Evaluation, Installation, Praxistests, Abnahme, Schulung),
IT-Integration (Software, Hardware, Netze, Automationstechnik). Um IT-Projekte besser steuern zu können, müssen anhand der Projektziele spezifische Kennzahlen definiert und zyklisch überwacht werden. Für den Bereich der Softwareauswahl und -einführung wären dies beispielsweise:
Akzeptanz, Nutzungshäufigkeit der Software durch die Benutzer und die Administratoren (abhängig von Qualifikationsstand und Verhaltensweisen)
Einhaltung der Richtlinien für die Datensicherheit zur Vermeidung von Risiken
Kosten für Administration, Support sowie für die Beschaffung von Updates
344
Projektmanagement
Erfolgsfaktoren des Projektmanagements*
Abbildung 8-37
Vertiefende Literatur BALZERT, H.: Lehrbuch der Software-Technik. Spektrum Akademischer Verlag, Heidelberg 2000
BANGE, C., KELLER, P.: Software-Auswahl — Schnellere und sichere Indentifikation anforderungsgerechter Standardsoftware. Business-Village, Göttingen 2003
BECKER, J., M. ROSEMANN, R. SCHÜTTE: Grundsätze ordnungsmäßiger Modellierung. Wirtschaftsinformatik, 37 (1995) 5, S. 435-445
BLECHER, G.; LIEM, S.: Pro/Contra Simulation in der Geschäftsprozeßoptimierung: Eine Entscheidungsunterstützung. Siemens AG, München 1998
*
8.5
Vgl.: Heinrich, L. J.: Management vom Informatik-Projekten. Oldenbourg, München 1997, S. 23
345
8
Informationsmanagement
FERSTL, O.; SINZ, E.: Grundlagen der Wirtschaftsinformatik, Band 1. Oldenbourg, München 2001
GADATSCH, A.: Management von Geschäftsprozessen. Vieweg, Braunschweig 2001
GRUPP, B.: Das IT-Pflichtenheft zur optimalen Softwarebeschaffung. MITP, Bonn 2003
HAMMER, M.; CHAMPY, J.: Business Reengineering. Campus, Frankfurt/Main 1994
HEINRICH, L. J.: Management vom Informatik-Projekten. Oldenbourg, München 2002
HEINRICH, L. J., LEHNER, F.: Informationsmanagement. Oldenbourg, München 2005
HEINRICH, L. J.; HEINZL, A., ROITHMAYR, F.: Wirtschaftsinformatik-Lexikon. Oldenbourg, München 2004
LAUDON, K. C.; LAUDON, J. P.: Management Information Systems. Prentice Hall, New Jersey 2005
LENT, B.: IT-Projekte lenken - mit System. Vieweg, Braunschweig 2003
RIEDL, R.; ROITHMAYR, F.: Fallstudien zum Informationsmanagement. In: Information Engineering + Management. Trauner, Linz 2006
RUPP, C.: Requirements Engineering und Management. Hanser, München 2004
SCHEER, A.-W.: ARIS – Architektur integrierter Informationssysteme. In: SCHEER, A.-W. (Hrsg.): Handbuch Informationsmanagement. Gabler, Wiesbaden 1993, S. 81-112.
SCHEER, A.-W.: ARIS – Business Process Modeling. Springer, Berlin 2000 SCHEER, A.-W.: ARIS – Vom Geschäftsprozeß zum Anwendungssystem. Springer, Berlin 2002.
WIECZORREK, H. W., MERTINS, P.: Management von IT-Projekten – Von der Planung bis zur Realisierung. Springer, Berlin, 2005
WOLF, M. L.; MLEKUSCH, R.; BROKS, H.: Projektmanagement live. expert 2004
346
Projektmanagement
Kapitel 9 IT-Sicherheit
347
8.5
Grundlagen
9
9.1
IT-Sicherheit
9.1 Grundlagen Die Funktionsfähigkeit der Informationssysteme bestimmt in einem hohen Maße das tägliche Leben. Das Versagen von Systemen oder der Verlust von Daten kann weit reichende Folgen haben, vom Aufwand der Neuerfassung von Daten über den totalen Produktionsausfall bis zu lebensbedrohlichen Situationen z. B. in Krankenhäusern. Eine weitere Gefährdung stellt die zunehmende Industriespionage dar, die einen hohen wirtschaftlichen Schaden verursachen kann. Der Aspekt der Sicherheit der Informationsverarbeitung hat deshalb einen besonderen Stellenwert. Die Schaffung geeigneter Schutzmaßnahmen wird jedoch in vielen Unternehmen und Institutionen vernachlässigt.
starke gesellschaftliche Durchdringung der Informationstechnologie erfordert Sicherheitsmaßnahmen
Gefährdung der Sicherheit der Informationsverarbeitung
Abbildung 9-1
349
9
IT-Sicherheit
Die steigende weltweite Vernetzung der Computer, die Ausweitung von Geschäftsprozessen auf das Internet und die zunehmende Komplexität von Informationssystemen erhöhen die Gefahr eines vorsätzlichen Angriffs auf die Informationssicherheit und verringern gleichzeitig die Möglichkeiten der Entdeckung des Täters. Angreifer müssen nicht mehr lokal beim Unternehmen tätig werden, sondern können ihre Handlungen von einem beliebigen Ort mit Internetzugang durchführen und unbefugt in entfernte Systeme eindringen. Durch die verstärkte Nutzung des Internet und den Einsatz neuer Formen der Vernetzung wie Wireless LAN gewinnt die Sicherheit auch im privaten Bereich an Bedeutung. Die Abbildung 9-1 stellt die Gefahren für die Sicherheit der Informationsverarbeitung dar.
Ursachen der Gefährdung Es gibt menschliche, technische und umweltbedingte Ursachen für die Gefährdung der Sicherheit der Informationsverarbeitung. menschliche Ursachen
Benutzungsfehler Mangelnde Ausbildung oder Erfahrung, zu weitgehende Zugriffsrechte und Überlastung der Nutzer sowie mangelnde Benutzerfreundlichkeit des Systems können zur Fehlbedienung führen.
Ausfall von Informationsträgern Der Ausfall von Informationsträgern (z. B. Systemadministrator) wegen Krankheit, Urlaub, Überlastung, Fernbleiben, Versetzung oder Kündigung führt dazu, dass Systeme nicht oder nur unzureichend bedient oder gewartet werden. Es kann sogar der Zugang zu den Systemen unmöglich werden.
Angriffe gegen das System Durch Spionage, Sabotage, Diebstahl, Betrug oder auch leichtsinnigen Scherz wird zielgerichtet und bewusst die Sicherheit der Informationsverarbeitung gefährdet, um den Betroffenen zu schädigen oder sich zu bereichern. technische Ursachen
Hardware Mangelnde Qualität und Wartung, Überlastung, falsche Installation und Konfiguration sowie physisch bedingter Ausfall können zu Fehlfunktionen, Leistungsabfall oder komplettem Versagen des Systems führen.
350
Grundlagen
Software Falsche Konfiguration, Programmfehler und Inkompatibilität ziehen Fehler und Systemabstürze nach sich. umweltbedingte Ursachen
Unfälle und Naturkatastrophen Stromschwankungen, Magnetfelder, Feuer, Wasser, Erdbeben oder Stürme können Schäden am Informationssystem verursachen.
Krieg und lokale Unruhen Durch Krieg und Unruhen kann das Informationssystem beschädigt oder sogar zerstört werden.
Objekte der Gefährdung Die Gefährdung der Sicherheit der Informationsverarbeitung kann verschiedene Punkte des Informationssystems treffen: Hardware, Software, Daten, Kommunikation und Organisation.
Hardware Ausfall ganzer Systeme oder einzelner Bereiche von Datenträgern, Rechnern, externen Geräten und Kommunikationsnetzen
Software Programm- und Systemabstürze, Fehlfunktionen, Löschen oder Ändern von Software, unbefugtes Ausführen von Programmen, Erstellung von Raubkopien, Infektion mit Computerviren
Daten unbefugtes Erzeugen, Lesen, Ändern, Löschen oder Kopieren
Kommunikation Benutzung einer falschen Identität, Abhören von übertragenen Daten, Verändern von übertragenen Daten, Wiederholung einer Übertragung zu einem späteren Zeitpunkt, Leugnen der Kommunikation, Verhindern oder Unterbrechen der Kommunikation, Analyse der Häufigkeit der Kommunikation, unbefugtes Eindringen in entfernte Systeme
Organisation zu weit gehende Zugangsberechtigungen, fehlender Zugang zu Informationen oder Teilen des Systems, erschwerte Erweiterung oder Wartung des Systems
351
9.1
9
IT-Sicherheit
9.2 Angriffe Computerkriminalität Mit dem zunehmenden Einsatz der Informationstechnik und der verstärkten Vernetzung der einzelnen Systeme wachsen die Anreize und die Angriffspunkte von kriminellen Aktivitäten auf diesem Gebiet. Es soll hier nicht der Eindruck erweckt werden, dass Informations- und Kommunikationssysteme die Kriminalität in die Höhe schnellen lassen und dass ein Großteil der Informationstechnik für kriminelle Handlungen genutzt wird. Aber wie fast jede Technologie lässt sich auch die Informations- und Kommunikationstechnik sowohl für positive als auch für negative Zwecke nutzen. Schutz liefert nur eine ausreichende Aufklärung und Vorbeugung. Besondere Bedeutung hat die Computerkriminalität durch Tatbestände, die erst durch die Informationstechnik möglich wurden und teilweise gesetzlich nicht abgedeckt waren. Der Gesetzgeber hat sich in vielen Bereichen den neuen Gegebenheiten angepasst. Dies wird auch weiterhin notwendig sein. Insbesondere die weltweite Verbreitung des Internets erfordert eine Abstimmung von Gesetzen auf internationaler Ebene. Auch die rechtliche Anerkennung elektronischer Unterschriften und Dokumente bewegt sich zu einem großen Teil noch in einer Grauzone. häufige Tatbestände
Der größte Teil der Computerkriminalität entfällt auf Betrugsdelikte mit Kredit- und ec-Karten. Durch den Diebstahl oder das Fälschen solcher Karten bereichern sich insbesondere international organisierte Verbrechergruppen. Der Diebstahl von Computern und anderen elektronischen Geräten gehört ebenfalls zur Computerkriminalität. Meist ist der durch Datenverlust entstandene Schaden wesentlich höher als der materielle Wert der gestohlenen Geräte. Ein weiteres Problem ist die Gefährdung der Sicherheit durch das Eindringen von Hackern oder Viren in das System. Datenverluste und Systemabstürze können die Folge sein. Zudem kann das Unternehmen erpresst werden, indem Datenbestände verschlüsselt werden und erst nach Erfüllung der Forderungen wieder zur Verfügung stehen.
Firmenspionage
Die Firmenspionage stellt ein zunehmendes Betätigungsfeld in der Wirtschaft dar. Geheime Daten werden kopiert oder durch technische Einrichtungen ausgespäht und liefern umfassende Informationen über die Konkurrenz. Die mögliche Weitergabe der Daten kann auch als Druckmittel einer Erpressung dienen. Die meisten Spionagefälle erfolgen durch die eigenen Mitarbeiter. Die aggressivere Art der Computerkriminalität ist die Sabotage. Sie reicht von der Löschung oder Änderung von Daten bis zur Zerstörung der Hardware.
Raubkopien
Ein weit verbreitetes Problem ist das Anfertigen von Raubkopien lizenzierter Software oder das Kopieren von Multimedia-Daten, wie Musikstücke oder 352
Angriffe
9.2
Filme, die per Copyright geschützt sind. Die Software und die Daten werden dann ohne Bezahlung genutzt. Elektronische Medien bieten außerdem neue Möglichkeiten für Betrugsdelikte durch die Fälschung von Daten oder die Benutzung von Daten anderer Personen. Besonders auf dem Gebiet des E-Commerce ist eine verschlüsselte Übertragung der Daten und eine Authentifizierung der beteiligten Partner notwendig, damit z. B. Kreditkarteninformationen nicht in falsche Hände gelangen. Zur Computerkriminalität gehört auch die unbefugte Nutzung von Computersystemen und -kapazitäten. Ein Beispiel dafür ist die Erlangung von Zugriffsrechten, um Daten- oder Telefonleitungen kostenlos zu nutzen.
neue Formen von Betrugsdelikten
Neben den direkten Auswirkungen der Computerkriminalität ist besonders für Unternehmen die Schädigung des Images problematisch, wenn der Fall öffentlich bekannt wird. Ganz andere Probleme entstehen bei der Nutzung der modernen Informations- und Kommunikationssysteme für Verbrechen und Terrorismus. Besonders international organisierte Täter nutzen die Vorteile dieser modernen Technik zur Vorbereitung von Straftaten. Zudem wird das Internet als Verbreitungsmedium für Propaganda verfassungswidriger Organisationen genutzt.
organisierte Kriminalität und Terrorismus
Aufgabe der Strafverfolgungsbehörden ist es deshalb, sich der technischen Entwicklung anzupassen, um den Tätern einen Schritt voraus zu sein. Zur Bekämpfung von Straftaten, die sich auch auf dieses Gebiet beziehen, werden von den Polizeibehörden besonders ausgebildete Beamte und Computerspezialisten in immer größerer Zahl benötigt. Die Strafverfolgungsbehörden konnten in den letzten Jahren, insbesondere auch durch internationale Zusammenarbeit, eine Reihe von Erfolgen bei der Bekämpfung von Computerkriminalität erzielen. So konnten Autoren von Viren ermittelt, Versender von Massenmailings (Spam) verurteilt und Kinderpornographieringe zerschlagen werden.
Strafverfolgung
Ablauf eines Angriffs Grundvoraussetzung für die Einrichtung effektiver Schutzmaßnahmen gegen Angriffe auf das eigene IT-System ist die Kenntnis über das Vorgehen von Angreifern. Dieses Vorgehen lässt sich in vier Schritte unterteilen, die im Folgenden näher beschrieben werden.
353
9 Einsatz von Scan-Tools
Social Engineering
IT-Sicherheit
1. Sammeln von Informationen über das Opfer In einem ersten Schritt werden möglichst viele Informationen über das anzugreifende System und die damit arbeitenden Personen gesammelt. Dazu können diverse elektronische Anfragen an das Netz gestellt werden, die aufgrund der Eigenschaften der verwendeten Protokolle, Betriebssysteme und Anwendungssysteme zum Teil automatisch beantwortet werden. Hierfür können Tools eingesetzt werden, die beispielsweise Port-Scans oder Banner Grabbing durchführen können. Durch die Antworten des Systems erhält der Angreifer bei nicht ausreichender Sicherung eine Vielzahl von Informationen über die Topologie des Ziel-Netzwerks, die verwendete Hardware, die eingesetzten Betriebs- und Anwendungssysteme. Neben dieser Form der Informationsbeschaffung bietet auch das Verhalten von Anwendern Recherchemöglichkeiten. Die Anfrage von Systemadministratoren in öffentlichen Foren im Internet zu eigenen technischen Problemen oder die Präsentation der eigenen Infrastruktur kann weitere Anhaltspunkte für einen Angreifer liefern. Diese Informationen lassen sich über InternetSuchmaschinen leicht auffinden. Auch die direkte Kontaktaufnahme mit Benutzern (Social Engineering) und ein leichtsinniges Verhalten dieser beim Umgang mit Passwörtern und Informationen über die Systemarchitektur können dem Angreifer wertvolle Hinweise für die Vorbereitung eines Angriffs geben.
Vorbereitung des Angriffs
Sicherheitslücken
Passwort Sniffing
Die vorgenannten Tätigkeiten dienen dem Angreifer dazu, ein möglichst genaues Bild vom Zielobjekt zu generieren. Mit derartigen Kenntnissen ausgestattet, kann der Angreifer gezielt Schwachstellen im System ausnutzen. Solche Schwachstellen sind beispielsweise Sicherheitslücken in Betriebssystemen, die zwar öffentlich bekannt, aber vom Systemadministrator noch nicht durch das Einspielen entsprechender Sicherheitspatches behoben wurden. Die Nutzung derartiger Schwachstellen führt zum zweiten Schritt des Angriffs. 2. Erlangen von Zugangsinformationen Ziel dieses Schritts im Angriffsprozess ist es, Zugang zum Zielsystem zu erhalten. Zur Erlangung der benötigten Zugangsinformationen (z. B. Benutzername und Passwort) werden Fehler in Betriebs- und Anwendungssystemen durch so genannte Exploits ausgenutzt. Auch das Social Engineering spielt bei der Beschaffung von Zugangsinformationen eine wichtige Rolle. Ein Beispiel ist die Weitergabe von Passwörtern an Kollegen, Bekannte oder an einen vorgeblichen Administrator, der das Passwort für eine Systemwartung benötigt. Weitere Möglichkeiten Zugangsinformationen zu erhalten, ist der Einsatz von Hardware oder Software, die die Eingabe von Passworten protokolliert
354
Angriffe
9.2
und an den Angreifer übermittelt. Das Einschleusen derartiger Software kann beispielsweise über vom Anwender verwendete Programme erfolgen, die ohne Wissen des Nutzers über unerwünschte Funktionalitäten zum Ausspähen des Informationssystems verfügen (sog. Trojaner). Sicherheitslücken entstehen zudem durch Fehlkonfigurationen innerhalb des Informationssystems. Zugelassener Anonymous FTP erfordert beispielsweise keine Passworteingabe für den Zugriff. Häufig werden Standardpassworte der Hersteller und Standardfreigaben im Dateisystem nicht verändert. 3. Spionage, Sabotage, Betrug Nachdem der Zugang zum System erfolgt ist, kann das eigentliche Ziel des Angriffs umgesetzt werden. Der Angreifer hat nun Zugriff auf Unternehmensdaten. Diese können kopiert, modifiziert, ergänzt oder gelöscht werden. Durch die Rechte, die der Angreifer zu diesem Zeitpunkt besitzt, kann er sich Zugriff auf weitere Informationen verschaffen, um Zugang zu anderen Systemen zu erhalten.
Fehlkonfigurationen
Zugriff auf Unternehmensdaten
Neben dem Zugriff auf Daten ist auch der Angriff auf Netzwerkverbindungen möglich. Der Angreifer kann hierbei Daten auch ohne Zugriff auf den eigentlichen Speicherort, wie beispielsweise eine Datenbank, während der Übertragung zwischen zwei Kommunikationspartnern abhören. Ein noch stärkerer Angriff stellt die so genannte Man-in-the-Middle-Attack dar. Hierbei kommunizieren zwei Partner im Zielnetzwerk ohne ihr Wissen über eine dritte Person. Diese übernimmt die Daten des ersten Kommunikationspartners, verändert sie bei Bedarf und schickt sie an den zweiten Partner. Dessen Antwort wird wiederum durch den „Man in the Middle“ gefiltert.
Abhören der Kommunikation
Die Präsentation von Firmeninformationen und die Abwicklung von Aufträgen über Online-Shops erfordern den Einsatz von Websites. Die steigende Bedeutung dieses Kommunikationskanals mit den Stakeholdern eines Unternehmens muss deshalb besonders vor Angriffen geschützt werden. Eine Art der Manipulation stellen Defacements dar. Hier wird der Inhalt der Website (Texte, Grafiken) verändert. Dies kann zu einem erheblichen Imageverlust beim Unternehmen führen.
Manipulation von Webseiten
Der Geschäftsbetrieb eines Unternehmens kann durch die Störung der Kommunikationskanäle getroffen werden. Eng verzahnte Lieferketten erfordern stabile Kommunikationsverbindungen. Auch für die Anbahnung neuer Geschäftsbeziehungen ist die Kommunikation über das Internet wichtig, beispielsweise bei elektronischen Ausschreibungen. Aus diesem Grund bildet die Unterbindung der Kommunikationsmöglichkeiten ein breites Anwendungsfeld für Angreifer. Denial-of-Service-Angriffe (DoSAngriffe), also die Anforderung von Diensten, die ein Unternehmensserver
Störung der Kommunikation
355
9
IT-Sicherheit
anbietet, in äußerst hoher Zahl während eines sehr kurzen Zeitraumes kann zu einer Blockierung oder sogar zum Absturz des Rechners führen. Angreifer können so beispielsweise Konkurrenten vom Informationsaustausch mit potenziellen Kunden ausschließen oder diesen zumindest stark behindern. Eine weitere Angriffsmöglichkeit ergibt sich durch die Vorspiegelung von Verbindungen. Das Opfer kommuniziert mit dem Angreifer in der Annahme einen Geschäftspartner zu kontaktieren. Der Angreifer verwendet dazu eine falsche Identität. So durchgeführte Transaktionen können zu hohen wirtschaftlichen Schäden führen. 4. Verschleierung Der Angriff auf die Sicherheit der Informationsverarbeitung soll aus Sicht des Angreifers möglichst lange unerkannt bleiben, zumindest so lange bis der Angriff abgeschlossen ist. Sollte der Angriff erkannt werden, soll die Ermittlung der Identität des Angreifers unmöglich sein. Um dies zu erreichen, setzen Angreifer eine Reihe von Verschleierungsstrategien ein. Manipulation von Log-Daten
Durch die Erlangung von Zugangsinformationen und die Nutzung fremder Benutzerrechte wird vom Angreifer eine falsche Identität vorgetäuscht. Systemanmeldungen, misslungene Anmeldeversuche und andere Systemereignisse werden häufig in Log-Dateien protokolliert. Sie können eine Verfolgung der Angriffsschritte ermöglichen und liefern Hinweise darauf, welche Daten eingesehen oder verändert wurden. Der Angreifer wird versuchen diese Spuren durch eine Manipulation der Log-Daten zu verwischen.
verketteter Angriff
Zur Verschleierung der wahren Identität und Herkunft des Angreifers verwendet dieser häufig mehrere Rechnersysteme evtl. unterschiedlicher Firmen, die er für einen Angriff auf das Zielsystem verkettet. Er hangelt sich somit durch die einzelnen Rechnersysteme und greift den Zielrechner nicht direkt an. Dadurch wird eine Rückverfolgung seiner Kommunikationswege wesentlich erschwert.
Distributed Denial of Service
Eine weitere Variante, insbesondere bei Denial-of-Service-Angriffen, ist die Nutzung mehrere Ausgangssysteme. Dieser gleichzeitige Angriff von vielen Punkten aus erhöht die Angriffsstärke durch eine Verteilung und Erhöhung der Rechenleistung und erschwert die Gegenmaßnahmen der Systemadministratoren nach der Entdeckung.
Löschung von Datenträgern
Die radikalste und gleichzeitig verheerendste Variante ist die Löschung bzw. Formatierung ganzer Datenträger auf dem Zielsystem zur Verschleierung von Angriffsaktivitäten. Die folgende Tabelle fasst eine Reihe von Angriffen zusammen.
356
Angriffe
Tabelle 9-1
Auswahl möglicher Angriffe Angriff
Zweck
Angriffsplanung
TCP-Scan
Identifizierung aktiver/offener Ports
UDP-Scan
Identifizierung aktiver/offener Ports
SNMP-Analyse
Informationen über Komponenten und Struktur von Teilnetzen
Nutzung von Systemtools (z.
Informationen über Nutzer, offene Ports, Ressourcenverbrauch, Dienste, Domain- und Computernamen
B. finger, rusers, netstat, rstatd, sysstat, identd, rwho, nbstat)
9.2
Angriffe auf untere OSI-Schichten
ARP-Angriffe
Vorspiegeln einer falschen MAC-Adresse im Teilnetz
IP-Angriffe
Zugriff auf Netzressourcen, Denial of Service
ICMP-Angriffe
Denial of Service, Veränderung von RoutingInformationen, Tunneling, Abfangen von Daten
Spoofing
Verfälschung des Absenders einer Nachricht (IP-Adresse, DNS-Adresse, RoutingInformationen, E-Mail-Adresse)
Source Routing
Umleitung des Transportweges der Daten
Session Hijacking
Übernahme und Steuerung einer bestehenden Verbindung durch den Angreifer
Flooding
Überflutung des Zielrechners mit Daten, Denial of Service
Kapseln und Tunneln von
Umgehung von Firewalls
NTP-Angriff
Beeinflussung von zeitabhängigen Programmen oder Authentifizierungsmechanismen
Verbindungen
Angriffe auf mittlere OSI-Schichten
DNS-Angriffe (Cache Poison-
Veränderung von DNS-Adresseinträgen
NIS-Angriff
Zugriff auf Rechnerressourcen
FTP-Angriff
Übernahme und Steuerung einer bestehenden FTP-Verbindung durch den Angreifer
ing, DNS Spoofing, Reverse Lookup)
357
9
IT-Sicherheit
Angriff
Zweck
Gast-Zugang
Zugriff auf Rechnerressourcen bei falscher Konfiguration
NFS-Angriff
Zugriff auf Dateisystem
Buffer Overflow
Erzeugung eines Programmfehlers oder abbruchs durch Pufferüberlauf und damit Ausschaltung von Sicherheitsvorkehrungen
Angriffe auf obere OSI-Schichten
DDoS-Angriff (Distributed
gleichzeitiger Angriff von mehren Rechnern auf das Zielsystem
Ausnutzung von spezifischen
Zugriff auf Rechnerressourcen, Denial of Service u. a.
Denial of Service)
Sicherheitslücken in Betriebsund Anwendungssystemen
Passwortangriffe
Brute Force Attack
systematisches Durchprobieren aller Möglichkeiten
Wörterbuchangriff
Ausprobieren von häufig verwendeten Passwörtern und von Begriffen mit Bedeutung
Kopieren der Passwortdatei
Angriff auf Passwortdatei unabhängig von Schutzmechanismen des Zielsystems
Sniffing
Abhören von Passwörtern, die unverschlüsselt übertragen werden (z. B. bei POP, SMTP, HTTP, Telnet), insbesondere in BroadcastNetzwerken
Social Engineering
Erlangung von Passwörtern direkt vom Benutzer ohne Nutzung eines Angriffs auf das Zielsystem
Phishing
Abfragen von Zugangsinformationen beim Nutzer unter Vorspiegelung falscher Tatsachen bzw. durch WWW Spoofing
Kryptanalyse
Ermittlung des Klartextes bzw. des verwendeten Passworts einer verschlüsselten Nachricht durch mathematische und statistische Verfahren
Kompromittierender Code Unter kompromittierendem Code werden Computerprogramme verstanden, die schädliche Funktionen besitzen. Im Gegensatz zu zielgerichteten Angriffen verfügen derartige Programme zumeist über einen Selbstverbrei-
358
Angriffe
9.2
tungsmechanismus und sollen sich auf möglichst viele Rechner verteilen. Im Folgenden werden einige Varianten vorgestellt. Computerviren sind extrem kleine Programme, die sich an andere Programme, Daten (Makroviren) oder Gerätetreiber anhängen oder einfügen. Sie besitzen die Fähigkeit, sich zu replizieren. Bei Zugriff auf eine infizierte Datei wird der Virus aktiv und kopiert sich unbemerkt in andere Dateien, infiziert diese. Bei diesem Kopiervorgang ist es möglich, dass sich der Virus verändert (mutiert). Damit ist es schwerer, ihn zu erkennen. Eine besondere Variante sind so genannte trojanische Pferde. Sie bestehen aus einem gutartigen Programm, welches der Nutzer verwenden will. Im Innern dieses Programms sind für den Nutzer bösartige Funktionen eingebaut, die sich aktivieren und Schaden anrichten. Computerviren können Daten verändern, löschen, die Systemleistung verringern oder Informationen (z. B. Passwörter) an einen Angreifer senden, die es ihm ermöglichen in das infizierte System einzubrechen. Es existieren zurzeit mehrere tausend verschiedene Viren, die zudem noch in verschiedenen Varianten auftreten können. Die Zahl der Virenarten steigt ständig.
Viren, trojanische Pferde
Auch E-Mail-Warnungen vor Computerviren können Schaden anrichten. Solche als Hoax bezeichnete und nach dem Kettenbriefprinzip arbeitende EMails warnen den Nutzer vor einem vermeintlichen Virus und fordern ihn auf, die Warnung an alle ihm bekannten E-Mail-Adressen zu verschicken. Durch den Schneeballeffekt kann dies zu einer Überlastung der Mailsysteme führen.
Hoax
Eine dem Computervirus ähnliche Form von schädlicher Software sind so genannte Würmer. Während Viren andere Programme als Wirte verwenden, besitzen Würmer einen eigenen Verbreitungsmechanismus und können sich damit selbstständig über Netzwerke oder per E-Mail ausbreiten. Durch den hohen Vernetzungsgrad der Computersysteme können Würmer innerhalb weniger Stunden Rechner auf dem gesamten Erdball infizieren.
Würmer
Eine weitere Variante, um Zugriff auf Informationssysteme zu erhalten, sind so genannte Back Doors (Hintertüren). Back Doors ermöglichen den unbemerkten Zugriff auf Systeme bzw. die Nutzung von nicht dokumentierten Programmfunktionen. Back Doors können bereits durch den Softwarehersteller eingebaut werden, um beispielsweise Wartungsarbeiten an der Software zu erleichtern (z. B. Debug-Modus, undokumentierte Parameter). Als Back Doors werden auch Eingriffe in das Informationssystem bezeichnet, die einem Angreifer einen langfristigen, unbemerkten Zugriff verschaffen. Der Angreifer dringt dabei über herkömmliche Sicherheitslücken in das System ein und installiert eine individuelle Back Door. Wird der ursprüngliche Angriff bemerkt und die Sicherheitslücke geschlossen, verfügt der Angreifer
Back Doors
359
9
IT-Sicherheit
immer noch über die Back Door, die wesentlich schwieriger aufzuspüren ist. Back Doors können auch von Viren oder Würmern installiert werden.
Sicherheitsrisiken bei Nutzung des World Wide Web Die breite Nutzung des WWW, das hohe Vertrauen der Nutzer in die Technologie bei gleichzeitig fehlendem Sicherheitsbewusstsein sowie fehlerhaftes Design bzw. Implementierung von Browsern bilden die Grundlage für verschiedenste Angriffe. In der folgenden Tabelle sind einige Technologien mit Sicherheitsrisiken aufgeführt, die im WWW genutzt werden.
Tabelle 9-2
Technologien des WWW und ihre Sicherheitsrisiken Technologie
Sicherheitsrisiko
Programmiersprache Java
hohe Sicherheit durch dreistufiges Sicherheitskonzept, allerdings Design- und Implementierungsfehler in der Sandbox
ActiveX-Komponenten
Nutzung von Zertifikaten zur Identifizierung des Erstellers, aber keine Prüfung der Funktionalität; Sicherheit beruht allein auf dem Vertrauen des Nutzers in den Ersteller
JavaScript
Zugriff auf lokale Dateien durch Implementierungsfehler möglich
Cookies
Sammlung von Informationen über das Verhalten des Nutzers im WWW bei Speicherung der Cookies über mehrere Browsersitzungen
CGI (Common Gateway Inter-
Zugriff auf Serverressourcen bei fehlerhafter Programmierung
Protokoll MIME (Multi Purpose
unerwünschter Transfer von Daten oder Programmen möglich
WWW Spoofing
Umleitung von WWW-Adressen und damit bspw. Abfrage von Benutzernamen, Passwörtern, PIN, TAN über gefälschte Webseite
Download von Dateien
Ausführen unerwünschter Programme durch einfachen Mausklick
face)
Internet Mail Extensions)
360
Schutzmaßnahmen
9.3
Beim Aufbau eines wirksamen Schutzes gegen Gefährdungen der Datensicherheit ist das Verhältnis von Aufwand und Nutzen zu berücksichtigen. Hierzu ist eine Risikoanalyse notwendig, welche die Wahrscheinlichkeit des Eintretens bestimmter Ereignisse einschätzt, deren mögliche Folgen aufzeigt und die spezifischen Nutzenpotenziale von Schutzmaßnahmen bestimmt.
AufwandNutzenAbschätzung
9.3 Schutzmaßnahmen
Sämtliche Bereiche eines Systems müssen den gleichen hohen Sicherheitsstandards genügen. Ein System ist nur so sicher, wie sein schwächstes Element. Hundertprozentige Sicherheit ist nicht möglich! Aber gegen die meisten Gefahren können Schutzmaßnahmen getroffen werden.
Schutzmaßnahmen für die Hardware besonders wichtig für Server, da diese den Kern des Systems bilden, große Datenmengen gespeichert haben und von hohem Wert sind
physische Sicherung der Hardwarekomponenten durch Verschluss in Räumen und Sicherung durch Zugangskontrollen und Alarmvorrichtungen
Einbau von Klimaanlagen zum Schutz vor Überhitzung und zu hoher Luftfeuchtigkeit
Einsatz von Rauch- und Brandmeldern sowie Temperaturüberwachungssystemen
Unterbringung in feuergesicherten Räumen Einbau von Elektronik nicht beschädigenden Löschvorrichtungen (z. B. Löschgase)
Schutz vor Wasserschäden durch Versiegelung, entfernte Verlegung von Rohrleitungen
Schutz vor Spannungsspitzen und ähnlichen Störungen durch Schutzschaltungen
Überbrückung von Stromausfällen durch USV (Unterbrechungsfreie Stromversorgung) oder Notstromaggregate
Einsatz fehlertoleranter Systeme, z. B. Verdopplung wichtiger Hardwarekomponenten
Durchführung von Installation und Wartung nur durch Fachleute
361
9
IT-Sicherheit
Schutz vor Diebstahl durch mechanische Sicherungen und Markierung und Inventarisierung der Geräte
Einschränkung der Verwendung beweglicher Datenträger (Disketten, Wechselplatten, Flash-Speicher)
Schutzmaßnahmen für die Software Verwendung von Standards sichert Kompatibilität und bietet ein Mindestmaß an Qualität
Überprüfung der Zuverlässigkeit der Programme Benutzerfreundlichkeit der Programme Virenschutz Einsatz von Virenschutzprogrammen, die auch im Hintergrund jeden Dateizugriff überwachen (Virus wird nicht erst bei einem Suchlauf (Virus-Scan) erkannt, sondern sofort, wenn er aktiv wird.)
keine Verwendung fremder Disketten oder Software Verwendung von PCs ohne Diskettenlaufwerk Verhinderung des Anschlusses externer Datenträger Verwendung eines gehärteten Betriebssystems Sicherstellung eines Security-Supports durch den Hersteller mit schneller Reaktionsfähigkeit nach der Aufdeckung von Sicherheitslücken
Verfügbarkeit und Anwendbarkeit von Updates Möglichkeit der Eigenhilfe zur schnellen Beseitigung von Sicherheitslücken
Schutzmaßnahmen für die Daten Identifikation Das System wird über eine Nutzerkennung (den Namen) darüber informiert, wer der Benutzer ist.
Authentifikation Der Benutzer weist nach, dass er derjenige ist, der er vorgibt zu sein. Authentifikation kann durch geheimes Wissen, z. B. ein Passwort erfolgen. Passwörter haben jedoch entscheidende Nachteile. Sie können weiterge-
Prüfung der Identität
362
Schutzmaßnahmen
9.3
geben oder erraten werden. Das Passwort kann bekannt werden, ohne dass der Besitzer es bemerkt.
Autorisierung Durch Identifikation und Authentifikation wird der Benutzer festgestellt. Bei der Autorisierung ordnet das System dem Benutzer seine festgelegten Zugriffsrechte zu. Die Benutzer dürfen nur Zugriffsrechte auf die Daten und Programme haben, die für ihre Arbeitsaufgaben erforderlich sind. Zugriffsrechte können durch Gruppen oder Rollen organisiert werden. Die Organisation der Zugriffsrechte muss überschaubar bleiben, damit durch Auswahl und Kombination der Rechte keine Sicherheitslücken entstehen.
Zugriffsschutz bei kurzzeitiger Abwesenheit des Benutzers (z. B. Bildschirmschoner mit Passwort)
Protokollierung von Zugriffen auf das System und die Eingabe, Verarbeitung und Ausgabe von Daten
komplette Verschlüsselung der Daten durch kryptographische Algorithmen (nur bei hochsensiblen Daten zu empfehlen, da bei jedem einzelnen Datenzugriff ent- und wieder verschlüsselt werden muss)
Supervisor-Login (Anmeldung am System durch den Systemadministrator, also jemanden, der weit reichende Zugriffsrechte im gesamten System hat) nur an einem zusätzlich physisch gesicherten Computer zulassen
keine vertraulichen Ausdrucke an Druckern, die mehreren Personen zugänglich sind
Vernichtung von nicht mehr benötigtem schriftlichen Material und Datenträgern (sowohl Wechseldatenträger als auch Festplatten aus verschrotteten Rechnern) durch spezielle Maschinen oder Firmen
Protokollierung von Angriffen auf das System (z. B. mehrfach fehlgeschlagene Anmeldeversuche) und automatische Alarmierung
Einsatz von Festplattensystemen, die mittels RAID-Verfahren (Redundant Array of Inexpensive Disks) und der damit verbundenen Nutzung von Datenredundanz und Prüfinformationen vor Datenverlust schützen
Verwendung von Recovery Mechanismen zur Wiederherstellung der Integrität des Systems nach Systemabstürzen
Durchführung von Backups (Anlegen von Sicherheitskopien, um im Fehlerfall das System auf den Zeitpunkt des letzten Backups setzen zu
363
Zuordnung von Zugriffsrechten
9
IT-Sicherheit
können); Verwendung einer Backup-Strategie; zentrales Backup-System; sichere, getrennte Lagerung der Backupmedien
Langzeitarchivierung auf optischen Speichermedien
Schutzmaßnahmen für die Kommunikation Verwendung von Sicherheitsprotokollen Einsatz kryptographischer Algorithmen keine unverschlüsselte Übertragung von sensiblen Daten per Telefax Einsatz von Software, die Hackerangriffe simuliert und damit die Sicherheitsmaßnahmen des Kommunikationssystems testet
Trennung des Netzwerks in Subnetze Einrichten einer Demilitarisierten Zone (DMZ) als Schutz nach innen und außen
Installation restriktiver Firewalls („Was nicht ausdrücklich erlaubt ist, ist verboten.“)
Einsatz von Hosts mit nicht beschreibbaren Datenträgern (z. B. Firewall auf CD-ROM-Basis)
beschränkte Adressbereiche für Zugriffe
Schutzmaßnahmen für die Organisation Aufklärung und Sensibilisierung der Mitarbeiter für Sicherheitsaspekte Engagement fähiger Mitarbeiter Berücksichtigung von Sicherheitsaspekten bereits bei der Konzeption bzw. Systemplanung
Vertreterregelungen für Informationsträger Festlegung der Zuständigkeiten für Hardware, Software, Daten, Netze, Notfälle
Erarbeitung von Notfallplänen und Eskalationsstrategien zur Verhinderung von Panik bei Eintritt eines Sicherheitsproblems
Test / Training der Notfallszenarien Ausführliche Dokumentation der Systeme
364
Schutzmaßnahmen
9.3
sichere Backup-Politik (inkl. Lagerung der Medien) Schaffung von Redundanz Schaffung von Ausweichkapazitäten Nutzung mehrerer unabhängiger Rechenzentren oder mobiler Einsatzzentralen, die im Notfall den Rechenbetrieb übernehmen können
detaillierte Einweisung des Personals in die Systeme Weiterbildung der Nutzer Schaffung / Erhaltung eines angenehmen Betriebsklimas Einführung und Durchsetzung eines Passwortmanagements
Fahndung Zur Verfolgung sicherheitsrelevanter Angriffe auf das eigene System und zur Schadensbegrenzung sind die möglichst frühzeitige Entdeckung eines Angriffs sowie eine genaue Beweissicherung erforderlich. Ersteres wird durch Intrusion Detection Systems (IDS), letzteres durch das automatische Protokollieren der Systemabläufe realisiert.
Network Forensis
Intrusion Detection System (IDS) Die Erkennung von Einbruchsversuchen in Rechner oder Netzwerke wird über ein IDS durchgeführt. Ein IDS überprüft den laufenden Netzverkehr oder analysiert Log-Daten auf Unregelmäßigkeiten.
Abbildung 9-2
Aufgaben eines Intrusion Detection Systems
Beobachten und Analysieren der Nutzer- und Systemaktivitäten Analyse der Systemkonfiguration und Entdecken von Schwachstellen Einschätzen der System- und Datenintegrität Erkennen von typischen Angriffsmustern Analyse von ungewöhnlichen Verhaltensmustern Feststellen von Verletzungen der Sicherheitspolicy Dabei werden zwei Komponenten des IDS eingesetzt. Die erste Komponente (passives IDS) führt die Systemanalyse aus und erkennt mögliche Schwachstellen. Die zweite Komponente (aktives IDS) untersucht das Netzwerk auf Unregelmäßigkeiten und Missbrauch.
365
IT-Sicherheit
9
Als Reaktionen sind die Deaktivierung des Netzwerks, Benachrichtigung von Administratoren, die Sicherung von Beweisen oder Gegenmaßnahmen denkbar. Man unterscheidet wissensbasierte (Misuse Detection) und verhaltensbasierte (Anomaly Detection) IDS-Ansätze. Eine weitere Unterscheidung ist zwischen hostbasierten und netzwerkbasierten Systemen möglich. Moderne IDS verwenden meist Mischformen.
Misuse Detection Wissensbasierte Mechanismen erkennen Unregelmäßigkeiten anhand von vorher in eine Datenbank eingepflegten Mustern bekannter Angriffe. Die Datenbank muss daher regelmäßig aktualisiert werden. Neue Angriffe werden in der Regel nicht erkannt.
wissensbasierter Ansatz
Anomaly Detection Verhaltensbasierte Mechanismen überprüfen das Verhalten von System und Nutzern und erkennen Abweichungen vom typischen Verhalten. Derartige IDS erkennen auch neue Angriffe, für die bislang kein Muster vorhanden ist. Bei verhaltensbasierten Systemen muss das IDS jedoch erst einmal auf ein normales Systemverhalten eingestellt werden. Es ist also nicht sofort nach Inbetriebnahme voll einsatzfähig und produziert deutlich mehr Fehlalarme als die wissensbasierte Lösung. Es muss außerdem ständig an sich änderndes Systemverhalten angepasst werden.
verhaltensbasierter Ansatz
hostbasierte Lösung (HIDS) Schutz einzelner Rechner
Hostbasierte Lösungen laufen auf den zu überwachenden Zielrechnern und erkennen somit auch Angriffe auf den Rechner, die im normalen Netzwerkverkehr nicht aufgefallen wären.
netzwerkbasierte Lösung (NIDS) Netzwerksensoren
Bei hostbasierten Lösungen spricht man auch von Netzwerksensoren, die innerhalb eines Teilnetzes den Datenverkehr belauschen. Sie sind nicht vom Betriebssystem oder den Anwendungsprogrammen eines Rechners abhängig.
Stealth-Sensoren
Zur Erhöhung der Sicherheit und zur Verhinderung von Angriffen auf das IDS sollten IDS-Mechanismen für einen Angreifer unsichtbar sein.
Fallen
Deception System Deception Systems sind auch unter dem Namen Honey Pot bzw. Decoy System bekannt. Es handelt sich hierbei um Rechner, die Systeme simulieren und dadurch Eindringlinge anlocken sollen. Deception Systems werden in das Rechnernetz integriert und sind absichtlich schlecht konfigurierte Rechner, auf denen sich scheinbar wertvolle Informationen befinden. Sie sollen von besser gesicherten, wichtigen Rechnern ablenken und das Studium von
366
Sicherheitstechnologien
9.4
Angriffsszenarien erleichtern. Sie sind nur dann sinnvoll, wenn sie von Administratoren permanent überwacht werden. Honey Pots stellen bei falscher Konfiguration und ungenügender Absicherung des umgebenden Netzwerks eine Gefahrenquelle dar, da sie als Tor ins Unternehmensnetzwerk oder für DoS-Angriffe verwendet werden können. Protokollierung Für die Beweissicherung und die Schadensfeststellung muss ein Angriff nachvollzogen werden können. Dies ist durch die automatische Protokollierung von Systemereignissen und Benutzeraktionen möglich. Ein Angreifer wird versuchen seine Aktivitäten zu Verschleiern und deshalb Log-Daten verändern oder löschen. Zur wirksamen Verhinderung einer Verschleierung sollten relevante LogDaten deshalb so gespeichert werden, dass eine nachträgliche Veränderung nicht möglich ist. Hier bieten sich die nur einmal beschreibbaren WORMMedien, ein sofortiger Ausdruck der Log-Daten auf Papier (Hardcopy) oder die verteilte Sicherung auf voneinander unabhängig geschützte Systeme an. Da im normalen Systembetrieb sehr viele Log-Daten anfallen, empfiehlt sich dieses Verfahren jedoch nur bei akuter Bedrohung bzw. einem durch ein IDS identifizierten Angriff.
9.4 Sicherheitstechnologien Authentifizierung Angriffe auf die Kommunikation können durch die Benutzung einer falschen Identität erfolgen. Der Angreifer gibt sich als jemand aus, der Zugang zum Unternehmenssystem besitzt und erhält damit Rechte im unternehmensinternen Informationssystem. Durch die vielfach komplexen Informationssysteme, deren Verknüpfungen und komplizierte Nutzerrechte wird die Nutzung einer falschen Identität häufig über mehrere Ebenen mit unterschiedlichen Identitäten fortgesetzt. In jeder Ebene erhält der Angreifer durch die aktuellen Rechte Informationen auf weitere Sicherheitslücken oder die Zugriffsrechte anderer Nutzer. Die Authentifizierung dient der Überprüfung der Identität eines Kommunikationspartners. Zur Benutzer-Authentifizierung werden zumeist Passwörter verwendet. Eine Authentifizierung kann stattfinden, ohne dass der überprüfende Kommunikationspartner das Passwort kennt. Würde er das Passwort kennen, könnte er sich die Identität des anderen aneignen oder wäre für Angriffe sehr gefährdet, da sämtliche Passwörter der Kommunikations-
367
Benutzung einer falschen Identität
Passwortprüfung mittels Einwegfunktionen
9
IT-Sicherheit
partner gespeichert werden müssten. Deshalb werden zur Authentifizierung mathematische Einwegfunktionen verwendet. Der überprüfende Partner besitzt nur einen Wert der mit Hilfe einer Einwegfunktion aus dem Passwort generiert wurde. Zur Authentifizierung sendet der zu prüfende Partner das Passwort, welches dann vom überprüfenden Partner (bzw. automatisch) mittels der Einwegfunktion umgewandelt wird. Der erzeugte Wert kann dann mit dem gespeicherten verglichen werden. Aus den durch die Einwegfunktion generierten gespeicherten Werten kann das Passwort nicht bestimmt werden. Sie sind gegenüber Missbrauch oder einem Angriff geschützt. Passwörter Um das Erraten oder Ausprobieren von Passwörtern zu erschweren, sind verschiedene Regeln einzuhalten. Diese sind in Abbildung 9-3 erläutert.
Abbildung 9-3
Anforderungen an Passwörter technische Anforderungen:
Passwörter dürfen nie in Klarschrift erscheinen oder übertragen werden. Die Länge des Passwortes sollte bei der Eingabe nicht erkennbar sein. Passwörter müssen im System verschlüsselt und geschützt gegen Manipulation oder Lesezugriffe abgelegt sein.
Die Anzahl der Falscheingaben von Passwörtern muss begrenzt oder durch Zeit-
sperren geschützt werden. So kann beispielsweise der Zugang des Benutzers nach drei falschen Eingaben des Passwortes gesperrt werden oder die Zeitdauer bis ein neuer Anmeldeversuch möglich ist nach jedem Fehlversuch verdoppelt werden. Brute-Force-Angriffe lassen sich dadurch wirkungsvoll verhindern.
Die letzte Anmeldung am System sollte dem Nutzer beim Anmelden mitgeteilt
werden, damit dieser feststellen kann, ob sich eine andere Person zwischenzeitlich mit den Daten des Benutzers am System angemeldet hat.
Erfolglose Anmeldungen sollten protokolliert werden. Die Benutzung einfacher Passwörter (z. B. zu kurz, Folge gleicher Zeichen, Na-
men, Wort mit Bedeutung) sollte durch das System verhindert werden. Dies kann beispielsweise durch Prüfung gegen ein Lexikon erfolgen.
Die Wiederverwendung bereits benutzter Passwörter ist zu verhindern. organisatorische Anforderungen:
Jeder Benutzer besitzt eine eigene Nutzerkennung und ein eigenes Passwort. Passwörter sind geheim zu halten. Passwörter sind unbeobachtet einzugeben. Durch den Systemadministrator vergebene Passwörter sind durch die Nutzer bei der nächsten Anmeldung zu verändern.
Es sind lange Passwörter (mindestens 8 Zeichen) zu verwenden.
368
Sicherheitstechnologien
9.4
Für das Passwort sollten unterschiedliche Zeichentypen (Buchstaben, Zahlen, Sonderzeichen) eingesetzt werden.
Die Verwendung persönlicher Informationen (z. B. Namen, Geburtstage u. ä. von Benutzern und deren Angehörigen) muss vermieden werden.
Passworte sollten eine beschränkte Gültigkeitsdauer besitzen. Eine hohe Merkfähigkeit bei gleichzeitig komplexen Passwörtern kann erreicht werden, wenn der Nutzer das Passwort aus den Anfangsbuchstaben eines leicht zu merkenden Satzes bildet: Dieses Passwort hat neun Buchstaben und lässt sich einfach merken. Æ DPh9Bulsem
Merken von Passwörtern
Nutzer von Informationssystemen haben häufig Zugang zu einer Vielzahl verschiedener Systeme und damit auch eine Vielzahl von Zugangsdaten. Um sich das Merken der Passwörter zu erleichtern, schreiben Nutzer diese oft auf, verwenden einfache Passwörter oder das gleiche Passwort an unterschiedlichen Systemen. Dadurch wird die Sicherheit der Informationssysteme geschwächt. Abhilfe schafft hier ein System mit Single-Sign-On. Der Benutzer muss sich nur einmal am System anmelden. Die Authentifizierungsinformationen werden dann an nachgelagerte Systeme automatisch weitergegeben. Bei der Implementierung einer Single-Sign-On-Architektur muss besonders auf Sicherheit geachtet werden, damit sich der Einbruch in ein System nicht auf verbundene Systeme fortsetzen kann.
Single-Sign-On
Authentifikation ist auch durch schwer kopierbare Gegenstände, z. B. Chipkarten möglich. Das Problem bei dieser Art des Identitätsbeweises ist der Verlust oder Diebstahl des Authentifikationsgegenstandes. Deshalb werden beispielsweise Chipkarten häufig zusammen mit einem Passwort verwendet.
Authentifikationsgegenstand
Eine Lösung, welche die Nachteile der bereits genannten Verfahren nicht besitzt, wird durch die Biometrik möglich. Jeder Benutzer ist sein eigener Authentifikationsgegenstand. Die Authentifikation erfolgt durch die Überprüfung benutzerspezifischer Eigenschaften. Zu diesen Eigenschaften gehören der Fingerabdruck, die Iris und die Netzhaut des Auges, die Stimme, die biometrischen Maße der Hand und die Unterschrift. Bei der Messung der biometrischen Merkmale muss sichergestellt werden, dass diese nicht künstlich nachgebildet wurden. Bei den vorgestellten Verfahren bleibt das Problem des Abhörens des Passwortes während der Übertragung an den prüfenden Kommunikationspartner. Um dem zu begegnen, verwendet man Einmal-Passworte oder PublicKey-Verfahren. Beim Einsatz von Einmal-Passwörtern ist für jede Kommunikation ein neues Passwort erforderlich. Dieses Verfahren wird beispielsweise beim Online-Banking in Form von Transaktionsnummern verwendet.
369
Biometrik
9
IT-Sicherheit
Die Transaktionsnummern erhält der Kunde zuvor persönlich von der Bank. Um dieses Vorgehen zu automatisieren, kann beispielsweise das Challengeand-Response-Verfahren eingesetzt werden. Public-Key- und Challengeand-Response-Verfahren werden im Abschnitt 9.5 Kryptographie näher erläutert.
Firewalls Schutz des Netzes gegen Eindringlinge
Firewallsysteme stellen einen Schutz des eigenen Netzes gegen unbefugtes Eindringen von außen dar. Firewalls sind spezielle Computer, die als Filter und/oder Gateway fungieren. Die Netzanbindung muss so aufgebaut sein, dass die gesamte Kommunikation von außen den Firewall passieren muss. Zur Sicherung sensibler Bereiche im lokalen Netzwerk können diese in separate Netze gelegt und durch interne Firewalls geschützt werden. Die Filter eines Firewalls lassen abhängig vom Ergebnis der Authentifikation und Autorisierung, nur bestimmte Daten bzw. Kommandos hindurch:
Paketfilter lassen nur Verbindungen mit bestimmten Computern zu bzw. schränken die Verbindungen auf vorgegebene Dienste ein.
Durch Transportschicht-Gateways wird der direkte Zugriff auf interne Computer von außen verhindert. Zugriff ist nur auf das Gateway möglich, welches dann die gewünschte Verbindung herstellt.
Anwendungsschicht-Gateways sorgen dafür, dass jedes Programm, welches Kontakt nach außen herstellen kann, separat gesichert wird. In der Abbildung 9-4 ist ein Firewall schematisch dargestellt.
Abbildung 9-4
Firewall
370
Sicherheitstechnologien
9.4
Firewalls spiegeln dem Nutzer, der von außen auf das Netz zugreifen will vor, er würde sich auf dem Zielsystem befinden. Tatsächlich arbeitet er nur mit der Firewall. Die Software die dieses Vorgehen ermöglicht, wird Proxy (engl. Stellvertreter) genannt. Sie prüft die Zulässigkeit des Zugriffs und leitet die Daten weiter. Es gibt keine direkte Verbindung zwischen dem fremden Netz und den Computern des eigenen Netzes. Sicherheitsrelevante Vorkommnisse werden automatisch in einem Logbuch verzeichnet. Die Steuerung und Überwachung der Firewall-Komponenten erfolgt über ein Sicherheitsmanagement-System. Dieses System ist getrennt von der Firewall und verfügt über eigene Schutzmechanismen, um gegen einen Angriff unempfindlich zu sein. Firewall-Architekturen Es existieren verschiedene Architekturvarianten für den Aufbau einer Firewall. Die grundlegenden Arten werden im Folgenden vorgestellt. In der Praxis kommen häufig auch Mischformen zum Einsatz, die aus Sicherheitsgründen Dienste auf unterschiedliche Hosts verteilen oder mehrere Rechner zur Lastverteilung einsetzen.
Dual Homed Host Beim Dual Homed Host fungiert ein Firewall-Rechner als Router zwischen Intranet und Internet. Das eigentliche Routing wird jedoch durch die Firewall-Mechanismen ersetzt. Der Rechner ist gehärtet, d. h. besonders geschützt. Der Host stellt über Proxies die Dienste des Internet zur Verfügung. Der Host besitzt dazu zwei Netzwerkkarten, für jedes Netz eine. Verbindungen zwischen den Netzen sind nur über die Firewall möglich. Der Name dieser Architektur ist darauf zurück zu führen, dass der Firewall-Rechner Teil beider Netze ist.
371
Sicherung durch Firewall-Rechner
9 Abbildung 9-5
IT-Sicherheit
Dual Homed Host
Screened Host Bei dieser Architektur ist der Host ist nicht direkt mit dem Internet verbunden. Er ist stattdessen an einen Screening Router angeschlossen, der direkte Verbindungen zum Netz unterbindet und Pakete filtert. Der Host bietet als Proxy Dienste an. Vorteil gegenüber der Dual-Homed-Architektur ist die schwierigere Erreichbarkeit des Hosts, der deshalb auch als Bastion Host bezeichnet wird.
zusätzliche Sicherung durch externen Router
372
Sicherheitstechnologien
9.4 Abbildung 9-6
Screened Host
Screened Subnet Host Bei der Screened-Subnet-Host-Architektur wird zusätzlich zum äußeren Router ein innerer Router in die Firewall integriert, um Angreifer abzuwehren, die auf den Bastion Host gelangt sind. Das Mitlesen des internen Netzverkehrs ist damit unmöglich. Das Perimeter Network regelt den Datenaustausch zwischen den Routern und dem Bastion Host und ist damit Trennschicht zwischen internem Netz und Internet.
373
zusätzliche Sicherung durch internen und externen Router
9 Abbildung 9-7
IT-Sicherheit
Screened Subnet Host
demilitarisierte Zone (DMZ) gesicherter Bereich im Intranet
Eine DMZ stellt einen gesicherten, abgeschlossenen Bereich im Intranet dar. Eine DMZ wird für Rechner (gewöhnlich zusätzlich physisch gesicherte Server) eingerichtet, die besonderen Schutz benötigen.
374
Sicherheitstechnologien
9.4 Abbildung 9-8
Beispiel einer DMZ
Aus Sicht einer DMZ werden sämtliche Netze außerhalb der DMZ als potenziell feindlich eingestuft. Es ist dabei unerheblich, ob diese dem Intranet angehören oder Zugang zu externen Netzen wie dem Internet haben. Die DMZ ist daher durch ein weiteres, separates Teilnetz vom Intranet getrennt. Die Trennung des DMZ-Teilnetzes wird durch einen separaten Router mit Firewallfunktionalität gewährleistet. Nach innen wird eine DMZ
375
9
IT-Sicherheit
normaler Weise nicht gesichert, da hier keine Benutzer aktiv werden können.
Virtual Privat Networks (VPNs)
sichere Übertragung von Daten in einem ungesicherten Netz
Tunneln
Die Kommunikation zwischen Geschäftspartnern über Wide Area Networks bietet einem Unternehmen eine große Zahl von Vorteilen. Gegenüber Standleitungen und Technologien wie ISDN, ATM und Frame Relay bietet das Internet vor allem für kleine und mittelständische Unternehmen einen großen Vorteil im Bereich der Kommunikationskosten. Die Nutzung des Internets als Kommunikationskanal birgt, wie bereits geschildert, jedoch auch eine Reihe von Risiken, da es keine abgeschlossene, exklusiv vom Unternehmen nutzbare Infrastruktur darstellt, sondern eine komplexe Kopplung heterogener Netzwerkkomponenten mit öffentlichem Zugang ist. Eine Möglichkeit die Kommunikation über das Internet vor Angriffen Dritter zu schützen, ist die Verwendung eines Virtual Private Network. Ein VPN stellt eine sichere Verbindung in einem ungesicherten Netz her und bietet sich deshalb gerade für die Übertragung von Unternehmensdaten im Internet an. Kerngedanke dieser virtuellen privaten Netzwerke ist die Methode des Tunneling zur Übertragung einer Nachricht. Zur Gewährleistung der Sicherheit werden kryptographische Verfahren angewandt. Beim Tunneling in VPNs wird der durch ein herkömmliches Kommunikationsprotokoll erzeugte Datenstrom verschlüsselt und paketweise mittels TCP/IP über das Internet verschickt. Am Zielort werden die einzelnen Pakete zusammengestellt und entschlüsselt. Der Originaldatenstrom ist wieder hergestellt und kann von der Zielanwendung verarbeitet werden, als wäre er direkt vom Sender übermittelt worden. Es existieren drei unterschiedliche Typen von VPNs: Site-to-Site-VPN, Endto-End-VPN und End-to-Site-VPN. Diese Typen werden im Folgenden vorgestellt.
End-to-End-VPN getunnelte Verbindung zwischen zwei Endgeräten
Das End-to-End-VPN dient der Kommunikation von zwei Einzelrechnern durch eine getunnelte Verbindung. Da das VPN direkt zwischen zwei Endgeräten aufgebaut werden muss, lohnt sich der Einsatz zumeist nur in Einzelfällen. Da jedes Endgerät mit der VPN-Software ausgerüstet und konfiguriert werden muss, ist der administrative Aufwand in größeren Netzwerken zu hoch. Vorteil der End-to-End-Verbindung ist jedoch die Fähigkeit auch innerhalb des Intranets eine gesicherte Verbindung bereit zu stellen. Die folgende Abbildung zeigt dieses Verfahren schematisch.
376
Sicherheitstechnologien
9.4 Abbildung 9-9
End-to-End-VPN
End-to-Site-VPN Das End-to-Site-VPN wird für die gesicherte Verbindung einzelner Rechner mit dem Unternehmensnetzwerk über öffentliche Netze eingesetzt. Die Remote-Clients können beispielsweise von Außendienstmitarbeitern oder Personal mit Heimarbeitsplatz verwendet werden. Die Remote-Clients verfügen über die entsprechende VPN-Software und stellen eine sichere Verbindung zum Unternehmensnetzwerk her. Am Übergang vom Internet zum Unternehmensnetz befindet sich ein so genannter VPN-Konzentrator. Dieser hat die Aufgabe, sämtliche eingehenden VPNVerbindungen zu verarbeiten. Die ankommenden Datenströme werden entpackt, entschlüsselt und in das Intranet eingespeist. Die Verbindung zwischen VPN-Konzentrator und Zielrechner im Intranet erfolgt dann ungesichert aus Sicht des VPNs. Vorteil dieser Lösung ist die Konzentration aller notwendigen VPN-Komponenten auf der Intranet-Seite in einem Punkt. Die restlichen Rechner im Intranet müssen nicht über die VPN-Software verfügen. Nachteil dieses Verfahrens ist, dass die Nachrichten innerhalb des Intranets nicht durch einen Tunnel geschützt sind.
getunnelte Verbindung zwischen entfernten Rechnern und Unternehmensnetzwerk
Abbildung 9-10
End-to-Site-VPN
377
9
IT-Sicherheit
Site-to-Site-VPN Das Site-to-Site-VPN dient der geschützten Verbindung von Netzwerken über das Internet. Anwendung findet diese Art von VPNs einerseits bei der unternehmensinternen Kommunikation mit Außenstellen und anderen Standorten. Andererseits lassen sich sichere Kommunikationskanäle zu Geschäftspartnern aufbauen. Der Aufbau derartiger Extranets ermöglicht die Ausweitung von Geschäftsprozessen im Rahmen des SupplyChain-Managements. Zur Realisierung der Kommunikation verfügen beide Standorte über VPN-Gateways, die sämtlichen Datenverkehr, der vom Intranet zum Partner geschickt wird, durch das Internet tunneln. Das VPN erstreckt sich auch hier nicht bis zum Endgerät.
getunnelte Verbindung zwischen Netzwerken
Abbildung 9-11
Nutzung schneller symmetrischer kryptographischer Verfahren
Site-to-Site-VPN
Verschlüsselung in VPNs Zur Verschlüsselung der Daten bei der Kommunikation mittels VPN werden ausschließlich symmetrische Verschlüsselungsverfahren eingesetzt. Die stark auf Performance angewiesenen Netzwerke erreichen damit einen großen Geschwindigkeitsvorteil gegenüber asymmetrischen Verschlüsselungsverfahren. Der für die symmetrische Verschlüsselung notwendige Schlüsseltausch wird aufgrund der Häufigkeit und der Vielzahl von Verbindungen automatisiert. Zur Sicherung des elektronischen Schlüsselaustausches werden asymmetrische Verschlüsselungsverfahren eingesetzt. Die Authentifizierung, der Schlüsseltausch sowie die Ver- und Entschlüsselung werden durch die verwendete VPN-Software bzw. die genutzten Protokolle realisiert. Der Eingriff des Nutzers beschränkt sich hier zumeist auf die Angabe der Verschlüsselungsstärke (kryptographisches Verfahren, Schlüssellänge). Auf Details von Verschlüsselungsverfahren wird im Abschnitt Kryptographie näher eingegangen.
378
Sicherheitstechnologien
Tunneling Unter Tunneling versteht man die Kapselung eines Datenübertragungsprotokolls durch ein weiteres. Das kapselnde Protokoll kann identisch mit dem gekapselten (z. B. IP-in-IP) oder unterschiedlich (z.B. IPX-in-IP) sein. Für das Tunneling wird der Datenstrom des zu kapselnden Protokolls in die Nutzdaten des äußeren Protokolls transferiert. Durch Tunneling wird es zum einen möglich, nahezu für beliebige Protokolle Verbindungen über das TCP/IP-Protokoll des Internets herzustellen. Zum anderen kann durch die Verschlüsselung der Nutzdaten des äußeren Protokolls eine hohe Sicherheit erreicht werden. Diese Sicherheit erstreckt sich nicht nur auf den Inhalt der eigentlich zu übertragenden Originaldaten (dies entspräche dem so genannten Transport-Modus), sondern kann auch Absender und Zieladresse einschließen. Zur standardisierten Abwicklung des Tunneling existieren verschiedene Protokolle. Sie übernehmen Authentifizierung, Schlüsseltausch, Ver- und Entschlüsselung sowie die Kapselung. Für VPNs werden vor allem die Protokolle IPSec im Tunnelmodus, L2TP und PPTP verwendet. Hinweise für die Anwendung von VPNs Bei der Konzeption, Auswahl und dem Einsatz von VPNs ist auf folgende Punkte besonders zu achten:
Sicherheit Sicherheit ist der Hauptfaktor eines VPNs, da sie die Hauptzielstellung der Einrichtung eines virtuellen privaten Netzwerkes ist. Sie muss durch Verschlüsselungstechnologien u. a. gewährleistet werden.
Transparenz Für den Nutzer sollten sich keine Änderungen bei der Bedienung seines Rechners ergeben. Das VPN muss vollautomatisch im Hintergrund arbeiten.
Verfügbarkeit Die Verfügbarkeit der Netzverbindungen sollte durch das VPN nicht negativ beeinflusst werden.
Performance Die Ver- und Entschlüsselung sowie das Ein- und Auspacken der Daten erfordern eine hohe Rechenleistung. Vor allem bei der Nutzung vieler Kommunikationsverbindungen, wie es in Unternehmen der Fall ist, ist eine leistungsfähige Hardware Voraussetzung für einen performanten Einsatz von VPNs.
379
9.4 Kapselung der Datenübertragung
verwendete Sicherheitsprotokolle
9
IT-Sicherheit
Skalierbarkeit Zur Steigerung der Investitionssicherheit muss die VPN-Lösung zukünftigen Anforderungen ebenfalls gerecht werden können. Eine Erweiterung bzw. Anpassung an spätere Bedürfnisse muss möglich sein. Zu beachten sind hierbei vor allem die Nutzung von Standards und die Migrationsfähigkeit.
Quality of Service Die zunehmende Nutzung von Realtime-Applikationen erhöht die Anforderungen an Bandbreite, Verzögerung und Fehlerrate. Diese Herausforderung muss von den eingesetzten VPN-Komponenten gelöst werden, wenn im Einsatzbereich Echtzeit-Anwendungen gesichert über öffentliche Netze kommunizieren sollen.
Interoperabilität Kommunikationspartner bei VPNs sind häufig Unternehmensexterne. Deren IT-Infrastruktur ist nicht beliebig beeinflussbar. Das VPN muss deshalb mit VPN-Produkten anderer Hersteller kompatibel sein. Es ist deshalb auf die Nutzung verbreiteter Standards zu achten.
Integrationsfähigkeit Das VPN muss in das bestehende Netzwerk und die Sicherheitsstrategie integriert werden. Dadurch wird die Kopplung mit existierenden Lösungen ermöglicht, eine durchgängige Sicherheit der Informationsverarbeitung gewährleistet und der Ressourcenverbrauch begrenzt.
Administration Die VPN-Lösung muss dem Administrator Werkzeuge zur Verfügung stellen, die eine umfassende und zugleich leicht bedienbare Wartung ermöglichen.
Sicherheitsprotokolle Im folgenden Abschnitt werden ausgewählte Sicherheitsprotokolle vorgestellt, die insbesondere für die sichere Kommunikation im Internet eingesetzt werden. Secure Socket Layer
SSL Das Secure-Socket-Layer-Protokoll dient dem verschlüsselten Austausch von Nachrichten im Internet. SSL setzt auf dem Protokoll TCP/IP auf und kann von verschiedensten Anwendungsprogrammen oder Protokollen wie SMTP, FTP, HTTP genutzt werden. SSL ist eine Entwicklung der Firma Netscape und unterstützt Schlüssel mit bis zu 128-Bit Länge.
380
Sicherheitstechnologien
9.4
Das Protokoll wird auf zwei Ebenen definiert. Die erste Ebene ist für die Verschlüsselung zuständig. Dafür sind verschiedene symmetrische kryptographische Verfahren einsetzbar (Data Encryption Standard – DES, Triple DES, Rivest Cipher 4 – RC4). Die Echtheit der Daten wird über Prüfsummenverfahren abgesichert. Genutzt werden die Protokolle SSL Cipher Change Protocol, SSL Handshake Protocol und SSL Alert Protocol. Die zweite Ebene (SSL Record Protocol) organisiert den Austausch der geheimen Schlüssel mit dem Transport Layer Security Handshake Protocol. Mit Hilfe des Protokolls authentifiziert sich der Server beim Client und beide einigen sich auf ein kryptographisches Verfahren. Danach wird der Sitzungsschlüssel ausgetauscht. TLS Das Transport-Layer-Security-Protokoll wurde aufbauend auf dem SSL 3.0Standard entwickelt und bietet ebenfalls die Möglichkeit, transparent Daten von der Anwendungsebene verschlüsselt an die TCP/IP-Ebene weiterzuleiten. Das Verfahren ähnelt dem SSL-Protokoll und wird sich langfristig als gemeinsamer Nachfolger von PCT (Private Communication Technology) und SSL durchsetzen. HTTPS Hyper Text Transfer Protocol over Secure Socket Layer ist ein Web-Protokoll, das eine verschlüsselte Verbindung zwischen Server und Client bereitstellt. HTTPS nutzt das SSL-Protokoll. SSL wird dazu als Schicht zwischen Anwendung und TCP/IP. In Browsern wird HTTPS über das Dienste-Kürzel „https://“ analog zur unverschlüsselten Variante „http://“ angesprochen. S-HTTP Secure HTTP ist eine Erweiterung des HTTP-Protokolls, die die sichere Übertragung von Dateien ermöglicht. Jede Datei wird verschlüsselt und mit einem Zertifikat versehen. Im Gegensatz zu HTTPS, wo nur der Server authentifiziert werden kann, ermöglicht S-HTTP die Authentifizierung von Server und Client. HTTPS arbeitet zwischen Applikationsschicht und TCP/IP-Schicht, während S-HTTP auf der Applikationsschicht aufsetzt. Die meisten Browser und Server unterstützen HTTPS und S-HTTP. S-HTTP ist bislang noch nicht sehr verbreitet. HTTP over TLS HTTP over TLS entspricht in der Funktionsweise dem HTTPS. Der Datenstrom von HTTP wird verschlüsselt und an das Zielsystem über TCP/IP weitergegeben.
381
Transport Layer Security
Hyper Text Transfer Protocol over Secure Socket Layer
Secure HTTP
9
IT-Sicherheit
IPSec Das IP Security Protocol wurde Ende der neunziger Jahre von der IETF (Internet Engineering Task Force) entwickelt. Es stellt Sicherheitsdienste für die Datenübertragung bereit und arbeitet auf der IP-Schicht. IPSec wurde für IPv4 und IPv6 entwickelt und ist damit zukunftssicher. IPSec unterstützt die Zugriffskontrolle, Datenintegrität, Authentifizierung und Vertraulichkeit auf Basis verbindungsloser Paketvermittlung. Es bietet Schutz vor Replay- und Denial-of-Service-Angriffen. IPSec ist modular aufgebaut und erlaubt den Austausch verwendeter kryptographischer Algorithmen, um eine nutzerspezifische und zukunftssichere Skalierbarkeit und Erweiterbarkeit zu gewährleisten. IPSec verwendet bekannte Standardverfahren zur Authentifizierung, Verschlüsselung, Schlüsselverwaltung und digitale Signaturen. Da IPSec auf der IP-Schicht arbeitet werden sämtliche höher angesiedelten Protokolle, wie TCP, UDP oder ICMP, geschützt. Zur Realisierung dieser Ziele verwendet IPSec zwei Sicherheitsprotokolle: Authentication Header (AH) und Encapsulating Security Payload (ESP). Das AH-Protokoll dient der Sicherung von Integrität und Authentizität des IP-Paketes. Es führt keine Verschlüsselung der Daten durch. Dies ist Aufgabe des ESP-Protokolls. Beide Protokolle verwenden so genannte Security Associations (SA). Security Associations bilden den Rahmen für die gesicherte Datenübertragung. Sie sorgen für das Aushandeln von Sicherheitsprotokollen und -algorithmen zwischen den Kommunikationspartnern. Für jede Verbindungsrichtung und jedes Protokoll wird eine separate SA vereinbart. Authentication Header
Im AH-Protokoll wird von allen konstanten IP-Header-Daten sowie sämtlichen Nutzdaten eines IP-Paketes ein Hashwert (Integrity Check Value – ICV) gebildet, der als Prüfsumme in den Authentication Header eingefügt wird. Der Authentication Header enthält noch weitere Informationen: Datentyp (Next Header), Länge des Headers (Payload Length), die Identifikation einer SA (Security Parameter Index – SPI), eine Identifikationsnummer des IPPaketes zum Schutz vor Replay-Angriffen (Sequence Number) u. a. Der Authentication Header wird schließlich hinter den IP-Header gesetzt. Die Abbildung 9-12 zeigt das Verfahren im Transport- und Tunnel-Modus unter IPv4 (siehe dazu auch den Abschnitt VPN).
Encapsulating Security Payload
Das ESP-Protokoll ermöglicht die Verschlüsselung der übertragenen Nutzdaten oder sogar des gesamten IP-Pakets. ESP benötigt einen Header und einen Trailer. Der ESP-Header besteht aus Security Parameter Index und Sequence Number. Zu Beginn des Payload-Data-Bereichs kann ein Initialisierungsvektor für rundenbasierte Verschlüsselungsalgorithmen eingefügt sein. Der ESP-Trailer enthält einen Padding-Bereich für Block-Verschlüsselungsalgorithmen zur Auffüllung der Nutzdaten bis zur Blockgröße, die
382
Sicherheitstechnologien
9.4
Länge dieses Bereiches (Padding Length) und den Next Header. Durch ein optionales ESP-Auth-Feld kann zusätzlich eine Authentifizierung sichergestellt werden. Die Abbildung 9-13 zeigt, wiederum für IPv4, Transport und Tunnelmodus über das ESP-Protokoll. Authentication Header für IPSec (IPv4)
Abbildung 9-12
Encapsulating Security Payload für IPSec (IPv4)
Abbildung 9-13
383
9 Point-to-Point Tunneling Protocol
Layer 2 Tunneling Protocol
IT-Sicherheit
PPTP Beim Point-to-Point Tunneling Protocol handelt es sich um eine Erweiterung des PPP (Point-to-Point Protocol). Microsoft war führend an der Entwicklung beteiligt. PPTP ist vor allem im Windows-Umfeld verbreitet. Im Vergleich zum PPP ermöglicht PPTP den sicheren Datentransport über öffentliche Netze und unterstützt Multiprotokollverbindungen. PPTP kapselt IP-, IPX- und NetBEUI-Protokolle. Die Verschlüsselung erfolgt über RC4 oder DES. Die Authentifizierung wird mittels Microsoft Challenge/Reply Handshake Protocol MS-CHAPv2 durchgeführt. Trotz Nachbesserungen der Microsoft-Implementierungen und Veränderungen in den Verschlüsselungsund Authentifizierungsalgorithmen gilt PPTP seit Ende der neunziger Jahre nicht mehr als sicher. L2TP Das Layer 2 Tunneling Protocol wurde von der IETF erarbeitet. Es ist eine Weiterentwicklung von PPTP und L2F von Cisco Systems. L2TP dient vor allem zur Einbindung von einzelnen Clients in entfernte Netzwerke. Es unterstützt die Nutzerauthentifizierung, bietet aber keine Verschlüsselung der Nutzdaten an. L2TP kann neben IP auch Frame Relay, X.25 und ATM kapseln. Der einzubindende Client stellt eine Verbindung zu seinem Internet Service Provider (ISP) her. Dieser fungiert als L2TP Access Concentrator und baut eine L2TP-Verbindung zum Gateway-Rechner des entfernten Netzwerkes auf. Dieses Gateway stellt den L2TP Network Server dar. Die Verbindung zwischen Access Concentrator und Network Server wird getunnelt. Alternativ kann der Client als Access Concentrator fungieren und eine virtuelle PPP-Verbindung zum Netzwerk-Gateway aufbauen. Aufgrund der fehlenden Verschlüsselung wird L2TP häufig durch IP-Sec ergänzt.
9.5 Kryptographie
Verschlüsselung von Daten
Die Kryptographie beschäftigt sich mit der Sicherung von Daten vor unbefugten Zugriffen durch Verschlüsselung. Sie hat insbesondere bei der Übertragung und Speicherung von Daten eine große Bedeutung. Kryptographie hat verschiedene Aufgaben zu erfüllen:
Geheimhaltung Der Inhalt einer Nachricht soll Dritten nicht zugänglich werden.
384
Kryptographie
9.5
Authentifizierung Der Empfänger muss in der Lage sein, die Herkunft einer Nachricht eindeutig zu bestimmen. Die Identität eines Nutzers muss eindeutig feststellbar sein.
Integrität Der Empfänger muss feststellen können, ob eine Nachricht manipuliert wurde. Ein Dritter darf nicht in der Lage sein, eine echte Nachricht durch eine gefälschte zu ersetzen.
Verbindlichkeit Der Sender einer Nachricht darf nicht in der Lage sein, später diese Kommunikation zu leugnen. Die bei einer Datenübertragung übermittelten Daten werden als Nachricht bezeichnet. Der Inhalt einer Nachricht liegt zunächst in einer Form vor, die für jedermann lesbar ist. Sie besteht aus Klartext. Dieser Klartext kann durch Verschlüsselungsverfahren in Chiffretext umgewandelt werden. Damit der Empfänger die Nachricht lesen kann, muss sie nach der Übertragung wieder entschlüsselt werden.
Kryptographische Verfahren Zur Verschlüsselung von Daten und verschiedenen damit verbundenen Anwendungen werden kryptographische Verfahren eingesetzt. Sie lassen sich in verschiedene Gruppen zusammenfassen, von denen einige in diesem Abschnitt näher erläutert werden. Konkrete kryptographische Algorithmen werden im anschließenden Abschnitt vorgestellt.
symmetrische kryptographische Verfahren Merkmal dieser Verfahren ist, dass für Ver- und Entschlüsselung der gleiche Schlüssel (Zeichenkombination, eine Art Passwort) benutzt wird. Mit Hilfe eines mathematischen Algorithmus wird aus den Originaldaten und dem Schlüssel die Chiffre (verschlüsselte Daten) erzeugt. Dieser Vorgang wird Verschlüsselung genannt. Aus der Chiffre und dem Schlüssel können mit Hilfe der Umkehrung des Verschlüsselungsalgorithmus die Originaldaten wieder hergestellt werden. Dieser Vorgang wird Entschlüsselung genannt. Das Verfahren ist aus Abbildung 9-14 ersichtlich. Ein wichtiger, vielfach in der Praxis angewandter Vertreter symmetrischer Verfahren ist der DES (Data Encryption Standard).
385
gleicher Schlüssel für Ver- und Entschlüsselung
9 Abbildung 9-14
IT-Sicherheit
Funktionsweise symmetrischer kryptographischer Verfahren
Geheimhaltung des Schlüssels
Entscheidend bei der Anwendung symmetrischer kryptographischer Verfahren ist die Geheimhaltung des Schlüssels. Jeder, der den Schlüssel kennt, kann die Chiffre entschlüsseln. Sender und Empfänger benötigen für eine sinnvolle Kommunikation diesen Schlüssel. Für eine praktische Anwendung ergibt sich deshalb das Problem, dass Sender und Empfänger den Schlüssel vereinbaren müssen, ohne dass ein Dritter davon Kenntnis erlangt. Die Verständigung über den Schlüssel ist ein Sicherheitsrisiko, wenn sich Absender und Empfänger nicht persönlich treffen können, da der Schlüssel ungesichert übertragen werden muss. Um dieses Problem zu lösen, wurden asymmetrische Algorithmen, so genannte Public-Key-Algorithmen, entwickelt.
asymmetrische kryptographische Verfahren Diese Verfahren verwenden einen öffentlichen Schlüssel (Public Key) zum Verschlüsseln und einen geheimen Schlüssel zum Entschlüsseln. Sie werden deshalb auch Public-Key-Verfahren genannt. Der öffentliche Schlüssel kann offen übertragen werden, da durch ihn die Nachricht nicht entschlüsselt werden kann. Dazu ist der geheime Schlüssel, den nur der Empfänger kennt, notwendig. Eine dritte Person kann mit Kenntnis des öffentlichen Schlüssels zwar eine Nachricht verschlüsseln, aber keine Chiffre entschlüsseln. Die Komplexität der gewählten Schlüssel macht es unmöglich (in angemessener Zeit) aus dem öffentlichen Schlüssel den privaten Schlüssel zu bestimmen.
zwei unterschiedliche Schlüssel für Ver- und Entschlüsselung
Das Verfahren ist in Abbildung 9-15 dargestellt. Ein wichtiges, vielfach in der Praxis angewandtes asymmetrisches Verfahren ist der RSAAlgorithmus. Asymmetrische Algorithmen sind wesentlich rechenintensiver als symmetrische. Der Aufwand für die Berechnung beträgt häufig mehr als das Tausendfache der Zeit einer symmetrischen Verschlüsselung. Asymmetrische Algorithmen werden deshalb zumeist nur für die Schlüsselvereinbarung bei symmetrischen Verfahren eingesetzt. Eine solche Nutzung wird auch als hybrides kryptographisches Verfahren bezeichnet.
386
Kryptographie
9.5 Abbildung 9-15
Funktionsweise asymmetrischer kryptographischer Verfahren
Challenge-and-Response-Verfahren Während die beiden zuvor beschriebenen Verfahren zur Verschlüsselung von Daten bzw. zur Schlüsselübertragung verwendet werden, dient das Challenge-and-Response-Verfahren der Authentifizierung. Die Abbildung 9-16 zeigt das Prinzip des Verfahrens.
Abbildung 9-16
Funktionsweise des Challenge-and-Response-Verfahrens
Wollen zwei Teilnehmer A und B kommunizieren, so erzeugt A eine Zufallszahl und schickt diese an den Teilnehmer B (Challenge). Teilnehmer B verschlüsselt diese mit dem gemeinsamen festen Schlüssel und einem kryptographischen Algorithmus und schickt das Ergebnis zurück an A (Response). Dieser führt die gleiche Berechnung aus und kann dann prü387
9
IT-Sicherheit
fen, ob das Ergebnis identisch mit dem von B erhaltenen Wert ist. Dies ist nur dann der Fall, wenn B den gleichen Schlüssel wie A benutzt. Das Ausspionieren des übertragenen Wertes ist sinnlos, da bei jeder Kommunikation der Wert neu gebildet wird. Durch Verwendung kryptographischer Algorithmen ist es unmöglich, den Schlüssel aus dem übertragenen Wert zu berechnen.
schwierige Berechnung der Umkehrfunktion
Einwegfunktionen Die Funktionsweise von asymmetrischen kryptographischen Verfahren beruht auf der Verwendung von Einwegfunktionen. Einwegfunktionen sind Funktionen bei denen sich der Funktionswert f(x) sehr leicht aus x berechnen lässt. Die Umkehrfunktion (Berechnung von x aus f(x)) ist jedoch derart komplex, dass sie unter Einsatz stärkster Rechentechnik erst nach sehr langer Zeit möglich ist. Die Zeiträume, die hier betrachtet werden, liegen bei mindestens einigen Millionen Jahren. Viele mathematische Funktionen erfüllen diese Forderung. Die Problematik liegt jedoch darin, dass es bislang keinen mathematischen Beweis für die Existenz einer Einwegfunktion gibt. In den meisten Fällen wird die Einwegeigenschaft einer Funktion nur vermutet, da es bislang kein Verfahren gibt, die Umkehrung leicht berechenbar zu machen. Eine typische Einwegfunktion ist die Multiplikation zweier großer Primzahlen. Die Multiplikation ist äußerst einfach. Das Produkt lässt sich jedoch nur mit sehr großem Aufwand in die beiden Primzahlen zerlegen. Dieses Problem wird Faktorisierung genannt.
Hashfunktionen
Hashfunktion mit Einwegeigenschaft
Einweg-Hashfunktionen Ein weiterer Bestandteil vieler kryptographischer Protokolle sind EinwegHashfunktionen. Eine Hashfunktion wandelt eine beliebig lange Zeichenfolge in eine Zeichenfolge fester und meist kürzerer Länge, den Hashwert, um. Hashfunktionen werden als Prüfsumme zur Integritätsprüfung von Nachrichten verwendet. Bei gleichen Nachrichten ist der Hashwert identisch. Bei unterschiedlichen Nachrichten ist der Hashwert mit sehr hoher (nicht hundertprozentiger) Wahrscheinlichkeit ungleich. Mit Hilfe des Hashwertes kann überprüft werden, ob eine Nachricht verändert wurde oder mit dem Original übereinstimmt. Einweg-Hashfunktionen haben die Eigenschaft, dass aus dem einfach zu berechnenden Hashwert die Originalzeichenkette nicht mehr hergestellt werden kann. In kryptographischen Verfahren kann dieser Umstand genutzt werden, indem neben der Verschlüsselung der Nachricht der Hashwert mitgesendet wird. Nach dem Entschlüsseln kann der Empfänger der Nachricht seinerseits durch Berechnung des Hashwertes überprüfen, ob die Nachricht während der Kommunikation manipuliert wurde.
388
Kryptographie
9.5
Um den Hashwert ebenfalls zu schützen existieren Codes zur Nachrichtenbzw. Datenauthentifizierung (Message Authentication Code – MAC bzw. Data Authentication Code – DAC). Die Einweg-Hashfunktion verfügt in diesem Fall zusätzlich über einen geheimen Schlüssel, dessen Kenntnis zur Überprüfung des Hashwertes notwendig ist.
Schutz des Hashwertes
weitere kryptographische Verfahren Es existiert noch eine Reihe weiterer kryptographischer Verfahren, die hier nur kurz erwähnt werden sollen. Dazu gehört die Signierung von Nachrichten ohne von deren Inhalt Kenntnis zu erlangen (Zero-KnowledgeVerfahren). Dieses Verfahren wird beispielsweise für elektronische Wahlen verwendet. Ein weiteres Verfahren ist die verschlüsselte Kommunikation ohne zuvor einen Schlüssel ausgetauscht zu haben (No-Key-Verfahren). Um die Anonymität bei bestimmten Vorgängen sicherzustellen werden so genannte MIXe verwendet. Durch deren Einsatz ist es im Nachhinein nicht mehr möglich festzustellen, ob zwei Teilnehmer miteinander kommuniziert haben.
Kryptographische Algorithmen Im Folgenden werden einige wichtige Vertreter von kryptographischen Algorithmen, also den mathematischen Verfahren zur Ver- und Entschlüsselung, vorgestellt. DES-Algorithmus DES (Data Encryption Standard, auch DEA – Data Encryption Algorithm) ist ein seit mehr als zwei Jahrzehnten international anerkannter und genutzter kryptographischer Standard. Entwickelt wurde er in den siebziger Jahren durch IBM. Seit dem wurde er vielfach kryptographischen Analysen unterzogen. Er galt lange Zeit als sicher. Aufgrund der geringen Schlüssellänge ist DES jedoch in den 1990er Jahren geknackt worden. DES kann kostenlos genutzt werden. DES ist ein symmetrischer kryptographischer Algorithmus. Er verschlüsselt Daten nicht als Bitstrom, sondern in Blöcken von 64 Bit Größe. Er wandelt dabei 64 Bit Klartext in 64 Bit Chiffretext um. DES verwendet einen 56-BitSchlüssel. Der 64 Bit lange Klartextblock wird einer Eingangspermutation unterzogen. Danach wird der Block in zwei 32-Bit-Hälften aufgetrennt. In 16 identischen Runden wird jede Hälfte mit dem Schlüssel kombiniert. Danach wird eine zur Eingangspermutation inverse Permutation durchgeführt, die als Ergebnis den 64-Bit-Chiffre-Block liefert. In jeder Runde werden die folgenden Schritte abgearbeitet. Die rechte Hälfte der Daten wird mit Hilfe einer Expansionspermutation von 32 auf 48 Bit 389
symmetrische Blockverschlüsselung
9
IT-Sicherheit
erweitert. Diese 48 Bit werden mit 48 verschobenen und rotierten Bits, die aus dem Schlüssel ausgewählt wurden, XOR-verknüpft. Die entstehenden 48 Bit werden durch so genannte S-Boxen transferiert, in denen eine BitSubstitution und eine Komprimierung auf 32-Bit realisiert wird. Die S-Boxen sind der Hauptfaktor bei der Sicherheit des DES. Die 32-Bit-Ausgabe wird anschließend in einer P-Box permutiert. Der entstandene 32-Bit-Wert wird mit den 32 Bit der linken Hälfte der Daten XOR-kombiniert und stellt die neue rechte Hälfte des Datenblocks dar. Die alte rechte Hälfte wird zur neuen linken Hälfte. Das detaillierte Vorgehen bei Transformation, Verschiebung und Permutation ist genau vorgeschrieben. Die Entschlüsselung kann mit dem gleichen Algorithmus durchgeführt werden. Einziger Unterschied ist, dass der Schlüssel in umgekehrter Reihenfolge angewendet werden muss. DreifachVerschlüsselung
symmetrische Blockverschlüsselung
Zur Erhöhung der Sicherheit von DES wird in Form des Triple DES eine Dreifachverschlüsselung durchgeführt. Hierzu existieren zwei Varianten. Die erste verwendet zwei Schlüssel und erhöht damit den Schlüsselraum auf 2112. Der Klartext wird mit dem ersten Schlüssel verschlüsselt. Danach wird die erzeugte Chiffre mit dem zweiten Schlüssel verschlüsselt und schließlich das Ergebnis nochmals mit dem ersten. Die zweite Variante nutzt drei Schlüssel und erhöht den Schlüsselraum nochmals auf nunmehr 2168. Für den letzten Verschlüsselungsschritt wird hier statt des ersten Schlüssels der dritte verwendet. Es existiert noch eine Reihe weiterer DES-Varianten. Blowfish-Algorithmus Der Blowfish-Algorithmus wurde in den 1990er Jahren von Bruce Schneier entwickelt und ist frei verwendbar. Blowfish wurde für Mikroprozessoren, wie sie in handelsüblichen PCs eingesetzt werden, optimiert. Er eignet sich vor allem zur Verschlüsselung gespeicherter Daten (z. B. in Datenbanken) und zur Sicherung von Kommunikationswegen mit selten wechselndem Schlüssel. Blowfish verwendet wie DES 64-Bit-Blöcke und kann Schlüssel mit variabler Länge bis zu 448 Bit einsetzen. Der Algorithmus besteht aus zwei Teilen. Der erste Teil expandiert den Schlüssel in verschiedene Teilschlüssel mit einer Gesamtlänge von 4168 Bit. Die eigentliche Datenverschlüsselung umfasst den zweiten Teil. Hier werden in 16 Runden jeweils schlüsselabhängige Permutationen sowie schlüssel- und datenabhängige Substitutionen durchgeführt. Auch hier findet eine Aufspaltung des 64-Bit-Datenblocks statt. Die Hälften werden dann abwechselnd iterativ durch vier S-Boxen geschickt. Im Gegensatz zum DES-Algorithmus sind die Substitutionsparameter der SBoxen keine Konstanten sondern werden erst durch den Schlüssel generiert. Damit ist Blowfish wesentlich unempfindlicher gegenüber kryptanalyti-
390
Kryptographie
9.5
schen Angriffen. Bislang ist keine erfolgreiche Kryptanalyse von Blowfish bekannt. RSA-Algorithmus Der RSA-Algorithmus ist ein Public-Key-Algorithmus, der zur Verschlüsselung und für digitale Signaturen eingesetzt werden kann. RSA ist die Abkürzung für die Namen seiner Erfinder R. Rivest, A. Shamir und L. Adleman. RSA wurde in den 1970er Jahren am Massachusetts Institute of Technology (MIT) entwickelt. RSA wird in einer Vielzahl von Anwendungen genutzt, insbesondere zur EMail-Verschlüsselung, für SSL, in E-Business-Applikationen und für Finanztransaktionen im Bankensektor. Die Sicherheit von RSA gründet sich auf der Schwierigkeit, große Zahlen zu faktorisieren. Der öffentliche und der private Schlüssel hängen von zwei sehr großen (200 Stellen und mehr), möglichst gleich langen, zufällig gewählten Primzahlen ab. Dazu wird das Produkt der beiden Primzahlen p und q gebildet: n = pq Der Chiffrierschlüssel e wird zufällig gewählt. Es muss jedoch die Bedingung erfüllt sein, dass e und (p-1)(q-1) relativ prim zueinander sind. Mittels des erweiterten Euklidischen Algorithmus kann nun der Dechiffrierschlüssel, der gleichzeitig der private Schlüssel ist, gebildet werden: d = e-1 mod ((p-1)(q-1)) Der öffentliche Schlüssel besteht aus e und n. Nachdem die Schlüssel gebildet wurden, werden die Primzahlen p und q nicht mehr benötigt. Sie müssen jedoch geheim bleiben. Die Verschlüsselung einer Nachricht erfolgt blockweise. Die Aufteilung in Blöcke muss so erfolgen, dass jeder Block kleiner als n ist. Der Chiffreblock ci, der in etwa genauso lang wie der Klartextblock mi ist, ergibt sich aus: ci = mie mod n Die Entschlüsselung erfolgt durch: mi = cie mod n Der RSA-Algorithmus widerstand bislang sämtlichen KryptanalyseAngriffen. Allerdings wurde die weit verbreitet verwendete Schlüssellänge von 512-Bit 1999 durch Faktorisierung mittels verteilter Rechnerkapazitäten
391
Public-KeyAlgorithmus
9
IT-Sicherheit
geknackt. Hier gilt es also, wesentlich längere Schlüssel (2048 Bit) einzusetzen.
Schlüsselverwaltung Schutz geheimer Schlüssel
Die Bedeutung der Schlüssel für die Sicherheit eines kryptographischen Verfahrens ist bereits deutlich geworden. Die geheimen Schlüssel symmetrischer und die privaten Schlüssel asymmetrischer Verfahren müssen vor dem Zugriff Dritter geschützt werden. Dies ist Aufgabe der Schlüsselverwaltung. Sie soll zugleich für den Nutzer, der womöglich eine Vielzahl von Schlüsseln benötigt, eine einfache Anwendung ermöglichen. Die Schlüsselverwaltung ist der schwierigste Teil bei der Nutzung von kryptographischen Algorithmen, denn sie muss menschliche Schwächen, die zum Verrat oder Diebstahl des Schlüssels führen können (Kompromittierung), weitgehend ausgleichen. Dieser Abschnitt behandelt wichtige Teilprobleme der Schlüsselverwaltung.
Schlüsselerzeugung Der Algorithmus zur Schlüsselerzeugung darf von Dritten nicht zur Nachbildung bestehender Schlüssel genutzt werden können. Schwierigkeiten ergeben sich unter anderem durch schlechte Implementierungen, die den Schlüsselvorrat einengen (z.B. statt echter Bit-Schlüssel nur Nutzung von alphanumerischen Zeichen) und selbst gewählte Schlüssel (z. B. Namen, Geburtsdaten), die leicht durch einen Wörterbuchangriff geknackt werden können. Besser ist die zufällige Generierung von Schlüsseln durch ein automatisches Verfahren. Bei vom Computer erzeugten Zufallszahlen handelt es sich jedoch um Pseudozufallszahlen, da der Computer als deterministischer Automat keine echten Zufallszahlen generieren kann.
Schlüsselverteilung Die Übermittlung von Schlüsseln für symmetrische kryptographische Verfahren muss geschützt erfolgen, da ein Angreifer ansonsten den gesamten Datenverkehr abhören könnte. Für dieses Problem gibt es neben dem Einsatz asymmetrischer Verfahren weitere Möglichkeiten, wie z.B. die Nutzung sicherer Kommunikationswege (Bote, persönliche Übergabe) oder die Aufspaltung des Schlüssels und Versendung über unterschiedliche Kanäle.
Schlüsselverifizierung Mit Hilfe von Authentifizierungsverfahren, Zertifizierungsstellen, digitalen Signaturen u. a. kann der Fälschung von Schlüsseln und dem Vorspiegeln falscher Identitäten begegnet werden. Zur Schlüsselverifizierung gehört auch die Prüfung des Schlüssels auf Fehler bei der Schlüsselübertragung. Hierzu können Prüfsummen angewendet werden.
392
Kryptographie
Schlüsselnutzung Während der Dechiffrierung von Nachrichten muss der Schlüssel weiterhin vor dem Zugriff Dritter geschützt bleiben. Diese Aufgabe erfüllen kryptographische Systeme, die auf Software beruhen nicht sehr gut. Beispielsweise kann der Schlüssel während einer vom Betriebssystem verursachten Auslagerung von Hauptspeicher auf die Festplatte ungeschützt vorliegen. Eine Hardware-Verschlüsselung bietet hier eine höhere Sicherheit. Ebenfalls sicherer sind Einmalschlüssel, die z. B. häufig in kryptographischen Kommunikationsprotokollen als sog. Sitzungsschlüssel verwendet werden.
Schlüsselspeicherung Es gibt verschiedene Möglichkeiten einen Schlüssel aufzubewahren. Eine Variante ist, dass sich der Benutzer den Schlüssel (das Passwort) merkt. Nachteil dieses Verfahrens ist, dass das Passwort, damit es leicht zu merken ist, vom Benutzer sehr einfach gewählt wird. Wird ein kompliziertes Passwort vom Benutzer gewählt oder vom System vorgegeben, so besteht die Gefahr, dass das Passwort irgendwo aufgeschrieben wird und dadurch kompromittiert werden kann. Schlüssel können auch auf einer Magnetstreifen-, Speicher- oder Chipkarte abgelegt werden. Der Benutzer kennt den Schlüssel selbst nicht und kann ihn deshalb nicht allein weitergeben. Der Schlüssel ist an einen Gegenstand gebunden, der natürlich geschützt bleiben muss. Als Schutz vor Verlust des Gegenstandes kann der Schlüssel geteilt werden. Beispielsweise kann eine Chipkarte nur gemeinsam mit einer PIN nutzbar sein.
Schlüsselzertifizierung Zusätzliche Probleme entstehen bei Public-Key-Verfahren. Die Kenntnis des öffentlichen Schlüssels kann zwar nicht zur Entschlüsselung von Nachrichten genutzt werden, aber der öffentliche Schlüssel könnte durch eine Dritte Person durch ihren eigenen öffentlichen Schlüssel ausgetauscht werden. Um dies zu verhindern werden Public-Key-Zertifikate verwendet. Eine vertrauenswürdige Stelle signiert den öffentlichen Schlüssel und bestätigt damit, dass er von der richtigen Person stammt. Dazu muss die Zertifizierungsstelle die Person authentifizieren.
Schlüsselsicherheitskopien Um nach dem Verlust eines Schlüssels (z. B. durch Vergessen) weiterhin Zugriff auf die verschlüsselten Daten zu erhalten, ist es notwendig, zuvor Sicherheitskopien des Schlüssels anzulegen. Damit diese jedoch nicht die Sicherheit des kryptographischen Verfahrens unterminieren, sind bestimmte Maßnahmen zu ergreifen. Der Schlüssel kann beispielsweise aufgespaltet und an verschiedene Personen verteilt werden. Nur wenn alle Teilschlüssel zusammengefügt werden, ist der Zugriff möglich. Ein
393
9.5
9
IT-Sicherheit
einzelner „Teilschlüsselaufbewahrer“ kann die verschlüsselten Daten nicht dechiffrieren.
Schlüsselkompromittierung Erhält ein unbefugter Dritter Zugriff auf den Schlüssel, darf dieser nicht weiterverwendet werden. Bei symmetrischen kryptographischen Verfahren ist ein Schlüsselwechsel noch relativ einfach. Da nur der Besitzer selbst oder der direkte Kommunikationspartner den Schlüssel ebenfalls besessen hat, lässt sich die Kompromittierung leicht mitteilen. Alle legalen Schlüsselbesitzer können dann zu einem neuen Schlüssel übergehen. Schwieriger ist die Angelegenheit bei einem kompromittierten privaten Schlüssel eines Public-Key-Verfahrens. Der öffentliche Schlüssel kann weit verbreitet worden sein. Bevor alle Nutzer von der Kompromittierung erfahren haben, kann sich der unrechtmäßige Schlüsselbesitzer bereits die falsche Identität zu Nutze gemacht haben. Private Schlüssel sind deshalb besonders gut zu schützen.
Schlüsselgeltungsdauer Als zusätzliche Schutzmaßnahme kann man die Geltungsdauer von Schlüsseln einschränken. Je länger Schlüssel in Gebrauch sind, umso größer ist die Wahrscheinlichkeit, dass sie kompromittiert werden. Wird ein Schlüssel tatsächlich kompromittiert ist der Schaden umso größer, je länger er in Benutzung war. Je länger ein Schlüssel gilt, um so eher lohnt sich zudem ein Brute-Force-Angriff. Je mehr Chiffretext mit einem Schlüssel erstellt wurde, desto leichter ist auch eine Kryptanalyse.
Schlüsselvernichtung Schlüssel, deren Geltungsdauer abgelaufen ist bzw. die nicht mehr verwendet werden, müssen vernichtet werden. Mit ihrer Hilfe könnten beispielsweise Dokumente, die in der Vergangenheit verschlüsselt und von einem Dritten während der Kommunikation abgefangen wurden, lesbar ge-macht werden. Aufgeschriebene Schlüssel sollten sicher vernichtet werden, gespeicherte Schlüssel sollten mehrfach mit anderen Daten überschrieben werden.
Digitale Signaturen
Unterschrift zur Authentifikation
Die Echtheit von Papierdokumenten wird durch die manuelle Unterschrift sichergestellt. Durch diese Unterschrift lässt sich feststellen, ob eine bestimmte Person das Schriftstück unterzeichnet hat. Eine Unterschrift lässt sich nur schwer nachahmen. Sie ist ein persönliches Merkmal des Unterzeichners. Die Unterschrift ist deshalb rechtlich anerkannt.
394
Kryptographie
9.5
Für elektronische Daten wurden ebenfalls Verfahren entwickelt, mit denen sichergestellt werden kann, dass eine bestimmte Person eine Nachricht „unterzeichnet“ hat. Diese Verfahren werden digitale Signaturen (elektronische Unterschrift) genannt. Sie müssen verschiedene Funktionen erfüllen:
Der Autor der Nachricht, also der Unterzeichner, muss eindeutig authentifiziert werden können. Es muss also festgestellt werden können, wer die Nachricht unterzeichnet hat.
Anforderungen an eine elektronische Unterschrift
Die Nachricht darf nicht unbemerkt manipuliert werden können. Die Unterschrift muss mit der Nachricht verbunden sein, darf also nicht getrennt und beispielsweise für die Unterzeichnung einer anderen Nachricht verwendet werden können.
Nach der Unterschrift lässt sich das unterzeichnete Dokument nicht mehr verändern. Digitale Signaturen werden folgendermaßen realisiert: Der Unterzeichner besitzt einen Signierschlüssel, den er geheim hält und einen Verifikationsschlüssel, der öffentlich ist. Die Nachricht wird mit Hilfe des Signierschlüssels verschlüsselt. Die entstehende Signatur wird zusammen mit der Nachricht an den Empfänger geschickt. Dieser kann jetzt mit Hilfe des öffentlichen Verifikationsschlüssels die Signatur entschlüsseln und dann prüfen, ob die entschlüsselte Signatur mit der Nachricht übereinstimmt. Aus dem Verifikationsschlüssel kann nicht der Signierschlüssel gebildet und damit im Namen einer anderen Person unterschrieben werden. Die Methoden der digitalen Signatur ähneln den asymmetrischen kryptographischen Verfahren. Die Abbildung 9-17 erläutert die Funktionsweise einer digitalen Signatur.
Funktionsweise digitaler Signaturen
Funktionsweise digitaler Signaturen
Abbildung 9-17
395
9
IT-Sicherheit
Reduzierung des Rechenaufwands durch Hashwert
Dieses Protokoll erfordert die asymmetrische Verschlüsselung des gesamten Dokuments, was einen hohen Rechenaufwand erfordert. Um diesen zu verringern werden Einweg-Hashfunktionen eingesetzt. Dazu wird zunächst der Hashwert des Dokuments bestimmt und dann nur dieser digital unterzeichnet. An den Empfänger werden dann das Dokument und der signierte Hashwert geschickt.
Signatur und Verschlüsselung
Bei den bislang betrachteten digitalen Signaturen konnte jeder, der die Kommunikation belauscht, mit Hilfe des öffentlichen Schlüssels das Dokument im Klartext generieren. Um dem zu begegnen, werden digitale Signaturen mit Verschlüsselung benutzt. Ein entsprechendes kryptographisches Protokoll enthält folgende Schritte: 1. Der Sender verschlüsselt das Dokument mit seinem privaten Schlüssel und erzeugt damit seine Signatur. 2. Der Sender verschlüsselt das signierte Dokument mit dem öffentlichen Schlüssel des Empfängers. 3. Der Sender verschickt die erzeugte Chiffre. 4. Der Empfänger entschlüsselt die Chiffre mit seinem privaten Schlüssel. 5. Der Empfänger überprüft die Signatur mit Hilfe des öffentlichen Schlüssels des Senders und erhält bei erfolgreicher Entschlüsselung (korrekter Unterschrift) das Originaldokument.
Zertifizierung des öffentlichen Schlüssels
Um sicherzustellen, dass der öffentliche Schlüssel wirklich von der richtigen Person herausgegeben wurde und niemand sich die Identität dieser erschlichen hat, kann eine so genannte Zertifizierungsinstitution verwendet werden. Diese vertrauenswürdige Stelle (Certain Authority) überprüft die öffentlichen Schlüssel aller Teilnehmer und signiert diese zusammen mit dem Namen des Teilnehmers mit einem eigenen Signierschlüssel. Der Nutzer muss nur noch prüfen, ob der Verifikationsschlüssel der Certain Authority echt ist. Ist dies der Fall, kann er, ohne direkten Kontakt aufzunehmen, prüfen, ob der verwendete öffentliche Schlüssel eines Teilnehmers echt ist. Eine vertrauenswürdige Stelle kann auch eingesetzt werden, um Nachrichten mit einem Zeitstempel zu versehen. Es kann dann eindeutig nachgewiesen werden, wann die Kommunikation erfolgt ist.
396
Kryptographie
9.5
Sicherheit kryptographischer Verfahren Kryptanalyse Die Kryptanalyse beschäftigt sich mit dem Angriff auf mit kryptographischen Algorithmen verschlüsselte Nachrichten. Ziel ist die Ermittlung des Klartextes einer Chiffre oder sogar des Schlüssels. Kryptanalytische Angriffe verwenden verschiedene Informationen, um einen Code zu knacken. Die wesentlichen Informationen sind vorhandene Chiffretexte (Cipher-OnlyAngriff), vorhandene Chiffretexte und die zugehörigen Klartexte (KnownPlaintext-Angriff) sowie die Möglichkeit aus beliebigen Klartexten Chiffretexte generieren (lassen) zu können (Chosen-Plaintext-Angriff). Sicherheit Die Sicherheit kryptographischer Algorithmen hängt davon ab, wie schwierig die Bestimmung des geheimen (bzw. privaten) Schlüssels ist. D. h. wie schnell sich durch Analyse oder Ausprobieren aller möglichen Schlüssel eine Lösung finden lässt. Je schwieriger die Berechnung, umso sicherer ist der Algorithmus.
Angriff auf verschlüsselte Daten
Sicherheit allein vom Schlüssel abhängig
Die Sicherheit eines kryptographischen Algorithmus darf nicht davon abhängen, ob er geheim gehalten wird. In diesem Fall würde es sich lediglich um ein Verstecken der Nachricht handeln. Die genaue Kenntnis vom Aufbau und der Funktionsweise des Algorithmus darf nicht dazu führen, dass eine codierte Nachricht entschlüsselt werden kann. Eine breite Anwendung wäre dann unmöglich und die Gefahr des Entdeckens zu groß. Sicherheit muss also allein durch die Geheimhaltung des Schlüssels gewährleistet werden.
Offenlegung der Algorithmen
Durch den raschen Fortschritt der Computertechnik ist eine ständige Weiterentwicklung der kryptographischen Verfahren notwendig, da durch Hochleistungscomputer die Zeit für die Analyse oder das Ausprobieren aller möglichen Schlüssel immer kürzer wird. Computertechnik und kryptographische Verfahren befinden sich deshalb in einem ständigen Wettlauf.
Wettlauf zwischen Rechenleistung und Kryptographieverfahren
Die uneingeschränkte Sicherheit eines kryptographischen Algorithmus ist nur dann gegeben, wenn selbst durch einen Brute-Force-Angriff (das Ausprobieren sämtlicher Schlüssel) der Klartext nicht ermittelt werden kann. Diese Bedingung erfüllt nur ein One-Time-Pad.
absolut sicherer Algorithmus
Beim One-Time-Pad wird eine sehr lange zufällige Folge von Zeichen gewählt. Sie bildet den Schlüssel. Jedes Zeichen des Klartextes wird mit dem entsprechenden Zeichen des Schlüssels an der gleichen Position modulo N addiert. N ist die Anzahl der möglichen unterschiedlichen Zeichen in Klartext und Schlüssel. Der Schlüssel darf nur ein einziges Mal für eine Nachricht verwendet werden (daher der Name des Verfahrens) und er muss mindestens so lang wie der Klartext sein. Nur Sender und Empfänger dürfen
397
9
IT-Sicherheit
den Schlüssel kennen. Die Sicherheit des One-Time-Pads ergibt sich daraus, dass jeder beliebige Klartext der gleichen Länge gleich wahrscheinlich die Lösung des Kryptanalytik-Problems ist. Die Problematik des Verfahrens ergibt sich aus der Generierung einer echt zufälligen Zeichenfolge. Diese zu erzeugen ist sehr schwierig. Das Handling sehr langer Schlüssel bereitet weitere Probleme. One-Time-Pads werden aus diesen Gründen zumeist nur für kurze Nachrichten mit sehr hohen Sicherheitsanforderungen verwendet. berechnungssicherer Algorithmus
Als berechnungssicher gilt ein kryptographischer Algorithmus, wenn er derzeit und in Zukunft mit vorhandenen Ressourcen nicht geknackt werden kann.
sehr sicherer Algorithmus
Ein Algorithmus gilt als sehr sicher, wenn der Aufwand des Aufbrechens höher ist, als der Wert der mit ihm verschlüsselten Daten.
Schlüssellänge
Neben dem verwendeten kryptographischen Algorithmus spielt die Länge des verwendeten Schlüssels eine wesentliche Rolle für die Sicherheit eines Verschlüsselungsverfahrens. Unter der Annahme, dass ein kryptographischer Algorithmus so sicher ist, dass es keine Möglichkeit gibt über die Analyse beliebiger Klartexte und Chiffren den Schlüssel zu ermitteln, bleibt dem Angreifer nur ein Brute-Force-Angriff. Bei diesem Angriff werden alle möglichen Schlüssel ausprobiert. Nach durchschnittlich der Hälfte aller möglichen Schlüssel ist der richtige gefunden. Der Aufwand für einen BruteForce-Angriff hängt von der Anzahl der möglichen Schlüssel ab und diese ist wiederum von der Schlüssellänge abhängig. Je länger der Schlüssel, umso schwieriger ist es, den richtigen zu finden. Die Vergrößerung der Schlüssellänge hat jedoch den Nachteil des höheren Rechenaufwands beim Ver- und Entschlüsseln. Aussagen über Mindestlängen von Schlüsseln sind aufgrund der schnellen Entwicklung der Computertechnik und der mathematischen Verfahren schwierig. Zurzeit gelten symmetrische Schlüssel mit einer Länge von 128 Bit und öffentliche Schlüssel mit einer Länge von 2048 Bit für absehbare Zeit (10 Jahre) als sicher.
Kryptographie versus Sicherheitsinteressen des Staates
Probleme bei der Verwendung kryptographischer Verfahren ergeben sich durch die Sicherheitsinteressen des Staates. Da das organisierte Verbrechen und andere Gruppen die elektronische Kommunikation zur Vorbereitung von Straftaten verwendet, ist eine Kontrolle dieser Kommunikation durch die entsprechenden Staatsorgane notwendig. Diese Kontrolle wird durch kryptographische Verfahren wesentlich erschwert. Es existieren deshalb in verschiedenen Ländern (z. B. USA und Frankreich) rechtliche Vorschriften beispielsweise zur Begrenzung von Schlüssellängen sowie zur Verwendung und zum Export von kryptographischen Verfahren. Damit soll es den staatlichen Behörden ermöglicht werden, verschlüsselte Nachrichten bei Bedarf zu knacken. Diese Beschränkung der Sicherheit, welche die Berechnung der
398
IT-Recht
Schlüssel durch Hochleistungscomputer staatlicher Einrichtungen ermöglichen soll, hat jedoch zur Folge, dass auch andere Angreifer, die über entsprechende Computerleistung verfügen, Zugriff auf geheime Informationen erlangen können. Fazit Zusammenfassend ist anzumerken, dass die Sicherheit eines Kryptosystems von der Sicherheit seiner Komponenten abhängt. Der kryptographische Algorithmus muss gegen kryptanalytische Angriffe sicher sein. Die Schlüssel bzw. die Schlüssellänge müssen so gewählt werden, dass Brute-ForceAngriffe einen äußerst langen Zeitraum benötigen. Das kryptographische Protokoll, in das die kryptographischen Algorithmen eingebettet sind, darf keine Sicherheitslücken aufweisen, die einem Angreifer zusätzliche Informationen geben. Und schließlich muss die Implementierung des Algorithmus und des Protokolls korrekt sein. Diese Eigenschaften sind nur dann verifizierbar, wenn sämtliche Komponenten vom Hersteller eines Kryptosystems offen gelegt werden und von unabhängiger Seite überprüft werden können. Die Sicherheit des Kryptosystems darf nur von der Geheimhaltung des Schlüssels, nicht seiner Algorithmen, Protokolle oder Implementierungen abhängen.
9.6 IT-Recht Eine ganze Reihe von gesetzlichen Vorgaben hat einen Bezug zum ITEinsatz. Dies betrifft u. a. folgende Bereiche:
Persönlichkeitsrechte (Datenschutz) individuelles sowie kollektives Arbeitsrecht und neue Medien (Internetund E-Mail am Arbeitsplatz)
Urheberrechte und Patente (Inhalte im Internet, Softwareschutz) Telekommunikationsüberwachung Verbraucherschutz und Fernabsatz digitale Signatur
399
9.6
9
IT-Sicherheit
Persönlichkeitsrechte / Datenschutz
zunehmende Erfassung, Speicherung und Auswertung personenbezogener Daten
Durch die zunehmende elektronische Datenverarbeitung und die verstärkte Orientierung der Unternehmen an individuellen Kundenwünschen werden immer mehr Daten von Kunden, Interessenten, Mitarbeitern, Lieferanten und anderen Personen erfasst, gespeichert und ausgewertet. Zu diesen persönlichen Daten gehören beispielsweise Name, Adresse, Familienstand, Religion, Kinderzahl, aber auch Einkommensverhältnisse, Kaufverhalten und Interessengebiete. Diese Informationen werden durch Befragungen erfasst oder entstehen bei einer Geschäftsbeziehung zwischen den Partnern. Ein Versandhaus erhält zum Beispiel durch die Häufigkeit der Bestellungen, die Art der bestellten Waren und über die Zahlungsgewohnheiten eines Kunden Informationen über dessen persönliche Verhältnisse und Präferenzen. Dieses Wissen kann dann zur gezielten Kundenbetreuung eingesetzt werden. Der Kunde erhält spezielle Angebote, die zu seinem Kundenprofil passen. Besondere Bedeutung gewinnt diese Problematik bei der Benutzung des Internet. Durch die vielfältigen technischen Möglichkeiten lässt sich leicht herausfinden, welche Webseiten ein Benutzer wann und wie oft besucht und für welche Themengebiete er sich interessiert. Dadurch ist es beispielsweise möglich, das Erscheinungsbild von Webseiten auf den einzelnen Benutzer anzupassen.
individuelle Kundenbetreuung durch detaillierte Informationen
Diese Individualität bei der Kommunikation mit Unternehmen, sei es über das Internet oder klassisch per Brief und Telefon, bietet viele Vorteile. Das Unternehmen kann relativ einfach auf die individuellen Kundenpräferenzen eingehen, da die Datenerfassung und -auswertung stark automatisierbar ist. Der Kunde erhält eine persönlich auf ihn abgestimmte Betreuung.
„gläserner Mensch“
Die personenbezogene Erfassung, Auswertung und Weitergabe von Daten birgt jedoch auch die Gefahr des „gläsernen Menschen“. Für den Betroffenen ist es oft nicht nachvollziehbar, woher eine Firma bestimmte Informationen über seine persönlichen Lebensverhältnisse hat. Unangenehme Folgen dieser Sammlung persönlicher Daten können von unaufgeforderter Werbung bis zur beruflichen Diskriminierung aufgrund medizinischer Unterlagen reichen. Aufgabe des Datenschutzes ist es deshalb, den einzelnen davor zu schützen, dass er durch den Umgang mit seinen personenbezogenen Daten in seinem Persönlichkeitsrecht beeinträchtigt wird (Bundesdatenschutzgesetz, § 1 Abs. 1).
Rechte des Einzelnen
Jeder hat das Recht über die Erfassung, Speicherung und Verwendung seiner persönlichen Daten selbst zu entscheiden. Einschränkungen sind nur durch Gesetz möglich (d. h. nicht durch Verträge oder Vereinbarun-
400
IT-Recht
9.6
gen). Die Einschränkung muss im Allgemeininteresse liegen und der Verhältnismäßigkeit entsprechen.
Daten dürfen nur zu dem Zweck verwendet werden, zu dem sie erhoben wurden.
Jeder hat das Recht auf Auskunft, Benachrichtigung, Berichtigung, Sperrung und Löschung seiner persönlichen Daten. Der Betroffene kann Kontrollorgane, wie z. B. den Bundesdatenschutzbeauftragten, einschalten und hat bei Missachtung der geltenden Vorschriften das Recht auf Schadenersatz.
Die Einhaltung der Datenschutzgesetze ist in jedem Unternehmen mit automatisierter Datenverarbeitung und mehr als 5 Beschäftigten bzw. bei nicht automatisierter Datenverarbeitung mit mehr als 20 Beschäftigten durch einen Datenschutzbeauftragten sicherzustellen. Die wesentlichen Vorschriften zum Datenschutz in Deutschland sind im Bundesdatenschutzgesetz (BDSG) geregelt. In den einzelnen Bundesländern gelten weitere gesetzliche Vorschriften. International erfordert insbesondere die zunehmende Verbreitung des Internet eine stärkere Abstimmung der gesetzlichen Vorschriften zwischen den einzelnen Staaten.
gesetzliche Vorschriften
Ziel des Datenschutzes ist es nicht, moderne Formen der individuellen Kundenbetreuung zu verhindern, sondern das Recht des Betroffenen auf informationelle Selbstbestimmung zu schützen. Das Teledienst-Datenschutz-Gesetz soll dafür sorgen, dass möglichst wenig persönliche Daten gesammelt werden. Nach Einschätzung der Gesellschaft zum Schutz privater Daten in elektronischen Informations- und Kommunikationsdiensten e. V. verstoßen mehr als die Hälfte aller kommerziellen Internet-Anbieter in Deutschland gegen Datenschutzbestimmungen. Der Verein wirft den Informationsdiensten vor, von den Abonnenten neben der E-Mail-Adresse unzulässigerweise auch Nutzerdaten, wie Name oder Firma abgefragt zu haben. Laut Gesetz müssen die Dienste jedoch anonymisiert angeboten werden.
Einschränkung der Sammlung persönlicher Daten
Individuelles sowie kollektives Arbeitsrecht und neue Medien Immer mehr Arbeitnehmer nutzen dienstlich E-Mail und das Internet. Für den Arbeitnehmer stellt sich die wichtige Frage, ob er seinen betrieblichen Internetzugang auch für private Zwecke nutzen darf. Als Inhaber des Zugangs zum Internet entscheidet der Arbeitgeber grundsätzlich frei darüber, in welchem Umfang er seinen Beschäftigten oder anderen Personen Nut-
401
private Nutzung betrieblicher Internetzugänge
9
IT-Sicherheit
zungsmöglichkeiten eröffnen will. Eine private Internetnutzung ist daher nur bei Erlaubnis durch den Arbeitgeber möglich. Überwachung der Internetnutzung
Ein Viertel der deutschen Unternehmen setzt ein Internet-Überwachungssystem ein, mit dem bestimmte Websites geblockt beziehungsweise das SurfVerhalten der Angestellten aufgezeichnet wird. Es gibt viele Gründe, warum Arbeitgeber wissen wollen, was ihre Angestellten mit ihrem Internetanschluss anstellen. Die einen halten Ausschau nach übergroßen E-MailAnhängen, welche die Firmennetzwerke belasten oder wollen verhindern, dass ihre Angestellten die Computersysteme für persönliche Interessen nutzen. Andere wollen sicherstellen, dass ihre Angestellten keine unerwünschten Informationen nach außen verschicken. Erlaubt sind die Kontrolle des Arbeitsverhaltens, die Einhaltung des privaten Nutzungsverbots und die Kontrolle von Rechtsverstößen.
Mitbestimmungsrecht der Arbeitnehmer
Nach dem Betriebsverfassungsgesetz unterliegt „die Einführung und Anwendung von technischen Einrichtungen, die dazu bestimmt sind, das Verhalten und die Leistung des Arbeitnehmers zu überwachen“ der Mitbestimmung. Unter Überwachung sind Datenerhebung und Aufzeichnung des Verhaltens und der Leistung des Arbeitnehmers zu verstehen. Eine Überwachung hat immer die Vorgaben für den Schutz des Persönlichkeitsrechts zu beachten. Der betroffene Arbeitnehmer ist grundsätzlich von der Datenerfassung in Kenntnis zu setzen außer der Überwachungszweck würde vereitelt werden. Dies ist der Fall, wenn der Arbeitgeber das Verbot der privaten Internetnutzung überwachen oder die Begehung von Straftaten aufdecken will. Dabei dürfen sowohl die äußeren Verbindungsdaten als auch die Inhalte von E-Mails gespeichert werden.
Urheberrechte und Patente
Recht an geistigem Eigentum
In einer Zeit, in der Wissen zum entscheidenden Rohstoff für wirtschaftliche Erfolge wird, entsteht ganz von selbst die Begehrlichkeit, Wissen als Eigentum zu besitzen. Zwei Schutzrechte werden in diesem Bereich wirksam: das Urheberrecht und das Patentrecht. Indem das Urheberrecht ein Geisteswerk seinem Urheber zuordnet und diesem bestimmte Rechte zugesteht, schützt es in seinem Kern bestimmte kulturelle Geistesschöpfungen.
Schutz eines konkreten Werkes
Das Urheberrecht schützt ein konkretes Werk, also beispielsweise den Quelltext, den ausführbaren Binärcode, die spezifische Gestaltung der Oberfläche eines Programms oder auch den Textinhalt einer Web-Seite.
Schutz der exklusiven gewerblichen Nutzung
Dagegen bezieht sich der Schutz aus einem Patentrecht auf die exklusive gewerbliche Nutzung der hinter einem konkreten Werk stehenden abstrakten Ideen und Konzepte.
402
IT-Recht
9.6
Untersuchungen der EU-Kommission entsprechend, macht der Markt für Waren und Dienstleistungen, deren Inhalt urheberrechtlichen Schutz genießen, in der EU bereits 5 bis 7% des Bruttosozialproduktes der gesamten EU aus, d. h. dass es sich um einen Milliardenmarkt handelt. Dieser Markt umfasst Druckerzeugnisse, Filme, Tonträger, Kunstwerke aller Art, elektronische Produkte einschließlich Computerprogramme bis hin zu Satelliten- und Kabelübertragungen. Der Markt für urheberrechtlich relevante Leistungen wird in den nächsten Jahren kontinuierlich weiter wachsen, ebenso wie die praktisch unbegrenzten Übertragungskapazitäten. Dies hat vor allem auf die Musik- und Filmindustrie einen erheblichen Einfluss.
Bedeutung des Urheberrechtschutzes
Das Problem besteht darin, dass sich jedes urheberrechtlich geschützte Werk heute digitalisieren, auf eine Website laden und als perfektes Duplikat auf jeden Rechner der Welt kopieren lässt. Die Anzahl raubkopierter und gefälschter Produkte im Internet ist drastisch gestiegen.
einfaches Kopieren digitalisierter Werke
Anbieter von Inhalten, die mit ihrer Ware Geld verdienen wollen, stecken in einem Dilemma: Einerseits müssen sie Texte, Bilder und Grafiken möglichst anschaulich im Internet präsentieren, damit Kunden sie auch kaufen, andererseits sollen sich Surfer nicht einfach bedienen können, ohne vorher zu bezahlen. Die Business Software Alliance (BSA), die Schutzvereinigung der Softwareindustrie, beziffert den Schaden durch den Einsatz nicht lizenzierter Software in Unternehmen und bei Privatanwendern für Deutschland im Jahre 2004 mit einem Umsatzausfall von ca. 1,84 Milliarden Euro. Weltweit wird der Schaden auf 32,7 Milliarden US$ geschätzt.
Schäden durch Raubkopien
Der Erfolg technischer Maßnahmen zur Verhinderung der illegalen Nutzung von Software oder des unerlaubten Kopierens von Musik und Filmen ist zumeist nur von sehr kurzer Dauer, da das Cracken von Schutzmechanismen, wegen der grundlegenden Eigenschaften und der Verbreitungsweise digitaler Produkte für Softwareexperten kein großes Problem darstellt. Dies steht im starken Gegensatz zur äußerst sicheren Verschlüsselung von Nachrichten.
Grenzen des Schutzes
Umstritten sind die Bestrebungen für Computerprogramme den Patentschutz einzuführen. Der Wettbewerb wird hauptsächlich über die Qualität und den Zeitpunkt der Implementierung sowie das Marketing getrieben. Für Unternehmen bieten Softwarepatente eine interessante Möglichkeit, sich einen nachhaltigen Wettbewerbsvorteil vor Konkurrenten zu verschaffen und die allgemein sehr niedrigen Markteintrittsbarrieren in der InternetBranche deutlich zu erhöhen: Durch das 20-jährige Nutzungsmonopol lassen sich Business-Pläne von Konkurrenten effektiv und langfristig behindern.
Softwarepatente
403
9
IT-Sicherheit
Vor allem die USA haben seit den 80er Jahren eine Vorreiterrolle inne und Patente auf Algorithmen sowie Geschäftsmodelle erteilt. Allerdings wird in den USA inzwischen eine heftige Diskussion um die Qualität der erteilten Patente geführt, da nach Ansicht von Kritikern das Kriterium der „Erfindungshöhe“ verletzt worden ist. Bisher wird Software in Europa nur als Bestandteil von Verfahren patentiert. Laut Artikel 52 des Europäischen Patentübereinkommens, der auch ins Deutsche Patentgesetz übernommen wurde, sind Programme für die Datenverarbeitung von der Patentierbarkeit ausgenommen. Dennoch haben sowohl das Deutsche als auch das Europäische Patentamt (EPA) in großem Umfang Softwarepatente erteilt. Die von der EU-Kommission erarbeitete Richtlinie über Softwarepatente konnte im EU-Parlament nicht durchgesetzt werden. Kritiker führen an, dass Softwarepatente nur den Patentanwälten und Großkonzernen nutzen, während für innovative mittelständische Unternehmen die Nachteile überwiegen. Zudem wird befürchtet, dass die Zahl der Trivialpatente stark ansteigen und die weitere Entwicklung der Informationstechnologie behindern wird.
Telekommunikationsüberwachung
Verletzung von Persönlichkeitsrechten
Überwachung der Inhalte von InternetAngeboten
Persönlichkeitsrechte, wie das Recht auf informationelle Selbstbestimmung, das Verfügungsrecht über Darstellungen der eigenen Person und des eigenen Namens, den Schutz der Geheim-, der Intim- und der Privatsphäre, können im Internet leicht verletzt werden. Der Provider, der Aussagen Dritter in E-Mails, Newsgroups oder auf Web-Seiten, die auf seinem Rechner gespeichert sind, veröffentlicht, leistet unmittelbare technische Unterstützung zur Wiedergabe dieser fremden Äußerungen. Die Anforderungen an eine eventuelle Kontrollpflicht der Inhalte durch die Dienstanbieter sind gesetzlich nicht eindeutig geregelt. Prinzipiell können zur Beurteilung dieser Frage die von den Gerichten im Rahmen der „Pressemäßigen Sorgfalt“ entwickelten Anforderungen auf die Provider übertragen werden. Bei den moderierten Newsgroups ist die Stellung des Moderators mit dem eines verantwortlichen Redakteurs von Druckerzeugnissen vergleichbar, so dass eine Prüfungspflicht auf grobe Verstöße entsteht. Die Verbreitung rechtswidriger Inhalte über die Infrastruktur der InternetDienst-Anbieter (Internet Service Provider – ISP) soll durch Überwachung bekämpft werden. Dies ist das Ziel der 2001 in Kraft getretenen Telekommunikationsüberwachungsverordnung (TKÜV) der Bundesregierung. Nach dem Entwurf können Dienstanbieter per richterliche Anordnung dazu verpflichtet werden, Kommunikationsdaten abzufangen und zu speichern. 404
IT-Recht
9.6
Außerdem können Verschlüsselungsmechanismen deaktiviert werden, um Polizei, Staatsanwaltschaft und Geheimdiensten möglichst einfachen Zugang zu den abgefangenen Daten zu bieten. Verbindungen über Mobiltelefone sind von der Regelung ebenfalls betroffen. Neben der Überwachung der Kommunikation von Einzelpersonen gewinnt u. a. im Rahmen der Terrorbekämpfung die so genannte strategische Überwachung an Bedeutung. Sie umfasst die Überwachung der Kommunikation aus oder zu bestimmten Regionen im Ausland ohne Personen- oder Anschlussbezug. Bekanntestes Beispiel ist das globale EchelonÜberwachungssystem, welches gemeinsam von den USA, Großbritannien, Kanada, Australien und Neuseeland betrieben wird. Neben dem Schutz staatlicher Sicherheitsinteressen und der Kriminalitätsbekämpfung kann die Überwachungsinfrastruktur allerdings auch zur internationalen Wirtschaftsspionage eingesetzt werden.
strategische Überwachung
Verbraucherschutz und Fernabsatz Der Fernabsatz eröffnet weite Möglichkeiten des grenzübergreifenden Verkehrs von Waren und Dienstleistungen. Die Verbraucherschutzgesetze schaffen Regelungen, die den Verbraucher vor der Ausnutzung seiner Unerfahrenheit bewahren sollen. Die Fernabsatzrichtlinie der EU sieht die Angleichung der Rechts- und Verwaltungsvorschriften der Mitgliedsstaaten über Vertragsabschlüsse im Fernabsatz vor. Das Fernabsatzgesetz setzt ebenso wie die anderen Verbraucherschutzgesetze voraus, dass der Vertrag zwischen einem Verbraucher und einem Unternehmer erfolgt. Verbraucher ist dabei eine natürliche Person, die einen Vertrag zu privaten Zwecken abschließt. Der Vertrag muss unter ausschließlicher Verwendung von Fernkommunikationsmitteln (Post, Telefon, Fax, Internet) zustande kommen. Ein wichtiges und für den Unternehmer sehr einschneidendes Recht, ist das Recht zum Widerruf und zur Rückgabe. Damit geht gleichzeitig eine Belastung der Unternehmen mit Vorschriften und Regelungen zugunsten des Verbrauchers einher. In den alten Verbraucherschutzgesetzen sah der Gesetzgeber nur die Schriftform für die Belehrung und den Widerruf vor. Die Nachbildung der Schriftform durch die elektronische Kommunikation führt zu neuen Problemfeldern. Es sind einige Bedingungen zu erfüllen. Der Anbieter muss vor dem Vertragsabschluss über die Widerrufsmöglichkeit informieren. Die Information muss für die Zeit der Abwicklung dauerhaft verfügbar sein. Die reine Website reicht auf Grund der Manipulationsmöglichkeit durch den Anbieter nicht aus. Stellt der Unternehmer die Informationen zum Download bereit 405
Schutz des Verbrauchers bei Geschäften mit entfernten Anbietern
Recht zum Widerruf
9
IT-Sicherheit
und kann er den Download durch den Verbraucher beweisen, so genügt das. Andererseits kann er den Verbraucher nicht zum Download zwingen. Dem Unternehmer ist daher zu raten, den Verbraucher über E-Mail über seine Rechte zu informieren. Das Widerrufsrecht kann vom Verbraucher innerhalb einer Frist von zwei Wochen ausgeübt werden. Die Frist beginnt nur zu laufen, wenn dem Verbraucher eine, allen oben genannten Anforderungen genügende Belehrung zur Verfügung gestellt worden ist. Der Vertrag ist während der Widerrufsfrist schwebend wirksam. Beide Parteien haben damit einen Erfüllungsanspruch, sofern er nicht bis zum Ablauf der Widerrufsfrist ausgeschlossen ist.
Digitale Signatur Die Sicherung von Authentizität, Integrität und Vertraulichkeit ist das Hauptziel bei der Einführung von elektronischen Ausweisen und Signaturen. Damit sind sie prinzipiell in der Lage, so unsichere Mittel wie Benutzername und Passwort zur Authentifikation zu ersetzen. Voraussetzung ist, dass sich die Infrastruktur mit vertretbarem Aufwand und untereinander kompatibel gestalten lässt. Dazu dient die Public Key Infrastructure (PKI). Voraussetzung für den Einsatz digitaler Signaturen sind gesetzliche Vorgaben, die Rahmenbedingungen festlegen und insbesondere die Gleichsetzung der elektronischen Signatur zur handschriftlichen Unterschrift im materiellen Recht regelt. Die EU-Signaturrichtlinie unterscheidet die in Tabelle 9-3 dargestellten drei Typen von Signaturen.
Tabelle 9-3
Signaturtypen nach EUSigRL Verbindlichkeit Formvorschrift Beweismittel
keine besonderen Sicherheitsanforderungen
Stufe 1: einfache elektronische Signatur
+
–
–
Stufe 2: qualifizierte elektronische Signatur
+
+
+
Stufe 3: qualifizierte elektronische Signatur mit Akkreditierung
+
+
+
Die einfache elektronische Signatur (Stufe 1) erfüllt keine besonderen Sicherheitsanforderungen. Das Abschließen eines Dokuments mit einer elektronischen Visitenkarte gilt bereits als Signatur. Durch die Unsicherheiten,
406
IT-Recht
9.6
welche mit diesen Signaturen verbunden sind, kommt ihnen nur bei formfreien Erklärungen eine beweisrechtliche Bedeutung zu. Die Vertragsparteien können zwar den Beweiswert einfacher Signaturen vereinbaren, jedoch ist ein ordentliches Gericht nicht an diese Klauseln gebunden. Eine qualifizierte elektronische Signatur (Stufe 2) erfüllt die folgenden Anforderungen:
Sie ist ausschließlich dem Unterzeichner zugeordnet.
besondere Sicherheitsanforderungen
Sie ermöglicht die Identifizierung des Unterzeichners. Sie wird mit Mitteln erstellt, die der Unterzeichner unter seiner alleinigen Kontrolle halten kann.
Sie ist so mit den Daten, auf die sie sich bezieht, verknüpft, dass eine nachträgliche Veränderung der Daten erkannt werden kann. Die qualifizierte Signatur mit Akkreditierung (Stufe 3) schließt eine Prüfung der akkreditierten Zertifizierungsstellen durch eine Behörde ein. Sie entspricht weitgehend dem bisherigen deutschen Signaturgesetz (SigG) von 1997. Regelmäßige Sicherheitskontrollen gewährleisten höchste Sicherheit und somit höchste Beweisqualität. Zudem wird durch die Akkreditierung eine Überprüfung der Signatur über mindestens 35 Jahre garantiert. Diese akkreditierten Zertifizierungsdienste dürfen sich zudem als solche bezeichnen und können sich im Rechts- und Geschäftsverkehr auf die nachgewiesene Sicherheit berufen.
besondere Sicherheitsanforderungen und Prüfung der Zertifizierungsstellen
Diese hohe Anforderung an die Qualität der Signatur resultiert vor allem aus der Zielstellung, die elektronische Signatur der handschriftlichen Unterschrift gleichzustellen und vor Gericht als Beweismittel anzuerkennen.
Gleichstellung der elektronischen Signatur zur handschriftlichen Unterschrift
In der Praxis werden digitale Signaturen bislang nur vereinzelt eingesetzt. Gründe dafür sind in der folgenden Abbildung aufgeführt.
Abbildung 9-18
Hemmnisse einer breiten Anwendung digitaler Signaturen
Aufwand der Qualitätsprüfung für die Anbieter durch das Streben des Gesetzgebers nach einer sehr weitgehenden Regelung mit hohen Ansprüchen an die Rechtsfolgen
Kompliziertheit der Nutzung von PKI fehlende Sicherung der Interoperabilität der Zertifikate Grenzen des Anwendungsbereiches der Gesetzgebung in globalen Märkten
407
9
IT-Sicherheit
Vertiefende Literatur BEUTELSPACHER, A.; SCHWENK, J.; WOLFENSTETTER, K.-D.: Moderne Verfahren der Kryptographie. Vieweg, Braunschweig 2004
BUCHMANN, J.: Einführung in die Kryptographie. Springer, Berlin 2003 Bundesamt für Sicherheit in der Informationstechnik (Hrsg.): ITGrundschutzhandbuch 2004, Bundesanzeiger, 2004
ECKERT, C.: IT-Sicherheit. Oldenbourg, 2004 JAEGER, S.: Computerkriminalität. Interest, Augsburg 2002 LINKIES, M.; OFF, F.: Sicherheit und Berechtigungen in SAP-Systemen, SAP Press, 2006
SCHNEIER, B.: Angewandte Kryptographie. Addison-Wesley, 1996 SCHNEIER, B.: Secrets & Lies. dpunkt, Heidelberg 2004 SPEICHERT, H.: Praxis des IT-Rechts. Vieweg, Braunschweig 2004 STINSON, D.: Cryptography: Theory and Practice. Chapman & Hall, 2005
408
IT-Recht
Kapitel 10 Entscheidungsunterstützung
409
9.6
Entscheidungsprobleme
10.1
10 Entscheidungsunterstützung 10.1 Entscheidungsprobleme Entscheidungsprobleme sind aus der Sicht der Entscheidungsträger durch folgende Kriterien gekennzeichnet: 1. Der Entscheidungsträger hat alternative Handlungsmöglichkeiten. 2. Der Entscheidungsträger hat Unklarheit darüber, für welche Handlungsmöglichkeit er die Entscheidung treffen soll.
Kriterien von Entscheidungsproblemen
3. Die vom Entscheidungsträger getroffene Entscheidung für eine Handlungsmöglichkeit hat Auswirkungen auf die Umwelt. Die Auswirkungen von Entscheidungen werden als Handlungskonsequenzen bezeichnet. Die Bewertung dieser Handlungskonsequenzen erfolgt mittels Präferenz- bzw. Zielfunktionen.
Ursachen für Entscheidungsprobleme Die Ursachen dafür, dass Probleme entstehen, sind sehr unterschiedlich. Charakteristische Ursachen für Entscheidungsprobleme werden in der folgenden Abbildung aufgeführt.
Abbildung 10-1
Ursachen für Entscheidungsprobleme Existenz von Alternativen
bezüglich vorhandener (expliziter) Alternativen bezüglich nicht offensichtlicher (impliziter) Alternativen unvollständige Informationen
bezüglich der Bewertung der Auswirkungen von Aktionen bezüglich der Quantifizierung der Bedingungen bezüglich der Transparenz des Verhaltens anderer beteiligter Personen Zufallseinflüsse
zufällige Umweltfaktoren zufällige Prozessbedingungen
411
10
Entscheidungsunterstützung
Subjektivität des Entscheidungsträgers
vom Entscheidungsträger abhängige Bewertungen, Präferenz- bzw. Zielfunktionen Veränderung der Bewertung von Entscheidungen im Zeitverlauf Text dynamische Prozesse
Entscheidungen in eine unsichere Zukunft (aktuelle Entscheidungen sind von der Einschätzung späterer Auswirkungen abhängig)
mehrere Entscheidungsträger (Gruppenentscheidungen) Entscheidungsketten bei Interaktionen zwischen Organisationen
Abstraktion von der Realität Voraussetzung für die Lösung von Entscheidungsproblemen ist die vorherige Analyse, Abstraktion und Modellierung der Problemsituation. Vereinfachung des realen Problems, Bildung eines Modells
Das reale Problem ist in der Regel durch sehr viele innere und äußere Einflussfaktoren unüberschaubar. Es ist deshalb für die direkte Entscheidungsfindung ungeeignet. In der wissenschaftlichen Entscheidungsfindung wird deshalb die Zwischenstufe der Abstraktion gewählt. Abstraktion bedeutet die Vereinfachung der Prozesszusammenhänge auf das Wesentliche und die Vernachlässigung der unwesentlichen Einflussgrößen. Auf Kosten eines geringfügigen Abstraktionsfehlers entstehen eine größere Problemtransparenz und eine bessere Überschaubarkeit der Problemsituation.
Abstraktionsstufen
Die Abstraktion selbst erfolgt in zwei Stufen. Die erste Stufe ist die Problemanalyse. Hier werden die wesentlichen von den unwesentlichen Einflussfaktoren getrennt. Die zweite Stufe ist die Modellsynthese. Als Ergebnis entsteht das abstrakte Modell. Es spiegelt das reale Problem vereinfacht, aber in noch ungelöster Form wider. Ist das Modell in mathematischer Gestalt formuliert, so lassen sich in der Regel auch mathematische Lösungsverfahren finden. Sind die Lösungsverfahren für eine Problemklasse geeignet, dann werden diese Algorithmen genannt. Die Algorithmen lassen sich mit Hilfe der Programmierung auf automatischem Wege im Computer realisieren. Schließlich wird die Computerlösung als Entscheidungsunterstützung dem Entscheidungsträger vorgeschlagen. Die Abbildung 10-2 stellt diesen Lösungsweg dar.
412
Entscheidungsprobleme
10.1 Abbildung 10-2
wissenschaftliche Entscheidungsunterstützung
Problemlösungsprozess Die Betriebswirtschaftslehre verfolgt das Ziel, mit Hilfe von Modellen die komplexen und teilweise unscharfen Zusammenhänge der ökonomischen Wirklichkeit vereinfacht und damit überschaubar darzustellen. Dabei wird der eigentliche Entscheidungsprozess als Bestandteil eines übergeordneten Problemlösungsprozesses betrachtet. Letzterer schließt darüber hinaus die Umsetzung und die Überprüfung der getroffenen Entscheidungen ein. Die Darstellung in Abbildung 10-3 gibt eine Phaseneinteilung von Entscheidungs- und Problemlösungsprozessen unter Bezugnahme auf angenommene Problemstellungen aus der realen Welt wieder. Suchphase (Intelligence) Intelligente Suche nach Kriterien, die ein Problem definieren und nach Entscheidungen verlangen, durch:
Problemidentifikation (Problemerkennung), Problemklassifikation (Problemeinordnung), Problemdekomposition (Problemzerlegung) und Problemzuordnung
413
Entscheiden, Umsetzen, Überprüfen
10 Abbildung 10-3
Entscheidungsunterstützung
Entscheidungs- und Problemlösungsprozess
Entwicklungsphase (Design) Struktursuche, Entwicklung und Analyse möglicher Handlungsweisen zur Realisierung der Entscheidung durch:
Bestimmung von Modellkomponenten Bestimmung der Modellstruktur, d. h. der Beziehungen zwischen den Modellkomponenten
Bestimmung von Entscheidungs- und Bewertungskriterien Generierung von Lösungsalternativen Auswahlphase (Choice) Auswahl der optimalen Lösungsalternative mittels Zielfunktionsbewertung.
414
Entscheidungsprobleme
10.1
Umsetzungsphase (Implementierung) Umsetzung der im Prozess der Entscheidungsfindung gefundenen optimalen Lösung bzw. Handlungsalternative auf die reale Problemstellung bzw. Entscheidungssituation. Wartung, Kontrolle und Review Falls notwendig werden die Ursachen für Abweichungen der tatsächlichen von den gewünschten Ergebnissen ermittelt. Daraus resultierende Veränderungen werden auf die entsprechenden Phasen des Entscheidungsprozesses zurückgekoppelt (Review). Die Wartung sorgt für eine Anpassung bei veränderten Anforderungen oder neuen Umweltbedingungen.
Entscheidungsebenen und Problemtypen Die generellen Ziele der Entscheidungsunterstützung liegen in
der Erhöhung der Entscheidungsqualität und der Senkung des Entscheidungsaufwandes. Für die Erreichung dieser Zielsetzungen ist es notwendig, die Entscheidungsebenen und die Problemtypen der Managementaktivitäten näher zu betrachten.
Ziele der Entscheidungsunterstützung
Abbildung 10-4
Entscheidungsebenen der Managementaktivitäten strategische Ebene (strategic planning)
zukunftsweisende Unternehmensanalyse und -gestaltung Auswahl von Zielen und Ressourcen Probleme mit globalem und meist einmaligem Charakter Informationsbedarf mit qualitativen Merkmalen hohe Datenaggregation und geringe Genauigkeit Bearbeitung komplizierter Entscheidungsprobleme im Mensch-Computer-Dialog dispositive Ebene (management control)
Konkretisierung der globalen Probleme effektive Mittelbereitstellung und Mittelverwendung Steuerungs- und Kontrollfunktionen auf der operativen Ebene operative Ebene (operational control)
eigentliche Realisierungshandlungen
415
10 Abbildung 10-5
Entscheidungsunterstützung
Problemtypen der Managementaktivitäten strukturiertes Entscheidungsproblem
vollständig determiniert und formalisierbar algorithmierbar und programmierbar wegen eindeutiger Verfahrensregeln Entscheidungen der dispositiven und operativen Ebene entsprechen vorrangig diesem Strukturtyp. unstrukturiertes Entscheidungsproblem
schwer schematisierbar bzw. schwierig zu berechnen nicht programmierbar und seine Problemlösung basiert auf kognitiven Prozessen der Erfahrung und Intuition
Entscheidungen der strategischen Ebene entsprechen vorwiegend diesem Strukturtyp. semi-strukturiertes Entscheidungsproblem
einzelne Teilprobleme sind unstrukturiert. Im Rahmen des Entscheidungs- und Problemlösungsprozesses sind unstrukturierte Probleme diejenigen, in denen keine der drei Phasen (Suchphase, Entwicklungsphase, Auswahlphase) strukturiert ist, während in semistrukturierten Problemen mindestens eine aber nicht notwendig alle Phasen strukturiert sind. vollständige Lösung strukturierter Entscheidungsprobleme durch den Computer
In Abbildung 10-6 werden die Entscheidungsebenen und Problemtypen zum so genannten Gorry/Scott-Morton-Gitter zusammengefasst. Zwischen den strukturierten und den semi-strukturierten/unstrukturierten Problemen erfolgt eine Trennung. Diese Trennung grenzt Probleme, die mit so genannten Strukturierten Entscheidungssystemen (Structured Decision Systems – SDS) vollständig auf einem Computer gelöst werden können, von den Problemen ab, die mit den Entscheidungsunterstützungssystemen (Decision Support Systems – DSS) teilweise oder (noch) gar nicht auf einem Computer gelöst werden können.
416
Entscheidungsprobleme
10.1
Klassifizierung der Entscheidungen nach Strukturiertheitsgrad und Entscheidungsebenen (mit Beispielen)
Abbildung 10-6
Die Decision Support Systeme dienen also dazu, die sicher in der Mehrzahl auftretenden semi-strukturierten Entscheidungsprobleme im MenschComputer-Dialog zu lösen. Sie spielen die Rolle intelligenter ManagementAssistenten, die die Manager auf allen Entscheidungsebenen in ihrer Entscheidungsfindung unterstützen. Die strukturierten Teilprobleme löst der Computer, die unstrukturierten Teilprobleme behandelt der Manager mit Erfahrung und Intuition und leitet den Problemlösungsprozess. Diese Einordnung veranschaulicht die Abbildung 10-7.
Unterstützung des Managements durch MenschComputer-Dialog
strukturorientierte Einordnung der DSS
Abbildung 10-7
417
10
Entscheidungsunterstützung
10.2 Operations Research
mathematische Modellierung realer Probleme
optimale Lösung aus einer Menge zulässiger Entscheidungen
Mit Hilfe des Operations Research (OR) werden reale Prozesse mit ihren Problemstellungen formalisiert und weitgehend mathematisch modelliert. Die Disziplin des Operations Research entstand im Zweiten Weltkrieg in den USA im Rahmen militärlogistischer Aufgabenstellungen. Das OR beschäftigt sich in der Regel mit Entscheidungsproblemen, die die bestmögliche Verwendung knapper Ressourcen zum Ziel haben. Unter Einbeziehung der Erkenntnisse und Methoden verschiedener Wissenschaftsdisziplinen wird aus der Menge zulässiger Entscheidungen die optimale Lösung ermittelt. Hierbei bedeuten zulässige Entscheidungen, dass die durch Gleichungen und Ungleichungen beschriebenen Rand- bzw. Nebenbedingungen (Restriktionen, z. B. knappe Ressourcen, wie Material, Budget, Personalkapazitäten) eingehalten werden. Von einer optimalen Entscheidung spricht man, wenn bezüglich einer Zielfunktion (z. B. Gewinnmaximierung, Kostenminimierung) die beste Bewertung (z. B. maximaler Zielfunktionswert oder minimaler Zielfunktionswert) einer zulässigen Entscheidung vorgenommen wird. In der Praxis müssen häufig mehrere Zielfunktionen gleichzeitig berücksichtigt werden. Man spricht dann von der Bestimmung so genannter Kompromisslösungen.
Methodik des Operations Research Das methodische Vorgehen im Operations Research ist in den folgenden acht Arbeitsstufen geregelt: Arbeitsstufen des Operations Research
1. Problemfindung 2. Problemanalyse 3. Modellierung 4. Algorithmierung 5. Programmierung 6. Modelltest 7. Umsetzung in die Praxis 8. Überwachung und Anpassung
Diese Arbeitsstufen werden im Folgenden näher erläutert.
418
Operations Research
1. Problemfindung Entscheidend für eine effektive Anwendung von Methoden des Operations Research ist das Auffinden optimierungswürdiger Entscheidungsprobleme. Es hat sich als zweckmäßig erwiesen, bedeutungsvolle Problemstellungen nach den in Abbildung 10-8 genannten vier Merkmalen auszuwählen. Es müssen nicht immer alle vier Merkmale gleichzeitig vorhanden sein, um sich für ein OR-Projekt zu entscheiden. Sie sind jedoch für erste AufwandNutzen-Überlegungen wichtige Anhaltspunkte.
10.2 AufwandNutzenEinschätzung
Abbildung 10-8
Merkmale optimierungswürdiger Entscheidungsprobleme
2. Problemanalyse Voraussetzung für eine erfolgreiche Anwendung des Operations Research ist die gründliche Analyse des zu optimierenden Prozesses. Der dabei notwendige Abstraktionsvorgang verlangt große Sachkenntnis in der Problemstellung. Die Problemanalyse ist keine einfache Aufgabe, da die Versuchung zum Idealisieren bei der Anwendung mathematischer Methoden groß ist und begangene Fehler nicht sofort erkennbar sind.
419
10 Bestimmung der Problemparameter und des zu verwendenden Abstraktionsgrades
Bildung eines Modells auf Basis der Erkenntnisse aus der Problemanalyse
Entscheidungsunterstützung
Zu Beginn der Problemanalyse muss Klarheit über die Vor- und Nachteile der Abstraktion bestehen. Während die bedeutenden Vorteile in der einfacheren Struktur, in der besseren Transparenz, in der möglichen Quantifizierbarkeit, in der möglichen mathematischen Formulierung der Prozesszusammenhänge und in der Aussagefähigkeit des Modells für eine Klasse von Problemen liegen, ist der Nachteil, der damit zwangsläufig auftretende Verlust an Übereinstimmung des Modells mit dem real existierenden Prozess. Daraus muss geschlussfolgert werden, dass das Optimum für einen realen Prozess nicht berechenbar ist, sondern immer nur das Modelloptimum. 3. Modellierung Modelle sind wichtige Mittel der Erkenntnisgewinnung, zweckmäßig vereinfachte Abbilder der Realität, die die wesentlichen Beziehungen der Prozesse erfassen. Die Anforderungen an ein Optimierungsmodell sind erstens auf die Erfassung aller in der Analyse als wesentlich erkannten Zusammenhänge gerichtet. Zweitens geht es um die richtige Einordnung von gegebenen Bedingungen und variierbaren Parametern. Aus der Sicht des praktischen Operations Research lassen sich folgende Forderungen erheben: Zuerst gilt es, den Modelltyp zu bestimmen, mit dem die gegebene Problemstellung ausreichend genau abgebildet werden kann. Hier kann es sich zum Beispiel um ein lineares oder nichtlineares, statisches oder dynamisches, deterministisches oder stochastisches OR-Modell handeln.
Berücksichtigung von Anforderungen des mathematischen Optimierungsprozesses
In einem Optimierungsmodell werden die funktionellen Zusammenhänge zwischen den Optimierungszielen, den Restriktionen und den beeinflussbaren und nichtbeeinflussbaren Größen erfasst. Dabei muss Klarheit darüber bestehen, inwieweit wegen des Modellierungs- und Rechenaufwandes Vereinfachungen zwar erforderlich, aber noch zulässig sind.
Berücksichtigung von Zufallsgrößen
Schließlich werden gewisse Wirtschaftsprozesse wesentlich von zufälligen, im Einzelnen nicht voraussehbaren Ereignissen (z. B. Zufallsgrößen) beeinflusst. In solchen Fällen muss ein stochastischer Modellansatz erprobt werden. Stochastische Modellansätze lassen sich dann am zweckmäßigsten aufstellen, wenn für die Zufallsgrößen genügend große Beobachtungsräume hinsichtlich der Erwartungswerte und der Streuungen existieren und diese statistisch ausgewertet werden können.
Bedeutend ist auch das Bestreben, die objektiv vorhandene Optimierungsfreiheit weitestgehend zu erhalten. Sie sollte nicht durch unbegründete Bedingungen oder durch scheinbar unbeeinflussbare Größen eingeschränkt werden.
420
Operations Research
Unscharfe Einflussgrößen werden mit Hilfe von Fuzzy-Modellierungen berücksichtigt. 4. Algorithmierung In allgemeiner Form geht es bei den Algorithmen der Optimierung um solche Lösungsverfahren, die unter der Vorgabe einer Zielgröße aus der Menge möglicher Realisationen die beste Alternative, nach Leibniz „optimale Lösung“, auswählen. Jedes abstrakte Modell ist die vereinfachte Widerspiegelung des ungelösten Problems. Erst die zweckmäßige Wahl eines vorhandenen oder die geschickte Entwicklung eines neuen Lösungsalgorithmus entscheidet über die Wirtschaftlichkeit der Anwendung eines Optimierungsmodells. Die zur Auswahl stehenden Algorithmen werden unter anderem nach den in der folgenden Abbildung dargestellten Merkmalen unterschieden:
10.2 Berücksichtigung unscharfer Größen Auswahl oder Entwicklung eines Lösungsverfahrens
Abbildung 10-9
Merkmale von Algorithmen für das Operations Research
primale und duale Lösungsverfahren stetige und diskrete Lösungsverfahren ganzzahlige und nichtganzzahlige Lösungsverfahren mengentheoretische und nichtmengentheoretische Lösungsverfahren exakte und Näherungsverfahren mathematisch bewiesene und heuristische Lösungsverfahren Prüfverfahren und Lösungsverfahren Anfangsverfahren und postoptimale Korrekturverfahren geschlossene und Dialogverfahren 5. Programmierung In dieser Arbeitsstufe werden die Algorithmen mit Hilfe von Programmiersprachen in eine computerlesbare Sprache, die Software umgesetzt. In der gegenwärtigen Optimierungspraxis stehen die meisten Optimierungsalgorithmen bereits als Software-Komponenten zur Verfügung, insbesondere in Entscheidungsunterstützungssystemen (Abschnitt 10.4). 6. Modelltest Sobald das Optimierungsmodell über einen geeigneten Algorithmus und die erforderliche Software verfügt, kann der Modelltest, also die Überprüfung der Modellaussagen mit der Realität (Verifizierung) erfolgen. Der Modelltest wird in der Regel zuerst mit fiktiven Daten durchgeführt, die möglichst extreme Situationen beinhalten. Wenn unter diesem „Härtetest“ das Modell korrekte Lösungen liefert, werden danach reale Prozesssituatio-
421
Umsetzung des Algorithmus in eine Software
Überprüfung der Modellaussagen mit der Realität
10
Entscheidungsunterstützung
nen aus zurückliegenden Zeitphasen nachoptimiert. Wenn dann mit dem Optimierungsmodell ähnliche, möglichst bessere Lösungen erreicht werden, kann der Modelltest vorerst als erfolgreich abgeschlossen werden.
Anwendung des Systems
7. Umsetzung in die Praxis Die Umsetzung des Optimierungsprojektes in die Praxis ist an folgende drei Voraussetzungen gebunden:
Erstellung der Projektdokumentation für alle Projektbeteiligte Erstellung des Organisationskonzeptes für die Integration in das gesamte Informations- und Kommunikationssystem des Unternehmens
Schulung der Nutzer (User) Überprüfung und Anpassung des Systems im Produktivbetrieb
8. Überwachung und Anpassung Alle in Modellen abgebildeten Wirtschaftsprozesse befinden sich in einer ständigen Entwicklung und Bewegung bzw. in einer Veränderung. Das abstrakte Modell muss deshalb von Zeit zu Zeit den veränderten Bedingungen angepasst werden. Überwachungsroutinen sollten in modernen Optimierungssystemen enthalten sein. Sie geben die Intervalle vor, an denen die Prozessveränderungen gemessen werden und entscheiden den Zeitpunkt, von dem ab Korrekturen im Modell vorgenommen werden müssen. Die rhythmische Anpassung des Optimierungsmodells an die neuen Prozessbedingungen ist in der Regel dialoggesteuert oder teilautomatisiert organisierbar.
Modellklassifikation
Einordnung von Modellen
Modellklassen nach dem Grad des Wahrscheinlichkeitseinflusses
Die bekanntesten Modelle des Operations Research lassen sich in Modellklassen einordnen. Das hat den Vorteil, dass die notwendigen Lösungsverfahren bzw. Algorithmen für jede Modellklasse standardisierbar zugeordnet werden können. Obwohl es unterschiedliche Ordnungsmerkmale für die Klassifizierung gibt, ist das Merkmal „Grad des Wahrscheinlichkeitseinflusses“ bis zum gegenwärtigen Erkenntnisstand ein effektives Ordnungskriterium. Demzufolge werden drei Modellklassen definiert:
deterministische Modelle stochastische Modelle strategische Modelle Die Abbildung 10-10 stellt die Einteilung der Modellklassen dar und liefert eine mögliche Zuordnung von Methoden.
422
Operations Research
10.2 Abbildung 10-10
Modellklassen und Zuordnungen möglicher Methoden
deterministische Modelle In diesen Modellen sind die Modellparameter mit Sicherheit bestimmbar. Mit deterministischen Modellen werden solche realen Prozesse untersucht, deren Verlauf und Ergebnis nicht wesentlich von zufälligen, im Einzelnen nicht voraussehbaren Ereignissen beeinflusst werden. Derartige Prozesse müssen bei gegebenem Anfangszustand in allen wesentlichen Belangen und mit hinreichender Genauigkeit eindeutig vorausbestimmbar sein. Vorrangige Methoden der deterministischen Modelle sind:
lineare Optimierung Treten die variablen Größen eines Problems sowohl in der Zielfunktion als auch in den Nebenbedingungen nur isoliert in der ersten Potenz auf, so spricht man von linearer Optimierung.
nichtlineare Optimierung Jede Optimierung, die nicht der linearen Optimierung zugeordnet werden kann, wird als Nichtlineare Optimierung bezeichnet.
dynamische Optimierung Unter dynamischer Optimierung versteht man ein methodisches Prinzip der Optimierung von Prozessen. Die Entscheidungen werden auf verschiedenen Stufen ihres Ablaufs (zeitabhängig) oder in verschiedenen Bereichen dieser Prozesse getroffen. Das Besondere dabei ist, dass die Entscheidungen den jeweiligen Prozessstand berücksichtigen.
423
10
Entscheidungsunterstützung
Reihenfolge-Optimierung Wird ein Prozess in mehreren Teilprozessen realisiert und hängt die Effektivität von der Reihenfolge dieser Teilprozesse ab, so kann der Prozess durch eine Reihenfolgeoptimierung gestaltet werden.
deterministische Netzplantechnik Die deterministische Netzplantechnik dient zur Planung und Kontrolle des Ablaufes komplexer Vorhaben. Im Netzplan werden Vorgänge, die zur Realisierung des Vorhabens notwendig sind, in ihrer Verflechtung erfasst. Es werden die kritischen Vorgänge bestimmt, bei denen keine Verschiebung möglich ist. Diese bilden in ihrer Abfolge den kritischen Weg (Critical Path Method – CPM). stochastische Modelle In diesen Modellen sind die Modellparameter durch Unsicherheit (speziell Risiko) gekennzeichnet wobei der Wahrscheinlichkeitseinfluss bekannt ist und als Risiko bezeichnet wird. Mit stochastischen Modellen werden Prozesse untersucht, die von zufälligen, im Einzelnen nicht voraussehbaren Ereignissen beeinflusst werden. Bei derartigen Prozessen müssen jedoch die zufälligen Ereignisse mit Hilfe der statistischen Verteilungsgesetze aus der Beobachtung vergangener Zeiträume bekannt sein. Vorrangige Methoden der stochastischen Modelle sind:
Warteschlangentheorie In der Warteschlangentheorie werden insbesondere Bedienungsmodelle zur Optimierung von Prozessen verwendet, bei denen die Beanspruchung der Bedienungseinrichtungen und die Wartezeiten der zu bedienenden Einheiten im Wesentlichen stochastischer Natur sind. Mit Hilfe von Bedienungsmodellen kann die Kapazität so bestimmt werden, dass die Summe der Wartezeitkosten sowohl der zu bedienenden Einheiten als auch der Bedienungseinrichtungen ein Minimum ist.
Instandhaltungstheorie In der Instandhaltungstheorie sind optimale Reparatur- bzw. Erneuerungszeitpunkte zu bestimmen. Diese Fragestellungen entstehen beispielsweise bei Produktions- und Transportmitteln, die einem Verschleiß ausgesetzt sind. Beispielsweise ist der optimale Zeitpunkt einer Reparatur derjenige, an dem die Summe von erwarteten Ausfall- und Reparaturkosten ein Minimum ist.
Lagerhaltungstheorie In der Lagerhaltungstheorie werden Modelle zur Optimierung solcher Lagerprozesse angewandt, bei denen der Verbrauch oder die Beschickung der zu lagernden Artikel nach stochastischen Gesetzmäßigkeiten erfolgt. Berechnet wird der optimale Lagerbestand, bei dem die Summe 424
Operations Research
von Lagerkosten, Bestellmengenkosten (Beschaffungskosten) und Fehlmengenkosten ein Minimum ist.
stochastische Netzplantechnik Die stochastische Netzplantechnik berücksichtigt gegenüber der deterministischen Netzplantechnik den Wahrscheinlichkeitscharakter der Parameter einzelner Vorgänge. So werden bei der PERT-Zeitplanung (Program Evaluation and Review Technique) für jeden Vorgang drei Zeitschätzungen (optimistische, pessimistische, wahrscheinliche Zeitdauer) verarbeitet. Es wird die Wahrscheinlichkeit berechnet, mit der die einzelnen Vorgänge kritisch sind und mit welcher Wahrscheinlichkeit Zeitpuffer entstehen.
Simulation Simulation wird im engeren Sinne als Nachbildung („Durchspielen“) eines zeitabhängigen, also dynamischen Prozesses in einem stochastischen Modell verstanden. Simulationsmethoden werden beispielsweise zur Analyse von stochastischen Netzplänen und Lagerhaltungssystemen eingesetzt. strategische Modelle In diesen Modellen sind die Modellparameter durch Unsicherheit (speziell Ungewissheit) gekennzeichnet. Im Gegensatz zu stochastischen Modellen ist der Wahrscheinlichkeitseinfluss auf die Modellparameter unbekannt. Es können beispielsweise unscharfe Größen vorliegen. Diese Art von Unsicherheit wird im Unterschied zum Risiko als Ungewissheit bezeichnet. Mit strategischen Modellen werden solche Prozesse abgebildet, die von Faktoren beeinflusst werden, deren Wirkungsweise zum Zeitpunkt der Entscheidung nicht oder nur unvollständig bekannt ist oder deren Wirkungsweise von den zu fällenden Entscheidungen in bekannter oder unbekannter Weise bestimmt wird. Vorrangige Methoden der strategischen Modelle sind:
Spieltheorie Mit Modellen der Spieltheorie werden Konfliktsituationen erfasst, die dadurch gekennzeichnet sind, dass sich zwei oder mehrere Seiten (Gegner, Spieler, Wettbewerbspartner) gegenüberstehen, die unterschiedliche Ziele verfolgen. Das Ergebnis des Spieles hängt von den durch die Spieler gewählten Strategien ab.
Entscheidungsnetzplan-Technik Entscheidungsnetzpläne beinhalten Entscheidungsereignisse, bei denen über den Beginn, die Weiterführung, die Art der Durchführung oder die Anwendungsmöglichkeiten eines Vorhabens entschieden wird, d. h. die Struktur des Vorhabens ist am Anfang noch nicht eindeutig bekannt bzw. beschrieben. 425
10.2
10
Entscheidungsunterstützung
10.3 Komplexe Optimierung In der betrieblichen Praxis hat sich vor allem die lineare Optimierung zur Entscheidungsunterstützung durchgesetzt, z. B. für die Produktionsprogrammplanung bestimmter Planungsperioden. Neben den zu berechnenden optimalen Werten für die Variablen ist ein Modell der linearen Optimierung im Wesentlichen durch drei Gruppen von Daten charakterisiert, den Datengruppen der linearen Optimierung
Zielfunktionskoeffizienten (in der linearen Zielfunktion),
Fonds- oder Einsatzgrößen (rechte Seiten der linearen Gleichungen/Ungleichungen) und
spezifischen Aufwandsgrößen (auf der linken Seite der linearen Gleichungen/Ungleichungen). Diese Daten quantifizieren im mathematischen Modell der linearen Optimierung den Ist-Zustand beispielsweise der betrieblichen Produktionstechnologien und der Absatzbedingungen. Veränderung des Ist-Zustandes
Bezieht man in den Planungs- und Entscheidungsprozess auch eine, im beeinflussbaren Bereich, optimale Veränderung des Ist-Zustandes mit ein, so kann von einer komplexen linearen Optimierung gesprochen werden, realisiert in der so genannten Komplexmethode. Sowohl die lineare Optimierung als auch die Komplexmethode werden im Folgenden an einem kleinen Beispiel erläutert.
Lineare Optimierung Bei der linearen Optimierung wird mit Hilfe eines Algorithmus eine Berechnung durchgeführt, die als Ergebnis einen Zielwert (z. B. den Erlös) maximiert oder minimiert. In der Berechnung sind Vorgaben, so genannte Restriktionen (lineare Gleichungen/Ungleichungen), zu beachten. Die Restriktionen beschränken die mögliche Lösung. So beschränkt beispielsweise die zur Verfügung stehende Produktionszeit die Menge der herstellbaren Produkte und damit den Gewinn. Für solche Optimierungsprobleme wird ein Modell aufgestellt, welches alle oben genannten relevanten Daten beinhaltet. Anhand eines einfachen Beispiels soll der Aufbau eines linearen Optimierungsmodells dargestellt werden. In dem Beispielunternehmen wird Kunststoff in Form von Granulat und Folie hergestellt. Ziel des Unternehmens ist
426
Komplexe Optimierung
ein möglichst hoher Gewinn. Zielwert ist also der Gewinn, welcher maximiert werden soll: G Æ max. ! Der Erlös ist abhängig von der Menge der hergestellten Produkte: x1 = Menge an Granulat in Tonnen x2 = Menge an Folie in Tonnen und von den Preisen der Produkte: p1 = Gewinn je Tonne Granulat p2 = Gewinn je Tonne Folie Damit ergibt sich für den Gewinn folgende Formel: G = p1 · x1 + p2 · x2 Daraus lässt sich nun die Zielfunktion bilden: p1 · x1 + p2 · x2 = G Æ max. ! Die Zielfunktion bestimmt, welcher Wert optimiert werden soll und wie dieser Wert berechnet wird. In unserem Beispielunternehmen hat die Marketingabteilung festgestellt, dass sich für eine Tonne Granulat ein Gewinn von 300 Euro und für eine Tonne Folie von 400 Euro erzielen lässt (Zielfunktionskoeffizienten). Die Produktionsmenge soll durch eine Optimierung berechnet werden. Die Zielfunktion hat dann folgende Gestalt: 300 · x1 + 400 · x2 = G Æ max. ! Aus der Zielfunktion lässt sich leicht erkennen, dass der Gewinn umso höher ist, je mehr Kunststoff hergestellt wird. Nun kann natürlich nicht beliebig viel Kunststoff hergestellt und verkauft werden. Es existieren Beschränkungen, die in Form von Restriktionen (Nebenbedingungen) in das Optimierungsmodell einfließen müssen. Eine solche Restriktion ist die maximale Absatzmenge. Die Marketingabteilung des Unternehmens hat festgestellt, dass sich maximal 5.000 Tonnen Granulat und 1.000 Tonnen Folie verkaufen lassen. Die ersten beiden Nebenbedingungen lauten also: x1 ǂ 5.000 und x2 ǂ 1.000 Weitere Nebenbedingungen ergeben sich aus dem Produktionsprozess. Für Granulat und Folie werden gleiche Grundstoffe verwendet. Einer dieser Grundstoffe lässt sich nicht in beliebiger Menge beschaffen. Von diesem Rohstoff stehen maximal 2.000 Tonnen zur Verfügung (Fondsgröße). Granu-
427
10.3
10
Entscheidungsunterstützung
lat und Folie benötigen eine unterschiedliche Menge dieses Grundstoffs. Für eine Tonne Granulat werden 0,3 Tonnen und für eine Tonne Folie 0,2 Tonnen benötigt (spezifische Aufwandsgrößen). Daraus ergibt sich die Nebenbedingung: 0,3 · x1 + 0,2 · x2 ǂ 2.000 Die Qualitätskontrolle wird von Mitarbeitern durchgeführt. Es stehen dafür insgesamt 200 Stunden zur Verfügung. Die Kontrolle einer Tonne Granulat dauert 0,2 Stunden, die einer Tonne Folie 0,1 Stunden. Es muss also folgende Nebenbedingung eingehalten werden: 0,2 · x1 + 0,1 · x2 ǂ 200 Aufgrund eines Produktionsengpasses bei einem Lieferanten stehen von einem Farbstoffkonzentrat nur 5.800 Liter zur Verfügung. Für eine Tonne Granulat werden 3 Liter, für eine Tonne Folie 4 Liter Farbstoffkonzentrat benötigt. Die zugehörige Nebenbedingung lautet: 3 · x1 + 4 · x2 ǂ 5.800 Außer den bisherigen Nebenbedingungen sind noch weitere notwendig, um das Modell zu vervollständigen. Es müssen die so genannten Nichtnegativitätsbedingungen berücksichtigt werden, d. h. es muss sichergestellt werden, dass bei der Berechnung keine negativen Produktionsmengen entstehen: x1 ǃ 0 und x2 ǃ 0 Werden die Zielfunktion und die Nebenbedingungen zusammengefasst, ergibt sich das Optimierungsmodell (ohne Mengeneinheiten): Grundaufgabe (lineares Optimierungsmodell): 300 · x1 + 400 · x2 1)
x1
ǂ 5.000
2)
x2
ǂ 1.000
3)
0,3 · x1 + 0,2· x2 ǂ 2.000
4)
0,2 · x1 + 0,1· x2 ǂ
5)
3 · x1
6)
x1
7)
428
= G Æ max. !
200
+ 4 · x2 ǂ 5.800 ǃ
0
x2 ǃ
0
Komplexe Optimierung
Innerhalb des Modells sind die Problemvariablen x1 und x2 nur isoliert in der ersten Potenz vertreten (also beispielsweise nicht als x1 · x2 oder x1 2), deshalb wird dieses Modell als ein Modell der linearen Optimierung bezeichnet. Zur Lösung linearer Optimierungsprobleme werden verschiedene Algorithmen verwendet. Einer der bekanntesten ist der Simplex-Algorithmus. Er wurde 1947 von G. B. Dantzig entwickelt. Zur Vereinfachung sei hier nur das Ergebnis angegeben: Lösung der Grundaufgabe: x1 = 500 x2 =
1.000
G = 550.000 Es müssen 500 Tonnen Granulat und 1.000 Tonnen Folie hergestellt werden, um 550.000 Euro Gewinn zu erwirtschaften. Es gibt keine andere Mengenkombination, die unter Einhaltung der Nebenbedingungen einen höheren Gewinn ermöglicht. Es handelt sich also um eine Optimallösung. Die klassische lineare Optimierung endet an dieser Stelle. Der Lösungsalgorithmus liefert jedoch nicht nur die Ergebnisse für die Problemvariablen und den Zielwert. Weitere Werte geben an, wie weit die einzelnen Nebenbedingungen ausgeschöpft wurden. Anhand dieser Werte kann das Ausgangsmodell angepasst werden. Dieser Aufgabe widmet sich die Komplexmethode.
Komplexmethode Die Komplexmethode wurde durch den Nobelpreisträger L. V. Kantorowitsch in Zusammenarbeit mit W. Lassmann begründet und für die ganzzahlige Optimierung durch R. Rogge weiterentwickelt. Sie erweitert die Möglichkeiten der klassischen linearen Optimierung, indem nicht nur die Problemvariablen, sondern auch die Parameter der Nebenbedingungen und der Zielfunktion optimiert werden. Für das oben gezeigte Beispiel lässt sich feststellen, dass die Nebenbedingungen folgendermaßen ausgelastet wurden: 1)
ǂ 5.000
500
2)
ǂ 1.000
1000
3)
0,3 · 500
+ 0,2 · 1000 =
350
ǂ 2.000
4)
0,2 · 500
+ 0,1 · 1000 =
200
ǂ
5)
3 · 500
+ 4 · 1000
=
5.500
200
ǂ 5.800
429
10.3
10
Entscheidungsunterstützung
6) 7)
500 1000
ǃ
0
ǃ
0
Die Nebenbedingungen 2 und 4 wurden bis an ihre Grenze ausgelastet. Sie werden deshalb als kritische Nebenbedingungen bezeichnet. Es können nur 1.000 Tonnen Folie abgesetzt werden und die Mitarbeiter der Qualitätskontrolle werden die gesamte zur Verfügung stehende Zeit von 200 Stunden eingesetzt. Diese beiden Nebenbedingungen verhindern, dass ein höherer Gewinn erzielt wird. Es liegt also nahe, diese Nebenbedingungen so zu beeinflussen, dass eine größere Menge an Produkten hergestellt werden kann. Die zweite Nebenbedingung ließe sich dahingehend verändern, dass die absetzbare Menge an Folie erhöht wird (extensive Modellverbesserung). Das wäre beispielsweise durch verstärkte Marketingmaßnahmen möglich. Bei der vierten Nebenbedingung könnte die Kapazität der Qualitätskontrolle erhöht werden (extensive Modellverbesserung). Wenn zusätzliche Mitarbeiter in diesem Bereich eingesetzt werden, ließe sich die Kapazität über die 200 Stunden hinaus erhöhen. Es ergibt sich aber noch eine weitere Möglichkeit der Beeinflussung dieser Nebenbedingung. Es wäre ebenfalls möglich die Arbeitsintensität zu erhöhen, d. h. durch den Einsatz verbesserter Kontrollgeräte oder eine Straffung des Arbeitsablaufes könnte die Zeit, die für die Kontrolle einer Tonne Kunststoff benötigt wird, reduziert werden (intensive Modellverbesserung). Eine weitere Beeinflussungsmöglichkeit liegt in der Veränderung des erzielbaren Gewinns je Produkt. Durch Senkung der Produktionskosten oder zusätzliche Marketingmaßnahmen ließe sich der Gewinn je Produkt erhöhen (zielextreme Modellverbesserung). In der Abbildung 10-11 sind die einzelnen Schritte der Komplexmethode zusammengefasst. Die Komplexmethode ermöglicht also nicht nur die Berechnung einer optimalen Lösung für die Variablen im Modell, sondern führt auch zu einer optimale Bestimmung der Modellparameter, d. h. der Beschränkungen in den Nebenbedingungen (Kapazitäten), der Intensitäten in den Nebenbedingungen (einzusetzende Ressourcen für je eine Einheit der Variablen) und der Faktoren (z. B. Gewinn je eine Einheit der Variablen ) in der Zielfunktion. Im Beispiel wurde der Einfachheit wegen nur eine extensive Modellverbesserung (optimale Veränderung der Ressourcen) behandelt, da in diesem Fall das komplexe Optimierungsmodell wieder vom Typ einer linearen Optimierungsaufgabe und einfach berechenbar ist. Bei der intensiven bzw. zielextremen Modellverbesserung wird das entsprechende komplexe Optimie-
430
Komplexe Optimierung
10.3
rungsmodell vom Typ einer speziellen nichtlinearen Optimierungsaufgabe sein, die aber in eine lineare (Ersatz)-Optimierungsaufgabe überführt werden kann. Die Komplexmethode ermöglicht zudem beliebige Kombinationen der extensiven, intensiven und zielextremen Modellverbesserung.
Abbildung 10-11
Komplexschritte im Entscheidungsmodell der komplexen Optimierung
Für die Realisierung der Komplexmethode wurde eine entsprechende Software entwickelt. Sie gestattet auch die Berücksichtigung von Ganzzahligkeitsforderungen an die variablen Größen. Die Berechnungen erfolgen über mehrere Schritte. Dabei wird das Modell den betriebswirtschaftlichen Gegebenheiten angepasst und gleichzeitig im Mensch-Maschine-Dialog schrittweise optimiert. Die Abarbeitung ermöglicht es dem Disponenten zielgerichtet auf die Modellparameter Einfluss zu nehmen.
431
10
Entscheidungsunterstützung
10.4 Entscheidungsunterstützende Systeme Die Manager in Wirtschaft und Verwaltung stehen vor zwei grundlegenden Fragestellungen:
Wie werden die Führungsinformationen zeit- und sachbezogen aufbereitet und verdichtet zur Verfügung gestellt?
Welche Konsequenzen sind im Rahmen des Entscheidungsprozesses aus den bereitgestellten Führungsinformationen zu ziehen? Die erste Frage wird durch die Unterstützung der Manager mit Führungsinformationssystemen (Kapitel 11) beantwortet. Die zweite Frage zielt auf die Unterstützung im Problemlösungsprozess. Eine Antwort bieten die Entscheidungsunterstützungssysteme (Decision Support Systems – DSS), die die Daten, Modelle und Methoden des Operations Research für das Management handhabbar erschließen. Die technologische Gestaltung von Entscheidungsunterstützungssystemen kann, wie in Abbildung 10-12 dargestellt, in drei Ebenen vorgenommen werden.
Abbildung 10-12
DSS-Werkzeug
Technologische Gestaltung der DSS
Auf der unteren Ebene sind die DSS-Werkzeuge der Entwickler angesiedelt. Dazu zählen alle Hard- und Softwarekomponenten, die zur Entwicklung der spezifischen DSS und der DSS-Generatoren dienen. Hier kommen vor allem die Programmiersprachen zum Einsatz.
432
Entscheidungsunterstützende Systeme
10.4
Werden Werkzeuge der unteren Ebene in „Werkzeugkästen“ (Toolbox) gebündelt, so spricht man von DSS-Generatoren, die die zweite Ebene bilden. Mit ihnen sind Fachspezialisten (Gestalter) in der Lage, unter geringem Aufwand spezifische DSS zu entwickeln. Derartige DSS-Generatoren können Tabellenkalkulationsprogramme, Planungssprachen, Modellierungssprachen und Simulationssprachen sein. Die Tabellenkalkulationsprogramme eignen sich besonders für einfache (Tabellen)-Strukturen mit hohem Datenaufkommen. Die Berechnungsvorschriften sind direkt mit den Daten gekoppelt. Planungssprachen dagegen haben eine konsequente Trennung von Daten und Rechenvorschriften und können für fachspezifische Berechnungen (z. B. Trendberechnungen der mathematischen Statistik oder Matrizenoperationen der linearen Algebra) Programmkomplexe aus vorprogrammierten Basiskomponenten generieren. Simulationssprachen (wie z. B. SIMAN, ARENA und SIMULINK) und Modellierungssprachen (wie z. B. in AIMMS und MATLAB) vereinfachen die Modellierungs- und Auswertungsphasen bei Simulations- und Optimierungsrechnungen.
DSS-Generatoren
In der oberen Ebene liegen die spezifischen DSS als Anwendungssysteme, die die Manager (Nutzer) in den speziellen Entscheidungsfeldern unterstützen. Die Problemorientierung steht dabei im Mittelpunkt, d. h. spezifische DSS sind nicht allgemein einsetzbar.
spezifische DSS
Die Methodik der Entwicklung und Nutzung der DSS muss auf eine schnelle Unterstützung des Problemlösungsprozesses und damit auch auf eine schnelle Implementierung gerichtet sein. Deshalb bietet sich eine adaptive und durch Rückkopplungen geprägte Vorgehensweise an (Abbildung 1013). Die vom Benutzer geforderte Basisfunktionalität wird in einem ersten Systementwurf abgebildet, der vom Gestalter/Entwickler in einer ersten Version des DSS verwendet wird. Der Benutzer kann das DSS frühzeitig kennen lernen und wird über seine Anwendungserfahrungen eine Erweiterung der Funktionalität oder eine Verbesserung der Oberflächengestaltung für notwendig halten. Er berät sich dazu mit dem Gestalter/Entwickler. Andererseits kann auch der Gestalter/Entwickler, z. B. aus Gründen der Performance oder bei der Bereitstellung leistungsfähigerer Algorithmen, Verbesserungen am System vornehmen.
adaptive Vorgehensweise zur Entwicklung und Nutzung von DSS
Die Basisarchitektur eines DSS wird in Abbildung 10-14 veranschaulicht. Im Dialog-Management-System (DMS) erfolgt die Dialogführung und Kommunikationssteuerung zwischen dem Anwender und dem DSS. Zur Gestaltung dieser Benutzerschnittstelle werden spezielle Kommandosprachen oder symbolische Benutzerführungen eingesetzt. Wiederanlaufmöglichkeiten (Restart) sollten parametrisiert vorgesehen werden.
433
10
Entscheidungsunterstützung
Abbildung 10-13
Adaptive Entwicklung und Nutzung der DSS
Abbildung 10-14
Basis-Architektur eines DSS
434
Entscheidungsunterstützende Systeme
Im Modell- und Methodenbank-Management-System (MBMS) wird die Generierung, Verwaltung und Weiterentwicklung der mathematischen Modelle und Lösungsverfahren realisiert. Der Anwender sollte bei der Methodenauswahl sinnvoll durch das System unterstützt werden. Das Datenbankmanagementsystem (DBMS) verwaltet die für die Modellrechnungen notwendigen Eingabedaten und Zwischenergebnisse (z. B. für Restart). Mit dem Reportbank-Management-System (RBMS) werden die Ausgabedaten nutzerfreundlich in Form periodischer oder ereignisgesteuerter und standardisierter oder individueller Berichte und Grafiken aufbereitet und präsentiert. Besonders qualitativ aussagekräftige und übersichtliche Grafiken stellen für das betriebliche Management ein erhebliches Akzeptanzpotenzial dar. Erfolgt der Einsatz von DSS nicht in Form individueller Nutzer, sondern arbeiten die Manager in Gruppen zusammen, so ist es erforderlich, alle Phasen des Gruppenentscheidungsprozesses zu unterstützen. Hierfür wurden Konzepte von Gruppen-Entscheidungsunterstützenden Systemen (Group Decision Support Systems – GDSS) realisiert. Die vielfältigen und über die Entscheidungsunterstützung hinausgehenden Formen der Software zur Unterstützung von Gruppenarbeit, wie z. B. die computergestützte kooperative Arbeit (CSCW), fasst man zum Begriff Groupware zusammen. Im Groupware-Management-System (GMS) werden somit alle Phasen des Gruppenentscheidungsprozesses organisiert und analysiert. Die DSS-Vielfalt unterstützt die verschiedensten fachlichen Spezialprobleme des Managements, die durch den Einsatz eines breiten Spektrums mathematischer Modelle und Methoden gelöst werden können. Ihre Anwendung liegt vornehmlich in den Fachabteilungen der Führungskräfte. Tendenziell ist aus methodischer Sicht (z. B. Einbindung des Data Warehousing und Data Mining, Abschnitt 11.2) eine engere Verzahnung von Entscheidungsunterstützungssystemen und Führungsinformationssystemen zu erwarten.
435
10.4
10
Entscheidungsunterstützung
10.5 Künstliche Intelligenz Intelligenz
Der Traum, künstlich Intelligenz zu erzeugen
Die Eigenschaft, die den Menschen als das am weitesten entwickelte Lebewesen auf der Erde besonders auszeichnet, ist die Intelligenz. Die Fähigkeit intelligentes Verhalten bei der Interaktion mit der Umwelt anzuwenden, birgt für das Individuum enorme Vorteile. Deshalb träumen die Menschen davon, Intelligenz beliebig vermehren zu können und versuchen, sie auf künstlichem Wege zu produzieren. Die Geschichte lehrt, dass sich kühne Wünsche der Menschen nicht selten von der Utopie zur Realität entwickeln. Beispiele dafür sind schnelles Fortbewegen, schweres Lastenheben, das Fliegen, Farbfernsehen oder die Weltraumfahrt. Warum soll das Ziel, auf künstlichem Wege Intelligenz zu produzieren, nicht ebenfalls erreichbar sein? Bis in die Gegenwart reicht der Streit, was Intelligenz ist und ob es künstliche Intelligenz geben kann. Es wird ständig darüber diskutiert, ob eine Maschine denken kann und was als Denken anerkannt werden darf. Alle diese Fragen sind in erster Linie Definitionsfragen!
menschliche Intelligenz
Menschliche Intelligenz umfasst die Fähigkeiten, über Wissen und Erfahrungen zu verfügen, komplexe Probleme zu lösen, zu analysieren, zu abstrahieren, logisch zu schlussfolgern, zu entscheiden und schließlich immer wieder, besonders aus Fehlern, neu zu lernen.
Definition künstlicher Intelligenz
Noch komplizierter ist der Versuch, künstliche Intelligenz (KI) (Artificial Intelligence – AI) zu definieren. Die oberflächliche Meinung, Computer seien sehr schnell, aber ebenso dumm, hat sich in der Vergangenheit als falsch herausgestellt. Begründet wurde die Unfähigkeit der Maschinen zu eigenständiger Intelligenz mit ihrem Aufbau aus mechanischen und elektronischen Elementen und der Tatsache, dass es sich um Systeme handelt, die von Menschenhand gefertigt werden. Die Intelligenz wurde somit als alleinige Eigenschaft biologischer Systeme, insbesondere des Menschen, angesehen. Die Entwicklungen in den letzten Jahrzehnten haben jedoch gezeigt, dass die Fähigkeit eines Systems, intelligentes Verhalten zu zeigen, nicht von seinem Aufbau abhängt. Entscheidend ist die vorhandene Funktionalität. In der Literatur gehen die Meinungen über die Erklärung von Intelligenz und die Definition von künstlicher Intelligenz weit auseinander. Einer der ersten Wissenschaftler, der sich mit der künstlichen Intelligenz bei Maschinen beschäftigte, war Alan Turing. Er definiert eine Maschine als intelligent, wenn ihr Verhalten nicht von dem eines Menschen unterscheidbar ist. Er entwickelte ebenfalls ein Verfahren, um eine solche intelligente Maschine zu
436
Künstliche Intelligenz
10.5
prüfen, den so genannten Turing-Test. Heute existieren Computersysteme, die auf ihrem engen Spezialgebiet diesen Test bestehen. Eine andere Definition bezeichnet künstliche Intelligenz als die Fähigkeit aus vorhandenem Wissen auf automatischem Wege neues Wissen zu erzeugen. Lange Zeit wurde unvorsichtigerweise angenommen, ein Computer kann nur soviel Wissen ausgeben, wie vorher in ihn hinein gegeben wurde. Obwohl bereits in den 50er und 60er Jahren bewiesen werden konnte, dass ein Computer auch neues Wissen erzeugen kann, wird diese Meinung auch heute noch vertreten. Bereits seit mehr als zweitausend Jahren beschäftigen sich Philosophen, Psychologen, Mathematiker, Verhaltensforscher, Sprachwissenschaftler und jetzt auch Informatiker mit Fragen über die Funktionsweise des Sehens, des Erinnerns, des Lernens und des Denkens sowie die Umsetzung in künstliche Systeme. Bekannte Vertreter sind Plato, Sokrates, Aristoteles, Descartes, Leibniz, Skinner, Chomsky, von Helmholtz, James, Craik, Gödel, Edmonds und andere, die wichtige Grundsteine auf dem Weg zur heutigen Wissenschaftsdisziplin Künstliche Intelligenz gelegt haben. Die Künstliche Intelligenz berührt eine Reihe philosophischer Fragen und tief greifende ökonomische Interessen und bringt eine Vielzahl von moralischen, ethischen und sozialen Problemen hervor. Beispiele solcher Fragen sind: „Kann ein künstlicher Verstand moralisch sein?“, „Sollte eine Maschine überhaupt denken?“, „Wie ist das Verhältnis einer intelligenten Maschine zum Menschen?“
ethische Fragestellungen
Um die Komplexität der natürlichen Intelligenz zu verstehen, muss man erkennen, dass nicht nur beim Lösen mathematischer Aufgaben und beim Schach spielen Intelligenz erforderlich ist, sondern der gesamte Alltag von intelligentem Verhalten geprägt ist. Vom ersten Tage seines Lebens an, ist der Mensch gezwungen, zu lernen, um unter den sich ständig verändernden Umweltverhältnissen existieren zu können. Dabei sind die häufigsten Lernprozesse Einsicht, Konditionierung und Nachahmung.
Lernen
Die menschliche Informationsverarbeitung wird vorrangig vom Bewusstsein, von Erkenntnissen, von Zielen, Motivationen und Emotionen gesteuert. Menschen unterscheiden sich von Computern vor allem dadurch, dass sie über die Erfahrung von Millionen Jahren biologischer und Tausenden Jahren kultureller Entwicklung verfügen. Der Mensch denkt anders als ein Computer. Was sich logisch nicht bewältigen lässt, wird mit Intuition und Spontaneität gelöst. Kein Computersystem erreicht zurzeit die komplexen intellektuellen Fähigkeiten des Menschen. Das menschliche Gehirn ist ein elektrochemischer Mechanismus, dessen Arbeitsweise sehr komplex organisiert ist. Die Frage nach dem detaillierten
437
Denken
10
Entscheidungsunterstützung
Ablauf des Denkprozesses ist noch immer nicht vollständig gelöst. Die Prozesse im Gehirn zeichnen sich insbesondere durch eine hohe Parallelisierung der etwa 100 Milliarden Nervenzellen aus. Diese Parallelverarbeitung ermöglicht es, dass verschiedene Vorgänge gleichzeitig ablaufen können. Schwierigkeiten hat der menschliche Informationsverarbeitungsprozess mit dem direkten Zugriff auf gespeicherte Informationen. Die Zuverlässigkeit sowohl im Kurzzeit- als auch im Langzeitgedächtnis gespeicherte Informationen wieder aufzufinden, hängt von einer ganzen Reihe objektiver und subjektiver Faktoren ab. Bereits Leibniz träumte 1661 von einer universellen wissenschaftlichen Sprache. George Boole schuf 1854 die Grundlagen für die moderne symbolische Logik. Damit ließen sich erste Gesetzmäßigkeiten des Denkens mit den mathematischen Theorien der Logik und der Boole’schen Algebra fassen. Claude Shannon verknüpfte zum ersten Mal die Gesetze des Denkens mit dem Verhalten elektronischer Schaltungen. Schließlich beschäftigten sich Wiener und Rosenblueth schwerpunktmäßig mit den Analogien von elektronischen und biologischen Systemen. John McCarthy schlug 1958 vor, das gesamte menschliche Wissen in eine abstrakte Form zu bringen, um es einer automatischen Verarbeitung besser zuführen zu können. Informationstheorie
Erst die Informationstheorie erklärte die Zusammenhänge zwischen der elektronischen und der biologischen Informationsverarbeitung. Das führte zur Kybernetik des Denkens. In jüngster Zeit stellt sich jedoch heraus, dass der biologische Denkprozess komplizierter ist, und dass das menschliche Denken nicht nur aus rationalen Komponenten, also aus strenger Logik besteht, sondern auch über irrationale Komponenten verfügt.
Teilgebiete der Künstlichen Intelligenz Die Künstliche Intelligenz beschäftigt sich insbesondere mit den im Folgenden aufgeführten fünf Gebieten und hat dort bereits beachtliche Erfolge erzielt.
automatische Schlussfolgerung (Inferenz) Die automatische Inferenz ist relativ weit entwickelt. Das formale logische Schlussfolgern mit Kalkülen der mathematischen Logik automatisiert Teilgebiete des logischen Denkens. Die automatische Inferenz bildet die Grundlage jedes KI-Systems.
Verarbeitung natürlicher Sprache Von großer Bedeutung für die Nachbildung der menschlichen Intelligenz ist die natürliche Sprachverarbeitung. Die enge Beziehung zwischen Sprache und Denken ist für viele KI-Systeme sehr wichtig. Die automati-
438
Künstliche Intelligenz
sche Sprachverarbeitung hat eine Effektivität erreicht, die noch vor wenigen Jahren kaum vorstellbar war. Es existiert bereits eine Reihe von Softwaresystemen, die mit sehr hohem Erkennungsgrad menschliche Sprache in geschriebenen Text umsetzen können.
automatische Bildverarbeitung Die automatische Bildverarbeitung ermöglicht das visuelle Erkennen von Strukturen, Eigenschaften und Objekten zur Weiterverarbeitung in Computersystemen. Sie wird beispielsweise eingesetzt, um Gegenstände zu identifizieren, Werkstücke zu prüfen oder Grundstücke und Gebäude zu überwachen.
Robotertechnologie Ein weiteres interessantes Forschungsgebiet der KI ist die Robotertechnologie. Die erste Generation von Robotern arbeitete bereits mit einer überraschenden Präzision. Diese Roboter konnten aber nicht auf unerwartete Veränderungen in ihrer Umgebung reagieren. Inzwischen sind moderne Roboter mit umfangreichem Wissen ausgestattet. Dieses Wissen, zum Teil verknüpft mit optischen und Sprachfunktionen, ermöglicht es, dass sie sich heute flexibel verschiedensten Arbeitsgängen und Aufgaben anpassen können. Die Roboter der Neuzeit sind aus vielen Fertigungsprozessen nicht mehr wegzudenken. Sie arbeiten exakter, ausdauernder und geschickter als der Mensch und können auch unter inhumanen Bedingungen tätig sein. Trotzdem muss die Abhängigkeit vom Menschen klar erkannt werden. Obwohl die Robotertechnologie in der Vergangenheit große Fortschritte gemacht hat, stellen für den Menschen einfache Tätigkeiten, wie das Gehen und das Treppensteigen, Roboter vor schwierige Probleme. Schon bei geringfügigen unvorhergesehenen Umweltveränderungen können einfachste Lebewesen noch immer meist besser reagieren als intelligente Roboter.
Expertensysteme Das bedeutendste und umfangreichste Gebiet der KI sind die Expertensysteme. Ein Expertensystem ist ein intelligentes Computerprogramm, das auf einem Spezialgebiet über Wissen verfügt, mit Hilfe von Schlussfolgerungsmechanismen bekanntes Wissen zu neuem Wissen verarbeiten kann, in seinem Wissenserwerb lernfähig ist und im Falle der Entscheidungsunterstützung die Fähigkeit besitzt, ausgewähltes Wissen zu präsentieren. Die Expertensysteme sind also im Wesentlichen auf die moderne Wissensverarbeitung angewiesen. Sie nutzen leistungsstarke KISprachen und modernste Datenbanksysteme. Inzwischen sind die Ergebnisse der künstlichen Intelligenz in zahlreichen Unternehmen zu einem entscheidenden Produktivitäts- und Wettbewerbsfaktor geworden. Immer öfter prägen ihre Produkte die technologische Ba-
439
10.5
10
Entscheidungsunterstützung
sis. In den USA haben bereits viele größere Firmen eigene KI-Laboratorien eingerichtet. KI-Software-Firmen entstehen weltweit. In der Wirtschaft befinden sich KI-Anwendungen in allen Bereichen und Institutionen. In den folgenden Abschnitten werden verschiedene Methoden und Verfahren vorgestellt, die beim Einsatz künstlicher Intelligenz von großer Bedeutung sind.
Wissensmodelle und wissensbasierte Lösungsverfahren Wissensrepräsentationsmechanismen
Die Modellierung von Wissen beinhaltet dessen Formalisierung und Strukturierung durch geeignete so genannte Wissensrepräsentationsmechanismen.
Abbildung 10-15
Auswahl an Wissensrepräsentationsmechanismen
Frames IF-THEN-Regeln semantische Netze PROLOG LISP
Beschreibung von Wissen und Problemen in symbolischer Form
Gemeinsames Merkmal der Wissensrepräsentationsmechanismen ist die Möglichkeit, Wissens- und Problembeschreibungen in symbolischer Form vornehmen zu können. Das gestattet den Verzicht auf quantitative Beschreibungen, wo diese nicht möglich sind. Gleichzeitig können mit Unsicherheit oder Unschärfe behaftete Wissenskomponenten modelliert und über geeignete Inferenzstrategien deren Verarbeitung realisiert werden. Ein Ziel wissensbasierter Ansätze besteht darin, Probleme einer Lösung zuzuführen, die sich wegen ihrer Semi- oder Unstrukturiertheit konventionellen Problemlösungsmethoden entziehen. Charakteristische Merkmale solcher Probleme sind:
ungenügende Spezifizierbarkeit, Kontextabhängigkeit und Unsicherheit oder Unschärfe. Gegenstandswissen und Problemlösungswissen
Der grundsätzlich neue Ansatz der Wissensverarbeitung besteht darin, unabhängig voneinander sowohl Wissen zum Gegenstandsbereich als auch zur Problemlösung zu verwenden. Die Verwendung von Wissen umfasst dessen Erhebung, Formalisierung, Modellierung, Operationalisierung, Konsolidierung und Validierung. Dabei werden durch das Gegenstandswissen Objekte, 440
Künstliche Intelligenz
10.5
Situationen und Zusammenhänge des Gegenstandsbereiches beschrieben, während das Problemlösungswissen Vorgehensweisen beinhaltet, in welcher Art und Weise Elemente oder Komponenten des Gegenstandswissens dazu benutzt werden können, um neues Wissen zu erzeugen oder um Probleme zu lösen. Dieses Problemlösungs- oder Metawissen kann fachspezifisch oder fachgebietsunabhängig sein. Das Problemlösungswissen umfasst z. B. Erfahrungswissen nach welchen Kriterien, mit welchen Methoden oder Prinzipien die Auswahl von Entscheidungsalternativen bzw. die Konfiguration von Aktionsfolgen durchgeführt werden muss, um ein bestimmtes Ziel zu erreichen.
Softcomputing Im Rahmen der Realisierung von Decision Support Systemen für betriebliche Anwendungen treten häufig erhebliche Schwierigkeiten auf, und zwar
in der Entwicklungsphase bei der Aufstellung des mathematischen Modells und
in der Auswahlphase bei der Bestimmung der Lösungsalternativen. Hinsichtlich der Modellbildung formulierte schon Kreko zwei grundlegende Anforderungen
mathematische Modelle sollten die Wirklichkeit möglichst genau widerspiegeln (sonst droht ein nichtakzeptierbares Modell) und
mathematische Modelle sollten relativ einfach sein (sonst droht ein
Anforderungen an die Modellbildung
nichtakzeptierbarer Rechenaufwand). Da beide Anforderungen entgegengesetzt gerichtet sind, besteht die „Kunst der Modellbildung“ im Operations Research in der Suche nach einem geeigneten Kompromiss. Der Senior der mathematischen Optimierung, G. B. Dantzig, hatte schon in den 60er Jahren folgende Vision für das Aufstellen eines Modells gegeben: „Einer der Gründe, dass bis heute nur Näherungsmodelle existieren, besteht darin, dass man bisher noch nicht in der Lage war, wirklich große und komplexe Modelle zu lösen. Wenn sich die Werkzeuge zur Behandlung solcher Systeme vermehren, wächst auch der Wunsch des Forschers, seine Modelle zu verfeinern, um sich die neuen Methoden zunutze machen zu können. In den allernächsten Jahren werden wir wahrscheinlich das Ende des Circulus vitiosus der Vergangenheit erleben, in der schlechte Modellkonstruktion schnelle ungefähre „Lösungen“ rechtfertigte und umgekehrt das Nichtvorhandensein exakter Lösungsmethoden schlechte Modellkonstruktion recht-
441
Dantzig über Modellbildung
10
Entscheidungsunterstützung
fertigte. Wahrscheinlich werden sich Modellkonstruktion und Lösungsmethoden gegenseitig in positiver Weise beeinflussen.“ Diese Vision wird in zunehmendem Maße heute Wirklichkeit, wenn die Methoden, Konzepte und Computerrealisierungen des so genannten Softcomputing, dem „weichen Rechnen“, auch in die Welt der konventionellen Entscheidungsunterstützungssysteme Einzug halten.
Abbildung 10-16
Hauptbestandteile des Softcomputing
Fuzzy-Theorie
Theorie unscharfer Größen
Die Fuzzy-Theorie ist eine mathematisch begründete Theorie unscharfer (fuzzy) Größen, wie Fuzzy-Mengen, Fuzzy-Zahlen, Fuzzy-Intervalle, linguistische Variable usw., und unscharfer Konzepte, wie Fuzzy-Logik, FuzzyInferenz, Fuzzifizierung, Defuzzifizierung, Fuzzy-Systeme usw. Hierin liegt ein mächtiges Potenzial, um unscharfe Sachverhalte in den mathematischen Modellen der Entscheidungsunterstützungssysteme zu berücksichtigen. Die Fuzzy-Theorie beschäftigt sich insbesondere damit, verbal beschriebene Größen (z. B. „etwa“, „leichte Erhöhung“, „geringe Geschwindigkeit“, „hoher Preis“) so umzuwandeln, dass eine rechentechnische Verarbeitung ermöglicht wird.
Künstliche Neuronale Netze Mit diesen naturanalogen Konzepten wird der Versuch unternommen, Problemlösungsprozesse des menschlichen Gehirns nachzuahmen, indem die Funktionsweise von Neuronenstrukturen auf vergleichsweise einfache Art 442
Künstliche Intelligenz
10.5
nachgebildet wird. Dabei werden jeweils nur Teile von Informationen oder Wissensbestandteile in aktiven Elementen (den Neuronen) gespeichert, die ihrerseits Verarbeitungsoperationen vornehmen und entsprechend bestimmter Netztopologien untereinander Informationen austauschen. Die Informations- und Wissensverarbeitung erfolgt verteilt und parallel. Künstliche Neuronale Netze (KNN) können an Beispielen lernen (LernPhase) und das Gelernte verallgemeinern und anwenden (Recall-Phase). Gerade hierin liegt ihre Bedeutung für praktische Anwendungen in Entscheidungsunterstützungssystemen.
Nachbildung der Problemlösungsprozesse des menschlichen Gehirns
Anwendungsbeispiele für Künstliche Neuronale Netze
Abbildung 10-17
Kreditwürdigkeitsprüfungen Aktienkursprognosen Future-Prognosen Wechselkursprognosen Umsatzprognosen Tourenplanung Maschinenbelegungsplanung Genetische Algorithmen Genetische Algorithmen stellen naturanaloge Verfahren der stochastischen Optimierung dar, die ähnlich wie der biologische Evolutionsprozess eine Gesamtheit (Population) von zufällig gewählten Suchpunkten (Individuen) zur heuristischen Bestimmung guter lokaler Extremwerte einer Funktion organisieren. Die Suchstrategien basieren auf geeigneten Codierungen der Ausgangsprobleme und verwenden Mutations-, Selektions- und Rekombinationsoperatoren zur Verbesserung der Suchpunkte (Erhöhung der Fitness der Individuen). Genetische Algorithmen können mit relativ wenig Aufwand parallel auf Computern abgearbeitet werden – eine Anwendungsmöglichkeit für Parallelrechner.
Vertiefende Literatur DANTZIG, G. B.: Lineare Programmierung und Erweiterungen. Springer, Berlin 1966
DANTZIG, G. B.; THAPA, M. N.: Linear Programming, 1: Introduction. Springer, New York 1997
443
Nachbildung des biologischen Evolutionsprozesses
10
Entscheidungsunterstützung
DANTZIG, G. B.; THAPA, M. N.: Linear Programming, 2: Theory and Extensions. Springer, New York 2003
DOMSCHKE, W.; DREXL, A.: Einführung in Operations Research. Springer, Berlin 2004
HARRINGTON, H. J.; TUMAY, K.: Simulation Modeling Methods. McGrawHill, New York 2000
HILLIER, F.S. ; LIEBERMANN, G. S.: Operations Research. Oldenbourg, München 1997
LACHMANN, M. F.: Entscheidungsunterstützung mit OR-Methoden. Problemlösung mit Operations-Research-Modellen und Algorithmen in Entscheidungsunterstützungssystemen. Wissenschaft & Praxis Ludwigsburg, Berlin 1995
LASSMANN, W.: Die Entwicklung und Anwendung von Optimierungsmethoden. In: Kantorovic, L. V.; Lassmann, W. u. a.: Ökonomie und Optimierung. Akademie-Verlag, Berlin 1985
LASSMANN, W.; ROGGE, R.: Die Komplexmethode in der computergestützten Planoptimierung und Entscheidungsvorbereitung. In: Operations Research-Spektrum, 01/1990, Springer, Berlin 1990
LAUDON, K. C.; LAUDON, J. P.: Management Information Systems. Pearson Education, Upper Saddle River 2004
LAW, A. M.; KELTON, W. D.: Simulation Modeling and Analysis. McGrawHill, Boston 2000
MCLEOD, R.; SCHELL, G. P.: Management Information Systems. Prentice Hall, Upper Saddle River 2001
MEYER, M.: Operations Research Systemforschung. Eine Einführung in die praktische Bedeutung. Uni-TB, Stuttgart 1996
ROJAS, R.: Theorie der neuronalen Netze. Springer, Berlin 1996 ROMMELFANGER, H.: Fuzzy Decision Support Systeme. Springer, Berlin 1998
SUHL, L.; MELLOULI, T.: Optimierungssysteme. Springer, Berlin 2006 TURBAN, E.; ARONSON, J. E.: Decision Support Systems and Intelligent Systems. Prentice Hall, Englewood Cliffs 1998
444
Künstliche Intelligenz
Kapitel 11 Anwendungen
445
10.5
Systematisierung
11.1
Der Begriff Anwendung wird in unterschiedlicher Bedeutung verwendet. Ein Anwendungsprogramm (application program) ist ein Programm, das eine bestimmte anwenderbezogene Aufgabe bearbeitet (Textverarbeitung, Lohn/ Gehaltsabrechnung, Produktionsplanung usw.). Unter Anwendungssoftware (application software) wird eine Gesamtheit von Anwendungsprogrammen verstanden. Ein Anwendungssystem (application system) besteht im engeren Sinne aus der Anwendungssoftware für ein konkretes Anwendungsgebiet einschließlich der zugehörigen Daten und im weiteren Sinn zusätzlich aus dem für die Nutzung erforderlichen Basissystem (Hardware, Systemsoftware, Kommunikationseinrichtungen).
Anwendungsprogramm, Anwendungssoftware, Anwendungssystem
Bei der Nutzung von Anwendungssystemen hat sich im Laufe der Entwicklung der Informationstechnologie ein grundlegender Wandel vollzogen. Folgende wesentliche Aspekte können dabei hervorgehoben werden:
Wandel in der Nutzung von Anwendungssystemen
11 Anwendungen 11.1 Systematisierung
Nutzungsform Die direkte Nutzung von Anwendungen am Arbeitsplatz durch den Fachexperten ersetzt die früher notwendige zentrale Bearbeitung durch IT-Spezialisten.
Funktionalität Der Einsatzbereich von Anwendungssystemen hat sich stark erhöht. Anwendungssysteme werden in den betrieblichen Ablauf integriert und unterstützen somit die Geschäftsprozesse des Unternehmens. ITspezifische Aspekte treten zunehmend in den Hintergrund. Stattdessen sind fachliche und organisatorische Probleme die Basis bei der Entwicklung oder Anpassung von Anwendungssystemen.
Aktualität der Auswertungen Der auf Grund von geringerer Computerleistung und zentraler Verwaltung entstehende erhebliche zeitliche Aufwand für die Berechnung von Ergebnissen führte früher zu unaktuellen Informationen. Heute ermöglichen dezentrale Arbeitsplatzcomputer, integrierte Datenbanksysteme, eine globale Vernetzung und die wesentlich höheren Bearbeitungsgeschwindigkeiten eine Echtzeitverarbeitung (realtime) und somit die sofortige Verfügbarkeit der Informationen für alle Beteiligten.
447
11
Anwendungen
Dieser Wandel spiegelt sich auch in einer möglichen Einordnung der Anwendungssysteme in Generationen, den Anwendungssystem-Generationen (application systems generations), wider: AnwendungssystemGenerationen
1. Generation: Batchanwendungen im Stapelbetrieb 2. Generation: Dialoganwendungen im Dialogbetrieb 3. Generation: Anwendungen von Datenbanksystemen 4. Generation: Anwendungen von Endbenutzersystemen 5. Generation: Anwendungen für die betriebliche Integration (Integration betriebswirtschaftlicher und technischer Anwendungen) 6. Generation: Anwendungen für die zwischenbetriebliche Integration (organisationsübergreifende Anwendungen) Die Welt der betrieblichen Anwendungssysteme erscheint auf Grund der großen Zahl von Anbietern und einer vielfältigen Angebotspalette sehr heterogen und unübersichtlich. Dieser Eindruck wird noch verstärkt, wenn man die Eigenentwicklungen großer und mittelständischer Unternehmen mit zum Teil sehr leistungsfähigen IT-Entwicklungsbereichen einbezieht. Die enorme Entwicklungsdynamik neuer Anwendungssysteme hat vor allem ihre Ursachen
Ursachen der hohen Entwicklungsdynamik von Anwendungssystemen
in der schnellen Verbreitung der computergestützten Arbeit in den verschiedensten betrieblichen Anwendungsfeldern,
in den Innovationssprüngen der Hard- und Softwaretechnologien und in der Globalisierung der Märkte durch die elektronische Vernetzung von Kunden, Produzenten, Dienstleistern und Lieferanten (World-WideWeb-Dienste im Internet, Elektronischer Geschäftsverkehr usw.). Die im Folgenden dargestellte Systematisierung soll helfen, die verschiedenen Typen von Anwendungssystemen abzugrenzen und nach bestimmten Kriterien zu ordnen. Eine grobe Klassifizierung, zunächst aus der Sicht der betrieblichen Funktionen (inhaltliche Sicht), basiert darauf, dass die Aufgaben
inhaltliche Klassifizierung
„Verwalten“
durch
Administrationssysteme,
„Disponieren“
durch
Dispositionssysteme,
„Planen“
durch
Planungssysteme,
„Kontrollieren“
durch
Kontrollsysteme
unterstützt werden. Die Abbildung 11-1 beschreibt diesen Zusammenhang.
448
Systematisierung
11.1 Abbildung 11-1
Systematisierung von Anwendungssystemen aus inhaltlicher Sicht
Während die Administrations- und Dispositionssysteme (Operative Systeme) auf den unteren und mittleren Managementebenen eingesetzt werden, sind die Planungs- und Kontrollsysteme (PuK-Systeme) in ihrem Einsatz den mittleren und oberen Managementebenen zuzuordnen. Unter diesem Hintergrund ist es plausibel, dass die Planungs- und Kontrollsysteme durch den gemeinsamen Begriff Führungssysteme (FS) gekennzeichnet werden.
Administrations- und Dispositionssysteme Die Administrationssysteme entlasten das Verwaltungspersonal von geistigen und manuellen Routinearbeiten. Der Fokus der Computerunterstützung ist hier besonders auf die Bearbeitung von Massendaten gerichtet – ein schon klassisches Anwendungsfeld für die Datenbanksysteme.
Verarbeitung von Massendaten
Die Dispositionssysteme unterstützen das Personal bei kurzfristigen dispositiven Entscheidungen. In den Dispositionssystemen sind Verfahren des Operations Research (Kapitel 10) eingebunden, um gute (möglichst optimale) Handlungsalternativen in der Entscheidungsvorbereitung zu finden.
Unterstützung kurzfristiger dispositiver Entscheidungen
449
11 Abbildung 11-2
Anwendungen
typische Anwendungen für Administrationssysteme
Lohn- und Gehaltsabrechnung und die Verwaltung flexibler Arbeitszeitregelungen (Gleitzeit, Schichtregime) in den Personalabteilungen
Belegverarbeitung, Debitoren, Kreditoren- und Sachbuchhaltung in der Finanzbuchhaltung
Kundenauftragsbearbeitung im Vertrieb Artikelverwaltung im Handel Teilelagerverwaltung für die Fertigung Verwaltung der Verträge bei Versicherungsunternehmen Verwaltung der Konten und Depots bei Kreditinstituten
Abbildung 11-3
typische Anwendungen für Dispositionssysteme
Bestelldisposition im Handel Belegung von Hochregallagern bei Versandhäusern Produktionsprogrammplanung in der Fertigung Werkstattsteuerung in der Fertigung Touren- und Stauraumplanung im Vertrieb Zuschnittplanung in der Möbel- und Bekleidungsindustrie Futtermischung in der Tierfutterindustrie Bearbeitung von Mahnungen der Finanzbuchhaltung Unter dem Aspekt der branchenorientierten Verwendung von Administrations- und Dispositionssystemen kann eine verfeinerte Gruppierung in branchenorientierte Einordnung
branchenneutrale, branchenspezifische und branchenübergreifende Systeme vorgenommen werden. Die Standardsoftware für branchenneutrale Administrations- und Dispositionssysteme bezieht sich hauptsächlich auf die Bereiche
Finanz- und Rechnungswesen, Personalwesen und Vertrieb.
450
Systematisierung
11.1
Branchenspezifische Administrations- und Dispositionssysteme werden z. B. eingesetzt in
Fertigungsunternehmen, Versicherungsunternehmen, Kreditinstituten und zahlreichen Berufszweigen (Softwaresysteme für Handwerksbetriebe, Kanzleien, Arztpraxen usw.). Typische Vertreter branchenspezifischer Administrations- und Dispositionssysteme in der Produktion sind die so genannten Systeme der Produktionsplanung und -steuerung (PPS-Systeme) im Rahmen des CIM-Konzepts (Computer Integrated Manufacturing, computerintegrierte Fertigung). Die Abbildung 11-4 zeigt schematisch den groben Aufbau eines CIM-Konzeptes zur Integration betriebswirtschaftlicher Funktionen in die technische Automatisierung.
PPS, CAx, CIM
Ein Kernproblem der Produktionsplanung und -steuerung ist die Senkung der Wartezeiten in der Produktion und damit die Verkürzung der Durchlaufzeiten. Ein Beitrag zur Lösung des Problems wäre der Übergang von der Sukzessivplanung (alle Planungsaufgaben werden schrittweise nacheinander gelöst) zur Simultanplanung (gleichzeitige Abarbeitung aller Planungsaufgaben). Das ist jedoch wegen der hohen Komplexität (noch) nicht realisierbar. Deswegen werden zahlreiche Organisationskonzepte (zum Teil durch moderne PPS-Systeme unterstützt) vorgeschlagen, wie
PPSKernproblem: Durchlaufzeitverkürzung
„Manufacturing Resource Planning (MRP II)” und dessen Vorgänger
Organisationskonzepte
„Material Requirements Planning (MRP)” (USA),
„Just in Time“ zur Vermeidung von Lagerbeständen durch zeitliche Kopplung von Beschaffung und Produktion (USA),
„KANBAN“ zur Begrenzung der Anzahl von Werkaufträgen vor jedem Arbeitsplatz in der Produktion (Japan) und „Belastungsorientierte Auftragsfreigabe (BOA)“ zur Begrenzung des Kapazitätsbedarfs von Werkaufträgen vor jedem Arbeitsplatz in der Produktion (Deutschland),
„KAIZEN“ als abteilungsübergreifende, auf Geschäftsprozesse orientierte und stark motivierte Gruppenarbeit zur kontinuierlichen Prozessverbesserung (Japan)
„Lean Production – Schlanke Produktion“ auf Geschäftsprozesse orientiert, mit flachen Unternehmenshierarchien ohne abteilungsbezogenen Arbeitsteilung (USA),
451
11
Anwendungen
„Supply Chain Management (SCM)“ zur Koordinierung ganzer Geschäftsprozessketten und damit aller Partner der Wertschöpfungskette (USA).
Abbildung 11-4
Grobaufbau des CIM-Konzeptes
unternehmensübergreifende Anwendungssysteme
Durch die rasch wachsende elektronische Vernetzung von Kunden, Produzenten und Lieferanten nimmt die Bedeutung der zwischenbetrieblichen Anwendungen durch branchenübergreifende Administrations- und Dispositionssysteme stark zu. Mit dem elektronischen Datenaustausch (Electronic Data Interchange – EDI) kann eine Kommunikation über Unternehmensgrenzen (auch innerhalb einer Branche, z. B. zwischen Hersteller und Handel) hinaus erfolgen, wodurch Geschäftsprozesse angestoßen und gesteuert werden können.
452
Systematisierung
11.1 Abbildung 11-5
Anwendungsfelder branchenübergreifender Systeme
Kreditinstitute / Handelseinrichtungen (Electronic Cash) Autohersteller / Vertragshändler und -werkstätten (einschließlich Ersatzteilwirtschaft)
Pharmaunternehmen / Pharmagroßhandel / Krankenhäuser / Ärzte / Apotheken und Drogerien
Baustoffindustrie / Bauunternehmen Transportlogistik (Straße, Schiene, Wasser, Luft) Der elektronische Datenaustausch EDI basiert auf internationalen und nationalen Standards. Die internationalen Standards werden unter der Aufsicht der Vereinten Nationen erarbeitet. Schon im Jahre 1987 wurde das weltweite Regelwerk EDIFACT (Electronic Data Interchange For Administration, Commerce and Transport) zur Beschreibung von Geschäftsdaten und Geschäftsvorgängen vorgelegt. Es beschreibt die Datenelemente und -segmente der Geschäftsdaten, die einheitliche Struktur der Geschäftsvorgänge als Nachrichten und die Syntax (Grammatik) für den Nachrichtenaustausch. So wurden z. B. eigene Nachrichtentypen für die Geschäftsvorgänge
internationale Standards zum elektronischen Datenaustausch
Bestellungen (ORDERS), Rechnungen (INVOIC) und Transportnachrichten (IFTMIN – Instruction Message, IFTMAN – Arrival Notice Message) entwickelt. Eine Reihe von Branchen haben aus dem EDIFACT spezifische Normen (EDIFACT-Subsets) entwickelt. Einige dieser spezifischen Normen sind in der folgenden Abbildung aufgeführt. Abbildung 11-6
branchenspezifische EDIFACT-Normen
EANCOM für die Konsumgüterwirtschaft EDIFICE für die Elektroindustrie ODETTE für die Automobilindustrie CEFIC für die Chemieindustrie SWIFT für die Banken EDIFURN für die Möbelindustrie EDIBDB für die Baubranche
453
11
Anwendungen
Die hierauf aufsetzenden Administrations- und Dispositionssysteme realisieren bei aller „Grenzüberschreitung“ jedoch nur einen geschlossenen Datenaustausch für bestimmte zuvor festgelegte Nutzergruppen. Ein offener elektronischer Datenaustausch für beliebige Nutzerkreise wird im Rahmen der elektronischen Märkte, des E-Business, erzielt, worauf im Kapitel 12 ausführlich eingegangen wird.
Führungssysteme
Unterstützung des Planungsund des Überwachungsprozesses
Bereitstellung von Informationen
Verarbeitung von Informationen
Während die operativen Managementaufgaben durch die beschriebenen Administrations- und Dispositionssysteme abgedeckt werden, beziehen sich die Führungssysteme (Abbildung 11-1) auf die Unterstützung der Führungsprozesse im strategischen Management. So unterstützen die Planungssysteme die Führungskräfte des oberen und mittleren Managements im langfristigen Planungsprozess. Hierbei kann das Spektrum von der Planung einzelner Unternehmensbereiche (z. B. Planung von Marketingstrategien, Forschungs- und Entwicklungsarbeiten), einer bereichsübergreifenden Planung (z. B. integrierte Planung von Verkauf und Produktion bzw. Produktion und Beschaffung oder Versand) bis zur globalen Unternehmensplanung (z. B. Planung von Fusionen, Börsengängen) reichen. Die Kontrollsysteme überwachen die Realisierungsphase durch Soll-Ist-Vergleiche (Berichtssysteme, Warnsysteme) und unterstützen das Management bei der Diagnose von Planabweichungen und möglichen Therapiemaßnahmen (Expertisesysteme). Die Führungssysteme haben zur inhaltlichen Unterstützung des Managements aber auch die Aufgabe, den umfangreichen sachbezogenen und zeitkritischen Informationsbedarf des Führungspersonals abzudecken. Hierbei geht es um die Bereitstellung und Analyse unternehmensinterner Daten aus den Administrations- und Dispositionssystemen, unternehmensexterner Daten (Marktstatistiken, Weltwirtschaftsdaten, Rechts- und Verwaltungsvorschriften, Patentdaten, Handelsregistereinträge, Steuervorschriften usw.) und quantitativer sowie qualitativer Zielvorgaben (Informationsbereitstellung, daten-getriebene Managementunterstützung). Andererseits werden für die Lösung der Planungs- und Kontrollprobleme zusätzlich Modelle, Algorithmen und Methoden eingesetzt, um dem Management aus den bereitgestellten Informationen die möglichst optimalen Entscheidungsalternativen vorzuschlagen (Informationshandhabung, modell-getriebene Managementunterstützung). So werden beispielsweise für die Planung Optimierungs- und Simulationsmethoden und für die Kontrolle statistische Methoden eingesetzt.
454
Systematisierung
11.1
Unter dem Aspekt der Informationsbereitstellung und Informationshandhabung können die Führungssysteme (Management Support Systems – MSS) aus methodischer Sicht in
Führungsinformationssysteme (FIS, Executive Information Systems – EIS)
Entscheidungsunterstützungssysteme (EUS, Decision Support Systems – DSS)
methodische Klassifikation von Führungssystemen
klassifiziert werden. Die Abbildung 11-7 stellt diesen Zusammenhang dar.
Abbildung 11-7
Systematisierung der Führungssysteme aus methodischer Sicht
Alternativ zum Begriff der Führungsinformationssysteme findet man in der Praxis zahlreiche weitere Bezeichnungen, wie
Managementinformationssysteme (MIS),
Synonyme für Führungsinformationssysteme
Controllinginformationssysteme (CIS), Top-Management-Informationssysteme (TIS), Chefinformationssysteme (CIS), Vorstandsinformationssysteme (VIS) oder nur Informationssysteme (IS). Auf die Führungsinformationssysteme wird im Abschnitt 11.2 näher eingegangen, während die Entscheidungsunterstützungssysteme im Kapitel 10 bereits erläutert wurden.
455
11
Anwendungen
Querschnittssysteme Unabhängig von den betrieblichen Funktionen und den Managementebenen werden weitere Anwendungssysteme, so genannte Querschnittssysteme, isoliert bzw. über Schnittstellen mit den Administrations-, Dispositions- und Führungssystemen genutzt. Zu diesen Querschnittssystemen gehören die typische Querschnittssysteme
Bürosysteme (Abschnitt 11.3), Systeme der Künstlichen Intelligenz (Kapitel 10) und Multimedia-Systeme. Multimedia-Systeme sind durch eine komplette Digitalisierung aller zeitunabhängigen (statischen) Medien, wie Daten, Texte, Zeichnungen, Fotos usw. sowie aller zeitabhängigen (dynamischen) Medien, wie Videos, Sprache, Musik usw. gekennzeichnet. Auf Grund des sehr hohen Speicherbedarfs verwenden Multimedia-Systeme optische Speicherplatten.
Tabelle 11-1
typische Multimedia-Anwendungsbereiche
elektronischen Verlags-
elektronische Erstellung, Verwaltung und Verbreitung von Büchern, Lexika, Zeitungen, Zeitschriften usw.
Auskunftserteilung
Stadtinformationen, kommunale Behörden, Fahrpläne, Börsenkurse usw.
Produktpräsentation
elektronische Produktkataloge (EPK) zur technischen Beschreibung komplexer Maschinen und Anlagen oder zur Präsentation der Artikel von Versandhäusern
Kundenberatung
Versicherungen, Banken, Reisebüros, Handelseinrichtungen usw.
Aus- und Weiterbildung
Vortragspräsentation, Tele-Learning / DistanceLearning usw.
arbeit (Infotainment)
(Kiosk-Systeme)
(Edutainment)
Die Abbildung 11-8 veranschaulicht die Verschmelzung von Computer, Multimedia- und Telekommunikationsanwendungen (Telemedia-Systeme). Sie wird durch den weltweiten Standard für die dritte Generation der Mobilfunktechnologie ermöglicht, das Universal Mobile Telecommunications System (UMTS). Der Aufbau des Netzes soll im Jahr 2010 abgeschlossen sein. Dann ist jeder Mobilfunkteilnehmer weltweit erreichbar und über das Mobiltelefon kann ein schneller Zugang zum Internet realisiert werden.
456
Systematisierung
Verschmelzung von Computer, Multimedia- und Telekommunikationsanwendungen
11.1 Abbildung 11-8
Integration von Anwendungssystemen Eine weitere Möglichkeit der Systematisierung von Anwendungssystemen, besonders für Industrieunternehmen, orientiert sich an der Wertschöpfungskette und vor allem an dem Streben nach integrierten Systemlösungen. So wird neben einer vertikalen Integration der Administrations-, Dispositions-, Planungs- und Kontrollsysteme auch eine horizontale Integration entlang der Wertschöpfungskette in den betrieblichen Sektoren
Forschung und Entwicklung,
zu integrierende Bereiche der Wertschöpfungskette
Beschaffung, Produktion, Lagerhaltung, Marketing und Verkauf, Versand und Kundendienst in Anwendungssystemen zu realisieren sein. Hierbei haben die Anwendungssysteme für das Finanz- und Rechnungswesen sowie für Personal und Verwaltung eine sektorübergreifende Funktion. Die Notwendigkeit einer computergestützten Verzahnung aller betrieblichen Geschäftsprozesse zeigt sich beispielsweise im Zusammenwirken von
457
11
Anwendungen
Marketing und Produktion Welche zu akquirierenden Produkte helfen, Unterlasten in den Produktionskapazitäten abzubauen?
Marketing und Lagerhaltung Welche Verkaufsprioritäten bestehen aus der Sicht der Kapitalbindung?
Entwicklung und Kundendienst Bezieht die Abteilung Forschung und Entwicklung in ihre Produktentwicklung auch Kundenerfahrungen ein?
Produktion und Personal Ist das laufende Schichtregime dem prognostizierten Auftragsvolumen noch angepasst? Der Integrationsgedanke ist nicht neu, stellt aber eine permanente Herausforderung an die Wirtschaftsinformatik dar, die Geschäftsprozesse aus einer ganzheitlichen Perspektive zu betrachten und computergestützt umzusetzen. So sind auch die im Rahmen von CIM-Lösungen erwähnten Konzepte, wie KAIZEN und vor allem Supply Chain Management, in diesem Kontext zu verstehen. integrierte Anwendungssysteme
Umfassende integrierte Anwendungssysteme, die die Funktionalität von Administrations-, Dispositions- und Führungssystemen in sich vereinen, bezeichnet man heute als ERP-Systeme (Enterprise Resource Planning). Während früher der Informationsaustausch über Schnittstellen zwischen den Teilsystemen realisiert wurde, sind ERP-Systeme (teil)automatisierte, hochintegrierte Gesamtsysteme. Sie basieren auf Standardsoftware im Unternehmen bzw. bei einem IT-Dienstleister im Application Service Providing (ASP). Der weltweite Marktführer unter den Anbietern von ERPSystemen ist die deutsche SAP AG mit dem System mySAP ERP. Weitere Anbieter derartiger Systeme sind beispielsweise The Baan Company (Niederlande), Peoplesoft Inc. (USA), Oracle (USA) und Microsoft (USA). Im Abschnitt 11.5 wird auf diese Systeme näher eingegangen.
11.2 Führungsinformationssysteme Die in den Unternehmen und Organisationen vorhandene Informationsmenge verdoppelt sich ca. alle zwei Jahre. Neben der Verwendung in Anwendungssystemen kommt es deshalb darauf an,
den Einsatz des Produktionsfaktors Information über den operativen Bereich hinaus auszudehnen sowie
Information als strategischen Wettbewerbsfaktor zu nutzen. 458
Führungsinformationssysteme
11.2 Abbildung 11-9
Aufgaben der Infrastruktur Voraussetzung für die Nutzung von Information als Wettbewerbsfaktor ist eine Infrastruktur, die sicherstellt, dass
die richtigen Informationen zur richtigen Zeit in der erforderlichen Qualität richtig verarbeitet am richtigen Ort vorliegen.
Führungsinformationssysteme haben unter diesem Gesichtspunkt die in Abbildung 11-10 aufgeführten Zielstellungen zu erfüllen.
Zielstellungen von Führungsinformationssystemen
Abbildung 11-10
Die inhaltlichen Anforderungen, die sich daraus für Führungsinformationssysteme ergeben, bestehen in:
Anforderungen an FIS
einer vom operativen Bereich unabhängigen Daten- und Informationsbereitstellung,
459
11
Anwendungen
einer flexiblen Verwendbarkeit der Informationen (ad hoc Abfragen und komplexe Analysen),
der Berücksichtigung der zeitlichen Varianz sowie in der „Erkundung“ von Zusammenhängen. Diese Anforderungen führen zu so genannten Analytischen Informationssystemen. Werkzeuge Analytischer Informationssysteme sind Data Mining und OLAP (On-Line Analytical Processing), die auf der Basis von DataWarehouse-Konzepten arbeiten. Diese Werkzeuge sind in Abbildung 11-11 näher erläutert.
Abbildung 11-11
Werkzeuge Analytischer Informationssysteme
Data Warehouse Data-Warehouse-Konzepte verfolgen das Ziel, alle im Unternehmen zur Verfügung stehenden Informationen in einer konsistenten Datenbasis zusammenzufassen. Hierbei wird eine logische Zentralisierung angestrebt, die analytische Aufgaben des mittleren und oberen Managements unterstützt. 460
Führungsinformationssysteme
Dazu wird auf die operativen Datenbanken der Anwendungssysteme zurückgegriffen. Die Instrumente des Data Warehouse bereiten aus diesen internen und aus den externen Datenquellen die Informationen auf, die durch folgende Merkmale gekennzeichnet sind:
11.2 Zusammenfassung aller Informationen in einer Datenbasis
logische Integration und Homogenisierung, Merkmale der verarbeiteten Informationen
Themenorientierung, zeitbezogene Varianz, dauerhafte Sammlung von Informationen.
Abbildung 11-12
Schichtenarchitektur eines Data Warehouse
461
11
Anwendungen
Die Informationen eines Data Warehouse können sowohl für einen Direktzugriff bereitgestellt, als auch einer weiteren Verarbeitung (information factory) zugeführt werden. Darüber hinaus besteht wegen der Themenbezogenheit die Möglichkeit, einzelne Ausschnitte des Data Warehouse (data marts) gesondert zur Verfügung zu stellen. Die Abbildung 11-12* stellt die unterschiedlichen Schichten bei der Nutzung eines Data Warehouse dar. Die angestrebte Fähigkeit, analytische Prozesse unterschiedlicher Führungsebenen zu unterstützen, führt im Data Warehouse zu einer Datensammlung unterschiedlicher Abstraktionsstufen. Organisation und Steuerung werden durch Metadaten unterstützt. Daneben ist die Bereitstellung eines vergleichsweise kleinen Teils zeitpunktaktueller entscheidungsunterstützender Daten (Operational Data Store – ODS) vorgesehen, die die Auswertungswerkzeuge des Data Warehouse unterstützen sollen.
On-Line Analytical Processing (OLAP)
mehrdimensionale Sicht auf das Data Warehouse
Tabelle 11-2
Die Grundlage des On-Line Analytical Processing ist eine mehrdimensionale Sicht auf die im Data Warehouse vorhandenen Daten. Sie wird durch die Verknüpfung von Dimensionen und dazugehörigen Datenelementen bei geeigneter Indizierung erreicht. Damit entsteht für den Benutzer der Eindruck, dass er sich intuitiv in einem Hyperwürfel bewegt und beliebige Projektionen bilden kann. Der Nutzer kann also die gleichen Daten unter verschiedenen Gesichtspunkten betrachten. Die Abbildung 11-13 zeigt ein Beispiel zur Umsatzanalyse für Marketing-Strategien im Versandhandel. Eigenschaften von OLAP-Systemen nach Codd Eigenschaft
Anforderung
mehrdimensionale konzep-
Manipulation im mehrdimensionalen Datenraum
gleichgestellte Dimensionen
Übereinstimmung der Verwendungsmöglichkeiten der Dimensionen
kreuzdimensionale Operati-
Operationen für eine differenzierte Datenanalyse in den Hyperwürfeln auf der Basis einer geeigneten Datenmanipulationssprache
Client/Server-Architektur
Verlagerung von Daten auf Arbeitsplatzcomputer, verteilte Datenhaltung und verteilte Programmausführung
tionelle Sichten
onen
*
462
Vgl.: Mucksch, H.; Behme, W. (Hrsg.): Das Data Warehouse-Konzept – Architektur, Datenmodelle, Anwendungen. Gabler, Wiesbaden 1998, S. 45
Führungsinformationssysteme
Mehrbenutzerfähigkeit
Multi-User-Betrieb unter Berücksichtigung differenzierter Informationsverfügbarkeit für die einzelnen Benutzer
Transparenz
Einbettung der Abfrage-Werkzeuge in die Benutzerumgebung
intuitive Datenmanipulation
Ergonomische Benutzerführung und -oberfläche
flexibles Berichtswesen
Möglichkeiten, leicht und flexibel aussagefähige Berichte generieren zu können
frei wählbare Dimensions-
unbegrenzte Anzahl frei wählbarer Dimensionen, Relationen und Variablen als Idealziel
Zugriffsmöglichkeiten
Unterstützung des Zugriffs auf (möglichst viele) interne und externe Datenquellen
hohe Berichtsleistung
Stabilität der Antwortzeiten
dynamische Speicherverwal-
speichereffiziente Handhabung schwach besetzter Matrizen
und Aggregationsstufen
tung
Beispiel zur Umsatzanalyse für das strategische Marketing im Versandhandel mittels OLAP
463
11.2
Abbildung 11-13
11
Anwendungen
Data Mining Analyse des Datenbestandes zur Erkennung neuer Zusammenhänge, Entdeckung von Wissen
Ziel des Data Mining ist die Analyse des vorliegenden Datenbestandes, um bisher noch nicht bekannte bzw. nicht explizit dargestellte Zusammenhänge aufzufinden. Dazu sollen sowohl Regelmäßigkeiten als auch Auffälligkeiten identifiziert werden. Zu diesem Zweck werden die Merkmalsausprägungen von Attributen (einzelne Werte des Datenbestandes) untersucht. Es wird überprüft, ob Zusammenhänge zwischen den Ausprägungen einzelner Attribute existieren. Bei der Erkennung solcher Zusammenhänge handelt es sich um eine Form der Entdeckung von Wissen in umfangreichen Datenbeständen (Knowledge Discovery in Databases – KDD). Neben dem Data Mining werden weitere Instrumente interdisziplinär zum KDD herangezogen. Dazu gehören z. B. Expertensysteme mit der Fähigkeit des Wissenserwerbs und geeignete statistische Verfahren. Voraussetzung für Verfahren des Data Mining ist die Bereitstellung zur Analyse vorbereiteter Daten im Data Warehouse. Die Vorbereitung sorgt für einen Fehlerbereinigten und konsistenten Datenbestand, der Informationen in ausreichender Menge beinhaltet, um statistisch gesicherte Aussagen treffen zu können.
Ebenen des Data Mining
Data Mining wird über mehrere Ebenen hinweg durchgeführt:
Klassifikation Zuordnung von Daten zu bestimmten, vordefinierten Klassen
Clusterung Auffinden einer Klasseneinteilung auf der Basis eines Ähnlichkeitsmaßes
Explizierung von Wissen Untersuchung von Häufigkeiten des Auftretens von Attributkombinationen und Ableitung von Zusammenhängen (Auffinden von Regeln)
Abbildung 11-14
Data Mining Instrumentarien
statistische Verfahren Visualisierungstechniken Entscheidungsbäume Künstliche Neuronale Netze induktives Lernen genetische Algorithmen
464
Führungsinformationssysteme
11.2
Zusammenfassend kann festgestellt werden, dass Data Warehouse, On-Line Analytical Processing und Data Mining als Konzepte Analytischer Informationssysteme und damit von Führungsinformationssystemen einen Beitrag zur Flexibilisierung der Informationsbereitstellung und -versorgung für Fach- und Führungskräfte leisten können. Es wird möglich, Informationsund Wissensgewinnung (Wissensexplizierung) auf diese Art und Weise zu automatisieren. Die daraus resultierende intelligente und kreative Nutzung von unternehmensweit verfügbarem Wissen wird als Business Intelligence bezeichnet.
Strategisches Unternehmensmanagement mit mySAP Business Intelligence Als weltweit agierendes Softwareunternehmen hat die SAP AG aus eigener Notwendigkeit heraus seit 1998 ein Führungssystem zunächst mit der Bezeichnung SAP Strategic Enterprise Management (SAP SEM) realisiert. Bei der Konzeption des Systems wurde von folgenden Kernpunkten der Unternehmensführung ausgegangen:
wertorientierte Unternehmensführung Value Based Management, Wertzuwachs der Aktie als Führungsindikator
Kernpunkte der Unternehmensführung
Mitarbeiterbeteiligung am Unternehmenserfolg Vergütungsformen als Anreiz zur Steigerung des Unternehmenswertes und der Einzelleistung sowie zur Bindung der Mitarbeiter an das Unternehmen
strategische Orientierung auf Kunden und Partner langfristige Kunden- und Partnerbindungen im Vertrieb, in der Entwicklung und im Service sowie Minderheitsbeteiligungen und Bereitstellung von Risikokapital Hinsichtlich der betriebswirtschaftlichen Methoden zur strategischen Unternehmensführung sind im SAP SEM neben dem Value Based Management (economic profit, discounted cash flow usw.) weitere moderne und auch konventionelle Verfahren einsetzbar, wie beispielsweise
Balanced Scorecard, Activity Based Management, Target Costing, Portfolio Management, Risk Management. 465
betriebswirtschaftliche Methoden zur strategischen Unternehmensführung
11
Anwendungen
Als Führungssystem unterstützt das SAP SEM aus inhaltlicher Sicht alle Planungs- und Kontrollfunktionen im Führungsprozess, wie unterstützte Planungs- und Kontrollfunktionen
strategische Planung, Budgetplanung, Konzernkonsolidierung, Performance-Überwachung, Stakeholder Relationship Management.
Customer Relationship Management (CRM) Systeme
Management von Kundenbeziehungen
Tabelle 11-3
Ein besonders breiter Einsatz der methodischen Instrumentarien für Führungsinformationssysteme (Data Warehouse, OLAP, Data Mining usw.) liegt im profitablen Bereich des Managements von Kundenbeziehungen. Anwendungssysteme zur ganzheitlichen Unterstützung von Marketing, Verkauf und Service werden Customer Relationship Management Systeme (CRMSysteme) genannt. Sie integrieren und koordinieren alle kundenorientierten Prozesse, die bislang in getrennten Systemen unterstützt wurden. Einige dieser Systeme sind in Tabelle 11-3 aufgeführt.
CRM-Systemarten Systemart
Einsatzbereich
Computer Aided Selling
Verkaufsunterstützung
Sales Force Automations
Unterstützung des Außen- und Innendienstes im Marketing und Verkauf
Computer Telephony
Integration von Telekommunikationsanlagen mit Computernetzwerken
Customer Integration
interaktives Kundenmanagement durch CallCenter oder über Internet (Auskunftserteilung, Auftrags- und Akquisitionsabwicklung, Beschwerde-, Reklamations- und Servicemanagement)
Database Marketing
computergestütztes Kampagnenmanagement und Marktbearbeitung
Geografische Informati-
Analyse und Visualisierung von regionalen Daten
Service Automation
Vertragsverwaltung, Beschwerde- und Reklamationsmanagement, Controlling und Spesenmanagement
(CAS) Systeme
(SFA) Systeme
Integration (CTI) Systeme
Software (CIS) Systeme
Systems (DMS)
onssysteme (GIS)
Systems (SAS)
466
Führungsinformationssysteme
11.2
Grundsätzlich sind CRM-Systeme ausgerichtet auf die
Datenbereitstellung und Datenanalyse Kunden- und Vertriebsdaten, Data Warehousing, OLAP, Data Mining, Business Intelligence usw.
Marketingunterstützung Planung, Durchführung und Analyse von Marketingkampagnen, CallCenter, E-Commerce, Elektronische Produktkataloge usw.
Geschäftsprozessverbesserung Koordination der Marketing-, Vertriebs- und Serviceprozesse, Kontaktund Vertragsmanagement, Reports, Controlling usw. Eine konsequente Einbindung der globalen Infrastruktur des Internet in die CRM-Systeme wird mitunter durch die Bezeichnung eCRM zum Ausdruck gebracht. CRM-Systeme sind auf den Kunden fokussierte Gesamtsysteme, da sie neben den administrativen und dispositiven Aufgaben auch Führungsaufgaben unterstützen. Weltweiter Marktführer ist Siebel Systems (USA) mit integrierten Anwendungen für Vertrieb, Außendienst, Marketing, Kundenmanagement, Telemarketing und E-Commerce. Siebel Systems wurde 2005 von der Oracle Corporation übernommen. Die SAP AG realisiert Geschäftsszenarien für das Customer Relationship Management durch mySAP CRM als Bestandteil der mySAP Business Suite (Abschnitt 11.5). So sind beispielsweise die Szenarien
Internet-Verkauf, Außendienstunterstützung im Verkauf, Außendienstunterstützung im Service und Geschäftspartner-Kooperation implementiert. Das Erscheinungsbild von CRM-Systemen kann natürlich stark von den Produkt- und Kundenbesonderheiten abhängen. Darüber hinaus müssen sich diese Systeme den gegebenenfalls stark veränderten Marktbedingungen anpassen. So steht z. B. die deutsche Versorgungswirtschaft, speziell die Elektrizitäts- und Erdgasversorgung, vor dem Hintergrund der Liberalisierung des Energiemarktes in Europa, d. h. der Schaffung eines europäischen Binnenmarktes für Elektrizität und Erdgas, vor enormen Herausforderungen. Die Richtlinien der EU fordern eine Trennung von Erzeugung und Transport von Elektrizität bzw. eine Trennung von Fernleitung, Verteilung und Speicherung von Erdgas. Neben der finanztechnischen Trennung (z. B.
467
Liberalisierung des Energiemarktes
11
Anwendungen
getrennte Kontenführung in der Buchhaltung) innerhalb der Versorgungsunternehmen findet ein Prozess der Aufspaltung der Versorger in eigenständige Unternehmen (Erzeuger, Übertragungsnetzbetreiber, Abrechnungsdienstleister, Händler usw.) statt. Hieraus resultieren insgesamt ein höherer Verwaltungsaufwand und ein verstärkter Informationsaustausch, der nur durch veränderte bzw. neue IT-Anwendungen bewältigt werden kann. Allen Marktteilnehmern, die Endkunden ausgenommen, muss in Abhängigkeit ihrer fachlichen Aufgaben eine Unterstützung durch Anwendungssysteme ermöglicht werden.
Tabelle 11-4
unterstützende Systeme im Energiesektor administrativer und dispositiver Bereich
Geografische Informationssysteme /
zur Netzdokumentation
Netzleitsysteme
zur Kontrolle der Elektrizitäts- und Erdgasnetze
Durchleitungsmanagementsysteme
für die Zuordnung Kunde/Zählerpunkt, Kunde/Händler und die Vertragsprüfung
Fahrplanmanagementsysteme
zur Terminierung geplanter Einspeisungen und Entnahmen
Zählerdatenmanagementsysteme
zur Speicherung der Verbrauchsinformationen
Netzinformationssysteme (GIS/NIS)
Führungsbereich
Risikomanagementsysteme
für Erzeuger, Netzbetreiber und Händler zur Planung und Kontrolle von Energie- und Finanzströmen im liberalisierten Energiemarkt
Energiebezugsmanagementsysteme
für Händler und Netzbetreiber zur Koordination des Energiebezugs aus Pflichtabnahme und über Spotmärkte (Spotmärkte dienen dem Ausgleich von Spitzenlast über eine Strombörse zur kurzfristigen Stromeinspeisung)
Die Kundenorientierung erfolgt dann für alle Marktteilnehmer in so genannten Customer Care and Billing Systemen (Kundenmanagement- und Abrechnungssystemen), wobei vorrangig mit den Komponenten Systeme zur Kundenbetreuung
Analysemanagement Kontaktmanagement 468
Bürosysteme
11.3
Kampagnenmanagement Beschwerdemanagement die CRM-Funktionalität in der Kundenbetreuung realisiert wird.
11.3 Bürosysteme Bürosysteme (Bürokommunikationssysteme, BK-Systeme) sind Anwendungssysteme, die Bürotätigkeiten unterstützen. Anwendungsfelder von Bürosystemen sind aus Abbildung 11-15 ersichtlich.
Anwendungsfelder von Bürosystemen
Abbildung 11-15
individuelle Informationsverarbeitung
Office-Pakete
Bürosysteme unterstützen die individuelle Arbeit durch Basisfunktionalitäten zur Textverarbeitung, Tabellenkalkulation, (eingeschränkten) Datenbankanwendung, Gestaltung von Präsentationen sowie zur Verwaltung persönlicher Aufgaben, Termine, Kontakte und Adressen. Software, die diese Funktionalitäten realisiert, wird unter dem Begriff Office-Paket zusammengefasst. Schwierigkeiten macht dem Einsteiger häufig die Fülle der angebotenen Funktionen, von denen häufig nur ein geringer Teil genutzt wird. Ein weiteres Problem sind die häufigen Versionswechsel, die neue inkompatible Datenformate und einen immer größeren Funktionsumfang mit sich bringen. Die jeweils verkündete Verbesserung der Benutzbarkeit (usability) wird kaum erreicht. Eine Steigerung der Pro-
469
11
Anwendungen
duktivität im Büro konnte durch die Anwendung von Office-Paketen bislang nicht immer nachgewiesen werden.
computergestützte kooperative Arbeit Wesentliche Produktivitätssteigerungen lassen sich dagegen mit den Anwendungssystemen zur Unterstützung kooperativer Arbeit (Computer Supported Cooperative Work – CSCW) erzielen. Diese Systeme fördern die Kommunikation, Kooperation und Koordination innerhalb verteilter Geschäftsprozesse.
Informations- und Wissensmanagement Anwendungssysteme für das Informations- und Wissensmanagement richten sich auf die ziel- und adressatengerechte, wirtschaftliche Akquisition, Erfassung und Bereitstellung von Informationen und (zunehmend) von explizit verfügbarem Wissen.
Abbildung 11-16
typische Symptome und Ursachen für Probleme bei der Büroarbeit
Ausgangspunkt für den Einsatz von Bürosystemen sind die auftretenden Probleme bei der Büroarbeit. Die typischen Symptome und ihre Ursachen stellt die Abbildung 11-16 dar.
470
Bürosysteme
11.3
Im Folgenden werden Konzepte und Instrumentarien zur Lösung dieser Probleme mit Hilfe des Einsatzes von Informations- und Kommunikationssystemen (speziell Bürosystemen) vorgestellt. Auf Aspekte der Verbesserung von Geschäftsprozessen wurde bereits in Kapitel 8 eingegangen. In diesem Abschnitt werden in erster Linie Anwendungssysteme behandelt.
Unterstützung der Kommunikation, Kooperation und Koordinierung Die Tabelle 11-5 enthält eine prinzipielle Charakteristik der grundlegenden Mechanismen in einem Unternehmen und zwischen den Wirtschaftssubjekten.
Tabelle 11-5
Konzepte für das Zusammenwirken verteilter Geschäftsprozesse Konzept
Erläuterung
Kommunikation
Durch Kommunikation werden Informationen zwischen Elementen eines Systems (Institutionen, Personen, Maschinen) übertragen.
Kooperation
Kooperation ist die Zusammenarbeit von am Wirtschaftsleben beteiligten Personen und Institutionen zur Erreichung gemeinsamer Ziele.
Koordination
Die Durchführung umfassender Kommunikations- und Kooperationsaufgaben erfordert die Steuerung der Einzelaktivitäten. Koordination ist das Management von Abhängigkeiten zwischen den Aktivitäten. Sie dient der Integration verschiedener Ressourcen in verteilten Geschäftsprozessen.
Bürosysteme unterstützen die betriebliche Kommunikation, Kooperation und Koordination. Die dabei verwendeten Informationstechnologien (IT) werden in den drei folgenden Tabellen erläutert.
Tabelle 11-6
IT-gestützte Kommunikation
Grundprinzipien
í asynchrone Kommunikation í synchrone Kommunikation
471
11
Anwendungen
í Daten, Text, Bilder, Audio, Video
einsetzbare Medien
í dreidimensionale Darstellungen
Basistechnologien für asynchrone Kommunikation
í Mail-Systeme (E-Mail, Voice-Mail, VideoMail) í WWW í Mitteilungsdienste (Newsgroups, Bulletin Boards) í Workflow-Arbeitsliste
Basistechnologien für synchrone Kommunikation
í Audio/Video-Multicast í gemeinsam sichtbare / bearbeitbare Dokumente und Anwendungen (Shared Screen, Joint Applications) í virtuelle Skizzentafeln und Speicherbereiche (Shared Whiteboard, Shared Work Spaces) í Chat
Tabelle 11-7
IT-gestützte Kooperation
Grundprinzipien
í ein gemeinsames Ziel, das alle Beteiligten anstreben í Offenheit: Informationen und sonstige Ressourcen werden anderen Teilnehmern zur Verfügung gestellt. í Kooperation über Kommunikationsnetze = Telekooperation
Gegenstände
í gemeinsame Aufgabenbearbeitung (Teamarbeit) í arbeitsteilige, getrennte Aufgabenbearbeitung (Vorgangsbearbeitung) í Transaktion zwischen Leistungsanbieter und Leistungsnachfrager (Commerce) í Bereitstellung und Teilung von Informationen und Wissen (Informations- und Wissensmanagement)
Basistechnologien
í Groupware (Autorensysteme, Konferenzsysteme, Fernlernsysteme) í Workflow-Management-Systeme í Datenaustausch (EDI), Beschaffungssysteme (EProcurement), Management von Lieferantenketten (SCM), Portale, virtuelle Marktplätze, Online-Shops í Dokumenten-Management, Data Warehouse, Inhalts(Content)-management, Wissens-(Knowledge)management
472
Bürosysteme
Tabelle 11-8
IT-gestützte Koordination
Grundprinzipien
11.3
í Synchronisation divergierender Ergebnisse í Abstimmung von Teilhabern in verteilten Geschäftsprozessen (aktives Schnittstellenmanagement) í Ausrichtung von Aufgabenträgern (Agenten) und Aktivitäten auf Ziele
Gegenstände
í Termine (Gruppenbesprechungen) í Ressourcen (Ressourceneinsatzplanung) í Kontakte í Projekte (Beteiligte, Ressourcen, Dokumente, Termine) í Adressen í Aufgaben í Abfolge von Aktionen í Rollen í Rechte
Basistechnologien
í elektronischer Kalender í Besprechungsplanung mit Terminvorschlägen í Ressourcenreservierung í Projektmanagement-Tools í Adressverwaltung í Verzeichnisdienste (Rollen, Rechte) í Aufgabendelegierung und -rückmeldung (Taskmanagement) í Workflow-Management-Systeme
Innerhalb der Unterstützung kooperativer Arbeit wird nach strukturierten und unstrukturierten Tätigkeiten unterschieden. Bei einer unstrukturierten Arbeit sind der Lösungsweg, die jeweiligen Kooperationspartner, die Informationsquellen und die einzusetzenden Lösungsverfahren weitgehend offen (siehe auch Tabelle 11-9). Die Vorgangsbearbeitung gehört zu den Methoden der strukturierten Kooperation, während Teamarbeit den unstrukturierten Verfahren zuzuordnen ist. Die Gemeinsamkeiten und wesentlichen Unterschiede der beiden Methoden stellt die Tabelle 11-10 dar.
473
strukturierte und unstrukturierte Tätigkeiten
11
Anwendungen
Tabelle 11-9
Beispiele kooperativer Tätigkeiten* zyklisch strukturiert häufig: Wochenbericht, Kostenrechnung selten: Jahresabschlussbericht
einmalig
häufig: Buchungen Wareneingang
Konkursbilanz
selten: Inventarliste aktualisieren
häufig: Verbalteil teilstrukturiert Monatsabschlussbericht selten: Verbalteil Jahresabschlussbericht Analyse Inventurdiffeunstrukturiert renzen
Tabelle 11-10
azyklisch
häufig: Auftragsbearbeitung, Mitzeichnungsverfahren
Neustrukturierung des Bereichs Marketing
selten: Projektbearbeitung Forschungs- und Entwicklungsanalyse und -bericht
Analyse eines bisher unbekannten Problems
Vergleich von Vorgangsbearbeitung und Teamarbeit Merkmal
Vorgangsbearbeitung
Teamarbeit
Grundprinzip
Definierte Abfolge der Arbeitsstationen. Die Teilaufgaben werden arbeitsteilig, relativ unabhängig von der Arbeit der Partner gelöst. Die Aufgaben werden durch äußere Ereignisse (meist Dokumente) angestoßen. (Inputorientiert)
Ermöglicht das prozessorientierte Arbeiten zur gemeinsamen Aufgabenlösung in Teams, die räumlich verteilt sind. Entscheidend ist das Ergebnis, nicht der Weg. (Outputorientiert)
Strukturiertheit / Lösungsweg
definierte Bearbeitungsverfahren (strukturiert)
Der Lösungsweg ist vorwiegend offen. (unstrukturiert)
Partner
Partner sind bekannt
Team ist offen
Wiederholungsgrad
hoch
gering
Steuerung
Das System weiß, was durch wen womit zu tun ist.
Der Mitarbeiter agiert.
*
474
Rathgeb, M.: Einführung von Workflow-Management-Systemen. In: Hasenkamp, U.; Kirn, S.; Syring, M. (Hrsg.): CSCW Computer Supported Cooperative Work. Addison-Wesley, Bonn 1994, S.56
Bürosysteme
unterstützende Technologie
Workflow-ManagementSysteme
Groupware
Informationsbedarf
definiert
eher unbekannt
Informationsbeschaffung Der Benutzer wird mit Daten versorgt. (Push-System)
11.3
Das System stellt Informationen zur Verfügung. Der Mitarbeiter hat die Holschuld. (PullSystem)
Workflow-Management Die Unterstützung strukturierter Aufgaben durch die teilautomatisierte Vorgangsbearbeitung wird teilweise verglichen mit der Fließbandarbeit im Fertigungsbereich. Das System (Workflow-Programm) weiß, wer welche Teilaufgabe mit welchen Daten und Programmen auszuführen hat. Diese Art der Vorgangsbearbeitung wird auch als Produktionsworkflow bezeichnet. Kritiker sprechen auch von einer elektronischen Rohrpost. Dennoch findet diese Technologie zunehmende Verbreitung. Die teilautomatisierte Vorgangsbearbeitung besitzt folgende Vorteile:
Der Workflow macht innerbetriebliche Strukturen transparent. Der innerbetriebliche Transport von Dokumenten entfällt weitgehend. Die Qualitätssicherung wird durch die Protokollierung aller Aktivitäten unterstützt.
Geschäftsprozesse werden durch die Definition der Vorgangsbearbeitung standardisiert. Die Abbildung 11-17 zeigt den Zyklus der Modellierung und Implementierung sowie die Anwendung des Workflows. Die drei Phasen werden nachfolgend erläutert.
Workflow-Modellierung und Implementierung Die erste Aufgabe bei der Einführung des Workflow-Managements ist die Modellierung der Vorgangsbearbeitung als Grundlage für deren Implementierung. Das Workflow-Management-System (WFMS) enthält als Komponente ein (meist grafisches) Definitionswerkzeug mit dessen Hilfe zunächst die Organisationsstruktur des Unternehmens modelliert wird. Dazu werden Rollen (Befugnisse) definiert und den einzelnen Mitarbeiter bzw. Stellen zugeordnet.
475
teilautomatisierte Vorgangsbearbeitung
Vorteile des WorkflowManagements
11 Abbildung 11-17
Tabelle 11-11
Anwendungen
Zyklus des Workflow-Managements
festzulegende Prozesseigenschaften
Funktionen
Was soll ausgeführt werden?
Ablaufverhalten
Wann wird ein Schritt ausgeführt?
Ausführende
Wer kann einen Schritt ausführen?
Programm
Wie wird der Schritt ausgeführt?
Ressourcen
Was wird benötigt?
Historie
Was hat sich verändert? (Protokollfunktion)
Im Workflow-Modell sind dann als Präzisierung des Geschäftsprozessmodells die in der Tabelle 11-11 dargestellten Prozesseigenschaften festzulegen. Ressourcen können beispielsweise Anwendungssysteme, Daten oder Dokumente sein. Das Workflow-Modell muss von einer Ausführungsmaschine (Workflow Engine) interpretiert werden können. Dazu ist eine Umsetzung in die Sprache der Ausführungsmaschine erforderlich. Günstig ist eine direkte Interpretation der grafischen Notation des Modells.
Ausführungsmaschine
476
Bürosysteme
11.3
Vorgangssteuerung
(Anwendung des Workflow-ManagementSystems) Die Anwendung des WFMS steuert die arbeitsteilige Ausführung der Aufgaben der Vorgangsbearbeitung entsprechend der festgelegten Reihenfolge durch die einzelnen Bearbeiter(gruppen) mit den jeweiligen Anwendungen, Daten und Archiven. Die Bearbeiter erhalten über ihren Postkorb eine Arbeitsliste der zu bearbeitenden Dokumente. Der Zugriff auf gemeinsame Objekte wird idealer weise automatisch vom System synchronisiert. Das WFMS sollte eine Ausnahmebehandlung zulassen. Angestrebt wird eine hohe Flexibilität in der (Neu- oder Ad-hoc-) Definition des Arbeitsflusses, um veränderten Geschäftsbedingungen und der fallweisen Entscheidung über die Vorgangsbearbeitung entsprechen zu können.
Monitoring Alle Vorgänge werden vom System protokolliert. Dies erlaubt sowohl eine Statusabfrage über den Bearbeitungsstand als auch eine
Protokollierung aller Vorgänge
Nachforschung im Bedarfsfall. Neben der Verfolgung der Historie einzelner Vorgänge können auch verdichtete Daten, z. B. die durchschnittliche Durchlaufzeit oder die durchschnittliche Bearbeitungszeit, für die einzelnen Teilaufgaben ausgewertet werden. Das erlaubt Rückschlüsse über Schwachstellen im Prozess. Damit kann gezielt durch eine Überarbeitung des Geschäftsprozesses oder durch den Einsatz neuer Technologien eine Prozessverbesserung erreicht werden.
Die Einführung eines WFMS unterliegt der Mitbestimmung des Betriebsrates / Personalrates. Dabei werden häufig Einschränkungen in der personenbezogenen Aufzeichnung und Auswertung der Monitoring-Daten vereinbart.
Datenschutz
Informations- und Wissensmanagement Neben der Anwendung der Informationstechnologie für die Kommunikation, Kooperation und Koordinierung verteilter Geschäftsprozesse wurde das Management der Informationen und des Wissens als wesentliches Aktionsfeld der Bürosysteme erkannt und entsprechende IT-Lösungen entwickelt, von denen die wichtigsten in Abbildung 11-18 dargestellt sind.
477
Informationsund Wissensmanagement
11 Abbildung 11-18
Anwendungen
Methoden in der Wissens- und Informationsversorgung
Durch den vielfältigen Einsatz von Papierdokumenten in der Büroarbeit entsteht eine Reihe von Schwierigkeiten, wie die folgende Abbildung zeigt. Abbildung 11-19
Probleme bei der Nutzung des Speichermediums Papier
Papier geht verloren. Papier ist unvollständig. Papier ist im Umlauf. Papier wurde falsch abgelegt. Papier wird zu langsam transportiert. Papier wird falsch zugeleitet. Papier muss zur gleichzeitigen Information kopiert werden. Papierbestände müssen verwaltet und gepflegt werden. elektronische Verwaltung von Dokumenten
Viele dieser Schwierigkeiten treten auch bei elektronischen Dokumenten auf. Diese bieten jedoch die Möglichkeit der Automatisierung. Es ist also erforderlich, die Daten elektronisch zu verwalten, um Medienbrüche zu vermeiden und den Aufwand zur Informationssuche deutlich zu senken. In der Abbildung 11-20 wird der prinzipielle Ablauf der Übertragung von Papierdokumenten in die elektronische Informationsverwaltung dargestellt.
478
Bürosysteme
11.3 Abbildung 11-20
Prinzipablauf von Imaging, Indizierung und Archivierung
Imaging Die Funktion Imaging dient der Digitalisierung der in Papierform in ein Unternehmen eingehenden Dokumente. Es wird ein Abbild (Image) des Papierdokuments erzeugt. Dieses Abbild entspricht dem Original. Es wird nicht verändert. Es sind lediglich Anmerkungen (Annotationen) quasi als Notizzettel ergänzend zulässig. Die Digitalisierung erfolgt mit Hilfe von Scannern (mit automatischem Papiereinzug und hoher Verarbeitungsgeschwindigkeit). Die nicht codierten Daten (NCI) werden für die Indizierung und die Sachbearbeitung auf Plattenspeichern abgelegt. Eventuell erfolgt (zusätzlich) eine Umwandlung (Konvertierung) der nicht codierten Daten in codierte Daten (CI) über ein Texterkennungsprogramm. Gründe für eine derartige Konvertierung beschreibt die Abbildung 11-21.
Digitalisierung papierner Dokumente
Indizierung Für die spätere Recherche nach Dokumenten müssen deren Metadaten definiert oder aus den Dokumenten ausgelesen werden. Die Metadaten charakterisieren die inhaltliche Zugehörigkeit der Dokumente. Bei massenhaft anfallenden Dokumenten sind solche Merkmale z. B. Kontonummer, Kundennummer, Rechnungsnummer, Dokumententyp und 479
Festlegung der Metadaten von Dokumenten
11
Anwendungen
dergleichen. Schwieriger ist die Festlegung der Deskriptoren (standardisierte Schlagworte) bei komplexen Dokumenten, die in verschiedenen Situationen eingesetzt und fallspezifisch gesucht werden sollen. Daher sind Regeln der Indizierung und eine Sammlung der Deskriptoren als so genannter Thesaurus zu bestimmen. Bei standardisierten Dokumenten (z. B. Formulare) kann der Prozess der Indizierung stark automatisiert werden.
Abbildung 11-21
Gründe für die Nutzung von Texterkennungsprogrammen
Es soll eine Weiterverarbeitung der Daten mit einem Programm erfolgen (z. B. bei Texten oder Berechnungen).
Daten eines Dokuments sollen für die automatische Steuerung der Vorgangsbearbeitung ausgewertet werden (z. B. Identifizierung von Adressen).
Es soll eine Suche nach allen in einem Dokument vorkommenden signifikanten Wörtern ermöglicht werden (Volltextrecherche).
Archivierung Langzeitspeicherung der elektronischen Dokumente
Nach der aktiven Phase der Sachbearbeitung werden die elektronischen Dokumente auf Nur-Lese-Speichern (CD-R, WORM) für die Langzeitspeicherung archiviert. Die im Bearbeitungsprozess erzeugten Dokumente werden gemeinsam mit den Eingangsdokumenten in „digitalen Mappen“ an das Archiv übergeben.
Dokumentenmanagement Verwaltung der Dokumente
Die Komponente Dokumentenmanagement (im engeren Sinne) ist u. a. verantwortlich für eine Reihe von Funktionen, die in der Tabelle 11-12 beschrieben sind.
Recherchesysteme Auffinden bestimmter Informationen
Abbildung 11-22
Die Zielstellung ist, die richtige Information zum richtigen Zeitpunkt am richtigen Ort bereitzustellen. Dazu sind Mechanismen zum Wiederauffinden bzw. Adressieren der Dokumente und deren Inhalte erforderlich (Information Retrieval, Suchmaschinen). Suchprinzipien von Recherchesystemen
rudimentäre Suche über Laufzettel mit dem Verweis auf das entsprechende Dokument,
Suche über Metadaten (Indizes, Attribute) Suche über Inhalte (Volltext, Mustererkennung, Balkencode)
480
Bürosysteme
Tabelle 11-12
Funktionen des Dokumentenmanagements
Versionsverwaltung
dokumentiert die Veränderungen an den erzeugten Dokumenten
Import und Export von Do-
sichert die Integration zwischen dem Archivierungssystem und den Anwendungen
Check-out und Check-in
sichern die Integrität der Dokumente (Sperrfunktion) vor und nach einer Veränderung des Dokumentes
Verteiler und Laufzettel
übernehmen den automatischen Dokumentenlauf
Protokollierung der Status-
der „lebenden“ (noch in Bearbeitung befindlichen) und der archivierten Dokumente
Unterstützung zahlreicher
z. B.: digitalisierte Sprache, Video, Fotografien, Bildschirmausgaben, Listen, Fax
kumenten
veränderungen
Formate und Medien
11.3
Im Extremfall besteht der Index aus der Gesamtheit der im Dokument vorkommenden Wörter, dem Volltextindex, für den inhaltlich motivierten Zugriff auf Dokumente. Die Suche kann auch navigierend über Links erfolgen. Bei nicht gültigen Schlagworten – der Benutzer kennt die Deskriptorenliste nicht – kann automatisch ein interner Verweis auf einen Deskriptor erfolgen (Synonymersetzung).
Inhaltsmanagement Als Inhaltsmanagement (Content Management) bezeichnet man die inhaltliche Unterstützung des elektronischen Publizierens über das Internet, Intranet oder Extranet. Dabei soll es den dezentralen Stellen einfach möglich sein, Inhalte in den neuen Medien zu publizieren, ohne sich mit den technischen Problemen des Layouts oder der Verwaltung der Seiten und Dateien befassen zu müssen. Dabei ist zu sichern, dass die Designvorgaben (Corporate Identity) des Unternehmens bzw. der Organisation und die Freigaberegelungen durch ein abgestuftes Freigabekonzept über einen integrierten Workflow eingehalten werden. Nur mit solchen komfortablen Mitteln und – noch wichtiger – mit einer entsprechenden offenen Unternehmenskultur wird es möglich, dass die Informationen im Netz für die Adressaten bereitgestellt und vor allem auch aktuell gehalten werden können. Durch die Trennung von Inhalt und Layout werden die Konvertierung unterschiedlicher Formate und die Recherche nach Informationen wesentlich beschleunigt und vereinfacht.
481
elektronische Publikation
11
Anwendungen
Wissensmanagement In letzter Zeit nimmt das Thema Wissensmanagement (Knowledge Management) in der Presse einen immer breiteren Raum ein. Die Abbildung 11-23 stellt die einzelnen Komponenten des Wissensmanagements dar. Ausgangspunkt ist die Erkenntnis, dass das Wissen der Mitarbeiter das wichtigste Kapital einer Firma darstellt. Vor allem in großen Firmen ist es von Bedeutung zu erkennen, welche Mitarbeiter über spezielles Wissen und Erfahrungen verfügen, um sie für bestimmte Projekte heranzuziehen. Es wird daher eine Datenbank der Wissensträger angelegt.
Abbildung 11-23
Komponenten des Wissensmanagements
Wesentlich schwieriger gestalten sich die Akquisition der Wissensinhalte der Mitarbeiter (implizites Wissen) und deren Aufbereitung für den Zugriff im Bedarfsfall. Ein großer Wissensvorrat an betriebswirtschaftlichem, technischem sowie auch Prozesswissen ist in den Anwendungssystemen der Unternehmen im Programmcode verborgen. Es ist schwierig, die Mitarbeiter dafür zu gewinnen, ihr Wissen (z. B. im Ergebnis von Projekten oder im Ergebnis der Problemlösung von Supportaufgaben) zu dokumentieren. Die Dokumentation führt zu zusätzlicher Arbeit und das eigene Wissen entwertet sich durch die freie Verfügbarkeit. Es müssen ein entsprechendes Klima und Regelungen geschaffen werden, die sicherstellen, dass eine Aufgabe erst mit der Dokumentation des Wissenszuwachses abgeschlossen ist. Eine Datenbank der Lösungen kann dann auch zu einer deutlichen Beschleunigung der Problemlösung bei einem verteilten Zugriff durch die verschiedenen Teams führen. Dabei ist natürlich ein aufgabengerechter Zugang zur Wissensdatenbank erforderlich. Es sind im Unternehmen Rollen zu definieren, welche die Rechte und Pflichten der Rollenträger im Hinblick auf die Wissensdatenbank definieren und überwachen. Softwarelösungen für das Wissensmanagement basieren häufig auf einer Groupware-Plattform, wie z. B. Lotus Notes. Andere Lösungen knüpfen an Tools zur Geschäftsprozessmo-
482
Telematik
11.4
dellierung an. Der Vorteil dieses Ansatzes ist, dass Prozesswissen in Form der Prozessmodelle dargestellt wird. Damit ist das verfügbare – oder neu zu modellierende – Wissen als Wissensbasis bereits in dem Tool abgelegt. Das Tool verwaltet die Wissensträger, die Rollen der Teilnehmer und das auf diese zugeschnittene Wissen (Personalisierung).
11.4 Telematik Der Begriff Telematik setzt sich aus den Bestandteilen TELEkommunikation und InforMATIK zusammen. Telematik setzt die Kommunikationstechnik und die Möglichkeiten der Informatik ein, um über größere Entfernungen (griech. tele – fern, weit) Informationen zu verarbeiten. Im weiteren Sinne umfasst Telematik Anwendungen und Systeme zur Datenfernübertragung (Kapitel 5 – Netze). Im allgemeinen Sprachgebrauch wird der Begriff Telematik häufig synonym für Verkehrstelematik, d. h. den Einsatz von Informations- und Kommunikationssystemen für die Verkehrsinformation und beeinflussung verwendet. Telematik beinhaltet jedoch noch viele weitere Gebiete, von denen einige in diesem Abschnitt ebenfalls erläutert werden sollen. Telematik-Anwendungen kombinieren entsprechend ihrer Ausprägung verschiedene Eigenschaften von Querschnitts- und Führungssystemen und lassen sich deshalb keinem dieser Systeme eindeutig zuordnen. Kollaborative Technologien bilden einen Schwerpunkt der Telematik-Querschnittssysteme.
Kollaborative Technologien Zum Begriff der kollaborativen Technologien existieren synonyme Begriffe wie Collaboration Technologies, CSCW-Technologien und Groupware. Kollaboration bezeichnet die Zusammenarbeit von mindestens zwei Personen, welche ein gemeinsames oder mehrere aneinander gekoppelte Ziele verfolgen. Technologien, welche diese Zusammenarbeit durch eine interpersonelle Kommunikation, Kooperation oder Koordination von räumlich getrennten Personen ermöglichen, werden kollaborative Technologien genannt. Aus einer Begriffsdiskussion von Bannon et al. geht hervor, dass jede Forschungsaktivität im Bereich CSCW durch die beiden Hauptbestandteile Computer Support und Cooperative Work bestimmt wird. Diese Informatikdisziplin fokussiert somit die Untersuchung der Interaktion zwischen Menschen und deren Verhalten. Technologische Aspekte treten in den Hintergrund. Sie unterstützen die Kooperation, Kommunikation und
483
Kooperation, Kommunikation und Koordination von Menschen
11
Anwendungen
Koordination von Menschen. Die Beurteilung der durch kollaborative Technologien geschaffenen Möglichkeiten erfolgt dabei unter Berücksichtigung von organisatorischen, psychologischen, technologischen sowie ökonomischen Aspekten. Weitere in Literatur und Praxis zumindest sinngemäß verwandte Begriffe sind Coordination Technologies, Collaborative Computing, Cooperative Computing, Workgroup Computing und Computer Mediated Communication.
Aufgabenspektrum kollaborativer Technologien
Bedeutung Das Spektrum der Aufgaben, die mittels kollaborativer Technologien heute bewältigt werden können, geht weit über Teamarbeit, gemeinsame Dokumentenerstellung und Aufgabenverarbeitung hinaus. Unterstützung von Service- und Support-Prozessen, virtuelle Messen, Online-Beratung und eine dialogorientierte, multimediale Kundenansprache sind nur einige Beispiele zeitgemäßer Verwendung. Ausgangspunkt für die Verbreitung und Adaption der kollaborativen Technologien ist die Systemtheorie, welche besagt, dass für diese Informationsund Kommunikationstechnologien positive Netzwerkeffekte gelten. Das bedeutet, je mehr Beteiligte eine Technologie zu einem Netzwerk verknüpfen, umso nutzbringender wird diese für die einzelnen Teilnehmer, da mehr potenzielle Kommunikationspartner zur Verfügung stehen. Dieser Zusammenhang ist als Metcalfe’s Law bekannt. Die zunehmende Durchdringung der Unternehmen durch Informations- und Kommunikationstechnologien steigert demnach den potenziellen Nutzen derselben und ermöglicht neue Formen der Zusammenarbeit und Arbeitsteilung sowie neue Möglichkeiten der Abwicklung von Geschäftsprozessen. Kollaborative Technologien bieten folgende Vorteile:
Beschleunigung von Informationsaustausch einfacher Zugriff auf neue Informationen Erreichbarkeit vieler Rezipienten zur gleichen Zeit erhöhte Anzahl potenzieller Diskussionsteilnehmer erleichterte Kontaktaufnahme Durch den verbesserten Informationsfluss resultiert ein Anstieg an Umfang, Qualität, Flexibilität, Verfügbarkeit und Vollständigkeit der Informationsversorgung. Mit der daraus folgenden Verringerung von Redundanzen und Medienbrüchen kann eine Produktivitätssteigerung oder Kosteneinsparung erreicht werden. Zudem sind viele der kollaborativen Technologien internetbasiert und aufgrund der bekannten Internetvorteile wie preiswerter 484
Telematik
11.4
globaler Zugang und Verbreitung sowie zeitliche Unabhängigkeit unverzichtbar. Ebenso ist das Potenzial zur Reisekostenreduktion erheblich. Klassifizierung Kollaborative Technologien werden auf zwei verschiedene Arten eingeteilt. Die erste Unterteilung legt die Interaktionsformen der Benutzer zugrunde und unterscheidet nach Raum und Zeit der Benutzeraktionen. Sie wird als Raum-Zeit-Taxonomie bezeichnet (Tabelle 11-13).
Unterteilung durch Interaktionsformen
Klassifikation von kollaborativen Technologien nach der Raum-Zeit-Taxonomie
Tabelle 11-13
am gleichen Ort
zur gleichen Zeit (synchron)
zu unterschiedlichen Zeiten (asynchron)
í Elektronische Sitzungsräume
í E-Mail
í Group Decision Support Systems
í TerminkalenderManagement
í Präsentationssoftware
í Document Management Systems í Workflow Management Systems
í Audio- und Videokonferenzen í E-Mail í Desktop-, ApplicationSharing, Co-Browsing an verschiedenen Orten í Instant Messaging, Chat
í TerminkalenderManagement í MehrfachautorenSoftware í Electronic Bulletin Boards
Die zweite Möglichkeit der Klassifizierung gliedert nach der Art und dem Grad ihrer Unterstützung hinsichtlich der Interaktionsmechanismen Koordination, Kommunikation und Kooperation. Die eingeordneten Systeme können weiter in Systemklassen gruppiert werden. Diese Mechanismen der Interaktion stehen in einem hierarchischen Abhängigkeitsverhältnis zueinander. So erfordern Kooperationsprozesse eine Koordination und Koordinationsprozesse wiederum eine Kommunikation der Beteiligten. Unabhängig von der Klassifizierung, ist ein entscheidender Trend die Integration verschiedener Funktionen und Dienste in einem Werkzeug. Collaborative Browsing Mit der Analyse des Einsatzes von E-Business wird deutlich, dass das alleinige Angebot von Funktionalitäten für die Akzeptanz selbiger im Internet nicht ausreichend ist. Die Nutzung der angebotenen Leistungen ist zusätz-
485
Unterteilung durch Interaktionsmechanismen
11
Anwendungen
lich von der Benutzerfreundlichkeit, der Beratung, dem Service und Support abhängig. Um eine effiziente Zusammenarbeit mittels kollaborativer Technologien zu ermöglichen, müssen ausreichend viele Teilnehmer diese Technologie akzeptieren und verwenden. Man spricht hier von der Erreichung einer kritischen Menge, die zur Adoption einer Technologie führt. Dieses Problem kann durch barrierefreie Technologien wie Collaborative Browsing (Co-Browsing) umgangen werden, da neben dem Zugang zum Internet keine weiteren Voraussetzungen oder Installationen erforderlich sind. Co-Browsing beschreibt einen Vorgang des gemeinsamen zeitgleichen Zugriffs mehrerer, räumlich verteilter Personen auf ein und dieselben über das Internet erreichbaren Hypertextdokumente. Spontanes kooperatives Arbeiten
Mit dieser Erkenntnis und der Möglichkeit, spontan kooperativ zu arbeiten, wird das große Potenzial der Co-Browsing Technologie deutlich. In fast allen Bereichen der Gesellschaft werden Prozesse durch das Internet unterstützt oder vollständig und zunehmend dynamisch abgebildet. Beispiele sind:
E-Government, E-Commerce, E-Learning, E-Procurement. Ein Co-Browsing-System unterstützt die Kooperation, Koordination und Kommunikation von verteilt arbeitenden Personen auf einem gemeinsamen elektronischen Arbeitsbereich von Hypertextdokumenten.
Abbildung 11-24
Merkmale des Co-Browsing
räumliche Verteilung der beteiligten Personen ausschließliche Nutzung der Internettechnologie synchroner Zugriff auf Hypertextdokumente Minimierung von Nutzungsbarrieren durch maximale Plattformunabhängigkeit Interaktion der Dokumente in Echtzeit Kommunikation über weiteren dialogfähigen Kommunikationskanal parallel zum Co-Browsing
Gemeinsam können die Interaktionspartner alle Funktionen der Webseiten nutzen. So ist es möglich, zusammen Formulare auszufüllen, per Pointer Hinweise auf bestimmte Bereiche zu geben oder Online-Präsentationen abzuhalten. Ähnlich dem Application-Sharing folgen alle Teilnehmer einer
486
Telematik
11.4
Co-Browsing-Sitzung, wenn ein beliebiger Nutzer zu einer neuen Seite navigiert, die Seite scrollt, den gemeinsamen Pointer bewegt oder etwas in ein auszufüllendes Formular einträgt. Im Unterschied zum Application-Sharing erfolgt lediglich eine fortlaufende Synchronisation des Browserinhaltes bei allen an der entsprechenden Co-Browsing-Sitzung beteiligten Personen. Ein wesentliches Ziel ist es, die webbasierte Kooperation und Kollaboration großer Nutzerzahlen mit minimalen Barrieren zu ermöglichen. Unter www.itcampus.de kann ein solches Co-Browsing-System bezogen werden.
Verkehrstelematik Mit dem stark ansteigenden Straßenverkehr in den 80er Jahren wurden neue Konzepte erforderlich, um den Verkehrsfluss steuern zu können und damit Staus zu verhindern sowie Umweltbelastungen und Verkehrsunfälle zu verringern. Einen Anfang bildeten Verkehrsinformationen über Staus und Gefahren, die durch die Polizei gesammelt und über Rundfunkanstalten an die Autofahrer weitergegeben wurden (Verkehrsfunk). Diese passiven Informationssysteme wurden weiterentwickelt und ermöglichen heute mittels Sensoren die automatische Sammlung von Informationen zum Verkehrsfluss. Gemessen werden zum Beispiel die Verkehrsdichte, die Geschwindigkeit der Fahrzeuge und die Auslastung von Parkhäusern. Weitere Informationen liefern so genannte Staumelder – Autofahrer, die ihre Wahrnehmungen an Automobilclubs oder Radiosender weitergeben. Für die Autofahrer wurden in die Autoradios spezielle Funktionen integriert, die ständig aktuelle Verkehrsinformationen liefern können. Per Mobiltelefon können Informationen für eine bestimmte Strecke abgerufen werden. Navigationssysteme unterstützen den Fahrer bei der Streckenfindung zum gewünschten Zielort. Dazu wird die aktuelle Position des Fahrzeugs durch Satelliteninformationen (Global Positioning System – GPS) und Sensoren am Fahrzeug auf wenige Meter genau festgestellt. Zusammen mit den Daten einer elektronischen Straßenkarte berechnet das Navigationssystem die Route zum Zielort und gibt dem Fahrer Anweisungen zum Abbiegen. Aktuelle Systeme berücksichtigen bei der Routenplanung aktuelle Verkehrsinformationen und können auf diese Weise Staus umfahren. Das Vorliegen von detaillierten Verkehrsinformationen liefert die Grundlage für eine aktive Steuerung und Optimierung des Verkehrs. Die in den letzten Jahren entstandenen Verkehrsbeeinflussungssysteme können in zwei Gruppen eingeteilt werden. Verkehrsleitsysteme steuern nach Auswertung von Sensoreninformationen durch elektronische Anzeigetafeln den Verkehrsfluss. So können die zulässige Höchstgeschwindigkeit oder Überhol487
Verkehrsinformationen
Routenplanung
11
Anwendungen
verbote festgelegt werden. Zusätzlich sind Hinweise auf Gefahren, wie Stau oder Eisglätte möglich. Verkehrslenksysteme steuern dagegen die Fahrtroute der Fahrzeuge. Entsprechend der Auslastung einzelner Straßen wird der Verkehrsstrom umgeleitet. In Städten werden Parkleitsysteme eingesetzt. Diese lenken die Fahrzeuge zu freien Parkmöglichkeiten und steuern zentral die vernetzten Ampelanlagen, um auf diese Weise den Verkehrsfluss zu optimieren.
Telemetrie
ferne Erfassung von Messwerten
Telemetrie beschäftigt sich mit dem Fernmessen. Messwerte werden von Sensoren erfasst, durch Kommunikationssysteme weitergeleitet und schließlich verarbeitet. Einsatzgebiete für die Telemetrie sind beispielsweise die Fernüberwachung von Maschinen, das Erfassen von Zählerständen (z. B. für Strom- und Wasserverbrauch), die Kontrolle von Motordaten im Automobilrennsport und die Überwachung der Körperfunktionen (Puls, Temperatur, Atmung) von Astronauten.
Teleworking
Arbeit außerhalb der Firmenräume mit Hilfe von Kommunikationssystemen
Teleworking („Fernarbeiten“) ist eine Arbeitsform, bei der der Mitarbeiter eines Unternehmens außerhalb der Firmenräume (z. B. zu Hause oder auf Reisen) arbeitet und dabei Informations- und Kommunikationssysteme nutzt. Auf diese Weise ist es möglich, mit Kollegen, Lieferanten und Kunden in Kontakt zu treten sowie auf die Firmennetze, verschiedene Datenbanken und das Internet zuzugreifen. Durch Teleworking werden Fahrzeiten und kosten gesenkt bzw. Reisezeiten ausgenutzt. Die Mitarbeiter können sich ihre Arbeit flexibel organisieren. Für die Unternehmen entfallen die Kosten für Büros in teuren Stadtzentren.
Teleoperation
Fernsteuerung medizinischer Instrumente
Moderne Bildverarbeitungsverfahren und robotergesteuerte medizinische Instrumente ermöglichen genaueste Operationen. Werden diese Methoden durch Kommunikationssysteme über weite Entfernungen gesteuert, spricht man von Teleoperation. Entwickelt wurde diese Technologie vom amerikanischen Verteidigungsministerium, um im Kriegseinsatz verwundeten Personen schnelle hoch qualifizierte medizinische Hilfe zukommen zu lassen, egal wo auf der Welt sie sich befinden. Teleoperation kann auch im zivilen Bereich eingesetzt werden und ermöglicht hier die Zusammenarbeit ver-
488
ERP-Systeme
11.5
schiedener Spezialisten. So können beispielsweise Chirurgen aus den USA und Deutschland gemeinsam einen Patienten in Australien operieren.
11.5 ERP-Systeme Bis Anfang der neunziger Jahre wurden in den Unternehmen vorwiegend Mainframe- oder PC-Lösungen eingesetzt, die aber meistens nur einen Teilbereich des Betriebes unterstützten und nicht oder nur unzureichend miteinander integriert waren. Mit dem Auftreten leistungsfähiger Netze und Computer wurde der Einsatz integrierter Software möglich und auch gefordert. ERP (Enterprise Resource Planning) ist der zusammenfassende Begriff für die gesamten Planungs- und Steuerungsprozesse eines Unternehmens über die Wertschöpfungsprozesse hinweg. Der im Jahr 1990 geprägte Begriff ERP geht auf das US-Marktforschungs- und Beratungsunternehmen Gartner Group zurück. ERP-Systeme wurden mit dem Ziel entwickelt, alle betriebswirtschaftlichen Standardprozesse in einem Unternehmen vollständig und durchgehend abzudecken, diese einheitlich in einer strukturierten und hoch integrierten Plattform zusammenzuführen und einen Einsatz in möglichst vielen Branchen und Ländern zu erreichen. ERP-Systeme im engeren Sinne stellen Weiterentwicklungen der Systeme für MRP II (Manufacturing Resource Planning) und PPS (Produktionsplanung und -steuerung) dar. Primäre Komponenten sind hierbei die Geschäftsprozesse für Einkauf, Produktion, Lagerhaltung und Vertrieb. Zu ERP-Systemen im erweiterten Sinne zählen zusätzlich die Komponenten Finanzbuchhaltung, Controlling und Personalwirtschaft. Inzwischen sind ERP-Systeme als eigenständige Gattung für Standardsoftware anerkannt und werden um neue Komponenten (z. B. Mobile Computing) ergänzt. Mit ERP II (auch Extended ERP) stellte die Gartner Group im Jahr 2000 ein erweitertes ERP-Konzept vor. ERP II zeichnet sich aus durch
unternehmensübergreifende integrierte Zusammenarbeit (Kollaboration) d.h. Einbeziehung von Kunden, Lieferanten bzw. Partnern in die eigenen Geschäftsprozesse
integrierte Zusammenarbeit mit Hilfe des Internets.
489
Begriffserklärung
11
Anwendungen
d.h. die Einbeziehung erfolgt nicht nur aus betriebswirtschaftlicher Sicht, sondern zugleich auch aus technischer Sicht zumeist durch den Einsatz von Web-Services
Damit vereint ERP II unter anderem Konzepte des Supply Chain Managements (SCM), des Customer Relationship Managements (CRM), des Product Data Managements (PDM) und des E-Business.
Bei Mobile ERP werden die ERP-Systeme rundum erreichbar. Zugriffe werden von überall (z. B. über mobile Endgeräte) realisiert, Informationen werden dann ortsunabhängig abgefragt, wenn sie gebraucht werden. Der Aufwand zur Synchronisation entfällt.
Eigenschaften von ERP-Systemen ERP-Systeme werden durch folgende Merkmale bestimmt:
Integration der Objekte aller Anwendungsbereiche einheitliche, strukturierte‚ Datenbasis
Für alle Anwendungsbereiche existiert eine einheitliche Datenbasis. Damit kann gewährleistet werden, dass Daten nur einmal erfasst und sofort allen potenziellen Nutzern zur Verfügung gestellt werden. ERP-Systeme sind auf die Verwaltung und Steuerung von Massendaten spezialisiert.
Integration der Prozesse aller Anwendungsbereiche prozessorientierte Geschäftsabläufe
Die relevanten Anwendungsfunktionen von verschiedenen Anwendungsbereichen (z. B. Vertrieb, Rechnungswesen, Produktion), die zu einem Geschäftsprozess gehören, sind aufeinander abgestimmt. Die Geschäftsprozesse laufen (teil)automatisiert ab und sind typischerweise prozessorientiert. Der Eingriff des Anwenders erfolgt systemweit über eine gleichartige Benutzeroberfläche (UI bzw. GUI).
flexibler Einsatz modularer Aufbau
Entsprechend den Anwendungsbereichen ist ein ERP-System modular aufgebaut. Damit wird gewährleistet, dass das System nicht nur auf einzelne Branchen (z. B. Industrie, Handel) ausgerichtet werden kann, sondern gleichzeitig der gewünschte Funktionsumfang im Unternehmen konkret abgebildet und mit verringertem Risiko auch nachträglich erweitert und angepasst werden kann.
umfangreiche Werkzeugunterstützung Anpassung an das Unternehmen
Bei der Einführung von Standardsoftware sind vorwiegend zwei umfangreiche Aufgabenkomplexe zu bearbeiten: Abgleich des Unternehmensmodells mit den Möglichkeiten der Standardsoftware und Einstellung der Funktionen für die konkrete Anwendung im Unternehmen
490
ERP-Systeme
11.5
Zur Unterstützung dieser Arbeiten dienen Projektmanagement, Referenzmodelle, Einführungsleitfäden (Implementation Guides), Vorgehensmodell und weitere Systemfunktionen, die eine systematische Vorgehensweise bei der Einrichtung des Systems erlauben. Die individuelle Anpassung des Systems an das Unternehmen erfolgt in der Regel durch Parametrierung bzw. Konfiguration (Customizing), aber auch Veränderungen (modifications) und Erweiterungen (extensions) sind möglich. Hierfür sind eine Entwicklungsumgebung mit Testmöglichkeiten und eine umfangreiche Hilfe nützlich.
Internationalität der Anwendungen Das ERP-System kann in verschiedenen Sprachversionen ausgeliefert werden. In diesen Versionen sind neben den textlichen Darstellungen auf dem Bildschirm und auf dem Papier auch die Währungsbehandlung, Steuerregelungen, Standards im Berichtswesen und der Zahlungsverkehr für das jeweilige Land berücksichtigt.
Länderspezifik
Unabhängigkeit von der Systeminfrastruktur Um eine weite Verbreitung und Anpassungsfähigkeit des ERP-Systems zu erreichen, muss es möglichst auf eine bereits vorhandene Systemlandschaft installiert werden können. Die Komponenten des Systems werden daher für die wichtigsten Betriebssysteme und für die wichtigsten Netzprotokolle bereitgestellt, sind frei skalierbar und unterstützen vorhandene Standards. Zur Anbindung von Fremdsoftware werden definierte Schnittstellen angeboten, die einen standardisierten Datenaustausch ermöglichen.
Markt für ERP-Systeme Die Entwicklung von IT-Lösungen, die alle Bereiche des Unternehmens abdecken sollen, benötigt eine große Kapazität an Entwicklungsressourcen und umfangreichen Kenntnissen in der Informationstechnologie und den Anwendungsbereichen, die nur wenige Softwareentwickler bieten können. Dementsprechend ist zu verzeichnen, dass der Anteil der Eigenentwicklungen zurückgeht und bei der betriebswirtschaftlichen Standardsoftware eine Konzentration auf einige wenige Komplettanbieter erfolgt. SAP mit den Systemen R/2 und R/3, BaaN mit dem Produkt Triton und Oracle mit dem Modul Finance zählen zu den wichtigsten Begründern von ERP-Systemen. Aufgrund der extremen Komplexität, der hohen Kosten und des großen Einführungsaufwands wurden diese ERP-Systeme zunächst vorwiegend in Großunternehmen und Konzernen eingesetzt.
491
flexible Architektur
11
Anwendungen
Derzeit gibt es je nach Definition 100 bis 200 ERP-System-Anbieter, die ihrerseits wiederum verschiedene Ausprägungen (Branchenspezifika, Module) ihrer Systeme vertreiben. Marktführer bei den ERP-Systemen mit über 50% Marktanteil ist die SAP AG. SAP fasst seine webbasierte ERP-Produktpalette unter der Marke mySAP zusammen. Mit neuer Technologie wird bei den mySAP-Produkten an die bisherigen Erfolge des Produktes R/3 angeknüpft. Die Oracle Corporation ist mit ihrem ERP-Produkt Oracle Applications vertreten. Nach dem Kauf des ERP-Systemanbieters PeopleSoft / J. D. Edwards im Jahr 2004 und des CRM-System-Marktführers Siebel im Jahr 2005 ist das Unternehmen zur Nummer Zwei des Marktes aufgestiegen. Auch die Microsoft Corporation weitet ihren Marktanteil durch Zukäufe namhafter ERP-Systeme sowie durch Eigenentwicklungen (Navision/Damgaard, Great Plains, AXAPTA, Solomon, CRM) aus und vermarktet diese seit Ende 2005 einheitlich unter dem Namen „Microsoft Dynamics“. Weitere ERP-System-Hersteller sind z. B.:
SSA Global (ehemals BaaN) Infor Global Solutions Bison Group Sage (KHK) Datev Viele IT-Unternehmen bieten Dienste im Umfeld von ERP-Systemen an. Insbesondere Beratung, Einführung und Anpassung bedeutender ERPSysteme sind häufig nachgefragte Leistungen.
ERP beim Marktführer SAP In der mySAP Business Suite sind die gängigsten ERP-Komponenten zusammengefasst (siehe Tabelle 11-14). Daneben gibt es eine Reihe von Branchenlösungen, die zusätzlich die gebräuchlichsten Geschäftsprozesse der jeweiligen Branche unterstützen. Mit SAP xApps werden spezielle Geschäftsprozesse (Composite Applications) bereitgestellt. Das Composite Application Framework liefert Methoden, Werkzeuge und eine Laufzeitumgebung zur Weiterentwicklung dieser Composite Applications. Der SAP NetWeaver ist die technologische Plattform der mySAP Business Suite und von SAP xApps. SAP NetWeaver liegt eine Service-orientierte
492
ERP-Systeme
11.5
Architektur (SOA) zu Grunde, die bei SAP unter dem Begriff Enterprise Services Architecture (ESA) geführt wird. ESA besteht aus Web-Services, die auf der Basis von Microsoft .NET, Java 2 Platform Enterprise Edition von Sun (J2EE) bzw. IBM WebSphere entwickelt werden. Mit dem Master Data Management (MDM) werden die Objekte einheitlich im Repository verwaltet und auf Abruf verteilt. Die Exchange Infrastructure (SAP XI) stellt Softwaretechnologien bereit, um die Systeme flexibel erweitern zu können. Dabei wird der gesamte Lebenszyklus von Software unterstützt.
Tabelle 11-14
Komponenten der mySAP Business Suite Komponente
ausgewählte Funktionen
mySAP ERP
Finanzwesen (s. u.), Personalwesen (s. u.), Strategische Unternehmensplanung (SEM), Analysen, Beschaffung, Lagerhaltung, Vertrieb, Immobilienmanagement, Qualitätssicherung, Reisemanagement
mySAP ERP Financials
Rechnungswesen, Finanzbuchhaltung, Konten, Bestandsführung, Abschlüsse, Controlling, Profitcenter, Invest, Risikomanagement, Kreditmanagement
mySAP ERP HCM – Human Capital Management
Personalverwaltung, Rollen, Lohnabrechnung, Rekrutierung, Weiterbildung, Zeitwirtschaft
SAP-BI – Business Intelligence
Kalkulation, Vorhersagen, Eskalation, Data Mining, Auswertung, Präsentation von Daten
mySAP CRM – Customer Relationship Management
Marketing, Verkaufsunterstützung, Servicemanagement, Auswertungen
SAP Solutions for Mobile Business
Mobile Verkaufsunterstützung, Datenübertragung, RFID, Reise- und Zeitmanagement
mySAP PLM – Product Lifecycle Projektplanung, Produktmanagement, Dokumentenmanagement, Instandhaltung, Management Abfallmanagement, Gefahrengüter, Audits
mySAP SRM – Supplier Relationship Management
Lieferantenmanagement, -bewertung, Kontraktverwaltung, Beschaffung
mySAP SCM – Supply Chain Management
PPS, Vorhersagen, Anfrageverwaltung, Rechnungslegung, Auftragssteuerung, Transportmanagement
493
11
Anwendungen
Das erfolgreiche ERP-System SAP R/3 ist weiterhin in vielen Unternehmen im Einsatz. R/3 soll noch bis 2012 an aktuelle Anforderungen angepasst werden und danach durch mySAP ersetzt werden. Auf Grund der weiten Verbreitung wird das System R/3 im nächsten Abschnitt erläutert. Die SAP-Lösungen Business-One und All-in-One sind für Kleinunternehmen und den Mittelstand konzipiert. Es werden mit einfachen Mitteln standardisierte Geschäftsabläufe ähnlich dem mysap ERP abgebildet. Damit wird z. B. ein Datenaustausch zwischen Lieferanten und Kunde vereinheitlicht. Eine neue Ära benutzerfreundlicher ERP-Systeme soll durch das 2005 von SAP und Microsoft gestartete, gemeinsame Projekt „Mendocino“ entstehen, Hierbei geht es um die vollständige Integration von Bürokommunikationssystem-Komponenten (Office) in die ERP-Systeme der SAP AG. Damit wird z. B. eine automatische E-Mail-Nachricht über das Absinken des Lagerbestandes ausgelöst, umgekehrt kann aus einem Dokument heraus der Aufruf eines aufgelisteten Geschäftsprozesses (z. B. eine aktuell ermittelte Bestandsliste) erfolgen oder eine Arbeitsfolge (Workflow) ausgeführt werden.
Das System SAP R/3
Anwendungsbereiche
Im System R/3, wird eine vollständige Infrastruktur für eine betriebliche Informationsverarbeitung angeboten. Unterteilt werden die Anwendungsbereiche in
Rechnungswesen Es werden alle Geschäftsvorfälle im Sinne einer ordnungsgemäßen Buchführung verbucht. Diese Buchungen sind verbunden mit Informationen aus den operativen Bereichen. Auf Grund dieser vollständigen Buchungen kann eine Überwachung und Steuerung von Kosten, Erlösen, Ressourcen und Terminen durchgeführt werden. Die Anlagenwirtschaft ist eine Komponente des Rechnungswesens.
Logistik Die Funktionsbereiche Vertrieb, Produktion und Beschaffung decken die Funktionalität logistischer Abläufe durch eigene Komponenten, die aber miteinander hoch integriert sind, ab. In der Produktionsplanung und steuerung ist das MRP-II-Konzept realisiert. Eingebunden in die logistischen Bereiche existieren ein Qualitäts-, Instandhaltungs- und Servicemanagement. Mit Hilfe des Projektmanagements kann die Zusammenarbeit unterschiedlicher Fachbereiche geplant und verwaltet werden.
494
ERP-Systeme
11.5
Personalwirtschaft Es werden die Funktionen zur Personalplanung, Bewerberverwaltung, Personalentwicklung, Personaladministration und -abrechnung bereitgestellt.
Bürofunktionen Zur Kommunikation zwischen den Benutzern des Systems als auch zu externen Partnern werden entsprechende Mail- und Verwaltungsfunktionen bereitgestellt. Weiterhin kann die Abarbeitung von Geschäftsprozessen durch Workflows gesteuert und kontrolliert werden. Der Anschluss von optischen Speichersystemen ermöglicht einen schnellen Zugriff auf bereits archivierte Dokumente.
Informationssystem Für die einzelnen Fachbereiche existieren partielle Informationssysteme. Es ist möglich, Informationsschichten für Geschäftsvorfälle, für einzelne Anwendungsbereiche und für das gesamte Unternehmen (EIS) aufzubauen. Die Zusatzkomponente BW (Business Information Warehouse) kann automatisch mit allen Informationen aus dem System R/3 und aus externen Informationssystemen versorgt werden.
anwendungsübergreifende Funktionen Neben den betriebswirtschaftlichen Funktionen gibt es eine Reihe anwendungsübergreifender Funktionen, die die Handhabung des Systems wesentlich erleichtern bzw. erst ermöglichen.
Abbildung 11-25
anwendungsübergreifende Funktionen des SAP R/3-Systems
Ein Klassifizierungssystem ermöglicht die Beschreibung und die Suche von Objekten mit Hilfe von Merkmalseigenschaften.
Ein Dokumentenverwaltungssystem erlaubt es, beliebige Dokumente zu verwalten und mit Informationen zu verknüpfen.
Alle Anwendungen können auf eine Kalenderfunktion zugreifen. Nummernkreise sind mit Regeln verbunden, nach denen Objekte im System eindeutig identifiziert werden.
Die automatische Aufzeichnung von Änderung ermöglicht die Rückverfolgung von Korrekturen.
Mit einem Workflow-Management-System kann der betriebliche Ablauf von Geschäftsprozessen vordefiniert, gesteuert und kontrolliert werden.
Die Unterstützung einer Reihe von standardisierten Schnittstellen ermöglicht den Filetransfer und die Kommunikation mit externen Systemen.
495
11
Anwendungen
Entwicklungsumgebung Obwohl durch das Customizing das System den betrieblichen Anforderungen in vielen Fällen angepasst werden kann, ist es oft erforderlich, Funktionen oder Daten zu modifizieren oder zu ergänzen. Für diese Arbeiten steht eine in das System integrierte Entwicklungsumgebung zur Verfügung. Mit Hilfe der Werkzeuge dieser Entwicklungsumgebung können sowohl Modifikationen der Datenbasis als auch Programmänderungen mit der Programmiersprache ABAP/4 vorgenommen werden.
dreistufige Client/ ServerArchitektur
Architektur Das System R/3 basiert auf einer dreistufigen Client/Server-Architektur. Die Ebenen Präsentation, Applikation und Datenbank sind für die wichtigsten Betriebssysteme realisiert, so dass das System R/3 auch in einer heterogenen Systemlandschaft installiert werden kann. Durch die Client/ServerArchitektur ist eine Entkoppelung der Anwendungslogik von der Präsentation und der Datenbasis möglich. Damit können verschiedene Konfigurationen entsprechend den örtlichen Gegebenheiten, der Benutzerzahl und der Nutzungsintensität des Unternehmens realisiert und eine Lastverteilung durchgeführt werden. Einige Computer können dabei spezielle Aufgaben durchführen (z. B. Archivierung, Kommunikation, CAD). R/3 erfüllt weitgehend die Forderungen an ein offenes skalierbares System.
Präsentation Die Bedienoberfläche des Systems R/3 (das SAPGUI) wird von SAP u. a. auf allen gängigen Systemplattformen angeboten. Realisiert ist die Bedienoberfläche für verschiedene Landessprachen. Außer der Standardbedienoberfläche können mit Hilfe des Session Managers eigene Benutzermenüs entworfen werden. Weiterhin stehen über eine spezielle Programmierschnittstelle die R/3-Transaktionen zur Verfügung, so dass spezielle (insbesondere einfachere) Bedienoberflächen erzeugt werden können (SAP Automation API).
Applikation Auf den Applikationsservern laufen die ABAP/4-Programme ab, die die betriebswirtschaftliche Logik des R/3-Systems beinhalten. In ihnen wird sowohl die Steuerung der Dialoge der angemeldeten Benutzer als auch die Verarbeitung der relevanten Informationen vorgenommen. Die notwendige Kommunikation mit der Datenbasis wird über die Datenbankschnittstelle durch SQL-Anweisungen durchgeführt. Die Anwendungen des R/3-Systems sind transaktionsorientiert realisiert. Das bedeutet, dass eine SAP-Transaktion, die aus einer Folge von betriebswirtschaftlich konsistenten Schritten besteht, entweder vollständig oder gar nicht im System durchgeführt wird. In den Transaktionen werden außer der eigentlichen betriebswirtschaftlichen Aktivität die Autori496
ERP-Systeme
11.5
sierungsüberprüfung des Benutzers, die notwendigen Aktionen zur synchronen oder asynchronen Verbuchung und die Befehle zum Sperren und Entsperren der betreffenden Objekte in der Datenbank ausgelöst. Die Programme werden vom R/3-Laufzeitsystem abgearbeitet. Dieses Laufzeitsystem ist als Menge paralleler, kooperierender Systemprozesse realisiert. Diese Prozesse werden durch den Dispatcher koordiniert und führen jeweils eine spezielle Aufgabe aus (Dialogverarbeitung, Verbuchung, Hintergrundverarbeitung, Druck-Spooling, Sperrverwaltung usw.). Bei einer Zentralinstallation sind diese Prozesse auf einem Server konzentriert. Es ist aber auch möglich entsprechend der Aufgabe eines Prozesses einen Server nur für diese zu konfigurieren, sodass eine Aufgaben- und Lastverteilung auf mehrere Server realisiert werden kann.
Datenbank Die Datenbasis ist als relationale Datenbank realisiert. Die Datenbank wird von den ABAP/4Programmen mit Hilfe von SQL-Befehlen angesprochen. Da die vorhandenen Datenbankmanagementsysteme einen unterschiedlichen SQL-Sprachumfang anbieten, wurde eine SQL-Menge „ABAP/4 Open SQL“ definiert, mit der bei Vorhandensein entsprechender Middleware alle wichtigen Datenbankmanagementsysteme (DBMS) verwendet werden können (z. B. ORACLE, INFORMIX, DB2). Um alle Möglichkeiten des konkreten DBMS auszunutzen, kann eine Kommunikation durch Anweisungen im „ABAP/4 Native SQL“ durchgeführt werden. Eine Austauschbarkeit der Datenbasis durch ein anderes DBMS ist dann aber nicht mehr ohne weiteres möglich. Ein eigenes Data Dictionary bietet die Unabhängigkeit von der spezifischen physischen Speicherung der DBMS. Im Data Dictionary werden die beschreibenden Meta-Daten registriert. Es bildet zusammen mit allen Entwicklungsobjekten und Verwendungsnachweisen das SAP R/3-Repository. Kommunikation Zur Realisierung eines offenen Systems, muss sowohl innerhalb des R/3Systems zwischen Servern und Clients als auch nach außen zu anderen Systemen eine Kommunikation auf der Basis von standardisierten Transportprotokollen erfolgen. Grundsätzlich wird als Transportprotokoll innerhalb des Systems das Internet-Protokoll TCP/IP genutzt. Auf der Grundlage des Transportprotokolls ist ein SAP-Präsentationsprotokoll definiert, das den Datenaustausch zwischen Präsentation und Applikation umsetzt. Das Remote-SQL-Protokoll des jeweiligen DBMS-Herstellers ist Basis für den Datentransfer zwischen Applikation und Datenbank.
497
interne und externe Kommunikation auf Basis standardisierter Protokolle
11
Anwendungen
Integration in eine individuelle Benutzerumgebung am Beispiel SAP
internetbasierte Ausweitung des Systems über die Unternehmensgrenzen hinaus
Die zunehmende Bedeutung des Internets als Kommunikationsplattform und die Einbeziehung der Kunden in den Wertschöpfungsprozess durch ECommerce haben die Grenzen von ERP-Systemen aufgezeigt. Als Konsequenz aus dieser Entwicklung hat SAP eine internetbasierte offene Softwareumgebung zur Erledigung weiterer Aufgaben bereitstellt. Folgende Elemente sind Bestandteil dieses Systems:
SAP Enterprise Portal Das SAP Enterprise Portal stellt ein Unternehmensportal dar, das alle relevanten Informationen, Anwendungen und Dienste der SAP und anderer integrierter Unternehmen, bereitstellt. Unter diesem Portal werden die Softwareprodukte eingebunden, die vom Benutzer benötigt werden. In erster Linie sind das Anwendungen von SAP oder Komponenten dieses Systems, New Dimension Anwendungen von SAP (z. B. Advanced Planner and Optimizer – APO, Business Information Warehouse – BW, Business Intelligence / Strategic Enterprise Management – SEM, EProcurement, Mobile Business, Customer Relationship Management – CRM) sowie internetfähige Anwendungen anderer Hersteller. Das Portal bietet einem Benutzer die Teilnahmemöglichkeit an einem SAP Service Marketplace.
SAP Service Marketplace Ein Marketplace (Marktplatz) stellt eine offene virtuelle Drehscheibe für die Kommunikation zwischen Unternehmen dar. Er bietet für eine Branche alle relevanten Informationen und Funktionen an und ermöglicht das Anbahnen und Abwickeln von Geschäften. Der SAP Service Marketplace ist in individuelle Portale aufgeteilt. Tabelle 11-15
Portale im SAP Service Marketplace
SAP Support Portal
unterstützt Systemadministratoren, Supportmitarbeiter und Projektleiter mit aktuellen Meldungen, verwaltet Meldungen und bietet im Service Channel weitere Dienste (Wartung, Download, Dokumentationen, Schulungen) an
SAP Developer Network
unterstützt Entwickler mit Informationen und Downloadmöglichkeiten zu technischen Neuheiten, mit Forum
SAP Partner Portal
unterstützt Partnerunternehmen mit Marketingund Verkaufsinformationen, stellt Tests- und Demolizenzen bereit und gibt Hinweise auf Veranstaltungen und Schulungen
498
ERP-Systeme
SAP SMB Portal
unterstützt klein- und mittelständische Unternehmen (KMU) mit Problemlösungen
SAP Help Portal
unterstützt SAP-Nutzer mit OnlineDokumentationen zur gesamten SAPProduktpalette
SAP Community
unterstützt SAP-Nutzer mit Veranstaltungen, Interviews und Diskussionsforen
SAP Business Maps and Engagement Tools (BMET) In SAP Solution Maps und SAP Business Scenario Maps werden rollenbasierte und firmenübergreifende Geschäftsprozesse bereitgestellt, die alle Geschäftspartner miteinander verbinden. Ein Benutzer kann seine Rolle innerhalb des Gesamtprozesses erkennen und in den Prozessen navigieren. Mit dem SAP Solution Composer können die Prozesse gestaltet werden.
SAP Best Practices SAP bietet bereits vorkonfigurierte Systeme, die eine Installation des Systems erheblich erleichtert. Aus Erfahrungen bisheriger Einführungsprojekte werden standardisierte Geschäftsprozesse ermittelt und als Grundeinstellung ausgeliefert.
Vertiefende Literatur CHAMONI, P.; GLUCHOWSKI, P. (Hrsg.): Analytische Informationssysteme – Data Warehouse, On-Line Analytical Processing, Data Mining. Springer, Berlin 1999
FINK, H.J.; HOSIE, P.; HUNING, J.: SAP R/3 – Das praktische Grundwissen. Rowohlt, Reinbek 2000
FORNDRON, F.; LIEBERMANN, T.; THURNER, M.; WIDMEYER, P.: mySAP ERP, SAP Press, 2006
Gabler Verlag (Hrsg.): CRM-Report 2004. Das Special für Customer Relationship Management von salesBUSINESS, Gabler, Wiesbaden 2004
GULBINS, J.; SEYFRIED, M.; STRACK-ZIMMERMANN, H.: DokumentenManagement – Vom Imaging zum Business-Dokument. Springer, Berlin 2002
HANSEN, H. R.; NEUMANN, G.: Wirtschaftsinformatik 1 – Grundlagen und Anwendungen. Lucius&Lucius, Stuttgart 2005
499
11.5
11
Anwendungen
INMON, W. H.: Building the Data Warehouse. Wiley & Sons, New York 2005
KARCH, S.; HEILIG, L.: SAP NetWeaver. Galileo Press, Bonn 2005 KÖHLER-FROST, W. (Hrsg.): Electronic Office Systeme – Workflow- und Groupware-Anwendungen in der Praxis. E. Schmidt Verlag, Bielefeld 1998
KÜPPERS, B.: Data Mining in der Praxis – Ein Ansatz zur Nutzung der Potentiale von Data Mining im betrieblichen Umfeld. Peter Lang Verlag, Frankfurt 1999
KURBEL, K.: Produktionsplanung und -steuerung im Enterprise Resource Planning und Supply Chain Management. Oldenbourg, München 2005
LINKIES, M.; OFF, F.: Sicherheit und Berechtigungen in SAP-Systemen, SAP Press, 2006
MAIER, R.: Knowledge Management Systems. Springer, Berlin 2004 MERTENS, P.: Integrierte Informationsverarbeitung 1 – Operative Systeme in der Industrie. Gabler, Wiesbaden 2004
MEIER, M.; SINZIG, W.; MERTENS, P.: SAP Strategic Enterprise Management / Business Analytics. Springer, Berlin 2002
MERTENS, P.; GRIESE, J.: Integrierte Informationsverarbeitung 2 – Planungs- und Kontrollsysteme in der Industrie. Gabler, Wiesbaden 2002
MUCKSCH, H.; BEHME, W. (Hrsg.): Das Data Warehouse-Konzept – Architektur, Datenmodelle, Anwendungen. Gabler, Wiesbaden 2000
MÜLLER, B. F.; STOLP, P.: Workflow-Management in der industriellen Praxis – Vom Buzzword zum High-Tech-Instrument. Springer, Berlin 1999
STAHLKNECHT, P.; HASENKAMP, U.: Einführung in die Wirtschaftsinformatik. Springer, Berlin 2005
ULLRICH, M.: SAP R/3 – Der schnelle Einstieg – Release 4.6. AddisonWesley, München 2000
WOODS, D.: Enterprise Services Architecture, SAP Press, 2004 Vieweg Verlag (Hrsg.): Schwerpunktthema: Informationsverarbeitung für das Management. In: Zeitschrift Wirtschaftsinformatik, Heft 2 (April) 2000, Vieweg, Wiesbaden 2000
500
ERP-Systeme
Kapitel 12 E-Business
501
11.5
Grundlagen
12.1
12 E-Business 12.1 Grundlagen E-Business (Electronic Business, elektronischer Geschäftsverkehr) umfasst den Austausch von Informationen zwischen Unternehmen (Business-toBusiness, B2B) bzw. zwischen Kunden und Unternehmen (Business-toConsumer, B2C) zur Abwicklung von wirtschaftlichen Transaktionen über private oder öffentliche Netze. Die dabei verwendeten Netze sind das Internet und die zwischen einzelnen Unternehmen aufgebauten Extranets. Der weltweite Umsatz durch E-Business lag im Jahr 2004 bei ca. 2,1 Billionen Euro. Bei Wachstumsraten von jährlich ca. 50% wird im Jahr 2008 mit einem Umsatz von 10 Billionen Euro gerechnet. Allein in Deutschland wurden 2004 Waren und Dienstleistungen im Wert von ca. 200 Milliarden Euro über das Internet gehandelt. Bis 2008 soll dieser Wert auf fast 700 Millionen Euro steigen. 95% des Umsatzes entfallen auf B2B-Geschäfte.* Die Nutzung des Internet hat sich schneller verbreitet als jede andere Technologie zuvor. Das Radio existierte bereits 38 Jahre bevor mehr als 50 Millionen Menschen es nutzten. Beim Fernsehen dauerte es 13 Jahre. Das Internet erreichte diese Anwenderzahl bereits vier Jahre nachdem die öffentliche Nutzung möglich wurde. Diese starke Ausweitung des Internet ermöglicht vollkommen neue Formen der Distribution von Waren und Dienstleistungen mit einer Reihe von Vorteilen für die beteiligten Partner.
Abbildung 12-1
Vorteile des E-Business für den Kunden
ständige Verfügbarkeit von jedem Ort und zu jeder Zeit weltweite Kommunikation mit fast jedem Unternehmen einfache und komfortable Handhabung kostengünstige Datenübertragung Anonymität, wenn erwünscht großer Umfang an verfügbaren Informationen
*
Vgl.: TNS Infratest (im Auftrag des Bundesministeriums für Wirtschaft und Arbeit): Monitoring Informationswirtschaft – 8. Faktenbericht. München 2005
503
12
E-Business
hohe Aktualität der Informationen großes Produktangebot stressfreies Einkaufen keine Fahrzeiten und kosten Real-Time-Verbindung zum Unternehmenssystem Entgrenzung der Welt
Abbildung 12-2
Vorteile des E-Business für das Unternehmen
Erweiterung der Geschäftsprozesse über die Unternehmensgrenzen hinweg Kontakt mit potentiellen Kunden auf der ganzen Welt direkte Datenerfassung durch den Kunden keine Medienbrüche Einsatz von Multimediatechniken (z. B. Grafik, Video, Ton) für Marketingzwecke relativ geringe Betriebskosten weitgehend automatisierte Einbindung von Kunden und Partnerunternehmen keine zusätzliche Schulung für die Anwender notwendig Ziele, die durch den Einsatz von E-Business-Technologien verfolgt werden, sind in Abbildung 12-3 dargestellt.
Abbildung 12-3
Ziele beim Einsatz von E-Business
504
Business-to-Business
12.2
12.2 Business-to-Business Die Anwendung des E-Business im Bereich Business-to-Business (B2B) ist gekennzeichnet durch die Interaktion unterschiedlicher betriebswirtschaftlicher Systeme verschiedener Unternehmen. Die Art der Kommunikation reicht vom reinen Informationsaustausch über Transaktionen in voneinander völlig unabhängigen Systemen bis zur Nutzung gemeinsamer Datenbestände. Ein weiterer Schritt ist die Verflechtung der Informationssysteme der Unternehmen (Enterprise Application Integration – EAI). Besondere Bedeutung erlangt Business-to-Business durch die Einbeziehung von Partnerunternehmen in die eigene Wertschöpfungskette (Supply Chain Management). Durch die elektronische Kopplung der Unernehmenssysteme werden Medienbrüche (Wechsel zwischen Papier und elektronischen Daten) und fehlerhafte Informationen (durch Mehrfacheingabe) reduziert. Zudem erhöht sich die Geschwindigkeit mit der die Informationen zum Geschäftspartner gelangen enorm.
E-Business zwischen Unternehmen
Einbeziehung von Partnern in die Wertschöpfungskette
Im Folgenden werden einige Business-to-Business-Anwendungen vorgestellt.
KANBAN-Methode In einer Erweiterung der KANBAN-Methode (Kapitel 11) erhält der zuständige Lieferant Einsicht in den Materialbestand eines Unternehmens. Bei sinkendem Bestand ergreift der Lieferant die Initiative und liefert die betroffenen Produkte. Durch diese Vorgehensweise ist eine frühzeitige Organisation der Nachlieferung möglich, da auf den Bestellprozess verzichtet wird und die Verantwortung für die Verfügbarkeit der Lagerbestände beim Lieferanten liegt. Mit Hilfe von KANBAN können Just-inTime-Lieferungen optimiert und präzisiert werden. Der Zugriff auf die Informationen des Partnerunternehmens führt zu einer Verknüpfung der Geschäftsprozesse beider Unternehmen.
Lieferant erhält Einblick in den Materialbestand
Bankdatentransfer Der Bankdatentransfer ermöglicht den Austausch von Bank, Finanz- und Buchhaltungsdaten zwischen einem Unternehmen und dem Kreditinstitut. Im Rahmen dieses Verfahrens werden automatische Banküberweisungen, Kontostandsabfragen, automatische Kontoauszüge und elektronische Anlageinformationen möglich.
Informationsaustausch zwischen Banken und Unternehmen
E-Procurement Die Nutzung des E-Business zur Beschaffung von Waren und Dienstleistungen für Unternehmen wird als E-Procurement bezeichnet. EProcurement wird insbesondere zur Optimierung der firmeninternen Abläufe beim Einkaufen von so genannten C-Artikeln eingesetzt. C-
505
E-Business zur Beschaffung von Waren und Dienstleistungen
12
E-Business
Artikel sind die Materialien, die nicht unmittelbar für die Kundenleistung eingesetzt werden, wie Büromaterial, Hilfsstoffe, Computer usw. CArtikel haben eine hohe Sortimentsbreite bei geringem Anteil an den Gesamtkosten. Die Beschaffung der C-Artikel wurde bisher mit dem gleichen Aufwand bearbeitet, wie Artikel mit einem hohen Gesamtwertvolumen (A- und B-Artikel). E-Procurement ermöglicht den Einkauf der CArtikel über einen automatisierten Einkaufsprozess in einem ShopSystem von jedem berechtigten Arbeitsplatz aus. Die Anforderungen der Fachbereiche können automatisch gebündelt und auf elektronischem Wege zum Lieferanten übermittelt werden.
virtuelle Marktplätze (Net Market) Virtuelle Marktplätze sind elektronische Plattformen, die Unternehmen den Handel mit Gütern und Dienstleistungen im Internet ermöglichen, meist spezialisiert auf bestimmte Branchen. Sie bilden Geschäftsprozesse (z.B. Bestellung, Verkauf) standardisiert ab und bieten Unternehmen die Möglichkeit, ihr eigenes betriebswirtschaftliches Informations- und Kommunikationssystem an diesen Marktplatz zu koppeln. Virtuelle Marktplätze übernehmen somit eine Mittlerrolle zwischen verschiedenen Unternehmen sowie deren Geschäftsprozessen und Informationssystemen. Von besonderer Bedeutung sind virtuelle Marktplätze für Geschäftsbeziehungen zwischen wechselnden Partnern, da sich durch die standardisierten Transaktionsmechanismen aufwendige Individualentwicklungen vermeiden lassen.
elektronische Plattformen für den Handel mit Gütern und Dienstleistungen
12.3 Virtuelle Unternehmen Die Potenziale des E-Business auf der einen Seite und aktuelle Entwicklungstendenzen, wie die fortschreitende Globalisierung, die Verkürzung der Zeiten für Produktneuerungen und eine Verschärfung des Wettbewerbs, auf der anderen Seite haben in den Unternehmen zu Konsequenzen geführt. Diese bestehen in einem Zwang zu erhöhter Flexibilisierung und der Notwendigkeit, neue Organisationsformen zu erschließen. Integration von Wertschöpfungsketten verschiedener Unternehmen
Das Konzept des Virtuellen Unternehmens (VU) bietet die Möglichkeit sowohl zur Restrukturierung unternehmensinterner Geschäftsprozesse als auch zur Reorganisation zwischenbetrieblicher Beziehungen. Kerngedanke bei der Schaffung virtueller Unternehmen ist die Integration von Wertschöpfungsketten verschiedener Unternehmen mit den jeweiligen Kernkompetenzen. Hilfsmittel bei dieser Aufgabe ist die Prozessgestaltung (Kapitel 8). Die Abbildung 12-6 stellt die Funktionsweise eines virtuellen Unternehmens schematisch dar. 506
Virtuelle Unternehmen
12.3
Ein Virtuelles Unternehmen ist also eine Kooperation von Unternehmen, ohne dass diese ihre rechtliche Unabhängigkeit aufgeben. Die an einem virtuellen Unternehmen beteiligten Firmen bringen jeweils ihre Kernkompetenzen in das VU ein. Nach innen koordiniert ein so genannter Broker oder aber eines der Unternehmen die Zusammenarbeit. Nach außen wirkt die Kooperation wie ein einheitliches Unternehmen.
Wirkung nach außen als geschlossenes Unternehmen
Gegenüber klassischen Kooperationen oder Unternehmenszusammenschlüssen werden Effizienzgewinne durch den weitgehenden Verzicht auf die Institutionalisierung von Managementfunktionen erzielt. Im gleichen Maße wachsen die Anforderungen an geeignete Informations- und Kommunikationssysteme zur Koordinierung der Zusammenarbeit.
Abbildung 12-4
Merkmale Virtueller Unternehmen
optimierte Wertschöpfungsketten (betriebsübergreifende Abstimmung der Geschäftsprozesse)
Konzentration auf die Kernkompetenzen virtuelle Leistungserstellung Dominanz der Ablauforganisation über die Aufbauorganisation Für die an einem Virtuellen Unternehmen beteiligten Firmen ergeben sich die in der folgenden Abbildung dargestellten Vorteile.
Abbildung 12-5
Vorteile für die beteiligten Firmen
Vereinfachung der Kommunikation Erhöhung der Flexibilität Erschließung von Synergiepotentialen Teilung des unternehmerischen Risikos Neuartig an Virtuellen Unternehmen ist die eher lose Kooperationsform, die einerseits die schnelle Integration oder Herauslösung beteiligter Unternehmen zulässt und andererseits den Unternehmen weitgehende Eigenständigkeit ermöglicht. Im Allgemeinen ist ein solches Virtuelles Unternehmen an eine zeitlich begrenzte Aufgabe (Projekt) gebunden.
507
12 Abbildung 12-6
E-Business
schematische Darstellung eines virtuellen Unternehmens*
Neben dieser interorganisatorischen Perspektive gewinnt das Konzept des Virtuellen Unternehmens für die Organisation innerhalb eines Unternehmens (intra-organisatorische Perspektive) zunehmend an Bedeutung. Die
*
508
Vgl. Arnold, O.; Faisst, W.; Härtling M.; Sieber, P.: Virtuelle Unternehmen als Unternehmenstyp der Zukunft? in: HMD – Theorie und Praxis der Wirtschaftsinformatik. 32 (1995) 185. S. 8 – 23
Virtuelle Unternehmen
12.3
Übertragung des VU-Modells auf ein einzelnes Unternehmen oder Teile eines Unternehmens, wie z. B. Profitcenter, Geschäftsbereiche o. ä. führt zu einer Betrachtungsweise des Unternehmens als „Mitarbeiterholding“, in der die Beschäftigten in wechselnden Teams tätig werden. Die Zusammenstellung der Teams orientiert sich an den zu erfüllenden Projekten. Diese Organisationsform bietet gute Voraussetzungen für eine räumliche Dezentralisation von Arbeitsplätzen und Telearbeit. Die zur Realisierung Virtueller Unternehmen erforderlichen Informationsund Kommunikationssysteme dienen insbesondere der Unterstützung verteilter Informationsverarbeitung. Es werden unterschieden:
Kommunikation zwischen Anwendungen
Unterstützung der verteilten Informationsverarbeitung
Gemeinsame Nutzung von Daten (data sharing) Gemeinsame Nutzung von Anwendungen (application sharing)
Kommunikation zwischen Anwendungen Die Kommunikation zwischen den Anwendungen der einzelnen Partner wird durch eine Vernetzung der Systeme und die Datenübertragung auf Basis von Standards und vereinbarten Protokollen erreicht. Zur Vernetzung können unternehmensinterne Netzwerke und das Internet genutzt werden. Die erreichte Verbindung der Anwendungssysteme ermöglicht den automatisierten Austausch von Informationen und die Durchführung unternehmensübergreifender Transaktionen. Die Abbildung 12-7 erläutert diese Form der Kopplung von Informationssystemen unterschiedlicher Unternehmen.
Vernetzung und standardisierte Datenübertragung
Kommunikation zwischen Anwendungen
Abbildung 12-7
509
12
E-Business
Gemeinsame Nutzung von Daten (data sharing)
Zugriff auf Datenbestände der anderen beteiligten Unternehmen
Bei einer Integration auf der Ebene der gemeinsamen Nutzung von Daten wird durch die am Virtuellen Unternehmen beteiligten Firmen wechselseitig der Zugriff auf relevante Datenbestände zugelassen. Der Zugriff erfolgt über standardisierte Verfahren unter Berücksichtigung der Datenintegrität und Datensicherheit. Die Verwendung derselben Daten durch alle beteiligten Unternehmen sichert die Datenkonsistenz und die Aktualität der Informationen. Das gesamte Virtuelle Unternehmen agiert aufgrund einer einheitlichen Datenbasis. Die Abbildung 12-8 stellt diese Art der Kommunikation dar.
Abbildung 12-8
gemeinsame Nutzung von Daten (data sharing)
Gemeinsame Nutzung von Anwendungen (application sharing)
unternehmensübergreifende Integration von Anwendungen
Bei der höchsten Integrationsstufe, der gemeinsamen Nutzung von Anwendungen, werden die Anwendungssysteme unterschiedlicher Unternehmen entsprechend den Erfordernissen der Geschäftsprozesse des Virtuellen Unternehmens verknüpft und von den beteiligten Unternehmen gemeinsam genutzt. Diese Form der Integration erfordert ein hohes Maß an Kompatibilität der einzelnen Anwendungssysteme und die Bereitschaft der Einzelunternehmen, ihre internen Geschäftsprozesse stark an die Bedürfnisse des Virtuellen Unternehmens anzupassen. Unterstützt wird die Integration durch objektorientierte Anwendungen, hoch entwickelte standardisierte Schnittstellen (z. B. Common Object Request Broker Architecture – CORBA), Groupware und Workflow-Management-Systeme (WFMS) (Kapitel 11). Die Abbildung 12-9 stellt die gemeinsame Nutzung von Anwendungen schematisch dar.
510
E-Commerce
12.4 Abbildung 12-9
gemeinsame Nutzung von Anwendungen (application sharing)
Zusammenfassend können Virtuelle Unternehmen als eine Organisationsform charakterisiert werden, die sich verändernden Bedingungen, vor allem im globalen Maßstab besser und flexibler anpassen kann als klassische Kooperationen. Der Schaffung von Virtuellen Unternehmen erfordert eine „neue Offenheit“ von Unternehmen untereinander, um eine effiziente Zusammenarbeit zu gewährleisten. Grundvoraussetzung zur Realisierung Virtueller Unternehmen sind eine leistungsfähige Kommunikationsinfrastruktur und der Einsatz spezieller Werkzeuge der Wirtschaftsinformatik. Das Potential zur Virtualität, d. h. die Fähigkeit von Unternehmen sich an virtuellen Unternehmen zu beteiligen, wird zu einem wichtigen Wettbewerbsfaktor werden.
12.4 E-Commerce Bei dieser Art des E-Business greift ein potentieller Kunde über das Internet auf das betriebswirtschaftliche System des Unternehmens zu (Business-toConsumer – B2C). Durch diese Kommunikation kann der Kunde Informationen über das Unternehmen und seine Produkte erhalten sowie Güter und Dienstleistungen bestellen und bezahlen. Beim E-Commerce ergeben sich verschiedene Besonderheiten, die im Aufbau einer Kundenbeziehung berücksichtigt werden müssen. Diese werden in Tabelle 12-1 näher erläutert.
511
Zugriff des Kunden auf das betriebswirtschaftliche System des Unternehmens
12
E-Business
Tabelle 12-1
Schritte im Aufbau von Kundenbeziehungen im E-Commerce 1. WWW-Angebot bekannt machen
í Werbung in Printmedien, TV, Radio, Internet (z. B. passender Domain-Name, Eintrag in Suchmaschinen, Links, Sponsoring von Webseiten) í Einbeziehung der WWW-Adresse in Selbstdarstellung (z. B. Visitenkarten)
2.
í Darstellung der Produkte und ihrer Eigenschaften
Kaufinteresse des Kunden wecken
í Nutzung multimedialer Techniken zur Beschreibung der Produkte í leichtes Auffinden von Produkten
3. einfachen und sicheren Kauf gewährleisten
í bedienerfreundliche, übersichtliche Präsentation und Interaktion í eingesetzte Technologie so wählen, dass die Funktionalität einem breiten Nutzerkreis zur Verfügung steht í Einsatz von Sicherheitstechnologien für die Datenübertragung und den Zahlungsverkehr
4.
í kundenindividuelle Angebote
Kunden betreuen
í Kunden über den Status der Bestellung informieren í schnelle Auslieferung í Liefertermin einhalten í Kundenbetreuung: Unterstützung bei Problemen, Information, FAQs (Frequently Asked Questions, häufig gestellte Fragen und ihre Antworten) veröffentlichen, Software-Aktualisierungen (Updates / Patches) í Kundenzufriedenheit ermitteln
5.
í Häufigkeit des Besuchs der Webseite
Kundenverhalten analysieren
í Verweildauer auf einzelnen Seiten í Welche Seiten wurden besucht? í Navigationsweg (In welcher Reihenfolge und durch welche Links hat der Kunde Webseiten besucht?) í Hat der Kunde ein Produkt gekauft? í In welcher Kombination wurden Produkte gekauft?
512
E-Commerce
Der Einsatz moderner Informations- und Kommunikationssysteme unterstützt die Unternehmen bei einer wirkungsvollen Kundenbetreuung. Trotz Globalisierung und wachsender Märkte ist jeder einzelne Kunde von zunehmender Bedeutung für das Unternehmen. Die Vielzahl an Anbietern liefert dem Kunden ein reichhaltiges Angebot, das er mit Hilfe von Internet und Softwaresystemen immer besser vergleichen kann. Die elektronische Kommunikation ermöglicht eine sofortige Aktion und bietet Kontakt zu Firmen auf der ganzen Welt. Für Unternehmen wird es daher immer schwieriger eine Marken- oder Firmentreue der Kunden zu erreichen. Deshalb ist es wichtiger denn je, den Kontakt zu jedem einzelnen Kunden zu pflegen und seine individuellen Wünsche zu berücksichtigen. Aufgrund dieser veränderten Marktbedingungen setzen bereits viele Unternehmen das so genannte One-to-One-Marketing ein, bei dem auf die Bedürfnisse jedes einzelnen Kunden eingegangen und dieser individuell betreut wird. Die Strategie nach der Unternehmen ihre Kundenbeziehungen pflegen, wird im so genannten Customer Relationship Management (CRM) (Kapitel 11) festgelegt.
12.4 kundenindividuelle Betreuung
Im Folgenden werden einige Anwendungsfelder des E-Commerce beschrieben.
Online-Banking Online-Banking (Tele-Banking, Internet-Banking, Home-Banking) beinhaltet die Abwicklung von Bankgeschäften über das Internet. Zu diesen Transaktionen gehören das Abrufen von Kontostandsinformationen, das Tätigen von Überweisungen, die Einrichtung von Daueraufträgen und die Bestellung von Schecks oder Fremdwährungen. Online-Banking war eine der ersten kommerziellen Anwendungen über öffentliche Netze. Inzwischen sind die Sicherheitsvorkehrungen für eine geschützte Übermittlung der Daten sehr hoch und Mindestanforderungen standardisiert. Insbesondere diese Maßnahmen werden in Zukunft zu einer weiter stark steigenden Nutzung des Online-Banking führen. Ein etabliertes OnlineBanking-System ist das HBCI (Homebanking Computer Interface). HBCI bietet durch die Verwendung einer Chipkarte, zusätzlichem Passwort und verschlüsselter Datenübertragung eine hohe Sicherheit. Der Benutzer benötigt ein Chipkarten-Lesegerät und Spezialsoftware zur Kommunikation mit seiner Bank. HBCI ist ein offenes System, welches den Kontakt zu unterschiedlichen Banken ermöglicht und unterschiedliche Endgeräte (z. B. Computer, Mobilfunktelefone) sowie Übertragungssysteme unterstützt. HBCI ist zudem für zukünftige Bankdienstleistungen ausbaufähig.
Online-Wertpapierhandel (Online-Brokerage) Neben dem Online-Banking erlangt der Handel von Aktien, Anleihen, Optionsscheinen und anderen Wertpapieren an deutschen und internati513
Abwicklung von Bankgeschäften über das Internet
12
E-Business
onalen Börsen über das Internet zunehmende Bedeutung. Der Nutzer kann vielfältige Informationen zu den Wertpapieren und den ausgebenden Firmen abrufen, Kursverläufe studieren und verschiedene Papiere miteinander vergleichen. Die Wertpapiere können ausgewählt und zu den aktuellen Kursen geordert oder verkauft werden. Verschiedene Systeme zur Depotverwaltung bieten einen Überblick über durchgeführte Käufe und Verkäufe sowie die Wertsteigerung des Depots.
Produktkatalog Der Produktkatalog dient der Präsentation von Erzeugnissen eines Unternehmens. Der elektronische Produktkatalog, der über das Internet den potentiellen Kunden zur Verfügung gestellt werden kann, ermöglicht eine einfache Navigation durch die Produkthierarchie. Suchmechanismen unterstützen den Interessenten beim Auffinden bestimmter Produkte. Durch die Einbindung von Text, Grafiken, Audio, Video und Animationen können die Erzeugnisse detailliert vorgestellt und ihre Eigenschaften erläutert werden. Der Detaillierungsgrad der Produktbeschreibungen kann den verschiedenen Ansprüchen der Nutzer angepasst werden.
Präsentation von Erzeugnissen eines Unternehmens
Preisfindung Die elektronische Preisfindung ermöglicht neben der Bestimmung des Preises für die ausgewählten Produkte eine kundenspezifische Berücksichtigung von Boni und Rabatten sowie die automatische Berechnung von Zusatzkosten (z. B. Transport und Versicherung) in Abhängigkeit von Art und Menge der Erzeugnisse.
automatische, kundenspezifische Bestimmung des Preises
Verfügbarkeitsprüfung Mit der Verfügbarkeitsprüfung kann der Kunde in Echtzeit vom Unternehmenssystem abfragen, ob die von ihm gewünschten Produkte zurzeit lieferbar sind bzw. wie hoch die Lieferzeit ist. Das Unternehmenssystem prüft auf Grund der Informationen zu Art und Menge des Produktes, zum Ort der Lieferung sowie von unternehmensinternen Daten (z. B. Lagerbestand) die Verfügbarkeit und teilt dem Kunden einen möglichen Liefertermin mit.
Echtzeit-Prüfung der Lieferbarkeit von Produkten
Auftragserfassung / Bestellung OnlineBestellung
Der Kunde kann aus dem elektronischen Produktkatalog die gewünschten Produkte auswählen. Diese werden dann in einem so genannten elektronischen Warenkorb abgelegt. Nachdem der Kunde seine Auswahl beendet hat, prüft das System die Verfügbarkeit der Produkte und berechnet den kundenspezifischen Preis. Anschließend werden die Kundendaten (Adresse, Zahlungsweise usw.) erfasst. Nach der Bestätigung aller Informationen durch den Kunden werden diese an das Unternehmenssystem übertragen und lösen dort einen Kundenauftrag aus. Der Kunde erhält zumeist per E-Mail die Auftragsbestätigung.
514
E-Commerce
12.4
Auftragserfassung für Variantenprodukte Von besonderer Bedeutung sind bei der Auftragserfassung Variantenprodukte. Diese Produkte lassen sich durch die Bestimmung ihrer Eigenschaften konfigurieren. Der Kunde hat somit die Möglichkeit, sein Wunschprodukt selbst zusammenzustellen. Das Unternehmenssystem führt eine Konsistenzprüfung der eingegebenen Informationen durch, um sicherzustellen, dass die Eigenschaften in der gewünschten Art und Weise miteinander kombiniert werden können. Aus den Informationen wird dann eine Stückliste erzeugt, die automatisch an das Fertigungssystem übertragen wird. Die Produktkonfiguration ermöglicht eine stark kundenorientierte Fertigung bei gleichzeitig minimalem Aufwand zur Erfassung der Kundenwünsche. (Idealisierte Zielstellung: Jeder Kunde kauft sein Produkt!)
Konfiguration des Wunschproduktes durch den Kunden
Auftragsstatus Der Kunde kann in Systemen mit Auswertung des Auftragsstatus jederzeit den Bearbeitungsstand seiner Bestellung prüfen. Diese automatische Information aus dem Unternehmenssystem verringert die Anzahl der Kundenanfragen und erhöht die Kundenzufriedenheit.
Online-Shop Online-Shops vereinigen die bislang genannten Anwendungsfelder des E-Commerce zu einem virtuellen Verkaufsraum, in dem sich der Kunde informieren und Produkte einkaufen kann. Mehrere Online-Shops lassen sich durch Portale bzw. digitale Shopping-Malls bündeln und bieten damit einen elektronischen Marktplatz für die verschiedensten Waren und Dienstleistungen.
Prüfung des Bearbeitungsstandes der Bestellung durch den Kunden virtueller Verkaufsraum
Metashops Metashops sind E-Commerce-Plattformen, welche mit dem Ziel aufgebaut werden, möglichst alle nennenswerten Plattformen einzelner Anbieter einer Branche über einen einheitlichen Weg nutzbar zu machen. Sie bieten dem Interessenten eine komfortable Möglichkeit der Markttransparenz und ermöglichen zudem die Abwicklung über diese zentrale Plattform.
Internet-Auktionen Bei Internet-Auktionen werden von Firmen oder Privatpersonen Waren angeboten, die wie auf klassischen Auktionen ersteigert werden können. Die Bieter haben die Möglichkeit, innerhalb eines Zeitraumes (bis zu mehreren Wochen) Angebote zu einem Produkt abzugeben. Nach Ablauf der Auktionsfrist erhält der Bieter mit dem höchsten Gebot den Zuschlag. Die Gebote werden über das Internet verschickt. Dort kann auch der Verlauf der Versteigerung beobachtet werden.
515
elektronische Versteigerungen
12 geschäftliche Transaktionen über Mobilfunktelefone
E-Business
Neben dem E-Commerce wird in Zukunft das M-Commerce steigende Bedeutung erlangen. Als M-Commerce wird die Abwicklung geschäftlicher Transaktionen über Mobilfunktelefone bezeichnet. Besonders das Universal Mobile Telecommunications System (UMTS) bietet die technische Grundlage für die Darstellung von Informationen aus dem Internet auf mobilen Endgeräten und die mobile Kommunikation zwischen Käufer und Verkäufer.
12.5 Zahlungssysteme Bisher wird weit über 90% des Umsatzes durch E-Commerce mit klassischen Zahlungsmethoden (Rechnung, Nachnahme, Kreditkarte, Vorkasse, Lastschrift) abgewickelt. Der Versand per Rechnung stellt dabei für den Verkäufer ein Risiko auf Grund von Zahlungsausfällen dar, während insbesondere die Zahlung per Kreditkarte auf Käuferseite wegen des möglichen Missbrauchs von Kartendaten mit großer Skepsis betrachtet wird. Zunehmend werden Technologien entwickelt, die ein Online-Bezahlen ermöglichen. Im Folgenden werden die wichtigsten Zahlungssysteme vorgestellt.
Kreditkarte (SET/SSL) Die Zahlung per Kreditkarte hat sich überall etabliert und wird von Millionen Kunden weltweit genutzt. Die Zahlung über das Internet erfordert die Übertragung der Kartendaten und liefert damit einen Ansatz zum Ausspionieren dieser Informationen und die anschließende missbräuchliche Nutzung. Es wurden deshalb Verfahren entwickelt, die diese Zahlungsmethode sicherer machen. Von großer Bedeutung sind Protokolle, die eine verschlüsselte Übertragung von Kreditkarteninformationen ermöglichen. Zu diesen Systemen gehören das SET (Secure Electronic Transaction) und das SSL (Secure Socket Layer). Das SET wird im Folgenden näher erläutert. Informationen zu SSL finden sich in Kapitel 9.
SET (Secure Electronic Transaction) Die beteiligten Parteien (Karteninhaber, Händler, Kreditinstitut) erhalten von einer zentralen vertrauenswürdigen Stelle (Certain Authority) digitale Zertifikate mit denen sie sich ausweisen können. Die gesamte Datenübertragung beim SET erfolgt verschlüsselt. Basis ist das asymmetrische Verschlüsselungsverfahren nach dem RSA-Algorithmus (Kapitel 9). Bei jeder Transaktion wird die Identität der einzelnen Partner an Hand der Zertifikate geprüft. Jeder Teilnehmer erhält bei Abwicklung nur die
516
Zahlungssysteme
12.5
für ihn erforderlichen Daten. Nach der Übertragung der Kartendaten von Kunden an den Händler schickt dieser die Informationen über ein so genanntes Zahlungsgateway an das Kreditinstitut zur Autorisierung der Zahlung. Das Kreditinstitut überprüft die Informationen und teilt dem Händler mit, ob es die Zahlung abwickelt (Clearing). Bei erfolgreicher Autorisierung lässt der Händler dem Kunden das vereinbarte Produkt bzw. die Leistung zukommen.
Geldkarten (Smartcards) Geldkarten sind Plastikkarten, die einen Magnetstreifen und/oder einen Chip besitzen. Sie können vom Besitzer mit einem Geldbetrag aufgeladen werden. Über Lesegeräte, die am Computer des Besitzers angeschlossen sein müssen, werden die vereinbarten Geldbeträge beim Online-Kauf abgezogen und verschlüsselt an den Händler übertragen. Dieser kann diese Geldbeträge beim zuständigen Geldinstitut eintauschen. Aufladen kann der Besitzer die Karte ebenfalls über das Internet oder an speziellen Automaten der Banken. Geldkarten können nicht nur im Internet sondern auch bei vielen realen Verkaufsstellen verwendet werden. Durch die standardmäßige Ausrüstung aller neueren Bank- und Eurocheque-Karten mit Geldkartenfunktionalität verfügen allein in Deutschland über 40 Millionen Menschen über dieses Zahlungsmittel. Ähnliche Systeme sind bereits seit langem erfolgreich im Einsatz (z. B. Telefonkarten, Bezahlung in Großküchen). Besonderheit der Geldkarten ist die gewährleistete Anonymität. Der Händler erhält keine detaillierten Informationen über den Kunden, da die Abwicklung bzw. Überwachung der finanziellen Transaktion von Banken sichergestellt wird.
mit Geldbetrag aufladbare Karten
Micropayment Zahlungen über das Internet, die nur einige Cent oder wenige Euro betragen, werden als Micropayment bezeichnet. Bei solchen Zahlungen übersteigen die Nebenkosten der klassischen Zahlungsarten meist den Zahlbetrag. Deshalb sind hierfür besondere Verfahren zur Abwicklung erforderlich. Es existieren bereits Zahlungssysteme, bei denen der Internetnutzer eine Zahlungssoftware auf seinem Computer installieren muss. Wenn der Kunde ein kostenpflichtiges Angebot nutzen möchte, wird automatisch eine spezielle Internet-Telefonverbindung aufgebaut. Die Abrechnung der genutzten Leistungen erfolgt dann über die Telefonrechnung und ist abhängig von der Dauer der Verbindung oder der Häufigkeit der Nutzung.
517
Zahlung geringer Beträge Bezahlung mit der Telefonrechnung
12
E-Business
Abrechnung über Zahlungssystemanbieter
Andere Systeme benötigen keine zusätzliche Software und keine spezielle Telefonverbindung. Der Kunde muss sich bei der Zentrale des Zahlungssystems anmelden und eine Einzugsermächtigung geben. Werden dann kostenpflichtige Angebote im Internet in Anspruch genommen, erfolgt eine Weiterleitung der Daten an den Zahlungssystemanbieter. Dieser registriert die Umsätze und zieht per Lastschrift einmal monatlich den Betrag vom Kundenkonto ein.
Cybergeld
Weitere Verfahren verwenden Cybergeld. Dieses ist virtuell und muss gegen tatsächliches Geld bei einem Geldinstitut getauscht werden. Dieser Vorgang erfolgt ebenfalls per Internet über gesicherte Verbindungen ähnlich dem Online-Banking. Mit dem Cybergeld kann der Kunde dann über spezielle Software, die eine Überprüfung und Verschlüsselung der Geldtransaktionen vornimmt, im Internet bezahlen. Der Händler kann das erhaltene Cybergeld dann beim Geldinstitut zurücktauschen.
Elektronisches Geld
Darstellung des Geldes durch digitale Informationen
Elektronisches Geld beruht auf der Übertragung der Eigenschaften des Bargelds auf virtuelle Zahlungsmittel. Insbesondere die Anonymität beim Zahlungsvorgang steht hierbei im Vordergrund. Das elektronische Geld wird durch digitale Informationen dargestellt, die nicht an ein bestimmtes Trägermedium (wie z. B. die Geldkarte) gebunden sind. Sie können beispielsweise auf der Festplatte eines Computers gespeichert werden. Es existieren verschiedene Systeme, deren Grundprinzip im Folgenden erläutert wird. Zunächst muss der Nutzer bei einer Bank reales Geld gegen das elektronische Geld in Form von virtuellen Geldeinheiten (Cybermünzen) eintauschen. Das elektronische Geld ist von der Bank verschlüsselt, zertifiziert und mit einer Art Seriennummer versehen. Der Kunde lädt dieses Geld in eine virtuelle Geldbörse (Wallet). Mit Hilfe einer speziellen Software kann er nun bei Händlern, die dieses Zahlungsverfahren akzeptieren, einkaufen. Dazu wird der vereinbarte Geldbetrag aus dem Wallet zum Händler übertragen. Dieser lässt die Echtheit des virtuellen Geldes von der Bank prüfen. Diese kann feststellen, ob mit diesen Geldeinheiten bereits eine Zahlung erfolgt ist. Somit lässt sich das Kopieren und mehrfache Verwenden von elektronischem Geld verhindern. Weder die Bank, noch der Händler erlangen hierbei Kenntnis von der Identität des Kunden. Nach erfolgreicher Überprüfung der Informationen wird der virtuelle Geldbetrag auf dem Konto des Händlers gutgeschrieben, der diese Beträge bei der Bank gesammelt gegen reales Geld eintauschen kann.
518
E-Government
12.6
Fazit Bei allen Zahlungssystemen erfolgt die Registrierung und Abrechnung über die Zahlungssystemanbieter. Diese berechnen für ihre Dienste Transaktionsgebühren und stellen diese dem Verkäufer in Rechnung. Die Transaktionsgebühren beginnen bei unter 1% für Geldkarten, können aber auch über 50% des Umsatzes betragen. Die Höhe der Transaktionsgebühren wird zukünftig neben der Sicherheit und der einfachen Handhabung den Erfolg von Zahlungssystemen erheblich beeinflussen.
Transaktionsgebühren
Die sichere Übertragung der Zahlungsinformationen und die Gewährleistung eines anonymen Einkaufs sind grundlegende Voraussetzungen für die Akzeptanz von elektronischen Zahlungsverfahren und damit den Erfolg des E-Commerce. Im Kapitel 9 wurden bereits die grundlegenden Sicherheitsmechanismen bei der Informationsübertragung vorgestellt und detailliert erläutert.
Sicherheit und Anonymität
Bislang hat sich noch kein Online-Zahlungssystem endgültig durchgesetzt. Zur breiteren Nutzung des Internet, insbesondere des riesigen weltweiten Angebots von Produkten und Dienstleistungen ohne Abhängigkeit von Ladenöffnungszeiten, ist eine Standardisierung von sicheren OnlineZahlungssystemen ein wesentlicher Faktor.
notwendige Standardisierung
12.6 E-Government Die neuen Informationstechnologien und Kommunikationsnetze, vor allem das Internet, beeinflussen im starken Maße auch den Bereich der öffentlichen Verwaltung. In diesem Zusammenhang gewinnt der Begriff Electronic Government (E-Government) zunehmend an Bedeutung. In der Literatur lassen sich zu diesem Begriff sehr unterschiedliche Definitionsansätze finden. Vielfach findet die von der Deutschen Hochschule für Verwaltungswissenschaft Speyer formulierte Definition Anwendung. Danach wird unter EGovernment die Abwicklung geschäftlicher Prozesse im Zusammenhang mit Regieren und Verwalten (Government) mit Hilfe von Informations- und Kommunikationstechniken über elektronische Medien verstanden. Bezogen auf die Kommunen spricht man auch vom „Virtuellen Rathaus“. E-Government wird oftmals vereinfachend als „E-Business des Staates“ angesehen. Diese Sichtweise liegt durchaus nahe, da sowohl E-Business als auch E-Government das Ziel verfolgen, inner- und zwischenbetriebliche oder zwischenbehördliche Prozesse durch den Einsatz von Informationsund Kommunikationstechnik zu unterstützen bzw. abzuwickeln.
519
Nutzung von IKS in öffentlichen Verwaltungen
12
E-Business
Mit dem E-Government werden vor allem die in Abbildung 12-10 dargestellten Ziele verfolgt. Diese Ziele sollen insbesondere durch eine systematische dienstleistungsorientierte Optimierung der wichtigsten Geschäftsprozesse der öffentlichen Verwaltung erreicht werden.
Abbildung 12-10
Ziele des E-Government
Erhöhung der Flexibilität und Reaktionsfähigkeit der öffentlichen Hand Verbesserung der Wirksamkeit und Wirtschaftlichkeit der Leistungserbringung Vereinfachung und Beschleunigung von Verwaltungsgeschäften Förderung der Wirtschaft Verbesserung der Anteilnahme der Bevölkerung an der Demokratie Verbesserung der Mitarbeiterzufriedenheit Bereiche des E-Government
Ausbaustufen
E-Government soll grundsätzlich die drei Bereiche E-Assistance, EAdministration und E-Democracy elektronisch abbilden. Unter E-Assistance wird die Unterstützung der alltäglichen Lebensgestaltung durch Einsatz von Informations- und Kommunikationstechnologien verstanden. Die Abwicklung des Geschäftsverkehrs mit und zwischen kommunalen bzw. staatlichen Verwaltungseinrichtungen kann als E-Administration bezeichnet werden. Über E-Democracy kann der Bürger z. B. stärker in politische Meinungsbildungsprozesse einbezogen werden. Die entsprechend dieser Anwendungsbereiche bereit gestellten elektronischen Dienstleistungen werden auf einer unterschiedlichen Stufe der Interaktion (Information, Kommunikation, Transaktion), auch als Interaktionsgrad bezeichnet, angeboten. Nachfolgend werden die Stufen stellvertretend für die öffentliche Verwaltung am Beispiel der Kommunen vorgestellt. Stufe 1: Information Die erste und am einfachsten zu realisierende Anwendung im Internet ist die Veröffentlichung von Informationen über die Kommune, ihre Wirtschaft und Verwaltung auf kommunalen Webseiten. Insbesondere die Darstellung von Verwaltungsleistungen (Art, Ort, Sprechzeiten, Voraussetzungen, Ansprechpartner) kann bereits helfen, sich im Dickicht des Behördenwesens zurechtzufinden. Schon die zentrale Einstiegsadresse www.ortsname.de bzw. www.landkreis-name.de schafft beim Bürger und bei Unternehmen Sicherheit, wohin man sich wenden muss. Die Mehrheit der 14.000 deutschen Kommunen ist inzwischen im Internet vertreten.
520
E-Government
12.6
Im Bereich Wirtschaft werben die Kommunen vor allem für die jeweiligen Standortvorteile und versuchen die Ansiedlung von Firmen zu fördern. Etwa die Hälfte der Gemeinden bietet den ortsansässigen Unternehmen die Möglichkeit, sich auf virtuellen Marktplätzen zu präsentieren. Vielfach geschieht dies nur in Form eines einfachen Firmenverzeichnisses, welches den potenziellen Kunden wenige Informationen bietet.
Präsentation regionaler Firmen
Einen Schritt weiter gehen die Kommunen, die den Bürgern und Firmen das Herunterladen von Formularen aus dem Internet ermöglichen. Damit kann sich der Interessent einen Behördengang sparen, wenngleich das ausgefüllte Formular schließlich noch mit der Post befördert werden muss. Vielfach ist sogar noch ein persönliches Erscheinen zur Prüfung der Authentizität des Antragstellers erforderlich. Allerdings kann nur ein Teil der Formulare über das Internet bereitgestellt werden, da sich der überwiegende Teil ohne das Wissen des Sachbearbeiters nicht ausfüllen lässt.
Bereitstellung von Formularen
Für die Verwaltung selbst, teilweise auch für die Mitglieder der Räte, werden von einigen Kommunen Intranets zur Darstellung interner Information genutzt. So können zum Beispiel in München die Stadträte rund um die Uhr zeitnah auf aktuelle Informationen wie Termine, Anfragen oder Beschlüsse zugreifen sowie im städtischen Intranet recherchieren.
Intranet zur Unterstützung der Mitarbeiter
Stufe 2: Kommunikation Neben der Möglichkeit Informationen von der Website abzurufen, ermöglichen die Kommunen auch das Senden von Anfragen, Mitteilungen, eventuell auch eine Terminvereinbarung per E-Mail. Einige Kommunen betreiben auch Call Center, die vor allem einen Telefonkontakt bieten. Eine technische Abwicklungsform ist das Voice-Government, worunter die automatisierte Bedienung von Kunden bei Behördenanfragen durch intelligente Telefondienste verstanden wird. In der Stadt Würzburg beantwortet die Virtuelle Sachbearbeiterin z. B. Fragen zu Öffnungszeiten der Ämter oder zu Zuständigkeiten von Personen.
Bürgeranfragen per E-Mail
Die Integration verschiedener Kommunikationskanäle, wie Telefon, Fax, EMail und Internet durch eine Kontaktstelle als Kommunikationszentrum (Communication Center) im Kommunalbereich ist derzeit nur bei wenigen Städten Bestandteil ihrer E-Government-Strategien. Stufe 3: Interaktion Nachdem der Geschäftsvorgang durch den Bürger bzw. das Unternehmen elektronisch vorbereitet wurde (z. B. Antrag, Ummeldung, Steuererklärung), soll nunmehr ein rechtskräftiger Akt auf elektronischem Wege ausgelöst werden. Zur Transaktion kommt es, indem die Kommunalverwaltung und der Bürger bzw. das Unternehmen wechselseitig aktiv werden. Dabei finden beispielsweise Formulare auf den Webseiten der Kommune, E-Mail oder
521
wechselseitige Kommunikation
12
E-Business
spezielle Anwendungssoftware Verwendung. Die Software „ElsterFormular“ ermöglicht beispielsweise die elektronische Abgabe der Einkommen-, Gewerbe- und Umsatzsteuererklärung sowie der Lohnsteuer- und Umsatzsteuervoranmeldung. Durch Kombination von Anwendungsbereichen und Interaktionsgraden entsteht die in Abbildung 12-11 durch entsprechende Beispiele ergänzte EGovernment-Matrix.
Abbildung 12-11
E-Government-Matrix mit Beispielen*
*
522
Vgl.: Brücher, H.; Gisler, M.: E-Government – Von den Grundlagen zur Anwendung. In: HMD – Praxis der Wirtschaftsinformatik, Heft 226, dpunkt, Heidelberg 2002, S. 5-19
E-Government
Für den sicheren und rechtsverbindlichen Datenaustausch wurde der Standard OSCI (Online Services Computer Interface) entwickelt. Trotzdem sind die elektronischen Geschäftsvorgänge wegen der hohen technischen und juristischen Anforderungen an die Autorisierung und Authentifikation des Absenders heute meist noch sehr einfacher Natur, decken nur Teile des Geschäftsprozesses ab oder wurden bisher nur im Rahmen von Pilotprojekten umgesetzt.
12.6 Sicherheit und Rechtsverbindlichkeit
Die Realisierung dieser Transaktionsstufe setzt umfassende Umstrukturierungsmaßnahmen innerhalb der öffentlichen Verwaltung voraus. Das Ziel dieser Maßnahmen besteht in der Schaffung von prozessorientierten Organisationsformen in der Verwaltung. Nur so können Online-Dienstleistungen ganzheitlich, medienbruchfrei und serviceorientiert angeboten werden. Die Beziehungen zwischen der öffentlichen Verwaltung und seinen Partnern soll Abbildung 12-12 verdeutlichen.
Abbildung 12-12
Beziehungen zwischen der öffentlichen Verwaltung und Partnern
523
12
E-Business
Im Einzelnen müssen aus der Sicht der Verwaltung folgende Beziehungen betrachtet werden:
Interaktion mit den Bürgern Interaktion mit den Unternehmen Öffentliche Verwaltung als Auftraggeber Im Folgenden werden diese an Hand ausgewählter Beispiele näher erläutert.
Interaktion mit den Bürgern
Praxisbeispiele
Häufige Beispiele für die Realisierung der elektronischen Interaktion zwischen öffentlicher Verwaltung und Bürgern ist die Anmeldung der Hundesteuer oder der Antrag auf ein Wunsch-Autokennzeichen. Auch bei einer Ummeldung können die erforderlichen Daten elektronisch übermittelt werden. Für den eigentlichen Verwaltungsakt muss der Bürger sich allerdings noch persönlich vorstellen und unterzeichnen. Weitergehende Anwendungen ohne persönliches Erscheinen werden als Pilotprojekte durchgeführt.
Authentifikation
In Mannheim kann ein Bürger derzeit die Online-Dienste nutzen, nachdem er sich bei der Stadtverwaltung einmalig registrieren und identifizieren lässt. Hierfür beauftragt der Bürger mittels Internet die Stadtverwaltung und erhält auf dem Postweg eine Benutzerkennung mit Passwort zugestellt. So können zum Beispiel die Einwohner Mannheims online einen Anwohnerparkausweis beantragen. Der Bürger tritt als Antragsteller auf, ein Sachbearbeiter des Ordnungsamts als Genehmigender. Das Ergebnis des Antrags wird dem Bürger sofort mitgeteilt, die freigegebene Parkzone anhand eines Ausschnitts aus dem Stadtplan grafisch dargestellt. Zur Entscheidungsfindung nutzt das System Informationen des Einwohnermeldeamts, der Zulassungsbehörde und der Parkausweisdatenbank.
digitale Signatur
Im Ergebnis des Media@Komm-Projektes nutzt Bremen eine digitale Signatur nach dem System OSCI, welches auf dem Standard für das Homebanking (HBCI) basiert. Es gestattet verschlüsselte und signierte OnlineTransaktionen gemäß Signaturgesetz. Neben der Smartcard benötigt der Benutzer einen Kartenleser für seinen PC. Im Rahmen des Projektes wurden insgesamt 6.000 Signaturkarten an Bürger und Geschäftsleute ausgegeben. Überall in der Stadt wurden Terminals eingerichtet, an denen die Karteninhaber die Dienstleistungen abrufen und erledigen konnten. Aufgrund der wenigen Kontakte, die ein einzelner Bürger im Jahr mit den Behörden hat und wegen der derzeit noch relativ hohen Anschaffungskosten für die erforderliche Gerätetechnik haben sich Signaturkarten im alltäglichen Gebrauch bisher nicht durchgesetzt. Erst mit der geplanten Einführung einer
524
E-Government
12.6
Geld- bzw. EC-Karte mit Signierfunktion ist voraussichtlich mit einem Anstieg der Nutzung von Onlinediensten zu rechnen.
Interaktion mit Unternehmen Bei den Beziehungen zwischen Unternehmen und der öffentlichen Verwaltung sind vielfach mehrere Ämter oder gar verschiedene Behörden an der Bearbeitung beteiligt. Die Abwicklung von Genehmigungen für Unternehmen kann die regionale Wirtschaft durch lange Bearbeitungszeiten hemmen. Die Anwendung neuer Technologien kann bei der Verkürzung der Bearbeitungszeiten unterstützen. Genehmigungen betreffen häufig das Investitionsgeschehen, wie im Falle von Baugenehmigungen oder die Nutzung öffentlichen Verkehrsraums für ober- oder unterirdische Baumaßnahmen. In Mannheim können Bauherren und -unternehmen per Internet nach dem Kenntnisgabeverfahren Genehmigungen einholen. Die Erteilung einer „einfachen Baugenehmigung“ nach dem Kenntnisgabeverfahren ist ein relativ komplexer Prozess, der sich in sieben Teilprozesse gliedern lässt. In der Regel wirken mindestens vier Personengruppen und mehrere Fachbereiche daran mit. Um die derzeit hohe Fehlerquote bei der Ausfüllung der Formulare zu senken, wird der Antragsteller Schritt für Schritt durch den Antragsprozess geführt. Komplizierte Fragestellungen werden über Hilfefunktionen und anhand von Beispielen erläutert. Auch die Bearbeiter der Anträge werden diesbezüglich von der Software unterstützt. Im Nürnberger Städteverbund wurde im Rahmen des Projektes Media@Komm ebenfalls eine „Elektronische Bauakte“ umgesetzt. Die Durchführung von Straßenaufgrabungen kann in Mannheim per Internet beantragt werden. An der Genehmigung von Straßenkleinaufgrabungen sind in Mannheim sowohl der Fachbereich Straßenbetrieb und Grünflächen als auch der Bereich Kommunale Ordnung beteiligt. Eine Anwendung mit hohen Fallzahlen ist die Gewerbegenehmigung. Rund 811.000 Gewerbeanträge wurden laut Statistischem Bundesamt im Jahre 2003 gestellt. Die Registrierung eines Gewerbes löst komplexe Verwaltungsvorgänge aus. Für die Anzeige eines Gewerbes benötigt man derzeit einen speziellen Formularsatz, der neben dem Original aus dreizehn Durchschriften besteht. Das Original und eine Durchschrift für die Steuerstelle verbleiben bei der entgegennehmenden Gemeinde, die weiteren Exemplare gehen nach der Erfassung an zwölf weitere Stellen. Dort müssen die Daten wiederum erfasst, geprüft und plausibilisiert werden. Deshalb wurde im Rahmen des Media@Komm-Transfer-Projektes durch die Städte Aue, Glauchau und Limbach-Oberfrohna sowie die Kommunale Informationsverarbeitung Sachsen (KISA) ein „Elektronisches Gewerberegister“, das die Erfassung, Bear525
Praxisbeispiele
12
E-Business
beitung und Weiterleitung von Gewerbeanmeldungen, -ummeldungen und abmeldungen (Gewerbeanzeige) sowie die elektronische Recherche im Datenbestand für Gemeinde und Landratsamt unterstützt, entwickelt und eingeführt. Diese Lösung bietet der Wirtschaft eine One-Stop-GovernmentFunktion. Ein weiteres Beispiel für die Förderung der Wirtschaftstätigkeit ist die Einführung eines elektronischen Grundbuchs und die Möglichkeit von Einsichtnahmen und Anfragen von Notaren, die sich durch die elektronische Datenspeicherung schneller und kostengünstiger abwickeln lassen als auf dem Papierweg. Ein weiterer Vorteil ist, dass man künftig unabhängig vom Standort des Grundbuchamts vor Ort Einsicht und Auskunft über das Grundbuch erhalten kann. Anstelle der handschriftlichen Unterschrift signiert der Notar seine Einträge hier digital mit Hilfe einer persönlichen Smartcard.
Öffentliche Verwaltung als Auftraggeber
Praxisbeispiele
Öffentliche Verwaltungen spielen im E-Procurement aufgrund ihres großen Beschaffungsvolumens und ihrer hohen Optimierungspotenziale eine zentrale Rolle. Die öffentliche Verwaltung vergibt in Deutschland jährlich für 250 Milliarden Euro Aufträge an die Wirtschaft in Form von Einkäufen und über Ausschreibungen. Nach deutschem Vergaberecht können seit Anfang 2001 öffentliche Aufträge auch elektronisch ausgeschrieben werden. Analog zum privatwirtschaftlichen sind auch im öffentlichen Bereich zahlreiche Initiativen darauf gerichtet, durch E-Procurement, E-Vergabe und durch Integration elektronischer Marktplätze auf kommunalen Websites die Beschaffungsprozesse zu optimieren, die Kosten zu reduzieren sowie die Qualität der Beschaffung zu steigern. Untersuchungen belegen, dass durch elektronische Ausschreibungen eine wesentliche Optimierung des Vergabeverfahrens und im Ergebnis Kosteneinsparungen von ca. 10% zu erzielen sind. Nach einem Beschluss der Bundesregierung ist vorgesehen, dass für Lieferund Dienstleistungsaufträge bis Ende 2005 die Umstellung auf die elektronische Ausschreibung abgeschlossen ist. Damit würden sämtliche Ausschreibungen des Bundes in diesem Bereich ab 2006 über eine E-Vergabe-Plattform laufen.
Kommunale Portale In öffentlichen Verwaltungen bestehen vielfältige Einsatz- und Verwendungsmöglichkeiten für Portale. Im Mittelpunkt steht die Integration verschiedener Verwaltungsdienstleistungen, unabhängig davon, ob diese für
526
E-Government
12.6
Bürger, Unternehmen oder zur Abwicklung interner Prozesse innerhalb und zwischen den Verwaltungen bereitgestellt werden. Bei der Realisierung von kommunalen Portalen werden gegenwärtig unterschiedliche Wege bestritten. So befindet sich in Baden-Württemberg ein Portal im Aufbau, das gemeinsam vom Land und den Kommunen initiiert wurde, um unnötige Doppelarbeit zu vermeiden. Auch der Freistaat Sachsen plant zusammen mit den sächsischen Kommunen die Einführung eines solchen gemeinsamen Landesportals.
Portale in der öffentlichen Verwaltung
Mit Portallösungen wird auch das Ziel verfolgt, den verschiedenen Zielgruppen alle Verwaltungsleistungen aus einer Hand, unabhängig von der Zuständigkeit (Land, Kreis, Kommune) zur Verfügung zu stellen. Beispielgebend hierfür ist das Projekt „Integriertes Verwaltungsportal“ der Landeshauptstadt Schwerin und des Landkreises Ludwigslust. Geschäftsbeziehungen zwischen der öffentlichen Verwaltung und der Wirtschaft gibt es nicht nur als Auftraggeber-Auftragnehmer-Verhältnis. Darüber hinaus existieren gemeinsame Unternehmen. Kernbestandteil der EGovernment-Strategie der Stadt Bremen ist beispielsweise die bremen online service GmbH, die als privat-öffentliche Gesellschaft gegründet wurde. Auch in Hamburg und Berlin werden in Form Public Privat Partnership (PPP) bereits seit mehreren Jahren die Web-Auftritte der Verwaltung gemeinsam mit privaten Unternehmen realisiert. Für die meisten Geschäftsprozesse mit Kontakt zum Bürger und zu den Unternehmen sind zunächst die Kommunen zuständig. Deshalb wird dem Städte- bzw. Landkreisportal mit seiner in der Regel gleichnamigen Internetadresse eine Schlüsselstellung in der immer unübersichtlicher werdenden Portallandschaft zugewiesen.
Initiativen und Projekte Die im Jahr 2000 gestartete Initiative BundOnline 2005 hat sich das Ziel gesetzt, insgesamt 376 der onlinefähigen Dienstleistungen der Bundesverwaltung bis zum Jahr 2005 elektronisch verfügbar zu machen. Einheitliche Grundsätze für die Online-Umsetzung dieser Dienstleistungen sind in den Standards und Architekturen für E-Government-Anwendungen (SAGA) festgelegt. Eine moderne öffentliche Verwaltung ist Voraussetzung für den wirtschaftlichen Erfolg Deutschlands. E-Government leistet dazu einen entscheidenden Beitrag.
527
BundOnline 2005
12 DeutschlandOnline
E-Business
Im Juni 2004 wurde die Initiative Deutschland-Online beschlossen. Sie bündelt E-Government-Initiativen von Bund, Ländern und Kommunen zu einer gemeinsamen nationalen Strategie. Bis zum Jahr 2010 soll eine vollständig integrierte E-Government-Landschaft in Deutschland geschaffen werden. Um die Entwicklung des E-Government in Deutschland zu beschleunigen wurden besonders viel versprechende kommunale und regionale Initiativen zu einem länderübergreifenden E-Government Netzwerk im Rahmen des Projektes Media@Komm-Transfer verknüpft. Darüber hinaus existieren zahlreiche weitere E-Government-Aktivitäten der Bundesländer.
Probleme bei der Entwicklung einer E-GovernmentStrategie
Städte und Gemeinden verfügen dagegen meist noch nicht über eine ausformulierte E-Government-Strategie. Als Probleme werden vor allem genannt: die Anpassung der rechtlichen Rahmenbedingungen, die übergreifende Koordination zwischen den Kommunen, die knappen Kassen und der Mangel an qualifiziertem Personal. Bei letzterem kann das fehlende Knowhow durch einen verstärkten Einsatz des E-Learning ausgeglichen werden. Die kommunale E-Learning-Plattform der Stadt Oldenburg, das Projekt Netzbasiertes Lernen in den Kommunen der Region Stuttgart und der Online-Kurs zum Thema E-Government der Verwaltungsfachhochschule Speyer sind nur einige Beispiele.
E-Government-Visionen Sämtliche Strategien, Initiativen und Projekte müssen auch zukünftig an den Visionen zur Entwicklung und Gestaltung des E-Government ausgerichtet sein. Abbildung 12-13 zeigt eine Auswahl derzeitiger Visionen.
Abbildung 12-13
Visionen des E-Government
Multikanal-Zugang zur öffentlichen Verwaltung vollständige Vernetzung verschiedener E-Government-Lösungen barrierefreies E-Government Koordination und Kooperation zwischen Bund, Ländern und Kommunen Medienkompetenz in der Bevölkerung
Die Nutzung der neuen Medien, etwa der Behördengang über das Internet, wird zu einer modernen Alternative. Die bisherigen konventionellen Zugänge müssen aber erhalten bleiben. Alte Menschen oder Randgruppen haben häufig keinen Zugang zum Internet. Es wird gewarnt vor einer digitalen Spaltung der Gesellschaft. Auch die Verteilung von Internet-Anschlüssen
528
Communication Center
12.7
in Stadt und Land ist nicht ausgeglichen. Aus Gründen des Gleichbehandlungsgrundsatzes wird eine kundenfreundliche Nutzung der Verwaltung zukünftig nur über Multikanal-Zugänge (Internet, Bürgerbüro, Call Center) möglich sein. Die Verwaltung der Zukunft hat auch den Anforderungen behinderter Menschen gerecht zu werden. Zudem sind behinderte Menschen durch die Chancen der Internet-Nutzung flexibler bei der Nutzung von Behördendiensten. Die Barrierefreiheit für Webpräsenzen der öffentlichen Verwaltung ist nach der Verordnung zur Schaffung barrierefreier Informationstechnik (BITV) bis spätestens Ende des Jahres 2005 Pflicht.
barrierefreies E-Government
Erklärtes Ziel zahlreicher Aktivitäten ist es, die vorhandenen und oft sehr verschiedenen E-Government-Lösungen technisch miteinander zu vernetzen, so dass Online-Dienstleistungen auch organisationsübergreifend und medienbruchfrei angeboten werden können.
Vernetzung der Kommunen
Die Kooperation zwischen Bund, Ländern und Kommunen wird selbstverständlich werden. Standardisierung und Koordination werden anstelle von Kleinstaaterei und Insellösungen treten. Nur so können die Erfahrungen erfolgreicher Pilotprojekte effektiv genutzt und Kosten für folgende Entwicklungen geteilt werden.
12.7 Communication Center Maßgebend für die Entstehung von Communication Centern (Call Center) war die Notwendigkeit, kommunikationsintensive Prozesse straff zu organisieren und somit effizient und wirtschaftlich abzuwickeln. Kommunikation bedeutet im betrachteten Zusammenhang die Initialisierung und Aufrechterhaltung von Kundenkontakten zum Unternehmen zum Zwecke der Kundenneugewinnung, Kundenpflege und unter Umständen auch der Kundenrückgewinnung. Der direkte Kontakt zum Kunden kann im Wesentlichen auf drei Ebenen erfolgen. Schriftlich über den Versand von Mailings, fernmündlich mittels Telefonanruf oder durch persönlichen Besuch eines Außendienstmitarbeiters beim Kunden. Kundenbesuche sind auf Grund des hohen Reiseaufwands und der daraus resultierenden geringen Anzahl von Kundenkontakten je Vertriebsmitarbeiter und Zeiteinheit sehr teuer. Sie sind daher lediglich für Geschäftsfelder mit großem Umsatz je Kunde wirtschaftlich. Der Versand von Massenmailings ist im Vergleich dazu relativ billig. Jedoch ist der Response aus derartigen Aktionen in der Regel sehr gering (kleiner 3%), so dass
529
Organisation kommunikationsintensiver Prozesse zwischen Unternehmen und Kunden Formen des Kundenkontaktes
12
E-Business
der Mailingversand ohne vorherige Qualifikation der Adressen ebenfalls nicht den gewünschten Erfolg liefert. Den Kompromiss zwischen den eben aufgezeigten Extremen ist der telefonische Kontakt zum Kunden. Er ist durch den Entfall der Reisetätigkeit im Vergleich zum Außendienstbesuch sehr viel günstiger. Gleichzeitig wird im Gegensatz zum Mailing durch einen Anruf sofort eine Antwort durch den Kunden erzeugt. Innerhalb des Telefonats kann der Call Center Agent individuell den Gesprächsverlauf durch Nutzenargumentation oder Einwandbehandlung beeinflussen. Der direkte Kontakt zum Kunden durch Telefonanruf vereint somit Vorteile des individuellen Außendienstbesuchs und des relativ preiswerten Mailings und kompensiert deren immanente Nachteile. Dies ist der Grund für den Erfolg und das Wachstum in der Call Center Branche in den vergangenen zehn Jahren. Im Folgenden wird die technische Entwicklung der Communication Center an Hand einzelner Generationen charakterisiert.
Klassische Call Center
Call-Centerfähige Telefonanlage
Telefonarbeitsplatz mit Papierbelegerfassung automatische Anrufverteilung
Klassische Call Center repräsentieren die erste Generation. Einzige Komponente der technischen Infrastruktur und kennzeichnendes Element ist eine Call-Center-fähige Telefonanlage. Sie übernimmt alle Aufgaben der Anrufsteuerung und stellt die Verbindung zum öffentlichen Telefonnetz her. Personalcomputer werden nicht benötigt. Alle Aufzeichnungen der Agenten erfolgen auf Papierbelegen. Die Ausstattung entspricht einem klassischen Telefonarbeitsplatz. Alle Call Center Agenten telefonieren grundsätzlich über ein Headset (leichte, ein oder zweiseitige Kopfhörer mit eingebautem Mikrofon). Diese ermöglichen bei permanentem Telefonieren eine gesunde Körperhaltung und freie Hände zur zeitgleichen Kontaktdokumentation auf den entsprechenden Belegen. Die Funktionalität der Telefonanlage unterscheidet sich erheblich nach den Anforderungen im Inbound- (eingehende Anrufe) und Outbound-Bereich (ausgehende Anrufe). Im reinen Outbound-Geschäft ist die Funktionalität mit einer konventionellen Telefonanlage aus dem Bürobetrieb vergleichbar. Wichtige Zusatzfunktionen sind Rufnummernunterdrückung und Anrufschutz. Sie stellen einen unterbrechungsfreien Arbeitsprozess sicher. Ebenfalls notwendig sind Funktionen zur detaillierten, kampagnenbezogenen Aufzeichnung von Gesprächsgebührendaten. Für den Inbound-Bereich muss eine Telefonanlage mit ACD-Funktionalität ausgestattet sein. ACD (Automatic Call Distribution) ist eine komplexe Logik zur Steuerung und Verteilung eingehender Anrufe auf freie Agentenarbeitsplätze.
530
Communication Center
12.7
Inbound-Call-Center betreiben eine oder mehrere Servicerufnummern (Hotlines) über welche Kunden entsprechende Dienstleistungen in Anspruch nehmen können. Dabei handelt es sich im Gegensatz zu konventionellen Telefonanlagen nicht um direkte Durchwahlen sondern um abstrakte Telefonziele. Jeder eingehende Anruf wird zunächst in einer Warteschleife geparkt. In Abhängigkeit verschiedenster Parameter (gewählte Rufnummer, Anrufzeitpunkt, Status der Agentenarbeitsplätze, geschätzte Verweildauer in der Warteschlange usw.) wird der Anruf dann zu einem freien Agenten geleitet. Komplexe ACD-Anlagen unterstützen zusätzlich so genanntes Skillbased Routing. Dabei wird anhand eines Regelwerkes versucht, den für das aktuelle Servicegespräch am besten geeigneten Agenten (gemäß seinem Fähigkeitsprofil) zuzuordnen. Die ACD-Anlage ist zudem das zentrale Steuerelement für die Messung und Sicherstellung der Leistungsfähigkeit des Call Centers. Die wichtigste Kenngröße ist der Servicelevel. Es entspricht dem prozentualen Anteil persönlich entgegengenommener Anrufe innerhalb einer festgelegten Wartezeit. Richtwerte für gute Servicelevel liegen oberhalb 85% innerhalb 30 Sekunden Wartezeit.
Leistungsbewertung
Computergestützte Call Center Die Belegerfassung auf Papier wird im Computergestützten Call Center abgelöst durch elektronische Eingabemasken. Jeder Agentenarbeitsplatz ist mit einem Personalcomputer ausgestattet, der die klassische Telefon/Headset-Ausrüstung ergänzt. Auf allen Rechnern ist eine Call-CenterSoftware installiert. Sie ist maßgebendes Element dieser zweiten Generation von Call Centern. Die Call-Center-Software entspricht der Client/ServerArchitektur. Die Client-Arbeitsplatz-Rechner, die die Front Ends (Bildschirm-Benutzermasken) der Call Center Agenten präsentieren, sind über ein lokales Netzwerk mit dem zentralen Server verbunden, der alle Kundenund Kontaktdaten im Call Center vorhält. Die Call-Center-Software hat im Wesentlichen zwei Aufgaben. Offensichtlich ist die zentrale, einheitliche Speicherung und Bearbeitung aller Kunden- und Kontaktdaten in einer Datenbank. Dadurch werden zeitaufwendige und fehleranfällige Medienbrüche, welche durch Papierbelegdruck, handschriftliche Erfassung und erneute Systemeingabe entstehen, vermieden. Die zweite Aufgabe ist wesentlich umfassender und besteht in der kompletten Steuerung der Arbeitsprozesse. Die Umstellung von manueller Steuerung (wie im klassischen Call Center) auf elektronische, automatisierte Steuerung hat ihre größte Auswirkung auf den Outbound-Betrieb.
531
elektronische Belegerfassung mit Kundendatenbank auf Client/ServerBasis
Call-CenterSoftware mit automatisierter Steuerung der Arbeitsprozesse
12 automatisches Wiedervorlagemanagement
E-Business
Im Inbound-Call-Center ergibt sich die Leistungsfähigkeit aus dem erreichten Servicelevel. Es handelt sich dabei um ein logistisches Verteilungsproblem. Beim Outbound hingegen wird die Produktivität anhand des Anrufdurchsatzes (Anzahl Calls je Zeiteinheit) und der Erfolgsquote (Anteil erfolgreicher Calls z. B. Verkaufsabschlüsse an der Gesamtzahl geführter Gespräche) gemessen. Beide Größen werden aus technischer Sicht (unabhängig von der individuellen Leistung der Agenten) durch die Erreichbarkeit der Zielkundschaft beeinflusst. Bevor ein Agent ein Gespräch mit der Zielperson (i. d. R. der Entscheider) führen kann, sind für gewöhnlich mehrere Kontaktversuche notwendig. Häufige Wiedervorlagegründe sind Teilnehmer besetzt, Freiläuten, Anrufbeantworter, Entscheider außer Haus usw. Die Erreichbarkeit der Zielkundschaft und damit die Leistungsfähigkeit eines Outbound-Call-Centers hängen demzufolge von der Effizienz des Wiedervorlagenmanagements ab. Zur Umsetzung des Wiedervorlagenmanagements gibt es in der Praxis verschiedene Ansätze. Sie Spannbreite reicht von der manuellen Steuerung, über halbautomatische Verfahren bis hin zu vollautomatischen, regelbasierten Algorithmen. Neueste Ansätze basieren auf Methoden der künstlichen Intelligenz. Mit Hilfe künstlicher neuronaler Netzte (KNN) werden Zusammenhänge zwischen soziodemographischen Kundendaten und der Kontakthistorie erkannt und daraus die optimale Erreichbarkeit abgeleitet.
Computerintegrierte Call Center
Integration von Call-CenterSoftware und Telefonanlage
Im Computerintegrierten Call Center erfolgt aus technischer Sicht die Telefonie über die weiter oben bereits beschriebene Telefonanlage und die Kunden- und Kontaktdatensteuerung sowie die Verwaltung über eine spezielle Call-Center-Software. Aus Sicht des Call Center Agenten werden sowohl alle Daten als auch die Telefonie über den Computer gemeinsam gesteuert. Möglich wird dies durch den Einsatz von CTI (Computer Telephony Integration). CTI ist das kennzeichnende Element der dritten Call Center Generation. CTI ist keine bestimmte Technologie an sich, sondern vielmehr ein Sammelbegriff für eine Vielzahl von Methoden, insbesondere Standards und Protokolle, welche die gemeinsame Nutzung von Informations- und Kommunikationstechnologien möglich machen. Das Zusammenwachsen beider Welten wird im Wesentlichen durch die Hersteller der Telekommunikationstechnik bestimmt. Während das Konzept offener Schnittstellen zum Austausch von Daten und Anweisungen zwischen Systemen seit langem akzeptierter und gängiger Standard ist, setzt man in der Telekommunikationsindustrie trotz aller Forderungen weitestgehend auf proprietäre Protokolle. Einer der am weitesten verbreiteten Standards ist TAPI (Telephony Application Programming Interface). Er 532
Communication Center
12.7
wird in der Regel von Herstellern kleinerer Telefonanlagen ab Werk unterstützt. Für die Anbindung größerer Anlagen ist in der Regel eine Drittsoftware als Middleware notwendig, welche die Umsetzung vom Standardprotokoll in das spezifische Anlagenprotokoll und vice versa übernimmt. Mit Hilfe der CTI Schnittstellen wird es Call-Center-Software ermöglicht, die Funktionen der Telefonanlage zu steuern. Die wichtigsten Funktionen betreffen den Aufbau, die Kontrolle und das Beenden von Telefonverbindungen sowie die Steuerung von Rückrufen, Weiterleitung oder Konferenzschaltung. Ebenfalls notwendig ist die Übermittlung von Gesprächsmetadaten wie Rufnummer des Anrufers, gerufene Nummer oder Anrufdauer. Für die Steuerung der Arbeitsabläufe müssen außerdem Anlagen- und Agentenparameter über die Programmierschnittstelle ausgewertet bzw. neu gesetzt werden können. Für die Praxis im Outbound-Call-Center bedeutet CTI in erster Linie automatische Telefonnummernwahl. Ausgeklügelte Systeme wie Predictive Dialing wählen vorausschauend im Hintergrund neue Rufnummern an und übergeben dem nächsten freien Agenten eine bereits zustande gekommene Verbindung. Die Wartezeiten zwischen den Anrufen werden auf diese Weise minimiert. Für den Inbound-Bereich vereinfacht CTI erheblich die Anrufsteuerung. Zum anrufenden Kunden werden automatisch die richtigen Stammdaten angezeigt und entsprechend seines Anrufgrundes automatisch die richtigen Frage- bzw. Erfassungsmasken ausgewählt. Die ideale CTI-Umgebung reduziert die Aufgaben eines Call Center Agenten auf den persönlich kreativen, anspruchsvollen Teil. Alle anderen Routineaufgaben werden vollautomatisch im Hintergrund durch entsprechende Softwarelogik erledigt.
Automatisierung von Routinetätigkeiten
Web-enabled Call Center / Communication Center Alle bisher betrachteten Call-Center-Generationen bedingen den Kontakt zum Kunden über das Telefon als einziges Medium. Wie bereits eingangs erwähnt ist ebenfalls Kundenkommunikation in schriftlicher Form möglich. Neben der klassischen Form des Postmailings und des Fax haben sich neue Kommunikationsformen wie E-Mail und SMS etabliert. Mit der Integration verschiedener Kommunikationsarten als Form der Realisierung des Kundenkontakts neben der Telefonie, migrieren konventionelle Call Center zu multimedialen Kundenservice-Zentralen, den so genannten Communication Centern. Die technische Realisierung dieser zusätzlichen Kommunikationsformen funktioniert in Analogie zu der bereits beschriebenen Anbindung an die Telefonwelt. Im Mittelpunkt steht die Call-Center-Software in klassischer 533
Kundenkontakt über verschiedene Medien wie Telefon, Fax, E-Mail, SMS
12
E-Business
Client/Server-Architektur, die zentral alle Kunden- und Kontaktinformationen vorhält. Die Verbindung zur Telefonanlage wird über eine CTISchnittstelle realisiert. E-Mail oder Fax werden über entsprechende Schnittstellen zu separaten E-Mail-Servern bzw. Fax-Servern ebenfalls an die CallCenter-Software angebunden. Nutzung von Serviceaufträgen
Eine besondere Bedeutung kommt der Anrufverteilung bzw. Produktionssteuerung zu. Jeder eingehende Anruf, E-Mail, SMS usw. kann verallgemeinert als Serviceanfrage definiert werden, die auf Seite des Communication Centers einen Serviceauftrag auslöst. Je nach Art der Anfrage kann der Service automatisiert (im Beispiel einer Kontostandsabfrage) oder durch einen Live Agenten abgearbeitet werden. Im diesem Sinne sind auch klassische Outbound-Telefonate, die durch einen automatisierten Wählmechanismus erzeugt wurden, als abzuarbeitende Serviceaufträge definierbar, so dass in einem derart organisiertem Communication Center nicht mehr explizit nach Inbound oder Outbound unterschieden werden braucht. In Abhängigkeit der Priorität des Serviceauftrags, der Agentenverfügbarkeit und -qualifikation sowie unter Berücksichtigung wirtschaftlicher Aspekte ordnet die Produktionssteuerungslogik jedem Serviceauftrag einen passenden Agenten zu.
Internet als Präsentationsmedium
Eine besondere Gewichtung kommt dem Kontakt via Internet zu. Viele Unternehmen nutzen Ihre Internetpräsenz heute als Verkaufsplattform. Kunden die sich im E-Shop „verlaufen“ oder unschlüssig sind müssen durch geschultes Verkaufspersonal beraten werden. Die Beratung erfolgt direkt am Point of Sale durch einen Communication Center Agenten, der sich mit dem Kunden in Verbindung setzt. Initiiert wird ein solcher Beratungsservice absichtlich durch den Kunden, in dem er einen „Call Me Button“ betätigt. Oder aber die Webseite verfügt über eine eingebaute Beobachtungsfunktion, die unentschlossene Kunden identifiziert und automatisch eine Serviceanfrage an das Communication Center generiert. Die Fähigkeit eines Call Centers den Kontakt zum Kunden über das Internet aufzubauen ist kennzeichnendes Element dieser Call-Center- oder besser Communication-Center-Generation.
Web-integrated Communication Center Mit der sukzessiven Erweiterung der Kontaktkanäle beherbergt das Communication Center eine Vielzahl unterschiedlicher Technologien. Um solch ein Center wirtschaftlich betreiben zu können, ist eine Vereinfachung durch Vereinheitlichung notwendig.
534
Communication Center
12.7
Betrachtet man die einzelnen Technologien, so ist festzustellen, dass sie allesamt datenbasiert sind. SMS und E-Mail sind sehr ähnlich. Jede SMS lässt sich auch als E-Mail darstellen. Auch das klassische Fax lässt sich als E-Mail mit designiertem Empfänger und entsprechendem Anhang realisieren. Die E-Mail an sich ist webbasiert. Daraus folgt: die Darstellung von textbasierten Kommunikationsdiensten in Datenform und deren Übertragung mit Hilfe von Internetstandards ist der größte gemeinsame Nenner der eine vereinheitlichte Nachrichtenübertragung und Verarbeitung gestattet. Dieser Ansatz wird im Allgemeinen auch als Unified Messaging bezeichnet.
Vereinheitlichung aller textbasierten Kommunikationsdienste auf Internetplattform
Der Übergang zum webintegrierten Communication Center besteht nun darin, auch die eigentliche Call-Center-Software, die Arbeitsumgebung des Agenten, die alle Kundendaten vorhält und die alle Produktionsprozesse steuert, auf die Internetebene zu transferieren. Die klassische Client/ServerProgrammierung wird durch eine internetbasierte Serverapplikation ersetzt. Diese Software vereinigt nicht nur die verschiedenen Kommunikationsdienste sondern auch die eigentliche Kernaufgabe des Customer Communication Centers. Der Zugriff der Agenten auf Ihre Software erfolgt dann lediglich über einen Standard-Internet-Browser.
Call-CenterSoftware mit Kundendatenbank und WorkflowSteuerung auf Internetplattform
Die Implementierung eines webintegrierten Communication Centers setzt selbstverständlich hohe Anforderungen an Sicherheitsstandards. Während die klassische Client/Server-Software relativ abgeschottet im lokalen Netzwerk des Call Centers arbeitete, ist die webintegrierte Lösung über das weltweite Datennetz erreichbar und muss daher entsprechend abgesichert werden.
erhöhte Datensicherheit erforderlich
Die Möglichkeiten, die diese neue Technologie eröffnet, sind nahezu unbegrenzt. Zum ersten Mal ist das Communication Center als Organisationseinheit nicht mehr physisch an das lokale Netzwerk des Unternehmens und damit an seine Räumlichkeiten gebunden. Der weltweite Zugriff gestattet nicht nur den Betrieb von Heimarbeitsplätzen sondern auch den Aufbau großer virtueller Communication Center. Mit einer intelligenten zeitbasierten Schaltung bzw. Verteilung der Serviceanfragen an Agenten, die rund um den Globus verteilt sind, wird ein 24Stunden Service nach dem Follow-theSun-Prinzip zur Selbstverständlichkeit.
weltweit vernetzte virtuelle Call Center mit „follow the Sun“Service
Web-based Communication Center Alle textbasierten Kommunikationsdienste werden bereits vereinheitlicht basierend auf Internet-Technologie übertragen und verarbeitet. Einziger nicht textbasierter Kommunikationsweg ist die Telefonie, die originäre Aufgabe des Call Centers. Selbst in einem ansonsten vollständig webintegrierten Communication Center wird die Telefonie über eine klassische Telefonanla-
535
12
E-Business
ge realisiert. Die Gründe hierfür sind die besonderen Qualitätsanforderungen für die Echtzeitübermittlung von natürlich gesprochener Sprache. Gesprochene Sprache wird weltweit über ein separates Netz, dem öffentlichen Telefonnetz (Public Switched Telephone Network – PSTN) übertragen. Die Übertragung erfolgt im Gegensatz zu Datennetzen verbindungsorientiert, das heißt für jedes Telefongespräch zwischen zwei Teilnehmern wird genau eine Verbindung mit fester maximaler Übertragungsgeschwindigkeit reserviert. Während des gesamten Gespräches bleibt genau diese Verbindung erhalten bis ein Teilnehmer auflegt und die Verbindung freigibt. Diese Art der Nachrichtenübertragung ist im Vergleich zur im Internet verwendeten Paketübermittlung sehr teuer, da die reservierte maximaler Übertragungsgeschwindigkeit nicht optimal genutzt wird. Echtzeitübertragung natürlicher Sprache über das Internet
Alle Verfahren zur Echtzeit-Übertragung natürlicher Sprache über Internetbasierte Datennetze werden als VoIP (voice over internet protocol) bezeichnet. Vor der Aufspaltung in Datenpakete erfolgt eine erhebliche Datenreduktion. Sie ist möglich durch Pausen im Gespräch, eingeschränkte Frequenzbereiche natürlicher Sprache und Häufigkeitsverteilungen bestimmter Laute. Durch die Kennzeichnung als Sprachpakete kann in den Vermittlungsstationen eine priorisierte Weiterleitung vor zeitunkritischen Daten erfolgen. Am Bestimmungsort angekommen, werden die Datenpakete nach kurzer Zwischenspeicherung wieder zusammengesetzt und in Sprachinformationen dekodiert. Datenpakete, die nicht innerhalb des Toleranzzeitraumes eingetroffen sind, werden ignoriert. Daraus resultierende Lücken werden durch interpoliertes Rauschen aufgefüllt.
Qualität der Sprachübertragung
Die Güte der Sprachübertragung wird bezeichnet als QoS (Quality of Service) und setzt sich aus den drei Störgrößen Verzögerung, Paketverlustrate und Echo zusammen. Sie wird im Wesentlichen von der Übertragungsgeschwindigkeit der Internetverbindung determiniert. Der QoS wird immer relativ zur traditionellen Sprachübertragen über PSTN gemessen. Je nach Anwendungsfall sind Werte bis 85% akzeptabel.
Datenübertragungsprotokoll
Der wichtigste Standard für VoIP ist derzeit H.323. H.323 ist eine Protokollfamilie und regelt alle Details von Sprachkomprimierungsverfahren (Codecs) über Rufnummern-Konventionen bis hin zu technischen Spezifikationen für die Anbindung an das PSTN. H.323 regelt außerdem die EchtzeitVideokommunikation über Internetprotokoll.
vollständige Integration aller Kommunikationsdienste und Abwicklung über Internet
Communication Center, die VoIP einsetzten, benötigen keine Telefonanlage mehr. Alle Kundeninformationen, alle Kommunikationskontakte inklusive der Sprachübertragung werden über eine einheitliche auf Internettechnologie basierende Plattform realisiert. Um auch den Kunden einen telefonischen Kontakt zu gewähren, die noch nicht über VoIP Technologie verfügen, ist eine Schnittstelle zum PSTN notwendig. Die Transformation zwischen bei-
536
Communication Center
12.7
den Technologien übernehmen so genannte VoIP-Gateways. Diese können wahlweise im Communication Center oder direkt beim Telefonbetreiber installiert sein.
Voice-Portale Eine besondere Stellung im Rahmen von Communication Centern nehmen die so genannten Voice- oder Sprachportale ein. Ein Sprachportal bildet die teilweise oder vollständig automatisierte Kundenkommunikation über den Sprachkanal via Telefonie ab. Der Ursprung der Sprachportale liegt in der Nutzbarmachung von Warteschlangenfeldern in Anrufverteilanlagen (Automatic Call Distribution – ACD) bei der Inbound-Telefonie. Eingehende Kundenanrufe, die mangels Verfügbarkeit von Agenten noch nicht bedient werden können, werden in einer Warteschlange geparkt. Anstatt nur eine Wartemusik einzuspielen, kann die Zeit sinnvoll genutzt werden, um dem Anrufer nützliche Informationen zu geben. Typischerweise werden technische Hinweise (wie z. B. voraussichtliche Wartedauer), oder Vorschläge zu Alternativen (wie z. B. Website) oder direkte Produktinformationen in das Wartefeld eingespielt. Spürbare Prozessoptimierung wird erreicht, wenn die Wartezeit genutzt wird, um den Anrufer bzw. sein Anliegen vorzuqualifizieren. Er kann dann gezielt zu einem bestimmten Agenten oder einer Agentengruppe geleitet werden. Dazu ist es notwendig, dass der Anrufer mit dem System interagiert. Alle Lösungen, die eine Interaktion des Anrufers gestatten, werden als IVR-Systeme (Interactive Voice Response) bezeichnet. Sie stellen die Grundform von Sprachportalen dar.
Interactive Voice Response (IVR) System als Grundform eines Sprachportals
Typischerweise wird dem Anrufer eine Ansage vorgespielt, die ihn zur Interaktion auffordert. Diese so genannten Voice Prompts können je nach Anwendungsfall im Vorfeld durch einen Sprecher aufgezeichnet worden sein (pre-recorded) oder sie werden künstlich über Sprachsynthese generiert (Text to Speech – TTS). Pre-recorded Prompts sind in der Regel hochwertiger und eignen sich insbesondere dann, wenn relativ wenige Ansagen gebraucht werden und diese über einen langen Zeitraum unverändert bleiben. Synthetische Prompts werden immer dann genutzt, wenn zum Entwicklungszeitpunkt nicht feststeht, welche Prompts tatsächlich benötigt werden, weil sie beispielsweise zur Laufzeit dynamisch erstellt werden müssen.
aufgezeichnete oder generierte sprachliche Ansagen
Der Anrufer reagiert im einfachsten Fall mit Hilfe der Zifferntasten am Telefon (DTMF-Töne). Ein echtes Sprachdialogsystem wird aber erst dann erreicht, wenn der Anrufer den Dialog allein durch seine Sprache steuern kann. Möglich wird dies durch die Einbindung von automatischer Spracherkennung (Automatic Speech Recognition – ASR). Spracherkennung be-
Sprachdialogsystem mit automatischer Spracherkennung
537
12
E-Business
deutet im weitesten Sinne die Umwandlung gesprochener menschlicher Sprache in eine für den Computer verarbeitbare Form und Identifikation einzelner Wörter aus einem bekannten Wortschatz. Je kleiner der zu erwartende Wortschatz ist, desto sicherer arbeitet die Spracherkennung. Die Komplexität des Wortschatzes lässt sich wiederum durch den Aufbau des Dialoges bzw. durch die Art der Voice Prompts steuern. Geschlossene Fragen limitieren die Antwortmöglichkeiten, offene Fragen fördern den natürlichsprachlichen Dialog. natürliche Sprachdialoge
Anspruch von modernen Sprachdialogsystemen ist es, einen möglichst natürlichen Dialog zu erzeugen, der mit dem eines intelligenten, realen Gesprächspartners vergleichbar ist. Dies stellt sehr hohe Anforderungen an die Spracherkennung. Wenn nicht nur einzelne Worte, sondern komplexe gesprochene Satzstrukturen verarbeitet werden sollen, dann spricht man nicht mehr von Spracherkennung sondern vom Verstehen natürlicher Sprache (Natural Language Understanding – NLU). NLU wird erreicht, indem die Basis Spracherkennung mit komplexem Zusatzwissen über die Sprache selbst (Sprachgrammatik) und speziellem Kontextwissen (aus der Anwendungsdomäne) angereichert wird. Dadurch werden Beziehungen zwischen einzelnen Wörtern, Wortgruppen und aufeinander folgenden Sätzen in deren speziellem Zusammenhang erkannt. NLU bietet im Vergleich zur reinen ASR nochmals bessere Erkennungsergebnisse, ist aber auf Grund der Komplexität mit mehr Rechenaufwand und Prozessorleistung verbunden.
automatisierte Abwicklung sprachbasierter Geschäftsprozesse durch Sprachportale
Aus der ursprünglichen Idee, die Wartezeit von Anrufern bei Call Centern sinnvoll zu nutzen, sind durch Einsatz moderner Spracherkennungs- und Sprachsynthesetechnologien komplexe Sprachdialogsysteme entstanden. Diese Plattformen werden inzwischen auch dazu genutzt, einfache wiederkehrende Geschäftsvorgänge vollautomatisiert auszuführen, ohne einen realen Call-Center-Agenten einzubeziehen. Ist ein Sprachdialogsystem dafür ausgelegt, ganze Geschäftsprozesse auf der automatisierten Plattform abzubilden bzw. produktiv abzuwickeln, dann spricht man von einem Voiceoder Sprachportal. Sprachportale zeichnen sich neben der reinen Sprachtechnologie insbesondere durch tief greifende Integration mit Unternehmensdatenbanken und Online-Buchungssystemen aus, die für die direkte Abbildung der Geschäftsprozesse notwendig sind.
Zusammenfassung Call Center sind besondere Organisationsformen zur effizienten Abwicklung kommunikationsintensiver Prozesse. Anhand der Entwicklung vom klassischen Call Center zum Computerintegrierten Communication Center kann die sukzessive Durchdringung der Informationstechnologie in traditionellen Geschäftsfeldern aufgezeigt werden. Die Weiterentwicklung zu vollständig 538
Communication Center
12.7
webbasierten Communication Centern zeigt am praktischen Beispiel das Zusammenwachsen von Informations- und Kommunikationstechnologien bis hin zur deren vollständiger Verschmelzung. Modernste Communication Center sind vollständig webbasiert und bieten den Kunden Kontaktmöglichkeit über alle Medien an. Den höchsten Grad der Automatisierung bieten Sprachportale. Durch Einsatz modernster Sprachtechnologien in Verbindung mit tief greifender Datenintegration ist die teilweise oder vollständige Abbildung sprachbasierter Geschäftsprozesse möglich.
Tabelle 12-2
Communication-Center-Generationen Generation
Zeitraum Kennzeichnendes Merkmal
1.
ab Ende 1970er
Klassisches Call Center 2. Computergestütztes Call Center
í Telefonarbeitsplatz mit Papierbelegerfassung í Call-Center fähige Telefonanlage í automatische Anrufverteilung
ab Ende 1980er
í elektronische Belegerfassung mit Kundendatenbank auf Client/Server-Basis í Call-Center-Software mit automatisierter Steuerung der Arbeitsprozesse í automatisches Wiedervorlagemanagement
3. Computerintegriertes Call Center
4. Web-enabled Call Center / Communication Center 5. Web-integrated Communication Center
ab Anfang 1990er
í CTI (Computer Telefonie Integration) í vollautomatische Rufnummernanwahl mit Vorschau í automatische Anrufsteuerung durch Rufnummernidentifikation
ab Ende 1990er
í Kundenkontakt über verschiedene Medien wie Telefon, Fax, E-Mail, SMS í Internetkontakt über „Call Me Button“ oder Beobachtungsautomatik í Internet als Präsentationsmedium
ab Anfang 2000
í Vereinheitlichung aller textbasierter Kommunikationsdienste auf Internetplattform í Call-Center-Software mit Kundendatenbank und Workflow-Steuerung auf Internetplattform í weltweit vernetzte virtuelle Call Center mit „follow the Sun“-Service
539
12
E-Business
6. Web-based Communication Center
heute erste
í vollständige Integration aller Kommunikationsdienste über Internet
Prototypen
í Echtzeit-Kommunikation mit natürlicher Sprache und Video über Internet í vollständige Konvergenz von Kommunikationsund Informationstechnologien
7. Sprachportale
ab Ende 1990er
í Einsatz moderner Technologien zur automatischen Spracherkennung und Sprachsynthese í tief greifende Integration mit Unternehmensdatenbanken und Online Buchungssystemen í teilweise oder vollständige Abbildung sprachbasierter Geschäftsprozesse
Vertiefende Literatur: ARNOLD, O.; FAISST, W.; HÄRTLING, M.; SIEBER, P.: Virtuelle Unternehmen als Unternehmenstyp der Zukunft? In: HMD – Theorie und Praxis der Wirtschaftsinformatik. 32 (1995) 185. S. 8-23
BOCKLUND, L.; BENGSTON, D.: Call Center Technology Demystified – The No-Nonsense Guide to Bridging Customer Contact Technology, Operations and Strategy. Call Center Press, Annapolis 2004
BRÜCHER, H.; GISLER, M.: E-Government – Von den Grundlagen zur Anwendung. In: HMD – Praxis der Wirtschaftsinformatik, Heft 226, dpunkt, Heidelberg 2002, S. 5-19
DAWSON, K.: Call Center Handbook – The Complete Guide To Starting, Running and Improving Your Call Center. Telecom Books, Gilroy 1999
EHRENBERG, D.; KAFTAN, H.-J.: Herausforderungen der Wirtschaftsinformatik in der Informationsgesellschaft. Wissenschaftsverlag Edition am Gutenbergplatz Leipzig, Leipzig 2003
HELBER, S.; STOLLETZ, R.: Call-Center-Management in der Praxis – Strukturen und Prozesse betriebswirtschaftlich optimieren. Springer, Berlin, Heidelberg 2003
KAUFFELS, F.-J.: E-Business. MITP, Bonn 1998 KÖHLER, T. R.; BEST, R. B.: Electronic Commerce – Konzipierung, Realisierung und Nutzung im Unternehmen. Addison-Wesley, München 2000
KOTELLY, B.: The Art and Business of Speech Recognition. AddisonWesley Professional 2003
540
Communication Center
KRYSTEK, U; REDEL, W.; REPPEGATHER, S: Grundzüge virtueller Organisationen – Elemente und Erfolgsfaktoren, Chancen und Risiken. Gabler, Wiesbaden 1997
MAY, P.: The Business of ECommerce. Cambridge University Press, Cambridge 2000
MERTENS, P.; GRIESE, J.; EHRENBERG, D.: Virtuelle Unternehmen und Informationsverarbeitung. Springer, Berlin 1998
NORRIS, M.; WEST, S.; GAUGHAN, K.: E-Business Essentials. John Wiley and Sons, New York 2000
O’MAHONY, D.; PEIRCE, M.; TEWARI, H.: Electronic Payment
Systems. Ar-
tech House 1997
REBSTOCK, M.; HILDEBRAND, K.: E-Business für Manager. MITP, Bonn 1999 REINERMANN, H.; VON LUCKE, J.: Speyerer Definition von Electronic Government. In: REINERMANN, H.; VON LUCKE, J. (Hrsg.): Electronic government in Deutschland: Ziele, Stand, Barrieren, Beispiele, Umsetzung. Forschungsinstitut für öffentliche Verwaltung, Speyer 2002
SCHEER, A.-W.; KRUPPKE, H.; HEIB, R.: E-Government – Prozessoptimierung in der öffentlichen Verwaltung. Springer, Berlin, Heidelberg 2003
SCHRICK, K.; DOLLINGER, A.: Das innovative Call Center – Erfolgsstrategien für serviceorientiertes Call Center-Management. Econ, München 1999
STEIMER, F. L.: Mit E-Commerce zum Markterfolg – Multimedia und Internet in Unternehmen. Addison-Wesley, München 2000 Wiencke, W.; Koke, D.: Call Center-Praxis – Den telefonischen Kundenservice erfolgreich organisieren. Schäffer-Poeschel, Stuttgart 1999
ZIMERMANN, F.-O.: Betriebliche Informationssysteme in virtuellen Organisationen. Deutscher Universitätsverlag, Wiesbaden 1999
541
12.7
Januar
Historische Ereignisse
Januar Das ARPANET wird vom ursprünglichen Übertragungsprotokoll NCP auf das noch heute übliche TCP/IP umgestellt. Andere bisher entstandene Netze können nun zu einem großen Netz der Netze verbunden werden. Damit entsteht das Internet.
01.01.1983
Die Zeitschrift „Wirtschaftsinformatik“ stellt die Online-Bereiche Preprint, Professional-Archiv und WI-Professional-Recherche nur noch ihren Abonnenten zur Verfügung, da es hier um komplette Volltexte geht, die urheberrechtlich geschützt sind. Ein ungehinderter Zugang besteht nach wie vor zu den Online-Rubriken Übersicht, Aktuell, Services und Veranstaltungsankündigungen. 01.01.2000
01.01.2000
Seit Jahresbeginn ist die elektronische Steuererklärung (ELSTER) in Deutschland verbindlich. Unternehmen müssen alle Umsatzsteuer-Voranmeldungen und Lohnsteuer-Anmeldungen elektronisch, unter Verwendung einer elektronischen Signatur, an das Finanzamt übertragen.
01.01.2005
Steve Jobs und Steve Wozniak gründen die Apple Corporation.
03.01.1977
Die Deutsche Telekom berichtet, dass 90% der deutschen Schulen einen ISDN-Internetzugang besitzen.
11.01.2001
Die französische Firma R2E (Réalisation et Etudes Electroniques) liefert den ersten Rechner aus, der mit einem Mikroprozessor arbeitet. Der Micral-N getaufte Rechner wurde einsatzbereit ausgeliefert und war der Rechner, der den Begriff Mikrocomputer prägte.
15.01.1973
James Watt, der Erfinder der Dampfmaschine, wird in Greenock (Schottland) geboren. Er vervollkommnet den Fliehkraftregler zur Regelung der Drehzahl der Dampfmaschine, wofür er 1784 ein Patent erhält. Die Idee zu diesem Fliehkraftregler spielt eine große Rolle bei der Entwicklung von Automaten.
19.01.1736
Mit einer nach Zeichnungen seines Vaters Charles Babbage gebauten Rechenmaschine, die jedoch nur einen Teil des geplanten "analytischen Rechenautomaten" darstellt, gelingt es Henry Babbage, Vielfache der Zahl Pi zu berechnen.
21.01.1888
543
Historische Ereignisse
24.01.1984
Apple Corporation stellt den Macintosh Personalcomputer vor. 74 Tage nach dessen Einführung sind bereits 50.000 Stück und nach weiteren 26 Tagen insgesamt 70.000 Stück verkauft worden.
25.01.1925
Doug Engelbart wird geboren. 1968 erfindet er die elektronische Maus.
29.01.2003
Hamburg vergibt nach eigenen Angaben als weltweit erste Stadt öffentliche Aufträge im Internet. Der Wert der Aufträge umfasst jährlich 70 Mio. Euro.
1980
Hewlett-Packard schließt die Arbeiten am HP-85 ab. Er besitzt einen Bildschirm mit einer Breite von 32 Zeichen, einen eingebauten Drucker, Kassettenlaufwerk und Keyboard. Sein Preis: US$ 3.250.
1982
Commodore kündigt den Commodore 64 an. Seine Merkmale: 6510 CPU, 64 KB RAM, 20 KB ROM mit Microsoft-BASIC.
1983
Apple Computer stellt den Lisa-Computer vor. Seine Merkmale: 68000 CPU mit 5 MHz, 1 MB RAM, 2MB ROM, schwarz/weiß-Bildschirm, 5,25''Diskettenlaufwerk, 5 MB-Festplatte. Anfangspreis US$ 10.000. Es ist der erste Personalcomputer mit graphischer Benutzeroberfläche. 100.000 Stück werden hergestellt. Steve Jobs von Apple Computer meint: "Wir sind darauf vorbereitet, mit Lisa die nächsten zehn Jahre zu leben."
1988
Spectrum Holobyte stellt Tetris vor, das erste Computerspiel aus der Sowjetunion.
1989
Commodore hat den einmillionsten Amiga-PC verkauft.
1990
Die Zeitschrift „Angewandte Informatik“, die 1959 unter dem Namen „elektronische datenverarbeitung“ begründet und 1972 in „Angewandte Informatik“ umbenannt wurde, erhält die heutige Bezeichnung „Wirtschaftsinformatik“. Sie ist Organ des Fachbereichs Wirtschaftsinformatik der Gesellschaft für Informatik e.V. und der Wissenschaftlichen Kommission Wirtschaftsinformatik im Verband der Hochschullehrer für Betriebswirtschaft e. V. Das Online-Angebot der Zeitschrift Wirtschaftsinformatik ist unter www.wirtschaftsinformatik.de erreichbar.
1993
IBM hat im zu Ende gegangenen Jahr einen Verlust von 4,96 Milliarden US$ erlitten, den größten Verlust, den eine US-Firma bis zu diesem Zeitpunkt jemals zu verkraften hatte.
2003
Wissenschaftler am Pacific Northwest National Laboratory kodieren Informationen in die Erbsubstanz von Bakterien, die auch hundert Generationen später noch ausgelesen werden können. Eine neue Variante der Informationsübertragung entsteht.
544
Februar
Februar Bill Gates und Paul Allen entwickeln BASIC, die erste Programmiersprache für einen PC.
01.02.1975
Den Wissenschaftlern der NASA ist es gelungen, mit den Signalen von Muskelnervenzellen ein Flugzeug zu steuern. Über ein Armband mit Sensoren wurden die Bewegungen des Piloten in ein neuronales Netz überführt, welches die Steuerung einer beschädigten Boing 757 in einem Simulator erfolgreich übernahm.
02.02.2001
Vom Institut für Theoretische Physik der Universität Magdeburg wird ein Computer-Cluster den CeBIT-Teilnehmern für Testzwecke zur Verfügung gestellt. Dieser „Beowulf-Cluster“ besteht aus 72 PCs mit je zwei PentiumIII-Prozessoren mit 800 MHz Taktfrequenz und einer Rechenleistung von 40 GFlops. Er kostet 453.000 DM. Im Juni 2001 erreicht er Rang 329 der TOP 500 der Supercomputer.
07.02.2001
Die Stadtsparkasse München stellt den ersten Geldautomaten in Deutschland vor. Nachdem 1939 der erste aus der Türkei stammende Geldautomat von der City Bank of New York den Probebetrieb wegen mangelndem Kundeninteresse nicht erfolgreich bestand, wurden in den folgenden Jahrzehnten umfassende Verbesserungen durchgeführt. Erst die Einführung einer Plastikkarte mit einem Magnetstreifen mit weltweit einheitlichen Standards und Spezifikationen führte ab den 1970er Jahren international zu einem langsamen Anstieg der Installationen.
09.02.1977
Die erste Funksprechverbindung zwischen Deutschland und den USA besteht in Berlin. Ein dreiminütiges Telefonat nach New York kostet 330 Mark und musste 24 Stunden vorher angemeldet werden.
10.02.1928
Das W3C verabschiedet den ersten offiziellen Standard für XML (eXtensible Markup Language). Die Sprache ist heute marktführend im Dokumentenmanagement.
11.02.1998
Der britische WAP- und Internetportal-Betreiber Genie startet erstmals weltweit Multimedia Messaging Services (MMS) für Mobiltelefone. Textnachrichten vom Handy können per MMS gemeinsam mit Farbbildern, Animationen sowie Audio- oder Videoclips verschickt werden.
13.02.2002
Der ENIAC-Computer wird vorgestellt, nachdem seit 1943 daran unter der Leitung von John Eckert und John Mauchly gearbeitet worden war. Er gilt als der erste vollelektronische Großrechner, besitzt 18.000 Elektronenröhren, 70.000 Widerstände, 6.000 Schalter und 10.000 Kondensatoren, braucht 150kW und nimmt 140 m2 ein. Das Programm muss auf einer Schalttafel gestöpselt werden. Programmverzweigungen sind nicht möglich. Verwendet
14.02.1946
545
Historische Ereignisse
wird das Dezimalsystem. 1973 stellt sich heraus, dass 1942 schon der ABCComputer Atanasoffs fertig gestellt und erfolgreich eingesetzt worden war. Dieser ABC-Computer arbeitete bereits weitgehend elektronisch. 22.02.1999
Erste Full-Service-Bank, die nur über das Internet erreichbar ist, wird in Indiana (USA) gegründet.
22.02.1999
In den USA wird das Internet2 (Adeline) gestartet, ein bedeutend leistungsfähigeres Netz als das bisherige Internet.
28.02.2003
Im Ballungsraum Berlin/Potsdam beginnt das Ende des analogen Fernsehens. Es ist nur noch der Empfang von digitalen Fernsehsignalen über Antenne nach dem DVB-T Standard möglich. Berlin/Potsdam ist damit weltweit die erste Region, die ausschließlich auf ein Digital-Angebot über Antenne setzt.
29.02.1860
Hermann Hollerith wird geboren. Er führt Lochkarten als Datenspeicher für statistische Zwecke ein und erzielt damit 1890 bei der 11. amerikanischen Volkszählung einen überzeugenden Erfolg.
1977
Die Apple Computer Company zieht aus Jobs Garage in ein Bürogebäude in Cubertino um. Wenige Wochen zuvor waren bereits die Angestellten dort eingezogen.
1981
MS-DOS läuft erstmalig auf dem Prototyp des IBM-PC.
1982
Intel stellt den 80 286 vor. Er besitzt 134.000 Transistoren, bietet einen 16-BitDaten-Bus, arbeitet mit 6 MHz bei 0,9 MIPS und kann 16 MB reellen und 1 GB virtuellen Speicher adressieren. Spätere Versionen arbeiten mit 10 MHZ bei 1,5 MIPS und 12 MHz bei 2,66 MIPS.
1982
Sun Microsystems wird gegründet.
1993
Apple Computer verkauft den zehnmillionsten Macintosh.
1993
Der erste WWW-Browser (Mosaic) wird von NCSA herausgegeben.
1997
Ein vernetztes EDV-System unter Linux bildet das Rückgrad der SixtAutovermietung. Das US Post Office hat in seinen Verteilerzentren 4.500 Linux-Systeme installiert, um mit einer Texterkennungssoftware die Adressen von allen Briefen zu lesen, zu kennzeichnen und zu sortieren.
2000
Microsofts Windows 2000 kommt auf den Markt und ist eine technische Weiterentwicklung von Windows NT 4.0.
2003
Angreifer haben sich in den USA über das Internet Zugang zu mehr als 8 Millionen Kreditkarten-Konten der Anbieter American Express, MasterCard und Visa verschafft.
546
März
März US-Forscher aus Stanford stellen einen Internet-Geschwindigkeitsrekord auf. In 58 Sekunden wurden über ein Glasfaserkabel 6,7 Gigabit über eine Strecke von 11.000 Kilometern transportiert. Dieser Transfer ist damit etwa 3500 Mal schneller als die derzeit gebräuchliche Geschwindigkeit bei Breitbandübertragungen.
07.03.2003
Erstes Telefongespräch durch Alexander Graham Bell und seinem Assistenten Thomas Augustus Watson.
10.03.1876
Die erste CeBit-Messe in Hannover wird eröffnet. Heute ist es die weltweit größte Messe für Informations- und Kommunikationstechnologien mit über 8.000 Ausstellern.
12.03.1986
Gottfried Wilhelm von Leibniz schreibt die dreiseitige Arbeit "De Progressione Dyadica", in der er das System der Dualzahlen entwickelt. 300 Jahre später wird es eine Grundlage der Rechentechnik sein.
15.03.1679
Symbolics.com wird der erste registrierte Domain Name. Andere frühe Domain Names aus dieser Zeit sind: cmu.edu, purdue.edu, ucla.edu und css.gov.
15.03.1985
Howard Aiken wird geboren. Er entwickelt den ersten programmgesteuerten Rechenautomaten der USA, den Harvard Mark I. Mark I und dessen Nachfolger Mark II sind elektromagnetische Computer auf der Basis von Relais. Bei Mark III und Mark IV wird bereits eine Vielzahl elektronischer Bauteile, wie Elektronenröhren und auch Transistoren, verwendet.
19.03.1900
Der TRADIC wird in den USA fertig gestellt. Es ist der erste mit Transistoren gebaute Computer. Er besitzt 800 Transistoren, 11.000 Germaniumdioden und braucht 100 Watt.
19.03.1955
Eine Forschergruppe der AT&T Bell Laboratorien (New Jersey, USA) entwickelt Transistoren aus organischem Material (lebende Chips). Damit stehen der Wirtschaft und Forschung völlig neue technische und wirtschaftliche Anwendungsmöglichkeiten offen.
20.03.1999
Die erste Remington-Rand UNIVAC wird an das Bureau of the Census übergeben. Fünf Jahre lang hatten John Eckert und John Mauchly daran gebaut, das Budget weit überschritten und die ursprüngliche Firma fast in den Ruin getrieben. Ein Jahr später, bei der Präsidentschaftswahl von 1952, wird der Name UNIVAC durch die mit einem UNIVAC-Rechner erstellte Wahlprognose berühmt werden.
30.03.1951
547
Historische Ereignisse
1972
Ray Tomlinson von BBN schreibt die grundlegende Software für den Dienst E-Mail.
1976
Steve Wozniak und Steve Jobs beenden ihre Arbeit an einer Computer- Platine, die sie Apple-I-Computer nennen.
1976
Intel stellt den 8085 vor. Er besitzt 6.500 Transistoren, bietet einen 8-Bit-Bus, arbeitet mit 5 MHz und leistet 0,37 MIPS.
1980
Microsoft kündigt sein erstes Hardwareprodukt an. Es ist die Z-80 SoftCard für den Apple II. Sie ermöglicht es, den Apple II unter dem Betriebssystem CP/M laufen zu lassen und enthält darüber hinaus noch Microsofts Disk BASIC. Sie kostet US$ 349. Im ersten Jahr werden 25.000 Stück verkauft.
1983
IBM kündigt den IBM PC XT an. Er verfügt über 128 KB RAM, 10 MBFestplatte, 360 KB-Diskettenlaufwerk, drei zusätzliche Erweiterungssteckplätze und serielle Schnittstelle. Er kostet US$ 5.000.
1983
MS-DOS 2.0 wird angekündigt. Es unterstützt 10 MB-Festplatten, 360 KBDiskettenlaufwerke und ein Dateisystem in Baumstruktur.
1987
Apple Computer stellt den einmillionsten Macintosh her.
1987
3M stellt eine High Density Diskette in der Größe 3,5'' mit 2 MB vor.
1989
GIF (Graphics Interchange Format) wird als erstes Grafikformat für Computer eingeführt.
1993
Amstrad beginnt die Auslieferung des Pen Pad PDA600 Personal Digital Assistant in England. Es ist der erste PDA, der in den Handel kommt. Er wiegt weniger als ein halbes Kilogramm, ist ein Zoll dick und hat ein 3x4Zoll-Display. Die CPU ist ein Zilog Z8 S180 und der RAM ist 128 KB groß. Mit Batteriebetrieb ist das Gerät 40 Stunden einsatzbereit.
1993
Intel stellt den Pentium vor. Er besitzt 3,1 Millionen Transistoren, ein 32-BitRegister und einen 64-Bit-Datenbus. Seine beiden Versionen arbeiten bei 60 MHz mit 100 MIPS und bei 66 MHz bei 112 MIPS.
1994
Erste stabile Version des freien Unix-ähnlichen Betriebssystems Linux, Version 1.0. Durch die Veröffentlichung des Sourcecodes arbeiten immer mehr Programmierer daran und entwickelten es bis heute zu einem Windowsalternativen Betriebssystem.
1995
Die Zahl der Zugriffe über das World Wide Web (WWW) übersteigt die von FTP. Das WWW wird damit der weltweit führende Internetdienst.
2000
Intel beginnt den 1 GHz-Prozessor zu produzieren.
548
April
April Der erste meteorologische Satellit wird gestartet. In den folgenden 2,5 Monaten übermittelt er 22.962 Wolkenbilder.
01.04.1960
Das erste Telefongespräch mit einem mobilen Telefon zwischen den Chefs von Motorola und Bell South wird geführt. Das Handy wiegt 850 Gramm. Der Versuch sollte die Machbarkeit von portablen Telefonen demonstrieren.
03.04.1973
Steve Crocker schreibt das erste Request For Comment (RFC). So nennt er, ganz zurückhaltend, die Spezifikationen des TCP/IP und aller darauf aufbauenden Dienste. Sie sind im Internet frei zugänglich und damit Merkmal dessen offener Architektur. Sein RFC heißt "Host Software".
07.04.1969
Christiaan Huygens wird in Den Haag geboren. Er wird zu einem über seine Zeit hinaus bekannten Physiker, Mathematiker und Astronomen. Für die Informationstechnik bedeutsam ist seine Erfindung der Pendeluhr, bei der er eine funktionale Verbindung zwischen einem steuernden und einem gesteuerten Teil schafft. Dies ist ein Meilenstein auf dem Weg zum Automaten.
14.04.1629
Intel führt den Pentium 4 Prozessor mit einer 1,7GHz Taktrate ein. Dies ist damit der momentan weltweit schnellste Prozessor für Desktop PCs.
23.04.2001
Andrej Nikolajewitsch Kolmogorow wird in Russland geboren. Er trägt wesentlich zur Entwicklung der Wahrscheinlichkeitsrechnung bei. Um 1939 entwickelt er eine mathematisch begründete Vorhersagetheorie durch Betrachtungen des Hilbert-Raums. Unabhängig davon kommt Norbert Wiener in den USA zu einer gleichwertigen Theorie, jedoch ausgehend von dem völlig anderen Problem der Steuerung von Flugabwehrgeschützen.
25.04.1903
George Stibitz wird geboren. In den 30er Jahren entwickelt er im Bell Telephone Laboratory Relais-Rechner aus Schrotteilen. Im Januar 1940 ist sein Complex Computer fertig, mit dem er im September die erste Fernbedienung demonstriert. Stibitz führt den Begriff „digital“ ein.
30.04.1904
Claude Elwood Shannon wird in Gaylord (Michigan) geboren. 1949 wird er durch seine Arbeit „A mathematical theory of communication“, in der er das Bit einführt und als Einheit einer Informationsmenge definiert, zu einem Mitbegründer der Informationstheorie.
30.04.1916
Das Internet hat 23 Hosts.
1971
Intel gibt den 8080 frei. Er besitzt 6.000 Transistoren, bietet einen 8-Bit- Bus, arbeitet mit 2 MHz und leistet 0,64 MIPS.
1974
Bill Gates und Bob Allen gründen Micro-Soft. Der Bindestrich wird später weggelassen.
1975
549
Historische Ereignisse
1977
Apple Computer Company stellt den Apple II-Computer offiziell vor. Er zeichnet sich aus durch: 6502 CPU, 4 KB RAM, 16 KB ROM, Keyboard, 8Slot-Motherboard, Joystick, Grafik/Text-Oberfläche auf Farbbildschirm, fest installiertes BASIC. Preis. US$ 1.300. Es ist der erste Personalcomputer mit Farbgrafik.
1981
Adam Osborne stellt seine Erfindung, den ersten tragbaren Computer mit dem Namen Osborne 1, vor. Der Koffercomputer wog 12 Kilogramm.
1982
Lotus Development Corporation wird gegründet.
1982
Acht Monate nach der Einführung des IBM-PC wurden bereits 50.000 Stück verkauft.
1983
Microsoft stellt das Textverarbeitungsprogramm Multi-Tool Word für DOS vor. Es wird später in Microsoft Word umbenannt.
1983
Microsoft gibt eine erste Demonstration seines Interface Managers, der eine Oberfläche von sich überlappenden Fenstern zeigt. Später wird er auf Anraten von Microsofts Marketingmitarbeiter Rowland Hanson in Windows umbenannt.
1989
Intel kündigt den 80486 an. Er besitzt 1,2 Millionen Transistoren, arbeitet bei 25MHz und leistet 20 MIPS.
1992
Microsoft liefert Windows 3.1 aus. In den ersten 50 Tagen werden eine Million Kopien verkauft und es ist die erste kommerziell erfolgreiche WindowsVersion.
1993
Compaq, Intel, Microsoft und Phoenix Technologies definieren die Plugand-Play-Spezifikation für PCs.
1997
Über 1 Million Server unterstützen das WWW.
2001
Eine Studie ergibt, dass die Softwarefirmen in Deutschland rund ein Drittel ihres Umsatzes wieder für die Beseitigung von Softwarefehlern ausgeben müssen.
2002
Der weltweit einmilliardste Computer wird verkauft. Rund 75% der Computer wurden an Arbeitsplätzen eingesetzt, der Rest fand private Verwendung. 81,5% waren Desktop-PCs, 16,4% Notebooks und 2,1% Server. Mit rund 40% oder 394 Millionen PCs ging der Löwenanteil in den USA über die Ladentische, fast ein Viertel wurde in Europa verkauft und etwa 12% im AsienPazifik-Raum.
2002
US-Wissenschaftler erzeugen mit Hilfe genetisch veränderter Viren regelmäßige Strukturen aus so genannten Quantenpunkten. Diese Strukturen lassen sich für neuartige Displays, magnetische Speichermedien oder molekulare Elektronik nutzen.
550
Mai
Mai Microsoft stellt seine erste elektronische Maus vor. Einschließlich Steckkarte und Software kostet sie US$ 200.
02.05.1983
Der Earth Simulator in Yokohama erreicht mit 35,86 Teraflops die bis dahin höchste gemessene Performance eines Supercomputers. Er ist somit knapp 5 Mal schneller als der zweitschnellste Computer der Welt. Die Kosten für den Computer beliefen sich auf etwa 200 Millionen Euro.
03.05.2002
Die zweimillionste Internet-Domain wird registriert.
04.05.1998
Die amerikanische Firma Nortel entwickelt ein Glasfaserkabel, das den Text von 20 Millionen Büchern in 14 Sekunden um die Welt senden kann. Damit wird die bisherige Kapazität und Geschwindigkeit um den Faktor 640 erhöht.
04.05.1999
EDSAC, die erste arbeitsfähige Rechenanlage mit speicherprogrammierbarer Steuerung, arbeitet in Manchester erstmalig ein Programm zur Berechnung einer Quadratzahlentabelle ab.
06.05.1949
Intel stellt eine neue Version des Pentium 4 vor, welche bis zu 2,53 GHz Taktfrequenz erreicht.
06.05.2002
Eine dreiköpfige Familie im US-Bundesstaat Florida lässt sich als weltweit erste Familie einen Computerchip von der Größe eines Reiskornes einpflanzen, auf dem ihre Telefonnummer und Informationen über Medikamente gespeichert sind. Der Eingriff fand unter örtlicher Betäubung statt und wurde von einem Fernsehsender live übertragen.
10.05.2002
Jay Forrester beantragt ein Patent für einen Matrixspeicher mit Ferritkernen. Das Patent für die Ferritkerne war bereits von An Wang beantragt worden.
11.05.1951
Daniel Bricklin und Bob Frankston führen Visicalc vor, das erste Tabellenkalkulationsprogramm.
11.05.1979
Der Computer Deep Blue von IBM besiegt Garry Kasparov im Schach. Die ist das erste Mal, dass ein Computer einen Schachweltmeister im Turnier schlägt.
11.05.1997
Konrad Zuse führt den Z3 vor, den ersten programmgesteuerten Rechenautomaten der Welt. Der Z3 besitzt ein Rechenwerk mit 600 Relais und einen Speicher mit 1.400 Relais. Er arbeitet mit Dualzahlen und der Gleitkommaarithmetik und ist voll funktionsfähig.
12.05.1941
Eine Liste von britischen MI6-Geheimagenten erscheint im Netz. Sie sorgt für großen Aufruhr in der englischen Politik.
15.05.1999
551
Historische Ereignisse
17.05.1991
Es erfolgt die Freigabe des WWW auf Computern des Europäischen Kernforschungszentrums (CERN), wo es entwickelt worden ist.
18.05.2001
Das Europäische Parlament bestätigt, dass ein weltweites Überwachungsnetz im Internet (ECHELON interception system) existiert, welches private Daten und Firmendaten im Internet für Sicherheitszwecke abfangen kann. Das Europäische Parlament erklärt auch dessen Rechtmäßigkeit.
22.05.1973
Robert Metcalf skizziert seine Ideen zum Ethernet, einem später weit verbreiteten Standard für lokale Netze.
22.05.1990
Microsoft liefert Windows 3.0 aus. Im ersten Jahr werden über drei Millionen Kopien verkauft, zu einem Preis von je US$ 150.
23.05.1995
Die Firma SUN bringt die Sprache Java auf den Markt. Java ist heute eine der meistgenutzten Programmiersprachen.
24.05.1844
Das erste Telegramm wird durch Samuel B. Morse verschickt.
28.05.1959
Das CODASYL-Komitee wird mit dem Ziel gegründet, eine einheitliche Programmiersprache für den betriebswirtschaftlichen Einsatz zu schaffen. Ein Jahr später wird COBOL vorgelegt.
28.05.2002
Ein Jahr nach der Markteinführung hat Microsoft über 60 Millionen OfficeXP-Lizenzen verkauft. Damit sind die Verkaufszahlen doppelt so hoch wie die Lizenzzahlen, welche Office 2000 im vergleichbaren Zeitraum erreicht hat.
30.05.2001
In Japan wird das weltweit erste UMTS-Netz der dritten Mobilfunkgeneration in Testbetrieb genommen.
1983
Sony kündigt das doppelseitige 3,5''-Diskettenlaufwerk mit doppelter Dichte an.
1988
Apple Computer schließt einen Vertrag mit Quantum Computer Services über die Gründung von AppleLink Personal Edition. Später wird es in America Online umbenannt.
1995
Die National Science Foundation beendet ihre Unterstützung des Internet Backbone. Von nun an muss sich der Internetverkehr auf kommerzielle Netze stützen.
2001
Einsatzmöglichkeiten von Linux nehmen weltweit zu: als HandheldComputer, File-, Datenbank-, Web- und E-Mail-Server, als Firewall, Arbeitsplatzrechner, Supercomputer, CAD-Arbeitsplatz, Cluster.
552
Juni
Juni Das ARPANET wird nach 21 Betriebsjahren aufgelöst. Inzwischen haben viele Menschen ihre privaten Computer an das Internet angeschlossen, das bereits erstaunlich leistungsfähig geworden ist. Sein ursprünglicher Kern aber ist entbehrlich geworden.
01.06.1990
Zwischen der Moore School der University of Pennsylvania und der militärischen Einrichtung Aberdeen Proving Ground wird der Vertrag über die Entwicklung des ENIAC, der ersten vollelektronischen, programmierbaren Rechenanlage, abgeschlossen.
05.06.1943
Tim Berner-Lee, der Erfinder des World Wide Web wird in London geboren.
08.06.1955
Die Firma Vitaphone bringt ein Handy auf den Markt, das die Herzfunktionen des Besitzers erfassen, speichern und an medizinische Spezialisten weiterleiten kann. Im Notfall wird der Rettungsdienst alarmiert und der Standort des Patienten über GPS-Satellitenortung ausfindig gemacht.
09.06.2001
Motorola brachte mit dem DynaTAC 8000X das erste kommerzielle Mobiltelefon der Welt in den USA auf den Markt. Es hatte ein Gewicht von 794 Gramm, eine Höhe von 33 Zentimeter, eine maximale Gesprächsdauer von einer Stunde, einen Speicher für 30 Telefonbucheinträge und kostete 3.995 US$. Ein Jahr später waren bereits 300.000 Stück abgesetzt.
13.06.1983
IBM wird gegründet (erhält diesen Namen aber erst 1924).
15.06.1911
Blaise Pascal wird in Rouen (Frankreich) geboren. Er erfindet eine Rechenmaschine mit automatischem Übertrag sowie das Pascalsche Dreieck, den Schubkarren und das Roulette-Rad.
19.06.1623
Die erste erfolgreiche Langspielplatte wurde von dem ungarischamerikanischen Physiker Peter Carl Goldmark in Atlantic City (N. J.) vorgestellt und löste die bis dahin gängigen Schellackplatten ab.
21.06.1948
Konrad Zuse wird in Berlin geboren. Über den mechanischen, nicht ganz funktionsfähigen Rechner Z1 (1938) und den unvollendeten elektromechanischen Z2 (1939) realisiert Zuse mit dem Z3 (1941) den ersten programmgesteuerten Rechenautomaten der Welt. Leider werden alle drei Rechner durch Kriegseinwirkungen zerstört.
22.06.1910
Die Ingenieure von Mannesmann D2 starten weltweit offiziell GSM (Global System for Mobile Communication). Die digitale GSM-Technik tritt weltweit ihren Siegeszug an. 1998 existieren deutschlandweit 14 Millionen und im Jahr 2000 bereits 48 Millionen Handys.
22.06.1992
Alan Turing wird in London geboren. Er erarbeitet das erste abstrakte Modell einer universellen Rechenmaschine (Turing-Maschine). Mit dessen Hilfe
23.06.1912
553
Historische Ereignisse
gelingt z.B. die Klärung solcher Begriffe wie Berechenbarkeit und Entscheidbarkeit von Problemen. 23.06.1971
RFC 172 erscheint, worin das File Transfer Protocol (FTP) begründet wird.
29.06.2001
Den Titel des schnellsten Rechners der Welt trägt nunmehr der IBM RS/6000 ASCI White mit 8192 Prozessoren in 512 Rechnereinheiten mit jeweils 16 IBM Power3-III CPUs, leistet 12,3 Teraflops. 6,2 Terabytes Arbeitsspeicher und 160 Terabytes Festplattenkapazität hat das 110 Millionen US$ teure Systems. Der ASCI White ist damit bereits 1.000 Mal leistungsfähiger als IBMs Deep Blue, der 1997 Schachgenie Kasparov schlagen konnte.
30.06.1999
Microsoft erreichte im vergangenen Geschäftsjahr mit 32.000 Angestellten in 60 Ländern Einnahmen von 20 Milliarden US$.
1978
Intel stellt den 8086 vor. Er besitzt 29.000 Transistoren, bietet einen 16-BitBus und 16-Bit-Datenregister, arbeitet mit 4,77 MHz, leistet 0,33 MIPS und kann 1 MB adressieren. Später wird die Geschwindigkeit erhöht: 8 MHz mit 0,66 MIPS und dann 10 MHz mit 0,75 MIPS.
1982
Der erste IBM-PC-Klon erscheint. Es ist der MPC von Columbia Data Products.
1982
Digital Equipment kündigt den Dualprozessor Rainbow 100 an. Er soll eine Zilog Z-80 und einen Intel 8088 enthalten und damit unter den Betriebssystemen CP/M, CP/M-86 und unter MS-DOS laufen können.
1983
Der einmillionste Apple II wird fertig gestellt.
1984
Ashton-Tate liefert dBASE III aus.
1986
ISDN wird erstmals in mehreren deutschen Großstädten getestet.
1989
Apricot Computers kündigt den ersten PC mit dem 80 486 an, den VX FT. Er kostet US$ 18.000.
1990
US-Behörden beginnen eine Untersuchung, ob Microsoft den PC Softwaremarkt monopolistisch beherrscht.
1994
Von Juni bis August stiehlt Wladimir Lewin aus St. Petersburg mehrere Millionen US$ bei der Citibank. Er ist der erste bekannte InternetBankräuber.
2005
Den Spitzenplatz der Top 500 nimmt IBMs BlueGene/L - eServer Blue Gene Solution vom Lawrence Livermore National Laboratory in Kalifornien ein, der mit 65.536 PowerPC440 mit je 700 MHz ausgestattet ist und 136,8 Teraflops erreicht. Ende 2005 erreicht er nach verschiedenen Erweiterungen eine Rechengeschwindigkeit von 280 Teraflops.
554
Juli
Juli Gottfried Wilhelm Leibniz wird in Leipzig geboren. Er war einer der letzten Universalgelehrten und entwickelte u. a. eine komplizierte Rechenmaschine, die aber wegen mangelnder Präzision der Mechanik nicht zur Funktion gebracht werden kann. Eine seiner bedeutendsten Leistungen ist aber die Schaffung des Systems der Dualzahlen.
01.07.1646
Der IBM 650 wird angekündigt, der erste Computer aus der Serienproduktion. Er gibt einer Generation von Studenten erste Computererfahrungen. Etwa 1.000 Stück wurden geliefert.
02.07.1953
Mit Hilfe der Firma Sun Microsystems kann die Marslandung der NASA im Internet verfolgt werden.
04.07.1997
Joseph-Marie Jacquard wird in Lyon (Frankreich) geboren. Nachdem von dem französischen Mechaniker Falcon gelochte Holzbrettchen für die Steuerung von Webstühlen verwendet worden waren, erfindet er für diesen Zweck die Lochkarte. Von dieser Erfindung werden sowohl Babbage als auch Hollerith ausgehen als sie Lochkarten als Speichermedium in ihren Entwürfen vorsehen.
07.07.1752
TELSTAR 1, der erste aktive Nachrichtensatellit, wird in den USA gestartet. Der Satellit empfängt die von einer Bodenstation gesendeten Signale (Fernsehsendungen, Ferngespräche) und strahlt sie auf einer anderen Frequenz mit einer Leistung von 3 Watt wieder ab.
10.07.1962
Jay Forrester wird in Climax (USA) geboren. 1947 entwickelt er einen Speicher mit wahlfreiem Zugriff auf der Basis von Glimmlampen. 1949 verwendet er statt Glimmlampen ringförmige Magnetkerne. Speicher dieser Bauart dominieren in mittleren und großen Rechenanlagen bis in die 1970er Jahre.
14.07.1918
Intel wird gegründet, der Marktführer bei Mikroprozessoren.
18.07.1968
Microsoft ist die erste Computer-Firma, die den Betrag von 1 Milliarde US$ Verkaufserlöse innerhalb eines Jahres überschreitet.
25.07.1990
Das erste Telekommunikations-Untersee-Kabel wird zwischen den USA und England in Betrieb genommen.
27.07.1866
Die Datenmengen, die über das Internet erreichbar sind, werden momentan auf 7.500 Terabyte geschätzt. Davon werden aber nur 0,2% von herkömmlichen Suchmaschinen erfasst.
28.07.2000
Arthur Samuel, geboren 1901, stirbt in Kalifornien. Er hatte die Idee, für einen Computer ein Schachprogramm zu schreiben. Es sollte den Weltmeister schlagen können und damit die Leistungsfähigkeit von Computern de-
29.07.1990
555
Historische Ereignisse
monstrieren. Später schuf er ein solches Programm für den IBM 701. Es kann als das erste selbstlernende Programm angesehen werden. 30.07.1959
Robert Noyce und Gordon Moore beantragen ein Patent im Namen der Fairchild Semiconductor Corporation für den von ihnen entwickelten integrierten Schaltkreis (Microchip) auf Silizium-Basis. Texas Instruments geht im Namen von Jack Kilby gerichtlich dagegen vor, doch das Gericht entscheidet (1969!) zugunsten von Noyce. Kilby hatte 1958 den ersten integrierten Schaltkreis auf Germanium-Basis geschaffen, Noyce dagegen die erste kommerziell nutzbare praktische Anwendung.
31.07.2001
AMDs neuestes Werk, die Fab 30 in Dresden, hat den zehnmillionsten AthlonTM Prozessor ausgeliefert.
1961
Die erste Veröffentlichung Leonard Kleinrocks vom MIT über die Theorie der Paketvermittlung in Computernetzen erscheint.
1972
Lawrence Roberts erweitert die E-Mail-Software zu einem zweckmäßigen Dienstprogramm. Es erlangt schnell Verbreitung und macht E-Mail für ein Jahrzehnt zur meistgenutzten Netzanwendung.
1975
Dick Heiser eröffnet in Los Angeles die Arrow Head Computer Company, Untertitel "The Computer Store". Es ist der erste Computerladen in den USA.
1976
Zilog gibt den Z80 frei. Er bietet einen 8-Bit-Bus und arbeitet mit 2,5 MHz.
1980
IBM beginnt das Projekt Chess zur Entwicklung eines Mikrocomputers. Kurz darauf fragt das IBM-Management Bill Gates, ob er ein Betriebssystem dafür schreiben möchte. IBM fragt aber auch Digital Research, ob deren CP/M-86 verfügbar wäre, doch Gary Kildall ist nicht interessiert.
1981
Microsoft kauft von Seattle Computer Products die Rechte an DOS. Es bekommt den Namen MS-DOS.
1981
Der erste IBM-PC läuft vom Band.
1983
AT&T Bell Labs entwirft C++.
1992
Delphi, der erste kommerzielle Onlinedienst wird eröffnet und bietet E-Mail an.
1993
Ein Feuer zerstört eine Anlage der Sumitomo Chemical Company in Japan. Dort waren 60% des Weltbedarfs an Cresol hergestellt worden, das für die Gehäuse von Speicherchips gebraucht wird.
1996
Das Internet hat über 12 Millionen Hosts und fast 500.000 Domains.
556
August
August Der größte chinesische PC-Hersteller TLC liefert ab sofort alle seine Computer mit dem Betriebssystem „Rote Fahne 2.0“ aus. „Rote Fahne“ ist eine chinesische Entwicklung auf der Grundlage des alternativen Betriebssystems Linux und arbeitet mit chinesischen Schriftzeichen. Die Firma folgt damit den Bedenken der chinesischen Regierung um die Sicherheit des Betriebssystems Windows.
05.08.2000
Der Harvard Mark I wird eingeweiht. Er gilt als erster programmgesteuerter Rechenautomat der USA und war auf Initiative von Howard Aiken bei IBM entwickelt worden. Der elektromechanische Mark I ist 16 m lang und 2,5 m hoch, hat eine Masse von 35 Tonnen und etwa 700.000 Einzelteile, darunter 3.000 Kugellager. Das Programm ist auf einem Lochstreifen kodiert. Zusätzlich dienen Stecktafeln an einzelnen Baugruppen der Programmierung. Eine Addition dauert 0,3 s, eine Multiplikation etwa 6 s, eine Division 11 s. Damit ist der Mark I langsamer und dabei größer als der bereits 1941 fertig gestellte Zuse Z3. Der Mark I liefert dennoch zuverlässige Resultate und kann 24 Stunden am Tag laufen. Verwendet wird das Dezimalsystem (daher viele Zahnräder und Kugellager).
07.08.1944
Die UMTS-Lizenzen für Deutschland werden für einen Wert von ca. 50 Milliarden Euro von der Regierungsbehörde für Telekommunikation und Post versteigert.
08.08.2000
Netscape und einige andere mit Netztechnologien befasste Firmen gehen an die Börse.
09.08.1995
Tom Kilburn wird in Dewsbury (England) geboren. Er baut 1948 den Manchester Mark I, den ersten Computer, der Programme und Daten im selben Speicher enthält.
11.08.1921
Der neunmillionste Antrag für eine .de-Domain wurde bei der DENIC (Deutsche Registrierungsstelle für Internet-Domains) gestellt.
20.08.2005
Der 21-jährige finnische Student Linus Thorvalds gibt die Entwicklung des freien Unix-ähnlichen Betriebssystems Linux, Version 0.01 bekannt.
25.08.1991
Wissenschaftler am IBM Watson Research Center realisieren erstmals einen logischen Schaltkreis aus Kohlenstoff-Nanoröhrchen. Das NOT-Gatter besteht aus zwei hintereinander geschalteten Feldeffekttransistoren – einem pund einem n-Typ-Transistor. In zehn bis fünfzehn Jahren, wenn die weitere Integration von Silizium-Schaltkreisen wahrscheinlich an physikalische Grenzen stößt, wollen die IBM-Wissenschaftler Silizium durch KohlenstoffNanoröhrchen ersetzen können.
27.08.2001
557
Historische Ereignisse
30.08.1907
John Mauchly wird in Cincinnati geboren. Er gilt als Miterfinder des ENIAC, des ersten vollelektronischen Computers. Darüber hinaus entwickelt er Vorstellungen über die Verwendung des ENIAC in der Ballistik und der Meteorologie.
1962
J.C.R. Licklider vom MIT trägt Gedanken über ein mögliches globales Computernetz und dessen soziale Wechselwirkungen vor.
1979
Wayne Ratliff entwickelt das Datenbankprogramm Vulcan. Ashton Tate vermarktet es später als dBASE II.
1980
Hal Lashlee und George Tate gründen Software Plus. Später wird der Name in Ashton-Tate geändert.
1981
IBM kündigt den IBM 5150 Personal Computer an. Seine Merkmale: 8088 CPU mit 4,77 MHz, 64 KB RAM, 40 KB ROM, 5,25“ Diskettenlaufwerk (160 KB), MS-DOS, Preis: US$ 3.000. Eine voll ausgebaute Version mit Farbgrafik kostet US$ 6.000.
1984
Am Fachbereich Informatik der Universität Karlsruhe wird der erste deutsche Knoten an das CSNet eingerichtet, somit war es erstmals möglich mit anderen angeschlossenen Einrichtungen in den USA, Kanada, Schweden und Israel per E-Mail zu kommunizieren. Am 2. August wurde in Karlsruhe die erste deutsche E-Mail empfangen.
1990
Gilbert Hyatt bekommt 20 Jahre nach der Beantragung sein Patent für den Ein-Chip-Computer (Taschenrechner) erteilt.
1991
Das Verbot von Geschäften im Internet wird aufgehoben.
1998
Hewlett Packard baut den 30-millionsten Laser-Drucker.
2000
Wissenschaftler der Brandeis University stellen die ersten sich selbst auch materiell replizierenden Roboter vor. Es ist der erste automatische Koevolutionsprozess von Hardware und Software.
2000
Eine Erhebung bei führenden Mobiltelefon-Konzernen und Forschungsagenturen ergibt, dass etwa 570 Millionen Menschen weltweit in Besitz eines Mobiltelefons sind. Dies ist etwa ein Zehntel der Weltbevölkerung.
2004
Auf der Website des Chipherstellers Intel wird zum ersten Mal ein 64-BitChip für PCs und Workstations präsentiert.
2005
Eine Umfrage des Marktforschungsinstitutes Marplan ergab, dass in Deutschland 70% der Bevölkerung ein Handy besitzen. Dabei spielt das Alter eine maßgebliche Rolle, denn 93% der 14 bis 34-Jährigen und nur 31% bei den über 65-Jährigen besitzen ein Mobiltelefon.
558
September
September Der erste Interface Message Processor wird an der University of California Los Angeles mit dem dortigen Computer verbunden. Dies ist der erste Knoten des zu realisierenden ARPA-Netzes. Der zweite Knoten wird am 1. Oktober geschaffen.
02.09.1969
John McCarthy wird in Boston geboren. Er gilt als einer der Väter der künstlichen Intelligenz und er entwirft 1959 die Sprache LISP aus Unzufriedenheit über die begrenzten Möglichkeiten von FORTRAN.
04.09.1927
Videokonferenzsysteme werden erstmals in der Raumfahrt genutzt.
08.09.1995
Dennis Ritchie wird in Mount Vernon (USA) geboren. Zusammen mit Ken Thomson entwickelt er das Betriebssystem UNIX und zusammen mit Richard Kernighan die Programmiersprache C.
09.09.1941
Grace Hopper gelingt es, den Harvard Mark II wieder zum Laufen zu bringen, nachdem sie eine Motte von den Kontakten eines Relais entfernt hatte. Auf Howard Aikens Frage, was sie gerade tue, antwortet sie: „debugging the computer“. Der Ausdruck „bug“ (engl. Wanze, am. Insekt) wurde wahrscheinlich erstmalig von Thomas Edison für einen technischen Defekt gebraucht. Grace Hopper verwendet ihn jedoch erstmalig für ein Computerproblem. Die von ihr gefundene Motte wird sorgfältig ins Maschinentagebuch des Mark II eingeklebt und geht später in die Sammlung der Smithonian Institution in Washington DC ein. Dort ist sie noch heute.
09.09.1945
Das Unternehmen Maxtor kündigt eine IDE-Festplatte mit 320 GByte Kapazität an. Der Festplattenhersteller schafft es damit als erster, 80 GByte auf einer Magnetscheibe unterzubringen.
09.09.2002
Georg Stibitz demonstriert im Dartmouth College die Fernbedienung eines Rechners. Unter Verwendung eines Fernschreibers und einer Telefonverbindung nach New York City steuert er seinen Complex Numbers Calculator in den Bell Telephone Laboratories.
11.09.1940
Nachdem sich zunächst zwei verschiedene Formate entwickelten, wurde im September 1995 der DVD-Standard festgelegt, allerdings erschienen die ersten DVD-Player und Filme in den USA erst im März 1997.
15.09.1995
Hacker erlangen über das Internet Zugriff auf Computer des USGeheimdienstes CIA.
19.09.1996
Microsoft und Ford kündigen Zusammenarbeit an: Das Wunschauto kann vom Kunden über das Internet konfiguriert und bestellt werden.
22.09.1999
Hermann Hollerith beantragt ein Patent für seine Tabelliermaschine. Es ist die erste kommerziell verwendbare Anwendung der Lochkartenverarbei-
23.09.1884
559
Historische Ereignisse
tung. Aus der von ihm gegründeten Hollerith Tabulating Company geht schließlich IBM hervor. 29.09.1983
MS Word erscheint als erstes Textverarbeitungsprogramm für den PC.
1974
Creative Computing, die erste Computer-Hobbyzeitschrift wird gegründet.
1982
Commodore beginnt die Auslieferung des Commodore 64. Sein Preis beträgt anfangs 595 US$, fällt aber im Lauf des Jahres 1983 auf 200 US$. Der C64 wird mit ca. 20 Millionen Exemplaren der meistverkaufte Computer aller Zeiten.
1988
SPEC wird ins Leben gerufen mit dem Ziel, ein Benchmark (System zur Leistungsbewertung) auf der Grundlage eines Satzes von realistischen Anwendungsprogrammen zu schaffen.
1988
Compaq Computer stellt den ersten Laptop mit VGA-Graphik vor, den SLT/286. Er besitzt eine 286-CPU mit 12 MHz, 640 KB RAM, 20-40 MB Festplatte, 3,5''-Diskettenlaufwerk und eingebautem Flüssigkristallbildschirm mit 10'' Größe. Sein Preis: US$ 8.500.
1989
Microsoft und Apple Computer kündigen an, gemeinsam einen neuen Zeichensatzstandard zu entwickeln. Es ist TrueType.
1990
Microsoft und IBM beenden die gemeinsame Arbeit an der Systemsoftware, teilen das Geschaffene auf und schließen darüber gegenseitige Lizenzverträge ab.
1994
Digital Equipment Corporation stellt die nächste Generation seiner AlphaAXP-Prozessoren vor. Darunter ist eine 300-MHz-Version, die 1 Milliarde Befehle pro Sekunde ausführen kann.
1997
Das ZDF startet den ersten europäischen Intercast-Dienst. Der Sender bietet Fernsehen im Computer über das Internet an.
1998
Larry Page und Sergey Brin gründen die Firma Google.
2000
Microsofts Windows ME wird ausgeliefert.
2000
Die TU Berlin führt als erste deutsche Universität einen Numerus Clausus im Studiengang Informatik ein. Die Studienbewerbungen für Informatik haben sich in ganz Deutschland im Vergleich zum letzten Jahr fast verdoppelt.
560
Oktober
Oktober Der zweite Knoten des ARPA-Netzes wird am Stanford Research Institute installiert. Bald darauf werden erstmals Daten zwischen beiden Knoten übertragen. Der sendende Knoten ist in der University of California Los Angeles. Zur Sicherheit steht man in telefonischer Verbindung. Leonard Kleinrock berichtet: „Wir tippten das L und fragten am Telefon ‚Seht Ihr das L?’ ‚Ja, wir sehen das L’, kam die Antwort. Wir tippten das O und fragten ‚Seht Ihr das O?’. ‚Ja, wir sehen das O’. Dann tippten wir das G und das System stürzte ab ...“. Bald darauf werden der dritte Knoten an der University of California Santa Barbara und der vierte an der University of Utah eingerichtet.
01.10.1969
John Atanasoff wird in Hamilton (USA) geboren. Er baut gemeinsam mit Blifford Berry den Computer ABC, der 1941 fertig wird. Er arbeitet mit dem Dualsystem. Das Rechenwerk besitzt 300 Elektronenröhren und als Speicher wird ein System von tausenden ringförmig angeordneten Kondensatoren verwendet. Zum Computer gehören Tastatur und Lochkartenleser zur Eingabe und ein Lampenfeld und Lochkartenlocher zur Ausgabe. Ab 1942 arbeitet der ABC erfolgreich, wird jedoch bald nicht mehr genutzt und gerät in Vergessenheit. Erst bei einem Patentstreit im Jahre 1973 stellt sich heraus, dass John Mauchly den ABC-Computer und Atanasoff gekannt hatte und davon bei seiner Arbeit am ENIAC sicherlich profitiert hat.
04.10.1903
Die Sowjetunion startet den ersten künstlichen Erdsatelliten und löst damit in den USA den „Sputnikschock“ aus. Präsident Eisenhower veranlasst daraufhin die Gründung der Advanced Research Projects Agency (ARPA) innerhalb des Verteidigungsministeriums. Innerhalb von 18 Monaten entwickelt diese Agentur den ersten erfolgreichen Erdsatelliten der USA. Einige Jahre später befasst sich die ARPA mit dem Problem eines ausfallsicheren Kommunikationsnetzes. Die erste praktische Realisierung wird das ARPANetz, das letztlich zum Internet führt.
04.10.1957
Die University of Southern California entwickelt eine Spracherkennungssoftware, die die menschlichen Fähigkeiten auf diesem Gebiet übertrifft.
04.10.1999
MS Excel wird eingeführt und bald die weltweit führende Tabellenkalkulationssoftware.
06.10.1987
In Estland ist bei einer Kommunalwahl erstmals eine Stimmabgabe per EVoting möglich. Die Besonderheit gegenüber anderen Ländern in denen ebenfalls eine elektronische Stimmabgabe durchführt wurde ist, dass das EVoting nicht auf Computer in herkömmlichen Wahllokalen beschränkt ist, vielmehr kann die "e-Stimme“ unter Verwendung einer elektronischen ID-
16.10.2005
561
Historische Ereignisse
Karte via Internet vom heimischen PC aus abgegeben und bis Wahlschluss beliebig oft geändert werden. 19.10.2000
Die Erfinder des MP3-Verfahrens zur Komprimierung von Audiodaten, K. Brandenburg, B. Grill und H. Popp (alle Fraunhofer Institut für Integrierte Schaltungen in Erlangen), werden wegen dieser herausragenden Forschungsleistung mit dem Deutschen Zukunftspreis 2000 ausgezeichnet. MP3 hat die Musikverteilung über das Internet revolutioniert.
24.10.1922
Werner Buchholz wird in Detmold geboren. Später arbeitet er am Entwurf des IBM 701 mit. Er erfindet das Wort „Byte“.
26.10.1995
Die FNC (Federal Network Council) definiert den Begriff „Internet“.
27.10.1980
Das erste Mal hat sich ein Computer-Virus über das Internet verbreitet. Das ARPANET wird deshalb vorübergehend abgeschaltet.
28.10.1937
Marcian Hoff wird in Rochester (USA) geboren. Er erfindet den Einchipcomputer, der die Grundlage des Taschenrechners wird.
28.10.1951
Bill Gates wird in Seattle (USA) geboren.
29.10.1966
IBM stellt den ersten Plattenspeicher vor, den RAMAC 305. Er hat die Größe von zwei Kühlschränken, besitzt 50 Platten von ca. 60 cm Durchmesser und kann 5 MB speichern. Ein MB kostet etwa US$ 10.000.
1969
An der Martin-Luther-Universität Halle-Wittenberg wird erstmals im deutschsprachigen Raum die Studienrichtung Wirtschaftsinformatik eingerichtet.
1989
SPEC gibt Benchmark Suite 1.0 frei. Damit steht ein System zur Leistungsbewertung von Computern zur Verfügung.
1994
Dr. Nicely teilt Intel seine Entdeckung mit, dass der Pentium manchmal falsche Gleitkommaergebnisse produziert, die nur auf 4 bis 8 Stellen genau sind. Sein Bericht wird über CompuServe publiziert. Einen Monat später bestätigt Intel, dass etwa zwei Millionen Pentium-Prozessoren mit fehlerhafter Gleitkommaeinheit ausgeliefert worden sind.
1999
Die einmillionste .de-Domain wird registriert
2004
Die Zeitschrift „Nature“ berichtet, dass es an der University of California in Los Angeles erstmals gelungen ist einen Laser aus Silizium zu bauen. Bei dem Versuch Computer zu bauen, die Informationen mittels Licht verarbeiten und nicht wie bisher, mit Elektrizität, ist dies ein bedeutsamer Schritt. Während viele Daten bereits mit Licht und Glasfaser transportiert werden, müssen die Signale vor ihrer Verarbeitung derzeit noch in elektrischen Strom umgewandelt werden.
562
November
November George Boole wird in Lincoln (England) geboren. Er führt die Logik in die Algebra ein und begründet damit die nach ihm benannte Boolesche Algebra.
02.11.1815
Das Programm „Internet Worm“ verbreitet sich über das Netz, passiert etwa 6.000 von damals existierenden 60.000 Hosts und richtet Störungen und Verwirrungen an.
02.11.1988
Der fünfte UNIVAC-Computer kann nur verspätet an den Kunden, das Lawrence Livermore National Laboratory geliefert werden. Deshalb wird er von Mitarbeitern von Remington-Rand so programmiert, dass Teilergebnisse der bevorstehenden Präsidentschaftswahl ausgewertet und das wahrscheinliche Endergebnis für das Fernsehen vorausgesagt werden kann. Wenige Minuten nach Schließung der Wahllokale an der Ostküste prognostiziert der UNIVAC den Sieg Eisenhowers. Die Fernsehleute glauben es nicht und halten das Ergebnis bis nach Mitternacht zurück. Erst dann entschuldigt sich ein Sprecher, dass sie der Hochrechnung nicht geglaubt haben. Bald darauf wird das Wort UNIVAC zum Synonym für Computer.
04.11.1952
Microsoft stellt den Tablet PC vor, er soll die neue Generation mobiler Computer darstellen. Das Herzstück des Tablet PC ist die Handschrifterkennung, eine Spracherkennungssoftware ist ebenfalls installiert.
07.11.2002
George Dantzig wird in Portland (Oregon) geboren. Neben Kantorowitsch und von Neumann wird er einer der Begründer der linearen Optimierung. Sein bedeutendster Beitrag ist die Schaffung der Simplexmethode. Sie ist zu einem der wichtigsten Verfahren des Operations Research geworden.
08.11.1914
Jack Kilby wird in Jefferson City (USA) geboren. Er entwickelt 1958 den ersten integrierten Schaltkreis (Microchip) auf Germanium-Basis.
08.11.1923
Mit Microsoft Windows wird die erste graphische Benutzungsoberfläche für Computer eingeführt.
10.11.1983
Alan Turings grundlegende Arbeit „On Computable Numbers with an Application to the Entscheidungsproblem“ erscheint, in der er das erste abstrakte Modell einer universellen Rechenmaschine entwickelt. Dieses wird bald als Turing-Maschine bezeichnet und dient jahrzehntelang als theoretische Grundlage. Etwa zeitgleich dazu arbeiten andere an praktischen Problemen: Zuse an der Z1, Atanasoff am ABC-Computer, Aiken am Harvard Mark I.
12.11.1937
Die Firma Intel erfindet den Mikroprozessor. Der 4004 enthält 2300 Transistoren, bietet einen 4-Bit-Bus, arbeitet mit 108 kHz, leistet 60.000 Operationen pro Sekunde und kann 640 Bytes adressieren. Preis: 200 US$.
15.11.1971
563
Historische Ereignisse
26.11.1894
Norbert Wiener wird in Columbia (Missouri) geboren. Er wird ein bedeutender Mathematiker und begründet zusammen mit anderen Wissenschaftlern die Kybernetik, der er den Namen gibt. 1948 erscheint sein Buch „Cybernetics“.
26.11.2001
Windows XP wird erstmals ausgeliefert. Allein in den nächsten 12 Monaten werden 67 Millionen Exemplare verkauft.
29.11.1972
Atari kündigt das Spiel PONG rechtzeitig zum Weihnachtsgeschäft an. Es ist ein einfaches Tennisspiel, zu dem man den Fernseher braucht. Möglicherweise ist es das erste kommerziell vertriebene Computerspiel. Das erste Computerspiel überhaupt dürfte Noughts and Crosses (Tic-Tac-Toe) sein, das 1949 auf dem EDSAC der University of Cambridge implementiert wurde.
30.11.1999
Business.com wird für 7,5 Millionen US$ verkauft und wird damit teuerste Domain der Welt.
1981
Novell Data Systems liefert den Novell Data Management Computer aus, der mit anderen Computern seine Festplatte teilen kann. Das geschieht mittels Softwaresteuerung und einer Netzkarte.
1983
Borland International gibt Turbo Pascal für das Betriebssystem CP/M und 8086-Computer frei.
1985
Microsoft liefert zwei Jahre nach der ersten Ankündigung Windows 1.0 für US$ 100 aus.
1989
Compaq Computer stellt seinen ersten Server-PC vor. Es ist gleichzeitig der erste EISA-PC.
1989
Von der Informatik-Fakultät der Universität Karlsruhe wurde eine erste Internet-Standleitung zum New Yorker NYSERNet geschaltet, welche vorerst eine Bandbreite von 9.600 Bit/s hatte und bis 1993 auf 192 KBit/s erweitert werden konnte.
1993
Benny Lee von Everx Systems wird zu einem Jahr Gefängnis verurteilt, weil er MS-DOS-Software gefälscht und verkauft hat. Erstmals wird wegen einer Softwarefälschung eine Gefängnisstrafe verhängt.
2002
Der britische Hersteller i-mob rüstet Autos mit einer neuartigen DiebstahlAlarmanlage aus. Über das satellitenbasierte Global Positioning System (GPS) stellt sie stets die eigene Position fest und meldet jede nicht autorisierte Veränderung an per Telefon an den Besitzer. Über die Telefonverbindung kann dieser verschiedene Aktionen auslösen: das Aus- und Wiedereinschalten des Motors bei Stillstand an Ampeln, das Belauschen der Fahrzeuginsassen, sogar eine Lautsprecherdurchsage im Fahrzeug ist möglich.
564
Dezember
Dezember John Backus wird in Philadelphia (USA) geboren. Unter seiner Leitung werden bei IBM die Sprache FORTRAN und die Metasprache Backus-NormalForm oder auch Backus-Naur-Form geschaffen.
03.12.1924
George Boole, der mit der Einführung der Logik in die Algebra die Grundlagen zur Computer-Konstruktion legte, stirbt unerwartet mit 49 Jahren.
08.12.1864
Grace Hopper wird in New York City geboren. Sie kreiert nicht nur den Begriff „debugging“, sondern ist auch der dritte Programmierer am Harvard Mark I, Entwickler des Compilerkonzepts und Fürsprecher hoch entwickelter Sprachen. Sie bewegt die U.S. Navy zur Einführung von COBOL als Standardsprache und bringt es bis zum Rang eines Konteradmirals.
09.12.1906
Der Nachrichtensatellit „Relay 1“ wurde gestartet, ab 1963 überträgt er Telefongespräche zwischen den USA und Brasilien sowie Farbfernsehprogramme zwischen Amerika und Europa.
13.12.1962
Konrad Zuse, Entwickler des ersten programmgesteuerten Rechenautomaten, stirbt in Hünfeld.
18.12.1995
Leonid Kantorowitsch wird in St. Petersbug (Russland) geboren. Ab 1938 befasst er sich mit Optimierungsproblemen und entwickelt die lineare Optimierung. Seine Arbeiten werden erst ab 1960 ins Englische übersetzt und damit im Westen bekannt. 1975 erhält er den Nobelpreis für Wirtschaft. Unabhängig davon entwickeln auch Dantzig und von Neumann die lineare Optimierung. Darauf aufbauend wird in den 1970er Jahren von W. Lassmann und R. Rogge die Komplexmethode entwickelt, die eine gezielte Veränderung einzelner Parameter zur Verbesserung des Endergebnisses ermöglicht.
19.12.1912
William Shockley, Walter Brittain und John Bardeen führen den ersten Transistor vor und eröffnen damit ein neues Zeitalter der Elektronik. 1956 wird ihnen dafür der Nobelpreis verliehen.
23.12.1947
Tim Berners Lee entwickelt in Genf den ersten HTML-Browser für das WWW. Außerdem gründete er nach seinem Umzug nach Boston 1994 mit Unterstützung von Prof. Michael L. Dertouzos das World Wide Web Consortium (W3C), welches die Entwicklung und Kodifizierung neuer Webstandards zur Aufgabe hat.
25.12.1990
Charles Babbage wird in Teignmouth (England) geboren. Er baut eine mechanische Differenzmaschine, die wegen mangelnder mechanischer Präzision allerdings nicht erfolgreich vollendet werden kann. Spätere Nachbauten der Differenzmaschine können aber funktionsfähig gemacht werden. Babbage entwirft dann einen Analytischen Rechenautomaten. Diese Maschine soll
26.12.1791
565
Historische Ereignisse
mittels Lochkarten programmgesteuert werden und auch Programmverzweigungen erlauben. Damit wird Babbage zum Begründer der Grundideen der modernen Rechentechnik. Trotz dreißigjähriger Bemühungen gelingt es Babbage jedoch nicht, seinen Analytischen Rechenautomaten zu realisieren. 27.12.2002
Das kalifornische Dorf Bridgeville wurde für 1,7 Millionen US$ vom Onlineauktionshaus eBay versteigert.
28.12.1903
Janos, Baron von Neumann, später als John von Neumann bekannt, wird in Budapest geboren. Er geht in die USA und wird Mitarbeiter von Einstein. Bald erkennt er die Nachteile der damaligen Rechenautomaten mit extern gespeicherten, starren Programmen. Er fordert einen Computer, in dem auch das Programm intern gespeichert wird, das sich durch Überschreiben selbst verändern können und natürlich Verzweigungen und Sprünge ermöglichen soll. Schon andere vor ihm hatten ähnliche Gedanken gehabt, doch er konzipiert den dementsprechenden Computer EDVAC und initiiert dessen Bau. In England beginnt man in Anlehnung an Neumanns Konzept den EDSAC zu bauen und wird damit sogar noch vor dem EDVAC fertig. Seitdem werden die meisten Computer nach der von-Neumann-Architektur gebaut.
31.12.1996
40% der US-Haushalte besitzen einen Computer.
1970
Gilbert Hyatt beantragt ein Patent für "Single Chip Integrated Circuit Computer Architecture". Es ist das erste Patent für einen Mikroprozessor.
1974
Vint Cerf und Bob Khan entwickeln das Transmission Control Protocol (TCP) und liefern damit die Grundlage für die Kommunikation im Internet.
1976
Michael Shrayer schließt die Arbeit an Electric Pencil ab. Es ist das erste Textverarbeitungsprogramm mit größerer Verbreitung.
1978
Epson kündigt den Matrixdrucker MX-80 an. Er setzt neue Maßstäbe beim Preis-/Leistungsverhältnis von Druckern.
1980
IBM schickt Microsoft den ersten PC-Prototyp, damit die Arbeiten am Betriebssystem und an BASIC beginnen können.
1982
Apple Computer ist der erste PC-Hersteller, der einen Jahresumsatz von 1 Milliarde US$ erreicht.
1991
Das Internet hat bereits mehr als 4 Millionen Nutzer.
2005
Physiker der Universität Innsbruck erschaffen erstmals ein aus acht Qubits bestehendes Qubyte und erreichen damit einen weiteren wichtigen Meilenstein auf dem Weg zum Quantencomputer.
566
Autoren
Autoren
Prof. Dr. Dr. h. c. Wolfgang Lassmann
Jahrgang 1938
1958 – 1964 Ingenieurwissenschaftliches Studium an der Technischen Hochschule Leipzig
1965 – 1968 Postgradualstudium Betriebswirtschaftslehre, Wirtschaftsmathematik und Wirtschaftsinformatik an der Universität Leipzig
1970 Promotion „Mathematische Entscheidungsfindung“
1979 Habilitation „Entwicklung und Begründung der Komplexmethode“ in Halle
1984 – 1992 Universitätsprofessor für Wirtschaftsinformatik an der Martin-Luther-Universität Halle-Wittenberg
seit 1992 Universitätsprofessor für Wirtschaftsinformatik / Operations Research an der Martin-Luther-Universität Halle-Wittenberg
1998 – 2000 Dekan der Wirtschaftswissenschaftlichen Fakultät
2000 – 2003 Prorektor für Informationstechnologien und universitäre Kommunikationssysteme an der Martin-Luther-Universität Halle-Wittenberg
Gründungsprofessor und Vorstandsvorsitzender des Institutes für Unternehmensforschung und Unternehmensführung an der Martin-Luther-Universität Halle-Wittenberg
567
Autoren
Prof. Dr. Rolf Rogge
Jahrgang 1944
1962 – 1968 Studium der Wirtschaftsmathematik und Mathematik an den Universitäten Leipzig und Jena
1968 – 1985 Wissenschaftlicher Mitarbeiter im Rechenzentrum des Instituts für Energetik Leipzig
1973 Promotion in Jena
1984 Habilitation in Halle
1985 – 1994 Hochschuldozent an der Martin-Luther-Universität Halle-Wittenberg
seit 1994 Universitätsprofessor für Wirtschaftsinformatik / Anwendungssysteme an der Martin-Luther-Universität Halle-Wittenberg
Jahrgang 1974
1993 – 1998 Studium der Wirtschaftsinformatik an der Martin-Luther-Universität Halle-Wittenberg
1999 – 2003 Wissenschaftlicher Mitarbeiter am Institut für Wirtschaftsinformatik und Operations Research an der Martin-Luther-Universität Halle-Wittenberg
2004 Promotion in Halle
seit 1999 freier wissenschaftlicher Unternehmensberater
seit 2004 Leiter Brain Building Group
Dr. Jens Schwarzer
568
Autoren
Mitautoren
Prof. Dr. Dieter Ehrenberg, Universität Leipzig
Dipl.-Wirt.-Informatiker Marco Jedlitzke, Martin-Luther-Universität Halle-Wittenberg
Prof. Dr. Hans-Jürgen Kaftan, Hochschule Anhalt
Dipl.-Wirt.-Informatiker Christian Sprengel, Martin-Luther-Universität Halle-Wittenberg
Dipl.-Wirt.-Informatiker Axel Wunder, itCampus GmbH
569
Autoren
Dipl.-Wirt.-Informatiker Andreas Lassmann, itCampus GmbH
Dipl.-Wirt.-Informatiker Thomas Riegel, itCampus GmbH
Dipl.-Wirt.-Informatiker Tino Rothämel, Martin-Luther-Universität Halle-Wittenberg
Dipl.-Wirt.-Informatiker Tobias Schmidt, itCampus GmbH
Weitere Mitautoren der vorangegangenen Veröffentlichungen Prof. Dr. Jochen Picht, Martin-Luther-Universität Halle-Wittenberg Dr. Stefan Arndt, Martin-Luther-Universität Halle-Wittenberg
570
Prof. Dr. Wolfgang Eberle, Fachhochschule Kaiserslautern
Stichwortverzeichnis
Stichwortverzeichnis
(S)AIT 96 .NET Framework 285 4GL-Sprachen 260
A ABAP 281, 496 ABAP Objects 282 ABAP/4 Native SQL 497 ABAP/4 Open SQL 497 ABC 304 Abrechnungsmanagement 212 Abrechnungssysteme 468 absolutes Zeitintervall 241 abstrakte Methoden 258 Abstraktion 143, 412 ACD 530, 537 ActiveX 286, 360 Activity Based Costing 304 Activity Based Management 465 ADC 119 Ad-hoc Querys 241 Administrationssysteme 449 ADSL 120, 197 Advanced Structured Analysis 141 Agenten 171 agentenbasierte Software 171 Agentenplattform 172 Aggregation 143, 228, 233 agile Konzepte 137 AGP 72, 73 AH 382 AI 436 Akkreditierung 407 aktive Elemente 182 Aktualisierung 129
akustische Ausgabe 116 Algebra 17 Algorithmen 412 Algorithmierung 421 Altanwendungen 133, 143, 162, 317 alter 246 ALU 66 analoge Daten 217 analoge Übertragungsverfahren 204 Analogrechner 39 Analysemanagement 468 Analysemethoden 295 Analysis 17 Analytische Informationssysteme 460 Analytische Maschine 42 Änderbarkeit 155 Änderungsdaten 218 Änderungsrate 253 Anforderungsdefinition 317 Anfragen 283 Angebotsform 129 Angemessenheit 155 Angriffe 352 Anomalien 230, 231, 234 Anomaly Detection 366 Anonymität 59, 389, 503, 517, 518 Anpassung 422 Anrufverteilanlagen 537 Anschlag 112 ANSI 277 ANSI/X3/SPARC-Architektur 237 Antikythera-Rechner 39 Anweisungsteil 261, 263 Anwendungen 166, 447
571
Stichwortverzeichnis
Anwendungslogik 151 Anwendungsprogramm 447 Anwendungsschicht 188, 208 Anwendungsschicht-Gateways 370 Anwendungssoftware 166, 447 Anwendungssystem 291, 314, 447 API 148, 243 application framework 165 application hosting 330 application on demand 323 application program 447 Application Programming Interface 148, 243 Application Service Providing 131, 323, 458 application sharing 510 application software 166, 447 application system 447 Äquivalenztest 276 Arbeitspakete 335 Arbeitsspeicher 63, 79 Architektur verteilter Objekte 151 Archivierung 480 ARIS 309 Arithmetik 17 ARPANET 206 Artificial Intelligence 436 ASA 141 ASCII-Code 217 ASP 131, 319, 323, 324, 458 ASR 537 Assembler 163, 255 Assemblersprachen 255 Assemblierer 255 Assoziation 143, 228 – einfache 228 – komplexe 228 – konditionelle 228 asymmetrische kryptographische Verfahren 386
572
asynchrone Übertragung 203 ATM 196 Atomarität 242 Attribut 229 Attribute 219, 234 Attributwerte 219 ATX 66 Audit 157 Auflösung 113, 117, 122 Auftraggeber 340 Auftragserfassung 514, 515 Auftragsstatus 515 Ausgabe 269 Ausgabegeräte 107, 108 Ausgabewerk 63 Auswahlphase 414 Authentication Header 382 Authentifikation 362 Authentifikationsgegenstand 369 Authentifizierung 367, 385 Automatic Call Distribution 530, 537 Automatic Speech Recognition 537 Autonomie 171 Autorisierung 363 AVI 122 AXAPTA 492
B B2B 503, 505 B2C 503, 511 Back Doors 359 Backtracking 283 Backup 363 Balanced Scorecard 465 Bandbreite 185 Bandspeicher 95 Bankdatentransfer 505 Barcodescanner 105 Barrierefreiheit 529 BASEX 280
Stichwortverzeichnis
BASIC 278, 280 Basisdienste 191 Bastion Host 372 batch processing 160 Baum-Topologie 206 BDSG 401 Bearbeitungszeit 304 Befehl 64, 67, 263 Benchmarking 305 Benutzbarkeit 155 Benutzungsschnittstelle 155 Berichtssysteme 454 Beschaffung 15 Beschwerdemanagement 469 best practice 305, 325 Bestandsdaten 218 Bestellung 229, 514, 515 Betätigungsfelder 32 Betriebssystem 158 Betriebsverfahren 204 Betriebswirtschaftslehre 14 Betroffene 341 Bewegungsdaten 218 Bewertung von Geschäftsprozessen 305 Bezeichner 262 Beziehungen 228 Beziehungstypen 233 Bibliotheken 164, 270 Bildschirme 108 Bildspeicher 117, 118 Bildungsnetzwerk 24 Bildverarbeitung 439 Bildwiederholfrequenz 110, 119 binärer Bäume 227 Binary Large Objects 235, 243 Biometrik 369 B-ISDN 196 bitparallele Übertragung 203 bitserielle Übertragung 203 Bitübertragungsschicht 200 Bitübertragungsverfahren 203 Black-Box-Test 276
blended learning 23 BLOB 235, 243 Blöcke 262 Blockverschlüsselung 389 Blowfish-Algorithmus 390 Blue Book 91 Bluetooth 202 Blu-ray Disc 94 BMET 499 BOA 451 Botschaften 258 Bottom-Up-Vorgehen 140 BPR 297 Branch Prediction Unit 67 Branchenbezug 168 Branchen-Referenzmodell 315 Bridge 182, 245 broadcast networks 183 Broadcasting 198 Browser 206 Brute Force Attack 358, 368 Budgetplanung 466 Bundesdatenschutzgesetz 401 BundOnline 2005 527 Bürosysteme 469 Bus 66, 71 Busbreite 71 Busgeschwindigkeit 71 Business Engineering 291 Business Information Warehouse 495 Business Intelligence 465 Business Objects 325 Business Process Engineering 297 Business Process Reengineering 297 Business-to-Business 328, 503, 505 Business-to-Consumer 328, 503, 511 Bus-Mastering 71 Bussysteme 71
573
Stichwortverzeichnis
Bustakt 71 BW 495
C C 280 C# 285 C++ 281 Cache 79 Call Center 529, 530 Call Me Button 534 CardBus 75 Cartridge 95, 243 CAS 466 CASE 142, 162 CASE-Verzweigung 268 Castlewood ORB 90 CBT 24 CCD 105 CCD-Zeilen 103 CD 90 CD-R 91 CD-ROM 90 CD-RW 91 CEFIC 453 Central Processing Unit 66 Centronics 73 Certain Authority 396, 516 CGI 286, 360 Challenge-and-ResponseVerfahren 370, 387 Chat 192 Chiffre 385, 397 Chiffretext 385 Chipsatz 65 Choice 414 Chosen-Plaintext-Angriff 397 CI 479 CIFS 99 CIM 451 Cinepak 122 Cipher-Only-Angriff 397 CIS 455, 466
574
CISC-Prozessoren 68 class 257 Client 189 Client/Server-Architektur 147, 188, 240 Clients 147 CLR 285 Cluster 124 Clusterung 464 CMOS-Matrix 105 COBOL 277 Co-Browsing 486 CODASYL 246, 277 Codecs 122 Codierung 251, 275 Collaboration Technologies 483 Collaborative Browsing 485 Collaborative Business 328 Column Access Signal 80 Common Language Runtime 285 Common Object Request Broker Architecture 151, 510 Communication Center 529, 533 community 192 Compact Disc 90 CompactFlash 84 Compiler 163, 255 Components 325 Composite Video 122 Computer 39, 251 Computer Aided Selling 466 Computer Integrated Manufacturing 451 computer network 179 Computer Supported Cooperative Work 470, 474 Computer Telephony 466 Computer Telephony Integration 532 Computer-based Training 24 Computer-Ethik 57 Computer-Generationen 43
Stichwortverzeichnis
computergestützte Call Center 531 computerintegrierte Call Center 532 Computerkriminalität 58, 352 Computernetz 179 Computerviren 58, 192, 359 Concurrency Control 241 Content Management 481 Controlling 15, 59, 326, 339 Cookies 360 copyleft 130 CORBA 151, 152, 510 Corporate Identity 481 CPM 424 CPU 66, 544 CR 253 create 246 Critical Path Method 424 CRM 466, 492, 513 CRM-Systeme 466 CRT 108 CSCW 435, 470, 474, 483 CSMA/CD-Verfahren 200 CTI 466, 532 Cursor 101 Customer Care and Billing Systeme 468 Customer Integration Software 466 Customer Relationship Management 466, 467, 513 Customizing 324, 491 Cybergeld 518 Cybermünzen 518
D D8 107 DAC 119, 389 Damgaard 492 Darstellungsschicht 194 DAT 96
Data Authentication Code 389 data base 219 Data Definition Language 245 Data Dictionary 261, 497 Data Encryption Algorithm 389 Data Encryption Standard 381, 389 Data Manipulation Language 246 data marts 462 Data Mining 460, 464 data sharing 510 Data Warehouse 460 Database Marketing 466 Data-Blades 243 dataglove 107 Datagramm 196 Data-Warehouse 460 Datei 160, 220, 359 datei-integrierte Organisation 223 Dateioperationen 220, 272 Dateiorganisation 221, 223 Dateitransfer 193 Dateiverwaltungssystem 223 Daten 3, 215 – alphabetische 216 – alphanumerische 216 – analoge 217 – bitorientierte 215, 216 – digitale 215 – formatierte 217 – ikonische 216 – numerische 216 – unformatierte 217 – zeichenorientierte 215, 216 Datenanalyse 467 Datenbank 220, 237 Datenbankmanagementsystem 222, 237, 435 Datenbankmodell – Entity-Relationship-Modell 222
575
Stichwortverzeichnis
Datenbankmodelle 222, 227 – Entity-Relationship-Modell 231 Datenbankorganisation 221, 222 Datenbanksprachen 222, 245 Datenbanksystem 222 Datenbanksysteme 237 – objektrelationale 243 – postrelationale 244 – verteilte 239 – zentrale 238 Datenbereitstellung 467 Datenelement 219 datenflussorientierte Softwareentwicklung 139 daten-getriebene Managementunterstützung 454 Datenhaltung 151 Datenhandschuh 107 Datenintegrität 299, 308 Datenkapselung 257 Datenkatalog 261 Datenkonsistenz 219, 241 Datenmodell 140, 222, 227, 240 – semantische 222 Datenorganisation 218, 220 datenorientiert 221 Datensatz 219, 220, 223 Datenschutz 13, 59, 219, 400 Datensicherheit 7, 219, 241, 361 bei ASP 324 Datensicht 142, 311 Datentypen 262 Datenunabhängigkeit 241 Datenverbund 181 Dauerhaftigkeit 242 DB 237 DBMS 237, 435, 497 DBS 237 DCOM 151, 152, 153 DDL 245 DDoS-Angriff 358
576
DDR2-SDRAM 81 DDR-SDRAM 81 DDS 96 DEA 389 Debugger 164, 275 Deception System 366 Decision Support Systems 416, 432, 455 Decoy System 366 Defacements 355 Defacto-Standards 131 delete 247 Delphi 280 demilitarisierte Zone 374 Denial-of-Service-Angriff 355, 356 DES 381, 385, 389 Design 414 Design Pattern 325 Desktop-Architektur 146 Destruktor 235 deterministische Modelle 422, 423 deterministische Netzplantechnik 424 Deutschland-Online 528 dialog processing 160 Dialog-Management-System 433 Dialogsprache 260 Dialogverarbeitung 55, 160 Diascanner 104 Dienst 189 Dienste 147, 191, 333 Differenzenmaschine 41 Diffusionsnetzwerke 183 digitale Daten 215 digitale Signatur 394, 406, 524 digitale Übertragungsverfahren 204 Digitalisiertablett 102 Digitalkamera 105 Digitalrechner 39, 41 Direct Memory Access 68
Stichwortverzeichnis
direkter (wahlfreier) Zugriff 223 Diskette 89 Diskussionsforen 192 Dispositionssysteme 449, 451 dispositive Ebene 415 Distributed Problem Solver 174 DLP 111 DLT 95 DMA 68, 71, 74 DMD-Chip 111 DML 246 DMS 433, 466 DMZ 374 DNS-Server 208 Document Object Model 286 Dokumente 478 Dokumentenbeschreibungssprac hen 286 Dokumentenmanagement 480 DOM 286 domain 208 Domäne 208 Domänen 232 DoS-Angriff 355 download 128, 193 DRAM 79 drop 246 Druckausgabe 112 Druckbildaufbereitung 113 Druckersprachen 113 Druckprinzip 112, 114, 116 DSL 120, 197, 202 DSP 174 DSS 12, 416, 432, 455 DSS-Werkzeuge 432 DSTN 109 DTMF-Töne 537 Dual Homed Host 371 Dualdarstellung 39 duplex 204 Durchlaufzeit 299, 303, 304 Durchleitungsmanagementsyste me 468
Durchsatz 185 DV 107 DVD 92 DVD+R 92 DVD+RW 93 DVD-Audio 92 DVD-R 92 DVD-RAM 93 DVD-ROM 92 DVD-RW 93 DVD-Video 92 DVI 119 dynamische Optimierung 423 dynamischen Daten 216
E E-Administration 520 EAI 144, 505 EANCOM 453 Earned-Value-Analyse 339 E-Assistance 520 E-Business 503 ECA-Regeln 240 Echelon 405 Echtzeitverarbeitung 161, 447 E-Commerce 193, 328, 511 E-Commerce-Plattformen 515 eCRM 467 ECTS 19, 22 E-Democracy 520 EDI 452 EDIBDB 453 EDIFACT 453 EDIFICE 453 EDIFURN 453 Editor 163, 260 EDO-DRAM 80 Edutainment 456 EDV 215 eEPK 312 EEPROM 83 Effektive Intelligenz 56
577
Stichwortverzeichnis
efficiency 155 Effizienz 155 E-Government 519 EIDE 74 Einbenutzer-Systeme 160 Eingabe 269 Eingabegeräte 100 Eingabewerk 63 Einprogramm-Systeme 159 Einwegfunktionen 368, 388 Einweg-Hashfunktionen 388 Einzugscanner 105 EIS 455 EISA 72 E-Learning 23, 24, 28 Electronic Business 503 Electronic Cash 453 Electronic Data Interchange 452 Electronic Government 519 Electronic Mail 191 elektronische Signatur 406 elektronische Unterschrift 395 elektronischer Geschäftsverkehr 328, 503 elektronisches Geld 518 E-Mail 191 Embedded System 122 Empfänger 179 Encapsulating Security Payload 382 Endstellen 179 End-to-End-VPN 376 End-to-Site-VPN 377 Energiebezugsmanagementsyste me 468 Enterprise Application Integration 144, 505 Enterprise Resource Planning 458, 489 Entity-Relationship-Model 141 Entity-Relationship-Modell 222, 231 Entscheidungsebenen 415
578
Entscheidungsnetzplan-Technik 425 Entscheidungsprobleme 15, 411, 415 Entscheidungsprozess 413 Entscheidungsträger 411 Entscheidungsunterstützung 411 Entscheidungsunterstützungssyst eme 12, 416, 432, 455 Entschlüsselung 385 Entwicklungsphase 414 Entwicklungsumgebungen 260 EPK 312 E-Procurement 193, 505 EPROM 83 Ereignis 314 Ereignis-Bedingung-AktionRegeln 240 Ereignisgesteuerte Prozesskette 312 Ergebnisplan 339 Ergonomie 155 ERM 166, 231 ERP II 489 ERP-Systeme 458, 489, 492 Erweiterbarkeit 181 erweiterte Ereignisgesteuerte Prozesskette 312 ESP 382 Ethernet 200 European Credit Transfer System 19 EUS 455 event condition action rules 240 evolutionäre Phasenmodelle 134 Evolutionsprozess 443 Executive Information Systems 455 Expertensysteme 439 Expertisesysteme 454 Explizierung 464 Exploits 354 ExpressCard 75
Stichwortverzeichnis
Extended ERP 489 Extenders 243 extensions 491 extensive Modellverbesserung 430 Externalisierung 328 externer Speicher 65 Extranet 209, 211, 328 Extreme Programming 137 Eye-Tracking 107
F Fachkonzept 309 Fahndung 365 Fahrplanmanagementsysteme 468 Fakten 256, 283 Faktorisierung 388 Farbtiefe 117, 122 Fast Page Mode 80 fat client 189 FB-DIMM 82 FCM-Modell 154 FED 110 Fehler 59 Fehlermanagement 211 Fernabsatz 405 Fernnetze 184 Festplatten 85 Festverbindung 204 Fibre Channel 76 file 160, 219, 223 Filmscanner 104 Finanzierung 15 Finanzwissenschaft 16 Firewall 333, 370 Firewall-Architekturen 371 Firewire 77, 107 FIS 455 Flachbettscanner 104 Flash-Memory 83 Flooding 357
Flüssigkristalle 109 föderierte Datenbanksysteme 240 Follow-the-Sun-Prinzip 535 Force Feedback 102 FOR-Schleife 265 FORTRAN 278 FPGAs 112 FPM 80 Frame Relay 197 Framerate 122 Frames 440 Framework 153, 165, 492 Frameworks 325 Freeware 129 Frequenzmodulation 119 from 246 Front End 531 Frühwarnsystem 339 FS 449 FTP 193 Führungsinformationssysteme 455, 458, 459 Führungsprozesse 454 Führungssysteme 449, 454, 455 Full Scope Outsourcing 333 functionality 154 Fünf-Ebenen-Architektur 238 Funktion 265, 314 funktionale Programmierung 256 Funktionalität 154 funktionsorientiert 221 Funktionssicht 142, 311 Funktionsverbund 181 Funkverbindung 202 Fuzzy-Theorie 442
G GAN 184 GANTT-Diagramm 338 Garbage Collection 285 Gateway 183, 370 GDSS 435
579
Stichwortverzeichnis
geheimer Schlüssel 386 Geheimhaltung 384 Geldkarten 517 Generalisierung 233 Generierung 325, 435 genetische Algorithmen 443 Geografische Informationssysteme 466, 468 Geometrie 17 Geräteverbund 181 Geschäftsprozess 298, 309, 312 Geschäftsprozessmanagement 291, 297 Geschäftsstrategien 291 Gestaltungsaspekte 307 gestreute Speicherungsverfahren 227 GIS 466, 468 gläserner Mensch 400 Glasfaserkabel 201 Glass-Box-Test 276 Gleichlaufverfahren 203 Global Positioning System 487 globale Netze 184 GMS 435 GNU 129 GoM 316 GPL 129 GPS 487 Grafikkarten 117 Grafikprozessor 117, 118 Grafiktablett 102 Graphical User Interface 323 Great Plains 492 Green Book 91 grid computing 124, 181 Großrechner 123, 331 Group Decision Support Systems 435 Groupware 340, 435, 483, 510 Groupware-Management-System 435
580
Grundsätze ordnungsmäßiger Modellierung 316 GruppenEntscheidungsunterstützende Systeme 435 Gruppierung 233 GUI 323
H Hacker 352 Hacking 58 halbduplex 204 Handheld 123 Handlungsfähigkeit 171 Handlungskonsequenzen 411 Handscanner 104 Hardware 63 Hardware-Generationen 43 Harmonic Analyser 40 Hash-Verfahren 227 Hashwert 388 Haskell 283 Hauptplatine 65 Hauptspeicher 65, 79 HBCI 513 HDDL 246 HD-DVD 94 HDML 246 HDTV 94, 107 HDV 107 Headset 530 Head-Tracking 107 Herstellerbindung 131, 161 HIDS 366 High Definition Television 94 High Definition Video 107 High Density DVD 94 Hilfsprozesse 300 Hoax 359 Holografische Speicherung 88 Home-Banking 513
Stichwortverzeichnis
Homebanking Computer Interface 513 Homepage 31, 208 Homogenität 240 Honey Pot 366 Horn-Klauseln 283 Host-Architektur 145 HTML 287 HTTP 381 HTTP over TLS 381 HTTPS 381 Hub 183 Hybridsprachen 259 Hypertext Markup Language 287
I ID 224 IDE 74 Identifikation 341, 362 Identifizierungsnummern 224 IDL 152 IDS 365 IEEE 1394 77 IETF 382 IF-THEN-Verzweigung 267 IIOP 152 IKS 3 IM 192 Image 479 Imaging 479 Implementation Guides 491 Implementierung 163, 235, 309, 415 Implementierungsmodell 315 Inbound 530 Index-Datei 226 indexsequentiellen Speicherung 226 indexverketteten Speicherung 227 Individualsoftware 318 Individual-Software 168
indizierte Speicherungsverfahren 226 Indizierung 479 Inferenz 438 Informatik 10 Information 3, 5 information factory 462 information hiding 257 Information Retrieval 480 information space 172 Informationen 215 Informations- und Kommunikationssysteme 3 Informationsagenten 174 Informationsbereitstellung 454 Informationsdienste 193 Informationshandhabung 454 Informationsinfrastruktur 293, 295, 317 Informationsmanagement 291, 470, 477 Informationsobjekt 314 Informationstechnologie 293, 296 Infotainment 456 Infrarotstrahlen 202 Inhaltsmanagement 481 inheritance 257 inkrementelle Entwicklung 135, 137 insert 247 Insourcing 333 Instandhaltungstheorie 424 Instant Messaging 192 Integration 240, 490 integrierte Datenverarbeitung 223 integrierte Systemlösungen 457 Integrität 242, 385 Intelligence 413 intensive Modellverbesserung 430 Interactive Voice Response 537
581
Stichwortverzeichnis
interaktive Entwicklungsumgebungen 260 interaktive Programmierung 260 Internet 184, 206 Internet SCSI 77 Internet Service Provider 330, 404 Internet Services 330 Internet-Auktionen 515 Internet-Banking 513 Internet-Dienstleister 330 Internet-Telefonie 192 Interoperabilität 155 Interpretation 255 Interpreter 163, 255 Interpretierer 255 Interrupt 67 Interrupt Control Unit 67 Intranet 209 Intrusion Detection System 365 IP-Adresse 198, 208 IPSec 382 IP-Telefonie 192 IPV6 199 IRC 192 IrDA 73 IRQ 67 IS 455 ISA 72 ISAM 226 iSCSI 77 ISDN 120 – Breitband- 120, 196 – Schmalband- 196 ISO/OSI-Referenzmodell 186 Isolation 242 ISP 330, 404 Ist-Zustand 302 IT 293 item 219 Iteration 262 ITIL 325 IT-Infrastruktur 293, 317
582
IT-Konzept 309 IT-Recht 399 IT-Service-Center 325 IT-Sicherheit 11, 349 IT-Sourcing 332 IT-Strategie 291, 293 ITX 66 IuK-Systeme 3 IVI 122 IVR-Systeme 537
J J. D. Edwards 492 Java 284, 493 Java Script 286 Java Virtual Machine 285 JavaScript 360 Jaz 90 join 230 Joystick 102 Just-in-Time 451, 505 JVM 285
K kabelgebundene Medien 200 Kabelmodem 120 kabelungebundene Medien 202 KAIZEN 451 Kampagnenmanagement 469 KANBAN 451, 505 Kapselung 234 KDD 464 Kennzahlen 302, 303, 327 Kernprozesse 300 Kettenfeld 224 KI 436 Kiosk-Systeme 456 Klartext 385 Klasse 219, 257 Klassenbildung 143 Klassendiagramm 142
Stichwortverzeichnis
Klassifikation 464 Klassifizierung 233 KNN 45, 443 Knoten 182 Knotenrechner 182, 183, 196 Knowledge Discovery in Databases 464 Knowledge Management 482 Known-Plaintext-Angriff 397 kollaborative Technologien 483 Kommandos 260 Kommunikation 471 Kommunikationssteuerungsschic ht 194 komplexe Domänen 233 komplexe lineare Optimierung 426 komplexe Optimierung 426 Komplexmethode 426, 429 komponentenbasierte Software 169 Konfiguration 491 Konfigurationsmanagement 164, 211 Konsistenz 242 Konstanten 262 Konstruktionsadäquanz 316 Konstruktor 235 Kontaktmanagement 468 Kontrolle 415 Kontrollsysteme 454 Konvertierung 479, 481 Konzept 297 Konzernkonsolidierung 466 Kooperation 471 Kooperationsagenten 174 kooperative Arbeit 470 Koordinierung 471 Kopierschutz 129 Kostenstellen 328 Kreditkarte 516 Kriminalität 58 kritischer Weg 338, 424
Kryptanalyse 358, 397 Kryptographie 384 kryptographische Algorithmen 389 kryptographische Verfahren 385 Kundenberatung 456 Künstliche Intelligenz 44, 436 Künstliche Neuronale Netze 45, 442 Kupferkabel 201
L L2TP 384 Lagerhaltungstheorie 424 LAN 184 Lanes 73 Laptop 123 Large Scale Integration 44 Laser 112 Laserdrucker 115 Laser-Verbindung 203 Lastenheft 317 Lastverbund 181 late binding 235, 258 latency 186 Latenzzeit 186 layer 186 LCD 109, 111 LCOS 112 LCS 115 LDAP 194 Lean Production 451 Learning-Management-System 24 Lebenszyklus 132, 493 legacy applications 133 legacy systems 318 Leistung 314 Leistungsmanagement 212 Leistungspunktesystem 22 Leistungssicht 311 Leistungsverbund 181
583
Stichwortverzeichnis
Leistungsverrechnung 328 Leitungsvermittlung 195 Lernfähigkeit 55, 172 Lern-Phase 443 Lichtstift 103 Lieferantenketten 328 Lieferweg 129 Lightpen 103 lineare Optimierung 423, 426 Line-In 119 Links 208, 287 LISP 256, 282 Lizenzierung 128, 129 LMS 24 logische Datenbankorganisation 222 logische Datenorganisation 218 logische Programmierung 256 Logistik 15, 494 lokale Netze 184 LSI 44 LTO 96
M MAC 389 MAC-Adresse 121 Mainboard 65 Mainframe 145 make or buy or rent 319 MAN 184 Managed Services 333 Management Support Systems 455 Managementinformationssystem e 455 Man-in-the-Middle-Attack 355 Manufacturing Resource Planning 451, 489 Marketing 15 Marktanalyse 319 Markup Language 287 marshalling 152
584
MAS 174 Maschinenbefehle 254 Maschinencode 254 maschinenorientierte Programmiersprache 255 Maschinensprache 254 Maßnahmenkatalog 317 Matching 283 Material Requirements Planning 451 Mathematik 10, 12, 16, 17 Matrixorganisation 343 Maus 101 MBMS 435 MCA 72 M-Commerce 516 Medium Scale Integration 44 Megapixel 106 Mehrbenutzer-Systeme 160 Mehrprogramm-Verarbeitung 160 Mehrwertdienste 191 Meilensteine 335 Meilenstein-Trend-Analyse 339 MemoryStick 84 Mengenlehre 18 Message Authentication Code 389 messages 258 Metadatenbank 140 Metamodell 313 Metashops 515 Metcalfe’s Law 484 Microcontroller 122 Microdrive 90 MicroMV 107 Micropayment 517 Microsoft Dynamics 492 Microsoft Intermediate Language 285 Middleware 144, 151, 161, 497 mieten 323 Mietsoftware 131
Stichwortverzeichnis
Migration 172 Mikrofon 103 Millipede 88 MIMD 65 MiniDV 107 MiniSD 84 MIS 455 MISD 65 Misuse Detection 366 MIXe 389 ML 283 MO 94 Mobile ERP 490 Mobilfunk 202 Mobilität 171 Modell 52 Modell- und MethodenbankManagement-System 435 Modellabstraktionsebenen 313 Modelle 299 Modellebenen 309 Modell-Generationen 52 modell-getriebene Managementunterstützung 454 Modellierung 300, 420 Modellierungsmethoden 300 Modellierungsprinzipien 300 Modellierungssprachen 433 Modellierungswerkzeuge 300 Modellklassifikation 422 Modellsynthese 412 Modelltest 421 Modem 119, 204 Moderne Strukturierten Analyse 141 modifications 491 modifyability 155 Modul 252 MODULA 2 279 modulare Programmierung 253 Modularisierung 252 Monitoring 477, 503
monolithisch 145 Mooresches Gesetz 69 MPEG 92, 107, 122 MRP 451, 489 MRP II 451, 489 MR-Technologie 90 MSI 44 MSIL 285 MSS 455 multi tier architecture 149 Multiagent System 174 Multiagentensysteme 174 Multicasting 198 Multimedia Card 84 Multimediakarten 121 Multimedia-Systeme 456 Multiple Instruction Multiple Data 65 Multiple Instruction Single Data 65 multiplexing 195 Multiprozessor-Systeme 160 Multisession-CD 91 Multitasking 49 mySAP 492 mySAP Business Intelligence 465 mySAP Business Suite 492
N Nachrichten 258 Nadeldrucker 114 NAS 97 Natural Language Understanding 538 Navigationssysteme 487 Navision 492 NCI 479 NDML 246 Nearshore 334 Nebenbedingungen 418, 423, 427 Nebenprozesse 300 Nest 234
585
Stichwortverzeichnis
Net Market 506 Network Attached Storage 97 Netzcomputer 190 Netze 180 – Diffusionsnetzwerke 183 – Fernnetze 184 – globale 184 – lokale 184 – öffentliche 185 – private 185 – Stadtnetze 184 – Teilstreckennetze 183 Netzelemente 182 Netzinformationssysteme 468 Netzleistung 185, 212 Netzleitsysteme 468 Netzstrukturen 181 Netzverbund 184 Netzwerk 180 Netzwerkkarte 121 Netzwerkmanagement 211 Netzwerkstruktur 204 neue Medien 23 newsgroups 192 NF2-Modell 233 NFS 99 nichtlineare Optimierung 423 nicht-prozedurale Programmiersprachen 260 NIDS 366 NIS 468 N-ISDN 196 NLU 538 No-Key-Verfahren 389 Non First Normal Form 233 Normalformen 231 Normalisierung 231 Notationsformen 313 Notebook 123 Nutzer 341 Nutzwertanalyse 322
586
O Oberon 279 Object-Pascal 279 Objekt 142, 229, 257 Objektcode 254 Objekte 219 objektorientiert 221 objektorientierte Softwareentwicklung 142 objektorientiertes Modell 234 Objektorientierung 142 agentenbasierte Software 173 objektrelationale Datenbanksysteme 243 Objektsprache 254 ODETTE 453 ODL 247 ODS 462 offen 96, 161 öffentliche Netze 185 öffentlicher Schlüssel 386 Office-Pakete 169 Offshore 333 OLAP 460, 462 OLED 110 OMG 152 OML 247 One-Time-Pad 397 One-to-One-Marketing 513 online 182, 527 On-Line Analytical Processing 460, 462 online learning 23 Online Services Computer Interface 523 Online-Banking 513 Online-Brokerage 513 Online-Datenbanken 193 Online-Shop 355, 515 Online-Wertpapierhandel 513 Onshore 334 OO-COBOL 277
Stichwortverzeichnis
Open Source 130 operating system 158 Operational Data Store 462 Operationen 234 Operations Research 18, 418 operative Ebene 415 Operatoren 263, 264 Optimierung 423 Optimierungsmodell 428 OQL 247 OR 418 Oracle Applications 492 Orange Book 91 ORB 152 Ordnungsmäßigkeit 155 Organisationseinheit 8, 314, 333 Organisationssicht 310 organische Speicher 82 Organizer 123 OSCI 523 Outbound 530 Outsourcing 333 Outtasking 333
P Page Mode 80 Paketfilter 370 Paketvermittlung 196 Palmtop 123 PAP 273 Papierdokumente 478 Parallel 73 Parallel Inference Maschine 45 Parametrierung 324, 491 Parkleitsysteme 488 part of 236 Pascal 279 passive Elemente 183 Passwort 362, 368 Patentrecht 402 Pattern-Matching 283 PC 44, 123
PCI 72, 73 PCI-Express 72 PCI-X 72 PCMCIA 74 PDA 123 PDD 95 PDP 110 PeopleSoft 492 Perimeter Network 373 periphere Karten 116 persistent 236 Personalcomputer 44, 123 Persönlichkeitsrechte 59, 400 PERT 425 Pflichtenheft 127, 317, 320 Phasenmodelle 134 Phasewriter Dual Laufwerk 92 Phishing 358 PHP 287 physische Datenbankorganisation 222 physische Datenorganisation 218 Piezo-Element 114 PIM 45 ping time 186 Pixel 108, 117, 122 PKI 406 Planungs- und Kontrollsysteme 449 Planungssprachen 433 Planungssysteme 454 Plattformunabhängigkeit – agentenbasierte Software 173 PLC 121 PLEDM 84 Plug & Play 71 Plug-Ins 170 PM 80 Pointer 224 Polymorphismus 143, 235, 259 Portabilität 155 portability 155 Portale
587
Stichwortverzeichnis
– kommunale 526 Portfolio Management 465 Port-Scan 354 postrelationale Datenbanksysteme 244 Powerline Communications 121 PPP 527 PPS-Systeme 451 PPTP 384 Pragmatik 5 Präsentation 151 Predictive Dialing 533 Preisfindung 514 Primärschlüssel 220 Primzahlen 388 Prinzipien 300 private Netze 185 Problemanalyse 412, 419, 420 Problemfindung 419 Problemlösungsprozess 413 Problemtypen 415 process owner 298 Produktanalyse 319 Produktdefinition 127 Produktionsfaktor Information 458 Produktionsmanagement 15 Produktionsplanung und steuerung 15, 451, 489 Produktionsprogrammplanung 426 Produktionsworkflow 475 Produktkatalog 514 Produkt-Lebenszyklus 132 Produktpräsentation 456 Produktspezifikation 127 Professional Disc for Data 95 Programm 251 Programmablaufplan 273 Programmableitung 252 Programmdokumentation 276 Programmentwurf 252 Programmiersprache 254
588
– funktionale 256 – generelle höhere 256 – höhere 255, 260 – logische 256 – maschinenorientierte 255, 260 – Maschinensprache 254 – spezielle höhere 256 Programmierung 251, 421 – nicht-prozedurale 256 – objektorientierte 256 – prozedurale 256 – visuelle 259 Programmierverhalten 253 Programmiervorgabe 252 programm-integrierte Organisation 223 Programmtest 275 Programmtyp 252 Projekt 334 Projektbeteiligte 340 Projektcontrolling 339 Projektion 230 Projektlebenszyklus 335 Projektleiter 340 Projektmanagement 334 Projektoren 110 Projektorganisation 342 Projektplanung 335, 341 Projektstrukturplan 335 PROLOG 256, 283 proprietär 161 Protokolle 186 Protokollierung 367 Prototyp 136, 308 Prototypen 135 Proxy 152, 371 prozedurale Programmiersprachen 259 prozedurale Programmierung 256 Prozeduren 257, 265 Prozesseigner 298
Stichwortverzeichnis
Prozesskennzahlen 298 Prozesskosten 304 Prozesskostenrechnung 304, 328 Prozessmerkmale 307 Prozessorcache 65 Prozessoren 68 Prozessorientierung 298 Prozesssicht 312 PSP 335 PSTN 536 Public Key 386 Public Key Infrastructure 406 Public Privat Partnership 527 Public Switched Telephone Network 536 Public-Key-Verfahren 369 Public-Key-Zertifikate 393 Pufferspeicher 79 PuK-Systeme 449
Q QBE 247 QIC 95 QM 156 Qualitätsmanagement 156, 162 Qualitätsmerkmale 154 Qualitätsmodelle 154 Qualitätssicherung 156 Quantencomputer 69 Quasi-Standards 131 Qubit 70 QUEL 247 Quellsprache 254 Querschnittssysteme 456 Query by Example 247
R RAD 137 Radio Frequency Identification 84 RAID 85
RAM 79 Rambus DRAM 81 RAMDAC 117, 119 random access 223 Random Access Memory 79 Rapid Application Development 137 rapid development tools 136 Rapid Prototyping 137, 258 RAS 80 Raum-Zeit-Taxonomie 485 RAW-Format 106 RBMS 435 RC 253 RC4 381 RDRAM 81 Read Only Memory 83 real time processing 161 realtime 447 Recall-Phase 443 Rechenmaschine 39, 41, 251 Rechenwerk 63, 66 Recherchesysteme 13, 480 Rechnungswesen 15 record 219 Recovery 219, 363 Red Book 91 Redundanz 6, 234 Reengineering 297, 317 reference by 236 Referenzmodell 314 Regeln 230, 254, 283 Register 67 Re-Hosting 332 Reichweite 184 Reihenfolge-Optimierung 424 reine Projektorganisation 342 relationales Modell 229 relatives Zeitintervall 241 reliability 154 remote access 193 Remote Procedure Call 188 Remote-Administration 189
589
Stichwortverzeichnis
Repeater 182 REPEAT-UNTIL-Schleife 266 Reportbank-Management-System 435 Repository 140, 163, 493 Ressourcenteilung 181 Restriktionen 418, 426 REV 90 reverse engineering 143 Review 157, 415 Re-Zentralisierung 332 RFID 84 Richtfunk 202 Richtigkeit 155 RISC-Prozessoren 68 Risiko 424 Risikomanagementsysteme 468 Risk Management 465 Risk-Reward-Partnerschaft 334 Rivest Cipher 4 381 Robotertechnologie 439 Rollen 475, 482 ROM 83 Router 182, 371 Routing 182, 195 Row Access Signal 80 RPC 188 RS Multimedia Card 84 RS-232 73 RSA-Algorithmus 386, 391 Rückgabewert 265 RUP 136
S S/PDIF 119 SA 139, 382 SADT 139 Sales Force Automations 466 Sampling 119 SAN 98 SAP All-in-One 494 SAP Automation API 496
590
SAP Business-One 494 SAP Enterprise Portal 498 SAP NetWeaver 492 SAP R/3 494 SAP R/3-Repository 497 SAP SEM 465 SAP Service Marketplace 498 SAP Strategic Enterprise Management 465 SAP xApps 492 SAPGUI 496 SAS 76, 466 S-ATA 74 Satellit 122, 202 Scanner 103, 105 Schichten 186, 309 Schichten-Architektur 149 Schlanke Produktion 451 Schleifen 265 Schlüssel 385 Schlüsselerzeugung 392 Schlüsselgeltungsdauer 394 Schlüsselkompromittierung 394 Schlüsselnutzung 393 Schlüsselsicherheitskopien 393 Schlüsselspeicherung 393 Schlüsselverifizierung 392 Schlüsselvernichtung 394 Schlüsselverteilung 392 Schlüsselverwaltung 392 Schlüsselzertifizierung 393 Schutzmaßnahmen 361 Schwachstellen 306 Schwarmintelligenz 175 SCM 152, 328, 452 Screened Host 372 Screened Subnet Host 373 SCSI 75 SD-Card 84 SDRAM 80 SDS 416 Secure Electronic Transaction 516 Secure Socket Layer 516
Stichwortverzeichnis
Security Associations 382 Seitendruckkosten 113 Sekundärschlüssel 220 select 246 Selektion 229, 262 semantic routing 172 Semantik 5, 254 semantische Datenmodelle 222 semantische Netze 440 semi-strukturiertes Entscheidungsproblem 416 Sender 179 sequentielle Speicherungsverfahren 224 sequentieller (serieller) Zugriff 223 Sequenz 261 Serial Attached SCSI 76 Seriell 73 Server 147, 189 Servercomputer 123 Server-Konsolidierung 332 Service Level Agreements 323 services 147 Session Hijacking 357 SET 516 SFA 466 shared networks 183 Shareware 128, 129 S-HTTP 381 Sicherheit 155, 423 agentenbasierte Software 173 kryptographischer Verfahren 397 Sicherheitsmanagement 212 Sicherheitsprotokolle 380 Sicherheitstechnologien 367 Sicherungsschicht 199 Sichten 141, 241, 309, 312 Siebel 492 Sigmatik 5 Signalübertragungsverfahren 204 Signatur 235, 395, 396, 406, 524
Signierschlüssel 395 SIMD 65 simplex 204 Simplex-Algorithmus 429 Simulation 305, 425 Simulationssprachen 433 Single Instruction Multiple Data 65 Single Instruction Single Data 64 single sign on 194 Single-Sign-On 369 SISD 64 Site-to-Site-VPN 378 Sitzungsschicht 194 Skalierbarkeit 155 Skeleton 152 Skillbased Routing 531 SLA 323 Small Scale Integration 44 SMALLTALK 284 Smart Outsourcing 333 Smartcards 517 Smartmedia Card 84 Smartphone 123 Sniffing 358 Social Engineering 354 Softcomputing 441, 442 Software 127, 251 – Agenten 172, 174 – Architektur 144 – Dimensionen 138 – Entwicklung 133, 134, 137, 142, 143, 164 – Entwicklungsansätze 137 – Entwicklungssysteme 161 – Generationen 48 – komponentenbasierte 169 – Qualität 154 – Referenzmodell 315 – Sanierung 143 Software Engineering 133 software reengineering 143 Softwareauswahl 318
591
Stichwortverzeichnis
Softwareentwicklung 318 – datenflussorientierte 139 – datenorientierte 140 – objektorientierte 142 Softwaremarkt 128 Softwarepatente 403 Softwaresanierung 133 Solid State Disks 84 Soll-Konzept 307 Solomon 492 Soundkarten 116, 119 Sourcecode 254 Sourcing 332 Sozialfähigkeit 171 Spaghetti-Code 280 Spam 192 spätes Binden 258 specification 252 Speicher 78 Speicher- und Verteildienste 191 Speichernetzwerke 97 Speicherregister 65 Speicherungsverfahren 221, 223, 224, 227 – gestreute 227 – indizierte 226 – sequentielle 224 – verkettete 224 Spezialisierung 14, 233 Spezifikation 317 Spieltheorie 425 Spionage 352 Spoofing 357 Sprachadäquanz 316 Sprachen 251 Sprachgenerationen 259 Sprachverarbeitung 438 Sprünge 269 SQL 246 SSI 44 SSL 380, 516 Stabsprojektorganisation 342 Stadtnetze 184
592
Stakeholder Relationship Management 466 Stammdaten 218 Standard-Anwendungssoftware 169 Standards 131 Standardsoftware 318, 458 Standard-Software 168 Standleitung 204 Stapelverarbeitung 55, 160 Starkstellen 307 state transition diagrams 141 statischen Daten 216 Statistik 18 Stealth-Sensoren 366 Stern-Topologie 205 Steuerung 151 Steuerungssicht 312 Steuerwerk 63, 66, 67 stochastische Modelle 422, 424 stochastische Netzplantechnik 425 Storage Area Network 98 Strategie-Definition 297 strategische Ebene 415 strategische Modelle 422, 425 strategische Zielplanung 296 Strombörse 468 Stromleitungen 201 Structured Analysis 139 Structured Decision Systems 416 Struktogramm 274 Strukturierte Analyse 139 Strukturierte Entscheidungssystemen 416 strukturiertes Entscheidungsproblem 416 Stub 152 Studium 18, 20, 28 Subnetz 183 Subnotebook 123 Subprozesse 300 Suchmaschinen 193, 480
Stichwortverzeichnis
Suchphase 413 Sukzessivplanung 451 Supercomputer 124 Supply Chain Management 328, 452, 505 SVGA 118 S-Video 122 SWIFT 453 Switch 183 SXGA 118 symmetrische kryptographische Verfahren 385 synchrone Übertragung 203 Syntax 5, 254 System Engineering 291 Systementwicklung 291 Systemsoftware 157
T Tabellen 229 Tabellenkalkulationsprogramme 433 TabletPC 123 Taktgeschwindigkeit 69 TAPI 532 Target Costing 465 Tastatur 100, 138 Teamarbeit 473 Teammitglieder 340 Teilnetze 183 Teilstreckennetze 183 Tele-Banking 513 Telefonnetz 119, 195, 530 Telematik 483 Telemedia-Systeme 456 Telemetrie 488 Teleoperation 488 Teleworking 488 temporale Datenbanksysteme 240 Terminalemulationen 191 Terminals 190
Terminalservers 190 terrestrische Übertragung 202 Test 157, 275, 276, 421 Testrate 253 Testunterstützung 164 Text to Speech 537 Texturen 119 TFT 109 Thermosublimationsdrucker 115 Thermotransferdrucker 115 thick server 190 thin clients 190 Threading-Konzept 285, 286 time sharing 160 Time-Box-Scheduling 137 Tintenstrahldrucker 114 TIS 455 TKÜV 404 TLS 381 tools 161, 252 Top-Down-Vorgehen 140 Top-ManagementInformationssysteme 455 Topologien 204 totalen Arbeitsplatzkosten 189 toter Code 276 Touchpad 102 Touchscreen 103 TR 253 Trackball 101 Trackpoint 102 Transaktionen 242 Transaktionsagenten 174 Transaktionsdienste 193 transaktionsorientiert 323, 496 TransFlash 84 transient 236 Transportschicht 194 Transportschicht-Gateways 370 Transportzeiten 304 Triggerfunktion 240 Triple DES 381, 390 Trojaner 355, 359
593
Stichwortverzeichnis
Trommelscanner 104 TTS 537 Tunerkarten 122 Tunneling 376, 379 Turbo-Pascal 279 Turing-Test 437 Twisted-Pair-Kabel 201
U Überlastkontrolle 198 Überschreibbarkeit 78 Übersetzer 163, 255 Übersetzung 255, 279 Übersetzungsrate 253 Übertragbarkeit 155 Übertragungsfehler 199 Übertragungsmedien 200 Übertragungsrate 71 – effektive 185 – maximale 185 Übertragungsverfahren 203 Überwachung 404 UDO 94 ULSI 45 Ultra Density Optical 94 Ultra DMA 74 Ultra Large Scale Integration 45 Umkehrfunktion 388 UML 136, 142 Umsetzung 422 Umsetzungsphase 415 UMTS 197, 456, 516 Umweltwahrnehmung 171 Ungewissheit 425 Unicasting 198 Unified Messaging 535 Unified Modeling Language 136, 142 Universal Mobile Telecommunications System 197, 456, 516 Unnest 233
594
Unsicherheit 424, 425 unstrukturiertes Entscheidungsproblem 416 Unternehmensführung 15 Unternehmensmodellierung 291 Unterprogramme 262, 263 update 247 Update 129 Urheberrecht 59, 402 usability 155, 469 USB 77 user interface 155 UWA 246 UXGA 118
V Validierung 156 Variablen 262 Variantenprodukte 515 Verarbeitungsdienste 193 Verbergung 257 Verbindlichkeit 385 Verbindungsarten 204 Verbraucherschutz 405 Verbund 180, 230 Verbund-Effekte 180 Vereinbarungsteil 262 Vererbung 143, 228, 233, 235, 257 Verfügbarkeit 155, 324 Verfügbarkeitsprüfung 514 Verfügbarkeitsverbund 181 Verifikation 156 Verifikationsschlüssel 395 Verkehrsbeeinflussungssysteme 487 Verkehrsfunk 487 Verkehrsleitsysteme 487 Verkehrslenksysteme 488 Verkehrstelematik 487 verkettete Speicherungsverfahren 224 Vermittlungsschicht 195
Stichwortverzeichnis
Verschleierung 356 Verschlüsselung 384, 385 - in VPNs 378 Versionsverwaltung 481 verteilte Datenbanksysteme 239 Verteilte Künstliche Intelligenz 175 verteilte Objekte 151 Vertriebskonzepte 128 Vertriebsweg 129 Very Large Scale Integration 44 Verzeichnisdienste 194 Verzögerung 185 VGA 118 Videokamera 106 Videokarten 122 Videotext 122 Views 241 Viren 58, 192, 352, 359 virtual classroom 24 Virtual Privat Networks 376 virtuelle Marktplätze 506 virtuelle Maschine 284 virtuelle Methoden 258 virtuelle Unternehmen 211 Virtuelle Unternehmen 506, 508 virtuelles Klassenzimmer 24 virtuelles Rathaus 519 VIS 455 Visual BASIC 280 Visual J++ 284 visuelle Programmierung 259 VLSI 44 V-Modell 136 voice over internet protocol 536 Voice over Internet Protocol 192 Voice over IP 192 Voice Prompts 537 Voice-Portale 537 VoIP 192, 536 Volkswirtschaftslehre 16 Volkswirtschaftspolitik 16 Volkswirtschaftstheorie 16
Volltextrecherche 480 von-Neumann-Architektur 63 Vorgangsbearbeitung 472, 473 Vorgangssteuerung 477 Vorgehensmodelle 136 Vorschaurechnung 339 Vorstandsinformationssysteme 455 VPN 376 VU 506 VXA 96
W Wählverbindung 119, 204 Wahrscheinlichkeitstheorie 18 Wallet 518 WAN 184 Warnsysteme 454 Warteschlangentheorie 424 Wartezeiten 304 Wartung 415 Wasserfallmodell 134 Wave-Table 119 WBT 24 web-based Communication Center 535 web-based learning 23 Web-based Training 24 web-enabled Call Center 533 web-integrated Communication Center 534 Web-to-Host 332 Wechselspeichermedien 88 Werkzeuge 161, 252 Wertebereiche 232 Wettbewerbsfaktoren 7 Wettbewerbssituation 295 WFMS 475, 510 where 247 WHILE-Schleife 267 Wiederverwendung 166, 233, 314 WINFOLINE 28
595
Stichwortverzeichnis
wireless net 202 Wireless Personal Area Network 77 Wirtschaftlichkeit 155 Wirtschaftsinformatik 3, 7, 10, 12 Wirtschaftsrecht 15 Wirtschaftswissenschaften 10, 13, 14 Wissen 3, 464 wissensbasierte Lösungsverfahren 440 Wissensinhalte 482 Wissensmanagement 470, 472, 477, 482 Wissensmodelle 440 Wissensrepräsentationsmechanis men 440 Wissensrepräsentationssprachen 283 Wissensträger 482 Wissensverarbeitung 44 Workflow 475 Workflow Engine 476 Workflow-Management 474, 475, 477, 500, 510 Workflow-Management-System 474, 475, 477, 510 Workflow-Programm 475 Workflow-Technologie 144 Workstation 123, 190 World Wide Web 206, 208, 360 WORM 83 WPAN 77 Wurm 359 WUXGA 118 WWW 206, 208, 360
596
X xD Picture Card 84 xDSL-Zugangsgeräte 120 XGA 118 XML 287 XP 137
Y Yellow Book 91
Z Zählerdatenmanagementsysteme 468 Zahlungssysteme 516 Zeiger 101, 224 Zeitdauer 241 Zeitpunkt 241 zentrale Datenbanksysteme 238 Zentralisierung 307, 330 Zentralprozessor 63, 66 Zero-Knowledge-Verfahren 389 Ziel 314 Ziele 296, 302 zielextreme Modellverbesserung 430 Zielfunktion 418, 423, 426, 427 Zielsprache 254 Zugriffsmethode 221, 223 Zugriffsverfahren 78, 184, 199 sequentielle 78 wahlweise 78 Zustandsübergangsdiagrammen 141 Zustelldienste 193 Zuverlässigkeit 154, 181 Zuweisungen 263