Artur P. Schmidt
Überleben im digitalen Zeitalter Strategien, Technologien und Innovationen für den neuen Aufschwung
...
286 downloads
2725 Views
3MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Artur P. Schmidt
Überleben im digitalen Zeitalter Strategien, Technologien und Innovationen für den neuen Aufschwung
Schmidt, Artur P.: Überleben im digitalen Zeitalter Graz: Nausner & Nausner, Texte zur Wirtschaft, 2002 ISBN 3-901402-33-0 Zweite Auflage © 2003 Verlag Nausner & Nausner, Texte zur Wirtschaft A-8010 Graz, Leechgasse 56 Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Buch berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichenund Markenschutzgesetzgebung als frei zu betrachten wären und daher von jemandem benutzt werden dürften. Produkthaftung: Sämtliche Angaben in diesem Fachbuch/wissenschaftlichen Werk erfolgen trotz sorgfältiger Bearbeitung und Kontrolle ohne Gewähr. Insbesondere Angaben über Dosierungsanweisungen und Applikationsformen müssen vom jeweiligen Anwender im Einzelfall anhand anderer Literaturstellen auf ihre Richtigkeit überprüft werden. Eine Haftung des Autors oder des Verlages aus dem Inhalt dieses Werkes ist ausgeschlossen. Alle Rechte vorbehalten Lektorat: Christine Maitz, Usha Reber Umschlag: Christian Eigner, Iris Rampula Satz: Iris Rampula
:. Inhaltsverzeichnis Vorwort des Autors
0.1
1. Wirtschaft 1.1 1.2 1.3 1.4 1.5 1.6
Dot.Com Krise: Hype oder das Risiko, einem Modetrend zu folgen New Economy: To b or not not b Mobile Computing: Palming the World Enterprise Application Integration: Treiber für neues Wachstum? Virtuelle Services: Multichannelling in der Messewirtschaft Kommunikation und Kundenorientierung: Servicewüsten in Deutschland, Österreich und der Schweiz
1.1 1.7 1.13 1.17 1.23 1.29
2. Wissensmanagement 2.1 Permission Possible: Das Internet im Kommunikations-Mix 2.2 Content Management: Return on Knowledge 2.3 Site Performance: Hohe Wirksamkeit im Umgang mit Datenbeständen 2.4 Data-Mining: Kundeninformation sinnvoll nutzen 2.5 Customer Relationship Management: Jeder Bankkunde ein König? 2.6 E-Learning: Interview mit Bobby Yazdani
2.1 2.6 2.14 2.19 2.22 2.28
3. Netzwerke 3.1 3.2 3.3 3.4 3.5 3.6 3.7
Chief Communication Officer: Neue Schlüsselrolle im Management Netzwerk-Kybernetik: Märkte sind Gespräche Supply Chain Management: Konzepte, Probleme und Lösungen Peer-to-Peer-Netzwerke: Katalysatoren des Wissens? Network Performance: Monitoring, Analyse und Vorhersage E-Government to Citizen: Interview mit Marius Redli Interview mit Patrick Guay: Immunologie für das Unternehmen
3.1 3.5 3.14 3.23 3.29 3.43 3.48
4. Hosting, Sicherheit und Standards 4.1 4.2 4.3 4.4 4.5
IT-Outsourcing: Make or Buy Web-Hosting: Lösungen und gewinnbringende Geschäftsmodelle E-Security im Bankenbereich: Risiken im Netz ADSL-Technologie: Mehrwertdienste für KMU’s, die sich rechnen Aktuelle und zukünftige Internet-Standards: Totale Integration des Netzes? 4.6 Tim Berners-Lee´s Vision: The Semantic Web Biografie Literaturverzeichnis
4.1 4.15 4.24 4.29 4.35 4.45
:. Vorwort
:. Vorwort des Autors - Immense Überkapazitäten Venture Capital-Firmen haben sich in den Jahren 2002 und 2001 mit ihren Investitionen gegenüber dem Jahr 2000 deutlich zurückgehalten. Es wird nicht mehr wie früher blind in jedes Technologie-Unternehmen investiert, sondern mittlerweile findet eine genaue Analyse der zu Grunde liegenden Geschäftsmodelle statt. Die hohen Steigerungsraten der Investitionsquote von bis zu 80 % wie in den ersten drei Monaten des Jahres 2000 als der Nasdaq-Index neue Gipfelhöhen erklomm, dürften erst einmal der Vergangenheit angehören. Die in den Jahren 1998 und 1999 aufgebauten Überkapazitäten haben bei einer Vielzahl von Firmen zu erheblichen Umsatzeinbrüchen, teilweise erheblichen Verlusten oder gar Konkursen geführt. War es in der zweiten Hälfte der 90er-Jahre schick, in bester Netscape-Manier bei hohen Wachstumsraten die Verluste auszuweiten, wie auch das Paradebeispiel Amazon.com aufzeigte, so hat sich dieser Trend mittlerweile vollständig in sein Gegenteil verkehrt. Nur wer heute Gewinne ausweist oder die Ertragsprognosen von Analysten überbietet, darf hoffen, von Millisekundenpleiten, die die Kurse innerhalb weniger Tage um 50 bis zu 90 % zusammenbrechen lassen, verschont zu bleiben. Zehn Milliarden DM hatten Venture Capitalists seit 1997 in Online-Händler investiert. Davon profitiert haben jedoch nur die Wagniskapitalgeber und die Investmentbanker, die die Firmen an die Börse brachten. Die Zeche mussten zumeist die Privatanleger bezahlen, die mittlerweile bei Internetwerten auf Kursverlusten von etwa 95 bis 98 % sitzen. - Mythos der New Economy Der Internetschwindel ist mittlerweile als eine der größten Finanzillusionen in die Wirtschaftsgeschichte eingegangen. Begriffe wie Hightech, Telekommunikation, Dotcom oder Internet sind aktuell „mega-out“. Weltweit dürfte die Zahl der Internetfirmen, die in den letzten 18 Monaten Konkurs angemeldet haben und diesen in den nächsten eineinhalb Jahren noch anmelden werden, in die Tausende gehen. Gemäß der Gartner Group befinden wir uns mitten in einem Gründer-Crash, während dessen 9 von 10 Internetfirmen in ihrer Existenz gefährdet sind. Das Platzen der spekulativen Blase hat eines deutlich gezeigt: Die New Economy ist ein Mythos. Ob mit oder ohne Internet, bevor ein Produkt verkauft werden kann, muss es erst einmal produziert werden. Gibt es eine Überkapazität an produzierten Gütern, so lassen sich diese nur zu einem reduzierten Preis absetzen. Der Abschwung hält hierbei so lange an, bis die Überkapazitäten letztendlich abgebaut sind. Mittlerweile zeigt sich der dadurch induzierte Reorganisationsbedarf in einem massiven Stellenabbau in der IT-Industrie. Das Erbe des Hype sind teure Server, Speichersysteme und Netzwerkkomponenten, die nun zu Discountpreisen verscherbelt werden müssen. So gibt es Server von Sun Microsystems mittlerweile 50 bis 60 Prozent billiger, Routerpreise von Cisco haben sich halbiert und Laptops von
- 0.1 -
:. Vorwort
Compaq werden mittlerweile ebenfalls mit einem Abschlag bis zu 40 % gehandelt. Von diesem Preisverfall profitieren vor allem Auktionsanbieter wie Ebay, da Second-Hand-Güter in Rezessionszeiten reißenden Absatz finden. - Wie geht es weiter? Nach jedem Gründercrash dauerte es in der Vergangenenheit sehr lange, bis sich die Aktienkurse wieder erholten. Es zeichnet sich immer mehr ab, dass ein Hard Landing der US-Wirtschaft selbst durch weitere Zinssenkungen und die anstehenden Steuererleichterungen nur schwer zu vermeiden sein wird. Die Überschuldungen zahlreicher Unternehmen wie z.B. von Lucent Techologies oder Nortel Networks bilden nur die Spitze des Eisberges. Mittlerweile beträgt die Gesamtverschuldung der US-Unternehmen etwa 13 Billionen US-$. Das ausufernde Verleihen von Geld und eine besonders im Jahr 1999 aufgeblähte Geldmenge waren die Hauptgründe für den sich selbst verstärkenden Internet-Bubble. Die daran anschließende Vermögensvernichtung im großen Stil erfordert nunmehr eine Rückbesinnung auf die Werte einer sozialeren Marktwirtschaft. Ein „wohlstand_fuer_alle.com“ im Rahmen des Mediums Internet lässt sich nur durch einen neuen „New Deal“ erreichen, der die Zunahme der weltweiten Armut, des Digital Divide sowie der Vermögensdisparitäten stoppt. Das Internet ist ein mächtiges Medium, welches die gesamte Wirtschaft sowohl zum Positiven als auch zum Negativen transformieren kann. Es kommt jedoch darauf an, was wir daraus machen. Neuartige Netzwerkstrukturen könnten ein Ausweg aus der Krise sein. Inwieweit es jedoch gelingt, Business Ökosysteme aufzubauen, in denen nicht Win-Lose-Spiele, sondern WinWin-Spiele für alle Teilnehmer geschaffen werden, bleibt abzuwarten. Grundlegende Reformen in den Finanzmärkten sind heute mehr denn je notwendig, wenn wir eine Neubesinnung auf Werte der Solidarität und Hilfsbereitschaft in der Wirtschaft einleiten wollen. - Desillusionierung der Internet-Ökonomie Das Jahr 2000 ist als das Jahr der Desillusionierung der Internet-Ökonomie in die Geschichte eingegangen, aber trotz aller Unkenrufe werden weiter neue Unternehmen gegründet, und eine Vielzahl der Firmen im Technologiesektor wird künftig sogar zu den dominierenden Firmen der Welt heranwachsen. Was an den Neuen Märkten passiert, ist im Grunde genommen nichts anderes als das Experiment des Überlebens, oder anders gesagt: die Überprüfung der Lebensfähigkeit einer Geschäftsidee. Deshalb zieht ein Gründerboom in aller Regel nach einer gewissen Zeit eine hohe Sterblichkeitsrate an Unternehmen nach sich. Danach, in der Phase des starken Marktwachstums, sinkt die Sterblichkeitsrate und die New Economy wird als solche lebensfähig. Das Unternehmenssterben setzt erst dann wieder ein, wenn in größerem Umfang eine Sättigungsphase in den Märkten erreicht ist und sich eine neue New Economy am Horizont abzeichnet. Problematisch ist nicht, dass es eine Sterblichkeitsrate an Unternehmen in der Wirtschaft gibt, sondern dass der neoliberale „Laissez-faire“-Wettbewerb - 0.2 -
:. Vorwort
zu ausufernden Vermögensdisparitäten, zu Monopolbildung und extremsten Volatilitäten führt. Die weltweite Krise der New Economy zeigt, dass es nicht ausreicht, die Spielregeln des ökonomischen Handelns eins zu eins in den Cyberspace zu übertragen. Wer eine wirklich neue Ökonomie möchte, die auch von sozialen Innovationen begleitet sein soll, muss in erster Linie die Spielregeln der Old Economy verändern, die durch ihre finanziellen Ressourcen und ihre Bewertungsmaßstäbe die Richtung vorgibt. - Hohe Bandbreiten braucht das Land Der Medienkonvergenz, die TV, Radio, Printmedien und Internet miteinander verschmelzen soll, stehen allerdings Hindernisse in Form schmalbandiger Leitungen und zu klein dimensionierter Bandbreiten für die Datenübertragung im Wege. Zwar werden die Backbones, d.h. die Datenverbindungen zwischen den Internet-Einwahlpunkten, stetig erweitert (Technologien hierfür sind z.B. der Asynchronous Transfer Mode sowie Breitband-ISDN), allerdings werden nunmehr die Datenleitungen selbst zu einem Flaschenhals. Langfristig wird deshalb nur die Glasfaser einen Ausweg bieten, um die Übertragungskapazitäten deutlich zu erhöhen. Die Glasfaserübertragungstechnik - als typische Breitbandtechnologie - nutzt eine lichtleitende Faser aus Glas, die die Eigenschaft hat, Lichtimpulse mit geringer Streubreite und hoher Folgefrequenz weiterzuleiten. Der Vorteil gegenüber klassischen Kupferkabeln ist, bei einem geringen Raumbedarf große Reichweiten und hohe Übertragungskapazitäten zu erzielen. Im kommerziellen Betrieb eingesetzte optische Systeme übertragen derzeit weniger als 2 Terabit pro Sekunde. Wissenschaftler der Bell Labs haben als potenzielle Informationsmenge, die sich über eine Glasfaserverbindung übertragen lässt, allerdings rund 100 Terabit pro Sekunde errechnet. Doch trotz dieser Entwicklungsmöglichkeiten ist die Glasfaserbranche in eine tief greifende Krise geraten. In der Telekommunikationsbranche überbietet aktuell eine Negativ-Meldung die nächste. Nortel Networks, der weltgrößte Hersteller von optischem Telekommunikationszubehör, hatte im Jahr 2001 Rekordverlust ausgewiesen und mittlerweile gingen Global Crossing und Worldcom Pleite. Während im Jahr 1995 ein Neubeschaffungszyklus von PCs und ein starkes Wachstum im LAN- und WAN-Bereich brachte, das Jahr 1999 den Wireless-, Internet-Boom und die Y2K-Vorbereitungen gekennzeichnet war, ist ein Breitband-Boom für das Jahr 2002 aktuell zwar noch nicht in Sicht; sollten aber in den nächsten Monaten neue Mehrwertdienste in diesem Sektor geschaffen werden, könnte uns der Markt allerdings eines Besseren belehren. Letztendlich sind größere Bandbreiten der wichtigste Treiber für den mobilen Handel.
- 0.3 -
:. Vorwort
- Real Options Die meisten Gewinnmöglichkeiten in Märkten haben eine besondere Gemeinsamkeit: Unsicherheit. Wer in Zeiten der Unsicherheit erfolgreich sein will, benötigt zwei wichtige Fähigkeiten: 1. das Erkennen der wertvollen Gelegenheiten in den Märkten und 2. die Anpassungsfähigkeit an sich verändernde Marktplätze. Das aktuelle Marktumfeld ist prädestiniert dafür, neue Winner-Firmen hervorzubringen. Die Chance von heute ist der veränderte Umgang mit Wissen in Unternehmen, welcher den neuen Markt des Digital Asset Management generiert. In diesem Markt geht es nicht mehr allein um die Lieferung von Content an den Browser eines PC, sondern es geht darum, Inhalte an Hunderte von verschiedenen Endgeräten und Channels wie Handys, Palm Pilots, Glasfaserkabeln, Kupferkabeln, ATMs oder Satelliten zu liefern. Manager müssen sich in adaptiver Weise diesen Multichannel-Märkten anpassen, wenn sie die wahren Optionen der Märkte nutzen wollen. Deshalb baut Yahoo! gerade eine Infrastruktur auf, die in effizienter Weise Inhalte und Anwendungen an potenzielle Nutzer weiterleitet. Auch Interwoven sichert sich mit dem Aufkauf des Start-Ups Neonyoyo eine Real Option für das Multichannel-Publishing. - Neue Strategien finden Eine aktuell erfolgreiche Strategie garantiert in der Welt des Internet keine zukünftigen Profite wie die Bostoner Wirtschaftsprofessoren und Real Options-Experten Kulatilaka und Venkatraman betonen. Deshalb sind ITInvestments kein Nebenaspekt der Unternehmensstrategie mehr, sondern der Kern jeglicher strategischer Entscheidungsfindung. Wer die wahren Optionen erkennen will, muss hierbei nicht die bestehenden Marktgrenzen überwinden, sondern auch die neu heraufkommenden Wettbewerber frühzeitig erkennen. Wer heute antizyklisch handelt und jetzt in den Zukunftsmarkt Digital Asset Management investiert, wird nicht nur relative Marktanteile dazugewinnen, sondern vor allem seine Gelegenheiten maximieren. Der Blick in die Zukunft ist oftmals ein mühsames Unterfangen, da er erfordert, eine Vielzahl von Mosaiksteinen zusammenzutragen. Nachfolgende Megatrends, die jeweils 4 Trendrichtigungen umfassen, sollen ein Mosaik für sich vollziehende Veränderungen in der IT-Branche bilden. Die sieben ausgewählten Megatrends umfassen die Bereiche Computing, Kontexte, Sprachen und Standards, Netzwerke, Management, Code-Analyse sowie Sicherheit.
- 0.4 -
:. Vorwort
Computing - Augmented Reality Augmented Reality ermöglicht dem User im Gegensatz zur Virtual RealityTechnologie die konstante Wahrnehmung seiner physischen Umgebung. Er hat neben der Innen (Endo)-Perspektive innerhalb des Computers eine Außen (Exo)-Perspektive auf die konstruierten Welten, d.h. es entsteht eine so genannte ”Mixed Reality”. Die Technologie der Überlappung von Innenund Außenwelten ist eine typische und dabei kostengünstige Interfacetechnologie. Sie fügt die vom Computer generierten virtuellen Objekte mit der physischen Wirklichkeit exakt zusammen und steigert so die Wahrnehmungsfähigkeit des Users. Zukünftige Anwendungsmöglichkeiten liegen vor allem im Bereich des E-Learning. - Biocomputer Ein Biocomputer bildet die Maschinenlogik des Computerzeitalters in molekularen Apparaten nach. Nach dem Prinzip des „bottom-up“ werden Moleküle konzentriert und gesteuert. Diese Technologie bietet einzigartige Möglichkeiten im Hinblick auf die Flexibilität, Geschwindigkeit und Genauigkeit zukünftiger Rechnergenerationen und kann z.B. im Bereich der biomedizinischen Forschung, der medizinischen Diagnostik, der Entschlüsselung von Genen, bei Gentests sowie für die Entwicklung neuer Arzneimittel verwendet werden. In letzter Konsequenz führte die Kombination fortschrittlicher Mikroelektronik mit der molekularen Biologie zur Verschmelzung von Maschine und Mensch. Führende Unternehmen auf diesem Gebiet sind Affymetrix und Nanogen. - Netzwerkcomputer Netzwerkcomputer (NCs) sind Terminals, die an das WorldWideWeb angeschlossen sind. Sie besitzen einen lokalen Prozessor, haben aber keine Festplatte und müssen sich deshalb ihre Software aus dem Internet herunterladen. Hierzu wird eine schnelle CPU (Central Processing Unit = Prozessor), ein dynamisches RAM, ein Display, ein Browser sowie ein verkleinertes Betriebssystem von Linux, Unix , OS/2, MAC oder Windows benötigt. Für den Betrieb in einem Client-Server-Netzwerk ist ein schneller Zugriff vom jeweiligen NC über das Netz auf einen Server - einen FileServer, Datenbank-Server, Mail-Server, Video-Server, Java Applet-Server oder WWW-Server - erforderlich. Netzwerksysteme ohne zentrale Zugriffskontrolle, d.h. ohne Serververbindungen heißen Peer-to-Peer-Netze. Netzwerkcomputer als Desktop-NCs, Set-Top-Geräte oder NC-Phones können sowohl für das Internet als auch für Corporate Networks eingesetzt werden.
- 0.5 -
:. Vorwort
- Ubiquitous Computing Mark Weiser entwickelte 1988 das Design-Prinzip des allgegenwärtigen (engl.: ubiquitous) Computers. Für ihn ist ein Werkzeug wie der Computer nur dann gut, wenn es unsichtbar ist. Ubiquitous Computing bezieht Daten nicht nur über ein einzelnes Terminal, sondern benutzerfreundlich aus vielen Computern in der Umgebung des Users. Ubiquitous Computing erzeugt also keine virtuellen Realitäten, sondern nutzt vorhandene physische Infrastrukturen wie z.B. elektronische Haushaltsgeräte zum Abruf von Daten. Einen „Always Online Realtime Access“ des Menschen garantieren überdies Mini-Computer (so genannte „Embedded Miniature Computers“) in Wänden, Schreibtischen, Stühlen, Kleidern, Schmuck oder Brillen. Eines der Grundprobleme des Ubiquitous Computing hat das Internet gelöst: Alle integrierten Benutzerschnittstellen können über Standards miteinander kommunizieren.
- 0.6 -
:. Vorwort
Kontexte - Context Provider Es geht im Netz nicht um noch mehr Informationen, sondern um das Verstehen der Informationen, d.h. es geht um Wissen. Dort wo Menschen gemeinsames Wissen haben, brauchen sie nicht motiviert werden, dieses weiterzuentwickeln. Es sind die Interferenzgebiete des Wissens, auf die es in einer Netz-Ökonomie ankommt. Wirksames Wissensmanagement muss deshalb Portale aufzubauen, die Kontexte zur Verfügung stellen. Sie bilden die Basis für das Hervorbringen neuer Innovationen. Wissensanbieter, die nur Wissen sammeln oder lediglich mit Hyperlinks vernetzen, bieten zwar nette Surftrajektorien an, die jedoch nicht in der Lage sind, die Wissensarbeiter bei der Bewältigung des Wandels zielorientiert zu unterstützen. - Interaktive Enzyklopädie Die Interaktive Enzyklopädie, wie sie Vannevar Bush in seinem Aufsatz ”As we may think” entworfen hat, erübrigt die Speicherung von Wissen im menschlichen Gehirn. Es wird stattdessen in Cybernetzen abgelegt. Der Mensch muss sich lediglich Kontexte und Adressen merken. Die vernetzen Pfade bilden ein globales Gehirn im Sinne eines Universums des vernetzten Wissens, mit Hilfe dessen ein Teilnehmer immer wieder aus dem Labyrinth des WWW herausfindet. Da die meisten Menschen nicht über ein fotografisches Gedächtnis verfügen, stellt die Interaktive Enzyklopädie nicht nur eine Gedächtnisstütze dar, sondern wird zusehends selbst ein Teil des Gedächtnisses. - Knowledge Matching Als ”Matching” bezeichnet man die optimale Zusammenführung von Angebot und Nachfrage an Wissen mit Hilfe von kontextorientierten Portalen, um sich so der eigentlichen Herausforderung des E-BusinessZeitalters mit seinen komplexer werdenden Wissenswelten zu stellen. Ein elektronisches Wirtschaftswunder kann ohne die intelligente Kopplung der millionenfach entstehenden Parallelwelten aus Wissen nicht stattfinden. Auf diese Weise entstehen neuartige Content-Ecoystems und Collaborative Platforms, auf denen sich die Information automatisch dort hinbewegt, wo sie nachgefragt wird. Ein solches Matching-Netzwerk erlaubt eine EchtzeitIntegration verschiedenster Business-Teilnehmer oder Consumer und optimiert damit die Wertschöpfungskette.
- 0.7 -
:. Vorwort
- Weltuniversität Die Weltuniversität soll eine Heimatstadt des Wissens aller Erdenbürger sein, um die sich heute vollziehende Trennung zwischen Wissenden und Unwissenden durch kostenfreie Zugänge zu Wissen aufzuheben. Die Weltuniversität, der Otto E. Rössler den Projektnamen „Lampsacus“ gab, ist nicht einfach ein Labyrinth des Wissens wie das Internet, sondern eine Matching-Plattform des Wissens, bei der jeder je nach gewünschter Wissenstiefe sein Wissen mit anderen Teilnehmern austauschen, vertiefen oder erweitern kann. Die Gesellschaft hat keine geringere Aufgabe, als sich von der Gestalt des Tieres, wie es Konrad Lorenz beschrieb, in die Gestalt des Wohlwollens zu transformieren, um den heutigen Konsens der Abhängigen in einen Diskurs der Unabhängigen zu verwandeln.
- 0.8 -
:. Vorwort
Sprachen und Standards - ADSL ”Asymmetric Digital Subscriber Line“ (ADSL) ist eine asymmetrische Datenübertragungstechnik für hohe Übertragungsgeschwindigkeiten über die Kupferkabel des Telefonnetzes. ADSL ist asymmetrisch, da der größte Teil der Übertragungsbandbreite für die Datenübertragung von der Datenquelle zum Endgerät und nur ein kleiner Teil der Bandbreite für die Übertragung von Daten des Endgeräts an die Datenquelle genutzt wird. Über den breitbandigen Datenkanal von ADSL können Übertragungsraten von bis zu 8 Megabit pro Sekunde (MBit/s) zum Kunden (downstream) und 768 Kilobit pro Sekunde in der Gegenrichtung zur Datenquelle (upstream) erzielt werden. ADSL ist deshalb besonders für den Sendebetrieb -wie z.B. interaktive Fernsehprogramme -geeignet. Des Weiteren kann ADSL bei Video on Demand (VoD) und multimedialen Internet-Anwendungen genutzt werden. Die Deutsche Telekom bietet ADSL unter der Bezeichnung T-DSL an. - Bluetooth Seit 1998 entwickeln IBM, INTEL, Ericsson, Nokia und Toshiba als „Bluetooth Special Interest Group“ eine Technologie für die drahtlose Übermittlung von Sprache und Daten mittels kurzer Radiowellen. Die Bluetooth-Technik nutzt das frei verfügbare Funknetz ISM (Industrial Scientific Medical), welches mit 2.45-GHz arbeitet. Die Übertragungsleistung wird bis zu 1 MBit pro Sekunde und die Reichweite etwa 12 Meter betragen. Durch Leistungsverstärkung kann sogar eine Reichweite von bis zu 100 Metern realisiert werden. Im Höchstfall können 127 Geräte miteinander verbunden werden. Bluetooth wird in vielen Anwendungsbereichen -vom Handy, PDA bis zum Laptop -das mühsame Verkabeln mit Niederfrequenzkabeln überflüssig machen. Der Name Bluetooth (Blauzahn) wurde von einem Dänischen König abgeleitet, der im Jahr 1000 erstmals alle Dänischen Provinzen unter seiner Krone vereinte. - RDF Das ”Resource Description Framework” (RDF) wurde vom WorldWideWebKonsortium (W3C) entwickelt und ist eine allgemeine Sprache, die es Computern erlaubt, Daten darzustellen und freizugeben. RDF integriert eine Vielzahl von webbasierten Metadaten wie ”Sitemaps”, ”Content Rating”, ”Web Crawling” oder ”Distributed Authoring” und erlaubt die automatische Erledigung von Aufgaben im Web. Anders als HTML, das vor allem die Interaktivität der Teilnehmer unterstützt, erlaubt RDF eine präzise Beschreibung von Inhalten und damit eine kontextorientierte Suche mit intelligenten Agenten. Als Kodierungssyntax für RDF lässt sich die XMLSprache nutzen. Darüber hinaus könnte die Kombination von RDF mit
- 0.9 -
:. Vorwort
digitalen Signaturen den Schlüssel zum Aufbau eines ”Web of Trust” im Sinne von Tim Berners-Lee dienen. - XML Die XML-Sprache (Extensible Markup Language) wurde geschaffen, um einen einheitlichen Standard für die Kooperation von Computern festzusetzen. So kann jeder im Rahmen von XML seine Daten mit Markierungstags versehen, d.h., es ist wesentlich einfacher, zielorientiert im Meer des Wissens zu navigieren. Ein XML-Dokument kann aus einer Mischung von Tags aus einem Namensraum bestehen, der durch eine URI identifiziert wird. Dadurch wird es möglich, jedes XML-Dokument über das Web zu definieren.
- 0.10 -
:. Vorwort
Netzwerke - Business Ökosysteme „Nutzen-Nutzen-Relationen“ sind im Internet die entscheidende Voraussetzung, damit Teilnehmer dort „Win-Win-Spiele“ spielen können. Mit derartigen Spielen gelingt es, die Zahl der Verlierer und den Grad des Verlierens zu minimieren. Die Net Economy sollte keine Wirtschaft sein, die die bestehenden Spielregeln einfach übernimmt, sondern eine, die völlig neue Spielregeln einführt. Von besonderem Interesse sind diejenigen Situationen, bei denen möglichst viele oder gar alle Teilnehmer gewinnen können. Im Jahr 1994 bekamen die Wirtschaftswissenschaftler Reinhard Selten, John Harsanyi und John Nash für derartige Ausarbeitungen zur Spieltheorie den Ökonomie-Nobelpreis. In einer Net Economy, in der genau diese Fragestellung interessant ist und die auf Innovation und Werterzeugung basiert, werden neue Formen der Zusammenarbeit wie Business Ecosystems immer wichtiger. Ein neuer wachstumsträchtiger Trend sind B2B-Ökosysteme, die eine Vielzahl von Unternehmen, Wissensarbeitern, Early Adopters, Beratern, Analysten und Visionären miteinander derart verbinden, dass deren Wissensbedürfnisse gegeneinander abgeglichen werden. - Internet 2 Das Internet hat seinen Ursprung in dem 1972 vorgestellten 'Arpanet', das zunächst nur die sichere Militärkommunikation in Zeiten des Krieges sicherstellen sollte. Aber schon in den folgenden Jahren wurde es auch zivil genutzt. Mit der Schaffung des einheitlichen Übertragungsstandards Transmission Control Protocol/Internet Protocol (TCP/IP) gelang die Verbindung zwischen Netzen, und das Internet war geboren. Das Internet 2 ist ein Konsortium von über 170 Universitäten, die mit der Industrie und der Regierung zusammenarbeiten, um fortschrittliche Netzwerkanwendungen für Wissenschaftler zu entwickeln. Das zweite Internet wird um ein Vielfaches schneller sein als das heutige weltweite Datennetz und ausschließlich der Wissenschaft dienen, um zeitkritische Forschungsprojekte - wie etwa die Fernnutzung von Supercomputern - via Internet ohne Probleme durchführen zu können. - Mobile Computing Mobile Kommunikationssysteme ermöglichen es dem Wissensarbeiter, von jedem Punkt der Erde ohne aufwändige Infrastrukturen und Schnittstellenprobleme arbeiten zu können, indem er sein Interface immer bei sich hat und mit diesem eine Vielzahl von Tätigkeiten ausführen kann. Denkbar ist z.B. die Fusion von Mode und Computern, d.h. die Entwicklung eines ‘Digital Pret-à-Porter’. Hardware als Haute Couture, der ‘Wearable Computer’, könnte es zukünftig dem Träger sogar ermöglichen, Gefühle zu erkennen (so genanntes ‘Affective Computing'). Der Datenaustausch per - 0.11 -
:. Vorwort
Händedruck oder durch am Körper installierte Sender und Empfänger wäre dann über ein solches „Bodynet“ oder PAN ('Personal Area Network') problemlos möglich. Der interdisziplinäre Forschungsverbund Things That Think (TTT) erforscht eine derartige Integration der gegenständlichen und der logischen Welt. - Peer-to-Peer-Netze Das World Wide Web wird häufig als Einbahnstraße bezeichnet, weil ungeachtet der Interaktivität Daten vorwiegend in eine Richtung, das heißt zum Nutzer transportiert werden. P2P (Peer-to-Peer) hebt diese Beschränkung auf und erlaubt den unmittelbaren Datenverkehr zwischen Nutzergruppen. P2P ist hierbei längst nicht mehr auf die bekannten Tauschbörsen wie Napster, Gnutella oder Freenet beschränkt. Immer mehr Firmenlösungen entstehen auf Basis dieser Technologie. Webseiten, Dateien für den Download, selbst Datenbanken müssen nicht mehr auf Webservern im Internet gespeichert sein. Die P2P-Nutzer können die Dateien direkt von einem PC abrufen. Bei P2P-Netzen handelt es sich allerdings um geschlossene Netzwerke. Innerhalb der P2P-Netzwerke lassen sich wiederum beliebig viele Untergruppen mit eingeschränkten Nutzerkreisen realisieren.
- 0.12 -
:. Vorwort
Management - Enterprise Application Integration Erfolg im E-Business erfordert heute zunehmend die Verbindung der Geschäftsprozesse in integraler Weise durch eine Software. Warum ist das so? Zu einem existieren heute viele verschiedene e-Commerce Applikationen mit unterschiedlichen Schnittstellen, es gibt heterogene Systemlandschaften, und es werden viele unterschiedlichen Backend-Systeme eingesetzt. Zum anderen sind die Geschäftsprozesse heute unternehmensübergreifend, und es sind unterschiedlichste Datenquellen für die einzelnen Applikationen vorhanden. Diesen Gegebenheiten sollen heute „Enterprise Application Integrationen“ (EAIs) Rechnung tragen. EAI ist keine leichte, sondern die vielleicht schwierigste Aufgabe, vor der IT-Verantwortliche heute stehen. Trotz begrenzter Ressourcen müssen Integrationsprojekte immer schneller durchgeführt werden, wobei die Anforderungen an Skalierbarkeit und zukünftige Anpassbarkeit erfüllt sein müssen. EAI ermöglicht es, durch Kombination von Technologien und Prozessen Geschäftsinformationen in Formaten auszutauschen, die von den Business Applikationen untereinander verstanden werden. - Online-Auktionen Auktionen im Netz sind einer voller Erfolg, da sie für die Teilnehmer Nutzen-Nutzen-Relationen schaffen. Es werden wie auf physischen Märkten vier Auktionsformen unterschieden: die Englische Auktion, die Holländische Auktion, die Höchstpreisauktion sowie die Vickrey-Auktion. Bei der bekanntesten Form, der Englischen Auktion, werden ständig offen höhere Gebote abgegeben, bis nur noch ein Bieter übrig bleibt, der dann den Zuschlag erhält. Bei der Holländischen Auktion wird ein vom Verkäufer festgesetzter Höchstpreis solange reduziert, bis ein erster Bieter in offener Form diesen Preis akzeptiert. Die Höchstpreis- und die Vickrey-Auktion haben das besondere Merkmal, dass jeder Bieter sein Gebot verdeckt abgibt. Allerdings muss der Bieter mit dem höchsten Gebot bei der Vickrey-Auktion nicht den Preis für sein höchstes Gebot bezahlen, sondern den Preis des zweithöchsten Gebotes. Die Vorteile von Auktionen im Internet bestehen in den nahezu unbeschränkten Matching-Möglichkeiten der Teilnehmer und in den niedrigen Kosten. Sie haben das phänomenale Wachstum von Firmen wie Ebay ermöglicht. - Virtuelles Geld/Smart Card Virtuelles Geld bezeichnet Informationseinheiten, welche nur in elektronischer Form existieren und als Ersatz für Bargeld dienen. Beim virtuellen Geld, auch als Electronic Currency oder Digital Cash bezeichnet, lässt sich Geld der ersten und der zweiten Stufe unterscheiden. Virtuelles Geld der ersten Stufe ist elektronisches Geld, das noch auf die Geldschöpfung von Banken bezogen bleibt, d.h. kontobezogenes Geld, bei - 0.13 -
:. Vorwort
dem eine Geldmengenkontrolle problemlos möglich ist. Beim E-Money zweiter Stufe, welches nicht von den Notenbanken, sondern von finanzkräftigen Organisationen emmitiert wird, ist eine lückenlose Kontrolle nicht mehr möglich. Dank der niedrigen Transaktionskosten erlaubt EMoney die Vermarktung von Produkten und Dienstleistungen im Internet selbst im untersten Preissegment. Virtuelles Geld ist deshalb stets von einem Speichermedium abhängig, das die Information aufbewahrt, und von Computersystemen, die die Geldübertragung, sprich die Informationsverschiebung ermöglichen. Eine besondere Form von virtuellem Geld bilden die Smart Cards, die Kreditkarten ähneln, jedoch mit Prozessoren und Speichern ausgestattet sind und ein Aufladen der Karte an einem Geldautomaten ermöglichen. - Mass Customization Ein besonderer Erfolgsfaktor im Internet ist die Möglichkeit, kundenindividuell Produkte und Dienstleistungen anzubieten: das Mass Customization. Als Pionier dieses Ansatzes gilt Alvin Toffler, der bereits in seinem Buch „Future Shock“ im Jahre 1970 diesen Trend vorausgesagt hatte. Bei Mass Customization wird jedes individuelle Produkt ohne zusätzliche Kosten genauso schnell hergestellt wie identische Produkte, d.h. Produkte sind in so vielen Varianten herstellbar, dass die Wünsche jedes Kunden erfüllt werden können. Für die Unternehmen bedeutet das, dass sie sich auf mehr Schnelligkeit und die Auflösung ihrer eigenen Unternehmensgrenzen einstellen müssen. Kundenindividuelle Produkte werden deshalb zukünftig immer mehr über virtuelle Organisationen hergestellt und verkauft werden.
- 0.14 -
:. Vorwort
Code-Analyse - Artifical Life Künstliches Leben ist die Übertragung biologischer Prinzipien auf den Computer und der Versuch, durch Simulation ein Verständnis komplexer Dynamiken zu gewinnen. Das Wort künstlich kann sowohl eine „physische“ als auch eine „virtuelle“ Bedeutung haben. Künstliche Befruchtung und Genmanipulation zählen zur physischen, im Computer erzeugtes, simuliertes Leben hingegen zur virtuellen Ausprägung von Künstlichem Leben. Die Gestaltung lässt sich demnach im Bereich der Hardware oder der Software, d.h. biotechnologisch oder durch Programme realisieren. Modelle für Künstliches Leben können Computerviren simulieren, ebenso evolvierende Computerprozesse, fraktale Strukturen, Roboter, Zelluläre Automaten, künstliche und auch Unternehmensentwicklungen. - Bioinformatik Innovative biologische, chemische und pharmazeutische Forschung ist heute ohne den Einsatz von Computern nicht mehr denkbar, wie das ”Humane Genome Project” aufgezeigt hat, das alle menschlichen Gene katalogisiert. Die Bioinformatik, die Verbindung von elektronischer Datenverarbeitung und Biotechnologie, von Joel de Rosnay auch als „Biotics“ bezeichnet, gilt heute als der wichtigste Bereich der Computerbranche, da Biochips in absehbarer Zeit die Halbleiter substituieren werden. Genomsequenzierung, Neuro-Implantate und Proteinstrukturanalyse sind nur einige Beispiele für einen Forschungsbereich, der zur Schlüsseltechnologie des 21. Jahrhunderts werden könnte. Mit der Herstellung so genannter DNS-Synthesizer, die Mutationen lesbar machen und Gen-Sequenzen korrigieren können, verbindet sich die Hoffnung auf die Entwicklung gentechnischer Präparate, mit denen sich chronische oder bislang unheilbare Krankheiten bekämpfen lassen. - Immunologie Die noch recht junge Disziplin Immunologie ist die Lehre von Struktur und Funktion des Immunsystems. Über das traditionelle Hauptgebiet, die Infektionsimmunologie, hinaus, haben immunologische Erkenntnisse und Methoden heute in alle medizinischen Bereiche Einzug gehalten (u.a. Tumorimmunologie, Immunologie der Autoimmunerkrankungen). Für Fachrichtungen wie die Transplantationsmedizin ist die Immunologie die Grundlage für einen Großteil des diagnostischen und therapeutischen Handelns. Als interdisziplinäres Fachgebiet kann die Immunologie Zusammenhänge zwischen dem Immunsystem und anderen komplexen Systemen des Organismus (z. B. dem Neuroendokrinum) aufzeigen. Auch in den komplexer werdenden Netzwerken wird es zukünftig darauf ankommen, eine Datenimmunologie zu begründen, da die Virenbefälle im Internet zunehmen. - 0.15 -
:. Vorwort
- Telemedizin Telemedizin, d.h. Untersuchungen, Diskussionen und medizinische Eingriffe über größere Entfernungen (so genannte Teleoperationen) gewinnen in der Wissensgesellschaft immer mehr an Bedeutung. Der Einsatz neuer Medien findet im Gesundheitssektor schon heute breite Anwendung und wird Electronic Health genannt. Bilder und Patienteninformationen können digital über Netzwerke oder mit Videokonferenztechnologie an den jeweiligen Kollegen übertragen werden. Telemedizin überbrückt somit die räumliche Entfernung zwischen Arzt und Patient, ermöglicht das Hinzuziehen besserer Experten für Diagnosen und gestattet das dezentrale Verfügbarmachen von sämtlichen Untersuchungsbefunden inklusive der Messdaten. Gebiete mit einer geringeren Ausstattung an medizinischen Einrichtungen und Personal können dadurch ebenfalls einen besseren Zugang zu ärztlichem Know-how und Medizinzentren erlangen.
- 0.16 -
:. Vorwort
Sicherheit - Biometrie Biometrie ist die Untersuchung messbarer physiologischer und verhaltensbedingter Merkmale, die genutzt werden, um die Identität einer Person herauszufinden. Zu diesen Merkmalen zählen Fingerabdrücke, die Iris des menschlichen Auges, die Hand, Stimmenmuster, Unterschriften, Gesichtsausdrücke etc. Die Biometrie wird dort genutzt, wo es aus Sicherheitsgründen notwendig ist, die wahre Identität einer Person zu kennen, wie z.B. bei Grenzkontrollen, Bankgeschäften, Überprüfung von Führerscheinen, Besuchersystemen in Gefängnissen oder Stimmabgabesystemen bei Wahlen. In der heutigen Welt der Datenkriminaliät reichen PIN-Nummern nicht mehr aus, um einen Missbrauch zu verhindern. Deshalb sind Identifizierungen notwendig, die auch mit leistungsfähigen Rechnern nicht manipuliert werden können. - Data Mining Data Mining ist der Versuch von Internetfirmen, aus den von Benutzern freiwillig oder unfreiwillig beim Besuch ihrer Webseite hinterlassenen Daten weiterverwendbare User-Profile und Verhaltensmuster zu gewinnen und damit das Konsumverhalten der User genau zu erforschen. Besonders üble Ausspähversuche werden Cyberstalking genannt. Data Mining ist eine noch recht junge Disziplin, die auf den Forschungsgebieten der Künstlichen Intelligenz, Neuronalen Netze, mathematischer Statistik und Datenbanktechniken aufbaut. Data Mining-Verfahren werden typischerweise in Situationen angewandt, in denen ein Unternehmen große Datenbestände in Datenbanken oder in einem Data Warehouse gespeichert hat und mit Hilfe von Analyseverfahren aus diesen Daten Kunden-Informationen gewinnen möchte. Ein großes Anwendungsgebiet für das Data Mining ist darüber hinaus die Risikoanalyse. - Kryptografie / Steganografie Da digitale Transaktionen die Gefahr der Manipulation von Daten bergen, ist es im WorldWideWeb unabdingbar, mittels Software eine Einsichtnahme in persönliche Daten durch Dritte zu verhindern. Die Technologie hierfür nennt sich Kryptografie, d.h. die Fähigkeit zum Verschlüsseln (Encryption) und Entschlüsseln (Decryption) von Daten. Bei der heute üblichen „Public key cryptography“ werden Schlüsselpaare für die Codierung verwendet, damit Nachrichten nicht mehr mit demselben Code ver- und entschlüsselt werden müssen und digitale Signaturen erzeugt werden können. Man unterscheidet den öffentlichen Schlüssel, der verwendet wird, um eine Nachricht zu verschlüsseln, und den privaten Schlüssel, der zur Decodierung der verschlüsselten Nachricht verwendet wird und erlaubt, eine elektronische Unterschrift hinzuzufügen. Die Steganografie (= verdecktes Schreiben) ist die Wissenschaft von der unsichtbaren Kommunikation. Im Gegensatz zur - 0.17 -
:. Vorwort
Kryptografie, bei der es um das Aufspüren, Entschlüsseln und Manipulieren von sichtbaren Daten geht, ist das Ziel der Steganografie, Botschaften innerhalb harmloser Botschaften zu verbergen. Die Steganografie gibt nur dem eingeweihten Nutzer die Kenntnis über den geheimen Code. Der Abhörer hat nicht die geringste Chance, ohne diesen Code Nachrichten zu entschlüsseln. - Schutz der Privatsphäre Das World Wide Web ist ein universelles Medium für die Freigabe von Informationen. In einer Virtual City können die Bürger in einfacher Weise ihr Wissen und ihre Ideen anderen Bürgern, aber auch Unternehmen mitteilen. Der Schlüssel zur Integrität ist hierbei die Definition geschützer Privatsphären. Jeder Teilnehmer hat das Recht auf ein so genanntes WWWGeheimnis, das dem Briefgeheimnis ähnlich ist. Es muss verhindet werden, dass Teilnehmern unfreiwillige Filter auferlegt werden, was einer Zensur gleichkäme. Niemand sollte den Informationszugriff kontrollieren. Der Bürger muss auch anonym im Web surfen können, d.h. in der Lage sein, über die Stufe der Geheimhaltung selbst zu entscheiden. Erste Schritte in diese Richtung macht die Plattform P3P (Platform for Privacy Project).
- 0.18 -
:. Vorwort
Danksagung Einzelne Kapitel dieses Buches sind bereits in der Handelszeitung, Infoweek, IT-Reseller, Netzwoche, KMU, Groupware, GDI-Impuls sowie „Texte zur Wirtschaft“ vorab veröffentlicht worden. Ich möchte nachfolgenden Personen für ihre Unterstützung und das entgegengebrachte Vertrauen danken: meiner Tochter Maris, meiner Frau Leigh, Otto E. Rössler, Michael Musiol, Rudi und Helen Wehren, Frank Hartmann, Christian Eigner, René Dubach, Markus Häfliger, Thomas Brenzikofer, Heinrich Meyer, Karl-Heinz Pichler, Men und Matthias Haupt, Victor Dobal, Niels Arnold, Stefan Tschanz, Daniel Kohler, Gian-Franco Salvato, Patrick Haertsch, Peter Höchner, Christoph Siegrist, Pascal Schmid, Jan Möhr, Maria Finders sowie meinen Eltern Hilde und Paul Schmidt. Artur P. Schmidt, Biel, März 2003
- 0.19 -
:. 1. Wirtschaft
:. 1. Wirtschaft 1.1 Dot.Com-Krise: Hype oder das Risiko, einem Modetrend zu folgen
- Die Katastrophe Als Menschen sind wir permanenten Risiken ausgesetzt. Wir können deshalb Katastrophen nur entgehen, wenn wir die Risiken kennen und die bestehenden Systeme daraufhin untersuchen. Das berühmte Gesetz von Murphy „Wenn etwas schief gehen kann, dann wird es auch schief gehen“ gilt nicht nur für technische Systeme, sondern für Systeme und Interfaces aller Art. Es ist sozusagen ein Meta-Gesetz mit universeller Gültigkeit. Obwohl das Gesetz nach dem Ingenieur Edward A. Murphy benannt ist, stammt obige Formulierung nicht von ihm selbst. Die ursprüngliche Form des Murphy-Gesetzes lautet: „Wenn es zwei oder mehr Möglichkeiten gibt, etwas zu tun, und wenn eine dieser Möglichkeiten zu einer Katastrophe führt, dann wird sich irgendjemand für genau diese Möglichkeit entscheiden.“ Der Anschlag vom 11. September 2001 auf die beiden Türme des World Trade Centers hat dies in aller Deutlichkeit aufgezeigt. Im Management ist das Gesetz von Murphy eines der wichtigsten überhaupt, welches jedes Interface zu beachten hat. Damit man die möglichen katastrophalen Alternativen jedoch aufspürt, sind Metamodelle der Wirklichkeit erforderlich. Ohne Modellbildung lassen sich nur Versuchsund Irrtums-Ansätze verwirklichen, die nicht nur teuer und kostspielig sind, sondern im Extremfall zu einer ultimativen Katastrophe, insbesondere im Hinblick auf die Gentechnologie führen können. In der New Economy ging sehr vieles schief, weil wir uns nur über die Prozesse, nicht aber über die Rückkopplungen innerhalb dieses Wirtschaftssystems Gedanken gemacht haben. - Ganzheitliche Simulationen und Metamodellierungen In einer Phase der Phasenübergänge zu neuen Technologien ist es unvermeidbar, sich einem neuartigen Risk-Management zu stellen, welches nicht Prozesse sondern ganzheitliche Simulationen und Metamodellierungen in den Mittelpunkt unseres Handelns stellt. Das Internet ist nicht losgelöst von der physischen Welt zu betrachten, da es in vielfältiger Weise in dieses Territorium eingebunden ist. Doch dieses Territorium befindet sich heute auf einer Mission, die immer mehr an den Flug von Apollo 13 zum Mond erinnert. Beim Hinflug ereignete sich im Versorgungsteil des Mutterschiffs bekanntlich eine Explosion, die fast zu einer Katastrophe geführt hätte. Ebenso wie der damalige Apollo-Pilot James Lovell müssen wir heute auch in Wirtschaft und Politik, wie nicht zuletzt der Crash in der New Economy gezeigt hat, überall den Ausfall lebenswichtiger Systemfunktionen innerhalb der Prozessabläufe feststellen. Die Risiken in Form von globalen Katastrophen nehmen deshalb in einer vernetzten Welt, ob online oder - 1.1 -
:. 1. Wirtschaft
offline, in hohem Maße zu. Es geht deshalb heute um nichts Geringeres als um ein Management, welches nicht nur an symptombasierten Prozessen herumkuriert, sondern vor allem die rückkopplungsbasierten Ursachen von Epidemien, des Treibhauseffektes, der Verschuldungsspirale, von Vermögens-disparitäten sowie der digitalen Viralität bekämpft. - Neuartige Interfaces entstehen Reines Prozessdenken birgt die Gefahr, dass wir uns von den neuen Technologien hypnotisieren lassen. Dies ist insbesondere deshalb so, weil wir, wie jeder IT-Leiter bestätigen wird, zunehmend von den Prozessen gemanagt werden, anstatt sie selbst lenken zu können. Jedes neue Medium macht es deshalb erforderlich, dass wir unsere Wahrnehmungsfähigkeit für Risiken verbessern und uns unsere Urteilskraft erhalten. Dies erfordert jedoch eine Kompetenz im Umgang mit komplexer werdenden Interfaces. Solange das neue Interfacezeitalter nur in Umrissen erkennbar ist, ist es natürlich schwierig, Gefahren klar zu formulieren. Da ein neues Medium nicht nur unsere Wahrnehmung verändert, sondern vor allem die Art, wie wir denken, gilt es sich mit der Thematik von Interfaces eingehend zu befassen. Es ist nicht die Software, die eine neue Ökonomie maßgeblich gestaltet, sondern es ist die Modellierung mit der Software, die uns ein neuartiges Interface eröffnet. Dass diese neue Wirklichkeit vor allem auf die Psyche zurückwirkt, zeigt sich auch und vor allem im Anlegerverhalten in Hightech-Märkten wie der NASDAQ. Jedes neue Medium erzeugt zunächst eine Goldgräberstimmung, die früher oder später einer Ernüchterung weichen muss. Wer jedoch diese Wechselwirkungen nicht versteht und Diskurse vermeidet, wie die meisten Teilnehmer im TechnologieWettrennen, sieht sich früher oder später erheblichen Volatilitäten und Überkapazitäten gegenübergestellt. - Mikrokonstruktionen der Wirklichkeit In Wahrheit geht es in der so genannten New Economy nicht primär um prozessorientiertes Management, sondern vor allem um interaktive Diskursvorgänge. Diese werden auf Grund unterschiedlicher Interfaces zwischen Menschen und Maschinen ausgelöst. Es geht dabei längst nicht mehr primär um Dekonstruktion oder Konstruktion im Makrokosmos, sondern vor allem um Mikrokonstruktionen. Letztere sind mittlerweile elementar für ein Verständnis komplexer Zusammenhänge. Da DesignProzesse ohne Kenntnis nichtlinearer Wechselwirkungen in die Katastrophe führen können, wie Buckminster Fuller folgerichtig erkannte, benötigen wir ein tiefer gehendes Verständnis der Kybernetik interaktiver Verschaltungen von Gehirnen, intelligenter Agenten, neuronaler Netze, genetischer Algorithmen oder DNA-Codes. Nur durch ein vernetztes Denken wird sich ein Überleben der Spezie Mensch im Rahmen von Ökosystemen sicherstellen lassen. Die aktuelle Krise an den Finanzmärkten oder ökologische Katastrophen sind deshalb lediglich ein Vorspiel dessen, was auf uns möglicherweise durch die Bio- und Gentechnologie zukommt, wenn wir
- 1.2 -
:. 1. Wirtschaft
die Kybernetik und die notwendigen Diskurse über die Folgen unseres Handelns im Management weiter ignorieren. - Kleinere Brötchen backen Die Wissenschaft lehrt, dass es immer besser ist, kleinere Brötchen zu backen und niemals den ultimativen Lösungsansatz zu verkünden. Aber auch in der Praxis ist nur der ein guter Managementberater, der dem Unternehmer beim ersten Gespräch sagt: „Ich kann Ihnen heute noch keine Lösung für Ihr Problem sagen, aber ich werde mich bemühen, eine zu finden. Und wenn es keine gibt, werde ich nicht davor zurückschrecken, Ihnen das zu sagen.“ Die Beratungspraxis sieht jedoch ganz anders aus, da viele Consultants, wenn sie einen Job beginnen, die Folgen ihres Handelns ausblenden und schon die Standardlösung im Kopf haben, die sie bereits bei vielen anderen Kunden in ähnlicher Weise realisiert haben. Und diese wird dann in schöne Begriffe wie Wissensmanagement, Prozessmanagement oder Business Process Reengineering gekleidert. Die Folgen amateurhafter ConsultingDienstleistungen lassen sich dann in der Ruinierung von Firmenbilanzen und Aktienkapitalisierungen wie z.B. bei der Swissair durch McKinsey ablesen. Es zeigt sich immer mehr, dass auch die Ansätze angeblicher „Prozess-Profis“ wie Michael Hammer im Zeitalter des WorldWideWeb in die Jahre gekommen sind und mittlerweile einen Anachronismus darstellen, der sich jedoch hartnäckig zu verteidigen weiß. Viel schlimmer als der Fetischismus für Modewörter ist jedoch, dass viele Berater dem Kunden nicht sagen, wenn es keine Lösung für das Problem gibt. Der Grund dafür liegt darin, dass sich selbst Unternehmensberater schwer tun, wirklich neue Lösungen vorzuschlagen, da diese nach Arthur Schopenhauer drei Phasen durchlaufen: 1. Das Neue wird lächerlich gemacht, 2. Das Neue wird bekämpft und 3. Das Neue wird plötzlich als Selbstverständlichkeit angesehen. - Aufbau von Nutzen-Nutzen-Relationen „Nutzen-Nutzen-Relationen” sind im Internet die entscheidende Voraussetzung für die Teilnehmer, um „Win-Win-Spiele” spielen zu können. Mit diesen neuen Spielen kann es gelingen, die Zahl der Verlierer und den Grad des Verlierens zu minimieren. Diese Überlegung steht allerdings im Gegensatz zu einem vor allem in der Old Economy vorherrschenden Prozessdenken. Wer in einer Netz-Ökonomie erfolgreich sein will, muss, wie dies AOL oder EBAY in der New Economy vormachten, viele andere Teilnehmer eines Netzwerkes stärken. Nur so lassen sich die autokatalytischen Kräfte einer Supply Chain voll zur Entfaltung bringen. Im Netzzeitalter wird sich ein höherer Wohlstand nur durch einen „Wohlstand durch Ko-Evolution“ erreichen lassen, d.h. durch eine sinnvolle Synthese von Kooperation und Wettbewerb, die so genannte Koopetition.Der Begriff wurde von Ray Noorda, dem Gründer der Netzwerkfirma Novell, geprägt. Die Net Economy sollte keine Wirtschaft sein, die die bestehenden prozessorientierten Spielregeln einfach übernimmt, sondern eine, die völlig neue Spielregeln einführt. Von besonderem Interesse sind diejenigen - 1.3 -
:. 1. Wirtschaft
Situationen, bei denen möglichst viele bzw. alle Teilnehmer gewinnen können. 1994 erhielten die Wirtschaftswissenschaftler Reinhard Selten, John Harsanyi und John Nash für derartige Ausarbeitungen zur Spieltheorie den Nobelpreis für Ökonomie. In einer Net Economy, in der genau diese Fragestellung interessant ist und die auf Innovation und Werterzeugung basiert, werden neue Formen der Zusammenarbeit, Partnerschaften und Allianzen im Rahmen eines vernetzten Supply Chain Managements immer wichtiger. - Ökonomisches Modell für „freie“ Ressourcen In einem kybernetisch geprägten Zeitalter kommt es darauf an, auf ein unredliches Management zu verzichten. Ebenso wie es Ludwig Erhard für die soziale Marktwirtschaft forderte, darf man sich nicht an optischen Scheinerfolgen orientieren. Erhard ging es um die Verwirklichung von „echtem Fortschritt“, der sich nur durch die Verschmelzung von Wirtschaftsund Gesellschaftspolitik erreichen lässt. Diese Einstellung benötigen wir auch für das Management von Interfaces. Rishab Ayer Gosh, der ein ökonomisches Modell für „freie“ Ressourcen im Internet beschrieb, hat es auf den Punkt gebracht, als er drei Beschreibungsmöglichkeiten für die Netizens gab: Netizens sind entweder Menschen mit altruistischen Werthaltungen oder ein Haufen von schwachsinnigen Hobbyisten mit zu viel Freizeit oder womöglich ganz normale Menschen, die glauben, dass sie durch Freundlichkeit im Netz etwas zurückbekommen. Für Gosh funktioniert der Kochtopfmarkt, bei dem viele User ihr Wissen in eine Community einbringen, nicht altruistisch, sondern nutzenorientiert, da jeder, der etwas in den Linux-Kochtopf hineingibt, als Output ein besseres Betriebsystem herausbekommt. Durch die Interaktion in Communities können somit sehr effizient neue Diskurse und Interfaces hervorgebracht werden, die für alle Teilnehmer einen echten Fortschritt bringen. - Ursachen der Webdienstleister-Krise Wenn eine Branche oder ein Marktsegment in die Krise gerät, so können die Ursachen dafür vielfältig sein. Die heutige Situation in der IT-Branche, innerhalb derer nahezu alle Bereiche betroffen sind, ist durch verschiedenste Faktoren hervorgerufen worden: Zu den äußeren Krisenfaktoren zählen der so genannte Medien-Hype, aufgeblähte Aktienmärkte sowie ausufernde Wachstumserwartungen, die riesige Lagerbestände sowie eine zu hohe Verschuldung der meisten Unternehmen bedingten. Als interne Krisenfaktoren sind zu beobachten, dass oftmals unausgereifte Produkte von den Softwareanbietern auf den Markt kamen, dass es bis heute keine wirksamen Systeme für den Zahlungsverkehr gibt sowie dass zu viele Startup-Firmen während des Internet-Klondikes ähnliche oder identische Geschäftsmodelle verfolgten. Da es aber das Ziel von Unternehmen sein muss, Werte zu schaffen und nicht zu vernichten, bleibt der neuen New Economy nichts anderes übrig, als sich auf die Vorgaben der Old Economy Rentabilität, Produktivität und Qualität - zurückzubesinnen. Im aktuellen Käufermarkt, gekennzeichnet durch einen Verdrängungswettbewerb mit - 1.4 -
:. 1. Wirtschaft
fallenden Margen, sind deshalb keine unprofessionellen Pioniere oder Firmenlenker mehr gefragt, sondern erfahrene Manager, die Probleme frühzeitig erkennen und sofort entschieden gegensteuern. - Kostenkontrolle und exzellente Kommunikation Die erste entscheidende Maßnahme, die Manager zurzeit ergreifen müssen, ist, ihre Kostenstruktur den jeweiligen Marktverhältnissen flexibel und schnell anzupassen bzw. wenn möglich, eine Kostenführerschaft innerhalb ihres jeweiligen Marktsegementes zu erreichen. Dazu benötigt man allerdings ein proaktives Controlling, das dieser Bezeichnung tatsächlich auch gerecht wird. Das bedeutet, dass neben dem finanziellen Controlling auch die Prozesse und die Produkte in die Unternehmenslenkung mit einzubeziehen sind. Nicht erst wenn die Zahlen auf dem Tisch liegen, muss gehandelt werden, sondern es gilt hier dem Markt proaktiv immer eine Nasenlänge voraus zu sein. Zweitens ist es notwendig, die Kommunikation des Unternehmens nach außen und nach innen sehr stark zu forcieren. Die nach außen gerichtete Steigerung des Bekanntheitsgrades und der dadurch mögliche Aufbau eines Markennamens, macht es für den Verkauf einfacher, neue Kunden zu gewinnen und so mögliche Umsatzeinbrüche zu kompensieren. Besondere Bedeutung kommt hier der eigenen Web-Site zu, die durch Mehrwertdienste zu einer stärkeren Kundenbindung beitragen kann. Ebenso notwendig ist jedoch auch die exzellente Kommunikation der Mitarbeiter innerhalb des Unternehmens, da hierdurch der Wissenstransfer und die Innovationsfähigkeit deutlich erhöht werden kann. Das kann jedoch nur gelingen, wenn einerseits ein offenes Klima herrscht und andererseits ständig daran gearbeitet wird, den Zusammenhalt und die Teamfähigkeit zu erhöhen. Motivierte und loyale Mitarbeiter zu haben, ist in Phasen der Unsicherheit der wohl wichtigste Unternehmenswert, insbesondere in Unternehmen, die nichts anderes als das Wissen ihrer Mitarbeiter als Marktleistung anbieten können. - Neue Strategien definieren Das Problem des aktuellen Web-Dienstleistungsmarktes ist es, dass die bisherigen Services von immer weniger Neukunden gekauft werden. Der Käuferstreik hat vor allem damit zu tun, dass viele angebotene Produkte nicht in der Lage sind, die Produktivität für den Kunden zu steigern, die Geschäftsprozesse der Kunden nur unzureichend abgebildet werden und eine Vielzahl von erstellten Sites eine schlechte Qualität - vor allem im Design und der Benutzerführung - aufweisen. Ein exzellentes Geschäftsmodell, wie es etwa dem von der Aseantic AG designten CocaCola-Shop zu Grunde liegt, ist heute eher die Ausnahme. Als dritte wesentliche Maßnahme müssen Web-Dienstleister heute eine Wachstumsstrategie definieren, die neben neuen Geschäftsmodellen die Fokussierung auf die Kernkompetenzen (z.B. durch Outsourcen technischer Dienstleistungen) sowie neue Produkte/Dienstleistungen vorsieht. Das kann sogar so weit gehen, dass eine vollständige Neuerfindung des Unternehmens notwendig wird. Da der ruinöse Verdrängungswettbewerb im Markt - 1.5 -
:. 1. Wirtschaft
weitergeht, werden die Margen weiter fallen und immer mehr Firmen, die sich den neuen Gegebenheiten nicht anpassen können, von der Bildfläche verschwinden. In der Schweiz werden deshalb wohl kaum mehr als fünf große Web-Dienstleister übrig bleiben. - Aufbau von Allianzen und Partnerschaften Viertens wird es in einer Netzwerk-Ökonomie immer wichtiger, durch geeignete Allianzen/Partnerschaften die Transaktionskosten zu senken und in Folge einen positiven Cash Flow zu erzielen. Unternehmen oder auch Allianzen sind allerdings nur dann sinnvoll, wenn die Transaktionskosten innerhalb des Unternehmens oder eines Netzwerkes geringer sind, als sie es auf dem Markt wären. Deshalb muss die Auswahl sehr sorgfältig und unter Abwägung der möglichen Einsparungspotenziale und der Überlebensfähigkeit der Partner erfolgen. Es gilt Partnerschaften, die nur aus PR-Überlegungen initiiert werden, zu vermeiden und stattdessen solche zu suchen, die eine langfristige Win-Win-Situation für alle Teilnehmer sicherstellen. Bei der Integration von Marktpartnern ist deshalb auf eine durchgängige Koordination der Wertschöpfungsketten zu achten. Insbesondere Supply Chain Management-Systeme erlauben die Vernetzung der eigenen mit der jeweiligen Wertschöpfung der Partner. - Neue Wachstumsfelder Gemäß einer Studie von MSM Research umfasste der Markt für WebsiteServices in der Schweiz im Jahr 2001 ein Volumen von etwa 270 Millionen CHF, wovon 73 % auf Hosting Services, 9 % auf Support und 18 % auf das Design von Websites entfiel. Trotz der aktuellen Marktbereinigung bei den Web-Dienstleistern wird das Marktwachstum der Investionen bei EBusinessund Internetanwendungen durch den verstärkten Wettbewerbsdruck sowie Time to Market-Vorgaben in den nächsten Jahren um 25-35 % zulegen. Die Kunden fordern von den Web-Dienstleistern zukünftig vor allem, dass die Integrationsfähigkeit der Lösungen weiter erhöht und die Gestaltung der Prozesse effizienter wird. Neue ITInvestitionen werden hierbei vor allem durch neue agentenbasierte B2BPlattformen, innovative Web-Services, kostengünstige Content ManagementSysteme, nutzenorientierte Enterprise Applikations-Integrationen, kundenindividuelles Customer Relationship Management, neue E-SecurityLösungen sowie mobile Anwendungen hervorgerufen werden. Ganz entscheidend für die Investitionsbereitschaft wird allerdings sein, dass das Problem des Zahlungsverkehrs gelöst wird, da dieser die Basis für das mögliche Wachstum und die wirksame Nutzung des Internet bildet.
- 1.6 -
:. 1. Wirtschaft
1.2 New Economy: To b or not to b?
- Wie neu ist die New Economy? Die Sehnsucht nach einer neuen Ökonomie steckt hinter den meisten Spekulationsblasen, die wir im 20. Jahrhundert gesehen haben. Insofern ist es nicht überraschend, dass sich in der Boomphase des Jahres 1999 der Begriff „New Economy“ wieder einmal einbürgerte. Es war kein geringerer als Benjamin Graham (1894-1976), der als Vater der modernen Wertschriftenanalyse gilt und der davor warnte, dass Aktienpreise „nicht vorsichtig berechnete Werte, sondern die Ergebnisse eines Durcheinanders menschlicher Reaktionen“ seien. So war der Börsenboom in den Zwanzigerjahren vom Glauben an eine „new world of industry“ getragen. In der Kennedy-Ära wurde erneut eine „New Economy“ gefeiert, in welcher eine permanente Prosperität erreicht werden sollte. Dass heute wieder von einer New Economy geredet wird, in der die Technomanie nunmehr den Endsieg feiert und dauerhaft hohe Produktivitätsfortschritte auf der Tagesordnung stehen, ist natürlich genauso unrealistisch wie die Preise holländischer Tulpen, als deren Spekulationblase platzte. Bisher lässt sich die angebliche fundamentale Produktivitätssteigerung der amerikanischen Wirtschaft im Grunde nicht mit Zahlen belegen. Langfristig gesehen zeigt das Produktivitätswachstum in den USA große Schwankungen, wobei die 90er-Jahre mit einem Wachstum von durchschnittlich 2,5 % übrigens wesentlich schlechter abschneiden als die 60er-Jahre, wo der Zuwachs immerhin 4,4 % betrug. Produktivitätswunder? - Gibt es wirklich einen permanenten Produktivitätszuwachs Was konnte man nicht heute alles über die so genannte New Economy lesen. Es wird vom Verschwinden der Inflation, von einer Produktivitätsrevolution, von Hyperwachstum und über Vollbeschäftigung philosophiert. Die Frage, ob sich im neuen Kondratieff-Zyklus tatsächlich eine durchschnittliche Erhöhung der Produktivitätszuwächse abzeichnen wird, kann zum heutigen Zeitpunkt nicht beantwortet werden. Im Durchschnitt war die jährliche Produktivitätssteigerung in den 90er-Jahren in den USA nur etwa gleich hoch wie in den Achtzigerjahren. Das hat damit zu tun, dass sich das Produktivitätswunder weitgehend auf den Hightech-Bereich beschränkt. Von einem Wunder in der Gesamtwirtschaft könnte deshalb nur dann gesprochen werden, wenn alle Bereiche durch die Netzwerkeffekte eine höhere Produktivität erreichen. Das kann zwar nicht ausgeschlossen werden, wird aber nicht über Nacht geschehen, sondern wahrscheinlich ein bis zwei Jahrzehnte in Anspruch nehmen. Zwar verkürzt sich mit jedem neuen Kondratieff-Zyklus die Zeitspanne, in der eine Basistechnologie den Markt durchdrungen hat, jedoch befinden wir uns aktuell erst am Beginn eines neuen Zyklus', der maßgeblich von der Biotechnologie geprägt werden wird. In der Übergangsphase vom Computer- zum Biotech-Zeitalter, im Rahmen derer beide Technologien zu einer neuen Synthese verschmelzen, könnte sich in der Tat so etwas wie ein elektronisches Wirtschaftswunder auf - 1.7 -
:. 1. Wirtschaft
globaler Ebene vollziehen. Allerdings wird es zu einer Vielzahl von Verwerfungen und Turbulenzen in den Märkten führen. - Das wirklich Neue Fasst man den Begriff „New Economy“ nicht mikroökonomisch, sondern makroökonomisch auf, dann steht er für das elektronische Wirtschaftswunder, das sich in den 90er-Jahren in den USA vollzogen hat und das sich in hohen Wachstumsraten und weit gehender Preisstabilität in den letzten 9 Jahren widerspiegelt. Doch aus diesem langen Trend abzuleiten, dass es jetzt immer so weitergehen müsse, wäre fatal. Genauso wenig, wie man bei einem Besuch des Spielcasinos in Baden-Baden, nachdem neunmal die schwarze Zahl gewonnen hat, annehmen kann, dass nun die Schwarz in Zukunft häufiger auftritt als Rot, genauso unwahrscheinlich ist ein Weiterwachsen der Wirtschaft im Tempo der 90erJahre ohne größere Schwankungen in den kommenden Jahren. An der Börse werden mit „New Economy“ heute all diejenigen Unternehmen beschrieben, die im Hochtechnologiebereich angesiedelt sind. Dazu zählen Unternehmen der Computerindustrie, der Kommunikationsbranche, der Medizintechnik oder der Biotechnologie. Viele Unternehmen aus diesen Branchen existieren schon seit über 10 Jahren und nicht erst seit dem Aufkommen der Begrifflichkeit „New Economy“. Der heutige Phasenübergang ist demnach kein Übergang von Alt nach Neu, wie uns der Begriff „New Economy“ suggeriert, sondern ein Übergang in der Art und Weise, wie wir durch Netzwerke die Welt wahrnehmen und wie sich dadurch unsere Weltanschauungen verändern. - Netzeffekte generieren neue Blue Chips Netzwerkeffekte beschreiben die Auswirkungen der Aktionen von Teilnehmern in einem Netzwerk. Der Wert eines Netzwerkes steigt mit jedem zusätzlichen Nutzer (direkte Netzwerkeffekte) - und zwar für jeden bereits bestehenden Nutzer. Dies hat den 3COM-Gründer Metcalfe zur Definition des Metcalfes Law veranlasst, das besagt, dass der Nutzen eines Netzwerks im Quadrat mit jedem neuen Nutzer ansteigt. Bekannt ist das Beispiel der Faxgeräte, bei dem der Wert eines Faxgerätes mit der Anzahl der Faxgeräte und damit mit der Größe des Kommunikationsnetzes gestiegen ist. Das eigentliche Produkt tritt dabei in den Hintergrund und der Wert des Netzwerks in den Vordergrund. Indirekte Netzwerkeffekte ergeben sich dann, wenn der Wert eines Produktes von der Verfügbarkeit der zusätzlichen Dienstleistungen abhängt. Das Microsoft-Betriebssystem wurde letztendlich umso wertvoller, je mehr Programme auf ihm laufen konnten und je mehr User sich für dieses Betriebssystem entschieden haben. Die in physischen Warenmärkten auftretende Gesetzmäßigkeit, dass die zunehmende Verbreitung eines Produktes zu einem sinkenden Wert führt, wird hierbei ad absurdum geführt. Da jeder zusätzliche Teilnehmer an einem Netzwerk dessen Wert erhöht, werden zusätzliche Nutzer angezogen, d.h. es findet ein positives Feedback statt. Nur durch dieses Feedback ist das phänomenale
- 1.8 -
:. 1. Wirtschaft
Wachstum von Firmen wie Cisco, Microsoft, Yahoo oder Amazon.com in den letzten Jahren zu erklären. - Ökonomie der Phasenübergänge Die Vision der Vertreter der „New Economy“, dass es praktisch keine Inflation und keine Konjunkturschwankungen mehr gibt, dafür aber ein Wachstum ohne Ende auf hohem Niveau, ist ein Trugschluss mit Folgen. Netzwerke neigen zu chaotischem Verhalten, es ist ihnen sozusagen in die Wiege gelegt. Das bedeutet jedoch für das aktuelle Vernetzungsphänomen der Globalisierung, dass es eben nicht zu einem neuen Plateau führt, wie oftmals behauptet wird, sondern dass die Volatilität zunehmen wird und zwar immer dann, wenn sich neue Attraktoren herausbilden. Es darf deshalb vorhergesagt werden, dass Technologiewechsel im Rahmen der „New Economy“ zu dramatischen Veränderungen in den Märkten führen werden, die den Gesetzen der Nichtlinearen Dynamik und der Chaostheorie folgen. Leider haben die wenigsten Professoren, die sich heute mit Wirtschaft und Betriebswirtschaftslehre befassen ein ausreichendes Wissen über Kybernetik und komplexe Systeme. Deshalb dürften die Metamodellierung in den kommenden Jahren für das Überleben in einem turbulenten Umfeld immer wichtiger werden. - Das Gesetz des abnehmenden Ertrages Betrachtet man die heutige Entwicklung, so fällt auf, dass die Datenbeschaffung und Generierung von Informationen zwar zu einer Verbesserung der Wertschöpfungsketten führt, dass jedoch durch die Vielzahl der Anbieter der schnellere Zugang zu Wissen eben auch dem Gesetz des abnehmenden Ertrages unterliegt. Das hier auftretende Paradox hat volkswirtschaftlich bisher noch niemand zu lösen vermocht. Zwar ist es für alle nützlich, über immer mehr Möglichkeiten der Informationserzeugung zu verfügen, aber diese zunehmenden Möglichkeiten generieren immer weniger Gewinn in Form von Geld, sondern in Form von Wissen. Das bedeutet jedoch, dass eine Wirtschaft, die auf der Verrechnungseinheit Geld basiert, zwangsläufig irgendwann Pleite gehen muss, da durch den Trend zum kostenlosen Wissen immer weniger Gewinne mit diesem erzielt werden können. - Sind Unternehmen Auslaufmodelle? Open-Source-Aktivitäten, kostenlose Informationen und geringe Transaktionskosten werfen die Frage auf, ob man überhaupt noch Unternehmen benötigt oder ob die Organisationsform der Zukunft in einer Trading-Ökonomie auf der Grundlage von Netzwerken liegt. Netzwerke stoßen im Gegensatz zu Unternehmen nicht so leicht an Komplexitätsgrenzen. Die Theorien von Coase sind als revolutionär zu betrachten, da sie die Frage nach der Existenzberechtigung vertikal integrierter Unternehmen stellen, die die Industriegeschichte des 20. - 1.9 -
:. 1. Wirtschaft
Jahrhunderts beherrscht haben. In einer netzbasierten Ökonomie der gegen Null tendierenden Transaktionskosten sind die Fokussierung auf Kernkompetenzen, der Aufbau horizontaler Netzwerke und der ständige Wandel der Strukturen und Prozesse zu den wichtigsten Erfolgsfaktoren geworden. Außer Geschwindigkeit zählt in den Netzwerkmärkten auch die Kostenstruktur zu einem strategischen Wettbewerbsfaktor. Wer fast nur Fixkosten hat, die zudem noch gering sind, ist unabhängig von der verkauften bzw. hergestellten Menge. Dies trifft vor allem auf die SoftwareIndustrie zu. Ist die Software entwickelt, dann sind die Vervielfältigungskosten äußerst gering. Im Grenzfall äußerster Produktivität nähert sich dann der Gewinn pro Verkaufseinheit dem getätigten Umsatz. Das rasante Wachstum des Internet darf nicht dazu verleiten, falsche Schlussfolgerungen zu ziehen. Viele Netzwerkfirmen werden nicht zu den Gewinnern gehören, da der Internet-Markt hart umkämpft ist. Viele Unternehmen haben durch kostenlose Informationen zwar viel Traffic auf ihren Seiten, sie machen jedoch trotz der Netzwerk-Effekte keine Gewinne. Ohne Gewinne hat jedoch jedes Unternehmen in absehbarer Zeit seine finanziellen Ressourcen aufgebraucht. Dieses Problem des Kapitalvernichtens, auch Burn Rate genannt, lässt sich nur lösen, wenn Produkte oder Dienstleistungen angeboten werden können, für die die Kunden auch bereit sind zu bezahlen. Erfolg im E-Business werden nur diejenigen Unternehmen haben, die über die richtige Strategie verfügen und weniger ausgeben, als sie einnehmen. Und das werden in einer Net Economy eben nur 10 bis 20 % der neuen Firmen sein. - Der Rubel rollt nicht Der Handel zwischen Unternehmen über das Internet, das so genannte Business to Business (B2B) ist in den letzten zwei Jahren zu einem der Haupttrends der sich herausbildenden Netz-Ökonomie avanciert. Laut Branchenreports wird ein Marktvolumen von 3000 bis 6300 Mrd Dollar bis zum Jahr 2004 für den B2B-E-Commerce-Markt prognostiziert. B2B-Portale stehen allerdings momentan auf schwachen Beinen, wie der Forrester-Report „B2B-Marktplätze im Härtetest“ aufzeigt. Die elektronischen Hubs sind mittlerweile in eine drastische Konsolidierungsphase eingetreten. Nachdem noch im März 2000 von Venture Capitalists 800 Mio Dollar in etwa 77 B2BMarktplätze gepumpt wurde, hat der Kapitalfluss in diesen Sektor mittlerweile deutlich nachgelassen. Von den heute etwa 1.500 Marktplätzen, dürften in den nächsten Jahren nicht mehr als 200 Marktplätze übrig bleiben. Davon betroffen sind sowohl auf bestimmte Industrien fokussierte vertikale Marktplätze sowie industrieübergreifende horizontale Marktplätze. Die weltweit größte B2B-Trading-Community ist das Global Trading Web von Commerce One. Der Marktplatz-Verbund basiert auf demselben Prinzip wie jeder einzelne seiner Marktplätze. Mit einer einzigen Verbindung erhalten die Marktplatzteilnehmer Zugang zu allen anderen Teilnehmern und Services.
- 1.10 -
:. 1. Wirtschaft
- Wo liegt das Problem? Laut Forrester vertrauen 72% der Marktplätze im deutschsprachigen Raum auf Transaktionsgebühren als Umsatzquelle, wohingegen nur 41% von 64 befragten Marktplätzen sich neue Einnahmequellen durch das Angebot von Zusatzdienstleistungen erschließen. Es ist offensichtlich, dass eine Strategie, die rein auf Transaktionskosten basiert, zukünftig wenig Erfolg versprechend sein wird. Bei sinkenden Transaktionskosten benötigen Marktplätze eine immer größer werdende kritische Masse an Teilnehmern, um zu überleben. Wird diese nicht erreicht, ist ein Scheitern geradezu programmiert. Wer zu spät in den Platz für Marktplätze einsteigt, wie die Beispiele der Bank Vontobel oder der Versicherung Zurich Financial Services aufzeigen, kann trotz erheblicher finanzieller Mittel nicht mit dem Kopieren bisheriger Erfolgsstrategien gewinnen. Gefragt ist eine klare Innovationsstrategie, in deren Mittelpunkt die Steigerung des Mehrwertes für den Kunden stehen sollte. Die Kunden verlangen auf Dauer nicht nur Preisvorteile, sondern eine radikale Vereinfachung ihres Einkaufsprozesses und nutzenorientierte Mehrwertdienste. - Verbesserung der Kundenanbindung Da Werbung, Mitgliedschaftsgebühren, Kommissionen oder Gebühren für Information immer weniger als Hauptumsatzquellen dienen werden, kommt es entscheidend auf die Zusatzdienstleistungen der Transaktionsplattformen an. Vor allem bei Zusatzservices sollten sich Unternehmen nicht nur auf ein Standbein verlassen, da diese sonst bei Marktturbulenzen oder neuen KillerApplikationen sehr schnell auf dem falschen Fuß erwischt werden können. Es kommt darauf an, Geschäftsmodelle derart zu erweitern, dass Kunden umfassend bedient werden und das Dienstleistungsspektrum dem Komplexitätsanstieg der Märkte Rechnung trägt. Dienstleistungen müssen hierbei rund um die Uhr, von jedem Ort und von jedem Teilnehmer eines Marktplatzes in Anspruch genommen werden können. So sind insbesondere Finanzierungsdienstleistungen, die Anbindung der IT-Systeme der Teilnehmer an den Marktplatz sowie branchenspezifische Informationen ein besonderer Mehrwert für den Kunden. Wer in einer Zeit des Hyperlink, der zum schnellen Wechseln des Anbieters geradezu einlädt, bestehen will, kommt nicht umhin, Innovationen hervorzubringen, die die Kundenanbindung deutlich verbessern. Es geht in neuen Märkten nicht nur um die Veränderung der Spielregeln, sondern man muss auch den Mut besitzen, alte Spielregeln abzuschaffen. - Unter den Erwartungen Dass dies jedoch nicht so einfach ist, zeigt die Entwicklung des schweizerischen Marktplatzes Conextrade.ch. Nachdem Swisscom und Commerce One mit dem Aufbau des B2B-Marktplatzes conextrade begannen, musste man sehr schnell erkennen, dass ein stärkeres Wachstum nur durch den Aufbau von Zusatzdienstleistungen wie etwa Direct Procurement, Beratung und Auktionen zu erzielen sein wird. Conextrade - 1.11 -
:. 1. Wirtschaft
sieht sich bereits als führender B2B-Marktplatz für größere Unternehmen. Die Entwicklung ist indes längst nicht wie geplant verlaufen. Die Kundenzahl ist weit hinter den Erwartungen geblieben. Und statt den anvisierten Großunternehmen tummeln sich auf dem Marktplatz heute vor allem kaum bekannte Kleinfirmen. Deshalb ist man bei Conextrade dazu übergegangen, keine detaillierten Zugriffszahlen und Entwicklungstrends mehr bekannt zu geben, bis sich signifikant höhere Teilnehmerzahlen und Umsätze angeben lassen. Inwieweit die von Conextrade avisierte Optimierung von Beschaffungs- und Absatzaufgaben von Unternehmen zu deutlich höheren Umsätzen des Marktplatzes führen kann, wird vor allem von der Qualität der gewählten E-Business-Strategie abhängen. Dass ohne Gewinne niemand im B2B-Sektor überleben kann, zeigte sich beim KMU-Unternehmensportals Plennax, welches mittlerweile in Konkurs gegangen ist. Je mehr Netzwerkteilnehmer interagieren, desto größer wird die Transaktionskomplexität, mit der die Betreiber von Plattformen umgehen müssen. Deshalb reichen ein FirstMover-Vorteil und ein hohes Wachstum nicht mehr aus, sondern es kommt auf die Generierung von höheren Margen an, mit denen sich die notwendigen Software-Investitionen für die Lenkung von Komplexität finanzieren lassen. - Geld und Geduld B2B ermöglicht es Unternehmen, ihre Prozesse vollständig zu redesignen und in denjenigen Branchen aufzuräumen, die die Effektivität ihrer Lieferketten nur völlig unzureichend nutzen. Der Aufbau erfolgreicher Marktplätze geschieht jedoch nicht über Nacht, sondern erfordert Geld und Geduld. Ein Marktplatz ist nur so gut, wie das Netzwerk, in das er eingebettet ist. Letztlich ist ein exzellentes Netzwerk die Voraussetzung für hochqualitative Zusatzdienstleistungen eines Unternehmens. Bestes Beispiel hierfür ist das Unternehmen AOL, welches in den letzten Jahren eines der leistungsfähigsten serviceorientierten Business-Ökosysteme für Content aufgebaut hat. Die Börse hat es derart hoch bewertet, dass AOL sogar in der Lage war, den Mediengiganten Time Warner zu übernehmen. „NutzenNutzen-Relationen“ sind im Internet die entscheidende Voraussetzung, damit Teilnehmer dort „Win-Win-Spiele“ spielen können. Mit derartigen Spielen gelingt es, innerhalb eines Ökosystems die Zahl der Verlierer und den Grad des Verlierens zu minimieren. Wer in einer Netz-Ökonomie überleben will, muss viele andere Teilnehmer eines Netzwerkes stärken. Nur so lassen sich die autokatalytischen Kräfte, die in jedem sozialen und ökologischen Gefüge stecken, voll zur Entfaltung bringen. Da sich B2BMärkte nahezu in Echtzeit verändern, basieren die dortigen Strategien mittlerweile im Wesentlichen auf Zyklen von drei Monaten. Die Net Economy kann deshalb keine Wirtschaft sein, die die bestehenden Spielregeln der Old Economy einfach übernimmt, sondern diese ist nur dann neu, wenn alte Spielregeln gebrochen und in dynamischer Weise neue Spielregeln im Dienste der Kunden eingeführt werden.
- 1.12 -
:. 1. Wirtschaft
1.3. Mobile Computing: Palming the World
- Mobiler Handel Im Gegensatz zur früheren Sammlerkultur des Nomaden, der sich ständig von einem Ort zum anderen begab, ist der Nomade des Cyberspace geradezu hypermobil. Er springt von Hyperlink zu Hyperlink, ohne seinen Ort verändern zu müssen. Der Trend geht in Richtung Transaktionen von jedem beliebigen Ort zu jeder beliebigen Zeit von jedermann. Diese Mobilität ist insbesondere für das Transaktionsgeschäft - wie etwa den Aktienhandel oder das Wireless Shopping - von fundamentaler Bedeutung. Hierbei wird nicht nur ein mehr an Umsatz möglich, sondern es wird ein neuartiger drahtloser Marktplatz entstehen, der durch flexiblen Zugang und Offenheit geprägt ist. Für Menschen, die viel reisen und ein hohes Transaktionsvolumen haben, wird der mobile Handel, auch M-Commerce genannt, ein wesentlicher Pfeiler zur Geschäftsabwicklung werden, jedoch sind die kleinen Bildschirme und die Kompliziertheit zahlreicher Anwendungen nicht für jedermann die optimale Lösung. Genauso wenig wie jeder alles online abwickeln muss, ist es notwendig, alles „wireless“ durchzuführen. Es wird für den Kunden von Fall zu Fall zu unterscheiden sein, welches Geschäftsfeld er bevorzugt: Offline-Commerce, E-Commerce oder M-Commerce. Insbesondere in Europa, welches im Bereich des Mobilfunks Wettbewerbsvorteile gegenüber den USA besitzt, kommt der „Wireless Location Technology“ immer größere Bedeutung zu. Aber auch in Japan hat sich eine Art Handy-Wunder ereignet. Dort gibt es bereits mehr Handys wie Festnetztelefone. Die Technologien des Global Positioning Systems (GPS) und des Time-Difference to Arrival (TDDA) ermöglichen es, den Ort eines mobilen Endgerätes mittlerweile bis auf wenige Meter genau zu bestimmen. M-Commerce könnte deshalb künftig wesentlich bedeutender als E-Commerce werden, da es Letzteren erweitert und stärker auf die Anforderungen einer Echtzeitgesellschaft ausgerichtet ist. - Kontextvorteile durch Handys Während das World Wide Web das beste Medium zum Browsen und Auffinden von Content ist, könnten Handys zum besten Medium für das Herstellen von Kontexten zwischen Usern avancieren. Über Handys ist es möglich, User intelligent zu matchen oder Kunden über den Order-Status von Produkten oder Lieferverzögerungen zu informieren. Da User dort arbeiten können, wo sie gerade sind und dies auch noch in Echtzeit tun, stehen ihnen mit zunehmender Bandbreite alle Möglichkeiten offen, die bisher nur mit stationären Geräten möglich waren. Mit dem neuen UMTSStandard wird es möglich, zu geringen Kosten mit hoher Geschwindigkeit große Datenkapazitäten zu nutzen. Die dritte Generation (3G) von Mobilfunksystemen erlaubt Nutzern einen leichten Internetzugang, die Nutzung von Grafiken auf dem Handy und eine Vielzahl anspruchsvoller Dienstleistungen wie Echtzeit-Börsenkurse oder das Downloaden von Musik aus dem Internet. Doch das Handy wird damit nicht nur endgültig zum
- 1.13 -
:. 1. Wirtschaft
Unterhaltungsgerät. Vielmehr ermöglichen Smartphones den Aufbau völlig neuer Geschäftsmodelle. - Kurseinbruch bei Palm Einer der technologischen Schlüsseltrends ist gegenwärtig die drahtlose Übertragung von Daten zu jedem x-beliebigen Ort weltweit. Eine besondere Bedeutung im Wireless-Marktsegment spielen so genannte Handheld Devices, wie sie von Palm hergestellt werden. Dabei steht das Internet im Zentrum des Interesses. Palm-Chef Carl Yankowski richtet mittlerweile seine gesamte Produktpalette darauf aus, um seine Marktführerschaft aufrechtzuerhalten. Nach der Ankündigung von HP, ein palm-ähnliches Gerät auf den Markt zu bringen, stürzte der Kurs von Palm bis zum September 2002 auf mittlerweile unter 1 US-$. Noch Anfang November 2000 betrug der Kurs des Papieres 67 US-$ und kurz nach dem Börsengang im März sogar fast 165 US-$. Mitwettbewerber Handspring ist ebenfalls auf einen Kurs von etwa 1 US-$ eingebrochen. Problematisch für die beiden Anbieter ist, dass sowohl der iPaq von Compaq als auch HPs Jornada nicht mit Palms Betriebssystem Palm OS gesteuert werden, sondern mit der PDASoftware von Microsoft’s Windows. Weltmarktführer Palm, der seit der Markteinführung seiner Handhelds im Jahr 1996 etwa 12 Mio Personal Digital Assistans (PDAs) verkauft hat sieht sich in die Defensive gedrängt. Palm's Angebot im Wireless-Bereich, der Palm VII, der im Mai 1999 herauskam, war im Grunde kein durchschlagender Erfolg. Nicht die Nutzung des WorldWideWeb war dort die meistgenutzte Anwendung, sondern ein EMail Service (ThinAir Mail), um Briefe aus einer Internet-Mail anzurufen. - Erosion de Marktanteils Wenn jetzt das neue Microsoft Betriebssystem mit dem Namen „Pocket PC 2002“ auf den Markt kommt, könnte wegen der größeren Verkaufszahlen von Microsoft an Unternehmen (lukrativer als der Endkunden-Markt) dieses Produkt einen Homerun hinlegen. Während die Verkäufe von Handhelds in Westeuropa im Sommer sich stark abschwächten, hat Compaq's iPAQ Pocket PC einen derartigen Homerun bereits hingelegt. In Europa fiel der Marktanteil von Palm im 2. Quartal 2001 von 59.5 % auf 32.3 %, was den extremen Kurssturz um etwa 99 % vom Höchstkurs zu erklären vermag. Dagegen stieg im gleichen Markt der Anteil von Compaq an Handhelds von 4.5 % auf 30.2 %. Einer der früheren Lieblinge der Kunden, der PsionHandheld, verlor derartig stark Marktanteile (Rückgang von 18.2% auf 8.2 %), dass Psion kürzlich erklärte, die Produktion von Handhelds einzustellen.
- 1.14 -
:. 1. Wirtschaft
Betriebssystem-Verkäufe für PDAs für 2Q 01 (Stückzahlen) in West-Europa:
2Q01 2Q01 2Q00 2Q00 Shipments Market Share Shipments Market Share (%) (%) Palm OS 214,842 42.3 310,097 65.4 Windows CE 207,402 40.9 63,581 13.4 EPOC 50,725 10.0 86,480 18.3 Others 34,450 6.8 13,670 2.9 TOTAL MARKET 507,419 100.0 473,828 100.0 OS
Growth (%) -30.7 226.2 -41.3 152.0 7.1
Quelle: Gartner Dataquest, July 2001
- Attraktor Wireless-Bereich Der Verdrängungswettbewerb ist im Handheld-Markt mittlerweile in vollem Gange, da der Markt nach Jahren starken Wachstums in die Phase der Konsolidierung geraten ist. Wegen der Marktmacht der E-Gorillas wie Microsoft, HP, Compaq und Nokia, sieht sich Palm in die Defensive gedrängt. Mittlerweile drängt neben Nokia auch Toshiba, welches das Windows-Operating System CE nutzen wird, in den PDA-Markt. Die ersten Angebote GENIO e550 und GENIO e550/MD zielen voll auf den High-End Unternehmenskunden. Das Unternehmen hat angekündigt, dass Expansions-Slots für Memory Karten, PHS Data Communications Karten, Modem Karten, Bluetooth Karten und Barcode-Leser vorgesehen sind. Der Wettbewerber Handspring sucht sein Heil nunmehr im Bereich der Kommunikation, weshalb das Unternehmen ein Modul zum Telefonieren in sein Handheld integrieren will. Dies ist jedoch nicht der erste Versuch, palmartige Geräte mit einem Telefon zu vereinen. Zuvor wurde von Qualcomm bereits das pdQ-Telefon mit dieser Absicht herausgebracht. Im Bereich der linux-basierten Handhelds hat Sharp für Oktober die Herausgabe eines Linux-basierten Handhelds angekündigt. Das Unternehmen glaubt, dass die Nutzung von Linux und Java eine hohe Akzeptanz des Endgerätes im Markt sicherstellen wird. Pumatech Inc., ein Hersteller von Synchronisations-Software, betont, dass sein Produkt Intellisync das Sharp-Endgerät bereits unterstützt. Dadurch ist es möglich, es mit Microsoft Outlook und anderen populären pc-basierten InformationsManagern zu verheiraten. - Flucht nach vorn? Möglicherweise haben Palm und sein Lizenznehmer strategische Fehler gemacht, als diese auf eine On-Device-Expansion mit den Formaten Secure Disk und MultiMediaDisk gesetzt haben. Es sieht so aus, dass CompactFlash und PC Card Unterstützung die so genannten Pocket PCs in eine stärkere Wettbewerbsposition bringen. Palm wird nicht darum herumkommen, sich - 1.15 -
:. 1. Wirtschaft
stärker im High-End Handheld Markt und im Linux-Bereich zu positionieren. Die von Palm mittlerweile durchgeführten Preissenkungen für Handhelds machen diese zwar auch für Unternehmen attraktiver, jedoch wird es Palm, wenn es nicht aufpasst, möglicherweise wie Apple gehen. Das Produkt ist zwar interessant, aber das große Geschäft macht ein Gigant aus Redmond. Palm hat deshalb angekündigt, mit drei der größten Mikroprozessorenhersteller (Intel, Motorola und Texas Instruments) zusammenzuarbeiten und Elemente des Palm OS in vier weit verbreitete Net Device-Plattformen (Intel's StrongARM und Xscale-Plattformen, Motorola's DragonBall MX1 sowie Texas Instrument's OMAP Plattform) zu integrieren. - Neue Wettbewerber am Horizont Ein neuer Trend, um der Erosion des Marktanteils -vor allem in den USA - zu begegnen, ist der „tragbare Palm”. Der Trend der Fusion von Mode, Uhren etc und Computern, d.h. die Entwicklung eines ‘Digital Pret-à-Porter’, zeichnet sich ab. Die Miniaturisierung schreitet weiter voran, sodass am Körper tragbare Kommunikationseinrichtungen und Computer kein reines Wunschdenken mehr sind. Die von Microsoft und Swatch geplante InternetUhr geht ebenfalls in diese Richtung. Das Unternehmen Xybernaut Corporation, ein Anbieter von tragbarer Hardware und Software, hat einen so genannten Mobile Assistant V (MA V), einen leichten, mit Freisprecheinrichtung versehenen, tragbaren Computer vorgestellt. Diesen mit einem Texas Instrument-Chip versehenen Computer wird IBM produzieren. Xybernaut betont, dass die Plattform in der Lage ist, jedes Windows-, Linux- oder Unix-Betriebssystem zu unterstützen. Dies zeigt, dass Palm mittlerweile nicht nur durch etablierte Firmen herausgefordert wird, sondern auch durch innovative Newcomer, die in das attraktive Segment des Wireless-Bereich drängen. Die Profiteure dieser Entwicklung werden in den nächsten Monaten die Kunden sein, da die Geräte nicht nur innovativer, sondern auch preiswerter werden.
- 1.16 -
:. 1. Wirtschaft
1.4 Enterprise Application Integration: Treiber für neues Wachstum?
- Systemübergreifende Integration Erfolg im E-Business erfordert heute zunehmend die Verbindung der Geschäftsprozesse in integraler Weise durch geeignete Infrastukturen. Es handelt sich um die Nr. 1-Prioriät des Internet-Zeitalters. Warum ist das so? Zu einem existieren heute viele e-Commerce-Applikationen mit unterschiedlichen Schnittstellen, es gibt heterogene Systemlandschaften, und es werden viele nicht identische Backend-Systeme eingesetzt. Zum anderen sind die Geschäftsprozesse heute unternehmensübergreifend, und es sind eine Vielzahl von Datenquellen für die einzelnen Applikationen vorhanden. Diesen Herausforderungen sollen heute „Enterprise Application Integrationen“ (EAIs) Rechnung tragen. EAI ist keine leichte Aufgabe, sondern die vielleicht schwierigste Aufgabe, vor der IT-Verantwortliche heute stehen. Trotz begrenzter Ressourcen müssen Integrationsprojekte immer schneller durchgeführt werden, wobei die Anforderungen an Skalierbarkeit und zukünftige Anpassbarkeit erfüllt sein müssen. EAI soll es durch Kombination von Technologien und Prozessen ermöglichen, Geschäftsinformationen in Formaten auszutauschen, die von den Business Applikationen untereinander verstanden werden, wozu die Gartner Group ausführt: „Application integration means making independently designed systems work together.“ Für eine systemübergreifende Integration reicht es nicht aus, dass Systeme Daten miteinander austauschen, sondern es müssen auch die Prozesse abgebildet werden, wobei bestimmte Aktionen in einem System mehrere zeitgleiche oder in einer bestimmten Reihenfolge ablaufende Aktionen in anderen Systemen nach sich ziehen können. Heutige Unternehmensnetzwerke entwickeln sich dadurch immer mehr zu einer Art Nervensystem des Unternehmens, wodurch es notwendig wird, immer mehr Daten in Echtzeit zur Verfügung zu haben.
Abb.: Integration auf allen Ebenen
- 1.17 -
:. 1. Wirtschaft
- Integrationsformen Damit EAI erfolgreich umgesetzt werden kann, bedarf es einer EAI-Strategie, die vom Management getragen werden muss. Die Fragmentierung heutiger Informationssysteme erschwert die Integrationsbemühungen. Monolithische Lösungen sind heute ebenso anzufinden wie Client-Server-Lösungen oder Multi-Tier-Anwendungen. Ebenso gibt es unterschiedlichste Programmmiersprachen sowie verschiedene Datenbanktypen (relational, hierarchisch oder objektorientiert). Früher gab es in den Unternehmen im Grund nur zwei Arten von Anwendungen: betriebswirtschaftliche Pakete wie R/2 oder individuelle Lösungen. Heute gibt es eine Vielzahl von so genannten „Standardlösungen“, die Supply Chain Management, Content Management, Customer Relationship Management, Procurement, eCommerce oder Enterprise Ressource Management umfassen. Diese Liste ließe sich beliebig fortführen. Bei EAI lassen sich drei Integrationsformen hervorheben: 1. Application-to-Application (A2A), 2. Business-to-Business (B2B) und 3. Business-to-Consumer (B2C). Bei A2A-Intergrationen geht es vor allem darum, Anwendungen innerhalb eines Unternehmens zu integrieren. Im Bereich der B2B-Integration geht es um die Integration von Anwendungen unterschiedlicher Unternehmen, während es bei der B2CIntegration darum geht, den Endkunden mit zu integrieren. Als Middleware muss EAI dafür sorgen, dass eine Ebene zwischen dem Netzwerk und den Anwendungen geschaffen wird, die einen reibungsfreien Austausch von Daten unterschiedlicher Workflow-Ebenen ermöglicht. Hierbei müssen sowohl die Back-Office Funktionalitäten von ERP-Systemen, Supply Chain Management oder E-Procurement als auch die Front-Office-Funktionalitäten von Customer Relationship Management-Systemen, Web-Services, Call Centern, eCommerce oder Content Management-Systemen integriert werden können.
Abb.: Formen von EAI
- 1.18 -
:. 1. Wirtschaft
- Herausforderungen für EAI-Systeme Die Herausforderungen für Unternehmen liegen heute darin, die Entscheidungsfindung durch schnellen Datenaustausch zu beschleunigen, sich innovativeren Wettbewerbern zu stellen, die Integration von Daten voranzutreiben, die automatische Abwicklung von Transaktionen einzuführen sowie die Transaktionskosten deutlich zu senken. Die Einsatzbereiche von EAI reichen über Online-Marktplätze, e-Procurement Applikationen, unternehmensübergreifende Produktionsplanungen, Schnittstellen-Redesign in heterogenen Systemlandschaften, Optimierung von Wertschöpfungsketten sowie Applications Service Providing. Hieraus wird deutlich, dass sowohl für die interne als auch für die externe Kommunikation der Systeme wirksame e-Commerce-Infrastrukturen zur Verfügung gestellt werden müssen: 1. EAI, innerhalb eines Unternehmens (intra-EAI) und 2. zwischen Unternehmen (inter-EAI). Die zunehmende Komplexität und die Vielfalt an Lösungen macht heute EAI-Tools unumgänglich, um die zunehmende Komplexität der Anwendungslandschaft eines Unternehmens oder eines Business Ökosystems zu beherrschen. Die Auslagerung von Integrationsfunktionen durch EAI-Systeme ist erst durch ausgereifte Middleware-Technologien und De-facto-Internet-Standards wie XML (Extensible Markup Language) möglich geworden. Neue Standards und neue Anwendungsprogramme werden diesen Trend weiter forcieren. Die Verknüpfung zu durchgängigen Prozessen und die dadurch mögliche Verbesserung der Berichterstattung und Entscheidungsunterstützung ermöglicht deutliche Produktivitätsgewinne durch Automatisierung („Straight Through Processing“ sowie höhere Prozessgeschwindigkeiten („Realtime Processing“ oder „Zero Latency“ genannt). Es werden sich allerdings nur EAI-Systeme am Markt durchsetzen, die den Kunden deutliche Nutzenvorteile bieten, wie z.B. Durchgängigkeit der Geschäftsprozesse, automatisierte Steuerung mehrstufiger Informationsflüsse, (teil-)automatisierte Steuerung von unternehmensübergreifenden Geschäftsprozessen, Reduktion von Medienbrüchen sowie einheitliche, integrierte Sicht auf Daten aus unterschiedlichen Systemen.
Abb.: EAI – Marktportfolio - 1.19 -
:. 1. Wirtschaft
- Fragen zur EAI-Einführung Wenn der ökonomische Druck so groß wird, dass Unternehmen ihre Transaktionskosten deutlich senken müssen, kommen diese an einer zentralen Integrationsinfrastruktur kaum mehr vorbei. Die Einführung eines integralen Schnittstellenmanagements wird den zukünftigen Geschäftserfolg vieler Unternehmen maßgeblich beeinflussen. Insbsondere gilt es das Unternehmen und seine Geschäftsbeziehungen im Rahmen eines Business Ökosystems zu betrachten und die Prozesse zwischen dem Unternehmen und seinen Lieferanten bzw. Partnern möglichst ganzheitlich zu integrieren. Bei der Einführung von EAI-Systemen sind folgende Fragen abzuklären: 1. Wie ist die Strategische Ausrichtung des Unternehmens?, 2. Welche Ziele lassen sich hieraus für ein Integrationsprojekt ableiten?, 3. Sollen die Geschäftsprozesse verändert, erweitert oder optimiert werden?, 4. Sollen die Interfacees standardisiert und erneuert werden?, 5. Welche Betriebssysteme, Standardsoftware, Programmiersprachen und Datenbanken werden verwendet?, 6. Soll die Systemarchitektur homogenisiert werden?, 7. Welches Know How ist im Unternehmen vorhanden?, 8. Welche neuen Systeme und welche Software sind notwendig?, 9. Wie kann die Kundenorientierung und die Qualität der Services erhöht werden? und 10. Wie können die Systeme flexibel und skalierbar gehalten werden? - Die Zukunft von EAI Heute benötigt man keine Systemarchitekten mehr, um Prozesse abzubilden, sondern Netzwerkstädteplaner, die die Knoten und deren Verbindungen in den Daten-Cities untereinander koordinieren. Damit man in einer Netzwerkstadt möglichst staufrei von einem Knoten zum anderen gelangen kann, benötigt man jemanden, der die Verbindungen, d.h. die Vernetzungen plant. Hierbei bestimmt entscheidend die strategische Ausrichtung eines Unternehmens dessen Integrationsziele für die Optimierung des Workflows. Ob EAI ebenso zu einem Modewort wie Wissensmanagement degeneriert, wird die Zukunft zeigen. Die grundlegende Technologie und das implizite Objektmodell, die heute EAI-Systeme prägen, werden jedoch sicherlich die weitere Entwicklung für E-Business-Anwendungen maßgeblich beeinflussen. Die Zukunft des EAI wird aber auch immer mehr mit der Entwicklung der Web-Services zusammenhängen. Die Vision von Web-Services ist es, Interfaces zur Verfügung zu stellen, die in hohem Maße miteinander interagieren können. Diese basieren auf XML-Technologien für die Zusammenarbeit unabhängiger Firmen über das Internet. Welche Anbieter im Wettbewerb sich allerdings durchsetzen werden, kann heute noch nicht abgeschätzt werden. Jedoch dürfte es für die Herausforderer im EAI-Markt schwer werden, Unternehmen wie IBM und Tibco von den vorderen Plätzen zu verdrängen. Die Konsolidierung im Markt ist in vollem Gange, und es dürfte nicht überraschen, wenn sich auch Microsoft zukünftig in diesen Wachstumsmarkt einkaufen würde.
- 1.20 -
:. 1. Wirtschaft
Messaging Communications Middleware Java Messaging Service Real-Time Infrastructures Security Systems Management
B2B
EAI
E-Server
Application Service Providers B2B Standards e-Business Integration e-Commerce Exchanges Supply Chain Management
Business Process Management EAI Strategies Customer RelationShip Management Integration Enterprise Portals Enterprise Resource Planning Legacy Integration
Application and Web Servers Mobile Integration Objects and Components Web Services Peer-to-Peer Computing Development Tools
Abb.: IntegrationsMatrix IT-Integration
- Tibco weitet seine Marktanteile aus Aufgabe der EAI-Softwareanbieter ist es, geeignete Werkzeuge zu entwickeln, um den zukünftigen Integrationsherausforderungen sowohl auf Anwendungs- als auch der Datenebene gerecht zu werden. Laut einer aktuellen Gartner-Studie „Integration Broker Suite Market Share Battle Continues“ vom Mai hat das Unternehmen Tibco aktuell die höchsten Steigerungsraten unter den Enterprise Application Integration (EAI) Anbietern. Während der Markt für Unternehmensintegration um sieben Prozent anstieg, konnte Tibco eine Steigerung seiner Lizenzeinnahmen um 37 Prozent aufweisen und seinen Marktanteil auf 12 % ausweiten. Damit ist der Abstand zum Branchenführer IBM weiter geschrumpft, und die zweite Position konnte gegenüber den anderen Anbietern weiter ausgebaut werden. Während in den 90er-Jahren, Enterprise Resource Planning der wesentliche Schlüsseltrend für die Integration von Back-Office-Systemen im Rahmen monolithischer homogener Lösungen waren, kommt mittlerweile immer mehr die so genannte Message-orientierte Middleware (MOM) auf, um Messages zwischen heterogenen Systemen auszutauschen. Ziel hierbei ist es, die Integrationskosten deutlich zu senken. Gartner prognostiziert in den nächsten Jahren ein Wachstum von über 30 % für Integration Broker Suites. Integration Broker Suites repräsentieren aktuell das am stärksten wachsende Segment im Bereich der Middleware. EAI kann zu einem großen Wettbewerbsvorteil werden, wenn es gelingt, alle Anwendungen in ein gemeinsames Informationssystem zu integrieren. Der EAI-Markt dürfte sich jedoch zukünftig immer mehr in die Segmente Integration, Prozessintegration, Anwendungen, Komponenten, Daten und Plattformen aufgespalten.
- 1.21 -
:. 1. Wirtschaft
- Herausforderung Business Activity Monitoring Für die Verbesserung der Entscheidungsfindung in Unternehmen zeichnet sich immer mehr der Trend zum Business Activity Monitoring (der Begriff BAM wurde von Gartner eingeführt) ab. Je mehr IT und die Geschäftsprozesse voneinander abhängen, desto wichtiger ist es, ohne Verzögerungen handeln zu können. Durch den Zugang zu Real-TimeInformationen auf kritische Indikatoren, können die Geschwindigkeit und Wirksamkeit der Geschäftsabläufe drastisch verbessert werden. Die Aufgabe von BAM ist es, Verzögerungen zu verhindern, Flaschenhälse und die Fehlallokation von Ressourcen zu vermeiden. Folgende Technologien, haben die Möglichkeit der Anwendungsintegration und den Real-Time-Zugang zu Daten ermöglicht: High-speed networks, das Internet (vor allem XML) sowie Translator Software, die als Anwendung die notwendigen Daten herausfiltert. BAM wird eine Vielzahl von Unternehmen positiv beeinflussen. Warenhäuser können ihren Lagerbstand deutlich reduzieren, und die dortigen Daten werden auch für Mitarbeiter außerhalb sichtbar. Manager werden immer weniger Informationen horten können, wodurch vor allem im Bereich der Führung die Datentransparenz verbessert wird. Mitarbeiter müssen nicht mehr mit Rohdaten arbeiten, sondern bekommen bereits analysierte Daten geliefert. Die vollständige Integration erlaubt darüber hinaus, wichtige Informationen über das Unternehmen - wie die aktuelle Profitabilität oder den Cash Flow real-time - zur Verfügung zu haben. Die Nichterkennung von Fehlern und möglichen Chancen bringt für Unternehmen erhebliche Opportunitätskosten mit sich. BAM wird jedoch nicht nur die Geschwindigkeit der Datenanalyse, sondern auch die Wissensausbreitung, die Sales-Aktivitäten, das Bestands-Management, die Cross-Selling-Unterstützung sowie die Automatisierung von Prozessen verbessern. BAM macht neue Trends und Warnsignale sofort sichtbar. Es bietet die ideale Umgebung um interaktive, web-basierte Visualisierungen einzuführen. Darüber hinaus bietet es Möglichkeiten um WirelessMessaging-Fähigkeiten zu nutzen. In einem immer schneller werdenden Marktumfeld dürfte BAM deshalb immer mehr zu einem wichtigen Bereich innerhalb von EAI-Anwendungen avancieren.
- 1.22 -
:. 1. Wirtschaft
1.5 Virtuelle Services: Multichannelling in der Messewirtschaft
- Gesamtwirtschaftliche Bedeutung der Messewirtschaft Die Messewirtschaft, die sich durch besonders hohe internationale Reputation und Innovationsführerschaft auszeichnet, gehört heute zu den führenden Dienstleistungsbranchen der deutschen Wirtschaft. Messen sind zeitlich begrenzte Marktveranstaltungen, auf denen die wichtigsten Produkte und Dienstleistungen eines oder von mehreren Wirtschaftszweigen vorgestellt werden. Zwei Drittel der weltweit führenden Messen finden mittlerweile in Deutschland statt. Sechs der zehn umsatzmäßig größten Messegesellschaften der Welt haben ihren Sitz in Deutschland und vier der fünf größten Messegelände der Welt sind in Deutschland beheimatet. Jährlich werden in Deutschland etwa 130 bis 150 überregionale/internationale Messen und Ausstellungen mit über 160 000 Ausstellern und rund 10 Millionen Besuchern durchgeführt. Hierbei kommen rund 50 % der Aussteller aus dem Ausland. Der Ausstellungs- und Messeausschuss der deutschen Wirtschaft e.V. (AUMA) wirkt als neutrale Clearingstelle, um die Interessen der Aussteller, Besucher und Veranstalter in Einklang zu bringen. Der Umsatz deutscher Messeveranstalter beläuft sich pro Jahr auf über 2,3 Mrd. Euro. Es kommt daher nicht von ungefähr, dass die deutschen Messeplätze zu zentralen Handelsund Kommunikationsdrehscheiben für die deutsche und die internationale Wirtschaft avanciert sind. Messen leisten somit einen wesentlichen Beitrag zu Wachstum und Beschäftigung in Deutschland und zur Intensivierung des internationalen Handels. Eine Studie des ifo-Instituts und des FfH-Instituts für Markt und Wirtschaft, welche vom Bundesministeriums für Wirtschaft und Technologie in Auftrag gegeben wurde, hat die gesamtwirtschaftliche Bedeutung der deutschen Messewirtschaft eindrucksvoll bestätigt. Die Aufwendungen der Aussteller und Besucher von 8,5 Mrd. Euro pro Jahr und gesamtwirtschaftliche Produktionseffekte von über 20 Mrd. Euro einschließlich der Investitionen der Messegesellschaften unterstreichen die Bedeutung dieser Dienstleistungsbranche. Die Tatsache, dass rund 230.000 Vollarbeitsplätze von der Durchführung von Messen abhängen, unterstreicht das arbeitsmarktpolitische Gewicht der Messewirtschaft. Da die Ausstellerund Besucherzahlen aller Voraussicht nach auch in Zukunft weiter zunehmen werden, wird die Messewirtschaft zu den Branchen gehören, die in erheblichem Umfang Arbeitsplätze schafft.
- 1.23 -
:. 1. Wirtschaft
Abb: Die Deutsche Messewirtschaft; Quelle: FfH-Instutut, ifo-Institut
- 1.24 -
:. 1. Wirtschaft
- Herausforderung Internet Trotz Internetkrise ist absehbar, dass eine Vielzahl von Dienstleistungen der Messewirtschaft sich den Herausforderungen des neuen Mediums Internet stellen muss. Es kann kein Zweifel daran bestehen, dass durch die Einbeziehung der Möglichkeiten des Internet, die Messelandschaft in hohem Maße bereichert wird. Da Messen auf die Anbahnung und den Abschluss von Verträgen angelegt sind, gilt es das Medium Internet derart zu nutzen, dass erhebliche Kosteneinsparungen erzielt werden können. Die Senkung der Transaktionskosten von ausstellenden und besuchenden Unternehmen ist heute ein Schlüsselfaktor für die Erreichung von Wettbewerbsvorteilen in einem durch steigenden Wettbewerb zwischen den Messeplätzen gekennzeichneten Umfeld. Das Internet nimmt deshalb im Rahmen der Unternehmensstrategie eine immer wichtigere Rolle ein. Allerdings kommt es darauf an, die Möglichkeiten des Internet nicht in beliebiger Weise, sondern sinnvoll zu nutzen. Darüber hinaus ist abzusehen, dass die Bedeutung von virtuellen Mehrwertdiensten auch für Messen stark zunehmen wird. Damit sich virtuelle Messe-Services durchsetzen können, ist es notwendig, dass sämtliche Abwicklungsprozesse von Ausstellern optimal durchgeführt werden können: Onlinebestellsysteme, Download-Services, Job-Börsen, virtuelle Postfächer sowie Online-Registrierungen. Zwar sind die Nutzerverhalten der Aussteller verschiedener Messen völlig unterschiedlich, trotzdem lassen sich mit der Virtualisierung von Messen neue Geschäftsmodelle realisieren, die eine erhebliche Einsparung von Transaktionskosten ermöglichen. Wichtig hierbei ist, bei den Messen, wo es Sinn macht, auf eine konsequente Virtualisierung zu setzen, damit ein sich rechnendes Geschäftsmodell nicht verwässert wird. Insbesondere Services, die einen hohen Aufwand an Datenpflege nach sich ziehen, sollten durch virtuelle Services substituiert werden. Zu einem immer wichtigeren ServiceTool avanciert das Angebot eines virtuellen Standbaus, bei dem jeder Aussteller die gebuchte Standfläche anhand verschiedener Standard-Pakete selbst designen kann. Konkrete Online-Buchungssysteme wie beispielsweise der von der aseantic ag für die MCH Messe Schweiz realisierte m-manager sind heute jedoch noch die Ausnahme. - Den Kunden zum Erfolg zwingen Seit den 80er-Jahren hat sich die Fachmesse als dominierender Messetyp durchgesetzt. Doch nicht alle Fachmessen eignen sich in gleichem Maße für die Virtualisierung. Entscheidend für den Erfolg von virtuellen Services ist es, diejenigen Messen herauszufinden, bei denen E-Business-Geschäftsmodelle erfolgreich sein können. Der ökonomische Erfolg von virtuellen MesseServices kann schneller erreicht werden, wenn es für die Kunden gar keine andere Möglichkeit mehr gibt, als online zu buchen. Lässt man beide Wege offen, informieren sich zwar viele Kunden online, die konkreten Bestellungen werden aber weiterhin auf konventionellem Wege durchgeführt. Für die Nutzungen von Online-Buchungen stehen die Platzierungsauswahl des Messestandes, die Buchung von Reisepaketen, von Eintrittskarten, von Parkplätzen sowie ein persönliches Leitsystem für Kunden im Vordergrund. Der Ausbau von Online-Services erfordert jedoch das Überwinden von zwei - 1.25 -
:. 1. Wirtschaft
Hindernissen: 1. Zum einen müssen die Messegesellschaften einen Spagat zwischen dem technisch Machbaren und den vielfach noch traditionellen Nutzungsgewohnheiten der Kunden durchführen; 2. Zum anderen sollten virtuelle Messe-Services, um zumindest mittelfristig den Return on Investment sicherzustellen, die Prozesse derart automatisieren, dass eine erhebliche Reduzierung der Transaktionskosten von etwa 30 bis 40 % möglich wird. Online-Services bieten eine Chance, sich nicht nur während der Zeit der Messen sondern ganzjährig um den Kunden zu kümmern. Rein virtuelle Messen werden jedoch aus Ausstellersicht als wenig interessant betrachtet, da es bei vielen Messen vor allem auf den persönlichen Kontakt ankommt. Für die Nutzung virtueller Messe-Services ist ein erhebliches ITKnow-how notwendig, welches entweder zugekauft werden kann oder innerhalb der Messen selbst aufgebaut werden muss. Je komplexer die ITUmgebungen allerdings werden, desto sinnvoller erscheint das Outsourcen an erfahrene Dienstleister. - Kürzere Innovationszyklen auch in der Messewirtschaft Der Managementprozess von Messen ist in den zurückliegenden Jahren immer komplexer geworden. Neben dem branchenspezifischen Know-how müssen immer mehr Prozesse koordiniert werden. Die Automatisierung und Virtualisierung von Messen kann dafür sorgen, die zunehmende Komplexität unter Kontrolle zu bringen. Hinzu kommt, dass die Halbwertzeit des Wissens in vielen Branchen immer kürzer wird. Da Messen jedoch meistens nur zu einem fixen Zeitpunkt stattfinden, muss der Wissenstransfer für die Kunden durch das Medium Internet mittlerweile während des ganzes Jahres sichergestellt werden. Messen sind immer weniger die Bühne für die Erstpräsentation neuer Produkte und von Innovationen, sondern diese werden heute über andere Kanäle wie das Internet, das Fernsehen, Pressekonferenzen etc. vorgestellt. Da der Druck des Marktes einen schnellen Weg an die Öffentlichkeit fordert, müssen Messen, auch wenn Sie nur einmal im Jahr stattfinden, in den virtuellen Märkten präsent sein, um durch Multi-Channelling sämtliche für die Vermarktung erforderlichen Kanäle schnellstmöglich zu nutzen. Zwar behalten Messen wie z.B. die Hannover-Messe die Funktion, Innovationen im Detail vorzustellen, die schnelle Vermittlung von Wissen wird jedoch zunehmend über virtuelle Medien erfolgen. Dies stellt auch Anforderungen an die Integration von Messen und Kongressen, die zunehmend miteinander integriert werden sollten. Messeunabhängige Kongresse sollten daher mit den eigentlichen Messen verschmelzen, da den Besuchern sowieso immer weniger Zeit für den physischen Besuch zur Verfügung steht. Messen sind Archetypen der Kommunikation, da sie Treffpunkte bieten und zum Dialog einladen. Auch die Messewirtschaft steht vor der Aufgabe, sich den Substitutionsprozessen der jeweils vorherrschenden Medien anzupassen und ein neues Medium wie das Internet systematisch in ihre Geschäftsprozesse integrieren. InternetTechnologien erlauben mittlerweile komplexe Integrationsprozesse, um das Wissen der Aussteller optimal zu organisieren und für die Kunden abrufbar zu machen. Wirksames Wissensmanagement kann nicht am Kunden vorbei organisiert werden, sondern erfordert auch für Messen dessen permanente Einbeziehung. Um die Chancen der Messe- und Kongresswirtschaft in der - 1.26 -
:. 1. Wirtschaft
Netzwerk-Ökonomie zu sichern, sind ständige Innovationen erforderlich. Hierin liegt insbesondere die Chance von virtuellen Messen, die als permanente Veranstaltungen zur Forcierung des Wissensaustausches dienen können. - Customer Relationship Management durch virtuelle Messen Verstärkte Kundenbindung und Kundenmanagement werden in der Messewirtschaft immer entscheidender. Es wird darauf ankommen, dass sich Kongress-Gesellschaften, Aussteller, Touristikzentralen und die Hotels zukünftig besser vernetzen, da diese oftmals die gleichen Kunden haben. Gerade Aussteller, die einen hohen Arbeitsaufwand bei der Zusammenstellung eines Kongresses oder einer Großveranstaltung haben, erwarten zunehmend vernetzte und integrierte Dienstleistungen. Es ist offensichtlich, dass Kundenbindung in der Kongresswirtschaft nicht durch einen Preiswettbewerb erreicht werden kann, sondern nur durch wirksame Mehrwertdienste, die allen Beteiligten das Leben erleichtern. Nur eine hohe Kompetenz und partnerschaftliches Arbeiten zwischen Kunden und Veranstaltern schafft Vertrauen und sichert langfristige Kundenbeziehungen. Wesentliche Aufgabe der Kongressorganisatoren ist es zukünftig, die Inhalte von Veranstaltungen stärker wahrzunehmen und zielgruppengerechte Veranstaltungen durchzuführen. Ein wichtiges Projekt um das Wissen über Messen sowohl bei Veranstaltern als auch bei Kunden zu erhöhen, ist das Projekt Congress College (www.congress-college.de). Mittels E-Learning kann hier eine Weiterbildung sichergestellt werden, die bessere und erfolgreichere Veranstaltungen ermöglicht. Virtuelle Messen machen es möglich, durch Automatisierung mit jedem Besucher persönlich in Kontakt treten können. Diesen emotional mit einzubeziehen und ihn rund um die Uhr zu betreuen sind ernst zu nehmende Herausforderungen für einen erfolgreichen Messeauftritt. Plattformen für virtuelle Messen ermöglichen Ausstellern wie auch Besuchern, das Internet in neuartiger Form zu nutzen, da hierbei keine zeitlichen, räumlichen und finanziellen Beschränkungen (andere Termine, weite Anfahrtswege und kostenintensive Aufenthalte) anfallen. Anders als bei immer unübersichtlicher werdenden Messen ist eine schnelle und umfassende Marktübersicht möglich. Messebesuche sind auch dann realisierbar, wenn andere Termine sie sonst verhindern würden. Da die Planung von Hallenständen, die Bereitstellung und Unterbringung von Personal zur Messebetreuung sowie die Einbeziehung weiterer externer Dienstleister zur Realisation des Messeauftrittes entfallen, können erhebliche Kosten eingespart werden. Durch Cyber-Branding können Aussteller die hohe Reichweite des Internets für ihre Produkte und Dienstleistungen durch 1:1 Marketing und schnelles Feedback an die Kunden wirksam nutzen. DataMining ermöglicht ein zielorientiertes Auswerten des Kundenverhaltens und eine schnelle Reaktion auf Veränderungen in den Märkten, was eine gezielte Differenzierung vom Wettbewerbsumfeld sicherstellt. Aus passiven Zuschauern werden aktive Messebesucher, die sich schnell und umfassend informieren können. Die Methode des Collaborative Filtering, die vom Online-Buchhändler Amazon.com revolutioniert wurde, ermöglicht das Speichern des Kundenverhaltens: So können dem Kunden für virtuelle oder physische Messe-Rundgänge gemäß seinen Interessen Vorschläge - 1.27 -
:. 1. Wirtschaft
unterbreitet werden. Durch interaktive Online-Chat-Funktionen können Kunden mit den Ausstellern direkt ins Gespräch kommen und ihre Wünsche äußern. Es ist abzusehen, dass der Wettbewerbsdruck unter den etablierten Messen zu einem fortschreitenden Aufbau von virtuellen Messekapazitäten führen wird. E-Commerce und Messe-Web-Sites für Kommunikationsforen und virtuelle Handelsplätze im Internet stellen die Kommunikationsfunktionen einer Messe sekundenschnell und nicht nur zur Zeit der Messe zur Verfügung. Damit entsteht eine bisher noch nie da gewesene Markttransparenz, die auch zu Lasten der traditionellen Messen gehen wird, wenn diese die Zukunftschance Internet nicht nutzen. Der Grund für die immer noch bestehende Zurückhaltung der Messegesellschaften gegenüber der Virtualisierung von Messen besteht in der möglichen Verdrängungsgefahr bestehender Messen durch die neuen Medien. Diese Gefahr wird jedoch nicht durch die Nutzung der neuen Medien größer, sondern durch deren Nicht-Nutzung. Die kontinuierlich zunehmende Internationalisierung der Messen und der ständige Ausbau der weltweiten Kommunikationsnetzwerke machen die Nutzung virtueller Messe-Services und eine mehrwertorientierte Informationsvermittlung zu zentralen Bausteinen eines wirksamen Customer Relationship Management.
- 1.28 -
:. 1. Wirtschaft
1.6 Kommunikation und Kundenorientierung: Servicewüsten in Deutschland, Österreich und der Schweiz Die Standorte Deutschland, Österreich und Schweiz brauchen den internationalen Vergleich bei der Vernachlässigung von Kundenbedürfnissen nicht zu scheuen. Zwischen Anspruch und Wirklichkeit klafft sowohl in den physischen als auch den virtuellen Märkten oft eine riesige Lücke. Entgegen des Marketing-Slogans, dass der Kunde König sei, bleibt dieser oftmals auf der Strecke, wenn es dem Personal an Einstellung und Qualifikation mangelt. Ein heftiger Sandsturm tobt mitten in der Dienstleistungslandschaft. Hollywoodreifes Szenario oder Realität? Eher Letzteres! Die schwer zu findenden Service-Quellen sind mittlerweile endgültig von der Wüste erobert. Warteschlangen in Behörden, unfreundliche Kundenberater oder Telefonauskünfte, die zu einer Pilgerfahrt nach Mekka avancieren, gehören heute zur alltäglichen Normalität in den Servicewüsten Deutschlands, Österreichs und der Schweiz. Dass dies nicht hingenommen werden kann ist offensichtlich, und deshalb regt sich immer mehr Gegenwehr von Seiten der Kunden, deren Anforderungen bezüglich der Dienstleistungsqualität weiter zunehmen. Unternehmen müssen deshalb aus der Servicewüste ausbrechen und sich dem Wettbewerb stellen. Gelingt dies nicht, können auch alteingesessene Unternehmen in kürzester Zeit ihre Kundenbasis verlieren. Wichtig ist deshalb, dass Unternehmen die Erwartungen und Wünsche Ihrer Kunden analysieren, um daraus eine geeignete Kommunikations- und Marketingstrategie abzuleiten. Mittlerweile ist der so genannte tertiäre Sektor (Dienstleistungen, Handel und Verkehr, private Haushalte usw.) mit einem Anteil von über 70 % zum wichtigsten Bereich der Bruttowertschöpfung avanicert. So hat z.B. der Dienstleistungssektor in den führenden Industrienationen mittlerweile einen Anteil von über 40 % an der Bruttowertschöpfung und beschäftigt über 60 % aller Erwerbstätigen. Je nach Betrachtungsweise und Marktumfeld rücken unterschiedliche Qualitätsdimensionen in den Vordergrund, wie z.B. Erscheinungsbild, Zuverlässigkeit, Leistungskompetenz, Reaktionsfähigkeit und Einfühlungsvermögen. Als besondere Unterschiede zu Konsumgütern lassen sich bei Dienstleistungen hierbei nachfolgende Charakteristika hervorheben. Merkmale
Beschreibung
1. Immaterialität 2. Unteilbarkeit 3. Vergänglichkeit 4. Intangibilität 5. Standortgebundenheit
kein physisches Produkt Produktion und Verbrauch erfolgen gleichzeitig keine Lagerung der Dienstleistung möglich keine sinnliche Wahrnehmung vor dem Kauf Dienstleistung an Ort des Dienstleisters gebunden Dienstleistung am Kunden oder am Objekt des Kunden Costumization der Dienstleistung möglich
6. Kundenfokus 7. Individualität
- 1.29 -
:. 1. Wirtschaft
- Check den Shop Kunden sind nur dann zufrieden, wenn die Leistungen den Erwartungen entsprechen oder diese sogar übertreffen. Verlässlichster Indikator, wie gering heute Dienst und Leistung angesehen sind, ist die Reparatur bzw. die Reklamation. Wer noch versucht, ein Produkt reparieren zu lassen, statt ein neues Produkt zu kaufen, stellt bald fest, dass die Entwicklung der Servicekultur etwa so weit fortgeschritten ist wie die innenpolitische Liberalisierung von Nordkorea. Reparieren bedeutet Arbeit und bringt vergleichsweise wenig ein. Fazit: Wartungsservice ist mega-out und deshalb richtig teuer. In der Service-Wüste ist man deshalb nicht allein, sondern man wandert in einer riesigen Karawane der Enttäuschten und Frustierten. Viele Kunden geben an, dass sie zufrieden sind, obwohl sie die Dienstleistungen alles andere als zufrieden stellen. Oftmals zeigt sich hier Resignation vor der Ignoranz der Anbieter, Lösungen anzubieten. Der Schlüsselbegriff hierbei ist die so genannte Zumutbarkeit für den Kunden. Oftmals gibt es eine erhebliche Differenz zwischen dem, was der Kunde erwartet und dem, was der Dienstleister bietet. Damit die Verweigerung von Dienstleistungen gestoppt werden kann, bedarf es Firmen, die die Missstände deutlich aufzeigen und ein Bewusstein dafür schaffen, dass es auch anders geht. Ein Beispiel hierfür ist Check’n Shop Deutschland (http://www.checknshop.de/ueber-uns.html), welches seit 1999 am Markt präsent ist. Das Unternehmen zählt heute zu den führenden deutschen Testkauf-Firmen und hat mehr als 3.500 Check-Shopper deutschlandweit sowie in Österreich und der Schweiz im Einsatz. Da wir uns heute in einer Aufmerksamkeits-Ökonomie befinden, wird eine Lenkung der Aufmerksamkeit auf schlechten Service die Innovationsdynamik von Dienstleistungen positiv beeinflussen. Zu den Services von Check’n Shop zählen Testkäufe, Service-Checks, Testanrufe (Mystery Shopping & Mystery Calling), Filial-Überprüfungen, Testdiebstähle, Kundenbefragungen etc. Zu den Auftraggebern gehören kundenorientierte Unternehmen aller Sparten und Größen, z.B.: Einzelhandel, Filialisten, Warenhäuser, Baumärkte, Möbelhäuser usw. - Wachstumsmotor Dienstleistungen Es besteht kein Zweifel darüber, dass der Dienstleistungssektor heute der entscheidende Wachstumsmotor von hoch entwickelten Industrienationen ist. Im Marketing von Dienstleistungen werden heute laut einer Studie des Future Trend Institutes (siehe www.futuretrendinstitute.com) 4 wesentliche Megatrends geortet: 1. Rang: Kundenloyalität, 2. Rang: Schaffung neuer Märkte, 3. Rang: Relationship-Marketing sowie 4. Rang: Markenmanagement. Kundenloyalität kann von Unternehmen heute vor allem dadurch erreicht werden, dass Unternehmen mögliche Kundenwünsche frühzeitig antizipieren und innovative Produkte auf den Markt bringen. Mit derartigen Produkten können sogar völlig neue Märkte erschlossen werden. Beim Relationship-Marketing kommt es darauf an, die Beziehungen zu den Kunden, den Lieferanten und von strategischen Partnern systematisch zu pflegen. Auch das Markenmanagement und der Aufbau eines Brandnames wird heute immer wichtiger. Hierbei geht es nicht nur um Vertrauen, - 1.30 -
:. 1. Wirtschaft
sondern darum, auch emotionale Bindungen herzustellen. Vor allem kommt es jedoch darauf an, dass Dienstleistungsunternehmen begreifen, dass es kostengünstiger ist, bestehende Kunden zu halten, als neue zu gewinnen. Deshalb kommt der Pflege bereits bestehender Kundenbeziehungen heute eine sehr hohe Bedeutung zu. Um dies zu erreichen, ist ein umfassendes Wissen über den Kunden erforderlich. Dieses Wissen muss in der gesamten Organisation bekannt sein und bei Kundenkontakten bei Bedarf zur Verfügung stehen. Es gilt, die Geschäftsprozesse den Kundenbedürfnissen anzupassen und sie nicht am Kunden vorbei zu optimieren. Dies ist deshalb von so hoher Bedeutung, da loyale Kunden normalerweise deutlich mehr Umsatz generieren als wechselwillige Kunden. Daneben kaufen loyale Kunden auch teurere Artikel („Up-selling“) oder Artikel aus anderen Produktsparten („Cross-selling“). Loyale Kunden empfehlen darüber hinaus den Verkäufer weiter, und es tritt ein so genannter Gewohnheitseffekt auf, der zu einer höheren Bindung führt. Als Folge eines derart loyalen Kundenverhaltens kommt hinzu, dass der Kunde auch dann dem Unternehmen die Treue hält und nicht zur Konkurrenz abwandert, wenn ein Wettbewerber sich Vorteile erarbeitet hat. Der Kunde nimmt dann Nachteile in Kauf, weil er sich langfristig trotzdem Vorteile verspricht. Allerdings sollte seitens eines Unternehmens nur dann in langfristige Kundenbeziehungen investiert werden, wenn dies mehr an Wert bringt, als es tatsächlich kostet. - Dienstleistungsmarketing und -qualität Das Spektrum an Dienstleistungsangeboten ist heute äußerst vielfältig. Es reicht von der Gastronomie, über die Vermittlung von Ehepartnern bis hin zu Cybersexangeboten im Internet. Es mangelt auch am Dienst an den Bürgern, dem E-Government. Rasch, kostengünstig und rund um die Uhr mit der Verwaltung von zu Hause in Kontakt treten zu können, wird von vielen Behörden sträflich vernachlässigt. Dabei würde das Medium Internet erlauben, diesen berechtigten Bürgerwunsch sofort erfüllen zu können, um den Bürgern Zeit und Wege zu sparen. Nicht der Bürger sollte zum Amt kommen, sondern das Amt zum Bürger. Ein anderes exmplarisches Beispiel bietet die Gastronomie. Entweder wird man in Restaurants gut bedient oder sehr schlecht. Was sich heute als Service tarnt, muss noch lange kein Service sein. Wer Restaurants kurz vor Küchenschluss (exakt 14.00 Uhr) betritt, sollte sie besser gleich wieder verlassen. Man ist „not amused“. Darüber hinaus sind mittlerweile auch ausgiebige Fremdsprachenkenntnisse bei der Bestellung des Essens von erheblichem Vorteil. Da Bedienungen wegen Überlastung sich sehr lange für die Bedienung Zeit lassen, wäre es in der Tat wahrscheinlich besser, den Self-Service flächendeckend einzuführen. Dies würde sicherstellen, dass man die Initiative etwas zu essen zu bekommen, nicht aus der Hand gibt. Hier muss schnellstens Abhilfe geschaffen werden. Gerade ein Hochpreisland wie die Schweiz sollte auf eine exzellente Servicequalität setzen. Weitere Verbesserungen der Qualität müssen nicht zu höheren Kosten führen, wenn es gelingt, die Effizienz einer Dienstleistung weiter zu steigern.
- 1.31 -
:. 1. Wirtschaft
- Lenkung von Kundenbeziehungen Customer Relationship Management heißt heute das Schlagwort der OnlineBranche. Nach Forrester Research entsteht gerade hier ein neuer Kundentypus, der bessere Produkte zu geringeren Preisen, höherem Dienstleistungsservice und unmittelbarem Zugriff zu bestimmten Diensten zu jedem Zeitpunkt und von jedem Ort aus fordert: der Cross-ChannelCustomer. Doch wie sieht die Praxis aus? Wenn Kunden heute kostenlose Dienstleistungen in Anspruch nehmen, müssen sie für Mehrwertdienste bezahlen. Ist dagegen der Mehrwertdienst umsonst, zahlen sie für die jeweiligen Dienstleistungen. Nichts scheint heute allerdings bedrohlicher zu sein, als teure Serviceleistungen in anonyme Kunden zu investieren, die kaum Umsatz bringen. Es geht für Unternehmen heute vor allem darum, die 20 wichtigsten Kunden zu kennen und zu halten, da diese gemäß des ParetoPrinzips, der sogenannten 80:20 Regel, für etwa 80 % der Gewinne des Unternehmens verantwortlich sind. Die bestehenden Kunden eines Unternehmens sind mit anderen Worten immer die profitabelsten Kunden. Beim Retail Banking ist es sogar oft so, das 10 % der Bankkunden für 90 % der Gewinne verantwortlich sind. Wer allerdings die bestehenden Kunden vernachlässigt und ihnen einen schlechten Service bietet, läuft Gefahr, diese sehr schnell zu verlieren. Insbesondere im Bereich der Online-Angebote sind viele schlechte Services anzutreffen. Laut einer Emnid-Studie im Auftrag des Deutschen Direktmarketing Verbandes waren etwa 50 % der Internet-Nutzer schon einmal unzufrieden, weil sie endlos in telefonischen Warteschleifen gefangen waren, sehr lange auf eine E-Mail-Antwort warten mussten oder aber überhaupt keine Antwort erhielten. Es zeigt sich, dass, wer als Kunde im Netz Hilfe benötigt, oftmals verlassen ist. Neben Geduld braucht der Kunde jedoch auch ein hohes Maß an Nervenstärke. Hotline-Mitarbeiter, die nach Checklisten vorgehen oder Standard-Antworten geben, frustrieren die Kunden und animinieren sie zum Wechsel des Dienstleisters. Leider wird schlechter Service von vielen Unternehmen als ein Instrument der Kostensenkung genutzt. Hierbei werden bewusst langfristig negative wirtschaftliche Auswirkungen in Kauf genommen, um kurzfristige Kostensenkungen erzielen zu können. Wer jedoch weiß, wie teuer es ist, einen verlorenen Kunden wieder zurückzugewinnen, wird sich sehr schnell von dieser Strategie verabschieden. Statt in besseren Service zu investieren, analysieren sich viele Unternehmen lieber zu Tode. Die Verweigerung von Services kann heute fast schon als Modewelle gelten. Das Internet offenbart sich bei näherem Hinsehen als Wüste und hat es bis heute nicht geschafft, Oasen der Kundenpflege zu schaffen. - Neue Wege: Der Customer Integration Ansatz Die Integration des Kunden ist heute von entscheidender Bedeutung für die Verbesserung von Dienstleistungen. Oftmals werden neue Services vom Kunden nicht so aufgenommen wie erwartet. Enttäuschung und Ernüchterung auf Seiten der Anbieter sind dann die logische Folge. Vor jeder Dienstleistungsinnovation sollten die potenziellen Käufer befragt werden, was diese von einem Service erwarten. Allerdings kann nicht jede Vorliebe eines Kunden integriert werden, weil sonst Dienstleistungen entstehen, die - 1.32 -
:. 1. Wirtschaft
zwar von allem etwas bieten, aber nichts richtig. Der Versuch, durch die exakte Umsetzung von Kundenwünschen den ultimativen Dienstleistung-Hit zu landen, scheitert oftmals kläglich. Auch kann das Design einer neuen Dienstleistung nicht outgesourct werden. Das Pushen von neuen Services muss Chef-Sache sein, da diese über Erfolg oder Misserfolg des Unternehmens entscheiden können. Auch sollte nicht auf eine bestimmte Gruppe von Kunden vertraut werden, sondern es muss darauf geachtet werden, dass die vorgeschlagenen Dienstleistungen auch alltagstauglich sind. Einer der wichtigsten Punkte ist jedoch zu überprüfen, ob die Kunden die neuen Dienstleistungen überhaupt wollen. Oftmals ist es in der Praxis so, dass viele Benutzer gerade einmal zehn Prozent der gesamten Möglichkeiten einer IT-Dienstleistung nutzen und deshalb wenig Begeisterung zeigen werden, wenn sie für Features, die sie gar nicht benötigen, einen hohen Preis bezahlen müssen. Kundenorientierung bei Dienstleistungen erfordert deshalb einen modularen Ansatz, der auf dem „Pay as you grow“-Ansatz beruht. Unternehmen müssen die Kunden zielorientiert in die Entwicklung von Dienstleistungen mit einbeziehen, ohne jedoch die Kontrolle über die Entwicklung aus der Hand zu geben. Wichtig ist, nur solche Kunden zu befragen, die auch tatsächlich Käufer und/oder direkte Verwender der Dienstleistung sind. Je unterschiedlicher hierbei die Gruppe der Befragten ist, desto besser kann eine Dienstleistung verbessert werden.
- 1.33 -
:. 2. Wissensmanagement
:. 2. Wissensmanagement 2.1 Permission Possible: Das Internet im Kommunikations-Mix
- Massenmedium Internet Es dürfte heute kein Zweifel mehr daran bestehen, dass das Internet zum wichtigsten Medium avanciert ist. Deshalb wird es im Kommunikationsmix von Unternehmen langfristig einen festen Platz einnehmen. Das Internet ist wie zuvor das Fernsehen auf dem Weg zu einem neuen Massenmedium. Seine immense Reichweite und die Fähigkeit zur Multichannel-Kommunikation machen es zu einem idealen Werbeträger. Da das Internet kein statisches Medium ist, ist eine 1:1-Übertragung bisheriger Werbeformen äußert unsinnig. Ein Internet-Auftritt ist weder ein Plakat, ein Inserat oder ein Ersatz für Prospekte. Dieser ist in erster Linie ein wichtiger Kommunikationskanal für ein Unternehmen. Deshalb muss die Gestaltung des Auftritts dem Corporate Design und der Corporate Identity des Unternehmens entsprechen. Nur so kann das Internet seiner Aufgabe im Kommunikationsmix gerecht werden. Zwar ist nach dem Nasdaq-Bubble eine gewisse Ernüchterung eingetreten, aber die Chancen, die das Medium Internet eröffnet, sind riesig. Im Internet gehen die Kosten für die Verteilung einer Werbebotschaft nahezu gegen Null und diese kann außerdem rund um die Uhr an den Mann gebracht werden (7/24). Doch gerade diese Transaktionsvorteile ziehen eine Vielzahl von Wettbewerbern an, weshalb es auf eine intelligente Web-Strategie ankommt, um sich zu differenzieren. Von Marktteilnehmern werden häufig folgende Kritikpunkte an Web-Sites angeführt: 1. Es besteht ein Überangebot von Web-Sites, 2. Überbetonung der Technik anstatt der Inhalte, 3. die Banner-Werbung wird ignoriert, 4. es gibt zu wenig alternative Zahlungsmethoden, 5. es werden zu wenig Mehrwertdienste angeboten und 6. das Kunden-Feedback wird nur unzureichend berücksichtigt. - Kundenbindung Kunden sind das wertvollste Gut, das ein Unternehmen besitzt. Doch diese Kunden werden immer anspruchsvoller, und die Bereitschaft, den Anbieter zu wechseln, ist im Internet sehr hoch. Deshalb sind neue Kommunikationsstrategien notwendig, um die knappste Ressource des Kunden zu gewinnen: seine Aufmerksamkeit. So ist beispielsweise das Kunden-Feedback ein häufig vernachlässigtes Element, um diese zu gewinnen und einen Dialog mit dem Kunden zu beginnen. Einerseits können dem Nutzer heute, wie das Collaborative Filtering bei Amazon.com aufzeigt, personalisierte Informationen geliefert werden. Andererseits kann das Feedback des Nutzers auch systematisch abgefragt werden. Hier gilt die Regel, dass nur, wer sich direkt mit den Interessen bisheriger Nicht-Kunden auseinander setzt, die Chance hat, diese als neue Kunden zu gewinnen. Eine
- 2.1 -
:. 2. Wissensmanagement
Web-Site sollte jedoch nicht nur potenzielle Kunden anziehen, sondern auch die bisherigen Kunden zufriedener machen. In Anlehnung an David Ogilvy aus dem Jahr 1951 können wir auf die Frage, was ein erfolgreicher InternetAuftritt ist, antworten: the consumer‘s idea of a service. Um dies zu erreichen ist ein virtuelles Beziehungsmarketing erforderlich. Im Internet-Business ist es wie im richtigen Leben. Aus dem ersten Blickkontakt heraus entsteht noch keine langfristige Beziehung. Deshalb muss zunächst Vertrauen zur jeweiligen Zielgruppe aufgebaut werden. Die Kunst besteht darin, die Kunden dazu zu bringen, die angebotenen Web-Seiten durch das Anbieten eines besonderes Mehrwerts freiwillig zu besuchen. Derartige Mehrwertdienste sollten den besonderen Stärken von Unternehmen entsprechen. Wer beispielsweise im Content-Bereich seine Stärken hatte, sollte diese ausspielen. Kostenloser Content kann hierbei als Speerspitze wirken, damit sich die Web-Site herumspricht und einen hohen Bekanntheitsgrad erhält. Ein weiterer wesentlicher Faktor ist, maximale Hebelwirkungen (Leveraging) zu nutzen. Da man nicht erwarten kann, dass die Internet-Teilnehmer zufällig über die eigene Web-Site stolpern, muss man dort auf diese aufmerksam machen, wo es besonders hohen Traffic gibt. Diese Vorgehensweise hat schon der Begründer von Wal Mart Sam Walton genutzt, der gerade dort seine Läden platzierte, wo die größten Verkehrsstaus und damit besonders viele potenzielle Kunden vorbeikamen. - Wettbewerbsvorteile für KMUs Vor dem Internet-Zeitalter hatten Großunternehmen mit ihren MarketingMillionen, verzweigten Niederlassungs-, Außendienstund Logistiknetzwerken in hohem Maße Wettbewerbsvorteile gegenüber KMUs und Selbständigen. Heute entscheiden nicht mehr der physische Standort, Hochglanzanzeigen oder Fernsehwerbung über Erfolg oder Misserfolg, sondern Schnelligkeit, Flexibilität, die Spezialisierung auf lukrative Marktnischen sowie der direkte Kontakt mit dem Kunden. Genau hier liegen die Vorteile des Internets, die KMU’s für sich nutzen können. Die Vergrößerung des Absatzgebietes durch das Internet, ermöglicht eine viel tiefer gehende Spezialisierung, als es in einem regional begrenztem Markt möglich wäre. KMUs sind mit dem Internet in der Lage, den Web-Site-Benutzern stets die aktuellsten Verkaufsunterlagen zur Verfügung zu stellen. Ohne auf oftmals langweilige Messen, Kongresse oder Events gehen zu müssen, können über das Internet sehr schnell neue Lieferanten und Kooperationspartner gewonnen werden. Die große Stärke des Internet ist es, Technologien zu ermöglichen, die das Beziehungs-Management deutlich verbessern. Hierbei kann im Rahmen des Kommunikationsmix' der Fokus vom Verkauf hin zur Problemlösung gelenkt werden. - 6 zukünftige Internet-Marketing Trends Trend 1: Nach dem so genannten Hype wird es für die Betreiber von WebSites immer wichtiger, die Nutzungszahlen und das Kundenverhalten zu kennen. Hierzu sind Data Mining-Lösungen erforderlich, die ein provokatives Management der Website Performance ermöglichen. Trend 2: - 2.2 -
:. 2. Wissensmanagement
Die Content-Fokussierung wird immer wichtiger, da ein exzellenter, regelmäßig upgedateter Content ein Schlüsselfaktor ist, um die Nutzungszahlen von Sites nach oben zu treiben. Dies gilt auch für den internen Wissensaustausch von Unternehmen. Hier werden vor allem Intranets an Bedeutung gewinnen, insbesondere für die interne Produktion von Content, der auch nach außen kommuniziert werden kann. Trend 3: In einer Zeit der zunehmenden Komplexität kommt es darauf an, Zeit zu sparen und eine Vielzahl von Prozessen zu automatisieren. Dies ermöglicht in hohem Umfang Transaktionskosten zu senken. Während es früher ausreichte, in einigen wenigen großen Suchmaschinen vertreten zu sein, kann man sich heute in über 1.500 Suchmaschinen automatisch registrieren lassen. Hierbei ist das Ziel, mit den wichtigsten Metabegriffen eine maximale Durchdringung im Netz zu erreichen. Trend 4: Wer heute Aufmerksamkeit erzielen will, tut dies immer weniger über Anzeigen, sondern über gezielte Pressearbeit. Gute Fachartikel werden von den Fachmagazinen gerne genommen und von einer Vielzahl von Abonnenten gelesen. Außerdem lassen sich diese durch Content Syndication mehr als einmal publizieren, um so die Reichweiten zu erhöhen. Damit übernimmt (E)-Public Relations vom Marketing die Führungsrolle in der Kommunikation. Trend 5: Einer der wichtigsten Faktoren im Internet ist das Auffinden eines Codes, der sich selbst reproduziert und somit maximale Wirkungen erzielt. Im Kommunikationsmix kommt es deshalb heute vor allem auf die virenhafte Ausbreitung bestimmter Informationen an: das so genannte virale Marketing. Last but not least Trend 6: Permission Marketing ist eine neue Möglichkeit des Direktmarketing, die auf dem Einverständnis des Empfängers basiert, bestimmte Informationen zu erhalten. Diese Erlaubnis kann hierbei vom Empfänger jederzeit widerrufen werden. Auf die letzten beiden Trends soll wegen ihrer besonderen Bedeutung für den Kommunikationsmix hier im Detail eingegangen werden. - Virales Marketing Virales Marketing beschreibt ein Phänomen, welches eine Person dazu motiviert, eine Marketingbotschaft an andere Personen weiterzuleiten. Durch diese Weitergabe wird eine exponentielle Ausbreitung einer Botschaft möglich. Dabei ist dieses Konzept keinesfalls neu. Es ist eine alte Marketingweisheit, dass Empfehlungen von zufriedenen Kunden das wirksamste Marketing darstellen, da die Menschen lieber einer Empfehlung eines Bekannten glauben als einer Werbebotschaft. Dabei nutzt das virale Marketing nichts anderes, als das natürliche Bedürfnis vieler Menschen, sich mitzuteilen. Das Weiterleiten von Informationen kann hierbei durch das Anbieten von Anreizen (Prämien etc.) oder durch Bereitstellen geeigneter Instrumente wie „Send-to-a-friend“-Funktionen unterstützt werden. Daher kann eine lawinenartige Ausbreitung einer Werbebotschaft resultieren, die Ähnlichkeit mit der Ausbreitung eines Virus aufweist. Die Botschaft infiziert so zu sagen neue Nutzer, die wiederum weitere Nutzer infizieren. Klassisches Beispiel für das virale Marketing ist der email-Service Hotmail, der im Jahr 1996 gegründet wurde. In jedem über Hotmail versendetes E-Mail wurde am Ende ein Link zurück zu Hotmail eingefügt: „Get Your Private, Free Email at http://www.hotmail.com.“ Der Erfolg, des im Jahr 1998 von Microsoft - 2.3 -
:. 2. Wissensmanagement
aufgekauften Service, war nahezu unglaublich. Innerhalb der ersten 1_ Jahre seines Bestehens gewann Hotmail 12 Millionen Abonnenten. Hier zeigte sich auch der besondere Vorteil von Internet-Technologien: die Skalierbarkeit. Werbung im Marketing - und Kommunikations -Mix Empfehlungskäufer Intensivkäufer Exklusivkäufer Wiederkäufer Probierkäufer Erstkäufer Kundenleiter
Werbung und Marktkommunikation
Studiengang
Abb.: Werbung im Marketing- und Kommunikationsmix Quelle: Fachhochschule Stuttgart, Studiengang Werbung und Marktkommunikation
- Permission Marketing Ziel des Permission Marketing ist, eine nachhaltige Beziehung zum Kunden aufzubauen, indem im Einverständnis mit dem Empfänger Wissen über diesen gesammelt wird, um damit Angebote zu personalisieren. Der Begriff des Permission Marketing wurde von Seth Godin entwickelt und im gleichnamigen Buch näher erläutert. Ausgangspunkt seines Konzeptes war, die zunehmende Wirkungslosigkeit herkömmlicher Massenwerbung durch die Abstumpfung der Konsumenten. Bei dieser Form der Werbung wird man ständig unnötigerweise unterbrochen, z.B. durch Radiospots, Fernsehspots oder langweilige Anzeigen. Schätzungen zufolge muss ein Durchschnittsverbraucher pro Jahr rund eine Million Werbebotschaften (d.h. etwa 3.000 pro Tag) über sich ergehen lassen. Da die Grenzen der Aufmerksamkeit erschöpft sind, verpuffen Massenwerbungen heute zunehmend wirkungslos. Beim Permission Marketing wird der Konsument nicht mehr durch anonyme Massenwerbungen in seinem Tun unterbrochen, sondern gibt freiwillig die Einwilligung, vom Anbieter Werbebotschaften zu erhalten, da er mehr über das jeweilige Produkt (oder Dienstleistung) lernen will. Dies ist deshalb von Vorteil, da Werbebotschaften von einer bestimmten Quelle erwartet werden, diese personalisiert sind und drittens die Werbebotschaften für den Empfänger relevant sind. Beim PermissionMarketing ist die Werbebotschaft, nicht mehr ein bloßer Verkaufsversuch, sondern diese soll beim Empfänger einen Nutzen generieren. Im Gegenzug für seine Aufmerksamkeit wird dem Kunden wertvoller Content geboten. Permission- 2.4 -
:. 2. Wissensmanagement
Marketing unterstreicht den Paradigmenwechsel im Marketing weg von der transaktionsbasierten Vorgehensweise, welche vor allem auf schnelle Verkaufsabschlüsse abzielte, hin zu einem langfristig orientierten Management von Kundenbeziehungen welches auf Loyalität und Vertrauen basiert. - Fazit: Verändertes Kommunikationsverhalten Vor dem Internet-Zeitalter basierte die Kommunikation mit dem Kunden auf vier Eckpfeilern: 1. persönlicher Verkauf, 2. Werbung, 3. Verkaufsförderung sowie 4. Public Relations. Der Kommunikationsmix ist jedoch längst nicht mehr eine logische Abfolge dieser Kommunikationsinstrumente, sondern ein paralleles Vorgehen von virtuellen Verkäufen, Viral Marketing, Permission Marketing sowie Electronic Relations. Während das alte Verkaufsparadigma nur etwa 10 % auf den Aufbau von Beziehungen setzte, kommt es im neuen Verkauf-Paradigma zu mehr als 70 % auf den Aufbau eines Win-Winorientierten Business Ecosystems mit den Kunden an. Verkaufen durch nicht Verkaufen ist das neue Motto, bei dem unsichtbare Kundenbindungen zu Abschlüssen führen. Auch die zeitliche Abgrenzung in Form von kurzfristigen Maßnahmen wie Kundenwerbung, mittelfristigen Maßnahmen wie Kundenbindung sowie langfristigen Maßnahmen wie der Aufbau eines Markenbewusstseins macht in einem Echtzeit-Medium immer weniger Sinn. Vielmehr gilt es, Multi-Channel-Strategien zu definieren, die maximale Wirkungen in minimaler Zeit und zu minimalen Kosten ermöglichen. Letztendlich ist es bei einer Web-Site gleichgültig ob diese zehn Mal oder tausend Mal abgerufen wird, da die Grenzkosten gegen Null tendieren. Der Prozess von der werblichen Ansprache der Konsumenten bis hin zur Kaufentscheidung kann im Internet nahezu reibungsfrei vollzogen werden. Die heutige Informationsüberflutung macht es darüber hinaus notwendig, neue Formen der bedürfnisorientierten Ansprache zu finden. Anders als bei der klassischen Werbeplanung, können Streuverluste bei der Online-Werbung viel besser vermieden werden. Das Internet bietet heute für Unternehmen aller Größenordnungen eine Vielzahl neuer Möglichkeiten für das NeuDesign von Websites (Content Management, Intranets), für das Marketing und Branding (Viral Marketing, Permission Marketing) und die Kundenansprache (Customer Relationship Management, Mass Customization) sowie für das Leveraging (Search Engines, Automatisierung von Prozessen). Die wirtschaftlichen Rahmenbedingungen wie erhöhter Wettbewerbsdruck und technische Dynamik, zunehmende Marktsegmentierung, Abnahme produktspezifischer Differenzierungen sowie Steigerung der Markenvielfalt machen das Medium Internet zur notwendigen Bedingung für die Komplexitätsbewältigung und damit den unternehmerischen Erfolg in volatilen Märkten. Die zunehmende Informationsüberflutung bei den Zielgruppen, reduzierte Werbewirkungen sowie der immer komplexer werdende Kommunikationsmix zeigen, dass das Internet trotz Wirtschaftskrise alles andere als tot ist. Es ist die treibende Kraft für die Verbesserung der Wettbewerbsfähigkeit und die Transformation alter Managementansätze.
- 2.5 -
:. 2. Wissensmanagement
2.2 Content Management: Return on Knowledge
- Der C-Faktor: Content is King Von einer guten Content Management-Lösung müssen alle Teilnehmer profitieren; die Organisation, die Content-Verantwortlichen, die Systemmanager, Webentwickler und Site-Besucher. Heute sind CMSLösungen für Unternehmen nicht mehr wegzudenken, da für deren Lenkung immer mehr die Frage im Mittelpunkt steht, wie die Umlaufgeschwindigkeit von Wissen sowie dessen Nutzung und Weitergabe verbessert werden kann. Besonders wichtig für Unternehmen ist es deshalb, durch ein CMS eine Zusammenarbeitsplattform für die Mitarbeiter zu schaffen. Die Migration in das Netz bedeutet für viele Unternehmen eine Effizienzsteigerung der Geschäftsprozesse und eine höhere Profitabilität. Die Schlüsselfaktoren für den Aufbau einer Site wie die Häufigkeit des Content-Updates, die Art und der Umfang der Inhalte, die Anzahl der Autoren, die Freigabe von Content, der Fähigkeiten des Web Management Teams, das Verlagern von Updates von den IT-Verantwortlichen an die eigenen Mitarbeiter sowie die zur Verfügung stehenden Kostenbudgets bilden die Basis für die Bewertung von Content Management Systemen. Neben dem Content Management von Webseiten wird auch die Nachfrage nach Intranets immer größer. Aktuell nutzen gemäß einer Prognose der International Data Corporation etwa 135 Millionen Menschen weltweit Unternehmens-Intranets. Da zukünftig immer mehr Menschen nicht-englisch-sprachige Seiten nutzen werden, wird auch die Nachfrage nach mehrsprachigen Webseiten stark ansteigen. Von der erwarteten Nutzerzahl des Internet von 1 Milliarde Menschen im Jahr 2005, werden mehr als zwei Drittel (etwa 700 Millionen) außerhalb der Vereinigten Staaten leben. Gegenwärtig sind zwar noch etwa 75 % der weltweiten Seiten in englischer Sprache verfasst, aber der Wirtschaftsboom in China wird hier sehr schnell für eine deutliche Verschiebung der Anteile sorgen. - Das Gesicht des Unternehmens Jede Webseite ist die Online-Manifestation eines Unternehmens, ob es ein Unternehmen möchte oder nicht. Eine Webseite ist heute das Interface des Unternehmens zu seiner Umwelt, mit der es seine Innenwelt nach Außen spiegelt. Während 1992 lediglich etwa 1000 Webseiten im Netz waren, gab es im Juni 2000 bereits schon etwa 2 Milliarden. Seit 1998 sind so genannte B2B (business-to-business) und B2C (business-to-consumer) –Webseiten zum wichtigsten Instrument avanciert, um mit Kunden, Zulieferern, Mitarbeitern, Partnern, Analysten oder Investoren zu kommunizieren. Bereits Ende dieses Jahr werden über 140 Millionen Menschen weltweit Unternehmens-Intranets benutzen. Inhalte werden in unterschiedlichsten Systemen, von unterschiedlichsten Lieferanten, zu unterschiedlichsten Zeiten generiert und von den unterschiedlichsten Konsumenten genutzt, wie z.B. bei Amazon.com oder EBAY. Die Lenkung der Inhalte dieser Innenwelt geschieht heute zunehmend durch so genannte Content Management Systeme (CMS). Ein optimales Content Management System muss heute nicht mehr nur Informationen liefern, sondern es muss gleichzeitig als Kommunikations- 2.6 -
:. 2. Wissensmanagement
und Interaktions-Plattform dienen sowie Integrationsfunktionen im Rahmen des Unternehmens wahrnehmen. Ein implementiertes Content Management System ermöglicht einen wirksamen Informationsfluss im gesamten Unternehmen, eine schnellere Wissenszunahme bei allen Mitarbeitern, eine Senkung der Transaktionskosten, und es erhöht die Reaktions- und Anpassungsgeschwindigkeit eines Unternehmens innerhalb eines Marktes. Voraussetzung hierfür sind automatisierte Arbeitsabläufe, die Integration zu Backoffice-Systemen und ein teamorientiertes Vorgehen bei der Lenkung von Content. Involviert sind Inhalts-Lieferanten (Public Relations, Autoren, Redakteure, Marketing-Manager, Produkt-Manager etc.), Führungskräfte (CEOs, CIOs, CFOs, Account-Direktoren, Bereichsleiter, Projektleiter etc.) sowie das technische Personal (CTO, Web-Entwickler, Webmaster, Grafiker oder den Webseiten-Administratoren etc.). - Speed to Market Es wird immer deutlicher, dass der Content Flow für Unternehmen des 21. Jahrhunderts ebenso, wenn nicht sogar wichtiger als der Cash Flow sein wird. Für das Unternehmen Vignette ist Content deshalb die Währung des digitalen Zeitalters. Ein Content Management ist nur dann von hohem Mehrwert für Kunden oder Mitarbeiter, wenn Informationen schnellstmöglich upgedated und zielspezifisch zur Verfügung gestellt werden. Verbreitung, Personalisierung, Skalierung und Nutzung von Inhalten müssen deshalb mehr denn je kundenspezifisch automatisiert werden. Persönliche Profile helfen Unternehmen dabei, die Arbeitsabläufe besser den Kernkompetenzen der jeweiligen Mitarbeiter anzupassen. Für Oracle geht der Weg vom Data Mining zunehmend hin zu einem Content Mining, d.h. der gezielten Lenkung von Inhalten in Unternehmen. Übergeordnetes Ziel hierbei ist es, Meta-Architekturen zu finden, die es den Nutzern erlauben, beliebige Inhalte auf ein Intranet, Extranet oder das Internet einzubauen, ohne Programmierkenntnisse oder das ArchitekturDesign mitzubringen. Web Content Management muss heute als eine Art Lösungs-Navigator für verschiedene Arten von Netzwerken fungieren: Internet, Intranets und Extranets in Form von speziellen Unternehmensportalen. Die optimale Größe eines Netzwerkes bemisst sich dabei nicht am absoluten Umsatz, sondern am erzielten „Return on Knowledge“. Dem Abbau von Flaschenhälsen, die den Informationsfluss behindern, kommt dabei allergrößte Bedeutung zu. Je besser es einem Content Management System gelingt, durch Automatisierung von bestimmten Prozessen derartige Verstopfungen zu erkennen, desto wirksamer wird die Erzeugung neuer Inhalte sein.
- 2.7 -
:. 2. Wissensmanagement
- Anytime, Anywhere, Anything Zu jeder Zeit, an jedem Ort, jede beliebige Form von Inhalt publizieren zu können ist eine große Herausforderung, da dies ein System erfordert, bei dem jeder seine Aufgabe kennt und hierbei eigenverantwortlich handeln muss. Das meist eher zufällige Wachstum von Webseiten muss heute einem Ansatz weichen, der eine klare Content-Strategie verfolgt. Nur so lässt sich durch Content-Erzeugung eine hohe Kundenbindung erreichen. Der Erfolg einer Webseite hängt dabei vor allem von der Beantwortung der Fragen ab, welche Strategie mit der Webseite verfolgt wird, welcher Nutzen beim Kunden erzeugt werden kann, wer den Content liefert/freigibt, mit welchen Vorlagen Content angeboten wird (so genanntes Templating), wie dynamisch die Webseite sein soll, ob ein rollenbasiertes Sicherheits-Modell vorliegt, inwieweit die Webseite in beliebig viele Bestandteile gemäß dem Wunsch verschiedenster Nutzer zerlegt werden kann, wie skalierbar das CMS ist, welches Kostenbudget zur Verfügung steht und wie schnell die Webseite zu einem Return on Investment beitragen kann. Da es heute nicht mehr nur um Inhalte in Form von Text, sondern auch von Grafiken, Audio und Video geht, spielt auch die Konvergenz eine immer wichtigere Rolle. Da auch das MultiChannelling an Bedeutung gewinnt, baut Yahoo! gerade eine Infrastruktur auf, die in effizienter Weise Inhalte und Anwendungen an potenzielle Nutzer weiterleitet. Derartige Content-Netzwerke erlauben mehr als nur das einfache Hosten von Anwendungen und Informationen, vielmehr können somit auch Muster des Internet-Datenverkehrs analysiert sowie ein „Load Balancing“ des Netzes durchgeführt werden. - Kaufen ist besser als Selbermachen Integrierte Systeme, die am Markt gekauft werden können und deren Preise weiter drastisch fallen werden, sind wegen der Komplexitätszunahme im Rahmen der Software-Entwicklung ein Muss. Die versteckten Kosten der Nichtnutzung eines integrierten Systems sind langfristig wesentlich höher als die Kosten für den Kauf einer Content Management Software. In einer Zeit, in der IT-Abteilungen kaum noch mit den Hardware- und SoftwareUpgrades mithalten können und immer größere Sicherheitsrisiken im Internet auftreten, können sich Unternehmen immer weniger leisten, eigene Content Systeme zu entwickeln. Es kann sogar gesagt werden, dass derartige Projekte früher oder später wegen der Komplexitätszunahme in eine Sackgasse führen werden. Wer an vorderster Front als Unternehmen wirken und seinen Marktanteil ausbauen möchte, benötigt eine schnelle Implementierung der Software und eine einfache Bedienbarkeit. Dies können nur noch Produkte gewährleisten, die als Integrationsplattformen dienen und somit weit über die Funktion als Kommunikations- oder Transaktionsplattform hinausgehen. Zu den Anbietern von einer neuen Form von Standard-Software für das Content Management gehört nach der Übernahme des Unternehmens Ncompass auch Microsoft. Der Content Management Server 2001 von Microsoft, welcher erstmals von der Aseantic AG in Europa präsentiert wird, ist Teil der neu lancierten .NET Enterprise Server Familie. Diese Software ist heute für viele Kunden attraktiv, da davon ausgegangen werden kann, dass Microsoft auch noch in einigen Jahren auf - 2.8 -
:. 2. Wissensmanagement
dem Markt sein wird und somit mögliche Kosten für eine Umstellung oder ein Redesign im Rahmen bleiben. - US-Marktübersicht Gemäß der Aberdeen Group wird die digitale Content-Verteilung (Digital Content Distribution), die aus Technologie- und Dienstleistungsanbietern besteht, mit einer jährlichen Rate von etwa 35 % wachsen. Der Markt für Content Management lässt sich heute in sechs Sektoren aufteilen: wirkliche Content Management Lieferanten, Werkzeuge für gemeinsames Arbeiten im Web, netzbasiertes Customer Relationship Management, Verkäufer von Dokumenten-Management Software, In-House-Lösungen sowie Pioniere, die nach neuen Killer-Applikationen suchen. Mittlerweile zeigt sich allerdings der Trend, dass sich immer mehr Dokomenten-Management Firmen in Content Management Provider umbenennen. Bestehende internationale Software-Systeme wie die von Vignette oder Interwoven sowie die Schweizer Softwarefirmen Day oder Obtree bekommen darüber hinaus Konkurrenz von etablierten Firmen wie Microsoft oder Oracle, die den Wachstumsmarkt des Content Management nunmehr ebenfalls für sich reklamieren. Divine, ein Software-Anbieter für Unternehmensportale und Echtzeit-Zusammenarbeit, hat mit dem Kauf von Open Market ebenfalls in den Wachstumsmarkt des Content Management investiert. Die führenden Anbieter sind deshalb gezwungen, ebenfalls neue Technologien einzukaufen. Mit dem Aufkauf des Start-Ups Neonyoyo hat sich Interwoven Technologie in das MultichannelPublishing eingekauft. In die gleiche Richtung gingen bereits die zuvor getätigten Aufkäufe von Diffusion durch Vignette sowie von Interleaf durch BroadVision. Während B2B-Plattformen oftmals mit unterschiedlichen Katalog-Formaten zu kämpfen haben, bieten CMS integrierte Lösungen wie z.B. die von Broadvision (E-Commerce-Lösung), Blue Martini (Personalisierung und Analyse), Dokumentum (Dokumenten-Management) und Vignette (Personalisierung, Content Syndication). Daneben gibt es auch fokussierte Lösungen wie die von Eprise, Interwoven, IntraNet Solutions, Mediasurface und Ncompass (von Microsoft aufgekauft), die insbesondere für bereits etablierte Unternehmen geeignet sind. Content-ManagementAnbieter wie Eprise Corp und eGrail verkaufen schlanke, schnell implementierbare, jedoch teure Software-Pakete. Wer als kleines Unternehmen einen besonders schnellen Return on Investment möchte, sollte auch Billiganbieter wie Weblication unter die Lupe nehmen.
Top 7 Content Management Interwoven Vignette Intranet Solution Broadvision Rational Documentum Open Market
Marktanteil 25 % 17 % 10 % 6% 5% 3% 3%
Quelle: Aberdeen Group, 2001
- 2.9 -
:. 2. Wissensmanagement
- IT-Investments jetzt Es hat sich bereits in Boomphasen früherer Medien wie dem Radio und dem Fernsehen gezeigt, dass Krisenphasen wie die aktuelle durch Erneuerung der Infrastrukturen zum Aufbau von größeren Marktanteilen genutzt werden können. Wer es schafft, durch IT-Investments gerade in Phasen der Zurückhaltung der Käufer, Produktivitätsfortschritt zu erzielen, wird zu den Gewinnern zählen. Gemäß einer Studie der Giga Information Group werden Firmen, die ihr Unternehmen verstärkt in Netzwerken abbilden, in erheblichem Umfang Kosten einsparen (weltweit etwa 1,25 Billionen US-$). Der Zwang zu Produktivitätsfortschritten dürfte nach einer Studie von Frost & Sullivan dazu führen, dass das US-Marktvolumen für Content-Lieferung von 905 Millionen $ im Jahr 2000 auf 12,1 Milliarden $ bis zum Jahr 2007 ansteigen wird. Auch der wachsende Bedarf an Content Syndication, d.h. an der Mehrfachnutzung von Content auf verschiedenen Seiten lässt sich mit CMS hervorragend realisieren. Der Schlüssel für den zukünftigen Erfolg einer Content Management Software ist ein offener, flexibler Ansatz für die Lenkung der Informations-Architektur. Eine mögliche Option für diese Anforderungen sind Peer-to-Peer-Netzwerke. Diese haben erhebliche Potenziale für das Knowledge Sharing sowie die Zunahme der Wissenstransparenz in Unternehmen. Eine weitere Option sind kontextorientierte Content Management Systeme, die den unterschiedlichen zeitlichen Wissensstand in Form von Wissenstrajektorien analysieren und somit das Verfolgen und Bewerten des „Wissens-Fortschrittspfades“ erlauben. Wegen der strategischen Bedeutung von Content Management ist es allerdings von größter Wichtigkeit, Sorgfalt bei der Auswahl eines Systems walten zu lassen. Eine überdimensionierte Lösung gilt es definitiv zu vermeiden. Wer nur 10 % der Features wirklich nutzt, sollte genau die Preise der CMS-Anbieter vergleichen und sein Anforderungsprofil mit den jeweiligen Angeboten in Einklang bringen. - Business-Ökosysteme durch Digital Asset Management Nur ein zielorientiertes Management digitaler Vermögenswerte kann dem heute auftretenden Phänomen „Wissensmangel durch Informationsüberschuss“ wirksam begegnen. Ein besserer Informationsstand und Wissenstransfer sorgt nicht nur für eine bessere Koordination von Aktivitäten entlang der Wertschöpfungskette eines Unternehmens, sondern auch für eine deutlich Abnahme von Fehlentscheidungen durch eine höherer Transparenz der Handlungen. Content Management funktioniert jedoch nicht nur intern, sondern kann zugleich ein Instrument zur Integration von Kunden und Geschäftspartnern sein, d.h. es dient auch zum Aufbau so genannter Business-Ökosysteme. Der Produktionsfaktor Wissen übernimmt hierbei eine Integrationsrolle, da die Content-Ressourcen des eigenen Unternehmens und der Geschäftspartner und Kunden zusammengeführt werden. CMS dient somit als Integrationsplattform von Mitarbeitern, Partnern, Kunden und Lieferanten. Damit werden auch unternehmensübergreifende Projekte und Teams möglich, wobei Intranets, Extranets und das Internet im Rahmen eines Metanet zu neuartigen Interfaces für Problemlösungen verschmelzen. Der wichtigste Nebeneffekt - 2.10 -
:. 2. Wissensmanagement
eines CMS-Systems ist eine Verbesserung der internen Kommunikation, die einer Organisation eine größere Anpassungsfähigkeit, Modularität und Skalierbarkeit zur Realisierung von Wachstumspotenzialen verleiht. - Kosteneinsparungen Von besonderer Bedeutung bei Content Management Systemen ist, dass diese in erheblichem Maße zur Kostenreduktion beitragen können. Dies ist deshalb von besonderer Bedeutung, da die Personalkosten zum Erzeugen einer Webseite wesentlich höher sind als die Investments in Hard- und Software. Firmen benötigen folgerichtig ein CMS-Tool, welches leicht zu bedienen ist und jedermann von jedem Ort aus erlaubt, Inhalte online zu stellen. Allein der Übergang von technischem zu nicht-technischem Personal für das Update von Homepages bringt eine Kosteneinsparung von etwa 30 bis 35 % in den Personalkosten. Während bei einer kleinen Homepage, die Einsparungen etwa 18.000 US-$ betragen, können bei einer aufwändigen Site, bei der 10 Personen für das Updating der Inhalte verantwortlich sind, die Einsparungen bereits etwa 150.000 bis 200.000 US-$ pro Jahr betragen. Die oben erwähnten Kosten für ein CMS-System von etwa 125.000 bis 200.000 US-$ können somit in den meisten Fällen in weniger als einem Jahr wieder eingespielt werden. Wirksames Content Management erlaubt nicht nur geringere Update-Kosten für Content, sondern vor allem deutlich reduzierte Ausbildungskosten, wenn ein Easy-to-Use-Interface verwendet wird. Die Dezentralisierung der Seiten-Updates ermöglicht es den Entwicklungsabteilungen, ihre Verkaufsleute und die Kunden in hoher Geschwindgkeit Informationen über neue Produkte und Innovationen zu liefern. Hierbei gilt es die Opportunitätskosten für die Nichtnutzung eines CMS zu bewerten. Unter Umständen sind diese Kosten wesentlich höher als der Kauf eines ausgereiften CMS kosten würde. - Return on Knowledge Content Management erfordert auch ein wirksames Data Mining, welches Engpässe in den Kommunikatonsflüssen anzeigt und zielgerichtete Auswertungen ermöglicht. Das Messen der Effektivität einer Webseite hat nicht mehr viel mit der Messung der „Page Hits” oder der Aufenthaltsdauer eines Users zu tun, sondern damit, ob die Unternehmensziele durch ein CMS besser erreicht werden können. Es geht darum, ob der Einsatz von Wissen im Unternehmen in effektiver Weise erfolgt, d.h. ob ein hoher „Return on Knowledge” erzielt werden kann. Für einen ROK müssen deshalb sowohl die Kosten der Informationsbeschaffung, die Kosten für die Weitergabe von Wissen sowie die Kosten für eine hohe Umlaufgeschwindigkeit des Wissens berücksichtigt werden. Der Aufbau eines erfolgreichen CMS erfordert eine strategische Planung der Nutzer-Anforderung, eine Analyse der Geschäftsprozesse sowie die Auswahl von profitablen Mehrwertdiensten. Die Produktivität einer Organisation und das Wachstum eines Unternehmens werden behindert, wenn die Veränderung von Inhalten nicht mit den Veränderungen innerhalb und außerhalb des Unternehmens Schritt halten können. Die Schlüsselfaktoren für das Wachstum wie Skalierbarkeit, - 2.11 -
:. 2. Wissensmanagement
Flexibilität und Komplexitätslenkung können durch Integrationslösungen wie CMS in hervorragender Weise erfüllt werden. Ein wirksames Digital Asset Management sollte deshalb Zeit und Geld einsparen, die Kommunikation sowohl intern als auch nach außen verbessern, Geschäftsbeziehungen stärken und die Umsätze ansteigen lassen. CMS bietet erst den Anfang einer Entwicklung, an derem Ende leistungsfähige Corporate Intranets stehen werden, die die Art und Weise wie in Unternehmen Entscheidungen gefällt werden, drastisch verändern werden. - Microsoft fasst bei CMS Fuss Die Firma Meta Group Inc. sagt voraus, dass im Jahr 2003 95% der 2000 größten Firmen Infrastrukturen entwickeln müssen, um den Content auf ihren Webseiten effizient zu managen. Mit der Übernahme von Ncompass Labs hat sich mittlerweile auch Microsoft im zukünftigen Wachstumsmarkt des Content Management positioniert, bei dem in den nächsten Jahren Wachstumsraten von etwa 30-35 % pro Jahr erwartet werden. Microsofts Content Management Server 2001 erlaubt es auch technisch nicht versierten Autoren, Inhalte in einem template-basierten System zu erzeugen und zu editieren. Hierbei werden Überarbeitungen von Inhalten automatisch durch das System gespeichert, wobei sowohl Autoren als auch Administratoren die Veränderung von Dokumenten überwachen. Zusätzlich können Autoren ihre Modifikationen auf Development, Staging oder Live Server publizieren, womit die Veränderungen sofort für Besucher einer Homepage sichtbar werden. Besondere Merkmale des Microsoft CMS sind das automatische Generieren von Seiten durch Content- und Template-Objekte sowie die dynamische Veränderung von Templates basierend auf Real-TimeInformationen. Außerdem wird eine logische Verlinkung von Seiten sichergestellt, sodass Änderungen an einer bestimmten Stelle automatisch an anderen Stellen übernommen werden. Multiserver Content Verteilung sowie dynamische Site Maps und Navigations-Links sind weitere Merkmale des Microsoft CMS. Die neue Homepage von aseantic.com wurde mit dem Microsoft Content Management Server 2001 konfiguriert und ermöglicht es mittlerweile jedem Mitarbeiter, neues Wissen ins Netz zu stellen (http://www.aseantic.com). - Was spricht für Microsoft? Die Möglichkeit mit einem Hersteller wie Microsoft zusammenzuarbeiten, eröffnet für viele Unternehmen nicht nur eine größere Kontinuität für zukünftige Upgrades, vielmehr ermöglicht die Dot.Net-Produktepalette des Redmonter Unternehmens auch ein Höchstmaß an Kompatibilität zu anderen Microsoft-Produkten. Das weitere Hinzufügen von Servern und die Skalierbarkeit von Produkten ist ebenfalls ein Argument, welches immer mehr Firmen anführen, die lieber mit großen als mit kleinen SoftwareFirmen kooperieren wollen. Microsoft tritt hierbei vor allem zu Wettbewerbern aus dem Java-Umfeld wie Documentum Inc., Interwoven Inc. und Vignette in Konkurrenz sowie zukünftig auch mit Anbietern wie Eprise Corp., IntraNet Solutions Inc. and Percussion Software Inc. Um sich gegen - 2.12 -
:. 2. Wissensmanagement
Microsoft zu behaupten, sind die führenden Anbieter ebenfalls gezwungen, ständig neue Technologien einzukaufen. Mit dem Aufkauf des Start-Ups Neonyoyo hat sich Interwoven (CMS-Marktanteil 25 %) Technologie in das Multichannel-Publishing eingekauft. In die gleiche Richtung ging der bereits zuvor getätigte Aufkauf von Diffusion durch Vignette (CMS-Marktanteil 17 %). Heute wird eine typische Content Management Server Installation für etwa $125,000 bis $200,000 verkauft. Wie die Preise sich zukünftig gestalten werden, hängt von der Art und Weise ab mit welcher Härte der kommende Verdrängungswettbewerb geführt wird. Wer am Schluss die Nase vorn haben wird, entscheiden die Kunden. Feststeht jedoch, das die großen der Branche noch jeden First Mover-Vorteil durch ihren Brandname und den zielgerichteten Zukauf von Technologien wett machen konnten.
- 2.13 -
:. 2. Wissensmanagement
2.3 Site Performance: Hohe Wirksamkeit im Umgang mit Datenbeständen - Mehrwert der Website erhöhen Web-Sites gehören heute zu den wichtigsten Kommunikationsinstrumenten von Unternehmen. Während 1992 lediglich etwa 1000 Web-Sites im Netz waren, gab es im Juni 2000 schon etwa 2 Milliarden. Je komplexer eine WebSite wird, desto wichtiger ist es, geeignete Analyse-Tools zu haben, um diese auszuwerten. Dabei gehen die Analysemethoden heute weit über die Zugriffsstatistiken aus Protokollen (so genannte Logfiles) hinaus. Die Site Performance soll dazu beitragen, einen hohen Informationsfluss zwischen den Unternehmen und den Kunden sicherzustellen, während das Data Mining vor allem dazu beitragen soll, die Kommunikation zwischen den Mitarbeitern (z.B. über Intranets) zu verbessern. Wem es gelingt, eine hohe Site Performance sicherzustellen und wer über entsprechende Auswertungstools (für Datenströme und Kommunikationskanäle) verfügt, kann die Transaktionskosten deutlich senken und die Reaktions- und Anpassungsgeschwindigkeit eines Unternehmens im Markt deutlich erhöhen. Site Management schafft dann einen hohen Mehrwert für Kunden oder Mitarbeiter, wenn Informationen schnellstmöglich aktualisiert und zielspezifisch zur Verfügung gestellt werden können. Der Mehrwert des Data Mining liegt darin, bisher nicht sichtbares Wissen in großen Datenbanken zu suchen, um es profitabel einsetzen zu können. Die entscheidende Frage des Data Mining ist hierbei: Wie kann für die Kunden Wert generiert werden. Einer der führenden Anbieter von Data Mining-Lösungen, das SAS Institute, sieht drei Hauptanwendungen für das Data Mining: 1. das Auffinden der profitabelsten Kunden und das Binden dieser an das Unternehmen, 2. das Durchführen zielgerichteter Marketing-Kampagnen und 3. zukünftige Entwicklungen vorauszusehen sowie Schlüsselfaktoren für positive oder negative Verstärkungen herauszufiltern. - Erkennen der Digital Assets Site Performance, Site Management und Data Mining stehen vor der Herausforderung der immer größer werdenden Komplexität in den Systemen. Die Nutzung von Analysetools in diesen Bereichen setzt voraus, sich über die zu erreichenden Ziele im Klaren zu sein. Die Analyse von Zugriffszahlen, von Schlüsselmerkmalen von Kunden, die Analyse der Online-Verkäufe zur Ermittlung höherwertiger Kunden, die Ermittlung erfolgreicher Marketingaktivitäten, Kundenrelevanzanalysen, Kostensenkungsanalysen, Verbesserung der Kundenbindung, Verbesserung des Cross Selling-Potenzials bieten heute die Basis für erfolgreiches Customer Relationship Management sowie die Optimierung von Multichannelstrategien. Site Performance und Web-Monitoring Systeme ermöglichen eine Beobachtung des Kundenverhaltens und liefern eine transparente Sicht auf die IT Infrastruktur. Messbare Daten im Hinblick auf Sicherheit, Performance und Verfügbarkeit sind umso wichtiger, wenn die IT Infrastruktur bei einem Hosting-Partner betrieben wird. Nur eine zentrale - 2.14 -
:. 2. Wissensmanagement
Sammlung der Daten ermöglicht die Anwendung von Strategien zur Verdichtung, Korrelation und statistischen Auswertung und eine schnelle Reaktion auf wichtige, businesskritische Ereignisse. Data-Mining Methoden werden diesen Prozess unterstützen, indem sie bisher unbekannte Zusammenhänge und Trends in den steigenden Volumen an MonitoringDaten entdecken. Während heute noch viele Unternehmen ihre WebApplikationen „im Blindflug“ betreiben, wird in Zukunft kaum jemand auf diese Möglichkeiten der Überwachung und Auswertung verzichten können. Das Internet wird heute oft für falsche Strategien eingesetzt. Es ist nicht die Verlängerung des klassischen Marketingverständisses ins Netz, sondern es bietet die Möglichkeit völlig neue Geschäftsmodelle einzuführen, wie das Beispiel Dell gezeigt hat. Die heutigen Websites, Channels und Portals sind nicht mehr als Schaufenster. Es kann deshalb nicht um eine Optimierung alter und nicht auf das Netz angepasster Strategien gehen, sondern darum, vorausschauend das Nutzer-Verhalten zu antizipieren. Voraussetzung hierfür ist, eine neue Internet-Fitness der Anbieter. Traditionelle Lösungen wie Data Warehouse und Data Mining sind zwar Voraussetzung für die Generierung von Mehrwert, reichen aber für sich genommen nicht aus. Sie erlauben uns zwar die verborgenen und abstrakten Muster des Verhaltens zu diagnostizieren, aber sie geben uns keinen Aufschluss über die zu Grunde liegenden Motivationen und die Bewegungen im Unter-Bewusstsein der User. Aber genau darum geht es im Endeffekt, denn wir wollen im Kopf der User diejenigen Wirklichkeitsaspekte verstärken und an die Marke oder an das Produkt koppeln, die dafür sorgen, dass aus einer Ablehnung ein „Ich will“ wird. - Risk Management in Unternehmen Der Wille des Kunden kann allerdings in erheblichem Umfang von Störgrößen beeinflusst werden. Es ist deshalb auch ein systematisches Risk Management notwendig, um mögliche Entwicklungen vorwegzunehmen und auf eventuelle Krisensituationen vorbereitet zu sein. Die Analyse der Site Performance, Site Management und Data Mining übernehmen die Aufgabe, im Rahmen der IT mögliche Fehlerquellen zu erkennen und Verhaltensmuster zu analysieren. Hierbei geht der Trend zu rechnergestützten, daten-, methodenund modellorientierten Entscheidungsunterstützungssystemen. Viele Unternehmen sind sich der möglichen Risiken durch fehlende bzw. gestörte Informations- und Kommunikationswege sowie –abläufe nicht bewusst. Zielkonflikte, verzögerte Entscheidungsfindung oder Fehlentscheidungen sind dann oftmals vorprogrammiert. Deshalb gilt es Risiken frühzeitig zu erkennen und eine RiskMap zu erstellen, die der Zunahme der Komplexität in den Systemen Rechnung trägt. Die Grundlage hierzu bieten heute fortschrittliche Technologien wie Data Warehouses oder Data Marts, Data Mining, aber auch die offenen Infrastrukturen und Prozessse, in die diese Werkzeuge im Unternehmen eingebettet werden. Für Marc-Ives Baechli von terreActive bieten die Daten eines umfassenden Monitoring Systems die Grundlage für die Risikoanalyse im IT Bereich, da sonst die die Daten in kostspieligen Audits erarbeitet werden müssen: „Die Praxis zeigt, dass Unternehmen mit guten Monitoring Systemen, basierend auf einem sauber dokumentierten IT- 2.15 -
:. 2. Wissensmanagement
Inventar, weniger verletzlich sind und viel schneller auf Sicherheitszwischenfälle reagieren können.“ Die zunehmende Automatisierung von Transaktionen macht es Cyber-Kriminellen einfacher, die Sicherheit von Netzwerken und Servern zu untergraben betont Karl Zumstein von SAS: „Da Betrug insbesondere Kreditkartenbetrug in elektronischen Märkten eine immer größere Rolle spielen wird, sind DataMining-basierende Lösungen, wie sie z.B. Amazom.com zur Identifikation potenzieller Betrugsfälle einsetzt, immanent wichtig. Alle Daten, die im EBusiness anfallen – von Kundenkontaktpunkten, Transaktionen, Kaufmustern – können benutzt werden, um typische Verhaltensbilder zu kreieren und dagegen untypisches, potenziell betrügerisches Verhalten zu erkennen. Um diesen Entwicklungen gerecht zu werden, hat SAS die Lösung SAS Risk Management entwickelt.“ - Personalisierung von Daten Ein wichtiger Trend wird weiterhin das Zusammenstellen von personalisierten Daten sein, d.h. das Anzeigen von Inhalten abgestimmt auf den jeweiligen Benutzer. Durch die Personalisierung von Daten können über den Benutzer gespeicherte Informationen wie z.B. Transaktions-Daten (Kaufhistorie, Benutzerverhalten auf dem Website, etc.), psychografische oder soziodemografische Informationen dazu dienen, dem Kunden maßgeschneiderte Angebote zu unterbreiten. Die zwei wesentlichen Elemente von Systemen zur Personalisierung sind so genannte RulesEngines und Data-Mining-Systeme. Die Personalisierung hat dabei verschiedene Phasen zu durchlaufen: Als Erstes muss das Interesse des Besuchers für eine Site intensiviert werden. Kunden sollten zum Wiederkehren auf die Site bewegt werden und andere Bereiche der Site kennen lernen. In einer nächsten Phase steht die Umsatzsteigerung im Vordergrund, d.h. beim erneuten Besuch der Site soll der Kunde höhere Kaufabschlüsse tätigen. Vor allem wird die Personalisierung jedoch dazu verwendet, die Bereitstellung von Informationen zu beschleunigen und dadurch die Nutzbarkeit und damit die Kundenbindung einer Site zu erhöhen. Erfolgreiche Sites wie z. B. die von Amazon.com verwenden umfangreiche Profilinformationen als Grundlage für die Bereitstellung der richtigen Services. Diese Profile sollen den Kunden Wünsche erfüllen, die diese selbst noch nicht einmal kennen. Die heute verwendeten Verfahren, sind die explizite und die implizite Profilerstellung: Bei der explizite Profilerstellung wird jeder Benutzer aufgerufen, Informationen online einzugeben oder Fragebögen auszufüllen. Zum Beispiel kann auf der Website MyYahoo der Besucher selbst spezifizieren, welche Aktien er verfolgt und welche Nachrichtenkategorien für ihn von Interesse sind. Die implizite Profilerstellung schreibt hingegen das Verhalten des Besuchers automatisch und im Hintergrund mit, was für den Besucher heißt, dass die in einem so genannten „Cookie“ gepeicherten Informationen für ihn nicht mehr transparent sind.
- 2.16 -
:. 2. Wissensmanagement
- Business Ökosysteme schaffen Der Aufbau eines exzellenten Teams beim Fussball erfordert es, die Spieler zu kennen. Im Bereich des Geschäftslebens gilt es, die relevanten Daten aller Teilnehmer eines Netzwerkes zu kennen, um intelligente Lösungen hervorzubringen und versteckte Muster im Sinne von John Forbes Nash („A beautiful mind“) erkennen zu können. Die so genannte Business Intelligence muss Entscheider in die Lage versetzen, Win-Win-Situationen zu schaffen, Kosten zu reduzieren, Umsätze zu erhöhen, Verluste zu vermeiden und neue Gelegenheiten zu erkennen. Da Unternehmen heute immer mehr vernetzte, komplexe Business-Ökosysteme herausbilden, stellt sich die Frage nach der Lenkung dieser Systeme. Die Entkopplung von strategischen und taktischen Entscheidungen in Unternehmen kann heute durch die Möglichkeiten des Data Mining überwunden werden. Die kollektive Intelligenz eines vernetzten Systems ist hierbei eine der wesentlichen Triebfedern für den Aufbau derartiger Business-Netzwerke. Unternehmen sind jedoch nur dann intelligent, wenn sie eine exzellentes Sensorik-System haben, über eine exzellente Navigation verfügen, eine hohe Umlaufgeschwindigkeit des Wissens ermöglichen, schnell und effektiv entscheiden können und dies alles in ein firmenübergreifendes Netzwerk eingebettet ist. Deshalb integrieren immer mehr Firmen, die auf E-Business-Anwendungen spezialisiert sind wie SAP, PeopleSoft, i2 und Siebel - spezielle Analyse-Tools in ihre Software. Sales Force Automation Tools oder Marketingdatenbanken versetzen Unternehmen in die Lage, ihre operativen Prozess zu automatisieren. Darüber gibt der zielgerichtete Einsatz von Analyse-Tools dem Unternehmen eine „Business Intelligence“, d.h. das Unternehmen kann frühzeitig auf mögliche Probleme reagieren. Wer den Begriff der Ökosysteme ernst nimmt, kommt vor allem nicht an der Analyse des genauen Kundenverhaltens sowie der Trends im Internet und den digitalen Medien vorbei, „Nur wer die Nutzer als sozio-demografische Profile kennt, kann gezieltes Marketing betreiben.“ Eine der führenden Unternehmen im Bereich Traffic Control im Internet ist das Unternehmen F5 Networks (führender Internet Traffic Management und Content-Anbieter), welches Produkte entwickelt, die Server in LANS überwachen, um Fehlfunktionen zu erkennen, den Nutzerverkehr zu regeln und Routing-Anfragen auf den passenden und verfügbaren Server umzuleiten. Wohin der Markt sich hierbei entwickelt, zeigt z.B. die strategische Allianz des F5 Networks und Inktomi. Analysefirmen werden zukünftig verstärkt mit Internet InfrastrukturSoftware-Anbietern kooperieren. - Marktentwicklung Site Performance, Site Management und Data Mining sind zwar große Wachstumsbereiche. Allerdings dürfte sich ein Konzentrationsprozess sowie eine Spezialisierung der Werkzeuge abzeichnen. Es dürfte eine Spezialisierung der Tools stattfinden, bei dem sich jedes Werkzeug auf einen Teilaspekt wie z.B. Audience Management, Performance Monitoring, Intrusion Detection usw. konzentriert. Hierbei werden nur Produkte, die offene Schnittstellen haben und sich gut und einfach integrieren lassen, überleben. Der Markt für Site Performance, Site Management und Data - 2.17 -
:. 2. Wissensmanagement
Mining ist in Bewegung geraten. In Jahr 2001 hat SAS ein weltweit einheitliches Partnerprogramm verabschiedet, mit dem Ziel, Partnerschaften mit den erfolgreichsten Beratungshäusern, System-integratoren sowie Hardware- und Softwareanbietern aufzubauen. Insbesondere der Bereich des Data Mining bietet ein starkes Wachstumsgebiet, das in immer mehr Bereichen eingesetzt werden kann, wobei vor allem das so genannte Text Mining viel versprechend ist: Untersuchungen gehen davon aus, dass bereits mehr als 80 Prozent der heute digital verfügbaren Informationen in Textform vorliegen. Text Mining zielt darauf ab, Muster und Zusammenhänge in großen textuellen Datensammlungen aufzuspüren. Im Bereich des Monitoring kooperieren zunehmend etablierte Anbieter mit ihren Produkte wie HP OpenView, CA Unicenter oder IBM Tivoli mit kleineren, spezialisierten Anbietern.
- 2.18 -
:. 2. Wissensmanagement
2.4 Data Mining: Kundeninformationen sinnvoll nutzen
- Unsichtbares Wissen sichtbar machen Data Mining ist eine Methode, die das Ziel verfolgt, bisher nicht sichtbares Wissen in großen Datenbanken zu suchen und es profitabel einzusetzen. Die entscheidende Frage des Data Mining ist: Wie kann für die Kunden Wert generiert werden? Einer der führenden Anbieter von Data Mining-Lösungen, das SAS Institute, sieht drei Hauptanwendungen für das Data Mining: 1. das Auffinden der profitabelsten Kunden und das Binden dieser an das Unternehmen, 2. das Durchführen zielgerichteter Marketing-Kampagnen und 3. zukünftige Entwicklungen vorauszusehen sowie Schlüsselfaktoren für positive oder negative Verstärkungen herauszufiltern. Damit dies gelingt, stehen eine Vielzahl von statistischen Methoden wie z.B. linerare oder logistische Regression, Multivarianzanalyse, Entscheidungsbäume, neuronale Netze oder Klassifikationsregeln zur Verfügung. Mit diesen Methoden lassen sich aus den Millionen von Variablen Modelle generieren, welche bestimmte Vorhersagen ermöglichen. Es reicht jedoch nicht aus herauszufinden, welche Beziehungen statistisch relevant sind, sondern vor allem jene ausfindig zu machen, die die höchste Erfolgswahrscheinlichkeit haben. Auf eine bestimmte Werbekampagne antworten typerweise 1 % der Kunden, d.h. das bei einem Mailing von 100.000 Angeschriebenen etwa 1.000 Kunden zu Käufen angeregt werden können. Gelingt es mit Data Mining Techniken die Zahl der möglichen Antworten auf 2 % anzuheben, kann bereits mit der Hälfte des Werbebudgets die gleiche Wirkung erzielt werden. - Erkennen der Digital Assets Data Mining steht vor der Herausforderung der immer größer werdenden Komplexität in den Systemen. Bevor Data Mining in einem Unternehmen gestartet werden kann, ist es notwendig, sich über die damit zu erreichenden Ziele im Klaren zu sein. Data Mining bietet eine Fülle von Vorteilen wie die Analyse der Schlüsselmerkmale von Kunden, Analyse der Online-Verkäufe zur Ermittlung höherwertiger Kunden, Ermittlung erfolgreicher Marketingaktivitäten, Kundenrelevanzanalysen, Kostensenkungsanalysen, Verbesserung der Kundenbindung, Verbesserung des Cross SellingPotenzials, erfolgreiches Customer Relationship Management sowie die Optimierung von Multichannelstrategien. Data Mining erlaubt Firmen, nicht nur die rentabelsten Kunden zu erkennen, sondern auch potenzielle Kunden besser abzuschätzen. Es lässt sich folgende 10-stufige Vorgehensweise festlegen: 1. Zielanalyse, 2. Datenauswahl, 3. Datenaufbereitung, 4. Datenevaluation, 5. Datensegmentierung, 6. Auswahl der Analysetools, 7. Modellerstellung, 8. Ergebnisdiskussion, 9. Ergebnispräsentation sowie last but not least 10. die Ergebnisimplementation. Es müssen zwar nicht immer alle Schritte tatsächlich im Detail behandelt werden, jedoch gilt es jeden Punkt zumindest gedanklich durchzuspielen. Nur so können die für Unternehmen wichtigsten Fragen: „Wer sind meine Kunden?“, „Was ist das eigentliche Kundenproblem“, „Was haben die Kunden für Eigenschaften?“ und „Wie werden sie sich voraussichtlich verhalten?“ systematisch - 2.19 -
:. 2. Wissensmanagement
beantwortet werden. Allerdings muss darauf geachtet werden, dass die Privatsphäre jedes einzelnen Kunden geschützt wird. Data Mining von Kundendaten sollte allein dem Zweck dienen, den individuellen KundenService zu verbessern. - Komplexitätsbewältigung und Mustererkennung Beim Data Mining geht es im Grund genommen wie beim menschlichen Gehirn um Probleme der Mustererkennung, der Assoziationen und von Kontexten. Firmen müssen aus der in Datenform abgelegten kollektiven Erfahrung Schlüsse für die weitere Entwicklung ziehen können. Dies geht in automatisierter Form jedoch nur, wenn die relevanten Daten wirklich abgelegt sind und diese durch geeignete Werkzeuge analysiert werden können. Das Sichtbarmachen versteckter digitaler Assets ermöglicht nicht nur eine Verbesserung der strategischen Planung, sondern vor allem die Beschleunigung der Entscheidungsprozesse, Erschließung von Kostensenkungspotenzialen, verbessertes Bestandsmanagement sowie eine wirksamere Integration verteilter Daten. Data Mining-Software muss massive Datenvolumen bewältigen können: Transaktionsdaten, Daten über das Käuferverhalten oder demografische Daten etc. Während früher Data Mining Software eher vergangenheitsbezogene Daten bewältigte, geht die Zukunft immer mehr in Richtung einer Simulations-Software, die auch Elemente des Risk Management und das Durchspielen von Szenarien ermöglicht. Die Benchmarkfirmen für die Anwendung von Data Mining in Unternehmen finden sich in informationsintensiven und wettbewerbsorientierten Branchen wie z.B. Finanzdienstleistungen, Telekommunikation oder dem Einzelhandel. Unternehmen dieser Branchen bietet das Internet ein ideales Umfeld für das Data Mining, da jede Transaktion erfasst, gesammelt und mit Hilfe von Analysewerkzeugen ausgewertet werden kann. - Systeme der 3. Generation entwickeln Data Mining macht die Mustererkennung in Datenbeständen zu einem strategischen Geschäftsziel. Mit einer derartigen Frühwarnbrille versehen, können Unternehmen eher als ihre Wettbewerber erkennen, was ihre Kunden wollen und diese somit wirksamer an sich binden. Beim Data Mining ist es jedoch wie im richtigen Leben: Nur die wenigsten die mit Schaufeln ausgestattet werden, um nach Gold zu suchen, finden es auch tatsächlich. Deshalb kommt es neben dem richtigen Produkt auch auf die richtigen Märkte an, damit Data Mining Früchte trägt. Wer eine falsche Unternehmensstrategie verfolgt, wer mangelhafte IT-Infrastrukturen in Form von zu geringer Prozessleistung oder Speicherkapazitäten, eine zu kleine Datenbasis oder eine schlechte Datenqualität hat, darf sich vom Data Mining keine Wunderdinge erwarten. Die Hauptvoraussetzung für erfolgreiche Mustererkennung ist eine genügend große Datenbasis. Je mehr Datensätze vorliegen, desto geringer fallen die Anzahl der Schätzfehler und von Varianten aus. Die 1. Generation von Data Mining Systemen arbeitete mit einfachen Algorithmen, während die 2. Generation die Skalierbarkeit und die - 2.20 -
:. 2. Wissensmanagement
Funktionalität der Systeme erhöhte. Auf Grund der weiteren Komplexitätszunahme wird die 3. Generation von Systemen höchste Anforderungen in Bezug auf Risk-Management und Frühwarnung erfüllen müssen. Derartige Systeme werden zukünftig mit nicht-traditionellen, komplexen und verteilten Daten umgehen müssen und diese kontextorientiert miteinander verbinden. Getragen wird diese Entwicklung einerseits von der Entwicklung der Datenbanken, der Leistungsfähigkeit von Prozessoren und Hochleistungsspeichern sowie verbesserten Analysemethoden. Die Herausforderung im Rahmen der Entwicklung von Algorithmen liegen in der Bewältigung immer größer werdender Datenmengen, in der Zunahme der Komplexität und der dezentralen Verteilung der Daten. Eine der besten Übersichten zu Anbietern von Data Mining Tools bietet derzeit die Webseite von Kdnuggets.
Die wichtigsten Analyse-Methoden sind: -
-
-
-
Cluster Analysis: Zusammenfassen von Variablen in unterscheidbare Gruppen auf Grund von bestimmten Ähnlichkeiten. Decision Tree: Hierarchische Struktur, die nach bestimmten Regeln Einteilungen vornimmt. Rule Induction: Aus Daten werden „Wenn-dann“-Regeln auf Grund von statistischer Signifikanz extrahiert. Mit Algorithmen werden alle nur denkbaren Beziehungen in der gesamten Datenmenge analysiert und passende Regeln herausgefiltert. Neural Networks: Neuronale Netze ahmen die Fähigkeit des Gehirns nach, sich durch Lernvorgänge selbst zu organisieren. Sie können im Prinzip für jede Aufgabe eingesetzt werden, bei der es darum geht, Zusammenhänge zwischen „unscharfen“ Mustern zu erkennen. Association Model: Assoziationsmodelle überprüfen die Abhängigkeit von Werten einer bestimmten Variablen, die von einer anderen Variablen abhängt. Data Vizualization: Ein Muster, welches durch Zahlenkolonnen nicht erkennbar ist, tritt in einem Diagramm oder einer mehrdimensionalen Darstellung oftmals sofort zu Tage.
- 2.21 -
:. 2. Wissensmanagement
2.5 Customer Relationship Management: Jeder Bankkunde ein König?
- Was ist Customer Relationship Management? Customer Relationship Management (CRM) ist ein Business-Konzept, welches das Ziel verfolgt, mehr über die Kundenbedürfnisse und das Kundenverhalten zu lernen, um so stärkere und langfristige Kundenbeziehungen herzustellen. Hierfür gilt es, den Kunden, seine Umstände, seine Bedürfnisse, sein Verhalten sowie seine Präferenzen zu kennen. Finanzdienstleister spielen eine Vorreiterrolle bei der Implementierung von CRM-Systemen, da das KundenbeziehungsManagement dort zu einem Schlüsselfaktor der Unternehmensführung avanciert. Banken und Versicherungen, die auf E-Business-Innovationen setzen, benötigen ausgefeilte CRM-Systeme. Da die meisten Finanzdienstleister auf einem verkaufsbasierten Modell aufbauen, müssen sie eine starke Nachfrage nach ihren Produkten und Dienstleistungen erzeugen. Unternehmen, die CRM erfolgreich implementieren, können selbst in auf Echtzeit basierenden Netzwelten langfristige Kundenbeziehungen aufbauen. CRM bildet heute eine entscheidende Komponente im Rahmen der Unternehmensstrategie, da es Daten über Kunden, Verkauf, Effektivität des Marketing sowie Markttrends im Rahmen einer integrierten Plattform zusammenführt. CRM-Systeme lassen sich nicht allein auf ihre technische Dimension reduzieren, sondern sie haben durch die interaktive Vernetzung von Mitarbeitern zu ihren Kunden vor allem eine dialogorientierte Ausprägung. Wenn ein Finanzdienstleister mit unterschiedlichen Kanälen wie Mail-Kampagnen, Webseiten, Filialen, Call Centern, Verkäufern oder Werbefilmen arbeitet, gilt es all diese Medien in einem CRM-System zusammenzufassen. Durch ein derartiges System können Banken und Versicherungen sich in ihre Kunden und deren Werthaltungen hineinversetzen. Sie erhalten somit eine neue Brille der Wahrnehmung, ein neuartiges Interface für Organisationen. Dadurch ist es möglich, den Kundenservice zu verbessern, Call Center wirksamer zu machen, einfacher und schneller Geschäfte anzubahnen, das Cross-Selling zu verbessern, die Marketing- und Verkaufsprozesse zu vereinfachen, die Umsätze mit den Kunden anzuheben sowie neue Kunden zu entdecken. - IT-Architekturen Der IT-Anteil des CRM besteht aus einem computerbasierten Ablauf, der mit der Sammlung von Kundendaten beginnt, Auswertungen über deren Bedürfnisse und Kaufverhalten macht und daraufhin umsatzfördernde Interaktionen mit dem Kunden einleitet. Der wesentliche Unterschied zu anderen IT-Systemen ist, dass CRM ein systematisches Tracking der Kundenpräferenzen im Rahmen der Business-Partnerschaft vornimmt. CRM ist somit auch eine kundenorientierte Erweiterung von Data Mining und Data Warehousing-Anwendungen. Darüber hinaus ist CMS deutlich mehr als Sales Force Automation, da die Software Back Office-, Front OfficeLösungen sowie B2B-Netzwerke miteinander verbindet. Um ein CRM- 2.22 -
:. 2. Wissensmanagement
Projekt erfolgreich abzuschließen, muss es jedoch überschaubare und lenkbare Teilprojekte geben. In diesem Zusammenhang sollte vor allem auch auf die Skalierbarkeit der zu Grunde liegenden IT-Architekturen Rücksicht genommen werden. Auch die Menge der anfallenden Daten gilt es zu kennen, um die Systeme danach auszulegen. Außerdem sollte ein CRMSystem die Möglichkeit der flexiblen Preisgestaltung bieten. Zur Verbesserung der Effizienz werden hierbei Instrumente wie Data Mining sowie Data Warehousing eingesetzt. Die Winterthur-Versicherung konnte durch den Einsatz dieser Methoden ihren Umsatz deutlicher ausweiten. Das Unternehmen führte im Jahr 2000 eine komplexe CRM-Infrastruktur ein, die Data Mining-Werkzeuge nutzt, eine zentrale Lösung für Werbekampagnen darstellt und Außendienstmitarbeiter über ein Intranet in den CRM-Prozess mit einbezieht. Durch das Data Warehousing und entsprechende AnalyseTools lässt sich das Kaufverhalten in bestimmten Altersgruppen, mögliche Abwanderungsgründe von Kunden oder Risikogruppen von Versicherten ermitteln. - Kennen Sie ihre 20 wichtigsten Kunden? Ob Kontaktmanagement, Kundenmanagement, Angebotserstellung, Absatzmess-zahlen, Telemarketing/Telesales, Interaktive Kundenzentren, eMarketing, eBusiness (B2C und B2B), e-Commerce-Interface, ContentManagement, Kunden-Selbstbedienung, Cross-Selling oder Außendienstunterstützung, CRM-Lösungen müssen eine Vielzahl von Aktivitäten integrieren. Diese müssen die Fähigkeit haben, vom ersten Kontakt zum Kunden, der Erfüllung der Kundenanfrage bis hin zum Kunden-Service sämtliche Informations-, Kommunikations-, Interaktionssowie Integrationsfunktionen, die mit dem Kunden zu tun haben, wahrzunehmen. Gelingt dies, kann ein kundenzentrierter Finanzdienstleister entstehen, welcher bestmöglich auf die sich durch kürzere Lebenszyklen immer schneller verändernden Kundenwünsche eingehen kann. Von besonderem Interesse für Banken und Versicherungen ist deshalb das so genannte Relationship-Marketing, das sich am Lebenszyklus einer Dienstleistung oder an bestimmten Ereignissen orientiert. Gemäß Forrester Research entsteht gerade ein neuer Kundentypus, der bessere Produkte zu geringeren Preisen, höheren Dienstleistungs-Service und unmittelbaren Zugriff zu Diensten zu jedem Zeitpunkt von jedem Ort aus fordert: der Cross-Channel-Customer. Loyale Bank-Kunden wählen ein Produkt oder eine Dienstleistung auch dann, wenn es eine kostengünstigere Alternative gibt. Der Grund hierfür liegt vor allem im Mehrwert, den der Kunde zu erwarten hat. Es geht für Finanzdienstleister deshalb vor allem darum, die 20 wichtigsten Kunden zu kennen und zu halten, da diese gemäß dem ParetoPrinzip, der so genannten 80:20 Regel, für etwa 80 % der Gewinne des Unternehmens verantwortlich sind. Die bestehenden Kunden eines Unternehmens sind mit anderen Worten immer die profitabelsten Kunden. Beim Retail Banking ist es sogar oftmals so, dass 10 % der Bankkunden für 90 % der Gewinne verantwortlich sind.
- 2.23 -
:. 2. Wissensmanagement
- Integration der Channels Das Internet ist gemäß einer Studie der Universität St. Gallen aus dem Jahr 2000 der am häufigsten eingesetzte Vertriebskanal für Banken, noch vor der Filiale. CRM-Systeme werden allerdings nur von etwa 60 % der Banken eingesetzt. Insbesondere das Multichannel-Management gewinnt heute für Finanzdienstleister immer mehr an Bedeutung. Doch die Integration von Channels erfolgt nicht einfach, indem man eine Software kauft und diese installiert. Um ein CRM wirklich effektiv einzusetzen, muss eine Organisation zuerst festlegen, welche Kundeninformationen es benötigt und wie diese verwendet werden sollen. Sämtliche Wege, wie Informationen über den Kunden in ein Unternehmen gelangen, wie diese gespeichert und wie diese weiterverarbeitet werden, sollten deshalb analysiert werden. Wichtige Daten die eine CRM-Projekt sammeln muss, sind Rückläufe von Werbekampagnen, Transaktions-Daten, Verkaufs- und Handelsdaten, Account-Informationen, Daten über die Webregistrierung, Dienstleistungsdaten, Online Brokerage, Webverkäufe etc. Hierbei müssen operationale Systeme wie die Bestandsverwaltung sowie Analysesysteme wie das Data Mining Hand in Hand arbeiten. Die Zeit, die für den Aufbau eines funktonierenden Multichannel-Systems benötigt wird, hängt von der Komplexität der Projekte und Aufgabenstellungen ab. In einer vom The Data Warehousing Insitute veröffentlichten Studie wird aufgezeigt, dass 50 % der CRM-Projekte weniger als 500.000 US-$ kosten, dass es jedoch auch CRMBudgets in Firmen von über 10 Millionen US-$ gibt. - Value Added Services Die große Vielfalt, die das Multi-Channelling mit sich bringt, und das Auftreten neuer Wettbewerber, führen zu einer sinkenden Kundenbindung und einer erhöhten Wechselbereitschaft bei den Kunden. Das Anbieten von Value Added Services ist deshalb ein wesentlicher Erfolgsfaktor, um das Abwandern von Kunden zu verhindern. Kundenorientierung, Kundenzufriedenheit und Kundenbindung haben heute für alle Banken eine herausragende Bedeutung, da sich das Geschäft von der Produktorientierung hin zur Kundenorientierung verlagert. Kunden erwarten von ihrer Bank allerdings einen klar formulierten Mehrwert, wodurch Bankdienstleistungen zunehmend den Charakter einer Commodity einnehmen. Als Handelsplatz für derartige Mehrwert-Commodities dienen vor allem Finanzportale. Das Finanzportal Moneyshelf.de der Deutschen Bank AG bietet als Mehrwert seinen Kunden umfassende Finanzplanung, die Verwaltung unterschiedlicher Bankkonten sowie den Vergleich und Kauf von Fonds, Aktien und verschiedenen Versicherungen an. Oberstes Ziel der Banken ist es heute, unzufriedene Kunden zu vermeiden, da ein einziger derartiger Kunde 7 bis 10 Leuten von seinen negativen Erfahrungen berichtet, was eine unangenehme Kettenreaktion für ein Unternehmen auslösen kann. Dies mussten leidvoll die Schweizer Banken UBS und Credit Suisse erfahren, als nach dem Grounding der Swissair-Flotte eine Vielzahl von Kunden ihre Konten bei den beiden Banken auflösten. CRM-Projekte erzeugen dann keinen Mehrwert, wenn es keine klare Zuordung von Aufgaben gibt, wenn die Kommunikation im Rahmen der Customer Relationship Wertkette nicht - 2.24 -
:. 2. Wissensmanagement
funktioniert und wenn die Infrastrukturen nicht auf Wachstum ausgelegt, d.h. skalierbar, sind. Erschwerend in der Umsetzung von CRM-Projekten ist auch, dass sie prozessorientiert sind und somit für die Realisierung von echtem Mehrwert einen größeren Zeithorizont in Anspruch nehmen. - Aufbau von Kommunikationszentren Banken benötigen nicht statische, sondern dynamische Informationen, um ein hohes Maß an Kunden-Service aufrechtzuerhalten. CRM ist keine „plug and play”-Anwendung, sondern erfordert eine Vielzahl von SoftwareAnpassungen. Banken besinnen sich wieder zunehmend darauf, dass es profitabler ist, bestehende Kunden zu halten, als rar werdende Neukunden zu gewinnen. Gemäß einer Studie von CSC Ploenzke erhöht allein eine fünfprozentige Verbesserung der Kundenbindung den so genannten „Lifetime Value“ eines Kunden zwischen 35 und 95 %. Finanzdienstleister, die bereits CRM-Projekte gestartet haben, stehen dem Thema Kundenorientierung weitaus optimistischer gegenüber als solche, die noch vor einer ersten CRM-Einführung stehen. Zukünftig müssen Banken ihre Vertriebs- und Kommunikationskanäle weiter vernetzen und zu Kommunikationszentren ausbauen, die Call Center, Internet und die herkömmlichen Schalterkontakte integrieren. Dabei darf die Kommunikation mit den Kunden nicht beim One-to-One Marketing stehen bleiben, sondern muss die Gestaltung aller Prozesse im Produkt- und Dienstleistungsgeschäft mit einbeziehen. So ermöglicht das Produkt „mySAP CRM“von SAP jedem Bankangestellten, schnell auf Kundenbedürfnisse zu reagieren und über eine Vielzahl von Kanälen Kundenbeziehungen zu pflegen. Insbesondere bei Unternehmen mit einer hohen Mutationsrate - wie bei Pensionskassen besteht heute ein noch ungenügend erkannter Bedarf an CRM-Lösungen, da Veränderungen im Kundenstamm dort meist noch von Hand bearbeitet werden. Im Vordergrund für die Pensionskassen stehen hierbei die Ziele größerer Transparenz für die Kunden sowie die Rationalisierung von Abläufen. - Kundenprofitabilität und Kostenverteilung Charles Schwab & Co. Inc. differenziert seine Kunden gemäß ihren Handelsaktivitäten und den getätigten Investments. Besonderen Schwerpunkt legt das Unternehmen auf eine Gruppe, die Schwab 500 genannt wird, die typischerweise mehr als 48 Transaktionen pro Jahr durchführen. Diesen Kunden steht ein Spezialistenteam zur Verfügung, und es wird ihnen eine personalisierte Webseite mit professionellen ScreeningMöglichkeiten für Aktien angeboten. Für die Canadian Imperial Bank of Commerce (CIBC) ist es ein entscheidender Wettbewerbsfaktor, die Profitabilität von Kunden zu analysieren, d.h. zu wissen, welche Kunden Wert erzeugen, welche Kunden Wert zerstören und warum das so ist. Wenn Kunden ihre profitabelsten Kunden identifiziert haben, dann sollten interaktive Beziehungen aufgebaut werden, um deren Bedürfnisse und Prioritäten herauszufinden. Entscheidend für die Kostenbewertung bei einem CRM-System ist, dass es wesentlich teurer ist, einen neuen Kunden zu - 2.25 -
:. 2. Wissensmanagement
gewinnen, als einen bestehenden Kunden zu halten. Noch teurer wird es, wenn ein verlorener Kunde zurückgewonnen werden soll. In einer typischen CRM-Implementierung sieht die Aufteilung der Gesamtkosten folgendermaßen aus: 28 % der Kosten fallen für den Kauf der Software an, ein Kostenanteil von 38 % ist für die Anpassung der Software, Training und Anwendungsintegrationen notwendig, Hardware macht etwa 23 % der Kosten aus und die restlichen 11 % beziehen sich auf Telekommunikationskosten. Bei erfolgreichen CRM-Projekten dürfte der Faktor Mensch etwa die Hälfte zum Erfolg beitragen, die Prozesse etwa ein Drittel und die Technologie etwa 15 bis 20 %. Sicherlich neigen viele CRMSoftware-Anbieter dazu, die Fähigkeiten ihrer Software im Rahmen des üblichen Hype einer neuen Technologie zu übertreiben. Trotzdem gibt es eine wachsende Anzahl von äußerst erfolgreichen CRM-Implementierungen. Die nachfolgenden Abbildungen zeigen den Trend von unverlinkten hin zu zentralisierten CRM-Systemen.
Abb.: Unverlinkte Marketing Kampagnen
Abb.: Customer Relationship Strategie durch ein zentralisiertes System
- 2.26 -
:. 2. Wissensmanagement
- Marktprognose und Wettbewerber CRM dürfte zukünftig zu einer der wichtigsten Komponenten der Unternehmensstrategie avancieren. Deregulierung, Diversifikation und Globalisierung haben den Wettbewerb zwischen den Unternehmen stark angeheizt. In einem derartigen Marktumfeld müssen die Kunden mehr als je zuvor umworben, analysiert und vor allen Dingen gehalten werden. Gemäß einer Studie von AMR Research ist der CRM-Markt von 4.4 Mrd. US-$ im Jahr 1999 auf 7 Mrd. US-$ im Jahr 2000 angestiegen. Laut Prognose von AMR wird das Marktvolumen bis zum Jahr 2003 auf 16 Mrd. US-$ ansteigen. Das jährliche Wachstum für CRM wird auf mehr als 40 % geschätzt. Zu den großen Wettbewerbern im Bereich des CRM gehören PeopleSoft, Oracle, Siebel Systems sowie SAP. Siebel Systems ist aktuell der führende Anbieter von CRM-Software, welche die Verkäufe und den Kundendienst von großen Unternehmen automatisiert. Da CRM sehr stark von Daten abhängt, ist es kein Wunder, dass auch Oracle ein Auge auf den lukrativen CRM-Markt geworfen hat. Aufstrebende Unternehmen in diesem Bereich sind Salesforce.com, SAS sowie Blue Martini. Aktuell besonders erfolgreich im Bereich des Anbietens von CRM-Funktionalitäten ist das Unternehmen Salesforce.com, das Sales Force Automatisierungslösungen (SFA) anbietet und im Jahr 2001 um nahezu 400 % wachsen wird. Das 1999 von Marc Benioff gegründete Unternehmen stellt gehostete Anwendungen zur Verfügung, die Kundeninformationen in den Bereichen Verkauf, Marketing und Kundenunterstützung liefert sowie das Tracking von Kundeninteraktionen erlaubt.
- 2.27 -
:. 2. Wissensmanagement
2.6 E-Learning: Interview mit Bobby Yazdani
Jeder spricht heute von Wissensmanagement, aber die wenigsten Firmen praktizieren es. Eine der Firmen, die sich in diesem Sektor neu positioniert hat und den konsequenten Weg hin zu objektorientierten, modularen Wissensbausteinen geht, ist Saba Software. Es zeichnet sich immer mehr ab, dass die intelligente Verknüpfung von Inhalten, das so genannte KontextManagement, zu einem Schlüsselfaktor für den Unternehmenserfolg avancieren wird. Dies bedeutet, dass neben den systemorientierten Geschäftsprozessen zukünftig vor allem das gemeinsame interfaceorientierte Lernen vernetzter Wissensarbeiter und deren Kunden im Mittelpunkt der Weiterentwicklung der Software stehen wird. Damit avancieren Faktoren wie die Umlaufgeschwindigkeit, die Interaktion, die Entlernungs- sowie die Innovationsrate von Wissen, zu den entscheidenden Katalysatoren für die Wachtums- und Überlebensfähigkeit von Unternehmen. Das Unternehmen Saba Software hat sich das Ziel gesetzt, im Mittelpunkt dieser Entwicklung zu stehen. Bobby Yazdani, CEO von Saba Software im Interview mit Artur P. Schmidt in Zürich, Schweiz Portrait: Bobby Yazdani Vor seiner Tätigkeit bei Saba Software war Bobby Yazdani, der aus dem Iran in die USA eingewandert ist, Direktor bei Oracle und dort für den Aufbau der kundenorientierten CNN/Oracle Internet-News-Seite zuständig. Zuvor hat er bei Oracle Entwicklungs- und Produkt-Management-Teams geleitet. Bobby Yazdani, der einen Universitätsabschluss der „University of California“ hat, bringt durch seine frühere Tätigkeit bei Oracle einen breiten Erfahrungsschatz für die Entwicklung großer Systeme, von Internet- und verteilten Anwendungen mit. Er ist die treibende Kraft hinter Saba's Visionen, Produkten und Marktstrategien. APS: Die US-Wirtschaft schwächt sich immer mehr ab und der Präsident der Vereinigten Staaten sieht sich wegen seiner ökologischen Ignoranz immer größerer Kritik ausgesetzt. Welches sind ihre politischen und ökonomischen Erwartungen für die nächsten 2 Jahre? Bobby Yazdani: Es gibt zwei Gebiete, auf die sich der Präsident in den nächsten 2 Jahren konzentrieren muss. Einerseits gilt es, die Bildungsinfrastrukturen sowohl auf Bundes- als auch auf Länderebene zu verbessern, andererseits sollten die USA auch eine Rolle als Katalysator übernehmen, um den Entwicklungsländern den Sprung auf ein neues Niveau zu ermöglichen. Es wird darüber hinaus sehr wichtig sein, dass Präsident Bush ökologische Fragestellungen sehr ernst nimmt.
- 2.28 -
:. 2. Wissensmanagement
APS: Im Vergleich mit einer Vielzahl anderer Internet-Firmen, haben die Aktien von Saba nicht so stark gelitten. Wie sind ihre Umsatzprognosen in Anbetracht der Schwächephase der US-Wirtschaft? Bobby Yazdani: Wir geben keine Prognosen über unseren Umsatz ab. Aber wenn es um die Chancen in den weltweiten Märkten geht, glauben wir, dass mit unseren Lerninfrastrukturen und unserem Ansatz erheblicher Mehrwert für Unternehmen geschaffen werden kann.Wir haben mit einer Vielzahl von Projekten für große Unternehmen oder Regierungen bewiesen, dass wir an vorderster Front der Entwicklung im Bereich des Wissensmanagements stehen. APS: Das so genannte „Mass Customization“ für Wissen wird ein wichtiger Trend des elektronischen Lernen sein. Welche Produkte sehen Sie voraus, um ein „Learning on Demand“ zu ermöglichen? Bobby Yazdani: Ich spreche lieber über Produktkategorien. Es gibt dermaßen viel Innovation in diesem Sektor, dass es zu früh ist, zu sagen, welche Produkte konkret gekauft werden. Ich sehe vier Bereiche voraus, die sich in den Lern-Märkten entwickeln: Der erste Bereich wird der der SoftwarePlattformen sein, die eine Vielzahl von Dienstleistungen und Inhalten wie Video-on-demand, Audio, selbständige Trainingskurse, Bücher oder CDs integrieren. Zu diesen Plattformen wird es komplementäre Technologien geben, die ein großes technologisches Wissen und Know-how im Bereich des Wissensmanagements erfordern: Adaptive Testing Technologien, Video-onDemand-Technologien sowie Technologien für das Zusammenarbeiten von Menschen. Der dritte wichtige Bereich wird der der Inhalte sein. Es wird eine Vielzahl von Verkäufern für bestimmte Inhaltspakete, maßgeschneiderten Content und beliebige Formen von Multimedia-Inhalten geben. Hinzu kommen auch noch Dienstleistungsanbieter für Change Management, System-Integration sowie die Implementierung von Lernprozessen. APS: Welche Bedeutung hat für Sie der aktuelle Trend hin zum Aufbau von Business Ökosystemen? Bobby Yazdani: Eine exzellente Frage. Ich denke, der Aufbau von Ökosystemen in der Wirtschaft ist sowohl ein neues wie auch ein altes Paradigma. Globale Geschäftsbeziehungen gibt es in Unternehmen schon seit langem. Heute sind es vor allem die Technologiefirmen, die außergewöhnliche Werte für Ihre Kunden schaffen müssen. Um dies in sehr kurzer Zeit zu erreichen, ist es notwendig, mit einer Vielzahl von Partnern zusammenzuarbeiten, um schnellstmöglich Lösungen zu erarbeiten, die den Kunden zufrieden stellen. Hierbei liefert ein Ökosystem zwei wichtige Vorteile: der erste ist „Time to market“ für eine Kundenlösung und der zweite sind der Aufbau von Beziehungen, die durch Medienkanäle verstärkt werden können. Beides zusammen liefert einen höheren Wert für alle Geschäftspartner.
- 2.29 -
:. 2. Wissensmanagement
APS: Welche Rolle werden Peer-to-Peer-Netze für das interaktive Lernen spielen? Bobby Yazdani: Wir arbeiten mit einer Vielzahl von Firmen im Rahmen von Peer-to-Peer Instant Messaging-Systemen zusammen. Diese können als ein Forum und ein Medium genutzt werden, um Wissen zu akkumulieren und Wissen zu transferieren. Stellen Sie sich eine Instant Messaging Umgebung vor, bei der zwei Personen interaktiv bezüglich einer konkreten Problemstellung zusammenarbeiten, wobei durch ein P2P-Netzwerk jeweils der neueste Wissenstand aufgenommen und an jeden neuen Netzwerkteilnehmer weitergegeben werden kann. Das neue Wissen kann dann sehr schnell gefunden werden. Peer-to-Peer hat deshalb das Potenzial, sehr schnell zur Hauptströmung für zukünftige E-Learning-Plattformen zu avancieren. APS: Einer der führenden Wissenschaftler Europas, Prof. Otto E. Rössler, der Begründer der Endophysik, schlägt ein weltweites Projekt mit dem Namen „Lampsacus“ vor. Es ist benannt nach dem Ort, an dem der berühmte griechische Philosoph Anaxagoras seine letzte Ruhestätte fand. Die Vision von „Lampsacus“ ist es, dass jeder Bürger des Planeten, die von ihm gewünschten Wissenshäppchen, kostenlos über das WorldWideWeb abrufen kann. Wäre ein solches Projekt der fraktalen objektorientierten Wissenstrukturen nicht auch für Saba Software interessant? Bobby Yazdani: Wir arbeiten sehr intensiv an derartigen Lernobjekten: an der Definition, was Lernobjekte sind, wie Lernobjekte generiert werden, wie Lernobjekte gefunden und wie diese weiterverarbeitet werden. Es gibt eine Vielzahl von Dimensionen, wie diese Objekte generiert, auseinander gebaut und wieder neu zusammengesetzt werden können. Lernsysteme können dieses Baustein-Prinzip Realität werden lassen. Und es wird eine Vielzahl von Anwendungen geben. Die Hauptgründe sind die Zunahme der Wiederverwendbarkeit und die Reproduktion von Wissen. Hierfür gilt es neue Handlungsweisen und Methoden zu entwickeln. APS: Wer sind ihre potenziellen zukünftigen Hauptwettbewerber? Bobby Yazdani: Wir sehen zwei Kategorien von Wettbewerbern. Eine Kategorie bilden die Anbieter von Inhalten, die auch Technologieplattformen liefern. Es gibt eine starke Störmung in diesen Bereich, die Kosten für bestimmte Inhalte oder Inhaltsbereiche zu senken. Darüber hinaus geht es darum, dass die Plattformen den Kunden vor einem Information Overflow schützen. Der Kunde entscheidet, welchen Inhalt und welche Formen an Inhalt er in die Plattform integriert haben möchte. Der zweite Bereich sind typische ERP-Verkäufer, die versprechen, „End-to-End“-Lösungen zu haben. Hier gibt es jedoch einen völlig neuen Attraktor. Es geht darum, die Geschäftsmodelle in die Plattformen zu integrieren, wenn man für den Kunden Werte schaffen will. Es ist eben nicht trivial, einige Leute in einen Raum zu bringen und eine Plattform aufzubauen. Wir haben alleine 120 Software-Entwickler, die Plattformen programmieren, warten und weiterdenken. Alle 500 Mitarbeiter sinnen täglich darüber nach, wie diese - 2.30 -
:. 2. Wissensmanagement
Plattformen verbessert werden können. Wir sind heute erst in den Anfängen einer großartigen Entwicklung, die zukünftig wesentlich größere Firmen erfordern wird, damit man den Herausforderungen, dieLern-Plattformen darstellen, gerecht werden kann. APS: Was sind somit Ihre Kernkompetenzen und der Wettbewerbsvorteil von Saba Software? Bobby Yazdani: Hier sind drei Gebiete zu nennen. Unser größter Vermögenswert sind sicherlich unsere Kundenbeziehungen. Wir lernen zusammen mit unseren Kunden. Damit können wir verstehen, welche Werte für den Kunden geschaffen werden müssen und wo die größten Herausforderungen liegen. Dies ist sicherlich unses größter Wettbewerbsvorteil. Das zweite Gebiet hat mit unserem intellektuellen Kapital zu tun. Wir haben Menschen mit einem tief gehenden Verständnis im Bereich des Wissensmanagements. Sie waren in der Lage, die Vorstellungskraft des Kunden und seine Problemstellungen in Lösungen umzusetzen. Wir erarbeiten heute nicht nur die Technologie, sondern auch die Methodologie, um Plattformen in Lernumgebungen zu integrieren. Der dritte Wettbewerbsvorteil hat mit unseren „Business Practices“ und dem Leitbild unseres Unternehmens zu tun. Wir sind ein Unternehmen, das sich sehr stark auf das Wissensmanagement spezialisiert hat. Wir wollen keinen Mehrwert liefern, der möglicherweise gar nicht existiert. Es geht uns darum, langfristige Werte für unsere Kunden zu schaffen. APS: Wie wichtig ist der europäische Markt für ihre Geschäftsstrategie? Bobby Yazdani: Es gibt eine Vielzahl von Anwendungen, die ursprünglich aus Europa kommen. Deshalb hat unsere Plattform, wie das Beispiel Norwegen zeigt, auch im europäischen Markt eine hohe Akzeptanz. Die Entstehung unserer Plattform verdanken wir auch Menschen, die ihre Ausbildung in Europa hatten. Wir haben eine Vielzahl von erfolgreichen Anwendungen im Bereich des Trainings und der Ausbildung von europäischen Firmen abgeschaut. APS: Sie haben kürzlich zwei neue Produkte lanciert. Können Sie uns mehr darüber sagen? Bobby Yazdani: Mit unserer ersten Produktlinie, einem Ansatz für das Lernen in großen Unternehmen, haben wir Saba im Markt positioniert. Sehr schnell haben uns unsere Kunden erzählt, dass Lernen zwar großartig ist, aber was sie wirklich benötigen, sei eine Software, die den Nutzen von Lernen bewertet. Zwar wurde Lernen als ein Prozess und ein Geschäftswerkzeug benutzt, aber es gibt einen starken Bedarf an der Messung der Wirksamkeit des Lernens. So haben wir Leistungsmesssysteme als eine zweite Produktlinie eingeführt. Heute haben wir Leistungsmess- und Lernsysteme als integrierte Lösungen für die Strategieumsetzung unserer Kunden. Das dritte Gebiet, auf dem wir arbeiten, sind Inhalte und das - 2.31 -
:. 2. Wissensmanagement
Management dieser Inhalte. Wir wollen unseren Kunden einen systematischen Ansatz für die Gewinnung und die Weiterverarbeitung von Wissen in Form von Lernobjekten zur Verfügung stellen. Damit können die Kosten für die Generierung von Inhalten gesenkt und die Wiederverwertbarkeit und die Verteilung von Inhalten verbessert werden. Dieses Problem müssen wir als Nächstes lösen. APS: Die Finanzmärkte sind aktuell in der Krise. Brauchen wir einen neuen „New Deal“ für die so genannte „Neue Wirtschaft“, einen „Deal“ für soziale Innovationen in den ärmsten Ländern? Bobby Yazdani: Ich möchte den Aktienmarkt nicht kommentieren, da ich kein Finanzexperte bin. Ich bin Unternehmer und als solcher weiß ich, dass ein junges Unternehmen Kapital benötigt. Es ist notwendig, um ein Geschäft aufzubauen. Als Unternehmer benötigt man das günstigste Kapital, das verfügbar ist. Wir hatten die Möglichkeit, an die Börse zu gehen, und haben diese Chance genutzt. Wir konnten genug Kapital beschaffen, um unsere Vision Realität werden zu lassen, und konnten ein Unternehmen begründen, welches Mehrwert für unsere Kunden schafft und das uns ermöglicht, Gewinne zu erzielen. Bezüglich der Internet-Wirtschaft muss man berücksichtigen, dass jede neue Technologie stets eine große Begeisterung auslöst. Aber die Wirklichkeit hat oftmals nichts mit Begeisterung zu tun. Es gilt sich der Grundlagen jeglichen unternehmerischen Handeln zu besinnen. Die Technologie wird die Menschen weiter begeistern. Die Innovationsrate wird weiter hoch bleiben, auch wenn vielleicht das Kapital nicht mehr so üppig zur Verfügung steht wie bisher. Es war notwendig, die InternetÖkonomie zu disziplinieren. Ich wage die Vorhersage, dass sie viel stärker als bisher aus der Krise hervorgehen wird. Derartige Test sind notwendig, um neue Geschäftsmodelle Wirklichkeit werden zu lassen und neue Innovationen hervorzubringen. Bezüglich der Entwicklungsländer lässt sich sagen, dass kein Dissens darüber besteht, dass das Internet die Kostenstrukturen dieser Länder verändern und die Eintrittsbarrieren dieser Länder in die Hightech-Märkte senken wird. Die entscheidende Frage ist, wie die neuen Technologien zusammenwirken, um für die Entwicklungsländer neue Chancen und Vorteile zu generieren. Dies ist ein Gebiet, auf dem Medienexperten wie Sie Entscheidungsträger in der Wirtschaft und der Politik beeinflussen müssen, um wirklichen Mehrwert für die Entwicklungsländer zu schaffen. APS: Sie kommen von Oracle und waren sehr lange Zeit im Datenbankgeschäft. Was war Ihre größte Enttäuschung und der bisher größte Erfolg in Ihrer Karriere? Bobby Yazdani: Ich habe Oracle verlassen, weil ich nicht mehr daran glaube, dass Information Management einen Wettbewerbsvorteil liefert. Ich bin mit den Datenbanken aufgewachsen und glaube, dass diese uns nurmehr ein Zerrbild der Wirklichkeit liefern. Jeder hat heute Zugang zu derselben Art von Information, derselben Art und Weise, zusätzliche Informationen zu gewinnen. Deshalb kommt es darauf an, eine Differenz zu schaffen, und diese Differenz liegt in den Feldern der Entwicklung des menschlichen - 2.32 -
:. 2. Wissensmanagement
Kapitals und des Wissensmanagements. Die Zukunft liegt nicht im Informationsmanagement. Nicht in der alt hergebrachten Personalentwicklung, sondern bei Ökosystemen in Form von Wissensnetzwerken. Es reicht nicht aus, die richtigen Leute im Unternehmen zu haben, sondern es geht vor allem um die richtigen Leute im Ökosystem, den Lieferketten und den Nachfrageketten, wenn die Produktivität hoch sein soll. Information Management ist tot. Die Zukunft ist die Entwicklung der Menschen bezüglich der an sie gestellten Aufgaben. Die Überlebenden der heutigen Marktturbulenzen werden die Firmen sein, die schneller und wirksamer als bisher mit dem Wissen der Mitarbeiter und Kunden umgehen können. APS: Welche privaten Hobbys haben Sie? Bobby Yazdani: Das ist eine raffinierte Frage. Ich habe eine Vielzahl intellektueller Hobbys. So beobachte, lese und lerne ich gerne. Und jenseits dieser Aktivitäten möchte ich so viel Zeit wie möglich mit meiner Familie verbringen.
- 2.33 -
:. 3. Netzwerke
:. 3. Netzwerke 3.1 Chief Communication Officer (CCO): Neue Schlüsselrolle im Management
- Fraktale Kommunikationsräume Das Medium Internet hat die Kommunikationsmöglichkeiten von Organisationen in den letzten Jahren revolutioniert. Kein Geringerer als Stafford Beer, der Begründer der kybernetischen Managementlehre, hat in seinen Arbeiten das Entstehen eines auf Rückkopplungsschleifen basierenden Netzwerks vorweggenommen, wie es sich heute im WorldWideWeb offenbart. Wir befinden uns heute in vollständiger Abhängigkeit von vernetzten Systemen, auch wenn wir dies oftmals nur dann merken, wenn wir wieder Opfer einer Virenattacke werden. Die Grundlagen für die Kommunikation liefern heute die Faktoren Konnektivität, Interaktivität, Mobilität, Geschwindigkeit und Codierung. Diese basieren auf fünf Gesetzmäßigkeiten, die als Moore’s Law, Gilder’s Law, Metcalfe’s Law, Coase’s Law und Ashby’s Law bekannt sind. Moore’s Law beschreibt das Phänomen, dass sich alle 18 Monate die Preise für Computerchips halbieren, während sich die Leistungsfähigkeit verdoppelt. Gilder’s Law besagt, dass die Bandbreite für Datenübertragungen sich jedes Jahr verdreifacht. Metcalfe’s Law drückt aus, dass der Nutzen eines Netzes mit dem Quadrat der User steigt, d.h., nur wer ein bestimmtes Maß an Vernetzung erreicht, kann dieses für Wettbewerbsvorteile ausnutzen. Das für die Existenz von Firmen wichtigste Gesetz ist das von Coase: Firmen sind nur dann lebensfähig, wenn ihre Transaktionskosten geringer sind als die in den Märkten. Und last but not least, Ashby's Law, das besagt, dass man ein System nur mit einem System unter Kontrolle bringen kann, dessen Komplexität mindestens ebenso groß ist wie die des zu steuernden Systems.
SchlüsselFaktor
Konnektivität
Interaktivität
Mobilität
Geschwindigkeit
Codierung
Gesetzmässigkeit Moore’s Law
Gilder’s Law
Metcalfe’s Law
Coase's Law
Ashby’s Law
Regelgrösse
Rechenleistung
Bandbreite
Netznutzen
Transaktionskosten
Varietät
Steuerung
Kommunikatonsfluss
Wissensumlauf
Telearbeit
Kostenstruktur
Immunisierung
Tab. 1: Schlüsselfaktoren der Unternehmenskommunikation
- 3.1 -
:. 3. Netzwerke
- Neue Rolle in Unternehmen Management hat die Aufgabe, die Differenz zwischen den Zielen des Unternehmens und denen der Kunden beizulegen. Dies muss jedoch so erfolgen, dass eine Vielfalt an Problemlösungsalternativen diskutiert und aus diesen die Lösungen mit den größten Hebeln herausgefiltert werden. Die Einführung eines Chief Communication Officers als Varietätsmanager ist für Unternehmen ab einer Größenordnung von 50 bis 100 Mitarbeitern in der heutigen Medienlandschaft ein Muss. Er muss die Voraussetzungen dafür schaffen, dass ein wirksamer Wissensaustausch innerhalb von Unternehmen und zwischen dem Unternehmen und seiner Umwelt erfolgt. Nur durch eine hohe Umlaufgeschwindigkeit des Wissens, lässt sich ein hohes Innovationstempo in Unternehmen aufrechterhalten. Als Mitglied des TopManagement ist der CCO aber auch Katalysator zur Erarbeitung der Unternehmensstrategie in einer durch Konvergenz von Bild, Film, Schrift und Sprache geprägten Medienlandschaft. Der CCO muss dafür sorgen, dass der Multichannel-Mix derart aufgebaut ist, dass die Kommunikation sowohl intern als auch extern mit höchster Wirksamkeit bei geringstem Aufwand durchgeführt werden kann. CCOs müssen deshalb nach dem Pareto-Prinzip arbeiten: mit 20 % Aufwand 80 % der möglichen Resultate erreichen. - Kommunikation legt den Code des Unternehmens fest Die heutige Gesellschaft ist eine Gesellschaft der Codes. Deshalb gilt es für Unternehmen aller Größenordnungen Codierungen zu schaffen, die einerseits ein gesundes Wachstum und andererseits eine günstige Kostenstruktur ermöglichen. Eine richtig gewählte Organisationsstruktur repräsentiert den entscheidenden Code, um ein Unternehmen kundenorientiert zu führen. Erreicht das Unternehmen allerdings eine bestimmte kritische Masse, muss dieser Code jeweils neu überdacht werden. Dem Chief Communication Officer kommt hierbei keine geringere Aufgabe zu, als die verborgenen Kommunikationsmuster im Unternehmen zu analysieren, um so mögliche Pathologien und Reibungsverluste in der Organisation frühzeitig zu erkennen. Hierbei sind dem CCO zukünftig Aufgaben zu übertragen, die zuvor bei IT-Leitern angesiedelt waren, wie z.B. das Data Mining oder das Network Performance Monitoring. Die klassischen Ziele der Public Relations, nämlich Verständnis, Vertrauen und Goodwill in der Öffentlichkeit zu erzeugen, sind heute im Rahmen der Kommunikation längst nicht mehr ausreichend. Das Internet hat einen Wettbewerb um Aufmerksamkeit eingeläutet. Diese kann jedoch nur dadurch erzielt werden, wenn es gelingt, Differenzen zu den Wettbewerbern zu erzeugen. Nicht das Kopieren von Codierungen ist für den mobilen und telearbeitenden CCO heute die Lösung, sondern die Analyse des eigenen Verhaltens und die Suche nach einem anderen individuellen Erfolgscode.
- 3.2 -
:. 3. Netzwerke
- Immunologie für das Unternehmen Eine weitere Kernaufgabe für den CCO besteht darin, das Unternehmen immun gegenüber Angriffen von außen und von innen zu machen. Der Kommunikationsmanager der Zukunft ist zusammen mit dem Chief Information Officer (CIO) und dem Chief Financial Officer (CFO) auch für das Risk-Management des Unternehmens verantwortlich. Die Immunisierungsstrategien müssen so gewählt werden, dass die Organisation bei Fehlern von innen oder Angriffen von außen derart reagieren kann, dass kein Schaden für das Unternehmen entsteht. Deshalb müssen Firmen aller Größen heute ein Immunsystem analog zum menschlichen Körper besitzen. Information wird durch sich selbst organisierende Rückkopplungszyklen mittels Replikation und Selektion hervorgebracht, deren Ziel das Überleben des betreffenden Organismus ist. Jede Organisation benötigt deshalb ein funktionstüchtiges Abwehrystem, um das eigene Überleben zu sichern und nicht durch aufkommenden Probleme zu Grunde gehen. Es ist die Aufgabe des CCO, die Kommunikation im Inneren und nach außen so zu optimieren, dass eine maximale Problemlösungsfähigkeit des Unternehmens gewährleistet ist. Wenn ein Unternehmen durch exzellente Innenkommunikation eine hohe Vielfalt an möglichen Problemlösungen generieren kann, ist es in der Lage, sein Überleben auch in schwierigen oder lebensbedrohlichen Situationen sicherzustellen. Je mehr Mitarbeiter sich an der Lösung von Problemen beteiligen, desto größer ist die Chance, dass alle wesentlichen Probleme entdeckt werden. Zusätzlich benötigt ein Unternehmen eine exzellente Außenkommunikation, damit die Vielfalt der möglichen Optionen durch einen optimalen Informationsstand genutzt und die Electronic Relations mit möglichst großem Leverage umgesetzt werden können. - Schlüsselaufgabe des CCO: Aufbau von Business-Ökosystemen Zwei Möglichkeiten, die Komplexitätszunahme zu bewältigen, sind der Aufbau von Ökosystemen sowie die Entwicklung hin zu offenen Wissensplattformen im Rahmen von Peer to Peer-Netzwerken, die einen serverlosen Datenaustausch ermöglichen. Beide Optionen zeichnen sich dadurch aus, dass diese die Kommunikationsfähigkeit eines Unternehmens deutlich verbessern. Während Peer-to-Peer-Systeme vor allem die Parallelität der Kommunikation erhöhen, erlauben Business-Ökosysteme eine deutliche Reduzierung der Transaktionskosten. Insbesondere das Management von Hightech-Unternehmen, das auf eine hohe Kommunikation angewiesen ist, muss sich an der Vernetzungsdichte, an der Rückkopplung und an der Parallelität orientieren, um eine Organisation auf Erfolg zu trimmen. Gelingt es dem CCO, Wissensmitarbeiter und Kunden derart miteinander zu vernetzen, dass der Nutzen für alle Teilnehmer maximiert wird, so entstehen klassische Win-Win-Situtionen. Der zunehmende Druck zu Partnerschaften und Allianzen zwingt Unternehmen deshalb zum Aufbau von Ökosystemen, die auch eine neue Formen des Collaborative Working hervorbringen werden.
- 3.3 -
:. 3. Netzwerke
- Fazit In einem Umfeld des permanenten Wandels und von ökonomischen Krisen gilt es heute mehr denn je, Unsicherheiten in den Griff zu bekommen. Dem CCO kommt in einem derartigen Umfeld keine geringere Aufgabe zu, als mögliche Zukünfte zu antipizieren und diese durch Interaktion zu einem neuen Gesamtbild im Unternehmen hinzuzufügen. Somit avanciert er zunehmend auch zum führenden Strategen des Unternehmens. Der CCO ist jedoch auch Dreh- und Angelpunkt für den Aufbau eines wirksamen Knowledge-Managements und einer lernfähigen Organisation. Zusammenfassend darf man prognostizieren, dass Kommunikation zur wichtigsten Leadership-Fähigkeit im 21. Jahrhundert avancieren wird. In den USA spricht man zwar auch schon von Chief Sourcing Officern (CSO) und Chief Knowledge Officern, die derartige Aufgaben erfüllen sollen, allerdings greifen diese Positionen zu kurz, da eine derartige Katalysatorfunktion nur erreicht werden kann, wenn diese über die Kommunikation gesteuert wird. Der CCO wird deshalb zukünftig nicht nur im Vorstand einen Platz finden, sondern die zunehmende Bedeutung der Position wird insbesondere bei Medien- und Telekommunikationsunternehmen dazu führen, dass der CCO auch der geeignete Kandidat für den Vorstandsvorsitz eines Unternehmens ist. Unternehmen aller Größenordnungen und Branchen täten deshalb gut daran, mit bisherigen Tabus zu brechen und die neue Schlüsselposition des CCO in Unternehmen frühzeitig zu etablieren, um sich von ihren Wettbewerbern zu differenzieren.
- 3.4 -
:. 3. Netzwerke
3.2 Netzwerk-Kybernetik: Märkte sind Gespräche
- Kybernetisches Verständnis Da sich Content innerhalb von Netzwerken bewegt, ist es von fundamentaler Bedeutung, die Wechselwirkungen innerhalb von Netzwerken zu kennen. In diesen geht es längst nicht mehr darum, den „Return on Investment“ zu ermitteln, sondern die Herausforderung besteht darin, den „Return on Knowledge“ zu optimieren. Dies setzt jedoch ein tief greifendes Verständnis der Kybernetik komplexer Netzwerke voraus. Gerade in wirtschaftlichen Abschwächungsphasen besteht die Chance, relative Marktanteile hinzuzugewinnen. Dabei kommt es jedoch darauf an, diejenigen Katalysatoren herauszufinden, die in Netzwerken die größten Wirkungen entfalten können. Ein Manager muss genau wissen, an welchen Punkten er intervenieren muss, um das Wissen der Mitarbeiter am besten einsetzen zu können. Digitales Vermögen ist nur dann wertvoll, wenn man weiß, an welchen Netzwerkknoten es sitzt, wenn man weiß, wie diese Knoten gefunden werden können, und wenn man weiß, für welche Knotenpunkte es ebenfalls interessant sein könnte. Dies setzt jedoch Analysen des Kommunikationsverhaltens voraus. Nur wer das Kommunikationspotenzial seines Unternehmens kennt, ist in der Lage, die Wissensströme zu optimieren. - Content, Communities und Collaborative Working Dass Netzwerke eine hohe Umsatzrate von Informationen erreichen können, zeigt sich insbesondere bei so genannten Gemeinschaften im Internet, den Communities, die ein neues Zeitalter des Collaborative Working eingeleitet haben. Als eBay im Jahr 1995 eine Consumer-to-Consumer-Community startete, waren die Risiken hoch. Trotzdem gewann die Entwicklung von Online-Communities immer mehr an Dynamik. Die Vernetzung von Menschen mit gleichen Interessen oder Einkaufsgewohnheiten schuf einen breiten kommunikativen Raum für unterschiedlichste Teilnehmer. 1999 wurde im Internet-Bestseller „The ClueTrain Manifesto” (http://www.cluetrain.com) gefordert, die Dialogorientierung in den Mittelpunkt der Unternehmensstrategie zu setzen: „Märkte sind Gespräche“ und „Märkte bestehen aus Menschen“. Je intensiver und paralleler Mitarbeiter und Kunden in Dialog treten, desto einfacher ist es, die Umlaufgeschwindigkeit des Wissens in Unternehmen oder Netzwerken zu erhöhen und desto schneller können neue Inhalte upgedated werden. Der weitere Nutzen für ein Unternehmen ist, dass es im Rahmen eines WebTrackings ein exzellentes Marketing- und Sales-Tool gewinnt, um Kundenbedürfnisse besser zu bewerten und die Strategien darauf auszurichten. Der Aufbau von Communities wie bei eBay sowie von Technologien wie dem Collaborative Filtering bei Amazon.com haben den Weg für interaktive und personalisierte Content-Systeme bereitet, die wegen des Komplexitätsanstieges zunehmend als integrierte Plattformen angeboten werden. Die neue Form des Collaborative Working in dem von Computern
- 3.5 -
:. 3. Netzwerke
aufgespannten Cyberspace, einer Matrix aus interagierenden Menschen und Maschinen, habe ich mit dem Begriff des Endo-Management beschrieben. - Endo-Management Mittlerweile hat die Internet-Gemeinde einer Studie von Nielsen NetRatings zufolge etwa 300 Millionen Teilnehmer. Spitzenreiter sind hierbei die USA mit 136,9 Millionen Usern, gefolgt von Japan mit 26,3 Millionen Usern. In Europa liegt nach wie vor Großbritannien (19,4 Millionen User) vor Deutschland (14,8 Millionen User). Mit dem World Wide Web sind heute die technologischen Voraussetzungen gegeben, das Management von Organisationen nach systemischen und kybernetischen Prinzipien auszurichten und somit immer komplexere Netzwerke lenken zu können. Die notwendigen Methoden und Handlungsweisen für die Lenkung von Netzwerken können unter dem Begriff Endo-Management subsummiert werden. Zwei Firmen, die Endo-Management seit Jahren praktizieren, sind die Netzwerk-Unternehmen AOL und Cisco. Diese Firmen lenken nicht durch Kontrolle, sondern durch Selbstorganisation, nichtlineare Dynamiken und fraktale Strukturen. Die auf uns zukommende Synthese der Bereiche Informatik und Biotechnologie machen kybernetischen Forschungsarbeiten über die Wirksamkeit von Netzwerkstrukturen heute zu einem Muss für jeden Manager. Wer die heutigen Transformationsprozesse verstehen will, muss sich in erster Linie mit komplexen Netzwerken auseinander setzen. Die Computertechnologie hat Netzwerke in den letzten Jahren zum wichtigsten Steuerungsinstrument einer kybernetisch orientierten Gesellschaft werden lassen. Netzwerke verändern das menschliche Zusammenleben grundlegend. - Integrationslösungen gehört die Zukunft Das Gebiet des Endo-Management, der netzwerkbasierten Lenkung der digitalen Assets eines Unternehmens, gehört heute zur zentralen Aufgabe der strategischen Unternehmensführung. Endo-Management umfasst heute so wichtige Bereiche wie Intranets, Extranets, Communities, Portale sowie wirksame Kommunikations- und Organisationsstrukturen. Unternehmen verteilen ihre Contents auf eine Vielzahl von Kanälen, die netzwerkartig miteinander verküpft sind. Hierbei reichen die Angebote an Netzwerken von Informations- (elektronischen Katalogen), Kommunikations- (Intranets), Transaktions- (E-Commerce) bis hin zu Integrations-Plattformen (Content Management Systems oder Digital Asset Management). Ein optimiertes Netzwerk ermöglicht nicht nur einen wirksameren Informationsfluss im gesamten Unternehmen und eine schnellere Wissenszunahme bei allen Mitarbeitern, sondern vor allem auch eine Senkung der Transaktionskosten (auch Mühsalskosten genannt) sowie die Erhöhung der Reaktions- und Anpassungsgeschwindigkeit eines Unternehmens innerhalb eines Marktes. Voraussetzung hierfür sind automatisierte Arbeitsabläufe, die Integration zu Backoffice-Systemen und ein teamorientiertes Vorgehen bei der Lenkung von Content. Die digitale Content-Verteilung (Digital Content Distribution) über integrierte Netzwerke dürfte in den nächsten Jahren mit einer Rate von - 3.6 -
:. 3. Netzwerke
über 30 % wachsen. Gemäß einer Studie der Giga Information Group (http://www.gigaweb.com) werden Firmen, die ihr Unternehmen verstärkt in Netzwerken abbilden, in erheblichem Umfang Kosten einsparen können (weltweit etwa 1,25 Billionen US-$). - Komplexitätsanstieg meistern Zu den bedeutendsten Entwicklungen des 20. Jahrhunderts gehört sicherlich die Kybernetisierung unserer Gesellschaft durch die Computer und deren Vernetzung. Der Aufbau von komplexen Netzwerken, die Leistungssteigerung der Prozessoren sowie Integration nützlicher Software in den 90er-Jahren, eine Entwicklung, die von Firmen wie Cisco, Intel und Microsoft getragen wurde, hat dazu geführt, dass wir uns in vollständiger Abhängigkeit von vernetzten Systemen befinden, auch wenn wir dies oftmals nur dann merken, wenn wieder ein Wurm wie „Code Red“ über die Rechner herfällt. Es darf deshalb heute niemanden verwundern, dass die 1948 von Norbert Wiener begründete Kybernetik heute für die Lenkung von Unternehmen und komplexen Netzwerken zu den wichtigsten Disziplinen gehört.. Da aus Netzwerken durch Ver- und Entschaltung neue Netzwerke entstehen können, brauchen wir heute Erklärungsansätze, die Phänomene wie das Internet, Intranets oder Extranets beschreiben können. Einer der Ersten, der erkannte, dass sich aus Netzwerken neue Netzwerke bilden würden, war der Netz-Pionier J. C. R. Licklider. Die Bildung ständig neuer und komplexerer Netzwerke ist heute für Unternehmen ein notwendiger Prozess, um sich den Entwicklungen innerhalb des World Wide Web anzupassen. Da dessen Komplexität ständig steigt, entwickeln sich auch im Rahmen von Unternehmen noch komplexe Netzwerke.
- Feedback in Netzwerken Eines der wesentlichen Merkmale von Netzwerken ist das so genannte Feedback, welches vor allem von Walter Cannon und W. Ross Ashby untersucht wurde. Durch Rückkopplungen ist es Systemen möglich, eine große Varietät zu bewältigen. Es gibt zwei Arten von Feedback: geschlossene und offene Kreisläufe. Während es sich bei Monopolen um so genannte „Closed Shops“ handelt, sind die gerade entstehenden Business Netzwerke wie z.B. die Linux Open Source-Community offen. Die Eigenschaft von Systemen, sich rückzukoppeln, verleiht ihnen entweder die Möglichkeit des Wachstums (positives Feedback) oder der Schrumpfung (negatives Feedback). Unternehmen sind sogar in der Lage, durch positive Rückkopplungen exponenziell zu wachsen, werden jedoch hin und wieder durch negative Rückkopplungen zur Konsolidierung gezwungen. Bekanntestes Beispiel für eine negative Rückkopplung nach einem ausufernden Wachstum war im Jahr 2000 der Nasdaq-Crash. Der „Perfect Storm“ an den Finanzmärkten ist ein Paradebeispiel dafür, was passieren kann, wenn Entscheidungsträger wie Alan Greenspan an den falschen Schrauben drehen.
- 3.7 -
:. 3. Netzwerke
- Bubble-Economy Der Wirtschafts-Bubble in den USA basiert auf vier Übertreibungen, die in komplexer Weise miteinander vernetzt sind: 1. dem Aktienmarkt in Bezug zu den erzielten Gewinnen und Umsätzen, 2. der Verschuldung in Bezug zum Bruttosozialprodukt, 3. der Geldversorgung in Bezug zum BSP und den Zinsraten sowie 4. dem Dollarkurs in Bezug zum Wachstum der Volkswirtschaft und des Zinsniveaus. Da bereits jede Bubble für sich gefährlich sein kann, stellt sich natürlich zu Recht die Frage, welche Instabilitäten die Wechselwirkung dieser Übertreibungen möglicherweise hervorbringen kann. Das Problem ist nicht, dass es Aufschaukelungen in Systemen gibt, sondern dass diese nicht systematisch vorhergesagt werden. Auf was es ankommt, ist, die Wechselwirkungen unterschiedlicher ökonomischer Faktoren wie des Handelsbilanzdefizits, geringer Sparquoten, des Day-Trading, des Medien-Hypes, der Geldmenge, der Konsumentenkredite etc. besser erkennen zu können.
Quelle: http://www.cornerstoneri.com/bubble_flowchart.htm
Insbesondere der Geldmengen-Bubble, der auf Grund des Risikos des Y2KCrashes verursacht wurde, zeigt, dass einseitige Massnahmen ohne deren Wirkungen zu kennen, zu völlig kontraproduktiven Entwicklungen führen können. Die Folge des massiven Anstieges der Versorgung mit Geld war ein Überschießen der amerikanischen Wirtschaft, die im letzten Quartal 1999 mit über 8 % viel zu stark wuchs. Dies führte nicht nur zu erheblichen Überkapazitäten, sondern auch zu einer ausufernden Konsumfreudigkeit, die die Sparquote der Amerikaner negativ werden ließ. Dass diese Rechnung nicht aufgehen konnte, bewies der starke Kursverfall der Nasdaq im Jahr 2000, der sich auch im Jahr 2001 fortsetzte. Wer jetzt glaubt, dass einfache Zinssenkungen das Problem aus der Welt schaffen könnten, der irrt. Ein - 3.8 -
:. 3. Netzwerke
derart vernetztes System lässt sich nicht allein durch das Drehen an der Zinsschraube wieder unter Kontrolle bringen, da Alan Greenspan längst die Kontrolle über die amerikanische Volkswirtschaft verloren hat. Ein kybernetisches System erfordert eine Analyse der Rückkopplungen. Wie eine solche kybernetische Methode aussehen kann und warum diese für das Verständnis komplexer Systeme unbedingt notwendig ist, soll die nachfolgende Netzwerkanalyse zeigen. - Vergleich von Netzwerktypen Es war Buckminster Fuller, der uns mit der Tatsache konfrontierte, dass der Schlüssel für die Festigkeit von Strukturen in den Netzwerkknoten liegt. Zeigen einzelne Netzwerkknoten Schwächen wie z.B. aktuell in der amerikanischen Wirtschaft, so brechen bisherige Strukturen zusammen und es bilden sich neue Zukunftsoptionen heraus. Untersucht man die Strukturen, so lassen sich vier Grundtypen von Netzwerken unterscheiden: das Rad, die Kette, der Kreis und die Vollstruktur. In Netzwerken treten durch Mehrfachschleifen so genannte versteckte Rückkopplungseffekte auf, die zu einer erheblichen Verstärkungen von Inputs führen können. In nichtlinearen Netzwerken wird die größte Wirkung nicht durch die direkte Verbindung zweier Knoten erreicht, die bei Organisationen Menschen und bei Maschinen Prozessoren sein können, sondern durch mehrfache Rückkopplungsschleifen, die die Wirkungen verstärken können. Überwiegen die positiven Rückkopplungen kann ein Interface einen Phasenübergang zu neuen Strukturen und Mustern vollziehen. Die Flüsse in einem Netzwerk von Knoten und Verbindungen können in Analogie zu Produktionsstätten und Transportrouten von Gütern in Unternehmen betrachtet werden. Teamstrukturen im Management sind nichts anderes als verteilte Netzwerke, die mit anderen Teams durch Teamleiter in Verbindung treten, um die Zielvorgaben des Managements zu erreichen. Die entscheidende Frage ist hierbei, welche Arten von Netzwerken eine besonders hohe Wirksamkeit haben. - Analyse des Kommunikationspotenzials Das Kommunikationspotenzial ist von entscheidender Bedeutung für Unternehmen, da es direkte Auswirkungen auf die Umlaufgeschwindigkeit des Wissens in Organisationen hat und somit maßgeblich den „Return on Knowledge“ beeinflusst. Gelingt es, das Kommunikationspotenzial eines Unternehmens zu ermitteln, so lassen sich die digitalen Assets eines Unternehmens zielgerichteter einsetzen und optimieren. Für eine Volkswirtschaft als Ganzes bedeutet die Kenntnis über die Kommunikationsströme herauszufinden, wo möglicherweise Flaschenhälse oder Fehlentwicklungen entstehen. Die Ermittlung des Kommunikationspotenzials ist somit ein Frühwarnsystem, um Unternehmen in adaptiver Weise an neue Entwicklungen anpassen zu können. Durch Simulation mit dem System lassen sich darüber hinaus, spielerisch bisherige Optionen testen oder neue Optionen erproben. Bekannte Strukturformen wie Hierarchien, Matrixorganisationen oder das Beer’sche Modell, lassen sich - 3.9 -
:. 3. Netzwerke
fraktalen Strukturen oder Hyperstrukturen gegenüberstellen. Ziel ist es herauszufinden, welche Strukturen in der Lage sind, eine hohe Komplexität zu lenken. Während für eine einfache Problemstellung, eine Hierachie durchaus die beste Lösung liefern kann, wird für ein äußert komplexes Problem nur ein komplexes Netzwerk ein sinnvolle Lösung liefern können. Deshalb ist es wichtig zu wissen, welches Strukturen ein besonders hohes Potenzial für die Lösung von Problemen haben. In Abhängigkeit von der Konnektivität, d.h. der strukturellen Vernetzung, können Netzwerke einfaches, komplexes oder zufälliges Verhalten offenbaren. Sowohl bei einer zu geringen als auch bei einer zu hohen Vernetzung sind Netzwerke oftmals nicht in der Lage eine optimale Problemlösung zu erreichen. Organisationen produzieren eine größere Vielfalt im Verhalten, wenn die informelle Kopplung zwischen den Mitarbeitern nicht zu klein, aber auch nicht zu groß ist und zufällige Kopplungen entstehen können. Die Berechnung des Kommunikationspotenzials erfolgt deshalb in Abhängigkeit von der Vernetzungsdichte, der Rückkopplung sowie der Parallelität einer Organisation. Die Parallelität beschreibt hierbei, wie dezentral Aufgaben verteilt werden können: Kommunikationspotenzial (in %)
=
Funktion (Vernetzungsdichte, Feedback, Parallelität)
- Vorgehensweise Um eine Vergleichbarkeit zwischen unterschiedlichen Strukturen zu ermöglichen, wurde die Zahl der Knotenpunkte auf 16 begrenzt. Der Vernetzungsfaktor zeigt auf, zwischen welchen Knotenpunkten Relationen bestehen (Anzahl der direkten Vernetzungen). Dabei wurde eine logistische Wachstumskurve überlagert, sodass bei maximaler Vernetzung eine Informationsüberlastung eintritt. Der Parallelitäts-Faktor zeigt eine Relation zwischen 50 % der höchsten Rückkopplungswerte mit 50 % der kleinsten. Anschließend wurden die Faktoren normiert. Der Feedback-Faktor wurde durch die Übertragung der Strukturdaten in eine Matrix und die Anwendung der MICMAC-Methode von Godet errechnet. Die MICMAC-Methode errechnet die Rückkopplungsschleifen von komplexen Strukturen durch fortgesetzte Matrizenmultiplikation (normalerweise bis zur 7. Potenz) und offenbart die versteckten Muster des Kommunikationsnetzwerkes. Das Kommunikations-potenzial eines Netzwerkes wird anschließend durch multiplikative Verknüpfung der einzelnen Faktoren ermittelt. Wenn im Modell ein Faktor mit 1 gesetzt wird, heißt dies, dass der betreffende Knoten seine Aufgabe vollständig erfüllt. Dies ist jedoch in der Praxis so nicht gegeben, da es immer Menschen gibt, die ihre Potenziale nicht ausschöpfen und andere, die eine größere Leistung erbringen, als von ihnen erwartet wird.
- 3.10 -
:. 3. Netzwerke
Inputmatrix M
Outputmatrix M7
Modell: Hierachie 3
1 2
6 3
7
4
89
10 11
5
1213
14 1 5
1
16
Input Total
5000
46
0,5 1
1
01
4
3 7 10
9
4
7
97 456
11 13
01
4
Output Total
5
7
7 10
10
13
13
15
16
13
KommunikationsPotential in %: 2,03
16
16
Abb. 1: Hierarchie mit 3 Ebenen
1
3
2
4
Inputmatrix M
Outputmatrix M7
Modell: Matrix_4
5
6
8
7
Input Total 64
1 0,5
5000
1
9
11
10
12
1
01
4
3 7 10
9
13
14
15
4
7
351.56
11 13
01
4
Output Total
5
7
7 10
10
13
16
16
13
15
KommunikationsPotential in %: 6,15
13 16
16
Abb. 2: 4er-Matrix
1
3
2
4
Inputmatrix M
Outputmatrix M7
Modell: Netz_4
6
5
7
8 1
Input Total 100
0,5 01
4
12
11
10
9
7 10
01
4
Output Total 10.201.63
3 5
7
100000 1
1
4
7
15
14
10
9
13
11 13
13
7
10
16
KommunikationsPotential in %: 21,70
13 16
15
13 16
16
Abb. 3: 4er-Netz-Matrix
Outputmatrix M7
Modell:
Inputmatrix M
11
10
Spinne
7
1
8
2 3 4
9
5
1
5
3
2 01
4
4
3 5
7
1 12
6
14
1.849.29
9 11 13
13 16
14
Output Total
7 10
6 16 15 13 12
15
13 16
15
Abb. 4: Spinnennetz
- 3.11 -
50000 1
0,5 1
11 10 8 7 9
Input Total 78 01
4 4
7
7 10
10 13
KommunikationsPotential in %: 5,80
13 16
16
:. 3. Netzwerke
9
15
BEER
2
8
10 1
1
7
14
Outputmatrix M7
Modell:
Inputmatrix M
3
1
4
01
4
Output Total
01 3 5
7 10
4
7
373.698
9
KommunikationsPotential in %: 10 26
13 15
16
10 13
11 13
7
10
7
11
16
5
10000 1
0,5 4
6
Input Total 62
13 16
16
13 12 Abb. 5: Beer-Struktur
Outputmatrix M7
Modell:
Inputmatrix M
7
Fraktal_2S
6 5
8
2
1
3
4
1 3 5
7 10
4
7
132.126.31
7
10
7 10
9 13
14
KommunikationsPotential in %: 44,40
13
15 15
16
10 13
11
9
01
4
Output Total
01
4
11
2000000 1
0,5
1
12
Input Total 146
13 16
16
13
16
Abb. 6: Sierpinski-Fraktal gespiegelt
11
Inputmatrix M
10
15
Outputmatrix M7
Modell: HYPER
14 6
7
1
3
2
0,5
9
12
3 5
7 7 10
8
5
4
01
4
Output Total 1.250.00
01
4
10000 1
1
13
16
Input Total 80
4
7
7 10
9
1
KommunikationsPotential in %: 26,76
13 16
10 13
11 13 15
13 16
16
Abb. 7: Hyberkubus
11
Inputmatrix M
10
Outputmatrix M7
Modell: HYPER 8
15
14 7
6
3
1
2 12
0,5
8
1
1 01
4
13
3 5
7 7
4
500000
144
9 16
Input Total
5 1
10
Output Total 76 527 504
9 11 13
13 16
Abb. 8: Hyberkubus doppelter Netzdichte
- 3.12 -
15
01
4 4
7
7
10
10 13
KommunikationsPotential in %: 82 90
13 16
16
:. 3. Netzwerke
- Wirksamkeitsvergleich Die Auswertung zeigt, dass die Hyperkubusstrukturen, Hyper-Strukturen bzw. fraktale Strukturen wie der Sierpinski-Gasket (ein Dreieck bei dem rekursiv immer weitere Dreiecke ausgeschnitten werden), die höchsten Kommunikationspotenziale besitzen. Dies bedeutet, dass sie ein hohes Potenzial haben, um Vielfalt lenken zu können. Auch zeigt sich, dass die Beersche Struktur ebenso wie die 4er-Netz-Matrix äußerst erfolgreiche Vernetzungsstrukturen darstellen. Es kommt deshalb nicht von ungefähr, dass das Beersche Modell eine derart hohe Beachtung in der Managementforschung gefunden hat. Dagegen haben Hierachien oder das Spinnennetz ein relativ geringes Kommunikationspotenzial. Es darf deshalb nicht verwundern, das Alan Greenspan, der als Spinne im Zentrum der amerikanischen Volkswirtschaft sitzt, mittlerweile die Kontrolle über die amerikanische Volkswirtschaft verloren hat. Eine einzelne Person oder ein ineffizientes Netzwerk kann die versteckten Rückkopplungen in Systemen nicht erkennen. Einseitige Maßnahmen müssen deshalb wirkungslos bleiben. Auf was es ankommt, ist deshalb, neuartige Lenkungsstrukturen zu schaffen, die den Anforderungen an eine zunehmende Komplexität gerecht werden.
Strukturtypen nach Rang
Vernetzungen
Kommunikationspotenzial in %
1. Hyperkubus doppelter Netzdichte
144
82,90
2. Sierpinski-Fraktal gespiegelt
146
44,40
80
26,76
3. Hyperkubus 4. 4er-Netz-Matrix
100
21,70
5. Beer-Struktur
62
10,26
6. 4er-Matrix
64
6,15
7. Spinnennetz
78
5,80
8. Hierarchie mit 3 Ebenen
46
2,03
Tab. 1: Rangreihung der Netzwerkstrukturen nach Kommunikationspotenzial in %
- 3.13 -
:. 3. Netzwerke
3.3. Supply Chain Management: Konzepte, Probleme und Lösungen
- Was ist Supply Chain Management? Supply Chain Management (SCM) ist die effiziente Integration von Lieferanten, Produzenten, Warenhäusern und Verkaufsläden, sodass Produkte oder Dienstleistungen in der richtigen Menge, am richtigen Ort, zur richtigen Zeit, unter Minimierung der Gesamtkosten und Maximierung der Service-Qualität, eingekauft, hergestellt und ausgeliefert werden können. Damit ist SCM ein Lenkungsinstrument, welches heute unter Einbeziehung neuester Webtechnologien die Informationsflüsse, Materialströme, Geldtransaktionen und die zu Grunde liegenden Prozesse in Unternehmen steuert. Viele Manager erkennen vor allem in Krisen, dass Maßnahmen, die an einer bestimmten Stelle einer Wertschöpfungskette unternommen werden, die Profitabilität aller anderen Bereiche innerhalb dieser Kette beeinflussen können. Das Spektrum, welches die Wertschöpfungskette umfasst, reicht hierbei von Lieferanten, Unterlieferanten, internem Betrieb, Großkunden, Einzelhandelskunden bis hin zum Endkunden. Dabei geht es um die Kunstfertigkeit, aus Rohmaterialien ein Produkt oder eine Dienstleistung zu generieren, die für potenzielle Kunden einen konkreten Mehrwert darstellt. Ziel ist es, Entscheidungen mit einem möglichst hohen Informationsgrad, unterstützt durch einen hohen Automatisierungsgrad, fällen zu können. Damit dies geschehen kann, ist es wichtig zu wissen, welche Teile im Rahmen eines komplexen Produktionssystems einen kritischen Zeitfaktor darstellen können. Es ist notwendig, exzellente Lieferanten zu haben, um den Anforderungen der Just-in-Time-Produktion gerecht zu werden. Außerdem bedarf es eines Monitoring- bzw. DiagnoseSystems, mit welchem Fehlerquellen möglichst behebar sind. Der Markt für SCM-Software ist durch die Rezession in der amerikanischen Wirtschaft im Jahr 2001 - wie viele andere E-Business-Bereiche auch - eingebrochen. Doch die führenden Anbieter i2 Technologies, Manugistics sowie SAP sehen bereits wieder Licht am Ende des Tunnels. Der entscheidende Faktor für den Aufschwung dieses Marktes ist jedoch nicht die wieder anziehende Wirtschaft alleine, sondern vor allem die Notwendigkeit zur Produktivitätssteigerung für die Unternehmen in einem härter werdenden Wettbewerbsumfeld. - Entwicklungsdynamiken Betrachtet man die Entwicklung des Supply Chain Management, so ist es aus der Logistikforschung entstanden. Dort stand zunächst die enge Beziehung zwischen Lagerung und Transport auf dem Prüfstand, um durch verbesserte Datenkommunikation schnellere und verlässlichere Transporte sicherzustellen, die Größe des Lagers zu reduzieren und die Bearbeitungszeit der einzelnen Aufträge zu verringern. In einer zweiten Phase wurde dem SCM die Herstellung, der Einkauf und das Auftragsmanagement hinzugefügt. Möglich wurde dies durch den elektronischen Datenaustausch, die weltweite Kommunikation sowie die wachsendem Speicher- und - 3.14 -
:. 3. Netzwerke
Auswertungsmöglichkeiten von Computern. In der Phase bis heute kamen zur Wertschöpfungskette Zulieferer an einem und Endkunden am anderen Ende hinzu, weshalb man unter SCM heute auch das Management logistischer Netzwerke verstehen kann. Um die in Netzen entstehende Datenflut bewältigen zu können, sind mittels Software automatisierte Systeme notwendig, die neben hohen Bandbreiten und Geschwindigkeiten, sämtliche Transaktionen überwachen können und somit eine Entscheidungsunterstützung geben. Zukünftig werden weitere Funktionen wie Produktentwicklung, Marketing und Kundenservice integriert werden, wodurch der Innovationsdruck auf die Anbieter noch weiter zunehmen wird. Hierbei verändern sich die zu Grunde liegenden Marktdynamiken. Die Nachfrage wandelt sich zunehmend von Business-to-Consumer-Lösungen zu Business-to-Business-Lösungen. Die Kunden suchen hierbei zuverlässige Lösungen, die ihre Geschäftsprozesse optimieren. Der Kauf einer Software wird zudem immer mehr unter strategischen Gesichtspunkten gesehen, sodass sich die Kaufzyklen anstatt von 3-Monats-Zyklen eher wieder in Richtung 6 Monats-Zyklen entwickeln. Außerdem wird die Ausführung immer wichtiger, weshalb ein funktionierendes Business-Ökosystem und die dazu notwendige System-Integration unumgänglich sind. Deshalb kann SCM nur mehr durch ein mehrstufiges Konzept erfolgreich realisiert werden: 1. Zunächst ist es notwendig, eine Strategie für das Management von Ressourcen zu entwickeln. Um den Kundenwünschen gerecht zu werden, sollten wesentliche Schlüsselgrößen definiert werden, damit die Wirksamkeit, die Kosten, die Qualität sowie der Wert für den Kunden ermittelt werden kann. 2. Als nächster Schritt müssen die Lieferanten für das Produkt oder die Dienstleistung sorgfältig ausgewählt werden. Hierzu gilt es, die Einkaufpreise, Lieferzeiten sowie die Zahlungsprozesse festzulegen und diese zu beobachten. 3. Danach gilt es die Produktionsseite zu planen. Es sollten alle notwendigen Aktivitäten für die Produktion, Qualitätstest, Verpackung und Vorbereitung für die Lieferung überwacht werden. Im Rahmen eines integralen Monotoring-Systems nimmt der Produktionsbereich den wichtigsten Part ein, da es hier gilt, Qualitätsstandards einzuhalten, den Produktions-Output sicherzustellen sowie die Produktivität ständig zu verbessern. 4. Die Auslieferung der Teile, auch als Logistik bekannt, koordiniert in einem nächsten Schritt, dass der Kunde die bestellte Ware durch ein Netzwerk von Lagern und Zulieferanten fristgerecht zugestellt bekommt. Außerdem muss im Rahmen der Auslieferung sichergestellt werden, dass die Kunden ihre Rechnungen bezahlen. 5. Zu guter Letzt sollten fehlerhafte Teile oder mangelnde Services möglichst schnell behoben werden, um Auslieferungsprobleme zu vermeiden.
- 3.15 -
:. 3. Netzwerke
- Der „Bullwhip-Effekt“ Da die Komplexität des Supply Chain Management weit über die Unternehmensgrenzen und damit produktionsorientierten Kennzahlen hinausgeht, habe die heutigen SCM-Lösungen einen fundamentalen Fehler eingebaut. Sie könnten mögliche Rezessionen nicht vorhersagen und bauen zu große Lagerbestände auf. Ein besonderes Phänomen, in der Fachliteratur auch „Bullwhip“-Effekt genannt, führt dazu, dass in den höheren Ebenen von Lieferketten größere Schwankungen auftreten als in denjenigen, die näher am Kunden sind. Dieses Phänomen wurde erstmals von Procter & Gamble in der Supply Chain von Pampers-Windeln beobachtet. Die Folge der hohen Schwankungen sind schwierige Kapazitätsanpassungen, die Verlängerung von Zykluszeiten, zu hohe Bestände, schlechter Service, fehlerhafte Vorhersagen sowie ein Anstieg der Gesamtkosten. Dies zeigt auch das so genannte „Beer Game“ auf, welches eine Simulation des Verhaltens von Kunden, Einzelhändlern, Großhändlern sowie Lieferanten ermöglicht. Der „Bullwhip-Effekt“ tritt in diesem Spiel auf Grund des rationalen Verhaltens der Teilnehmer innerhalb der Supply Chain-Infrastruktur auf, die nur von einer Lieferkettenstufe zur nächsten miteinander kommunizieren können, nicht jedoch beliebig untereinander. Klassische Systeme, die Strukturen um die internen Prozesse aufbauen, haben immer durch Informationsverzögerung, zunehmende Komplexität sowie fehlgeleitete Aktivitäten Probleme. Stattdessen wäre es notwendig, eine Vielzahl von externen Daten miteinzubeziehen, um die Wertkette wirksamer zu machen und die starken Schwankungen in den Lagerbeständen einzudämmen. Nur so kann es gelingen, die Wirkung von Verkaufs-Promotionen, Nachfrageveränderungen oder die Wirkung von wirtschaftlichen Abschwächungen zu verringern. SCM setzt aber auch voraus, dass die Mitarbeiter die Software auch nutzen und tatsächlich immer die neuesten Daten verfügbar sind. Es müssen ökonomische, historische und Planungsdaten verfügbar sein, um sämtliche Prozesse möglichst genau abbilden zu können. Das blinde Befolgen der Ergebnisse eines automatisierten Prozesses kann zu erheblichen Problemen führen, da die Software nur das macht, was vorher programmiert wurde. Kommt ein unvorhergesehenes Ereignis oder eine Krise, ist auch das beste SCMProgramm überfordert.
- 3.16 -
:. 3. Netzwerke
Abb.: Der „Bullwhip-Effekt“
- Benchmarks: Wal Mart, Procter & Gamble und Cisco Unglücklicherweise passen die Interfaces von ERP- und SCM-Lösungen oftmals nicht zusammen. Eine der Firmen, die diese Probleme schon vor über einem Jahrzehnt gelöst hat, ist Wal-Mart. Da Einzelhändler zum Produkt keinen Wert hinzufügen, ist die wirksame Verteilung der Produkte das wesentliche Unterscheidungsmerkmal im Wettbewerb. Bei Wal-Mart spielen Lieferanten eine wesentliche Rolle, um die Warenbestände zu managen. Die höhere Effizienz von Wal-Mart gegenüber seinen Wettbewerbern erlaubte es dem Unternehmen, die Preise für die Kunden zu senken und so Marktanteile zu erobern. Ende Januar 2001 war Wal-Mart bereits zum zweitgrößten Unternehmen der Fortune 500-Liste aufgestiegen. Wal-Mart und Procter & Gamble, die Ende der 80er-Jahre das Konzept des „Vendor Managed Inventory“ kreierten, sind heute ein Musterbeispiel für die SCMKooperation von Unternehmen. Bevor diese beiden Unternehmen ihre Zusammenarbeit starteten, hatten die Retailer kaum Informationen mit den Produzenten geteilt. Als jedoch die beiden Unternehmen die Verteilungszentren mit einer Software miteinander verbanden, konnten Engpässe frühzeitig erkannt, Bestellkosten reduziert, Lagerbestände minimiert und Zahlungen automatisch durchgeführt werden. Ein weiteres Beispiel für ein exzellentes Supply Chain Netzwerk bietet Cisco Systems. Das Unternehmen hat ein Netzwerk von Lieferanten, Distributoren und Produzenten, die durch ein Extranet miteinander verbunden sind. Mit dieser virtuellen, Just-in-time-Wertkette wissen sämtliche Teilnehmer sofort über - 3.17 -
:. 3. Netzwerke
den aktuellen Auftragsbestand Bescheid. Mit Cisco`s SCM-System ist es möglich, ohne Lager, ohne Bestände und ohne Papierbestellungen auszukommen und die Wertkette automatisch, real-time, überall und gleichzeitig von allen Teilnehmern zu überwachen. Die Wertkette arbeitet im Grunde selbst organisiert. Nur wenn ein Problem auftritt, muss der Mensch noch eingreifen, was auch als „Management by exception“ bezeichnet wird. Doch gerade diese Selbstorganisation kann zu einer großen Schwäche werden, wenn der Markt in eine Rezession gerät. Die Planungs-Software von Cisco war auf Wachstum programmiert und nicht auf einen schrumpfenden Markt. Zu spät wurde das Problem der Überkapazitäten erkannt und so häuften sich bei den Partnerfirmen von Cisco enorme Lagerbestände auf. Der „Bullwhip-Effekt“ hatte die Netzwerk-Lieferanten voll erfasst. - Wettbewerb zwischen Netzwerken Zunehmend entstehen komplexe Netzwerke, in denen eine Vielzahl von Intergrationsaufgaben erfüllt werden müssen: 1. der Aufbau des Supply Chain Netzwerkes und die Auswahl der Lieferanten/Kunden, 2. die Organisation und Führung des Supply Chain Netzwerkes, 3. die Geschäftsprozessgestaltung und –planung sowie 4. der Aufbau der Informations- und Kommunikationsinfrastrukturen. Mit diesen Netzwerken soll eines der größten Probleme von Unternehmen gelöst werden: die mangelnde Transparenz der Nachfrageplanung von Partnerfirmen. Cisco ist dieses Problem mit einem so genannten E-Hub-System angegangen. Hierbei plant Cisco nicht nur die Lieferanten der 1. Stufe, sondern auch die vorgelagerten Lieferanten miteinzubeziehen, um möglichst aussagekräftige Planzahlen erzeugen zu können. Viele Firmen kennen die vor- und nachgelagerten Entscheidungen in der Lieferkette nicht. Es kommt deshalb darauf an, Monitoring-Systeme zu entwickeln, die alle Partner in einer Wertschöpfungskette miteinbeziehen. Als Ford Motors im Jahr 2000 auf Grund tödlich verlaufender Verkehrsunfälle eine Vielzahl von defekten Bridgestone/Firestone-Reifen in den USA wieder einziehen musste, wäre dies ohne eine hoch effizientes Business-Netzwerk zu den Reifen-Lieferanten nicht möglich gewesen. Dieser Fall hat gezeigt, dass ein funktionierendes Supply Chain Management auch ein sehr wichtiges Tool zur Bewältigung von Krisen sein kann. Kevin O'Marah, Service Director für Supply Chain Strategien bei AMR Research in Boston hebt hervor, dass es darauf ankommt, maßgeschneiderte Produkte zu designen, wenn hohe Gewinnmargen erzielt werden sollen, wie Dell Computer und Levi Strauss aufgezeigt haben. Heute konkurrieren längst nicht mehr einzelne Firmen miteinander, sondern mittlerweile gibt es einen Wettbewerb zwischen unterschiedlichen Supply Chain-Netzen, d.h. es konkurrieren BusinessÖkosysteme gegeneinander. Wer ein Projekt im Supply Chain Management startet, sollte jedoch klein anfangen. Erst müssen die Probleme in einem abgegrenztem Rahmen verstanden werden, bevor der große Wurf gewagt werden kann. Für ein Unternehmen mit etwa 1 Mrd. Euro Umsatz sollte das erste Projekt nicht mehr als etwa 3 Millionen Euro umfassen (etwa 1 Million Euro für die Software und etwa 2 Millionen Euro an Arbeitskosten). Damit sind SMC-Projekte deutlich günstiger als so genannte ERP-Installationen, die sehr kostenintensiv sind. - 3.18 -
:. 3. Netzwerke
- Von ERP zu SCM Enterprise Ressource Planning (ERP) liefert all die Informationen über die Produkte, Verkäufe, Finanzen und Bestände, auf denen das Supply Chain Management aufbaut, um die Nachfrage vorherzusagen und den Ressourcenfluss innerhalb der Wertkette zu optimieren. Ob eine ERPSoftware eine Voraussetzung ist, um SCM-Software zu installieren, hängt von den im Unternehmen vorhandenen Datenbeständen ab. Wer jedoch einen saubernen Informationsfluss im Unternehmen möchte und keine handgestrickten Lösungen bevorzugt, sollte bevor er sich dem SCM widmet, eine ERP-Software installieren, da durch diese alle Informationen schnell und genau zur Verfügung gestellt werden können. Eine Umfrage unter CIOs in den USA hat aufgezeigt, dass diejenigen, die zuerst eine ERP-Einführung durchführten, sich mit der Einführung von SCM-Lösungen wesentlich leichter taten. ERP-Software kann zwar die maximale Kapazität einer Fabrik berechnen und diese mit der Nachfrage abstimmen, aber sie kann nicht das tagtägliche Geschehen in den Fabriken analysieren. Hierzu benötigt man auf Echtzeit ausgerichtete Anwendungs-Software. Abhilfe können hier integrierte Web-Dienstleistungen bieten, die Daten von anderen Anwendungen über das Internet austauschen können. SCM wird heute immer mehr als logische Erweiterung von ERP-Systemen gesehen. Dies ist notwendig, da ERP-Systeme stark auf die operative Seite konzentriert sind, wenig Flexibilität aufweisen und auf einer eindimensionalen sequenziellen Planung beruhen. SCM kann diese Beschränkungen wesentlich wirksamer und kostengünstiger als ERP-Systeme aufheben. Während ERP auf Transaktionen konzentriert ist, ist SCM eher ein Analyse- und PlanungsTool. Die immer fortschrittlicheren Programme ermöglichen es, heute gleichzeitig unterschiedlichste Randbedingungen zu berücksichtigen, und erhöhen somit die Transparenz der Geschäftsabläufe in Echtzeit. Dieser Trend wurde vor allem durch den Siegeszug des Internet, das Electronic Data Interchange (EDI) sowie das Internetworking (LAN/WAN) forciert. In den letzten Jahren sind wegen der wachsenden Bedeutung von SCM viele ERPAnbieter Partnerschaften mit SCM-Firmen eingegangen oder haben die Firmen sogar übernommen, wie z.B. der Aufkauf von Red Pepper Software durch Peoplesoft im Jahr 1996, die Übernahme von CAPS Logistics durch Baan 1998 sowie der Aufkauf von Numetrix durch J. D. Edwards 1999 aufzeigen. Aber auch die SCM-Firmen sind nicht untätig und versuchen, ihr Technologie-Portfolio zu erweitern: Im Jahr 2000 hat i2 Aspect und im Jahr 2001 Rightworks übernommen. Mittlerweile zahlen sich diese Investitionen aus. Im Dezember letzten Jahres hat das CMP Media’s Intelligent Enterprise Magazin i2 als Gewinner für die Kategorie des besten IT-Produktes im Bereich Supply Chain Management ausgewiesen.
- 3.19 -
:. 3. Netzwerke
- Verschiebung der Schwerpunkte Ein interessantes Beispiel für das Auf- und Ab des Supply Chain Marktes liefert das Unternehmen Manugistics. Als Mitte der 90er-Jahre die Nachfrage nach SCM-Software drastisch anstieg, ging es dem Unternehmen sehr gut. Doch plötzlich brach der Aktienkurs im Jahr 1998 zusammen. Manugistics musste restrukturiert und neu ausgerichtet werden. Das Unternehmen orientierte seinen Verkauf nunmehr nach den Märkten und nicht mehr nach der Geografie. Als Ergebnis stieg das durchschnittliche Auftragsvolumen von weniger als 200,000 US auf 1,4 Millionen US-$ an. Außerdem wurden fehlende Wartungs- und Installationsbereiche für die Kunden aufgebaut. Mittlerweile ist der Service- und Consulting-Bereich für etwa 30 % der Umsätze von Manugistics verantwortlich. Das Design logistischer Prozesse hat sich in den 90er-Jahren auf Grund der Fortschritte der Informationstechnologie, des zunehmenden Wettbewerbs und der netzwerkbasierten Globalisierung drastisch verändert. Längst sind für multinational agierende Firmen die Zeiten vorbei, wo die logistischen Prozesse in der Beschaffung, der Produktion und der Distribution funktional geführt wurden. Mittlerweile werden diese Prozesse mit Lieferanten und Kunden abgestimmt, und es werden neue Wertschöpfungsstufen sowie Geschäftsfelder erschlossen. Eines der interessantesten Anwendungsgebiete des Denkens in Lieferketten ist die verzögerte Produktdifferenzierung. Normalerweise werden Produkte in der Fabrik den lokalen Marktgegebenheiten angepasst. Bei einer verzögerten Anpassung geschieht dies innerhalb der Verteilungskanäle. Dadurch wird es möglich, ein Produkt, welches sich beispielsweise in Frankreich gut verkauft, nicht jedoch in Deutschland, nach Frankreich zu liefern und es dort ohne großen Aufwand an die aktuellen Gegebenheiten anzupassen. Die Anforderungen an eine Supply Chain Management Software sind heute sehr hoch und können nur von Anbietern erfüllt werden, die sich der zunehmenden Komplexität der Unternehmen und derer Umgebungen bewusst sind. SCM-Software ist oftmals schwer zu durchschauen, da eine Vielzahl von Aufgaben nur noch mit eingebauten Programmen oder Modulen anderer Softwarefirmen gelöst werden kann. Die Integration unterschiedlichster Software in eine integrale Lösung kann jedoch für viele Anbieter zu einem Albtraum werden, wenn die einzelnen Programmteile nicht miteinander interagieren. Die Software für die Planung von Wertschöpfungsketten basiert heute auf anspruchsvollen mathematischen Algorithmen. Damit die Software funktionieren kann, ist sie auf genaue Informationen angewiesen. Dabei kann ein Programm jedoch nur dann genau arbeiten, wenn die eingebenen Daten eine hohe Qualität aufweisen. Up-to-date-Informationen über Kundenbestellungen, Daten über die Produktionskapazität oder die Lieferfähigkeit müssen heute permanent abrufbar sein. Mit neuen Planungstechnologien sollte es zukünftig allerdings möglich sein, Milliardenbeträge an Bestandskosten bei Unternehmen einzusparen.
- 3.20 -
:. 3. Netzwerke
- Webbasiertes SCM Die Geschäftsprozesse miteinander interagierender Unternehmen sind über ihre Material-, Wert- und Informationsflüsse miteinander verbunden. Wenn konsistente Interfaces existieren, kann der Integrationsaufwand für Anwendungen in einem Unternehmen deutlich vereinfacht werden. Diese Interfaces entstehen heute im WorldWideWeb (WWW). Microsoft`s Dot.NetInitiative zielt beispielsweise auf diesen Markt. Das WWW ermöglicht heute, dass man nahezu von jedem Ort aus, die eigene Wertkette mit der von Lieferanten und Kunden im Rahmen eines Business-Netzwerkes verbinden kann. Als Resultat dieser Netzwerke ergibt sich eine höhere Transparenz, von der letztendlich alle Marktteilnehmer profitieren können. Deshalb haben Firmen wie STMicroelectronics, eine neue Variante gewählt: Entscheidungen werden nicht gemäß der Beschaffung, sondern gemäß der Kapazitäten getroffen. Wenn immer mehr Web-Dienstleistungen angeboten werden, wird es einfacher für Unternehmen, unterschiedliche Systeme wie z.B. die Produktionskontrolle sowie die Kontrolle der Supply Chain miteinander zu verbinden. Da das Internet die Nachfrage nach integrierten Lösungen forciert, ist es auch denkbar, dass zukünftig SCM Lösungen ERP-Lösungen integrieren, damit die Wertschöpfungskette optimal abgebildet werden kann. Die zukünftigen Herausforderungen von SCM sind es, neue BusinessModelle zu ermöglichen, die Informationen optimal zu integrieren, den Workflow besser zu lenken sowie die Planungsprozesse zu synchronisieren (siehe Abbildung 2). Firmen wie Saltare, Agile Software und RedKnife setzten von Anfang an voll auf das Web, einen Weg den mittlerweile auch i2 und Manugistics beschreiten. i2 Rhythm von i2 Technologies ist eines der führenden Supply Chain Management-Programme, welches über traditionelle Planungslösungen wie MRP (Manufacturing Resource Planning) und DRP (Distribution Resource Planning) hinausgeht. i2 Rhythm berücksichtigt parallel mögliche Engpässe in den Bereichen Nachfrage, Bestände und Materalien. Während in den 90er-Jahren Hub-und SpokeBeziehungen zwischen Firmen auf dem Web aufgebaut wurden, geht der neue Trend hin zu Peer-to-Peer-Beziehungen. P2P eröffnet die Chance, dem Kunden noch mehr Nutzen zu liefern, da Prozesse parallel ausgeführt, für alle Teilnehmer gleichzeitig sichtbar sowie mögliche Beschränkungen in den Supply Chains frühzeitig erkannt werden können. Hierbei gilt jedoch zu beachten: Letztendlich kann eine Supply Chain nur so wirksam sein wie ihr schwächster Knotenpunkt!.
- 3.21 -
:. 3. Netzwerke
Merkmal Neue Business-Modelle
Integrierte Lösungen
Schlüsselfaktor
Vorteile
Logistikansätze
Bessere Nutzung vorhandener
Virtuelle Ressourcen
Assets
Mass Customization
Einstieg in neue Märkte
„Click- and – mortar Modelle
Design neuer Produkte
Demand-Based
Höhere Effizienz
Management
Aufbau von Win-Win-Situationen
Informationstransparenz
Frühzeitige Problemerkennung
Wissensräume
Reduzierung von Schwankungen
Real-Time Zugriffe
Schnellere Antwortzeiten
Monitoring-Systeme
Lenkung höherer Komplexität
Selbstlernende Systeme
Deutliche Kostenreduktion
Web-Based Solutions Workflow-Lenkung
Automatisierte Prozesse
„Time-to-Market“-Vorteile
Papierloses Procurement
Erweiterung der Business-
Nichtlineare Optimierung
Netzwerke
Koordination der SC-
Steigerung der Präzision und
Bereiche
Wirksamkeit Service-Qualität ist höher
Synchronisation der Planung
Collaborative Planning
Reduzierter „Bullwhip-Effekt”
Gemeinsames Design
Bessere Kapazitäts-auslastungen
Activity Based Costing
Aufbau von BusinessÖkosystemen
Abb.: Herausforderungen Supply Chain Management
- 3.22 -
:. 3. Netzwerke
3.4. Peer-to-Peer-Netzwerke: Katalysatoren des Wissens?
- Der Wandel geht weiter Trotz Internetkrise, Nasdaq-Crash und Rezessionsängsten geht der Wandel der Geschäftswelt mit großer Dynamik weiter. Peer-to-Peer-Konzepte (P2P) (d.h. der direkte Austausch von Informationen und Dateien ohne zentrale Server) könnten zu einem entscheidenden Treiber dieses Transformationsprozesses avancieren. In einem P2P-Netzwerk ist jeder angeschlossene Computer somit Server und Client zugleich, wobei der User selbst bestimmt, welche Ressourcen (Software, Dateien) er dem jeweiligen P2P-Netz zur Verfügung stellt. Mittlerweile hält P2P auch in den WebservicePlattformen von Anbietern wie Sun und Microsoft Einzug. Unternehmen wie GrooveNetworks und Consilient kombinieren hierbei P2P-Konzepte mit den Möglichkeiten der auf XML basierten, erweiterten Webservices à la Microsofts dotNET. Die Firma Xdegrees hat einen Internetservice entwickelt, der es ermöglichen soll, Anwendungen und Geschäftsabläufe automatisch via Web von einem auf den anderen Computer zu übertragen. Dies soll dadurch demonstriert werden, dass das Mailprogramm MS Outlook in den Microsoft Explorer integriert und in eine P2P-Anwendung überführt wird. So ist es möglich, Termine mittels Peer-to-Peer abzumachen sowie Adressen zu synchronisieren. - Venture Capitalists entdecken P2P Das Peer-to-Peer-Unternehmen Infrasearch erhielt Venture Capital von Netscape-Gründer Marc Andreesen, während der Venture Capitalist Kleiner Perkins Caulfield & Byers in Centrata investierte. Die Investition von KPCB war der P-Day für die Branche. Seit diesem Investment sind in den letzten eineinhalb Jahren etwa 150 Unternehmen entstanden, die Peer-to-PeerLösungen anbieten. Das Investitionsvolumen wird in Bälde die Schwelle von 500 Millionen US-$ übersteigen. Doch nach den vollmundigen Ankündigungen im B2B-Sektor sind viele Investoren skeptisch, ob P2P tatsächlich die prognostizierte Zukunft hat. Zu den führenden privaten Unternehmen im Bereich P2P zählen Groove Networks mit einem VCKapital von 60 Millionen US-$, Entropia mit 29 Millionen US-$, Consilient mit 23 Millionen US-$. Viele Firmen wollen jetzt auf den P2P-Zug aufspringen und transformieren sich von B2B- oder Open Source-Firmen nun zu P2P-Unternehmen.
- Rückkehr des Notes-Yedi Ray Ozzie, der Vater von Lotus Notes, war drei Jahre von der Bildfläche verschwunden. In dieser Zeit hat er die Firma Groove.net (http://www.groove.net) mit derzeit über 110 Mitarbeitern aufgebaut. Auch der Gründer von Lotus Mitch Kapor hat Venture Capital in die Firma gesteckt, die P2P-Lösungen entwickelt. Als Benutzer von Groove kann man - 3.23 -
:. 3. Netzwerke
einen „gemeinsamen Raum“ eröffnen und ihn anderen Teilnehmern zugänglich machen. Die Räume werden hierbei auf dem lokalen PC des jeweiligen Benutzers in verschlüsselter Form abgelegt. Die Software von Groove übernimmt hierbei die Aufgabe, die Räume und deren Content auf allen angeschlossenen PCs zu synchronisieren. Wird jemand zur Mitbenutzung eines solchen Raumes eingeladen, geschieht Folgendes: Der komplette Raum wird auf den PC des eingeladenen Teilnehmers übertragen. Wenn dann zwei oder mehr Personen simultan in einem solchen Raum arbeiten, sehen sie das und können „Collaborative Working“ durchführen. Groove liegt bereits in einer funktionsfähigen Preview-Version vor. Der besondere Nutzen des Programmes liegt darin, dass die Teilnehmer adHoc einen gesicherten Besprechungsraum öffnen können oder Wissen miteinander teilen können. - Die Geschichte von Peer-to-Peer-Modellen Das Internet ist ein kooperatives Netzwerk, das Millionen von Menschen miteinander verbindet. P2P-Netzwerke sind nicht neu. Bevor zentralisierte Client-Server-Modelle den Markt eroberten, basierten Computer-Netzwerke bereits auf der P2P-Technologie. Mit der explosionsartigen Entwicklung seit 1994 wandelte sie sich dabei von einer Geek-Utopie zu einem Netzwerk für Geschäfte aller Art (Business to Business, Business to Consumer, Consumer to Business sowie Consumer to Consumer). Das Internet wurde zu einem Massenphänomen, welches hauptsächlich auf dem Client-Server-Modell basierte. Die Rückbesinnung auf die P2P-Ursprünge ermöglicht jedoch nunmehr eine Überwindung dieses Modells. Während das Internet ermöglichte, dass Menschen nicht mehr nur Empfänger, sondern Sender von Daten wurden, ermöglicht P2P nunmehr auch eine Trennung von Autorenschaft und Veröffentlichung. P2P ermöglicht die problemlose Weitergabe von Daten, bei denen die Autorenschaft bei jemandem anderen liegt. P2P arbeitet hierbei wie eine Art Beschleunigungsmaschine für die Weitergabe von Wissen, Informationen und Daten. Die eigentliche Veränderung liegt im Fluss der Daten. Die Umlaufgeschwindigkeit von Daten wurde geradezu dramatisch gesteigert. - Filesharing erobert die Musikmärkte Durch die Musiktauschbörse Napster (http://www.napster.com) wurden P2PNetzwerke wieder populär. Napster ist allerdings kein „reines“ P2PNetzwerk, da ein zentraler Server als ein Art „Suchplattform“ für die Dateien fungiert. Das Filesharing-System Gnutella funktioniert anders als Napster als dezentrales P2P-Netzwerk. Da es keinen zentralen Server gibt, sind Informationsfluss und Dateientausch quasi nicht kontrollierbar. Auf diesem Prinzip basiert auch das P2P-Filesharing-System, das Microsoft entwickelt und das den Namen Farsite (Federated, Available, and Reliable Storage for an Incompletely Trusted Environment) trägt. Da die aktuell im Netz befindlichen Clients zusammen eine Rechenleistung von einer Milliarde MHz mit einer Festplattenkapazität von mindestens 1000 Tbyte haben, sind wegen der nur teilweisen Nutzung der betriebenen Clients erhebliche - 3.24 -
:. 3. Netzwerke
Kosteneinsparungspotenziale vorhanden. Der Erfolg von P2P in der Musikindustrie hat zudem in aller Deutlichkeit aufgezeigt, dass mit dieser Technologie in Rekordzeit eine hohe Marktdurchdringung erreicht werden kann. - Private to Private Nach Meinung von Experten dürfte sich P2P vorerst im privaten Bereich etablieren. Für Bruce Kasrel von Forrester macht vor allem die private Kommunikation und nicht File-Sharing à la Napster P2P zu einer KillerApplikation. Neben dem File-Tausch à la Napster wird Peer-to-Peer momentan hauptsächlich eingesetzt, um die Kommunikationskanäle der Nutzer zu erweitern. Firmen wie Aimster oder die Community Jabber (http://www.yabber.net) bieten beispielsweise Instant-Messaging-Lösungen (IM) an. Darüber hinaus eignet sich P2P, um die Suche im Internet zu verbessern, wie die Lösung des Startups Opencola (http://www.opencola.com) aufzeigt, welches Suchergebnisse und Bookmarks von ähnlichen Anfragen vergleicht und die jeweils passenden Resultate ausgibt. Hemmnisse für eine rasche Ausbreitung von Peer-to-PeerNetzwerken sind mittlerweile noch, dass es keine universelle Client-Software gibt und deshalb für jeden Dienst ein eigenes Tool installiert werden muss, sowie die Tatsache, dass sich beispielsweise die Instant Messenger von AOL und Microsoft nicht verstehen. - Datensicherheit ist gewährleistbar Bei P2P wird die Frage der Datensicherheit durch Internet-Piraterie oder Virenangriffe noch wichtiger werden als bisher. Mit Programmen wie Sharesniffer (http://www.sharesniffer.com), einer kostenlosen Software, welche eine internetweite Suche nach offenen Festplatten durchführt und deren Inhalte scannt, sind kriminellen Aktivitäten Tür und Tor geöffnet, wenn unvorsichtige Nutzer beim Öffnen von Filesharing-Programmen vergessen, dafür ein Passwort einzugeben. Anti-Virenfirmen arbeiten deshalb nicht erst seit dem Auftreten des Gnutella-Wurms am Schutz von P2P-Netzwerken Die Popularität von Services wie Napster und Gnutella lockt auch eine Vielzahl von Cyber-Kriminellen an, die dort ihre neuesten Viren erproben wollen. So verbreitete sich der Gnutella-Wurm derart, dass er sich als genau die Datei tarnte, die ein User bei seinem Partner anfragte. Grundsätzlich gibt es jedoch 2 Möglichkeiten, P2P-Netze zu schützen: einerseits durch Antiviren-Scanner, die in bestehende P2P-Software eingebaut werden, andererseits durch die Umrüstung bestehender Sicherheitstools.
- 3.25 -
:. 3. Netzwerke
- Mehrwertdienst für Breitbandfirmen Da P2P-Lösungen höhere Bandbreiten beanspruchen, hängt die Veränderungsgeschwindigkeit sehr stark von den Technologien für die Erweiterung der Bandbreiten ab. Deshalb preisen Breitbandanbieter P2P zunehmend als Mehrwertdienst für ihre Services an. Da laut Forrester etwa 60 Prozent der privaten Breitbandnutzer ihren PC tagsüber laufen lassen, stehen diese Geräte als eine Art Content-Server zur Verfügung. Insbesondere in den USA werden deshalb immer mehr private Haushalte die Möglichkeiten des P2P nutzen. So hat das Unternehmen Tadpole Technology eine Software vorgestellt, mit der sich Compaqs Pocket-PC „Ipaq“ in eine mobile Peer-to-Peer-Plattform verwandeln lässt. Nach Angaben von Tadpole können zukünftig nicht nur PCs und Server mit den mobilen Geräten vernetzt werden, sondern auch Videorekorder und Kühlschränke. Dieser Trend zur dezentralen vernetzen Intelligenz wird sich weiter fortsetzen und dazu führen, dass immer mehr allgemeine Gebrauchsgegenstände in Verbindung mit Technologien wie Bluetooth zum Aufbau von drahtlosen und mobilen P2P-Netzwerken genutzt werden können. - Revolution im Kommunikationsverhalten Das Geschäftsleben könnte gut einen Teil der Solidarität der Frühphase des Internet vertragen. Der vom Systemdenken getragene E-Commerce benötigt ein neues Gesicht, welches auf Begegnung und Win-Win-Situationen setzt. Peer-to-Peer kann den Inhalten und Kontexten, die heute im WorldWideWeb abgelegt werden, nicht nur ein Face-Lifting verpassen, sondern geradezu zu einer Revolution im Kommunikationsverhalten führen. Mit XML als gemeinsamer Sprache ist es möglich, kontextorientiert im Netz zu surfen und somit das eigentliche Potenzial zu nutzen, welches im WorldWideWeb schlummert. Peer-to-Peer kann den Desktop, Laptop, den Palmtop und das Handy in neuartige Dialog-Plattformen verwandeln. Hierbei können auch bisher ungenutzte Rechenressourcen für eine Vielzahl neuartiger Anwendungen genutzt werden. Was Napster für MP3 ist, könnte in Bälde Docster für Dokumente, JPEGster für Bilddateien und Palmster für Telefonate und Messaging sein. Da es in Zukunft vor allem um Metadaten geht, die uns einen schnellen Zugang zu den gewünschten Daten liefern, wird P2P zu einer grundlegenden Veränderung unseres Umganges mit Informationen führen. Die Neuerfindung der Gegenwart durch P2P wird aber nur dann konstruktiv sein, wenn wir keine künstlichen Grenzen zwischen Metadaten-Anwendungen ziehen. Werden diese gezogen, verliert das Netzwerk seine Stärke, Menschen zusammenzubringen und die Umlaufgeschwindigkeit des Wissens zu erhöhen.
- 3.26 -
:. 3. Netzwerke
- Wissensmanagement durch Peer-to-Peer-Technologie Der freie Zugang zu Wissen, das ungefilterte Suchen nach Daten im Wissensmeer des World Wide Web eröffnet sicherlich die größte Perspektive der P2P-Technologie. Mit dieser Technologie können sich spontan Communities oder Teams zusammenschließen und durch Kooperation neues Wissen generieren. Ein weiterer wesentlicher Aspekt ist die Wissensnavigation. Sun Microsystems hat durch den strategischen Aufkauf von InfraSearch, das zu den führenden Firmen im Bereich der P2P-SuchTechnologien gehört, klar den Weg für andere Wettbewerber aufgezeigt. Mit der Übernahme will Sun das eigene P2P-Projekt Juxtapose (JXTA) stärken, welches neue Wege des Distributed Computing eröffnen soll. Die Forschungsergebnisse des P2P-Computing-Projektes sollen das Netzwerkfundament für die Suche, Teilung und Speicherung von Informationen bilden. Der Chip-Produzent Intel plant, auf Basis der P2PTechnologie einen „virtuellen Supercomputer“ zusammenschalten, der die zehnfache Leistung des derzeit schnellsten Intel-Supercomputers zu einem Hundertstel von dessen Kosten erreichen soll. Ein derartiger SuperComputer mit einer Rechenleistung von 50 Teraflops könnte die medizinische Forschung revolutionieren und beispielsweise im Rahmen der Krebsbekämpfung oder gentechnischer Simulationen das Auffinden neuer Medikamente und Behandlungsmethoden beschleunigen. Darüber hinaus will Intel eine kostenlose Open Source-Bibliothek in das Internet stellen, sodass sich Programmierer Programmteile herunterladen können. Ihre Peerto-Peer Trusted Library wird es Teilnehmern ermöglichen, digitale Zertifikate, Verschlüsselungstechnologien und Authentifikationen in ihre Peer-to-peer-Anwendungen zu integrieren. - Revolutionierung der Organisationsstrukturen P2P-Netzwerke bilden eine optimale Infrastruktur für neue Anwendungen im Bereich des Wissensmanagements. Da Wissen zu einer Open Source für die beteiligten Partner wird, lassen sich völlig neue Formen der Zusammenarbeit zwischen Unternehmen und ihren Kunden vorstellen. So könnte die Freigabe von Unternehmenswissen und dessen Weiterentwicklung im Rahmen eines linux-ähnlichen Modells, zu erheblichen Beschleunigungen von Entwicklungsprozessen in der Automobilindustrie führen. Es dürfte sich abzeichnen, dass die Weiterentwicklung der P2P-Technologie zu völlig neuen Formen des Collaborative Working in Unternehmen und zwischen Maschinen führen wird. Beim Automobilunternehmen Ford werden bereits mehrere über Peerto-Peer verbundene Rechner für Crash-Test-Simulationen genutzt. Tim Andrews, der Chief Technology Officer von Viant Corp. sieht deshalb ein riesiges Potenzial von innovativen Lösungen durch die P2P-Technologie, speziell für die Art und Weise, wie Organisationen untereinander und mit ihren Kunden zusammenarbeiten, da es keine künstlichen Wissensgrenzen innerhalb und zwischen Unternehmen mehr zu geben braucht. Darüber hinaus können hierarchische Kontrollstrukturen sowie Firewalls, die die unternehmensüberschreitende Kommunikation behindern, dank P2P abgeschafft werden. - 3.27 -
:. 3. Netzwerke
- P2P erfordert Endo-Management Beim Peer-to-Peer-Modell geht es im Grunde genommen um einen Abschied vom Systemdenken hin zu einem Denken in Interfaces. Diese offenen Netzwerke bilden die Grundlage für die Entwicklung neuer Geschäftsmodelle im WorldWideWeb, wie es der im deutschsprachigen Raum entwickelte Endo-Management-Ansatz beschreibt. Bei diesem geht es um die Öffnung von Wissensstrukturen im Rahmen von Metanetzen, was nichts Geringeres bedeutet als die Aufgabe traditioneller Client-ServerArchitekturen. Der Weg hin zu einem verteilten Rechnen in flexiblen P2PStrukturen ist damit vorgezeichnet. Im P2P-Sektor gibt es heute eine Vielzahl von Anwendungsmöglichkeiten, die über Instant messaging, FilesharingDienste, Arbeitsgruppen, die über das Netz zusammenarbeiten, bis hin zu verteiltem Rechnen über das Netz reichen: Peer-Agenten (z.B. Consilient), Collaborative Working (z.B. Ecocys Technologies), Distributed Computing (z.B. Applied Meta Computing), verteilte Suchmaschinen (z.B. NeuroGrid), File-Sharing (z.B. Gnutella), Messaging-Frameworks (z..b Jabber), Metadaten (z.B. Bitzi) oder Datensicherheit (z.B. Endeavors Technology). Eine exzellente Übersicht befindet sich auf der Homepage von Oreillynet.com (http://www.oreillynet.com/pub/q/p2p_category). - Win-Win-Geschäftsmodelle sind erfolgreicher Peer to Peer treibt den IT-Managern den Angstschweiß auf die Stirn. Das aus der alten Internet-Basistechnologie FTP entstandene Peer-to-Peer-Modell könnte zu einer Revolutionierung zahlreicher Geschäftsmodelle führen, welche sämtliche Branchen erfassen kann. Bisherige B2B-Plattformen, die sich mit E-Procurement, Supply Chain Management oder Customer Relationship Management beschäftigen, könnten dann völlig anders designt werden als bisher. Anbieter von B2B-Plattformen wie Oracle, Microsoft, SAP, Ariba, Commerce One oder I2 Technologies stehen deshalb vor völlig neuen Herausforderungen für das Design ihrer Software. Das starke kommerzielle Interesse an P2P zeigt, dass wir vor erheblichen Veränderungen in den bisherigen Geschäftsmodellen stehen werden. Es geht heute nicht mehr um die Frage, ob die Peer-to-Peer-Technologie überhaupt interessant ist, sondern vor allem darum, wie Unternehmen diese zur Generierung von Mehrwert für ihre Kunden nutzen können. P2P hat das Potenzial, zu einer typischen Win-Win-Technologie zu avancieren, die bei ihrem konsequenten Einsatz eine Vielzahl von zusätzlichen Nutzen-Nutzen-Relationen in Unternehmen und bei deren Kunden freisetzen kann.
- 3.28 -
:. 3. Netzwerke
3.5 Network Performance: Monitoring, Analyse und Vorhersage
- Wachstumsmarkt Network Performance Netzwerke sind heute zu einem bestimmenden Faktor für Unternehmen („the network is the business“) avanciert. Als Folge dieser Entwicklung sind heute die Leistungsfähigkeit und die Antwortzeiten innerhalb von Netzwerken ein kritischer Faktor für die Profitabilität von Firmen. Hierbei geht es vor allem um die Faktoren Total Cost of Ownership (TCOs) und den Return on Investment (ROI). Führende Anbieter wie NetScout Systems, Inc., Concord Communications oder Micromuse setzen auf den Wachstumstrend Verbesserung der Network Performance. Performance Management ist heute nicht mehr nur für große Firmen von Bedeutung, sondern es wird auch immer mehr für KMUs zu einer kritischen Größe, um Anwendungen im Bereich E-Commerce, Supply Chain Management, Content Management oder Customer Relationship Management fehlerfrei und mit einer hohen Zuverlässigkeit durchführen zu können. E-Business Websites, Internetverkehr, LAN, WAN, outgesourcte Anwendungen und Websites von Partnerfirmen erfordern ein Monitoring kritischer Parameter in Echtzeit, um Probleme frühzeitig, möglichst vor deren Auftreten beheben zu können. Mehr denn je sind heute IT-Verantwortliche durch die immer komplexer werdenden Netzwerkinfrastrukturen vor neue Herausforderungen in Punkto Verfügbarkeit und Leistungsfähigkeit gestellt. Die Dynamik der Geschäftswelt verlangt heute eine 7 x 24 h-Verfügbarkeit von Netzwerken. Network Performance Management steht in diesem Zusammenhangvor drei Schlüsselaufgaben: der Verbesserung der Leistungsfähigkeit und Zuverlässigkeit der Infrastruktur durch Verhindern von Flaschenhälsen, schnellen Berichten über die Leistungsfähigkeit durch Auswertung des Kunden-Feedbacks sowie der Vorhersage von zukünftigen Kapazitäten.
Increased Business Impact Service Level Management Infrastructure Performance Network Management (IPM) Management
Time
Element/Device Management Greater Complexity
Abb.: Stellung des Performance Management; Quelle: ete-hager.ch
- 3.29 -
:. 3. Netzwerke
- Einführung in Computernetze Rechnernetze bestehen aus einer bestimmten Anzahl von Computern, die über ein Kabel (BNC, TP, Glasfaser...) oder Wireless miteinander verbunden werden. Damit man von einem Netzwerk sprechen kann, müssen mindestens zwei Rechner miteinander verbunden werden. Über ein Netzwerk kann ein Datenaustausch zwischen Computern, Kommunikation sowie die gemeinsame Nutzung von Geräten wie Druckern durchgeführt werden. Während Local Area Networks (LANs) oder Wireless LANs meist auf ein Gebäude oder Gebäudekomplexe begrenzt sind, können so genannte Wide Area Networks innerhalb von Städten, als Verbindung zwischen Städten oder sogar weltweit aufgespannt werden. Bei der Verkabelung gibt es vielfältige Möglichkeiten, wie z.B. Bus-, Stern oder Ring-Anordnungen. Bei der Stern-Anordnung werden alle Geräte mit einer zentralen Einheit (Hub, Switch oder Repeater) verbunden. Ein intelligenter Hub verteilt die Datenpakete anhand der Adresstabelle auf verschiedene Kabel oder Segmente. Will man zwei (oder noch mehr) Netze mit gleichen oder auch unterschiedlichen Topologien miteinander zu einem logischen Netz verbinden, sind so genannte Brücken (bridges) notwendig. Eine bridge arbeitet auf Layer 2 des so genannten OSI-Modells (siehe weiter unten). Dabei verhalten sich alle höheren Layer bezogen auf das Bridging transparent, d.h. die Datenpakete werden einfach weitergereicht. Eine Bridge darf nicht einfach alle ankommenden Datenpakete aus dem einen Netz in ein anderes Netz (oder Netzsegment) weiterleiten, sondern diese Entscheidung muss anhand von Adresstabellen getroffen werden. Da die alte empfohlene Regel (70% lokaler und 30% segmentübergreifender Netzverkehr) zur Aufteilung von Netzen in sinnvolle Segmente seit Einführung der Internetkommunikation nicht mehr gilt, werden immer mehr so genannte Switches eingesetzt. Die wichtigsten Bridging Verfahren sind SR (source routing) für Token Ring Netze, TB (spanning tree/transparent bridging) für Ethernet Netze und FDDI, SRTB (source routing transparent bridging) und SRT (source routing transparent) für eine Verbindung von Token Ring mit Ethernet Netzwerken. Switches sind im Grund genommen nichts anderes als eine Multiport Bridge. Durch die direkte Verbindung von Punkt zu Punkt ermöglichen sie parallelen Datenaustausch zwischen Subnetzen oder Geräten. Die Verbindung zur Außenwelt wird durch das so genannte Routing hergestellt. Router arbeiten auf dem Layer 3 des OSI-Modells und stellen Datenpakete auf Grund ihrer Adressinformationen zu. Dabei können Router den Zustellungsweg (die Route) selbständig auswählen. Bei Kenntnis der Zieladresse kann das Datenpaket sofort zugestellt werden. Im Gegensatz zu einer Bridge verbinden Router nicht genau zwei Netze (oder Segmente) miteinander, sondern es wird eine Verbindung in beliebig viele weitere Netze hergestellt.
- 3.30 -
:. 3. Netzwerke
- Das OSI-Schichten-Modell Damit verschiedene Betriebssysteme miteinander verbunden werden können, entwickelte die ISO 1978 das so genannte Referenzmodell OSI (open systems interconnection), welches im Jahr 1983 zum Standard erhoben wurde. Die Schichten, auch Layer genannt, sind immer von unten (physische Netzverbindung) nach oben (Anwendung) nummeriert. Dabei nimmt das jeweil nächsthöhere Layer immer die Dienste des nächstniedrigeren Layer in Anspruch. Es werden 7 Schichten unterschieden: 7 - Application, 6 Presentation, 5 – Session, 4 – Transport, 3 – Network, 2b LLC 2a MAC für den Datalink sowie 1 – die physische Ebene. Die Verkabelung findet auf Ebene 0 statt.
Abb.: Schichten und Verbindungselemente
- Vorbeugende Wartung Netzwerke sind heute ein integraler Bestandteil von Unternehmen. Dies führt dazu, dass, wenn ein Netzwerk zusammenbricht, auch die Verkäufe von Produkten aufhören. Unglücklicherweise können eine Vielzahl von Fehlern in Netzwerken auftreten: Router können ausfallen, Server sind blockiert oder aber Leitungen werden unterbrochen. Eine exakte Fehlerbestimmung kann oft mehrere Stunden in Anspruch nehmen. Es ist eine Tatsache, dass die Überwachung und Analyse einer bestehenden Netzwerkinfrastruktur in vielen Firmen heute zu kurz kommt. Häufig sind die personellen Kapazitäten in den IT Abteilungen zu klein, als dass man sich um die aktive Netzwerküberwachung kümmern könnte. Analysen werden in der Regel erst dann gemacht, wenn die Netzwerkperformance schlecht ist. Für den Kunden gibt es jedoch nur zwei Netzwerkzustände: Es funktioniert oder es funktioniert nicht. Entweder kann auf den Web Server zugegriffen werden oder nicht. Diese binäre Sicht beeinflusst IT- und Netzwerk-Administratoren gleichermaßen: Ist das Netzwerk nicht zusammengebrochen, rühre es besser
- 3.31 -
:. 3. Netzwerke
nicht an. Wenn es zusammengebrochen ist, repariere es und warte darauf, dass etwas anderes zusammenbricht. Wenn Fehler häufig auftreten, müssen redundante Systeme oder Failover-Systeme aufgesetzt werden, um mögliche Downtimes zu verhindern bzw. zu reduzieren. Die Fähigkeiten von Hubs, Switches, Routern, Servern und anderen Systemen, Fehlersignale auszusenden, erlauben es vorbeugende Wartung zu betreiben. Heutige Netzwerk-Protokolle, LANs und Ausrüstungen sind so designt, dass sie heute fehlertolerant und abfedernd wirken. Warnungen können jedoch auch einen Hinweis darauf geben, dass größere Netzwerkausfälle in Kürze bevorstehen; der Vergleich von aktuellen mit historischen Daten zeigt Verhaltensmuster auf, die deutliche Hinweise auf schwer wiegende Fehler geben können.
Containing network costs Supporting mobile/wireless connections Network security International network coverage Increasing network capacity Integrating new applications Connecting remote users Monitoring network and application 0
10
20
30
40
50
60
Percentage of Respondants Answering Difficult or Extremely Difficult
Abb.: Hauptprobleme von Organisationen beim Betrieb von Netzwerken; Quelle: Yankee Group
- 3.32 -
:. 3. Netzwerke
- Integrierte Analyse ist notwendig Das Hervorbringen neuer Dienstleistungen im Internet erhöht Wettbewerbsvorteile nur dann, wenn die Leistung der bestehenden Services dadurch nicht eingeschränkt wird. Es ist deshalb von elementarer Bedeutung zu wissen, wie sich eine Infrastruktur bei der Einführung zusätzlicher Services verhält. IT-Manager müssen die Leistungsfähigkeit von Systemen nicht nur verbessern, sondern diese ständig steigern, vor allem muss die Zufriedenheit des Endkunden berücksichtig werden. Wer heute erfolgreich E-Business-Anwendungen betreiben will, benötigt integrierte Performance Management Solutions, die neben den Netzwerken, auch Anwendungen, Systeme und Services umfassen. Die Antwortzeit eines Online-Kunden ist die kritische Größe für die Abwicklung einer Transaktion. Ohne die Analyse des gesamten Netzwerkes ist es nicht möglich, schnelle Antwortzeiten für den Kunden sicherzustellen. Das Problem vieler heute eingesetzter Anwendungen ist, dass sie kein vollständiges Bild der Leistungsfähigkeit der Services bieten. Das traditionelle Management der Computerinfrastrukturen ist nach bestimmten technischen Bereichen zersplittert. Zum Beispiel analysieren einige Werkzeuge die Leistungsfähigkeit einzelner Netzwerkteile, während andere den Verkehrsfluss innerhalb des Netzwerkes ansehen. Andere Werkzeuge untersuchen die Leistungsfähigkeit der Anwendungs-Software oder die Antwortzeiten für Transaktionen. Eine derartige Fragmentierung macht es sehr schwierig für das IT-Management, gezielte Analyse zu machen und vor allem den Gesamtüberblick zu behalten. Netzwerke sind kybernetische Systeme, die nur dann verstanden werden können, wenn man die Rückkopplungen aller beteiligten Elemente kennt. Fragen nach der Leistungsfähigkeit der CPU, der Datenspeicher, des Swapping, des I/O, der Anwendungsbelastung oder der Antwortzeiten sollten von einem Network Performance Monitoring-Systems beantwortet werden. Ziel des Monitoring muss es sein, die Verfügbarkeit zu erhöhen und gleichzeitig die Kosten zu setzen. Ein hoher Return on Investment kann nur erreicht werden, wenn die Fehler, bevor sie auftreten, erkannt werden. Jeder Netzwerkmanager bestätigt, dass es keine leichte Aufgabe ist, genügend Bandbreite zu kaufen, um mit dem Wachstum des Netzwerkes Schritt zu halten. Die Messung der Performance über die Auswertung von gesammelten Router und Switcher-Daten ist nicht zufrieden stellend. Deshalb werden integrierte Monitoring-Lösungen benötigt, die das notwendige Datenmaterial konsolidieren und systematisch auswerten. Die neuen über das Web abrufbaren Performance-Monitoring-Lösungen machen es heute möglch, dass auch Führungskräfte außerhalb des IT-Bereiches Zugang zu Netzwerk Performance Informationen haben. Es geht nicht immer nur darum, mehr Brandbreiten zuzukaufen, sondern vielmehr müssen die bestehenden Ressourcen wirksamer genutzt werden. Von Element-/DeviceManagement über Network Management und Infrastruktur Performance Management (IPM) führt der Trend heute hin zu Integriertem-Service-Level Management, wobei integrierte Service Management Tools wie CAUnicenter und IBM-Tivoli harte Konkurrenz von so genannten „bottom-up Tools“ wie HP-OpenView und Lucent Vital Suite erfahren.
- 3.33 -
:. 3. Netzwerke
HP OpenView Functional Map integrated service management service provisioning
integrated service assurance customer management portal
process management
service activation
business/service impact views
service usage
integrated help desk
service reporting
SLA definition & management
network performance management
system storage application performance performance performance management management management
network fault management
application system storage fault fault fault management management management
business intelligence & billing
service usage management
Abb.: HP-Openview Building Blocks
- Aktuelle Trends bei Netzwerken Es gibt verschiedene Möglichkeiten, mehrere Computer miteinander zu verbinden. Die günstigste, allerdings mittlerweile veraltete Lösung bieten Hubs. Die Weiterentwicklung der Hubs sind die Switches, welche die einzelnen Acces Points „intelligent“ miteinander verbinden, wobei die Daten auf direktem Wege von einem Rechner zum anderen gelangen, ohne Umweg durch das gesamte Netz. Wer von Zuhause oder im Büro mit mehreren Computern ins Internet möchte, dem stehen qualitativ hochwertige Produkte von Cisco und Elsa zur Verfügung. In diesem Fall wird ein so genannter Router benötigt. Der Trend bei Netzwerken geht heute weg vom traditionellen Layer2 Netzwerk hin zu intelligenten Multilayer Netzwerken. Während vor zwei Jahrem im Access Bereich reines Layer2 Switching propagiert wurde, so sind bereits heute erste Multilayer Switches (Layer 3 und 4) für den Access Bereich erhältlich. Layer3 Netzwerke können in redundaten Umgebungen dank Routing Protokollen (RIP, IGRP, OSPF, etc.) innerhalb weniger Sekunden einen alternativen Pfad durchs Enterprise Network aktivieren. Layer2 Netzwerke sind bedingt durch den Spanning Tree Alogrithmus deutlich langsamer in der Reaktion auf den Ausfall einer Netzwerkkomponente. Durch die vermehrte Integration von zeitkritischen Applikationen wie Voice over IP gewinnt der so genannte Quality of Service (QoS) innerhalb von Enterprise Netzwerken immer mehr an Bedeutung. Zeitkritische Datenpakete müssen deshalb von den Netzwerkkomponenten bereits an Ihrem Eintrittspunkt ins Netzwerk erkannt und prioritär in Richtung ihres Bestimmungsortes weitergeleitet werden. Je mehr Dienste auf einem Netzwerk laufen müssen, umso wichtiger ist es, dass das Netzwerk redundant ausgelegt sein muss. War dies früher nur in Großfirmen der Fall, - 3.34 -
:. 3. Netzwerke
ist heute ein eindeutiger Trend auch im Bereich des Mid-Markets spürbar. Wichtig bei der Analyse der Network Performance ist das Know-How der Mitarbeiter im IT Staff oder eines externen Systembetreuers. Deren KnowHow ist der Schlüssel zu einer raschen Fehlerbehebung bei auftretenden Problemen. Eine der größten Herausforderungen für einen Chief Information Officer (CIO) ist es heute, Netzwerk und Systemanwendungsbereiche so zusammenzuführen, dass diese gemeinsam an der Fehlererkennung arbeiten können. Wenn das Netzwerk zusammenbricht, ist die Frustation meistens groß. Diese wird umso größer, wenn es keine Gesamtübersicht über das Netzwerk und die Systeme und Anwendungen gibt, insbesondere wenn es sich um komplexe Systeme handelt. - Schneller, skalierbarer und sicherer Die Überwachung von Netzwerken ist heute eine wichtige Entscheidungsgrundlage für IT-Infrastruktur-Erweiterungen. Das ist umso mehr von Bedeutung, da diese Erweiterungen nicht mehr aus den ITAbteilungen heraus initalisiert werden, sondern vor allem aus dem Marketing. Die Netzwerkinfrastrukturen werden aktuell von den Marketingleuten forciert („business is driving the network“). Das bedeutet, dass Softwarelösungen wie CRM, Provisioning, Asset Management, Service Assurance, Network-/Customer-Reporting und Billing integriert werden müssen und das Zusammenspiel des Datenaustausches reibungsfrei funktionieren muss. Ohne eine frühzeitige Problem- und/oder Fehlererkennung lässt sich dies jedoch nicht realisieren. Da hierfür ein tiefgründiges Netzwerk-Knowhow notwendig ist und die Tätigkeiten recht zeitaufwändig sind, werden die notwendigen Budgets für die Verbesserung der Netzwerk Performance stark zunehmen. Netzwerke müssen schneller, skalierbarer und sicherer werden.
Schneller:
Einführung von 10 Gigabit Ethernet im Core und Distribution Bereich; Tendenz zu 100 Mbit bei normalen PC Nutzern und 1 Gbit/s bei Power Usern
Skalierbarer:
Tendenz zu Multilayer Switching neu auch im Access Bereich Tendenz zu kombinierten 10/100/1000 Anschlüssen im Access Bereich
Sicherer:
Layer3 Technologie selbst im Access Bereich -> schnelleres Recovery Bessere Kontrolle des Network Access dank Layer3 Access Kontrollen
Die breite Markteinführung von 10 Gigabit Ethernet wird die notwendige Bandbreite für die nächste Generation von Applikationen bereitstellen. Dank neuerer und leistungsfähiger ASICs werden Switches immer mehr Funktionen direkt im Rahmen der Hardware erledigen können, was massive Performancesteigerungen zur Folge hat. Die Herausforderungen für das - 3.35 -
:. 3. Netzwerke
Netzwerk Management sind hierbei vielschichtig. Vor allem geht es darum, die Zahl der Netzwerkprotokolle zu vermindern, eine Single VendorStrategie für Netzwerkelemente (weniger TCO) sowie für Operating- und Management-Systeme anzustreben und Werkzeuge mit guten Root-CauseAnalysis-Möglichkeiten zu nutzen, um Arbeitskräfte effizienter einzusetzen. Das Unternehmen ete-hager hat folgende Schwerpunktbereiche/Produkte für das Performance Management von Infrastrukturen identifiziert:
Real Time Monitoring:
Application & Content Performance (NetScout) Monitoring & troubleshooting (NetScout, NAI, Agilent)
Trending & reporting:
Network (NetScout, Concord, InfoVista, HP-OV PI) Applications (NetScout, NetiQ, Concord)
Billing:
Portal, Narus, Exxact, NetScout/Apogee
SLM:
Availability (Muse, Visual) Response time (Mercury, KeyNote, ServiceMetrics) Performance (NetScout, VitalSigns, NetiQ)
Eines der Top-Produkte für Performance Management ist heute die eHealth Suite von Concord Communications. Das Network Performance-Tool von Concord Communications Inc., die eHealth Suite, arbeitet auf dem Prinzip des SNMP-Polling, um eine Datenbank über die Nutzung jedes Infastrukturelements aufzubauen und jede Ausnahme vom normalen Betrieb festzuhalten. Basierend auf der tatsächlichen Leistungsfähigkeit werden Wartezeiten oder Überschreitungen von voreingestellten Nutzungszeiten der CPU erkannt. Verändern sich die Nutzungsparameter, können Administratoren frühzeitig informiert werden, ohne dass die End-to-EndPerformance darunter leidet. EHealth ist eine vierteilige client/serverbasierte Lösung. Das Programm bietet ein webbasiertes Interface, generiert Adobe-Acrobat-Berichte auf dem Bildschirm oder für den Ausdruck, und es kann mit externen Management-Anwendungen wie HP OpenView kommunizieren. Die Software kann auf HP-UX, Solaris oder Windows NT Servern installiert werden. - Neue Standards für das Netzwerk-Monitoring Das Simple Network Management Protokoll SNMP ist heute der dominierende Netzwerk-Standard. Neben HTTP, Telnet oder FTP hat kaum ein anderes Protokoll eine vergleichbare Popularität erreicht. Neben den bereits etablierten LAN-Standards ist SNMP heute mit dafür verantwortlich, dass die Mixtur von Netzwerkkomponenten unterschiedlichster Hersteller heute zum Normalfall gehört. Moderne LAN-Strukturen sind heute durch Switching und VLANs wesentlich komplexer, als dies bei der Auslegung von SNMP vorgesehen war. Die ausufernde Informationsflut benötigt immer mehr Speicherplatz und Prozessorleistung. Das größte Problem von SNMP - 3.36 -
:. 3. Netzwerke
ist jedoch die Art und Weise, wie Messdaten beschafft werden. Die Tatsache, dass jede SNMP-Variable einzeln in einem Datenpaket angefragt und beantwortet wird, ist nicht besonders effektiv. Kommen zu den Standardanfragen auch noch Remote Monitoring-Anfragen (RMON) hinzu, wächst die zu übertragende Menge an Messdaten immer weiter an. Um dieser Datenflut entgegenzuwirken, wurde vom britischen Softwarehersteller Chevin bereits Ende der 80er-Jahre der High Speed Remote Monitoring Standard (HSRMON) entwickelt. Zu dieser Zeit gab es sogar noch keinen SNMP- oder RMON-Standard. Im Gegensatz zu SNMP setzt das HSRMONProtokoll auf das TCP (Transmission Control Protocoll) und nicht auf UDP (User Datagram Protocol) auf. Durch Multi-User-Technologie können die HSRMON-Agenten von mehreren Plattformen zum gleichen Zeitpunkt zugreifen. Von besonderem Vorteil hierbei ist, dass neben der reinen Übertragung von Messdaten, auch Alarme, basierend auf frei definierbaren Grenzen, generiert werden können. Dadurch dass HSRMON bei jeder Abfrage seitens der Managementstation nur diejenigen Werte liefert, die sich seit dem letzten Polling geändert haben, wird eine Datenflut systematisch vermieden. Insbesondere eignet sich HSRMON auch für die WAN-Welt, da der Standard das Ziel verfolgt, in einer „voll geswitchten Welt“ die Intelligenz der Agenten bin in die Endgeräte hineinzubringen. - Monitoring-Schwerpunkte Fast alle großen Unternehmen haben mindestens eine, wenn nicht sogar zwei integrierte Programme für das Management von E-BusinessInfrastrukturen im Einsatz. Die am meisten genutzten sind Tivoli Management System, HP OpenView, BMC PATROL oder CA Unicenter. Die Komplexität dieser Produkte erfordert vom IT-Personal eine Spezialisierung. Zu den Monitoringschwerpunkten zählen vor allem: CPU, Backplane oder I/O, Memory, Interface, Queuing, Latency, Jitter, Geschwindigkeiten sowie Anwendungscharakteristika. Die CPU ist ein wesentlicher Faktor, welches das Performance Management beeinflusst. Es muss sichergestellt sein, dass genügend Rechenleistung zu jeder Zeit zur Verfügung steht, da sonst ein Netzwerk kollabieren kann. Zu wenig an CPU kann die Wartezeiten in einem Netzwerk dramatisch erhöhen. Backplane oder I/O bezieht sich auf die Größe des Verkehrs, welches ein Element bewältigen kann, was normalerweise mit der BUS-Größe oder der so genannten Backplane Fähigkeit beschrieben wird. Eine ungenügende Backplane führt oftmals zu ausgefallenen Datenpaketen, die dann nochmals versandt werden müssen und zu zusätzlichem Verkehr in den Leitungen führen. Memory ist eine weitere wichtige Ressource für die Performance. Wenn nicht genügend Speicherplatz zur Verfügung steht, können einzelne Netzwerkelemente und sogar das gesamte Netzwerk ausfallen. Die Interfacegröße bestimmt, wie viele Daten gleichzeitig versandt werden können. Wenn es Beschränkungen in den Bandbreiten gibt, werden die Daten in Warteschlangen geschickt. Durch Wartenschlangen, Wartezeiten und Systemfluktuationen kann die Leistungsfähigkeit eines Netzwerkes ebenso in die Knie gehen. Die so genannte Latenzzeit beschreibt die normale Prozesszeit von dem Zeitpunkt an, zu dem die Daten ankommen, bis zu dem Zeitpunkt, zu dem das Datenpaket weiterversandt wird. „Jitter“ beschreibt - 3.37 -
:. 3. Netzwerke
die Lücke zwischen Datenpaketen, um Anwendungen wie Sprache oder Video zu streamen. Datennetzwerke haben normalerweise die Lichtgeschwindigkeit als Übertragungsgeschwindigkeit. Bei internationalen Firmen können größere Verzögerungen auftreten, wenn die Anwendungen nicht auf die Netzwerk-Leistungsfähigkeit angepasst sind. Die spezifischen Anwendungsmerkmale sind ein weiterer Faktor, welcher die Leistungsfähigkeit von Netzwerken beeinflussen kann. Insbesondere wenn große Datenmengen versandt werden, können erhebliche Leistungseinbussen auftreten. Um die erwähnten PerformanceBeeinflussungen in den Griff zu bekommen, stehen z.B. Methoden wie das Trending oder das Exception Management zur Verfügung. Das Trending erlaubt Netzwerkadministratoren Netzwerk-Upgrades zu planen und umzusetzen, bevor ein Kapazitätsproblem eine Netzwerk-Down Time oder Leistungsprobleme auslöst. Das Exception Management ist eine Methode zum Aufspüren möglicher Kapazitäts- und Leistungsprobleme. Es geht darum, bei Überschreitungen von Leistungsdaten und Kapazitäten sofort informiert zu werden, um das Problem zu untersuchen und zu lösen. Ein besonderes Problem bei heutigen Monitoring-Lösungen ist, dass sie nur begrenzt fähig sind, verschlüsselte Datenströme von unterschiedlichen Elemente zu analysieren. Hier trifft sich die Welt der Netzwerksicherheit mit derjenigen der Netzwerkanalyse. - Neue Technologien, Sicherheitsaspekte und Netzwerk Performance In der Praxis zeigt sich, dass die Antwortzeit durch Latenzzeit in den einzelnen Elementen verringert wird, sobald man NetzwerksicherheitsLösungen implementiert. Je effizienter Netzwerksicherheitslösungen werden, desto besser wird die Antwortzeit für Applikationen und die Zufriedenheit am Arbeitsplatz. Netzwerksicherheit und Performance lassen sich somit nicht voneinander trennen und bilden eine Art Symbiose. Ein zweiter wichtiger Punkt sind Standards. Da Sicherheitsfragen immer komplexer werden, sind Standards unverzichtbar. Immer wenn man glaubt, ein Problem gelöst zu haben, kommt bereits ein nächstes Problem auf. Die Verschlüsselung der Daten ist ein solches Problem. In einem Netzwerk kommt es auf die Menge der verschlüsselten Daten an, da diese mehr Bandbreiten und CPU-Leistung als unverschlüsselte Daten erfordern. Es zeigt sich ein Trend, dass zukünftig immer mehr Daten verschlüsselt werden. In erster Linie ist sicher die Menge der verschlüsselten Daten wichtig. Hierbei spielt der so genannte DiffservStandard (differentiated services) eine entscheidende Rolle. Je mehr Daten verschlüsselt werden, desto wichtiger ist es, dass alle Elemente eines Netzwerkes Diffserv unterstützen. Diffserv ist eine Prioritäts Markierung im IP Header, welche auch außerhalb des verschlüsselten Datenbereichs vorhanden ist.
- 3.38 -
:. 3. Netzwerke
- Netzwerkpionier Eine der Pionierfirmen für Netzwerke ist das Unternehmen 3Com, welches weltweit etwa 5000 Mitarbeiter beschäftigt. Das Unternehmen wurde 1979 von Bob Metcalfe, dem Erfinder der Ethernet-Technologie gegründet. 1994 sind die ersten 3Com Niederlassungen in der Schweiz aufgebaut worden, die dann 1997 zur 3Com (Schweiz) AG umgewandelt wurden. Für den Geschäftsführer von 3Com Schweiz Daniel Kohler geht es in der aktuell schwierigen Marktsituation darum, Gewinne zu maximieren und relative Marktanteile auszubauen. Um diese Ziele zu erreichen, konzentriert sich 3Com auf Partnerschaften, das Eingehen auf die Kundenbedürfnisse sowie Technologiekompetenz. Bei Letzterer setzt 3Com auf Sicherheit, Mobilität, Content und Konvergenz. Hierbei fokussiert das Unternehmen auf die Tätigkeitsbereiche Connectivity-, Networking- und Carrier-Lösungen. Auf dieser Technologie basieren heute praktisch alle lokalen Netzwerke (Lokal Area Networks, LANs). Beim Networking setzt 3Com mit über 1.200 Patenten auf die Ethernet Technologien und Applikationslösungen (Bsp. Unified Communication, CRM, Billing Solutions, Wireless Hotspots Lösungen). 3Com verfügt als Pionier zusätzlich für die Wirespeed Switchingfamilie neben der Layer 2 und 3 Funktionalität über ein Layer 4 (OSI Modell), welches viele der heutigen Mitbewerber nicht anbieten können. Hierbei werden bei einer Content-Überflutung (z.B. durch MP3) mit Layer 4 nicht business-orientierte Dienste im Netzwerk direkt abgeblockt, und es wird sichergestellt, dass business-kritische Anwendungen über das Layer 4 bei der Abwicklung einen einmaligen Vorrang erhalten. Dieses sichert eine hohe Verfügbarkeit und niedrigen Total Cost of Ownership (TCO). Der Ansatz des „Pay-as-you-grow“, wie in 3Com verfolgt, ist gerade für diejenigen ITManager interessant, die sich aktuell vor Budgetkürzungen gestellt sehen und eine kosteneffiziente Lösung benötigen. 3Coms Devise lautet, dass immer nur das bezahlt werden muss, was auch tatsächlich gebraucht wird. In einer Marktanalyse von IDG Global Solutions wird 3Com nicht von ungefähr als „Best of Market“ und vertrauenswürdig bewertet, während CiscoProdukte mittlerweile als zu teuer eingestuft werden, Fehler aufweisen und die zunehmende Arroganz der Verkäufer bemängelt wird.
Abb.: Tätigkeitsfelder von 3Com - 3.39 -
:. 3. Netzwerke
- Innovationen beleben das Geschäft Mit seiner innovativen XRN (eXpandable Resilient Networking)-SwitchingTechnologie, einer einzigartigen Verbindung auf Basis von Layer 3 von Softund Hardware, bietet 3Com eine neue Möglichkeit zum Aufbau von LAN Cores an. Dabei ermöglicht das XRN, Interconnect Kit Core Switches zu einer Gruppe zusammenzufassen. Die neue Technologie erhöht die Ausfallsicherheit, Skalierbarkeit und Verfügbarkeit eines Netzwerks und erlaubt dessen kostengünstige Erweiterung. Das 3Com-Interconnect Kit, das in Verbindung mit dem 4060/4050 Switch und der seit einem Jahr bestehenden SuperStack 3 Switch 4900 Familie verwendet werden kann, besteht aus XRN-Software, -Modulen und -Kabeln und ermöglicht es Netzwerkmanagern, Switches zusammenzuschalten. Durch eine besondere 3Com-eigene Technologie kann eine Gruppe von Gigabit Switches als eine einzige Layer-3 Switched Distributed Fabric zusammengefasst werden. In Phase 1 werden zwei Switches unter einer einzigen IP-Adresse als eine logische Einheit verwaltet. Die Switches verhalten sich hierbei wie ein einziger Hochleistungs-Router. Außerdem unterstützen sie die LinkBündelung für den Core, damit Bandbreiten über 2 Gigabit auch im laufenden Betrieb genutzt werden können, sowie Traffic-Weiterleitung über alle Links in dem XRN Switching Fabric. Bei der weiteren Implementierung der XRN-Technologie wird die Anzahl der Switches im Backbone Core einfach erhöht. Dadurch ist ein kostengünstiger Support über das Netzwerkmanagement für Anwendungen z.B. in Unternehmen, Behörden, im Gesundheits-, Finanz- und Bildungswesen möglich.
Abb.: XRN von 3Com
- 3.40 -
:. 3. Netzwerke
- Kundenorientierung forcieren Für 3Com ist die Kundenorientierung heute die wesentliche Voraussetzung, um innovative Netzwerkinfrastrukturen anbieten zu können. Im Jahre 2000 hat sich 3Com entschieden, den Fokus wieder auf ihre Kernkompetenzen in innovative Ethernettechnologien zu legen, deutlich früher als andere Mitbewerber. Damit setzt 3Com auf die Stärken, die es groß gemacht hat. Die Kostenstruktur konnte frühzeitig dem harten wirtschaftlichen Umfeld angepasst werden und im letzten Halbjahr konnte das Unternehmen bereits wieder positive Zahlen ausweisen. 3Com bietet für seine Kunden im Enterprise- und KMU-Bereich integrierte End-to-End-Technologien und damit Lösungen aus einer Hand. Das Angebot umfasst dabei komplette Netzwerkinfrastrukturen mit umfangreichen Funktionalitäten für Unternehmenslösungen wie z.B: 1. hoch verfügbare Core- und Etagen Switching-Lösungen bis Layer 4 Funktionen, ein umfangreiches Netzwerkmanagement, Gigabit Resilient Serverkarten sowie Desktop Netzwerkkarten, 2. Security Wireless LAN Lösungen von der patentierten XJack Netzwerkkarte bis hin zu Wireless LAN Hotspots und 3. Voice over IP NBX Lösungen, die es ermöglichen, über die bestehende Ethernet Infrastruktur mittels Hard- oder Softphones zu telefonieren. Außerdem stehen standardmäßig ein integriertes VoiceMailSystem und Schnittstellen für Unified Communication zur Verfügung. - Immunologie für Unternehmen Für 3Com haben Netzwerklösungen keine geringere Anforderung als diejenige, die natürliche Evolution von Netzwerken zu fördern. Das Unternehmen setzt hierbei auf das „Pay as you grow”-Konzept, d.h. der Kunde investiert nur so viel, wie es seinen effektiven Skalierungsanforderungen entspricht. Die Unternehmensphilosophie von 3Com ist einfach, aber wirksam: „Radical Simplicity“ und „Rich Connectivity“. 3Com sieht heute insbesondere im Markt für E-Security und Risk-Management einen der wichtigen Zukunftsmärkte des E-Business. Für Daniel Kohler geht es darum, Unternehmen mit dem bestmöglichen digitalen Immunsystem auszustatten. Mit der manipulationssicheren Embedded Firewall-Architektur verfügt 3Com hierbei über ein wirksames Sicherheitskonzept gegen Hacker-Attacken über das interne UnternehmensNetzwerk oder über das Internet. Die Sicherheits-Lösung überwacht den Anwender-Zugang zum Netzwerk und filtert den gesamten Datenverkehr. Dabei spielt es keine Rolle, ob die Datenströme aus dem internen Unternehmens-LAN selbst stammen oder über das Internet in das Netzwerk gelangen.
- 3.41 -
:. 3. Netzwerke
Abb.: 3Com End-to-End-Lösungen
- Die Zukunft der Netzwerke Die zunehmende Medienkonvergenz, das Multichannelling und das Umfeld der sinkenden IT-Budgets macht es für Netzwerkfirmen notwendig, die Ansätze für das Netzwerk-Design und das Management von Netzwerken neu zu überdenken. Für das Redesign von Netzwerken kommt es darauf an, auf intelligente Switches, Wireless Access Points, Router, intelligente Network Interface Cards (NICs) sowie IP Phones auf dem User Desktop zu setzen. Es dürfte sich abzeichnen, dass die Bedeutung von Core Switches/Routern abnehmen wird, da immer mehr wichtige Funktionen zu den Netzwerkgrenzen migrieren. Skalierbare, intelligente Swichtes, drahtlose Zugangspunkte sowie Router an den Grenzen der Netzwerke haben entscheidende Vorteile, da sie End-to-End-Performance für MultiserviceAnwendungen erlauben. Ebenso kann die Identifikation einer Person sowie die Verschlüsselung an Geräte an den Netzwerkgrenzen verlagert werden. In den nächsten Jahren werden Peer-to-Peer, Multicasting und Web-ServiceAnwendungen basierend auf Fastpath, XML und SOAP die Migration zu den Netzwerkgrenzen mit Distributed Building Blocks weiter vorantreiben. Die nächste Generation von Netzwerkprozessoren, die 10 Gigabit Ethernet Verbindungen benutzen, werden Layer 3 und Layer 4 SwitchFunktionalitäten weiter ausweiten und sogar Layer 7 Intelligenz integrieren. Embedded Load Balancing wird es erlauben, die Server-Kapazität und die Netzwerk Performance bei Bedarf zu optimieren. Dabei spielt es keine Rolle, ob die Netzwerkverbindungen „Wireless“ oder „Wired“ sind. Die Ansiedelung von Intelligenz an den Grenzen des Netzwerkes wird dazu führen, dass die Betriebskosten deutlich reduziert werden und gleichzeitig die Leistungsfähigkeit der Netzwerke erheblich zunehmen wird.
- 3.42 -
:. 3. Netzwerke
3.6 E-Government to Citizen: Interview mit Marius Redli
Marius Redli ist Direktor des Telekommunikation in der Schweiz
Bundesamtes
für
Informatik
und
APS: Das Bundesamt für Informatik und Telekommunikation (BIT) erbringt Querschnittsleistungen für die Bundesverwaltungen, ist der Leistungserbringer des Finanzdepartements, arbeitet mit den Kantonen zusammen und bietet seine Leistungen verwaltungsnahen Stellen an. Wie sieht die Kostenstruktur des Amtes aus, und in welchem Umfang werden Deckungsbeiträge durch verkaufte Dienstleistungen erzielt? Marius Redli: Das BIT hat ein Budget von etwa 250 Millionen SFr., davon sind etwa 20 % Personalkosten, der Rest wird für Sachmittel ausgegeben, externe Dienstleistungen, Infrastruktur, Telekommunikationstaxen usw. Überall dort, wo die Bedürfnisse bundesweit gleichartig sind, gibt es heute einen Leistungserbringer – das BIT – für die gesamte Telekommunikation, als Kompetenzzentrum SAP, als Kompetenzzentrum Internet-Technologie, für die operative Sicherheit, Interoperabilität der Bürokommunikation etc. Ab dem 01. Januar 2005 sollen die Leistungen vom BIT verrechnet werden. Wir sind daran, eine Kosten- und Leistungsrechnung bis Ende des Jahres 2002 einzuführen. Im Moment herrscht in der Bundesverwaltung noch Leistungsbezugszwang und Leistungserbringungspflicht. Zukünftig soll allerdings zunehmend Marktorientierung im Fokus stehen, so dass Wettbewerb zwischen internen und externen Leistungserbringern stattfinden kann.
APS: Wo könnte dann ein zukünftiger Deckungsbeitrag für das BIT liegen? Marius Redli: Das BIT sollte zukünftig einen Deckungsbeitrag in der Größenordnung von 75 bis 100 % anstreben. Dies wäre meine Vorstellung, aber hier gibt es noch keine konkreten Überlegungen. Das BIT hat hierbei das Potenzial, Leistungen zu Marktpreisen zu erbringen. Wir müssen keine Mehrwertsteuer bezahlen und wir müssen eigentlich keinen Gewinn machen. Heute haben wir keine Finanzierungs-, sondern Priorisierungsprobleme. Doch müssen wir die Ausgaben gegenüber dem Parlament belegen.
APS: Bei diesen Vorteilen könnte natürlich die Gefahr bestehen, dass durch diese Wettbewerbsvorteile des BIT Firmen am freien Markt benachteiligt werden können? Marius Redli: Man wird sich entscheiden müssen, ob man uns ganz auf den Markt hinaus lassen will. Dies ist eigentlich heute nicht vorgesehen. Wenn überhaupt, so wäre dies frühestens im Jahr 2005 vorstellbar, weil ein derartiger Schritt Zeit benötigt. So lange wir in der Verwaltung tätig sind, haben wir auch viele Auflagen zu beachten: einige Wettbewerbsvorteile
- 3.43 -
:. 3. Netzwerke
würden also durch verwaltungsspezifische Auflagen und Restriktionen wettgemacht.
APS: Auf Grund von fehlendem statistischem Material und unklaren Zuständigkeiten ist es sehr schwierig, genauere Zahlen und Fakten zur öffentlichen Beschaffung im Schweizer IT-Sektor zu erhalten. Wie ist die Vorgehensweise bei der IT-Beschaffung? Marius Redli: Ich denke nicht, dass es intransparent ist. Bis zu einer Summe von 50.000 SFr. ist die Beschaffung relativ frei. Bis zur WTO-Grenze von 250.000 SFr. müssen mindestens 3 Angebote eingeholt und verglichen werden. Bei höheren Beträgen ist eine öffentliche Ausschreibung vorgesehen. Darüber hinaus bestehen in der Bundesverwaltung zusätzliche Kontrollmechanismen. Man macht sich oftmals keine Vorstellung, mit welchem Aufwand Evaluationen von größeren Beschaffungen verbunden sind. Für kleinere Projekte wird wie bei Unternehmen mit einem Partnernetz von Firmen gearbeitet, mit denen bereits in der Vergangenheit erfolgreich zusammengearbeitet wurde.
APS: Wie sehen Sie als BIT-Direktor das E-Government-Potenzial für die Schweizer IT-Industrie? Marius Redli: Sie kennen vielleicht die typische Entwicklungskurve von neuen Technologien der Gartner-Group. Auch das E-Government wird nach der Ernüchterung in den nächsten Jahren wieder an Bedeutung gewinnen. Allerdings wird sich E-Government nur dann durchsetzen, wenn gleichzeitig ein Nutzen für den Bürger und die Verwaltung entsteht. Dazu braucht es innerhalb der Verwaltungen eine Neugestaltung der Geschäftsprozesse, ähnlich wie dies beim E-Procurement (öffentliches Beschaffungswesen) und beim Supply Chain Management im E-Business-Bereich geschehen ist. Der Nutzen hat zwei Dimensionen: E-Government muss nutzbar und nützlich sein. Die Transaktionen müssen einfach, reibungslos und sicher ablaufen. Ohne Mehrwertdienste, wie z.B. deutliche Zeiteinsparungen für den Bürger, wird der Anreiz für die Nutzung von Online-Diensten nicht gegeben sein. Eigentlich dürfte der Slogan heute auch nicht mehr nur „Schulen ans Netz“ lauten, sondern auch die Senioren sollten ans Netz.
APS: Im Februar 2002 veröffentlichte der Bundesrat seine E-Government-Strategie. Wie sieht eine derartige Strategie in einem föderalistischen Land wie der Schweiz aus? Marius Redli: Zentralistische E-Government-Konzepte wie in den USA werden in der Schweiz nicht funktionieren. Zwar brauchen wir gleiche Standards, aber die Vielfältigkeit in den Anwendungen zu vereinheitlichen, ist ein schwieriges Unterfangen. Das große Problem der heutigen IT ist, dass viele glauben, wenn man irgend ein Betriebssystem oder das Telekommunikations-Protokoll vereinheitlicht, würde dann automatisch auch die semantische Abstimmung zwischen Anwendungsinhalten - 3.44 -
:. 3. Netzwerke
passieren. Dies ist aber nicht so. Stichwort „Steuererklärung“: Elektronisch hat man diese zwar schnell hin- und hergeschickt, aber die unterschiedlichsten Formulare derart zu vereinheitlichen, dass bei jedem Feld das gleiche steht und gemeint ist sowie stets identisch interpretiert werden kann, – davon sind wir noch meilenweit von einer Lösung entfernt.
APS: Wie stark wird der Bund zukünftig auf Outsourcing setzen? Marius Redli: Outsourcing ist für den Bund ein sehr wichtiger Faktor. Bereits heute verwendet das BIT 80 % seines Budgets für Sachmittel und externe Dienstleistungen: Was der Bund braucht und die Privatwirtschaft preiswert anbietet, wird extern eingekauft. Diese Quote könnte in den nächsten Jahren noch deutlich steigen. Das BIT gibt heute lediglich 20 % seines Budgets für Personalkosten aus. Vergleichbare Leistungserbringer haben etwa 70 % Personalkosten. Bei seiner Outsourcing-Strategie setzt das BIT nicht immer auf die allerneuesten, sondern auf zwar neue, aber schon bewährte Technologien. Insbesondere deshalb, um einer technologiebedingten Kostenexplosion entgegenzuwirken.
APS: Welche Kosteneinsparungen lassen sich in der Schweiz durch E-Government erzielen (Transaktionskosten, Personalkosten etc.)? In Neuseeland konnten die Verwaltungsstellen beispielsweise durch E-Government-Lösungen um über die Hälfte reduziert werden. Marius Redli: Die Ressourcenersparnis ist sicherlich ein wichtiger Punkt. Es muss aber konkret die Frage nach der Leistung gestellt werden, die es erbringen soll. Bei aller E-Government-Euphorie, wird man auch weiter konventionelle Wege in Betrieb halten müssen. Der Staat darf Bürger, die nicht online gehen wollen, nicht ausschließen. Dies wird die Substitution bisheriger administrativer Vorgänge durch E-Government-Lösungen verlangsamen. E-Government ist nicht das gleiche wie E-Business, es folgt anderen Regeln. E-Government ist fast ausschließlich ein Zusatzkanal, wohingegen im E-Business ein homogenes Produkt-Sortiment vorherrscht. Der Staat ist jedoch eine Art Gemischtwarenladen, der eine Vielzahl von Dienstleistungen anbieten muss. Dies setzt natürlich auch möglichen Kostensenkungen Grenzen, obwohl ich hier durchaus Potenziale sehe.
APS: Wenn es nun die Möglichkeit gäbe, alles automatisch durch neue Technologien zu erfassen, bräuchte man keine Steuererklärung mehr einzureichen, sondern die Daten würden beispielsweise durch eine elektronische Chip-Karte automatisch erfasst. Würde dies nicht einen erheblichen Mehrwert für den Bürger und enorme Kostensenkungspotenziale für die Verwaltungen bedeuten? Marius Redli: Persönlich glaube ich nicht daran, dass dies bereits in den nächsten Jahren passieren wird. Letztendlich ist die Frage nach der Einführung neuer Technologien auch eine Frage von hohen Investitionen und deren Amortisation. Durch die aktuellen Sparbemühungen des Bundes steht das E-Government auf der Prioritätenliste sicher nicht ganz oben. E- 3.45 -
:. 3. Netzwerke
Government wird kommen, aber nicht so schnell wie viele glauben, da es viele psychologische Hemmschwellen gibt. Vieles was heute die Etikette „EGovernment“ führt, gab es übrigens unter anderem Namen schon früher. Nämlich Anwendungsprogramme zum Datenverkehr mit der Verwaltung, die durch den Endbenutzer direkt bedient werden.
APS: Der Staat muss schlanker werden und die Einflussnahme der Wähler dem neuen Medium Internet angepasst werden. Wann wird es in der Schweiz E-Voting geben? Marius Redli: Möglichkeiten wie E-Voting sind zwar denkbar, aber auch hier gilt, dass die elektronische Stimmabgabe nicht die einzige Form der Ausübung der politischen Rechte sein wird, sondern vermutlich noch längere Zeit optional angeboten wird. Außerdem muss beispielsweise mit digitalen Signaturen eine eindeutige Identifizierbarkeit des Stimmabgebers, aber auch das Stimm- und Wahlgeheimnis sichergestellt werden. Zunächst werden die 35.000 Bundesangestellten mit einer elektronischen Identitätskarte ausgestattet, um hier erste Erfahrungen zu sammeln.
APS: Wird es nicht ähnlich sein, wie beim E-Business, dass sich zunächst Government to Government durchsetzen wird, bevor Government to Citizen kommt? Marius Redli: Ich sehe dies genauso. Die Transaktionsvolumen im G2CBereich sind noch zu gering. Deshalb werden die ersten Schritte im G2GBereich gemacht: zwischen Verwaltungen der Gemeinden und Kantone sowie zwischen Kantonen und dem Bund. Hier geht es, um die Verbesserungen von Abläufen und Einsparungen in der Verwaltung selbst. Der Hauptnutzen wäre ein schnellerer Datenaustausch zwischen den Verwaltungen, welche dann gegenüber den Bürgern bessere Dienstleistungen ermöglicht. Die heutige Generation ist sehr sensibel auf Reaktionszeiten im Service Public, es kann ihnen nicht schnell genug gehen.
APS: Um Kosten zu sparen, wird es auch notwendig werden, interkantonale EGovernment-Lösungen einzuführen, d.h. über Wissens-management-Systeme den Erfahrungsaustausch zwischen Behörden zu verbessern. Die Basis hierfür sind Intranet- bzw. Content-Management-Lösungen. Welche Knowledge-Strategie ist hier angedacht Marius Redli: Government to Governement-Lösungen bieten einen erheblichen Vorteil für wirksames Wissensmanagement, insbesondere bei Intranets und für das Content-Management. Hier wurden von der Bundesverwaltung erste Initiativen gestartet, z.B. die Harmonisierung von bestehenden CMS-Lösungen. Koordiniert wird dies vom ISB, dem Informatik-Strategie-Organ des Bundes.
APS: Wie sieht die Entwicklung von E-Health in der Schweiz aus? Wann wird es eine elektronische Patientenkarte für die Schweiz geben? - 3.46 -
:. 3. Netzwerke
Marius Redli: Mir wäre nicht bekannt, dass man sich aus staatlicher Sicht Gedanken zu diesem Thema gemacht hätte, da die Krankenversicherungen privatwirtschaftlich abgedeckt werden. Deshalb werden staatliche elektronische Patientenkarten heute nicht diskutiert, dies wird möglicherweise von den entsprechenden Krankenkassen bzw. Versicherungen geschehen. Aber schneller Datenaustausch für medizinische Zwecke ist bereits Realität. So werden im Wallis beispielsweise Röntgenbilder zwischen den Ärzten hin und hergeschickt.
APS: Geht der Bund bei der Entwicklung von E-Learning-Projekten und EGovernment voran? Marius Redli: Das BIT ist daran, E-Learning-Kurse einzuführen, z.B. beim Ausbildungsprogramm des BIT. Aber nicht jeder Bürger ist ein Autodidakt, weshalb sich E-Learning eben nur als Ergänzung anbietet. In einer Zeit des elektronischen Datenüberangebotes besteht die große Herausforderung in der geschickten Wissensnavigation, d.h. was schaue ich überhaupt an, und wie kann ich die Richtigkeit der Informationen überprüfen?
APS: Der Staat muss zu einer Self-Service-Einrichtung werden. Das Internet ist hier das treibende Medium für derartige Services. Wie sieht die Web-Service-Strategie für derartige Dienstleistungen aus? Gibt es ein Trend-Monitoring von WebTechnologien? Marius Redli: Eine explizite Web-Service-Strategie ist mir nicht bekannt. Wir streben jedoch in allen Bereichen eine Verbesserung der Dienstleistungstrategie an. 80 % der Projekte, die aktuell mit dem Internet zu tun haben, sind Content-Management-Systeme. Hier führen wir Evaluationen von Lösungen durch. Ein systematisches Trend-Monitoring webbasierter Technologien ist zwar bisher nicht geplant, wäre jedoch ein richtiger Schritt, um die möglichen Self-Service-Potenziale noch besser zu nutzen.
- 3.47 -
:. 3. Netzwerke
3.7 Interview mit Patrick Guay: Immunologie für das Unternehmen
Geschäftsbereiche und Fokus von 3Com. Der Vorstandsvorsitzende von 3Com, Bruce Claflin, hat das Unternehmen auf das Ethernet ausgerichtet, auf die drei Geschäftsbereiche LAN Switching, Soft Switching und NIC-Karten fokussiert. Nach der Meinung 3Coms werden folgende fünf Kundenbedürfnisse die Entwicklung des Netzwerkmarktes in der nächsten Zukunft vorantreiben: -
Infrastrukturen, die die Unterstützung hoher Datenflüsse durch hoch skalierbare Resilient Networks ermöglichen. Mobilität, um die freie Bewegung der Anwender an ihren Arbeitsplätzen zu ermöglichen. Zusammenarbeit, unterstützt durch Hebel-Technologien wie Voice-overIP und Anwendungen wie Unified Communications. Content, der durch effektive und effiziente Lenkung des MultimediaTraffic unabhängig vom User-Standort zu diesem gelangt. Sicherheit, d.h. die Sicherstellung, dass Netzwerke nicht nur vor Angriffen von außen, sondern auch von innen sicher sind.
Patrick Guay, Vice President und General Manager LAN Infrastructure Division bei 3Com im Interview mit Artur P. Schmidt. Er gibt Einblicke in seine Visionen zur Zukunft der Netzwerke.
APS: Aktuell scheinen die Unternehmen, die im Gegensatz zu den Carriern nicht überinvestierten, eine treibende Kraft zu sein, um die Netzwerkindustrie aus ihrer bisher größten Rezession zu führen. Wie reagiert 3Com auf diesen Umstand? Patrick Guay: Wir nützen diese Wachstumschance bei den Unternehmen, indem wir zwischen dem Geschäftsfeld Carrier und Enterprise differenzieren. Beide Bereiche behalten jedoch ihre verschiedenen Verkaufs-, Marketing- und Channel-/Partnership-Strategien. Im Rahmen unserer Forschung und Marktentwicklung konzentrieren wir uns immer mehr auch auf Kundensegmente wie Bildung oder Government.
APS: Langanhaltende Rezessionsmärkte haben auch etwas Positives. Sie erlauben denjenigen Unternehmen, die überleben, in erheblichem Umfang Marktanteile zurückzugewinnen. In welchen Technologiefeldern greift 3Com seine Wettbewerber an, und wo hat 3Com einen klaren Wettbewerbsvorteil gegenüber Cisco? Patrick Guay: Ich stimme zu, dass fallende Märkte in besonderem Maße erlauben, Marktanteile zu gewinnen, und obgleich dies Teil unserer Wachstumsstrategie ist, repräsentiert es nicht das Gesamtbild. Das Kampffeld um Marktanteile ist um Technologien herum fokussiert, die immer mehr standardisiert werden. 10/100 Switching ist hierfür ein gutes Beispiel. - 3.48 -
:. 3. Netzwerke
Einige Kunden benötigen höhere Funktionalität am Rande des Netzwerkes, um bestimmte Merkmale wie QoS (Quality of Service) oder Sicherheit unterstützen zu können. Andere suchen standardisierte 10/100 Switches und beschränken sich rein auf Connectivity-Lösungen. Hier stehen wir tagtäglich mit buchstäblich allen Netzwerkfirmen im Wettbewerb. In diesem hart umkämpften Markt ist es uns jedoch gelungen, weltweit die Nummer 2 unter allen Netzwerkfirmen zu bleiben. Wir haben dies unserer Entwicklungsstrategie zu verdanken, die die richtigen Merkmale dem richtigen Markt zuordnet, sowie unserer Kostenstruktur und unserer exzellenten Partnerbasis.
APS: Aber haben Sie einen klaren Wettbewerbsvorteil gegenüber Cisco? Patrick Guay: Ich bin davon überzeugt. 3Com liefert praktische Netzwerklösungen für Unternehmen zu einem geringeren Total Cost of Ownership als Cisco. Wir konzentrieren uns hierbei nicht nur auf die Kostenbasis, sondern auch auf unsere Dienstleistungen, Support Verwaltung, und, wie das XRN-Konzept (s. Kasten) aufzeigt, darauf, wie ein Kunde zukünftig sein Netzwerk skalieren kann. Kombiniert mit unseren Voice- und Wireless-Angeboten können wir unseren Kunden eine vollständige End-toEnd-Lösung anbieten.
APS: Es hat heute immer mehr den Anschein, dass Networking und nicht das Computing zur Wiege von Innovationen wird. Wird Scott McNealy Recht bekommen, der vorhersagte, dass das Netzwerk der Computer sein wird? Patrick Guay: Die prophetischen Aussagen von McNealy, die ihrer Zeit weit voraus waren, tragen heute Früchte. Netzwerke werden immer intelligenter, wobei sie nicht nur Daten (mit immer höheren Datenraten) unterstützen, sondern auch Sprache und andere Anwendungen. Heute gibt es eine Vielzahl von Netzwerk-Endpunkten auf dem Markt. Ein PC ist nicht das einzige Gerät, welches eine Verbindung zu einem Netzwerk herstellt. Unsere Sicht ist, dass, während viele Nutzer die zunehmenden Vorteile von Netzwerken nutzen, viele andere Nutzer dieses als Interface sehen, um Geräte miteinander oder mit dem Internet zu vernetzen. Deshalb fokussiert sich 3Com nicht nur auf Innovationen im Enterprise Networking, sondern vor allem auch auf Kostensenkung von standardisierter Netzwerkausrüstung für Organisationen, die Netzwerke nur als Verbindung zum Internet benötigen.
APS: Das Gigabit Ethernet im Bereich Desktop und 10 Gbps im Backbone zeigen auf, wie wichtig Netzwerke heute für Unternehmen sind. Welche Übertragungsraten sehen Sie für das Jahr 2010 voraus? Wird hierbei weiterhin das Gesetz von Gilder - 3.49 -
:. 3. Netzwerke
(Verdreifachung der Bandbreiten pro Jahr) gelten, oder wird es erhebliche technologische Durchbrüche geben, die das Wachstum der Bandbreiten beschleunigen? Was bedeutet dies für die Zukunft der Switching-Technologie wie z.B. XRN? Patrick Guay: Bis zum Jahr 2010 ist noch ein langer Weg. Die IT-Industrie ist immer ungenauer in ihren Versuchen geworden, den nächsten großen Technologiewechsel vorherzusagen. Netzwerke müssen vor allem die Bandbreiten sicherstellen, die die Anwendungen benötigen. Die treibende Kraft werden nicht die Anwendungen sein, die den Weg hin zum Desktop beschleunigen, sondern es geht darum, den Preis nach den Bedürfnissen des Kunden auszurichten (Pay as you grow). Beispielsweise hostet eine Verbindung heute einen PC, aber in Zukunft könnte dies auch ein Server sein. Kostenwirksames 10/100/1000-Switching muss hierbei sicherstellen, dass der Kunde frei auswählen kann. In Datenzentren, in Wiring Closets und für applikationsspezifische Netzwerke, die Speicher unterstützen, wird die Nachfrage nach Network Switching deutlich ansteigen. Hier kann man nur eines heute relativ sicher vorhersagen, dass alle diese Anwendungen Ethernet unterstützen werden. Noch vor vier Jahren wäre dies nicht sicher gewesen.
APS: Wie sieht 3Coms Security-Strategie aus? Wie können sich Unternehmensnetzwerke schützen? Patrick Guay: Wir glauben, dass der Schutz so nahe wie möglich beim Nutzer stattfinden muss. Heute bieten wir eine Embedded Firewall-Lösung an, die die Integrität der Daten auf den PCs der Nutzer sicherstellt. Die gleiche Funktionalität bieten wir auch für Server an. Diese Security-Funktionen werden sich auch hin zum Edge-Switch bewegen. Ein anderer wichtiger Faktor, der berücksichtigt werden muss, ist, dass Anwender mobil sein und ihre Laptops in einer Vielzahl von Örtlichkeiten nutzen wollen. Physische Sicherheitsmassnahmen innerhalb eines Unternehmens (wie Firewalls und Virtual Private Networks) reichen nicht, um einen PC zu schützen, der in einem Wireless Hot-Spot z.B. wie einem Flughafen benutzt wird. Unternehmen wollen ihre Laptops deshalb impfen – genau dies macht unsere Embedded Firewall-Technologie.
APS: Die Netzwerk-Technologie legt die Fundamente für eine Matrix, genannt Internet, das Netzwerk der Netzwerke. Welche wesentlichen Zukunftstrends im Bereich der E-Security werden den größten Einfluss auf die Leistungsfähigkeit von Netzwerken haben? Patrick Guay: Trotz der simplen Tatsache, dass sich schnell weiterentwickelnde Netzwerkund Kommunikationstechnologien anspruchsvollere Sicherheits-mechanismen benötigen, muss sich auch deren - 3.50 -
:. 3. Netzwerke
Philosophie verändern. Anstatt auf einen immer breiter werdenden Bereich von Punktlösungen zu setzen, um Netzwerksicherheit herzustellen (z.B. Firewalls, Intrusion Detection-Dienstleistungen sowie Virus-Scanning), werden sich IT-Verantwortliche zukünftig einem systembasierten Ansatz zuwenden, um Netzwerke, Anwendungen, Assets und Informationen in einer auf immer mehr Ebenen fokussierten Art und Weise sicherer zu machen. In zukünftigen Netzwerken müssen all diese Mechanismen zusammenarbeiten, um das Feintuning der Sicherheits-Dienstleistungen sicherzustellen, die sich auf den Nutzer, End Stations, Anwendungen und Kontexte konzentrieren. Enabling Technologien wie Directory Services, Enterprise Management-Plattformen, 802.1x/EAP und Stateful Packet Inspection werden zusammenwachsen, um einen systembasierten Sicherheitsansatz sicherzustellen. Ohne diese zunehmende Intelligenz in der Sicherheit würde die Leistungsfähigkeit und Nutzbarkeit von Netzwerken deutlich abnehmen.
APS: Private Unternehmens-Netzwerke machen mittlerweile einen beträchtlichen Anteil an der Netzwerk-Infrastruktur aus. Der Zusammenbruch eines Unternehmensnetzwerkes über längere Zeit kann die Lebensfähigkeit eines Unternehmens gefährden. Wie kann durch Distributed Networking einerseits der erhöhte Datenverkehr bewältigt, andererseits das Risiko für Unternehmen aufgefangen werden? Patrick Guay: Eine verteilte Netzwerk-Topologie wie unsere XRN-Lösung ist darauf ausgerichtet, die höchsten Verfügbarkeitslevel zur Verfügung zu stellen, um Ausfallzeiten durch einen Fehler an einem bestimmten Punkt des Netzwerkes zu vermeiden. Anders als bei redundanten Systemen, die eine identische Ausrüstung im «Standby Mode» arbeiten lassen, bis ein Fehler in der Primär-Box auftritt, nützt XRN die Vorteile aller Switches, um beim Datenverkehr die maximale Kapazität und den größten Durchfluss sicherzustellen. Wenn bei einem Link oder einer Box ein Fehler auftritt, wird die Belastung durch den Datenverkehr (Layer 2 und Layer 3) durch andere Switches auf der Fabric derart umverlagert, dass die Verfügbarkeit des Systems sichergestellt ist und es zu keiner Unterbrechung kommt.
APS: Die Verbindung von LANs über Virtual Private Networks ist ebenso ein wesentlicher Business-Trend, der auch neue Geschäftsmodelle für kleinere und mittelgroße Firmen erlaubt. Wie sieht die Zukunft von Wireless Private Networks aus, und wie können dort die Sicherheitsprobleme gelöst werden? Patrick Guay: Auch wenn aktuelle Sicherheitsbedenken bezüglich Wireless LAN durch die Standardisierungsarbeit der Arbeitsgruppe IEEE’s 802.11i behandelt werden und 3Com diese Standards, sobald diese verfügbar sind, berücksichtigen wird, gibt es heute bereits sehr sichere Lösungen, die der User verwenden kann. In größeren Umgebungen bieten Firewall-basierte - 3.51 -
:. 3. Netzwerke
Lösungen wie unsere «Superstack3»-Firewall einen einfachen Weg zu mehr Sicherheit, sowohl für Netzwerke mit Leitungen als auch für drahtlose Netzwerke. Unsere Firewall arbeitet in derselben Weise wie ein VPN, indem es Nutzer, die einen Remote-Zugang benötigen, über Remote-DSL oder KabelmodemVerbindungen in Bezug auf den Usernamen und das Passwort einer Liste von authorisierten Usern gegenüberstellt und den Teilnehmer identifiziert, bevor eine verschlüsselte Sitzung beginnen kann. Zusätzlich zur Superstack3 Firewall Lösung bietet 3Com auch viele andere Lösungen, um Technologien wie TLS, 802.1x, EAP, RADIUS, 3DES und andere zu unterstützen. Ein Beispiel für eine 3Com-Lösung für kleinere Firmen ist der Access Point 6000, welcher ebenso wie Higher-End-Lösungen sichere Verbindungen aufbaut, wobei er jedoch nicht auf zusätzliche externe Server zurückgreifen muss.
APS: Die Ausgaben für die drahtlose Kommunikation sind im Jahr 2002 weiter gewachsen. Mit 116 Mrd. Dollar konnte gegenüber dem Jahr 2001 ein Zuwachs von 8.5% erzielt werden. Wie groß wird der Anteil an Wireless-Technologien in den nächsten Jahren im 3Com-Portfolio sein? Patrick Guay: Diese Frage ist schwierig zu beantworten. Man hätte diese Frage einige Jahre vorher auch über das Ethernet stellen können. Ich glaube, dass der Wireless-Bereich weiter stark wächst, er jedoch zunehmend ein Teil des Fabric sein wird, weniger ein Add-on-Device zum Netzwerk. Chip-Hersteller entwickeln Chip-Sets, die heute eine Vielzahl von WirelessTechnologien auf einem Chip zusammenführen. Netzwerkentwickler wie wir haben Wireless-Anwendungen in buchstäblich alle unsere Netzwerkgeräte integriert: Telephone, Switches und Endpunkte etc. Ich würde deshalb die Prognose wagen, dass ein sehr hoher Anteil der 3Com-Netzwerke in den nächsten fünf bis zehn Jahren auf Wireless-Technologien basieren wird.
APS: In diesem Kontext spielt ja auch das Performance Management eine besondere Rolle. Insbesondere Data Mining, Network Performance Analysis und Integrated Service Level Management nehmen an Bedeutung mehr und mehr zu. Welcher Bereich ist für 3Com am interessantesten? Patrick Guay: Von den drei Bereichen ist sicherlich Integrated Service Level Management der interessanteste für 3Com. Während es zwar unwahrscheinlich ist, dass wir eine eigene Management-Plattform entwickeln, so werden wir jedoch eine aktive Rolle übernehmen, um die Leistungsfähigkeit bestehender Plattformen zu verbessern.
APS: Voice Networks, Cellular Networks und Data Networks wachsen zusehends zusammen. Peer-to-Peer-Netze könnten hierbei ein wesentlicher Trendsetter für diese
- 3.52 -
:. 3. Netzwerke
Konvergenz sein. Welche P2P-Innovationen sehen Sie für Intranets und Extranets in den nächsten Jahren voraus? Patrick Guay: Peer-to-Peer Netzwerk-Innovationen müssen die wachsende Zahl von P2P-Anwendungen unterstützen. Neue Fähigkeiten auf der Netzwerkebene müssen der Tatsache Rechnung tragen, dass der Datenverkehr auf P2P-Netzwerken völlig anders ist als beim Client-Server-Datenverkehr. In den nächsten Jahren wird es deshalb vor allem darauf ankommen, die Unterschiede in der Handhabung von P2PDatenverkehr zwischen Voice, Cellular und Data Networks zu überbrücken. Wenn hier neue Standards geschaffen werden, werden P2P-Anwendungen einen starken Zulauf bekommen.
APS: Abschließend eine Frage zur Zukunft des Networking. Network-Ausrüstungen unterstützen oftmals nicht die Protokolle, die von Anwendungen genutzt werden. Wie sehen die Protokolle der Zukunft aus, und welche Rolle spielt hierbei die Vision des semantischen Netzes von Tim-Berners Lee? Patrick Guay: Netzwerke nutzen nicht dieselben Protokolle wie Anwendungen. Dies heißt jedoch nicht, dass Netzwerke sich zukünftig nicht auf bestimmte Anwendungsprotokolle einstellen müssen. Genau aus diesem Grund müssen die Netzwerke intelligenter werden. Ich bin kein Experte bezüglich des semantischen Webs oder für webbasierte Anwendungen. Jedoch glaube ich, dass unsere Vision des Distributed Networking in dieselbe Richtung weist und uns eine feinabgestimmte Netzwerkkontrolle ermöglicht, um diesen Trends gerecht zu werden.
Begriffserläuterung: Expandable Resilient Networking (XRN) Die XRN (Expandable Resilient Networking)-Switching-Technologie ist eine Verbindung auf Basis von Layer 3 von Soft- und Hardware zum Aufbau von LAN Cores. Mit dem «XRN Interconnect Kit» können Core Switches zu einer Gruppe zusammengefasst werden. Die neue Technologie soll die Ausfallsicherheit, Skalierbarkeit und Verfügbarkeit eines Netzwerks erhöhen und dessen kostengünstige Erweiterung erlauben.
- 3.53 -
.: Hosting, Sicherheit und Standards
:. 4. Hosting, Sicherheit und Standards 4.1 IT-Outsourcing: Make or Buy
- Strategische Bedeutung der IT Bei der Informationstechnologie befinden wir uns in einem Transformationsprozess, im Rahmen dessen sich die DV-Manager neben der Sicherstellung des laufenden Betriebes zunehmend um die strategische Dimension der IT kümmern müssen. Content Management Systeme, Digital Asset Management, Customer Relationship Management und Security Management forcieren darüber hinaus die strategische Bedeutung der IT in den Unternehmen. Zu den wesentlichen Aufgaben von IT-Leitern und CIOs gehören hierbei die Weiterentwicklung der Unternehmensstrategie unter informationstechnischen Gesichtspunkten, die ständige Suche nach kundenorientierten neuen Techniken und Dienstleistungen, die Analyse der Kommunikationsströme, das Data-Mining, die Lebenszyklusanalyse der angebotenen Dienstleistungen sowie die kontinuierliche Anpassung von Organisationsstrukturen unter Berücksichtigung der verwendeten ITTechnologien. Kostensenkungsgesichtspunkte, Fokussierung auf Kernkompetenzen, Sicherheitsfragen und die Vielfalt möglicher Entwicklungsszenarien machen es zunehmend notwendig, sich mit den Pround Contra-Argumenten des IT-Outsourcing zu beschäftigen. Ziel des Beitrages ist es, etwas Licht in ein schwieriges und zunehmend verwirrendes Feld zu bringen. - Was ist IT-Outsourcing? Beim Outsourcing („Outside Resourcing“) der Informationstechnologie handelt es sich um die Auslagerung bzw. Abgabe diesbezüglicher Aufgaben an externe Dienstleister. Hierbei können Aufgaben mittel-, bis langfristig oder Aufgabenbereiche partiell oder vollständig ausgelagert werden. Denkbar ist das Outsourcing grundsätzlich für jede IT-Funktion und jeden IT-Bereich, wobei es allerdings zu prüfen gilt, wo eine Auslagerung von Anwendungssystemen oder von IT-Infrastrukturen Sinn machen und wo diese möglicherweise kontraproduktiv sind. Wegen der strategischen Bedeutung der IT ist Outsourcing zunehmend ein wichtiges Instrument zur Restrukturierung von Geschäftsaktivitäten und zur Neupositionierung von Unternehmen am Markt. Hierbei handelt es sich um eine komplexe und mehrstufige Problemstellung, die ein durchdachtes und systematisches Vorgehen notwendig macht. Stellt ein Unternehmen Überlegungen über ein mögliches Outsourcing unternehmensinterner IT-Leistungen an, so muss es sich nicht nur über ein „Make-or-Buy“ Gedanken machen, sondern auch die Art und Weise der Einbindung des Service-Partners festlegen. Zu den Informationsdienstleistungen, die outgesourct werden, zählen unter anderem die Datensicherheit, die Produktionskontrolle, technische Dienstleistungen, der Betrieb von Datenzentren, die Lenkung von Geschäftsprozessen, - 4.1 -
.: Hosting, Sicherheit und Standards
Problem-Management, Anwendungen, Web-Hosting, Kapazitätsplanung, Bestandsmanagement, Account- und Projekt-Management, Help Desks, Service Level Management sowie Kommunikations-Services. Unternehmen, die sich Gedanken über ein Outsourcing machen, müssen sich jedoch neben den Chancen auch mit den Risiken des IT-Outsourcing auseinander setzen, um mögliche Potenziale, aber auch mögliche Fallen erkennen zu können. Da naturgemäß Chancen und Risiken eng beieinander liegen, können Fehleinschätzungen für das auslagernde Unternehmen fatale Folgen haben. - Outsourcing-Modell ASP In den letzten Jahren erlebten Start-Up-Firmen, die sich im Bereich von outgesourcter Software der nächsten Generation platzieren wollten, zahlreiche Enttäuschungen. Erwartungen, dass komplexe und kritische Anwendungen wie E-Mails, Gehaltsabrechnung sowie Personaladministration komplett outgesourct werden, wurden oftmals enttäuscht. Viele Unternehmen waren von den neuen E-Service-Providern nicht überzeugt, da deren Dienstleistungen nicht perfekt auf ihre Bedürfnisse zugeschnitten waren. Ein wichtiges Anwendungsfeld für Outsourcing ist heute das Application Service Providing-Modell. Ein Application Services Provider (ASP) ist ein unabhängiger Dienstleister, der Zugang zu SoftwareAnwendungen, Infrastrukturen sowie unterstützende Internetdienstleistungen anbietet. Das ASP-Konzept sieht vor, die Anwendungen nicht am Ort des Endkunden zu installieren, sondern sie stattdessen dezentral auf der Infrastruktur des ASP zu betreiben und zu warten. ASPs ersetzen also Server- und Netzwerkressourcen für ClientServer- und Datenbank-Anwendungen und ersparen dem Kunden damit Zeit, Geld und insbesondere Softwarekenntnisse. Viele der Marktanalysefirmen haben die Bedeutung des ASP-Modells überschätzt. So wurden von Researchfirmen wie Ovum eine Vervierfachung des Marktvolumens in nur 2 Jahren erwartet. Es scheint jedoch aktuell eher so zu sein, dass der Markt doch langsamer wachsen wird als allgemein erwartet. In den für das ASP-Segment wichtigsten Bereichen Pharmazie, Finanzen, Telekommunikation und Transport werden vor allem E-Mails, Faxe, Voice Mails, Sales-Force Automatisierung, Customer Relationship Management sowie Finanzanwendungen outgesourct. Die Möglichkeiten durch ASP liegen vor allem im Bereich der TCO (Total Cost of Ownership), welche nicht nur die Kosten, sondern vor allem den Nutzen der IT- und TK-Systeme berücksichtigen. Das ASP-Modell ermöglicht hierbei auch KMUs, ihre ITBereiche partiell oder vollständig an einen Service-Provider auszulagern.
- 4.2 -
.: Hosting, Sicherheit und Standards
- Microsoft drängt in das Outsourcing-Business Ein führendes Unternehmen des ASP-Marktes ist Citrix Systems. Dessen Strategie besteht darin, den Zugang zu Informationen, für jedermann an jedem Ort zu jeder Zeit so einfach wie einen Telefonanruf zu machen. Hierfür sind einfachere, flexiblere Computerumgebungen, geringere Computerkosten, bessere Anwendungsdienstleistungen, die Unabhängigkeit von Endgeräten, Netzwerken und Anwendungen sowie unmittelbare Konnektivität von jedem Ort des Planeten aus erforderlich. Die Akzeptanz von Citrix hat seit 1995 ständig zugenommen, als Lawrence J. Ellison, Chairman von Oracle, die Idee des Internet-Computing, d.h. Anwendungen auf zentralen Servern laufen zu lassen, als die einfachere und billigere Alternative zu PC-Netzwerken promotete. Der Markt für den flexiblen Zugang zu Anwendungen wächst wegen deren Skalierbarkeit in Bezug auf die Unternehmensgröße stark an, weshalb mittlerweile auch Firmen wie Microsoft, Oracle und Peoplesoft in diesen Markt drängen. Microsoft lässt keinen Zweifel daran, dass es das Internet-Computing beherrschen will, wie die dotNET-Initiative zeigt. Nach Ablauf der Lizenzierung der CitrixTechnology im Jahr 2002 wird Microsoft Citrix mit eigenen Terminal ServerSystemen angreifen. Bereits 1995 hatte Microsoft mit einer ähnlichen Strategie Erfolg, als es die Technologie des Browserunternehmens Spyglass lizensierte und später mit einer Kopie namens Internet-Explorer auf den Markt kam. Die Herausforderung für Citrix besteht deshalb darin, technologisch Microsoft voraus zu sein, damit Bill Gates nicht auf den Gedanken kommt, die Allianz aufzukündigen. Doch wer Microsoft kennt, weiß, dass dies ein riskantes Pokerspiel ist. Bislang hat Citrix jedoch die Angriffe seiner Wettbewerber überlebt und ist mittlerweile ein Bündnis mit Microsoft eingegangen, dass die Schlüssel-Technologie von Citrix unter Zahlung von Lizenzgebühren und Tantiemen in seine Windows NT ServerBetriebssystem-Software integriert. Die Gesellschaften vereinbarten auch gemeinsame Marketingaktivitäten für die Windows-NT Server-Software und Citrix’s unabhängiger Computer-Architektur-Client-Server-Software.
- Zentralisierung: Back to the Roots? Browserbasierende ThinClient-Systeme, ob ein normaler PC oder ein via Funknetz verbundener Pocket PC, ermöglichen heute die Umsetzung von fast vollständig zentralisierten IT-Infrastrukturen. Multinationale Großfirmen wie Oracle oder Cisco haben dieses Modell bereits konsequent umgesetzt. Mitarbeiter dieser Unternehmen, können jederzeit und überall auf die an den Hauptsitzen betriebenen zentralen IT-Anwendungen zugreifen. Verstärkt wird der oben beschriebene Trend durch neue Software-Produkte oder -Konzepte wie MySAPcom von SAP, dot.NET von Microsoft oder WEBtop von SUN, die speziell für zentralisierte ASP-Betriebsmodelle entwickelt wurden. Für viele IT-Profis ist der Begriff Zentralisierung allerdings ein Relikt der 70er-Jahre. Aber ebenso wie der VW Beetle scheint Zentralisierung ein Comeback zu feiern. In den 70er-Jahren bedeutete Zentralisierung monolithische IT-Organisationen, die um MainframeComputer herum aufgebaut wurden. Heute gibt es zwei neue Fokusbereiche für Zentralisierung. Der erste Ansatz basiert auf der Organisation von IT- 4.3 -
.: Hosting, Sicherheit und Standards
Angestellten in Gruppen, die bestimmte Geschäftsprozesse für das gesamte Unternehmen wie Supply Chain Management oder Marketing unterstützen. Der zweite Ansatz basiert auf Angestellten mit bestimmten Kernkompetenzen, die flexibel je nach Problemlösung in zu jeweils neu zu definierende Teams integriert werden. Kernkompetenzzentren erlauben den kosteneffektiven Einsatz von Personal und einheitliche Technologiestandards, ohne das technologische Rad neu erfinden zu müssen. Derartige Zentralisierung kann jedoch zu einem Desaster führen, wenn die Unternehmenskultur hohe Divergenzen aufweist. Kathy Tamer, CIO von United Space Alliance in Houston, TX hat in ihrem Unternehmen die IT nach den Geschäftsprozesslinien neu ausgerichtet. Unnötige Redundanzen wurden von Tamer ausgeräumt, und es wurde im Unternehmen ein zentralisiertes Organisationsmodell für die IT eingeführt. Damit gelang es Tamer auch, einheitliche Technologiestandards zu schaffen, die eine Vielzahl von Prozessen vereinfacht haben. Eine andere Möglichkeit der Zentralisierung ist die gemäß der Fähigkeiten der Mitarbeiter. Das Energieunternehmen Dominion aus Richmond, Virginia, hat seine ITMitarbeiter gemäß ihrer Kernkompetenzen in den Bereichen Großrechner, Anwendungsentwicklung oder Server organisiert. - Bedeutungszunahme des IT-Outsourcing Es besteht kein Zweifel, dass professionelles, bedürfnisgerechtes ITOutsourcing zunehmend eine wichtige Rolle einnehmen wird, da es die uneingeschränkte Fokussierung und Konzentration aller Ressourcen auf das Kerngeschäft ermöglicht. Einerseits garantieren die im Service Level Agreement definierten Anforderungen höchste Verfügbarkeit und Sicherheit und andererseits sind Outsourcing Services klar und einfach budgetierbar. Allerdings dürfte hierbei vor allem das Business-Case Outsourcing und nicht das komplette IT-Outsourcing im Vordergrund stehen. Die weiter stark zunehmende Bedeutung elektronischer Geschäftsprozesse in der Wirtschaft bedeutet, dass auch die Anforderungen an die Lenkung von ITInfrastrukuren steigen. Zentralisierungstendenzen dürfte es hierbei vor allem bei Storage Area Networks (SANs) geben, wie sie von EMC geliefert werden. Auch im Back-up und Security Bereich gibt es zahlreiche Möglichkeiten für ein zentrales Management. Allerdings sollte bei einer Zentralisierung zumindest eine outgesourcte Desaster-Site zur Verfügung stehen oder zumindest eine Notfallkopie der wichtigsten Unternehmensdaten an einem entfernten Standort (mit 7*24h Verfügbarkeit). Ein weiterer Punkt ist die Zentralisierung aus Sicherheitsgründen. Da man nicht überall ein wirklich sicheres Datacenter betreiben kann, müssen bestimmte Lokalitäten und somit das Equipment zentralisiert werden. Einen Gegenpol zum SAN-Ansatz ist das so genannte Network Attached Storage (NAS), wie es von Unternehmen wie Network Appliance oder Procom geliefert wird. NASSysteme eignen sich hervorragend zum schnellen Ausbau von Speicherkapazitäten in heterogenen Netzwerken innerhalb von weniger als 20 Minuten. Die Hardware und das „schlanke” Betriebssystem sind bei NASSystemen für die Datenverwaltung und den Datentransport über das Netzwerk optimiert, was eine hohe Effizienz und Verfügbarkeit sicherstellt. Der Aufwand für Installation, Konfiguration und Verwaltung verringert sich - 4.4 -
.: Hosting, Sicherheit und Standards
auf ein Minimum. NAS ist ein für den Einsatzzweck optimierter File-Server, der nur für eine Aufgabe konzipiert wurde: Daten im Netzwerk bereitzustellen. Das Betriebssystem des Filers erlaubt keine anwendungsspezifischen Programme, weshalb SQL- oder Exchange-Server darauf nicht installiert werden können. Key Benefit von NAS ist jedoch die Snapshot-Funktion, die ein einfaches Restore Management ermöglicht.
NetApp filers' standards-compliant hardware and patented software plug into the existing ebusiness infrastructures—including UNIX®, Windows, and the Web—to provide centralized access to data. NetCache® appliances enable you to give your users faster access to content while simultaneously scaling your network and server architecture. Abb.: Network Appliance
- 4.5 -
.: Hosting, Sicherheit und Standards
- Pro IT-Outsourcing Betrachtet man die Vor- und Nachteile des Outsourcing, so ergibt sich ein differenziertes Bild, wobei sich vier Betrachtungsfelder unterscheiden lassen: strategische Faktoren, Leistungsfaktoren, Kostenfaktoren sowie personelle Faktoren. Unter strategischen Gesichtspunkten spricht für das Outsourcing die Konzentration der Investitionen auf das Kerngeschäft, der Transfer von Risiken auf das Service-Unternehmen, die Standardisierung der ITInfrastrukturen sowie das flexible Reagieren auf veränderte Anforderungen. Unter Leitungsgesichtspunkten sind die schnelle Verfügbarkeit professioneller Services sowie die Durchführung von IT-Vorhaben ohne betriebsinterne Restriktionen von Bedeutung. Darüber hinaus lassen sich durch das Outsourcing deutliche Kostenreduzierungen erreichen, insbesondere können fixe Kosten in variable Kosten umgewandelt werden. Hierdurch wird insbesondere das Kostenbewusstein für IT im Unternehmen gesteigert. Die wirklich großen Einsparungspotenziale bei den Kosten liegen im Betrieb. Mount10 hat mit seinen Kunden die Erfahrung gemacht, dass z.B. das Betreiben von hochverfügbaren Speichersystemen bis zum Fünffachen der investitionsbasierten Kosten ausmacht. Im Rahmen der Personalplanung gelingt es, mit dem Outsourcing Probleme im Rahmen der Personalbeschaffung zu umgehen, Qualifizierungsfragen besser zu lösen sowie das IT-Management zeitlich zu entlasten. Die meisten Unternehmen haben verstanden, dass IT in den nächsten Jahren immer komplexer werden wird und es deshalb darauf ankommt, einen IT-Dienstleister zu finden, der diese Komplexität in den Griff bekommen kann. Wer outsourct, sollte Leistungs-Benchmarks für einen Outsourcing-Provider setzen und ein effektives Monitoring-System einführen. - Contra IT-Outsourcing Die meisten Debakel im Bereich des Outsourcing sind auf überstürzte und wenig durchdachte IT-Strategien zurückzuführen. Die Market ResearchFirma Giga Information Group schätzt, dass nur etwa 40 % der neu eingeführten Outsourcing-Projekte wirklich erfolgreich sein werden, da die strategische Planung der IT noch völlig unterentwickelt ist. Strategisch gesehen ist das Outsourcing schlecht, wenn ein Unternehmen in eine starke Abhängigkeit vom Service-Unternehmen gerät, wenn es zu viel internes Know-how verliert, wenn es um den Schutz sensibler Daten geht, wenn es um strategische Daten des Unternehmens geht und möglicherweise eine Fremdbestimmung durch das Outsourcing stattfindet. Wird das Outsourcing vom Service-Unternehmen missbraucht, um die Margen nach oben zu treiben und ist eine fehlende Anwendernähe des IT-Supports zu beklagen, leidet darunter die Leistungsfähigkeit der Dienstleistung. Mögliche Kostentreiber sind insbesondere erhöhte Kosten für Software-Lizenzen sowie für Transaktionen, wenn eine Vielzahl von Service-Dienstleistern eingeschaltet werden. Bei den Personalfaktoren kann es Reibungsverluste bei der Übergabe von Verantwortlichkeiten, hohe Abfindungsleistungen bei gekündigten Mitarbeitern sowie Motivationseinbußen beim verbleibenden Personal geben. Oft ist Outsourcing nicht die beste Lösung für den Kunden. Auf was es deshalb ankommt, ist, neutrale Service-Dienstleister zu haben, - 4.6 -
.: Hosting, Sicherheit und Standards
die auf saubere Analysen wertlegen. Der größte Fehler beim Outsourcen ist, wenn Kunden aus Resignation outsourcen. Wenn wegen schlechtem Management IT intern nicht funktioniert, dann wird sie mit großer Wahrscheinlichkeit wegen der mangelnden strategischen Ausrichtung auch extern nicht funktionieren. Generell eignen sich Applikationen, welche auf die individuellen Bedürfnisse eines Unternehmens abgestimmt oder für dieses entwickelt worden sind und daher ein betriebsspezifisches Know-how erfordern, nicht unbedingt für ein erfolgreiches Outsourcing. - Make or Buy am Beispiel Beerculture.com Das Updaten von Webinhalten eines Unternehmens ist oftmals ein sehr aufwändiges Unterfangen. Die entscheidende Frage, die sich heute stellt, ist, wie der zunehmenden Komplexität im Bereich des Content Management Rechnung getragen werden kann. Dieses ist keine einzelne Aufgabe, sondern eine Wechselwirkung einer Vielzahl von Akteuren. Ob Outsourcing hier wirklich hilft, ist fraglich. Zwar kann die Erstellung eines Newsletters oder eines Kundenmagazins outgesourct werden, nicht jedoch der Aufbau von Wissen und der Umlauf des Wissens, welches von allen Mitarbeitern genutzt werden soll. In einer wissensbasierten Organisation kann es nicht darum gehen, dass einige wenige von außen die Komplexität lenken, sondern sie kann nur durch die Vielfalt der Akteure selbst gelenkt werden. Ein wesentlich besserer Ansatz dürfte hier langfristig Peer-to-Peer sein, d.h. der direkte Austausch von Informationen und Dateien ohne zentralen Server. Peer-to-Peer-Intranets können zu erheblichen Beschleunigungen von Entwicklungsprozessen führen, damit das Kommunikationspotenzial zwischen den Teilnehmern besser genützt werden kann. Das nachfolgende Beispiel der von der aseantic ag entwickelten und mehrfach ausgezeichneten Beer-Community beerculture.com zeigt die unterschiedlichen Inhouse- und Outsourcing-Felder an einem konkreten Beispiel. In der Make-or-Buy-Phase von Beerculture.com wurde abgeklärt, welche Leistungen überhaupt nach außen vergeben werden können. Danach werden die potenziell für eine Auslagerung in Frage kommenden IT-Leistungen im Hinblick auf ihr Kosten/Leistungsniveau und dem Kosten-/Leistungsniveau bei Fremdbezug gegenübergestellt. Die Ergebnisse bilden die Grundlage für die Make-orBuy-Entscheidung. Als Ergebnis der Make-or-Buy-Entscheidung können die IT-Leistungen eines Unternehmens in drei Kategorien unterteilt werden: Kernkompetenzen, die nicht ausgelagert werden dürfen, Leistungen, bei denen sich eine Eigenerstellung lohnt, Leistungen, für die ein IT-Outsourcing die geeignete Lösung darstellt. Am konkreten Beispiel von Beerculture.com ergab dies, dass die Kernkompetenz der Content-Erstellung nicht outgesourct wurde, dass sich im Bereich des Fulfillment eine Eigenerstellung lohnt und dass das Design/Programming ausgelagert werden kann.
- 4.7 -
.: Hosting, Sicherheit und Standards
make short term
buy
long term
short term
long term
Strategy Design/Programming Updating
Content
Design/Prog.
Hosting Billing/Payment Fulfillment
Shipping
Customer Service Tracking Marketing
offline
online
Abb.: Outsourcing-Matrix: Beerculture.com
- Steigende Risiken durch Nicht-Outsourcing? Zu den größten Risiken beim Outsourcing gehören die mögliche Abhängigkeit von fremdbezogenen Leistungen, ein Know-how-Verlust, Widerstände im outsourcenden Unternehmen sowie falsche Erwartungen hinsichtlich der Kosten. Als Grundregel für die Bewertung, welche ITArbeitsgänge im eigenen Haus verbleiben, hat sich eingebürgert: Strategisch wichtige Services werden nicht an externe Dienstleister vergeben! ITOutsourcing-Überlegungen sollten deshalb nicht aus einem akuten Problemdruck heraus erfolgen, sondern strategisch geplant werden. Hierbei gilt es, hektischen Aktionismus zu vermeiden. Wer in innovativen Märkten Schritt halten will, sieht sich zunehmend gezwungen, die technologische Erneuerung outzusourcen, wie es Dell als Vorreiter aufzeigte. So konzentriert sich Dell auf einige wenige Dinge, die es exzellent kann und outsourct den Rest. Zu den Kernkompetenzen von Dell zählt vor allem sein Kundenunterstützungssysem. Im Bereich der Innovationen, kann kein Unternehmen mit der Dynamik des Wandels alleine Schritt halten. Auf was es deshalb ankommt, ist heute eine Technologie-Monitoring, welches Unternehmen möglichst schnell Zugang zu dringend benötigtem Wissen liefert. Verfolgt das outsourcende Unternehmen eine Differenzierungsstrategie, sollte darüber hinaus neben Kostenaspekten auch das Innovationspotenzial der möglichen IT-Dienstleister in den Bewertungsprozess mit einbezogen werden.
- 4.8 -
.: Hosting, Sicherheit und Standards
- Systemorientiertes Management ist notwendig Während das Risk-Management früher eher vergangenheitsorientiert war, gilt es in einem Umfeld der Transformation vor allem zukünftige Risiken zu bewerten. Deshalb wird die Wahrnehmung von Risiken ein sehr wichtiger Trend für das Outsourcing werden. Beratungs- und Service-Unternehmen, die ein effizentes Wahrnehmungssystem für Risiken haben, werden deshalb an Bedeutung stark zunehmen. Trotzdem dürfen diese Trends nicht dazu verleiten, Outsourcing als die allein selig machende Lösung zu betrachten. Stets muss ein völliger Kontrollverlust vermieden werden, egal wie viel Geld möglicherweise eingespart werden kann. Auch sollten keine Aktivitäten bezüglich Kundenbeziehungen outgesourct werden. Beim IT-Outsourcing handelt es sich um ein mehrstufiges und komplexes Entscheidungsproblem. Die Potenziale des IT-Outsourcing lassen sich deshalb nur durch ein systemorientiertes Vorgehen und ein wirksames Management der zu Grunde liegenden Prozesse nutzen. Wer hierbei die wesentlichen Schlüsselfaktoren analysiert und die wichtigsten Grundregeln beachtet, sollte den geeigneten Mix zwischen Inhouse- und Outsourcing-Lösungen finden. Vor allem geht es jedoch darum zu erkennen, dass Outsourcing mehr ist als reines Kostensenken, sondern dass es mit Vertrauen und Partnerschaft zu tun hat. - Komplexität der IT-Systeme steigt Heute treiben zwei wesentliche Kräfte die Entwicklung des IT-Branche: Bundling und Outsourcing. Da die Kunden keine manuellen Abläufe mehr wollen, sondern schnelle Transaktionen, weniger Papierarbeit sowie bessere Dienstleistungen, steigt die Komplexität der IT-Systeme zunehmend an. Dies hat dazu geführt, dass nicht nur Anwendungen, die früher einzeln verkauft wurden, heute zusammen im Paket angeboten werden, sondern mittlerweile werden auch Produkte, die früher als reine Software angeboten wurden, als Dienstleistungsbündel verkauft. In diesem mehrwertorientierten und auf Geschwindigkeit fokussierten Umfeld spielt gerade das Hosting von inhaltsreichen Anwendungen eine immer wichtigere Rolle. Durch das Anbieten von integrierten Software-Lösungen steigen jedoch sowohl die Anforderungen als auch die Risiken für die Hosting-Anbieter. - Wachstumsmarkt Hosting? Reto Bertschi, Mitbegründer einer neuen Hosting-Firma in Biel mit dem Namen Netrics, glaubt, dass Hosting weiterhin ein starker Wachstumsmarkt ist. Da sein Unternehmen LAN Services AG bereits über einen enorm starken, dreifach redundanten, Internet-Backbone verfügt, lag es für ihn nahe, die Hosting- und Housing-Dienstleistungen trotz der hohen Investitionskosten weiter auszubauen und diese in einer neuen Firma einzubringen: „E-Business-Applikationen werden endlich produktiv genutzt, und es können über das Internet Umsätze generiert werden. Glücklickerweise haben bereits heute einige Firmen erkannt, was es für sie heißen würde, wenn ihr Internet-Auftritt nicht verfügbar wäre, und selbst durchgerechnet, welche Umsatz- und Imageeinbussen auf sie zukämen. Der - 4.9 -
.: Hosting, Sicherheit und Standards
Trend geht deshalb noch stärker in Richtung höchster Verfügbarkeit und Sicherheit.“ Da der Aufbau einer professionellen Infrastruktur enorm viel Geld verschlingt und ohne entsprechenden Kundenstamm der Return on Investment lange auf sich warten lässt, werden vor allem diejenigen Firmen Vorteile haben, die bereits über leistungsfähige Rechenzentren verfügen und die bereits ein umfangreiches Kundenportfolio mitbringen. Hosting-Provider sollten jedoch vermeiden, das gesamte unternehmerische Risiko zu tragen. Dies bedingt aber, dass die entsprechenden Lieferanten sich bereit für innovative Finanzierungs- und Lizenzmodelle zeigen. Diese können u.a. die Miete von HW- und SW Komponenten, inklusive Wartungs- und Upgradevertrag, enthalten. - Neue Geschäftsmodelle? Der Hosting-Markt ist durch die immer schneller verlaufende Entwicklung der Hard- und Software für viele Anbieter zu einem unkalkulierbaren Risiko geworden, wie die Pleite des Hosters Exodus, der seinem Namen damit alle Ehre machte, in den USA aufzeigte. Doch auch der Ausstieg von Mount10 aus dem Hosting-Business ist ein Indiz dafür, dass möglicherweise die bisherigen Geschäftsmodelle völlig neu überdacht werden müssen. Im Hosting-Business unterscheidet man grundsätzlich zwei Firmentypen: 1. so genannte Co-Locators, d.h. Firmen, die bunkerähnlichen Infrastrukturen (ausgerüstet mit Backup-Möglichkeiten und großen Bandbreiten) Platz für Web-Server zur Verfügung stellen sowie 2. Full-Hosting-Firmen, die zusätzlich auch bereits voll konfigurierte und lauffähige Hard- und Software zu Verfügung stellen. Hierbei werden immer kürzere Antwortzeiten sowie das Data Mining des Kundenverhaltens in Service-Paketen gewünscht. Die Notwendigkeit, dass Firmen auf Grund der aktuellen Rezession ihre Wertketten redesignen, wird dazu führen, dass sich auch die Geschäftsmodelle für Hosting-Firmen diesen Entwicklungen anpassen müssen. Schnelle Berücksichtigung des Kunden-Feedback, Point-of-Sale Daten von Einzelhändlern und die Anbindung dieser Daten an die Produktion werden immer mehr zu einem Muss. In diesem darwinistischen Umfeld werden nicht die stärksten Firmen oder die intelligentesten Modelle überleben, sondern diejenigen, die sich am besten den Veränderungen anpassen können. Ein wichtiger Trend für kleinere Unternehmen ist das so genannte Virtual oder Shared Web Hosting, welches das Housing und Serving von Files für eine Web-Site übernimmt. Da ein kleines Unternehmen sich eine sehr robuste Internetverbindung für seine Web-Site nicht leisten kann, besteht dadurch die Möglichkeit, dass Internet-Anforderungen preisgünstig outgesourc werden können. Damit wird für kleine Unternehmen eine redundante Verbindung sowie eine garantierte „Uptime“ mit neuesten Technologien möglich. Das besondere Merkmal des virtuellen Web-Hosting ist das so genannte Bundling von Dienstleistungen. Für eine zusätzliche monatliche Gebühr, können Kunden eine Vielzahl von hoch qualifizierten Multi-Plattform Web-Site Lösungen in Anspruch nehmen. Ein interessantes Unternehmen, das im Bereich von virtuellen Server-Lösungen arbeitet, ist eServer.
- 4.10 -
.: Hosting, Sicherheit und Standards
- Der Teufel steckt im Detail Das Unternehmen Mount10 in der Schweiz zog sich allerdings mit seinem Unternehmen aus dem „Managed Web Hosting“ zurück und konzentriert sich auf „Disaster Protection“-Lösungen und dem so genannten „Value Added Housing“. Das Managed Web Hosting verschlingt heute eine Menge an finanziellen Risiken und ist nicht ohne Risken für die Betreiber. Der Kapitalmarkt finanziert akteull keine Geschäftsmodelle, die nicht kurzfristig Gewinne abwerfen. Das ist für ein Hosting-Unternehmen tödlich. Der Teufel steckt im Detail, wie z.B. in den komplexen SLAs (Service Level Agreements), wo sowohl für den Hoster als auch den Kunden unliebsame Überraschungen auftreten können. Es gilt deshalb, die Geschäftsmodelle für das Web Hosting gut zu überdenken und ausreifen zu lassen. Da ganzheitliche Lösungen teuer sind, insbesondere wenn bei De-Releases neue Software- und HardwareInvestitionen notwendig werden, müssen die Kosten auf den Anbieter und den Kunden derart verteilt werden, dass sich Win-Win-Situationen für beide Seiten ergeben. Wenn die Kosten außer Kontrolle geraten, kann das, wie in den USA geschehen, einer Vielzahl von Hosting-Firmen das Genick brechen. - Insourcing als Alternative? Philips setzt nach dem Konkurs von Exodus wieder auf Inhouse-Lösungen. Doch trotz diesem Schritt zurück, gibt es immer noch nachhaltige Gründe, den Betrieb von hoch komplexen IT-Umgebungen outzusourcen. Outsourcing lohnt sich speziell in den Bereichen Groupware, Betrieb von Kommunikationslösungen und Managed Security-Services. Allerdings zeichnet sich ab, dass unternehmenskrtitische Daten wie z.B. Finanzdaten zukünftig eher inhouse betrieben werden. Der Rückzug von Phillips aus dem Outsourcing dürfte somit auch nicht die allein selig machende Lösung sein, zumal sich Mischformen, d.h. kombinierte Inhouse/Outsourcing-Lösungen für eine Vielzahl von Kunden als effizient erweisen könnten. Angesichts neuer Technologien wie dem Blade Server, werden vor allem Hoster mit großen gemieteten Flächen finanzielle Probleme bekommen, wenn es diesen nicht gelingt, ihre Data Center zu füllen. Der Aufbau eines HostingÖkosystems mit Partner und kombinierten Lösungen dürfte heute das flexibelste Geschäftsmodell darstellen, um sich den zukünftigen Herausforderungen zu stellen und die Risiken zu teilen.
- 4.11 -
.: Hosting, Sicherheit und Standards
- Blade Server-Technologie Das Pionierunternehmen bei den Blade Servern ist Nexcom, welches von der Aufspaltung der traditionellen Server Funktion durch High Speed Netzwerke in Cluster von so genannten „CPU-Wolken“ und „Daten-Wolken“ profitieren möchte. Der HiServer von Nexcom setzt darauf, Raumprobleme zu lösen, das Clustering sicherzustellen, bietet genügend Redundanz, ist ausfallsicherer und einfacher zu handhaben als konventionelle Server. Für Nexcom wird sich durch die neue revolutionäre Server-Architektur der gesamte Server-Markt wandeln, da nahezu jede Server-Anwendung zu 100 % ersetzt werden kann. Ein weiteres Unternehmen, das in den stark wachsenden Blade Server Markt drängt, ist OmniCluster mit seinem SlotServer 1000. Das Besondere an diesem Server ist, dass dieser keine bestimmte Hardware benötigt und sich in den PCI-Slot jeder beliegen Box integrieren lässt. Damit ist dieser mit nahezu jeder Software eines Drittanbieters kompatibel. OmniCluster gibt an, dass der SlotServer etwa 50 % preisgünstiger ist und eine zehnfach höhere Leistungseffizienz aufweist als vergleichbare Produkte, die heute auf dem Markt sind. Des Weiteren konnte die Zuverlässigkeit durch weniger Bauteile und durch die Tatsache, dass jede Karte ihre eigene IP-Adresse hat, um den Faktor vier gegenüber herkömmlichen Systemen verbessert werden. Auch Hewlett-Packard, welches die offene Spezifikation OpenBlade für Blade Server angekündigt hat, setzt auf die neue Technologie. HP möchte damit die Entwicklung von auf Standards basierenden Blade Server Architekturen forcieren, die einen Betrieb auch bei unterschiedlichen Systemen sicherstellen. Die OpenBlade Spezifikation erweitert und ergänzt den CompactPCI (cPCI) Standard durch zusätzliche Funktionalitäten wie Glasfaserverbindungen zu SAN und NAS Speicherung und entfernten Lenkungsfunktionen durch die Verwendung von On-board Management LAN. - Was hat sich verändert? Wenn wir davon sprechen, dass sich nach dem 11. September etwas in der IT-Welt verändert hat, so können wir feststellen, dass sich nicht die Welt als solche verändert hat, sondern unsere Wahrnehmung für Gefahren. Weder der Code Red-Wurm noch die „Denial-of-service”-Attacken auf Seiten wie Yahoo und eBay konnten dem E-Security-Markt einen vergleichbaren Kick geben wie die Terrorattacken von New York und Washington. In einem Umfeld, in dem es zunehmend auch Cyber-Terrorismus geben wird, dürfte insbesondere dem Hosting eine Schlüsselbedeutung zukommen. Da Firmen, die ihre Daten nach außen geben, immer mehr Anforderungen an eine Hosting-Firma stellen, muss diese auf neueste Technologien setzen, die kostengünstiger als die bisherigen sind und die deutliche Leistungssteigerungen ermöglichen. Eine mögliche Lösung bietet hierbei die so genannte Blade Server Technologie. Gartner Dataquest sagt voraus, dass im Jahr 2002 etwa 85.000 Blade Server verkauft werden und dass diese Zahl bis zum Jahr 2006 auf über eine Million ansteigen wird. Es sollen Umsätze von 1,2 Milliarden US-$ erzielt werden. Da der Server-Markt sich mittlerweile in einer starken Konsolidierungsphase befindet, könnte gerade in diesem Segment eines der wenigen Wachstumsfelder liegen, welches den - 4.12 -
.: Hosting, Sicherheit und Standards
Server-Markt aus der Krise führt. Blade Server bieten gegenüber den rackoptimierten Servern deutliche Wettbewerbsvorteile wie z.B. geringeren Raumbedarf, einfache Installationen und Deinstallationen sowie Softwarelösungen, die eine einfache Integration in Unternehmenslösungen ermöglichen. Zwar haben Kunden, bei denen die Serverdichte von großer Bedeutung ist, einen starken Anreiz, die neue Technologie sofort einzuführen, jedoch muss dies gegen die noch existierenden Kompatibilitätsmängel zwischen den unterschiedlichen Anbietern abgewogen werden. Nur wenn es einheitliche Standards gibt, wird sich die Blade Server Technologie durchsetzen und viele Hosting-Firmen können auf dieser Technologie neue Geschäftsmodelle mit ihren Kunden aufbauen. - Anforderungskritieren an einen Hoster In den digitalen Welten gibt es eine Reihe von Risiken und Fehlerquellen, die im Rahmen der Vertragsgestaltung beachtet werden müssen. Zunächst gilt es, präzise die Dienstleistungen zu beschreiben, die ein Hoster zur Verfügung stellt. Da das Ziel eines Hosting-Vertrages ist, dass Hardware, Software und Konnektivität durch leistungsfähige Systeme zur Verfügung gestellt werden, gilt es auf eine ausreichende und betriebsfähige Infrastruktur zu achten. Wenn die gehostete Anwendung mit Anwendungen auf der Seite des Kunden interagiert, gilt es sicherzustellen, dass die Interoperabilität ausreichend ist. Sollte das Unternehmen des Kunden stark wachsen, muss der Hoster Systeme zur Verfügung stellen, die skalierbare Anwendungen ermöglichen. Damit die Leistungsfähigkeit insbesondere bei kritischen Anwendungen sichergestellt ist, ist eine präzise Beschreibung der Geschwindigkeit, der Zugriffsfähigkeit und eine garantierte „Uptime” (mindestens 99 %) mit spezifizierten Ebenen der vom Nutzer wahrgenommenen Antwortzeit (Latenzzeit) zu vereinbaren. Zusätzlich bedarf es bestimmter Garantien, dass im Falle von Ausfällen, Wartungsarbeiten oder Support eine Aufrechterhaltung des Betriebes sichergestellt werden kann. Hierzu bedarf es ausreichender Backup-Systeme, Server-Redundanz, Netzwerkkapazität sowie eines exzellenten Monitoring dieser Systeme, um mögliche Probleme schnellstmöglich zu beheben. Darüber hinaus gilt es ein Preismodell zu finden, welches sowohl für den Hoster, als auch für das outsourcende Unternehmen akzeptabel ist. Insbesondere beim technischen Support ist große Vorsicht geboten, da im Rahmen von Standardverträgen, die Telefon-Unterstützung nicht vorgesehen ist. Wenn jedoch das Unternehmen einen 24 x 7 Betrieb hat, sollte auch der Support rund um die Uhr gegen eine bestimmte Gebühr angeboten werden. Im Rahmen der Sicherheit gilt es genau festzulegen, wer im Falle von Viren, „Denial-of-service“-Attacken oder sonstigen Hackerangriffen für mögliche Schäden aufkommt. Zu guter Letzt sollte im Falle einer Beendigung des Vertragsverhältnisses zwischen einem Unternehmen und der Hosting-Firma eine mögliche Beendigung des Vertragsverhältnisses und der anfallenden Kosten klar geregelt werden. Zusammenfassend zählen die Vertrauenswürdigkeit, die Service-Qualität, die Antwortfähigkeit, die Skalierbarkeit sowie die Rückzugsfähigkeit von einem Anbieter zu den wesentlichen Kriterien für die Auswahl eines Hosting-Unternehmens: - 4.13 -
.: Hosting, Sicherheit und Standards
Vertrauenswürdigkeit Hierbei sollten die Fragen, ob der Hoster vertrauenswürdig ist, er den Betrieb der Systeme sicherstellen kann und wie seine finanzielle Situation aussieht, unter die Lupe genommen werden. Wichtig zu wissen ist vor allem, wie im Falle eines System-Kollapses der Restore von Daten gehandhabt wird. Sollte der Ausfall eines Hosters die Existenz des Geschäftes gefährden können, so ist ein völliges Vertrauen in die HostingFirma notwendig. Service-Qualität Von besonderen Bedeutung sind die so genannten „Service Levels”, die ein Hoster garantieren kann. Hierbei kommt es jedoch nicht allein darauf an, zu bestimmten Zeitpunkten eine hohe Verfügbarkeit sicherzustellen, sondern bestimmte Anwendungen erfordern eine permanente Leistungsfähigkeit der Systeme. Es sollte deshalb darauf geachtet werden, dass so genannte Minimum-Leistungsstandards garantiert werden. Eine Verfügbarkeit von 99.5 %, d.h. eine Downtime von etwa 1 h pro Woche reicht bei vielen Kunden, schon lange nicht mehr aus. Antwortfähigkeit Die Frage, wie schnell eine Hosting-Firma auf Kundenanfragen oder Beschwerden reagieren kann, ist ebenso von entscheidender Bedeutung. Wenn etwas schief läuft, gilt es zu wissen, wie das Problem vom HostingAnbieter sofort gelöst werden kann. Es gilt zu wissen, wie die Prozeduren und Kosten bei Veränderungen, Upgradings oder De-Releases von Hardund Software sind. Auch gilt es Worst-Case-Szenarien durchzuspielen, wie z.B. den Fall, dass beim Einloggen das gesamte System plötzlich nicht mehr verfügbar ist. Skalierbarkeit Hier gilt es die Frage zu beantworten, ob der Provider mit dem Wachstum des Unternehmens mithalten kann. Es gilt herauszufinden, ob der Hoster genügend Kapazitäten bereitstellen kann und ob sie den neuesten Anforderungen entsprechen können. Mögliche Veränderungen in den Technologien und neue Sicherheitsstandards sollten von einer HostingFirma hierbei schnellstmöglich berücksichtigt werden. Zusätzlich gilt es zu bedenken, dass Skalierbarkeit auch mit der Integrationsfähigkeit von Systemen korrelieren muss. Rückzugsfähigkeit von einem Anbieter Die Frage nach einer Exit-Strategie ist ebenfalls von größter Bedeutung, falls eine Hosting-Firma in größere finanzielleTurbulenzen gerät oder hinter ihren technischen Möglichkeiten bleibt. Wie hoch ist der Kosten- und Zeitaufwand, wenn sich ein Unternehmen von einem Hosting-Anbieter trennen muss? Es muss sichergestellt werden, wie die Daten gesichert werden können und wie übertragbar das Hosting-Konzept auf einen anderen Anbieter ist. Ist die Übertragbarkeit nicht gegeben, hat sich das Unternehmen möglicherweise in eine zu starke Abhängigkeit begeben und sitzt in einer so genannten IT-Falle.
- 4.14 -
.: Hosting, Sicherheit und Standards
4.2 Web-Hosting: Neue Lösungen und Gewinn bringende Geschäftsmodelle sind gefragt
- Markt zieht trotz Enttäuschungen an Web-Hosting ist das Geschäft des Housing, Serving und Wartens von Files für eine oder mehrere Webseiten innerhalb eines Datencenters. Der Anbietermarkt ist heute auch in der Schweiz sehr stark fragmentiert, wobei eine Vielzahl von Unternehmen stark expandierten, ohne jedoch ein klares Profil aufzuweisen. Was das Ganze noch erschwert, ist, dass viele Anbieter von Hosting-Dienstleistungen wenig Produktdifferenzierung oder einzigartige Mehrwertdienste aufweisen. Auch ist die technische Umsetzung und die Fähigkeit, den immer steigenden Anforderungen in den Märkten gerecht zu werden, bei vielen Unternehmen bei weitem nicht ausreichend. Viele Unternehmen, die einen reibungslosen Content-Flow in Unternehmen erwarteten, sind durch mangelnde Zuverlässigkeit, Ausfallzeiten oder zu geringe Skalierbarkeit enttäuscht worden. Doch trotz dieser Enttäuschungen gewinnt das Outsourcen von Internet-Infrastrukturen aktuell wieder an Momentum. Die Analysefirma Aberdeen Group sieht den Markt für HostingDienstleistungen bis zum Jahr 2005 auf etwa 70 Milliarden US-$ ansteigen. Mittlerweile bieten Service Provider aller Bereiche Hosting-Lösungen an, um die Kundenloyalität zu verbessern und permanente Margen über das Anbieten von Internetzugriffsdiensten zu erzielen. - Wachstumsfelder Web-Hosting und Security Web-Hosting ist ein wichtiges Wachstumssegment der IT-Branche. Insbesondere in den letzten Monaten ist die Nachfrage nach dem Hosting des Internetauftrittes stark gestiegen, da sich damit etwa die Hälfte der Kosten gegenüber einer Inhouse-Abteilung einsparen lässt. Bei der Auswahl des Hosting-Partners ist vor allem auf vier wesentliche Schlüsselfaktoren zu achten: Skalierbarkeit, Leistungsfähigkeit des Netzes, Verfügbarkeit sowie Sicherheit. Darüber hinaus ist jedoch auch der Kunden-Service, die Innovationsfähigkeit des Anbieters, die Implementierungsgeschwindigkeit als auch der Preis zu beachten. So können je nach Anbieter die Preisspannen um mehrere Hundert Prozent variieren. Hosting-Services müssen, wenn sie erfolgreich sein sollen, in eine E-Business-Wertkette integriert werden, die vom Consulting über die System-Integration hin zum Data Mining und der Sicherheitsanalyse reicht. Das extreme Entwicklungstempo im Bereich des EBusiness macht es für Hosting-Anbieter erforderlich, Hosting-Lösungen innerhalb weniger Tage anbieten zu können. Hierbei gilt es dem Kunden die Möglichkeit zu geben, „on demand“ einzelne Dienstleistungsmodule einkaufen zu können. Auch neuartige Lösungen wie das mobile Hosting müssen das Angebot zukünftig abrunden. Darüberhinaus dürfte sich die Netzwerk-Sicherheit als ein großes Wachstumsfeld für das IT-Outsourcing etablieren. Insbesondere im Security Management dürfte sich das Outsourcing rechnen. Für Unternehmen gilt es deshalb, einen so genannten „Return on Security“ zu ermitteln. Das Marktsegment der Netzwerksicherheit hängt allerdings sehr stark vom Vertrauensverhältnis - 4.15 -
.: Hosting, Sicherheit und Standards
zwischen dem Kunden und dem Anbieter der Dienstleistung ab. Neben dem Sicherheitsbereich hebt Bertschi auch das E-Business (z.B. B2B-Plattformen, Kreditkartenabrechnungen), Mobile Services und das Hosting als Wachstumssegmente für das IT-Outsourcing hervor. Dagegen sollten für ihn die Produktionssteuerung sowie CAD-Systeme nicht outgesourct werden. - Marktkonsolidierung Die Konsolidierung im Bereich des Web-Hosting dürfte wegen des Abschwunges der Weltwirtschaft und des hohen Grades an Wettbewerb anhalten. Die Preise für das Web-Hosting waren in den letzten Jahren stark rückläufig, was sich nicht unerheblich auf die finanzielle Situation einer Vielzahl von Anbietern ausgewirkt hat. Das Finanzieren von HostingInfrastrukturen ist heute das Schlüsselthema für Webhoster. Um hier Mehrwertdienste zu schaffen sind hohe Investitionskosten zu tragen. Hoster, die keine gut definiertes Produkt-Portfolio und ein voll integriertes Netzwerk anbieten, werden in einem hart umkämpften Markt sehr schnell ins Hintertreffen geraten und möglicherweise ihre Service Level Agreements (SLAs) nicht einhalten können. Auch das Thema Sicherheit wird für WebHosting eine immer wichtigere Rolle spielen. Kunden, die einem Web-Hoster ihre Daten anvertrauen, wollen, dass diese vor unerlaubten Zugriffen geschützt sind. Maßnahmen wie Firewalls, Intrusion Detection Systeme, klare Zugangsberechtigungen und -kontrollen bieten mehr oder weniger Schutz vor Datenmissbrauch, weshalb Web-Hosting-Dienstleister als Mehrwert für Ihre Kunden mittlerweile umfassende UnternehmensSicherheitsstrategien anbieten. Ein wichtiges Entscheidungskriterium bei der Wahl des Hosters ist der angebotene Grad an Customizing. Flexibilität bei Dienstleistung und Support sind heute ein Muss für eine langfristige Partnerschaft. - Schlüsselbereiche für das Web-Hosting Für das Management von Internet-Anwendungen. spielen insbesondere so genannte kritische Anwendungen innerhalb von Service-HostingUmgebungen eine Schlüsselrolle. Connectivity Services, Operational Hosting Services und Value Added Managed Services sind die drei Schlüsselbereiche für das Web-Hosting: 1. Connectivity Services: Diese Dienstleistungen umfassen den Transport sowie den Zugang zu Hochgeschwindigkeitsglasfasernetzen. Der Zugang zu diesen Netzen wird durch spezialisierte Einrichtungen oder Datenzentren zur Verfügung gestellt. 2. Operational Hosting Services: Diese Dienstleistungen umfassen ServerFunktionen sowie die Wartung von Computerprogrammen zur Verfügungstellung von Internet-Anwendungen. Hierbei sind insbesondere für die Abwicklung des eCommerce komplexe Lösungen erforderlich.
- 4.16 -
.: Hosting, Sicherheit und Standards
3. Managed Services: Diese Dienstleistungen sind heute ein heißes Thema, da sie System-Knowhow, Service-Management, Netzwerk-InfrastrukturManagement, Content-Verteilung, Speicherung sowie das AnwendungsManagement umfassen.
Gegenwärtig gibt es zwei Arten von Firmen im Bereich des Web-Hosting: vertikal integrierte, die eine Vielzahl von Services entlang der Wertschöpfungskette anbieten und horizontal integrierte, welche sich auf ihre spezifischen Kernkompetenzen konzentrieren. Ist ein Unternehmen gleichzeitig Internet Service Provider (ISP) und Anbieter von HostingDienstleistungen, können sowohl der Internetzugang als auch das Webhosting aus einer Hand angeboten werden. Der Provider kann genügend Bandbreite ins Internet anbieten, da diese nicht nur von Hosting-, sondern auch von den Access-Kunden mitfinanziert wird. Reine Webhoster bieten spezialisierte Dienste wie z.B. das günstige Einrichten von Web-Shops an. - Return on Investment im IT-Bereich Das aktuelle Wirtschaftsklima verlangt von den Unternehmen, dass sie skalierbare Geschäftsmodelle einsetzen. Diesem Umstand müssen auch die Webhosting-Firmen Rechnung tragen. Die Angebote einer neuen Generation von Managed hosting service providers (managed HSPs) wird die Leistungsfähigkeit, das Monitoring und die Testfähigkeiten von WebHosting Diensten markant verbessern. Damit wird die Web-Infrastruktur immer mehr zu einer strategischen Größe für Unternehmen. IT-Investitionen können, ohne dass sich diese Erkenntnis bisher bei Managern durchgesetzt hat, zu einem der führenden Treiber für einen höheren Return on Investment in Unternehmen avancieren. Jeder im IT-Bereich investierte Schweizer Franken kann nicht nur in den Bereichen Wartung und Betrieb, die 75 % der IT-Investments verschlingen, 5 bis zu 15 Rappen neuen Wert schaffen, sondern darüber hinaus im Bereich der neuen Anwendungen, die 25 % der IT-Investments ausmachen, sogar 8 bis 25 Rappen an neuem Wert generieren (Quelle: Giga Information Group). Insgesamt kann somit jeder im IT-Bereich investierte Franken, wenn das Produktivitäsparadoxon durch wirksame ITStrategien vermieden werden kann, 13 bis 40 Rappen generieren. Im Gegensatz zur normalerweise bei wirtschaftlichen Abschwüngen sich abzeichnenden Zurückhaltung bei IT-Investments gilt es die sich bietenden Optionen für die Erzeugung neuer Werte im Unternehmen zu nutzen, um relative Marktanteile zu gewinnen. Das Vorbild-Unternehmen für optimale IT-Investments ist nach wie vor Wal Mart, welches immer antizyklisch in die Informationstechnologie investiert hat.
- 4.17 -
.: Hosting, Sicherheit und Standards
- Treibende Kräfte des Marktwachstums Die treibenden Kräfte für das Wachstum von Hosting-Dienstleistungen sind Outsourcing-Vorteile, eBusiness-Anwendungen, der Markt für KMUs und das Application Service Providing. Während früher ganz normale Webseiten das Wachstum für das Hosting getrieben haben, ist es heute das eBusiness. Zukünftig werden datenbank-getriebenen Sites den Markt von eBusinessAnwendungen stark wachsen lassen. Neue Technologien wie Breitband eröffnen insbesondere für KMUs neue Anwendungspotenziale. Da KMUs zu einer treibenden Kraft der Wirtschaft gehören, da diese die meisten Arbeitnehmer beschäftigen, wird der prozentuale Anteil dieses Segments gemäß einer Studie der Aberdeen Group auf etwa 70 % vom Gesamtvolumen der Hostings-Dienstleistungen ansteigen. Es dürfte sich abzeichnen, dass nur diejenigen Geschäftsmodelle sich durchsetzen werden, die eine diversifizierte Preisgestaltung ermöglichen. Bei Geschäftsmodellen wie ASP und ERP gibt es eine klare Nachfrage nach eBusiness-on-Demand. In den Breichen Operational Hosting Services, Connectivity Services und ValueAdded Services wird sich der Preis vor allem an der bezogenen Menge richten. Geschäftsmodelle, die unkontrolliert Dienstleistungen abgeben (z.B. ADSL), dürften kaum rentabel sein. - Hoster-Auswahl Bei der Auswahl eines Hostinganbieters kommt es vor allem darauf an, wie groß der maximale Festplattenplatz ist, der für die Site zur Verfügung steht, wie hoch das maximale Transfervolumen pro Monat ist sowie wie viel Bandbreite bei der Internet-Anbindung vorhanden ist. Wer sich dafür entschieden hat, die Website über einen Hostinganbieter ins Netz zu bringen, kann sich für einen virtuellen Server oder einen dedizierten Server entscheiden. Man spricht von einem virtuellen Server, wenn auf einer Maschine mehrere Websites gehostet werden und sich unterschiedliche Kunden die Hard- und Softwarekosten teilen. Von einem dedizierten Server spricht man, wenn dieser ausschließlich für eine einzelne Website zur Verfügung steht und von keinem anderen Kunden genutzt wird. Während für einfache Sites ein virtueller Server genügt, sind für komplexe eCommerce-Lösungen mit großen Produktdatenbanken oder Zahlungssystemen dringend dedizierte Server zu empfehlen. Ein interessantes Hosting-Unternehmen in der Schweiz ist die SwissWeb GmbH mit insgesamt 45 Mitarbeitern, darunter einer Vielzahl aus Russland und den USA. SwissWeb hat sich seit der Gründung vom reinen Web-Hoster zum Generalunternehmen für Webdienstleistungen weiterentwickelt und bietet auch internationale Lösungen an. SwissWeb liefert vor allem KMUUnternehmen Beratung und Dienstleistungen in den Bereichen Sicherheitslösungen, Application Service Providing sowie Housing. Wer sich einen - wenn auch unvollständigen - Überblick über die Schweizer HostingSzene verschaffen will, findet unter http://www.providerliste.ch eine Übersicht.
- 4.18 -
.: Hosting, Sicherheit und Standards
- Hosting-Angebote Das Angebot von Cable & Wireless, welches soeben den in den USA in Konkurs geratenen Hosting-Anbieter Exodus übernommen hat, reicht vom Shared Hosting, über Dedicated Hosting zum so genannten Co-Location. Im Rahmen des Shares Hosting bieten die Cable & Wireless-Webserver ein elektronisches Zugangskontrollsystem, eine unterbruchfreie Stromversorgung und eine „Rund um die Uhr” Betreuung durch eine Netzwerk- und Webserver-Infrastruktur. Beim Dedicated Hosting handelt es sich um einen professionellen Rundum-Service für den Server, der in einem Hosting-Center von Cable & Wireless untergebracht und bedarfsgerecht konfiguriert wird. Eine unterbrechungsfreie Stromversorgung, Raumklimatisierung, umfangreiche Brandschutzeinrichtungen und Zugangskontrollen bieten hierbei ein Maximum an Sicherheit für die Kunden. Beim so genannten Co-Location wird der Server, der einem Unternehmen gehört, an einem sicheren Platz eines Hosters fachgerecht untergebracht. Es gibt heute ein Überangebot an so genanntem Co-LocationRaum, da die Kunden, wenn sie outsourcen, es lieber komplett tun. Der Trend vom geteilten zum komplexen Hosting dürfte das so genannte Managed Hosting forcieren und es zunehmend zu einer so genannten „Commodity“ machen. Möglicherweise werden Web-HostingDienstleistungen sogar in Auktionen ausgehandelt, um möglichst günstige Preise zu erzielen. Wachsende Kundenansprüche sowie Application Service Providing werden die Anbieter dazu zwingen, sich als FullserviceDienstleister (d.h. als Netzwerke- und Sicherheitsanbieter, Integrator bestehender Lösungen sowie Anbieter hosting-übergreifender Beratungsleistungen) zu behaupten. Es dürfte sich abzeichnen, dass sich kaum ein Bereich so rasch entwickeln dürfte wie das Web-Hosting. In keinem anderen Bereich dürften jedoch auch höhere Risiken liegen. - Auswahlkriterien für einen Hoster In erster Linie muss sich jedes Unternehmen, welches sich für das Outsourcing entscheidet, grundlegende Fragen beantworten resp. Abklärungen treffen:
Wie lange ist der ausgewählte IT-Dienstleister bereits auf dem Markt? Wird er in Zukunft bestehen können? Wodurch zeichnet er sich aus und bietet er das gewünschte Angebot? Kann er markbedingten Veränderungen und Ansprüchen innert nützlicher Frist gerecht werden? Welchen Leistungsnachweis kann er erbringen? Welche Referenzen gibt es? Ist der IT-Dienstleister technologisch auf dem neusten Stand? Kann er Sicherheitslösungen anbieten, die den Anforderungen entsprechen? Verfügt der Anbieter über redundante Technologien?
- 4.19 -
.: Hosting, Sicherheit und Standards
Ohne ein Abklären dieser Fragen, kann heute keine Hosting-Entscheidung getroffen werden. Billiganbieter sind meistens eine schlechte Lösung, da im Falle eines Konkurses des Hosting-Anbieters mit einem wesentlich höheren Kostenaufwand zu rechnen ist. Der lokale Betrieb eines eigenen Servers für kleinere Firmen rentiert sich nur, wenn sich die Anschaffungskosten für die Hard- und Software in Grenzen halten. Ist dies nicht der Fall, wird die Installation und die Wartung einer leistungsfähigen und sicheren Infrastruktur eine teure Angelegenheit. Zusammenfassend lassen sich folgende Vor- und Nachteile des Hosting zusammenfassen:
Vorteile des Outsourcing
Nachteile/Risiken Outsourcing
- Kosten- und zeitintensiver Aufbau von IT- Spezialwissen entfällt
- Die Abhängigkeit von einem IT-Dienstleister
- Entlastung der eigenen IT-Organisation. Ressourcen werden frei für weitere Bereiche.
- Risiken in der Kooperation durch Konkurs des Hosting-Anbieters
- Personalsuche nach exzellentem IT-Personal entfällt
- Gefahr des Verlustes von unternehmerischem Know-how im Bereich der Informationstechnik
- Hohe Qualität der Services im Vergleich zum Eigenbetrieb
- Unklare rechtliche Abklärungen (Service Level Agreements)
- Verlagerung des Investitionsrisikos.
- Infrastrukturen des Hosters können nicht gemäß dem Wachstum des Kunden erweitert werden
- Dank Upgrades seitens der Anbieter ist die IT immer auf dem neuesten Stand der Technik - Lösungen sind besser skalierbar - Attraktives Preis-/Leistungsverhältnis - Konzentration auf Kernkompetenzen - Verbesserte Kostentransparenz - Schnellere Reaktion auf Anforderungen der Kundenseite
Zu den Vorteilen des Outsourcing zählen, dass sich ein Unternehmen besser auf seine Kernkompetenzen konzentrieren kann, dass die Personalsuche nach exzellentem IT-Personal entfällt, dass die Kosten gesenkt werden können, dass die Lösungen besser skalierbar sind sowie dass schneller auf die Anforderungen von Kundenseite reagiert werden kann.
- 4.20 -
.: Hosting, Sicherheit und Standards
- Die Rolle von ASP Im Jahr 2000 gab es einen großen ASP-Boom. Mittlerweile hat die Ernüchterung Einzug gehalten. Fortschritte in den Bandbreiten und Transaktionskosten lassen jedoch Hoffnung aufkommen, dass ASP eine Zukunft hat, insbesondere deshalb, da es eine Vielzahl von Effizienzvorteilen für Unternehmen bietet. Der Hauptgrund, warum ASP Services heute noch ein untergeordnete Rolle spielen, ist, dass die Komplexität von ASP-Services von den Dienstleistern unterschätzt wurde. Der Schlüssel zum Markterfolg von ASP liegt vor allem im Bereich Service Qualität. Denn erst mit einem qualitativ hoch stehenden und ganzheitlichen Angebot ist ein Anreiz gegeben, um ASP Modell zu wechseln. Mit ADSL sind jetzt erschwingliche Standleitungen auf den Markt gekommen, aber auch der Internetzugriff über Mobilfunk wird immer schneller und zuverlässiger. Die Möglichkeit des mobilen Zugriffs und seiner Möglichkeiten dürfte vor allem KMUs überzeugen, zukünftig vermehrt auf ASP zu setzen. Zunehmend drängen auch Web-Hosting-Firmen, die sich auf Managed Services spezialisiert haben, in den ASP-Markt. In dem Maße wie die Managed Services wachsen, findet eine allmähliche Migration bestehender Kunden die Wertkette hinauf statt. Wenn Anbieter Ihre Dienstleistungsmodelle nicht nur auf die Vermietung von Software ausrichten, sondern ASP als Auslagerung kompletter Geschäftsprozesse verstehen und die dazugehörigen Services anbieten, kann sich ASP durchsetzen. Für den Einsatz eines ASP sprechen, dass sich die Unternehmen durch die Auslagerung von Applikationen auf die wesentlichen Geschäftsziele konzentrieren und die gesamte Wartung, die Programm-Upgrades etc. dem ASP-Anbieter überlassen werden können. ASP gestattet außerdem die rasche Einführung neuer Programme, da sie vorher einem Qualitätscheck des Anbieters unterzogen wurden, womit in der heutigen Zeit knappe IT-Ressourcen freigesetzt werden können. Ein weiterer Vorteil liegt in den Sicherheitsanforderungen, die insbesondere auch für KMUs stark ansteigen werden. - Wachstumsmotor für KMUs Um das Wachstum zu forcieren, benötigen mittelständische Unternehmen z.B. ein wirksames System zum Monitoring von Finanzdaten. Das ASPModell bietet für viele Unternehmen eine kostengünstige Möglichkeit, um derartige Prozesse im Unternehmen zu automatisieren und zu überwachen. Das ASP-Modell ermöglicht es, Software direkt dem Endverbraucher zu verkaufen. Dadurch, dass eine Verteilungsebene eingespart werden kann, ist es möglich, anspruchsvollere Lösungen zu einem günstigen Preis anzubieten. Die meisten ASP-Preismodelle orientieren sich an den Nutzungsraten der Kunden, d.h. je mehr die Dienstleistung in Anspruch genommen wird, desto mehr wird der Kunde belastet. Ein besonderer Vorteil des ASP-Modells ist das Customization der Software gemäß den Anforderungen des Kunden. Insbesondere bei Web-Hosting-Lösungen ist hierbei von Vorteil, dass durch die Skalierbarkeit das Wachstum von Unternehmen exzellent abgebildet werden kann. Das Konzept der Web-Dienstleistungen und die parallele Entwicklung von XML-basierten offenen Standards wird ASP-Anwendungen weiter forcieren. Das ASP-Modell bietet hierbei sogar ein gewisses - 4.21 -
.: Hosting, Sicherheit und Standards
Gefahrenpotenzial für das Zeitalter der PCs, da die Rechenleistung von den ASP-Anbietern über das Internet zur Verfügung gestellt wird. Da WebStrategien nicht länger isoliert vom Rest der Geschäftsprozesse betrachtet werden können, werden auch Sicherheitsaspekte wie Firewalls, Virtual Private Networks sowie Zugangskontrollsysteme immer wichtiger werden. - Web-Hosting und Datensicherheit Datensicherheit spielt heute für Kunden eine immer entscheidende Rolle. Um diesem Trend gerecht zu werden, haben Web-Hosting-Firmen ihre Schutzvorkehrungen drastisch erhöht. Wer einem Web-Hoster seine Daten anvertraut, muss sich darauf verlassen können, dass sensible Kundendaten vor unerlaubten Zugriffen geschützt sind. Im Rahmen von Konzepten zur Netzwerksicherheit werden insbesondere Firewalls immer wichtiger. Sie agieren als Filter zwischen zwei Netzen - beispielsweise dem Internet und Intranet , wobei das Netzwerk durch klar bestimmte Zugriffskontrollen und Rechteverwaltung nach außen geschützt wird. Daneben gibt es so genannte Intrusion Detection Systeme (IDS), um ein Netzwerk gegen Eindringlinge von außen zu schützen. Derartige Lösungen übernehmen die Funktion von Überwachungskameras. Durch ständiges Monitoring und sofortige Meldung bei ungewöhnlichen Aktivitäten können sowohl gegen interne als auch externe Angriffe sofort Gegenmaßnahmen eingeleitet werden. Ein weiterer wichtiger Faktor ist die Stabilität des verfügbaren Netzwerkes, inbesondere wenn es ständigen Änderungen unterliegt. Auch die Ausbildung der Mitarbeiter ist für die Sicherheit von elementarer Bedeutung. - Fazit: Die strategische Herausforderung Der Markt für Web-Hosting wird auch trotz der aktuellen Wirtschaftsflaute weiter wachsen. Da gerade in einer Zeit der Unsicherheit, Produktivitätsfortschritte im IT-Bereich deutliche Wettbewerbsvorteile bedeuten, sollten Firmen die neuen Möglichkeiten des Web-Hosting wirksamer nutzen. Von der Aberdeen Group wurden vier treibende Kräfte dieser Entwicklung identifiziert: Best-of-breed Partnerschaften, stabile Lösungen, Prozesse und Automatisierung sowie standardisierte/integrierte Lösungen. Diese Vielfalt an Optionen innerhalb der Hosting-Services bedeutet, ein hohes Maß an Know-how aufbauen zu müssen. Es ist keine Frage, dass Web-Hosting heute eine Schlüsselkomponente des eBusiness ist, ja sogar dessen Grundlage bildet. Ohne Web-Hosting gäbe es kein WorldWideWeb, welches heute der führende Internet-Service ist, auf dem die User auf Internet-basierte Dienstleistungen und Anwendungen zugreifen. In dem Maße wie die Internet-Technologien erwachsen werden, gilt es neue Hebel zu finden, um das Web besser auszunützen. Das Internet bildet heute eine immer breitere und integriertere Plattform für eBusinessAnwendungen. Zukünftig geht es immer weniger um die bloße WebPräsenz, sondern um die Veränderung der Spielregeln durch die Nutzung von Web-Technologien, wie es z.B. Dell oder Ebay vorgelebt haben. Diese Evolution wird eine Vielzahl von neuen Technologien hervorbringen und die Geschäftsprozesse in einer Weise transformieren, die von den meisten - 4.22 -
.: Hosting, Sicherheit und Standards
Firmen bis jetzt noch nicht antizipiert wird. Es geht in diesem Markt vor allem um die Lenkung von Komplexität. Web-Hosting wird hierbei einen entscheidenden Anteil leisten, um die nächste Phase des Aufbaus von eBusiness-Infrastrukturen einzuleiten.
Abb.: Die Evolution von Web-Hosting-Dienstleistungen; Quelle: Cable & Wireless
- 4.23 -
.: Hosting, Sicherheit und Standards
4.3 E-Security im Bankenbereich: Risiken im Netz
- E-Banking: Revolution in der Bankenwelt Es ist abzusehen, dass Finanzdienstleistungen im Internet, das so genannte E-Finance die Banken- und Versicherungslandschaft in den nächsten Jahren durcheinander wirbeln wird. Durch die niedrigeren Markteintrittskosten wird sich der Wettbewerb stark erhöhen und die Unterschiede zwischen Banken, Brokern und Versicherungen werden immer mehr abnehmen. Der besondere Vorteil des E-Banking, d.h. der IT-unterstützten Bankdienstleistung, ist ein schneller, direkter und kostengünstiger Zugriff der Kunden auf ihre Konten, von jedem beliebigen Standort aus. Da die Banken einen geringeren Personalaufwand haben, können sie die Guthaben höher verzinsen. Bei Online-Geschäften lässt sich darüber hinaus ein 24 hService anbieten. All dies führt zu einem beschleunigten Konsolidierungsprozess in der Finanzbranche, welcher neue Geschäftsmodelle hervorbringen wird, die auch Newcomer anlocken. Dieser neue „Klondike“ bedingt, dass die Aufsichtsämter für das Kreditwesen und die Bundesbanken die Sicherheit in der Informationstechnik näher unter die Lupe nehmen müssen. - Zukunftsmarkt E-Security Selbst wenn die avisierten Wachstumszahlen des E-Commerce moderater ausfallen, als es viele Experten erwarten, so wird das Thema Datensicherheit zukünftig extrem an Bedeutung gewinnen. Die Kommunikation zwischen Bank und Kunden über das „offene“ Netzwerk des Internet birgt zunehmend die Gefahr, dass sensitive Daten ausgespäht, verfälscht, zerstört oder missbraucht werden. Nie zuvor hatte die E-Security-Branche deshalb ein größeres Potenzial, neue Produkte und Dienstleistungen zu entwickeln. Das Umfeld der Globalisierung, des Internet und von Firmennetzwerken eröffnet erhebliche Angriffsflächen für kriminelle Akteure. Cracker können heute nur noch mit exezellenter Sicherheitssoftware abgeblockt werden. Die Gefahren eines Infowar haben in einer vernetzten Welt derart zugenommen, dass sich jedes Unternehmen vor der Aufgabe sieht, die Datensicherheit als eine der wichtigsten Lenkungsgrößen des Managements zu begreifen. Ohne Sicherheit sind Unternehmen offen wie Scheunentore und der Willkür von Angreifern vollständig ausgesetzt. Diese werden zukünftig nicht mehr nur vereinzelte Attacken auf Unternehmen starten, sondern versuchen, die kriminellen Aktivitäten in ein profitables Geschäft zu verwandeln.
- 4.24 -
.: Hosting, Sicherheit und Standards
- Schlüsselfaktor Sicherheit Zwar bieten Firewalls, Encryption und Authentification wichtige Sicherheitsaspekte, jedoch ziehen sie nur die Zäune höher, ohne die Sicherheit im Inneren der Server oder der Computer selbst zu erhöhen. Auf was es ankommt, sind Sicherheitsmaßnahmen, die den missbräuchlichen Zugang zu Servern oder Personal Computern von Bankkunden verhindern. Der Faktor Sicherheit wird deshalb zukünftig einer der wichtigsten bei Online-Bank-Dienstleistungen sein. Selbst wenn der Zugang vom Kunden zur Bank sicher gestaltet werden kann, ist der Zugang der User zum Internet nach wie vor ein offenes Scheunentor. Die finanziellen Schäden durch das Abfangen und Manipulieren von Nachrichten und nachfolgende nicht authorisierte Zugriffe auf ein Banknetz oder einen Bankserver können für die Kunden erheblich sein, insbesondere dann, wenn Banken nicht bereit sind, für entstandene Schäden die Haftung zu übernehmen. Die besondere Gefahr für User ist deren Personal Computer, der durch so genannte „Malware“ wie Viren, „trojanische Pferde“, Backdoor-Programme oder Active-X-Programme nach PINs oder TANs ausgespäht werden kann. - Die Gefahr lauert überall Besondere Berühmtheit erlangte im WorldWideWeb im März 1999 der Melissa-Virus, der sich in unglaublicher Geschwindigkeit als Attachment von Microsoft-Word-Dateien und Microsoft-Outlook-Mails über die ganze Welt verbreitete und auch zahlreiche Intranets von Finanzdienstleistern lahm legte. Im Februar 2000 wurden einige der am häufigsten besuchten amerikanischen Sites (CNN, eBay, Buy.com, Yahoo sowie Amazon.com) durch Denial-of-Service-Attacken lahm gelegt. Hacker hatten synchron aus verschiedenen IP-Adressen Anfragen auf die Sites der Anbieter geschossen. Im Mai 2000 raste der „I love you-Virus“ durch fast alle Netzwerke der Welt, der diverse Dateien auf der Festplatte veränderte. Mittlerweile sind mehr als 2/3 des marktrelevanten Unternehmensgeschehens in Netzen abgelegt. Von besonderem Interesse für Hacker sind hierbei Kundendaten, die Kreditkartennummern oder Kontonummern, beinhalten. Die Frage: „Ist meine Transaktion sicher” wird für Lou Gerstner, den CEO von IBM, eine der Schlüsselfragen des E-Banking sein, da dieses Geschäft auf Vertrauen basiert. Für eine professionellen Hacker oder einen bestimmten Insider ist es oftmals eine Kleinigkeit, Zugang zu vertraulichen Daten zu gewinnen. So ist es ein offenes Geheimnis, dass Hacker in der Schweiz ohne große Probleme zu vertraulichsten Kundendaten von Großbanken vorgestoßen sind. Leider wird die Öffentlichkeit in völlig unzureichender Weise über mögliche Sicherheitsrisiken des Internet informiert.
- 4.25 -
.: Hosting, Sicherheit und Standards
- Angriffe auf sensitive Daten Einer der bekanntesten Angriffe von Cyberkriminellen auf Banken in den USA war der Kreditkartenklau vom Mai 1997, bei dem sich ein Hacker in den USA Zugang zu einem Internet-Provider verschaffte und die Nummern von 100.000 Kreditkarten kopierte. Vor kurzem wurde mit Egg (www.egg.com) die erste Internet-Bank in den USA angegriffen. Die Angreifer haben mittlerweile unterschiedlichste Rollen in Form von Hackern, Crackern, Cyber-Terroristen, Wettbewerbern, Industriespionen, Geheimdiensten oder ehemalige Mitarbeitern. Die kriminelle Energie verlagert sich hierbei zunehmend von den Datentransportleitungen und der Dechiffrierung hin zu den Speicherorten von Daten, den Servern selbst. So wurde erst im Mai ein ernsthafes Sicherheitsloch im Internet Information Server von Microsoft gemeldet. Von diesem Problem sind nicht weniger als 1 Million Web Server betroffen. Allerdings tritt das Problem nur bei der neuesten Software-Version Microsoft IIS 5.0 auf. Dieses Beispiel zeigt deutlich, wie wichtig es ist, sichere Betriebssysteme zu haben. Potenzielle Angreifer müssen davon abgehalten werden, ihre Firewall-Anwendung komplett herunterzufahren oder den „unfriendly“ übernommenen Server nach Belieben zu manipulieren. Wenn dann noch Anwendungen wie die von Intel propagierten Remote-Weckrufe über das Web hinzukommen, so dürften potenzielle Cyberkriminelle eine noch größere Angriffsfläche bekommen. Die zunehmende Automatisierung von Routineprozessen wie derartigen Calls, Software-Upgrades etc. eröffnet die Möglichkeit, dass ein PC über das Web hochgefahren und nach möglicherweise „getaner krimineller Arbeit“ wieder runtergefahren werden kann, ohne dass ein User dies bemerkt. - Sicherheitstechniken Wieder verwendbare Passwörter, wie diese heute vor allem von Banken eingesetzt werden, sind sicherheitstechnisch ein Anachronismus, der früher oder später zu Milliardenschäden für Banken und deren Kunden führen könnte. Wesentlich sicherer als die heute verwendeteten PINs und TANs sind z.B. so genannte SecurID Tokens, da diese alle 60 Sekunden einen einzigartigen, einmaligen und unvorhersagbaren Zugangscode generieren. Eine noch größere Sicherheit kann mit einem so genannten SecurID PINPAD Token erreicht werden, da hier zusätzlich eine verschlüsselte Kombination von PIN und SecurID Token verwendet wird. Weitere Sicherheitstechniken sind das „Home Banking Computer Interface“ (HBCI) sowie Übertragungsverfahren wie „Secure Electonic Transaction“ (SET) und „Secure Socket Layer“ (SSL). Das Home Banking Computer Interface ermöglicht die sichere Abwicklung von Bankgeschäften über das Internet, ohne die sowohl für den Kunden als auch für Kreditinstitute umständliche Verwaltung von persönlichen Identifikations-Nummern (PIN) und Transaktions-Nummern (TAN). Das Secure Electronic Transaction ist ein Datenübertragungsverfahren für gesicherte Transaktionen im OnlineZahlungsverkehr mit Kreditkarten. Der Secure Socket Layer ist ein offener Standard der Firma Netscape Communications für gesicherte Datenübertragung (DFÜ) im Internet.
- 4.26 -
.: Hosting, Sicherheit und Standards
- Firewalls für jeden Online-Teilnehmer Kein User,der Banktransaktionen durchführt, sollte heute ohne eine Software, die aufzeigt, wer versucht, auf den eigenen Rechner zuzugreifen, ins Internet gehen. Seit DSL und Kabel-Modems zu einem bequemen Verbindungsweg zum Internet wurde, besteht für jeden Online-Teilnehmer ein Bedarf an Firewall-Software. Es wird immer offensichtlicher, dass es mittlerweile vor allem der PC des Bankteilnehmers ist, der im Fokus von Cyber-Attacken steht. Viren können insbesondere durch interactive Webanwendungen wie Java applets, ActiveX Codes sowie verseuchte Cookies auf den Rechner gelangen. Deshalb benötigt jeder User einen Firewall, der gut konfiguriert ist und einfach zu installieren ist. Während Firewalls für Firmen, die an ein Netz angeschlossen sind, ein absolutes Muss ist, sind diese für den normalen PC-User oftmals noch ein Fremdwort. Jeder Computer, der sich mit einem Netz verbindet, hat durch ein InternetProtokoll eine Adresse und damit eine eindeutige Identifikation. DSLVerbindungen und Kabel-Modems sind besonders gefährdet, da diese jedem Computer eine fixe IP-Adresse zuweisen, während bei „Dial-up“Verbindungen bei jedem Netzzugang neue IP-Nummern vergeben werden. Es sind gerade diese Adressen, die Hacker interessieren und nach denen sie das Netz abscannen. Insbesondere Breitbandnutzer gehören zu den gefährdetsten Nutzergruppen, da diese so genannte „Always on“Verbindungen haben und oftmals mehrere Stunden oder den ganzen Tag online sind. Oftmals sind es jedoch nicht einmal Hacker, die Dritten den Zugriff auf Kreditkartennummern, Bankkonten und Codes verschaffen, sondern die User gehen fahrlässig mit ihren Daten um. - Parallelen zum Netzwerkmarkt Auf was es heute im Rahmen der Datensicherheit ankommt, sind das Security Program Management, ein 24x7-Monitoring, Schutzvorrichtungen bei Storfällen sowie deren sofortige Behebung bei deren Auftreten. In vielerlei Hinsicht entwickelt sich der Sicherheits-Markt hierbei ähnlich wie der Netzwerk-System-Management-Markt in den 90er-Jahren. Käufer konzentrieren sich darauf, dass die unterschiedlichen Sicherheitswerkzeuge miteinander arbeiten können, in dem entsprechende Sicherheitsdaten an eine zentrale Sicherheits-Konsole gesandt werden. Das Start-UpUnternehmen E-Security war das erste, welches eine Konsole auslieferte, die Alarmmeldungen von anderen Sicherheitsprodukten integrierte. Die beiden Schlüsseltrends hierbei sind Integration und Kompatibilität. Ziel einer ESecurity-Plattform muss es sein, auf Unternehmensebene bestimmte Daten an Firewalls zu senden oder digitale Signaturen auf Warnsystemen für Eindringlinge upzudaten (so genannte Intrusion detection systems - IDS). Eine Technologie hierfür ist die Public Key Infrastruktur (PKI), die als Synonym für den Aufbau eines Vertrauensnetzwerkes im Hinblick auf digitale Zertifikate fungiert. Ein weitere wichtige Rolle wird das so genannte Wireless und Mobile Computing spielen. Die schiere Anzahl und die Begrenztheit des Prozessorleistung macht deshalb neuartige Sicherheitslösungen unumgänglich.
- 4.27 -
.: Hosting, Sicherheit und Standards
- Ausweg Biometrie Die heute von den Banken angebotenen Sicherheitssysteme offenbaren bei näherem Hinsehen technologische Lücken, die einer Vielzahl von Usern nur völlig unzureichend bewusst sind. Da diese Lücken im Grunde nur von nicht manipulierbaren Daten geschlossen werden können, wird die Biometrie immer mehr an Bedeutung gewinnen. Die Biometrie bezeichnet die Überprüfung der Identität einer Person über ein einzigartiges Merkmal, das mit der jeweiligen Person untrennbar verknüpft ist. Zu den messbaren physiologischen und verhaltensbedingten Merkmalen, um die Identität einer Person herauszufinden, zählen Fingerabdrücke, die Iris des menschlichen Auges, die Hand, Stimmenmuster, Unterschriften, Gesichtsausdrücke etc. Nur über persönliche Merkmale lässt sich die Identität einer Person mit absoluter Gewissheit bestimmen, da nur die jeweilige Person diese besitzt. Die Biometrie ist darüber hinaus benutzerfreundlich, da es wesentlich einfacher ist, einen Finger auf einen Sensor zu legen, als eine Vielzahl von PINs im Gedächtnis zu behalten. Mittels biometrischer Systeme können somit auf bequeme Weise legal bindende, unmanipulierbare Geschäftsabschlüsse und Transaktionen durchgeführt werden. Wer das heute unsichere E-Banking wirklich sicher machen will, wird an der Einführung innovativer Sicherheits- und Kryptografietechnologien nicht vorbeikommen.
- 4.28 -
.: Hosting, Sicherheit und Standards
4.4 ADSL-Technologie: Mehrwertdienste für KMU’s, die sich rechnen
- Schnelle Marktdurchdringung Das Volumen der über das Internet transportierten Daten verdoppelt sich mittlerweile alle drei bis vier Monate. Dieser Trend erfordert höhere Bandbreiten und die Umsetzung neuer technischer Lösungen wie zum Beispiel Asymmetric Digital Subscriber Line. ADSL ist eine ausgereifte und international standardisierte Variante der digitalen Teilnehmeranschlussleitung DSL (Digital Subscriber Line). Die asymmetrische Datenübertragungstechnik über die Kupferkabel des Telefonnetzes ermöglicht hohe Übertragungsgeschwindigkeiten (8 MBit/s Downstream und 768 Kilobit pro Sekunde Upstream). Wenn man mit ADSL surft, kann gleichzeitig telefoniert werden, da ADSL diejenigen Bereiche des Kupferkables nutzt, der zum Telefonieren nicht benötigt wird (beim Telefonieren wird die Kapazität des Kupferkabels zu weniger als 1 % ausgelastet). Man muss sich nicht ins Internet einwählen, sondern hat quasi eine Standleitung. Die Telefonzentrale muss für ADSL aufgerüstet, und auch beim Kunden muss ein ADSL-Router oder ein ADSL-Modem angeschlossen sein. Analoge oder digitale Sprach- oder Datensignale können neben ADSLDaten gleichzeitig über ein und dasselbe Kabel laufen. ADSL eignet sich besonders für den Sendebetrieb, wie z.B. interaktive Fernsehprogramme. Des Weiteren kann ADSL bei Video on Demand (VoD), Audio- und Videostreaming, Videokonferenzen und anderen multi-medialen InternetAnwendungen genutzt werden. Diese Vielseitigkeit wird für eine sehr schnelle Durchdringung des Marktes sorgen.
Abb.: Marktdurchdringung der DSL-Technologie, Quelle: Michael Fox and Forbes Magazine
- 4.29 -
.: Hosting, Sicherheit und Standards
- Take-Off des Breitbandmarktes Da die ADSL-Technik auf die bei den Telefonkunden bereits vorhandene Infrastruktur mit verdrillten Kupferleitungen aufsetzt, sind preisgünstige Lösungen für die Datenkommunikation mit mittleren bis hohen Übertragungsraten realisierbar, was sich insbesondere für kleine und mittlere Unternehmen, aber auch für anspruchsvolle Privatkunden rechnet. Reto Bertschi, CEO des Netzwerkanbieters LAN Services, der sein aktuelles ADSL-Angebot auf dem Swisscom-Backbone aufsetzt, sieht erhebliche Vorteile für die Kunden, da nunmehr ab dem 01. November 2002 auch Business-orientierte Angebote offeriert werden können, die bisher vor allem mit traditionellen Mietleitungen realisiert wurden. Mit dem neuen Angebot werden von LAN Services neue Bandbreiten mit noch besseren PreisLeistungverhältnissen geboten, die wie folgt aussehen:
Speed
Abo Standard
Abo Business
Abo Business Pro
256/64
sFr. 48.00
sFr. 99.00
sFr. 149.00
512/128
sFr. 78.00
sFr. 119.00
sFr. 169.00
512/512
sFr. 199.00
sFr. 249.00
sFr. 299.00
1024/512
sFr. 249.00
sFr. 299.00
sFr. 349.00
In der Schweiz verzeichnet das ADSL-Breitbandangebot aktuell eine anhaltend hohe Nachfrage am Markt. Die Zahl der schnellen Internetanschlüsse, die sich in einem Preisrahmen von etwa 50 Sfr./Monat bei etwa 128 kBit/s bewegen, dürfte bis Ende des Jahres 2002 durch die massive Bewerbung der Marktleader bereits bei über 200.000 Anschlüssen liegen. Laut einer Studie von Frost & Sullivan soll die Anzahl der DSLAbonnenten in Europa abheben und von rund 3,8 Millionen Ende 2001 auf nicht weniger als 28 Millionen im Jahr 2008 ansteigen. Als wesentliche Treiber für die Entwicklung sieht die Unternehmensberatung das Bedürfnis nach Geschwindigkeit sowie die steigende Zahl von Small Office/Home Office-Anwendungen. Viele ADSL-Anbieter offerieren hierbei besondere Service Level Agreements mit Spezialkonditionen. Das Service Level Agreement (SLA) regelt als Supportvereinbarung die Priorität und das Vorgehen bei der Fehlerbehebung. Hierbei gilt es, auch folgende Faktoren zu achten: 1. Möglichkeit der Vergabe einer festen IP-Adresse, um Webserver betreiben zu können, 2. exzellenten Support (schnelle Reaktion, kompetente Hotline, Kosten für die Hotline), 3. Verfügbarkeit und Netzqualität des Anbieters sowie 4. die Möglichkeit von Webhosting und Webhousing.
- 4.30 -
.: Hosting, Sicherheit und Standards
Abb.: xDSL-Prognosen Schweiz , Quelle: www.netratings.com
- Transportmedium für LANs Bereits in zwei Jahren dürfte z.B. jeder dritte Haushalt in der Schweiz über einen Breitband-Internetanschluss verfügen. Dienste, wie Musik-Server, VoIP, Video on Demand, Remote-Office-Zugriffe, machen unbedingt höhere Bandbreiten erforderlich. Deshalb verspricht sich auch LAN Services von ADSL ein erhebliches Wachstumspotenzial. Da ADSL z.B. in der Schweiz landesweit verfügbar ist, bietet es interessante Möglichkeiten, Kunden zu guten Preis-Leistungsbedingungen hohe Bandbreiten für eine permanente Verbindung zur Verfügung zu stellen. Für Reto Bertschi liegen die Vorzüge auf der Hand: „Sämtliche Services können von uns zentral ins ADSL-Netz eingespeist und einer breiten Kundenpalette zugänglich gemacht werden. Bei anderen Breitbandtechnologien ist der Markt oft geographisch wesentlich stärker zerstückelt, was technisch und administrativ einen höheren Aufwand verursacht.“ ADSL bietet sich darüber hinaus als Transport-Medium für LANs an, um einfach und kostengünstig landesweit Internet- und andere Kommunikationsdienstleistungen den bestehenden und zukünftigen Kunden anbieten zu können, wozu Bertschi ausführt: „Wir glauben stark an die ADSL-Technologie, sind jedoch der Meinung, dass mit reinem Internet-Access ohne Mehrwert auf Grund der aktuellen Preissituation kein Geld mehr verdient werden kann. Zudem sind die Abgaben an Swisscom immer noch zu hoch, was die Marge zusätzlich verkleinert.“ Viele Länder haben, wenn es um die effiziente Markteinführung neuer Breitband-Technologien geht noch einen erheblichen Nachholbedarf. Wettbewerbsneutrale Hochgeschwindigkeitsnetzen haben in Schweden dazu geführt, dass das Land mittlerweile in Europa die höchste Breitbandpenetration besitzt.
- 4.31 -
.: Hosting, Sicherheit und Standards
- Mehrwertdienste durch ASDL Zwar bedeutet die Wahl für ADSL in der Schweiz aktuell, auf das Monopol der Swisscom Backbone´s zu setzen, dennoch lassen sich für Reseller beim Angebot von auf den Kunden zugeschnittenen Mehrwertdiensten interessante Geschäftsmodelle aufbauen. Der Vergleich der ADSL-Produkte sollte nicht allein nach dem Preis getroffen werden, sondern es gilt, die angebotenen Mehrwertleistungen zu berücksichtigen. Für Businesskunden empfiehlt sich vor allem die Unterstützung von Web-Applikationen (WebHosting und Housing) in die Kaufentscheidung mit einzubeziehen. Die günstigste Hardware Option ist bei ADSL Produkten in den meisten Fällen das Analog Modem. Die Kabelmodem werden normalerweise vermietet, ADSL-Geräte dagegen eher verkauft oder verleast. Zu den wichtigsten Mehrwertdiensten von ADSL gehören für Reto Bertschi Internet-Anschlüsse mit überwachter Sicherheit sowie Angebote, welche den Zusammenschluss mehrerer ADSL-Anschlüssen zu landesweiten Netzwerken ermöglichen. Zwar erreicht ADSL momentan noch keine garantierte Ausfallsicherheit, jedoch können Business-Lösungen so ausgelegt werden, dass bei ADSLAusfällen sofort auf eine ISDN-Verbindung umgeschaltet wird. Damit ist problemlos eine Redundanz gewährleistet und der Kommunikationsfluss sichergestellt, auch wenn dieser etwas langsamer erfolgt. Der Kunde hat heute schon die Möglichkeit mehrere Standorte landesweit kostengünstig und mit hohen Bandbreiten zu einem Netzwerk zusammenzuschließen, wie Reto Bertschi betont: „Da wir in diesem Bereich einen spezieller Lösungsansatz verfolgen, welcher nicht auf Internet-Technologie basiert, können wir eine enorme Datensicherheit ohne zusätzliche Hardware (z.B. Firewall, VPN) auf Kundenseite anbieten. Der Kunde kann bei einer LAN Simulation (Closed User Group) selbst entscheiden, ober sein Server in unserem Datacenter oder an seinem Domizil stehen soll.“ Ein weiterer Bereich werden ASP-Lösungen sein, bei denen durch gesicherte ADSL-Verbindungen auf zentrale Server zugegriffen werden kann, welche in einem Datacenter stehen. Für Unternehmen mit mehreren Standorten oder vielen Außendienstmitarbeitern (z.B. mit Home-Office), werden z.B. von LAN Services Telefonie-Lösungen (VoIP) angeboten, bei denen die Telefonzentrale in einem ihrer Datacenter steht. - KMU´s entscheiden sich eher für die ADSL-Technologie Immer mehr KMU´s nutzen heute das Internet. Von rund 2.000 befragten Unternehmen sind mittlerweile bereits zwei Drittel online. Zu diesen Ergebnissen kommt eine Studie der Task Force KMU des Staatssekretariats für Wirtschaft, welche im März 2002 zum dritten Mal durchgeführt wurde. Von mehr als 80 % der KMU mit Internetzugang werden heute E-Mails verwendet und mehr als 40 % verfügen über eine eigene Website. Beim ECommerce wird mehr eingekauft als verkauft: 28 % der Unternehmen mit Internet kaufen über das Netz ein, aber nur 13 % verwenden dieses Medium zum Verkauf. Viele KMU sind der Ansicht, dass sich ihre Produkte nicht für den Verkauf über das Internet eignen. Außerdem werden bei der Nutzung des Internet zu eingreifende Veränderungen der Geschäftsprozesse erwartet. Weiter zeigt die Studie, dass schweizerische KMU´s im laufenden Jahr zusammen 2,7 Milliarden Franken für den Kauf von Internetdienstleistungen - 4.32 -
.: Hosting, Sicherheit und Standards
einsetzen werden, wobei diese Investitionen in erster Linie dazu dienen sollen, die Kommunikation zu verbessern und die Bearbeitungszeiten zu verkürzen. ADSL kann hierbei als Treiber dienen, die Arbeitsplätze besser zu vernetzen und die Geschäftsprozesse wirksamer zu integrieren. Es zeichnet sich ab, dass auch KMU´s das Internet immer weniger igorieren können, da es zunehmend geschäftskritisch wird. Alle KMU-Betriebe, die über das Internet kommunizieren (E-Mail, News, Transaktionen, Instant Messaging, Online Banking, Broking, ...) werden in hohem Umfang von den neuen ADSL-Angeboten profitieren. Aber auch Power-User, Online-Gamer, Chatter, Private mit hoher Internet-Nutzung und Streamer mit hohen Durchsatzraten werden zur wichtigsten Nutzergruppe von ADSL gehören. ADSL ist bei den meisten Providern Flatfree, always on (24 Std, 365 Tage mit unbeschränktem Internetzugriff), es gibt fixe und somit budgetierbare monatliche Kosten, geringe Initialkosten, eine einfache Bedienung, stabile Verfügbarkeit, hohe Übertragungsraten sowie einen möglichen Serverbetrieb (Mail, FTP, Webserver). Ein weiterer Vorteil ist, dass derjenige ISP ausgewählt werden kann, der am besten die Bedürfnisse des Kunden abdeckt. ADSL ermöglicht breitbandige und damit leistungsstarke InternetAnbindungen für Profi-Kunden und Unternehmen. Es ermöglicht, mehrere Standorte, externe Mitarbeiter, Kunden und Lieferanten miteinander zu verknüpfen. Die Netzteilnehmer tauschen über dieses Netzwerk Daten aus und greifen hierbei auf ihre Geschäftsapplikationen zu. Der Einsatz von ADSL ist allerdings weniger eine Frage der Mitarbeiterzahl als der Nutzungsintensität von Internetdienstleistungen. - Wettbewerbsvorteile für Privatpersonen und KMU´s Die ADSL-Technologie ermöglicht besonders KMU´s höhere Geschwindigkeiten, größere Effizienz, Sicherheit und Stabilität im Datenverkehr. LAN Services ist davon überzeugt, dass von den Vorteilen von ADSL vor allem kleinere Unternehmen profitieren werden. Da nicht alle Firmen gleich viel ADSL brauchen, offeriert LAN Services, aufbauend auf dem Swisscom Fixnet, unterschiedliche ADSL-Pakete. Zu den Hauptwettbewerbern im Markt zählen Bluewin, Sunrise, Green und Tiscali, die aufgrund von Größenvorteilen eine Menge Geld in die Werbung investieren und damit auf die Masse der Privatkunden abzielen können. Es ist allerdings offensichtlich, dass in einem derartigen Massengeschäft kaum eine individuelle Betreuung und ein speditiver Kundensupport geboten werden. Hier sieht Reto Bertschi eine Marktlücke für LAN Services: „Wir sind seit 13 Jahren im Netzwerkbereich tätig und kennen die Bedürfnisse von KMUs sehr genau. Unsere ADSL-Angebote eignen sich dank 24-StundenAnschlussüberwachung, optionale Installation vor Ort und professionellem KundenSupport für den Profi-User und KMU´s. ADSL wird bei LAN als Zugangsmedium zum Kunden betrachtet. Darauf werden Dienste angeboten, die es erlauben, einen klaren Mehrwert durch den ADSL-Anschluss zu generieren. Das Vertriebsmodell für LAN Services ist auf First Class Qualität und zusätzliche Mehrwertdienste fokussiert. Entscheidend für den Erfolg eines ADSL-Resellers ist die Frage, welcher Markt bearbeitet wird. Will der ISP im Billigsegment, wo kaum Margen erziehlt werden können, mitmischen oder fokussiert sich der ISP auf ADSL-Lösungen, welche mit Zusatzservices - 4.33 -
.: Hosting, Sicherheit und Standards
verbunden werden können? Reto Bertschi beabsichtigt, sich vorwiegend auf Geschäfts- und Privatkunden zu konzentrieren, die bereit sind, für exzellenten Kundensupport, hohe Sicherheit und innovative Gesamtlösungen (z.B. für geschlossene Benutzergruppen) marktgerechte und faire Preise zu bezahlen. Mit hoher Priorität arbeitet LAN Services an Lösungen für zentral verwaltete Security-Systeme (Firewall, Antivirus), landesweite gesicherte Netzwerkverbindungen (Closed Usergroups) sowie die Telefonie (VoIP). Ein weiterer wesentlicher Faktor sind erhebliche Kosteneinsparungen durch die Nutzung von ADSL. Die Angebote von LAN Services können herkömmlichen Mietleitungsverbindungen preislich deutlich unterbieten. LAN Services rechnet damit, dass ein Kunde mit z.B. drei Standorten bei einem Mietleitungsverbund mit einer Bandbreite von 512 kBits etwa 40 - 50 % günstiger kommunizieren kann.
- 4.34 -
:. 4. Hosting, Sicherheit und Standards
4.5 Aktuelle und zukünftige Internet-Standards: Totale Integration des Netzes?
- Das Internet – Das Netzwerk wird zum Computer Microsoft nennt es .NET, HP nennt es eSpeak und Sun nennt es ONE. Die zukünftigen Standards des Internet sollen die größten Innovationen im Rahmen des WorldWideWeb seit der Erfindung des Browers darstellen. Nachdem der Hype mittlerweile in die Internetjahre gekommen ist und die meisten Business-Modelle versagt haben, sind Webdienstleistungen notwendig, die die Einführung profitabler Geschäftsmodelle erlauben. Das Aufkommen neuer Standards könnte den Rahmen für ein neues Zeitalter des Computing einläuten. Das Sharen von Prozessorleistungen und Softwareanwendungen im Rahmen des so genannten GRID, in dem das Netzwerk zum Computer avanciert, ist der seit Jahren von Sun Microsystems propagierte Slogan. Damit steht das Internet jedoch immer weniger für die direkte Verbindung von Computern, sondern es ist zunehmend ein Medium für die Vernetzung von Maschinen und deren Agenten. Das Web könnte somit zu einem sich selbst organisierenden Netzwerk für die Weiterentwicklung der Computertechnologie avancieren. Ohne dass ein Computer auf eine Webseite gehen muss, kann dieser zukünftig mit anderen Computern Daten austauschen. Neben XML gewinnen neue Standards wie UDDI und SOAP an Bedeutung, die Daten von Web Servern und anderen verbundenen Rechnern abrufen können, ohne dass dafür menschliche Interaktionen notwendig wären. Zukünftige XML-Mutationen werden es einem Computer erlauben, bestimmte Aufgaben an einen anderen Computer zu delegieren, ohne dass es eines Web-Programmierers bedarf, um diesen Ablauf zum Laufen zu bringen. - Web-Services Die bedeutendste Innovation im Internet sind heute die so genannten WebServices, bei dem Programme an einen bestimmten Service herantreten, um dort Daten abzurufen und diese zu verarbeiten. Pionierfirma für die Einführung von Web-Services war das Unternehmen Hewlett-Packard mit seinen so genannten „E-Services”, lange bevor Microsoft sein .NET-Konzept vorstellte. HP’s Zielsetzung war, Software in eine Dienstleistung zu verwandeln, die über das Internet sicher zur Verfügung gestellt werden kann. Web-Services werden den Automatisierungsgrad und die Maschinenzu-Maschinen-Kommunikation innerhalb des Internet weiter forcieren. WebDienstleistungen können über XML-Dokumente in einem spezifizierten Format beschrieben werden, und es lässt sich in zentralen Datenbanken ein Verzeichnis der verfügbaren Dienste aufbauen, ein so genanntes UDDIVerzeichnis (Universal Description, Discovery and Integration). Der Aufbau von Web-Services-Plattformen ist eine langfristige Vision, deren Umsetzung mehrere Jahre in Anspruch nehmen wird und die sehr stark von vier Internet-Standards abhängt: 1. HTTP (Hypertext Transfer Protocol), um über das Internet Daten zu transportieren und Zugang zu Applikationen zu ermöglichen, 2. XML (Extensible Markup Language) für den Austausch von - 4.35 -
:. 4. Hosting, Sicherheit und Standards
Daten, die in verschiedenen Formaten und Datenbanken gespeichert sind, 3. SOAP (Simple Object Access Protocol, einer Software, die es Anwendungen und Diensten ermöglicht, Anfragen über andere Anwendungen und Dienste über das Internet zu tätigen, sowie UDDI (Universal Description, Discovery and Integration), einem DNS-ähnlichen verteilten Webverzeichnis, welches Dienste dazu befähigt, sich gegenseitig zu entdecken und zu bestimmen, wie diese miteinander kommunizieren und interagieren können.
Abb.: Das magische Viereck; Quelle: Gartner-Group
- Verteilte Systeme sind „in“ Das Internet ist heute kein Synonym mehr für isolierte Websites oder elektronische Kataloge, sondern es ist eine Infrastruktur für internet-basierte Technologien. Die Basisarchitektur für Web-Services stellt ein Dreiecksverhältnis zwischen einem Dienste-Anbieter (Service Provider), einem Dienste-Nachfrager (Service Requester) und einem Dienste-Vermittler (Service Broker) dar. Wer heute im Internet eine führende Rolle einnehmen will, muss im Internet verteilte Systeme nutzen, konfigurieren, anpassen oder bauen können. Unterschiedlichste Systeme aus den verschiedensten Geschäftsbereichen können heute über Netzwerke effektiv verbunden werden. Die neuen internet-basierten Architekturen sind weit mehr als bloßes Web-Site-Design, sondern sie übernehmen zunehmend eine Intergrationsfunktion für Unternehmen. Um den wachsenden Ansprüchen zu genügen, entstehen heute völlig neue Infrastrukturen wie z.B. .NET oder J2EE. Web-Services zielen darauf ab, weltweit verfügbare Dienste zu implementieren, die entweder direkt vom End-User oder von Zwischenhändlern in neue Anwendungen integriert werden können. - 4.36 -
:. 4. Hosting, Sicherheit und Standards
Verglichen mit den heute eingesetzten verteilten Web-Anwendungen werden mit Web Services die bisher nur intern verwendeten Dienste von Enterprise Java Beans, DCOM- oder CORBA-Komponenten nach außen bekannt und nutzbar gemacht. Web-Services setzen hierbei konsequent auf die Verwendung offener Standards und auf möglichst einfache Protokolle. Allerdings ist nicht völlig klar, ob die Web-Service-Entwicklung in den nächsten Jahren überhaupt so konsequent in Richtung Standardisierung gehen wird, wie Microsoft und IBM, die Initiatoren von SOAP und UDDI, vorhersagen. - Marktentwicklung von Web-Services Web-Services sind nicht etwas völlig Neues, sondern sind aus der Eigendynamik des Internets und der digitalen Ökonomie entstanden. Für die Analysten von Gartner wird der Web-Services-Markt ab dem Jahr 2003 ein größeres Potenzial entfalten, wobei erst im Jahr 2005 Web-Services-Lösungen über ein einzelnes Unternehmen hinaus führen werden. Bis dahin wird ein Anstieg des Marktvolumens für Software- und Service-Komponenten von heute 4,1 Milliarden Dollar auf bis zu 15,4 Milliarden Dollar erwartet. Für IBM sind die Software-Dienste über das Web ein probates Mittel, die AS/400Plattform sowie die Großrechner am Leben zu halten. Doch trotz der aktuellen Dominanz von Microsoft und IBM beschränken sich Web-ServiceProdukte nicht auf diese beiden Hersteller. Cisco setzt beispielsweise auf das Angebot des Bostoner Start-ups Bowstreet mit seiner Software „Business Webfactory“. Bowstreet ist das einzige kleine Unternehmen in diesem Technologiesektor, welches von Gartner auf Grund dieser Tatsache auch als Übernahmekandidat eingestuft wird. Dass ausgerechnet Sun Microsystems und Oracle sich gegenüber Microsoft geschlagen geben werden, ist kaum zu erwarten. Sun Microsystems, listet seine Web-Services-Technologie unter dem Etikett Sun Open Net Environment (ONE). So stellt die neue Applikations-Server und Datenbank-Suite Oracle9i ein breit gefächertes Programmier-Framework dar, mit dem auf unterschiedliche Datenquellen zugegriffen werden und Inhalte in die unterschiedlichsten Kanäle verteilt werden können. - Standards für Web-Services Außer den Internet-Basisprotokollen TCP/IP, HTTP und XML spielen derzeit drei weitere Standards bei Web-Services eine Rolle: UDDI, WSDL und SOAP, die alle drei unter der Ägide von IBM und Microsoft entwickelt wurden. Zusammenarbeit (Collaboration) ist heute der wichtigste Treiber für die Entwicklung von Standards. Die Industriestandards für das so genannte eCollaboration werden unter dem Deckmantel Universal Description, Discovery, and Integration (UDDI) gruppiert. UDDI ermöglicht es, dass Web Services registriert, weltweit bekannt und verfügbar gemacht werden. UDDI besitzt ein offen gelegtes „Application Programmer's Interface“ (API), das auf XML bzw. SOAP beruht. Die UDDI-Standards gehören dem Konsortium uddi.org. UDDI basiert auf einem Set von Standards wie z.B. HTTP, XML und SOAP. Eine neue Spezifikation zur Beschreibung vernetzter XML-basierter - 4.37 -
:. 4. Hosting, Sicherheit und Standards
Services ist die Web Services Description Language (WSDL). WSDL bietet eine einfache Methode zur Beschreibung des grundlegenden Anfrageformats, und zwar unabhängig vom verwendeten Protokoll (z. B. SOAP oder XML) bzw. von der Codierung (z. B. MIME). Simple Object Access Protocol (SOAP) ist ein von Microsoft entwickelter, sich schnell ausbreitender Standard, der Applikationen in einfacher Weise web-fähig machen soll. SOAP ist ein schlankes Protokoll auf XML-Basis, mit dem proprietäre Module verpackt und mit allgemein verständlichen Schnittstellen versehen werden können. SOAP definiert einen Message-Austausch zwischen dem Programmobjekt, das Dienste nachfragt, und dem Programmobjekt, das Dienste anbietet. SOAP ist vollkommen herstellerneutral und völlig unabhängig von der verwendeten Programmiersprache, dem verwendeten Objektmodell und der jeweiligen Betriebssystemplattform. Die Kombination von HTTP und SOAP bildet heute die Basis für das so genannte eCollabroation. SOAP ist unabhängig von Betriebssystemen und Objektmodellen wie DCOM von Microsoft oder CORBA der Object Management Group (OMG). Die Definition des SOAPStandards hat Microsoft mittlerweile schon einen Vorteil gegenüber Konkurrenten wie Sun oder auch Oracle und IBM verschafft, die bisher auf Java und CORBA für web-fähige Applikationen setzten. - XML Die Basistechnik für Web Services ist heute XML. Auch das RPC-Protokoll SOAP, das an die Stelle von proprietären, komplexen Protokollen aus der CORBA-, DCOM- oder RMI-Welt tritt, beruht allein auf XML. Die XMLSprache (Extensible Markup Language) wurde geschaffen, um einen einheitlichen Standard für die Kooperation von Computern festzusetzen. So kann jeder im Rahmen von XML seine Daten mit Markierungstags versehen, d.h. es ist wesentlich einfacher, zielorientiert im Meer des Wissens zu navigieren. Ein XML-Dokument kann aus einer Mischung von Tags aus einem Namensraum bestehen, der durch eine URI identifiziert wird. Dadurch wird es möglich, jedes XML-Dokument über das Web zu definieren. Die XML-Sprache ist eine Anstrengung von SGML-Experten, die Möglichkeiten von SGML mit der Einfachfachheit von HTML zu verbinden. XML bildet hierbei eine Untermenge der SGML-Sprache. Die Koordination dieser Experten findet in einer Arbeitsgruppe innerhalb des World Wide Web Consortium (W3C) statt. Das W3C ist eine Organisation, die die Standardisierung vieler WWW-bezogener Formate und Protokolle wie HTML und HTTP koordiniert. Von Anfang an, war XML äußerst nachgefragt, da es die Trennung von Präsentation, Logik und Datenhaltung ermöglicht und unabhängig von Plattform, Programmiersprache undZielformat ist. Struktur und Inhalte sind leicht verständlich, und die Standardisierung von Prozessen wird vereinfacht. XML ist hierbei kein Wettbewerber zu SGML oder HTML, sondern dafür designt, die Lücke zwischen den beiden Standards zu füllen. XML geht deutlich über das bestehende Markieren von Dokumenten hinaus, da es das verteilte Rechnen und den Umgang mit Metadaten unterstützt. XML erlaubt das Design von Software-Tools, die XML-Objekte schnell handhaben können und somit die Software nicht überfordern. Dadurch ist XML ein idealer Kandidat für ein so genanntes - 4.38 -
:. 4. Hosting, Sicherheit und Standards
„Message Interchange Format” zwischen verteilten Anwendungen und Komponenten, eine Idee, die in der SGML-Community stark favorisiert wird. - Warum findet XML eine so breite Unterstützung? Mittlerweile wird der XML-Standard industrieübergreifend akzeptiert. Unternehmen wie IBM, Microsoft, Netscape und Sun unterstützen den Standard, der sich in in idealer Weise für den Einsatz in Portal-Umgebungen eignet. Darüber hinaus fungiert XML als Metasprache, für die Definition eigener Austauschformate, die in Verbindung mit einer Grammatik und einem Namensraum weltweit normiert und standardisiert werden können. Nahezu alle Anbieter von eBusiness-Tools bieten eine XML-basierte Import-/ und Export-Schnittstelle an. Es werden immer mehr XML-basierte Frameworks (beispielsweise Cocoon von der Apache Group), XML-basierte Datenbeschreibungsformate (z.B. EJB 1.1 für die Interoperabilität von EJBKomponenten) oder XML-Datenbanken (z.B. Tamino von der Software AG) angeboten. XML ist mittlerweile zu einem Key-Enabler für eBusiness und eCommerce-Anwendungen avanciert. XML ist ein transparentes und wirksames Format für Messages und es ist vor allem auch für den Menschen gut lesbar. XML unterstützt außerdem Metadaten, das heißt Informationen über Daten wie z.B. Abstracts, Schlüsselwörter. Damit ist es in der Lage, Kontexte zwischen unterschiedlichen Channels wie Audio, Video, Text oder Bildern zu schaffen. XML erlaubt erweiterte Möglichkeiten, um Hyperlinks zu setzen. Als Teil der XML-Familie, kann das so genannte XLL völlig neue Beziehungsmechanismen für Hyperlinks und Hyper-Navigation zur Verfügung stellen, wie z.B. multi-direktionale Links, externe Links (LinkInformation außerhalb des Dokumentes, Adressierung basiert auf der Struktur eines Dokumentes), neue Stylesheet Standards, die Kaskadierung von Stylesheets, eine neue Stylesheet-Sprache (XSL), die Lenkung von Metadaten, das Meta-Content Routing (die richtige Information zum richtigen Zeitpunkt zur richtigen Information zu bringen) sowie das Einrichten von Channel-, User-, Gruppen-Profilen oder Desktop-Profilen. Ein Key-Player in diesem Bereich ist mittlerweile Netegrity, welches DataChannel, die ehemals führende Firma im Bereich von Meta-Portalen, aufgekauft hat. - XML-Server Bei den XML-Servern hat die Firma Software AG mit einem Marktanteil von über 40 Prozent die Nase vorn. Die zentralen Services von Tamino umfassen die Speicherung, die Abfrage, das Browsen und die Pflege XML-basierter Geschäftsdokumente und –daten. Des Weiteren stellt der Tamino-Server eine breite Palette von Werkzeugen und Komponenten für die produktive Entwicklung XML-basierter Unternehmenslösungen zur Verfügung. Im Mittelpunkt stehen dabei Lösungstypen für die Web-Anbindung bestehender disparater Unternehmens-IT-Infrastrukturen sowie das effiziente Publizieren und Austauschen von elektronischen Dokumenten über das Internet. Der Tamino XML Server basiert auf offenen Standards und ist für mittlere und große Unternehmen konzipiert, die strategisch wichtige und geschäftskritische Web-Anwendungen auf der Basis von XML-Standards erstellen. Firmen die bei skalierbaren XML-basierten Web-Datenserver einen - 4.39 -
:. 4. Hosting, Sicherheit und Standards
hohen Datendurchsatz, absolute Zuverlässigkeit, Integration heterogener Daten oder sehr geringe Administrationskosten wollen, setzen heute vorwiegend auf den Tamino XML-Server.
- .NET Intro Die .NET-Initiative ist wahrscheinlich die größte Herausforderung für Microsofts Strategie seit der Einführung von Windows 3.0. Es ist die Vision eines Internets der nächsten Generation, welches auf Standards und Kompatibilität basiert. .NET repräsentiert ein neues Architekturmodell und eine neue Plattform für die nächste Generation des Internets. .NET erlaubt die Transformation von klassischen Applikationen und Websites zu leistungsstarken Web-Services. Basierend auf standardisierten Internetprotokollen wird die Integration von Geschäftsprozessen auch über Unternehmens- und Plattformgrenzen hinaus möglich. Anders ausgedrückt könnte man es auch so formulieren: Mit der .NET-Initiative versucht Microsoft endgültig das Netz zu übernehmen. Die Ankündigung ist gleichzeitig eine Vaporware, d.h. ein vorangekündigtes Produkt, das den Markt so lange einfrieren soll, bis Microsoft im Rahmen seiner eBusinessStrategie mit IBM, Oracle und Sun Microsystems gleichgezogen hat. Außerdem möchte Microsoft mit .NET die berichteten schlechten Verkaufszahlen von Windows 2000 und seinen Back-Office-Servern wett machen. Des Weiteren ist die Initiative auch gegen das von amerikanischen Anwälten geforderte Auseinanderbrechen des Unternehmens in 2 oder möglicherweise 3 Einzelunternehmen gerichtet. Was immer man jedoch über die .NET-Initiative denken mag, sie ist eine markante Veränderung der Strategie des Unternehmens, da sowohl die Betriebssysteme, Anwendungen, Entwicklungswerkzeuge sowie Online-Dienste davon betroffen sind. .NET wird jedoch auch Auswirkungen auf andere Plattformen haben.
- 4.40 -
:. 4. Hosting, Sicherheit und Standards
- Infrastruktur für neue Anwenderperspektive .NET ist eine Infrastruktur mit Werkzeugen, Dienstleistungen und einer Fülle von Anwendungen. Vor allem aber ist es jedoch eine neue Anwenderperspektive, die im Mittelpunkt steht. Das Internet wird ein persönliches Netzwerk, welches alle Anwendungen, Daten und Vorlieben des Users beheimatet. Der PC wird zwar das vorherrschende Endgerät sein, aber es gibt von überall zu jeder Zeit von jedem Gerät aus Zugänge zu Daten und Anwendungen. Die .NET-Strategie von Microsoft ist ein sehr ambitioniertes Unterfangen, wobei der PC mit modernen Gadgets wie Mobiltelefon und PDA verschmolzen werden soll. Informationen, die auf einem Gerät zugänglich sind, wie z.B. die Terminplanung, sollen auch von anderen einsehbar sein. Das integrierende Medium hierfür ist das Internet. Darüberhinaus soll .NET umfangreiche Tools zur Softwareentwicklung für das Internet, für Windows-PCs und viele andere Geräte bieten. Die Möglichkeiten der Interaktion mit Anwendungsdaten werden um neue Medienkanäle wie Sprachmöglichkeiten oder die Handschrifterkennung erweitert. Die Grenzen, die bisher die Anwendungen untereinander und vom Internet trennen, werden ebenfalls verschwinden. Anstatt mit einer Anwendung oder einer einzelnen Webseite zu interagieren, wird der User mit einer Fülle von Computern und Dienstleistungen verbunden sein, die es erlauben, Objekte und Daten mit genau der gewünschten Information auszutauschen und zu verbinden.
- 4.41 -
:. 4. Hosting, Sicherheit und Standards
- Vorteile für Unternehmen Microsofts .NET soll vor allem als Integrationsplattform für Unternehmen dienen. Durch das Bereitstellen von XML-Webdiensten wird die mögliche Reichweite und Präsenz vergrößert.Somit werden auch neue Geschäftsmöglichkeiten geschaffen. Darüber hinaus verspricht die Verwendung von XML-Webdiensten erhebliche Einsparungen bei den Entwicklungskosten sowie neue Einnahmequellen durch Mehrwertdienste. .NET verspricht eine einfachere Integration innerhalb und zwischen Unternehmen, während gleichzeitig Möglichkeiten für eine sinnvollere Verbindung mit Benutzern zu Hause geschaffen werden. XML-Webdienste bieten hierbei eine direkte Möglichkeit für die Interaktion von Unternehmensprozessen. Intern sowie auf Remotesystemen ausgeführte Anwendungen können kombiniert werden, um Unternehmen die Programmierung des Webs zu ermöglichen. XML-Web-Services bieten einen großen Mehrwert, da sie eine Verbindung zwischen Anwendungen und Informationen herstellen. Insbesondere junge Technologieunternehmen sollen von Microsofts .NET-Strategie profitieren. Speziell für Start-upUnternehmen hat Microsoft deshalb in Kooperation mit Compaq und Intel ein neues Unterstützungsprogramm entwickelt, die Microsoft Go.NetInitiative. Mit dieser sollen jungen Unternehmen in der Gründungsphase die notwendigen Software- und Hardware-Technologien sowie Services wie zum Beispiel Beratung oder Hosting kostengünstig zur Verfügung gestellt werden. Dies geschieht jedoch nicht ohne Eigennutz, da die Verbindung zu Start-ups als Frühindikator für neue Anforderungen und Trends der IT-Branche dienen kann.
Abb.: Web-Applikationen; Quelle: Gartner-Group
- 4.42 -
:. 4. Hosting, Sicherheit und Standards
- Standards von .NET Für Microsoft ist .NET kein geschlossenes System, sondern es soll offen bleiben. Es benutzt Standards wie XML, SOAP und HTTP. Microsoft betont zwar immer wieder die Offenheit der von .NET genutzten und gesetzten Standards, allerdings wird erst die Zukunft zeigen, ob dieses Versprechen eingelöst wird. Eine .NET-Applikation verfügt auf der XML-Schicht über das Simple Object Access Protocol (SOAP), einen Standard für die Übertragung von Nachrichten über das Internet, der die Interoperabilität zwischen Applikationen ermöglicht. Hierbei verwendet SOAP XML zur Beschreibung von Nachrichten und HTTP zu ihrer Übertragung. Ein weiteres wichtiges Feld bei Microsofts .NET-Initiative sind die Entwicklungstools für von .NET gesteuerte Anwendungen. Das .NET Framework macht es für Programmierer leicht, XML und SOAP zu integrieren, sodass ihre Anwendungen miteinander sprechen und Daten austauschen können. Der von Microsoft lancierte Begriff „.Net-managed” soll eine höhere Sicherheit und eine größere Zuverlässigkeit gegenüber früheren Windows-Anwendungen bringen. Auch das Worldwide Web Consortium bewertet SOAP in seiner XML-Protocol Working Group, wobei jedoch noch nicht sicher ist, dass es sich als Standard durchsetzen wird. - .NET versus J2EE Heute gibt es zwei technische Visionen für das eBusiness und die elektronische Zusammenarbeit: die .NET Plattform und die J2EE-Plattform. Diese bilden die Basis zukünftiger IT-Strategien, da die Entscheidung für eines der Produkte eine Grundsatzentscheidung im Bereich der Applikationsinvestitionen darstellt. Die .NET und die Java 2 Platform Enterprise Edition (J2EE) weisen überraschend viele Gemeinsamkeiten wie die Komponentenorientierung, die Netzwerkorientierung sowie einen WebBrowser als primäres Interface auf. Auf Plattformebene basieren die beiden Technologien auf einer Virtual Machine-Architektur, deren Hauptziel Portierbarkeit ist. Der größte Unterschied zwischen beiden Plattformen ist der, dass Java/J2EE sprachenspezifisch und plattformunabhängig ist, während .NET sprachenunabhängig und plattformspezifisch ist. Allerdings sind zahlreiche J2EE-Implementierungen nicht vollständig plattformübergreifend. Das .NET Framework von Microsoft basiert auf der Sprache CLR, die aus einer Spezifikation für den Microsoft Intermediate Language-Code und einer Runtime-Umgebung besteht. Visual Studio .NET wird mit den Microsoft-Sprachen Visual Basic, Visual C++ und Visual C# (sprich: C Sharp) geliefert. C# ist eine objektorientierte Sprache, die die Basis der neuen .NET-Strategie von Microsoft bildet. C# baut auf der Syntax und den objektorientierten Funktionen von C++ auf und bietet mehr Funktionalität, um ihre Verwendung mit Web Services zu erleichtern. Obwohl C# Ähnlichkeit mit Java hat, gibt es Unterschiede bei den Funktionen.
- 4.43 -
:. 4. Hosting, Sicherheit und Standards
Plattform
Architektur
.NET
- .NET Infrastruktur und Werkzeuge:
J2EE
- Java Language System
Infrastruktur, um eBusiness-
- Client Programming Model
Systeme zu bauen und zu
- Middle Tier Infrastructure
betreiben: Visual Studio.NET,
- Programmer Enterprise API
.NET Enterprise Servers und
- Non Programmer Visible API
.NET Framework. - .NET Foundation Services: .NET Services wie z.B. Passport.NET (für UserAuthentifizierung) und Dienste zur Datenspeicherung, UserPräferenzen Management und Terminplanung. - .NET User Experience: Zur Verfügungstellung von Informationen über eine Vielzahl von Wegen und mit verschiedensten Geräte. - .NET Devices: neue Generation intelligenten Internet-Geräten, die Web Services verstärken können.
Kompetenz
Kern der Technologie völlig neu
Java-Erfahrung seit 1994
Sprache
Mehrsprachigkeit: C#, VB, C++,...
Einzige Sprache: Java
Toolhersteller
Microsoft
Sun, BEA, IBM, Oracle,..
Komponentenmodell
.NET-(Web)-Services/COM+
(Enterprise) Java Beans
Kostensituation
- eignet sich für Projekte, die sich
- für große, langfristig
schnell amortisieren sollen - langfristige Pflege ist jedoch aufwändig
angelegte Projekte geeignet - langfristig sind die Pflegekosten niedriger
- hohe Entwicklerproduktivität und Wiederverwertbarkeit von Codes gegeben
Abb.: Plattform-Vergleich zwischen .NET und J2EE
- 4.44 -
- bessere Wiederverwertbarkeit gegeben
:. 4. Hosting, Sicherheit und Standards
4.6 Tim Berners-Lee´s Vision: The Semantic Web
- Auf dem Weg zur Maschine-Maschine-Kommunikation Am MIT kursiert die Idee, Dinge des alltäglichen Lebens mit einem Chip auszustatten und diese miteinander kommunizieren zu lassen. Im Rahmen des Projektes „Things that Think“ (http://ttt.media.mit.edu/) wird das Ziel verfolgt, die Migration der Computer- und der Kommunikationstechnologie von bisherigen Rechnern in alltägliche Objekte zu untersuchen. Doch auch wenn kommunizierende, smarte Haushaltsgeräte eine mögliche Entwicklung darstellen, so werden die beschriebenen Dinge kaum eigenständig denken und Bedeutungen zuweisen können. Genau dies ist jedoch die Forderung an die Agenten eines „Semantic Web“. Wichtigste Aufgabe im Internet ist es, den Nutzern das Leben zu erleichtern und Routinejobs automatisch von Agenten erledigen zu lassen. Besonders bei Suchmaschinen, die alles Mögliche zu Tage fördern, nur nicht das, nach dem man sucht, wäre es wünschenswert, wenn derartige Maschinen wie z.B. Google automatisch Kontexte und semantische Zusammenhänge herstellen könnten. Eine Maschine ist, anders als der Mensch, bisher nicht in der Lage, ein HTMLDokument zu verstehen, da diese auf syntaktischer und nicht auf semantischer Basis arbeitet. Hier könnte zukünftig das Semantic Web Abhilfe verschaffen. Als neue Infrastruktur des Web, zielt es darauf ab, mittels neuer Sprachen, Informationen in ein maschinenlesbares Format zu bringen. Das bestehende Web soll hierbei nicht substituiert, sondern um eine Semantikebene erweitert werden. - Berners-Lee’sVision Mit dem Semantic Web geht vor allem darum, die Kommunikation von Maschine zu Maschine zu verbessern. Darauf zielt auch das Konzept der heutigen Web-Services wie .Net von Microsoft ab. Allerdings handelt es sich beim Verstehen von Informationen durch Maschinen um eine sehr schwierige Aufgabe. Wie können Maschinen die vorhandenen Informationen im Netz nutzen? Hierzu gibt es zwei Möglichkeiten: 1. Die Maschinen müssen die natürliche Sprache verstehen. Das ist allerdings ein bisher von der KI-Forschung noch ungelöstes Problem. 2. Die Daten müssen so aufbereitet werden, dass sie von Maschinen verstanden werden. Letzterer Ansatz wird vom Semantic Web verfolgt. Die Vorteile liegen auf der Hand: Suchmaschinen können bessere Ergebnisse erzielen, Inhalte vonWebsites können übersichtlich beschrieben werden und intelligente Agenten können miteinander kommunizieren. Die Applikationen von .Net und auch des Semantic Web werden nicht wesentlich intelligenter sein als heutige Systeme. Im Semantic Web werden die Maschinen in Form von elektronischen Agenten allerdings autonomer miteinander kommunizieren. Das Semantic Web gibt den Agenten die Informationen über die Eigenschaften eines bestimmten Objekts. Damit können diese zu neuen Informationen gelangen. Das Semantische Web muss allerdings zwei Forderungen erfüllen:
- 4.45 -
:. 4. Hosting, Sicherheit und Standards
1. Die Kommunikation von Menschen zu Menschen über geteiltes Wissen muss für Gruppen aller Größen möglich sein. 2. Es muss die Zusammenarbeit auch auf Computer ausgedehnt werden können. - Die Basis des Semantic Web Das WorldWideWeb (WWW) befindet sich in einer Phase der Transformation von einem Datenmedium (HTML) hin zu einem Informations- (XML) und Wissensmedium (RDF). Damit vor allem die Kommunikation von Maschine zu Maschine verbessert werden kann, müssen sie Bedeutungen verstehen können. Vornehmlich drei Ebenen bilden die Basis des Semantic Web: 1. Die Extensible Markup Language (XML), 2. das Resource Description Framework (RDF) und 3. Ontologien wie beispielsweise DAML+OIL. Für die Kommunikation im Semantic Web müssen alle drei Ebenen bei einem Agenten vorhanden sein. Eine wichtige Voraussetzung, um Bedeutungen im Web generieren zu können, sind Metadaten. Sie beschreiben andere Daten, d.h. sind „Daten über Daten“. Die meisten Anwendungen im Web arbeiten mit Metadaten, während die „echten“ Daten weiterhin von Menschen verarbeitet werden. Die Nutzung der Metasprache XML hat den Vorteil, dass sie weltweit akzeptiert ist und eine saubere Trennung von Information und Präsentation ermöglicht. XML liefert somit die Syntax, während RDF die Bedeutungen definiert. Zwar lassen sich mit RDF bereits einfache Aussagen kodieren, um jedoch ein Semantic Web zu realisieren, bedarf es neben der Metadatensprache noch einer weiteren Schicht. Dazu müssen Schemas und Ontologien definiert werden. Da das Web unstrukturiert und dezentral organisiert ist, können Verständnisprobleme auftreten, die nur durch Ontologien behoben werden können. Zu den Sprachen, mit denen sich Ontologien für das WorldWideWeb definieren lassen, zählen SHOE, XOL, OML, DAML und OIL. - URI und RDF Zunächst kommt es darauf an, dass ein beliebiges Objekt als solches identifizierbar ist. Dies wird mit dem Uniform Resource Identifier (URI) erreicht. Eine bekannte Form der URI, die URL (Unified Resource Locator) enthält auch die Information, um die Ressource zu lokalisieren. Prinzipiell kann jedes denkbare Objekt eine URI haben, oder sogar mehrere, da es für jedermann möglich ist, eine URI für ein Objekt zu kreieren. Hieraus ergibt sich das Problem, dass man von zwei unterschiedlichen URIs nicht sagen kann, ob sie dasselbe Objekt referenzieren. Insbesondere durch den RDFStandard (Resource Description Framework) sollen Webinhalte nicht nur maschinenlesbar, sondern auch maschinen-verstehbar werden. Das ”Resource Description Framework” (RDF) wurde vom WorldWideWebKonsortium (W3C) entwickelt und ist Modell zur Repräsentation von webbasierten Metadaten wie z.B. ”Sitemaps”, ”Content Rating”, ”Web Crawling” oder ”Distributed Authoring”. Anders als HTML, das vor allem die Interaktivität der Teilnehmer unterstützt, erlaubt RDF eine präzise - 4.46 -
:. 4. Hosting, Sicherheit und Standards
Beschreibung von Inhalten und damit eine kontext-orientierte Suche mit intelligenten Agenten sowie eine automatische Erledigung von Aufgaben im Web. Als Kodierungssyntax für RDF lässt sich die XML-Sprache nutzen. - Was leisten Ontologien? Der Begriff ‘Ontologie’ entstammt der Philosophie und bezeichnet die Lehre vom Sein. Ontologien sind in der Lage, auch Beziehungen zwischen verschiedenen Ebenen herzustellen. Außerdem ermöglichen Ontologien so genannte Taxonomien, das heißt Klassifizierungen von Objekten in einer bestimmten Rangfolge. Mit Inferenzregeln, einem Teil der Ontologien, lässt sich darüber hinaus Wissen, das nur implizit in der Information enthalten ist, explizit machen. So hat zum Beispiel jeder Online-Shop ein Schema für seinen Produktkatalog. Eine Ontologie stellt hierbei eine formale Beschreibung von Gegenständen und Beziehungen dar, die für eine Person oder Gruppe von Personen begriffsbildend sind. Derartige formale Beschreibungen ermöglichen Maschinen, mit den in der Ontologie spezifizierten Objekten zu arbeiten. Mit Inferenzregeln und simpler Logik versehen, können Agenten dann gewisse Schlussfolgerungen ziehen und neue Informationen ableiten. Im Semantic Web wird es aller Voraussicht nach sehr viele Ontologien geben, die jeweils einen kleinen Anwendungsbereich abdecken. Ein Bereich, der viel mit Ontologien arbeitet, ist die Molekularbiologie. Dieser zukünftig sehr bedeutetende Wissenschaftszweig ist weniger den axiombasierten als vielmehr den wissensbasierten Disziplinen zuzurechnen. Da verschiedene Datenbanken in der Regel auch unterschiedliche Definitionen desselben Konzepts haben, benötigt man für die internationale Zusammenarbeit Ontologien wie z.B. die „Gene Ontology“. So werden bei der Untersuchung neuer Proteinsequenzen von Agenten Vergleiche zu bereits bestehenden Kombinationen gezogen, um das Verhalten einer noch unbekannten Kette zu analysieren. Als besonders datenintensive Wissenschaft könnte die Molekularbiologie somit der Vorreiter für ein internetbasiertes semantisches Wissenschaftlernetz sein. - Durchbruch durch die Forschung? Die Kombination von RDF, Ontologien und digitalen Signaturen könnte den Schlüssel zum Aufbau eines ”Web of Trust”, eine weitere Vision von Tim Berners-Lee, liefern. Digitale Signaturen haben hierbei die Aufgabe, die Sicherheit von Transaktionen zu gewährleisten. Diese bestätigen, dass eine Information von einem bestimmten Autor stammt. Als weiterer Punkt kommt hinzu, dass man, auch wenn man den Verfasser identifiziert hat, noch nicht weiß, ob man diesem trauen kann. Um die Korrektheit der gefundenen Informationen überprüfen zu können, müssen diese nachvollziehbar sein. Wichtig ist auch, dass möglichst viele Personen anderen Personen vertrauen können, damit ein Web of Trust entstehen kann. So wie es möglich ist, einer Person das Vertrauen auszusprechen, kann dieses ihr ebenso auch wieder entzogen werden, wenn es missbraucht wird. Vertrauen ist für ein Medium der Zusammenarbeit die elementare Voraussetzung. Public Key Kryptografie (Nutzung von öffentlichen Schlüsseln), aber auch so genannte ”Trust”- 4.47 -
:. 4. Hosting, Sicherheit und Standards
Maschinen, d.h. leistungsfähige Agenten, könnten in Zukunft die digitale Signaturen überprüfen und Fehler erkennen. Ob und wieweit, vor allem aber zu welchem Zeitpunkt sich das Semantische Web durchsetzen kann, hängt vom Fortschritt der Forschung in den Bereichen der Künstlichen Intelligenz, des verteilten Informationsmanagements mit webbasierten, standardisierten Objektdarstellungen sowie von Ontologien und Regelsystemen ab. Nachfolgende Abbildung zeigt die notwendigen Ebenen für die Erreichung der zuvor genannten Vision.
Abb.: Digitale Signatur
- 4.48 -
:. Biografie Dr.-Ing. Artur P. Schmidt, Jahrgang 1961 ist Publizist, Managementberater und Gründer von BLUE PLANET TEAM NETWORK. Er ist promovierter Ingenieur der Luft- und Raumfahrttechnik mit besonderem Schwerpunkt Systemwissenschaften. Aus seinen früheren Forschungsarbeiten zum Thema netzwerkorientiertes Management entwickelte er einen eigenen Managementansatz: das Endo-Management-Konzept. Er veröffentlichte das erfolgreichste Online-Buch im deutschsprachigen Raum, den „Wissensnavigator“. Neben seiner publizistischen Tätigkeit ist er gleichzeitig Managementberater für große internationale Konzerne. Außerdem ist er ein äußerst gefragter internationaler Redner zu wirtschaftlichen und technologischen Themenstellungen.
:. Literaturverzeichnis
Adamowsky, N.:
Spielfiguren in virtuellen Welten; Frankfurt 2000.
Agentur Bilwet:
Medien-Archiv; Düsseldorf 1993.
Bakhtin, M. M.:
The dialogic imagination; Austin 1981.
Beer, S.:
Brain of the Firm; New York 1995.
Beer, S.:
Cybernetics and Management; London 1959.
Berners-Lee, T.:
Der Web-Report; München 1999.
Bush, V.:
As We May Think; in: The Atlantic Monthly; July 1945; Volume 176, Nr. 1; S. 101-108.
Coase, R. H.:
The Firm, the Market and the Law; Chicago 1990.
Deleuze, G./Guattari:
Tausend Plateaus; Berlin 1992.
Eigner, C./Nürnberger, M.:
Matching.net: Die Siegesformel für Unternehmen – Alle Macht dem Kunden; Wien 2000.
Erber, G./Hagemann, H.:
New Economy in der Krise?; In: Wirtschaftsdienst No. 1., 2002.
Eggers, B./Hoppen, G. (Hrsg):
Strategisches E-Commerce-Management. Erfolgsfaktoren für die Real Economy; Wiesbaden 2001.
Flusser, V.:
Kommunikologie; Mannheim 1996.
Galouye, D. F.:
Welt am Draht; München 1965.
Gilder, G.:
Telecosm: How Infinite Bandwidth Will Revolutionize Our World; New York 2000.
Götz, Klaus (Hrsg.):
Wissensmanagement zwischen Wissen und Nichtwissen; München 2000.
Günther, G.:
Das Bewusstsein der Maschinen; Baden-Baden 1964.
Haertsch, P.:
Wettbewerbsstrategien für Electronic Commerce; Köln 2000.
Hamel, G.:
Das revolutionäre Unternehmen; München 2000.
Hartmann, F.:
Medienphilosophie; Wien 2000.
Hermanns, A./ Sauter, M.:
Management-Handbuch Electronic Commerce; München 2001.
Hofer, M.:
Medienökonomie des Internet; Münster 2000.
Kim, A. J.:
Community Building on the Web; Berkeley 2000.
Kittler, F. A.:
Eine Kulturgeschichte der Kulturwissenschaft; München 2000.
Koepsell, D. R.:
The Ontology of Cyberspace: Philosophy, Law, and the Future of Intellectual Property; Chicago 2000.
Licklider, J. C. R.:
Man-Computer Symbiosis; Digital in Memoriam: J. C. R. Licklider; Palo Alto 07. August 1990.
Mandel, M. J.:
The Coming Internet Depression: Why the High-Tech Boom Will Go Bust, why the Crash Will Be Worse than you Think, and how to Prosper Afterwards; New York 2000.
McLuhan, M.:
Die magischen Kanäle. Understanding Media; Dresden 1995.
Meier, A. (Hrsg.):
Internet & Electronic Business. Herausforderungen an das Management; Zürich 2001.
Pesce, M.:
The Playful World: How Technology is Transforming our Imagination; New York 2000.
Piller, F./Schoder, D.:
Mass Customization und Electronic Commerce. Eine empirische Einschätzung zur Umsetzung in deutschen Unternehmen; In: Zeitschrift für Betriebswirtschaft, 69. Jg. 1999, 1111-1136.
Porter, M E.:
Strategy and the Internet; In: Harvard Business Review, March 2001, 63-78.
Rheingold, H.:
The Virtual Community: Homesteading on the Electronic Frontier; Cambridge 2000.
Rössler, O. E.:
Endophysics - The World as an Interface; Singapore 1998.
Rössler, O. E.:
Endophysik; Berlin 1992.
Schneider, D./Schnetkamp, G.:
E-Markets. B2B-Strategien im Electronic Commerce: Marktplätze, Fachportale, Plattformen; Wiesbaden 2000.
Schmidt, A. P.:
Der Wissensnavigator - das Lexikon der Zukunft; Stuttgart 1999.
Schmidt, A. P.:
Endo-Management - Entrepreneurship im Interface des World Wide Web; Bern 1999.
Schmidt, A. P.:
Wohlstand_fuer_alle.com; München 2001.
Schmidt, A. P./ Rössler, O. E.:
Medium des Wissens - das Menschenrecht auf Information; Bern 2000.
Shapiro, C./Varian, H.:
Information Rules; Boston 2000.
Weibel, P. (Hrsg.):
Jenseits von Kunst; Wien 1997.
Weiber, R.:
Handbuch Electronic Business. Informationstechnologien, Electronic Commerce, Geschäftsprozesse; Wiesbaden 2000.
Wiener, N.:
The Human Use of Human Beings; New York 1988.
Wirtz, B. W. :
Medien- und Internetmanagement; Wiesbaden 2000.
Zielinski, S.:
Archäologie der Medien. Zur Tiefenzeit des technischen Hörens und Sehens; Reinbek bei Hamburg 2002.