axel AMTHOR thomas BROMMUND
MEHR ERFOLG DURCH
WEB ANALYTICS EIN LEITFADEN FÜR MARKETER UND ENTSCHEIDER
Amthor/Brommund Mehr Erfolg durch Web Analytics
v
Bleiben Sie einfach auf dem Laufenden: www.hanser.de/newsletter Sofort anmelden und Monat für Monat die neuesten Infos und Updates erhalten.
Axel Amthor Thomas Brommund
Mehr Erfolg durch Web Analytics Ein Leitfaden für Marketer und Entscheider
Axel Amthor und Thomas Brommund, contentmetrics GmbH, Haar b. München und Hamburg Kontakt:
[email protected]
Alle in diesem Buch enthaltenen Informationen, Verfahren und Darstellungen wurden nach bestem Wissen zusammengestellt und mit Sorgfalt getestet. Dennoch sind Fehler nicht ganz auszuschließen. Aus diesem Grund sind die im vorliegenden Buch enthaltenen Informationen mit keiner Verpflichtung oder Garantie irgendeiner Art verbunden. Autor und Verlag übernehmen infolgedessen keine juristische Verantwortung und werden keine daraus folgende oder sonstige Haftung übernehmen, die auf irgendeine Art aus der Benutzung dieser Informationen – oder Teilen davon – entsteht. Ebenso übernehmen Autor und Verlag keine Gewähr dafür, dass beschriebene Verfahren usw. frei von Schutzrechten Dritter sind. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Buch berechtigt deshalb auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften.
Bibliografische Information der Deutschen Nationalbibliothek: Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
Dieses Werk ist urheberrechtlich geschützt. Alle Rechte, auch die der Übersetzung, des Nachdruckes und der Vervielfältigung des Buches, oder Teilen daraus, vorbehalten. Kein Teil des Werkes darf ohne schriftliche Genehmigung des Verlages in irgendeiner Form (Fotokopie, Mikrofilm oder ein anderes Verfahren) – auch nicht für Zwecke der Unterrichtsgestaltung – reproduziert oder unter Verwendung elektronischer Systeme verarbeitet, vervielfältigt oder verbreitet werden. © 2010 Carl Hanser Verlag München, www.hanser.de Lektorat: Margarete Metzger Redaktion: Doris Eichmeier, München Copy editing: Manfred Sommer, München Herstellung: Irene Weilhart Umschlagdesign: Marc Müller-Bremer, www.rebranding.de, München Umschlagrealisation: Stephan Rönigk Datenbelichtung, Druck und Bindung: Kösel, Krugzell Ausstattung patentrechtlich geschützt. Kösel FD 351, Patent-Nr. 0748702 Printed in Germany ISBN 978-3-446-42408-1
Inhalt Geleitwort ........................................................................................................................... XI 1 1.1 1.2
1.3 1.4 2 2.1 2.2 2.3 2.4 3 3.1
3.2
Einführung................................................................................................................ 1 Ziel dieses Leitfadens .............................................................................................................. 2 Was ist Web Analytics?........................................................................................................... 4 1.2.1 Web Controlling oder Web Analytics........................................................................ 4 1.2.2 Web Analytics ist einfach und geht schnell ............................................................... 5 1.2.3 Relevanz der Web Analytics...................................................................................... 7 1.2.4 Der Web-Analytics-Regelkreis: Planen, Messen, Auswerten, Optimieren ................ 9 1.2.5 Web Analytics – ein kontinuierliches Prozess, der den Unternehmenszielen und Marketingaktionen folgt.................................................................................... 10 Aussicht: Weiterentwicklung von Web Analytics ................................................................. 10 Aufbau dieses Buches............................................................................................................ 12 Web Analytics in Marketing und Vertrieb ............................................................ 15 Web Analytics in der Organisation........................................................................................ 17 2.1.1 Externe Dienstleister................................................................................................ 20 Interne Strukturen und Prozesse ............................................................................................ 21 Der Webanalyst – der Wolpertinger des Online-Marketings................................................. 22 Effektiveres Marketing durch Web Analytics ....................................................................... 23 Die Grundlagen der Web Analytics ...................................................................... 31 Entwicklung der Websites ..................................................................................................... 31 3.1.1 Web 1.0.................................................................................................................... 31 3.1.2 Web 2.0 – das Mitmach-Web .................................................................................. 31 3.1.3 Soziale Netzwerke ................................................................................................... 32 Typisierung von Websites ..................................................................................................... 32 3.2.1 E-Marketing............................................................................................................. 32 3.2.2 E-Business ............................................................................................................... 33 3.2.3 E-Commerce ............................................................................................................ 34 3.2.4 Besondere Formen von Internet-Angeboten ............................................................ 37
V
Inhalt 3.3 3.4 3.5 4 4.1
4.2
4.3 4.4 4.5 4.6
5 5.1
5.2
5.3
VI
Erfassen der Wirkung von Social Media ................................................................................39 3.3.1 Social Media messbar machen..................................................................................42 Das mobile Internet ................................................................................................................44 Datenschutz in der Web Analytics .........................................................................................46 Technische Methoden des Site-Tracking ............................................................ 49 Logfile-Analyse – Server-based-Tracking .............................................................................51 4.1.1 Logfiles in Abhängigkeit der verwendeten Infrastruktur ..........................................53 4.1.2 Technische Restriktionen der Logfile-Analyse.........................................................53 Pixelbasiertes Tracking ..........................................................................................................55 4.2.1 Aufruf der Tracking-Grafik ......................................................................................56 4.2.2 Tracking-Grafik mit JavaScript ................................................................................58 4.2.3 Verwendung von Cookies.........................................................................................58 4.2.4 Nutzung von JavaScript und Cookies .......................................................................60 4.2.5 „Super Cookies“ .......................................................................................................60 4.2.6 Platform for Privacy Preferences (P3P)....................................................................61 4.2.7 Anbindung von Geo-Datenbanken ...........................................................................61 4.2.8 Implementierung auf der Website.............................................................................62 4.2.9 Zugriff auf die Auswertungen ..................................................................................63 4.2.10 Validierung der Ergebnisse aus dem Pixel-Tracking................................................63 Instrumentierte Logfiles .........................................................................................................65 Datenbank-Logs .....................................................................................................................65 Sniffing ..................................................................................................................................66 Alternative Verfahren.............................................................................................................66 4.6.1 Flash Tracking ..........................................................................................................66 4.6.2 Tracking mit AJAX ..................................................................................................67 4.6.3 Das Universal Tag ....................................................................................................67 Analyse- und Auswertungsmethoden ................................................................. 69 Metriken, Dimensionen und Instanzen...................................................................................73 5.1.1 Metrik .......................................................................................................................73 5.1.2 Dimensionen und Instanzen......................................................................................73 5.1.3 Key Performance Indicator (KPI).............................................................................75 Gängige Darstellungsformen von Statistiken .........................................................................75 5.2.1 Trenddarstellungen ...................................................................................................77 5.2.2 Mehrere Metriken.....................................................................................................77 5.2.3 Mehrere Dimensionen ..............................................................................................78 5.2.4 A/B-Vergleiche.........................................................................................................80 5.2.5 Trichteranalysen .......................................................................................................80 5.2.6 Pfadanalysen.............................................................................................................81 Analysemethoden ...................................................................................................................88 5.3.1 Hypothesengetriebene Analysen...............................................................................89 5.3.2 Trendgetriebene Analysen ........................................................................................92
Inhalt 6 6.1 6.2
6.3 6.4 6.5 6.6
6.7
6.8
6.9
6.10
7 7.1 7.2 7.3
Erfolgsfaktoren für Websites................................................................................ 95 Von der Metrik zur Web Scorecard....................................................................................... 95 Basiskennzahlen .................................................................................................................... 96 6.2.1 Hits .......................................................................................................................... 97 6.2.2 PageView, PageImpression...................................................................................... 97 6.2.3 Visits........................................................................................................................ 97 6.2.4 Visitor oder Unique Visitors.................................................................................... 98 6.2.5 Unique User............................................................................................................. 99 6.2.6 Das Pyramiden-Modell der Kennzahlen .................................................................. 99 Technographische Daten ..................................................................................................... 100 Geografische Herkunft ........................................................................................................ 101 Abgeleitete Kennzahlen....................................................................................................... 102 Zeitbezogene Kennzahlen.................................................................................................... 102 6.6.1 Kumulierte Zeiten.................................................................................................. 103 6.6.2 Durchschnittliche Zeiten........................................................................................ 103 Kennzahlen zur Kundengewinnung und -bindung............................................................... 103 6.7.1 Ansprache (Reach)................................................................................................. 104 6.7.2 Akquisition (Besucher-/Kundengewinnung).......................................................... 105 6.7.3 Kundenbindung (Retention)................................................................................... 106 6.7.4 Loyalität................................................................................................................. 106 6.7.5 Der Trichter („Funnel“) ......................................................................................... 107 6.7.6 Konversion und Konversionsraten......................................................................... 110 6.7.7 Loyalitätsmessung mit der RFM-Methode ............................................................ 112 Besucher-/Kundenbezogene Kennzahlen ............................................................................ 113 6.8.1 Stickiness und Slipperiness.................................................................................... 114 6.8.2 Focus und Velocity ................................................................................................ 114 6.8.3 Verweildauer ......................................................................................................... 115 Die Werbeeffizienzmessung................................................................................................ 115 6.9.1 Externe Kampagnen............................................................................................... 116 6.9.2 Interne Kampagnen................................................................................................ 117 6.9.3 Werbemittelnutzungspfad ...................................................................................... 118 Umgang mit Kennzahlen ..................................................................................................... 119 6.10.1 Auswahl der Kennzahlen und zielgruppengerechte Präsentation........................... 120 6.10.2 Anreicherung der Kennzahlen ............................................................................... 120 6.10.3 Kennzahlen im Web-Analytics-Regelkreis............................................................ 121 6.10.4 Einschränkungen der aktuellen Kennzahlensysteme ............................................. 121 6.10.5 Fehlerhafte Bewertung von Ergebnissen ............................................................... 122 6.10.6 Zusammenführen zeitvarianter Informationen....................................................... 124 6.10.7 Bewertung veränderlicher Informationen .............................................................. 125 6.10.8 Webanwendungen mit Programmiertechniken wie AJAX .................................... 126 6.10.9 Identifizierung von Unique Visitors: mit Cookies oder Fingerprint?..................... 126 Die Web Scorecard .............................................................................................. 129 Nutzen der Web Scorecard .................................................................................................. 129 Voraussetzungen ................................................................................................................. 131 Entwicklung und Aufbau einer Web Scorecard................................................................... 134
VII
Inhalt
7.4 7.5 7.6 8 8.1
8.2
Die Grundlagen von Testing und Targeting ...................................................... 147 Testing..................................................................................................................................148 8.1.1 Definitionen Testing...............................................................................................149 8.1.2 A/B-Test oder Split-Test ........................................................................................150 8.1.3 Multivariater Test (MVT).......................................................................................151 8.1.4 Vergleichende Betrachtung von A/B-Test und MVT .............................................153 8.1.5 Taguchi-Methode – Unterstützung beim Multivariaten Testen ..............................153 8.1.6 Auswirkungen von MVT auf die Suchmaschinenoptimierung...............................155 8.1.7 Voraussetzungen für einen effektiven Test.............................................................155 8.1.8 Typische Fehlerquellen...........................................................................................157 Targeting ..............................................................................................................................158 8.2.1 Retargeting .............................................................................................................160 8.2.2 Erstellung eines Regelwerks...................................................................................161 8.2.3 Anwendung von Targeting auf Basis der Testdaten ...............................................162 8.2.4 Etablierung der Testverfahren als kontinuierlicher Optimierungsprozess ..............166
9 9.1 9.2 9.3 9.4 9.5
Technische Methoden Testing und Targeting .................................................. 169 Testing, Targeting und Cookie-Akzeptanz...........................................................................169 Content-Auslieferung ...........................................................................................................172 Content-Integration ..............................................................................................................176 Anmerkungen zur Suchmaschinen-Optimierung (SEO) ......................................................178 Integration mit dem Web-Analytics-Tool ............................................................................179
10 10.1
Durchführung von Testing und Targeting......................................................... 181 Testing..................................................................................................................................181 10.1.1 Planung...................................................................................................................181 10.1.2 Durchführung .........................................................................................................186 10.1.3 Abschluss................................................................................................................187 Targeting und Retargeting....................................................................................................188 10.2.1 Planung...................................................................................................................188 10.2.2 Einführung..............................................................................................................195 10.2.3 Monitoring..............................................................................................................196
10.2
11 11.1 11.2
VIII
7.3.1 Formulieren des Leitziels, der Leitkenngröße und des Leitbilds ............................136 7.3.2 Entwickeln eines strategischen Handlungsrahmens................................................136 7.3.3 Aktionen auswählen, die zur Strategie passen ........................................................137 7.3.4 Aktionen zu strategischen Projekten bündeln.........................................................138 7.3.5 Web Scorecard erstellen .........................................................................................139 Datenquellen für die Web Scorecard....................................................................................140 Das Reporting mit der Web Scorecard .................................................................................143 Organisation von Aufbau und Pflege einer WSC .................................................................145
Kriterien für die Auswahl eines Web-Analytics-Tools...................................... 199 Markt und Marktteilnehmer .................................................................................................199 11.1.1 Besonderheiten des Web-Analytics-Softwaremarktes ............................................200 Web-Analytics-Preismodelle................................................................................................203
Inhalt 11.3 11.4
Auswahlkriterien und deren Bewertung .............................................................................. 204 Effiziente Auswahlverfahren ............................................................................................... 209 11.4.1 Klärung der Begriffe.............................................................................................. 209 11.4.2 Erstellen einer Longlist.......................................................................................... 213 11.4.3 Erstellen einer systematischen Ausschreibung ...................................................... 214 11.4.4 Aufforderung zur Angebotsangabe ........................................................................ 214 11.4.5 Auswertung und Entscheidungsfindung ................................................................ 215 11.4.6 Die Vertragsverhandlung....................................................................................... 217
12 12.1
Einführung eines Web-Analytics-Systems ........................................................ 219 Vier Gründe für erfolglose Web-Analytics-Projekte ........................................................... 220 12.1.1 Grund 1: Unvollständiges Formulieren der Anforderungen................................... 220 12.1.2 Grund 2: Fehlendes ganzheitliches Denken ........................................................... 221 12.1.3 Grund 3: Der Implementierungsaufwand wird unterschätzt .................................. 222 12.1.4 Grund 4: Ein „untaugliches“ Web-Analytics-System ............................................ 223 Projektstruktur und Projektteam .......................................................................................... 225 Planung des Web-Analytics-Systems .................................................................................. 225 These: Web-Analytics-Projekte sind gar keine Projekte...................................................... 227 Projektdauer und -aufwand.................................................................................................. 227 Der Projektplan – die Vorbereitung..................................................................................... 228 12.6.1 Erstellung einer umfassenden Anforderungsspezifikation..................................... 228 12.6.2 Erarbeitung des Optimierungspotenzials ............................................................... 231 12.6.3 Erarbeitung eines „Request for Information“ (RFI)............................................... 232 Die Integrationsphase .......................................................................................................... 233 12.7.1 Vertiefung der Anforderungsspezifikation............................................................. 234 12.7.2 Erstellung eines technischen Umsetzungskonzepts ............................................... 234 12.7.3 Erstellung eines Prototyps...................................................................................... 236 12.7.4 Integration in die Website und Validierung der Zahlen ......................................... 237 Administration..................................................................................................................... 241 12.8.1 Tool-Administration .............................................................................................. 242 12.8.2 Anbindung an externe Systeme.............................................................................. 243 12.8.3 Projektabnahme und Inbetriebnahme..................................................................... 244 12.8.4 Schulungen und Trainings der Mitarbeiter............................................................. 244 12.8.5 „Einphasen“ der Analyse- und Reportingprozesse ................................................ 245 12.8.6 Change Management und kontinuierliche Pflege .................................................. 245
12.2 12.3 12.4 12.5 12.6
12.7
12.8
13 13.1 13.2 13.3
Anhang ................................................................................................................. 247 Glossar................................................................................................................................. 247 Quellennachweis ................................................................................................................. 270 Herstellernachweise............................................................................................................. 272 13.3.1 Testing- und Targeting-Hersteller.......................................................................... 272 13.3.2 Web-Analytics-Hersteller ...................................................................................... 273
Register............................................................................................................................ 275
IX
Inhalt
X
Geleitwort Glaubt man den Anleitungen kostenloser Webanalyse-Tools oder den Versprechen übermütiger Verkäufer, so dauert die Implementierung eines Web-Analytics-Tools gerade einmal wenige Minuten, schlimmstenfalls ein paar Stunden. Ihr Argument: das Funktionsprinzip clientseitigen Trackings (Javascript-Tag + 1x1-Pixel + Cookie) ist mittlerweile Standard in der Industrie und lässt sich bequem in jede Website integrieren. Aber das ist nicht einmal die halbe Wahrheit. Zwar mag ein Standard-Tag durchaus Standard-Messungen ermöglichen – aber dann bekommt man eben nur Standard-Auswertungen und -Reports. Doch die Geschäftsmodelle der Unternehmen sind zu vielfältig, um über standardisierte Analysen erfassbar, darstellbar oder gar optimierbar zu sein. Sollen WebAnalytics-Tools also effektiv und gewinnbringend eingesetzt werden, braucht es ausreichend Zeit für Konzeption, strategische Überlegungen und für das detaillierte Betrachten der entscheidenden Seiten und Bereiche einer Website. Aber welche sind das? Die Beantwortung dieser Frage sowie die Umsetzung von Unternehmens- und Website-Zielen in messbare Größen, in Konversionsraten und Nutzerloyalität, in Zielgruppensegmente und letztlich in Daten, die den Return on Investment sichtbar machen: das sind die wirklichen Herausforderungen, vor der Unternehmen stehen, wenn sie ein Web-Analytics-Tool einführen wollen. Das ist bei der Anschaffung eines neuen Textverarbeitungsprogramms nicht anders: Mit dem Kauf und der Installation ist noch kein Brief geschrieben und, wichtiger noch, kein Brief geschrieben, der positiv zur Geschäftsentwicklung beiträgt. Die Autoren dieses Buchs Axel Amthor und Thomas Brommund, Geschäftsführer des Beratungsunternehmens contentmetrics, haben in vielen ihrer Projekte bewiesen, dass sie die Web-Analytics-Tools in Unternehmen produktiv machen können – von der Auswahl über die Implementierung bis hin zur Definition der richtigen Kennzahlen und der Begleitung von Optimierungsvorhaben. Mit dem vorliegenden Buch bieten sie einen reichen Schatz an praxisrelevantem Wissen und Hinweisen, die sie in jahrelanger Erfahrung erarbeitet und überprüft haben. Frank Reese Ideal Observer
XI
0 Geleitwort
XII
1 1 Einführung Das Internet stellt für immer mehr Unternehmen einen wichtigen Baustein in der Geschäftsstrategie dar – entweder als reines Werbemedium, als Vertriebskanal oder als Kern eines Geschäftsmodells, das sich ausschließlich online abspielt. Da sich aber auch im Online-Bereich nach den ersten Jahren der Begeisterung nach und nach die betriebswirtschaftlichen Erkenntnisse der „Old Economy“ durchsetzen, werden die für das Internet eingesetzten Ressourcen und die dabei erzielten Erfolge stärker in Frage gestellt. Mit den Methoden der Web Analytics stellen Unternehmen genau diese Verbindung zwischen Kosten und Nutzen her. Der Erfolg der Internetaktivitäten soll messbar und damit planbar werden, mit dem Ziel einer regelmäßigen Analyse und Optimierung. Die Orientierung an geschäftsrelevanten Aspekten bedeutet jedoch auch eine Verschiebung der Verantwortung: Während die Logfile-Auswertung der früheren Jahre meist eine Aufgabe für Webmaster und IT-Fachleute war, sind heute Marketing-Manager in der Pflicht, OnlineMaßnahmen an der Unternehmensstrategie auszurichten und den angestrebten Erfolg zu sichern. Für das Resultat der Web Analytics hat die Projektorganisation eine große Bedeutung: Nur mit einer klar definierten Aufgabenstellung sind gute Ergebnisse zu erzielen. Fragen, die mit Hilfe von Web Analytics beantwortet werden, fließen letztlich in die verwendeten Key Performance Indicators (KPI) ein. Die relevanten KPIs wiederum hängen stark vom jeweiligen Geschäftsmodell ab. Insofern gibt es keine Web-Analytics-Lösung, die für jedes Unternehmen passt. Die Auswahl der KPIs stellt daher eine der Kernaufgaben bei der Einführung von Web Analytics dar – die Auswahl der verwendeten Tools hingegen ist von sekundärer Bedeutung. Die Analyse von Messergebnissen muss vom Management als wichtige Aufgabe angenommen werden, lediglich die Erfassung von Kennzahlen stellt noch keine Verbesserung dar. Nur regelmäßiges Controlling – durch das die Unternehmensstrategie in konkrete Aktionen umgesetzt wird – rechtfertigt den Aufwand für die Implementierung eines WebAnalytics-Systems.
1
1 Einführung
1.1
Ziel dieses Leitfadens In diesem Buch geht es nicht um die Technik von Web Analytics, nicht um den letzten Hack für das Tracking-Tag des Herstellers XY, nicht um die kreative Interpretation von Statistiken und auch nicht um die Frage, ob Tool X besser ist als Tool Y oder Z. Für diese Fragen gibt es zahllose Blogs und Fachbücher, und nicht zuletzt Whitepaper der Hersteller, von denen Sie eine Auswahl im Anhang finden. Selbst bei dieser Auswahl haben wir versucht, uns auf Meta-Verzeichnisse und -Blogs zu beschränken, weil die Restriktionen eines gebundenen Buchs angesichts des sich derart schnell entwickelnden Markts dazu führen, dass das Material noch vor Drucklegung überholt ist. Nichtsdestotrotz werden wir dort, wo es sinnvoll erscheint und dem Verständnis dient, sowohl Beispiele für die Analyse und Auswertung wie auch technische Tipps geben. Dies stellt aber weder den Schwerpunkt noch die Zielsetzung dar. Vielmehr ist das Ziel dieses Leitfadens, allen Beteiligten in Unternehmen, die mit der Einführung oder der Optimierung ihres Web-Analytics-Systems befasst sind, konkrete praktische Hilfe für die Umsetzung zu geben. Dabei steht nicht im Vordergrund, wie Web Analytics technisch funktioniert oder welche Systeme am Markt gerade verfügbar sind – sondern vielmehr das Projekt selbst, die daran Beteiligten und die möglichen Herausforderungen und Schwierigkeiten, die es zu bewältigen gilt. Aus unserer Sicht ist die Frage nach dem Softwaresystem eher zweit- oder gar drittrangig, die meisten Unternehmen haben nicht Probleme aufgrund von Unzulänglichkeiten der eingesetzten Software, sondern aufgrund von Mängeln bei deren Einführung. Bei unseren Projekten haben wir oft festgestellt, dass Unternehmen die Anforderungen an Web-Analytics-Systeme im Vorfeld einer Investition nur unzureichend erfassen, sich zu stark auf die Unterstützung durch den Hersteller verlassen und die Implementierung und Integration aufgrund der Unerfahrenheit mit der mitunter komplexen Technik deutlich unterschätzen. Dieses Verhalten wird, leider, durch die Hersteller gefördert: ihr Ziel ist es, ihre Software zu verkaufen – und nicht Lösungen. Deshalb wird alles, was zeitaufwändig ist oder problematisch erscheint, mit Hochglanzwerbung überdeckt. 1. The Plain-Vanilla Tag Tool vendors often bring this problem on themselves and their clients by overselling the ease of putting a tag on a page. Yes, you can have measurement in an hour. Will it meet your real needs? Probably not. I see lots of companies commit to the plain-vanilla tag knowing that they will have to come back and fix it but wanting to get a deployment out as quickly as possible. Usually, I think that’s a mistake. The pressure to release numbers is always overwhelming – and whatever gets rolled out is immediately in-play. That means the organization starts to use and react to the numbers – almost always before they’ve been adequately tested. Zitat von Garry [Angel 2007] aus seinem Blog „SemAngel“ zum Thema Einführung eines Web-Analytics-Systems
2
1.1 Ziel dieses Leitfadens Die Unzulänglichkeiten werden dann am Ende aus verständlichen Gründen den technischen Systemen angelastet. In der Praxis sieht das dann so aus, wie wir es bei einem namhaften Online-Shop in Deutschland festgestellt haben: dort war ein selbst erstelltes System im Einsatz, das im Wesentlichen auf Logfiles basierte, die in zentralen Datenbanken aggregiert und verdichtet wurden. Das System war nicht in der Lage, Marketingeffizienz in Form von Bestellungen pro ausgelieferte und kostenpflichtige Werbemittel oder pro Marketingkanal zu messen. Die Werbemittel (Suchmaschinen-Marketing, Affiliate-Programme, Suchmaschinen-Keywords) mit einem Umfang einiger Zehntausender Links wurden in mehreren Excel-Tabellen verwaltet – inklusive der Links zu den Landing Pages – und von dort aus an die betroffenen Agenturen weitergeleitet. Alle Schritte zur Marketingplanung und -umsetzung wurden manuell durchgeführt (sieht man von der Fähigkeit Excels ab, Tabellen zu zeichnen). Die notwendige Integration der Marketingplanung und der Online-Statistik ist technisch keine Herausforderung: Die Einführung einer zentralen Marketing-Datenbank zur automatisierten Linkverwaltung inklusive Datenweitergabe an das Web-Analytics-System sowie dessen Erweiterung, um Benutzeraktivitäten zu erfassen. Doch statt standardisierte Prozesse im Marketing einzuführen und diese durch ein Planungstool zu unterstützen, wurde ein Projekt zur Ablösung des Web-Analytics-Systems gestartet. Selbstverständlich haben alle angefragten Hersteller die Fähigkeit ihrer Tools in den Vordergrund gestellt, Marketingeffizienz detailliert messen zu können. Die Einführung des letztlich ausgewählten Systems wurde der Designagentur überlassen, ohne dafür konkrete technische Vorgaben in Form eines Lastenhefts zu definieren. Das neue System kann zwar mehr als das alte, selbst entwickelte System. Doch die Marketingeffizienz lässt sich noch immer nicht darstellen, weil auch das neue System nicht mit den vorhandenen, unstrukturierten Excel-Tabellen umgehen kann. Die Datenintegration wurde auf einen späteren Zeitpunkt verschoben. Der Hauptgrund dafür war im Übrigen die fehlende Akzeptanz unter den Mitarbeitern im Online-Marketing für strukturierte Prozesse. Sie fürchteten einen Kontrollverlust und hatten sich gegen ein entsprechendes Projekt zur Wehr gesetzt. Eine fundierte und den allgemeinen Regeln des Projektmanagements folgende Umsetzung eines Web-Analytics-Projekts – von der Anforderungsaufnahme über die Integration bis hin zur Definition und Etablierung der notwendigen Reporting- und Analyseprozesse in Unternehmen – kann mithilfe eines weniger anspruchsvollen Einstiegsprodukts aus der Vielfalt der Tools erfolgreicher sein als mit einem hochpreisigen High-End-Produkt, das falsch eingesetzt wird.
Diesem Grundsatz folgend legt dieser Leitfaden den Schwerpunkt auf die Umsetzung eines Web-Analytics-Projekts mit all seinen erforderlichen Schritten.
3
1 Einführung
1.2
Was ist Web Analytics? 1.2.1 Web Controlling oder Web Analytics Allgemein hat sich der Begriff „Web Analytics“ für das Messen von Besucherinteraktionen auf einer Website durchgesetzt. In Deutschland war eine Zeit lang auch der Begriff des „Web Controlling“ in Gebrauch, dieser ist aber vor rund drei Jahren dem amerikanischen Begriff „Web Analytics“ gewichen. Der Begriff Web Controlling bezieht stärker den prozessualen Charakter mit ein und trifft eigentlich auf den gesamten Themenkomplex zu. Heute stehen beide Begriffe synonym füreinander. Der Begriff des Controllings bedeutet, entgegen der weit verbreiteten Meinung, nicht Kontrolle, sondern Steuerung. Der kleine, aber entscheidende Unterschied: Während beim Controlling das Ergebnis im Nachhinein nur kontrolliert wird, umfasst die Steuerung auch die Führung. Das Gabler Wirtschafts-Lexikon [Gabler2001] fasst die Kernmerkmale des Controllings wie folgt zusammen: „Controlling ist in der Praxis unlösbar mit Planungen und Kontrollen verbunden. Ein Controller wird stets darauf drängen, dass die Unternehmensziele explizit und messbar formuliert vorliegen; dass für alle Bereiche im Unternehmen anhand der angestrebten Ziele Handlungsalternativen entwickelt und ausgewählt sowie deren erwartete Ergebnisse geplant werden; dass man im laufenden Betrieb überwacht, ob die Planungen tatsächlich eingehalten werden und im Abweichungsfall Maßnahmen ergriffen werden; sei es, um in der Durchführung gegenzusteuern, oder um zu neuen, realistischen Planwerten zu gelangen.“ Controlling lässt sich also als iterativer Prozess in vier Phasen beschreiben: 1. Zieldefinition 2. Ergebnisplanung 3. Überwachung und 4. Korrekturmaßnahmen Interessant ist der Hinweis aus dem Gabler-Lexikon, dass idealerweise alle Bereiche des Unternehmens in den Controlling-Prozess einbezogen sind. Während sich das Controlling in den letzten Jahren auch in kleineren Unternehmen als unverzichtbares Steuerungsinstrument etabliert hat, bilden die Marketingabteilungen vielerorts noch „Controlling-freie“ Inseln. Zwar ist es üblich, direkt absatzorientierte Funktionen im Vertrieb an konkreten Zielvorgaben zu messen, aber mit zunehmender Entfernung vom direkten Kundenkontakt schwindet offenbar die Neigung, messbare Ziele zu formulieren, deren Erreichen zu prüfen und gegebenenfalls die notwendigen Korrekturmaßnahmen zu ergreifen. So kommt es vor,
4
1.2 Was ist Web Analytics? dass immer noch beachtlich hohe Werbebudgets eingesetzt werden, deren Erfolg nicht exakt beziffert werden kann und auch nicht hinterfragt wird: „Die Hälfte des Geldes, das ich für Werbung ausgebe, ist zum Fenster hinausgeworfen – ich weiß nur nicht, welche Hälfte.“ Henry Ford zugeschrieben
Auf der anderen Seite nehmen gerade in Zeiten knapper Kassen Marketingausgaben einen Spitzenplatz auf der Streichliste der Finanzplaner ein. In diesem Spannungsfeld liegt es nahe, auch die Marketingaktivitäten mittelfristig in die Controlling-Struktur eines Unternehmens einzugliedern. Mit den Instrumenten des Marketing-Controllings steht den Verantwortlichen ein interessantes Werkzeug zur Verfügung, um die Wirkung eingesetzter Mittel zu belegen und damit den Beitrag zum Unternehmenserfolg zu dokumentieren. Allerdings gibt es nach wie vor große Unsicherheit darüber, wie die Erfolge des Vertriebs direkt den durchgeführten Marketingmaßnahmen zuzuordnen sind. Bereiche wie Public Relations, Brand- oder ImageMarketing entziehen sich per Definition einer kurzfristigen, absatzorientierten Betrachtung. Auch bei klassischer Werbung verweisen sowohl Agenturen als auch Verantwortliche in Unternehmen meist darauf, dass ein Zusammenhang zwischen einer Printanzeige und einem späteren Kauf nur mit sehr hohem Aufwand herzustellen ist. Deshalb beschränkt man konkrete Ziele meist auf psychologische Aspekte wie Markenbekanntheit oder -image. Das Marketing wird auf das Kundenverhalten ausgerichtet und kaum auf konkrete ökonomische Werte. Als einer der wenigen Bereiche bietet das Internet die Chance, den Controlling-Gedanken auch im Marketing durchzusetzen. Da die Kommunikation zwischen Unternehmen und Kunden – selbst über einen gegebenenfalls zwischengeschalteten Vertriebskanal – vollständig elektronisch und ohne Medienbruch abläuft, sind mit Hilfe entsprechender technischer Mittel die genutzten Kommunikationsinstrumente einem späteren Kauf (oder einer anderen Aktion der Website-Besucher) direkt zuzuordnen. So lässt sich das Verhalten der Kunden (aus Sicht von Kommunikationsexperten idealerweise nach dem AIDA-Modell „Attention – Interest – Desire – Action“) im virtuellen Verkaufsraum „Internet“ anhand ihrer elektronischen Spuren exakt nachweisen und mit konkreten Zahlen verknüpfen. Das Medium Internet bietet also die besten Voraussetzungen, die Controlling-Idee in das Marketing zu tragen. Web Analytics stellt dabei die Verbindung zwischen menschlichem Verhalten und ökonomischen Zahlen dar.
1.2.2 Web Analytics ist einfach und geht schnell Kein Betreiber einer Website, und sei sie noch so klein, kann sich der Faszination entziehen, zu beobachten, was die Besucher seiner Site interessiert, was sie sich ansehen oder wie oft sie wiederkehren. Dank einfacher, kostenloser Systeme wie Google Analytics oder Yahoo!WebAnalytics ist das auch für weniger Geübte möglich. Hat das aber etwas mit Web Analytics oder – um den älteren Begriff zu nennen – Web Controlling zu tun? Web
5
1 Einführung Analytics ist in jedem Fall mehr als nur die Befriedigung der Neugier darauf, wie viele Besucher einer Website sich was wie oft ansehen. Technische Methoden zur Erhebung von Zahlen gibt es vielfältige, ebenso wie von den Unternehmen eingesetzte Werkzeuge. Angefangen von selbst erstellten Lösungen über kostenfreie Systeme wie von Yahoo oder Google bis hin zu komplexen, integrierten Systemen im oberen Preissegment: ein reichhaltiges Angebot, das alle Anforderungen zu erfüllen vermag. Wir werden uns umfassend mit der Frage befassen, wie man aus dieser Vielfalt das für die eigenen Zwecke geeignete Werkzeug auswählt, optimal einführt und einsetzt. Web Analytics ist aber nicht nur ein Zählsystem, das in und für eine Website programmiert wird. Drei ganz entscheidende Elemente – und dazu zählt nicht die Technik – entscheiden über Erfolg oder Misserfolg: Das Festlegen der Ziele, die Analyse der Ergebnisse und die Entscheidungsvorbereitung zur Optimierung der eingesetzten Kommunikationsmittel. Ohne diese drei Elemente ist Web Analytics wie ein Auto, das zwar einen Tacho hat, aber kein Gaspedal und keine Bremse: Man weiß, wie schnell oder langsam man gegen eine Wand fährt – ändern kann man es nicht. Web Analytics ist der fortlaufende und umfassende Controlling-Prozess von der Planung über die Messung bis zur Korrektur von Kennzahlen, die den Erfolg einer Website quantifizieren. Web Analytics beschränkt sich nicht auf die Einführung eines Messsystems und der sporadischen Analyse von Zahlen, deren Bedeutung für das eigene Geschäft nicht definiert wurde.
Alle etablierten Hersteller auf dem Software-Markt für Web-Analytics- und Testing-undTargeting-Tools versprechen ihren Kunden die Lösung ihrer Probleme. Das ist nicht ungewöhnlich und auch nicht unlauter. Allerdings ist die Art und Weise, wie dies im Bereich Web Analytics geschieht, im Vergleich mit anderen Softwaremärkten bemerkenswert. Üblich sind Slogans wie: Steigern Sie die Usability Ihrer Website. Erhöhen Sie die Konversion Ihrer Online-Marketing-Maßnahmen. Verbessern Sie Ihre Marketing-Effizienz. Steigern Sie Ihren Online-Erfolg durch Echtzeit-Webcontrolling. Brot macht satt, weil es gegessen und nicht, weil es beim Bäcker gekauft wird. Ebenso ist ein Web-Analytics-Tool erst etwas nach dem erfolgreichen Abschluss eines Einführungsprojekts, der Auswertung aufgelaufener Zahlen sowie, vor allem, nach der Umsetzung gewonnener Rückschlüsse in Form einer geänderten Handlungsweise! Ob die Versprechen der Hersteller in Erfüllung gehen, liegt also am Unternehmen selbst und an seiner Fähigkeit, ein komplexes Produkt einzuführen.
6
1.2 Was ist Web Analytics?
1.2.3 Relevanz der Web Analytics Der entscheidende Schritt in Richtung funktionierender Web Analytics ist nicht allein die Implementierung eines technischen Systems, sondern der Paradigmenwechsel in der Bewertung der Internet-Angebote. Nur durch die Definition geeigneter Ziele sind die Internet-Aktivitäten in die Gesamtstrategie eines Unternehmens zu integrieren. Die Ziele müssen sich dabei an einer zentralen Frage orientieren: Welchen Beitrag leisten die InternetAngebote zum Unternehmenserfolg? Damit wird deutlich, dass sich Auswertungen von Logfiles nicht als Basis für Web Analytics eignen, denn nur in den wenigsten Fällen hat die Zahl der Internet-Zugriffe eine Auswirkung auf den Geschäftserfolg. Aussagen wie „Einführung eines neuen ContentManagement-Systems zur aktuelleren Pflege der Webinhalte“ sind nicht hilfreich bei der Unterstützung der Unternehmensergebnisse. Web Analytics beginnt deshalb immer mit der Abbildung der Unternehmensziele auf den Teilbereich der Internet-Aktivitäten. Als Voraussetzung dafür müssen die Ziele des Unternehmens „explizit und messbar formuliert vorliegen“ (http://wirtschaftslexikon.gabler.de). Die abgeleiteten Teilziele für den Internet-Bereich können dann je nach Unternehmen unterschiedliche Formen annehmen: Bei einem reinen Online-Anbieter mit Direktverkauf über einen Internet-Shop kann der durchschnittliche Umsatz pro Website-Besuch als sinnvolle Zielgröße definiert und mit messbaren Vorgaben hinterlegt werden. Verkauft ein Unternehmen seine Produkte über andere Kanäle, wird das Internet gegebenenfalls zur Steigerung der Servicequalität eingesetzt. Dann kann etwa die Downloadhäufigkeit bestimmter Serviceinformationen oder der Zeitraum bis zum Auffinden dieser Informationen als Ziel definiert werden. Betreibt ein Unternehmen seine Website zur Markenstärkung und zur Gewinnung von Kontakten (Leads), ist die Auswirkung auf den stationären Vertrieb durch geeignete Maßnahmen der Datenintegration (stationäre Verkäufe zu Online-Aktivitäten) zu erfassen. Durch die Beispiele wird deutlich, dass die Kennzahlen zur Formulierung messbarer Ziele nicht allgemeingültig sind. Jedes Unternehmen oder Organisation wird in der Regel ihren eigenen Satz an Kennzahlen zusammenstellen, mit dem sich ein Bezug zwischen dem Erfolg der Internet-Angebote und den Unternehmenszielen herstellen lässt. Die Komplexität der Kennzahlen steigt dabei mit zunehmender Relevanz für den Geschäftserfolg: Einfache Kennzahlen wie die Zahl der Website-Besucher stellen nur einen geringen Beitrag zum Unternehmenserfolg dar, der finanzielle Wert eines Kunden für das Unternehmen ist hingegen nur durch tiefgehende Analysen mehrerer, unterschiedlicher Kennzahlen zu ermitteln. Zahlreiche Autoren wie [Hamel 2009] oder [Peterson 2009] haben das so genannte „Web Analytics Maturity Model“ (WAMM) beschrieben, das Abbildung 1.1 vereinfacht darstellt. Demzufolge beginnen Unternehmen mit dem Sammeln von Kennzahlen, deren direkter Zusammenhang mit den Unternehmenszielen nicht zwingend gegeben ist, die sich aber leicht und ohne größeren Aufwand ermitteln lassen. Dass viele Unternehmen jedoch
7
1 Einführung
Komplexität der Kennzahlen
planen, hier zu „reifen“, belegt eine Umfrage von eConsultancy (Abbildung 1.2). Danach gaben 60 Prozent im Jahr 2009 an, dass ihre Datensammlung und -analyse zwar noch keinen Bezug zu Business-Objekten hätten, dass sie aber daran arbeiten würden.
e
en
og ez nb ten e nd Da Ku te an lev e r n tz sa ate Um D ten sra
n tio rsa
e nv Ko
Ba
s
n en isk
za
hle
n
Beitrag zur Geschäftsstrategie
Abbildung 1.1 Das Web-AnalyticsReifemodell (WAMM)
„Do you have a company-wide strategy that ties data collection and analysis to business objectives?“
70% 60%
60%
59%
50% 40% 30%
22%
20%
19%
22%
18%
10% 0% Yes, this is in place
Not quite, but we are working on this
No
2009 2008
8
2009 response: 292 2008 response: 351
Abbildung 1.2 Zahlreiche Unternehmen planen die Verknüpfung von Datensammlung und -analyse mit Business-Objekten. (Quelle: [eConsultancy 2009])
1.2 Was ist Web Analytics? Im Umkehrschluss besagt das WAMM aber auch, dass genau die Kennzahlen, aus denen sich eine Unterstützung der Geschäftsziele durch Online-Aktivitäten ablesen lässt, immer komplexer Natur und nicht auf einfache Weise oder mit nur geringen Kosten zu erfassen und zu messen sind. Dies bedeutet, dass die Aufwendungen für ein Projekt, die Ausbildung der Mitarbeiter und die Gestaltung interner Prozesse im Verhältnis zu den Softwarekosten ansteigen. Das empfohlene Verhältnis von „Human Resources“ zu „Technik“ beträgt 1:1 bis 2:1.
1.2.4 Der Web-Analytics-Regelkreis: Planen, Messen, Auswerten, Optimieren Nach der Planung und der Auswahl passender Kennzahlen sind die technischen Hilfsmittel auszuwählen, mit deren Hilfe die tatsächlich erreichten Werte regelmäßig erfasst und mit den Planwerten verglichen werden. Die eingesetzten Tracking- oder Reporting-Tools sollen die gewünschten Zahlen zuverlässig messen, zeitnah bereitstellen und sich bei Bedarf flexibel an neue Anforderungen anpassen lassen. Mit dem Einsatz eines technischen Messsystems ist allerdings noch kein Web-AnalyticsProjekt realisiert – die Tools liefern zunächst nur reine Zahlen. Ein Abgleich mit den Planvorgaben kann eventuell automatisch erledigt werden. Danach beginnt der kreative Teil der Analyse: Warum sind die Ziele nicht erreicht oder übertroffen worden? Welche Maßnahmen bewirken, dass Ziele künftig besser erreicht werden? Antworten auf diese Fragen kann die Technik nicht geben. Die Verantwortlichen aus unterschiedlichen Bereichen eines Unternehmens müssen die Ergebnisse gemeinsam bewerten und Handlungsalternativen für künftige Maßnahmen entwickeln.
G
ERF
OL
GS
ES
PL
N
UN
M
A
Die beiden letzten Ansätze sind die Web-Analytics-Stufen „Analyse“ und „Optimierung“. Weil Letztere auch gleichzeitig eine Basis für die Anpassung von Zielen darstellen, bilden die Web-Analytics-Elemente gemeinsam einen „Regelkreis“ (siehe Abbildung 1.3).
SU N
G L
IE
Y
TIM
SE
OP RU
NG
AN
A
Abbildung 1.3 Unternehmen, die einen Web-Analytics-Regelkreis einrichten, können ihre Website stetig optimieren.
9
1 Einführung
1.2.5 Web Analytics – ein kontinuierliches Prozess, der den Unternehmenszielen und Marketingaktionen folgt Gerade die vorgenommenen Änderungen bei den Internet-Aktivitäten eines Unternehmens stellen den wichtigsten Unterschied zwischen reinem Reporting und Web Analytics dar. Die Fähigkeit, sich kritisch mit eigenen, früheren Ideen und Entscheidungen auseinanderzusetzen und aus den Ergebnissen zu lernen, ist eine wichtige Voraussetzung für den ständigen Optimierungsprozess. Bei richtiger Anwendung entsteht ein systematischer und kontinuierlicher Prozess, um die Ergebnisse aus den Internet-Aktivitäten des Unternehmens zu verbessern. Dabei ist der Regelprozess selbst gegebenenfalls weiteren Änderungen unterworfen: Das Internetangebot des Unternehmens folgt als Kommunikationsinstrument ständig den aktuellen Marketingplänen. Das Marketing wiederum orientiert sich an den übergeordneten Unternehmensentwicklungen. Die Analyse der Kennzahlen wird in manchen Fällen ergeben, dass derzeit ermittelte Werte nicht ausreichen, um einen Bezug zu den Zielen herzustellen. In diesem Fall muss das System der Kennzahlen selbst und damit der Web-Analytics-Regelkreis an die aktuelle Situation angepasst werden.
1.3
Aussicht: Weiterentwicklung von Web Analytics Web Analytics ist eine recht junge Disziplin, die sich wegen ihrer enormen Erfolge bei der Steigerung der Interneteffizienz schnell auf breiter Front durchsetzt. Folgende Aspekte werden die künftige Entwicklung der Web Analytics hauptsächlich beeinflussen: Die enge thematische Bindung an das E-Business mit gewaltigem Wachstumspotenzial Stark gestiegene Werbeausgaben im E-Business Performance Marketing (Search Engine Optimization – SEO, Search Engine Marketing – SEM, E-Mail-Marketing, Affiliate-Marketing) Die methodische Ausrichtung auf die Verbesserung von Geschäftsprozessen durch die Auswertung geeigneter Informationen. Steigerung der Konversionsraten durch benutzerbezogene, individuelle Maßnahmen (Targeting) Konkret zeichnen sich derzeit drei Trends zur Weiterentwicklung von Web Analytics ab: Targeting, Testing und Integration Trend 1: Targeting Der Oberbegriff „Targeting“ fasst alle Maßnahmen zusammen, die sich mit einer individuellen Ansprache der Besucher einer Website befassen. Dieser Trend verspricht eine Steigerung der Konversionsrate und eine Erhöhung der Konversionsraten und somit eine Steigerung der Effizienz im Online-Marketing.
10
1.3 Aussicht: Weiterentwicklung von Web Analytics Allgemein geht es beim Targeting darum, aus dem Verhalten eines Website-Besuchers ein Profil zu bilden und ihm – Off- wie On-Site – individuell zugeschnittene Angebote zu präsentieren. Dabei unterscheidet man zwischen „Behavioral Targeting“ und „Retargeting“. Behavioral Targeting sind Maßnahmen innerhalb der Website, die auf Grundlage des bisherigen Verhaltens (Kauf, Warenkorb-Interaktion, Produktsuche, soziographische Daten) gezielt Produkte und Warengruppen in den Vordergrund stellen. Eine als „weiblich, 40 Jahre“ identifizierte Käuferin mit einer Präferenz für die Warengruppen „Naturkosmetik“ und „Sportbekleidung“ wird auf den Promotionsflächen der Site also verstärkt Angebote aus diesen Bereichen erhalten. Retargeting ist das Verfahren im Online-Marketing, Kaufabbrecher wieder in die Site zurückzuholen und erneut zu einem Kauf anzuregen. Ein Besucher, der einen Warenkorb mit Artikeln gefüllt, diesen aber nicht bestellt hat, wird in Anzeigen des Anbieters auf anderen Websites verstärkt die Produkte präsentiert bekommen, die zuletzt in dem vollen Warenkorb enthalten waren, den er stehen gelassen hat. Im Zusammenhang mit Targeting wird auch immer Testing genannt; hierbei geht es aber weniger um Fragen rund um den Besucher als vielmehr um statische Fragen für die Weiterentwicklung der Website: Trend 2: Testing „Testing“ dient allgemein der Weiterentwicklung der Site oder des Shops unter Berücksichtigung des Anwenderverhaltens in Echtzeit. Hierbei wird versucht, das Mantra des Corporate Designs mit empirischen Fakten zu durchbrechen. Wenn Buttons nicht aussehen wie Buttons, werden sie auch nicht angeklickt. Diese Banalität ist längst nicht so selbstverständlich, wie man glauben mag. Vielfach steht die Kreativität der Webdesigner dem Erfolg der Website im Weg. Um zu schlüssigen Aussagen zu kommen, werden Anwendern verschiedene Varianten des Designs, aber auch verschiedene Produktbezeichnungen, Preisstaffeln oder Rabatte angeboten. Anschließend erfolgt eine Bewertung und Optimierung nach verschiedenen Kriterien im Hinblick auf Kennzahlen wie Umsatz und Bestellungen. Dabei stellen technische Systeme sicher, dass einem konkreten Anwender immer ein konsistentes Bild der Site präsentiert wird – gleichzeitig aber eine den Vorgaben entsprechende Verteilung von Anwendern in die einzelnen Konzepte oder „Rezepte“, die es zu testen gilt, vorgenommen wird. Trend 3: Integration Unter dem Oberbegriff der „Datenintegration“ wird Web Analytics nach und nach mit weiteren Datenquellen verbunden und entwickelt sich so von einer Insellösung zu einem festen Bestandteil mit einem ganzheitlichen Ansatz zur Datenauswertung und Entscheidungsfindung. Unter den Schlagworten Data Warehouse, Business Intelligence oder Enterprise Information Integration werden möglichst alle Informationen über Produkte, Märkte und Kunden aus internen und externen Quellen zusammengeführt und gemeinsam betrachtet.
11
1 Einführung Dabei können auch die Daten aus Warenwirtschaftssystemen (ERP) oder „Customer Relationship Management Tools“ (CRM) mit den Web-Analytics-Berichten verknüpft werden. Solche Systeme zur Datenintegration dienen der Geschäftsleitung oder den Entscheidern auf anderen Ebenen für die Vorbereitung von Alternativen, mit denen sich das Unternehmensergebnis kontinuierlich im Sinne des Controllings verbessern lässt. Die Anbieter von Standardsoftware im Bereich Web Analytics erweitern ihre Systeme entweder durch Zukauf von Spezialanbietern, durch Kooperationen oder durch Eigenentwicklungen in diesen drei Trendbereichen. Weil Web-Analytics-Systeme aber noch relativ junge Produkte sind (im Vergleich etwa zu Datenbanken oder ERP-Systemen), sollten die angebotenen Erweiterungen in den drei Bereichen sehr genau geprüft werden. Oft halten die vollmundigen Versprechungen der Marketingbroschüren einer detaillierten Anforderungsanalyse nicht stand.
1.4
Aufbau dieses Buches Mit unserem Buch wollen wir Entscheidern sowie Marketing- und Vertriebsprofis, die bereits erste Erfahrungen in der Webanalyse haben, das nötige Wissen und unsere Erfahrungen mit auf den Weg geben, um … Webanalyse-Projekte sicher konzipieren und durchführen zu können; typische Fehler und Fallstricke in Planung und Praxis zu erkennen; mit anderen Projektteilnehmern (etwa IT-Experten) effizient zusammenzuarbeiten. In den ersten drei Kapiteln bauen wir zunächst die nötigen Wissensgrundlagen für den erfolgreichen Einsatz der Web Analytics auf: Nach der generellen Einführung schildern wir in Kapitel 2 „Bedeutung der Webanalyse für Marketing und Vertrieb“, welche Erfolgspotentiale die Webanalyse im Marketing und Vertrieb entfalten kann und welche Voraussetzungen dazu erfüllt sein müssen. In Kapitel 3 „Grundlagen der Webanalyse“ beschreiben wir das nötige Basiswissen. Wir beleuchten zum Beispiel den Umgang mit Kennzahlen und führen in Messgenauigkeit und Datenschutz ein. Kapitel 4 stellt die „Technischen Methoden des Site Tracking“ vor, schildert zahlreiche technische Verfahren und nennt deren Vor- und Nachteile. Im Vergleich zu einem Datawarehouse oder einem Data-Mart gibt es in der Web Analytics einige Besonderheiten in der Auswertung. Diese präsentieren wir in „Analyse und Auswertungsmethoden“ (Kapitel 5). Im umfangreichen Kapitel 6 „Erfolgsfaktoren für Websites“ beschreiben wir verschiedene Gruppen und Klassen von Kennzahlen und ihre Bedeutung für die Erfolgsmessung. Der Web Scorecard widmen wir ein ganzes Kapitel (Kap. 7), denn mit ihr können Unternehmen das Erreichen von Zielen gut kontrollieren. Kapitel 8, 9 und 10 widmen wir einem Webanalyse-Verfahren, dessen Bedeutung stetig wächst: „Testing und Targeting: die neue Optimierungskultur“ (Kap. 8). Als Basis diente uns die Diplomarbeit, die Melanie [Hertzig 2008] in unserem Haus verfasste – wir bedanken uns bei Melanie Herzig für ihre Unterstützung. Das Verfahren „Testing und Targeting
12
1.4 Aufbau dieses Buches hat in den vergangenen zwei Jahren enorm an Bedeutung gewonnen. Zwar ist es eine anspruchsvolle Testmethode, um unterschiedlichen Online-Erfolgsfaktoren auf die Spur zu kommen. Doch der Lohn ist das Wissen über optimale – weil differenzierte – Inhalte, die man einzelnen Besuchern oder Zielgruppen anbieten kann. In Kapitel 9 beleuchten wir die „Technische Methode von Testing und Targeting“ und in Kapitel 10 die „Durchführung von Testing und Targeting“. Wie findet ein Unternehmen sein optimales Web-Analytics-Tool? Diese Frage beantworten wir in Kapitel 11, „Kriterien für die Auswahl eines Web-Analytics-Tools“. Darin stellen wir Kriterien für die Auswahl eines Systems vor. Nach der Auswahl des Web-Analytics-Tools folgt dessen Integration und Einführung. In Kapitel 12, „Einführung eines Web-Analytics-Systems“, stellen wir diesen wichtigen Schritt vor. Unserer Erfahrung nach werden die meisten Fehler in dieser Phase begangen, weil sie häufig unterschätzt wird. Im Anhang finden Sie ein umfangreiches Glossar, in dem wir alle Begriffe, die für die Web Analytics bedeutend sind, erklären. Die Auswahl der Themen zeigt, was unserer Erfahrung nach die wichtigsten Kriterien für eine erfolgreiche Webanalyse sind: Zwar beschreiben wir – selbstverständlich – die technischen Grundlagen. Doch den weitaus größeren Raum nehmen die Finessen des Projektmanagements und das Integrieren der Webanalyse in die Unternehmensstruktur ein. Denn meistens ist nicht die falsche Tool-Auswahl der Grund für ein missglücktes Web-Analytics-Projekt, sondern menschliche, planerische Versäumnisse. Mit diesem Buch wollen wir Ihren Blick schärfen, damit Sie typische Problemfelder erkennen und vermeiden können.
13
14
2 2 Web Analytics in Marketing und Vertrieb Wie groß ist die Bedeutung der Webanalyse für das Marketing und den Vertrieb eines Unternehmens? Dies ist proportional abhängig vom Anteil, den der Online-Kanal am Gesamtgeschäft ausmacht. Die entscheidenden Faktoren hierbei sind das Geschäftsmodell des Unternehmens, die Markt- und Marketingstrategie sowie die das Marketing und den Vertrieb im Unternehmen bestimmenden Charaktere. Marketiers sind heutzutage bestrebt, mehr über ihre Web-Besucher in Erfahrung zu bringen. Selbst jene, die hauptsächlich Brand-Kampagnen planen und umsetzen, versuchen inzwischen immer häufiger, ihre Kampagnen messbar zu gestalten – auch wenn KPIs (zum Beispiel Brand Awareness und Engagement) nicht direkt messbar sind, sondern über verschiedene Kennzahlen als Indikationen erhoben werden müssen. Im Folgenden beschreiben wir beispielhafte Unternehmenstypen, die wir in unseren Projekten kennengelernt haben, und deren Verhältnis zur Webanalyse. Vielleicht finden Sie Ihr Unternehmen in einem der Beispiele wieder: Typ 1: Produzierendes Gewerbe (B-to-B-Direktvertrieb oder indirekter Vertrieb) Das Marketing eines typischen Unternehmens aus dem produzierenden Gewerbe ist noch wenig internetaffin. Bevorzugte Marketingkanäle sind Printmedien und Messen. Die Website dient zur Präsentation des Unternehmens, der Produkte und Lösungen. Die Kontaktaufnahme über das Internet wird zwar angeboten, doch die Prozesse dahinter sind nicht eindeutig definiert. Die Folge: Mögliche Leads gehen verloren. Die IT-Abteilung erstellt Web-Statistiken über Logfiles oder einfache Web-Analytics-Tools. In der Regel werden Page Impressions und Visits pro Monat reportet. Die Web Analytics spielt noch keine Rolle in den Betrachtungen des Marketings und Vertriebs. Als Grund geben Vertriebs- und Marketingmitarbeiter in vielen dieser Unternehmen an: „Weil keine Produkte über die Website verkauft werden“. Fragt man sie jedoch, wie sie denn bei der Recherche nach neuen Unternehmen und Produkten vorgehen, stellt sich immer wieder heraus: sie selbst nutzen das Internet für diese Zwecke sehr wohl. Ein Widerspruch, der selten erkannt wird.
15
2 Web Analytics in Marketing und Vertrieb Typ 2: Markenunternehmen (B-to-C- oder indirekter Vertrieb) Die Marketiers dieses Unternehmenstypus sind webaffin. Der Marketingmix über alle Kanäle wird großgeschrieben. Ihr Fokus: Steigerung der „Brand Awareness“. Insofern sind die Websites und die Online-Marketing-Instrumente wichtige Bausteine der Marketingabteilung. Ihre Mitarbeiter betrachten hauptsächlich die Reichweitenkennzahlen. Solche Unternehmen nutzen die Marketingkanäle gut und erschließen auch schnell neue innovative und experimentelle Kanäle und Maßnahmen. Die Webanalyse spielt jedoch eine untergeordnete Rolle, weil die „wichtigen Kennzahlen“ nach wie vor in der Abteilung Marktforschung (über die klassischen Methoden der Marktforschung, Marketingforschung und Markterhebungen) erhoben werden. Die Herausforderung für diesen Unternehmenstyp besteht darin, ein ganzheitliches Marketing-Controlling aufzubauen, das heißt: alle Marketing-Maßnahmen, ob offline oder online, in einen messbaren Bezug zu bringen. Eine Web Scorecard mit weichen und harten Kennzahlen kann hier das ideale Steuerungsinstrument sein. Typ 3: Versandhandel (B-to-C, direkter Vertrieb) Jährlich zeigen die Handelszahlen eine steigende Bereitschaft der Kunden, online zu bestellen. Die Versandhändler verbuchen zum Teil deutlich mehr als 60% ihres Umsatzes über den Online-Kanal. Insofern wundert es nicht, wenn diese Unternehmen die Klaviatur des Online-Marketings und E-Commerce gut spielen und die Webanalyse als wichtiges Instrument zur Erfolgsmessung der Performance-Marketing-Kampagnen und der Online-Shops einsetzen. Die Webanalyse spielt in diesen Unternehmen als Controlling-Instrument eine strategische Rolle, um Aktivitäten zu steuern. Die Webanalyse-Daten werden in der Regel mit den Daten aus anderen Vertriebskanälen – etwa Katalog, Teleshopping oder TVShopping – miteinander verbunden, um ein größeres Verständnis für Faktoren, die die Kaufentscheidungen auslösen, zu gewinnen. Die strategische Zielsetzung ist, eine 360Grad-Sicht auf den Kunden zu erhalten. Typ 4: Online-Unternehmen Solche Unternehmen würde es ohne das World Wide Web nicht geben: ihre Geschäftsmodelle sind ganz und gar auf den Online-Markt ausgerichtet. Web Analytics wird als strategisches Instrument des Marketings verstanden, dementsprechend hat sie einen hohen Stellenwert. Die Marketiers sind auf die Webanalyse angewiesen, da Letzteres nahezu das einzige Controlling-Werkzeug darstellt, über das sie zur OnlineSteuerung des Unternehmens verfügen. Diese Unternehmen sind es, die in der Regel neue Stellen schaffen, zum Beispiel für einen Webanalysten. Kein online-aktives Unternehmen kann es sich heute noch erlauben, Web Analytics zu ignorieren. Die verwendeten Tools und die Intensität, mit der man Webanalyse betreibt, sind jedoch von der Web-Affinität des Geschäftsmodells abhängig.
16
2.1 Web Analytics in der Organisation
2.1
Web Analytics in der Organisation Eine zentrale Frage bei der Einführung eines Web-Analytics-Systems ist: Wer hat „den Hut auf“? Wer ist zuständig? Mal ehrlich: Vor allem in kleineren Organisationen ist das im Zweifel immer der, der sich nicht schnell genug ducken konnte – und nicht derjenige, der dafür am besten geeignet wäre, oder? Aus historischer Sicht ist die Web Analytics eine IT-Aufgabe. Die ersten serverbasierten Logfiles gaben Auskunft über den Traffic sowie über die Referrer. Anbieter wie Webtrends Inc., USA, boten dazu vor mehr als zehn Jahren ihre ersten Web-Analytics-Tools an. Auch heute werden noch serverbasierte Logfile-Analyse-Tools eingesetzt – vor allem in Unternehmen, die ihre Daten intern auf Servern sammeln und keine Eingriffe auf die Website vornehmen möchten. Inzwischen haben aber viele marketing- und vertriebsorientierte Unternehmen erkannt, dass diese Tools nur bedingt für das Controlling einer zielorientierten Webstrategie taugen. Mit Hilfe clientbasierter ASP-Produkte (Application Service Providing) hat sich das Marketing der Webanalyse stärker angenommen. Treibender Faktor war sicherlich die „Kommunikationskluft“ zwischen Marketing und Technik sowie die Chance, die IT-Abteilung weitgehend aus dem Prozess der Website-Instrumentierung herauszunehmen. An ihre Stelle traten externe Web-Dienstleister, die die entsprechende Implementierung des Messcodes in die Website vornehmen. Die Daten liegen dann auf externen Servern, über die man per Browser Zugriff erhält. Mittlerweile werden viele Web-Analytics-Projekte in den Marketingabteilungen durchgeführt. Wo aber ist die Web Analytics am besten aufgehoben? In der Praxis zeigen sich die folgenden typischen Modelle: 1. Verantwortung in der IT-Abteilung: zentrale Web-Analytics Web Analytics wird manchmal noch als technisches Thema verstanden, weil es um die technische Implementierung einer Software geht. Die IT übernimmt vielfach die Auswahl der Tools sowie deren Implementierung. Und weil sie das Tool implementiert hat, erstellt sie in der Regel auch die Reports. Die IT übernimmt als interner Dienstleister für Marketing und Vertrieb die Pflege der Software und erstellt auf Anfrage Reports. Vorteile: Die IT kann die technische Implementierung in der Regel vornehmen und verifizieren. Die IT kann Standard-Reports bereitstellen und auf Anfrage individuelle Reports erstellen. Sie ist im Idealfall ein zentraler Ansprechpartner zu allen Fragen der Web Analytics. Nachteile: Die IT ist in der Regel nicht am Erfolg von Marketing und Vertrieb beteiligt und hat daher wenig Bezug zu deren Zielsetzungen.
17
2 Web Analytics in Marketing und Vertrieb IT und Marketing sprechen verschiedene „Sprachen“, daher kommt es häufig zu Missverständnissen zwischen Anforderungen und Umsetzung. In der Regel erstellt die IT kein geschäftsrelevantes, sondern nur ein trafficbasiertes Reporting. Das in der IT geforderte – und durchaus sinnvolle – Denken in Releases, um zum Beispiel möglichst wenig das Tagesgeschäft durch Updates und Upgrades zu beeinflussen, passt nicht zu dem im Marketing geforderten zeitnahen Agieren. Wichtige Änderungen können daher in der Regel nicht zeitnah ausgeführt werden, und die gesetzten Ziele im Marketing und Vertrieb bleiben unerreichbar. Die größte praktische Herausforderung der Web Analytics besteht darin, zeitnahe und geschäftsrelevante Analysen für das Marketing und den Vertrieb bereitzustellen. Die IT ist in der Regel nicht in der Lage, eine geschäfts- und marketingrelevante Analyse der Daten vorzunehmen. Die spontanen Anforderungen des Marketings und des Vertriebs passen nicht in eine nach Releases und strengen Zeitplänen geordnete IT.
2. Verantwortung im Marketing: dezentrale Web Analytics Mit den ASP-Web-Analytics-Produkten gelingt teilweise die Emanzipation des Marketings von der internen IT. Die technische Implementierung wird zumeist von externen Dienstleistern vorgenommen, die auch die Website oder das Content Management System betreuen. Das Marketing ist somit in der Lage, für eigene Projekte Daten zu erheben und zu analysieren. Eine dezentrale Web Analytics ermöglicht es Marketiers, eigene WebstatistikAuswertungen zu erstellen. Fragestellungen müssen nicht mehr IT-technisch übersetzt werden, stattdessen analysiert man direkt und zeitnah das Geschehen auf der Website und im Online-Marketing. Vorteile: Jeder Marketier (SEO-, SEM-, Affiliate-Manager etc.) erstellt die individuellen Daten, die er zur Steuerung seiner eigenen Aktivitäten benötigt. Die Interpretation der Daten erfolgt zeitnah, zielorientiert und anhand des Geschäftsmodells und Aufgabengebiets. Die Kompetenz wird auf viele Personen verteilt. Nachteile: Unter Umständen fehlen technikaffine Mitarbeiter, die Fehler erkennen, die aufgrund einer fehlerhaften Implementierung entstanden sind. Gleiche Daten können durchaus unterschiedlich interpretiert werden, weil jeder Mitarbeiter eine individuelle Sichtweise und eigene Zielsetzungen hat. Daher bedarf es im Vorfeld klarer Definitionen von Kennzahlen und deren Interpretation. Es ist ein erhöhter Schulungsbedarf nötig, damit jeder in der Lage ist, sinnvolle Reports zu erstellen.
18
2.1 Web Analytics in der Organisation Übergreifende Analysen führen zu erhöhtem Diskussionsbedarf, weil jeder seinen Standpunkt vertritt. Die übergeordnete Zielsetzung geht hierbei manchmal unter. Grundsätzlich ist die Web Analytics im Marketing richtig aufgehoben, da dort jene sitzen, die Webstatistiken für ihre Arbeit benötigen. Eine dezentrale Organisation eröffnet die Möglichkeit, die Last auf viele Schultern zu verteilen. Dies führt aber auch zu mehr Diskussionsbedarf, da verschiedene Zielsetzungen aufeinanderprallen.
3. Verantwortung in der Geschäfts- oder -bereichsleitung: zentrale-dezentrale Web Analytics Wenn man Web Analytics als strategisches Instrument versteht, um seine Online-Aktivitäten zu optimieren, sollte die Abteilung gegebenenfalls direkt der Geschäftsführung oder Abteilungsleitung unterstellt sein. Diese Stabsstelle könnte – quasi als interner Dienstleister – die Aufgabe bekommen, neben einem zentralen Standard-Reporting auch neue Hypothesen zu prüfen, um das Geschäftsmodell weiter zu optimieren. Neben dieser zentralen Stelle kann weiterhin jeder Marketier eigene Reports erstellen. Vorteile: Die Stabstelle ist als Spezialist der Web Analytics Ansprechpartner für alle im Prozess eingebundenen Abteilungen. Sie ist in der Lage, abteilungsübergreifend neue Sichtweisen auf die Daten vorzunehmen und somit „eingefahrene Wege“ in Frage zu stellen. In der Regel wird eine solche Stabsstelle bei der Geschäfts- oder Abteilungsleitung aufgehängt. Mit ihr ist sowohl ein abteilungsübergreifendes Arbeiten als auch das Verfolgen einzelner Ziele möglich. Das Know-how wird zentral aufgebaut und dezentral weitergegeben. Marketiers können weiterhin spezifische Auswertungen vornehmen. Nachteile: Die Stelleninhaber sollten folgende Qualifikationen mitbringen: Kommunikation, analytische Fähigkeiten, Online-Marketing-Kenntnisse und Programmierung. Sie sollten stark prozessorientiert arbeiten. Häufig bleibt eine solche Stabsstelle ein nicht realisierbarer Wunsch. In vielen mittelständischen Unternehmen befinden sich das Online-Marketing und manchmal auch das gesamte Marketing in der Hand einer einzigen Person. Zu diesen Aufgaben kommt noch die Webanalyse hinzu. Nichtsdestotrotz sollte man die Web Analytics nutzen: Eine Stunde pro Tag reicht unter Umständen aus, um das Marketing zielorientierter und effektiver zu machen. Man erkennt anhand der Varianz der Kennzahlen (Streuung, Abweichungen zur Vorperiode), wo schnellstmöglich Änderungen an der Kampagne oder an Transaktionsprozessen vorgenommen werden sollten und welche Varianzen der Kennzahlen im üblichen Schwankungsbereich sind.
19
2 Web Analytics in Marketing und Vertrieb Eine Stabsstelle für Web Analytics lohnt sich definitiv für webaffine Unternehmen – etwa für Online-Portale oder E-Commerce-Unternehmen, die ihr Geschäft hauptsächlich über den Internetkanal betreiben. In der Regel rentiert sich so ein Spezialist im Unternehmen sehr schnell, weil er schnell und effektiv Antworten zu vertriebs- und marketingrelevanten Fragen liefern kann.
2.1.1
Externe Dienstleister
Möchte man bestimmte Prozesse im Unternehmen beschleunigen oder die internen Mitarbeiter entlasten, greift man auf externe Expertisen zurück. Dieses Vorgehen findet man in allen Bereichen der Wirtschaft – so auch in der Web Analytics. Berater für Web Analytics gibt es so lange wie Tools im Markt, also etwas mehr als zehn Jahre. Während sich zu Beginn viele von ihnen auf ein Web-Analytics-Tool spezialisiert hatten, arbeitet inzwischen fast jedes Beratungshaus mit mehreren WA-Produkten. Unternehmen binden externe Expertisen in der Regel gerne ein. Die Vorteile: 1. Das Wissen der Spezialisten kann effektiv und schnell im Unternehmen umgesetzt und genutzt werden. 2. Sie bieten schnell verfügbare Ressourcen. 3. Die Bezahlung erfolgt gegen Aufwand oder bei Werkverträgen mit Pauschalen. Es entstehen keine Lohnnebenkosten. Ob nun alle Web-Analytics-Dienstleistungen oder nur einzelne Bereiche ausgegliedert und für welchen Zeitraum die externen Services genutzt werden, ist abhängig vom Unternehmen und dessen Zielsetzung. Im Bereich Web Analytics bieten sich verschiedene Partner an: Web-Dienstleister, Werbeagenturen Performance-Marketing-Agenturen Beratungsunternehmen für Web Analytics Viele Unternehmen beauftragen ihre Web-Dienstleister und Agenturen nicht nur für die Gestaltung und Pflege der Websites, sondern auch mit der Web Analytics – von der Auswahl des Tools und seiner Implementierung bis zur Analyse der Daten. Man sollte in diesem Fall darauf achten, dass die Agentur tatsächlich Erfahrung in der Webanalyse mitbringt. Ein gewisser Interessenkonflikt kann entstehen, wenn empfohlene Maßnahmen und Kreativleistungen auch durch die Agentur bewertet werden müssen. Ein Beispiel: Ihre Agentur erstellt eine Landing Page, um eine bestimmte Zielgruppe anzusprechen. Sie überzeugt mit dem Konzept, und Sie gehen „live“. Ihre Agentur ist aber auch für das Reporting verantwortlich. Die Kampagne läuft nicht wie erwartet. Eine gute Agentur spricht umgehend das Thema an und erarbeitet gemeinsam mit Ihnen Optimierungsmaßnahmen – auch wenn sie zugeben muss, dass ihre Hypothese oder Umsetzung falsch war. Performance-Marketing-Agenturen liefern grundsätzlich ein Reporting ihrer Kampagnen, weil dieses in der Regel die Grundlage für die Abrechnung bildet. Im Gegensatz zu den
20
2.2 Interne Strukturen und Prozesse Webagenturen instrumentieren sie jedoch nicht die gesamte Website, sondern nur ihre Werbeelemente sowie die erfolgreichen Seiten (zum Beispiel die Landing Page und die „Danke-Seite“ in einem Online-Shop). Sie können somit keine kompletten Antworten erwarten, zum Beispiel auf die Frage, warum auf der Webseite die gewünschte Konversion nicht erreicht wurde. Die Web-Analytics-Beratungsunternehmen haben sich auf die Anforderungsanalyse, ToolAuswahl, Implementierung und Analyse der Daten spezialisiert. Im Gegensatz zu den Web-Dienstleistern und Agenturen sind sie in der Regel nicht direkt an der Entwicklung der Werbemittel oder der Website beteiligt. Teilweise werden diese Unternehmen jedoch auch eingebunden, um im Zusammenspiel mit den Kreativ-Partnern wertvollen Input zu liefern. Das Einbeziehen externer Webanalyse-Experten ist in der Regel sehr hilfreich. Zuvor bedarf es aber einer dedizierten Anforderungsanalyse und eines umfassenden Briefings, in dem festgehalten ist, was man vom Partner erwartet und welche Kennzahlen regelmäßig reportet werden sollen. Beachten Sie grundsätzlich, welche Wissensschwerpunkte ein externer Dienstleister hat und ob dieses Wissen ausreicht, um die gewünschten Analysen vorzunehmen.
Kennzahlenmodelle und die Strategie einer Website oder Kampagne sollte in der Regel der Auftraggeber erstellen. Agenturen können und sollen unterstützen, dürfen aber nicht über Strategie und Kennzahlen bestimmen. Dies würde bedeuten, dass die Agentur das Geschäftsmodell besser versteht als der Site-Betreiber.
2.2
Interne Strukturen und Prozesse Häufig scheitern Web-Analytics-Projekte, weil die erforderlichen Strukturen und Prozesse im Unternehmen nicht definiert sind und Optimierungsprozesse nicht von vornherein eingeplant wurden. Webanalyse ist nur sinnvoll, wenn sich Statistik-Erkenntnisse auch umsetzen lassen. Selbst wenn die Einführung eines Web-Analytics-Systems noch gut vonstatten geht und die ersten Analysen sogenannte „Quick Wins“ erzeugen: In vielen Unternehmen hapert es an der Umsetzung dieser schnellen Erkenntnisse. Ein Beispiel: Sie haben erkannt, dass im Registrierungsprozess immer an der gleichen Stelle abgebrochen wird. Demzufolge wollen Sie den Registrierungsprozess testen und mit verschiedenen Formularen herausfinden, welche Version zu einer höheren Abschlussrate führt. Doch die zuständige IT bremst: sie hat Web Analytics nicht in ihre Planungen mit einbezogen, und ein Release ist erst im nächsten Quartal geplant. Dies bedeutet: Bis es endlich so weit ist, verlieren Sie wertvolle Kontakte auf Ihrer Website.
Dieses Beispiel ist nicht aus der Luft gegriffen, sondern Alltag vieler Webanalysten. Die möglichen Folgen solcher Widerstände: Der Analyst ist frustriert und betreibt seine Analysen mit weniger Engagement. Zudem werden die Berichte und Reports von den Mitarbei-
21
2 Web Analytics in Marketing und Vertrieb tern weniger aufmerksam verfolgt, weil sie nichts an den dort aufgeführten Ergebnissen ändern können. Was letztendlich bedeutet: Im Unternehmen wird reportet – aber nicht mehr analysiert und schon gar nicht optimiert. Wenn ein Unternehmen die für die Web Analytics erforderlichen Prozesse und Abläufe nicht konsequent plant und realisiert, ist jede wirksame und effektive Webanalyse zum Scheitern verurteilt.
2.3
Der Webanalyst – der Wolpertinger des OnlineMarketings Ein Webanalyst soll zum einen das Geschäftsmodell und die Marketingmaßnahmen des Unternehmens verstehen und über analytische Fähigkeiten verfügen. Zum anderen muss er technisch versiert sein, um mögliche Fehler aufgrund fehlerhafter Implementierung des Tracking Codes zu erkennen oder um Abweichungen der Kennzahlen der OnlineMarketing-Partner auf die Spur zu kommen. Je nach Webaffinität des Geschäftsmodells ist das ein verantwortungsvoller Posten, der gegebenenfalls genauso hoch und wichtig einzuschätzen ist wie das klassische BetriebsControlling (Revision). Er ist also unter Umständen eine typische Stabsstelle, die der Geschäftsführung Entscheidungsgrundlagen liefern sollte. Da man als Webanalyst abteilungsübergreifend arbeiten muss, kann eine eindimensionale Zuordnung in Marketing, Vertrieb oder IT kaum funktionieren. Webanalyse ist also ein verantwortungsvoller Job, den leider wenig geeignete Mitarbeiter ausüben: Mitarbeiter aus der IT; studentische Hilfskräfte aus dem Marketing; Berufseinsteiger; bereits überlastete Marketingmitarbeiter, quasi als Zusatzaufgabe. Nur in wenigen Fällen und in der Regel bei sehr online-affinen Geschäftsmodellen wird diese Rolle von einem Spezialisten übernommen. Vor allem im Online-Marketing und speziell im Performance Marketing finden wir genau diese Spezialisierung vor. Hier gibt es dann den SEO-, SEM-, Affiliate-, E-Mail- oder Dialogmarketing-Spezialisten. Natürlich steuern diese Fachkräfte ihre Kampagnen nach den Zielen des Unternehmens, doch allzu häufig werden die einzelnen Maßnahmen nicht koordiniert. Ist eine volle Stelle als Webanalyst unverzichtbar? Nein, aber sehr wünschenswert. Die Stellenbeschreibung und das Volumen der Aufgaben hängen stark vom Geschäftsmodell und davon ab, wie webaffin ein Unternehmen ist. Nach unserer Erfahrung sollte jedoch mindestens ein Mitarbeiter als „Power Webanalyst“ ausgebildet werden. Dieser sollte sich zumindest eine Stunde pro Tag ausschließlich mit der Webanalyse beschäftigen können und hausintern als Ansprechpartner für alle Fragen rund um die Webanalyse zur Verfügung stehen.
22
2.4 Effektiveres Marketing durch Web Analytics Praxistipp: Bilden Sie mindestens einen Mitarbeiter zum „Power Webanalysten“ aus. Dieser sollte einen festen Stundensatz regelmäßig für die Webanalyse aufbringen dürfen.
2.4
Effektiveres Marketing durch Web Analytics Wird das Marketing durch die Webanalyse effektiver? Bevor wir die Frage beantworten, rufen wir uns die klassische Definition von Marketing in Erinnerung: „Marketing umfasst alle Maßnahmen einer ziel- und wettbewerbsorientierten Ausrichtung der marktrelevanten Aktivitäten der Unternehmung an ausgewählten Problemfeldern gegenwärtiger und zukünftiger Kundenpotenziale unter Einsatz planender, steuernder, koordinierender und kontrollierender (formale Seite) sowie marketingpolitischer Instrumente (materiale Seite).“ [Gabler 2001] Planen Marketiers stehen eigentlich immer unter einem gewissen Erfolgsdruck. Sie müssen sich und dem Management beweisen, dass sie effektiv und effizient mit dem Marketingbudget umgehen. Speziell das Online-Marketing liefert hier eine hohe Transparenz der Kosten und Erfolge. Der Marketingplan ist das zentrale Managementinstrument im Marketing. In diesem werden die Ausgangssituationen und das Umfeld analysiert sowie die Strategie und Ziele geklärt sowie die Maßnahmen beschrieben. Grundlage für einen Marketingplan sind klare Ziele und Strategien, die man ebenfalls im Marketingplan erläutern kann: Diese Planung ist also der Prozess zur Erstellung eines Marketingplans und seine regelmäßige Anpassung. Im direkten Vergleich zu früher verlangt das Management heute viel mehr Informationen und Aufklärung über den Erfolg der einzelnen Maßnahmen. Marketingpläne müssen heute mehr noch als vor wenigen Jahren sich permanent ändernden Anforderungen angepasst werden. Marketingplanung ist also eine wichtige Aufgabe im Unternehmen, die zum einen ein systematisches Vorgehen und zum anderen Kreativität und Flexibilität erfordert. Wir wollen Ihnen hier keine Grundlagen der Marketingplanung vermitteln – aber auf den Beitrag aufmerksam machen, den die Web Analytics für eine fundierte Planung der Online-Aktivitäten liefern kann. Während reine Offline-Marketing-Aktivitäten – zum Beispiel Print, TV und Radio – in der Regel nur durch Panel-Umfragen zu bewerten sind, ist das Online-Marketing in all seinen Facetten genau messbar. In keinen anderen Marketingkanal bekommen wir so schnell und akkurat eine Rückmeldung unserer Aktivitäten. Die Web Analytics ist hier wesentlicher Bestandteil der Erfolgskontrolle. Aber auch crossmediale Werbeeffekte lassen sich im Internet eindeutig nachweisen.
23
2 Web Analytics in Marketing und Vertrieb Beispiele: Während die Sendungen bei den TV-Homeshopping-Sendern laufen, steigt ebenfalls der Traffic und auch der Verkauf über das Web. Die parallel telefonisch bestellbaren Produkte werden zur gleichen Zeit von webaffinen Kunden online gekauft. Die Wirkung von Anzeigen im Print, die beispielsweise auf ein Gewinnspiel im Internet oder auf einen Online-Coupon verweisen, lassen sich im Web direkt nachweisen.
Wir können den einzelnen Online-Werbemaßnahmen Kosten und Erfolge zuordnen; zusätzlich lassen sich Web-Besuchersegmente herausfiltern. Hat sich der Kunde registriert, kann man seine Segmente bzw. Profile durch weitere demographische und psychografische Daten anreichern. Letztendlich erhalten wir ein besseres „Bild“ unserer Webbesucher, Abonnenten und Kunden. Dieser Schritt lässt sich in vier Punkten zusammenfassen: 1. Erfassung relevanter Nutzerinformationen über alle Kanäle. Behavior-, demografische und psychografische Daten. 2. Verdichtung dieser Informationen zu aussagekräftigen Nutzerattributen, zum Beispiel Aufruf des Autokonfigurators des Modells „Cabrio“ innerhalb der letzten sieben Tage. 3. Segmentierung ist ein Berechnungsschritt, der aus Nutzerattributen die Segmente ableitet, zum Beispiel Aufruf des Autokonfigurators „Cabrio“ und Region Hamburg. 4. Targeting: Zuweisungsregeln für konkrete Maßnahmen und/oder Angebote zu den einzelnen Segmenten, zum Beispiel Anbieten von Testfahrten beim nächsten Besuch. Web Analytics ist letztendlich die Vorstufe zum CRM. Während sich die Web Analytics um die anonymen Besucher kümmert – mit der Zielsetzung, sie zu bekannten Kunden zu machen – kümmert sich das CRM um den weiteren Kundenlebenszyklus. Abbildung 2.1 zeigt die verschiedenen Komponenten einer möglichen Kundensegmentierung: Neben den Marketingmaßnahmen in der Traffic-Akquise und -Management sind natürlich auch Prozessoptimierungen in der Web Analytics messbar. Planung von Marketingmaßnahmen bedeutet nicht nur, das “Wann und Wie und Was“ zu definieren, sondern auch, wie viel. Die zentrale Frage bei der Planung messbarer Zielen muss lauten: „Welchen Beitrag trägt die Marketingmaßnahme zum Unternehmenserfolg bei?“
Steuern und Regeln Das Steuern von Marketingmaßnahmen erfordert zum einen, messbare Ziele definiert zu haben und zum anderen, zeitnah zu messen. Während im klassischen Marketing die Messung zumeist nach der Maßnahme erfolgt durch die typischen Instrumente … Befragung Beobachtung Experiment (Labor oder Feldexperiment) … wird im Online-Marketing direkt und unmittelbar gemessen. Der Erfolg einer Werbemaßnahme ist nahezu gleichzeitig mit der Freischaltung der Maßnahme in der Statistik nachvollziehbar. Nur wenige Minuten nach dem Klick auf ein Werbemittel erscheint dieser
24
2.4 Effektiveres Marketing durch Web Analytics
Komponenten der Kundensegmente
Kunde
Daten
Segment
Interessent
Neukunde
Bestandskunde
langfristig
Profile Lebenssituation Bedürfnisse Interessen
Kundenstimmen Externe Anreich.
Clustering Scoring
Gewinnung
Entwicklung
Klassifikation
Up-/CrossSelling Retention
AGOF Maßnahmen: Kundenlebenszyklus
kurzfristig
Kunde
Daten
Motivation
Clickstream
Absichten
Warenkorb
Verhalten
Transaktion
Segment
Behavioral Targeting Recomm. Engine
Traffic Acquisition
Traffic Management
Traffic Conversion
Maßnahmen: Prozessoptimierung
Abbildung 2.1 Lang- und kurzfristige Kundeneigenschaften speisen die jeweils angemessenen Segmentierungen. Gemeinsam werden sie genutzt, um die Kunden strategisch zu entwickeln und vorhandene Prozesse zu optimieren.
in der Statistik – und zwar nicht nur von ausgewählten Besuchern (Panel), sondern von allen Besuchern. Die Ad Server der Vermarkter liefern die Zahlen der Ad Views. Über geeignete Targeting-Maßnahmen kann man zielgruppengenau Werbung aussteuern. Zusätzliche Planungstools, beispielsweise der AGOF, unterstützen den Werbeplaner bei der Online-Mediaplanung von Belegungseinheiten und auf Nutzerebene. Lediglich im Social Web reicht die reine Aktivitätenmessung nicht aus. Neben der Statistik der Web Analytics muss hier ein zusätzliches Monitoring der Inhalte in den Foren, Blogs, Twitter, Bewertungsportalen, YouTube etc. vorgenommen werden. Web-Analytics-Systeme können Aktivitäten messen, aber keine Inhalte bewerten.
25
2 Web Analytics in Marketing und Vertrieb Beispiel: Eines der bekanntesten Beispiele, welche Geschwindigkeit und Auswirkungen eine Marketingaussage und ihre Widerlegung hat, ist jenes der Firma Kryptonite, die unter anderem Schlösser für Fahrräder herstellt. Der Hersteller wirbt für seine sicheren Schlösser. In einem auf YouTube eingestellten Video wurde damals gezeigt, wie schnell das Schloss mithilfe eines Stifts auch ohne Schlüssel zu öffnen ist. Die Auswirkungen können Sie in Abbildung 2.2 sehen.
Kryptonite‘s Blogstorm How ten days of Internet chatter crippled a company‘s reputation.
Complaint posted to bikeforums.net that a Bic pen can open a Kryptonite lock. Videos shown how to pick a lock are posted.
Company announces free product exchange. Estimated cost: $10 million.
Company assures public that its locks are effective. New York Times and AP report the story.
Sept. 12
13
14
15
16
17
18
19
20
21
22
Source: Fortune Magazine
Abbildung 2.2 Der „Kryptonite Blogstorm“ Entwickeln Sie möglichst vorab Steuerungspläne für die positiven sowie negativen Abweichungen der geplanten Werte. Zum einen, um die positiven Effekte zu verstärken, und zum anderen, um negative Effekte möglichst schnell zu eliminieren.
Für Ihre Maßnahmen bedeutet dies, dass Sie möglichst schon im Vorhinein Steuerungspläne entwickeln und beide Fälle berücksichtigen: dass die Maßnahme wesentlich besser läuft als erwartet bzw. dass sie nicht die gewünschte Entwicklung nimmt. Beide Möglichkeiten bieten Anlass zur Analyse, um Erkenntnisse für weitere Maßnahmen zu nutzen. Multivariate Testing-Tools ermöglichen es, verschiedene Hypothesen aufzustellen und mit einer Teilgruppe oder dem gesamten Traffic zu testen. Innerhalb eines kurzen Zeitraums kann man effektiv die beste Kombination an Content-Elementen oder das beste Werbemittel je nach Zielausrichtung ermitteln. Beim Steuern aller Marketing-Maßnahmen muss man die verschiedenen Informationen wieder zusammenführen. Eine mitunter nicht einfache Aufgabe, denn zum einen gilt es herausfinden, welche Werbepartner und -kanäle erfolgreich waren, zum anderen aber auch Werbemittel, die zwar nicht direkt zur Konversion führten, aber an der Kontaktstrecke mit
26
2.4 Effektiveres Marketing durch Web Analytics dem Konsumenten beteiligt waren. Auf diese Weise erkennt man ein Muster, wie sich Werbemittel und Kampagnen erfolgreich miteinander kombinieren lassen. Im Online-Marketing, vorausgesetzt, jede Online-Kampagne ist getrackt, lassen sich die Kampagnen und Werbemittel nahezu beliebig analysieren – beispielsweise Konversion einer Kampagne nach Referrer, Werbemittel (Keyword, Banner oder Advertorial) oder Tageszeit. Hierdurch ergeben sich im Vergleich zum Offline-Marketing viel genauere Segmentierungen und dadurch bessere Ansprachemöglichkeiten. Zusätzliche Behavior-Analysen lassen Rückschlüsse auf den möglichen Bedarf zu. Die Wechselwirkungen der verschiedenen Marketinggattungen und Werbekampagnen lassen sich aber nur ermitteln, wenn diese auch gemeinsam geplant werden. Mitunter sehen wir in ein und demselben Unternehmen Abteilungen, die ihre Kampagnen und Maßnahmen nicht untereinander absprechen. Der SEM-Spezialist bucht fleißig Keywords, die leider auf der Website nicht mehr zu finden sind, weil die Redakteure auf Empfehlung des SEO-Spezialisten unter Umständen den Content neu geschrieben und die vormaligen Keywords durch andere Begriffe ersetzt haben. Der Vertrieb ist mit alten Präsentationen bei Unternehmen unterwegs, die sich mit den Aussagen auf der Website nicht mehr decken. Allein bei den Online-Marketing-Maßnahmen gehen viele Informationen verloren, weil die Agentur nicht richtig gebrieft wurde und eine Kampagne freigeschaltet hat, ohne den Tracking Code einzubauen. Hier können nur übergreifende Kampagnenmanagement-Tools weiterhelfen, die einerseits feste Prozesse und Workflows berücksichtigen und die Kommunikation zwischen den beteiligten Parteien sicherstellen. Bislang haben wir nur die Werbemaßnahmen betrachtet. Aber auch die Web-Formulare bieten ein riesiges Potenzial: ellenlange, komplizierte und somit nervige Bestell- und Anmeldeformulare – wer regelmäßig online ist, kennt sie zur Genüge. Beispiel: Welche schlimmen Folgen diese haben können, beschreibt das Beratungsunternehmen Goldmedia 2010 in einer Analyse: Demnach wird jeder siebte Bestellvorgang wegen mangelhafter Formulare abgebrochen. Rund 50 Millionen Bestellvorgänge sind wegen mangelhafter Formulare gefährdet. Drei Milliarden gehen der E-Commerce-Branche durch schlechte Bestellformulare durch die Lappen, rechnet Goldmedia vor. Online-Händler investieren verhältnismäßig wenig in die Usability ihrer Shops, kritisiert Goldmedia. Dies deckt sich weitgehend mit unserer Erfahrung: Häufig stecken Online-Händler enorme Summen in die Werbung – doch bei der Analyse, wie eine optimale Bestelldramaturgie aussehen könnte, fangen sie an zu sparen. Oder sie wollen zu viel auf einmal wissen: Häufig werden Formulare aus der Innensicht eines Unternehmens erstellt. In solchen Fällen werden Daten abgefragt, die für den aktuellen Prozess nicht unbedingt notwendig sind. Unser Lieblingsbeispiel sind die Formulare für Lebensversicherungen – am liebsten würden Anbieter das Sterbedatum abfragen, um das Risiko besser kalkulieren zu können.
27
2 Web Analytics in Marketing und Vertrieb Was sollte ein Website-Betreiber denn tun, um seine Formulare einfacher und somit erfolgreicher zu gestalten? Wichtig seien „eine intuitive und unkomplizierte Anwendung“ sowie ein „transparenter und glaubwürdiger Abfrageprozess“, so Goldmann.
Schöne Worte. Aber wer legt fest, was „intuitiv“ und was „unkompliziert“ ist? Um das herauszufinden, ist Web Analytics und Multivariates Testen (MVT) unerlässlich. Mit diesen Tools kann erforscht werden, welche Passagen des Formulars die Kaufwilligen problemlos verstehen und an welchen Stellen sie hängen bleiben. Einige Tools optimieren solche Prozesse auch „selbstständig“ nach vorgegebenen Regelwerken. Klassische Ergänzungen oder Alternativen können „Usability Checks“ oder „Usability Labs“ sein. MVT-Tests können helfen, die „Kundenperspektive“ auf die Prozesse und Formulare einzunehmen und zu verstehen, genauso wie durch das Hinzuziehen externer Usability-Experten. Vor allem aber erhöhen sie oft deutlich die Konversion. Das Steuern von Marketingmaßnahmen setzt eine möglichst lückenlose Erfassung und Messung der Maßnahmen voraus. Hierzu müssen die Erfolgskennzahlen identifiziert und definiert werden. Die Überwachung der laufenden Kampagnen muss gewährleistet sein. Maßnahmen bei Abweichungen zu den Planwerten sollten definiert werden.
Budgetieren Der Marketingmix macht´s aus! Doch worin besteht er idealerweise? Das muss sicherlich jedes Unternehmen durch Marketing-Controlling selbst herausfinden. Unter anderem hängt es von der Zielausrichtung des jeweiligen Unternehmens ab. Web Analytics hat die Zielsetzung, die Kosten und Nutzen der Website und Werbemaßnahmen zu ermitteln sowie die Effektivität zu verbessern. Der Kalkül scheint aufzugehen – je mehr die Werbetreibenden mithilfe der Web Analytics lernen, umso mehr investieren sie in das Online-Marketing. Der OVK (Online Vermarkter Kreis im BVDW e.V.) berichtet in einer Pressemeldung vom Februar 2010: „Der Online-Werbemarkt wächst 2009 um 12% auf über vier Milliarden Euro in Deutschland. Die Prognosen für 2010 stehen weiter auf Wachstum. Mit einem Werbemarktanteil von 16,5 Prozent überholt das Internet erstmals die Publikumszeitschriften mit einem deutlichen Abstand und ist nunmehr drittstärkstes Werbemedium in Deutschland – hinter den klassischen Gattungen TV und Zeitung.“ Die Web Analytics erlaubt eine effektive Betrachtung der Online-Marketing-Maßnahmen. Der Erfolg im Online-Marketing und die guten Möglichkeiten der Aussteuerung erhöhen Jahr für Jahr die Ad Spend (Werbeausgaben) bei vielen Unternehmen – zum Teil zu Lasten der klassischen Marketingkanäle, die diese Steuerung nicht ermöglichen. Im Übrigen ist das sicherlich ein gewichtiger Grund, warum Google und Yahoo ihre Web-AnalyticsTools lizenzkostenfrei anbieten. Sie ermöglichen ihren Kunden messbare und nachweis-
28
2.4 Effektiveres Marketing durch Web Analytics bare Erfolgserlebnisse bei den Ad Words über die Web Analytics. Die Folge: Es wird mehr in Keyword-Kampagnen investiert, weil die Erfolge nachweisbar sind. Doch wie ist es in Deutschland um das Marketing-Controlling bestellt? Die Agenturen und Unternehmen scheinen individuelle Lösungen gefunden zu haben: Das am häufigsten eingesetzte Reporting-Tool ist Microsoft Excel. Nur wenige Unternehmen setzen Datenbankund Workflow-orientierte Kampagnenmanagement-Tools ein. Doch nur eine komplette, lückenlose Erfassung aller Maßnahmen bietet eine Option zur Optimierung der Budgets. Letztendlich gilt es, Werbepartner, Kanäle, Werbemittel für Offline- und Online-Marketing je nach Zielrichtung abzustimmen. Neben der reinen Performance-Betrachtung der Maßnahmen, also nach CPL oder CPO, gilt es weitere Qualitätsmaßstäbe anzusetzen. Gerade im B-to-B-Umfeld ist die Lead-Generierung Thema Nummer eins. Aber Lead ist nicht gleich Lead. Es gilt also zu untersuchen, welche Leads effektiv in Kunden umgewandelt werden konnten. Sind sie einem bestimmten Marketingkanal oder einer bestimmten Maßnahme zu verdanken? Wenn ja, dann gibt es wertvolle Werbepartner und -kanäle und weniger wertvolle. Der Einsatz der Webanalyse allein macht das Marketing nicht effektiver! Es bedarf intelligenter Marketiers, die die richtigen Fragen stellen und anhand der Webstatistiken die relevanten Antworten erhalten. Zudem bedarf es kreativer Köpfe, die neue Wege beschreiten. Die Webanalyse mit ihren Statistiken kann dazu Thesen stützen oder verwerfen. Weiterführende übergreifende Kampagnenmanagement-Tools, die eine ganzheitliche Betrachtung aller Maßnahmen erlauben, sind wünschenswert und leider noch zu wenig in den Unternehmen vorzufinden. Entsprechende Excel-Listen sind ein erster Schritt, aber sie bergen viele Möglichkeiten der lückenhaften Erfassung.
29
2 Web Analytics in Marketing und Vertrieb
30
3 3 Die Grundlagen der Web Analytics Das Internet hat sich im vergangenen Jahrzehnt rasant entwickelt, und die Web Analytics muss Schritt halten. In diesem Kapitel schildern wir die unterschiedlichen Ausprägungen des Webs – und was diese enorme Vielfalt für die Web Analytics bedeutet.
3.1
Entwicklung der Websites 3.1.1 Web 1.0 Der Start des World Wide Webs wird gerne als Web 1.0 beschrieben. Die Websites waren geprägt durch statische Sites, die vor allem das gedruckte Info- und Werbematerial eines Unternehmens digital wiedergegeben haben. Der einzige digitale Kommunikationskanal war die E-Mail. Die Webanalyse hat sich im Web 1.0 im Wesentlichen auf die Reichweitenmessung bezogen – Visits und PageImpressions.
3.1.2 Web 2.0 – das Mitmach-Web Das Web 1.0 steht noch für die „Einbahnstraßenkommunikation“ zum Websitebesucher, mit dem vor allem über E-Mail kommuniziert wird. Der Begriff „Web 2.0“ beschreibt hingegen das sich ändernde Verhalten der Nutzer, die nicht mehr nur statische oder aus Datenbanken dynamisch erzeugte Internetseiten ansehen (konsumieren), sondern lieber selbst zu den Themen beitragen wollen. Ein bekanntes Beispiel sind die „Wikis“ (wie Wikipedia), in denen alle Nutzer zur Sammlung des Wissens beitragen und so altbekannte Nachschlagewerke mit der Zeit überflüssig machen könnten. Besondere Bedeutung kommt hierbei den intelligenten Web-Applikationen zu, die auf neuen Technologien wie AJAX aufsetzen und völlig neue Bedienkonzepte im Web ermöglichen. Mit dem Aufkommen des Web 2.0 sieht sich die Webanalyse vor erste Hürden gestellt. Wenn AJAX-Module aktualisiert werden, aber die umliegende Website die gleiche bleibt, was ist dann eine PageImpression? Eine einheitliche Antwort gibt es auf diese Frage nicht.
31
3 Die Grundlagen der Web Analytics Die IVW hat vielleicht auch deshalb die Kennzahl PageImpression für die Reichweiten abgekündigt und vergleicht nun Visits.
3.1.3 Soziale Netzwerke Für das Web 3.0 gibt es diverse neuere Bezeichnungen wie „Semantic Web“ oder „Social Web“. Wir reservieren hier den Begriff Web 3.0 für soziale Netzwerke. Marktforscher prognostizieren deutlich steigende Marketingausgaben für „Social Media“. Ein Bestandteil des Social Web sind Empfehlungen für bestimmte Produkte oder Unternehmen – zum Beispiel durch Links. Da diese „Werbung“ auf sozialen Kontakten basiert, wird diese Form des Empfehlungsmarketings auch als „Social Marketing“ bezeichnet. In diversen Blogs tauchen erste Fragen auf, ob die sozialen Netzwerke künftig wichtiger seien als Suchmaschinen – weil die Vermittlung durch „Freunde“ wertvoller ist als ein guter Link in der Suchmaschine. Das Social Web stellt eine große Herausforderung für die Webanalyse dar. Es gilt nicht mehr nur die Aktivitäten im Web zu zählen, sondern auch die Inhalte zu monitoren. Zwar gibt es auch hier diverse Tools, die automatisch helfen, Blogs, Foren, Twitter und FAQBereiche nach Stichworten zu durchsuchen, doch zur Zeit sind diese Tools nicht in der Lage, die Texte zu interpretieren. Neben den typischen Aufgaben der Webanalyse kommen mit dem Web 3.0 weitere Aufgaben des Monitorings und der Interpretation von Aussagen im Web auf den Webanalysten hinzu. Brand Awareness kann nun direkt über das Web ermittelt werden.
3.2
Typisierung von Websites Eine wichtige Basis für die Implementierung eines Web-Analytics-Systems ist die Typisierung des Internet-Angebots. Diese richtet sich nach den primären Aufgaben der OnlineAktivitäten. Für Unternehmen und Organisationen sind im Wesentlichen drei Typen relevant: E-Marketing E-Business E-Commerce Diese unterscheiden sich aus Sicht des Unternehmens in der Wertschöpfung und aus Sicht der Websites-Benutzer in der Interaktion mit dem Unternehmen.
3.2.1 E-Marketing Die Gruppe der Websites, die nur zur Darstellung eines Unternehmens und seiner Produkte dienen, stellen die erste und ursprüngliche Form der Internetangebote dar. Hier wird das Medium Internet lediglich wie eine elektronische Anzeige oder ein elektronischer Katalog
32
3.2 Typisierung von Websites im Sinne einer „Einbahnstraßenkommunikation“ verwendet. Die interaktiven Möglichkeiten bleiben nahezu ungenutzt. Wenn auch heute noch zahlreiche Websites diesem Zweck dienen, ist die Tendenz doch fallend: Nach und nach werden alle Organisationen und Unternehmen die Chancen zur Optimierung der Geschäftsprozesse mit Hilfe des Internets erkennen und entsprechende Maßnahmen einleiten. Der Einsatz eines Web-Analytics-Systems ist in diesen Fällen oft nicht sinnvoll, da weder eine Zieldefinition mit der Verknüpfung zur Unternehmensausrichtung noch eine Optimierung der Online-Aktivitäten vorgesehen sind. Die Erfassung weniger Basisgrößen wie Anzahl der Besucher oder die regionale Herkunft kann zwar mit einfachen technischen Mitteln realisiert werden, doch wird das Internet-Angebot dadurch nicht zu einem bewertbaren Marketinginstrument. Das Interesse an Web Analytics sowie an einem kontinuierlichen Verbesserungsprozess für die Internet-Inhalte kann aber der Startpunkt für die vollständige Neuausrichtung der Online-Strategie sein, die auf Basis einer geeigneten Zieldefinition den Beitrag zum Geschäftserfolg messbar macht und so eine Entwicklung in Richtung E-Business oder ECommerce einleitet.
3.2.2 E-Business Die zweite Stufe in der Entwicklung professioneller Websites ist die zunehmende Interaktion mit den Besuchern und Kunden. Neben den Informationen über Anbieter und Produkte bieten die Unternehmen den Besuchern die Möglichkeit, Kontakt mit dem Unternehmen aufzunehmen. Aus dem allgemeinen Marketing ist dieser Ansatz als Dialogmarketing (auch One-to-One-Marketing) bekannt. Die aktuellen Trends in Online-Marketing setzen ebenfalls mehr auf eine aktive Einbindung der Nutzer: Das Internet stellt in diesem Fall einen Marketingkanal, doch noch keinen Vertriebskanal dar. Das Unternehmen möchte den Kontakt mit dem Kunden auf Basis elektronischer Hilfsmittel anregen oder verbessern. Dazu werden zum Beispiel Newsletter oder zusätzliche Informationen für registrierte Mitglieder angeboten. Aber auch Kontaktformulare, Call Back Buttons oder Online-Umfragen regen die Besucher an, Kontakt mit dem Anbieter aufzunehmen. Auch wenn die Unternehmen der E-Business-Gruppe keinen Umsatz direkt über das Internet erzielen, werden zunehmend Online-Werbekampagnen zum Beispiel über Google AdWords oder ähnliche Systeme verwendet, um neue Interessenten auf die eigenen Websites zu bringen. In den letzten Jahren ist deutlich die Erkenntnis gewachsen, dass potenzielle Kunden sich zumeist erst im Internet über Produkte, Lösungen und Unternehmen erkundigen, bevor sie Kontakt aufnehmen oder über entsprechende Zwischenhändler den Kauf tätigen. In diesem Fall sind die Mittel zur Kampagnenverwaltung und Werbemittelverwaltung genauso zu bewerten wie im Bereich E-Commerce.
33
3 Die Grundlagen der Web Analytics E-Business unter Non-Profit-Aspekten Eine spezielle Form von E-Business-Websites sind Corporate Sites, Intranets und Websites öffentlicher Einrichtungen. Die Besucher dieser Websites sind zwar keine Kunden im klassischen Sinn, haben aber ein Interesse an den Aktivitäten und Informationen der besuchten Organisation. Die Organisation selbst hat in der Regel ein starkes Interesse daran, dass die bereitgestellten Informationen gut gefunden werden und so eine hohe Service-Freundlichkeit erreicht wird. Zusätzlich entlasten alle direkt über das Internet abgewickelten Vorgänge das Personal, das ansonsten die Anfragen per Telefon oder Post bearbeiten muss. Die Untersuchung der Zugriffszahlen oder der Besucherbewegungen auf der Webseite geben deutlichen Aufschluss über die Optimierungspotenziale. Die Zielsetzung lässt sich in die folgenden Punkte fassen: besserer Service geringere Kosten gesteigerte Effizienz Kennzahlen für E- Business-Websites Die Ziele dieser – häufig mit der Unternehmensausrichtung abgestimmten – Websites liegen üblicherweise im Bereich der „weichen Faktoren“ und beziehen sich auf Kundenbindung oder Kundenzufriedenheit. Der Erfolg der Internet-Angebote kann dabei zum Beispiel an der Konversion der Website-Besucher abgelesen werden: Welcher Anteil der neuen Besucher meldet sich für einen Newsletter an oder registriert sich für ein Forum? Zur Beurteilung der Website-Effizienz werden hier Kennzahlen benötigt, die über die reinen Basiskennzahlen hinausgehen und die Bewegung der Besucher dokumentieren.
3.2.3 E-Commerce Die größte Bedeutung hat Web Analytics derzeit für Unternehmen, die einen großen Teil oder alle Umsätze direkt über das Internet generieren. Der Zusammenhang zwischen den Geschäftserfolgen und der Effizienz der Internet-Seiten muss dabei nicht explizit hergestellt werden, er liegt schon durch das Geschäftsmodell auf der Hand. Die wichtigste Aufgabe besteht für die E-Commerce-Betreiber darin, ein ausgefeiltes System von Kennzahlen zu entwickeln, mit dem die vielschichtigen und komplexen Aspekte der Erfolgssteuerung dargestellt und gemessen werden können. Das besondere Merkmal der E-Commerce-Websites ist die Möglichkeit für den Besucher, mit einer selbst gesteuerten Transaktion einen Erlös für das Unternehmen zu generieren. Neben den reinen Produktkäufen können Kunden auf diesen Websites zum Beispiel auch Dienstleistungen buchen wie Flüge, Reisen, Seminare, Konzerte etc. Ob die Rechnung dabei ebenfalls automatisch über das Internet zugestellt wird oder ob dieser Vorgang evtl. von einem angegliederten ERP-System übernommen wird, hängt nur von der Integrations-
34
3.2 Typisierung von Websites tiefe der Geschäftsprozesse ab, ist aber für die Bewertung als E-Commerce-Lösung unerheblich. Als besonders interessanter Aspekt im Hinblick auf Web Analytics besteht bei den ECommerce-Websites durch die abschließende Transaktion (Kauf) nahezu immer die Möglichkeit, die bis dahin gesammelten Informationen über das Verhalten der Besucher mit einer ganzen Reihe weiterer Angaben zu verknüpfen, die beim Ausfüllen des Kauf-Formulars eingetragen werden müssen. Diese kaufrelevanten Informationen reichen vom Namen inklusive Adresse über das Geschlecht, die Bankverbindung oder Kreditkartennummer bis zur Frage der geschäftlichen oder privaten Nutzung. Diese ausführliche „Beschreibung“ des Besuchers machen die E-Commerce-Websites zu einem besonders interessanten Umfeld für Web Analytics. Um die ständig wachsende Anzahl von E-Commerce-Websites genauer zu segmentieren, können drei Untergruppen unterschieden werden: Shops Subscription- oder Premium-Service-Anbieter Publisher Die Untergruppen werden im Folgenden näher beschrieben. Im weiteren Verlauf bezeichnen wir die Betreiber von E-Commerce-Websites allgemein als „Händler“. Shops Ein Online-Shop zeichnet sich dadurch aus, dass auf die Transaktion des Besuchers zum Kauf eines Produktes später ein Eigentumsübergang stattfindet. Der Anbieter liefert also den bestellten Artikel, der nach Lieferung und Zahlung des vereinbarten Kaufpreises dem Kunden gehört. Zu den Shops gehören Buchungssysteme für verschiedene Dienstleistungen, zum Beispiel für Flug- oder Bahntickets, Hotelreservierungen oder Kinokarten. Der beschriebene Eigentumsübergang findet hier in der Nutzung der angebotenen Dienstleistung zu einem späteren Zeitpunkt statt. Subscription-Anbieter Ein Anbieter von Subscription-Modellen gewährt seinen Kunden gegen die Zahlung einer Gebühr zeitlich begrenzt den Zugang zu bestimmten Diensten. Das kann die kostenpflichtige Nutzung bestimmter Inhalte sein, wie sie in verschiedenen branchen- oder fachspezifischen Portalen als „Premium-Mitgliedschaft“ angeboten werden. Ein anderes Beispiel wird in Zukunft die Nutzung von Musik- oder Videostreams sein, bei denen sich der Kunde aus riesigen Datenbanken die gewünschten Inhalte „On Demand“ nach Hause holt. In diesen Fällen erwirbt der Kunde üblicherweise kein Eigentum an den Diensten oder Informationen. So kann er die Videos ansehen, sie aber nicht speichern. Vor allem darf er sie nicht weiterverkaufen, was bei einem Eigentumsübergang möglich wäre.
35
3 Die Grundlagen der Web Analytics Publisher Die dritte Gruppe der E-Commerce-Websites wird von Publishern betrieben. Diese bieten selbst keine Produkte, Dienstleistungen oder Subscription-Modelle zum Kauf an, betreiben jedoch Websites mit stets attraktiven, aktuellen Inhalten, die für eine große Zahl von Internet-Benutzern interessant sind. Verlage nutzen zum Beispiel häufig die Inhalte Ihrer Publikationen parallel für eine kostenfreie Veröffentlichung im Internet. Andere Websites konzentrieren sich auf bestimmte Themen und bieten neben eigenen Informationen auch Foren, in denen sich Websurfer austauschen (www.administrator.de). Besonders aktiv sind Websites zum Preisvergleich (www.idealo.de, www.preissuchmaschine.de) oder für Produktbewertungen (www.ciao.de). Die hohe Zahl an Besuchern, die zudem noch eine starke Zugehörigkeit zu bestimmten Themen auszeichnet, sind ideale Zielgruppen für werbetreibende Unternehmen, die gerne Anzeigen in diesem Umfeld platzieren. Während zu Beginn des Online-Advertising noch statische Websites, die attraktive Inhalte bereitstellten, die Regel waren, haben zahlreiche Anbieter daraus ein funktionierendes Geschäftsmodell entwickelt und produzieren gezielt Websites mit Inhalten, die für selektierte Zielgruppen interessant sind. Die Informationsvermittlung ist hier also nicht der Hauptzweck, sondern dient nur als Mittel zur Steigerung des Traffics. Bei einigen Website-Betreibern wie den Preissuchportalen bildet das Vermitteln von Besuchern auf einen Online-Shop den Kern des Geschäftsmodells. Die Vermittlung wird mit einer Provision vergütet, die nach unterschiedlichen Modellen berechnet wird. Je größer und qualitativ besser der Besucherstrom, desto höher sind die zu erwartenden Werbeeinnahmen auf einer solchen Website. Die Publisher als Betreiber dieser Angebote haben also ein starkes Interesse daran, mit Hilfe von Web Analytics detaillierte Informationen über die aktuelle Performance ihrer Websites und die Optimierungspotenziale zu erhalten. 3.2.3.1 Kennzahlen für E-Commerce-Websites Für die Erfolgsmessung von E-Commerce-Websites sind in erster Linie Kennzahlen, die Auskunft über die von den Besuchern getätigten Umsätze geben, geeignet. Etwas genauer betrachtet, können die Berichte unter folgenden Aspekten beleuchtet werden. Bezug zum Kunden: Welchen Umsatz hat der Kunde bisher eingebracht? Bezug zur eigenen Website Bezug zu Partner-Websites, auf denen für die eigenen Produkte geworben wird Die für eine solche Website relevanten Kennzahlenblöcke sind diejenigen, die direkte Aussagen über Kundenwert, Umsatzprognosen und Kampagneneffizienz liefern. Weitere wichtige Informationen über die Usability einer Website können aus den Kennzahlen Slipperiness, Stickiness und Velocity (Kapitel 6.8.1 und 6.8.2) gezogen werden. Weitere wichtige Kennzahlengruppen und Einzelstatistiken sollten sich mit der detaillierten Warenkorbanalyse befassen, weil diese direkte Rückschlüsse auf das Kaufverhalten und die Akzeptanz der Site sowie auf die Effizienz von Promotions zulässt.
36
3.2 Typisierung von Websites Für diese Sites kann es von Bedeutung sein, sich intensiv mit den Bereichen der Kampagnen- und Werbemittelverwaltung zu beschäftigen. Hier können wesentliche Vereinfachungen in den Prozessen der Pflege und Betreuung der Werbekampagnen erreicht werden. Mit der Weiterentwicklung des Webs, vom monologen Web 1.0 zum interaktiven Web 3.0, muss natürlich die Web Analytics mithalten. Die Anforderungen an sie wachsen stetig, insbesondere an die Segmentierung von Web-Besuchern sowie die Bildung von Korrelationen. Zusätzliche Aufgaben wie das Monitoring von Twitter, Blogs und Foren stellen weitere Herausforderungen dar, bis hin zur Einbindung externer demografischer, psychografischer und von Behavioral-Daten.
3.2.4 Besondere Formen von Internet-Angeboten Neben den oben vorgestellten drei Grundtypen von Internetangeboten gibt es natürlich zahlreiche Mischformen, die das jeweilige Geschäftsmodell abbilden, darüber hinaus Formen von Internet-Angeboten, die einer gesonderten Betrachtung bedürfen: Affiliate-Marketing Affiliate-Marketing ist ein Oberbegriff für verschiedene Formen der Zusammenarbeit zwischen einem Unternehmen, das Produkte oder Dienstleistungen anbietet (hier bezeichnet als Händler oder Vermarkter) und einem anderen Unternehmen, das auf den eigenen Websites Werbung für den Händler und dessen Produkte/Dienstleistungen macht (hier als Partner oder „Affiliate“ bezeichnet). Die Details der Zusammenarbeit zwischen Händler und Partner (Provisionierung, Auswahl der zu bewerbenden Produkte, technische Aspekte etc.) werden in einem Partnerprogramm beschrieben. Zwei grundsätzliche Formen des Affiliate-Marketings unterscheiden sich in der Vertragsgestaltung: Der Händler baut selbst ein Partnerprogramm auf, schließt mit dem Partner direkt einen Vertrag ab und sorgt selbst für die technische und vertragliche Abwicklung. Alternativ kann sich der Händler von Affiliate-Netzwerken unterstützen lassen, die dann als Vermittler zwischen Händler und Partner auftreten. Ein Affiliate-Netzwerk (www.affili.net, www.zanox.de) verbindet Händler, die Produkte und Dienstleistungen direkt auf der eigenen Website anbieten und den Umsatz durch Werbung auf fremden Websites steigern möchten, mit Partnern, die durch die Einblendung themenverwandter Anzeigen auf der eigenen Website Geld verdienen möchten. Zudem stellt der Dienstleister die technische Infrastruktur bereit und kümmert sich um die Abrechnung zwischen den Beteiligten. Durch den Einsatz von Affiliate-Marketing ergeben sich wichtige Aspekte für die Planung eines Web-Analytics-Systems und die dafür eingesetzten Tools: Die Performance des Affiliate-Marketings kann unter anderem mit Kennzahlen wie Anzahl der Website-Besucher oder Konversionsraten gemessen werden. Die Analyse bezieht diese Werte dann zum Beispiel auf das genutzte Affiliate-Netzwerk, das genutzte
37
3 Die Grundlagen der Web Analytics Partnerprogramm, den beteiligten Partner oder das geschaltete Werbemittel. Diese abgeleiteten Kennzahlen wie „Besucher pro Partner“, „Leads pro Affiliate-Netzwerk“ oder „Bestellungen pro Banner-Typ“ geben wichtige Hinweise für die weitere Entwicklung des Affiliate-Marketings und sollten daher vom Web-Analytics-System bereitgestellt werden. Neben der Performance-Bewertung spielt auch die finanzielle Bewertung des AffiliateMarketings eine große Rolle. Auch der wirtschaftliche Erfolg der Partnerwerbung kann auf Affiliate-Netzwerk, Partnerprogramm, Partner oder Werbemittel bezogen werden. Mit einer zusätzlichen zeitlichen Komponente lassen sich sehr schnell Trends in der fiskalischen Bedeutung, zum Beispiel eines Partnerprogramms, feststellen. Da die kaufmännische Abwicklung der Unternehmen üblicherweise in Warenwirtschaftssystemen oder ERP-Lösungen (Enterprise Ressource Planning) abgebildet wird, muss das WebAnalytics-Tool eine Schnittstelle anbieten, die eine Integration der Informationen aus der Web-Analyse mit den wirtschaftlichen Daten ermöglicht. Die Verbindung der Performance- und der Finanzbewertung ist eine solide Basis für die weitere Optimierung des Partnermarketings: Affiliate-Netzwerke, Programme und Partner können auf die wirklich erfolgreichen Werbekanäle reduziert, die einzelnen Werbemittel auf den maximalen wirtschaftlichen Erfolg hin verbessert werden. Um diesen Ansprüchen gerecht zu werden, müssen die eingesetzten Web-Analytics-Tools folgende Voraussetzungen erfüllen: Das Tracking-System muss auf dem Einsatz von Cookies basieren, da sonst keine PostView- oder Post-Click-Transaktionen erfasst und in die Analyse einbezogen werden können (siehe auch Kapitel 4.2.3). Zudem muss das Tracking-System die Möglichkeit bieten, frei definierbare Tracking Codes einzusetzen, da sich nur so Systemkennzeichnungen von Fremdsystemen übernehmen lassen (zum Beispiel die Bezeichnung des Affiliate-Netzwerks oder deren interne Partnernummer). „White Labelling“ Während beim Affiliate-Marketing der werbetreibende Partner Banner im Umfeld einer interessanten Website schaltet und so den Besucherstrom für seine Werbebotschaften nutzt, geht das „White Labelling“ einen Schritt weiter. Hierbei wird der reine Inhalt einer attraktiven Website (oder Teile davon) ohne die Layoutumgebung des ursprünglichen Produzenten (White Label) direkt in die Website des „Labellers“ eingeblendet. Jede Änderung auf der Original-Webseite des Produzenten wird automatisch auch auf der Seite des Labellers angezeigt. Der Labeller nutzt diese Inhalte, um seine eigene Website attraktiver zu machen und seine eigenen Werbeeinnahmen zu steigern, ohne selbst für die Produktion sorgen zu müssen. Aus der Perspektive von Web Analytics sind bei White Labelling zwei Gruppen zu unterscheiden: Sowohl der Produzent der Inhalte als auch der nutzende Labeller möchten wissen, welchen Erfolg der Einsatz der „gespiegelten“ Inhalte für ihr Unternehmen hat. Da
38
3.3 Erfassen der Wirkung von Social Media beide Seiten üblicherweise unterschiedliche Geschäftsmodelle verfolgen, gilt es also die verwendeten Kennzahlen zur Messung des Erfolgs jeweils separat zu definieren. Die entsprechenden Tracking Codes zur Messung für den Labeller müssen hier – neben den eigenen Tracking Codes – in die White Label Site des Produzenten eingebaut werden, was nicht immer erwünscht ist. Das bedeutet in der Praxis, dass sowohl die Zielseite des Labellers als auch der syndizierte Content jeweils getrennt mit entsprechenden HTML-Elementen für das Tracking versehen werden. Hierbei ist darauf zu achten, dass diese Einbindung von zwei Tracking-Systemen rückwirkungsfrei und unabhängig voneinander erfolgen kann.
3.3
Erfassen der Wirkung von Social Media Social Media, das „Mitmach-Internet“, ist einer der sich am schnellsten entwickelnden Online-Bereiche. Rund um die ersten Anwendungen Xing, LinkedIn, Youtube und Facebook entstanden in schneller Folge viele verschiedene neue Plattformen und Medien, denen eines gemeinsam ist: Anwender kommunizieren dort mit anderen. Es geht also nicht mehr um die einseitige Kommunikation – wenige zu vielen („few to many“) –, wie man sie von klassischer Werbung her kennt. Es geht um Kommunikation Einzelner zu anderen einzelnen Personen, die miteinander in Beziehungen stehen („many to many“). Die Möglichkeit, diese Kommunikation sei es für Marketingzwecke, sei es für die Umsetzung direkter Geschäftsmodelle, zu nutzen, ist vielfach erst im zweiten Schritt entstanden. So sucht Twitter immer noch nach einem tragfähigen Geschäftsmodell, obwohl inzwischen fast jeder Protagonist im Online-Business über einen Twitter-Account verfügt. Wie wichtig das Ausnutzen dieser Kanäle gerade für das Marketing ist, wird deutlich, wenn man sich einige demoskopische Daten zu Social Media anschaut. Überraschenderweise sind mehr als die Hälfte der Nutzer von Twitter & Co. über 35 Jahre alt (Abbildung 3.1). Untersucht wurden insgesamt 19 Social Media Websites, darunter Facebook, MySpace, Twitter, Friendfeed und LinkedIn. Herauszustellen ist, dass 60% der Twitter-Anwender älter als 35 Jahre sind und das Durchschnittsalter 39,1 Jahre beträgt. Weit überraschender noch als das Alter ist die Verteilung der Geschlechter (Abbildung 3.2). Man könnte bei einigen Plattformen fast von einem Matriarchat sprechen, so sehr überwiegen die weiblichen Benutzer. Der Studie zufolge sind fast 60% der Twitter-Nutzer weiblich. Aus diesen Untersuchungen wird deutlich, dass die beliebte Zielgruppe „35, berufstätig, alleinstehend, modern, hohes Einkommen“ über den Kanal Social Media gut erreichbar sein müsste. Im Vergleich zu Display- und SEO/SEM-Werbung findet der Marketier hier sein Schlaraffenland: zielgruppengerichtete Ansprache bis auf Individuumsebene. So schön dies zunächst scheint, so technisch komplex ist jedoch das Erfassen der Wirkung von Marketingmaßnahmen in diesem Umfeld. Befasst sich klassische Web Analytics mit Ereignissen, die entweder auf Ihrer Website selbst stattfinden, oder Ereignissen, die Besucher zum Besuch Ihrer Website bewegt haben, so ist dies im Social Web anders: Überall –
39
3 Die Grundlagen der Web Analytics
Age distribution on social network sites United States, data sorted by average per site, youngest at the top
0 - 17
18 - 24
25 - 34
35 - 44
45 - 54
55 - 64
65+
Bebo MySpace Xanga Friendster Hi5 Tagged LiveJournal Last.fm Reddit Ning Facebook FriendFeed Digg StumbleUpon Twitter Slashdot Delicious LinkedIn Classmates.com 0%
10%
20%
30%
40%
50%
60%
70%
80%
90%
100%
Abbildung 3.1 Altersverteilung in Social-Media-Netzwerken (pingdom.com anhand Google Ad Planner, United States demographics data)
außer auf Ihrer eigenen Website – tauschen sich Nutzer über Marken und Produkte aus, die von anderen Menschen und nicht von Ihrer Marketing- oder Kommunikationsabteilung gesteuert werden. Die wichtigste Frage ist demzufolge, ob dieser „Buzz“, dieses „Summen“ um Ihr Unternehmen, seine Marken und Produkte, eher positiv oder eher negativ ist. Naheliegend, dass man als Nächstes wissen möchte, welche Auswirkungen dies auf das eigene Geschäft und das öffentliche Ansehen – die Reputation – hat. Überhaupt: Online-Reputation ist ein neues Schlagwort in diesem Zusammenhang. Unternehmen „kümmern“ sich aktiv um ihr öffentliches Ansehen in sozialen Netzwerken und versuchen, dieses Ansehen positiv zu beeinflussen. Da sich das soziale Netz aber allem Kommerziellen gegenüber sehr scheu verhält und zudem recht komplexe Regeln des digitalen Zusammenlebens (mit SubkulturCharakterzügen) entwickelt hat, fällt PR- und Kommunikationsabteilungen der Umgang mit diesen neuen Formen der digitalen Kommunikation recht schwer. Dass man nicht schadlos Meldungen Einzelner in diesen Netzen gerichtlich per einstweiliger Verfügung unterbinden kann, haben schon einige Unternehmen schmerzhaft erfahren müssen und sich
40
3.3 Erfassen der Wirkung von Social Media
Males vs. females on social network sites
Male
Female
Slashdot Reddit Digg Last.fm Delicious LinkedIn StumbleUpon FriendFeed Friendster LiveJournal Hi5 Facebook Imeem Twitter Ning Xanga Classmates.com MySpace Bebo 0%
10%
20%
30%
40%
50%
60%
70%
80%
90%
100%
Abbildung 3.2 Nutzung verschiedener Social-Media-Plattformen nach Geschlecht (pingdom.com anhand Google Ad Planner, United States demographics data)
dabei bis auf die Knochen blamiert. Die Blogs sind voll von Geschichten und Anekdoten, welche Fauxpas sich Unternehmen im Umgang mit der „Netzgemeinde“ geleistet haben. Umso wichtiger ist es für die Unternehmen, zu erfahren, was im sozialen Netz geschieht. Die Unternehmen stehen vor der Herausforderung, eine „Sensorik“ zu entwickeln, um erfassen zu können, was dort über sie verbreitet wird. Dieses Wissen ist Voraussetzung für eine Beeinflussung der Meinungsführer und eine Steuerung der Aktivitäten. Über die neu entstehenden Geschäftsmodelle im sozialen Netz finden sich für die Unternehmen neue Wege im Marketing, die angesprochenen Zielgruppen zu erreichen. Herausragend sei hier Facebook genannt, das mit der Möglichkeit der sogenannten FacebookApplikationen Unternehmen eine technische und somit kommunikative Plattform bietet. Facebook-Applikation gehen von reinen Videostreams über Spiele oder Gewinnspiele hin bis zu Anwendungen für virales Marketing. Allen gemeinsam ist, dass sie auf der in Facebook hinterlegten Benutzerdatenbasis aufsetzen und damit eine randscharf umrissene Zielgruppe erreichen können. Auch hier ist es wichtig, die Wirkung der Investition in diese Kanäle auf das eigene Geschäft zu erfassen und auszuwerten.
41
3 Die Grundlagen der Web Analytics Interessant ist auch die Verbindung von Mobile Web und Social Web. So verzeichnet die Blackberry-Applikation für Facebook alleine im Januar 2010 fast 14 Millionen aktive Benutzer (MAU – „Monthly Active Users“). Die Applikation „Mobile“ für Mobiltelefone kommt auf rund 18 Millionen MAUs. Hier wird deutlich, dass die zwei Welten Social Web und Mobile Web zusammenwachsen. Applikationen für Twitter auf mobilen Endgeräten wie PDAs oder Smartphones gibt es zuhauf, ebenso wie Twitter-Ergänzungen. Der neueste Schrei der Online-Community ist die Anwendung foursquare (www.foursquare.com), die im Gegensatz zu Twitter mit einem validen Geschäftsmodell aufwarten: kann: Über eine mobile Applikation können Anwender ihre Lieblingsorte an die Gemeinschaft melden und erhalten Punkte, wenn sie sich an einem der registrierten Orte „einchecken“. Dabei werden die interessanten Plätze („venues“) über die GSM-Position des Mobiltelefons herausgefiltert. Man hat so die Möglichkeit, interessante Plätze, Lokale, Clubs etc. in der Nähe zu finden, die von der Community bereits bewertet wurden. Anmeldungen bzw. Checkins werden dann wunschweise an Facebook oder Twitter weitergeleitet, um so einem größeren Publikum den Aufenthalt in der neuen „In-Location“ mitzuteilen. Die Basis für einfache „Location Based Services“ ist gegeben. Welcher Ladeninhaber möchte nicht mit einer guten Bewertung und entsprechenden Promotions im foursquare-Netzwerk auftauchen. Es entsteht auf diese Weise eine Verbindung von stationärer und realer Geschäftswelt, Mobile Web und Social Web über das Internet. Foursquare ist ein absolut faszinierendes Phänomen, und wir sind gespannt auf die Möglichkeiten, die sich aus der Verbindung von Online-Marketing und stationärem Geschäft ergeben. Dieser Ausflug ins Social und Mobile Web sollte die Schnelligkeit und Vielfalt verdeutlichen, mit der sich diese gerade im Entstehen befindliche „neue Welt“ entwickelt. Umso schwerer ist es für Unternehmen, nicht nur mit dieser Entwicklung Schritt zu halten, sondern darin einen Platz zu finden und sie mitzugestalten.
3.3.1 Social Media messbar machen Wie lassen sich die Auswirkungen von Social Media erfassen und die Wirkung des „Buzz“ oder der eigenen Kampagnen messbar machen? Dazu gibt es sehr unterschiedliche Ansätze – je nachdem, um welche Plattform es sich handelt und welche Art von Daten erhoben werden sollen. Insgesamt ist es jedoch sehr schwer, alle Aspekte des Social-MediaNetzwerks zu erfassen und in Bezug zu den Ereignissen auf der eigenen Website, des Shops oder des Portals zu bringen. Messung Generell kann man alle Maßnahmen, die man selbst initiiert, egal ob Twitter, Facebook, YouTube, über die üblichen Maßnahmen messen, die auch für Display-Werbung möglich sind. Diese Form der Messung wird prinzipiell von allen Tools unterstützt, auch wenn einige Hersteller versuchen, auf der „Social-Media-Welle“ mitzuschwimmen und spezielle Messmethodiken und Plugins für ihre Tools anbieten. Aus unserer Sicht darf dies aber
42
3.3 Erfassen der Wirkung von Social Media nicht überbewertet werden, denn alle anderen Formen sind technisch wesentlich anspruchsvoller und nicht mittels einiger Plugins realisierbar. Besonderes Augenmerk gilt dabei den sogenannten Link-Shortenern, wie tiny-URL (http:// tiny.cc), Owly (http://ow.ly) oder goo.gl (http://goo.gl). Diese sind nötig, um URLs zu komprimieren, damit sie in die knappen Twitter-Meldungen passen. http://www.meinlieblingsdienst.com/eine/schrecklich/lange/Seiten/Addresse/die/nicht/in/twitter/passt.html
wird so zum Beispiel zu http://ow.ly/19fhJ.
Die Dienste richten dynamisch einen Redirect-Service ein, der unter einer kurzen generierten Adresse – meist vier bis fünf Buchstaben oder Zahlen – die tatsächliche Zieladresse bereithält und Besucher entsprechend umleitet. Er kann sozusagen „im Vorbeigehen“ die Besucher, ihre Herkunft und noch einiges mehr erfassen und in Statistiken bereitstellen, was zum Beispiel Owly als Zusatzleistung anbietet, wenn man sich registriert. Nun gilt es aber, an die eigentliche Ziel-URL Parameter für das eigene Tracking mit einem WebAnalytics-Tool anzuhängen. Da meistens die URL-Shortener direkt in Applikationen wie Wordpress als die populärste Blog-Software integriert sind, kann man hier auf sinnvolle programmatische Erweiterungen nicht verzichten, um einerseits die Vorteile der Integration zu genießen und andererseits die eigenen URLs für die Web Analytics entsprechend zu instrumentieren. Monitoring Um Meldungen, die eigene Produkte oder die eigene Marke betreffen, in den sozialen Netzwerken mitzubekommen, müssen diese beobachtet werden. Der Begriff „Monitoring“ [Poynton, 2009] beschreibt sehr anschaulich die Gefahren, die bei einer Überwachung der sozialen Netzwerke lauern, und die daraus möglichen Fehlschlüsse, die zu falschen eigenen Verhaltensreaktionen auf die Netzwerke führen. Sie führt aus, wie Unternehmen bei der „Überwachung“ der sozialen Netze aus organisatorischen Gründen scheitern, und schlägt vor, sich nicht alleine auf Software-Tools zu verlassen, sondern sich auf bestimmte Plattformen zu konzentrieren – zum Beispiel Twitter und Facebook – für eine vernünftige Ressourcenplanung als Grundlage eines kontinuierlichen und zeitnahen Monitorings. Web Analytics misst die Aktivitäten. Mit Monitoring-Tools und einer manuellen Interpretation und Bewertung der Inhalte misst man neben der Quantität (zum Beispiel das Engagement der Web-Besucher) auch die Qualität; somit erkennt man mögliche Supporter, Gegner sowie Trends.
Die gesammelten Daten müssen nun im Hinblick auf textuelle Muster – zum Beispiel der eigene Markenname oder Wertungen – gefiltert und aufbereitet werden. Diese Aufgabe übernimmt eine Reihe von Spezialanbietern wie Radian6, Crimson Hexagon, Alterian/ Techrigy SM2, Brandwatch oder Buzzlogic, um nur einige zu nennen. Dabei kann ein Teil der Arbeit sicherlich auf technische Systeme wie Crawler und semantische Analysen der aufgenommenen Textströme verlagert werden. Allerdings bedarf es
43
3 Die Grundlagen der Web Analytics immer noch menschlicher Analyse, um zum Beispiel den Duktus und den Tenor einer Unterhaltung zwischen Protagonisten verschiedener Plattformen einerseits zu erkennen und andererseits zu bewerten. Es geht schlicht um die Frage: „Ist es gut für uns, oder ist es schlecht?“ Und weiter: „Wenn es gut ist, wie können wir es unterstützen, und wenn es schlecht ist, wie können wir es beeinflussen?“ Ein zentrales Problem dabei bleibt die zahlenmäßige Bewertung und die Aggregation mit den auf der eigenen Website gemessenen Daten. Ist es auf der eigenen Site schon schwierig genug, eindeutige Clients gesichert zu erkennen, so ist dies über die Vielzahl der Plattformen hinweg unmöglich und ausgeschlossen. Es wäre eher eine seltene Ausnahme, wenn ein Anwender auf Xing, Facebook, Twitter und YouTube über denselben Benutzernamen erkennbar wäre. Man muss sich also mit rein statistischen Aussagen begnügen und kann nur Trendverläufe geeigneter Metriken aus der eigenen Site und dem „Rest der Welt“ gegenüberstellen. Eine direkte Koppelung der in sozialen Netzwerken statistisch ermittelten Daten – die auf der eigenen Site gemessen wurden – ist derzeit nicht möglich. Zudem ist der direkte Personenbezug der Daten aus den Social-Media-Plattformen aus Datenschutzgründen bedenklich. Derzeit kann die Wirkung von Social Media auf das eigene Geschäft in seiner gesamten Breite nicht erfasst werden. Es können lediglich statistische Aussagen getroffen werden, die zum Teil auf durchaus subjektiven Analysen basieren. Alle direkten und selbst initiierten Aktivitäten, die von einem Markeninhaber oder Werbetreibenden selbst in den sozialen Netzwerken veranlasst werden, können aber wie andere Marketingkanäle auch direkt erfasst und zugeordnet werden.
3.4
Das mobile Internet In dem Maße, in dem sich das gute alte Telefon – endlich vom lästigen Kabel befreit – zu einem universellen Kommunikationsgerät entwickelt, wird es auch als Endgerät für zahlreiche Geschäftsmodelle interessant – von Shopping bis zu Location Based Services. Dabei wachsen Internet, Web 2.0 und Social Media auf den Geräten zusammen: einerseits durch webfähige Endgeräte und andererseits durch dezidierte Programme, die sogenannten Apps. Interessant ist zu beobachten, dass nicht die Handys den neuen Angeboten folgen, sondern umgekehrt. Ein schönes Beispiel liefern iPhone und iPad: Erst wird leistungsfähige Hardware und eine einfach zu bedienende Systemsoftware bereitgestellt, und danach sprießen die Applikationen aus dem Boden wie die Schwammerln im Herbst. Das Ökosystem Apps-Entwicklung ist erst durch das iPhone möglich geworden – nicht umgekehrt: „Wir haben hier eine Anwendung mit dem Namen ‚Koi Pond‘ und brauchen mal eben ein neues Endgerät dafür …“ funktioniert nicht. Aber das iPhone regt die Kreativität an und ermöglicht virtuelle Karpfenteiche. So ist es nicht verwunderlich, dass das Internet den faszinierenden Möglichkeiten der neuen Endgeräte hinterherläuft. Umso wichtiger ist es, den zunehmenden Anteil der Besucher in den eigenen Angeboten, die über diese Endgeräte zugreifen, zu erfassen und deren Verhaltensmuster messbar zu
44
3.4 Das mobile Internet machen. Dabei stellt die Vielfalt der Endgeräte, Betriebssysteme und Anwendungen, über die zugegriffen wird, die Web Analytics vor große technische Herausforderungen. Standards gibt es so gut wie keine, sieht man mal von den grundlegenden technischen Protokollen ab. Eine Typisierung oder Klassifizierung der Endgeräte ist fast müßig, da der Übergang vom einfachen Mobiltelefon bis zu Systemen wie dem iPad fast nahtlos und kontinuierlich ist. Sie würde de facto auch gar nicht helfen, denn eine der Herausforderungen besteht ja darin, die unterschiedlichen Systeme gleichzeitig und in gleichmäßig hoher Qualität zu erfassen und zu messen. Anbieter, die heute damit werben, dass ihre Web-Analytics-Anwendung auch mobile Endgeräte erfassen kann, haben entweder nicht verstanden, was die tatsächliche Herausforderung ist, oder laufen Gefahr, von den technischen Entwicklungen dieses Markts überrollt zu werden. Ein schönes Beispiel ist WAP und WML: Als die Standards für die mobile Kommunikation gepriesen, sollten sie zu Beginn des neuen Jahrtausends auf den noch recht kleinen und wenig leistungsfähigen Endgeräten so etwas wie „Multimedia-Feeling“ aufkommen lassen. Dieser „Standard“ existiert noch, aber angesichts von Smartphones und PDAs mit mehreren Gigabytes Hauptspeicher und leistungsfähigen Prozessoren, Betriebsystemen wie Android und Symbian ist es kaum ein Jahrzehnt später gar nicht mehr nötig, schmalbandige Angebote per WAP oder WML bereitzustellen: Die Geräte können „das echte“ Internet wunderbar wiedergeben. Den Rest erledigen Spezialanwendungen wie Skype oder Facebook für iPhone und Blackberry. Das Fazit für die Web Analytics ist wenig erfreulich: Machen Sie sich auf große technische Herausforderungen gefasst, wenn Sie umfassende Statistiken für mobile Anwender erfassen wollen, wie Sie es von Ihrer stationären Website gewohnt sind. Trotz hochtrabender Versprechungen der Hersteller ist es nach wie vor nicht einfach, zum Beispiel einen Shop für mobile Endgeräte, integriert in eine Facebook-Applikation, in dem gleichen Maße zu messen, wie man dies auf einer „normalen“ Website gewohnt ist. Tröstlich ist alleine die Aussage, dass es grundsätzlich und mit vertretbarem Aufwand möglich ist, wenn man diesen Hinweis beachtet: Selbst auf den simpelsten Mobiltelefonen mit kleinem Display kann man vernünftig Web Analytics betreiben, wenn dieses von Anfang an berücksichtigt und eingeplant wurde. Die Messung von Applikationen und Web-Angeboten auf mobilen Endgeräten passiert nicht automatisch und nebenher. Web Analytics muss von Anfang an in mobile Applikationen mit hineinentwickelt werden. Ein „späteres Hinzufügen“ ist, wie bei vielen herkömmlichen Websites üblich, nicht möglich. Web Analytics muss bei der Entwicklung mobiler Applikationen bereits eine Designvorgabe sein, sonst werden die Messergebnisse deutlich hinter den Qualitätsansprüchen zurückfallen, die man an die Messung normaler Webapplikationen stellt.
45
3 Die Grundlagen der Web Analytics
3.5
Datenschutz in der Web Analytics In den Medien wird derzeit gerne behauptet, in der Web Analytics soll es mit dem Datenschutz nicht zum Besten stehen. Im Wesentlichen geht es in der Debatte um IP-Adressen und deren Anwendung. „Die obersten Aufsichtsbehörden für den Datenschutz im nicht-öffentlichen Bereich weisen darauf hin, dass bei Erstellung von Nutzungsprofilen durch Web-Seitenbetreiber die Bestimmungen des Telemediengesetzes (TMG) zu beachten sind. Demnach dürfen Nutzungsprofile nur bei Verwendung von Pseudonymen erstellt werden. Die IPAdresse ist kein Pseudonym im Sinne des Telemediengesetzes. Im Einzelnen sind folgende Vorgaben aus dem TMG zu beachten: Den Betroffenen ist eine Möglichkeit zum Widerspruch gegen die Erstellung von Nutzungsprofilen einzuräumen. Derartige Widersprüche sind wirksam umzusetzen. Die pseudonymisierten Nutzungsdaten dürfen nicht mit Daten über den Träger des Pseudonyms zusammengeführt werden. Sie müssen gelöscht werden, wenn ihre Speicherung für die Erstellung der Nutzungsanalyse nicht mehr erforderlich ist oder der Nutzer dies verlangt. Auf die Erstellung von pseudonymen Nutzungsprofilen und die Möglichkeit zum Widerspruch müssen die Anbieter in deutlicher Form im Rahmen der Datenschutzerklärung auf ihrer Internetseite hinweisen. Personenbezogene Daten eines Nutzers dürfen ohne Einwilligung nur erhoben und verwendet werden, soweit dies erforderlich ist, um die Inanspruchnahme von Telemedien zu ermöglichen und abzurechnen. Jede darüber hinausgehende Nutzung bedarf der Einwilligung der Betroffenen. Die Analyse des Nutzungsverhaltens unter Verwendung vollständiger IP-Adressen (einschließlich einer Geolokalisierung) ist aufgrund der Personenbeziehbarkeit dieser Daten daher nur mit bewusster, eindeutiger Einwilligung zulässig. Liegt eine solche Einwilligung nicht vor, ist die IP-Adresse vor jeglicher Auswertung so zu kürzen, dass eine Personenbeziehbarkeit ausgeschlossen ist. Werden pseudonyme Nutzungsprofile durch einen Auftragnehmer erstellt, sind darüber hinaus die Vorgaben des Bundesdatenschutzgesetzes zur Auftragsdatenverarbeitung durch die Anbieter einzuhalten.“ (Auszug aus dem Beschluss des Düsseldorfer Kreises der Datenschutzbeauftragten vom November 2009)
Der Vorwurf lautet, sehr grob formuliert: Mit Hilfe von IP-Adressen könne man anonyme (und damit erlaubte) Daten, die aus der Web Analytics gewonnen werden, realen Personen zuordnen, was verboten ist. Die kurz gefasste Schlussfolgerung der Medien: Weil die Verknüpfung von IP-Adressen mit anderen Daten in der Web Analytics ein Leichtes ist, öffnet sie dem Rechtsbruch Tür und Tor.
46
3.5 Datenschutz in der Web Analytics Kein Wunder also, dass immer wieder Web-Analytics-Anwender nach einer solchen Lektüre besorgt bei uns, bei Agenturen und Rechtsanwälten um Rat fragen. Unser Tipp: Gelassen bleiben! Die Diskussion entbehrt aus unserer Sicht jeder sachlichen Grundlage, und zwar aus mehreren Gründen: 1. Es ist nicht Aufgabe des Tools, vor Missbrauch zu schützen! Immer wieder entsteht der Eindruck, dass es Tools wie Google Analytics sind, die den Datenschutz unterwandern. Andere Web-Analytics-Tool-Anbieter werben mit einem selbst entworfenen Bundesdatenschutzgesetz-Siegel beziehungsweise einem Datenschutz-Zertifikat. Diese Siegel sollen belegen, dass ihre Tools datenschutzkonform sind. Mit Verlaub: Was für ein Unsinn! Es ist nicht die Software, die den Datenschutz verletzen kann, sondern immer der Anwender! Ein Web-Analytics-Betreiber wollte sich 2009 von seinem Toolanbieter schriftlich bestätigen lassen, dass sein Produkt rechtskonform ist. Die Antwort kam prompt: Der Toolanbieter fühlte sich nicht zuständig und unterschrieb gar nichts. Zu Recht: Das wäre so, als würde ein Koch den Herdhersteller dafür verantwortlich machen, dass er keine giftige Suppe kocht. Stattdessen läuft die Sache umgekehrt: Große Toolanbieter wie Omniture und Coremetrics sichern sich vertraglich vor ihren Kunden ab. Diese müssen schriftlich bestätigen, dass sie im Umgang mit dem erworbenen Tool den Datenschutz einhalten werden. 2. Auch ohne IP-Adresse kann der Datenschutz verletzt werden! Durch geschickte Kombination von Daten mit zusätzlichen Informationen – etwa aus dem Warenwirtschaftssystem – können personalisierte Daten generiert werden, man muss nur filigran genug messen. Zum Missbrauch braucht es also keine IP-Adressen. 3. Google Analytics wird zu Unrecht an den Pranger gestellt. Vor allem das kostenlose Tool Google Analytics wird in den Medien angegriffen, weil es den Datenschutz nicht einhalten soll. Fakt aber ist: Google Analytics liefert keine IP-Adressen an seine Anwender aus. (Ob Google allerdings dennoch IP-Adressen sammelt und diese bloß nicht weiterleitet, ist eine interessante Frage – die Google leider nur selber beantworten kann.) 4. Die aktuelle Diskussion hätte bereits vor vielen Jahren geführt werden können. Es gibt derzeit keine neue oder veränderte Gesetzgebung, die eine erhitzte Diskussion wie die aktuelle rechtfertigen würde. Die Datenschutzrichtlinie der EU, nach der WebsiteBesucher über die Verwendung von Cookies informiert werden sollen, ist gerade erst in Planung, und es wird dauern, bis diese in Kraft tritt und in die deutsche Gesetzgebung einfließt. Was empfehlen wir derzeit unseren Kunden? – Was wir seit jeher empfehlen: Seid Euch Eurer Verantwortung bewusst! Holt zwei Rechtsexperten: einen Medienrechtler, einen für Datenschutz. Mit deren Rat sollen die WA-Projekte so aufgebaut und durchgeführt werden, dass das Generieren personenbezogener Daten nicht möglich ist. Website-Besuchern muss die Möglichkeit geboten werden, eine Verfolgung anhand von Cookies zu unterbinden. Ein guter Ort dafür sind leicht erreichbare Datenschutzbedingungen. Positives Beispiel: Weltbild.
47
3 Die Grundlagen der Web Analytics Personenbezogene Daten sind für effiziente Webanalysen nicht nötig. Es reichen Cluster, die anhand soziografischer Informationen wie Geschlecht und PLZ gebildet werden, um gute Analysen durchführen zu können. Ein Letztes: Bitte den gesunden Menschenverstand einschalten und die Originaltexte lesen – nicht nur Medienberichte. Als Lektüre empfehlen wir den Beschluss des Düsseldorfer Kreises [Düsseldorfer Kreis 2009]. Der Kreis ist ein Zusammenschluss der Datenschutz-Aufsichtsbehörden der Länder. Darin werden kompakt und lesbar essenzielle Grundlagen der Web Analytics zusammengefasst; zum Beispiel: Man darf Web-Analytics-Tools einsetzen, um anonymisierte Profile zu bilden. Man darf diese Profile aber nicht in einen Personenbezug bringen. Dies ist gestattet, wenn der Betroffene zustimmt – was etwa beim Online-Kauf über die AGBs geregelt ist. Fazit: Datenschutz in der Web Analytics ist ein wichtiges Thema. Es wäre deshalb an der Zeit, dass Verbände wie der BVDW, die BITKOM und auch der OVK sich einschalten, um den Medien, Anwälten und auch Toolherstellern fachlich darzulegen, dass ihre IPAdressen-Diskussion nicht den wesentlichen Kern trifft.
48
4 4 Technische Methoden des Site-Tracking Web Analytics lässt sich mit sehr unterschiedlichen technischen Verfahren durchführen. Letztlich ist die technische Methode nicht entscheidend für das Ergebnis einer umfassenden Webanalyse, sie hat aber Einfluss auf die mögliche Tiefe und die erzielte Präzision in den zugrunde liegenden Statistiken. Deshalb wollen wir auf die einzelnen technischen Verfahren eingehen und deren Vor- und Nachteile kurz beleuchten. Allen technischen Verfahren ist eines gemeinsam: sie sind niemals exakt oder präzise. Je nach Verfahren haben sich in der Praxis Messfehler in der Größenordnung bis zu 10% Abweichung nach oben oder unten als pragmatisch herausgestellt. Eine größere Genauigkeit ist aufgrund der Heterogenität des Messumfelds nicht erzielbar. Dies mag Techniker und IT-Spezialisten überraschen, doch muss man sich eine Reihe von Besonderheiten vor Augen führen, bevor man eine hundertprozentige Genauigkeit einfordert: In „klinischen“ Testumgebungen haben Sie Kontrolle über alle Einflussfaktoren der Messung: Client-PC bzw. PC des „Besuchers“, Browserkonfiguration, Netzwerkkonfiguration, zu messende Website etc. Ein solches Testszenario entspricht aber kaum der Realität. Im Feld haben Sie es mit Tausenden von PCs und Browsern zu tun, die von den unterschiedlichsten Menschen mehr oder weniger gut administriert und eingestellt worden sind. Dies gilt ebenso für Netzwerk- und DSL-Konfigurationen, Proxies und Provider-Einstellungen, mit denen der Besucher online geht. Auch der Anwender selbst hat durchaus Einfluss auf die Messung – wenn er den PC ausschaltet, während die Seite lädt. Diese disjunkten und außerhalb Ihrer Kontrolle liegenden Einflussfaktoren summieren sich und führen – je nach Messmethode – zu höheren oder niedrigeren Messfehlern. Der Effekt ist umso stärker, je mehr Besucher eine Website hat und je stärker die Zielgruppe Privatanwender unter den Besuchern vertreten ist. Ein weiterer Grund für Ungenauigkeiten in der Messung sind stillschweigende und unterschwellige Annahmen, wie sich Anwender verhalten werden. In einem Freundschaftsportal, in dem sich Anwender in einem Double-Opt-In-Verfahren registrieren können, stellten wir nach der Implementierung des Web-Analytics-Systems folgenden Effekt fest: Das
49
4 Technische Methoden des Site-Tracking Double-Opt-In ist ein Mechanismus, um sicherzustellen, dass ein Anwender sich auch willentlich registriert hat. Nach Abschluss der Registrierung bekommt der Anwender per EMail einen Freischaltungs-Link zugesendet. Erst nachdem dieser Link aufgerufen wurde, ist die Registrierung vollständig. Die Erwartung des Kunden war nun, dass die Anzahl der Seitenaufrufe auf der Bestätigungsseite, deren Link in der Mail versendet wurde, gleich oder niedriger ist als die Anzahl der versendeten E-Mails – ausgehend von dem Umstand, dass ein Teil der Anwender die Mail nicht erhält oder den Link nicht anklickt. Tatsächlich aber waren die Seitenaufrufe auf dieser Seite um ein Vielfaches höher als die Anzahl der versendeten E-Mails. Es wurde natürlich sofort unterstellt, dass das Web-Analytics-Tool nicht richtig messe und fehlerhaft sei. Da wir aber grundsätzlich davon ausgehen, dass Web-Analytics-Anbieter richtig zählen können und keine PageViews „erfinden“, haben wir eine tiefergehende Analyse der „überzähligen“ Seitenabrufe angefertigt. Schnell wurde klar, was passiert war: Die Anwender haben die Bestätigungs-E-Mail abgespeichert und den darin enthaltenen Link als Lesezeichen für den Zugang zum Portal verwendet. Sie haben also nicht – wie der Programmierer sich das dachte – nur einmal nach Erhalt der EMail darauf geklickt. Stattdessen besuchte eine nennenswerte Anzahl der Anwender das Portal fast ausschließlich über diesen Link. Der Status „hat Bestätigungs-E-Mail angeklickt“ konnte also nicht an der Anzahl der Seitenabrufe allein festgemacht werden. Vielmehr bedurfte es eines kontrollierenden „Gedächtnisses“, ob diese Aktion für einen wiederkehrenden Besucher bereits erfasst wurde und deshalb nicht noch einmal gezählt werden muss. Nachdem wir die Implementierung entsprechend geändert hatten, zeigte sich sofort eine Veränderung der Kennzahlen in realistische Größenordnungen. Dieses Beispiel zeigt deutlich, dass neben der verwendeten Technik auch die Qualität der Implementierung für die Messgenauigkeit maßgeblich ist.
!
Wir gehen davon aus, dass Messfehler, die oberhalb von 10 bis 15% liegen, zu 99% auf eine fehlerhafte oder unvollständige Implementierung des Tools zurückzuführen sind. Bei Messfehlern ist also zuerst die Implementierung zu überprüfen. Ein Austausch des Web-Analytics-Systems wird selten zu einer Verbesserung führen.
Es gibt derzeit fünf unterschiedliche technische Verfahren, die in der Praxis zum Einsatz kommen: 1. Logfile-Auswertung: Auswerten der auf den Webservern mitgeschriebenen Statusmeldungen (Log Messages), die in einzelnen oder mehreren Dateien auf dem Webserver gesammelt werden (Log Files). 2. Pixelbasiertes Tracking: Aktives Element in der Website, das an den Client ausgeliefert wird und von dort einen dedizierten Messimpuls zurück an ein Datenbanksystem sendet, das diese Impulse speichert und aggregiert. 3. Instrumentierte Logfiles: Die Logfiles auf dem Webserver werden so umgestellt, dass in einem spezialisierten Logfile nur noch die für die Web Analytics relevanten Informationen enthalten sind.
50
4.1 Logfile-Analyse – Server-based-Tracking 4. Datenbank-Logs: Die Web-Anwendung schreibt nach bestimmten Operationen des Anwenders selbst entsprechende Informationen in eine Datenbank, die dann ausgewertet werden kann. 5. Sniffing: Der Netzwerkverkehr zwischen Webserver und Anwender-PC wird abgehört („sniffed“) und Informationen herausgelesen und abgespeichert. Wir wollen im Folgenden auf die verschiedenen Methoden eingehen. Für die Web Analytics hat sich in den vergangenen Jahren fast ausschließlich das Pixelbasierte Tracking als Standard durchgesetzt, daher räumen wir diesem Verfahren etwas mehr Aufmerksamkeit ein.
4.1
Logfile-Analyse – Server-based-Tracking Die Logfile-Analyse ist die älteste Technik, um die Webserver-Nutzung auszuwerten, und letztlich auch die einfachste. Ursprünglich war sie kein Instrument für das Marketing, sondern diente dem Webmaster dazu, Auslastung und Performance seiner Server zu erkennen und zu prüfen. Auf dem Webserver werden umfangreiche Logfiles (Protokoll-Dateien) geführt. Für jeden Aufruf werden unter anderem folgende Informationen gespeichert: angefordertes Element (HTML-Seite, GIF, JPG, PDF) Datum und Zeit IP-Adresse des anfragenden Computers Referrer (Adresse der Webseite, von der ein Website-Besucher zur aktuellen Webseite gekommen ist – nicht immer verfügbar) User Agent (oft die Bezeichnung des Browsers) verwendetes Protokoll (zum Beispiel http oder https) Webserverinformationen Fehlermeldungen (zum Beispiel http 404 – Seite nicht gefunden) und übertragenes Datenvolumen Der Webserver speichert diese Informationen kontinuierlich als Logfiles. Nicht alle von ihnen sind aus Marketingsicht sinnvoll. Während eine Liste mit den Zugriffen auf die einzelnen HTML-Seiten oder Download-Dokumente durchaus relevant für den Erfolg einer Website sein können, sind die IP-Adresse des Client-Rechners, zwischengeschaltete Proxy-Server („proxy“ = Stellvertreter), das Datenvolumen oder das verwendete Protokoll für diesen Zweck eher überflüssig. Da eine Webseite aus vielen einzelnen Elementen besteht (HTML-Seiten, Bilder, Werbebanner, Scripte), erzeugt deren Aufruf eine Vielzahl an Logfile-Einträgen. Die Datensätze sind für die Bewertung eines Seitenabrufs nicht alle relevant und zum Teil sogar irreführend:
51
4 Technische Methoden des Site-Tracking Manchmal möchte der Betreiber einer Website nur die Anzeige einer Seite als Ganzes – also als Sammlung aller benötigten Elemente – erfassen. Ein andermal ist eine spezifischer Betrachtung, zum Beispiel nach eingeblendeten Bannern, erwünscht. Logfile-Einträge müssen also gefiltert und verdichtet werden, bis die gewünschten Informationen sichtbar werden. Logfiles sind sinnvolle Tools für Webmaster, um zum Beispiel die Auslastung des Webservers zu erkennen. Aus Marketingsicht sind jedoch viele der Logfile-Informationen überflüssig und kaum sinnvoll auszuwerten.
Als nächste Stufe der Analyse – über die Anzeige einer einzelnen Seite hinaus – dient der komplette Besuch (Visit), also die Folge mehrerer Seitenaufrufe innerhalb einer Website. Logfiles stellen jedoch den Aufruf einer Webseite nicht in Bezug zum Aufruf der folgenden oder vorherigen Seiten dar, sondern als singuläres Ereignis und somit ohne Bezug zu anderen Abrufen. Wenn also ein Besucher durch den Klick auf einen Link auf eine zweite Webseite wechselt, wird dieser Aufruf zwar in den Logfiles gespeichert, doch ist er nicht als Teil des Visits erkennbar. Eine Verbindung lässt sich erst durch zusätzliche Maßnahmen herstellen: Beim Aufruf der Seiten kann ein zusätzlicher Parameter an die URL angehängt werden, der die aktuelle Sitzung eindeutig kennzeichnet. Diese Session-ID wird während des gesamten Visits mitgeführt und bei jedem Seitenaufruf in den Logfiles protokolliert. Logfiles speichern Seitenaufrufe in einer Form, die nur für technisch Versierte lesbar ist. Es entstehen mehrfache Einträge durch einen einzigen Seitenaufruf – und somit deutlich mehr Daten, als für eine Auswertung nötig sind. Logfiles müssen folglich zur Auswertung gefiltert und dann in eine lesbare Form gebracht werden, damit sie aussagekräftig sind. Dafür stehen zahlreiche Logfile-Aufbereitungs-Tools zur Verfügung, die es als frei verfügbare oder lizenzpflichtige Software gibt. Bei der Wahl von Logfile-AufbereitungsTools sollten einerseits die Relevanz der gelieferten Zahlen, andererseits die Kosten für Software, Hardware, Updates und Versionswechsel und nicht zuletzt der Aufwand für die Auswertung berücksichtigt werden. Voraussetzung für die Analyse von Logfiles ist der Zugriff auf die entsprechenden Daten. Unterhält der Website-Betreiber keinen eigenen Webserver, sondern nutzt etwa ein Hosting-Angebot bei einem Provider, ist die Installation eines eigenen Logfile-AnalyseTools in der Regel nicht möglich. Eine regelmäßige Übertragung von Logfiles auf andere Rechner (beziehungsweise ein automatisiertes Einlesen von Logfiles) in eine dort vorhandene Datenbank kann aufgrund des hohen Datenvolumens – je nach Website-Traffic bis zu mehreren Gigabytes pro Tag – auch bei Breitband-Verbindungen problematisch sein. Hosting-Provider bieten deshalb gerne eigene Tools an, mit denen die Logfiles der eigenen Website per Webinterface einzusehen sind. Doch Website-Betreiber haben dabei in der Regel keinen Einfluss auf die Auswahl der gelieferten Kennzahlen und müssen sich mit wenigen Basisinformationen begnügen.
52
4.1 Logfile-Analyse – Server-based-Tracking Werden die Daten vom Hosting-Partner per Logfile ermittelt, gilt es vorher zu prüfen, ob man auf die zu erhebenden Daten Einfluss nehmen kann.
4.1.1 Logfiles in Abhängigkeit der verwendeten Infrastruktur Üblicherweise werden größere Websites heutzutage nicht über einen Server, sondern über mehrere Server oder Server-Farmen bereitgestellt. Deshalb ist die verwendete Infrastruktur ein wichtiger Aspekt bei der Nutzung von Logfiles. Bilden mehrere Server das Internetangebot eines Unternehmens ab, werden die Web-Zugriffsdaten auch in mehreren Logfiles auf den verschiedenen Servern abgelegt. Das ist auch dann der Fall, wenn ein Internetangebot gezielt auf mehrere Server verteilt wird: Produktinformationen zum Beispiel befinden sich häufig auf einem anderen Server als die Support-Daten – und die Banner wiederum liegen auf einem Ad Server. Es werden gespiegelte Server mit identischen Inhalten eingesetzt (Load Balancing bei Server-Farmen oder Clustern), oder die Server werden regional verteilt. In diesen Fällen wird der Inhalt einer Webseite nicht nur aus verschiedenen Elementen zusammengesetzt – die Elemente kommen auch noch von unterschiedlichen Servern mit unterschiedlichen geografischen Standorten. Die Logfile-Einträge müssen dann nachträglich zusammengesetzt werden, um ein ganzheitliches Bild über die Website zu zeigen. Als verbindendes Element wird dazu unter anderem die Zugriffszeit genutzt. Dieser Aufwand erschwert und erhöht die Kosten einer Logfile-Aufbereitung, sie wird dadurch nicht selten ineffizient. In der Praxis werden Logfiles auf großen Systemen mit über 100 Millonen PageViews pro Monat nur wenige Stunden behalten.
4.1.2 Technische Restriktionen der Logfile-Analyse Die Logfile-Aufbereitung unterliegt einigen technischen Einschränkungen. Dazu zählt neben dem Erkennungsmerkmal – der IP-Adresse des Website-Besuchers – vor allem die Tatsache, dass eine im Browser angezeigte Webseite nicht immer direkt vom Webserver des Betreibers geliefert wird. Mit dem Abruf einer Webseite wird zwar in der Regel die IP-Adresse des anfragenden Browsers übermittelt, diese ist aber nicht immer mit einem Besucher gleichzusetzen. Die technischen Strukturen des Internets führen einerseits dazu, dass oft viele Besucher eine gemeinsame IP-Adresse nutzen – etwa bei der Verwendung von Proxy-Servern oder wenn Netze per Network Address Translation (NAT) miteinander verbunden und die Zuordnung von IP-Adressen geändert wird. Andererseits verwenden einzelne Besucher viele verschiedene IP-Adressen: die Adressvergabe geschieht dynamisch durch Provider. Auch durch IPScrambling können IP-Adressen bewusst verschleiert werden. In der Praxis kann sich eine IP-Adresse während eines Website-Besuchs bis zu zehnmal ändern. Zur Anzeige einer Seite stellt der Browser eine Anfrage beim Webserver, der die benötigten Daten bereitstellen kann. Um die verfügbare Bandbreite nicht unnötig zu verringern
53
4 Technische Methoden des Site-Tracking und um den Seitenaufbau zu beschleunigen, kommen auf verschiedenen Ebenen Zwischenspeicher (Cache) zum Einsatz. Der Browser beispielsweise verfügt über einen Cache und legt darin die zuletzt besuchten Seiten ab. Beim nächsten Aufruf dieser Seiten kann eine Kopie aus dem Cache verwendet werden; also ist zunächst keine Anfrage an den Webserver erforderlich. Auch Unternehmen setzen Caches in Form von Proxy-Servern ein, um einen Zugriff mehrerer Mitarbeiter auf die gleiche Seite mit nur einer Server-Anfrage bedienen zu können. Beim Vor- und Zurückblättern im Browser wird eine Seite mehrfach innerhalb eines Besuchs (Visits) angezeigt, aber nur einmal vom Server abgerufen. Es ist also nicht ungewöhnlich, dass Seitenabrufe gar nicht am Zielserver ankommen, weil sie durch einen Zwischenspeicher bedient werden, ohne dass der Zielserver davon etwas mitbekommt – und somit auch kein Logfile-Eintrag stattfindet. Das Caching im Browser oder auf Proxy Servern kann man durch Einträge im http-Protokoll oder durch entsprechende „Meta-Tags“ auf der Seite selbst unterbinden. Zu den technischen Einschränkungen zählt auch die Tatsache, dass für eine gute Aufbereitung alle Logfiles von allen Servern vorliegen müssen. Für die Aufbereitung selbst ist zudem erhebliche Rechenkapazität nötig, so dass eine Echtzeit-Aufbereitung in der Regel unwirtschaftlich ist. Logfiles eignen sich also nicht als Basis für Entscheidungen, die Websites in Echtzeit optimieren sollen.
!
Auch Messfehler bei der Aufbereitung von Server-Logfiles sind zu berücksichtigen: Eine Studie von Drèze und Zufryden kommt zu dem Ergebnis, dass durch eine IP-basierte Auswertung und durch Proxys und Caches die Anzahl der Besucher um 39 Prozent und die Anzahl der Besuche um 35 Prozent überschätzt wird. Auf der anderen Seite wird die Anzahl der Seitenaufrufe pro Besucher um 64 Prozent überschätzt, die durchschnittliche Besuchszeit sogar um 79 Prozent. Logfiles zeigen gegenüber einem Client-basierten Messsystem zum Teil erhebliche Abweichungen bei der Zahl der Besucher (Visitors). Außerdem erfordern sie oft hohe Rechenkapazitäten.
Es gibt jedoch Kennzahlen, die nur anhand einer Logfile-Auswertung ermittelt werden können, weshalb die Analyse von Logfiles ihre Berechtigung hat. Zugriffe durch Suchmaschinen-Crawler (Robots) sowie Abrufe fehlerhafter Links oder Bookmarks können fast nur auf diese Weise festgestellt werden. Durch einen Vergleich der tatsächlich übertragenen Datenvolumina mit den eigentlich angeforderten Volumina kann beispielsweise auf den Abbruch eines Downloads geschlossen werden. Auch gibt eine Logfile-Analyse Auskunft über die Auslastung der technischen Infrastruktur. Vorteile von Logfiles Sie sind ohne zusätzlichen Aufwand quasi automatisch auf dem Server verfügbar. Es gibt kostenlose Tools zur Aufbereitung. Erfassung von Robot-Zugriffen, fehlerhaften Links und Bookmarks Auswertung abgebrochener Seitenaufrufe oder Downloads ist möglich.
54
4.2 Pixelbasiertes Tracking Nachteile von Logfiles Auswertungen nach IP-Adressen sind nicht eindeutig. Berechnungen von Visits und Unique Visitors sind algorithmisch zweifelhaft. Webseiten aus einem Cache werden nicht erfasst. Zugriffe von Robots oder Spidern werden als Zugriffe von Besuchern gewertet. Keine Auswertung in Echtzeit Ein hoher Anteil an nicht relevanten Informationen muss gefiltert werden. Ein Zugriff auf die Logfiles ist nicht immer direkt gegeben. Eine ganzheitliche Analyse bei verteilten Servern ist sehr aufwendig.
!
Die Logfile-Aufbereitung ist als Grundlage für die Webanalyse ungeeignet, denn: Sie ist aufwendig in der Analyse, wobei wesentliche Aspekte wie Transaktionen und andere Prozesse nicht gemessen werden. Durch Auslieferung häufig aufgerufener Elemente aus Proxy- und Cache-Speicher ergibt sich eine Ungenauigkeit in der Messung. Sie liefert wenig bis keine geschäftsrelevanten Informationen. Eine Effizienzmessung von Werbemitteln ist kaum möglich.
4.2
Pixelbasiertes Tracking Für das „Pixelbasierte Tracking“ wird zur Ermittlung von Informationen über einen Seitenbesuch eine spezielle Grafik verwendet, die in den HTML-Code eingebunden wird. Die Technik basiert auf dem bereits 1997 von der IVW (Informationsgemeinschaft zur Feststellung der Verbreitung von Werbeträgern e. V.) erfundenen „Zählpixel“. Die IVW nutzt solche Zählpixel, um die „Reichweite“ einer Website zu messen, und bietet damit für Werbekunden und Agenturen eine Orientierungshilfe bei der Schaltung von Online-Werbung und den damit verbunden Kosten. Im Gegensatz zur Logfile-Aufbereitung werden bei diesem Verfahren die gewünschten Informationen nicht auf dem Server, sondern direkt im Browser des Website-Besuchers erzeugt. Man spricht deshalb vom „client-seitigen“ oder „Client Based Tracking“. Da der Aufruf der Tracking-Grafik durch eine spezielle Markierung im HMTL-Code – einem „Tag“ (Kennung) – hervorgerufen wird, bezeichnet man das Verfahren auch als „Client Side Tagging“. Ebenfalls bekannt ist die Bezeichnung „Web Bugs“ für Tracking-Grafiken. Die Methode des client-basierten Messens mithilfe des Zählpixels stellt heute den „Quasi-Standard“ in der Web Analytics dar.
55
4 Technische Methoden des Site-Tracking
4.2.1 Aufruf der Tracking-Grafik Zum Zählen der Zugriffe auf eine Website wird ein kleines Stück HTML-Code in jede Seite eingebunden, die vom Web-Analytics-System erfasst werden soll. Dieser Code ruft die Tracking-Grafik von einem bestimmten Server ab. Um das Layout der Webseite nicht zu stören und zusätzlichen Traffic zu reduzieren, wird in der Regel eine 1 x 1 Pixel kleine, unsichtbare Grafik – meist ein als transparentes GIF – benutzt. Daher stammt auch der Begriff „Zählpixel“. Wie der technische Ablauf des client-basierten Messens funktioniert, zeigt die Abbildung 4.1. Nach dem Aufruf der Webseite vom Webserver (1) wird der HTML-Code an den Browser des Besuchers übertragen (2). Im HTML-Code ist der Aufruf für die Tracking-Grafik enthalten, zum Beispiel als einfacher img-Tag. Ist die Seite im Client-Browser geladen, wird die Tracking-Grafik wiederum von einem anderen Server abgerufen. Dieser erfasst den Zugriff separat und legt eine Statistik an. Anschließend liefert der „Pixel-Server“ die Grafik
www
1. B
he es uc
r ruft eine Seit ea
2 . S eite w i
li e
fe r
t
3.
Cl
rd
ge aus
b
ie
nt
läd
t „Z
ä hl p
i xe l “ i n d e r S e i t e
t gi s
rie
r t,
, re et w i rd nd g e n s u 4 . A n fo r d e r e c k g e tzt s z ur ü l e e re s B i l d o k i e g e o C . f g g
5. Statistik wird aktualisiert
Abbildung 4.1 Technischer Ablauf des client-basierten Messens
56
4.2 Pixelbasiertes Tracking an den Browser aus, der die Webseite nun vollständig aufbauen kann. Die transparente Tracking-Grafik bemerkt der Besucher nicht. Die mit der Auslieferung des Zählpixels gespeicherten Informationen bilden die Basis für die weitere Auswertung durch Web Analytics. Üblicherweise werden in dem Zählpixel-Aufruf – außer dem Aufruf der Tracking-Grafik – weitere Informationen eingebunden. So können zum Beispiel bestimmte Gruppen von Seiten die Tracking-Grafik mit einer unterschiedlichen URL (Uniform Resource Locator, Internetadresse) aufrufen und so die Zugriffe für die Auswertung vorseparieren. Beispiel: Mit folgenden Tags lassen sich alle Produkt- beziehungsweise Supportseiten „verpixeln“: http://produkte.server.tld/zaehlpixel.gif oder http://support.server.tld/zaehlpixel.gif Mit Server- und client-seitigen Skripten sind auch die Umgebungsvariablen des Browsers auszulesen und in den Link der Tracking-Grafik einzusetzen. Zu diesen Variablen gehören unter anderem: Geschäftsrelevante Informationen über Segmentierungen und Produkte Eine Zufallszahl, die sicherstellt, dass der Link zur Tracking-Grafik bei jedem Aufruf neu berechnet wird und somit eindeutig ist. Der eindeutig Link verhindert, dass der Aufruf des Zählpixels aus einem Cache im Browser oder einem Proxy-Server bedient wird: http://www.server.tld/accountname/[Type]/[Code];[comment]?s=[Segement]&d=[Random]
In diesem Beispiel werden mit dem Aufruf der Tracking-Grafik eine Typbezeichnung, ein weiterer Code, ein Kommentar, der Referrer sowie die erwähnte Zufallszahl mit in den Aufruf eingebaut. Alle diese Informationen können dann auf dem Pixel-Server gespeichert und entsprechend ausgewertet werden. Vorteilhaft ist die Verwendung der Tracking-Grafiken auch mit Blick auf Robots und Spider: Weil diese in der Regel nur Texte, aber keine Grafiken laden, rufen sie auch keine Tracking-Grafik vom Pixel-Server ab – und erzeugen somit auch keinen Eintrag für einen Seitenaufruf. Der Traffic durch Spider und Robots wird also automatisch aus der Statistik ferngehalten. Die für die Analyse benutzte Software kann die gespeicherten Informationen in regelmäßigen Abständen abrufen und verarbeiten. Dabei werden auch bei verteilten OnlineAngeboten (regionale Server, Load Balancing) alle Aufrufe der Tracking-Grafiken an einer zentralen Stelle gesammelt. Die Daten stehen in der Regel nahezu in Echtzeit zur Verfügung. Das bedeutet in der Praxis, dass die Klicks eines Besuchers dem Web-Analysten schon nach fünf Minuten zur Verfügung stehen. Wegen ihrer Bedeutung für Web-Analytics-Systeme wurde die Technik des Client Side Tracking weiterentwickelt. Für eine optimale Analyse der Aktivitäten der Besucher reichen die Standard-Umgebungsvariablen in der Regel nicht aus. Um über PageImpressions und Visits hinaus weitere interessante Informationen zu erhalten, lässt sich die Pixelzähltechnik durch JavaScript, Cookies und eine IP-Datenbank ergänzen. Diese Datenbank beispielsweise erlaubt Rückschlüsse auf den geografischen Standort des Besuchers (siehe auch Ka-
57
4 Technische Methoden des Site-Tracking pitel 4.2.6 „Anbindung von Geo-Datenbanken“). Ansonsten spielt die IP-Adresse in der heutigen Web Analytics keine große Rolle mehr. Um dem Datenschutz Rechnung zu tragen, verzichten immer mehr Unternehmen auf die Speicherung von IP-Adressen – siehe auch Kapitel 3.5 „Datenschutz in der Web Analyse“. Mit der „Zählpixel-Messmethode“ werden Daten nahezu in Echtzeit zur Verfügung gestellt. Robots und Spider werden in der Regel nicht in der Statistik erfasst.
4.2.2 Tracking-Grafik mit JavaScript In Kombination mit JavaScript lassen sich eigene Variablen definieren, die weitreichende Informationen für die Webanalyse liefern. So können mit Hilfe von JavaScript beispielsweise die Titel besuchter Seiten, installierte PlugIns oder die Bildschirmauflösung ausgelesen werden. Selbst der Inhalt eines Warenkorbs oder das Erreichen bestimmter Messpunkte (Milestones) in definierten Prozessen kann man damit erfassen. Über die Definition durch Label für jede Seite lassen sich im Prinzip beliebige Informationen über die besuchte Seite auslesen. Beispiele: Ein Label kann den Autor der Webseite bezeichnen, der dann bei jedem Aufruf der Tracking-Grafik mit übertragen wird. So lässt sich die Wertigkeit der Artikel verschiedener Autoren gut vergleichen. Denkbar sind aber auch Labels, die durch einen nachgeschalteten Bezug zu fiskalischen Größen wie „Wert des Einkaufs“ die Wirkung unterschiedlich gestalteter Seiten sichtbar machen (siehe auch 8.1.2 „Der A/B-Test oder Split Test“). Beim Tagging mit JavaScript wird das Script in den HTML-Code derjenigen Webseiten eingebaut, die durch Web Analytics erfasst werden sollen. Beim Aufruf der Seite wird das Java-Script ausgeführt. Dabei werden die Inhalte für die gewünschten Informationen in den definierten Variablen bestimmt. Anschließend wird die Tracking-Grafik über einen aus dem Script erzeugten Pfad vom Pixel-Server geladen. Bei diesem Aufruf werden die mit Hilfe des Scripts bestimmten Werte an den Server übermittelt und gespeichert. Durch JavaScript lassen sich nahezu beliebig viele Messpunkte definieren und erfassen.
4.2.3 Verwendung von Cookies Eine der wichtigsten Aufgaben beim Tracking eines Besuchs (Visits) auf einer Website ist die möglichst eindeutige Identifizierung des Besuchers. Er stellt die Basis für verschiedene weitere Kenngrößen dar: Post-Klick-Konversionen können etwa nur festgestellt werden, wenn der Besucher über mehrere Besuche hinweg eindeutig identifiziert wird. Zur Identifizierung eignen sich zwei Verfahren: Eine „Identgröße“ als Kombination aus verschiedenen Daten Ein Cookie im Browser des Besuchers
58
4.2 Pixelbasiertes Tracking Identgrößen werden je nach Hersteller auch als „Fingerabdruck“ (Fingerprint) bezeichnet und sollen den Besucher auch ohne Anmeldung auf der Website und ohne Cookies eindeutig identifizieren. In einer solchen Identgröße bilden zum Beispiel die Kombination aus IPAdresse, Referrer, die Browserbezeichnung und das Betriebssystem eine recht eindeutige und über den gesamten Besuch hinweg stabile Markierung. Das Beispiel wird auch von der IVW verwendet, sofern keine andere Möglichkeit der Identifizierung besteht. Sie hat aber deutliche Schwächen: Es ist beispielsweise nicht unüblich, alle Mitarbeiter eines Unternehmens im Internet mit der IP-Adresse eines zentralen Routers oder Proxys erscheinen zu lassen. Zudem nutzen häufig alle ein vorgegebenes Betriebssystem und einen vorgeschriebenen Browser – Eindeutigkeit ist so nur bedingt gewährleistet. Private Surfer hingegen wechseln aufgrund der dynamischen IP-Adressvergabe durch die Provider sogar während des Besuchs die IP-Adresse, so dass auch bei einer eindeutigen Identgröße keine stabile Identifizierung über einen gesamten Website-Besuch möglich ist. Cookies stellen eine deutlich bessere Variante zur Identifizierung der Besucher dar. Das Cookie wird als kleine Textdatei beim ersten Seitenaufruf vom Browser des Besuchers gespeichert und auf den dann folgenden Seiten wieder ausgelesen. Sie können zum Beispiel die Login-Informationen für den Zugang zu einer Website speichern – der Besucher muss sich nicht bei jedem Besuch wieder einloggen. Sehr wichtig sind Cookies auch beim Shopping: Cookies können den Inhalt eines Warenkorbs speichern. Der Besucher kann einen Artikel in seinen Korb legen und weiter auf der Website stöbern; trotzdem bleibt der Inhalt des Warenkorbs erhalten und kann jederzeit ergänzt oder wieder aufgerufen werden. Außerdem kann ein Cookie einen eindeutigen Identifizierungsschlüssel tragen, der beim Aufruf einer Website generiert und bis zum Schließen des Browsers beibehalten wird. Im Zusammenspiel mit JavaScript kann die Identität des Besuchers bei jedem Aufruf der Tracking-Grafik an den Pixel-Server zur Auswertung übertragen werden. Für die Identifizierung eines Besuchers sind Cookies die erste Wahl. Diese kleinen Textdateien sind für den Website-Besucher komfortabel und dienen dem Website-Betreiber gleichzeitig zur Wiedererkennung der Besucher.
4.2.3.1 Verschiedene Cookie-Typen Zeitlich begrenzte Cookies: Persistente oder permanente Cookies werden auf der Client-Festplatte abgelegt und bleiben so lange gültig, bis der jeweils eingetragene Zeitraum überschritten ist oder das Cookie manuell gelöscht wird. Persistente Cookies eignen sich beispielsweise zum Speichern von Login-Informationen. Temporäre Cookies, auch „Session Cookies“ oder „Sitzungs-Cookies“ genannt, werden nur im Arbeitsspeicher abgelegt. Mit dem Schließen des Browsers werden sie gelöscht. Sie eignen sich deshalb nur für Sitzungsdaten wie etwa zur Identifizierung von Besuchern.
59
4 Technische Methoden des Site-Tracking Urheber der Cookies: Cookies stellt üblicherweise der besuchte Webserver aus, der das Cookie beim Client ablegen will. Bei clientbasiertem Tracking ruft die Tracking-Grafik jener Server auf, der auch das Cookie zur Identifizierung der Besucher setzt. Das Cookie stammt also nicht immer vom Website-Besucher oder dem eigentlich besuchten , sondern von einer dritten Partei. Solche Cookies werden auch „Third Party Cookies“ genannt. Da einige Besucher aufgrund von Sicherheitsbedenken Third Party Cookies ablehnen, können als Alternative „First Party Cookies“ vom besuchten eingesetzt werden. First Party oder Third Party Cookie? Da First Party Cookies von der besuchten Website ausgeliefert werden, ist ihre Akzeptanz bei Website-Besuchern in der Regel größer. Bei Third Party Cookies wird der Cookie von einem Fremdserver gesetzt, zum Beispiel vom Ad Server. Trotzdem haben auch Third Party Cookies ihre Berechtigung, zum Beispiel beim Erfassen des Unique Visitors über verschiedene Domänen. Das Löschen eines Cookies bedeutet für den Webanalysten, dass der Besucher nicht wiedererkannt wird.
4.2.4 Nutzung von JavaScript und Cookies Über die Nutzung von JavaScript und Cookies gibt es Untersuchungen mit sehr unterschiedlichen Ergebnissen. Eine wichtige Ursache dafür lässt sich an den Gewohnheiten der Website-Zielgruppen festmachen: Während etwa IT-affine Besucher aus Sicherheitsaspekten häufig JavaScript im Browser deaktivieren und Cookies regelmäßig von der Festplatte löschen, werden Heimanwender eher die Standardeinstellungen des Systems beibehalten und somit JavaScript und Cookies automatisch akzeptieren. Aktuelle Browser-Versionen verlangen vom Anwender eine aktive Freischaltung für Cookies und JavaScript. In jedem Fall ist bei der Einführung eines Tracking-Systems die Zielgruppe zu berücksichtigen. Außerdem sollten Alternativen angeboten werden. Für Benutzer mit deaktiviertem JavaScript kann zum Beispiel der Aufruf einer Tracking-Grafik innerhalb einer <noscript>-Definition eingebunden werden, die im HTML-Code vor der JavaScript-Variante platziert wird. Bei Besuchern, die Cookies ablehnen, kann ein Identcode als Kombination aus IP-Adresse und weiteren Daten benutzt werden. Beachten Sie unbedingt die Angewohnheiten Ihrer Zielgruppe bei der Nutzung von JavaScript und Cookies und wählen Sie gegebenenfalls geeignete Alternativen zur Erkennung der Besucher.
4.2.5 „Super Cookies“ Seit Neuestem werden in Blogs und Internet-Publikationen die sogenannten „Super Cookies“ diskutiert, die mit Einführung von Firefox 2 und Internet-Explorer 8 ermöglicht werden. Der Begriff „Super Cookies“ ist jedoch irreführend und sehr populistisch. Es handelt sich hierbei vielmehr um eine von den Browsern angebotene Methode, Teile des DOMTrees persistent auf der Festplatte des Anwenders zu speichern. Das Document Object
60
4.2 Pixelbasiertes Tracking Model (DOM) beschreibt die Struktur und die Inhalte einer HTML-Seite, ähnlich der Kapitelstruktur eines Buchs. Über die technische Möglichkeit des „DOM-Storage“ können die genannten Browser Teile dieser Struktur auf dem PC des Besuchers speichern und später wieder abrufen. Hintergedanke dabei ist, bei komplexen dynamischen Elementen die Nachladezeit zu reduzieren. Es ist aber auch möglich, zusätzliche Informationen abzulegen, zum Beispiel komplette Warenkörbe oder Transaktionszustände. Ein DOM-Storage bietet dem Anwendungsprogrammierer bis zu 5 MB Datenvolumen an. Der Browser übernimmt die Strukturierung der Daten auf der Festplatte und dem Programmierer stehen relativ mächtige Funktionen zur Speicherung und zum Lesen der Daten zur Verfügung. Derzeit werden diese „Cookies“ dem Anwender nicht angezeigt. Sie werden aber sehr wohl mit gelöscht, wenn der Anwender „normale“ Cookies für eine Domäne löscht. Sie unterliegen damit den gleichen Restriktionen wie „normale“ Cookies. Generell ist es schlechter Stil, derartige Konstrukte zu verwenden und den Anwender darüber im Unklaren zu lassen. Sollte also eine Website diese Art von Speicherung verwenden, sollte dies auch in den Datenschutzerklärungen nachzulesen sein. Derzeit (März 2010) verwendet kein uns bekanntes Web-Analytics-System diese Art der Speicherung. Der Hintergrund dürfte in der Beschränkung auf Firefox 2 und höher sowie IE 8 liegen – andere Browser unterstützen diese Technologie nicht.
4.2.6 Platform for Privacy Preferences (P3P) Mit diesem Projekt ermöglicht das World Wide Web Consortium dem Betreiber einer Website die Veröffentlichung seiner Datenschutzrichtlinien über ein standardisiertes Format. Dazu sendet der Webserver vor dem Setzen des Cookies einen entsprechenden P3PHeader. Mit den passenden Browser-Einstellungen kann die Nutzung der Cookies dann gesteuert, beispielsweise der Gültigkeitszeitraum automatisch reduziert werden, ohne dass sich die Besucher um jedes einzelne Cookie kümmern müssen. Aktuelle BrowserVersionen unterstützen den P3P-Standard. Die Einhaltung der P3P-Richtlinien kann zu mehr Vertrauen bei den Website-Besuchern führen. Aktuelle Browser unterstützen den P3P-Standard.
4.2.7 Anbindung von Geo-Datenbanken Mit der Anbindung an so genannte Geo-IP-Datenbanken ordnen manche Tracking-ToolAnbieter die Besucher-IP-Adressen einem Land, einer Region und einer Stadt zu. Durch die Auswertung solcher Daten – die ebenfalls über die Tracking-Grafik in die Statistik eingetragen werden können – lässt sich etwa die Wirkung regionaler Kampagnen sehr gut ablesen. DigitalEnvoy – einer der führenden Anbieter von Geo-Datenbanken – gibt folgende Treffgenauigkeit an:
61
4 Technische Methoden des Site-Tracking IP Country (Land) = 99,9% IP City (Stadt) = > 95% weltweit Trotz der sehr hohen Trefferquote von DigitalEnvoy und vergleichbaren Anbietern stimmt das Ergebnis der Stadtzuordnung unter Umständen aber nicht. Manchmal gibt die GeoDatenbank auch nur die Stadt des Providers zurück – die nicht identisch mit dem tatsächlichen Standort des Website-Besuchers sein muss. Nahezu alle Web-Analytics-Tools haben Geo-Datenbanken eingebunden. Sie zeigen die regionale Verteilung von Besuchern an. Bei der Vermarktung lassen sich mit Hilfe von Targeting-Regeln Werbemittel regional ausliefern.
4.2.8 Implementierung auf der Website Der Code für den Aufruf der Tracking-Grafik beziehungsweise zum Setzen eines Cookies hängt vom jeweiligen Tracking-Tool ab. Die Anbieter stellen ihren Kunden den Code bereit, der auf der Website eingebaut werden muss. Auf statischen Websites muss der entsprechende Code manuell auf jeder Seite eingebaut werden. Sollen bestimmte Bezeichner – etwa der Seitenname – in die Auswertung einfließen, müssen diese Werte ebenfalls jeweils in den Code eingetragen werden. Wesentlich einfacher ist die Verwendung von Tracking-Pixeln beim Einsatz eines ContentManagement-Systems (CMS) – auch dann, wenn Websites dynamisch aus einer Datenbank heraus generiert werden. In diesem Fall wird der Tracking Code nur einmal in das Template (Vorlage) eingesetzt und automatisch auf allen Seiten der Website aufgerufen. Ein unterschiedliches Verhalten des Trackings in bestimmten Site-Bereichen kann über bereichsspezifische Templates gesteuert werden. Weitere Informationen wie Seitentitel, Autor oder andere denkbare Bezeichner werden dann direkt aus der Datenbank ausgelesen und in den Tracking Code eingebaut. Der Tracking Code wird üblicherweise innerhalb der HTML-Body-Anweisung (also zwischen und ) eingesetzt. Die Position des Tracking Codes innerhalb des Body-Bereichs hängt stark von der Zielsetzung des Trackings ab: Sitzt der Tracking Code im oberen Body-Bereich, wird der Request nach der TrackingGrafik meist vor der Anforderung anderer Elemente ausgeführt. Bricht der Ladevorgang vor einem vollständigen Download aller Elemente ab, zählt die Statistik dennoch ein PageImpression. Es werden also mehr PageImpressions als tatsächliche Seitenaufrufe gezählt. Außerdem stehen zu Beginn des Aufrufs möglicherweise die Informationen noch nicht zur Verfügung, die mit Hilfe des Skripts eigentlich in den TrackingRequest eingebaut werden sollen. Sitzt der Tracking Code weiter unten im Seiten-Code, wird der Tracking Request erst erzeugt, wenn die Seite vollständig geladen ist. Hier passiert das Gegenteil: Manche Seitenaufrufe werden nicht erfasst, weil der Anwender etwa schon einen Link angeklickt hat, bevor die Seite vollständig geladen war. So entstehen unvollständige Klick-
62
4.2 Pixelbasiertes Tracking pfade. Durch den Einbau des Tracking Codes weiter unten können jedoch wesentlich besser zusätzliche Informationen über das Skript in den Request eingebaut werden, so dass Kennzahlen zur Messung der Konversion unten leichter zu ermitteln sind. Bei einem Vergleich der beiden Platzierungsalternativen könnte als Ergebnis herauskommen, dass beim Verschieben des Tracking Codes von oben nach unten die gemessene Reichweite einer Website beispielsweise um 20 Prozent sinkt, die Konversion aber um 10 Prozent steigt. Bei der Verwendung von Framesets sollte der Tracking Code nur in den Frames eingesetzt werden, deren Inhalte sich durch Aktionen in der Navigation ändern. Achtung: Der Einsatz des Tracking Codes „oben“ oder „unten“ auf der Website kann Einfluss haben auf die gemessene Reichweite und die gemessene Konversion!
4.2.9 Zugriff auf die Auswertungen Das Client Side Tracking wird üblicherweise als ASP-Modell angeboten. Der Pixel-Server steht dabei im Rechenzentrum des Anbieters, der die Zugriffe speichert und auswertet. Der Zugriff auf diese Auswertungen erfolgt dabei über so genannte Dashboards, die alle wesentlichen Informationen auf einen Blick ermöglichen. Je nach Anbieter sind die Dashboards zu konfigurieren und können in gängige Ausgabeformate wie PDF, Excel und CSV exportiert werden. Ein automatischer Versand der Dashboards per E-Mail sorgt für einen stetigen und komfortablen Informationsfluss. Ein wesentlicher Vorteil der meisten Web-Analytics-Tools: sie erfordern vom Analysten lediglich einen Browser, um auf die Datenbestände zugreifen zu können.
4.2.10 Validierung der Ergebnisse aus dem Pixel-Tracking Die Reichweitenmessung für die IVW, um die Verbreitung von Online-Werbeträgern festzustellen, übernimmt Infonline. Dabei wird das beschriebene Pixel-Tracking mit Cookies und JavaScript verwendet. Infonline hat die Zuverlässigkeit seiner Messwerte geprüft und die Genauigkeit bei PageImpressions und Unique Visitors untersucht: Bei knapp 10 000 Aufrufen durch einen Browser wurde nur sechsmal kein Eintrag in der Tracking-Liste erzeugt. Die Genauigkeit liegt also bei rund 99,94 Prozent. Von 4 234 Testern konnten lediglich drei nicht als Visitor registriert werden, was einer Genauigkeit von rund 99,93 Prozent entspricht. Für die Messung wurden JavaScript und Cookies aktiviert. Die Messfehler haben ihre Ursache überwiegend in der Struktur des Internets, sind also abhängig von verfügbaren Bandbreiten beziehungsweise der Performance der Server. Das Verfahren selbst verursacht keine erkennbaren Fehler.
63
4 Technische Methoden des Site-Tracking Auch wenn das clientbasierte Messverfahren eine hohe Messgenauigkeit aufweist, ist es nicht mit einer Art Buchhaltungsprogramm zu verwechseln. Im Vergleich zu Warenwirtschaftssystemen wird es immer Abweichungen geben, ebenso zwischen unterschiedlichen Messsystemen, die auf einer Seite eingesetzt werden, oder den Tools von Vermarktern und Performance-Marketing-Agenturen. Abweichungen verschiedener, gleichartig messender Tools von bis zu zehn Prozent sind nicht unüblich.
Vorteile des Pixel-Tracking Die Datenerhebung erfolgt unabhängig von Browser Cache oder Proxyservern, jeder Seitenaufruf wird erfasst – dadurch ist eine deutlich höhere Messgenauigkeit als bei anderen Verfahren gegeben. Eine sichere Identifizierung der Besucher über Cookies ist möglich. Der Zugriff auf die Auswertung erfolgt in Echtzeit. Detaillierte Informationen über die Technik des verwendeten Rechners und Browsers sind abzurufen. Weitere Informationen wie Seitentitel, Autor, Warenkorbinhalt können erhoben werden. Mögliche Anbindung an Geo-Datenbanken zur regionalen Auswertung Zentrale Erfassung der Zugriffe, selbst wenn verschiedene Server eingesetzt werden (regionale Server, Load Balancing) automatisches Filtern von Traffic durch Robots, Spider oder Crawler Nachteile des Pixel-Tracking Eine Auswertung ist erst ab dem Einbau in die Webseiten möglich, für die Datenerfassung vergangener Aktionen müssen weiterhin Logfiles dienen. Zugriffe durch Robots, Spider oder Crawler werden nicht erkannt – der Vorteil der automatischen Filterung kann also auch als Nachteil angesehen werden. http-Fehlermeldungen (zum Beispiel 404 - Seite nicht gefunden) werden nicht erfasst. Das clientseitige, pixelbasierte Messen der Seitenzugriffe eignet sich für Web-AnalyticsLösungen wesentlich besser als die Logfile-Aufbereitung. Die wesentlich schnellere und genauere Aufbereitung der Daten auf der einen Seite, eine exaktere Identifizierung der Besucher und die Möglichkeit einer zusätzlichen Datenerfassung auf der anderen Seite geben dem Pixel-Tracking einen deutlich höheren Bezug zu geschäftsrelevanten Informationen. Dieses Verfahren stellt eine ideale Basis für ein echtes Web-Analytics-System dar, das sich an den Bedürfnissen von Entscheidern im Marketing und in der Geschäftsleitung orientieren kann.
64
4.3 Instrumentierte Logfiles
4.3
Instrumentierte Logfiles Eine weitere Technik des Site-Trackings versucht, die Stärken von Logfile- und PixelTracking zu kombinieren. Dabei wird ein dediziertes Element – meist ein leeres oder transparentes Bild wie die Zählpixel – auf den Webseiten eingebunden. Der Aufruf dieses Elements wird aber nicht von einem speziellen Tracking-Server wie beim Pixel-Tracking bedient, sondern vom eigenen Webserver. So können die Logfile-Einträge für dieses spezielle Element separat, ohne störende Einflüsse restlicher Elemente, betrachtet werden. Da die Basis dieses Verfahrens weiterhin die Logfile-Analyse ist, bleiben die grundlegenden Probleme der Logfiles – mangelnde Eindeutigkeit und hohe Messungenauigkeiten – bestehen. Auch geben instrumentierte Logfiles keine Auskunft über Post-Click- oder PostView-Transaktionen. Sie tragen also in den meisten Fällen nicht zum Erfolg eines WebAnalytics-Systems bei.
4.4
Datenbank-Logs Heute werden Websites kaum mehr in statischem HTML programmiert, sondern immer häufiger mit Content-Management-Systemen (CMS) aus Datenbanken heraus dynamisch erzeugt. Dazu werden Script- beziehungsweise Programmiersprachen und Techniken wie PHP, JSP, ASP oder .NET eingesetzt. Weil die Website-Inhalte in diesen Fällen aus einer Datenbank auf dem Server kommen, ist das Speichern der Seitenaufrufe in dieser oder einer eigens dafür vorgesehenen Datenbank naheliegend. Dazu erfolgt in jeder Webseite ein Eintrag, der wiederum beim Zusammenstellen der Inhalte für den Browser einen Eintrag in der Datenbank erzeugt. Allerdings wird dieser Eintrag erst dann vorgenommen, wenn die Datenbank oder das CMS all diejenigen Elemente zusammengestellt hat, die für die angefragte Webseite an den Browser zu schicken sind. Der Datenbankeintrag geschieht also vor der Übertragung der HTML-Seiten, Bilder, Scripte und Banner – es gibt keine Information darüber, ob diese Elemente auch wirklich im Browser angezeigt wurden. Für Datenbank-Logs werden, ähnlich wie bei der Logfile-Analyse, alle Zugriffe in die Datenbank geschrieben: eine sehr rechenintensive Aufgabe für den Datenbank-Server; zudem entsteht wie bei Website-Logfiles mit hohem Traffic ein enormes Datenvolumen, das es auszuwerten gilt. Wie bei allen Protokollverfahren ist hier keine Analyse von Post-Clickoder Post-View-Transaktionen möglich. Auch hier sollte der Aufwand für Implementierung und Programmierung eines proprietären Datenbank-Loggings in Relation zur Wirtschaftlichkeit stehen.
65
4 Technische Methoden des Site-Tracking
4.5
Sniffing Beim Sniffing werden alle Datenpakete, die ein Webserver empfängt oder aussendet, mit Hilfe eines „Network Data Collector“ aufgezeichnet und ausgewertet. Mit Sniffing sind deutlich mehr Daten auszulesen, als beispielsweise in Server-Logfiles enthalten sind: Bei der Programmierung einer solchen Website werden in die einzelnen Seiten bestimmte Informationen eingebaut, die dann dem Network Data Collector bei einer späteren Auswertung zur Verfügung stehen. Diesem Vorteil stehen zwei wesentliche Nachteile gegenüber: Sniffing erzeugt noch einmal deutlich größere Datenmengen als die Logfile-Auswertung, was wiederum zu Hürden bei der zeitgerechten Auswertung und zu hohen Anforderungen an die Hardware führt. Voraussetzung für das Sniffing ist ein direkter Zugriff auf die Webserver. Gerade bei verteilten Systemen müssen dabei alle Server – auch die gegebenenfalls genutzten Ad Server – einbezogen werden, was in der Praxis nur selten möglich ist. Zwar stellt das serverseitige Sniffing unter ganz besonderen Gesichtspunkten ein interessantes Tracking-Verfahren dar, ist aber wegen der hohen Anforderungen nur wenig verbreitet.
4.6
Alternative Verfahren In jüngster Zeit diskutiert man über eine Reihe neuer technischer Möglichkeiten der Datenerfassung, die aber noch nicht umfassend eingesetzt werden. Der Vollständigkeit halber seien diese Verfahren hier aufgeführt.
4.6.1 Flash Tracking Ein relativ junges Verfahren mit vielversprechenden Ansätzen, obwohl es für den Breiteneinsatz noch nicht ausgereift scheint. Das fälschlicherweise als „Flash Tracking“ bezeichnete Verfahren macht sich den Umstand zunutze, dass die proprietäre Technik „Adobe Flash“ zur Anzeige multimedialer Inhalte eine sehr hohe Verbreitung hat (also auf nahezu allen Browsern und Anwender-PCs die dazu notwendigen Plugins installiert sind). Der prinzipielle Ablauf des Trackings entspricht jedoch dem des pixelbasierten Trackings – sieht man davon ab, dass statt eines Grafik-Links eine Flash-Anwendung ausgeliefert wird. Dies hat erhebliche Auswirkungen auf das vom Client zu ladende Datenvolumen und die Performance. Das Verfahren wurde noch nicht in entsprechendem Breiteneinsatz getestet, weshalb wir hier nicht weiter darauf eingehen.
66
4.6 Alternative Verfahren
4.6.2 Tracking mit AJAX AJAX ist eine Kommunikationstechnologie, die sich auf HTML, http, Javascript und XML stützt. Wir wollen hier nicht tiefer in AJAX eindringen, doch ist Folgendes wichtig zu wissen: Mithilfe von AJAX können beliebige Daten vom Client an den Server gesendet und wieder empfangen werden, ohne dass die gesamte, bereits angezeigte Seite neu geladen werden müsste. Die Datenkommunikation findet also nach dem Laden der Seite und „im Hintergrund“ statt. Erst durch diese Technologie konnten viele der heute bekannten Web2.0-Anwendungen entstehen. Die Möglichkeit der direkten Datenkommunikation zwischen Client und Server kann man natürlich auch für die Übermittlung von Tracking-Informationen ausnutzen. Derzeit gibt es noch sehr wenige Tools, die diese Möglichkeit technisch anbieten – deshalb kann man nicht von einem breiten Einsatz sprechen. Wir halten diese technische Variante aber eher für vielversprechend als das in Abschnitt 4.6.1 beschriebene Flash Tracking, da sie keine Plugins erfordert, nicht proprietär ist und zudem wesentlich geringere Datenvolumina erwarten lässt.
4.6.3 Das Universal Tag Das Universal Tag ist weniger eine eigenständige Methode des Trackings als vielmehr eine – immer lauter werdende – Forderung der Marketiers und Techniker an die Hersteller von Web-Analytics-Anwendungen, die technische Implementierung zu standardisieren. Derzeit hat jeder Hersteller ein eigenes Verfahren, die Daten auf der Website einzusammeln und an das Messpixel zu übergeben. Allen gemeinsam ist die Programmiersprache JavaScript. Dies ist aber wohl mehr dem Umstand zu verdanken, dass Browser nur diese eine Programmiersprache unterstützen. Als Argument für eine solche Standardisierung wird gerne genannt, dass es mit einem solchen „Standard-Tag“ einfacher sei, den Hersteller zu wechseln. Dies mag ein Aspekt sein – er ist aber nur bedingt und vordergründig wahr. Für uns ist ein anderer Ansatz, der sich allmählich in den Anwenderunternehmen durchzusetzen scheint, entscheidend: Es geht um die Skills der beteiligten Personen in Technik und Marketing. Wenn ein Unternehmen nämlich ein System einführt, müssen sich die Mitarbeiter zunächst in die proprietäre Technologie und Terminologie „ihres“ Herstellers einarbeiten. Wenn Sie als Website-Betreiber ein System einführen und Ihre Mitarbeiter nicht in den Spezifika dieses Herstellers ausgebildet sind, stehen Sie vor einer schwierigen Herausforderung: Ihre Mitarbeiter brauchen langwierige und teure Schulungsmaßnahmen im Vorfeld der Implementierung, gegebenenfalls benötigen Sie externe Hilfe vom Hersteller oder müssen sich auf dem Personalmarkt nach ausgebildeten Fachkräften umschauen. Insbesondere Letzteres kann sich als schwierig erweisen, da Sie in der Regel Fachkräfte für Ihr System nur bei einem anderen Anwenderunternehmen dieses Web-Analytics-Tools abwerben können – der Markt für Web-Analytics-Experten ist aber leer.
67
4 Technische Methoden des Site-Tracking Das Universal Tag könnte helfen, diese Probleme zu reduzieren. Wenn alle Web-Analytics-Tools gleichförmig zu implementieren sind, ist ein einzelner ausgebildeter und erfahrener Web-Analytics-Techniker in der Lage, alle Systeme zu beherrschen. Eine Investition in die Fähigkeiten und Kenntnisse der Mitarbeiter wäre nur einmal nötig, und die Personalsuche würde sich wesentlich einfacher gestalten. Zwangsläufig entsteht der größte Widerstand gegen ein Universal Tag derzeit bei den Herstellern kostenpflichtiger Tools, die sich – wenig überraschend – so gut wie gar nicht an der öffentlichen Diskussion beteiligen. Wir erhoffen uns von den kostenfreien Web-Analytics-Tools und den Open-Source-Systemen einen wesentlich stärkeren Trend in diese Richtung. Sicherlich sind wir noch „Lichtjahre“ von einem Standard entfernt. Allerdings werden die Hersteller kommerzieller Tools erst dann umdenken, wenn ein solcher Standard geschaffen ist. Derzeit gibt es Überlegungen beim W3C, Tracking in den Standard von HTML4 aufzunehmen. Dieser Idee können wir wenig abgewinnen, weil Tracking aus unserer Sicht eine clientseitige Anwendung ist und nicht Bestandteil der Dokumentenbeschreibung oder des Renderns der Website werden sollte. Auch ist man dann zu stark von den Browsern abhängig, die diesen Standard umsetzen müssen. Und das kann angesichts der steigenden Zahl an unterschiedlichen Endgeräten (iPhone e.a., Smartphones, PDAs, Tablett-PCs, …) beliebig komplex und auch willkürlich werden. Wir gehen davon aus, dass wir in drei bis vier Jahren über ein universelles Verfahren für den Datenaustausch zwischen Anwender-PC und Web-Analytics-System verfügen und insbesondere für den Datenschutz relevante Anforderungen in diesen Standard mit einfließen werden.
68
5 5 Analyse- und Auswertungsmethoden Über die Auswertung statistischer Daten gibt es umfangreiche Literatur und Online-Ressourcen. Bereiche wie Data Warehousing (DWH), Business Intelligence (BI) und Online Analytical Processing (OLAP), die deutlich älter als die Web Analytics sind, haben eine breite theoretische und praktische Grundlage geschaffen. Viele Unternehmen verfügen heute über Abteilungen, die sich „Database Marketing“ oder „Business Intelligence Group“ nennen. Insofern kann man grundsätzlich davon ausgehen, dass Unternehmen im Prinzip über das technologische wie auch das Prozess-Know-how verfügen, um die täglichen Datenmengen zu verdichten und daraus Erkenntnisse für das eigene Handeln im Markt zu gewinnen. Allerdings haben Web-Analytics-Daten im Gegensatz zu den „normalen“ Daten in einem DWH oder Data Mart einige Besonderheiten. Wenn es um Analyse- und Auswertungsmethoden geht, muss man sich diese Besonderheiten vor Augen führen, um herauszustellen, dass einige der klassischen Methoden aus eben den Bereichen DWH und BI nicht oder nur eingeschränkt funktionieren. In den folgenden Abschnitten schildern wir diese Besonderheiten der Webanalyse sowie die damit einhergehenden Konsequenzen. Folgende signifikante Unterschiede müssen dabei berücksichtigt werden: Das Fehlen von „Rohdaten“ Auch wenn Sie es gewohnt sind, in Ihrem DWH kontinuierlich auf „frischen“ Rohdaten zu arbeiten, auf deren Basis Sie Ihre Aggregationen und Sichten erstellen: Aufgrund der entstehenden Datenmenge ist dies in der Web Analytics nicht möglich. Web-Analytics-Tools werden Ihnen prinzipiell keine echten „Rohdaten“, sondern immer nur bereits verdichtete und aggregierte Daten bereitstellen. Dies hängt in erster Linie mit dem Objekt der Betrachtung zusammen: In Ihrem DWH werden Sie Kontakte, Leads oder Kunden als Ausgangspunkt für eine Betrachtung heranziehen. In der Web Analytics hingegen gibt es diese Daten zunächst nicht. Die Rohdaten der Web Analytics bestehen aus einem kontinuierlichen Strom an Ereignissen, die mit Zeitstempeln und IDs versehen sind. Die erste Verdichtung dieser Daten muss
69
5 Analyse- und Auswertungsmethoden bereits die „Unique Visitors“ und die „Visits“ berechnen – dies allerdings im Kontext zum Beispiel mit den bereits zu einem „Unique Visitor“ aus der Vergangenheit vorhandenen Daten. Die eigentlichen Rohdaten oder auch der „Clickstream“ sind nichts anderes als eine endlose Aneinanderreihung disjunkter Ereignisse. Ein Beispiel: Ein Telekommunikationsanbieter hat es, vereinfacht gesehen, in seinem DWH mit den immer gleichen 15 Millionen Kunden zu tun. Dieser konkreten Menge an DWH-Objekten kann er beliebige Attribute zuordnen und hoffen, dass deren Zahl steigt. Der Steigerung sind allerdings, im wahrsten Sinne des Wortes, natürliche Grenzen gesetzt. In der Web Analytics hingegen haben Sie es mit permanent und linear steigenden Datenmengen zu tun. Zwar ist auch hier die Anzahl der theoretisch möglichen Besucher endlich, doch selbst wenn diese theoretische Grenze erreicht sein sollte, würde die Menge der Daten weiter in gleichem Maße ansteigen, weil eben nicht die Besucher selbst erfasst werden, sondern die von ihnen ausgelösten Ereignisse auf der Website. Web Analytics „besteht“ also im Wesentlichen daraus, aus einem Ereignisstrom Besucher, Kunden und Kontakte herauszudestillieren. Beschweren Sie sich also nicht über das Fehlen von Rohdaten in Ihrem Web-Analytics-Tool, seien Sie dem Hersteller vielmehr dankbar dafür. Rohdaten sind das Letzte, was Sie in der Webanalyse gebrauchen können. Der zeitliche Aspekt Bleiben wir beim Beispiel des Telekommunikationsanbieters, um den zeitlichen Aspekt in der Webanalyse zu beleuchten: Wenn ein Kontakt des im vorigen Abschnitt erwähnten Telekommunikationsanbieters einen Vertrag abschließt, wird er zum Kunden. Durch diesen Vorgang wird die Zahl der Datensätze nicht zunehmen, der Statusübergang wird sich vielmehr in einer Reihe von Attributen niederschlagen, die aus einem „Lead“ einen „Kunden“ machen. In den relationalen DWH-Strukturen wird sich das zwar in einer Reihe weiterer Datensätze (Vertragshistorie, Marketinghistorie etc.) niederschlagen, diese sind aber relational an das zentrale Objekt geknüpft (den Lead bzw. späteren Kunden). Auf Ihrer Website sieht das leider etwas anders aus: Zunächst ist irgendwo auf einer Vermarktungs-Website eines Ihrer Werbemittel platziert. Ein Besucher dieser VermarktungsWebsite klickt dieses Werbemittel an, und es entsteht eine Reihe an Datensätzen in Ihrem Web-Analytics-Datenbestand. Einige Zeit später registriert ein Besucher im Shop auf Ihrer Website eine Bestellung durch Eingabe seiner Daten und entsprechende Bestätigung des Kaufs. All dies registriert das Web-Analytics-Tool als eine Reihe von Ereignissen, aus denen nun folgende Information generiert werden muss: Die Bestellung des Besuchers muss zunächst dem in der Vergangenheit liegenden Klick auf das Werbemittel zugeordnet werden. Abseits der technischen Details ist es wichtig, sich darüber klar zu werden, dass die Bestellung retrospektiv die Qualität anderer Daten verändert. Der qualitative Unterschied ist gravierend: Im ersten DWH-Beispiel wird ein konkreter Kontakt zu einem Kunden. Im Web-Analytics-Beispiel haben wir plötzlich einen Kunden und müssen uns die entsprechende Historie erst „zusammensuchen“. Es reicht auch nicht aus, sich einfach alle Besucher der Site zu „merken“ und später den Kauf dem „gemerkten“ Besucher zuzuordnen. Wir brauchen den genauen zeitlichen Ab-
70
5.1 Metriken, Dimensionen und Instanzen lauf der Ereignisse aus der Vergangenheit, denn schließlich wollen Sie ja wissen, wie viele Klicks in einem bestimmten Monat zu Käufen geführt haben. Also müssen die Ereignisse auch zeitgenau nachvollziehbar sein. All das führt zu relativ umfangreichen Datenbeständen mit vielfältigen Verknüpfungen. Schon die einfache Frage nach der Konversionsrate, berechnet aus dem Verhältnis „Bestellungen – Visits“ in einem bestimmten Monat, erfordert komplexe Berechnungen. Diese Berechnungen werden üblicherweise in den WebAnalytics-Tools kontinuierlich vorgenommen und in Reports bereitgestellt. Aus diesem Grund sind Web-Analytics-Tools heute nicht so flexibel, wie man es von klassischen Systemen aus der Business Intelligence her kennt. „Near Realtime“ versus Flexibilität In der Informationstechnologie oder präziser in der Programmierung gibt es einen Grundsatz: Man kann Antwortzeitverhalten und Speicherbedarf nicht gleichzeitig optimieren. Anders ausgedrückt: Schnelle Programme benötigen viel Speicher, speicherschonende Programme hingegen sind langsam. In Zeiten, in denen Kosten für Speicherplatz keine Rolle mehr spielen und Prozessorleistung dank Cloud Computing fast unbegrenzt erscheint, ist das sicherlich nicht mehr so relevant. Doch selbst die schnellste Cloud und die größte Datenbank gehen in die Knie, wenn man nur genug Daten und Rechenbedarf generiert und „hineinpumpt“. Das wiederum ist in der Web Analytics leider allzu leicht zu haben: Daten gibt es in beliebig großem Umfang. Ein Tool, das also ein „Near Realtime“-Reporting anbietet, wird, um extrem zeitnahe Reports bereitstellen zu können, diese vorberechnen und fertig aggregiert in entsprechenden Datenstrukturen ablegen. Es ist unumgänglich, dass sich diese vorgefertigten Aggregationen nur noch relativ moderat anpassen lassen. Ein Tool, das hingegen auf eine frühzeitige Verdichtung verzichtet, kann zwar mehr Kombinationsmöglichkeiten in den Reports bieten, dafür werden diese Reports nicht mehr in nahezu Echtzeit bereitstehen, sondern entsprechende Zeit zur Berechnung benötigen. Einen Ausweg bieten verschiedene hochspezialisierte Tools einiger weniger Anbieter an (Realtime Monitor und Explore von coremetrics, Discover von Omniture), die zweigleisig vorgehen: Gering verdichtete Daten werden vorgehalten und durch die Tools vollständig in den Arbeitsspeicher des Anwender-PCs geladen. Die notwendigen OLAP-Cubes werden dann in einer im Speicher des PCs geladenen Datenbank berechnet und die Reports auf diese Weise aufbereitet. Damit erzielt man zwar eine extreme Flexibilität in den Reports, allerdings werden hohe Anforderungen an den Anwender-PC gestellt, und die RealtimeFähigkeit ist trotz allem nicht immer gegeben – beide erwähnten Tools haben eine Latenz von drei bis sechs Stunden, abgesehen von den Kosten für diese Tools, die recht hoch liegen können. Der Ansatz ist auch nicht neu, bereits seit vier bis fünf Jahren sind entsprechende Tools in der BI bekannt, die die DWH-Daten vollständig in den Hauptspeicher laden und die Cubes darauf berechnen (Memory-basierte Analyse). So bietet die Firma QlikTech aus Lund in Schweden bereits seit dem Jahr 2000 das System „QlikView“ an, eines der bekanntesten In-Memory-Analyse-Systeme.
71
5 Analyse- und Auswertungsmethoden BI-Funktionalität Aus dem Data Warehousing und der Business Intelligence sind folgende Grundoperationen der Datenmodellierung bekannt: Slicing: Ausschneiden von Scheiben aus dem Datenwürfel, zum Beispiel nur bestimmte Produkte oder ein bestimmter Zeitraum. Dicing: Gleichzeitige Slicing-Vorgänge in unterschiedlichen Dimensionen. Hierbei wird ein kleinerer Würfel erzeugt, der einen Teilbereich des Gesamtwürfels enthält, beispielsweise alle Hemden, deren Farbe Weiß ist. Pivoting/Rotation: Drehen des Datenwürfels, so dass mindestens eine andere Dimension sichtbar wird, z.B. werden alle Produkte in den jeweiligen Kategorien zusammengefasst. Drill Down: Aggregationen eines Informationsobjekts auf detaillierte Werte herunterbrechen; zum Beispiel werden alle Produktkategorien nach Produkten heruntergebrochen. Roll Up: Gegenoperation zu Drill Down; das Verdichten auf eine höhere Hierarchiestufe, zum Beispiel von der Monats- auf die Jahressicht, nicht zu verwechseln mit der Pivotierung. Drill Across: Dimension auf der gleichen Hierarchiestufe; Betrachtung der benachbarten Dimensionselemente, zum Beispiel Vergleich mit einer anderen Region, einem anderen Produkt oder einem Monat. Drill Through/Drill In: Verfeinerung bis auf den höchsten Detaillierungsgrad, z.B. Herunterbrechen einer kompletten Bestellung bis in alle logistischen Elemente. Web-Analytics-Tools unterstützen im Allgemeinen nicht alle diese Operationen – und wenn doch, dann nicht in den von klassischen BI-Tools her bekannten Freiheitsgraden. Für die Auswahl eines Systems ist es daher wichtig, genau zu wissen, welche der oben beschriebenen Operationen aktuell wirklich benötigt werden. Der Grund für die Beschränkung in der Funktionalität liegt einerseits in den zugrunde liegenden Datenmengen, vielmehr aber noch in der Historie der meisten dieser Systeme. Prinzipiell sind Web Analytics und Business Intelligence zwei parallel laufende Entwicklungen in der IT, die sich zwar generell mit gleichen Aufgabenstellungen und Problematiken befassen, weitestgehend aber zu eigenständigen Lösungen gekommen sind. Ein Grund dafür mag in den unterschiedlichen Zielgruppen und Abnehmern in den Kundenunternehmen liegen: Web-Analytics adressiert in erster Linie das Online-Marketing, während DWH- und BI-Systeme IT-Themen sind. Die Anforderungen an eine Integration der beiden Systeme werden erst in jüngster Zeit stärker und stellen eine der Herausforderungen der nächsten Jahre dar. Zusammenfassend kann man Web-Analytics-Systeme danach bewerten, ob sie hohe Flexibilität in der Analyse bieten; Daten in Echtzeit bereitstellen; möglichst viele der klassischen BI-Funktionalitäten anbieten.
72
5.1 Metriken, Dimensionen und Instanzen
5.1
Metriken, Dimensionen und Instanzen Bei der Auswahl und Strukturierung der Kennzahlen, mit denen der Erfolg einer Website gemessen wird, werden Metriken, Dimensionen und Instanzen benötigt. Diese Begriffe tauchen an vielen Stellen eines Analysesystems auf und werden vielfältig verwendet – ohne dass es eine Definition dafür gäbe! Selbst in Wikipedia werden die Begriffe im Zusammenhang mit Data Warehousing, Business Intelligence und Balanced Scorecard genannt, ohne dass sich eine Definition fände. Wir wollen daher versuchen, diese Begriffe zunächst zu erläutern, bevor wir verschiedene Analysemethodiken beschreiben.
5.1.1 Metrik Eine Metrik ist die Bezeichnung für eine Größe, die gemessen und zahlenmäßig erfasst werden kann. Die einfachste Metrik ist ein reiner Zähler. Metriken sind benannt nach dem, was gezählt wird. Zu den Basismetriken in der Web Analytics gehören zum Beispiel PageViews, Visits, Visitors oder Unique Visitors. Dabei gibt die jeweilige Metrik Auskunft darüber, wie oft die entsprechende Größe erfasst wurde, sie zeigt also die Anzahl der PageViews, Anzahl der Visits usw. Diese Metriken werden häufig als Traffic-Metriken bezeichnet, weil sie allein nur Informationen über den Besucherstrom auf einer Website vermitteln. Neben den Traffic-Metriken zeigen die Erfolgsmetriken schon direkter, ob und in welchem Maße die angestrebten Erfolge erreicht wurden. Dabei werden zum Beispiel Click Throughs gemessen (die Klicks auf eigene Werbemittel auf fremden Websites) oder Click Outs (Klicks auf bezahlte Werbemittel fremder Anbieter auf der eigenen Website). Zu den Erfolgsmetriken gehören aber auch Angaben wie die Anzahl an Bestellungen in einem Zeitraum sowie deren monetärer Wert. Metriken haben in der Regel einen zeitlichen Bezug (PageViews pro Tag, Visits pro Woche, Unique Visitors pro Monat, Bestellungen pro Monat). Der zugeordnete Wert stellt die Summe der Ereignisse in diesem Zeitraum dar.
5.1.2 Dimensionen und Instanzen Während die Metriken zeigen, wie oft ein bestimmtes Ereignis stattgefunden hat, werden die genaueren Eigenschaften der Ereignisse als „Dimensionen“ erfasst. Für einen Visit mit drei PageViews werden beispielsweise die Seitennamen der drei besuchten Webseiten als Dimension erfasst. Weitere übliche Basisdimensionen sind Seitensegment, Produkt und Produktgruppe für Shops. Bei einer Bestellung können auch Eigenschaften wie das Geschlecht der Besucher, ihre Postleitzahlen oder die Zahlungsweise als Dimension (Eigenschaft des Bestellvorgangs) bestimmt werden. Die möglichen Werte stehen in der Regel vorher fest und werden beim Aufbau der Website definiert: So gibt es etwa eine Liste mit Seitennamen und einen bestimmten Pool an Produktangeboten. Die Werte für die einzelnen Dimensionen können im Laufe der Zeit
73
5 Analyse- und Auswertungsmethoden variieren, beispielsweise durch Hinzufügen oder Löschen von Seiten oder Änderungen im Produktprogramm. Zur Zeit des Visits kann eine Dimension aber immer nur einen Wert aus einem definierten Wertebereich annehmen. Da die Dimensionen nur Werte aus einer vorgegebenen Menge wählen, werden sie selbst nicht gemessen. Dimensionen benötigen eine Bezugsgröße, die bei der Erfassung von Ergebnissen behilflich ist – die Metriken. Dabei kann eine Dimension durchaus mit Hilfe mehrerer Metriken abgebildet werden. Für die meisten Dimensionen gilt: Je mehr Metriken sie erfassen, umso besser für die Auswertung. Die Dimension „Seitenname“ kann also beispielsweise in allen Metriken abgebildet werden, die das Anzeigen einzelner Webseiten zählen. So lässt sich dem konkreten und zählbaren Ereignis PageView (Metrik) immer die Eigenschaft, welche Seite aktuell angezeigt wird, zuordnen – der Seitenname (Dimension). Auch für einen ganzen Visit kann man die Eigenschaft des Besuchs eine Liste aller besuchten Seitennamen erfassen. Durch die Darstellung der Dimensionen in verschiedenen Metriken entsteht eine Matrix, die deren Zuordnung abbildet (siehe Abbildung 5.1).
Besucher eingeloggt?
X
X
Bannerposition
Newsletteranmeldung
X
Bestellung
X
Hinzufügen Warenkorb
Visit
Seitenname
Click Out
PageView Dimensionen
Metriken
X X X
Preis
X
X
Referrer
X
X
X
X
X
Alter
X
X
X
X
X
X
Abbildung 5.1 Eine Matrix aus Dimensionen und Metriken
Erst mit dem Auflösen der Metriken nach bestimmten Dimensionen entstehen in den meisten Fällen die für das Web-Analytics-System wirklich wichtigen Informationen: Die reine Anzahl an Newsletter-Registrierungen wird zwar in einer Metrik erfasst, sie gibt aber noch keinen Hinweis darauf, wie sich dieser Wert verbessern ließe. Durch die Erfassung der Dimension „Alter der Newsletter-Empfänger“ wird vielleicht deutlich, dass in einer bestimmten Altersgruppe weniger Anmeldungen erfolgen als im Durchschnitt oder weniger als in diesem Segment erwartet – das wäre eine direkte Aufforderung an die Verantwortlichen, genau diesem Bereich mehr Aufmerksamkeit zu widmen.
74
5.2 Gängige Darstellungsformen von Statistiken Die Auflösung der Visitors nach dem externen Werbemittel, über das sie den Weg zur eigenen Website gefunden haben, zeigt den Erfolg der externen Kampagnen. Durch das zusätzliche Einbinden der Kosten für die Kampagne lässt sich hier eine direkte Kosten/Nutzen-Relation herstellen. Auch bei den Dimensionen ist eine Einteilung ähnlich wie bei den Metriken (TrafficDimensionen und Produktdimensionen) möglich. Die Traffic-Dimensionen werden üblicherweise nur in den Traffic-Metriken erfasst, manchmal auch ausschließlich in der Metrik „PageView“, weil sie sich auf eine bestimmte Webseite beziehen. Erfolgsdimensionen werden im Gegensatz dazu in allen Metriken erfasst. Als dritte Gruppe können Dimensionen unterschieden werden, die als „E-Commerce-Variablen“ dienen. Diese werden im Laufe eines Besuchs auf der Website gespeichert und nur einmal gesetzt (zum Beispiel das Geschlecht des Bestellers). Instanzen sind dabei die konkreten Ausprägungen einer Dimension. In der Dimension „Produktbezeichnung“ findet man in einem Versandhandelsshop zum Beispiel die Instanzen „Herrensakko“, „CD-Spieler“ oder „SAT Receiver“
5.1.3 Key Performance Indicator (KPI) Als Key Performance Indicator oder auch KPI versteht man im Allgemeinen die Verknüpfung aus Metrik, Dimension und zeitlichem Verlauf. Der Wert der über eine Shop-Website generierten Bestellungen, gemessen mit einem WebAnalytics-System, ist prinzipiell nicht exakt und wird vom entsprechenden Bestellwert im nachgeschalteten Bestell- oder Logistiksystem abweichen. Wertvoll wird die gemessene Zahl aber durch die Möglichkeit, diese im Web-Analytics-System zum Beispiel nach Marketingkanälen herunterzubrechen, denn für die Optimierung der Marketingkanäle reicht die Messgenauigkeit des Web-Analytics-Systems aus, während im (präzisen) Warenwirtschaftssystem diese Trennung nicht möglich ist. Der gemessene Bestellwert als Metrik allein ist also wenig hilfreich. Erst die Verbindung mit einer weiteren Dimension wie dem Marketingkanal sowie eine zeitliche Abbildung der Entwicklung dieser Kennzahl macht sie zu einem KPI.
5.2
Gängige Darstellungsformen von Statistiken Web-Analytics-Systeme bieten eine Reihe von Standardreports in mehr oder weniger einheitlicher Darstellung. Sieht man von Farben und technischen Spielereien beim Aufbau von Grafiken ab, sind die Reports in den Systemen der unterschiedlichen Anbieter sehr ähnlich (siehe Abbildungen 5.2 und 5.3). Der Unterschied liegt lediglich in den Möglichkeiten, aus einem Standardreport heraus individuelle Abfragen und individuelle Darstellungen zur Überprüfung einer Hypothese zu erstellen. Es gibt einige Spezialreports in der Web Analytics wie Trichteranalysen oder
75
5 Analyse- und Auswertungsmethoden
Abbildung 5.2 Verlaufsdarstellung „Unique Visitors“ in Webtrekk
Abbildung 5.3 Verlaufsdarstellung „Unique Visitors“ in coremetrics
76
5.2 Gängige Darstellungsformen von Statistiken Pfadanalysen, die bei einzelnen Tools wiederum sehr unterschiedlich dargestellt werden und bei denen die Tools auch qualitative Unterschiede aufweisen. Im Folgenden beschreiben wir einige dieser Darstellungsformen für Statistiken generisch.
5.2.1 Trenddarstellungen Trenddarstellungen sind die einfachste Form von Statistiken. Ein bestimmter Wert wird in seinem zeitlichen Verlauf dargestellt (Abbildungen 5.2 und 5.3). Sinnvoll sind solche eindimensionalen Trendverläufe nur für den ersten Einstieg in die Analyse. Der eigentliche Verlauf wird analysiert, und man versucht, zunächst bestimmte Muster zu bewerten: Starker Anstieg beziehungsweise starker Abfall des Trends Ausriss (Spike) nach oben Kurzfristiger Abfall und Wiederanstieg (Drop out) Ein glatter Verlauf wäre nur dann etwas Besonderes, wenn eines der obigen Muster erwartet wird, dann aber ausbleibt. Dabei wird die dargestellte Grafik oder Statistik bereits unter dem Aspekt einer konkreten Hypothese betrachtet („Wir erwarten bei der Anzahl der Unique Visitors im Zeitraum t einen kurzfristigen Anstieg aufgrund der geschalteten Werbung auf Portal p“). Zu Hypothesen und deren Überprüfung erfahren Sie mehr in Kapitel 5.3 „Analysemethoden“.
5.2.2 Mehrere Metriken Typische oder atypische Muster, wie gerade beschrieben, lassen sich auch durch eine Gegenüberstellung mehrerer Metriken verdeutlichen oder überhaupt erst sichtbar machen. Dabei liegt die Kunst in der Beschränkung und in der Auswahl passender Metriken. Die Ge-
Abbildung 5.4 Beispiel für die Gegenüberstellung dreier Metriken: Bestellwert (Revenue), Orders und Visits mit SiteCatalyst (Omniture)
77
5 Analyse- und Auswertungsmethoden genüberstellung einer Anzahl an Unique Visitors und der Anzahl an Seitenabrufen ist sinnvoll als Indikation für die Attraction einer Website. Die Gegenüberstellung von PageViews und Bestellwert hingegen ist nur dann sinnvoll, wenn eine gezielte Hypothese untersucht werden soll. Die in Abbildung 5.4 gezeigte Statistik verdeutlicht drei verschiedene Metriken gleichzeitig: die Anzahl der Bestellungen in der y-Achse, die Anzahl der Besuche im Zeitraum in der x-Achse und den Umsatz durch die Größe der entsprechenden Kreise. Die unterschiedlichen Farben markieren einzelne Produktgruppen. Auffällig ist der blaue Kreis, der bei einer mittleren Anzahl von Besuchen und einer mittleren Anzahl von Bestellungen den höchsten Bestellwert generiert.
5.2.3 Mehrere Dimensionen Wird eine Metrik – etwa die Anzahl der Bestellungen – nach einer Dimension wie zum Beispiel einem Marketingkanal heruntergebrochen, bieten sich generell verschiedene Formen der grafischen Darstellung an. Die in Abbildung 5.5 beispielhaft gezeigte Darstellungsart macht deutlich, dass die Anzahl der vernünftig zu interpretierenden Instanzen einer Dimension deutlich kleiner als zehn sein muss, wenn das Ganze nicht zu unübersichtlich werden soll. Bei der in Abbildung 5.6 gewählten Form der Darstellung, bei der die Werte aufeinander gestapelt und addiert werden, ist es durchaus möglich, eine größere Anzahl an Instanzen einer Dimension übersichtlich darzustellen.
Abbildung 5.5 Kurvenschar oder Flächen (eine Verlaufskurve bzw. Fläche je Instanz)
Abbildung 5.6 Gestapelte Balken (snoobi Webanalyse, Schweiz)
78
5.2 Gängige Darstellungsformen von Statistiken Interessant wird es, wenn eine der Instanzen auf die nächste Unterebene heruntergebrochen werden soll. In den meisten Web-Analytics-Tools ist dieser „Drill Down“ (siehe Absatz „BI-Funktionalität“ in der Einleitung dieses Kapitels) nur möglich, wenn gleichzeitig eine andere Dimension des OLAP-Cubes aufgegeben wird. In den meisten Fällen ist dies der zeitliche Ablauf, das heißt: Man bekommt zwar eine Darstellung der Summenwerte über den eingestellten Betrachtungszeitraum, allerdings nicht mehr dessen zeitlichen Verlauf in der untergeordneten Dimension. Hier unterscheiden sich Web-Analytics-Systeme deutlich von BI-Systemen.
Abbildung 5.7 Darstellung eines Drill Downs: Marketingkanal nach Plattformen mit zwei Metriken (Visits und Anzahl Bestellungen)
7000 6000 5000 4000 3000 2000 1000 0
Altes Produkt abc
Produkt XYZ
Neuheiten Produkte
Display
SEM Jan 2009
Altes Produkt abc
Produkt XYZ
Neuheiten Produkte
Display
SEM Feb 2009 All Visits All Orders
Abbildung 5.8 Beispiel für eine vollständige Darstellung mit Zeitverlauf (Excel Pivot)
79
5 Analyse- und Auswertungsmethoden Abbildung 5.7 zeigt, dass bei steigender Komplexität der Abfragen die Darstellung zunehmend vereinfacht wird: Der Graph zeigt hier lediglich die Kanäle an, nicht aber die heruntergebrochenen Kampagnen. Tatsächlich ist die gleichzeitige Darstellung eines Drill Downs einer Dimension in zwei Metriken einschließlich ihres zeitlichen Verlaufs wie in Abbildung 5.8 gezeigt derzeit in keinem bekannten Web-Analytics-System möglich. Hier ist man auf Office-Tools wie Microsoft Excel angewiesen.
5.2.4 A/B-Vergleiche In ihrer einfachsten Form sind A/B-Vergleiche die Gegenüberstellung zweier Auswertungen in einem Report. So kann man zum Beispiel die Auswertung in Abbildung 5.6 für das aktuelle und das vorherige Quartal nebeneinanderstellen. Aber auch die getrennte Darstellung mehrerer Dimensionen oder Metriken in zwei getrennten Grafiken innerhalb eines Reports ist möglich. Sofern ein Web-Analytics-System nicht direkt über die Möglichkeit verfügt, zwei Statistiken innerhalb eines Reports abzubilden, gibt es immer noch die Alternative, diese Reports getrennt voneinander zu ziehen und entweder in zwei Browserfenstern oder in Form von zwei Ausdrucken einander gegenüberzustellen.
5.2.5 Trichteranalysen Trichter- oder Funnel-Analysen stellen prinzipiell eine Abfolge an Zustandsübergängen in einer bestimmten Metrik dar. Dabei wird auf jeder Stufe zur Markierung des Zustandsübergangs eine bestimmte Instanz einer Dimension herangezogen, um die so genannte „Bounce Rate“ eines jeden Zustandsübergangs herauszustellen. Zu dieser eher abstrakten Beschreibung ein konkretes Beispiel: Dargestellt werden soll der Prozess einer Registrierung in einem Online-Portal anhand der einzelnen Registrierungsschritte. Wir möchten darstellen, wie hoch der Anteil der Benutzer ist, die jeweils den nachfolgenden Schritt des Registrierungsprozesses erreichen. Der Prozess besteht aus folgenden Schritten: Anklicken des Buttons „Jetzt registrieren“ Ausfüllen der ersten Seite der Registrierung Ausfüllen der zweiten Seite der Registrierung Bestätigung, dass man sich registrieren möchte (Versand einer Bestätigungsmail) Anklicken des Links in der Bestätigungs-E-Mail Erster Login nach Bestätigung des E-Mail-Links Naturgemäß werden von Stufe zu Stufe immer weniger Besucher „mitspielen“. In der Darstellung wird man die Anzahl der Anwender in jeder Stufe als Balken darstellen, mit dem Effekt, dass die Balken im Ablauf des Prozesses immer kürzer werden, wie Abbildung 5.9 zeigt.
80
5.2 Gängige Darstellungsformen von Statistiken
Abbildung 5.9 Mit einem Konversions-Trichter („Funnel“) können die verschiedenen Stufen des Kaufprozesses bis zur Konversion dargestellt werden.
In Kapitel 6 stellen wir die unterschiedlichen Formen der Trichter sowie ihre grundlegende Bedeutung dar.
5.2.6 Pfadanalysen Abstrahiert stellen Pfadanalysen eine Abfolge von Instanzen einer Dimension dar, die von einem Anwender auf der Website durchlaufen oder verfolgt wurden. Ursprünglich wurden Pfadanalysen in der Web Analytics verwendet, um festzustellen, welche Seiten einer Website ein Anwender in welcher Reihenfolge und wie häufig abgerufen hat. Man kann auf diese Weise „Trampelpfade“ innerhalb der Site erkennen und diese den eher weniger genutzten Wegen gegenüberstellen. Der monetäre Nutzen solcher Pfadanalysen auf Basis von Seitennamen oder -bereichen ist aber begrenzt.
81
5 Analyse- und Auswertungsmethoden
Abbildung 5.10 Beispiel für einen Seitenpfad (Unica NetInsight)
Die Datenaufbereitung ist komplex und wird daher nur von wenigen Statistiktools in einer nutzbaren Form angeboten. Bei der Pfadanalyse spielen eine Reihe von Begriffen eine Rolle, die wir im Folgenden erläutern. Einstiegsseiten, Ausstiegsseiten, Single Page Visits und Reloads Diese vier Kennzahlen sind die einfachsten Pfadanalysen. Sie kennzeichnen, bezogen auf den jeweiligen Seitennamen, die Usability der Website. Während Ein- und Ausstiegsseiten (Entry bzw. Exit Pages) beinahe alle Hersteller ermitteln, weisen einige Statistiken Single PageVisits und Reloads nicht aus. Folgeseiten Beginnend mit einer beliebigen Seite werden alle in einem bestimmten Zeitraum aufgerufenen direkten Folgeseiten als Baum dargestellt. Ein Beispiel dazu ist in Abbildung 5.10 zu sehen. Zu jedem Teilpfad wird angegeben, wie viel Prozent aller Besucher der ersten Seite diesen Weg gewählt haben. Baumdarstellungen erreichen meistens bereits in der zweiten Ebene eine so feine Verästelung, dass diese Darstellung auf die beiden Folgeseiten beschränkt bleibt.
82
5.2 Gängige Darstellungsformen von Statistiken Vollständige Pfade Alle Pfade werden jeweils als Listen der Seitennamen aufgeführt. Für jede dieser Listen wird ihre Häufigkeit ausgezeichnet. Die Pfade lassen sich auf Besuche einschränken, die auf einer bestimmten Seite ein- oder ausgestiegen sind oder die eine bestimmte Seite aufgerufen haben. Trotz der Einschränkungsmöglichkeiten sind diese Statistiken oft nur mühsam les- und auswertbar. A
B
A
A
B
A
B
B
A
C
C
B
C
C
C
17
15
9
Abbildung 5.11 Vollständige Pfade auf einer Website sowie deren Häufigkeit der Benutzung
Ein Problem bei der Aufzählung der Pfade sind „Reloads“ – Seitenneuladungen – und Rücksprünge. In Abbildung 5.11 enthält der erste Pfad eine Schleife und einen Rücksprung. Die erste Abfolge A – B – A besagt, dass der Anwender nach der Seite B wieder zur Seite A zurückgekehrt ist. Danach ist die Seite A zweimal abgerufen worden, um anschließend wieder zur Seite B zu klicken. In verschiedenen Tools werden diese Iterationen derselben Muster zu einem Pfad der Art A B C zusammengefasst, da dies dem „effektiven Betrachtungspfad“ entspricht. Deshalb wird die Abfolge A A zu A. Der daraus resultierende Pfad A B A B C wird zu A B C verdichtet. Ob diese Aggregation gewünscht oder sinnvoll ist oder ob die häufigen Iterationen zum Beispiel für eine Usability-Betrachtung gewünscht werden, ist leider keine Option, denn die Web-Analytics-Tools sind hier ausnahmslos statisch und bieten jeweils nur eine Form der Darstellung an. Fall-Out-Analysen Fall-Out-Analysen zeigen, beginnend mit den Besuchen einer ersten Seite, wie viele Besucher eine nächste Seite erreicht haben. Obwohl auch Fall-Out-Analysen nur Suchfilter für vollständige Pfade bilden, lassen sie sich deutlich besser handhaben. Der Suchfilter besteht aus der Auswahl mehrerer Seiten, die nacheinander, aber nicht notwendigerweise direkt nacheinander besucht wurden. Bei einigen Herstellern muss eine Fall-Out-Analyse für eine Seitenfolge explizit gemessen werden. Andere Hersteller erlauben eine spontane Abfrage. Die Fall-Out-Analyse wird häufig für Warenkorb-Bezahlprozesse oder Registrierungsprozesse benutzt, um die Stellen mit besonders hohen Abbruchquoten zu finden. Leider sind die wenigsten Prozesse dieser Art in der Praxis so eindimensional wie die Abfolge in Ab-
83
5 Analyse- und Auswertungsmethoden
A
51
100% -25,5%
B
38
74,5% -32,3%
C
21
41,2%
Abbildung 5.12 Darstellung einer Fall-Out Analyse
bildung 5.12. Vielmehr gibt es Verzweigungen und Verjüngungen wie zum Beispiel während eines Bezahlprozesses, bei dem gefragt wird, ob per Rechnung, Paypal oder Kreditkarte bezahlt werden soll. Je nach Antwort verzweigt der Prozess in unterschiedliche Unterabläufe, um anschließend bei der Bestellabschluss-Seite wieder zusammenzulaufen. Es gibt sehr wenige Tools, die einen Prozess wie in Abbildung 5.13 darstellen können.
Abbildung 5.13 Komplexer, verzweigter Prozess mit Fall-Out-Angaben (Analyzer NX von AT Internet)
84
5.2 Gängige Darstellungsformen von Statistiken Pathmap Die Pathmap ist ein gerichteter Graph, dessen Knoten die Seiten bilden und dessen Kanten die jeweiligen Seitenwechsel zeigen. Die Kanten sind gewichtet durch die Häufigkeit des jeweiligen Schritts. Das Ergebnis wäre eine sehr gute, übersichtliche und intuitive Darstellung aller Pfade, wenn die aktuellen Versionen der verfügbaren Web-Analytics-Tools nicht den Fehler hätten, dieselbe Seite mehrfach darzustellen.
D
17
7
21
7
17
D
21
A
A
A 3
3
12
12
B
B
10
Abbildung 5.14 Darstellung einer Pathmap: links der Idealzustand, rechts die Umsetzung zahlreicher Tools
Pfade über Instanzen beliebiger Dimensionen Generell kann man auch für die Instanzen anderer Dimensionen eine Pfadanalyse anwenden. Ein Pathing über eine Variable „Produktgruppe“ oder „Themenbereich“ zeigt, in welcher Reihenfolge verschiedene Produkte angesteuert oder redaktionelle Artikel zu unterschiedlichen Themen gelesen wurden. Und einen erheblichen monetären Nutzen erhält man, wenn man den Nutzungspfad von Werbemitteln vor einem Kauf oder einem Transaktionsabschluss (etwa eine Registrierung) betrachtet. Bei der Analyse eines Werbemittelnutzungspfads geht man von der Annahme aus, dass die Anwender vor einem Kauf zunächst mehrfach Kontakt mit den Werbemitteln der betreffenden Website hatten und auch mehrere Werbemittel angeklickt haben, bevor es zu einem Transaktionsabschluss gekommen ist. Der Unterschied zwischen dem einfachen Seitenpfad und dem Werbemittelnutzungspfad stellt Web-Analytics-Systeme vor eine große Herausforderung: Der Seitenpfad bezieht sich immer auf eine konkrete Session: er begann mit dem Besuch des Anwenders auf der Site und endete mit dessen Verlassen der Site. Rein theoretisch wird der Sitebetreiber kontinuierlich Werbung treiben, und somit hat der Werbemittelnutzungspfad eines Anwenders keinen „natürlichen“ Anfang. Im positiven Fall endet er mit dem Abschluss einer Transaktion, im negativen Fall nie. Der Werbemittelnutzungspfad ist somit Visit übergreifend und prinzipiell infinit, es sei denn, man begrenzt ihn durch willkürliche Zeitgrenzen wie „innerhalb von n Tagen“. Diese Begrenzung darf aber nicht mit dem Betrachtungszeitraum verwechselt werden. Eine mögliche Vorgabe könnte also lauten:
85
5 Analyse- und Auswertungsmethoden Alle Werbemittelkontakte als Pfad anhand des Marketingkanals des letzten Halbjahres, bei denen Anwender innerhalb von 30 Tagen nach dem Erstkontakt gekauft haben, bewertet nach Bestellwert. Wie bei der Fallout-Analyse, sind auch hier die „Schleifen“, die ein Anwender bei seinem Weg durch die Website oder bei seinem Kontakt mit Werbemitteln zieht, ein Problem bei der Erfassung und der Darstellung. Segmente Die Segmentierung ist eine der wichtigsten Aufgaben in der Web Analytics, um zu aussagekräftigen Daten zu gelangen. Prinzipiell handelt es sich dabei um die BI-Operationen „Slice“ und „Dice“ (siehe die Einführung dieses Kapitels). Vielfach möchte man, statt den gesamten Datenbestand zu betrachten, nur einen Ausschnitt daraus analysieren, indem bestimmte Attribute als globaler Filter auf den gesamten Datenbestand angewendet werden. So kann man zum Beispiel nur jene Daten aus dem Datenbestand herausschneiden (Slice), die von Besuchern stammen, die über eine bestimmte Suchmaschine auf die Website gelangt sind. Das Resultat einer solchen Operation ist ein Ausschnitt des Datenbestands, auf den aber alle Funktionen der Analyse und der Auswertung vollständig zur Verfügung stehen (im Gegensatz zu einem Drill Down, der Bestandteil eines einzelnen Reports ist). Danach kann ein solches Segment wiederum dem Gesamtbestand gegenübergestellt werden. Beispiel: Vergleich der Anzahl der Seitenabrufe pro Besuch von Google-Besuchern zur Grundgesamtheit aller Besucher. Die Funktion der Segmentierung ist in den unterschiedlichen Web-Analytics-Tools auf höchst unterschiedliche Weise implementiert. Wie aus den Abbildungen 5.15 und 5.16 hervorgeht, verwenden die Hersteller für Segmente durchaus unterschiedliche Begriffe. Teilweise ist das recht verwirrend, da gleiche Begriffe für völlig unterschiedliche Funktionen eingesetzt werden. Generell gelten aus unserer Sicht folgende Definitionen: Filter: Herausfiltern bestimmter Instanzen einer Dimension in einem Report, zum Beispiel „alle Seitennamen, die mit ‚WB_‘ beginnen“. Das Ergebnis ist der gleiche Report, aber eben nur mit Instanzen, die zum Suchmuster passen. Vielfach kann das Muster („WB_*“) direkt in einen Report eingegeben werden. Dies wird in verschiedenen Tools aber auch als „Suche im Report“ bezeichnet. Segment: Ausdünnen des gesamten Datenbestands anhand bestimmter Benutzer- oder Visit-Eigenschaften (zum Beispiel alle männlichen Besucher oder alle Besuche, die als Referrer Google haben). Dadurch entsteht ein vollständiger Datenbestand (oder eine Teilkopie des Gesamtdatenbestands), auf den sich die gesamte Funktionalität des WebAnalytics-Tools wieder anwenden lässt. Unglücklicherweise bezeichnen manche Hersteller dies ebenfalls als „Filter“ und die oben unter Filter genannte Funktionalität daher als „Suche“
86
5.2 Gängige Darstellungsformen von Statistiken
Abbildung 5.15 Segmentbuilder coremetrics
Abbildung 5.16 Segmente bearbeiten in „Webtrekk Q3“
87
5 Analyse- und Auswertungsmethoden Um Missverständnisse zu vermeiden, ist es daher extrem wichtig, mit dem Anbieter die Begrifflichkeiten zu klären. Auch hier sei darauf hingewiesen, dass Anglizismen in der Web Analytics zwar üblich sind, aber eine Eindeutigkeit nur vortäuschen und man nicht umhinkommt, im Rahmen eines Projekts eine klare Terminologie zu entwickeln.
5.3
Analysemethoden Kennen Sie die Rätselgeschichte von Peter, Paul und Mary? Die geht so: „Peter, Paul und Mary sind tot. Sie liegen auf dem Wohnzimmerboden. Der Boden ist nass. Ein Fenster steht offen, und Glasscherben liegen im Zimmer verstreut. Was ist passiert?“ Sie werden sich fragen: Was hat das bitte schön mit Web Analytics zu tun? Relativ viel, wenn man abstrahiert: Sie sind im Besitz aller erfassbaren Fakten eines oder mehrerer vergangener Ereignisse und müssen nun herausbekommen, was passiert ist. Dabei können Sie Fragen stellen, aber Ihre Fragen werden nur mit „Ja“ oder „Nein“ oder „Stimmt“ oder „Stimmt nicht“ beantwortet. Komplexere Antworten dürfen Sie nicht erwarten. Es gibt eine einzige Frage, die direkt zur Lösung des Rätsels führt. Wenn Sie diese Frage finden und stellen, haben Sie die Lösung, wenn nicht, suchen Sie womöglich ewig nach der Antwort. Die Frage lautet: „Sind Peter, Paul und Mary Menschen?“ Die Antwort ist „Nein“ – offensichtlich handelt es sich um Zierfische, deren Glas beim unvorsichtigen Öffnen des Fensters von seinem Platz gestoßen wurde. Dieses Beispiel zeigt, dass wir dazu neigen, Dinge als Grundannahme stillschweigend zu unterstellen, obwohl offensichtlich nichts aus den Fakten diese Annahme stützt. Hier geht man stillschweigend davon aus, dass es sich bei Peter, Paul und Mary aufgrund der Namen um Menschen handeln muss. Die Analyse von Web-Statistiken hat vieles mit dem kleinen Rätsel oben gemeinsam: Es liegen disjunkte Fakten von vergangenen Ereignissen vor. Um durch die Analyse zu einem aussagekräftigen Ergebnis zu kommen, müssen die Fakten anhand einer Hypothese untersucht werden. Die Hypothesen müssen frei von Grundannahmen sein, die nicht offensichtlich aus den Fakten ableitbar sind. Der Rest der Analyse ist dann harte Arbeit und viel Geschick im Fragenstellen. Wir wollen es uns aber nicht ganz so einfach machen und etwas detaillierter auf die drei Punkte oben eingehen. Zunächst wollen wir uns jedoch mit den Begriffen „Reporting“ und „Analyse“ auseinandersetzen. In unserer langjährigen Beratungspraxis ist uns insbesondere bei größeren Unternehmen aufgefallen, dass die Begriffe „Reporting“ und „Analyse“ sehr häufig synonym gebraucht werden. Wir verwenden zwar den Begriff „Report“ in diesem Kapitel ebenfalls recht oft, doch in einem anderen Kontext und nicht synonym für „Analyse“, sondern für „Statistik“. Reporting ist – einfach formuliert – generell immer etwas Statisches, Festge-
88
5.3 Analysemethoden schriebenes. Reporten oder berichten wird man seinem Vorgesetzten oder seiner Geschäftsleitung. Reporten hat nichts mit Analyse zu tun. Reporting bedeutet, Statistiken bunt anmalen, ausdrucken und auf den Schreibtisch des Chefs legen. Das ist nichts grundsätzlich Falsches, es dient aber weniger dem Zweck der Optimierung und Verbesserung als mehr dem der Überprüfung und Überwachung. Reporting ist auch keineswegs die Dokumentation einer Analyse, sondern allenfalls der faktische Anhang einer solchen (dazu gleich mehr). Auf Wikipedia wird „Analyse“ als die Erforschung der Ursachen eines IST-Zustandes beschrieben. Analyse ist ein iterativer und kreativer Prozess. Sie gleicht der Arbeit eines Detektivs: Es ist die Suche nach dem, was wirklich passiert ist; nach der Abweichung vom Normalen und den damit verbundenen Rückschlüssen auf die Gegenwart und Zukunft. Analysten arbeiten nicht mit starren Reports, sondern „wühlen“ unaufhörlich in den Datenbeständen herum, immer auf der Suche nach Ausreißern vom Trend. Der WebanalyseExperte Avinash Kaushik spricht in dem Zusammenhang gerne vom Kampf der „Reporting Squirrels“ – den Berichte-Eichhörnchen – gegen die „Analytics Ninjas“ – den Analyse-Kämpfern. Wir fragen unsere Kunden in Abwandlung eines bekannten Werbespruchs gerne „Reporten Sie noch oder analysieren Sie schon?“. Es gibt keine vorgefertigten Analysemethoden, die wie Kochrezepte zu einem erwünschten Ergebnis führen. Dazu sind einerseits die gemessenen und erfassten Daten und andererseits die zugrunde liegenden Websites und Geschäftsmodelle viel zu komplex und unterschiedlich, dass man einheitliche Methodiken, etwa zur Steigerung der Klickrate auf Landing Pages, erfassen könnte. Allenfalls gibt es Empfehlungen, was man alles machen und untersuchen könnte. Wenn wir in diesem Kapitel von Analysemethoden sprechen, geht es um eine methodische Vorgehensweise bei der Analyse allgemein, um die Datenmengen zu bewältigen und um zu schlüssigen und nachvollziehbar dokumentierten Ergebnissen zu gelangen. Dabei unterscheiden wir zwei Herangehensweisen in der Analyse: die hypothesengetriebenen und die trendgetriebenen Analysen.
5.3.1 Hypothesengetriebene Analysen „Unsere neue Landing Page wird die Konversionsrate im nächsten Monat um 34,6% erhöhen“ ist eine Aussage, die man relativ leicht überprüfen kann – im nächsten Monat. Diese recht simple Aussage ist zunächst eine – wenn auch sicherlich gut begründete – Vermutung, eine Hypothese. Zur Überprüfung dieser Hypothese wird man im Web-AnalyticsTool nach einer geeigneten Auswertung suchen. Zum Beispiel nach einem Segmentreport, der die Besuche aller Besucher darstellt, die in den letzten 30 Tagen die Landing Page gesehen haben, und wird die entsprechenden Käufe und Abbrüche dieser Besucher als Metriken gegenüberstellen. Man wird diesen Report um zusätzliche Angaben erweitern, vertiefen und kontinuierlich beobachten, wie sich die Konversionsrate tatsächlich entwickelt. Bei der hypothesengetriebenen Analyse wird demnach zunächst eine Behauptung – eine Hypothese – formuliert und versucht, diese anhand entsprechender statistischer Auswertungen zu belegen – oder zu widerlegen.
89
5 Analyse- und Auswertungsmethoden Die Hypothese orientiert sich dabei an den direkten oder indirekten Zielen einer Website. Sie könnte beispielsweise lauten: „Die Produktempfehlungen, die in der Warenkorbübersicht zum Kauf weiterer Produkte anregen sollen, haben mehr Erfolg, wenn sie aus den gleichen Warengruppen stammen wie die Produkte im Warenkorb selbst.“ Die dieser Hypothese zugrunde liegende Zielsetzung ist, den Abverkauf durch Zusatzprodukte zu erhöhen. (Es gibt zahlreiche Ansätze dafür, wie und welche Art von Produkten man als so genannte Upselling-Artikel anbieten sollte; was aber hier nicht unser Thema ist.) Um zu einem aussagekräftigen Analyseergebnis zu gelangen, empfehlen wir bei einem hypothesengetriebenen Ansatz folgende Vorgehensweise: Grundlegendes Ziel festsetzen Dies ist im obigen Beispiel die Steigerung des Abverkaufs durch Anbieten von Zusatzund Ergänzungsprodukten im Warenkorbprozess eines Online-Shops. Es ist sehr wichtig, diese Zielsetzung zu formulieren, denn oft wird vor lauter Analyse das Ziel völlig aus den Augen verloren. Schlimmer noch: durch Hinzufügen irrelevanter Angaben verwässert. Grundannahme formulieren Danach legen wir die eigentliche Hypothese fest. In unserem Beispiel wäre dies: „Die Produkte sollten aus der gleichen Produktgruppe stammen wie die Produkte im Warenkorb, um einen hohen Upselling-Effekt zu erzielen.“ Sammlung der Fakten Die im Web-Analytics-Tool gesammelten Daten werden in aussagekräftigen Reports zusammengestellt, um die Annahmen zu überprüfen. Zum Beispiel: Analyse der WarenkorbZusammensetzung vor und nach dem Angebot der Zusatzprodukte nach Produktkategorien und Hinzufügungen aus dem Zusatzangebot. Auswertung der Fakten Die Überprüfung der Auswertungen und Statistiken unter Verwendung der Hypothese im Hinblick auf das gesetzte Ziel ist der abschließende und schwierigste Teil. Es kann sein, dass die Daten die Hypothese offensichtlich stützen. Es kann aber auch sein, dass sie die Hypothese offensichtlich widerlegen. Bei komplexeren Annahmen ist es sehr wahrscheinlich, dass man zunächst keine signifikante Aussage aus den Daten filtern wird. Hier muss man sich zwei mögliche Ursachen vor Augen führen. Bei der Deduktion, die dem hypothesengetriebenen Ansatz zugrunde liegt, gibt es generell zwei Probleme: 1. Problem der Asymmetrie: Die Hypothese ist kein Element der Ursache, die zu einer Veränderung der Zielgröße führt. Dazu ein abstraktes Beispiel: Man kann aus der Schattenlänge eines Turmes und dem Sonnenstand die Höhe des Turms berechnen. Die
90
5.3 Analysemethoden Turmhöhe hängt aber weder von der Schattenlänge ab, noch ist die Schattenlänge eine Ursache für die Turmhöhe. Im obigen Web-Analytics-Beispiel gilt somit: Wenn als Hypothese für einen höheren Upselling-Effekt die Metrik „Anzahl der PageViews bis zum Kauf“ herangezogen wird, stellt man zwar fest, dass die Besucher mit Zusatzprodukten im Warenkorb mehr PageViews auf sich vereinen als diejenigen ohne Zusatzprodukte. Dies ist aber ein natürlicher Effekt, weil das Hinzufügen mehr Seitenabrufe bedingt – es ist aber sicher kein Indiz dafür, dass mehr PageViews zwangsläufig auch zu mehr Upselling führen. Um den Effekt zu verdeutlichen, im Folgenden ein weiteres Beispiel: Ausgangspunkt ist die Hypothese: „Wenn Nutzer mehr Zeit haben, nehmen sie Informationen freiwilliger auf. Daher steigt unter anderem am Wochenende die Konversion von Besuchern, die über eine Magazinseite einsteigen“ Man kann diese Hypothese zwar stützen oder widerlegen, indem man die Konversionsraten für Besucher, die Magazinseiten am Wochenende angesehen haben, auswertet. Die Grundannahme „Wenn Nutzer mehr Zeit haben, nehmen sie Informationen freiwilliger auf“ lässt sich mit den Mitteln der Webanalyse aber nicht beweisen. Sie kann sehr wohl entweder plausibilisiert werden, oder man kann sie vollständig widerlegen. Diesen qualitativen Unterschied darf man nicht außer Acht lassen, denn es kommt nicht selten vor, dass aufgrund solcher Analysen relevante Entscheidungen getroffen werden, die sich hinterher als falsch herausstellen, obwohl der vermeintliche Beweis einer These vorhanden war. 2. Problem der Irrelevanz: Eine Hypothese kann in sich zwar logisch, aber irrelevant sein. Es gibt dazu ein recht einprägsames Beispiel von [Hempel und Oppenheim, 1998] zur Deduktion: „Männer, die die Pille nehmen, werden nicht schwanger.“ Der Satz ist zwar richtig, es ist aber müßig, ihn zu beweisen, da die Bedingung „Pille nehmen“ für die Aussage irrelevant ist. Ein entsprechendes Beispiel im Web-Analytics-Kontext könnte sein: In einem Partnerportal wird festgestellt, dass sich mehr männliche als weibliche Besucher kostenpflichtig registrieren. Für die Akquisition von Abonnenten ist diese Information völlig irrelevant, da die weiblichen Besucher sich kostenlos registrieren können und nur die Männer für die Nutzung zahlen müssen. Generell handelt es sich bei den zugrunde liegenden Ereignissen um Koinzidenzen, die nicht direkt in einem sachlichen oder fachlichen Ursache-Wirkungs-Zusammenhang stehen. Ein weiteres Beispiel dafür wäre auch die Feststellung: „Am Wochenende ist die Konversion von Besuchern, die über eine Magazinseite einsteigen, höher als unter der Woche.“ Diese Aussage ist zwar überprüfbar und beweisbar, hat aber einen relativ geringen prädiktionalen Wert. Das Ergebnis der Analyse sollte adäquat dokumentiert werden. Es ist die Grundlage für weitere Schritte in Richtung Optimierung und Ausgangspunkt für Änderungen, zum Beispiel der Art und Weise, wie Zusatzprodukte ausgewählt oder angeboten werden. Diese
91
5 Analyse- und Auswertungsmethoden technische Modifikation der Website benötigt eine fachliche Anforderung – die Dokumentation der Analyse kann bereits als solche dienen. Der hypothesengetriebene Ansatz in der Analyse eignet sich sehr gut für eine systematische und wiederholbare Vorgehensweise. Eine durchgängige Dokumentation der einzelnen Analyseschritte kann als Arbeitsgrundlage für die weiteren Optimierungsmaßnahmen verwendet werden.
5.3.2 Trendgetriebene Analysen Bei der trendgetriebenen Analyse wird man zunächst eine Reihe signifikanter Kennzahlen definieren, die über die Zeit hin zu beobachten sind. Als Grundlage kann man die in Kapitel 7 beschriebenen KPIs oder auch die Web Scorecards verwenden. Für diese Kennzahlen wird man, basierend auf den übergeordneten Planungen, ebenfalls Planzahlen oder Plankorridore definieren, die den Erwartungshorizont abstecken. Die Analyse wird zunächst eine beobachtende Rolle einnehmen und die tatsächlich gemessenen Zahlen mit denen der Planung abgleichen und überwachen. Dabei können prinzipiell zwei Arten von Abweichungen auftreten: Kontinuierliche Über- oder Unterschreitung: Die tatsächlich gemessenen Werte sind zwar gleichförmig, liegen aber beständig unteroder oberhalb der Planzahlen. Die Trendlinie der gemessenen Zahlen weist ein stärkeres Gefälle oder einen stärkeren Anstieg auf als die Planzahlen. Die Ursache für eine solche beständige Planabweichung sind entweder grundlegende Planungsfehler oder Änderungen langfristiger Natur, die konstante Auswirkungen auf die entsprechenden Kennzahlen haben. Der Umsatz des Kanals SEM wird natürlich kontinuierlich sinken, wenn Sie die Ausgaben für Suchmaschinenwerbung dauernd kürzen oder vollständig einsparen. Ist die Ursache unbekannt, müssen der gesamte Planungsprozess sowie alle langfristigen Faktoren, die auf die gemessenen KPIs Auswirkungen haben können, überprüft werden. Kurzfristige, extreme Ausschläge über oder unterhalb des Trends: Unabhängig vom Verhältnis zwischen Trend und Planungsverlauf können kurzfristige Ausschläge nach oben oder unten auftreten. Damit ist nicht der normale Zacken- oder wellenförmige Verlauf von Metrikkurven über die Zeit gemeint, sondern deutliche Ausschläge, die den Trendkanal signifikant durchschneiden (Abbildung 5.17). Ursachen für solche Effekte sind eher kurzfristige, signifikante Veränderungen im Umfeld der Website oder innerhalb der Site selbst. So kann zum Beispiel der Spike in Abbildung 5.17 am 14.1.2010 durch einen Beitrag auf einem Blog oder durch eine besonders auffällige Werbung verursacht sein. Auch ein versehentlich falsch geschriebener Preis in einem Werbemittel kann eine derartige kurzfristige Resonanz auslösen. Der Abfall in Bild 5.17 um
92
5.3 Analysemethoden 5000 4500 4000 3500
al dkan Tren
3000 2500 2000 1500 1000
0
01.01.10 02.01.10 03.01.10 04.01.10 05.01.10 06.01.10 07.01.10 08.01.10 09.01.10 10.01.10 11.01.10 12.01.10 13.01.10 14.01.10 15.01.10 16.01.10 17.01.10 18.01.10 19.01.10 20.01.10 21.01.10 22.01.10 23.01.10 24.01.10 25.01.10 26.01.10 27.01.10 28.01.10 29.01.10 30.01.10 31.01.10
500
Visits
Abbildung 5.17 „Spike“ und „Drop Out“, schematisch dargestellt
den 27.01.2010 mit anschließend nachhaltig tieferem Niveau lässt eher auf ein technisches Problem schließen. Ähnliche Kurven werden aber auch regelmäßig in Website-Statistiken nach gravierenden Änderungen im Bedienkonzept oder im Layout beobachtet. Bei extremen Spikes ist eine Ex-Post-Analyse hilfreich, um die gegebenenfalls negativen Auswirkungen eines solchen Ausschlags zu vermeiden. Da es sich um kurzfristige, meist externe Ursachen handelt, ist eine Suche danach kompliziert. Hilfreich für eine Eingrenzung des Effekts sind immer Segmentanalysen: Sind alle Besucher gleichmäßig betroffen? Welche Besuchergruppe ist am stärksten betroffen? Sind alle Seiten gleichmäßig betroffen? Welche Seitengruppen oder Seiten sind am stärksten betroffen? Gibt es signifikante Spuren in der Traffic-Herkunft? Sind bestimmte Traffic-Quellen ausschlaggebend für den Effekt? Der Abfall oder Anstieg auf ein wieder konstant niedrigeres oder höheres Niveau mit einer typischen Schwingungskurve wie in Abbildung 5.17 um den 27.01.2010 weist hingegen eher auf eine nachhaltige Veränderung hin. Die Suche sollte also bei generellen Änderungen in der Site oder in den Traffic zuführenden Marketingkanälen beginnen. In der Praxis sehen wir regelmäßig solche Kurvenverläufe, insbesondere bei Visits und PageViews – und häufig zur Überraschung aller Beteiligten nach kompletten Website-Relaunches. Bei der Trendanalyse oder -überwachung müssen signifikante KPIs für eine langfristige Beobachtung definiert und kontinuierlich überwacht werden. Die Auswertung orientiert sich an typischen und atypischen Trendverläufen, deren Ursache ex post analysiert und bewertet wird.
93
5 Analyse- und Auswertungsmethoden
94
6 6 Erfolgsfaktoren für Websites Wenn ein Unternehmen einen Satz an Kennzahlen oder sogar eine Web Scorecard erstellen möchte, ist es notwendig, dass alle Beteiligten die Kennzahlen gleich interpretieren. Nur wenn dies gesichert ist, kann man gemeinsam erfolgreiche Webanalyse durchführen. Ist dies nicht der Fall, droht ein Streit um die Interpretation der Daten, und brauchbare Ergebnisse kommen nicht zustande. Daher sehen wir uns in den folgenden Abschnitten die wichtigsten Gruppen und Klassen von Kennzahlen genauer an.
6.1
Von der Metrik zur Web Scorecard Die für Web Analytics verwendeten Kennzahlen haben sich – dank des steigenden Bewusstseins für deren Bedeutung – stark entwickelt: In den Anfängen basierte das Controlling der Online-Aktivitäten auf reinen Server-Zugriffszahlen, mittlerweile reicht die Web Analytics weit in die betriebswirtschaftlichen Kernfunktionen der Unternehmen hinein. Abbildung 6.1 verdeutlicht den Weg von der Datenermittlung über Metriken und Dimensionen zur Definition von Kennzahlen und Key-Performance-Indikatoren bis hin zu einer Web Scorecard. Metriken und Dimensionen bilden die Basis für die Kennzahlen. Key Performance Indicators (KPI) sind relevante Kennzahlen zur Steuerung. Web Scorecard sind gewichtete KPIs, gegebenenfalls erweitert um „weiche“ Faktoren wie Kundenzufriedenheit. Metriken und Dimensionen beschreiben den aktuellen Zustand. Die dazu verwendeten Zahlen werden entweder direkt gemessen oder aus anderen Daten durch Berechnung oder Ableitung gewonnen. Metriken und Dimensionen werden wir im Detail in Kapitel 5 und 7 erläutern. Um alle relevanten Aspekte der Online-Aktivitäten eines Unternehmens darzustellen, müssen eine Vielzahl von Kennzahlen gebildet werden. Diese sind nicht alle gleichermaßen
95
6 Erfolgsfaktoren für Websites
Abbildung 6.1 Von der Metrik zur Web Scorecard
wichtig. Um das Augenmerk der Verantwortlichen auf die wesentlichen Erfolgsfaktoren zu lenken, werden aus den Kennzahlen die „kritischen Erfolgsfaktoren“ ausgewählt – gegebenenfalls auch durch Kombination untereinander: die Key Performance Indicators (KPI). Eric T. Peterson [Peterson 2006] bringt das Wesen eines KPI auf den Punkt: „Alle guten KPIs veranlassen Aktionen.“ Oder, etwas freier formuliert: Eine Kennzahl, die bei plötzlichen und unerwarteten Änderungen nicht dazu führt, dass ein Verantwortlicher eine E-Mail schreibt, den Telefonhörer in die Hand nimmt oder sich auf anderem Wege Hilfe sucht, ist es nicht wert, als KPI in das Reporting einzufließen.
Die Web Scorecard schließlich dient dem Überblick: sie ist ein hierarchisch aufgebautes Kennzahlensystem, das sowohl die Unternehmensstrategie als auch verschiedene Interessengruppen berücksichtigt und auf der Wertschöpfung des Unternehmens basiert. Auf einer Web Scorecard werden Ziele, Aktionen und Kennzahlen zusammengestellt. Sie bündelt also die Informationen über kritische Vorgänge in einer übersichtlichen Form. Die Web Scorecard wird in Kapitel 7 ausführlich behandelt.
6.2
Basiskennzahlen Die Basiskennzahlen sind einfache Kennzahlen, um die Traffic-Reichweite darzustellen. Sie geben Aufschluss über den Zugriff auf ein Online-Angebot. In den Anfängen der Website-Auswertungen haben sich folgende Begriffe eingebürgert: Hits PageImpressions (PageViews) Visits Visitors oder Unique Visitors Unique Identified Visitors
96
6.2 Basiskennzahlen
6.2.1 Hits Ein Hit bezeichnet einen Zugriff auf eine Datei auf dem Webserver. Technisch gesehen entspricht ein Hit einem http-Request, mit dem der Browser eine Datei aus dem Webserver abruft. Weil die im Browser des Besuchers angezeigten Webseiten aber nahezu immer aus unterschiedlich vielen Elementen – also Dateien auf dem Webserver – zusammengesetzt sind, hat die Anzahl der Hits keine Bedeutung für eine Nutzungsanalyse, sondern höchstens für die Auslastung oder Performance des Webservers. Hits werden in der Regel nur noch bei serverbasierten Logfile-Analyse-Tools angezeigt. Clientbasierte Web-Analytics-Werkzeuge weisen diesen Wert nicht aus.
6.2.2 PageView, PageImpression Die synonym verwendeten Begriffe PageView (PV) und PageImpression (PI) bezeichnen eine fertig geladene Webseite im Browser des Besuchers. Während mit Hits nur der technische Abruf einzelner Elemente einer Seite erfasst wird, kann mit der PI der Abruf einer kompletten Webseite erfasst werden. Die PageImpression wurde von der IVW (Informationsgemeinschaft zur Feststellung der Verbreitung von Werbeträgern e.V.) definiert. Sie sollte eine Kenngröße bilden, anhand deren sich verschiedene Websites bewerten und vergleichen lassen. Da eine im Internet dargestellte Information leicht auf mehrere separate HTML-Seiten verteilt werden kann, wertet die IVW nur den Wechsel zu einer inhaltlich und thematisch anderen Seite als PageImpression. (Ob zwei HTML-Seiten inhaltlich und thematisch zusammengehören, können allerdings nur wenige Web-Analytics-Tools erfassen.) Generell sind die meisten Website-Betreiber an einer hohen und steigenden Zahl an PageImpressions interessiert, weil hohe Zugriffszahlen gleichgesetzt werden mit der Bekanntheit der Produkte, des Unternehmens bzw. einer starken Akzeptanz der Website. Allerdings gibt es auch Website-Bereiche – oder ganze Webangebote –, für die niedrige PageImpression-Werte angestrebt werden. So können zum Beispiel geringe Zugriffe auf die Supportseiten eines Unternehmens darauf hindeuten, dass die angebotenen Produkte nur selten zu Bedienungsproblemen oder Reklamationen führen, was durchaus als Erfolg zu werten ist. Die Anzahl der PageImpressions ist daher nur im Zusammenhang mit der Zielsetzung der entsprechenden Website-Bereiche aussagekräftig und muss gegebenenfalls nach einzelnen Segmenten unterschiedlich betrachtet werden.
6.2.3 Visits Lange Zeit war PI die wichtigste Messgröße der IVW. Seit Dezember 2009 steht nun die Messgröße Visit (Besuch = Anzahl der zusammenhängenden Nutzungsvorgänge eines Angebots) in der IVW-Ausweisung im Vordergrund. In der Regel ruft ein Besucher nacheinander mehrere Webseiten auf, um die gewünschten Informationen zu finden. Die dazu notwendigen PageImpressions werden dabei als ein
97
6 Erfolgsfaktoren für Websites zusammenhängender Vorgang gewertet – als ein Besuch, ein „Visit“. Im Sinne der IVW stellt ein Visit einen Kontakt in die Zielgruppe dar. Um einzelne PageImpressions zu einem Visit zusammenfassen zu können, müssen die PIs einem Besucher zugeordnet werden. Dafür gibt es verschiedene Verfahren: Manche Systeme verwenden eine Kombination der IP-Adresse mit anderen Kriterien (z.B. anhand von „User Agents“, i.e. Programme zur Nutzung von Netzwerkdiensten wie Webbrowser, E-Mail-Programme, Newsreader und IRC-Clients.). So bestimmen sie, von welchem Besucher welche PageImpression ausgelöst wurde. Die Bestimmung anhand der IP-Adresse ist jedoch sehr ungenau und daher nicht zu empfehlen. Über die URL kann im Browser eine eindeutige Session-ID übermittelt werden, die für alle während des Besuchs entstehenden PageImpressions übernommen wird, bis der Browser geschlossen wird oder der Besucher eine andere Website aufsucht. Der Nachteil: Bei diesem Verfahren lässt sich die tatsächliche Länge eines Besuchs nicht identifizieren, wenn der Nutzer zwischenzeitlich den Browser geschlossen oder eine andere Seite aufgesucht hat. Deutlich besser lassen sich die PageImpressions einem Besuch mit Cookies zuordnen. Die rein sitzungsbezogenen Cookies werden beim Aufrufen der Website im Browser des Besuchers gesetzt und bleiben dort für eine bestimmte Zeit aktiv. Während dieser Zeitspanne kann ein Besuch trotz eventueller Unterbrechungen (etwa wenn der Browser zwischenzeitlich geschlossen wurde) erkannt werden. Nach 30 Minuten Inaktivität eines Besuchers wird der „Visit“ als beendet gewertet. Dies kann beispielsweise passieren, wenn der Arbeitsplatz für eine Konferenz verlassen wurde, ohne den Browser vorher zu schließen. Mit der Anzahl der Visits kann man die Nutzung einer Website wesentlich besser als mit der Zahl der PageImpressions untersuchen. Wirklich aufschlussreich werden die Zahlen aber erst, wenn man sie miteinander in Beziehung bringt. So gibt die Anzahl der durchschnittlichen PageImpressions pro Visit einen ersten Aufschluss über das generelle Informationsverhalten der Besucher. Eine sehr geringe Anzahl von PIs pro Visit kann aufzeigen, dass zwar sehr viele Besucher – zum Beispiel über bezahlte Werbelinks – den Weg auf die Website finden, diese aber sehr schnell wieder verlassen, möglicherweise, weil der Werbelink im falschen Themenumfeld platziert wurde. Eine niedrige PageImpressionsZahl pro Visit kann auch auf Probleme mit der Navigation oder den Inhalten hindeuten.
6.2.4 Visitor oder Unique Visitors Ein Visitor wird innerhalb eines definierten Zeitraums nur einmal gezählt, auch wenn er mehrmals die Website aufgerufen hat und so mehrere Visits durchgeführt hat. Die Anzahl der Visitors ist deshalb nur aussagekräftig, wenn der Zeitraum bekannt ist, wie folgendes Beispiel verdeutlicht: Ein Interessent besucht am Montag, am Mittwoch und am Freitag sogar zweimal eine Website, bevor er sich zum Kauf entschließt. Er hat also vier Visits durchgeführt.
98
6.2 Basiskennzahlen Weil er Cookies akzeptiert, kann der Besucher immer wieder eindeutig erkannt werden. In der Auswertung Unique Visitors pro Tag wird er an drei Tagen jeweils einmal als Unique Visitor erfasst. In der Auswertung Unique Visitors pro Woche wird er aber nur einmal erfasst! Für die Bewertung der Website aus Marketingsicht sind die Zahlen der Unique Visitors sehr wertvoll, weil sie weitaus besser als die PageImpressions oder Visits die Reichweite in der Zielgruppe repräsentieren. Für viele weitergehende Betrachtungen lassen sich erst dann wichtige Informationen gewinnen, wenn die bislang anonymen Daten mit Personen verknüpft werden. Die Kennzahlen des Web Analytics sollten daher Aufschluss darüber geben, wer die Website besucht und wie er sich dabei verhält. Wenn der Besucher eindeutig identifizierbar ist (zum Beispiel durch sein Login), spricht man vom „Unique Identified Visitor“.
!
Achtung: Die Verknüpfung anonymer Daten mit personenbezogenen Informationen unterliegt dem Datenschutz. Der jeweilige Dateninhaber muss der Verknüpfung zustimmen. Es empfiehlt sich, das Vorgehen mit Rechtsexperten und Datenschützern abzuklären – siehe auch Kapitel 3.5, Datenschutz in der Web Analytics.
6.2.5 Unique User Die AGOF (Arbeitsgemeinschaft Online Forschung e.V.) definiert zusätzlich den „Unique User“ (den „einzelnen Nutzer“). Dieser Unique User ist die Basis der quartalsweise erscheinenden Markt-Media-Studie „internet facts“, in der Reichweiten und Strukturdaten für Online-Werbeträger deklariert sind. Der Unique User drückt aus, wie viele Personen in einem bestimmten Zeitraum Kontakt mit einem Werbeträger oder einzelnen Belegungseinheiten hatten. Der Unique User ist also die Grundlage, um Reichweiten und Strukturen von Online-Werbeträgern zu berechnen sowie wesentliche Faktoren für die Mediaplanung, zum Beispiel wöchentliche Nutzung, monatliche Nutzung und den Kontaktaufbau. Mit „internet facts“, der Markt-Media-Studie der AGOF, erhalten Sie allgemeine Daten zum AGOF-Universum sowie Kerndaten zur Internetnutzung und zum E-Commerce. Damit können Sie sich ein genaues Bild von den Zielgruppen-Potenzialen im Internet machen und diese Personen im Netz lokalisieren.
6.2.6 Das Pyramiden-Modell der Kennzahlen Der Web-Analytics-Experte Eric T. Peterson fasst die fünf Kennzahlen Hits, PageImpressions, Visits, Unique Visitors und Unique Identified Visitors in [Peterson 2004] zum „Pyramid Model of Web Analytics“ zusammen, siehe Abbildung 6.2. Die Pyramide stellt die Kennzahlen aufeinander aufbauend dar. Am Fuß der Pyramide stehen die in großer Zahl erfassten Hits, die aber keine Aussagekraft für die Web Analytics haben. Mit steigender Position innerhalb der Pyramide werden zwar immer weniger Daten
99
6 Erfolgsfaktoren für Websites
Abbildung 6.2: Pyramiden-Modell der Kennzahlen nach [Petersen 2004]
erfasst, aber die Bedeutung für die Geschäftsprozesse steigt kontinuierlich. Die Spitze bilden die eindeutig identifizierten und persönlichen Daten von Besuchern. Diese bieten eine gute Basis für weitere One-to-One-Marketingaktionen. Die wichtigste Basiskennzahl für die Reichweite laut IVW ist die Anzahl der Visits. Sie hat die Anzahl der PageImpressions abgelöst. Die wichtigste Kennzahl für einen Marketier ist eigentlich der „Unique Visitor“, denn sie gilt als Indiz für echte Webbesucher. Die Anzahl der wiederkehrenden Besucher ist ein Indiz für Besuchertreue oder auch „Stammkunden“.
6.3
Technographische Daten In der Gruppe der technographischen Daten werden alle Informationen zusammengefasst, die Auskunft über die technische Ausstattung des Anwendercomputers geben, das sind unter anderem Betriebssystem, Browser, Bildschirmauflösung und Farbtiefe sowie die Liste der akzeptierten Plug-ins des Browsers. Diese Informationen lassen sich leicht ermitteln und fallen sozusagen bei den wesentlich wichtigeren Informationen ab. Für eine betriebswirtschaftliche Betrachtung haben die Zahlen jedoch nur untergeordnete Relevanz, denn allgemeine Aussagen über diese Zahlengruppe lassen sich ohne Aufwand direkt im Internet finden. Es ist aber natürlich wichtig zu kontrollieren, ob die Website in punkto Akzeptanz und Usability technisch „passt“. So gibt es einige Zahlen, für die sich eine nähere Untersuchung lohnt. Steigt zum Beispiel die relative Abbruchquote ungewöhn-
100
6.4 Geografische Herkunft lich an oder liegt sie allgemein recht hoch, sollte man zwei Zahlen genauer ansehen: die Art des Internetzugangs der Zielgruppe sowie die durchschnittliche Ladezeit der eigenen Seiten. Beides lässt sich nur mit pixelbasiertem Tracking mit der gewünschten Genauigkeit feststellen und kann Aufschluss darüber geben, ob zum Beispiel die Anwender einen Ladeversuch wegen zu langer Wartezeit abgebrochen haben. Die technografischen Daten geben Auskunft darüber, für welche Screenauflösung eine Website entwickelt werden kann und welche Plug-ins und Leistungsmerkmale unterstützt werden. Auf Basis dieser Informationen kann man prüfen, ob beispielsweise der Einsatz von Flash-Seiten für Web-Besucher technisch sinnvoll ist.
6.4
Geografische Herkunft Fast alle gängigen Web-Analytics-Tools verfügen über das Feature, die Zugangsadresse (IP-Adresse) eines Besuchers zu nutzen, um den Provider und die Toplevel-Domain (TLD) herauszufinden. Damit lässt sich ungefähr feststellen, aus welchem Land der Besucher stammt. Streuungen gibt es auch hier, denn die TLDs .org, .net, .biz oder .com sind nicht eindeutig einem Land zugeordnet wie etwa .de oder .uk. Für eine Website mit nationaler Ausrichtung ist dies aber bei Weitem nicht ausreichend. Deshalb sind einige Anbieter dazu übergegangen, auf Basis der IP-Adresse des Besuchers mit Hilfe einer Geo-Datenbank Rückschlüsse auf seinen genauen Standort zu ziehen. Die dafür verwendeten Verfahren sind mittlerweile so ausgefeilt, dass sie eine Genauigkeit bis 90% auf Stadt- oder Ballungsraum-Ebene liefern. Dies ist für statistische Trendaussagen über die Herkunft der meisten Benutzer mehr als ausreichend. Eine solche Analyse kann helfen, Offline-Kampagnen auf ihre Wirksamkeit auf den Internetauftritt oder den Shop zu überprüfen. Wenn ein Shop-Betreiber zum Beispiel in einer bestimmten Region eine Anzeige in einer Tageszeitung oder Werbebeilage schaltet, kann durch Einschränken des statistischen Betrachtungsraums – zeitlich und örtlich – verfolgt werden, ob und wie erfolgreich die Kampagne war. Werden diese Eingrenzungen nicht vorgenommen, kann die Wirkung der Kampagne im gesamten Traffic unter Umständen gar nicht nachgewiesen werden. Es sind viele weitere Beispiele denkbar, bei denen ein örtlicher Bezug in der Webstatistik hilfreich sein kann. Ob dieser jedoch für die eigenen Webauftritte Relevanz hat, muss individuell entschieden werden. Die Entwicklung einer eigenen Metrik sollte dies gegebenenfalls berücksichtigen. Mithilfe von Geo-Statistiken wird regionales Marketing ermöglicht. Websites und/oder Werbemittel können je nach regionaler Zuordnung des Besuchers zum einen verschiedene Inhalte ausliefern, die einen regionalen Bezug verstärken, oder zum anderen die Streuverluste minimieren.
101
6 Erfolgsfaktoren für Websites
6.5
Abgeleitete Kennzahlen Einige Informationen werden nicht aus den Basisdaten direkt, sondern durch Kombination vorliegender Werte oder anhand bestimmter Formeln gewonnen. Dazu einige Beispiele: Zu den abgeleiteten Kennzahlen gehört unter anderem das Verhältnis von PageImpressions zu Visits, das als Maß für die Nutzungsintensität angesehen werden kann. Wenn die Besucher innerhalb eines Visits sehr viele Seiten ansteuern, deutet das auf eine intensive Verwendung der angebotenen Informationen hin. Geringe PI/Visit-Werte – zum Beispiel sogenannte „Single Page Visits“ – können hingegen ein Signal dafür sein, dass die Inhalte für die Besucher nicht relevant sind. Aus der Menge der PageImpressions, die zu einem Visit zusammengefasst wurden, lässt sich anhand der Referrer-Daten (Herkunft) der Weg der Besucher über die Website nachvollziehen: es entstehen die „Klickpfade“. Anfang und Ende dieser Seitenliste sind die Einstiegs- und Ausstiegsseiten der Klickpfade. Mit einer Auswertung der häufigsten Klickpfade kann zum Beispiel untersucht werden, ob sich die Besucher auf der Website so verhalten, wie es die Anbieter planten. Besonders Ausstiegsseiten geben häufig Hinweise auf mögliche Schwachstellen, die Nutzer zum Abbruch des Besuchs veranlassen. Durch die Gegenüberstellung der Unique Visitors mit der Gesamtbesucherzahl (über einen längeren Zeitraum) lässt sich feststellen, ob die Besucher regelmäßig zurückkehren – was als Indiz für die Wertschätzung der Inhalte zu werten ist. Es gibt noch eine Vielzahl anderer, abgeleiteter Kennzahlen. Bei der Auswahl eines WebAnalytics-Tools sollte daher vor allem die Möglichkeit berücksichtigt werden, eigene Ableitungen und Kombinationen definieren zu können, um die individuellen Informationsbedürfnisse abdecken zu können. Abgeleitete Kennzahlen verschaffen einen schnelleren Überblick der Veränderungen im Nutzungs- und Besuchsverhalten.
6.6
Zeitbezogene Kennzahlen Zeitbezogene Kennzahlen helfen den Analysten zu erkennen, wann der größte Traffic auf der Website stattfindet, um das Nutzungsverhalten genauer zu beobachten. Bei den Kennzahlen mit Zeitbezug werden zwei Gruppen unterschieden: Kumulierte Zeiten für PageImpressions, Visits und Visitors für Stunden, Tageszeiten, Tage, Wochen oder Monate Durchschnittliche Dauer von PageImpressions und Visits
102
6.7 Kennzahlen zur Kundengewinnung und -bindung
6.6.1 Kumulierte Zeiten Die kumulierten Zeiten zeigen an, wann eine Website am stärksten frequentiert wird. Diese Informationen helfen unter anderem dem Marketier bei der Beurteilung, wann er neuen Content oder Kampagnen sinnvollerweise in die Website einstellt, damit dieser bestmöglich wahrgenommen wird. Beispiele: Zum Teil erhält man über die Analyse überraschende Ergebnisse: so ist der Traffic auf Dating-Portalen während der Arbeitszeit von 9 bis 17 Uhr kontinuierlich hoch. Er fällt zum Feierabend hin kurz ab, um anschließend wieder anzusteigen, sobald die Abonnenten den Heim-PC eingeschaltet haben. Aber auch der Zusammenhang mit der Aussendung eines Newsletters oder die spontane Wirkung einer Offline-Kampagne (Radio- und TV-Werbung oder Messebeteiligung) lassen sich mit dieser Analyse auswerten. So verzeichnen TV-Shopping-Portale in der Regel einen rasanten Anstieg des Traffics auf dem Online-Shop während der Sendezeiten.
6.6.2 Durchschnittliche Zeiten Ähnlich wie das Verhältnis der PageImpressions zu Visits kann die durchschnittliche Dauer der Visits (Verweildauer) als Maß für die Intensität der Nutzung betrachtet werden. Beispiele: Bei durchschnittlich acht PageImpressions pro Visit mit einer durchschnittlichen Verweildauer von 20 Sekunden haben die Besucher die Inhalte anscheinend nur flüchtig gestreift und nicht die erwünschten Informationen gefunden. Bei durchschnittlich drei PageImpressions pro Visit mit einer durchschnittlichen Verweildauer von fünf Minuten wurden die Besucher offenbar schnell fündig und haben die Informationen intensiv gelesen. Zeitbezogene Kennzahlen geben Auskunft, wann und wie lange eine Website genutzt wird.
6.7
Kennzahlen zur Kundengewinnung und -bindung Weil die Neukundenakquisition in fast allen Branchen als sehr schwierig und aufwändig gilt, steht das Gewinnen und Halten von Stammkunden in fast jedem Unternehmen ganz oben auf der Liste der Marketingziele. Der Weg dorthin verläuft üblicherweise in mehreren Phasen, wobei unterschiedliche Informationen bei der Optimierung hilfreich sein können. Im Folgenden werden einige Kennzahlen aufgezeigt, anhand deren sich das Kundeninteresse ermitteln lässt.
103
6 Erfolgsfaktoren für Websites
6.7.1 Ansprache (Reach) Die Ansprache (auch „Reach“ genannt) beschreibt das Potenzial eines Internetangebots, von Website-Besuchern aus der passenden Zielgruppe wahrgenommen zu werden. Folgende Informationen sind hierfür von Interesse: Anzahl der Besucher, die ein bezahltes Werbebanner sehen Anzahl der Besucher, die ein Suchwort verwenden, das man in einer Ad-Words-Kampagne verwendet hat Anzahl von Personen, die einen Artikel über das Unternehmen gelesen haben Anzahl der Empfänger von Werbemails Diese Werte sind, etwa über den Werbepartner, leicht zu erheben. Wichtig ist jedoch: sie beschreiben nur das Potenzial für eine gelungene Ansprache. Die Einblendung eines Werbebanners zum Beispiel führt natürlich nicht automatisch dazu, dass der Website-Besucher diese Werbung tatsächlich wahrnimmt. Und ausgesendete Newsletter können noch vor dem Lesen im Spam-Filter verschwinden. In der Praxis lässt sich die tatsächlich erfolgte Ansprache also erst messen, wenn der Besucher eine Reaktion zeigt und zum Beispiel auf ein Banner klickt. Deshalb werden parallel zu den Ansprache-Informationen (siehe oben) immer zusätzliche Kennzahlen benötigt. Folgende Kennzahlen lassen sich hierfür heranziehen: Traffic-Zahlen wie PageImpressions und Visits zeigen im Groben die Entwicklung der Ansprache auf. Spitzen oder Tiefpunkte in den Traffic-Zahlen können als Signalpunkte für eine sehr gute oder sehr schlechte Ansprache angesehen werden. Weil die Ansprache vor allem neue Interessenten auf eine Website bringen soll, ist das Verhältnis zwischen neuen und wiederkehrenden Besuchern ein wichtiger Indikator. Welche Größe dieser Wert haben sollte, hängt vom jeweiligen Geschäfts- und OnlineModell ab. So könnten 25 000 neue Besucher und 5 000 Wiederkehrer in einem Monat als großer Erfolg gewertet werden, wenn es um Neuakquise geht. Anders herum könnte ein solches Ergebnis darauf hindeuten, dass den wiederkehrenden Besuchern wohl zu wenig Aufmerksamkeit gewidmet wird. Um solche Zahlen richtig zu deuten, ist die Erfahrung der Verantwortlichen wichtig, die die Entwicklung dieses Werts entsprechend analysieren müssen. Wird zum Beispiel die Wirkung einer Kampagne untersucht, deren Laufzeit deutlich kürzer ist als das übliche Intervall, in dem ein Besucher in der Regel wiederkehrt, gibt das Verhältnis der neuen Besucher zu den Gesamtbesuchern Auskunft über den Erfolg einer Kampagne. Mit einer Top-10-Liste der verwendeten Einstiegsseiten – pro Werbemedium eine Einstiegsseite – kann analysiert werden, über welche Wege Interessenten ihren Weg auf die Website gefunden haben – und somit, welche Kampagnen und Werbemittel besonders erfolgreich waren. Die geografische Herkunft der Besucher lässt sich für die Wirkungskontrolle regional begrenzter Kampagnen nutzen.
104
6.7 Kennzahlen zur Kundengewinnung und -bindung Ein auffälliger Anstieg bestimmter Fehlerseiten kann auf eine fehlerhafte Verlinkung einer Kampagne hindeuten. Steigen zum Beispiel die 404-Fehler (für „Seite nicht gefunden“) mit dem Start einer Kampagne sprunghaft an, sollte der Fehler umgehend behoben werden. Sonst könnten frisch gewonnene Besucher gleich wieder verloren gehen. Zu diesen Kennzahlen kann man alle Daten gruppieren, die Aufschluss über die Durchführung der Kampagne geben, zum Beispiel die Anzahl der ausgelieferten Werbebanner oder die zugehörigen Klicks.
6.7.2 Akquisition (Besucher-/Kundengewinnung) Eine Akquisition ist jener Prozess, in dem ein Kunde die vom Website-Betreiber geplante Reaktion ausführt und somit sein Interesse an den Produkten zeigt. Die Reaktion kann zum Beispiel das Klicken auf einen Banner oder das Einschreiben für den Newsletter sein. Ob aber bereits das Anklicken eines Banners für eine erfolgreiche Akquisition ausreicht oder ob zum Beispiel anschließend das Anfordern weiterer Produktinformationen gefordert wird, hängt vom jeweiligen Geschäftsmodell des Unternehmens ab. Beispiele: Für den Betreiber eines Markenportals ohne Online-Shop ist der Klick auf ein Werbemittel, das den Interessenten auf die Seite führt, bereits ein Erfolg. Auf einer B-to-B-Seite soll das Interesse auf die Produkte gelenkt werden, insofern ist hier der Klick auf ein Werbemittel in Verbindung mit dem Download eines Datenblattes ein Erfolg. Die Akquisition ist anhand der entsprechenden Reaktion relativ leicht messbar und lässt sich als Maß für den Erfolg externer Kampagnen einsetzen. Zur Bewertung können – zusätzlich zu den unter „Ansprache“ aufgeführten Daten – auch folgende Kennzahlen beitragen: Die durchschnittliche Anzahl der Visits pro Unique Visitor zeigt das grundsätzliche Interesse einzelner Besucher an den Inhalten der Website. Je größer dieser Wert ist, desto mehr Interesse haben die akquirierten Besucher an den vorgestellten Produkten und Dienstleistungen. Geringe Visits pro Visitor zeigen hingegen an, dass möglicherweise die falsche Zielgruppe akquiriert wurde. Die durchschnittliche Anzahl der PageViews pro Visit ist ebenfalls ein gutes Maß für die Attraktivität der Website. Je größer dieser Wert ist, desto größer ist die Wahrscheinlichkeit für eine spätere Konversion. Eine ähnliche Bedeutung für die Attraktivität hat die Anzahl der PageViews pro Visitor. Diese Kennzahl ist stark vom gewählten Bezugszeitraum abhängig: Unterliegt die Website saisonalen Schwankungen, so ist dies bei Vergleichen zur Vorperiode zu betrachten. Weitere Kennzahlen im Zusammenhang mit der Akquisition sind „Slipperiness“, „Stickiness“ und „Fokus“. Sie werden in 6.8.1 und 6.8.2 detailliert beschrieben.
105
6 Erfolgsfaktoren für Websites Neben diesen Daten kann die Kombination mit den Kennzahlen für die Kampagnen wichtige Informationen über den Erfolg der Akquisition liefern. Dazu gehören zum Beispiel die Anzahl der Reaktionen im Verhältnis zu den ausgesandten Werbemitteln (Response-Quote) und die Kosten für die Werbeschaltungen (Cost-per-Click, Cost-perAcquisition).
6.7.3 Kundenbindung (Retention) Wenn ein Website-Besucher erfolgreich zu einem Kunden konvertiert wurde, möchte das Unternehmen zu ihm – normalerweise – eine längerfristige Bindung aufbauen. Denn ein Kundenstamm ist in der Regel wesentlich leichter zu pflegen, als neue Kundschaft anzuwerben. Zum einen liegen die Kosten für eine Neuanwerbung wesentlich höher, zum anderen sind Bestandskunden mit größerer Wahrscheinlichkeit zu Folgekäufen zu bewegen. Zur Messung der Kundenbindung werden zum Beispiel folgende Kennzahlen untersucht: Die Anzahl der wiederkehrenden Besucher kann im zeitlichen Verlauf den Erfolg von Kundenbindungsmaßnahmen anzeigen. Die „Frequenz der wiederkehrenden Besucher“ zeigt als Verhältnis von täglich und monatlich wiederkehrenden Besuchern an, wie viele Tage vermutlich vergehen, bis ein Besucher erneut eine Website ansteuert. Wie schon bei einigen der weiter oben beschriebenen Kennzahlen hängt die Aussagekraft dieser Kennzahl vom Geschäftsmodell ab: Shops werden hohe Frequenzen mit schnell wiederkehrenden Besuchern anstreben, Support-Seiten werden eher lange Frequenzen als Erfolg werten.
6.7.4 Loyalität Der bestmögliche Faktor der Kundenbindung wird als Loyalität bezeichnet. Loyale Kunden kaufen auch ohne Werbemaßnahmen beim Anbieter ihres Vertrauens. Mit ihnen können deutlich höhere Deckungsbeiträge erzielt werden, deshalb sollte man sie mit besonderer Sorgfalt behandeln. Eine besondere Aufgabe der Loyalitäts-Messung kommt daher der Identifizierung loyaler Kunden zu. Mit loyalen Kunden lassen sich mit den geringsten Kosten die höchsten Erträge erwirtschaften. Darum ist es wichtig, möglichst genau zu erfassen, aus welchen Personen sich dieser Kundenstamm zusammensetzt, um dann Angebote zu offerieren, die zu den persönlichen Angaben und den Einkaufsgewohnheiten der loyalen Kunden passen. Allerdings können Kunden in jeder Phase der Kundenbindung den Entschluss fassen, auszusteigen. Zumeist sind es nur Kleinigkeiten, die einen Kunden dazu bewegen, das Vertrauensverhältnis aufzukündigen. Der Identifizierung dieser Ausstiegspunkte kommt eine große Bedeutung zu, weil sie konkrete Ansätze für die Optimierung bieten.
106
6.7 Kennzahlen zur Kundengewinnung und -bindung
6.7.5 Der Trichter („Funnel“) Die einzelnen Entwicklungsschritte in der Kundengenerierung lassen sich laut [Sterne 2002] mit so genannten „Funnels“ (Trichtern) visualisieren. Ein Funnel zeigt, wie erfolgreich eine Zielgruppe in die nächste Kundengewinnungsphase überführt wird. Dazu werden üblicherweise die ersten drei Stufen Ansprache, Akquisition und Konversion betrachtet, wie Abbildung 6.3 zeigt.
Keyword Advertising
Affiliate Marketing
E-Marketing
Ansprache
Akquisition
Konversion
Abbildung 6.3: Der Trichter („Funnel“) der Kundengewinnung: Nach der ersten Ansprache anhand von Werbung beginnt das Stadium der Kundenakquisition, die im Idealfall in eine Konversion („Umwandlung“) mündet.
Anhand der Form des Funnels ist schnell zu erkennen, in welchen Kundengenerierungsphasen Optimierungen notwendig sind. Abbildung 6.4 (nächste Seite) zeigt einige typische Abweichungen von der Idealform. Jim Sterne vergleicht seine Trichtermodelle mit Getränken bzw. den dazu passenden Gläsern: Funnel 1 (Margarita) zeigt: Die Kundenansprache erzielt zwar zu Beginn einen hohen Traffic auf der Website, doch die Mehrzahl der Besucher wird nicht überzeugt und steigt schnell aus. Beispiel: Ein Besucher wird über ein Keyword auf die Startseite geführt. Der Besucher screent kurz die erste Seite, findet das Keyword im Text nicht und verlässt die Site.
107
6 Erfolgsfaktoren für Websites
Ansprache
Akquisition
Nicht zielorientierte Werbung Falsche Zielgruppe
Zielorientierte Werbung Ineffektive Übersetzung
1
2 Margarita
Martini
Konversion
Ansprache
Akquisition
Gute Überzeugung Schlechte Konversion
Gute Überzeugung Gute Konversion
3
4 Wein
Sekt
Konversion
Abbildung 6.4: Die Form eines Trichters („Funnel“) zeigt den Erfolg einer Kundengewinnungsmaßnahme (nach [Sterne 2002])
Funnel 2 (Martini) zeigt: Die Akquise führt Traffic auf die Website. Der Besucher dringt tiefer in die Website ein, aber die gewünschte Konversion bleibt aus. Beispiel: Der Besucher wird über ein Banner, über das eine Testfahrt für ein Fahrzeug angeboten wird, auf die Website geführt. Der Besucher füllt aber nicht das Formular aus, sondern schaut sich stattdessen die technischen Daten des Fahrzeugs an.
Funnel 3 (Wein) zeigt: Hier informieren sich die Besucher zwar sehr intensiv über die angebotenen Produkte, doch am Ende verlassen sie die Website, ohne eine Konversion durchgeführt zu haben. Die abschließende Konversion funktioniert also nicht wie gewünscht. Beispiel: Der Web-Besucher wird über einen Banner, über den eine Testfahrt für ein Fahrzeug angeboten wird, auf die Website geführt. Der Besucher füllt das Formular aus und will es absenden. Er bekommt eine technische Fehlermeldung, die er nicht richtig interpretieren kann und verlässt die Website. Grund: Der Besucher wollte seine Telefonnummer nicht angeben, da er für die Kontaktaufnahme bereits seine E-Mail-Adresse angegeben hatte und nicht einsah, warum auch seine Telefonnummer verlangt wird.
108
6.7 Kennzahlen zur Kundengewinnung und -bindung Funnel 4: Der vierte Trichter (Sekt) zeigt: Ein Trichter ohne allzu starke Verjüngung, also mit einem breiten „Auslass“, ist der ideale Funnel. Die in der richtigen Zielgruppe gewonnenen Besucher konnten in ausreichender Zahl zu Käufern konvertiert werden. Beispiel: Der Web-Besucher wird über ein Banner, über das eine Testfahrt für ein Fahrzeug angeboten wird, auf die Website geführt. Der Besucher füllt das Formular aus und sendet es ab. Das Formular und der Ablaufprozess waren für den Besucher logisch, und er hat die einzelnen Schritte schnell absolviert.
Eine analytische Betrachtung der Funnel-Grafik sollte immer die Basis für nötige Optimierungen bilden. Ein eher aufwendiger Optimierungsansatz basiert auf der Logik, dass mehr Traffic gleichzeitig zu mehr Umsatz führen muss. Aber das Generieren von mehr Traffic führt auch zu steigenden Kosten. Ein typisches Problem der Performance-Marketing-Agenturen ist, dass sie zwar den Trichter oben verbreitern – also die Werbemaßnahmen zur Traffic-Akquise optimieren, aber auf die Trichterform keinen Einfluss haben. Die Website liegt in der Verantwortung der Auftraggeber. Insofern ist hier ein enges Zusammenspiel der beiden Parteien unerlässlich, um effizient nennenswerte Erfolge zu erzielen.
Der Nachteil dieses Vorgehens: Die Ausrichtung an der richtigen Zielgruppe, die möglichen Verbesserungen bei der Konversion und der Deckungsbeitrag der neuen Kunden werden dabei nicht berücksichtigt. Von einer zielgerichteten Unterstützung der Geschäftsziele kann also keine Rede sein. Besser ist es, den gesamten Funnel auf die verschiedenen Werbeträger oder Kampagnenelemente herunterzubrechen und gesondert zu betrachten, wie Abbildung 6.5 zeigt.
Keyword Advertising
Affiliate Marketing
E-Marketing
1
2
3
Abbildung 6.5 Analyse der Werbeträger anhand einzelner Funnel-Grafiken
109
6 Erfolgsfaktoren für Websites Jeder einzelne Funnel wird auf die verursachten Kosten, die erzielten Umsätze und die so resultierenden Deckungsbeiträge untersucht. Mit gezielten Maßnahmen zur Steigerung der Konversionsraten sollte mittelfristig eine bessere Ausnutzung des vorhandenen Potenzials angestrebt werden, bei gleichen Kosten und damit verbessertem Deckungsbeitrag. Wichtig ist es, den Zeitraum, der mit einem solchen Funnel dargestellt wird, genauer zu betrachten. Die Phase zwischen der Ansprache und der Konversion ist der Zeitraum, für den das Unternehmen „in Vorleistung“ gehen muss. Die Kosten für die Werbemaßnahmen entstehen zu Beginn des Funnels, die Deckungsbeiträge werden am Ende erwirtschaftet. Die Länge des Funnels zeigt also deutlich die Auswirkungen der Maßnahmen auf den Cash-Flow des Unternehmens und bedarf daher einer besonderen Beobachtung.
6.7.6 Konversion und Konversionsraten Die Konversion bezeichnet den Abschluss einer vom Website-Betreiber gewünschten Aktion des Besuchers. Sie steht in direktem Zusammenhang mit dem Kernziel der Website. Beispiele: In einem Online-Shop werden Produkte verkauft. Die Konversion ist also dann erfolgt, wenn der Besucher ein Produkt bestellt hat. Auf einer B-to-B-Marketing-Website sollen Leads für den Direktvertrieb generiert werden. Die Konversion erfolgt durch das Ausfüllen eines Kontaktformulars. Die Service-Website einer städtischen Verwaltung soll die Mitarbeiter von Routineaufgaben entlasten. Die Konversion ist zum Beispiel schon durch den Download einer PDF-Datei möglich, weil dadurch das postalische Zusenden einer Broschüre entfallen kann.
Die Konversion könnte man durchaus als kritische Phase des „Customer Life Cycle“ ansehen. An diesem Punkt werden Nichtkäufer zu Käufern (aus Marketing-Sicht) und Kosten zu Deckungsbeiträgen (aus Controlling-Sicht). Da die Gründe für den Erfolg oder Misserfolg in dieser Phase vielfältig sein können und sich der Konversionsprozess über einen längeren Zeitraum hinziehen kann, sollte der gesamte Konversionsschritt in mehrere Mikro-Konversionsschritte unterteilt werden (siehe Abbildung 6.6). Suche nach Produktinformationen (Look): Als Erstes schauen sich die Besucher nach Produktinformationen um. Falls keine interessanten Produkte gefunden werden, verlassen sie die Website wieder. Artikel im Warenkorb (Click): Wenn die Besucher interessante und preisattraktive Produkte gefunden haben, klicken sie darauf oder legen die Produkte in den Warenkorb. Bestellung (Basket): Sobald alle gewünschten Produkte im Warenkorb liegen, geht der Besucher weiter zur Bestellung. Lead (Buy): Die Bestellung führt aber noch nicht zu Umsatz oder Deckungsbeitrag. Auch nach dem Absenden der Bestellung kann der Kunde seine Bestellung widerrufen oder die gekauften Artikel zurücksenden.
110
6.7 Kennzahlen zur Kundengewinnung und -bindung
Suche nach Produktinformation (Look) Desinteresse Artikel im Warenkorb (Click) Warenkorb verlassen Bestellung (Basket) Abbruch der Bestellung Lead (Buy) Storno nach Bestellung, Rücksendung Verkauf Umsatz!
Abbildung 6.6: Die Konversion wird in einzelne „Mikro-Konversionen“ aufgeteilt.
Verkauf: Mit den Web-Analytics-Tools messen wir den vorläufigen Umsatz. Dieser wird ermittelt anhand des Warenkorbinhalts, der bei Aussendung der Bestellbestätigung bestand. Doch bis dieser zu einem echten Umsatz im Warenwirtschaftssystem wird, kann noch viel passieren. Etwa wenn die Bestellung fristgerecht storniert oder retourniert wird. Diese Prozesse laufen in der Regel nicht online und sind daher für das Web-Analytics-System nicht messbar. Erst nach Ablauf der Widerrufsfrist, 14 Tage ab Erhalt der Ware, und der vollständigen Bezahlung der Rechnung entsteht für das Unternehmen ein echter Umsatz. Auch eine genauere Untersuchung, an welcher Stelle der Konversion potenzielle Kunden verloren gehen, ist eine wichtige Aufgabe der Web Analytics. Werden zum Beispiel sehr viele Warenkörbe gefüllt, aber im Anschluss kaum bestellt, so ist vielleicht die Registrierung zu aufwendig, oder die Kunden finden nicht die bevorzugte Bezahlmöglichkeit vor. Ein häufiger Fehler ist der sogenannte „Störer“ im Verkaufsprozess. Hierbei versuchen Marketiers neben dem Bestellprozess freie Flächen mit Werbebannern zu füllen. Weil sich der potenzielle Kunde hier eigentlich schon entschieden hat, ist es jedoch keine gute Idee, ihn auf weitere Produkte aufmerksam zu machen – er ließe sich eventuell ablenken und könnte sich für den Verkaufsabbruch entscheiden. Zur Analyse der Mikrokonversionen dienen spezielle Kennzahlen, zum Beispiel die „look to click rate“, die „click to basket rate“ oder die „basket to buy rate“ – siehe hierzu die Abbildung 6.6. Bei diesen Kennzahlen ist es allerdings sehr wichtig, die Zeit nach dem Bestellvorgang zu berücksichtigen. Die Grafik der Mikro-Konversionen zeigt, dass eine Bestellung nicht automatisch Umsatz generiert. In vielen Online-Shops ist die Bestellung jedoch die letzte über die Website ausgeführte Aktion, die sich mit Web Analytics beobach-
111
6 Erfolgsfaktoren für Websites ten lässt. Rückgaben werden hingegen woanders festgehalten. Deshalb ist für die Auswertung der tatsächlichen Umsätze eine Integration anderer Systeme notwendig, zum Beispiel einer ERP-Software.
6.7.7 Loyalitätsmessung mit der RFM-Methode Der im vorhergehenden Abschnitt vorgestellte Kundengenerierungszyklus macht deutlich, dass Stammkunden den höchsten Wert für Unternehmen haben, weil sie mit einem Mindestmaß an (Werbe-)Kosten den höchsten Deckungsbeitrag erzielen. Nach dem ParetoPrinzip (viele Aufgaben lassen sich mit einem Mitteleinsatz von 20% erledigen) kann man davon ausgehen, dass 20% der Kunden zu 80% des Umsatzes führen. Um die echten Stammkunden aus der Gesamtmenge der Kunden herauszufiltern, bietet zum Beispiel das Tool NetGenesys eine Methode, um den „Wert“ eines Kunden im Bezug zu seiner Loyalität zu bestimmen. Dazu werden drei Parameter dargestellt: R – Recency (Neuheit): zeigt den durchschnittlichen Zeitraum zwischen zwei Interaktionen an. Man geht davon aus, dass ein erneuter Besuch umso wahrscheinlicher ist, je kürzer die Zeiträume zwischen den vorhergehenden Besuchen waren. Der Wert Recency stellt einen gemittelten Zeitraum dar. F – Frequency (Häufigkeit): Die Häufigkeit der Website-Besuche oder Kaufabschlüsse einer Person; wird aus der Anzahl der Tage (vom ersten bis zum letzten Besuch) berechnet, dividiert durch die Anzahl der Besuche minus 1. Beispiel: Ein Interessent besucht eine Website zum ersten Mal am Tag X. Der zweite Besuch findet drei Tage später statt, der dritte sieben Tage später. Die Anzahl der Tage zwischen dem ersten und letzten Besuch beträgt 10, die Anzahl der Besuche ist 2 (ab dem ersten Besuch, also minus 1). Die Frequenz beträgt demnach 10 Tage, geteilt durch 2 Besuche. Man kann also alle 5 Tage mit einem Besuch des Interessenten rechnen. Die Frequency unterliegt je nach Geschäftsmodell unterschiedlichen Interpretationen. Bei einem B2C-Geschäft deutet eine hohe Frequenz eines Besuchers auf hohe Umsätze hin, weil die Kaufentscheidung wahrscheinlich eher spontan abläuft. Beim B-to-B-Marketing hingegen ziehen sich Entscheidungsprozesse über Investitionen oft sehr lange hin, mehrere Entscheider aus verschiedenen Bereichen des Unternehmens sind am Buying Center beteiligt. In diesem Fall deutet eine steigende Frequency auf die möglicherweise bald bevorstehende Entscheidung hin, da verstärkt nach Informationen gesucht wird. Sind diese Kunden persönlich bekannt, kann die Entscheidungsfindung parallel auf anderen Kanälen unterstützt werden (zum Beispiel durch Vertriebsbesuche etc.). M – Monetary Value (Wert des Kunden): Dieser Wert bemisst sich nach der mit diesem Kunden in der entsprechenden Periode erzielten Rendite. Mit Hilfe der RFM-Methode werden diese drei Werte in Form eines dreidimensionalen Koordinatensystems oder in Form eines Würfels dargestellt. Die drei Werte sind die Achsen des Würfels, die in 5 Segmente von sehr gering (1) bis sehr hoch (5) eingeteilt werden (Abbildung 6.7).
112
6.8 Besucher-/Kundenbezogene Kennzahlen
Abbildung 6.7 Der RFM-Würfel stellt wichtige Parameter der Kundengenerierung in Zusammenhang (nach [Sterne 2002])
Der RFM-Würfel erlaubt zwei Auswertungen: 1. Bei der Betrachtung aller Kunden stellt man eine Verteilung fest, die Ideen für die Optimierung liefern kann. So lässt sich zum Beispiel ablesen, ob die Kunden mit einer höheren Frequenz oder die mit einer höheren Recency bessere Renditen erwirtschaften. 2. Zudem kann man die Kunden filtern und in Gruppen aufteilen. Auf diese Weise kann man zum Beispiel die „A-Gruppe“ bilden, die mit gezielten Maßnahmen noch besser gefördert werden muss. Für die restlichen B- und C-Kunden können ebenfalls geeignete Maßnahmen eingeleitet werden, damit ihre Aktivitäten in die besseren Bereiche des RFM-Würfels konvertieren. Egal, welche Art von Website man betreibt: Letztendlich wünscht man sich erfolgreiche Besucher beziehungsweise Kunden, die konvertieren. Insofern ist die Abbruchsanalyse, also die Analyse nicht erfolgter Konversionen, eine der wichtigsten Analysearten. Sie zeigt das Potenzial der Website oder des Shops auf.
6.8
Besucher-/Kundenbezogene Kennzahlen Die besucherbezogenen Kennzahlen geben Hinweise darauf, wie Besucher eine Website akzeptieren oder wahrnehmen. Auf Grundlage des umfangreichen Datenmaterials, das mit Web Analytics gesammelt wird, können Online-Kundenbeziehungen oft besser und einfacher ausgewertet werden als bei „Offline-Kundenkontakten“ in einem realen Verkaufsraum.
113
6 Erfolgsfaktoren für Websites
6.8.1 Stickiness und Slipperiness Wichtige Kennzahlen zur Bestimmung der Akzeptanz und der Sichtbarkeit einer Website sind „Stickiness“ und „Slipperiness“. Sie zeigen, wie weit es einer Website gelingt, Benutzer anzuziehen und zu halten (Stickiness) oder die Fähigkeit der Website, mit den Besuchern in eine schnelle, kurze Interaktion zu treten (Slipperiness). Je nach Zielsetzung der Website kann das eine als auch das andere von Vorteil sein. Eine Site mit niedriger Stickiness muss nicht schlechter sein als eine mit höheren Werten. Das hängt von der Funktion der Website und ihrer Aufgabe ab. Stickiness und Slipperiness berechnen sich aus Besuchsfrequenz, Besuchsdauer und Reichweite. Die Formel lautet für beide Kennzahlen gleich: Slipperiness bzw. Stickiness(total) =
Gesamtzeit der Verweildauer für alle Seiten Gesamtanzahl Unique Visitors
Auf den Monat bezogen, sieht die Formel wie folgt aus: Slipperiness bzw. Stickiness(Monat) = Anzahl der Besuche Unique Visitors
x
Gesamtzeit der Verweildauer Anzahl der Besuche
x
Anzahl der Unique Visitors(Monat) Anzahl der Gesamt Unique Visitors
Die Stickiness betrachtet man auch für einzelne Kategorien der Website in bestimmten Zeitperioden (Tag, Monat, Jahr). Die Kalkulation für die Slipperiness ist identisch, der Unterschied liegt in der Zielsetzung, ob man die Stickiness oder Slipperiness berechnet. Ob eine Site eher „slippery“ oder „sticky“ sein soll, hängt von der Zielsetzung und dem Vergleich mit ähnlichen Websites ab. Generell gilt, dass bei einer reinen Produktinformations-Website sicherlich eine hohe Stickiness erwünscht ist, bei einem Kontaktformular oder einem Bestellvorgang hingegen eher eine hohe Slipperiness.
6.8.2 Focus und Velocity Der Focus bestimmt die Anzahl besuchter und thematisch zusammenhängender Seiten im Verhältnis zur Gesamtzahl an Seiten. Ein hoher Focus ist bei detaillierten Produktinformationen gewünscht, beim Kaufprozess hingegen ist er eher hinderlich. Hier sollte der Anwender vielmehr mit wenigen Klicks zum gewünschten Ziel gelangen. Die „Velocity“ drückt die Einfachheit aus, mit der ein Kaufprozess insgesamt abgeschlossen werden kann – vom ersten Besuch bis zur erfolgreichen Bestellbestätigung. Sie gibt an, wie viele Seitenabrufe Anwender für diesen Vorgang im Mittel benötigen. Dieser Wert sollte so niedrig wie möglich liegen.
114
6.9 Die Werbeeffizienzmessung
6.8.3 Verweildauer Die Verweildauer wird aus Basiszahlen berechnet: sie ist die Differenz zwischen dem ersten und dem letzten Seitenabruf eines Visits. Mögliche Fehlerquellen bei der Ermittlung dieser – eigentlich recht einfachen – Kennzahl liegen in der verwendeten Technik und in der Interpretation der Daten: Die Zeitspanne zwischen zwei Klicks bedeutet nicht unbedingt, dass der Besucher die aufgerufene Seite tatsächlich so lange betrachtet hat – sie war nur so lange in seinem Browser geladen! Die „Verweildauer“ ist also nicht gleich „Betrachtungszeit“. Mit der zugrunde liegenden Technik kann die Verweildauer von „Ein-SeitenBesuchen“ sowie die Zeitspanne der jeweils letzten Seite nicht seriös ermittelt werden. Hierzu ein Beispiel: Ein Besucher gelangt auf die Homepage, springt dann weiter auf eine Produktseite und wechselt zur Seite mit Produktdetails. Dort verlässt er die Website durch Schließen des Browsers. Die Verweildauer auf dieser letzten Seite kann nicht ermittelt werden. Weiterhin ordnen viele Tools Visits den IP-Adressen zu, was zu Ungenauigkeiten führt (durch Proxies etc.). Ist also über einen Proxy nur eine IP-Adresse erkennbar, sieht das Web-Analytics-Tool einen Besuch mit langer Verweildauer statt viele Besuche mit unterschiedlicher Verweildauer. Dennoch können aus dieser Kennzahl wichtige Erkenntnisse abgeleitet werden. Hat man seine Zielgruppe nicht gefunden, ist die Verweildauer sehr kurz. Ist sie aber sehr lang, und finden die Besucher trotzdem wichtige Ziele wie Kontaktformulare und Bestellbestätigungen nicht, kann die Analyse der Klick-Pfade helfen, um die Navigation und die Usability zu optimieren. Besucherbezogene Kennzahlen geben einen Hinweis darauf, ob die Website den Besuchern interessanten Content bietet und die Transaktionen auf der Seite verständlich aufgebaut sind. Ein Shop sollte „sticky“ sein, damit der potenzielle Kunde nicht woanders sucht, und „slippery“ im Verkaufsprozess – hier dürfen keine störenden Einflüsse den Prozess behindern.
6.9
Die Werbeeffizienzmessung Um die Werbeeffizienz zu bestimmen, werden bei Kampagnen, die auf der eigenen Website stattfinden, die Kennzahlen der Traffic-Akquise und Traffic-Verwertung betrachtet. In diesem Abschnitt beschäftigen wir uns mit den Grundlagen der Kampagnenmessung. Mit Kennzahlen, die einen Bezug zur Werbeeffizienz herstellen, wird der Erfolg von Online-Marketing- oder Performance-Marketing-Maßnahmen ermittelt. Als Kampagnen bezeichnet man zeitlich begrenzte Online-Werbemaßnahmen, etwa wenn Werbemittel in einem oder mehreren Kanälen (Werbeträgern) wie Suchmaschinen, Newslettern oder Websites platziert werden. Es gibt zwei Kampagnenarten:
115
6 Erfolgsfaktoren für Websites Externe Kampagnen: Diese umfassen alle Maßnahmen der Traffic-Akquise. Ein Unternehmen schaltet auf fremden Websites (oder in Newslettern Dritter etc.) Werbemittel wie Banner und/oder Keywords, die Online-Nutzer über Links auf eine Unternehmens-Website leiten sollen. Interne Kampagnen: Diese umfassen die Maßnahmen, mit denen der Betreiber die Besucher auf der eigenen Website gezielt zur gewünschten Aktion leiten will. Der Erfolg kann dabei, je nach Geschäftsmodell, ein PageView sein oder eine Bestellung in einem eigenen Shop.
6.9.1 Externe Kampagnen Bei externen Online-Kampagnen wirbt ein Website-Betreiber auf externen Medien für sein Online-Angebot, etwa auf fremden Websites, Suchmaschinen oder in einem Newsletter. In der Regel werden diese Banner und Anzeigen durch Online-Vermarkter über „Adserver“ platziert (siehe auch „Affiliate-Marketing“). Alle Modelle der Abrechnung von Bannerschaltungen (oder anderer Werbemittel) basieren auf zwei Grundkennzahlen – den Ad Impressions und den Click Throughs (CT): Ein Ad Impression ist das Einblenden eines Banners auf einer aufgerufenen Seite – also der Sichtkontakt. Ein Click Through ist der Klick des Anwenders auf ein Banner. Zur Abrechnung der Kosten werden beide Zahlen entweder von den Betreibern der Websites gemessen, auf denen die Werbung platziert wurde, oder durch den Adserver-Dienstleister. Das Messen auf dem Adserver gilt als kostengünstig, doch es ist mit einer deutlichen zeitlichen Verzögerung verbunden, weil die Zahlen zum Beispiel nur einmal pro Monat mit der Abrechnung übermittelt werden. Mit geeigneten Web-Analytics-Tools können die eigenen Ad Impressions auf fremden Seiten gemessen werden. Das Messen direkt im Web-Analytics-System des Werbetreibenden ist zwar deutlich schneller, verursacht aber bei den üblichen ASP-Modellen eventuell erhebliche Kosten. Die Preise für das Messen der Ad Impressions auf einem Adserver oder einem Web-Analytics-System unterscheiden sich heute um mindestens das Zehnfache (Bestszenario). Die Kontrolle der vom Adserver-Anbieter oder anderen Abrechnungssystemen gelieferten Zahlen ist zwar einfach, doch interessanter sind Auswertungen, mit denen die Kosten für die Werbemittel und die erfolgreich abgeschlossenen Transaktionen in Relation gebracht werden können und mit denen sich die Erfolgskriterien der verschiedenen Werbemittel bestimmen lassen. Dazu werden der Kampagne die Metriken Visit und Unique Visitor zugeordnet – diese werden über den Link im externen Werbemittel übermittelt. Der definierte „Tracking Code“ für das Werbemittel wird als Dimension des Visits festgehalten. Die Erfolge können dem Visitor anschließend zugeordnet werden. Die Auswertung kann als Basis für die Optimierung dienen, wenn die gewonnenen Daten anhand des für die Web Analytics verwendeten Tools klassifiziert und gruppiert werden können:
116
6.9 Die Werbeeffizienzmessung Bei der Klassifizierung teilt man die eingesetzten Werbemittel nach verschiedenen Kriterien ein, die einen Rückschluss auf den späteren Erfolg ermöglichen sollen. Denkbare Klassifizierungen erfassen zum Beispiel den Partner, bei dem die Werbemittel geschaltet werden, den Kanal (zum Beispiel Newsletter), die Form (Banner oder Textlink) oder die Technik (animiertes Flash oder statisches GIF). Bei der Gruppierung werden die Daten aus verschiedenen Kampagnen zusammengefasst, um die Wirksamkeit bestimmter Werbemaßnahmen zu erkennen. Wenn zum Beispiel pro Monat eine Kampagne in Form eines Newsletters (Kampagnenkennung „Newsletter Januar“ bis „Newsletter Dezember“) durchgeführt wird, kann eine Gruppierung der „Newsletter pro Jahr“ sinnvoll sein. Andernfalls wäre eine Zuordnung anhand der Kampagnenerkennung auf das Versendejahr nicht möglich. Das Zuordnen der Kosten ist ein weiterer wichtiger Schritt beim Tracking von OnlineKampagnen. Es können unterschiedliche Kosten für eine Kampagne entstehen: Fixe Kosten, zum Beispiel für das Einrichten eines Programms bei einem AffiliatePartner, für die kreative Gestaltung von Bannern oder für die Newsletterproduktion. Variable Kosten nach View (Cost-per-View) oder Click (Cost-per-Click) bzw. prozentual vom Umsatz (Cost-per-Order). Auch die Kostenzuordnung ist eine wesentliche Anforderung, die ein Web-Analytics-Tool erfüllen sollte, weil nur auf diese Weise die Kosten von Kampagnen oder einzelner Werbeelemente (zum Beispiel Banner, Keywords, Newsletter, Landing Pages) betrachtet werden können. Im besten Fall lassen sich die Kosten anhand definierter Regeln direkt ermitteln. Wenn nicht, werden sie nachträglich in das Web-Analytics-System eingespielt. Idealerweise bieten das Web-Analytics-Tool oder ein übergeordnetes Kampagnenmanagement-Tool die Möglichkeit, die verwendeten Werbemittel direkt zu verwalten und zuzuordnen. Das sorgt für Komfort in der täglichen Kampagnenabwicklung, vor allem wenn große Websites involviert sind, auf denen durchaus mehrere Dutzend unterschiedlicher Banner platziert sein können.
6.9.2 Interne Kampagnen Im Gegensatz zu externen Kampagnen hat der Betreiber interner Kampagnen direkten Einfluss auf alle Daten und Gestaltungsparameter. Anders als bei den externen Kampagnen kann er schnell reagieren und aus den Web-Analytics-Informationen direkt Maßnahmen zur Optimierung der Website einleiten. Dies ist zum Beispiel für alle Portale relevant, die sich über den Verkauf von Werbeplätzen refinanzieren. Je nach Vereinbarung werden die Einblendungen der Werbemittel oder erst die Klicks als Erfolg gewertet. Diese Erfolge wertet man dementsprechend im Rahmen der Web Analytics als „Verkauf“ des Betreibers. Als Basis für die Optimierung interner Kampagnen dient die Gegenüberstellung von Kosten und Erträgen: je nach Möglichkeit des Web-Analytics-Tools wird direkt berechnet oder nachträglich importiert. Die Differenz von Erlösen und Kosten sollte dann zum Beispiel nach Kampagnen oder einzelnen Werbemitteln aufgelöst werden, um Entscheidungen für die notwendigen Maßnahmen vorzubereiten.
117
6 Erfolgsfaktoren für Websites
6.9.3 Werbemittelnutzungspfad Es ist lohnenswert, den gesamten Kampagnenpfad – also das Zusammenwirken aller Werbemaßnahmen bis zur Konversion – zu analysieren, um mehr über die Hintergründe eines Kampagnenerfolgs zu erfahren. Das klingt selbstverständlich, ist es aber nicht. Weil der Erfolg einer Kampagne im Regelfall über das Erreichen eines Website-Ziels definiert wird – die Konversion am Ende eines erfolgreichen Besucherpfads –, gehen viele Werbetreibende davon aus, dass zugleich das letzte Online-Werbemittel der Kampagnenkette, das zur Konversion führte, am meisten Gewinn bringt. Technisch unterstützen die meisten Tools standardmäßig nur „First Cookie Wins“ oder „Last Cookie Wins“ – nur der Erstkontakt mit einem Werbemittel oder der letzte Kontakt vor der Konversion wird also einem Erfolg zugerechnet. Diese Annahme kann zu falschen Entscheidungen führen, wenn das Wissen über die vermeintlichen Gewinner unter den Werbemitteln eingesetzt wird, um die Weichen für weitere Budgetfreigaben und Gewichtungen der Werbemittel zu stellen. So könnte zum Beispiel ein Unternehmen das Budget für Suchmaschinenmarketing erhöhen, weil über diesen Kanal die höchste Konversionsrate erzeugt wird, und das Budget für Displaywerbung senken, weil nicht erkannt wird, dass viele Verbraucher zuvor durch die Werbebanner der gleichen Kampagne animiert wurden. Die unterstützende Wirkung von E-Mail-Marketing wird in dieser Art der Zuordnung nicht erfasst. In einem Reiseportal wurden all jene, die sich im Laufe einer Buchung registrierten, gefragt, ob sie wünschten, in Zukunft einen Newsletter zu erhalten. Eine Segmentanalyse der Mehrfachbucher nach Newsletter-Empfängern und Nicht-Newsletter-Empfängern ergab folgendes Bild: Von den Mehrfachbuchern waren rund 60% Newsletter-Empfänger. Der Newsletter war niemals das letzte Werbemittel vor einer Buchung – es wurde so gut wie nie direkt auf einen Newsletter hin gebucht. Einmal-Bucher, die keinen Newsletter empfingen, hatten zu rund 20% eine weitere Buchung getätigt. Für die Buchung war kein signifikanter Unterschied zwischen geöffneten Newslettern und den geklickten Links feststellbar. Wird also das Empfangen und das Klicken im Newsletter in den Werbemittelpfad mit aufgenommen, zeigt sich, dass der Newsletter unverzichtbar ist, obwohl er niemals eine direkte Konversion erzeugt. Ähnlich verhält es sich mit der Display- und Brand-Werbung. Werbetreibende sollten also den gesamten Werbemittelnutzungspfad unter die Lupe nehmen. Sie müssen sich Fragen stellen wie: Welche Werbemittel wurden vor der Konversion geklickt oder gesehen? Welche Tools hat der Besucher vor der Konversion genutzt? Welche Videos oder Bilder hat der Besucher vor der Konversion betrachtet? Welche Suchwörter wurden vor der Konversion auf der Site eingegeben?
118
6.10 Umgang mit Kennzahlen Voraussetzung dafür ist eine konsistente und durchgängige Messung der Online-Marketing-Maßnahmen. Was zum Beispiel bedeutet: Einsprünge in Landing Pages – nach Klicks auf Werbemittel – müssen sich aktuell messen lassen; Werbemittel werden so ausgeliefert, dass Cookies auch in der Landing Page ausgelesen werden können; Die Statistiken aggregieren Werbemittel nach Kriterien wie Kampagnen, Plattformen oder Auslieferungsformen („Klassifizierung“). Die Mühe lohnt sich, denn eine solche Analyse ist bei der Planung weiterer Kampagnen von großem Nutzen. Man gewinnt einen Überblick aller an der Konversion beteiligten Werbemittel und Tools, eine genauere Analyse und Gewichtung der „Loser“-Werbemittel sowie eine tiefere Analyse der Werbekanäle. Übrigens: Bei Omniture spricht man in Zusammenhang mit diesem Thema von „Campaign Stacking“ und bei Coremetrics von „Marketing Attribution“. Der Werbemittelnutzungspfad lässt sich aber auch mit anderen Web-Analytics-Tools erzeugen. Wir unterscheiden und bewerten externe und interne Kampagnen. Während die externen Kampagnen die Traffic-Zuführung auf die Website gewährleisten, geht es bei den internen Kampagnen darum, den Traffic auf den Seiten zu führen und somit auf Neuigkeiten auf der Website hinzuweisen.
6.10
Umgang mit Kennzahlen In den Anforderungsanalysen bei Kunden bekommen wir auf unsere Frage, welche Kennzahlen man denn gerne haben möchte, häufig eine einfache Antwort: „Alle!“ Auf die folgende Frage erhalten wir dann zumeist keine Antwort mehr: „Wer soll denn bitte alle Kennzahlen analysieren?“ Denn die Webanalyse kann zwar auf viele Fragen eine Antwort geben – aber nicht per Knopfdruck. Bei Kunden, die schon seit Längerem ein Web-Analytics-System nutzen und keine dedizierte Anforderungsanalyse durchgeführt haben, treten in der Regel folgende Phänomene auf: Sie verfügen über viele Kennzahlen, die durch Backend-Daten zusätzlich erweitert werden, beispielsweise die Lagerkennzahlen eines Shops. Diese „Kennzahlengräber“ werden an alle Mitarbeiter verteilt, doch keiner weiß, welche wirklich relevant sind. Jeder analysiert sie also für sich. Die Kunden nutzen ein High-End-Web-Analytics-Tool, erheben aber nur Basiskennzahlen. Diese Zahlen werden reportet, aber nicht analysiert. Die Folge: Die Reports werden in der Regel ungelesen archiviert. Zwischen diesen beiden „Schwarz-Weiß-Beispielen“ gibt es viele Grautöne. In den folgenden Abschnitten wollen wir Licht in den Umgang mit Kennzahlen bringen.
119
6 Erfolgsfaktoren für Websites
6.10.1
Auswahl der Kennzahlen und zielgruppengerechte Präsentation
In den vorangegangenen Kapiteln haben wir die wichtigsten und häufig verwendeten Kennzahlen vorgestellt. Nun wollen wir uns um die Auswahl, Anreicherung und zielgruppengerechte Präsentation von Kennzahlen kümmern. Webanalyse muss im Unternehmen selbst verkauft werden, um den Mitarbeitern den Nutzen zu verdeutlichen. Genau wie in der Werbung kommt es darauf an, zur richtigen Zeit am richtigen Ort die richtige Botschaft an den richtigen Adressaten in der richtigen Form zu bringen. Wie in der Werbung wird jemand die Webanalyse nur nutzen, wenn er einen persönlichen Vorteil daraus ziehen kann. Zuerst sollten die verschiedenen Interessenvertreter und die entsprechenden Unterstützer identifiziert werden. Des Weiteren sollte geprüft werden, welche Kennzahlen dem jeweiligen Adressaten helfen, in seiner Rolle (zum Beispiel Affiliate-Manager, SEO-/SEMManager, Bereichsleiter oder Geschäftsführer) erfolgreich zu sein. Idealerweise bietet man die Interpretation der Daten und Lösungsvorschläge gleich mit an. Nachdem Inhalte und Adressaten bestimmt wurden, fehlt noch die Verpackung: Überfrachten Sie die Reports nicht, mehr als 3 bis 5 Kennzahlen oder Auffälligkeiten pro Report sollten nicht aufgeführt werden, da Listen mit aneinandergereihten Kennzahlensätzen ermüden. Die Darstellung sollte dazu verhelfen, Sachverhalte schnell zu erfassen. Zusätzliche Indikatoren, die die Wichtigkeit des Reports darstellen, unterstützen das Verständnis solcher Reports. Idealerweise sollte für jede Rolle ein eigenes Reporting generiert werden. Die operativen Rollen bekommen Kennzahlen, die es Ihnen erlauben, Ihre Online-Marketing-Maßnahmen zu steuern. Darüber liegende Rollen, wie zum Beispiel der Marketingleiter, bekommen aggregierte Zahlen aller Online-Marketing-Rollen. Einer unserer Kunden erstellt regelmäßig einen internen Newsletter mit den Erkenntnissen aus der Web Analytics. In diesem Newsletter werden die positiven, aber auch negativen Erkenntnisse in anschaulicher Sprache und für jeden verständlich zusammengefasst. Aus unserer Sicht ist das ein vorbildliches Vorgehen, um Verständnis im Unternehmen für die Web Analytics zu schaffen.
6.10.2 Anreicherung der Kennzahlen In der Praxis müssen für jede Website und deren Aufgabe die jeweils relevanten Dimensionen und Metriken entwickelt und festgelegt werden. So können für ein Musikportal, das MP3-Files zum Download anbietet, Dimensionen wie „Interpret“ oder „Genre“ hilfreich sein, doch gehören sie sicher nicht zum Standardangebot eines Web-Analytics-Tools. Eine Aufstellung aller wichtigen und allgemein gültigen Kennzahlen, die gängige Tools heute anbieten sollten, finden Sie in Kapitel 12. Zwei Aspekte sind bei der Verwendung von Kennzahlen wichtig:
120
6.10 Umgang mit Kennzahlen 1. Die Auswahl an Dimensionen und Metriken sollte sich an den Anforderungen und Zielen des Betreibers orientieren – und nicht an den verfügbaren Funktionen eines Tools. In der Planungsphase sollte der Betreiber deshalb immer seine Ziele und Aufgabenstellung sowie deren direkte Messbarkeit im Auge behalten. Sie sind die Grundlage seiner Kennzahlen-Definitionen. Die Auswertungen sollten sich darauf beschränken. Ein Betreiber sollte sich nicht verleiten lassen, weitere Kennzahlen einzusetzen, nur weil das verwendete Tool diese anbietet. Weniger ist hier mehr. 2. Die über Web Analytics bereitgestellten Informationen sollten regelmäßig ausgewertet werden. Nur so können Maßnahmen zur Korrektur von Abweichungen systematisch vorgenommen werden. Dazu ist es notwendig, die Zahlen in einer für die Zielgruppe nachvollziehbaren Art zusammenzustellen und zu präsentieren. Wenn sich der Geschäftsführer eines Unternehmens selbst „seine“ Gegenüberstellung von Kosten und Erträgen mühsam aus einem Wust von Visits, PageViews und anderen Zahlen heraussuchen muss, ist der Ausstieg aus der Web Analytics programmiert. Besser ist es, speziell zugeschnittene Reports (Dashboards) zu entwickeln und eventuell per E-Mail vor dem nächsten Vertriebsmeeting als PDF zuzusenden.
6.10.3 Kennzahlen im Web-Analytics-Regelkreis Die systematische Auswertung und Analyse der festgelegten Kennzahlen ist ein wesentlicher Bestandteil der Web Analytics. Ohne diese Basis lassen sich keine fundierten, langfristigen Voraussagen zum Erfolg einer Website machen. Aber auch die Abweichungen zu den ursprünglich gesetzten Zielen müssen festgestellt und ermittelt werden. Erst dann können die nächsten Maßnahmen getroffen werden. Ausgehend von der Definition der Ziele über das Messen der Erfolge und deren Analyse wird die Basis für die Optimierung geschaffen, die wiederum neue oder aktualisierte Ziele verfolgt. Den verwendeten Kennzahlen kommt in diesem Regelkreis entscheidende Bedeutung zu: Die Kennzahlen müssen die Ziele des Unternehmens im Zusammenhang mit den OnlineAktivitäten beschreiben können, zum anderen müssen sie die Erfolge oder Abweichungen messbar und somit planbar machen.
6.10.4 Einschränkungen der aktuellen Kennzahlensysteme Die aktuellen Web-Analytics-Implementierungen basieren überwiegend auf der Auswertung weniger Metriken (etwa PageView, Visit, Unique Visitor). Durch Aggregation und Kombination werden sie gerne zur Darstellung geschäftsrelevanter Vorgänge genutzt. Dieses Vorgehen ist im Laufe der Jahre gewachsen und orientiert sich im Kern an den technischen Möglichkeiten der „Messbarkeit“ im Umfeld von HTML-basierten Websites. Doch dieses Vorgehen ist nicht immer geschickt. Beispiel: Die Registrierungen auf einer Website werden gerne anhand der Aufrufe der Anmeldeseite gezählt („Vielen Dank für Ihre Anmeldung...“). Es wird also nicht der Vorgang der Registrierung als solcher fest-
121
6 Erfolgsfaktoren für Websites gehalten, sondern die Anzeige einer HTML-Seite – ein PageView. Doch die Anzahl der PageViews der Bestätigungsseite ist kein exaktes Maß für die Anmeldungen, denn durch Reloads und ähnliche Vorgänge kann es deutlich von der tatsächlichen Anzahl der Anmeldungen abweichen. So verzeichneten wir für einen Online-Shop wesentlich mehr Bestellungen, als das Warenwirtschaftssystem tatsächlich hergab. Die erste Vermutung der Kunden: Das Web-Analytics-Tool misst falsch! Nach einer genaueren Analyse der Webstatistiken stellte sich heraus, dass eine hohe Anzahl an Reloads auf der Bestellbestätigungsseite vorgenommen wurde. Anhand einer Testbestellung wurde der Vorgang überprüft, warum die Kunden die Reload-Funktion so oft nutzten. Es stellte sich heraus, dass in der Hauptgeschäftszeit die Auslieferung der Bestell-Bestätigungsseite einige Sekunden dauerte und „nervöse“ Kunden daher die Reload-Funktion so lange betätigten, bis die Bestellbestätigung angezeigt wurde. Bei der Auswahl und beim Einsatz der Kennzahlen sollte also nicht die Logik des WebAnalytics- oder Statistik-Tools den Ausschlag geben, sondern der tatsächliche Informationsbedarf der Anwender. Komplexere Informationen, zum Beispiel die detaillierte Beschreibung des Besucherverhaltens („Behavioral Targeting“), können ebenfalls kaum anhand von PageViews erfasst werden. In den folgenden Abschnitten zeigen wir Ihnen weitere Aspekte, die bei der Planung von Kennzahlen und der Auswertung der Ergebnisse beachtet werden sollten.
6.10.5 Fehlerhafte Bewertung von Ergebnissen Vor allem in der Startphase eines Web-Analytics-Projekts kommt es gerne zu unerwarteten Ergebnissen. Häufig liegt die Vermutung nahe, dass die verwendeten Tools falsch messen. Stattdessen werden aber nur die falschen Schlüsse aus den Ergebnissen gezogen, oder die Messungen setzen an einer ungeeigneten Stelle an. Das folgende Beispiel zeigt, wie sich schon mit geringen Änderungen in der Anwendung des Systems und in der Bewertung der Ergebnisse deutliche Verbesserungen erzielen lassen. Ein Portal zur Partnerschaftsvermittlung fragt bei der Anmeldung nach dem Geschlecht des Interessenten. Beim Abschluss des Registrierungsvorgangs wird ein Cookie auf dem Anwenderrechner gesetzt, in dem eine Benutzerkennung (Unique User Identifier – UUID) abgelegt ist. Die Mitglieder des Portals können private Nachrichten austauschen. Der Portalbetreiber möchte nun wissen, welcher Anteil der verschickten Nachrichten von weiblichen bzw. männlichen Mitgliedern verfasst wurde. Dazu wird beim Abschicken einer jeden Nachricht das Cookie mit der UUID ausgelesen. Über die Mitgliederdatenbank können so die Dimension „Geschlecht“ mit der Metrik „Nachricht versendet“ verbunden und an die Statistik gesendet werden.
122
6.10 Umgang mit Kennzahlen Bei der Auswertung stellt der Betreiber fest, dass für ca. 30% der Nachrichten keine Geschlechtsangabe vorhanden ist. Zunächst zieht er daraus den Schluss, dass für diese 30% der Mitglieder keine Geschlechtsinformation vorhanden ist, was für eine Partnerschaftsvermittlung einen grundlegenden Mangel bedeuten würde. Als Grund für den Fehler dieser Information wird vermutet, dass diese 30% der Mitglieder ihre Cookies löschen. Diese Analyse hat allerdings zwei erhebliche Schwachstellen: 1. Die 30% der Nachrichten-Versender ohne Geschlechtsangabe beziehen sich nur auf die versendeten Nachrichten – und nicht auf die registrierten Mitglieder. Die Information männlich oder weiblich wird zwar zuverlässig bei der Registrierung erfasst, sie kann jedoch zum Zeitpunkt des Nachrichtenversands nicht zugeordnet werden. Doch auch diese Begründung für das Fehlen der Geschlechtsangabe stellt nur einen Teil der wirklichen Ursachen dar. 2. Natürlich löschen einige Anwender die Cookies, der Erfahrung nach bewegt sich dieser – nach Anwendergruppen schwankende – Wert zwischen 6% und 30%. Die Ursache für den fehlenden Cookie beim Abschicken der Nachricht liegt sehr häufig daran, dass die Anwender mehr als einen PC verwenden: Die schnelle Registrierung wird zum Beispiel morgens bei der Arbeit vorgenommen, die späteren ausgiebigen Besuche im Partnerportal erfolgen anschließend am heimischen PC. Bei allen diesen Folgebesuchen steht das bei der Registrierung gesetzte Cookie nicht zur Auswertung zur Verfügung, da dies im Zweifel immer auf dem anderen Rechner gesetzt wurde. Und mit den heutigen Mobile Devices wird die Anzahl an Endgeräten pro Mitglied noch größer. Zur Eliminierung der vermeintlichen Messfehler sollen die beiden folgenden Ansätze dienen. Bei der Verbindung von Informationen, die in einem deutlichen Zeitabstand voneinander ermittelt wurden, ist der Aktualität der Daten große Aufmerksamkeit zu widmen. Wenn die Geschlechtsangabe des Anwenders beim Absenden einer Nachricht über ein Cookie aus einer Datenbank entnommen wird, sollte das Cookie möglichst zeitnah zum Abschicken der Nachricht gesetzt werden. Mit dieser Maßnahme können die Auswirkungen durch das Löschen der Cookies verhindert werden, da nur die wenigsten Mitglieder zwischen dem Login und dem Versand der Nachrichten die Cookies löschen werden. Weitere Informationen zur Funktionsweise von Cookies finden Sie in Kapitel 4. Bei geschäftskritischen Informationen sollte man hinterfragen, ob das Auslesen eines Cookies als zuverlässige Basis für die Einträge in der Statistik dienen kann. Letztlich geht es bei dem Partnerportal um die Auflösung der Nachrichtenversender nach Geschlecht. Bei einem eingeloggten Mitglied ist aber die Identität eindeutig bekannt und somit auch das Geschlecht. Der Umweg über die Cookies ist in diesem Fall also eher hinderlich. Wesentlich günstiger wäre es in diesem Fall, wenn die Web-Anwendung der Statistik direkt mitteilen würde, dass zum Beispiel ein männliches Mitglied eine Nachricht gesendet hat.
123
6 Erfolgsfaktoren für Websites
6.10.6 Zusammenführen zeitvarianter Informationen Ein generelles Ziel in der Web Analytics ist, besser zu verstehen, wie sich die Webbesucher verhalten. Die Web Analytics bietet dafür die Möglichkeit, Korrelationen und Segmentierungen durchzuführen. Zumeist erhält man alle relevanten Informationen nicht während eines Besuchs, sondern über mehrere Besuche hinweg. Daher ist es notwendig, während früherer Besuche entstandene Daten mit aktuellen Ereignissen zu verbinden. Hierzu ein Beispiel: Drei Besucher mit den „Unique User Identifier“ (UUIDs) A, B und C bestellen in einem Shop und rufen dazu unterschiedliche Seiten auf – siehe Tabelle 6.1. Zum Erfassen dieser Benutzerbewegungen wird die Metrik „PageView“ verwendet. Die zehn festgestellten PageViews werden dabei in drei Visits aufgeteilt. In der Statistik findet sich für jeden PageView ein Eintrag. Für die weitere Auswertung wird eine Aufgliederung der Umsätze nach den Dimensionen „Zahlungsmethode“ und „Geschlecht“ gewünscht. Zur Erinnerung: Bei Zahlungsmethode und Geschlecht handelt es sich um Dimensionen, weil hier zum Beispiel dem Visit ein Wert aus einer definierten Menge (Scheck/Kreditkarte/Überwiesung bzw. männlich/weiblich) zugeordnet wird. Der Umsatz wird hingegen nicht einer definierten Lösungsmenge entnommen und kann individuell ausfallen. Zudem kann der Umsatz summiert werden, es handelt sich also um eine Metrik. Tabelle 6.1 Wer bezahlt wie? Korrelation zwischen Umsatz/ Zahlungsmethode UUID
Dimension „Seitenname“
Metrik „PageView“
A
Home
1
A
Produktdetails
1
A
Bestellen
1
A
Registrieren
1
B
Produktgruppe
1
B
Produktdetails
1
B
Bestellen
1
C
Registrieren
1
C
Bestellen
1
C
Home
1
Dimension „Zahlungsmethode“
Metrik „Umsatz“
Check
100,- €
Dimension „Geschlecht“
m
Kreditkarte
250,- €
Überweisung
1500,- €
w
Während die Korrelation Umsatz/Zahlungsmethode einfach abzulesen ist, weil die Informationen in einem Schritt bei der Bestellung anfallen, ist die Zuordnung von Umsatz/Geschlecht schon schwieriger. Als verbindendes Element zwischen Umsatz und Geschlecht
124
6.10 Umgang mit Kennzahlen lässt sich die UUID nutzen: Zu jedem Umsatz wird die UUID ermittelt, mit der aus der Statistik das Geschlecht ermittelt wird (sofern dort eingetragen). Sofern der Kunde bei seinen wiederholten Besuchen identifiziert werden kann, ist eine Auswertung auch über mehrere Visits hinweg möglich. Die Bestimmung der UUID stellt daher die Basis für viele Auswertungen dar, um Informationen zu verbinden, die zu unterschiedlichen Zeiten erfasst wurden.
6.10.7 Bewertung veränderlicher Informationen Wie geht man mit Informationen um, die sich während eines Betrachtungszeitraums ändern? (Auch hierzu betrachten Sie bitte die Tabelle 6.1.) Beispiel: Bei der Abrechnung bezahlter Links ist es wichtig zu erfassen, welches Banner auf einer Partnerseite zu einem Kauf geführt hat. Doch das reale Verhalten der Kunden folgt nur selten dem idealen Zyklus „Ad Impression > Click > Order“. Oft besucht ein Kaufinteressent einen Shop mehrfach, bevor er sich zum Kauf entschließt und die Bestellung durchführt. Zuvor hat er möglicherweise auf unterschiedlichen Partnersites die Banner geklickt, die zum Shop des Händlers führen. Tabelle 6.2 Zuordnung der Ad Impressions zur Konversion UUID
Dimension „Seitenname“
Metrik „Visit“
A
Home
1
A
Produktgruppe
1
A
Home
2
A
Technische Daten
2
A
Produktgruppe
3
A
Produktdetails
3
A
Technische Daten
3
A
Produktdetails
4
A
Bestellen
4
A
Home
4
Metrik „Umsatz“
Dimension „Kampagne“ Kampagne A
Kampagne B
Kampagne C 1500,- €
Im Laufe des Bestellvorgangs, der sich über mehrere Visits verteilt, werden also unterschiedliche Kampagnen-Codes erfasst. Für die Abrechnung muss später entschieden werden, welcher Klick zum Kauf geführt hat. Genau diese Entscheidung lässt sich der Statistik aber nicht entnehmen: Hat der erste oder der letzte Besuch den Interessenten überzeugt? Durch die Ermittlung des Werbemittelnutzungspfads können alle am Erfolg beteiligten Online-Werbemittel ermittelt werden. Üblich sind der erste („First Click Wins“) oder der letzte Eintrag („Last Click Wins“) oder auch die Verteilung des Erfolgs auf alle Kampagnen, die am Kauf beteiligt waren. Auch
125
6 Erfolgsfaktoren für Websites aufwendigere Ansätze wie eine prozentuale Gewichtung mit einem zeitlichen Faktor (neuere Einträge haben höheren Wert als ältere...) können das gewünschte Verhalten abbilden. Im Performance-Marketing – also in allen Online-Marketing-Disziplinen, die nach Erfolg abgerechnet werden – gibt es die ständige Problematik zu definieren, wer für den Erfolg eine Prämie bekommt. Speziell im Affiliate-Marketing ist dies eine häufig diskutierte Aufgabenstellung. Hier versuchen die Website-Betreiber, über sogenannte „Cookie-Weichen“ die Direktkonversion während eines Visits einem Affiliate-Partner zuzuordnen und somit Ansprüche weiterer Affiliate-Partner, die auch eine Post-Konversion verzeichnet haben, abzuwehren.
6.10.8 Webanwendungen mit Programmiertechniken wie AJAX Die aktuellen Entwicklungen in der Technik der Webprogrammierung zeigen einige Tendenzen auf, die weitreichende Folgen für die Technik der Web Analytics haben. Mit dem Einsatz neuer Programmiertechniken wie AJAX fehlen zum Beispiel die notwendigen Voraussetzungen für die Erfassung von PageViews: Ein PageView bezeichnet bei herkömmlich programmierten Websites die Anzeige einer vollständig geladenen HTML-Seite. Um einen anderen Inhalt im Browser darzustellen, wird die HTML-Seite neu geladen, und es entsteht ein neuer PageView. Bei einer AJAX-Webanwendung wird die Website nur einmal in den Browser geladen. Die wechselnden Inhalte entstehen durch eine Änderung der Eigenschaften innerhalb dieser einmal geladenen Seite. Es ist also keine erneute Anfrage (Request) an den Server notwendig, um eine neue HTML-Seite zu laden; es entsteht kein neuer PageView im ursprünglichen Sinn (nach der Definition der IVW). Für ein funktionierendes Web-Analytics-System bedeutet das Wegfallen der PageViews, dass andere Mechanismen gefunden werden müssen, um AJAX-Events in der Statistik darstellen zu können. Für die Auswertung relevante Ereignisse müssen so in der Website abgelegt werden, dass sie Meldungen an das Web-Analytics-Tool absetzen.
6.10.9
Identifizierung von Unique Visitors: mit Cookies oder Fingerprint?
Die „Cookie-Akzeptanz“ von Besuchern ist ein wichtiges Thema in der Web Analytics. Die Tool-Hersteller ermitteln kontinuierlich Durchschnittswerte über ihre Kundenportale während eines Besuchs, diese liegen derzeit höher als 90%. Wie viele ihre Cookies aber regelmäßig löschen – etwa durch Schließen des Browsers – ist nicht genau bekannt. Es ist davon auszugehen, dass auf Webportalen mit einer hohen Anzahl an IT-Fachleuten die Cookies häufiger gelöscht werden. Als Alternative zum Gebrauch von Cookies wird manchmal der so genannte „Fingerprint“ vorgeschlagen. Dieser bildet aus einer Reihe von Parametern des Computers eine quasieindeutige Kennung. In einen solchen Fingerprint fließen zum Beispiel ein: der Browser-
126
6.10 Umgang mit Kennzahlen Typ, die Liste der installierten Plug-ins, das Betriebssystem und die Bildschirmauflösung. Die IP-Adresse des Rechners ist dabei aufgrund der problematischen Eindeutigkeit nur ein nachrangig verwendetes Kriterium. Nachteil des Cookie-Verfahrens: Ein eigentlich bekannter Besucher wird, nachdem er das Cookie gelöscht hat, als neuer Unique Visitor gewertet, mit neu gesetztem Cookie. Nachteil des Fingerprints: Rechner mit einer identischen Ausstattung (z.B. Notebooks eines bestimmten Typs im Auslieferungszustand) werden als ein Unique Visitor erfasst. Beide Verfahren führen also zu Ergebnissen, die leicht von den tatsächlichen Verhältnissen abweichen können: Cookies zählen in der Regel mehr als die realen Besucher, Fingerprint eher weniger. Ein Ansatz zur Reduzierung dieser Fehler besteht darin, die Unique Visitors sowohl über Cookies als auch über Fingerprints zu bestimmen und die Ergebnisse zu kombinieren. Wenn man eindeutige Unique Visitors erhalten möchte, auch unabhängig vom Rechner, gibt es nur einen Weg: Bieten Sie so interessanten und wertvollen Content, dass der Besucher bereit ist, sich dafür zu registrieren.
127
6 Erfolgsfaktoren für Websites
128
7 7 Die Web Scorecard 7.1
Nutzen der Web Scorecard Die Web Scorecard ist ein unverzichtbares Element einer aussagekräftigen Erfolgsanalyse, weil mit ihr sowohl Unternehmensstrategien als auch verschiedene Interessengruppen berücksichtigt werden können und weil sie auf Wertschöpfung fokussiert ist. Anhand einer Web Scorecard können Unternehmen erkennen, ob sie ihre gesteckten Ziele erreicht haben, ob sie auf gutem Wege dorthin sind oder ob diese noch in weiter Ferne liegen. Um die Entwicklungsschritte übersichtlich beobachten zu können, werden auf einer Web Scorecard die einzelnen Ziele in Funktionsbereiche des Unternehmens aufgeteilt und mit den passenden Key Performance Indicators (KPIs) versehen. Auf diese Weise erhalten die einzelnen Abteilungen die für sie relevanten Erkenntnisse, auf deren Basis sie dann Handlungsschritte einleiten können. Die Web Scorecard ist eine Online-Adaption der „Balanced Scorecard (BSC)“. Mit dieser Methode, die von Robert S. Kaplan und David P. Norton entwickelt wurde, beobachten Unternehmer die vier Bereiche Finanzen, Kunden, interne Prozesse und Potenzial (Lernen und Entwicklung) und vergleichen diese mit den Visionen und Strategien eines Unternehmens. Auf diese Weise kann das Management neben der sonst üblichen, kurzfristigen Ausrichtung an der Finanzentwicklung auch die Bedürfnisse anderer Interessengruppen beobachten (Mitarbeiter, Kunden) und die langfristigen Effekte seiner Entscheidungen erkennen. Diese Managementmethode soll eine zu einseitige Konzentration auf finanzielle Aspekte verhindern – daher der Begriff „balanced“ für „ausgewogen“. Eine BSC ist eine Zusammenstellung von KPIs. Sie zeigen, ob ein gesetztes Unternehmensziel erfolgreich erreicht wird. Durch kontinuierliches Überprüfen der KPIs – und durch das eventuelle Einleiten korrigierender Maßnahmen – sichert ein Unternehmen, dass es seine Ziele erreicht. Auf einer BSC sind diese Ziele – und auch die KPIs, die den Weg zum Ziel dokumentieren – hierarchisch unterteilt in diverse Funktionsbereiche eines Unternehmens. Auf diese Weise erhalten die einzelnen Abteilungen relevante Informationen,
129
7 Die Web Scorecard
Abbildung 7.1 Die vier BalancedScorecard-Perspektiven geben Unternehmen einen ausgewogenen Überblick auf alle Bereiche.
auf deren Basis sie dann Optimierungsschritte einleiten können. Die Geschäftsleitung wird zum Beispiel mit anderen KPIs versorgt als das Produktmanagement. Balanced Scorecards sollten nicht von der Unternehmensleitung allein definiert werden, vielmehr sollte man sie in Gruppenarbeit mit den relevanten Mitarbeitern aus den verschiedenen Abteilungen erarbeiten. Die Web Scorecard (WSC) ist das Online-Pendant der Balanced Scorecard. Sie dient dazu, speziell die Erfolgsfaktoren der Online-Aktivitäten zu beobachten. Dazu werden ebenfalls KPIs verwendet, mit denen das Erreichen der Ziele in den jeweiligen Segmenten belegt werden kann. Auch hierfür werden die Unternehmensziele und ihre KPIs hierarchisch unterteilt, damit die einzelnen Bereiche die operativen und strategischen Ziele kontinuierlich verfolgen können. Der Nutzen einer Web Scorecard liegt in der klaren Strukturierung von Messgrößen zur Steuerung und zur Kontrolle aller rund um die Website aufgesetzten internen Prozesse. Sie trägt dazu bei, diese Prozesse auf gemeinsame Ziele hin auszurichten und die Steuerung nicht auf unkoordinierten Adhoc-Entscheidungen oder dem berühmten Bauchgefühl aufzubauen. Unternehmen, die ihre Sites mithilfe von Web Scorecards planen und führen, sind deutlich effizienter und somit auch schneller in der Entscheidungsfindung und deren Umsetzung. Der Nutzen einer Web Scorecard Eine WSC hilft Unternehmen, aus Strategien für das Online-Business oder OnlineMarketing Handlungen zu entwickeln [Kaplan und Norton 1993]. Mit der WSC lassen sich geeignete KPIs entwickeln, die zur Online-Strategie passen. Eine WSC vermittelt dem Management ein umfassendes Bild der Aktivitäten im Online-Business und Online-Marketing.
130
7.2 Voraussetzungen Eine WSC vereinfacht die Kommunikation und das Verständnis von Geschäftszielen und Strategien auf allen Ebenen einer Organisation. Das WSC-Konzept ermöglicht strategisches Feedback und Lernen.
7.2
Voraussetzungen Aufbau, Überwachung und Steuerung der Internet-Aktivitäten mit Hilfe einer WSC stellen für ein Unternehmen einen nicht unerheblichen Aufwand dar. Daher ist die Frage, ob sich eine WSC für ein Unternehmen wirklich bezahlt macht, naheliegend. Dementsprechend sollte ein Unternehmen zunächst prüfen, ob alle Voraussetzungen für die Einführung einer WSC gegeben sind und erst danach in den weiteren Planungsprozess einsteigen. Strategie In den meisten Fällen ist eine Web Scorecard für ein Unternehmen, das eine Website betreibt, weder effizient noch zielführend und bedeutet nur ein Mehr an administrativer Tätigkeit. Daher haben wir die wesentlichen Voraussetzungen zusammengestellt, die dabei helfen können, die Frage zu klären, ob sich der Aufbau einer Web Scorecard für ein Unternehmen oder eine Website lohnt. Die wesentliche Frage lautet: Ist die Website für den Unternehmenserfolg von strategischer Bedeutung? Dies lässt sich unter anderem an folgenden Eckpunkten festmachen: 1. Wie hoch ist der Anteil am Umsatz, der ausschließlich über die Site generiert wird? 2. Wie hoch ist der Anteil an Leads – und in Folge am tatsächlichen Umsatz durch diese Leads –, der über die Site generiert wird? 3. Welche Auswirkung hätte das „Abschalten“ der Website auf das Gesamtgeschäft? 4. Wie hoch ist die Unterstützung, die die Website bei Kunden zu deren Kaufentscheidung beiträgt? Ist bei Frage 1 und 2 der Anteil jenseits rund 25 bis 30 Prozent und befürchtet man bei einer (rein theoretischen) Abschaltung gravierende Auswirkungen im Geschäft, so lohnt es sich, über eine Web Scorecard nachzudenken. Je gravierender die Auswirkungen sind, umso eher wird der Einsatz einer Web Scorecard zu einer Notwendigkeit für eine langfristige Planung. Insbesondere die 4. Frage bedarf einer Erläuterung: Würde man zum Beispiel für die Website eines Automobilherstellers die ersten drei Fragen beantworten, könnte man zu folgendem – falschen – Schluss kommen: Da die Website nicht strategisch ist, keinen direkten Umsatzbeitrag leistet und kaum Leads generiert, die nicht auch über das Händlernetz hereinkommen, lohnt sich eine tiefgehende Betrachtung nicht. Es ist jedoch zu beachten, dass Fahrzeugkäufer ihre Kaufentscheidung für ein bestimmtes Modell zu 60 bis 70 Prozent über das Internet treffen, eine Erstinformation heutzutage fast immer über das Internet er-
131
7 Die Web Scorecard folgt und in der Regel auch die Händlersuche auf solchen Websites stattfindet. Dies alles können ebenfalls triftige Gründe sein, die für den Aufbau einer WSC sprechen. Die „Stakeholder“ Wer ist für welche Aufgabe verantwortlich, und wer wirkt beim Internetauftritt des Unternehmens mit? Eines der größten Probleme, auf das wir in unseren Projekten immer wieder stoßen, ist die Zusammensetzung des Teams, das sich um die Einführung geeigneter Steuerungsmechanismen kümmert, um die Website strategisch weiterzuentwickeln. Vielfach ist die Verantwortung für die Website und alles, was darauf geschieht, in Unternehmen historisch gewachsen. So wurde das Internet zu Beginn des „Online-Zeitalters“ als Mittel der Öffentlichkeitsarbeit angesehen, weshalb in vielen Unternehmen die Verantwortung noch heute in den Abteilungen Öffentlichkeitsarbeit oder Presse liegt. Der Tatsache, dass auf einer Website heute mehr CRM, Produktverkauf und Marketing stattfinden kann als über andere Kanäle, stellen sich Unternehmen in ihrer Organisationsstruktur – wenn überhaupt – nur widerwillig. Zudem handelt es sich bei dem Medium Internet um einen technischen Bereich, der ein sehr „modernes“ Spezialwissen erfordert. So hat in vielen Unternehmen die IT-Abteilung ein gehöriges Maß an Mitverantwortung über das, was online geschieht. Zu guter Letzt hat natürlich die Marketingabteilung mit Onsite- und Offsite-Maßnahmen erheblichen Einfluss auf den Erfolg der Website und trägt in vielen Fällen den größten Kostenblock. Dazu kommt: Meistens lässt sich die Marketingabteilung von zahlreichen externen Dienstleistern unterstützen, die auf diese Weise ebenfalls Einfluss auf die Website erhalten. Wer nun erwartet, dass wir eine klare Aussage zugunsten der einen oder anderen Abteilung abgeben, den müssen wir enttäuschen: Der Themenkomplex erzwingt Teamarbeit und abteilungsübergreifendes Handeln. Unabhängig davon, wer für welche Teile der Internetkommunikation, des Shops und der Website im Allgemeinen verantwortlich ist: Zur Planung der langfristigen und der kurzfristigen Strategien müssen alle an einen Tisch. Die größte Hürde in der Erarbeitung einer Web Scorecard besteht demnach in der Definition und Installierung eines Teams, das den Planungsprozess regelmäßig und umfassend durchführt, den Ist-Zustand überwacht sowie Abweichungen in Handlungen umsetzt und diese abteilungsübergreifend zum Ziel führt. Je größer eine Organisation ist, desto schwieriger wird dieser Prozess. Die folgende Empfehlung für eine minimale Zusammensetzung aus den verschiedenen Abteilungen geben wir demnach ohne Kenntnis der spezifischen Organisationsstrukturen und Abläufe: das Marketing als die hauptverantwortliche Abteilung für Traffic-Akquisition das CRM- oder Kundenmanagement als verantwortliche Abteilung für Nachhaltigkeit oder „Retention“
132
7.2 Voraussetzungen die IT-Abteilung, weil in der Regel verantwortlich für die technische Umsetzung und den Betrieb die PR-Abteilung als Verantwortliche für Wording, Corporate Design und Corporate Identity auf der Site das Shop-Management und/oder Category Management als Zuständige für die Inhalte des Shops, die Produkte sowie für alle Verkaufsaktionen. Aus den genannten Abteilungen sind idealerweise Vertreter in einem Planungs-Board vertreten. Dieses ist für die kurzfristigen operativen (taktischen) wie auch die langfristigen, strategischen Maßnahmen verantwortlich; es definiert Projekte und fungiert gegenüber den beteiligten Abteilungen als Auftraggeber. Das Planungs-Board übernimmt die Projektsteuerung und kontrolliert deren Erfolge anhand der Web Scorecards, die ebenfalls von dem Board entwickelt wurden. Der Planungsprozess Wie werden die abteilungsübergreifenden Prozesse zur Planung und Weiterentwicklung des Internet-Auftritts definiert? In Zusammenhang mit der Bestimmung der Verantwortlichen kommt man in der Regel auch auf die Abläufe und Prozesse innerhalb des Unternehmens zu sprechen. Zielsetzung ist es, abteilungsübergreifende Prozesse zu definieren und festzuschreiben. Aus unserer Erfahrung stellt dies die Betroffenen in den meisten Fällen vor große Herausforderungen. Hat man ein interdisziplinäres Planungs-Board eingesetzt und ist dessen Kompetenz bei den betroffenen Abteilungen einmal akzeptiert, kann die eigentliche Aufgabe – die Erstellung einer Web Scorecard – angegangen werden. Bevor wir die wesentlichen Punkte des Planungsprozesses erläutern, sollte der Leser folgende Anmerkung zum Begriff „Projekt“ zur Kenntnis nehmen: Laut DIN/ISO Norm ist ein Projekt eine zeitlich begrenzte und einmalige Maßnahme zur Änderung oder Herbeiführung eines bestimmten Zustands. Dabei hebt die Norm besonders den Begriff der zeitlichen Begrenzung und die Einmaligkeit hervor. Mit Websites ist es so eine Sache: sie sind weder zeitlich begrenzt noch sind sie besonders einmalig. Vielmehr gilt hier der Ausspruch „panta rhei“ – alles fließt: Kein anderes Medium erlaubt oder erzwingt sogar permanente und schnelle inhaltliche Wechsel in solchen Maßen wie eine Website. Aus diesem Grund sollte die Website und alles, was auf ihr und mit ihr geschieht, nicht als „Projekt“ definiert werden. Diese Definition und die damit einhergehende Behandlung der Website als „Projekt“ würden zu Mechanismen und Denkweisen im Unternehmen führen, die der Webanalyse als kontinuierlichen Prozess zuwiderlaufen. So muss dem Planungs-Board zum Beispiel klar sein, dass seine Aufgabe eine kontinuierliche ist, für die es kein „Projektende“ gibt. Das Planungsbord muss sich sowohl mit kurzfristigen, saisonalen oder intrinsischen Aufgaben als auch mit langfristigen, strategischen Zielen befassen. Für die Beobachtung mit einer Web Scorecard eignen sich prinzipiell die langfristigen und strategischen Maßnah-
133
7 Die Web Scorecard men, wohingegen kurzfristige Steuerung und Korrekturen anhand der aus der Web Analytics gelieferten Kennzahlen hergeleitet und überwacht werden können. Da die Website als solches niemals „fertig“ ist, empfiehlt sich eine regelmäßige Routine für das Planungs-Board in den Änderungszyklen in entsprechenden Zeitintervallen. Dies kann bei saisonal stark schwankenden Besuchszahlen von monatlichen Intervallen bis zu halbjährlichen oder jährlichen Intervallen bei eher statischen Corporate Sites schwanken und muss bei Bedarf angepasst werden.
7.3
Entwicklung und Aufbau einer Web Scorecard Mit den Fachabteilungen des Unternehmens eine Web Scorecard entwickeln – so einfach die Theorie klingt, so schwierig ist die Praxis. Wo soll man anfangen, wenn die Fachabteilungen bisher nicht zusammengearbeitet haben und eine durchgängige Planung nach den in der Literatur beschriebenen Prinzipien nicht erfolgt ist? Wir werden in diesem Abschnitt einen pragmatischen Leitfaden aufstellen, anhand dessen Sie die ersten Schritte auf dem Weg zu einer funktionierenden Web Scorecard abarbeiten können. Die Verdeutlichung der in der Literatur in der Regel sehr abstrakt dargestellten Entwicklung von Strategy Maps und Score Cards soll im Weiteren an einem konkreten Beispiel vorgenommen werden: „Das Gärtnerparadies“ ist ein Online-Shop für Gartenbedarf, der sich an Endkunden richtet und alles anbietet, was ein Hobbygärtner an Geräten, Werkzeugen und Gestaltungselementen benötigt. Dies ist ein willkürliches Beispiel, jede Ähnlichkeit mit real existierenden Shops wäre zufällig. Strategy Map – die Basis für eine Web Scorecard Wer eine Web Scorecard entwickeln will, kann zunächst die Ziele in einer sogenannten „Strategy Map“ auf die vier Perspektiven Finanzen, Kunden, interne Prozesse und Potenzial („Lernen und Entwickeln“) aufteilen. Die Strategy Map beschreibt die Umsetzung der übergeordneten, abstrakten Ziele in den einzelnen Bereichen des Unternehmens auf den vier genannten Ebenen (siehe Abbildung 7.2). Die Darstellung der Ziele in Form der Strategy Map dient der besseren Veranschaulichung und somit dem besseren Verständnis, wie diese Ziele im täglichen Geschäft umzusetzen und zu verfolgen sind. Eine Strategy Map ist nicht zwingend notwendig, um eine WSC zu entwickeln. Allerdings zeigt die Praxis, dass für viele Websites nie eine übergeordnete Zielsetzung konkret formuliert und dargestellt wurde. Dieses Manko führt zu völlig unzureichenden Kennzahlen zur Darstellung des Online-Erfolgs. Nicht selten sind uns in Projekten Auswertungen zur Steuerung eines Online-Shops vorgelegt worden, die ausschließlich auf Reichweiten-Kennzahlen wie Seitenabrufe oder Besucherzahlen basierten. Diese Kennzahlen stehen im Allgemeinen in keiner Relation zum wirtschaftlichen Erfolg eines Shops (Umsätze, Kaufabbrüche, Deckungsbeiträge, Betriebs- und Marketingkosten etc.), haben aber den „Vorteil“ dass sie sehr schnell verfügbar, vermeintlich leicht verständlich sind und tendenziell immer nach „oben“ zeigen.
134
7.3 Entwicklung und Aufbau einer Web Scorecard
Abbildung 7.2 Beispiel einer Strategy Map für das Ziel „Return on Investment“
Dabei kann für jedes einzelne, übergeordnete Ziel eine eigene Strategy Map entwickelt werden. Die Strategy Map ist der „Schlachtplan“ des Unternehmens, um die vereinbarten Ziele zu erreichen. Wie üblich, wird die Strategy Map „Top Down“ entwickelt. Im weiteren Verlauf gilt es, für jedes einzelne Thema der Strategy Map konstruktive Unterziele zu definieren sowie die Maßnahmen festzulegen, wie diese konkret umzusetzen sind. So kann zum Beispiel das Thema „Empfehlungen“ (aus der Strategy Map in Abbildung 7.2) für das „Gärtnerparadies“ wie folgt aussehen, wenn auf der Website für Kunden die Möglichkeit besteht, Neukunden zu werben und dadurch einen Einkaufsbonus zu erhalten: Beispiel: Maßnahmen für das Gärtnerparadies zum Thema „Empfehlungen“ Festlegen des Einkaufsbonus für „Kunden werben Kunden“ Technische Umsetzung Messung des konkreten Umsatzanteils resp. des Anteils am Umsatzwachstum Ermittlung der konkreten Kosten für diese Maßnahme (Senken des Deckungsbeitrags bei den werbenden Kunden, technische Kosten) Ermitteln der Auswirkung auf das Ziel „Return on Invest“
An diesem Beispiel wird deutlich, dass jedes einzelne Thema der Strategy Map nicht nur spezifische Maßnahmen zu seiner Umsetzung benötigt, sondern auch sofort klare Kenn-
135
7 Die Web Scorecard zahlen erzwingt, um die Effizienz (im Hinblick auf die übergeordneten Ziele) sichtbar zu machen. Durch die „Top Down“-Entwicklung von den Leitzielen zu den einzelnen Themen erhält man das nötige differenzierte Kennzahlensystem, um eine WSC zu definieren.
7.3.1 Formulieren des Leitziels, der Leitkenngröße und des Leitbilds Das Leitziel beschreibt, was ein Unternehmen mittel- und langfristig erreichen will. Dieses Ziel wird manchmal auch als „strategisches Ziel“ oder „Vision“ bezeichnet. Zu dem Leitziel wird auch eine einzige Kenngröße definiert, mit der das Erreichen des Leitziels gemessen werden kann. Leitziel und Kenngröße erhält ein Unternehmen, wenn es Antworten auf folgende Fragen formuliert: „Was wollen wir?“ und „Woran merken wir, dass wir das geschafft haben?“ Das Leitbild gibt, ebenso wie das Leitziel, eine Antwort auf die Frage nach dem Zweck des Unternehmens. Das Leitbild sollte Fragen beantworten wie: Wer sind wir? Wozu ist das Unternehmen da? Wie soll es von außen gesehen werden? Beispiel: Das „Gärtnerparadies“ definiert für sich das Leitbild „Wir schaffen Gartenparadiese“. Das Leitziel lautet: „Wir wollen in drei Jahren zu den 10 Top-Online-Anbietern für Markengartengeräte, Bewässerungs- und Teichanlagen sowie Gartenberatung im deutschsprachigen Raum gehören.“ Dies wird an der folgenden Kennzahl festgemacht: Umsatz mit der Zielgröße zehn Millionen Euro pro Jahr.
7.3.2 Entwickeln eines strategischen Handlungsrahmens Leitziel und Leitbild sollen nicht nur abstrakte Formulierungen bleiben, sondern zu konkreten Handlungen führen. Um diese möglichst zielgerichtet zu formulieren und zu planen, werden sie in einen Rahmen aus strategischen Themen und Perspektiven eingebettet. Eine Möglichkeit, die Zusammenhänge zwischen Leitzielen und der Organisation des Unternehmens zu veranschaulichen, wurde bereits im Abschnitt zuvor beschrieben. Die Strategy Map bedarf aber der Festlegung von Maßnahmen sowie deren konkreter Umsetzung. Die einzelnen Themen, die notwendigen Maßnahmen sowie die Kennzahlen, um die Effizienz zu ermitteln, können in Form des „strategischen Hauses“ konkretisiert werden (siehe Abbildung 7.3). Die strategischen Themen sind die Unterziele, die zum Erreichen des Leitziels notwendig sind. Ein Leitziel wird also durch die strategischen Themen weiter konkretisiert. Jedes dieser Unterziele wird dabei mit einer entsprechenden Kenngröße versehen, mit der sich der Erfolg kontrollieren lässt. Da in einem Unternehmen nur selten mehrere strategische wichtige Themen gleichzeitig bearbeitet werden können, empfiehlt sich hier die Konzentration auf einige wenige Unterziele.
136
7.3 Entwicklung und Aufbau einer Web Scorecard
Leitbild GärtnerParadies: Wir schaffen Gärtnerparadiese
Leitziel Wir wollen in drei Jahren zu den 10 TopOnline-Anbietern für Markengartengeräte, Bewässerungs- und Teichanlagen sowie -Beratung im deutschsprachigen Raum gehören.
Kennzahl Umsatz Strategische Themen Online-Kundenstamm aufbauen Perspektiven
Beratungskompetenz aufzeigen
Marge optimieren
Engagement der Mitarbeiter Kunden OnlineTransaktionen Finanzen/ Controlling Kooperationen
Abbildung 7.3 Das strategische Haus der Web Scorecard: Leitbild, Leitziel, Kennzahl, strategische Ziele und externe Perspektiven geben ihm Struktur.
Wichtig sind auch die Bedürfnisse verschiedener Interessensgruppen, zum Beispiel von Anteilseignern, Kunden und Mitarbeitern. Deren Perspektiven sollten im Konzept der Web Scorecard berücksichtigt werden. Daher wird neben den strategischen Unterzielen auch festgelegt, wie diese Interessensgruppen in die Entwicklung des Unternehmens mit einbezogen werden können. Beispiel: Das Gärtnerparadies wird in den kommenden Jahren die strategischen Themen „Online-Kundenstamm aufbauen“, „Beratungskompetenz aufzeigen“ und „Marge optimieren“ bearbeiten. Als Perspektiven werden „Engagement der Mitarbeiter“, „Kunden“, „Online-Transaktionen“, „Finanzen/Controlling“ und „Kooperationen“ berücksichtigt.
7.3.3 Aktionen auswählen, die zur Strategie passen Das strategische Haus bildet das nötige Gerüst, in dem ein Unternehmen alle Erfolge seiner Aktionen beobachten und festhalten kann. Jede Aktion sollte einem konkreten Ziel verpflichtet sein. Damit gemessen werden kann, ob ein Ziel erreicht wurde, wird jeder Aktion eine passende Kennzahl zugeordnet. Die Kombination von Ziel, Aktion und Kennzahl bezeichnet man als „ZAK“ [Friedag/Schmidt, 2004].
137
7 Die Web Scorecard Die Aktionen werden dann in den Rahmen aus strategischen Themen und Perspektiven eingeordnet. Jede Aktion trägt also zu einem strategischen Unterziel bei und berücksichtigt die Perspektive einer Interessensgruppe. Beispiel: Das Gärtnerparadies führt im Frühjahr die Aktion Online-Gewinnspiel durch. Zehn Teilnehmer gewinnen eine kostenlose Teichplanung sowie 50 Prozent Nachlass beim Kauf von Teichartikeln. Das Gewinnspiel wird auf der Website von „Heim&Haus“ sowie auf den Websites verschiedener Bausparkassen beworben. Die Aktion hat das Ziel, neue Kunden zu gewinnen, und trägt zum strategischen Thema „Online-Kundenstamm aufbauen“ bei. Als Kennzahl wird die Anzahl der Anmeldungen auf www.gaertnerparadies.de betrachtet, die über die Werbung auf den Partnersites zustande kommen. Als Sollgröße wird die Marke von 500 Anmeldungen pro Monat bei einer Laufzeit der Aktion von drei Monaten gesetzt.
Die Umsetzung dieser Aktion erfordert eine Reihe von Einzelmaßnahmen der beteiligten Abteilungen, die jeweils dort wieder als Projekte definiert werden können. Wichtig in dem Zusammenhang ist aber, dass allen Beteiligten das jeweilige Gesamtziel klar kommuniziert wurde und alle dieses Ziel unterstützen (Strategy Map). Leider ist das nicht selbstverständlich, wie die Praxis zeigt: So kann es vorkommen, dass für eine Online-Marketing-Aktion eine neue Landing Page für Produkte definiert wird – und den gesamten Traffic an der Registrierungsseite für das Gewinnspiel vorbeisteuert. Auf diese Weise entstehen konkurrierende Angebote für eine Website, die im schlimmsten Falle sogar kontraproduktiv sind. Ein weiteres Beispiel aus der Praxis: In den per E-Mail versendeten Gutschein-Codes ist das Verfallsdatum sehr kurz eingestellt, der E-Mail-Versender hat den Zeitpunkt des Versands zu spät gewählt, weshalb alle versendeten Codes bei Eintreffen und Öffnen der Newsletter bei den Interessenten bereits verfallen sind. Diese Beispiele aus der Praxis zeigen, dass ein Hauptproblem in der Kommunikation der Haupt- und Einzelziele sowie deren Parametern liegt.
7.3.4 Aktionen zu strategischen Projekten bündeln Zur effizienten Organisation einzelner Aktionen hat es sich bewährt, diese zu Projekten zusammenzufassen. Auf diese Weise werden einzelne Aktionen sinnvoll gruppiert, zum Beispiel nach inhaltlichen Gemeinsamkeiten, Abhängigkeiten oder gegenseitiger Verstärkung. Alternativ können mehrere Aktionen einem gemeinsamen strategischen Thema zugeordnet werden (das dann auch als Projektbezeichnung dient). Auch wenn für die einzelnen Aktionen bereits Kennzahlen festgelegt wurden, sollte zusätzlich für das gesamte Projekt eine übergreifende Kennzahl mit einem entsprechenden Sollwert definiert werden, anhand deren sich die gemeinsame Performance der Projekte messen lässt. In der Regel sollten auf diese Weise nicht mehr als sieben Projekte entstehen. Beispiele hierfür wären sicherlich ein Redesign, etwa der Buchungsstrecken in einem Reiseportal oder des Check-Out-Prozesses in einem Shop. Allerdings gibt es auch Maßnah-
138
7.3 Entwicklung und Aufbau einer Web Scorecard men, die es verbieten, mit anderen Maßnahmen für ein strategisches Projekt zu einem Aktionsbündel zusammengefasst zu werden. Dazu gehören generell: alle Maßnahmen, die sich mit dem Themenkomplex Usability und User Interface Design befassen; alle Maßnahmen im Zusammenhang mit Testing und Targeting. Der Grund hierfür ist die „Verwässerung“ der Messergebnisse durch Überlagerung von Effekten. Wird zum Beispiel das Design der gesamten Website geändert, können nicht gleichzeitig Maßnahmen zu Verbesserung der Usability in einen bestimmten Bereich (etwa der Suchfilter in Suchergebnisseiten) gemessen werden, weil das stark geänderte Design die Benutzer bereits hinreichend verwirrt. Die Nutzung der Suchfilter ließe sich in diesem Fall nicht aussagekräftig messen.
7.3.5 Web Scorecard erstellen Die Web Scorecard dient dazu, die erreichten Erfolge den gesteckten Zielen gegenüberzustellen. Dazu wird eine Tabelle erstellt: Auf der linken Seite werden die strategischen Themen, auf der rechten Seite die dazugehörigen Projekte aufgeführt. Weil für jeden der Einträge vorab eine Kennzahl mit einem Sollwert definiert wurde, wird nun ersichtlich, wie weit Ziel und Wirklichkeit auseinander liegen. Mit einer Farbkennzeichnung, zum Beispiel einer Ampelfarbe (Rot für „kritisch“, Gelb für „halbwegs in Ordnung“ und Grün für „optimal“) kann auf einen Blick festgestellt werden, wo es noch Handlungsbedarf gibt. Die hier vorgestellte Web Scorecard (Abbildung 7.4 auf der nächsten Seite) dient dazu, das Prinzip dieser Methode zu verdeutlichen. Für das tatsächliche Reporting ist die Scorecard jedoch nicht einheitlich für alle Mitarbeiter – je nach Funktion werden ihnen nur die relevanten Kennzahlen angeboten. Das bedeuten die Zahlen der Web Scorecard Die linke Spalte „strategische Themen“: Die Einträge gelten als „Frühindikatoren“ für Abweichungen vom Unternehmensziel. Dunkelgraue Felder deuten hier auf notwendige Korrekturen im „strategischen Haus“ hin (Abbildung 7.3). Unser Beispielunternehmen „Gärtnerparadies“ sollte sich demzufolge dringend den Themen „Vertriebspartner in allen Bundesländern“ und „Online-Kundenstamm aufbauen“ und seinen Aktionen widmen und sie neu konzipieren. Die rechte Spalte „operative Projekte“: Dunkelgraue Felder stellen hier dramatische Abweichungen von kurzfristigen Projekten dar und machen in der Regel ein sofortiges Eingreifen erforderlich. Das Gärtnerparadies sollte laut Web Scorecard schnell die Aktion „Partnerprogramm entwickeln“ optimieren. Diese erfolglose Aktion zeigt sich auch im schlechten Wert für das übergeordnete Thema „Vertriebspartner in allen Bundesländern“.
139
7 Die Web Scorecard weniger als 70%
70% bis 90%
100% und mehr
Leitziel Platz unter den Top-10-Online-Anbietern der deutschsprachigen Branche, gemessen am Umsatz Strategische Themen
Soll
Ist
10
23
Operative Projekte Kunden Soll
Ist
Soll
Ist
Online-Kundenstamm ausbauen
1500
933
Gewinnspiel Bausparzeitungen
1500
1612
Beratungskompetenz aufzeigen
75
71
Tage der offenen Tür
1500
1743
Marge optimieren
50
51
25
22
12
12
24
13
Finanzen Einkaufspreise senken
Mitarbeiter Mitarbeiter am Unternehmen beteiligen
15
Vertriebspartner in allen Bundesländern
15
12
Bonusprogramm aufbauen
Kooperationen 2
Partnerprogramm entwickeln
Abbildung 7.4 So könnte die Web Scorecard für das Beispielunternehmen „Gärtnerparadies“ aussehen. In der Regel ist eine Web Scorecard jedoch differenzierter.
7.4
Datenquellen für die Web Scorecard Die Definition von Kenngrößen, um Zielerreichung und Effizienz innerhalb einer WSC zu veranschaulichen, ist an viele Details geknüpft. Da eine WSC die übergeordneten strategischen und operativen Ziele darstellen soll, ist sie nicht an den organisatorischen Aufbau des Unternehmens und die damit teilweise einhergehenden Abgrenzungen zwischen Abteilungen und Einheiten gebunden, sondern soll diese gerade überwinden und die Gesamteffizienz verdeutlichen. Darüber hinaus unterliegen Kennzahlen und deren Beschaffung technischen Restriktionen, die es zu überwinden gilt. Kleine, mittelständische Unternehmen haben es hier oft leichter als große Organisationen, obwohl man davon ausgehen könnte, dass gerade diese über mehr Ressourcen zur Umsetzung verfügen. Vielfach kommen bei großen Organisationen außerdem politische Animositäten ins Spiel, die die konkrete Umsetzung einer WSC drastisch erschweren. Die reine Lehre scheitert daher in der Praxis oft an Fragen der Abgrenzung zwischen Abteilungen und Unterorganisationen, die Kennzahlen nur widerstrebend zur Verwendung in einer übergeordneten WSC freigeben. Neben diesen eher organisatorischen Hürden gilt es auch technische Hürden zu überwinden. Wie soll das operative Ziel „Steigerung der Konversionsrate von Marketingmaßnahmen“ verdeutlicht werden, wenn diese Kennzahl derzeit nirgendwo verfügbar ist? Wie
140
7.4 Datenquellen für die Web Scorecard sollen Netto-Umsätze auf Marketingkanäle heruntergebrochen werden, wenn im Warenwirtschaftssystem diese zwar verfügbar sind, von dort aber keine Verbindung zum OnlineMarketing besteht? Daher ist für jede einzelne Kennzahl der Web Scorecard eine Definition erforderlich. Für die Kennzahl „Umsatz“ erscheint dies noch relativ einfach, aber der Teufel steckt wie immer im Detail. Was ist zum Beispiel die Summe der im Online-Shop getätigten Bestellungen? In den meisten Web-Analytics-Systemen wird dies bereits als „Umsatz“ bezeichnet, im Versandhandel allgemein eingeführt sind hier aber die Begriffe „Nachfrage“ oder „Bestelleingang“. Was versteht man dann unter „Netto-Umsatz“? Es wird deutlich, das auch vermeintlich einfache Kennzahlen bei einer genauen Betrachtung zu heftigen Diskussionen aller Beteiligten führen können und erhebliche Interpretationsbandbreiten aufweisen. Eine Definition der Kennzahl hilft allen Beteiligten, das Zahlenwerk richtig zu interpretieren, und sollte mindestens die folgenden Elemente enthalten: Maßeinheit: €, Stück, Anzahl, Prozent bei Prozent: Relation (z.B. Anzahl Bestellungen pro 1000 Besucher) Messverfahren (Messung durch Web-Analytics-System, Report aus dem Warenwirtschaftssystem, Datenübertragung aus dem Marketingtool der Agentur …) Rechenregeln (Netto-Umsatz = Bestelleingang – Rücklieferungen) Zeiteinheiten (pro Monat, Tag, Quartal …) Validität: Genauigkeit der Zahl, ggf. Messfehler und Einflussfaktoren auf die Genauigkeit Datenquelle, Verfahren und Prozesse zur Datenweitergabe Die „klassischen“ Web-Analytics-Kennzahlen (PageViews, Visits, Visitors) sind in der Regel durch das eingesetzte Softwaresystem vorgegeben, sollten aber zum Verständnis ebenfalls definiert werden. Die Praxis zeigt, dass häufig die Ansicht vorherrscht, es sei doch klar, was die Zahlen bedeuten. Tatsächlich aber gibt es erhebliche Differenzen im Verständnis dieser Kennzahlen und darüber, wie sie gemessen werden. Bei Seitenabrufen (PageViews) ist das noch marginal, aber allein der Unterschied zwischen Besuch und Besucher (Visit, Visitor) sowie den konkreten Messverfahren ist nicht allen wirklich klar. Da eine Reihe von Kennzahlen gerade aus der Anzahl von Visits und Visitors abgeleitet werden (Konversionsraten), muss zuerst ein Verständnis dieser Zahlen geschaffen werden, bevor eine WSC eingeführt wird. Eine Reihe von Kennzahlen können nur durch Zusammenführung mehrerer unterschiedlicher Datenquellen erfasst werden. Beispiele hierfür wären die Retourenquote je Marketingkanal oder der Netto-Umsatz je Affiliate-Partner. Die Retourenquote zum Beispiel wird in der Regel nur im Warenwirtschaftssystem erhoben. Allerdings ist sie für die Erfolgsbetrachtung eines Online-Shops sehr relevant. Eine hohe Retourenquote kann verschiedene Ursachen haben, die geprüft werden müssen: Logistik: Falsch-, Nicht-, Nachlieferung oder „DOA – Dead On Arrival“ Qualität: Produktqualität entspricht nicht der vom Kunden erwarteten Qualität.
141
7 Die Web Scorecard Preis: Der Kunde hat zwischenzeitlich ein günstigeres Angebot gefunden und nutzt sein Rückgaberecht Über Segmentierungen soll nun geprüft werden, ob eine erhöhte Retourenquote mit einem Affiliate-Programm in Verbindung zu bringen ist oder ob sich die Retouren in bestimmten Online-Marketing-Kanälen häufen. Dazu ist es notwendig, die Daten aus der Messung der Online-Marketing-Kanäle und der Affiliate-Partner mit den Daten aus dem Warenwirtschaftssystem zusammenzuführen. Zu diesem Zweck bedarf es gemeinsamer, durchgängiger Schlüsselsystematiken (Bestellnummer, Warenkorb-ID, Kundennummer) sowie Verfahren des Datenaustauschs und der Datenintegration – Stichwort Data Warehouse. Bei der Planung eines Web-Analytics-Projekts gilt es also zu berücksichtigen, welche Datenquellen bereitstehen und welche Daten von Nutzen sind. Zudem müssen diese Daten mit jenen aus dem Online-Segment schlüssig und zuverlässig zusammengeführt werden. Datenquellen können sein: Das Web-Analytics-System Reichweitenmetriken Online-Marketing-Kennzahlen Abbruchquoten, Bounces etc. Das Marketing-Planungstool Maßnahmen und Kampagnen Kanäle und Partnerprogramme Werbemittel Kosten Die CRM-Datenbank (Customer Relationship Management) Call-Center-Daten (inbound, outbound) Newsletter-Registrierungen Interessenten/Kunden Retention, Loyalität, Customer-Lifecycle-Kennzahlen Das Warenwirtschaftssystem (ERP-System – Enterprise Ressource Planning) Produktdatendatenbank Registrierte Kunden Logistik Verfügbarkeit Umsatz Retouren das zentrale Data Warehouse Damit die verschiedenen Datenquellen erfolgreich zusammenarbeiten, sollte bei der Planung berücksichtigt werden, welches der Informationssysteme die führende Rolle einnehmen soll. Zum Beispiel könnten Daten aus der CRM-Datenbank und dem Web-AnalyticsTool dem Warenwirtschaftssystem zugeführt werden, um alle Informationen zu einem Kaufvorgang zentral erfassen zu können.
142
7.5 Das Reporting mit der Web Scorecard
7.5
Das Reporting mit der Web Scorecard Die Web Scorecard stellt ein übersichtliches, hierarchisches System von Kennzahlen bereit. Die Rückmeldungen, die das Unternehmen durch dieses System erhält, sollen bei Bedarf zu Korrekturen der Maßnahmen führen. Damit jeder Mitarbeiter die richtigen Informationen erhält, um handeln zu können, sollte jede Hierarchie-Ebene im Unternehmen eine eigene Web Scorecard erhalten: Die Firmenleitung ist eher an übergeordneten Aussagen über die Zielerreichung interessiert, die grob den Bedarf für Optimierungsschritte aufzeigen. Je näher die Rolle der Verantwortlichen an die operative Umsetzung kommt, desto genauer müssen die Kennzahlen sein, um aufzuzeigen, welche Maßnahmen erforderlich sind. Für das Reporting empfiehlt [Petersen 2006], die Kennzahlen nach Rollen aufzuteilen. Eine mögliche Zuordnung von Rollen zu KPIs der WSC zeigt Tabelle 7.1. Tabelle 7.1 Beispiel für eine Zuordnung von KPIs zu Unternehmensrollen Rolle
Anzahl
Firmenleitung (CEO)
2 bis 5
Art der Kennzahlen Konversionsrate Besucher/Bestellung Durchschnittliche Kosten pro Konversion Durchschnittlicher Umsatz pro Besucher/Kunde
Abteilungsleitung
5 bis 7
Die Kennzahlen der Firmenleitung plus Konversionsrate pro gelaufener Kampagne
Gruppenleitung
7 bis 10
Die gleichen Kennzahlen Firmen- und Abteilungsleitung plus Konversionsrate der gerade aktiven Kampagnen
Beispiel: Für das Beispiel des Shops für Gartenbedarf könnten die Rollen und Aufgaben im Unternehmen wie in Tabelle 7.2 dargestellt werden. Tabelle 7.2: Zuordnung der Aufgaben zu Rollen im „Gärtnerparadies“ Rolle
Aufgabe
Firmenleitung
Preispolitik, strategische Leitung
Online-Marketing
Strategische und operative Planung und Umsetzung aller Performance-Marketing-Aktionen inkl. Affiliate Marketing
Category Manager
Einkauf, Planung der Kategorien, Sortimentspolitik, Beratung, Kaufprozesse
CRM
Kundenpflege und -bindung
Logistik
Lager, Logistik-Abwicklung, Retourenabwicklung
Mit der Limitierung der Kennzahlen soll eine Fokussierung auf das Wesentliche erreicht werden. Mitarbeiter, die zum Beispiel für Technik, Inhalte, Website-Gestaltung sowie Kampagnen verantwortlich sind, benötigen spezifische Kennzahlen für ihren Verantwortungsbereich.
143
7 Die Web Scorecard Einer der häufigsten Fehler besteht darin, eine zu hohe Anzahl an Basiskennzahlen in das Reporting aufzunehmen. Vielfach wird mit dem Begriff KPI inflationär umgegangen. Beispielsweise ist die Anzahl der Seitenabrufe für 95 Prozent aller Websites völlig irrelevant, wenn es um langfristige Beobachtung von strategischen Weiterentwicklungen geht. Trotzdem taucht diese Kennzahl regelmäßig in allen KPI-Listen auf. Die einzigen Websites, bei denen die Anzahl der Seitenabrufe linear mit dem Geschäftserfolg zusammenhängt, sind jedoch Medienportale. Jeder Seitenabruf erzeugt kostenpflichtige Werbeeinblendungen. Solange man nicht von Ad Impressions lebt, ist diese Kennzahl zwar eine Kennzahl – aber noch lange kein Key Performance Indicator. Listen von 60 bis 150 Einzelkennzahlen, die dann mit der Überschrift „KPIs“ versehen werden, sind keine Seltenheit. Das Management kann aus einem solchen Zahlenfriedhof nichts Relevantes ableiten. Außerdem: Wenn die Anzahl der Seitenabrufe im Juli um 30 Prozent eingebrochen ist, besteht dann die nächste Maßnahme darin, die Marketingausgaben für SEM zu steigern oder in der geografischen Segmentierung festzustellen, dass Nordrhein-Westfalen Ferien hat und deswegen alle Besucher statt auf der Site gerade in Mallorca sind? Praxistipp: Wir halten eine Zahl von zehn bis 15 Key-Performance-Indikatoren zur langfristigen Überwachung der strategischen Planung der Website für mehr als ausreichend. Dies bedeutet nicht, dass für die operative Steuerung ein Vielfaches an Kennzahlen benutzt werden muss; aber nicht jede dieser Kennzahlen ist ein KPI.
Aus der Zuordnung der Kennzahlen zu den verschiedenen Rollen ergibt sich mit der ZAKMethode (Ziel, Aktion und Kennzahl, siehe Kapitel 7.3.3) eine Informationstabelle (Tabelle 7.3) für das gesamte Unternehmen, in der auch die zeitliche Verfügbarkeit der Kennzahlen abgebildet wird. Tabelle 7.3: Die Web Scorecard hält für unterschiedliche Abteilungen unterschiedliche Informationen bereit.
144
Rolle
Ziel
Aktion
Kennzahl
Verfügbarkeit
Firmenleitung
Positiver Deckungsbeitrag
Preisgestaltung
Deckungsbeitrag DB1
wöchentlich
OnlineMarketing
Gefunden werden mit den relevanten Keywords
SEO: KeywordOptimierung
SEO: Konversionsrate Keyword/Kauf
1 x Monat
SEM: Schaltung von Keyword-Phrasen
SEM: Konversionsrate Keyword/Kauf
Reichweite
Bannerwerbung
CPL
AffiliateMarketing
Reichweite
Affine AffiliatePartnernetzwerke aufbauen
CPO, CPL
CRM
Kundenbindung
E-Mail-Marketing
Öffnungsrate pro E-Mail-Kampagne
Nach Abschluss
7.6 Organisation von Aufbau und Pflege einer WSC Rolle
Ziel
Aktion
Kennzahl
Verfügbarkeit
Konversion pro E-Mail-Kampagne Category Management
Kaufende Besucher
Transaktionsanalyse Abbruchrate Warenkorb/ Kauf
wöchentlich
Retourenquote/ Kategorie
7.6
Organisation von Aufbau und Pflege einer WSC Das Entwickeln einer Web Scorecard ist Teamwork. Damit ein Unternehmen die relevanten Informationen erhält, müssen die einzelnen Abteilungen eines Unternehmens ein gemeinsames Ziel verfolgen: dass die Web Scorecard so strukturiert und mit Daten angereichert wird, dass jede einzelne Abteilung und die Geschäftsführung die für sie bedeutenden Informationen bekommt. Web Scorecards dürfen deshalb nicht nur von der Unternehmensleitung geplant und realisiert werden, sondern müssen in Gruppenarbeit mit den relevanten Mitarbeitern aus den verschiedenen Abteilungen entstehen. Damit diese verantwortungsvolle Aufgabe nicht im Sand verläuft, ist klassisches Projektmanagement gefragt. Das Unternehmen sollte: den Projektleiter und die Projektgruppe festlegen die Meilensteine definieren die benötigten Ressourcen abschätzen das Budget bereitstellen Jede betroffene Abteilung sollte mit einer Person im Projektteam vertreten sein, also zum Beispiel das Marketing, die IT, der Vertrieb und das Controlling. Erfahrungsgemäß ist es schwer, regelmäßig passende Meetingtermine für alle zu finden – und das erst recht, wenn die Realisierung der Web Analytics im Unternehmen als lästige Pflicht erachtet wird, die erst mal nichts „bringt“. Hier sind die Unternehmenslenker in der Pflicht: sie müssen jedem einzelnen Bereich ihrer Firma verdeutlichen, welche Vorteile er langfristig durch sein Engagement im Projektteam gewinnt. Es muss klar werden, dass es sich lohnt, dafür Zeit zu investieren und dass die Geschäftsführung das Projektteam ausdrücklich unterstützt. Eine der größten Herausforderungen für das zusammengestellte Team ist, zu Beginn die zahlreichen Ideen und Bedürfnisse so zu systematisieren, dass sie praktisch umsetzbar und mit einer Web Scorecard überprüfbar sind. Bewährt hat sich zum Beispiel, mehrere Aktionen zu jeweils einem Projekt zusammenzuschließen und für dieses Projekt Verantwortliche zu bestimmen. Das Erstellen einer Web Scorecard ist also eine komplizierte interdisziplinäre Aufgabe – die Web Scorecard selbst muss aber leicht verständlich sein, damit jeder die aktuellen Er-
145
7 Die Web Scorecard gebnisse, die seinen Arbeitsbereich betreffen, sofort interpretieren kann, um bei Bedarf schnellstmöglich Optimierungen vorzunehmen. Deshalb ist es sinnvoll, die erzielten Werte zusätzlich rot, gelb und grün zu kennzeichnen (für Zustände wie „kritisch“, „unbedenklich“ und „optimal“). Dies erhöht die Aufmerksamkeit der Mitarbeiter und führt dementsprechend zu schnelleren Aktionen. Um die Web Scorecard richtig zu nutzen, gehört die regelmäßige Optimierung mit in den Prozess. Dazu müssen in regelmäßigen Workshops die bisher erreichten Erfolge besprochen werden. Bei Bedarf sollte das „strategische Haus“ (Abbildung 7.3) angepasst und für neue Aktionen Ideen entwickelt werden. Bilden Sie ein Projektteam, das die Web Scorecard im Unternehmen einführt und pflegt. Aus jeder Abteilung, die Infos aus der Web Scorecard beziehen wird, sollten Mitarbeiter eingebunden sein. In einem Unternehmen gibt es viele Bedürfnisse und Ideen. Das Projektteam muss streng strategisch vorgehen und die Ziele des Unternehmens klar formulieren und systematisieren. Das Projektteam und die Führungsspitze formulieren Leitbild, Leitziel und die dazu passende Kenngröße. Das Leitziel muss in mehrere Perspektiven (Kunden, Zulieferer, Mitarbeiter etc.) und einige Unterziele aufgeteilt werden. Unterteilen Sie diese nach Zuständigkeiten oder Abteilungen. Legen Sie fest, wer in den Abteilungen die Verantwortung hat, um Handlungen, die laut Web Scorecard nötig sind, zügig in die Wege zu leiten. Die betreffenden Abteilungen entwickeln Aktionen, mit denen sie die in der Web Scorecard festgelegten Ziele erreichen und besprechen diese mit dem Projektteam. Maximieren Sie den dauerhaften Erfolg des Web-Scorecard-Einsatzes mit regelmäßigen Meetings aller Verantwortlichen.
146
8 8 Die Grundlagen von Testing und Targeting Wenn eines der Web-Analytics-Themen in den letzten zwei Jahren enorm an Bedeutung gewonnen hat, dann ist das mit Sicherheit „Testing und Targeting“. Grundsätzlich ist das Thema im Web nicht neu: Schon bei der Entwicklung einer Website arbeiten Designer mit verschiedenen Layouts, die sie als „Mock up“ (Entwurf) ihren Kunden vorlegen, um die künftige Website zu visualisieren oder um verschiedene Varianten auszuprobieren. In den Anfängen der Web Analytics haben sich Agenturen und Website-Betreiber damit beholfen, am Webserver eine „Weiche“ einzubauen, um den Besucherstrom aufzuteilen. Mit den entstehenden Gruppen führten sie einfache A/B-Tests durch, die dann mit Hilfe der WebAnalytics-Tools ausgewertet wurden – eine gängige Praxis, heute noch. Auch das Targeting ist grundsätzlich ein „altes Thema in neuem Gewand“. Um das Jahr 2000 haben nahezu alle Content-Management-System-Anbieter Produkte angeboten, mit denen eine Website „personalisiert“ werden kann. Die hohe Zielsetzung hieß: „Jedem WebBesucher seine persönliche Website.“ Dieser Grundgedanke ist nahezu identisch mit dem des Targeting: Jene, die für sie interessanten Content oder Werbung vorfinden, sind zufriedener und werden schneller zu treuen Besuchern. Die einfachste Form der Personalisierung war zunächst die persönliche Anrede nach der Registrierung. In der nächsten Stufe wurde dem registrierten Besucher angeboten, menügesteuert seine persönliche Homepage zu gestalten (zum Beispiel auf Finanzseiten die eigene „Watchlist“ zu erstellen). Die konsequenteste Form der Personalisierung war die automatische Generierung von Seiten aufgrund von Click-Streams-Beobachtungen – also der Analyse von Bewegungsdaten, auf Neudeutsch „Behavior“. Statt den Besucher auszufragen, beobachtet man sein Verhalten auf der Website und interpretiert diese Information entsprechend, um den Inhalt für den Nutzer optimal aufzubereiten. Wichtige Stichworte in diesem Zusammenhang waren „implizites“ und „explizites Tracking“, d.h. die Zusammensetzung der Inhalte nach den Wünschen des Web-Besuchers (explizit) oder nach seinem Verhalten (implizit) zu definieren.
147
8 Die Grundlagen von Testing und Targeting Ein Beispiel: Jeder Automobilbauer bietet heute auf seiner Website einen sogenannten „Konfigurator“ an. Für die Autoindustrie wäre es fantastisch, wenn sie aus den vorgenommenen Einstellungen am Konfigurator 1:1 eine Prognose für den Einkauf und die Produktion ableiten könnte. Leider wissen wir nicht, mit welcher Motivation der Webbesucher die Konfiguration des Fahrzeugs vornimmt. Er könnte sich also einen schicken Sportwagen konfigurieren, aber letztendlich beim Händler einen Kombi kaufen, weil er familiären Zuwachs erwartet und dieser nicht auf die Notsitzbank im offenen Sportwagen passt.
In den folgenden Abschnitten gehen wir auf die verschiedenen Formen des Testing und Targeting ein – zunächst schwerpunktmäßig aus Sicht der Website-Betreiber, danach aus Sicht der Vermarkter.
8.1
Testing Erinnern Sie sich an die Zeit vor Web Analytics? Online-Marketing wurde mehr oder weniger „aus dem Bauch heraus“ betrieben. Oder man holte sich Fachleute, die mehr Baucherfahrung hatten als man selbst, oder griff auf Marktforschungserkenntnisse, Usability und verkaufspsychologische Kenntnisse zurück. Man erstellte die Website so, dass sie einem selbst gefiel und die Inhalte aus interner, betriebsorientierter Sicht präsentiert wurden. Der geneigte Web-Besucher war damals froh, überhaupt einfach und schnell Informationen zu erhalten. Heute ist die Sichtweise der Website eine andere. Natürlich soll sie nach wie vor die Vorzüge eines Unternehmens sowie deren Dienstleistungen und Produkte darstellen, aber möglichst aus der Nutzensicht des Besuchers. Aber: Wie denken Besucher, worauf reagieren und wie agieren sie? Natürlich kann man seine Besucher befragen, testen oder beide Methoden kombinieren. Voraussetzung für eine Verbesserung ist jedoch die Veränderung. Was wie eine Binsenweisheit klingt, wird bei den Online-Marketing-Aktivitäten vieler Unternehmen zu wenig berücksichtigt. Weil der Erfolg einer Website von ihren (in der Regel unbekannten) Nutzern abhängt, erreicht man eine Verbesserung nur über das „Trial-and-Error“-Verfahren. Für eine Optimierung durch Testverfahren werden abgegrenzte Bereiche einer Website separat herangezogen. Dabei kann es sich um eine Landing Page handeln, um einzelne Seiten einer Website oder um einen gesamten Prozess (zum Beispiel den Bestell-oder Registrierungsprozess). Was kann man alles testen? Testen lassen sich alle grafischen und textlichen Elemente einer Webseite oder eines Werbemittels, aber auch Transaktionsprozesse und Formulare – kurz gesagt: alles. Doch es gibt einiges zu berücksichtigen. Wenn wir in den weiteren Abschnitten von „Testing“ oder „Testen“ sprechen, meinen wir immer den synchronen Test, also das gleichzeitige Testen verschiedener Testobjekte an gleichartigen Zielgruppen. Je nach Tageszeit, Tag oder Saison kann das Publikum der Website deutlich differieren.
148
8.1 Testing Beispiel: Bei einem Autoportal wurde die Suchmaske um ein KeyVisual ergänzt. Ziel: Die Konversionsrate für die Suche sollte erhöht werden. Das Ergebnis nach mehreren Tests ergab, dass wochentags ein anderes KeyVisual eingesetzt werden muss als am Wochenende, da offenbar ein anderer Personenkreis am Test teilnimmt.
8.1.1 Definitionen Testing Bevor wir uns mit dem Thema intensiver beschäftigen, müssen wir einige Begriffe definieren: Multivariates Testen: eigentlich der Oberbegriff für alle Testarten. Der multivariate Test untersucht x Variablen mit n Elementen. Als Ergebnis erhält man die bestmögliche Kombination der Elemente und Variablen gemäß der Zielausrichtung des Tests. A/B-Test: Eine Sonderform multivariaten Testens ist der A/B Test – ein Element mit standardmäßig zwei Variablen. Hier wird eine Variable, zum Beispiel ein Produktbild, mit zwei Elementen getestet. Das Ergebnis sind zwei Varianten der Website, entsprechend bei drei Variablen oder n Variablen, wie Tabelle 8.1 zeigt. Werden beim A/BTest mehr als zwei Elemente einer Variablen getestet, spricht man manchmal auch von A/B/n-Test. Variable: der Platzhalter oder auch „Container“ in der Website, der ausgetauscht wird. Das könnte eine Landing Page sein oder einzelne Teile der Website, etwa Header, Navigation, Bodytext, Suchmasken, Werbeaussagen, Hintergrundfarben und Designelemente, Bulletts, Testimonials, Preise, Formulare oder Transaktionsschritte. Hier gibt es eigentlich keine Beschränkung. Element: Ein konkreter Inhalt, der innerhalb einer Variable angezeigt werden kann, zum Beispiel ein bestimmtes grafisches Werbemittel, ein Button einer bestimmten Farbe, eine Textversion. Varianten: Dieser Begriff beschreibt die konkreten Ausprägungen eines Variablensatzes, der mit bestimmten Elementen belegt wird. Tabelle 8.1 Entwicklung der Anzahl an Seitenvarianten Multivariates Testing (Anzahl Varianten = Anzahl Elemente Anzahl der Variable) Anzahl Variablen
Elemente je Variable:
1 Variable
2 Variablen
3 Variablen
2 Elemente
2 Varianten
4 Varianten
9 Varianten
3 Elemente
3 Varianten
9 Varianten
27 Varianten
4 Elemente
4 Varianten
16 Varianten
64 Varianten
5 Elemente
5 Varianten
25 Varianten
75 Varianten
6 Elemente
6 Varianten
36 Varianten
216 Varianten
7 Elemente
7 Varianten
49 Varianten
343 Varianten
8 Elemente
9 Varianten
64 Varianten
512 Varianten
9…
…
…
…
149
8 Die Grundlagen von Testing und Targeting Beim Multivariaten Test werden verschiedene Elemente mit diversen Variablen simultan getestet. Die Anzahl der Varianten steigt exponenziell, wie Tabelle 8.1 veranschaulicht:
8.1.2 A/B-Test oder Split-Test Der Split-Test ist eine einfache und schnell aufgesetzte Marketingtechnik, um die Effektivität verschiedener Varianten eines Web-Elements, eines Angebots, einer Landing Page, eines Layouts oder eines Werbespruchs zu vergleichen. Während im Website-Marketing dieses Instrument noch relativ wenig genutzt wird, hat der A/B-Test im E-Mail-Marketing eine lange Tradition. Professionelle E-Mailer verschicken Testmails, bevor sie eine Massenmail versenden, zum Beispiel mit verschiedenen Betreffzeilen – an vorselektierte Testteilnehmer, um die Öffnungsrate zu optimieren. Beim A/B-Test werden immer nur eine oder voneinander abhängige Variablen verändert, während man alle anderen Faktoren konstant hält. So findet man heraus, welche Wirkung die getestete Variable auf die Konversion der Testseite hat und welche der im Test verwendeten Ausprägungen der Variable die beste Performance bringen. Die zu testenden Alternativen werden dabei immer gegen die bisherige Version – als Kontrollversion (Null-Hypothese) – getestet. Der Test wird simultan durchgeführt, um mögliche Einflussfaktoren der Testergebnisse zu vermeiden, zum Beispiel unterschiedliche Testteilnehmersegmente aufgrund der Tageszeit. Der Traffic wird bei dem Test auf die Anzahl der Varianten aufgeteilt (gesplittet). Wiederkehrende Besucher erhalten immer wieder das gleiche Werbeelement angezeigt (vorausgesetzt, sie haben ihre Cookies nicht gelöscht), um den Test stabil zu halten. Nachdem eine ausreichend große Menge an Testbesuchern erreicht wurde, können anhand der definierten Zielgröße die segmentbasierten Gewinnervarianten festgelegt werden. Gibt es zum Beispiel zwischen den Varianten keine signifikanten Abweichungen, lässt sich unter gewissen Annahmen ableiten, dass die getestete Variable keinen nennenswerten Einfluss auf die Performance hat und damit für weitere Tests nicht relevant erscheint. Zunächst müssen jedoch zur Überprüfung dieses Ergebnisses die Gruppensegmente überarbeitetet und die Testbedingungen geprüft werden. Nur so lässt sich ausschließen, dass das Ergebnis durch ein ungeeignetes Testdesign entstanden ist. Erscheint dieses Ergebnis nach dem wiederholten Test weiterhin signifikant, so wird dieser Bereich entsprechend in den nächsten Runden nicht berücksichtigt. Ermittelt man einen oder mehrere Gewinner, wird eine weitere Optimierung durch sukzessive Testrunden unter Anwendung der bisherigen Ergebnisse vorgenommen. Dabei ist darauf zu achten, dass Differenzen zwischen den Alternativen nicht durch störende Einflüsse wie unterschiedliche Testbedingungen hervorgerufen werden. Im Beispiel in Abbildung 8.1 werden sechs Varianten eines Banners in Kombination mit zwei Varianten der Kontaktbox ausgetestet. Ziel ist es, die Besucher aufzufordern, Kontakt mit dem Unternehmen aufzunehmen und herauszufinden, welche Kontaktbox-Art eine höhere Konversion erreicht. Die Metriken sind die Click-Through-Rate und die Anzahl Views, die Erfolgsmetrik ist die Anzahl der Kontaktaufnahmen.
150
8.1 Testing Die Vorteile des A/B-Testings liegen vor allem im schnellen Setup des Tests: Sie überlegen sich eine Hypothese, setzen einen Test auf und können bei genügend Traffic auf Ihrer Website innerhalb weniger Stunden die Ergebnisse sehen. Da beim A/B-Test nur zwei Variablen getestet werden, sind die Messergebnisse in der Regel eindeutig.
8.1.3 Multivariater Test (MVT) Im Gegensatz zum A/B-Test bietet die Methode des multivariaten Tests (MVT) die Möglichkeit, mehrere Variablen gleichzeitig zu verändern und durch den Einsatz von Algorithmen der progressiven Statistik den Einfluss der einzelnen Variablen auf das Gesamtergebnis zu ermitteln. Diese Information ist für jeden weiteren Test enorm hilfreich und trägt dazu bei, die geschäftsrelevanten Testelemente zu identifizieren. Außerdem ermöglicht die Methode, die beste Kombination der gegebenen Alternativen zu ermitteln.
Abbildung 8.1 Ansicht der Website www.contentmetrics.de während eines multivariaten Tests mit zwei Variablen zu 6 bzw. zwei Elementen
151
8 Die Grundlagen von Testing und Targeting Dieses Testverfahren erfordert eine sehr sorgfältige Vorbereitung, weil das Testdesign relativ komplex ist. Um Vermengungen der Haupteffekte so gut wie möglich auszuschließen, muss man für die zu testenden Variablen davon ausgehen können, dass keine relevanten Abhängigkeiten vorhanden sind. Für jede Variable werden im nächsten Schritt die für das Erreichen des Testziels geeigneten Variablenwerte in Form von Kreativvarianten (Alternativhypothesen) entwickelt und festgelegt. Um die hierfür passenden Optionen bereitstellen zu können, muss im Vorfeld geklärt sein, an welchen Kennzahlen der (Gesamt-)Erfolg gemessen werden soll. Bei drei Variablen mit jeweils vier verschiedenen Elementen ergeben sich 64 verschiedene Kombinationen (Varianten). Die Komplexität steigt also exponentiell. Dabei wird die Anzahl der Kombinationen schnell so groß, dass sich nicht mehr alle Kombinationsmöglichkeiten mit vertretbarem Aufwand testen lassen. In diesem Fall können Algorithmen eingesetzt werden, die systematisch statistische Methoden ausführen, um damit die Anzahl der Testkombinationen zu reduzieren, ohne das Ergebnis nennenswert zu verfälschen (die „Taguchi-Methode“, siehe Abschnitt 8.1.5). Im Kontrast zu den vollständigen Versuchsplänen, bei denen alle möglichen Kombinationen getestet werden („Full Fractional“), spricht man hier von Teilfaktorplänen („Fractional Factorial“). Teilfaktorpläne werden entwickelt, um die ideale Kombination der Elemente auch dann ermitteln zu können, wenn diese in der Testmenge gar nicht enthalten ist. Häufig ist die Verwendung von Teilfaktorplänen in der Software der Test-Tools bereits implementiert. Durch Verteilen des Website-Traffics auf weniger Versionen lässt sich eine geringere Testdauer und somit eine höhere Effizienz und Wirtschaftlichkeit erreichen. Je kleiner der Bruchteil des vollständigen Versuchsplans ist, desto schwerer fallen Störeinflüsse ins Gewicht. Da sich die Zielgruppe aus einzelnen Segmenten mit unterschiedlichen Präferenzen zusammensetzt, ist eine globale Performance nicht von Interesse. Stattdessen wird eine Einteilung in Segmente vorgenommen und die Performance dann pro Segment separat betrachtet. Für diese Segmente muss eine eigene angepasste Ansprache gefunden werden. Web-Analyse-Tools bieten das Einrichten von Segmenten zur gefilterten Betrachtung dieser Gruppen an. So kann untersucht werden, welche Ansprache bei welcher Nutzergruppe am besten funktioniert. Diese Erkenntnis ist elementar, wenn es darum geht, für jeden Nutzer oder Zielgruppe eine passende Ansprache zu finden und auszusteuern. Multivariate Tests sind hervorragend geeignet, um unterschiedliche Alternativen verschiedener Elemente einer Webseite zu testen und zu optimieren. Die Methode ist die Weiterführung der A/B-Tests und lässt sich nur toolgestützt sinnvoll erstellen. Die meisten Tools erlauben eine Konfiguration des Traffics, der für den Test genutzt werden soll. Empfehlenswert ist es, zwischen 5% bis 10% des Gesamttraffics am Test zu beteiligen – außer, Sie haben so wenig Traffic, dass Sie alle Besucher einbinden müssen. Einerseits ist die Testgruppe groß genug, um aussagekräftige Ergebnisse zu erhalten, andererseits ist der mögliche negative Einfluss auf andere Erfolgsfaktoren – zum Beispiel auf den Umsatz eines Online-Shops – gering.
152
8.1 Testing
8.1.4 Vergleichende Betrachtung von A/B-Test und MVT Weil das Durchführen von Testverfahren Zeit, Personal und technische Ressourcen in Anspruch nimmt, muss insbesondere in komplexen Umfeldern mittels einer korrekten Versuchsplanung sichergestellt werden, dass sich die zu erforschenden Zusammenhänge zwischen Einflussfaktoren und Zielgrößen mit möglichst wenigen Versuchsläufen zufriedenstellend untersuchen lassen. Handelt es sich um eine komplexe Website, für die eine Vielzahl an Variablen und ihr Einfluss auf die Performance getestet werden soll, dauert ein A/B-Test unverhältnismäßig lange, weil die Anzahl der Alternativen sehr groß wird und ausreichend Traffic nötig ist, um eine signifikante Aussage treffen zu können. Für die Anwendung in komplexen Umfeldern sind deshalb multivariate Tests besser geeignet. Jeder (vollständige) multivariate Test kann genau genommen auch als A/B/n-Test realisiert werden. Der Unterschied liegt dann in der technischen Art der Durchführung und der Vorbereitung. Während sich Split-Tests auch ohne Test-Tool durchführen lassen, wird für multivariate Testverfahren ein spezielles Test-Tool benötigt. Der Vorteil des multivariaten Testverfahrens besteht darin, dass einzelne Optionen für verschiedene Testelemente (zum Beispiel die Überschrift oder ein Visual) direkt in das TestTool aufgenommen werden können und das Tool die Kombination übernimmt. Aufgrund der Vielzahl an Kombinationen ist hiermit ein hoher Aufwand in der Produktion der Kreativvarianten erforderlich. Weiter vereinfachen lässt sich der MVT durch eine Verkürzung der Testdauer: Während beim A/B/n-Test alle Varianten getestet werden müssen, kann bei einem multivariaten Testverfahren durch einen Teilfaktorplan die erforderliche Testdauer signifikant verkürzt werden. Jede durch ein Testverfahren gewonnene Erkenntnis kann bestenfalls eine Annäherung an eine für einen gewissen Zeitraum gültige Situation sein. Sie ist niemals als global gültige Regel zu betrachten. Aufgrund des nicht zu vermeidenden Fehlergehalts von Testergebnissen und der zeitlichen Dynamik ist es in der Regel sinnvoll, einen leicht erhöhten Fehlerfaktor in Kauf zu nehmen, wenn dies zur Verringerung des Aufwands und damit zur Wirtschaftlichkeit beiträgt. Deshalb ist bereits ab einem mittleren Komplexitätsniveau des Testobjekts das multivariate Testverfahren mit einem Teilfaktorplan als hauptsächlich genutztes Verfahren zu empfehlen.
8.1.5 Taguchi-Methode – Unterstützung beim Multivariaten Testen Wer sich mit multivariaten Tests beschäftigt, kommt an der Taguchi-Methode nicht vorbei. Genichi Taguchi, ein japanischer Wissenschaftler, entwickelte ab Ende der 1940er-Jahre die nach ihm benannte Methode. Sie dient der statistischen Versuchsplanung, um Qualitätsverluste zu minimieren und die Produkte sowie Herstellungsprozesse gegenüber störenden Einflüssen robuster zu gestalten. Letztendlich geht es bei seiner Methode darum, die Kosten, die ein Produkt verursacht, zu minimieren – nicht nur bei den Herstellern selbst, sondern auch in der Gesellschaft allgemein.
153
Verlust
8 Die Grundlagen von Testing und Targeting
Zielwert
bisher Qualitätsmerkmal
Verlust
Unterer Grenzwert
Oberer Grenzwert
Zielwert
Taguchi Qualitätsmerkmal Unterer Grenzwert
Oberer Grenzwert
Abbildung 8.2 Minimierung der Streuung nach Taguchi
Die Taguchi-Methode ist bestens geeignet, um bei sogenannten OFAT-Techniken („one factor at a time“) wie einem A/B-Test schnell aussagekräftige Auswertungen zu erhalten (Abbildung 8.2). Sie basiert auf „Fractional Factorial Testing“, um die Anzahl der Variationen zu reduzieren und die Variablen mit dem größtmöglichen Einfluss zu erkennen. Diese Methode gibt dem Marketier eine exakte Kombination an Seitenelementen vor, die es ihm erlauben, eine akkurate Abschätzung der wichtigsten Variablen der Website und deren Werte für diese Variablen vorzunehmen. Die Länge des Testzyklus und die notwendige Anzahl an Besuchern ist dabei überraschend klein. Neben der Betrachtung einer Zielgröße, die es zu optimieren gilt, stellt Taguchi vor allem das Streuverhalten in den Vordergrund. Ein wichtiges Ziel der Produkt- und Prozessentwicklung ist die Minimierung der Streuung. Die Minimierung der Streuung darf aber nicht dadurch erreicht werden, dass der Testentwickler enge Toleranzen vorgibt! Vielmehr soll eine Unempfindlichkeit gegen diese Streuung erreicht werden. Die Strategie bei der Entwicklung der Tests ist deshalb, robuste Prozesse zu schaffen. Prozesse sind dann robust, wenn das Ergebnis möglichst wenig von – unvermeidlichen – Schwankungen der Parameter, Materialeigenschaften oder Umgebungsbedingungen abhängt. Dabei können nichtlineare Zusammenhänge helfen. Für den dargestellten Zusammenhang eines Prozessparameters mit einer Zielgröße wirkt sich die Streuung im rechten Bereich der Grafik weniger aus als im linken.
154
8.1 Testing Die Taguchi-Methode im MVT-Marketing ist umstritten. Bei einem MVT-Test mit und ohne Taguchi-Methode können durchaus abweichende Ergebnisse erzielt werden. Unsere Empfehlung: Wenn Sie wenige Elemente und Variablen testen, führen Sie den Test ruhig ohne Taguchi-Methode durch. Bei größeren MVT-Tests mit mehr als fünf Elementen und mehr als zwei Variablen erscheint die Taguchi-Methode als hinreichend exakt und reduziert die Testzeit deutlich.
8.1.6 Auswirkungen von MVT auf die Suchmaschinenoptimierung Hat das multivariate Testen einen negativen Einfluss auf das organische SuchmaschinenRanking (SEO = Search Engine Optimization)? Immer wieder kommt uns zu Ohren, dass SEO-Verantwortliche ihr mühsam erarbeitetes Suchmaschinen-Ranking durch das Testen in Gefahr sehen. Sie befürchten, Google und Co. würden sie für die ständig wechselnden Inhalte abstrafen. Diese Sorgen sind nicht von der Hand zu weisen: Anbieter von MVT-Software, die für unterschiedlichen Seitenvarianten serverseitige Methoden verwenden, liefern den Spidern unterschiedliche Seiten – was Einfluss auf das organische Ranking haben kann. Andere Tool-Anbieter wiederum nutzen völlig unterschiedliche URLs zur Auslieferung der Varianten und handeln sich unter Umständen Probleme mit dupliziertem Content sowie weitere SEO-Probleme ein. Professionelle Tools haben jedoch Maßnahmen ergriffen, um dies gezielt zu vermeiden. Zum Beispiel verwendet Vertster ein proprietäres AJAX-Modul, um die Inhalte auszutauschen. Die Spider bekommen in der Regel gar nicht mit, dass ein Test läuft, und sehen nach wie vor die bereits indizierte Standardseite. Fragen Sie vor dem Einsatz eines MVT-Tools, mit welcher Methode der Anbieter einen störenden Einfluss auf das organische Suchmaschinenranking vermeidet.
8.1.7 Voraussetzungen für einen effektiven Test Auch beim Testen müssen zunächst die Ziele messbar definiert werden. Also fängt jeder Test mit der Formulierung einer Nullhypothese an. Diese beschreibt den aktuellen Status quo und dient später zum Vergleich mit den weiteren getesteten Alternativhypothesen. Die entsprechenden Kennzahlen für den Test sollten identifiziert und eindeutig definiert sein. Die ideale Vorgehensweise 1. Erstellen Sie ein Testkonzept: Nehmen Sie eine schriftliche Definition der Nullhypothese vor, inklusive Status quo und Alternativhypothese/n – mit den erwarteten Ergebnissen in relativen oder absoluten Werten. Nutzen Sie die Möglichkeiten der Web Analytics; verwendete Tools sowie Auswertungsmethode sollten festgehalten werden.
155
8 Die Grundlagen von Testing und Targeting Definieren Sie die relevanten Metriken für die Erfolgsmessung, zum Beispiel die Click-Trough-Rate, Umsatz, Verweildauer und Konversion. Definieren Sie die Kontrollwerte, um die Steigerungsraten zu definieren. Während in der Definition der Metriken mehrere Messwerte aufgenommen werden, dient der Kontrollwert als eigentlicher Erfolgsfaktor. Ein Beispiel zur Verdeutlichung: Sie testen verschiedene Landing Pages, die zu mehr Registrierungen in einem Portal führen sollen. Das angestrebte Ziel sind 10% mehr Registrierungen pro Woche. Die ersten Auswertungen ergeben eine sehr gute Click-Through-Rate auf die Website, aber der Kontrollwert „Anzahl der Registrierungen pro Woche“ erhöht sich nicht. 2. Beschreiben der Testobjekte: Beschreiben Sie die Testobjekte und die veränderlichen Merkmale der Testobjekte, zum Beispiel Farben, Ansprache, Key Visuals, Anzahl Bullets, Formularreihenfolge, Landing Page oder Teaser. Achten Sie darauf, nicht zu ähnliche Testobjekte zu generieren. Ein Objekt mit einem kirschroten oder weinroten Hintergrund zu versehen, wird wahrscheinlich zu keiner signifikanten Varianz bei den Ergebnissen führen – zumal die Farbvarianz unter Umständen auch von den Einstellungen des Besucher-Monitors abhängig ist. 3. Definieren der Testgruppe Beschreiben Sie die Gruppe, die am Test teilnehmen soll. Das können zum einen alle Web-Besucher sein, die über eine bestimmte Suchmaschine kommen und ein bestimmtes Keyword eingegeben haben, oder ein Prozentsatz der Besucher – zum Beispiel jeder zehnte Besucher. Es versteht sich fast von selbst, dass ein Besucher, der am Test teilgenommen hat und während der Testlaufzeit wieder kommt, das gleiche Testelement angezeigt bekommt. Dies kann bei anonymen Tests in der Regel nur über den gleichen Client gewährleistet werden. Wechselt der Besucher zum Beispiel vom PC auf sein Mobile Device, könnte dies lediglich im registrierten Umfeld sichergestellt werden. 4. Berücksichtigung von Störfaktoren Es gibt diverse Störfaktoren, die einen Test beeinflussen können. Einer davon könnte Ihr Mitbewerber sein, der eventuell eine Kampagne im gleichen Umfeld gestartet hat. Auch das Wetter oder saisonale Schwankungen sind zu beachten. Beispiel: Ein Reiseanbieter bietet Reiseziele in den sonnigen Süden an, und während der Testzeit schwitzen seine potenziellen Kunden bei 30°C. 5. Berücksichtigen Sie die Konversions-Latenz Die Konversions-Latenz bezeichnet den Zeitraum, den üblicherweise ein Besucher benötigt, um von der Wahrnehmung der Werbung bis zur gewünschten Konversion zu kommen. Auch hierzu ein Beispiel: Ihre Aufgabe ist es, den Abverkauf hochwertiger LEDFernseher um 5% zu steigern. Sie setzen hierfür eine Testkampagne mit verschiede-
156
8.1 Testing nen Landing Pages auf, die per Deep Link direkt in den Shop führen. Der Test läuft über eine Woche. Die Auswertung zeigt insgesamt eine gute CTR, aber keine signifikante Erhöhung der Direktabschlüsse. Zudem stellen Sie fest, dass Sie eine Postkonversion haben, die erst zwei Wochen nach dem Erstkontakt mit einer der Landing Pages zum Tragen kommt. Für den Testzeitraum müssen also die typischen Entscheidungszeiträume berücksichtigt werden. Bei den ersten Testing-Versuchen sollte man nicht mit der Homepage starten, sondern beispielsweise mit Landing Pages. Bemessen Sie die Testlaufzeit großzügig, und testen Sie nicht zu ähnliche Varianten. Zur Nachverfolgung und für spätere Analysen protokollieren Sie die Tests und deren Ergebnisse.
8.1.8 Typische Fehlerquellen In der Testpraxis werden von vielen Anwendern die gleichen Fehler begangen. Typische Fehlerquellen sind: Auswahl eines ungeeigneten Testobjekts (zum Beispiel die Homepage) oder eine ungeeignete Qualifizierung der Besucher als Testteilnehmer (keine einheitlichen Konversionsziele) Auswahl von Seitenelementen, die wenig oder keinen Einfluss auf den Erfolg der Website haben Ungeeignete Kennzahlen als Zieldimension und eine fehlende Verfolgung des Einflusses auf andere Kennzahlen Gleichzeitiges Testen von zu vielen Faktoren Optionen, die einander zu ähnlich sind Falsche Testdauer: zu kurz oder zu lang, keine Berücksichtigung von Latenzen Verlassen auf Drittanbieter-Cookies – diese werden von den Nutzern aber häufig verweigert oder gelöscht. Fehlende Verknüpfung des Test-Tools mit dem Web-Analyse-Tool Ignorieren von Störeinflüssen und Rauschen Wenn Sie die typischen Fehlerquellen berücksichtigen, sollten Sie recht schnell Ihre ersten Erfolge im Testen aufzeigen können. Mit den aktuellen MVT-Tools sind Tests schnell erstellt, die es erlauben, Hypothesen sicher zu überprüfen. Es ist ein weiterer Schritt zur Versachlichung vieler interner Diskussionen mit den Fachabteilungen oder dem Management. Messen – Testen – Veredeln: Es gibt nur wenige Gründe, nicht zu testen, aber viele, es unbedingt zu tun.
157
8 Die Grundlagen von Testing und Targeting
8.2
Targeting Targeting ist ein sehr umfassender Begriff für viele Formen der zielgerichteten Schaltung von Werbung oder Content. Während einfache Targeting-Formen wie das Geo-Targeting oder Uhrzeit-Targeting schon lange in der Online-Vermarktung umgesetzt werden, ist der Begriff Targeting heute hauptsächlich durch Behavioral beziehungsweise Predictive Behavioral Targeting besetzt. Targeting ist die präzise ausgerichtete Ansprache der Zielgruppe unter Berücksichtigung der ihr zugesprochenen Eigenschaften. Im Kontrast zu dem häufig mit diesem Begriff assoziierten Ad Targeting handelt es sich hier um „Onsite Targeting“, weil nicht extern gesteuerte Werbeeinblendungen, sondern die Inhalte der Website (also Seiteneigenschaften) anhand bekannter Nutzereigenschaften modifiziert werden. Durch die automatische Echtzeit-Anpassung der Inhalte soll eine höhere Passgenauigkeit zu den Eigenschaften und Interessen der Besucher und damit eine Verbesserung der Konversion erzielt werden. Onsite Targeting ist genau genommen ein um Targeting-Funktionen erweitertes, multivariates Testing, um Kundensegmente zielgerichtet anzusprechen. Da nicht für jeden Besucher die gleiche Version optimal sein kann, muss in der Regel zwischen verschiedenen Zielgruppensegmenten unterschieden werden. Die Segmente zeigen eine Häufigkeitsverteilung in den Adaptionspräferenzen der Besucher. Die für eine effiziente Optimierung notwendigen Analysedaten können also zielgerichtet erzeugt werden, indem unterschiedliche Website-Varianten gegeneinander getestet und deren Adaptionsunterschiede analysiert werden. Weil die Durchführung von Testverfahren nicht ohne entsprechende personelle und technische Ressourcen auskommt, muss dieses Vorgehen gut geplant werden. Die konsequenteste Form des Targeting ist die One-to-One-Kommunikation. Obwohl sicher erstrebenswert, ist sie dennoch meist schlichtweg nicht praktikabel. Statt Individuen zu betrachten, sollten stattdessen die Besucher in Cluster beziehungsweise Segmente zusammengefasst werden, deren Mitglieder sich in ihren Eigenschaften sehr ähnlich sind und von denen zu erwarten ist, dass sie ähnliche Reaktionsmuster aufweisen. Die Herausforderung ist dabei, Segmente so zu definieren, dass sie gleichermaßen signifikant und erhebbar sind. Da sich die Segmente durch die Reaktionsmuster voneinander abgrenzen, ergeben sich in den Testergebnissen Abweichungen. Über alle Testteilnehmer erfasste und primär betrachtete Mittelwerte sind häufig irreführend, weil sich Effizienzsteigerungen einer Testgruppe und verschlechterte Ergebnisse einer anderen Gruppe gegenseitig abschwächen oder aufheben. Je größer die Varianz der Testergebnisse, desto schwerwiegender ist der Fehler bei der Betrachtung von Mittelwerten. Dies macht Ansprachevarianten für unterschiedliche Zielgruppensegmente nötig. Um ein passgenaues Matching zu erreichen, muss also nicht nur die Technik vorhanden sein, sondern es müssen insbesondere Basiselemente für das Matching zur Verfügung stehen: eine Nutzungsdatenbasis sowie eine ausreichende Menge an Inhalten, die auf die identifizierten
158
8.2 Targeting Eigenschaften abgestimmt sind. Sind keine solchen Daten vorhanden, muss in der ersten Phase mit deren Sammlung begonnen werden. Diese Daten liefern dann die Kommunikationsansätze für den Aufbau einer Bibliothek aus entsprechenden Inhalten. On-Site-Targeting ist also das Bestreben, die segmentbasierten Erkenntnisse automatisiert zu nutzen, um für jeden Besucher die relevantesten Inhalte und damit das beste Nutzungserlebnis zu liefern.
Besucher
Schuhe/Mode
Automatische Auslieferung von relevanten Content/Ads über AdServer oder CMS
Behavioral Targeting System Regelwerk Profil DB Analyse des Verhaltens
Profil
Abbildung 8.3 So funktioniert Targeting – stark vereinfacht
Abbildung 8.3 veranschaulicht, stark vereinfacht, wie Targeting funktioniert. (1) Ein Website-Besucher interessiert sich in einem Schuh-Shop für schwarze Stiefel (2). Er legt eventuell die Stiefel in den Warenkorb, löst diesen aber noch nicht auf und surft weiter im Shop. Diese Information wird in der Profildatenbank abgespeichert (3). Der Besucher verlässt die Website, kommt aber .einen Tag später wieder und wird über das Cookie wiedererkannt. Das Targeting-Regelwerk (4) liefert nun einen Banner mit dem Stiefel, den der Besucher zuletzt begutachtet hat, um ihn zum Kauf zu bewegen. Targeting ist der Prozess der Zuordnung zum Beispiel von Werbemitteln, Services, Produkten, Navigation oder Content zu einem Nutzersegment, mit der versucht wird, die segmentbezogene Ansprache der Konsumenten zu optimieren. Wesentliche Ziele des Targeting sind: Streuverluste minimieren, die Konversion maximieren, die Loyalität erhöhen.
159
8 Die Grundlagen von Testing und Targeting
8.2.1 Retargeting Retargeting bedeutet die Auslieferung von Content oder Werbemittel an einen wiederkehrenden Besucher, der schon einmal eine bestimmte Aktion auf ein Werbemittel getätigt hat – also eine Art digitale interessenbezogene Erinnerung. Bezieht man das Retargeting nicht nur auf die eigene Website, sondern bezieht Werbenetzwerke mit ein, kann der Besucher auch auf einer Website im Werbenetzwerk einen Banner erhalten, der ein Angebot für die Testfahrt enthält.
Besucher
Behavioral Targeting System Regelwerk
Automatische Auslieferung von relevanten Ads über einen AdServer
Profil DB Profil
Besucher surft weiter auf anderen Portalen eines Werbenetzwerks
Abbildung 8.4 So funktioniert Retargeting
Wie Retargeting funktioniert, zeigt Abbildung 8.4. Ein Website-Besucher (1) sieht sich auf einer Automobilhersteller-Website ein neues Fahrzeug an (2); diese Informationen werden in der Profildatenbank gespeichert (3). Der Website-Besucher verlässt die Site ohne weitere
160
8.2 Targeting Aktionen und surft im Internet auf verschiedenen anderen Sites. Auf einer Site eines Werbenetzwerks wird er als Besucher der Website jenes Automobilherstellers identifiziert, der in diesem Netzwerk Banner für Testfahrten geschaltet hat. Der Besucher bekommt umgehend den Banner (5) mit dem zuletzt betrachteten Fahrzeug angezeigt mit der Möglichkeit, eine Testfahrt zu vereinbaren. Retargeting eignet sich hervorragend für Verkaufs- und Kundenbindungsmaßnahmen. Um allerdings Retargeting nutzen zu können, sollten mindestens 50 000 Unique-Users pro Monat und Website vorhanden sein.
8.2.2 Erstellung eines Regelwerks Automatisiertes Targeting ist bestenfalls so gut wie die Elemente und Variablen, aus denen der Auslieferungsprozess aufgebaut ist. Die Erstellung der Content-Elemente kann ebenso wenig automatisiert werden wie die Prozesse, die im Vorfeld nötig sind, bis automatisiertes Targeting stattfinden kann. Targeting ist ein weiterer Schritt der Segmentierung und Positionierung von Content und/oder Werbung, den wir bereits aus dem Testing kennen. Ziel der Durchführung von Testverfahren ist also weiterhin, explizite allgemeine Erkenntnisse aus den Untersuchungen zu gewinnen und diese später – sowohl in weiteren Tests wie auch nach anderen zukünftigen Entwicklungen – anzuwenden. Um dies sicherzustellen, müssen die gewonnenen Erkenntnisse schriftlich fixiert und für alle Beteiligten zugänglich gemacht werden. Der stetige Auf- und Ausbau eines Regelwerks trägt dazu bei, Ressourcen nicht dafür zu verschwenden, dass immer auf dieselben Erkenntnisse hin gearbeitet wird. Dieses Regelwerk sollte jedoch knapp gehalten werden und nur die wichtigsten anwendbaren Regeln enthalten, damit es überschaubar bleibt. Anstatt zu viele, möglicherweise irrelevante Daten zu integrieren, wird auf die ausführliche Dokumentation zugehöriger Verfahren lediglich verwiesen. Werden die kurz formulierten Regeln zudem durch mögliche Begründungen des Ergebnisses ergänzt, stellt das Regelwerk eine praktische Hilfe für weitere Verfahren dar. Natürlich müssen sich auch dort aufgestellte Regeln auf die Segmentebene beziehen oder Hinweise enthalten, dass beispielsweise zwischen den Segmenten (auch nach Überarbeitung der Segmentstruktur) keine signifikanten Unterschiede festgestellt werden konnten. Es bietet sich an, die Regeln und Profile gemeinsam mit einem erfahrenen Consultant (externer Dienstleister oder Anbieter des Behavioral-Targeting-Tools) zu erstellen. Diese Regeln werden anschließend ins Backend des Anbieters eingestellt. Selbstlernende Systeme nutzen KI-Algorithmen, welche die Reaktion der User auf die Kampagnen selbstständig auswerten und die Aussteuerung je nach Zielausrichtung anpassen.
161
8 Die Grundlagen von Testing und Targeting
8.2.3 Anwendung von Targeting auf Basis der Testdaten Ziel des Targeting ist, das Marketing und die Interaktionsprozesse kontinuierlich auf der Ebene der Segmente zu verfeinern. Als logische Konsequenz einer segmentbezogenen Betrachtung findet durch Targeting eine Reaktion auf die festgestellten Unterschiede statt. Der Grad der Individualisierung beim Targeting hängt dabei von der Granularität der Segmentierung ab. Die folgende Übersicht zeigt verschiedene Formen des Targetings: Technisches Targeting Bei allen Arten des technisch orientierten Targetings erhält der Internetnutzer den auf seine Software- und Hardwareumgebung zugeschnittenen Content oder das passende Werbemittel. Dadurch werden unter anderem lange Ladezeiten vermieden (Bandbreite), Werbemittel korrekt im Browser angezeigt und regionale Werbung örtlich ausgeliefert (Geo). Auch das Einhalten einer bestimmten Kontaktdosis für eine Werbekampagne wird dieser Form des Targeting zugeordnet. Tabelle 8.2 Technisches Targeting (Quelle: [BVDW 2009]) Targeting-Form
Ausprägung
Nutzen
Bandbreiten
Der Content beziehungsweise die Wer- Vermeiden langer Ladezeiten, die bemittel werden in Abhängigkeit von der eventuell die Abbruchrate deutlich erBandbreite ausgeliefert. höhen würden.
Geo
Auslieferung lokaler Inhalte in Abhängigkeit von der IP-Adresse bzw. des IP-Ranges
Ermöglicht es, regionale Schwerpunkte zu setzen im Angebot, um Streuverluste zu minimieren. Auf überregionalen Nachrichtenportalen könnte zum Beispiel der Lokalteil automatisch ausgeliefert werden.
Frequency Capping
Frequency Capping bedeutet die kontrollierte Auslieferung eines Werbemittels pro Unique Visitor nach Anzahl und Zeiteinheit.
Aussteuerung kampagnenspezifischer Kontaktfrequenzen. Vermeidung von Streuverlusten durch Begrenzen der Kontaktzahl beim einzelnen Nutzer. Nutzen für den Besucher: Vermeiden einer zu häufigen Anzeige des gleichen Werbemittels.
162
Browser
Targeting nach Browser bedeutet die Auslieferung digitaler Werbung nach dem Kriterium „Browsertyp“. Ein Beispiel ist Targeting auf den Browser „Firefox“.
Sicherstellen, dass der Content oder das Werbemittel korrekt dargestellt wird.
Uhrzeit
Targeting nach Uhrzeit bedeutet die Auslieferung digitaler Werbung nach vorgegebenen Zeitfenstern. Ein Beispiel ist Targeting in der Zeitschiene „18 bis 22Uhr“.
Hat man verschiedene Besuchersegmente nach Uhrzeit ausgemacht, kann man diese gezielt ansprechen.
8.2 Targeting Targeting-Form
Ausprägung
Nutzen
Bildschirmauflösung
Targeting nach Bildschirmauflösung bedeutet die Auslieferung digitaler Werbung nach der ermittelten Bildschirmauflösung des Nutzers.
Großformatige Flash-Werbung oder Videos werden nur dann ausgeliefert, wenn sie nicht den gesamten Screen überlagern.
Betriebssysteme
Betriebssystem-Targeting bedeutet die Auslieferung digitaler Werbung nach dem ermittelten Betriebssystem des Nutzers.
Ein Beispiel ist Werbung für Software oder Zeitschriften für Apple Computer nur für Nutzer des Betriebssystems Mac OS X.
Das technische Targeting lässt sich gut mit anderen Maßnahmen kombinieren und wird daher eher selten als alleiniges Targeting-Merkmal genutzt, da es eine rein technische Aussteuerung ist.
Sprachbasiertes Targeting Sprachbasiertes Targeting ist das Ausliefern von Content oder Werbung in ein thematisch passendes Umfeld. Beispiel: Jeder, der schon einmal auf einer Suchmaschine ein Keyword eingegeben, anschließend auf einen Link der Trefferliste geklickt hat und auf eine Website geleitet wurde, ärgerte sich, wenn er nicht auf Anhieb das Keyword auf der Website finden konnte. In der Regel ist man deshalb nach wenigen Augenblicken wieder weg. Contextual Targeting bietet die Möglichkeit, einen Teaser anzuzeigen, der gegebenenfalls dynamisch erzeugt wird und das entsprechende Keyword enthält. Per Klick auf den Teaser wird man dann auf die entsprechende Contentseite weitergeleitet. Als Besucher hat man zunächst das Gefühl, „hier richtig zu sein“, und dringt tiefer in die Website ein. Tabelle 8.3 Sprachbasiertes Targeting (Quelle: [BVDW 2009]) Targeting-Form
Ausprägung
Nutzen
Keyword
Suchwort-Targeting (auch bekannt als: Keyword-Targeting) blendet Werbung ein, wenn der User einen der vom Werbetreibenden definierten Begriff in ein Formularfeld eingegeben oder ausgewählt hat.
Ein Beispiel wäre Targeting nach dem Suchwort „Golf“ in einer Suchmaschine.
Contextual
Wortbasiertes Targeting (auch bekannt als: Contextual Targeting) blendet Werbung ein, wenn im Text der Website eines der vom Werbetreibenden definierten Wörter steht.
Ein Beispiel wäre Targeting auf das Wort „Golf“ für eine Automarke auf einer Nachrichtenseite.
Semantisches
Semantisches Targeting blendet Werbung ein, wenn alle Wörter einer Webpage in ihrem Zusammenhang einem vom Werbetreibenden definierten Thema entsprechen.
Mehrdeutige Wörter wie „Golf“ können so durch eine Analyse des Gesamttextes ihrer korrekten Bedeutung zugeordnet werden, hier zum Beispiel als Automodell, Sportart oder geografischer Begriff.
163
8 Die Grundlagen von Testing und Targeting Das sprachbasierte Targeting eignet sich insbesondere, um einen Besucher mit dem Keyword auf der Website zu empfangen, das er gerade in der Suche eingegeben hat. Ein Beispiel: Ein Web-Analytics-Unternehmen bietet Web-Analytics- und Targeting-Beratung. Der StandardTeaser wirbt für die Web Analytics. Wenn ein Besucher aber in der Suchmaschine nach Targeting gesucht hat, wird der Teaser auf der Beratungs-Website dynamisch ersetzt durch den „Targeting-Beratungs“-Teaser.
Behavioral Targeting Der komplexeste Bereich im Targeting ist das Behavioral Targeting, also die Auslieferung von Content und Werbung aufgrund vergangenen Surfverhaltens. Komplex deswegen, weil entweder vom aktuellen Surfverhalten und/oder vergangenen Surfverhalten auf das aktuelle Interesse geschlossen wird. Behavioral Targeting und Predictive Behavioral Targeting wird heute nur bedingt auf großen Portalen zur Steuerung von Content eingesetzt. Die meisten Lösungen werden in der Online-Vermarktung eingesetzt. Besonders interessant ist hier die Einbindung in Werbenetzwerke, weil man darin übergreifend die Werbung zielgerichtet ausliefern kann: Innerhalb eines solchen Netzwerks kann man beispielsweise einen Besucher einer Automobilanbieter-Website, auf der er sich ein bestimmtes Modell angeschaut hat, noch einmal an die Möglichkeit einer Testfahrt erinnern. Tabelle 8.4 Behavioral Targeting (Quelle: [BVDW 2009]) Targeting-Form Ausprägung
Nutzen
Behavioral
Werbetreibende können ihre Interessenszielgruppe unabhängig vom jeweiligen Umfeld direkt buchen, wobei auch Kombinationen von Nutzerinteressen ansprechbar sind. Insbesondere können Werbekampagnen an klar definierte Zielgruppen zum Beispiel außerhalb von ausgebuchten Umfeldern ausgeliefert werden, wodurch das Inventar (Werbemittel), über das die Zielgruppe erreicht werden kann, gesteigert wird. Der Nutzer sieht Content und Werbung, für die er sich gemäß seines bisherigen Surfverhaltens interessiert.
Behavioral Targeting bezeichnet die Auslieferung digitaler Werbung bzw. Content, basierend auf dem vergangenen Surfverhalten (Behavior) der Nutzer. Zum Beispiel wird Werbung für ein bestimmtes Automodell dann angezeigt, wenn ein Nutzer hinreichend oft in einem bestimmten Zeitraum nach diesem Modell im Portal gesucht hat. Aus diesem Verhalten wird abgeleitet, dass der Nutzer sehr an diesem Modell interessiert ist.
Predictive Behavioral
164
Predictive Behavioral Targeting ist die Auslieferung digitaler Werbung an Nutzergruppen, denen anonymisiert bestimmte Attribute (Soziodemographie, Produkt- und Kaufinteressen, psychographische Merkmale etc.) mit Hilfe statistischer Prognosen, basierend auf
Erweiterung der Kampagnenreichweite. So kann ein Produktinteresse an Autos einer bestimmten Leistungsklasse auch ermittelt werden, wenn der Internetnutzer auf der Website Autoinhalte genutzt hat.
8.2 Targeting Targeting-Form Ausprägung
User-declared Information
Nutzen
Surfverhalten, Befragung und ggf. externen Daten zugeschrieben werden.
Vorteile für Internetnutzer:
User-declared Information Targeting bezeichnet die Auslieferung digitaler Werbung an Nutzergruppen mit ausgewählten soziodemographischen Merkmalen, die von der Nutzergruppe bereitgestellt wurden. Ein Beispiel ist die Auslieferung an weibliche Nutzer zwischen 20 und 29 Jahren, die diese Information bei der Registrierung für einen Newsletter bereitgestellt haben.
Diese weitere Segmentierung erlaubt es, die Zielgruppe schärfer anzusprechen. Diese Segmentierung, verbunden mit dem Behavioral Targeting, bereichert Ihr Wissen über das Nutzerverhalten.
Nutzer erhalten Werbung zu relevanten Angeboten, ohne dass sie explizit Interesse daran geäußert haben müssen.
Sie erhalten über das Behavioral Targeting vollwertige Nutzerprofile, die eine präzise Ansprache der Zielgruppen ermöglichen. Die dadurch erzielte hohe Werberelevanz für den Nutzer schlägt sich in den Konversionsraten nieder. Targeting auf Basis des Surfverhaltens wird heute hauptsächlich in der Vermarktung oder auf sehr trafficstarken Portalen eingesetzt und ist für jeden Online-Marketier geeignet, der zielgruppenspezifisch werben will.
Das Erfassen von Segmentierungs- und somit Targeting-Kriterien ist unterschiedlich komplex. Bevor man sich mit hohem Aufwand an kompliziertere Kriterien wagt, sollte man mit einfachen Kriterien bereits erste Erfahrungen gesammelt haben. Welche Kriterien für das Targeting heranzuziehen sind, erschließt sich in der Regel aus früheren Testergebnissen. Nur wo bisherige Ergebnisse eine signifikante Segmenteinteilung bestätigen – die Ergebnisse sich also voneinander unterscheiden – ist es sinnvoll, solche Segmente spezialisiert anzusprechen. Einfach zu realisierende Targeting-Kriterien sind beispielsweise eine Unterscheidung nach Wochentag und Wochenende, Tageszeiten (Arbeitszeit, Feierabendzeit) oder Suchwörtern der Nutzer, die den Markennamen enthalten (Branded Traffic) oder eben nicht (non-branded traffic). Einige Daten sind schwerer zugänglich als andere und erfordern separate Erhebungen durch Registrierungsprozesse oder eine Verknüpfung unterschiedlicher Datensysteme. Gerade diese Daten liefern jedoch wichtige Informationen zur Einordnung der Besucher in bestimmte Segmente, sind aber nur begrenzt oder gar nicht mit Webanalyse-Methoden zu erheben. Beispielsweise soziodemografische Daten oder die Kauf- beziehungsweise Interaktionshistorie der Nutzer. Diese liegen häufig in abgegrenzten Systemen wie etwa Kundendatenbanken vor. Eine Verknüpfung solcher Kundendaten mit dem Nutzerverhalten unterliegt jedoch strengen rechtlichen Restriktionen. Die Herausforderung dabei: Um ein möglichst genaues Bild der Nutzer zu gewinnen, müssen Daten aus unterschiedlichen Quellen (Webanalyse, Datawarehouse-, CRM-Systeme) miteinander verbunden werden. Ist dies der Fall, kann mit Data-Mining-Methoden nach
165
8 Die Grundlagen von Testing und Targeting Korrelationen gesucht werden. Zur Segmentbildung anhand solcher korrelierter Daten werden die einzelnen Eigenschaften gewichtet, so dass sich daraus ein Eigenschaftenprofil ergibt („Scoring“). Um die Signifikanz einer Segmentierung zu beurteilen, werden folgende (geforderte) Eigenschaften betrachtet: In einem Segment existieren Ähnlichkeiten in der Reaktion auf verschiedene Ansprachemöglichkeiten und Unterschiede zwischen den Segmenten. Segmente sind messbar, können gezielt angesteuert werden und ermöglichen eine spezialisierte Ansprache. Für jedes Segment muss ein passendes Produkt oder Angebot zur Verfügung stehen; das Segment ist ausreichend kaufkräftig und somit wirtschaftlich bedeutsam, um eine separate Betrachtung zu begründen. Ein Hilfsmittel, um Segmentabgrenzungen klar aufzuzeigen, ist die Darstellung typischer Segmentvertreter als personifizierte Rollenmodelle (Personas). Anhand dieser Rollenmodelle werden passende Kreativvarianten erstellt, die eine segmentspezifische Ansprache und somit ein besseres und für jeden Kunden beziehungsweise jedes Segment einzigartiges Kundenerlebnis zum Ziel haben. Durch eine Spezialisierung auf ausgewählte Segmente können anhand weiterer, segmentbezogener Tests die zuvor aufgestellten Annahmen überprüft werden. Wegen der technischen Komplexität solcher Targeting-Methoden ist deren Einsatz nur für die wichtigsten Kontaktpunkte einer Website zu empfehlen: die Haupteinstiegsseiten und Seiten mit dem höchsten Traffic. Dabei ist zu beachten, dass diese Seiten keiner festen Struktur oder einem festen Navigationsmuster unterliegen sollten. Durch On-Site-Targeting kann dem Besucher das positive Erlebnis vermittelt werden, auf der Website genau die Inhalte zu finden, nach denen er gesucht hat. Denn für diesen Benutzer wird automatisiert Content zur Verfügung gestellt, der speziell für ihn relevant ist. Natürlich muss dafür auch eine entsprechend große Auswahl an Content-Optionen zur Verfügung stehen, die alle Interessen der Segmente bedienen kann.
8.2.4 Etablierung der Testverfahren als kontinuierlicher Optimierungsprozess Wurde die erste Optimierungsphase am Beispiel des Testobjekts erfolgreich beendet, helfen gewonnene Erfahrungen und Prozesskenntnisse beim weiteren Vorgehen. Nach gleichem Muster können nach und nach weitere Seitenbereiche und Interaktionsprozesse optimiert werden. Die Konzentration auf die Optimierung nur eines Seitenbereichs hat den Vorteil, dass höhere Aufmerksamkeit im Detail möglich ist und das Optimierungsengagement besser in das Tagesgeschäft eingegliedert werden kann. Außerdem können Erkenntnisse und Erfahrungen aus jedem bereits abgeschlossenen Optimierungsprozess in den jeweils nächsten Bereich mitgenommen werden. In welcher Reihenfolge die zu optimierenden Seitenberei-
166
8.2 Targeting che bearbeitet werden, kann auch davon abhängig gemacht werden, durch welchen Lernprozess man den nötigen Erfahrungsschatz für komplexere Seitenbereiche aufbauen kann. Falls der erwartete Erfolg ausbleibt, sollten Methodik und die Testbedingungen kritisch überprüft werden, um mögliche Fehler bei weiteren Optimierungsmaßnahmen auszuschließen. Den kontinuierlichen Verbesserungsprozess kann man sich als eine Wanderung entlang einer kegelförmigen Spirale vorstellen: Mit kleinen, aufeinander aufbauenden Schritten nähert man sich der Spitze. Dafür ist es elementar wichtig, bisherige Erkenntnisse zu berücksichtigen. Eine stetige Erweiterung und Überarbeitung des Regelwerks ist für einen nachhaltigen Erfolg von entscheidender Bedeutung. Selbstverständlich fließen auch bei einem vollständigen Relaunch der Website die Learnings aus dem Regelwerk in die neue Gestaltung mit ein. So lässt sich die Website an ein zeitgemäßes Design anpassen, während ein bislang erfolgreiches Grundprinzip erhalten bleibt. Der Relaunch kann dabei als ein Testlauf mit sehr großem Umfang betrachtet werden. Zeigt sich nach einem Relaunch eine Verschlechterung der Konversionen oder der gesamten Performance, sollte darüber nachgedacht werden, den Wechsel rückgängig zu machen und auf die bisherige Version zurückzuschalten, denn für das übergeordnete Ziel der Aktivitäten – die Optimierung der Website – wäre ein solcher Rückschlag nur schwer wieder aufzuholen. Zum kontinuierlichen Verbesserungsprozess gehört gleichermaßen eine kontinuierliche Erfolgskontrolle. Das Optimierungsverfahren und der dafür notwendige Aufwand müssen ebenso kritisch überprüft werden wie alle anderen Investitionen in Zusammenhang mit der Website. Wird dabei festgestellt, dass die Testaufwendungen sich nicht ausgezahlt haben, sollte man das Verfahren nicht in gleicher Weise fortführen. Stattdessen muss es überprüft und angepasst werden. Wurden nach mehreren Optimierungsphasen bereits alle geschäftsrelevanten Seitenbereiche bearbeitet, gerät man irgendwann an einen Punkt, an dem sinnvolle Testszenarien nicht mehr offensichtlich sind – denn es wurde ja bereits alles getestet und optimiert, was auf der Seite vorhanden ist. An diesem Punkt stellt sich die Frage, ob es bislang nicht genutzte Elemente gibt, die eine weitere Optimierung bewirken könnten. Selbst wenn bereits entscheidende Verbesserungen zu verzeichnen sind, ist fast immer noch ungenutztes Potenzial vorhanden. Das Aufspüren dieser Elemente stellt die fortgeschrittene Optimierungsphase dar. Der Optimierungsprozess sollte unter neuen Bedingungen erneut angestoßen werden. Behavioral und Predictive Behavioral Targeting sind effektive Formen der Vermarktung. Die Lösungen werden von den Vermarktern großer Werbenetzwerke sowie von verschiedenen Agenturnetzwerken angeboten. Der in der Regel höhere CPC wird durch die deutlich höhere Konversion in der Regel wettgemacht. Die MVT-Tools sind heute probate Mittel der Website-Optimierung. Die zusätzlichen TargetingFunktionen werden immer weiter ausgebaut und ermöglichen weitere zielgerechte Ansprachen von Besuchersegmenten. Die Tools werden in unterschiedlichen Preis- und Leistungsklassen angeboten, so dass es eigentlich keine Ausrede mehr geben sollte, nicht zu testen.
167
8 Die Grundlagen von Testing und Targeting
168
9 9 Technische Methoden Testing und Targeting Nachdem wir uns in Kapitel 8 mit den Grundlagen und den Begrifflichkeiten des Testing und Targetings befassten, folgt nun ein Überblick über die unterschiedlichen technischen Verfahren. Wie bereits ausgeführt, sind die grundlegenden Ideen nicht neu und gehen auf die Prinzipien der Personalisierung aus den späten 1990er-Jahren zurück. Entsprechend sind die verschiedenen technischen Implementierungen diesen frühen Ansätzen sehr ähnlich.
9.1
Testing, Targeting und Cookie-Akzeptanz Eine Voraussetzung für Testing und Targeting ist das Wiedererkennen von Besuchern einer Website. Fehlt diese Möglichkeit, ist eine gezielte Ansprache oder auch nur das Ausprobieren von Inhalten nicht möglich. Kurz gesagt: Testing und Targeting funktionieren generell nur mit Cookies. Einen Sonderfall stellen Portale mit Login dar. Hat sich ein Anwender auf einem solchen Portal mit seiner Kennung und seinem Passwort angemeldet, kann prinzipiell auf persistente Cookies verzichtet werden und gegebenenfalls, je nach Art der Implementierung, auch auf Session Cookies. Hier handelt es sich aber um eine Ausnahme. In der überwiegenden Zahl der Fälle wird man nicht umhinkommen, Cookies für den Test oder das Targeting zu setzen. Dabei ist zu unterscheiden zwischen sogenannten First Party und Third Party Cookies. Die Begriffe sind jedoch nicht eindeutig, je nach Blickwinkel des Analytikers ist ein Cookie entweder First oder Third Party. Halten wir deshalb fest: In diesem Kapitel betrachten wir Cookies immer ausgehend von der ZielWebsite. First Party Cookie: Der Cookie wird auf derselben Domäne gesetzt, auf der auch die Ziel-Website läuft. Third Party Cookie: Der Cookie wird auf einer anderen, fremden Domäne gesetzt, über die zum Beispiel Inhalte ausgeliefert werden. Dies ist das übliche Verfahren bei ausgelieferter Online-Werbung.
169
9 Technische Methoden Testing und Targeting 1st Party Cookie P a ge R e qu est
Client PC
Web Server
Web
oo P a g e , 1 s t Pa r t y C
ki e
3rd Party Cookie P a g e R eq ue st
Web Server Client PC
Web Page
3rd Party 3 r d Pa r t y C o o k i e
Abbildung 9.1 First Party und Third Party Cookies im Vergleich
Abbildung 9.1 veranschaulicht den Unterschied zwischen diesen beiden Cookie-Typen. Die Unterscheidung ist wichtig, da die Besucherakzeptanz von Cookies für den Test von entscheidender Rolle ist. Allgemein werden First Party Cookies häufiger akzeptiert als Third Party Cookies. Wie in Abbildung 9.2 zu sehen, ist der langfristige Verlauf der Akzeptanz von Third Party Cookies, die für das Retargeting notwendig sind, weitestgehend konstant und liegt bei rund 92% im deutschsprachigen Raum. Die Tendenz ist derzeit sehr schwach fallend (ca. 1,5% pro Jahr absolut). Interessant ist in dem Zusammenhang auch die „Löschquote“: Wie häufig werden Cookies von den Anwendern gelöscht? Von den verbleibenden, die Cookies zunächst akzeptieren (wie jene rund 90% aus Abbildung 9.2), wird ein Anteil die Cookies regelmäßig löschen, sei es über den Browser oder über andere Hilfsprogramme. Eine Studie von [ComScore 2007] besagt, dass 30% der amerikanischen Internetnutzer wenigstens einmal im Monat ihre Cookies löschen. Generell ist davon auszugehen: Je größer der Betrachtungszeitraum, umso größer wird der Fehler aufgrund von Cookie-Löschungen sein. Verlässliche Zahlen über diese Quote gibt es leider kaum.
170
9.1 Testing, Targeting und Cookie-Akzeptanz 3rd Party Cookies Ja
Nein
100% 98% 96% 94% 92% 90% 88% 86%
Quartal 1 Quartal 2 Quartal 3 Quartal 4 Quartal 1 Quartal 2 Quartal 3 Quartal 4 2007
2008
Abbildung 9.2 Akzeptanz von Third Party Cookies nach Jahren, Quelle: [Webtrekk 2009]
Nebenbemerkung: Bei der Betrachtung von Statistiken über das Benutzerverhalten wie in Abbildung 9.2 sei angemerkt, dass das Verhalten der Anwender in USA und Europa und insbesondere Deutschland deutliche Unterschiede aufweist, was die technische Akzeptanz und Ausstattung anbelangt: Während in den USA zum Beispiel der Internet Explorer nach wie vor rund 90% Marktanteil hat, sind in Deutschland die Mozilla-basierten Browser (Firefox u.a.) mit einem Anteil von über 40% sehr stark vertreten. Im Zuge der Datenschutzdiskussion ist auch die Cookie-Akzeptanz in Deutschland niedriger als in den USA. Dies sollte man im Hinterkopf behalten, wenn – insbesondere amerikanische – Softwareanbieter im Bereich Testing und Targeting Statistiken über die Zuverlässigkeit ihrer Systeme präsentieren. Meistens beruhen diese Statistiken auf Umfragen im amerikanischen Markt und sind nur bedingt auf deutsche Verhältnisse übertragbar. Abbildung 9.2 stammt vom deutschen Hersteller Webtrekk, der regelmäßig Studien über die technische Ausstattung der deutschen Internetbesucher herausgibt. Sie zeigt die Akzeptanz der Cookies über alle Internetanwender gesamt. Tatsächlich ist in verschiedenen Segmenten die Akzeptanz stark unterschiedlich. Allgemein kann gesagt werden: Je technikaffiner eine Website ist, desto geringer ist die Cookie-Akzeptanz. Und je mehr sich die demoskopische Verteilung der Anwender dem der normalen Bevölkerung nähert, umso höher ist sie. Praktisch: Technik-affine Portale wie jene des Heise Verlags (www.heise.de) haben ein deutlich größeres Wiedererkennungsproblem bezüglich ihrer Besucher als Websites, die von allen Bevölkerungsschichten besucht werden, zum Beispiel die Portale von web.de oder gmx.de. Dies ist ein Umstand, der zu einer Verschiebung der Ergebnisse in Umfragen führen kann – wie bei W3B von Fittkau&Maß (www.w3b.de), weil hier überwiegend „Internet Insider“ angesprochen werden, bei denen die Cookie-Akzeptanz tendenziell niedriger ist als bei „normal verteilten“ Umfragen.
171
9 Technische Methoden Testing und Targeting Warum ist das so wichtig, und warum wird die Cookie-Akzeptanz beim Thema Testing und Targeting vertieft, nicht aber in den Kapiteln über Web Analytics? Während bei der Messung des Besucherverhaltens auf Websites eine „Wiedererkennungsquote“ von über 90% der Anwender lediglich Auswirkungen auf die Statistik hat (aber keine Rückwirkungen auf die Website), ist das bei Testing und Targeting grundlegend anders. Eine Wiedererkennungsquote von 90% bedeutet: 10% meiner Besucher im Testumfeld bekommen entweder ein inkonsistentes Bild meiner Website oder schlicht die falsche Ansprache angezeigt. Wenn von den verbleibenden 90% tatsächlich rund 30% ihre Cookies innerhalb eines Monats löschen und der Test über zwei Wochen läuft, erhöht sich der Gesamtfehler innerhalb dieses Zeitraums auf 24%. Läuft der Test über vier Wochen, liegt die Fehlerquote bei rund 37%. Dies sind nur Rechenbeispiele, und wir behaupten hier nicht, dass 30% der Besucher ihre Cookies löschen. Es sei noch einmal darauf verwiesen, dass bezüglich dieser Quote kaum verlässliche Daten vorliegen. Wir empfehlen deshalb, im Vorfeld eines Tests diese Quote immer sitespezifisch zu messen! Dies kann gravierende Auswirkung auf das Testergebnis und auf die Konversionsrate haben, wenn ausgerechnet in diesem Teil der Anwender meine Hauptzielgruppe liegen sollte. Wichtig ist also während eines Tests oder beim Targeting, parallel immer eine valide Messung der Cookie-Akzeptanz „mitlaufen“ zu lassen. Fatalerweise ist uns kein Testing-undTargeting-System bekannt, das eine solche Statistik von sich aus produziert. Meistens muss dies über zusätzliche oder integrierte Web-Analytics-Systeme getrennt erfasst werden (was die Sache nicht präziser macht). Denn die Cookie-Akzeptanz muss jeweils getrennt für die einzelnen Rezepte eines Tests dargestellt werden, um zu entscheiden, ob zum Beispiel ein bestimmtes Rezept aus dem Test genommen wird, bevor einem die Konversionsrate einbricht oder die Probanden abhanden kommen.
! 9.2
Die Quote der Cookie-Akzeptanz ist für Testing und Targeting von großer Bedeutung. Sie sollte vor Beginn einer Maßnahme für die eigene Website bekannt sein, da allgemeine Studien als Grundlage nicht ausreichend sind und für Third und First Party Cookies getrennt beobachtet werden können. Die Quote muss während einer Maßnahme ständig – parallel – beobachtet werden.
Content-Auslieferung Wie in Kapitel 8 in Abbildung 8.3 und 8.4 dargestellt, gibt es verschiedene Ansätze der Content-Zulieferung für Testing- und Targeting-Maßnahmen. Im Folgenden stellen wir die technischen Abläufe detailliert dar. Grundsätzlich gibt es verschiedene technische Ansätze, um Inhalte auf Webseiten aus „Einzelteilen“ zusammenzusetzen. Sofern man Betreiber einer Website ist, wird man in der Regel auf die Funktionalitäten eines Content-Management-Systems zurückgreifen. Dieses wird die einzelnen Komponenten serverseitig zu einer HTML-Seite „zusammengießen“ und diese als monolithisches Objekt ausliefern. Beim Testing geht es nun darum, einzelne
172
9.2 Content-Auslieferung Elemente in Abhängigkeit von verschiedenen Faktoren unterschiedlich zu kombinieren. Grundsätzlich kann dies ebenfalls zunächst serverseitig geschehen, so dass dem Anwender immer eine konsistente, monolithische HTML-Seite geliefert wird, die serverseitig „komponiert“ wurde. Diese Vorgehensweise erzwingt, dass die gesamte Logik des Testings ebenfalls im Webserver abläuft und in das CMS integriert ist. Naheliegend wäre demzufolge, dass CMS-Anbieter ihre Systeme um Komponenten des Testing und Targetings (oder Personalisierung) erweitern. Leider ist dies aber nicht der Fall: Die am Markt erhältlichen kostenpflichtigen Produkte oder auch Open-Source-Systeme wie Typo3 und Drupal verfügen nicht in ausreichendem Funktionsumfang über Testing- oder Targeting-Funktionalitäten. Man ist daher auf getrennte Lösungen angewiesen. Die meisten dieser Lösungen werden im ASP beziehungsweise SaaS lizenziert und von den Herstellern gehostet und betrieben. Der Austausch der Website-Inhalte erfolgt daher bei den meisten Lösungen clientseitig (siehe Abbildung 8.3). Das Prinzip entspricht dem der clientseitigen Content-Syndizierung. Auch hierfür gibt es sehr unterschiedliche Ansätze, die alle auf dem dynamischen Austausch der Inhalte mittels JavaScript im Browser des Anwenders basieren: I-Framebasierte Lösungen und DOM-basierte Lösungen. Darüber hinaus findet man Lösungen am Markt, die mit einem sogenannten „ProxyServer“ arbeiten. Vor den eigentlichen Webserver wird ein Proxy- oder Stellvertretersystem vorgeschaltet, das die Rolle des eigentlichen Webservers übernimmt. Die Inhalte werden „an Stelle des Client“ vom ursprünglichen Webserver abgeholt und danach an den Client ausgeliefert. Lösungen dieser Art sind heute aus einem anderen Grund im Einsatz, um zum Beispiel Inhalte weltweit lokal und damit nah am Besucher und performant anbieten zu können. Den Proxy-Server kann man für die Zwecke des Testings und Targetings „mitbenutzen“, um auf diesem Wege Teile des Inhalts innerhalb einer Website auszutauschen und zum Beispiel durch personalisierte Inhalte oder Testrezepte zu ersetzen. Diese Lösungen erfordern neben der entsprechenden Anpassung innerhalb der Website Modifikationen der Hardware- und Netzwerk-Infrastruktur. Dieser Aufwand ist nur dann sinnvoll, wenn solche Systeme in einem Website-Verbund aus den genannten Gründen bereits im Einsatz sind. I-Frame-basierte Lösungen Die simpelste Art der Implementierung ist sicherlich, innerhalb der Seite an der Stelle, an der der Inhalt ausgetauscht werden soll, einen I-Frame zu erstellen, in den dann die externen Elemente geladen werden. Die Lösung hat jedoch erhebliche Nachteile: Suchmaschinen „verfolgen“ die Inhalte in den I-Frames nicht, was zu einer Abwertung führen kann. I-Frames lassen sich vom Anwender aus dem Kontext herauslösen, was zu inkonsistenten und ungewollten Darstellungen führen kann. Die Layout-Kontrolle der I-Frame-Inhalte ist eine zusätzliche technische Herausforderung, da nicht automatisch das Layout der Website übernommen wird. Vom Einsatz I-Frame-basierter Lösungen ist dringend abzuraten. Sie werden hier nur aus genau diesem Grund erwähnt.
173
9 Technische Methoden Testing und Targeting DOM-basierte Lösungen Intelligenter und mit weniger Nebeneffekten, aber auch technisch komplexer sind Verfahren, die dynamisch Elemente des sogenannten DOM-Trees eines HTML-Dokuments im Browser des Anwenders austauschen. Das Document Object Model (DOM) ist eine hierarchische Struktur aller Elemente einer HTML-Seite mit den jeweiligen Typen, Benennungen und Inhalten, ähnlich der Kapitelstruktur in einem Buch. Es ist möglich, programmatisch ein bestimmtes Element innerhalb dieser Struktur zu identifizieren und alle Eigenschaften und sichtbaren Inhalte dieses Elements zu verändern. Diese Eigenschaft moderner Browser wird für Testing verwendet, um den Inhaltsschnipsel eines Testrezepts an der richtigen Stelle einer Website zu platzieren. DOM-basierte Lösungen bieten sich für die Zulieferung des Contents von dritter Seite an und sind heute üblicher Standard im Testing. Voraussetzung ist, dass die HTML-Seiten validiertes HTML oder XHTML enthalten und dem DOM-Standard des W3C entsprechen, also „wohlgeformtes“ HTML enthalten. Leider ist das nicht immer der Fall – und eine der Hauptursachen für technisches Versagen bei der Content-Auslieferung. Vor dem Einsatz einer solchen Lösung ist also zu überprüfen, ob der ausgelieferte HTML-Code technisch einwandfrei ist und die Standards erfüllt. Dies kann schnell mit Hilfe des Validators des W3C durchgeführt werden (siehe Abbildung 9.3).
Abbildung 9.3 Der W3C HTML-Validator (http://validator.w3.org)
174
9.2 Content-Auslieferung Integration mit Content-Management-System (CMS) Eine vielfach von Kunden gestellte Anforderung betrifft die Integration des TestingSystems mit dem hauseigenen CMS. Aus unserer Sicht ist diese zunächst naheliegende Forderung zu kurz gedacht und eine Integration nicht wirklich nötig oder sogar kontraproduktiv. Die Anforderung wird meist gestellt, weil die auf der Website präsentierten Inhalte aus den Fachabteilungen direkt gepflegt und über Freigabeprozesse innerhalb des Unternehmens veröffentlicht werden. Der Gedanke liegt nahe, die einzelnen Rezepte ebenfalls über diese Prozesskette zu leiten und somit der Fachabteilung die Möglichkeit zu eröffnen, Inhalte in das Testing-System „einzusteuern“. Der letzte Punkt ist aber entscheidend dafür, was genau gegen eine solche Vorgehensweise spricht. In Kapitel 10 beschreiben wir die Testdurchführung, doch vorab sei schon so viel verraten: Einmal gestartet, müssen Tests absolut stabile Inhalte präsentieren. Die Inhalte der Rezepte müssen sozusagen „eingefroren“ werden. Der Test wäre völlig verfälscht, könnte man während der Testlaufzeit Inhalte über ein CMS modifizieren oder neue Inhalte einbringen, und das Testergebnis automatisch unbrauchbar. Die Integration in das CMS müsste also gleichzeitig mit der administrativen Einstellung einhergehen, dass die „integrierten“ Rezepte von niemandem mehr geändert werden dürfen (was moderne CMS ermöglichen). Dann kann man sich jedoch diese Integration schenken, weil es nichts mehr zu tun gibt für das CMS – außer, diese Unveränderbarkeit zu überwachen. Es ist einfacher, die Inhalte erst auf dem Testing-System vorzuhalten und anschließend gegebenenfalls den Testsieger zu übernehmen, obwohl auch das Gefahren birgt: Was tun, wenn der Testsieger nach Übernahme ins CMS „optimiert“ wird und anschließend dem Testverlierer ähnelt? Ein weiterer Punkt, der gegen eine CMS-Integration spricht, ist die Testzielsetzung: Es geht ja nicht darum, herauszufinden, ob die Beschreibung für Produkt A oder B mehr Besucher anzieht. Ein Unternehmen wird sicherlich anstreben, möglichst viele seiner Produkte auf seiner Website zu beschreiben, und für die Pflege ist ein CMS sehr hilfreich. Ein Test kann aber herausfinden, in welcher Form dies geschieht und wie die Texte und Grafiken gestaltet sein müssen, um Besucher zum Verweilen anzuregen. Ein Test wird also verschiedene Beschreibungsformen ein und desselben Produkts gegeneinander testen. Die optimale Darstellungsform kann man anschließend im CMS als Vorlagen- und Navigationsstrukturen für alle Produkte vorgeben und so einen Standard definieren. Im Verlauf des Tests aber erst das ganze CMS „umzuprogrammieren“, um von einem Produkt mehrere Ansichten über mehrere Vorlagen etc. präsentieren zu können, ohne zu wissen, welche davon sich durchsetzt, ist ein vermeidbarer Zusatzaufwand ohne wirklichen Nutzen.
!
Eine Integration des Testing-Systems in das hauseigene CMS ist nicht hilfreich und kann Testergebnisse sogar verfälschen oder unbrauchbar machen. Die Übernahme der Ergebnisse des Tests in die Vorlagen und Strukturen des CMS ist dagegen der abschließende Schritt. Dieser Schritt kann aber auch ohne technische Integration der beiden Systeme erfolgen.
175
9 Technische Methoden Testing und Targeting
9.3
Content-Integration Wie werden nun die konkreten Inhalte eines bestimmten Rezepts in der Webseite eingespielt und dargestellt? Basierend auf dem in Kapitel 9.2 dargestellten Document Object Model gibt es auch hier verschiedene technische Ansätze. Die meisten Systeme für Testing und Targeting bieten neben Möglichkeiten der Pflege der Content-Schnipsel über WYSIWYG-Editoren zudem Funktionen zur Speicherung, Versionierung und Archivierung dieser Inhalte in einem Content Repository an, wie die Beispiele in Abbildung 9.4 und 9.5 zeigen.
Abbildung 9.4 Beispiel für ein Content Repository (Vertster)
Abbildung 9.5 Beispiel für einen integrierten WYSIWYG-Editor (Vertster)
176
9.3 Content-Integration Aus diesem Repository heraus müssen die identifizierten Inhalte eines Rezepts zunächst zum Browser des Anwenders transportiert werden, um dort in den DOM-Tree der zu testenden Seite „eingebaut“ zu werden. Ohne zu tief in die Technik abzugleiten, seien der Vollständigkeit halber folgende Lösungsansätze erwähnt. Die beiden Verfahren haben lediglich technische Vor- und Nachteile, die sich in der praktischen Anwendung nicht weiter bemerkbar machen: Auslieferung von serverseitig generiertem JavaScript: Serverseitig wird ein spezielles JavaScript ausgeliefert, das den Content als „String-Variable“ enthält und entsprechende Programmfunktionen, ihn an der richtigen Stelle in der Webseite einzubauen. Auslieferung von statischem JavaScript und AJAX-Request: Alle Besucher bekommen immer das gleiche statische Script ausgeliefert, das dann im zweiten Schritt über AJAX-Technologie den personalisierten oder zu testenden Inhalt als XML-Struktur vom Server liest. Beide Verfahren können auch nicht den „Flackereffekt“ verhindern, der bei Verwendung des DOM-Ansatzes zwangsläufig auftaucht: Es muss zunächst die vollständige HTMLSeite im Browser geladen sein, bevor die Inhalte für ein Rezept angezeigt werden. Also gibt es einen kurzen Moment zwischen dem vollständigen Laden und dem Austausch des Inhalts, in dem der initial mit der Seite ausgelieferte Inhalt des entsprechenden DOMElements angezeigt wird: Die Stelle, an der ein Rezept angezeigt werden soll, „flackert“ kurz. Die Dauer des Effekts ist abhängig von der Rechenleistung des Anwender-PCs und dessen Internetanbindung – und damit außerhalb des Einflussbereichs des Site-Betreibers. Man kennt diesen Effekt von Online-Werbung auf Portalen, bei denen die Werbung (zum Beispiel innerhalb eines redaktionellen Artikels) erst nach dessen vollständigem Laden auf eine zunächst weiße Fläche aufgeladen wird. Um den Effekt zu mildern, ist es empfehlenswert, die Zielfläche in der Seite mit fest vorgegebenen Dimensionen festzulegen, um ein „Springen“ der anderen Inhalte zu vermeiden. Technische Integration Anders als bei der Web Analytics gestaltet sich die technische Integration in die Website unproblematisch und einfach. Der Unterschied liegt im Wesentlichen im Umfang der betroffenen Websites und in den von allen Anwendern bereitgestellten JavaScript-Bibliotheken. Um die Konversion einer Landing Page zu optimieren, ist es nur erforderlich, zwei Seiten mit den vom Hersteller bereitgestellten Scripts und Routinen zu instrumentieren: Die Landing Page selbst und die Seite, auf der die Konversion abgeschlossen wird (in einem Shop zum Beispiel die Bestellbestätigungsseite). Bei einer Reihe von Tools besteht auch die Möglichkeit, Zwischenschritte zu erfassen oder die Auslieferungslogik über Scripts in der Seite zu optimieren. Diese zusätzlichen Programmierarbeiten schlagen in der Berechnung des Gesamtaufwands kaum zu Buche, da es sich immer wieder um dieselben Seiten handelt und das Ändern einiger weniger Programmzeilen kaum ins Gewicht fallen.
177
9 Technische Methoden Testing und Targeting Generell gelten auch für ein Testing-und-Targeting-Projekt die Grundregeln eines strukturierten Projektmanagements, und wir empfehlen Ihnen, den Hinweisen in Kapitel 12 über die Durchführung der Integration zu folgen.
9.4
Anmerkungen zur Suchmaschinen-Optimierung (SEO) Intensiv diskutiert wird die Frage, ob der dynamische Austausch von Inhalten innerhalb einer Webseite allgemein zu einer Veränderung des Page Ranks und der Link-Qualität der Seite in den Suchmaschinen – vornehmlich Google – führt. Es gibt eine Reihe von Fakten, die tatsächlich gegen einen solchen Einfluss sprechen und darüber hinaus Maßnahmen, die eine Konstanz des Suchmaschinen-Rankings sicherstellen. So arbeitet der Google-Website-Optimizer selbst nach den geschilderten Prinzipien des Austauschs von DOM-Elementen. Google gibt dazu in seinen Blogs keinerlei Informationen oder Hinweise. Der Page-Rank-Algorithmus in seiner patentierten Urform enthält ebenfalls keinen Bezug auf die „Austauschgeschwindigkeit“ von Inhalten auf einer Webseite. Der Austausch wird durch JavaScript-Routinen im Browser vorgenommen Wenn diese Routinen nicht ausgeführt werden, wie dies bei normalen Suchmaschinen-Crawlern der Fall ist, „sehen“ diese Crawler den statischen Inhalt des jeweiligen DOM-Elements vor Austausch der optimierten Inhalte. Dazu mehr im Verlauf dieses Abschnitts. Mitunter werden von Google Seiten vollständig abgerufen und die darin enthaltenen Javascripts tatsächlich ausgeführt. Dies dient hauptsächlich dem Zweck, sogenanntes Cloaking und Spoofing zu erkennen. Bei Cloaking bzw. Spoofing geht es im Wesentlichen darum, den Crawlern andere Inhalte „vorzutäuschen“ als menschlichen Betrachtern. Werden nur Teile der Seite ausgetauscht, ist dies weder Cloaking noch Spoofing. Anders wäre nicht zu erklären, warum ausgerechnet Seiten mit sehr viel Werbung teilweise sehr hohe PageRanks von 9 oder 10 erreichen könnten. Werbung wird nach den selben technischen Prinzipien auf den Webseiten angezeigt wie Testing-Rezepte und nimmt deutlich mehr als 30 oder 40% mancher Seiteninhalte ein. Um ein Absinken der Link-Qualität und des Rankings zu verhindern, ist allerdings eine Maßnahme notwendig, die wir oben bereits kurz erwähnten und die auch Google empfiehlt: An der Stelle, an der die Inhalte dynamisch getauscht werden sollen, muss ein sinnhafter und passender „Default Content“ stehen, den auch der Anwender zu sehen bekommt, der JavaScript abgeschaltet hat, oder wenn der ausliefernde Testing-Server nicht verfügbar ist. Dieser Default Content ist auch der Inhalt, den der Crawler der Suchmaschine indizieren wird. Es ist also wichtig, keine weiße Fläche anzuzeigen, sondern einen statischen Inhalt, der an dieser Stelle „normalerweise“ stehen würde. Diese Vorgehensweise empfiehlt sich auch aus Gründen der Testsystematik, um ein Vergleichsnormal zu bilden, anhand dessen die zu testenden Rezepte bewertet werden. Dazu mehr in Kapitel 10.
178
9.5 Integration mit dem Web-Analytics-Tool
9.5
Integration mit dem Web-Analytics-Tool Die meisten Testing-und-Targeting-Tools sind eigenständige Softwaresysteme und verfügen als solche über Schnittstellen zur Anbindung von Fremdsystemen. Zu ihm zählen in der Regel auch Web-Analytics-Tools, die parallel auf einer Site integriert sind. Eine Reihe von Analytics-Tools-Anbietern versprechen „integrierte Testing-und-Targeting-Systeme“ im Produktportfolio. Allerdings empfiehlt sich hier, genauer hinzusehen. Insbesondere die amerikanischen Softwarehersteller haben in den vergangenen Jahren vermehrt Zukäufe von Testing-Systemen getätigt, und es ist in jedem Fall zu hinterfragen, inwieweit die Integration dieser ehemals fremden Systeme vorangeschritten ist. Bei einigen Anbietern wie Omniture ist es bisher nicht gelungen, die Systeme auf ein einheitliches Benutzer-Login umzustellen; sie haben zwei Logins: eins für das Web-Analytics-Tool und eins für das Testing-System. Man braucht nun nicht mehr danach zu fragen, wie weit es mit der Integration der Datenbestände gediehen ist – es gibt sie nicht. Außerdem verfügen die eigenständigen Testing-Systeme nur über einen begrenzten Datenumfang für eine Analyse und über wenig Messfunktionalität. Möchte man tiefere Analysen betreiben, als es das Testing-System anbietet, müssen Informationen zwischen den Systemen ausgetauscht werden. Geht man von der Annahme aus, dass eine durchgängige und validierte Web-AnalyticsLösung existiert und darin alle wesentlichen Messgrößen erfasst werden, die auch als Kriterien zur Bewertung der Effizienz von zu testenden Rezepten dienen, ist eine clientseitige Integration relativ simpel durchführbar. Man muss lediglich die Bezeichnung oder den Namen des tatsächlich an einen Benutzer ausgelieferten Rezepts an das Web-AnalyticsTool übergeben und in der Messung erfassen. Die so erhobenen Daten lassen sich dann in entsprechenden Segmentierungen zur Analyse aufbereiten.
!
Integrierte Systeme haben nur dann einen entscheidenden Vorteil, wenn sowohl Tagging als auch Datenbestand integriert sind, kein zusätzlicher Tagging-Aufwand entsteht und zudem der bereits angesammelte Datenbestand für die Steuerung des Tests verwendet werden kann. In allen anderen Fällen ist eine Integration clientseitig erforderlich, bei der das Testing-System Informationen an das Analytics-System zur Analyse und Bewertung abgibt.
179
9 Technische Methoden Testing und Targeting
180
10 10 Durchführung von Testing und Targeting Obwohl Testing und Targeting immer in einem Atemzug genannt werden, handelt es sich um verschiedene Konzepte einer technischen Möglichkeit, wie wir in Kapitel 8 und 9 darlegten. Dies müssen Sie bei der Planung und Durchführung berücksichtigen. Beim Testing geht es um ein Experiment, in dem zum Beispiel das neue Layout einer Seite ausprobiert oder die beste Landing Page für eine SEM-Kampagne gefunden wird. Es hat somit eine Planungsphase, eine Testphase und einen Abschluss. Anders beim Targeting, das als Bestandteil der Website-Funktionalität anzusehen ist und langfristig betrieben wird. Nach Planung und Einführung erfolgen ein kontinuierlicher Betrieb der technischen Lösung sowie eine Überwachung der fachlichen Parameter. Getrennt für die Bereiche Testing und Targeting beschreiben wir in den folgenden Abschnitten die einzelnen Projektphasen.
10.1
Testing Die Durchführung eines Website-Tests ist ein einmaliges Vorhaben mit einer klar definierten Aufgabenstellung, einem Beginn- und Endzeitpunkt und festgelegten Ressourcen. Er erfüllt demnach die Bedingungen einer Projektdefinition (wie in Kapitel 12 beschrieben). Man kann natürlich beliebig viele Tests nacheinander durchführen, aber auf jeden einzelnen trifft das zuvor Genannte zu. Aus diesem Grund werden wir die einzelnen Phasen eines solchen Projekts beleuchten.
10.1.1 Planung In der Planung eines Testing-Experiments muss man auf die folgenden Fragen Antworten nachvollziehbar festlegen:
181
10 Durchführung von Testing und Targeting Was ist die Zielsetzung des Tests? Bei den meisten Tests geht es um Varianten von Layouts und Texten. Zielsetzung ist aber nicht, „die schönste Webseite“ oder „die schönste Landing Page“ zu finden, sondern jene Variante ausfindig zu machen, die unter bestimmten Voraussetzungen und im Hinblick auf eine bestimmte Kennzahl die optimale ist. Daher ist die Frage nach der Zielsetzung auch eine Frage nach der kritischen Messgröße oder dem entscheidenden KPI, anhand deren die einzelnen, noch festzulegenden Testvarianten gemessen werden. Dazu ein Beispiel, das wir im weiteren Verlauf des Kapitels ausbauen werden: In einem Kleinanzeigenportal, in dem hochpreisige Gebrauchtgegenstände von Endverbrauchern an Endverbraucher verkauft werden, soll die optimale Form der Registrierungsseite gefunden werden. Um Kleinanzeigen schalten zu können, müssen sich die Anwender auf diesem Portal registrieren. Zielsetzung ist, im ersten Schritt möglichst viele Registrierungen zu erhalten und im zweiten Schritt möglichst viele kostenpflichtige Anzeigenschaltungen. Das Kriterium, an dem die Registrierungsseite gemessen wird, ist also die Anzahl erfolgreicher Registrierungen im Verhältnis zur Anzahl der Besucher, die die Website besuchen, ohne bereits registriert zu sein. In dem Nebensatz „ohne bereits registriert zu sein“ liegt einiges an Brisanz: es müssen zweifelsfrei registrierte von nicht registrierten Anwendern unterschieden werden können, und zwar schon bevor sich zum Beispiel ein registrierter Anwender mit seiner Kennung anmeldet. Sonst wird das Ergebnis (der Quotient aus Besuchern zu erhaltenen Registrierungen) verfälscht und somit unbrauchbar. Den meisten Traffic erhält das Portal über Suchmaschinen, und zwar sowohl über kostenpflichtige Einträge als auch über natürliche Suchergebnisse. Eine Zielvorgabe für den Test besteht darin, nur jene Besucher zu betrachten, die über bezahlte Suchmaschineneinträge zum Portal gefunden haben. Dahinter steht die Anforderung, entweder die Kosten für SEMMaßnahmen zu optimieren oder die „Ausbeute“ in Form von Registrierungen drastisch zu erhöhen.
!
Damit liegt für das genannte Beispiel die Zielsetzung fest: es soll eine Form der Registrierungsseite gefunden werden, die bei nicht registrierten Besuchern, die über den Kanal Suchmaschinenwerbung zur Website gelangen, die Konversion im Sinne erfolgreicher Registrierungen erhöht. Die Zielsetzung einer Testing-Maßnahme muss so präzise wie möglich formuliert sein – unter Nennung der Kenngröße, mit der die Testergebnisse bewertet werden sollen – und mit einer umfassenden Definition der zu testenden Besucherzielgruppe festgelegt werden.
Optimal ist es, neben der eigentlichen Zielsetzung auch eine zu überprüfende Hypothese für den Test aufzustellen. Im genannten Beispiel könnte die Hypothese lauten: „Die Konversionsrate und damit die Anzahl der Registrierungen ist bei einer Registrierungsseite höher, wenn diese die Suchbegriffe aus der Suchmaschine wiederholt und eine emotionale Ansprache des Besuchers beinhaltet.“ Diese Hypothese kann dann als Grundlage der zu analysierenden Testergebnisse dienen und überprüft werden.
182
10.1 Testing Welche Randbedingungen bestehen für den Test? In der Planungsphase (spätestens aber zu Beginn der Durchführung) muss der Wert, den die Bewertungskenngröße vor dem Test hat, ermittelt werden. Das hört sich banal an – wie will man sonst wissen, ob eine Verbesserung eingetreten ist? In Abhängigkeit von verschiedenen Parametern kann diese Kenngröße jedoch Schwankungen unterliegen, die bereits vor Beginn des Tests zu berücksichtigen sind: Haben Feiertage oder Ferienzeiten während des Testzeitraums Auswirkungen auf die Kenngröße? Wird die Kenngröße durch weitere, parallel stattfindende Marketingmaßnahmen beeinflusst? Haben wir während der Testphase übliche saisonale Schwankungen in der Kenngröße? Welchen weiteren möglichen anderen Einflussfaktoren unterliegt die gewählte Kenngröße? Diese Fragen können nur durch eine langfristige Datenbasis der entsprechenden Kenngröße sowie durch Kommunikation innerhalb des Unternehmens beantwortet werden. In einem unserer Projekte erlebten wir, wie das Produktmanagement einer Community-Website einen Test durchführte, während das Marketing zur gleichen Zeit eine umfassende Branding-Kampagne gestartet hatte. Die Ergebnisse des Tests waren wegen der parallel durchgeführten Maßnahme unbrauchbar. Der Test musste ein zweites Mal gestartet werden. Das war zum Glück möglich, denn leider ist nicht jeder Test beliebig oft und in beliebig kurzer Zeit wiederholbar. Wie lange dauert die korrekte Laufzeit des Tests? Gerade diese Frage wird tendenziell gerne anhand von Kosten und „Bauchgefühl“ beantwortet. Dabei gibt es kaum eine Frage, die sich mit ein wenig Arithmetik präziser beantworten lässt. Dazu muss man allerdings seine eigene Website und das Verhalten der Anwender ein wenig kennen. Für die Berechnung der Mindestlaufzeit muss als wesentliche Kennzahl die Zeitspanne ermittelt werden, die ein Anwender im Mittel von der ersten Berührung mit einem Werbemittel bis zur Konversion benötigt. Dieser sogenannte „Sales Cycle“ ist das „Maß aller Dinge“. Ein Test sollte das Dreifache dieser Zeitspanne dauern: 1. Phase 1: Die Einschwingphase – Beginn des Tests Besucher, die während dieser Phase auf die Website gelangen, werden im Mittel erst während der Haupttestphase eine Konversion tätigen, wie in Abbildung 10.1 zu sehen ist. Sie erhalten also ein inkonsistentes Bild der Website, würden diese Besucher nicht explizit vom Test ausgenommen. Alle Besucher, die in der Einschwingphase die Website besuchen, können daher nicht zur Bewertung herangezogen werden. 2. Phase 2: Der Auswertungszeitraum – der eigentliche Test Nach Ablauf des Sales-Cycle-Vorlaufs nehmen nur noch Probanden am Test teil, die während der Testlaufzeit ihren Erstkontakt hatten. Dies ist der eigentliche Beginn des Auswertungszeitraums.
183
10 Durchführung von Testing und Targeting 3. Phase 3: Die Ausklingphase Nach Beendigung von „Phase 2“ gibt es immer noch Probanden, die gegebenenfalls auf Grund eines Rezepts im Test „konvertieren“. Die Ausklingphase sollte also wieder genauso lange dauern wie die Einschwingphase, um diese Probanden noch in die Konversion einzubeziehen. Vielfach sind Testergebnisse nicht signifikant genug, weil Einschwing- und Ausklingphase vergessen werden oder der Test insgesamt ohne Berücksichtigung des Sales Cycle viel zu kurz veranschlagt wird. Abbildungen 10.1. und 10.2 veranschaulichen die Zeiträume. Abbildung 10.1 zeigt einen nicht optimal abgesteckten Testzeitraum: Hier wurden viele Teilnehmer aus einem Zeitraum deutlich vor Beginn des Tests akquiriert und sind für das Testergebnis somit nicht relevant. Jene Teilnehmer wiederum, die innerhalb des Testzeit-
Abbildung 10.1 Zu kurz gewählter Testzeitraum
Mittlerer Konversionszeitraum Mittlerer Konversionszeitraum Mittlerer Konversionszeitraum
Vorlaufphase Testbeginn
Auswertungszeitraum
Abklingphase
t Testende
Abbildung 10.2 Der passende Testzeitraum: Ideale Berücksichtigung der Vorlauf- und Ausklingphase
184
10.1 Testing raums akquiriert wurden, konvertieren erst wesentlich später und liegen daher außerhalb des Betrachtungs- und Auswertungszeitraums. Durch die Vermischung dieser beiden Benutzergruppen ist eine Auswertung fast unmöglich und eine Signifikanz des Testergebnisses nur schwer herstellbar. Demgegenüber zeigt Abbildung 10.2 die optimale Gestaltung der Testphasen. Manche Tools ermöglichen es, die Benutzergruppen durch „Markierung“ entsprechend voneinander zu trennen. Dies ist hilfreich, um den Testzeitraum zu verkürzen. Allerdings ist es notwendig, diese „Markierung“ dann auch in ein parallel laufendes Web-AnalyticsTool zu übernehmen, um dort gleichartige, vertiefende Auswertungen sicherzustellen. Sollte dies nicht möglich sein, sind sicherheitshalber der Testzeitraum und die drei Phasen entsprechend dem Beispiel in Abbildung 10.2 zu berechnen. Welche Rezepte wollen wir testen? Auch die Frage nach den zu testenden Varianten ist von entscheidender Bedeutung für das Testergebnis. Banal ausgedrückt: Unterscheiden sich die Varianten nicht signifikant voneinander, werden sich auch die Testergebnisse kaum voneinander unterscheiden. Im zuvor genannten Beispiel stellten wir die Hypothese auf, wonach eine emotionale Ansprache plus Wiederholung der vom Anwender verwendeten Suchbegriffe die Konversionsrate steigert. Es muss deshalb innerhalb des Tests mindestens ein Rezept geben, das knochentrocken und sachlich ist und in dem garantiert keine Suchbegriffe des Anwenders vorkommen (damit wäre sozusagen das eine Extrem abgebildet). Ihm werden ein oder mehrere Rezepte gegenübergestellt, die die oben genannte Hypothese stützen sollen. Sie enthalten demnach eine emotionale Ansprache zum Beispiel in Form eines Bildes und sprechen den Besucher mit Hilfe der wiederholten Suchbegriffe an. Wichtig und nicht zu vergessen ist, dass natürlich auch das Vergleichsnormal mit in den Test aufgenommen wird. Es ist ja nur begrenzt sinnvoll, mehrere Rezepte gegeneinander antreten zu lassen, ohne am Ende zu wissen, welches davon besser als der jetzige Zustand ist. Konsequenterweise wird man in einem Test des neuen Website-Designs nach einem Relaunch auch die „alte“ Website mitprüfen, um zu wissen, ob die Anwender nicht doch das alte Design besser finden. Exkurs: Bei Testverfahren nach dem „Bergsteiger-Algorithmus“, und um solche handelt es sich in der Regel bei Website-Tests, besteht die Gefahr, auf sogenannten lokalen Maxima oder Minima zu verharren. Dazu ein Beispiel: Nur mit einem Höhenmesser ausgestattet und ohne jegliche Rundum- oder Weitsicht ist es schwer, den höchsten Punkt einer Berggruppe zu finden. Sie könnten auf einem Seitengipfel angelangt sein und glauben: Weil von diesem Punkt ausgehend die Höhe in jeder Richtung abnimmt, muss dies der höchste Punkt sein. Wenn Sie aber das nebenan liegende Tal durchlaufen, würden Sie den Hauptgipfel finden. Mathematisch handelt es sich hierbei um eine globale nichtlineare Optimierung, für die es keine Lösung per se gibt, die mit vertretbaren Kosten realisierbar wäre. (Man könnte natürlich theoretisch alle erdenklichen Registrierungsseiten gegeneinander testen – um im Bergsteigerbild zu bleiben: Heerscharen von Bergsteigern in alle Richtun-
185
10 Durchführung von Testing und Targeting gen entsenden.) Es gibt verschiedene Näherungsalgorithmen, von denen der pragmatischste im Zusammenhang mit der hier gestellten Aufgabe der „Mutationsalgorithmus“ ist: Man verursacht bewusst extreme Sprünge (Mutationen), um von dort einen erneuten evolutionären Test zu starten. Übertragen auf das Website Testing bedeutet das: Es ist durchaus sinnvoll, extreme Varianten in einen Test mit aufzunehmen oder eine andere als die ursprüngliche Zielgruppe zu testen, um der Gefahr eines „lokalen Extrems“ (Maximum oder Minimum) vorzubeugen. Gänzlich verhindern kann man es jedoch nicht und je dichter die Varianten im Test beieinander liegen, umso größer ist die Gefahr.
10.1.2 Durchführung Nachdem die einzelnen Phasen des Tests, seine Zielsetzung und auch seine Dauer akribisch geplant und festgelegt wurden, bleibt für die eigentliche Durchführung nicht viel zu tun, außer einen wichtigen Umstand zu beachten, den man nicht deutlich genug herausstellen kann: Ab jetzt bitte nichts mehr verändern!
Sie mögen das für selbstverständlich halten, leider erleben wir in unseren Projekten immer wieder, dass genau diese einfache Regel am häufigsten missachtet wird. Zum Beispiel will jemand sofort Kampagne XYZ starten, die Produktbeschreibung ändern, eine neue Promotion auf der Startseite platzieren usw. Oder jemand ändert die Zielseiten für eine neue SEM-Kampagne und lenkt den gesamten Traffic am Test vorbei in eine ungetestete neue Landing Page einer anderen Agentur. Sie glauben, dass es so etwas nicht gibt? Seien Sie versichert, das passiert öfter, als einem lieb ist. Und leider ist dann der Test unwiderruflich „kaputt“.
!
Ist ein Test erst einmal gestartet, darf nichts – aber auch rein gar nichts – mehr am Test oder an seiner Umgebung modifiziert werden. Insbesondere darf keinerlei Maßnahme ergriffen werden, die irgendwie dazu beitragen kann, die Bewertungskenngröße selbst zu beeinflussen. Zu einem späteren Zeitpunkt und ohne vorherige Maßnahmen ist es nahezu unmöglich, diese Effekte aus den Testergebnissen wieder herauszurechnen!
Es gibt von dieser goldenen Regel eine einzige Ausnahme: Sollte eines der Rezepte zu exorbitant schlechten Ergebnissen führen, muss man dieses Rezept vorzeitig aus dem Test nehmen, bevor es keine Probanden mehr gibt. Sollte, um im Beispiel zu bleiben, die knochentrockene Variante der Registrierungsseite zu einer Verdreifachung der Abbruchquote führen, müssen Sie dieses Rezept vor Testende abschalten, da sonst wirtschaftlich nicht zu vertretender Schaden zu befürchten wäre! Wohlgemerkt: Die eine Testvariante bzw. das eine Rezept wird aus dem Test genommen, alle anderen laufen weiter. Es gibt natürlich den eher unwahrscheinlichen Fall, dass im Vergleich zur „normalen Seite“ (in unserem Beispiel also die existierende Registrierungsseite) alle getesteten Rezepte „Verlierer“ sind. Wurden alle anderen Empfehlungen eingehalten, und ein solches negatives Testergebnis zeichnet sich bereits frühzeitig und signi-
186
10.1 Testing fikant deutlich ab, muss der Test gestoppt werden. Aber auch ein solcher Test ist erfolgreich: Sie haben ein klares Ergebnis, wenn vielleicht auch nicht das gewünschte oder erwartete. Das Testziel, die Hypothese zu belegen oder zu widerlegen, wurde erreicht.
10.1.3 Abschluss Viele der am Markt befindlichen Systeme haben Funktionen wie „Push the Winner“ oder „Promote Best Performer“. Das ist gut gemeint und bei schlichten Tests sicher auch eine hilfreiche Funktion, um die beste Variante „mal eben schnell“ zum Standard zu deklarieren. Sie sollten jedoch keine allzu großen Erwartungen hegen, von derlei Funktionen allzu oft Gebrauch machen zu können: Meist unterscheiden sich die Testergebnisse nicht so klar voneinander, dass man den entsprechenden Knopf ohne Zögern anklicken könnte. Im Beispiel des Kleinanzeigenportals war nach etwa dreiwöchigem Test keine der getesteten Varianten klarer Sieger, obwohl eine signifikant hohe Zahl an Probanden (>10.000 Unique Visitors) durch den gesamten Test geschleift wurde und auch die Rezepte drastisch unterschiedliche Merkmale aufwiesen. Was war passiert? Die Frage konnten wir durch eine umfassende Analyse der Web-Analytics-Daten aus dem Testzeitraum beantworten. Es stellte sich heraus, dass die Motivation der Besucher, sich zu registrieren, wesentlich filigraner strukturiert war als angenommen. So gab es Abweichungen zwischen den Wochentagen – die Sieger während der Werktage waren die Verlierer am Wochenende und umgekehrt. Es gab Abweichungen in den Präferenzen der Geschlechter: Männer und Frauen sprachen auf unterschiedliche Rezepte unterschiedlich gut oder schlecht an. Die Effekte überlagerten sich, so dass undifferenzierte Betrachtungen des Gesamtzeitraums keine signifikante Präferenz für eines der getesteten Rezepte hervorbrachte. Im Ergebnis hat der Site-Betreiber seine Strategie auf die Wochentagabhängigkeit ausgerichtet und differenzierte Registrierungsseiten für Werktage und Wochenenden produziert. Die Geschlechtsabhängigkeit konnte nicht berücksichtigt werden, weil das Geschlecht ja erst nach der Registrierung bekannt ist. Das Anzeigen von Keywords aus der Suchmaschine, um den Anwender „abzuholen“, hatte im Übrigen keinerlei nennenswerte Auswirkungen, wohl aber die Form der emotionalen Ansprachen. Das Beispiel zeigt, dass einerseits nicht immer eindeutig klare Ergebnisse erwartet werden dürfen, andererseits aber eine tiefgehende Analyse der Testdaten unerwartete Rückschlüsse auf die eigene Zielgruppe liefern können.
!
Selbst offensichtlich klare Testergebnisse sollten unbedingt einer tiefgehenden Analyse anhand der durch das parallel laufende Web-Analytics-Tool eingesammelten Daten unterzogen werden. Dabei ist eine Hypothesenbildung vor und eine Überprüfung der Hypothese nach Abschluss des Tests hilfreich und ein guter Ausgangspunkt für die Analyse.
Das genannte Beispiel des Kleinanzeigenportals dient lediglich der Veranschaulichung. Die geschilderten Ergebnisse sind in keiner Weise auf andere Websites übertragbar, noch sind sie für andere Kleinanzeigenportale von praktischer Bedeutung. Vielmehr ist es ent-
187
10 Durchführung von Testing und Targeting scheidend, für die eigene Website und das eigene Geschäftsmodell Testszenarien zu entwickeln und Hypothesen aufzustellen, um mit Testing das Potenzial der eigenen Website weiter zu entwickeln. Eines der größten Hindernisse bei der Aufstellung radikaler Hypothesen ist im Übrigen die eigene Betriebsblindheit. Belastet mit der Kenntnis der eigenen Website, deren Vorteilen und Nachteilen, der Organisationsstruktur des eigenen Unternehmens und der eigenen Abteilung, dem Verharren in den eingefahrenen Prozessen und in den eigenen Verantwortlichkeitssträngen, ist es fast unmöglich, radikal und revolutionär zu denken. Im Bereich „Website Usability Testing“ hat sich der Begriff des „Mom Tests“ durchgesetzt. Weil Web-Designer fast nie ihre eigenen Fehler entdecken, bitten sie ihre Mutter, Großmutter oder ihren Vater, einfache Aufgaben auf der Website zu bewältigen, und schauen ihnen dabei über die Schulter. Beim Testing von Website-Varianten besteht die Gefahr, dass man nicht „abwegig“ genug denkt, die Varianten dem Original zu ähnlich sind oder sich kaum voneinander unterscheiden. In diesem Fall ist eine Moderation dieses Prozesses von außen, zum Beispiel durch geschulte Berater, hilfreich.
10.2
Targeting und Retargeting Targeting und Retargeting sind keine einmaligen Maßnahmen, die kurzzeitig auf einer Website durchgeführt werden, um Teilbereiche wie eine Landing Page oder einen Bestellprozess zu optimieren. Bei Targeting und auch Retargeting handelt es sich vielmehr um die kontinuierliche, gezielte Ansprache von wiederkehrenden Besuchern über einen längeren Zeitraum hinweg. Demzufolge müssen sich die Einführung und die Durchführung von Targeting-Maßnahmen von denen des Testings unterscheiden. Targeting und Retargeting basieren auf Informationen, die über einen längeren Zeitraum über Besucher und Kunden eingesammelt wurden und zur Aussteuerung der Inhalte einer Website herangezogen werden. Wie lang dieser Zeitraum ist, hängt nicht zuletzt von den Profilen ab, die für das Targeting gebildet werden. In jedem Fall ist ein hinreichender Datenbestand notwendig, bevor man sinnvoll mit dem Targeting beginnen kann. Dies gilt in ähnlicher Weise für das Retargeting, auch wenn dort die Strukturen der Profile eher einfacher sind und kurzfristiger Natur, wie in Kapitel 8 beschrieben.
10.2.1 Planung In der Planungsphase eines Targeting- oder Retargeting-Projekts wird es demzufolge als Erstes um die Profilbildung gehen. Wir führen das Beispiel aus Kapitel 10.1 fort und schildern im zweiten Schritt (bei dem es um die Schaltung möglichst vieler kostenpflichtiger Kleinanzeigen geht), wie sich mit Hilfe von Targeting die Konversion beeinflussen lässt. Als Grundlage dienen die Ergebnisse der Tests, die Auskunft über das Benutzerverhalten geben. Im Beispiel war dies abhängig vom Wochentag, vom Geschlecht und von der Art
188
10.2 Targeting und Retargeting der Ansprache. Für ein vollständiges Targeting wäre noch die Frage interessant, ob das Verhalten sich auch nach Altersgruppen unterscheidet. Zielsetzung Natürlich benötigt man auch für eine Targeting- oder Retargeting-Maßnahme klare Zielvorgaben. Die Budgetierung und Ressourcenplanung zur Einführung eines TargetingSystems muss das Erreichen des Return-On-Invest zum Ziel haben. Dafür ist eine Kenngröße festzulegen, die zur Überprüfung herangezogen wird. In diesem Fall ist diese Kenngröße als Key-Performance-Indikator zu bezeichnen und kontinuierlich zu überwachen und zu analysieren. Dieser KPI wird in der Regel umsatzrelevante, kostenrelevante oder sogar beide Arten von Kennzahlen enthalten.
!
Es empfiehlt sich, für die Maßnahmen Targeting und Retargeting eine Web Scorecard anzulegen, wie in Kapitel 7 beschrieben. Auf diese Weise ist sichergestellt, dass alle am Projekt Beteiligten regelmäßig über den aktuellen Stand auf dem Laufenden sind und die wesentlichen KPIs einer regelmäßigen Kontrolle unterzogen werden.
Analyse Die Planungsphase beginnt also mit einer detaillierten Analyse der bestehenden WebAnalytics-Datenbestände, um mögliche Kriterien zur Profilbildung zu finden. Die Zielsetzung muss dabei sein, eine hinreichende Zahl von Kriterien mit signifikanten Unterschieden zu entdecken. Wenn zum Beispiel das Verhalten der Anwender nach der Registrierung über alle Altersgruppen hinweg gleichförmig ist, scheidet dieses Kriterium zunächst aus. Welche Kriterien zur Bildung eines Profils herangezogen werden, hängt wie immer stark vom Geschäftsmodell der Website und ihrer Zielgruppe ab. Generell gilt die Empfehlung, zu Beginn eine kleine, aber signifikante Kriteriengruppe zu erstellen, die später erweitert werden kann. Es wäre ein Fehler, bereits zu Beginn mit einer Vielzahl möglicher Parameter zu starten, ohne deren tatsächliche Wirkung zu kennen. Voraussetzung für die Ermittlung ausreichender Profilkriterien ist ein funktionierendes WebAnalytics-System. Das Geschlecht zum Beispiel als Kriterium zur Profilbildung heranzuziehen, ohne dass dies jemals als Dimension in den Web-Analytics-Daten erfasst worden wäre oder langfristige Vergleichsdaten vorliegen, gleicht einem Blindflug – es kann klappen, muss aber nicht. Und in beiden Fällen wird es schwer sein, dies nachzuweisen. Profilbildung Die Definition der Profilstruktur ist eine hoch komplexe Aufgabenstellung und würde den Rahmen dieses Kapitels in einem Buch über Web Analytics sprengen. Aus diesem Grunde sei hier zunächst auf die umfangreiche Fachliteratur aus dem Bereich CRM und Direktmarketing verwiesen (zum Beispiel [Kurbel 2010], [Neckel Knobloch 2005], [Töpfer 2008]): die dort beschriebenen Prinzipien und Grundregeln zu Verfahren der Diskriminanzanalyse und Klassifikationsverfahren gelten auch hier. In Verbindung mit der Web Analy-
189
10 Durchführung von Testing und Targeting tics ist es wichtig, dass die festgelegten Kriterien zur Profilbildung tatsächlich messbar sind und im günstigsten Fall über einen längeren Zeitraum erfasst werden. Wenn Sie eine geografische Zielansprache erreichen wollen, aber nicht wissen, aus welchen Regionen Ihre Besucher, Kunden und insbesondere Nicht-Kunden (also die Abbrecher) kommen, werden Sie sich schwertun. Aus der Personalisierung sind zwei Grundprinzipien bekannt: die implizite und die explizite Personalisierung. Diese Prinzipien sind auch auf Targeting- und Retargeting-Maßnahmen übertragbar: Implizite Profilbildung: Das Profil wird aus den Daten der Benutzerbewegung auf der Website über einen längeren Zeitraum erfasst. Explizite Profilbildung: Das Profil wird durch den Anwender direkt bestimmt, zum Beispiel durch eine Befragung oder über Einstellungen innerhalb der Website. Informationen zu tatsächlichen Kunden, Abonnenten oder registrierten Anwendern einer Website sollten darüber hinaus auch in anderen Systemen als dem Web-Analytics-Tool vorliegen. Mit Informationen aus CRM- und ERP-Systemen oder dem Data Warehouse lässt sich ein längerer Zeitraum überspannen und das langfristige Verhalten der Probanden abbilden. Demgegenüber stehen in der Web Analytics kurzfristige und „schnelle“ Daten bereit, die sich aus dem jüngsten Klickstream des Anwenders ergeben. Statisches „Langfristverhalten“: Informationen, die aus Backend-Systemen wie CRM, ERP oder Data-Warehouse stammen und ein eher statisches, langfristiges Profil des Probanden erzeugen. Kurzfristiger Klickstream: Aktuelle Daten mit kurzer „Halbwertszeit“, entstanden aus dem auf der Website erfassten Verhalten eines Probanden, seiner letzten Klicks, seiner zuletzt betrachteten Seiten etc.
ite iz
s
il
pl s
ite
of
Im Pr of il
Ex
iz pl
Pr
Profil
ng
La fri st r ve ha
ic
lte n
190
Kl
t ks
re
am
Abbildung 10.3 Beispiel für eine Profilbildung unter Gewichtung der vier Bereiche explizites Profil, implizites Profil, Langfristverhalten und Klickstream
10 Durchführung von Testing und Targeting
Abbildung 10.4 Sehen, was andere gekauft haben: „Recommendation“ auf weltbild.de
192
10.2 Targeting und Retargeting
Abbildung 10.5 Beispiel für Targeting bei amazon.de
193
10.2 Targeting und Retargeting Im Spannungsfeld dieser vier genannten Bereiche ist es notwendig, einen Schwerpunkt zu bilden. Man wird versuchen, die Profilstruktur aus allen vier Bereichen zu bilden, und dabei unterschiedliche Gewichtungen auf die einzelnen Bereiche legen, wie Abbildung 10.3 an einem Beispiel zeigt. Die Übergewichtung eines Bereichs, zum Beispiel des Langfristverhaltens, kann dazu führen, dass zu träge auf kurzfristig auftauchende Besucherwünsche und -bedürfnisse reagiert wird. Hingegen können Rückschlüsse ausschließlich auf Basis des Klickstreams zu eher einseitigen, „flachen“ Profilen führen. Variantenerstellung Eines der großen Probleme, an denen die „Personalisierung“ in den späten 1990er-Jahren scheiterte, war nicht die Verfügbarkeit adäquater technischer Systeme und Lösungen, sondern der Mangel an Content. Sollten Sie zum Beispiel eine Profilstruktur für fünf verschiedene Benutzergruppen festlegen, brauchen Sie individuellen Content für diese fünf Gruppen. Geht es beim Retargeting „nur“ um die Wiedervorlage von Inhalten aus den vorhergehenden Website-Besuchen, muss man beim Targeting (also der personalisierten Ansprache des wiederkehrenden Besuchers) differenzierter vorgehen. Zwingend für beide ist ein ausreichend hohes Kontingent an variierbarem Content. Solange es sich um die Präsentation von Produkten oder Produktgruppen innerhalb eines Shops handelt, mag das noch lösbar sein, allerdings läuft man dann Gefahr, nicht Targeting, sondern „Recommendation“ – also Empfehlungswerbung – zu betreiben. Der Unterschied ist auf Websites wie amazon.com oder weltbild.de erkennbar: Dort werden dem Anwender innerhalb der Bezahlstrecke Produkte empfohlen, die andere Kunden gekauft haben, die ähnliche Produkte oder Warengruppen im Warenkorb hatten wie man selbst. Das ist „Recommendation“ oder „Intelligent Offer“. Dazu ein Beispiel in Abbildung 10.4 auf der nächsten Seite. Hier ist also zu differenzieren. Targeting bezieht sich immer auf das Verhalten des spezifischen Besuchers oder der Gruppe, in die er aufgrund seines Verhaltens einsortiert wurde. Amazon erkennt einzelne Besucher anhand eines Cookies und erstellt eine personalisierte Startseite, die aus dem Verhalten der vorangegangenen Besuche gebildet wurde. Beispiel: Wenn man auf amazon.de nach Fachbüchern und Belletristik sowie nach Werkzeug sucht, wobei die Suche nach Werkzeug länger zurückliegt, bekommt man Empfehlungen wie in Abbildung 10.5 (übernächste Seite) angezeigt. Insofern lassen sich „Varianten“ nicht fest vorgeben, sondern eher Mechanismen, um mit unterschiedlichen Darstellungsformen und Inhalten auf Personen oder Personengruppen zu reagieren.
191
10 Durchführung von Testing und Targeting Regelwerk Das Erstellen von Varianten umfasst also einerseits die Identifizierung des zu variierenden Contents und andererseits das Regelwerk, nach dem dieser Inhalt mit Hilfe der Profildaten präsentiert wird. Auch wenn Targeting-Tools den Prozess der Selektion und Präsentation automatisieren können und eine hohe Qualität bei der Konstanz und der Performance erreichen, ist es Aufgabe des Anwenders, dieses Regelwerk zu definieren und im Tool selbst abzubilden. Je klarer dieses Regelwerk definiert ist, umso einfacher fällt es später, dies in einem der Tools „nachzuprogrammieren“. Marketingabteilungen tendieren gerne dazu, derartige „Business Rules“ in Form von Powerpoint-Folien zu manifestieren. Das ist zwar gut, um das Regelwerk in der Gruppe zu präsentieren und zu diskutieren – allerdings haben Powerpoint-Folien eine recht niedrige Integrationsfähigkeit mit Targeting-Tools. Neben dieser Form der Darstellung sollte man die Regeln in einer tabellarischen Form abbilden, in der sich eine „Wenn-Dann-Beziehung“ aufbauen lässt. In Abbildung 10.6 ist ein Beispiel für eine solche Tabelle abgebildet. Auf einer Website soll unter bestimmten Bedingungen eine Fläche mit einer individuellen Ansprache gefüllt und angezeigt, in allen anderen Fällen jedoch ein Standardinhalt präsentiert werden. Targeting Warenkorb-Promotion auf xyz.de Kategorieseite der Warengruppe Elektro- und Haushaltsgeräte Bedingung
Kenngröße
Prüfergebnis der Bedingung
innerhalb der letzten 30 Tage den Begriff Staubsauger auf Google gesucht
Suchmaschine ist Google
WAHR
Suchbegriff ist „Staubsauger“ oder „Waschmaschine“ oder …
WAHR
Zeitraum ist kleiner als 30 Tage
WAHR
Produkt im Produkt aus der Warengruppe Warenkorb und „Elektro“ im Warenkorb nicht bestellt Warenkorb abgebrochen Besucher Besuch nach Abbruch kommt erneut innerhalb von 10 Tagen auf die Website, je nach Zeitraum unterschiedliche Besuch nach Abbruch Aktionen innerhalb von 30 Tagen
„Sons“-Regel
Aktion
WAHR WAHR WAHR
Anzeigen der Kategorieseite mit Promotionsfläche Elektro, Anzeige des letzten Produktes im stehen gelassenen Warenkorb
WAHR
Anzeigen der Kategorieseite mit Promotionsfläche Elektro, Anzeige der aktuellen Promotion aus der Warengruppe
Keine trifft zu
Promotionsfläche wird normal aus der Rotation gefüllt
Abbildung 10.6 Beispiel für eine Aktionstabelle für das Targeting eines Versandhandels
194
10.2 Targeting und Retargeting
!
Das Targeting-Regelwerk sollte strukturiert, umfassend und klar verständlich die Bedingungen, deren messbare Kenngrößen und die abgeleiteten Aktionen festlegen. Es dient auch als Grundlage für die spätere Nachkontrolle und unterliegt dem Change Management der gesamten Website.
10.2.2 Einführung Targeting Die technische Integration eines Targeting-Tools hängt stark vom Umfang der geplanten Maßnahmen ab. Um ein Targeting wie in Abbildung 10.5 geplant implementieren zu können, sind weite Bereiche der Website betroffen. Nicht nur die Warenkorbseiten müssen entsprechend instrumentiert werden, sondern auch die Kategorieübersichtsseiten und alle denkbaren Einstiegsseiten. Im Beispiel aus Abbildung 10.6 ist eine Bedingung das bei Google eingegebene Suchwort. Dies kann nur unmittelbar auf der Einstiegsseite erfasst werden. Wenn der Warenkorbprozess zum Beispiel sieben Seiten umfasst, gibt es auch sieben mögliche „Abbruchstellen“, und jede dieser Seiten ist zu instrumentieren, um den Warenkorbinhalt festzuhalten. Hinzu kommt die Kategorienübersichtsseite. Gibt es von dieser mehrere Varianten oder mehrere Templates, sind diese entsprechend zu erweitern. Aus diesem Grund ist bei der Integration eines Targeting-Systems in der gleichen Art vorzugehen wie bei der Integration eines Web-Analytics-Systems. Alle derzeit am Markt erhältlichen Tools erzwingen ein Instrumentieren der entsprechenden Seiten mit weiteren Programmzeilen. Auch die „integrierten Produkte“ sind derzeit nicht in der Lage, auf einer bereits existierenden Web-Analytics-Vertaggung sofort und ohne zusätzlichen Programmieraufwand aufzusetzen. Ist der Gesamtumfang kleiner als bei einer vollständigen Vertaggung einer Website mit einem Web-Analytics-Tool, ist zur Berechnung des Aufwands der gleiche Maßstab anzusetzen, wie in Kapitel 12 geschildert.
!
Die technische Integration eines Targeting-Systems ist analog der Einführung eines WebAnalytics-Tools vorzunehmen. Je nach Umfang der Maßnahmen kann ein ähnlich großer Aufwand wie bei einer Web-Analytics-Tool-Einführung entstehen. Die empfohlene Vorgehensweise erfolgt daher analog zur Einführung eines Web-Analytics-Tools (siehe Kapitel 12).
Retargeting Retargeting findet, wie in Kapitel 8 beschrieben, weitgehend außerhalb der eigenen Website statt. Trotzdem ist es notwendig, die im Regelwerk benötigten Kennzahlen auf der eigenen Website zu erfassen und an das Retargeting-System weiterzuleiten. Dies kann prinzipiell auf zwei Wegen geschehen: 1. Die Daten werden unmittelbar vom Retargeting-System selbst in der Website gemessen. In diesem Fall sind die entsprechenden Webseiten – meist die Warenkorb- bzw. Bestellseiten – mit Codes des Retargeting-Systemherstellers zu instrumentieren. Auch hier sei auf die Regeln aus Kapitel 12 verwiesen.
195
10 Durchführung von Testing und Targeting 2. Die Daten werden vom vorhandenen Web-Analytics-Tool erfasst und im Datenaustausch an das Retargeting-System weitergegeben. In diesem Fall ist der Aufwand überschaubar, da lediglich die regelmäßigen Extraktions- und Übertragungsprozesse einzurichten sind. Der Nachteil einer solchen Lösung ist, dass sie nicht in Echtzeit reagieren kann, sondern eine Verzögerungszeit mindestens in der Größe des Zeitabstands zweier Exports hat, allerdings hat diese Lösung den Vorteil, dass vergleichsweise wenig Programmieraufwand anfällt und diese daher sehr schnell und problemlos verfügbar ist – vorausgesetzt, die benötigten Metriken und Dimensionen für das Retargeting werden vom Web-Analytics-Tool ebenfalls gemessen. Für die meisten Unternehmen stellt die organisatorische Umstellung der Werbemittelverwaltung und -bereitstellung eine viel größere Herausforderung dar. Alle Vermarktungskanäle und -plattformen innerhalb der Kampagnen, die dem Retargeting unterzogen werden sollen, müssen in Zukunft ausschließlich über das Retargeting-Tool bedient werden. Es dürfen keine Werbemittel mehr in diese Vermarktungskanäle manuell oder direkt eingesteuert werden, die Kontrolle muss vollständig über das Retargeting-Tool erfolgen. Der Vollständigkeit halber sei erwähnt, dass natürlich auch Kreativarbeit zu leisten ist. Die einzelnen Komponenten der Werbemittel müssen entworfen und auf das RetargetingSystem aufgespielt werden. Die Retargeting-Systeme komponieren Werbemittel oft aus mehreren einzelnen Elementen wie Rahmen, Text, Produktpreis und Produktabbildung. Diese Elemente müssen entweder im Retargeting-System selbst oder auf der Website – zum Beispiel die Produktabbildungen – abrufbar sein. Ist dies zum Zeitpunkt der Planung nicht der Fall, ist der entsprechende Aufwand und die Ressourcen in die Planung mit einzubeziehen.
!
Berücksichtigen Sie bei der Planung eines Retargeting-Systems den zusätzlichen Aufwand für die Umgestaltung der Werbemittel. Auch wird die Anzahl verschiedener Werbemittel unter Umständen stark zunehmen, so dass neue Prozesse zur Pflege und Verwaltung der Werbemittel definiert oder bestehende Prozesse angepasst werden müssen.
10.2.3 Monitoring Weil Targeting- und Retargeting-Maßnahmen – anders als Testing – dauerhaften Charakter haben, sind sie kontinuierlich zu überwachen und zu monitoren. In Kapitel 10.2.1 empfahlen wir, ihre Zielerreichung anhand einer Web Scorecard zu überwachen (Kapitel 7). Auch das Vorgehen bei der Entwicklung einer solchen Scorecard ist in Kapitel 7 dargelegt. Eine Scorecard für die in Abbildung 10.6 gezeigte Maßnahme könnte wie in Abbildung 10.7 auf der nächsten Seite aussehen. Ob die Maßnahmen anhand einer Scorecard (Abbildung 10.7) verfolgt oder mit Hilfe des Web-Analytics-Tools kontinuierliche Analysen betrieben werden, hängt letztlich von der Zielsetzung der Maßnahme selbst, vom möglichen betriebswirtschaftlichen Gesamteffekt der Maßnahme und natürlich von den Ressourcen ab. Auf jeden Fall sind Targeting- und Retargeting-Maßnahmen kontinuierlich zu überwachen und gegebenenfalls geänderten Markt-
196
10.2 Targeting und Retargeting Leitziel
Soll
Ist
…
y
y
Strategische Themen
Operative Projekte Kunden Soll
Ist
…
x
x
…
x
x
Soll
Ist
..
x
x
…
x
x
Finanzen Erhöhung der Konversionsrate bei SEM-Maßnahmen
4%
2%
Targeting auf KeywordEbene von Bestellabbrechern
4%
3%
Senkung der Marketingkosten bei konstanter Konversionsrate bei Displaywerbung
10 000
15 000
Retargeting von Bestellabbrechern statt Bannerwerbung
10.000
12.000
…
x
x
…
x
x
x
x
x
x
Mitarbeiter …
x
x
... Kooperationen
…
x
x
…
Abbildung 10.7 Beispiel einer Web Scorecard zur Überwachung von Targeting- und RetargetingMaßnahmen
bedingungen anzupassen. Es ist auch sicherzustellen, dass das Zusammenspiel aller technischen Komponenten jederzeit reibungsfrei funktioniert. Kontraproduktiv sind technisch nicht funktionierende Maßnahmen. Fehler können zum Beispiel entstehen, wenn ein Produkt aus dem Programm genommen wird, das Retargeting-System aber noch versucht, mit diesem Produkt Besucher zurückzulocken: Wenn das Bild des Produkts noch verfügbar ist (und dem Anwender nicht bereits ein „kaputtes“ Werbemittel präsentiert wird), ärgert er sich spätestens auf der Website, wenn er versucht, das Produkt in den Warenkorb zu legen, und man ihn informiert, das Produkt sei nicht mehr lieferbar. Passiert dies vielen Besuchern, kann das empfindliche Auswirkungen auf die Gesamtkonversion eines Shops haben – und auf die Reputation des Händlers.
!
Das Monitoring einer Targeting- oder Retargeting-Maßnahme umfasst nicht nur die Überwachung der kritischen Kenngrößen und KPIs, sondern auch eine kontinuierliche Qualitätssicherung der beteiligten Komponenten bis hin zu den einzelnen Werbemitteln und der Verfügbarkeit der beworbenen Produkte.
197
10 Durchführung von Testing und Targeting
198
11 11 Kriterien für die Auswahl eines Web-Analytics-Tools Sobald ein Unternehmen feststellt, dass es Web Analytics zur Bewertung des OnlineErfolgs einführen muss oder die bislang eingesetzten Werkzeuge den gestiegenen Anforderungen nicht mehr genügen, steht es vor der Frage: Welches Tool setzen wir in Zukunft ein? Dass dies nicht einfach zu beantworten ist, zeigt eine kurze Google-Recherche: Wer nach „Web Analytics“ sucht, erhält auf der ersten Seite rund 20 Anzeigen von Herstellern und insgesamt über 100 000 Treffer. Der „Einkaufsführer Web Analytics“ von Ideal Observer – er wird kontinuierlich aktualisiert – beschreibt rund 80 Systeme. Wie kann ein Unternehmen also aus dieser Vielzahl an sehr unterschiedlichen Produkten eine qualifizierte Auswahl treffen? Es gibt natürlich immer die Möglichkeit, über das eigene Netzwerk zu recherchieren und letztlich jenes Werkzeug zu nehmen, das Freunde, Bekannte oder auch Mitbewerber einsetzen. Eine solche „sozial gesteuerte“ Auswahl kann jedoch dazu führen, dass sich ein Unternehmen für ein Tool entscheidet, das nicht optimal zu seinen individuellen Anforderungen passt. Deshalb widmen wir uns in diesem Kapitel einer qualifizierenden und differenzierenden Gegenüberstellung von Kriterien, die zu einer Auswahl eines Systems herangezogen werden können.
11.1
Markt und Marktteilnehmer Der Markt für Web-Analytics-Tools ist seit 2003 stetig gewachsen. Systeme wie Webtrends oder Omniture sind zwar bereits seit den späten 90er-Jahren auf dem Markt, waren zu jener Zeit allerdings kaum in Europa oder Deutschland anzutreffen. Erst seit den Jahren 2002/2003 gibt es einige europäische Anbieter. Gleichzeitig kamen US-Hersteller nach Europa. Insofern kann man erst ab dieser Zeit wirklich von einem Markt sprechen. Im Jahr 2003 handelte es sich bei diesem Markt noch um ein Oligopol, wenigen Nachfragern standen noch weniger Anbieter gegenüber. Erst im Laufe der Zeit, bis etwa 2006,
199
11 Kriterien für die Auswahl eines Web-Analytics-Tools entwickelten sich sowohl die Nachfrage als auch die Zahl der Anbieter. Seit 2006 ist die Anbieterzahl tendenziell wieder rückläufig, einerseits durch Übernahmen, andererseits haben einige Anbieter aufgegeben oder sind mit Spezialangeboten in Marktnischen ausgewichen. Doch im gleichen Zeitraum ist die Zahl der Interessenten exponentiell gestiegen, einhergehend mit deutlichen Anpassungen im Preisgefüge nach unten. Nicht zuletzt wurde diese Tendenz durch kostenlose Angebote wie Google Analytics oder Yahoo! Web Analytics noch verstärkt. Insbesondere die einzigen wirklich kostenfreien Angebote von Google und Yahoo! haben seit ihrem Erscheinen dazu geführt, dass Web Analytics einen Schub in seiner Verbreitung und Bekanntheit gemacht hat. Waren diese Werkzeuge anfänglich noch „Einstiegs-Tools“, so haben sie sich mittlerweile (2010) zu einer durchaus ernsthaften Konkurrenz zu den kostenpflichtigen kommerziellen Systemen entwickelt. Seit 2004 haben auch die großen Analysten wie Forrester oder Jupiter Research den Markt im Blick und geben regelmäßig Studien heraus. Neben den deutschen Angeboten wie dem „Einkaufsführer Web Analytics“ von Ideal Observer oder Websites wie contentmager.de sind viele neutrale Analysen erhältlich, einige davon sogar kostenfrei.
11.1.1 Besonderheiten des Web-Analytics-Softwaremarktes Generell lassen sich die Angebote der Hersteller nach verschiedenen Kriterien einteilen. Als erste Dimension wurde bereits die Art der Lizenzierung genannt: Es gibt kostenfreie Tools wie Google Analytics oder Yahoos Y!WA sowie kommerzielle Systeme, die eine kostenpflichtige Nutzungslizenz bereitstellen. Zudem gibt es Open-Source-Software wie PIWIK oder awstats – die aber nicht wirklich kostenfrei sind, da der Betrieb des Systems vollständig dem Anwender überlassen ist und die Betriebskosten nennenswerte Größen erreichen können. Klassifizierung der Systeme und Anbieter Eine weitere Klassifizierung ergibt sich aus der Form der Bereitstellung, die man als „On Demand“ und „On Premise“ bezeichnet: On Demand: Die Software wird vom Anbieter als Komplettlösung, bestehend aus Softwarelizenz und deren Betrieb, angeboten. In Deutschland sind On-Demand-Systeme auch bekannt als „ASP – Application Service Providing“ oder „SaaS – Software as a Service“. Klassische Vertreter sind die beiden genannten kostenfreien Tools, aber auch Systeme wie z.B. coremetrics oder Omniture SiteCatalyst. On Premise: Der Anwender erwirbt eine Softwarenutzungslizenz und erhält entsprechende Installationsmedien. Er installiert und betreibt das Softwaresystem auf seiner eigenen Infrastruktur und ist für Betrieb und Zuverlässigkeit selbst verantwortlich. Klassische An-
200
11.1 Markt und Marktteilnehmer bieter in diesem Umfeld sind Webtrends (es gibt allerdings auch ein Webtrends On Demand), Unica oder in Deutschland econda und WebTrekk. Die Verbreitung der unterschiedlichen Bereitstellungsformen ist sehr heterogen. Nach Gesamtreichweite der gemessenen Sites bewertet, sind sicherlich die On-Demand-Systeme in der Mehrzahl. Es gibt jedoch einen branchenspezifischen Fokus: Im Banken- und Finanzdienstleistungsbereich ist die On-Premise-Variante wesentlich höher verbreitet als zum Beispiel im Medien- oder Handelsbereich. Der Grund dafür dürfte das erhöhte Sicherheitsbedürfnis der Finanzbranche sein. Die Unterscheidung nach der eingesetzten Messtechnologie hatten wir bereits in Kapitel 4 vorgenommen. Der Vollständigkeit halber sei hier noch einmal darauf verwiesen. Produktpositionierung durch die Hersteller Eine Besonderheit im Web-Analytics-Markt ist die Art und Weise, wie die Marktteilnehmer ihre Produkte vermarkten und bewerben. Im Internet, in Fachpublikationen und auf Messen findet man Aussagen wie: „Steigern Sie Ihren Online-Erfolg!“ „Optimise your traffic generation, retention and conversion!“ „Exponentielle Steigerung der Konversionsraten aus dem Suchmaschinenmarketing.“ „Maximize the Return on Your Marketing Investment!“ Nun ist es eine Marketing-Binsenweisheit, dass man nicht die Bohrmaschine in den Vordergrund stellt, sondern die schönen runden Löcher, die man damit bohren kann. Insofern ist den Herstellern kein Vorwurf zu machen – allerdings haben wir in unserer langjährigen Praxis leider oft beobachtet, dass solchen Versprechen allzu naiv Glauben geschenkt wird. Um im Bild zu bleiben: Ob die Garderobe am Ende an der Wand hält, hängt nur zu einem geringen Teil von der Bohrmaschine ab, größtenteils von der Art der Wand, dem Dübel, der Schraube und letztlich dem Gewicht, das die Garderobe tragen muss. Anders ausgedrückt: Erst das zielgerichtete Zusammenspiel aller Komponenten ergibt eine funktionierende Lösung – das Web-Analytics-Tool ist also bei Weitem nicht alles. Vor allem kann ein solches Tool eine passende Gesamtlösung nicht garantieren, wie in der Praxis oft festzustellen ist. Das intelligente Ausnutzen aller Ressourcen eines eher mittelmäßigen Tools ist deutlich effizienter und generiert unter Umständen einen höheren ROI als die schlechte Umsetzung und geringe Nutzung eines High-End-Tools. Das wird Ihnen der Verkäufer des (teureren) High-End-Produkts aber frühestens nach seiner Pensionierung verraten.
!
Allen Tools gemeinsam ist, dass sie „nur“ Statistiken bereitstellen. Web-Analytics-Systeme enthalten zwar „Analyse“ als Namensbestandteil, doch analysieren müssen Sie selber. Auch die Erkenntnis, wie Sie zu mehr an „Was-auch-immer“ gelangen, müssen Sie selbst aus dem Zahlenwerk herausdestillieren. Das Web-Analytics-Tool optimiert Ihre Conversion Rate nicht – es dokumentiert sie lediglich!
201
11 Kriterien für die Auswahl eines Web-Analytics-Tools Leider werben die Hersteller nur selten damit, dass sie lediglich Ressourcen-Systeme anbieten. Ein solches aggressives Marketing äußert sich später im Kontakt zwischen Einkauf und Vertrieb oder Pre-Sales-Consultant, bei dem jeder Hersteller von sich behauptet, jede erdenkliche Anforderung in jedem Falle und ohne Prüfung sicher erfüllen zu können. Neudeutsch wird dies gern „Overselling“ genannt. Im angelsächsischen Raum ist für diese Art der Vermarktung auch das Bonmot „Overselling and Underperforming“ bekannt. Wir wollen es nicht generell auf alle Hersteller anwenden – allerdings haben wir in der Vergangenheit Situationen bei Kunden erlebt, in denen Tool-Hersteller wissentlich Leistungsmerkmale überzogen haben und der Kunde sehr viel später (nach Vertragsabschluss) die Konsequenzen zu (er)tragen hatte. Dies alles macht klar: Solche Kandidaten von ihren Höhenflügen ob der Leistungsfähigkeit ihrer Produkte herunterzuholen, zu „erden“, zählt zu den anstrengenden Aufgaben während der Phase der Tool-Auswahl. Die Implementierungs-Versprechen der Hersteller Ein weiterer Punkt, bei dem regelmäßig drastische Abweichungen zwischen Ankündigung und Projektrealität erkennbar werden, ist der zu erwartende Implementierungsaufwand. Ein Hersteller wirbt beispielsweise mit der Aussage: „Quick and easy tagging: XYZ helps reduce the time you spend setting up your solution (implementation/parameterizing). You obtain your performance indicators and optimise your site in turnaround times that are unparalleled on the market.“ Dieses Versprechen besitzt aus unserer Sicht die gleiche Logik wie „Nehmen Sie ab, während Sie schlafen“. Dabei ist es absolut unmöglich, ein Tool exorbitant schneller zu implementieren als ein anderes, wenn jedes Mal dieselben Daten-Entitäten erfasst und gemessen werden sollen. Dies wäre nur dann der Fall, wenn eines der Tools eher besonders schlecht zu parametrisieren ist. Mit dem Thema Implementierungs-Aufwand werden wir uns in Kapitel 12 genauer befassen. Die Selbstdarstellung der Hersteller Zu einer interessanten Erkenntnis gelangt man auch, wenn man die Eigendarstellung verschiedener Hersteller liest (zu finden in den Website-Rubriken „Über uns“, „Unternehmen“, „Company“). Ausnahmslos jeder der Marktteilnehmer ist zugleich auch Marktführer: Es gibt deutsche Marktführer, europäische Marktführer und Weltmarktführer. Insgesamt kommt man auf 100% aller Hersteller, die Marktführer sind. Dies lässt vermuten, dass die jeweiligen Marketingabteilungen entweder ihre Mitbewerber nicht beobachten – oder unter einem übersteigerten Geltungsbedürfnis leiden. Für uns bleibt festzuhalten: Sicherlich sind nicht alle Hersteller gleichwertig oder Marktführer, wie mehreren Studien zu entnehmen ist (zum Beispiel von Jupiter, Forrester und Ideal Observer).
202
11.2 Web-Analytics-Preismodelle
! 11.2
Im Rahmen einer Ausschreibung stellt die wirtschaftliche Potenz eines Anbieters natürlich ein wichtiges Entscheidungskriterium dar. Dieses kann am besten anhand einiger weniger Fakten – zum Beispiel Umsatz, Anzahl der Mitarbeiter, Anzahl der Installationen – absolut bewertet werden. Behauptungen wie „Wir sind Marktführer“ sind jedoch stets mit Vorsicht zu genießen: Sie sind häufig subjektiv und kaum nachzuweisen oder zu widerlegen – und somit wenig hilfreich.
Web-Analytics-Preismodelle Je nach Form der Lizenzierung haben sich einige Preismodelle als „Quasi-Standards“ durchgesetzt. Allen Preismodellen gemeinsam ist die Tatsache, dass sie hauptsächlich mit der Zahl der Messimpulse skalieren, die von den Websites abgesetzt werden: Je mehr Messimpulse, desto größer das Gesamtvolumen bei fallendem Einzelpreis. In der Regel wird pro Millionen sogenannter „Server Calls“ monatlich oder jährlich abgerechnet. Diese Millionen Server Calls pro Monat nennt man „CPMM“. Bei den In-House-Lösungen (siehe Abschnitt 11.1.1 „On Premise“) ist der CPMM etwas niedriger, die Einmalkosten in der Regel höher. Bei On-Demand-Lösungen kann man prinzipiell von der Berechnungsgrundlage „Gesamtreichweite der Website in PageViews pro Monat“ ausgehen. Allerdings ist nicht jeder PageView auch exakt ein Server Call. Es gibt Produkte, die – je nach Art der Seite – bis zu vier Server Calls pro Messung benötigen. Deshalb ist dann ein „Faktor“ mitzurechnen, der sich nach der Art der Website richtet. Grundsätzlich ist es für die Kalkulation zwingend erforderlich, die Gesamtreichweite der zu messenden Webseiten in Form von PageViews zu kennen. Da der Vertrag über einen Zeitraum von einem bis zu drei Jahren abgeschlossen wird, ist es sinnvoll, eine belastbare Prognose für diese Zeitspanne zu erstellen. Erstellen Sie präzise Mengengerüste für Ihre Ausschreibung anhand der derzeitigen und der prognostizierten Reichweiten der Webseiten, die Sie messen wollen. Dazu ist die jeweilige Anzahl an PageViews, Visits und Unique Visitors erforderlich. Ohne diese Angaben sind alle Angebote lediglich geschätzte Preise und müssen unter Umständen während der Vertragslaufzeit angepasst werden.
Wie kommt man aber zu diesen Zahlen, wenn man noch kein Web-Analytics-Tool im Einsatz hat? Auskunft können hier die Logfiles der Webserver geben: Das Zahlenmaterial ist zwar nicht präzise genug für statistische Auswertungen, aber es gibt zumindest Größenordnungen vor, mit denen sich verschiedene Preismodelle der Hersteller durchrechnen lassen.
203
11 Kriterien für die Auswahl eines Web-Analytics-Tools
11.3
Auswahlkriterien und deren Bewertung Entscheidend für den Erfolg eines Web-Analytics-Projekts ist die Auswahl des richtigen Anbieters. Derzeit gibt es rund 100 verschiedene Systeme, die kommerziell angeboten werden. Natürlich kann man während einer Ausschreibung nicht alle Anbieter auffordern, ein Angebot abzugeben. Vielmehr muss man im Vorfeld eine Auswahl treffen, um den Aufwand für die Angebotsaufforderung und die anschließende Bewertung im Rahmen zu halten. Als Problem erweist sich dabei die „Featuritis“ der Anbieter – und die damit einhergehende Konformität der (meist oberflächlichen) Produktbeschreibungen. Sehen Sie sich dazu in den Abbildungen 11.1 und 11.2 die Produkt-Websites zweier Anbieter im Vergleich an.
Abbildung 11.1 Website des Herstellers coremetrics (Februar 2010)
204
11.3 Auswahlkriterien und deren Bewertung
Abbildung 11.2 Website des Herstellers Webtrekk (Februar 2010)
Beide Hersteller verwenden überwiegend gleiche Begriffe und bieten den gleichen Funktionsumfang sowie vergleichbare Inhalte an. Um die Systeme zu vergleichen, könnte sich ein Blick in den Einkaufsführer von Ideal Observer lohnen. Dieser bewertet Webtrekk zum Beispiel mit 79 und coremetrics mit 66 Punkten. Spitzenreiter SiteCatalyst erreicht 81 von 100 möglichen Punkten (Stand Februar 2010). Diese Bewertung kann durchaus hilfreich für die Auswahl der Hersteller sein, die man zur Angebotsabgabe auffordern möchte („Longlist“). Es gibt allerdings gravierende Unterschiede zwischen diesen drei genannten Systemen – zum Beispiel die Unternehmensgröße und die installierte Basis: Webtrekk hat ungefähr 40 Mitarbeiter in Deutschland und Omniture (SiteCatalyst) 1 200 weltweit. Webtrekk hat rund 300 Kunden in Europa, Omniture mehrere Tausend weltweit. Das bedeutet: Bewertungsportale wie Ideal Observer sind zwar ein sinnvoller Einstieg für die Auswahl, trotzdem ist es notwendig, die „Kandidaten“ sehr
205
11 Kriterien für die Auswahl eines Web-Analytics-Tools genau in Augenschein zu nehmen. Doch nach welchen Kriterien soll dies geschehen – wenn man zu keiner rein subjektiven Einschätzung gelangen möchte, sondern zu einer, die sich an Fakten orientiert? Könnten Checklisten ein probates Mittel sein? Sie hätten eine tolle Eigenschaft: sie listen Fragen auf, die man abhaken kann (oder nicht). Auf diese Weise bekäme man einen Überblick, wer was kann. Die Fachmeinung zu Checklisten jedoch lautet: Vergessen Sie’s! Anstatt Features auf Checklisten abzuhaken, sollten Sie besser „Use Cases“ erstellen. Wir werden das in Kapitel 10 weiter vertiefen; an dieser Stelle nur so viel: Ein Use Case beschreibt einen konkreten Anwendungsfall, ausgehend von einem Anfangszustand bis hin zu einem Endzustand. Wie das geht, erfahren Sie in Kapitel 12. Das folgende Beispiel „Bewertung von On-Site-Promotions“ zeigt die Unterschiede zwischen Checkliste und Use Case: Beispiel Checkliste Tabelle 11.1 Beispiel einer Checkliste Leistungsmerkmal
Anbieter A
Anbieter C
Anbieter D
… 15.) Können On-Site-Promotion-Flächen gemessen werden?
… Kaum ein Hersteller wird die schlichte Frage aus Tabelle 11.1 mit „Nein“ beantworten – und hat damit wahrscheinlich auch recht. Das Checklisten-Ergebnis bringt Sie der Herstellerauswahl also nicht näher. Beispiel Use Case Die Anforderung in Form eines Use Case führt schon eher zu einer Differenzierung: ... Ausgangssituation Auf der Startseite der Website mit der URL www... werden fünf verschiedene Teaser-Flächen rollierend eingesetzt. In den Flächen werden Produkte promotet. Die Flächen sind mit der jeweiligen Produktansichtsseite verlinkt. Funktion Das Reporting soll Aufschluss darüber geben, welche Teaser-Flächen zu welcher Zeit mit welchen Produkt-Promotions belegt waren. Zudem sollen die Abverkäufe angezeigt werden, die unmittelbar nach einem Klick sowie innerhalb von n Tagen nach einem Neubesuch der Site von jenen Anwendern getätigt wurden, die diese Teaser-Fläche angeklickt haben. Die Abverkäufe müssen sich zusätzlich nach dem
206
11.3 Auswahlkriterien und deren Bewertung von diesen Besuchern benutzten Marketingkanal sortiert darstellen lassen. Die Bewertung erfolgt anhand der Anzahl der eindeutigen Benutzer, Anzahl der geöffneten Warenkörbe und der Höhe der abgesendeten Bestellungen. Der Zeitverlauf soll mindestens auf Tagesebene erfolgen. Eine Ansicht möglichst in Echtzeit ist erforderlich. Zielsetzung Durch Auswertung der externen Zuströme sowie der Nutzung der Teaser-Flächen bezogen auf bestimmte Produktkategorien sollen die Teaser-Flächen in Zukunft besser ausgesteuert werden, um die Conversion Rate insgesamt zu erhöhen ... Abbildung 11.3 Aus dem beispielhaften Use Case „Teaser-Flächenmessung“
Es ist also von Vorteil, von den Herstellern nicht nur einen Haken auf einer Checkliste zu fordern. Hilfreicher ist es, wenn diese sich mit einer detaillierten Aufgabenstellung auseinandersetzen müssen. Die Antworten werden dann wesentlich differenzierter ausfallen. Zudem können Sie sich ein Bild darüber machen, ob der Anbieter Ihre Fragen verstanden und sie umfassend beantwortet hat – oder ob er nur Marketinginformationen „von der Stange“ einkopiert hat, was leider immer wieder passiert. Daraus ergeben sich folgende Konsequenzen:
!
1. Solange Sie Ihre Anforderungen nicht spezifiziert haben, ist es egal, welches Tool Sie später einsetzen. 2. Solange Sie Ihre Anforderungen nicht spezifiziert haben, ist es zu früh, über irgendein Tool nachzudenken.
3. Solange Sie Ihre Anforderungen nicht spezifiziert haben, wissen Sie nicht, was Sie wollen und was Sie benötigen.
Damit ist klar: Erst mit einer Anforderungsspezifikation haben Sie die nötige Grundlage, um eine Auswahl aus dem vielfältigen Angebot an Web-Analytics-Anbietern treffen zu können. Sobald eine solche Spezifikation vorliegt, sollten Sie die fünf bis maximal zehn strategisch wichtigsten Anforderungen herauslösen und als „Prüfstein“ für eine erste Selektion der Anbieter verwenden. Meistens sind dies die zentralen Anforderungen zur Steuerung des Online-Business oder der Zielsetzung der Website allgemein: 1. Anforderungen zur Messung der Marketing Performance 2. Anforderungen zur Messung der Site Usability 3. Anforderungen zur Messung der Suchmaschinensichtbarkeit und der verwendeten Suchbegriffe Sie vermissen in der Liste die Punkte „Warenkörbe“ und „Bestellungen“ sowie Angaben zur Reichweite wie beispielsweise „Visits“ und „Vistors“? All dies wurde nicht vergessen – vielmehr hat es einen triftigen Grund, warum diese Kennzahlen nicht explizit in den Vor-
207
11 Kriterien für die Auswahl eines Web-Analytics-Tools dergrund gestellt werden: Die Reichweite einer Site als alleiniges Kriterium ist völlig nichtssagend. Beispiel: Auf einer Suchmaschinenoptimierungs-Messe berichtete ein Anwender eines Online-Verzeichnisdienstes, dass er nur rund fünf Klicks pro Jahr benötige. Sein Unternehmen produziert hochpreisige Spezialmaschinen. Bei einer Konversionsrate von 20% und fünf Klicks pro Jahr sei er mit seiner Mannschaft eineinhalb Jahre lang ausgelastet – denn so lange dauere die Herstellung einer Maschine. Am anderen Ende der Skala wiederum rangieren Freundschaftsportale mit Reichweiten von zwei bis fünf Milliarden PageViews pro Monat, die sich aus Werbung oder Mitgliedsbeiträgen im Cent-Bereich finanzieren.
!
Auch alle Zahlen zu Bestellungen und Bestellwert gehören in die Kategorie „nichtssagend“; für sich alleine genommen sind sie im Vergleich zum Warenwirtschafts- oder ERPSystem relativ unpräzise. In den unsäglichen Checklisten vielfach anzutreffenden Fragestellungen der Art: „Können Warenkörbe gemessen und Bestellwerte erfasst werden?“ sind alleine deshalb schon unsinnig, weil Sie ja kein Buchhaltungssystem suchen, sondern ein Marketing-Effizienz-Tool.
Erst die Bewertung anderer Dimensionen – dann mit Hilfe der gemessenen Kriterien wie „Anzahl Bestellungen“ oder „Anzahl Visitors“ – macht eine solche Fragestellung sinnvoll. Sie wollen den Umsatz pro Marketingkanal erfahren, weil Sie dessen Verteilung in die Marketingkanäle nicht aus dem ERP-System ablesen können – und nicht, weil Sie Ihren Umsatz nicht kennen! Das bedeutet: Nicht der Umsatz, sondern der „Drill Down“ nach Marketingkanälen ist bei der Bewertung eines Web-Analytics-Systems ausschlaggebend! So entwickeln Sie aussagekräftige Bewertungskriterien, um die Vielzahl möglicher Anbieter auszudünnen: Beschreiben Sie konkrete Anwendungsfälle (Use Cases), keine Features Wählen Sie fünf bis maximal zehn strategische Anforderungen aus Ihrer Anforderungsspezifikation, nach Möglichkeit aus den folgenden Bereichen: – Anforderungen zur Messung der Marketing-Performance – Anforderungen zur Messung der Site Usability – Anforderungen zur Messung der Suchmaschinensichtbarkeit und der verwendeten Suchbegriffe Bewerten Sie die Anbieter anhand dieser konkreten Kriterien. Sortieren Sie alle Anbieter aus, bei denen Sie unsicher sind oder bei denen es zu den von Ihnen gestellten Anforderungen keine Informationen im Internet oder auf den erwähnten Portalen gibt. Auf diese Weise gelangen Sie einerseits zu einem individuellen und stichhaltigen Bewertungskatalog und andererseits schnell zu einer überschaubaren Zahl an Anbietern, die für Sie in Frage kommen.
208
11.4 Effiziente Auswahlverfahren
11.4
Effiziente Auswahlverfahren Wie findet man aus der Fülle der Tool-Anbieter denjenigen sicher heraus, der sowohl zu den gestellten Anforderungen als auch zum eigenen Unternehmen passt? Das Recherchieren auf den Hersteller-Websites trägt, wie soeben beschrieben, nur wenig zur Differenzierung der Angebote bei. Man kommt im Gegenteil eher zu der Erkenntnis, dass es sich um eine Vielzahl gleichförmiger Angebote handelt und deswegen eigentlich alle zur Angebotsabgabe eingeladen werden müssten. In der Praxis unterscheiden sich, oberflächlich betrachtet, die angebotenen Produkte nur in wenigen Punkten. Allerdings gibt es im Betrieb und der Nutzung eine Reihe an deutlichen Leistungsunterschieden, die man zunächst herausarbeiten muss. Was dabei am meisten irritiert, ist die Terminologie, die Begriffswelt, mit der man dabei konfrontiert wird. Aus diesem Grund erklären wir in Abschnitt 11.4.1 diese Begrifflichkeiten. Eine Methode, um aus der Vielfalt der angebotenen Systeme recht schnell diejenigen herauszufinden, die in Frage kommen könnten, ist der Blick auf die eigenen Mitbewerber. Was genau macht denn die Konkurrenz, welche Tools setzt sie ein? Ist dies nicht möglich, kann man stattdessen in ähnlichen Branchen suchen, um zu einer Marktübersicht zu gelangen. Wie man herausbekommt, wer welches Tool benutzt, erläutern wir in Abschnitt 11.4.2. Hat man eine hinreichend kleine Menge an Anbietern selektiert, folgt die Kontaktaufnahme. Aufgrund der Besonderheiten in diesem Markt sollte auch dies mit Sorgfalt geschehen (siehe Abschnitt 11.4.4). Die weiteren Schritte der Tool-Auswahl bestehen aus: der Aufforderung zur Abgabe eines Angebots, der Sichtung und Bewertung, einer Präsentation, der Entscheidungsfindung und den Vertragsverhandlungen. Diese Punkte beschreiben wir im weiteren Verlauf des Kapitels, stellen entsprechende Methoden vor und geben Empfehlungen.
11.4.1 Klärung der Begriffe Eine Terminologie ist eine Sammlung exakt definierter und dokumentierter Fachbegriffe. In der Medizin bedient man sich dazu lateinischer Begriffe, um ein höheres Maß an Präzision zu erreichen, als dies mit lebenden Sprachen möglich wäre, und um Übersetzungsfehler zu vermeiden. In der IT und im Marketing setzen sich zunehmend englische Begriffe durch. Das ist zunächst völlig in Ordnung – wenn sich diese Worthülsen nicht ständig von ihren Bedeutungen ablösen würden und eine nur scheinbar allgemeine Bedeutung wie Latein in der Medizin suggerieren. Vermengt mit der üblichen Menge an Halbwissen, kann dies zu gefährlichen Missverständnissen führen.
209
11 Kriterien für die Auswahl eines Web-Analytics-Tools Neulich erreichte uns folgender Text in einer E-Mail: „Wir haben durch unseren SEO/SEM-Dienstleister erfahren, dass beim IE8 das Tracking mit dem normalen Trackingcode fehlerhaft ist, da der IE8 die Trackingcodes bei Schließen des Browsers automatisch löscht. Lösung ist die Installation eines Flashpixels auf jede Seite des Webauftritts. Frage ist: Könnte Produkt XYZ mit dem Flashpixel umgehen? Könnten Sie uns sagen, wie hoch die Kosten wären?“ Folgende Begriffe werden in dieser E-Mail synonym verwendet und durcheinandergewürfelt: Tracking Code: Dies ist ein Bezeichner (alphanumerische Nummer oder Name), der zur Identifikation eines einzelnen Links an diesen angehängt und zur Messung von Werbemittelklicks verwendet wird. In unserem Beispiel wird er aber fälschlich für den HTML-Code (… Tracking … fehlerhaft …) verwendet, der zur Messung in die Website einzubauen ist. Was tatsächlich gemeint ist, sind Cookies (was sich aus der Schilderung „bei Schließen des Browsers automatisch löscht“ ergibt). Flash-Pixel: Für den oben erwähnten HTML-Code haben sich auch Begriffe wie tag (englisch für Markierung) und Pixel (stammt aus der Messmethodik, ein Pixel großes Bild zu laden) eingebürgert. „Flash“ bezeichnet die proprietäre Flash-Technik von Adobe, mit der multimediale Inhalte in Websites einzubinden sind. Mit der Wortschöpfung „FlashPixel“ ist nun offenbar gemeint, dass die Messung nicht mit HTML und einem EinPixel-Bild durchgeführt wird, sondern mit einem kleinen Flash-Programm, das die Messung vornimmt und sogenannte „Flash-Cookies“ setzt statt der üblichen http-Cookies. Fachlich ist zu dem Text zu sagen, dass auch die Flash-Applikation in der Lage ist, Cookies wieder zu löschen, wenn der Anwender es wünscht und einstellt. Das geschilderte Verhalten des IE8 ist eine Sicherheitseinstellung, um sogenannte Third Party Cookies nicht oder nur für die laufende Sitzung zu akzeptieren. Dies lässt sich umgehen, indem man keine Third Party Cookies verwendet, sondern First Party Cookies. Insofern haben wir also – geht man wortgetreu vor – eine nicht funktionierende Lösung für ein nicht existentes Problem. Betrachtet man das Ganze mit etwas Distanz, merkt man, dass Folgendes passiert ist: Offenbar hat ein Experte bei einem seiner Kunden einen Verantwortlichen mit einer Riesenmenge an Fachbegriffen zugetextet, woraus dieser den Schluss zog: „Wir haben ein Problem und brauchen sofort eine Lösung.“ Die Problembeschreibung mithilfe vermeintlich klarer Fachbegriffe ist dann leider gründlich misslungen. Nun stellen Sie sich vor, genau das passiert Ihnen bei der Beschreibung Ihrer Anforderungen an das Web-Analytics-System oder während der Präsentation eines Herstellers. Sie können problemlos zwei Stunden lang hochtrabend aneinander vorbeireden – und am Ende eine gravierende Fehlentscheidung für Ihr Unternehmen treffen.
210
11.4 Effiziente Auswahlverfahren Die Begriffsvielfalt ist in der Web Analytics sehr hoch. Manchmal erinnert dieses „Buzzwordbingo“ an die Geschichte „Jüdisches Poker“ von Ephraim Kishon: Ben Gurion sticht alles. Das beginnt bereits mit so einfachen Begriffen wie Visits, Unique Visitors und PageViews. Es sei angemerkt, dass es zu diesen dreien sehr wohl allgemein verfügbare Definitionen gibt. Sie sind aber nicht genormt. Bei diesen Basisbegriffen ist dies jedoch nicht so gravierend; allerdings sind Messunterschiede zwischen Systemen mitunter auch auf die Definitionen zurückzuführen, die den drei Metriken zugrunde liegen. Dazu ein Beispiel: Ein Visit wird allgemein als eine Folge von Seitenabrufen angesehen, die nicht länger als 30 Minuten unterbrochen wurde. Was aber, wenn der Anwender den Browser schließt, wieder öffnet und die Website innerhalb von zwei Minuten wieder besucht? Hierzu ist das Messverhalten von Hersteller zu Hersteller völlig unterschiedlich und verantwortlich für eine mindestens fünfprozentige Messdifferenz zwischen unterschiedlichen Systemen. Technisch kann ein System Session-basiert arbeiten und den Neustart als zweiten Visit zählen – oder den Browser mit Hilfe persistenter Cookies identifizieren und demzufolge nur einen Visit zählen. Beides ist möglich, beides ist richtig, doch beides führt zu unterschiedlichen Ergebnissen. Prägnanter und gravierender wird es, wenn es um Metriken wie „Besucher“, „Unique Visitors“ oder „eindeutige wiederkehrende Besucher“ geht. Jeder Hersteller verwendet dafür etwas andere Begriffe – die aber suggerieren, dass alle das Gleiche meinen und als definierter Bezugspunkt unverrückbar zu sein. Was erhalten Sie wohl, wenn Sie einen Report mit dem Titel „Monthly Unique Visitors per Day“ abrufen? Berücksichtigt man noch, dass eigentlich der Begriff „Visitor“ schon falsch ist, wird es völlig verwirrend, denn es wird ja nicht der „Besucher“ gemessen, sondern nur ein Browser. Und hat man zwei oder drei Browser installiert, stellt sich die Frage: Ist man auf jedem System, das man mit verschiedenen Browsern besucht, drei „Visitors“ – frei nach Richard David Precht: „Welcher Browser bin ich, und wenn ja, wie viele?“ Die Familie hingegen, in der sich drei Menschen einen Standard-PC teilen, ist nur ein Visitor. Aus diesem Grund definiert die AGOF den „eindeutigen Besucher“ ganz anders als alle Web-Analytics-Hersteller. Die AGOF unterscheidet den Unique Client und den Unique User (www.agof.de, Index): Unique Client: „Unique Client ist die Bezeichnung für jeden einzelnen Rechner, dessen Internetnutzung (Zugriffe auf die Online-Angebote von Werbeträgern) im Rahmen der technischen Messung in gelernten Größen wie z.B. Page Impressions erhoben wird. Die technische Messung der Unique Clients erfolgt über das SZM-System der INFOnline GmbH, sobald der Rechner auf eine von der AGOF gemessene Website zugreift. Der Unique Client ist die Basis zur Herleitung des Unique Users. Clients, die im Untersuchungszeitraum an mindestens zwei Kalendertagen mit einem Abstand von mindestens 12 Stunden und maximal 35 Tagen auftauchen, werden zu Unique Clients.“
211
11 Kriterien für die Auswahl eines Web-Analytics-Tools Unique User: „Der Unique User, der ‚einzelne Nutzer‘ also, ist die Basis der internet facts. Er drückt aus, wie viele Personen in einem bestimmten Zeitraum Kontakt mit einem Werbeträger bzw. einzelnen Belegungseinheiten hatten. Der Unique User ist die Grundlage für die Berechnung von Reichweiten und Strukturen von Online-Werbeträgern sowie wesentlichen Faktoren für die Mediaplanung wie wöchentliche Nutzung, monatliche Nutzung und Kontaktaufbau. Im Datensatz der internet facts repräsentiert jede Zeile einen Unique User.“ Die Zahlen der AGOF-Reports und eines eigenen Web-Analytics-Systems weichen deshalb bei Media-Portalen üblicherweise geradezu dramatisch voneinander ab. Wie erklären Sie nun einem Laien, welche der beiden Statistiken für „eindeutige Besucher“ die richtige ist, die des Web-Analytics-Systems oder die der AGOF? Wie sich dies in der Praxis auf tiefer liegende Reports auswirkt, zeigt Abbildung 11.4.
Abbildung 11.4 Messunterschiede mit und ohne Session bezogener Messung nach [Kaushik 2008]
Nicht nur, dass die Metriken „Total Visitors“ zwischen den beiden Tools voneinander abweichen; auch der Suchwort-Report liefert unterschiedliche Ergebnisse. Was auf die eigene Site bezogen „richtiger“ ist und was eher nicht, hängt ganz von den gestellten Anforderungen ab. Der nächste Ratschlag lautet also:
212
11.4 Effiziente Auswahlverfahren Lassen Sie sich Begriffe, die Sie nicht verstehen oder deren Bedeutung und Definition nicht völlig klar ist, von einem Hersteller so lange erklären, bis Sie in der Lage sind, entsprechende Vergleiche mit anderen Herstellern anzustellen. Dies gilt insbesondere für Metriken und Dimensionen, auch wenn sie vordergründig noch so klar erscheinen.
Weiterhin ist zu empfehlen, Metriken und Dimensionen klar zu definieren und gegebenenfalls auch Berechnungsbeispiele und Messmethoden anzufügen. Fügen Sie Ihren Unterlagen die Definitionen der von Ihnen verwendeten Begriffe bei und versichern Sie sich eines gemeinsamen Verständnisses – vor einer Diskussion oder Besprechung.
Im Anhang dieses Buchs finden Sie ein Glossar, das die wesentlichen Begriffe erläutert und auch die Standarddefinitionen für eine Reihe von Metriken und Dimensionen enthält.
11.4.2 Erstellen einer Longlist Die einfachste Methode, zu einer Longlist von Anbietern zu gelangen, ist sicherlich diese: Analysieren Sie, welche Systeme Ihre Marktbegleiter und Mitbewerber im Bereich Web Analytics einsetzen. Um dies herauszufinden, genügt ein Besuch auf den Websites der Unternehmen und ein entsprechendes Plug-in für den Browser. Dafür bieten sich eine Reihe von Browser-Plug-ins an, zum Beispiel WASP (Web Analytics Solution Profiler) von immeria (siehe Anhang) oder Omnibug von Ross Simpson (ebenfalls im Anhang). Diese kleinen Werkzeuge zeigen beim Besuch einer Website an, welche Web-Analytics-Tools installiert wurden und welche Informationen weitergereicht werden. Wir empfehlen, in die Longlist nicht mehr als fünf oder sechs Anbieter aufzunehmen. Wenn Sie pro Anbieter als Aufwand für die Ausschreibungserstellung und die anschließende Auswertung und Gegenüberstellung der Angebote etwa einen bis eineinhalb Personentage veranschlagen, benötigen Sie allein für die Sichtung der Angebote von sechs Anbietern bis zu zwei Wochen. Da Sie in der Regel keine direkt vergleichbaren Angebote erhalten werden, liegt diese Schätzung nicht zu hoch. Bei Forrester und im Web-Analytics-Einkaufsführer von Ideal Observer werden die verschiedenen Tools in maximal drei Kategorien eingeteilt: Einstiegssysteme, MidrangeSysteme und High-End-Systeme. Wenn man nicht sicher ist, welches Segment am besten zu den eigenen Anforderungen passt, sollten entweder aus jedem Segment oder aus den jeweiligen Extremen Anbieter zur Angebotsabgabe aufgefordert werden. Wir verzichten darauf, an dieser Stelle ein Ranking der Tools abzugeben, da dies einerseits sehr von den gestellten Anforderungen abhängt und andererseits bei Drucklegung wahrscheinlich schon überholt wäre. Stattdessen möchten wir auf die erwähnten Quellen verweisen, in denen es jeweils aktuelle Bewertungen gibt. Um die so getroffene Auswahl abzusichern, ist es eine gute Idee, bei den Anwendern des jeweiligen Herstellers nachzufragen. Sind dies nicht gerade die Hauptmitbewerber, ist es relativ einfach, den oder die Verantwortlichen im jeweiligen Unternehmen zu finden und
213
11 Kriterien für die Auswahl eines Web-Analytics-Tools nach Preisgestaltung, Servicequalität und allgemeiner Zufriedenheit zu fragen. Generell sollte man allerdings bei direkten Referenzen der Anbieter etwas vorsichtiger sein und bei den Statements gegebenenfalls Abstriche machen.
11.4.3 Erstellen einer systematischen Ausschreibung Sobald die Longlist feststeht, können Sie die Hersteller zur Abgabe eines Angebots auffordern. Doch vorab sollten Sie diese anschreiben und um die Abgabe einer Verschwiegenheitserklärung bitten. Erst nachdem diese akzeptiert wurde, können die Unterlagen mit durchaus vertraulichen Informationen zugesendet werden. Die Ausschreibungsunterlage sollte enthalten: 1. Informationen zum eigenen Unternehmen 2. Definition der Projektziele: Was genau wollen Sie durch den Einsatz des Web-Analytics-Tools erreichen? 3. Ein Mengengerüst – das sind die Angaben zur Anzahl der Websites, der vermutlichen Benutzer des Systems sowie der Reichweiten der Websites pro Monat und Jahr 4. Die Anforderungsspezifikation – eine Beschreibung der fachlichen Anforderungen an das System (dazu mehr in Kapitel 12) 5. Nichtfunktionale Anforderungen wie Datenschutz, Sicherheit und Service-Level-Vereinbarungen 6. Eine Beschreibung der vom Anbieter zu erbringenden Dienstleistung: Dieser Punkt wird in der Regel vergessen, da man zu sehr das Softwaresystem im Auge hat, aber nicht dessen Integration! 7. Die Projektstruktur und den Zeitrahmen 8. Die allgemeinen Ausschreibungsbedingungen 9. Die rechtlichen Rahmenbedingungen für den Vertrag Fordern Sie den Anbieter zur Abgabe eines Gesamtpreises für eine angestrebte Vertragslaufzeit auf, um zu verhindern, dass aufpreispflichtige Elemente in „Salamitaktik“ nachgereicht werden. Die Ausschreibungsunterlage sollte zudem Auskunft über die von Ihnen angestrebte Form des Vertrages enthalten.
11.4.4 Aufforderung zur Angebotsangabe Sobald die Ausschreibungsunterlagen bei den ausgewählten Anbietern vorliegen, sollten Sie mit Überraschungen rechnen: Vermutlich wird sich jeder der angefragten Hersteller außerstande sehen, das Angebot in der von Ihnen vorgegebenen Zeit zu erstellen. Jeder wird Ihnen zudem erklären, dass Ihre Vorgehensweise unüblich und gar nicht sinnvoll sei und dass es viel einfacher wäre, Sie würden sofort einen Vertrag für das Standardprodukt unterschreiben – das Ihre läppischen Anforderungen zur Genüge erfülle. Dann seien Sie in der Lage, mit dem Tool erst mal Er-
214
11.4 Effiziente Auswahlverfahren fahrungen zu sammeln, um anschließend eine bessere Ausschreibung zu erstellen. Dafür komme man Ihnen im Preis entgegen, den ohnehin keiner der Mitbewerber unterbieten könne, weil man Letzteren technologisch um Lichtjahre voraus sei. Es erfordert nun Ihr Geschick, die Anbieter zur Abgabe eines qualifizierten Angebots zu bewegen. Die Drohung, den Anbieter von der Liste zu streichen, könnte Sie am Ende ganz ohne Anbieter dastehen lassen. Doch mit einem Verweis auf interne Einkaufsregularien und Ähnlichem bekommt man in der Regel Disziplin in den Prozess. Solange nicht alle Angebote vorliegen, sollten Sie keine Entscheidung treffen und auch keine Präferenzen gegenüber den Anbietern äußern. Aber das sollte im Einkaufsprozess sowieso selbstverständlich sein.
11.4.5 Auswertung und Entscheidungsfindung Die Auswertung der Angebote findet in zweierlei Hinsicht statt: fachlich und kaufmännisch. Fachlich bewerten Sie die Antworten und Lösungsvorschläge der Hersteller zu Ihren Anforderungen. Hier empfehlen sich Punkte- und Notensysteme. Das Punktesystem hat den Vorteil, dass es direkt mit in die kaufmännische Bewertung einfließen kann. Wir verwenden bei den Bewertungen ausschließlich das Punktesystem nach folgenden Grundprinzipien: Für das Erfüllen einer Anforderung wird eine bestimmte Anzahl von Punkten festgelegt. Ist die Anforderung strategisch und wichtig, ist die Punktezahl hoch und umgekehrt. Der Grad der Erfüllung wird nun in Form eines Prozentfaktors auf die maximale Punktezahl angewendet. Zum Schluss werden alle Punkte addiert und ins Verhältnis zur maximal möglichen Punktezahl gesetzt. Tabelle 11.2 Beispiel eines Bewertungskataloges nach Punkteschema Anforderung
Punktezahl
% Erfüllung
Ergebnis
… 17.) Warenkörbe müssen in den Metriken Wert und Anzahl den Marketingkanälen zugeordnet werden können. Drill Down muss in beide Richtungen (Kanal Warenkörbe, Warenkorb Kanäle) möglich sein.
20
80%
16
5
100%
5
348
85%
296
… 43.) Anzahl der Bestellungen je Zeiteinheit, Stunde, Tag, Woche, Monat, … … Summe
Wie Tabelle 11.2 zu entnehmen ist, erreicht der Hersteller bei der Erfüllung der Anforderungen im Durchschnitt über alle Anforderungspunkte 85% der möglichen Punktzahl. Um
215
11 Kriterien für die Auswahl eines Web-Analytics-Tools zu einem schlüssigen Gesamtergebnis zu gelangen, rechnen wir die Differenz zu 100% auf den Angebotspreis auf, als diejenige Summe, die erforderlich wäre, um die fehlenden Leistungsmerkmale zusätzlich herzustellen. Tabelle 11.3 Beispiel einer Gesamtauswertung Anbieter A Angebotspreis Erfüllungsgrad
60.000,- € 65%
Anbieter B
Anbieter C
75.000,- € 85%
88.500,- € 95%
Aufschlag
21.000,- €
11.250,- €
4.425,- €
fiktiver Gesamtpreis
81.000,- €
86.250,- €
92.925,- €
Im Beispiel in Tabelle 11.3 wird man eine Entscheidung zwischen Anbieter B und C suchen, obwohl Anbieter A beim Angebotspreis der vermeintlich günstigste ist. Bei einem Benotungssystem nach Schulnoten ist dieser mathematisch-kaufmännische Trick nicht möglich, und die Auswertung wird etwas schwieriger. Im vorliegenden Beispiel wird man im nächsten Schritt Anbieter B und C zur Präsentation einladen. Diese Produktpräsentation muss sorgfältig geplant sein, wenn sie nicht zu einer Verkaufsveranstaltung des Herstellers geraten soll. Geben Sie den Anbietern eine klare Agenda der zu behandelnden Fragen und Aufgabenstellungen vor. Diese Punkte müssen sich an den strategischen Anforderungen aus Ihrer Anforderungsspezifikation orientieren (also zum Beispiel aus Tabelle 11.2, Punkt 17). Da Sie nicht umhinkommen werden, einen Teil des Marketing-Buzz über sich ergehen zu lassen, sollten Sie eine klare Zeitvorgabe anbieten, um den wesentlichen Fragen genügend Raum zu geben. Fordern Sie die Anbieter auf, in der Präsentation die für Sie strategisch wichtigen Fragen zu behandeln. Lassen Sie sich anhand von Beispielen zeigen, wie die Lösung arbeitet. Stellen Sie sich die Frage, ob Sie zwei Jahre mit der dargestellten Lösung operieren können. Insistieren Sie auf einer Präsentation von Beispielen mit Bezug zur Ausschreibung anstelle generischer Demonstrationen – dazu ist die Zeit zu kostbar und das Thema zu wichtig.
Auch bei Software-Demonstrationen stehen Relevanz und Signifikanz manchmal in reziprokem Verhältnis zueinander. In der Web Analytics werden Sie kaum eine Verkaufsveranstaltung finden, auf der keine Heatmaps und Klickmaps in epischer Breite demonstriert werden. Heat- und Klickmaps sind bunt, schrill, und haben den Aaah- und Oooh-Effekt bei den Zuschauern bereits eingebaut. Unter dem Begriff Klickmap versteht man eine besondere Form der Anzeige bestimmter Metriken direkt in der gemessenen Website. Dabei werden Klicks, Umsätze oder andere Metriken wie Visits, direkte Links und interaktive Elemente wie Buttons oder Formulare, die in der Website vorhanden sind, zugeordnet und angezeigt. Im Gegenzug dazu wird bei Heatmaps die tatsächliche Mausposition bei einem Klick auf der Site gemessen und in
216
11.4 Effiziente Auswahlverfahren Form von „Temperaturkarten“ über die Seite gelegt: Wo häufig geklickt wird, ist die Site „heiß“ und wird rot oder gelb eingefärbt, in den anderen Bereichen grün oder blau. Beide Techniken bieten eine Momentaufnahme der aktuellen Website, die mit früheren Messdaten verglichen wird. Bei Websites, in denen sich die Elemente sehr rasch ändern, ist die Anzeige deshalb beliebig falsch. Bei einem Shop, der die Teaserflächen auf den Landing Pages zweimal täglich austauscht, haben Heat- und Klickmaps eine Halbwertszeit von etwa sechs Stunden. Bei Medienportalen, die kontinuierlich neue Artikel veröffentlichen, sind sie fast unbrauchbar. Heat- und Klickmaps sind also völlig bedeutungslos, wenn es um das tägliche Geschäft, die operative Steuerung einer Shopkategorie innerhalb einer Reseller-Website oder um die Frage nach der Marketing-Budgetierung für das 3. Quartal geht. Heat- und Klickmaps ohne Archivierung dazugehöriger Screenshots sind immer nur statische Momentaufnahmen und bieten weder Zeitverlauf noch Historisierung von Daten – Funktionen, über die die meisten Web-Analytics-Tools derzeit ohnehin nicht verfügen. Seien Sie vorsichtig bei allzu euphorischen Produktpräsentationen. Sie benötigen keine Features, sondern Antworten auf konkrete Fragen aus Ihrem Business. Stellen Sie sich bei Präsentationen also immer die nüchterne Frage: Was könnte ich besser machen, wenn ich diese Funktion nutzen würde, und welchen monetären Gegenwert hat diese Verbesserung?
11.4.6 Die Vertragsverhandlung Bei einem großen Versandhandelsunternehmen leitete der zuständige Einkaufsleiter die Vertragsverhandlung – es ging um den Kauf eines Web-Analytics-Tools – mit dem Satz ein: „Der Einzige, der hier nein sagt, bin ich!“ So großspurig müssen Sie in der gleichen Situation nicht zwingend einsteigen, aber Sie benötigen durchaus eine gewisse Hartnäckigkeit, um Ihre Vorstellungen eines Vertrags durchzusetzen und nicht die des Anbieters zu akzeptieren. Die rechtlichen Unterschiede zwischen einer Dienstleistung, einer Softwarelizenz und einer werkvertraglichen Leistung sind in der deutschen Gesetzgebung im BGB im Abschnitt „Schuldrecht“ klar geregelt. Wenn die von Ihnen aufgestellten Anforderungen und die erstellte Ausschreibung die Erfüllung bestimmter Leistungen fordern, wie Systemkonfiguration, Schulung, Tagging der Website – oder auch nur die Erstellung eines technischen Konzepts zur Umsetzung durch Ihre internen Ressourcen –, handelt es sich bei dem zugrunde liegenden Vertrag in der Regel um einen Werkvertrag, bestehend aus Lieferung und Leistung. Bestehen Sie also darauf, dass der Anbieter eine vertraglich zugesicherte Lösung liefern muss und nicht nur eine Softwarelizenz zur Nutzung bereitstellt. Darüber hinaus ist es empfehlenswert, die in den Ausschreibungsunterlagen vorliegenden Zusicherungen insbesondere bei den strategischen Anforderungen auch zum Vertragsbestandteil zu machen. Meistens wird der Anbieter versuchen, dies abzuwenden – was ein Grund mehr für Sie sein sollte, darauf zu bestehen.
217
11 Kriterien für die Auswahl eines Web-Analytics-Tools
218
12 12 Einführung eines Web-AnalyticsSystems Sobald ein Web-Analytics-Tool ausgewählt ist, folgt als logischer nächster Schritt dessen Integration und Einführung. Der häufigste Fehler hierbei ist, diesen Schritt zu unterschätzen. Selbst unter der Voraussetzung, dass man alle vorhergehenden Maßnahmen sorgfältig geplant und durchgeführt hat, werden nach unserer Erfahrung die meisten Fehler in der Umsetzungsphase gemacht. Die an die Webanalyse-Leistung gestellten Anforderungen können nur dann tatsächlich erfüllt werden, wenn in der Umsetzung und Einführung die Grundsätze fundierten Projektmanagements angewendet werden. Doch zunächst wollen wir den Begriff „Einführung“ ein wenig erläutern. Generell ist unter der „Einführung eines Softwaresystems“ – und um nichts andere handelt es sich bei einem Web-Analytics-System – die Zusammenfassung folgender Projektschritte zu verstehen: 1. Erstellung eines technischen Implementierungskonzeptes und dessen Abnahme 2. Umsetzung des technischen Konzepts und softwaretechnische Implementierung des ausgewählten Web-Analytics-Tools in der Website 3. Test und Validierung der gemessenen Daten 4. Freigabe des technischen Systems 5. Schulung der betroffenen Mitarbeiter 6. Erstellen des Standardreportings 7. Definition und Durchlaufen der Prozesse zur Analyse und Optimierung sowie der Standardreports Abgesehen von den üblichen Kompromissen, die in der Implementierung im Spannungsfeld von Zeit, Budget und Anforderungen geschlossen werden müssen, sehen wir in der Praxis leider kaum Projekte, die sich mit den Schritten 3 bis 7 tatsächlich befassen. Dies ist um so verwunderlicher, weil uns häufig in den Projekten, die wir betreuen, und auch in den Interviews mit Fachabteilungen mitgeteilt wird: Zwar sei klar, dass die Zahlen zum Teil nicht stimmen, die eigentlich wichtigen Zahlen nicht gemessen werden und man nicht wisse, wie man auf Basis der gewonnenen Zahlen Optimierungen vornehmen könnte – den-
219
12 Einführung eines Web-Analytics-Systems noch kenne man keine Möglichkeit, diese unbefriedigende Situation zur verbessern. Viele Unternehmen geben dem Tool die Schuld an den festgestellten Unzulänglichkeiten und starten den Auswahl- und Integrationsprozess von Neuem. In einem solchen Fall ist es nicht verwunderlich, wenn das Unternehmen nach einem weiteren Jahr beispielsweise feststellt, dass es sich kaum verbessert hat. Woran liegt es, wenn Unternehmen so wenig effizient vorgehen? Um dies aufzuzeigen, nennen wir zuerst vier Gründe, die zu diesem „schleichenden Versagen“ führen. Im Anschluss befassen wir uns mit der beispielhaften Umsetzung der zuvor aufgelisteten sieben Schritte.
12.1
Vier Gründe für erfolglose Web-Analytics-Projekte Die Gründe für das Scheitern von Web-Anaytics-Projekten können sehr unterschiedlich sein. Doch eines haben sie gemeinsam: Die vertrackte „Hysteresis“, der Zeitverzug zwischen der Ursache eines Fehlers und dem Auftreten seiner Wirkung. Diese Spanne beträgt nach unseren Erfahrungen zwischen sechs und zwölf Monaten. Anders ausgedrückt: Ob Ihr Web-Analytics-Projekt erfolgreich war, wissen Sie frühestens sechs Monate nach dessen Beendigung! Der Grund liegt in der Natur der Sache: In einem frisch gestarteten System sind noch keine Daten enthalten – in diesem leeren Zustand „funktioniert“ das Tool noch prima. Erst nachdem die ersten Online-Marketing-Kampagnen über die Website und das Web-Analyse-System zu einem ordentlichen Datenvolumen im Web-Analytics-Tool geführt haben, können Sie feststellen, ob die Implementierung tatsächlich die gestellten Anforderungen erfüllt. Zwar können Tests im Vorfeld auf den Staging-Systemen oder in Testumgebungen die gröbsten Fehler vermeiden helfen – doch leider verhalten sich Systeme gerne anders als die Summe ihrer einzelnen Module. Nicht umsonst ist Software-Testing in der Informatik eine eigene Disziplin. Sechs Monate nach Projektende einen Fehler zu reklamieren, ist in den meisten Organisation ein sehr schwieriges Unterfangen, gilt es doch, die unangenehme Frage zu beantworten, wieso man den Fehler erst jetzt bemerkt und wer dafür die Kosten und Verantwortung übernimmt. Auch erfüllt sich nach dieser langen Zeit eine Binsenweisheit der Softwareentwicklung: Je früher ein Fehler gemacht wird und je später man ihn entdeckt, desto höher sind der Schaden und die Kosten, um ihn zu beseitigen.
12.1.1 Grund 1: Unvollständiges Formulieren der Anforderungen Eine der Hauptursachen für das Scheitern ist eine unvollständige oder nicht tief genug gehende Anforderungsanalyse. Vielfach werden zu allgemeine Anforderungen formuliert wie: „Wir müssen die Effizienz der Online-Marketing-Maßnahmen nachprüfen können“, doch Begriffe wie „Maßnahme“, „Erfolg“ oder „nachprüfen“ wurden nicht genau genug definiert. Zu einfach sind auch jene Anforderungskataloge, die gerne mit Excel zusammengestellt werden. Da gibt es Auflistungen wie:
220
12.1 Vier Gründe für erfolglose Web-Analytics-Projekte … 17. Abverkäufe je Kanal 18. Umsatz je Produkt … Solche Aufgaben beherrscht im Grunde jedes am Markt befindliche Web-AnalyticsSystem. Insofern freut sich jeder Tool-Anbieter über eine solche Liste, weil er in der Regel alles zu 100 Prozent erfüllen könnte. Doch spannend wird es, wenn man bei den Autoren der Liste genauer danach fragt, was sie tatsächlich erfahren wollen. Häufig kommen hierbei völlig neue, weitaus kompliziertere Anforderungen zum Vorschein: Man erfährt beispielsweise, dass sie selbstverständlich davon ausgehen, dass die einzeln aufgeführten Punkte beliebig kombinierbar sein sollen und dass Umsatz, Abverkauf, Produkt und Kanal in allen Richtungen pivotierbar und in einem zeitlichen Verlauf darstellbar sein sollen. Das Problem: Keine dieser Erwartungen steht auf der Liste. Es ist also kein Wunder, wenn eine Webanalyse ausschließlich das zutage fördert, was anhand der Anforderungsliste formuliert wurde – nicht aber die Leistungen, die ein Autor „selbstverständlich“ erwartet, aber mit keinem Wort erwähnt. Wie lange brauchen Sie, um diesen Denkfehler zu bemerken? So lange, bis ausreichend Daten aus dem Online-Marketing erfasst und anhand von Standard-Reports verteilt wurden, also etwa drei bis sechs Monate nach Freischaltung des Systems.
!
Achtung vor zu einfach formulierten Anforderungslisten: Vor allem dem Formulieren gewünschter Zusammenhänge zwischen einzelnen Daten muss viel Aufmerksamkeit geschenkt werden. Kontrollieren Sie, ob jeder auch noch so kleine Analysewunsch klar und detailliert ausformuliert wurde. Seien Sie pingelig. Holen Sie sich Unterstützung, wenn Sie sich nicht sicher sind – denn sollte die Anforderungsliste nicht exakt formuliert sein, bekommen Sie womöglich nicht die erwarteten Ergebnisse.
12.1.2 Grund 2: Fehlendes ganzheitliches Denken Web-Analytics-Projekte sind interdisziplinär und erfordern Abteilungs-übergreifendes Denken und Handeln. Warum ein ganzheitlicher Denkansatz so wichtig ist, belegt ein Beispiel aus unserer Beratungsarbeit: 2009 beauftragte uns ein namhafter Telekommunikationsanbieter, die Ist-Situation seines Reportings im Online-Marketing darzustellen, Verbesserungsvorschläge zu machen und zudem Ausschreibungsunterlagen für ein neues WebAnalytics-System vorzubereiten. Zu diesem Zeitpunkt hatte das Unternehmen im Konzernverbund bereits zahlreiche Web-Analytics-Systeme im Einsatz, darunter Tools freier Anbieter sowie selbst entwickelte Systeme. Zudem hatte es mehrere Agenturen mit der Durchführung budgetierter Online-Marketing-Maßnahmen betraut. Und von diesen wiederum betrieb jede ihr eigenes System zur Performance-Messung. Zahlenmaterial gab es also in rauen Mengen. Wo lag dann das Problem? Darin, dass das zentrale Marketing des Unternehmens keine Übersicht über die kanalbezogene Effizienz aller Onsite- und OffsiteMaßnahmen hatte. Die Gründe dafür waren vielfältig:
221
12 Einführung eines Web-Analytics-Systems Die Agenturen weigerten sich, Zahlenmaterial untereinander auszutauschen und zu aggregieren. Die eingesetzten freien Tools waren nicht in der Lage, siteübergreifend zu messen. Die selbst entwickelten Systeme konnten nicht sessionübergreifend messen. Ein Export aller Daten in ein einziges Datawarehouse war aufgrund der fehlenden durchgängigen Kennzeichnungssystematik nicht möglich und auch zwecklos. Die Systeme lieferten völlig unterschiedliche Kennzahlensysteme auf teilweise sehr niedrigem Qualitätsniveau. Wie kam es zu einer solchen Situation? Jedes einzelne System erfüllte nur jene Anforderungen, die der jeweilige Fachbereich stellte: So erfasst das selbst entwickelte System aus Datenschutzgründen keine Session-übergreifenden Daten, denn die IT schloss die Verwendung von Cookies aus. Die Agenturen wiederum interessierten sich nur für ihre eigenen Kampagnen und geben die damit gewonnenen Daten nicht an ihre Mitbewerber weiter. Jeder einzelne Site-Verantwortliche hat für seine Site ein eigenes Tool eingesetzt – ohne sich mit seinen Kollegen oder anderen Site-Verantwortlichen abzusprechen. Leider hat keiner der Genannten die Anforderungen des zentralen Marketings abgefragt oder berücksichtigt. Eine ganzheitliche, unternehmensweite Sicht war also schlicht nicht vorhanden. Diese führte zum Einsatz heterogener Lösungen, die nicht interoperabel sind. Abteilungen und externe Dienstleister müssen wissen, dass sie keine abgeschotteten WebAnalytics-Projektinseln aufbauen dürfen, sondern Webanalysepläne stets interdisziplinär besprechen sollen. Die einhellige Meinung aller Fachleute auf dem Gebiet Web Analytics ist: Machen Sie Web Analytics zu einem übergeordneten, wenn nicht sogar zur Chefsache bzw. zum Vorstandsthema. Lassen Sie die Unternehmenssicht als zentrale Anforderung in alle Projekte einfließen. Besprechen Sie mit Ihren externen Dienstleistern, welche Webanalyse-Daten Sie von ihnen haben möchten.
12.1.3 Grund 3: Der Implementierungsaufwand wird unterschätzt Wie groß der Implementierungsaufwand ist, um ein Web-Analytics-System erfolgreich in eine oder mehrere Websites zu integrieren, hängt von einer Reihe von Faktoren ab, die zu Projektbeginn bewertet werden müssen: Menge der zu vertaggenden Seiten und Templates Komplexität der zu erhebenden Kennzahlen (Dimensionen und Metriken) „Web-Analytic-Skills“ des verantwortlichen Teams Bemerkenswert ist, dass ein eingesetztes Tool kaum Einfluss auf den Aufwand hat: Dies ist umso überraschender, weil die Hersteller gerne damit werben, dass die Integration ihres Tools im Gegensatz zu dem der Konkurrenz besonders leicht sei. Eine solche Behauptung mag gelegentlich richtig sein, da es durchaus Unterschiede in der Art und Weise der Integration gibt. Allerdings überwiegt der Einfluss der soeben genannten drei Faktoren, um bei der Integration eines Tools Zeit zu sparen. Wir haben es also mit einem Mengen- und
222
12.1 Vier Gründe für erfolglose Web-Analytics-Projekte einem Komplexitätsproblem zu tun, nicht mit einem algorithmischen oder Programmiersprachenproblem. In nahezu allen von uns betrauten Projekten entdeckten wir den gleichen, nahezu klassischen Denkfehler: die Annahme, eine Integration sei nichts weiter als das Einkopieren einiger weniger Codezeilen, die für alle Webseiten gleich sind und deshalb – selbst bei einer großen Anzahl von Seiten – fast automatisch und schnell erfolgen könne. In diesem Fall wird die funktionale Umsetzung gefährlich unterschätzt. Dazu ein Beispiel: Wenn in der Produktansichtsseite das angezeigte Produkt mit seiner Bestellnummer und seiner Produktkategorie gezählt werden soll, muss diese Information an das Web-Analytics-Tool weitergegeben werden. In einer Kategorieübersichtsseite hingegen haben Sie keine Produktnummer, sondern nur die Kategorie. In der Landing Page wiederum haben Sie vielleicht ein Produkt, vielleicht eine Kategorie, je nach Art der Landing Page. In diesem Beispiel haben wir also drei verschiedene Seitentypen mit sehr unterschiedlichem Datenumfang, den es zu messen gilt. Demzufolge müssen die „Tags“ in diesen drei Seitentypen auch sehr unterschiedlich aussehen, weil sie höchst unterschiedliche Informationen aus dem Backend der Website abrufen müssen. Das schlichte Einkopieren eines „Standardtags“ wird die Analyseanforderungen an die einzelnen Seiten bestimmt nicht erfüllen. Insofern ist es nicht überraschend, wenn wir in der Phase der Umsetzung und Integration oft zu hören bekommen: „Sie meinen, wir müssen jede Seite einzeln anfassen und all das einprogrammieren? – So haben wir aber nicht kalkuliert …“ Unsere Antwort ist immer die gleiche: „Ja, daran führt kein Weg vorbei.“ Denn die Unterschätzung des Aufwands führt meistens zu folgenden Konsequenzen: Weil der tatsächliche, höhere Aufwand nicht budgetiert wurde, sucht man nach Kompromissen, um das Projekt wieder „on time – in budget“ zu bekommen. Am Ende werden die nötigen Details nicht umgesetzt – oder man baut erst mal „Provisorien“ mit dem Ziel, dies später zu korrigieren. Es ist wohl überflüssig zu erwähnen, dass es kein „später“ geben wird, denn die Resultate sind im günstigsten Fall unzureichend und im schlimmsten Fall schlicht falsch. Im weiteren Verlauf dieses Kapitels nennen wir Beispiele, wie man zu einer realistischen Aufwandseinschätzung gelangt. Das Implementieren eines Web-Analytics-Tools ist eine filigrane Aufgabe, für die Zeit und Fingerspitzengefühl aufgebracht werden muss. Für eine erfolgreiche Implementierung müssen die Funktionen und die Inhalte der einzelnen Seiten beachtet werden. Eine schnelle, quasi automatische Implementierung gibt es nicht. Lassen Sie sich von der Werbung für die Tools nicht täuschen.
12.1.4 Grund 4: Ein „untaugliches“ Web-Analytics-System Gleich vorweg: Jedes System, das von professionellen Softwareentwicklern erstellt und von engagierten Unternehmen vertrieben wird, ist zunächst einmal gut. „Untauglich“ wird es erst, wenn es für Anforderungen verwendet werden soll, die es nicht erfüllen kann. Web-Analytics-Tools sind in erster Linie Softwaresysteme – inklusive ihrer Fehler. Es kommt sogar vor, dass Systeme nicht so rechnen, wie ein Betreiber es erwartet. Die Dinge
223
12 Einführung eines Web-Analytics-Systems sind mitunter komplizierter, als man bei oberflächlicher Betrachtung erkennen kann. Dazu ein Beispiel aus der Praxis: In einem Online-Shop erfolgen zwei Bestellungen. Zwei Warenkörbe enthalten die Produkte A, B, C oder D aus den Produktkategorien P und Q: Tabelle 12.1 Warenkorb 1: Produkt
Kategorie
Bestellmenge
A
P
2
B
P
1
C
Q
1
Tabelle 12.2 Warenkorb 2: Produkt
Kategorie
Bestellmenge
B
P
1
D
Q
1
Daraus ergeben sich folgende Alternativen, um die Statistiken darzustellen – je nachdem, ob man die Zahlen aggregiert oder akkumuliert: Tabelle 12.2 Verschiedene Kennzahlen je nach Berechnungsmethode: Dimension
Aggregation
Akkumulation
Anzahl Bestellungen insgesamt
2
5
Anzahl Bestellungen für Produkt A
1
2
Anzahl Bestellungen für Produkt B
2
2
Anzahl Bestellungen für Kategorie P
2
4
Anzahl Bestellungen für Kategorie Q
2
2
Ist nun die Darstellung der Kategorie P in Form einer Aggregation der Bestellungen richtig? Oder als Akkumulation der Bestellmengen? Beide Darstellungen sind, unter den gegebenen Ausgangsprämissen, korrekt. Doch die richtige Antwort kann nur auf Basis der individuell vom Unternehmen gestellten Anforderungen gefunden werden. Der Unterschied zwischen diesen beiden Darstellungsarten ist wesentlich und kann entscheidend dafür sein, ob ein Tool für ein Webanalyse-Projekt in einem Unternehmen taugt. Es kommt darauf an, welche Berechnungsarten es ermöglicht und welche davon das Unternehmen benötigt. Im genannten Beispiel sah sich der Tool-Hersteller außerstande, die geforderte Darstellung (aggregierte Zahlen) innerhalb eines für den Kunden akzeptablen Zeitrahmens zu implementieren. Dies führte letztendlich zum Einsatzstopp des Systems.
224
12.2 Projektstruktur und Projektteam Kein Tool ist per se schlecht. Es kommt darauf an, welche Aufgaben ein System erfüllen soll. Fehler bei der Auswahl lassen sich durch den Test eines Systems anhand eines Prototypen vermeiden. Die Auswahl nach rein kaufmännischen Gesichtspunkten (anhand unzureichender Anforderungstabellen mit disjunkten Aufzählungen von Metriken oder Dimensionen) führt häufig zu Problemen in der Analyse. Es lohnt sich nicht, den vermeintlich preiswerteren Anbieter auszuwählen, dessen System über einen ungenügenden Funktionsumfang verfügt.
12.2
Projektstruktur und Projektteam Für die Einführung eines Web-Analytics-Systems ist ein interdisziplinäres Projektteam zu empfehlen. Die Geschäftsleitung oder das Management, Marketing, IT oder Technik arbeiten hier oft mit externen Dienstleistern und Beratern zusammen. Ziel der Projektleitung ist es, die Kenntnisse und Anforderungen aus allen Bereichen des Unternehmens gewinnbringend in das Projekt einfließen zu lassen. Ein Web-Analytics-Projekt ausschließlich von Marketing oder IT durchführen zu lassen, führt unserer Erfahrung nach nicht zu optimalen Ergebnissen: IT-Verantwortliche neigen dazu, sich am technisch Machbaren zu orientieren. Dies führt zu technologisch interessanten, für den Geschäftserfolg aber wenig relevanten Kennzahlen. Das Marketing setzt zwar meistens relevante Kennzahlen um, generiert aber in der Zusammenarbeit mit externen Dienstleistern häufig strukturelle Insellösungen, die nur schwer in die (informations-)technische Infrastruktur zu integrieren sind. Idealerweise führt die Geschäftsleitung das Web-Analytics-Projekt gemeinsam mit Mitgliedern aus allen beteiligten Funktionen einer klassischen Matrix-Organisation. Die Themenschwerpunkte der Projektleitung sind: die Rentabilität der Web-Analytics-Einführung (Return on Investment – ROI), die durchgängige technische Implementierung und die Konzentration auf jene Key Performance Indicators, die tatsächlich die wichtigsten strategischen und operativen Ziele abbilden.
12.3
Planung des Web-Analytics-Systems Jedes Unternehmen stellt individuelle Anforderungen an ein Web-Analytics-System. Dementsprechend unterschiedlich kann die Planung ablaufen. Dennoch haben wir anhand unserer langjährigen Erfahrung in zahlreichen Projekten, die wir betreuten, einen StandardProjektablauf erarbeitet. Dieser hat sich – natürlich in unterschiedlicher Gewichtung und Ausprägung – als sehr nützliche Basis bewährt. Die einzelnen Schritte in einem WebAnalytics-Projekt sollten sein:
225
12 Einführung eines Web-Analytics-Systems Exemplarischer Projektablauf 1
Vorbereitung 1.1 Erstellen eines umfassenden Anforderungskatalogs 1.2 Erarbeiten des Optimierungspotenzials und monetäre Bewertung (notwendig für die ROI-Berechnung) 1.3 Erarbeiten eines RFIs (Request for Information) für die Auswahl der WebAnalytics-Tools bzw. deren Hersteller 1.4 Auswahl eines geeigneten Tools
2
Integration 2.1 Vertiefen des Anforderungskatalogs für die Umsetzung 2.2 Erstellen eines technischen Umsetzungskonzepts mit entsprechendem DetailProjektplan 2.3 Integration in die Website und erste Validierung der gemessenen Zahlen
3
Administration 3.1 Aufsetzen der Benutzerverwaltung, Erstellen und Konfigurieren der Reports 3.2 Aufstellen der ETLs (ETL – Extraction Transformation Load – DWH-Technik) für die Datenflüsse in andere Informationssysteme
4
Abschluss 4.1 Test des Systems und detaillierte Validierung der Zahlen 4.2 Projektabnahme und Inbetriebnahme
5
Systemeinführung 5.1 Schulungen und Trainings der Mitarbeiter 5.2 Einphasen der Analyse- und Reportingprozesse
6
Pflege und Wartung 6.1 Change Management und kontinuierliche Pflege des Systems
Im weiteren Verlauf dieses Kapitels gehen wir auf jede einzelne Phase dieses Projektplans ein und geben Empfehlungen für Best Practices. Es sei vorausgeschickt, dass der (künftige) Betreiber eines Web-Analytics-Systems im Laufe der Projektplanung entscheiden muss, wie umfangreich und tief jeder einzelne Schritt ausfallen soll. Dies hängt im Wesentlichen von Umfang und Strategie der geplanten Lösung ab. Allgemeingültige Regeln, um den Aufwand für die einzelnen Schritte einschätzen zu können, gibt es nicht. Grundsätzlich ist jedoch ein Mehr an Planung nicht falsch, denn vielfach haben wir eher das Gegenteil kennengelernt: Die Ursachen für eine unzureichende Web-Analytics-Lösung lagen nur allzu häufig in der vernachlässigten Planung.
226
12.4 These: Web-Analytics-Projekte sind gar keine Projekte
12.4
These: Web-Analytics-Projekte sind gar keine Projekte Was genau ist denn ein „Projekt“? Die DIN/EN Iso 9000 Norm definiert es wie folgt: „Ein Projekt ist ein einmaliger Prozess, der aus einem Satz von abgestimmten, gelenkten Tätigkeiten mit Anfangs- und Endtermin besteht und durchgeführt wird, um unter Berücksichtigung von Zwängen bezüglich Zeit, Kosten und Ressourcen ein Ziel zu erreichen, das spezifische Anforderungen erfüllt.“ Betrachtet man also Web-Analytics-Projekte im Licht dieser Definition, muss man streng genommen feststellen, dass sie nicht zutrifft. Und zwar aus folgenden Gründen: Einmaligkeit: Ein Web-Analytics-Projekt ist nicht einmalig, sondern ein kontinuierlicher Prozess, der aus den Aufgaben Messung, Analyseoptimierung, und erneute Messung besteht. Anfangs- und Endtermin: Ein Web-Analytics-Projekt endet nicht nach der Systemeinführung – es sei denn, der Betreiber verändert seine Website nicht mehr. Vielmehr muss das System kontinuierlich an die sich verändernden Rahmenbedingungen angepasst werden.
!
Permanente Pflege und Betreuung einer Web-Analytics-Lösung ist sehr wichtig! Dies muss bereits bei der Planung berücksichtigt werden. So wie sich die Website im Laufe der Zeit neuen Zielen und Anforderungen des Unternehmens anpasst, muss auch die WebAnalytics-Lösung angepasst werden. Das Bereitstellen von Ressourcen und Mitteln für diese Betreuung muss bereits am Anfang geplant und in der ROI-Berechnung berücksichtigt sein.
Weil sowohl Ressourcen als auch die Mittel für die kontinuierliche Pflege je nach Website einen größeren Umfang annehmen können, sollte auf alle Fälle eine TCO-Betrachtung bezogen auf zwei oder drei Jahre für die Gesamtlösung erstellt werden. Unter dem Aspekt der „Total-Cost-of-Ownership“ darf nicht nur der Anschaffungs- oder Lizenzpreis einer Lösung betrachtet werden, sondern auch die Kosten für Betrieb, Wartung, Pflege und Weiterentwicklung im vorgegebenen Zeitraum. Wir haben die Erfahrung gemacht, dass bei einer belastbaren TCO-Berechnung verschiedener Lösungen insbesondere Inhouse-Lösungen und selbst erstellte Systeme häufig schlechter abschneiden als extern betriebene. Dies soll kein Präjudiz für oder gegen die eine oder andere Lösung sein, sondern deutlich machen: Eine Bewertung unter Vernachlässigung der „So-da-Kosten“ oder „Eh-da-Kosten“ kann zu falschen Entscheidungen führen.
12.5
Projektdauer und -aufwand Die Dauer für die Einführung eines Web-Analytics-Systems hängt natürlich stark von den Anforderungen ab. In der Regel muss man mit drei bis sechs Monaten rechnen. Aufgrund der Vielzahl der beteiligten Projektmitglieder aus verschiedenen Funktionen und der engen Verknüpfung mit der geschäftlichen Strategie sind kürzere Projektlaufzeiten selten zu erreichen.
227
12 Einführung eines Web-Analytics-Systems Es ist relativ schwer, allgemeine Aussagen über den Aufwand eines Web-Analytics-Projekts zu treffen, weil die Anforderungen und die technischen Implikationen je nach Website, Tool-Hersteller und Projektorganisation sehr weit gefächert sein können. Generell können jedoch für die Aufwandkalkulation folgende Regeln gelten: Die in die Website zu integrierenden HTML-Elemente (Tracking Pixel, Landmark) sind von Hersteller zu Hersteller sehr unterschiedlich aufgebaut und erfordern deshalb unterschiedliche Backend-Integrationen bei komplexen Dimensionen und Metriken. Generell sind die genutzten HTML-Elemente der einzelnen Tool-Hersteller untereinander völlig inkompatibel, das bedeutet: Der Austausch eines Tools hat eine völlig neue technische Integration zur Folge. Dies hat auch Auswirkungen auf eventuelle Evaluierungen von Tools, da bei einem Wechsel des Herstellers im Allgemeinen die Implementierung fast vollständig erneuert werden muss. Die Projektphasen-Planung, die Konzeption sowie die Validierung sollten zusammen mit mindestens 30 Prozent des Gesamtaufwands kalkuliert werden. Auch wenn die technische Integration gerne – aber fälschlicherweise – als trivial betrachtet wird, sollte man ein sorgfältiges Integrationskonzept erstellen und darauf achten, dass alle KPIs und deren Abbildung in Form spezifischer Tracking-Elemente in den Seiten sauber dokumentiert werden. Sonst ist eine spätere Pflege und Wartung nicht durchführbar. Der Aufwand hierfür ist zu kalkulieren und einzuplanen.
12.6
Der Projektplan – die Vorbereitung In diesem Abschnitt beschreiben wir die einzelnen Phasen des Projektablaufs im Detail und geben Empfehlungen für die Praxis ab. Insbesondere beleuchten wir für jede einzelne Phase, warum sie wichtig und notwendig sind, welche Voraussetzungen nötig sind und mit welchen Ergebnissen die Phase abschließt.
12.6.1 Erstellung einer umfassenden Anforderungsspezifikation Erste Voraussetzungen für den Projektstart sind ein Strukturplan, ein zuvor festgelegtes Team und eine grobe Zeitplanung. Viele Anforderungskataloge, die wir im Laufe unserer Beratungsprojekte zu Gesicht bekommen haben, waren für die Planung und Durchführung der einzelnen Phasen wenig tauglich, weil sie einige grundlegende Voraussetzungen an eine Anforderungsspezifikation nicht erfüllt haben. Daher wollen wir uns zunächst mit der Frage befassen: Was versteht man unter Anforderungsspezifikation? „Früher“ war in diesem Zusammenhang wohl von „Lastenheft“ die Rede. Zu diesem Begriff gibt es klare Definitionen, etwa die in Wikipedia:
228
12.6 Der Projektplan – die Vorbereitung „Ein Lastenheft (teils auch Anforderungsspezifikation, Kundenspezifikation oder Requirements Specification) beschreibt die Gesamtheit der Forderungen des Auftraggebers an die Lieferungen und Leistungen eines Auftragnehmers.“ Wichtig: Der hier erwähnte „Auftragnehmer“ ist nicht der Tool-Hersteller! Vielmehr sollte dies jene Abteilung innerhalb des Unternehmens sein, die für die technische Betreuung der Website verantwortlich ist. Diese beschäftigt zwar den Tool-Hersteller als „Sub-Unternehmer“, dennoch ist sie für die Lieferungen und Leistungen – die fertig implementierte Web-Analytics-Lösung – gesamtheitlich verantwortlich. „Auftraggeber“ in dieser Definition sind alle (!) Fachabteilungen, die Anforderungen an die zu erbringenden Reports und Statistiken stellen. Hier wird wieder der ganzheitliche Ansatz des Projekts deutlich. Stellvertretend für die Vielzahl an Fachabteilungen und Teams kann das Projektteam diese Rolle einnehmen. In unseren Workshops, die wir zur Bestimmung fachlicher Anforderungen an ein WebAnalytics-System durchführen, beobachten wir immer wieder, dass die Teilnehmer sehr schnell beginnen, in Lösungen zu denken und Lösungswege sowie deren Alternativen diskutieren. So pragmatisch dieser Ansatz ist, so falsch ist er in der Phase der Anforderungsspezifikation, da man sich dann ausschließlich mit der vollständigen Beschreibung des Problems beschäftigen sollte – und noch nicht mit dessen Lösung. Die Trennung von Problembeschreibung und Lösungsansatz in zwei verschiedene Phasen des Projekts hat Vorteile: Dadurch kann auch in späteren Phasen jederzeit nachvollzogen werden, für welche Anforderung eine spezifische Lösung implementiert wurde und umgekehrt und was eventuell die Konsequenzen einer Änderung sind. Deshalb sollte man diese kausale Kette immer im Hinterkopf behalten: Anforderung (Problem)
Lösungsbeschreibung
technische Umsetzung
Diese Aufgabengliederung ist für die Phasen nach der Einführung – die Pflege und Betreuung – von entscheidender Bedeutung, denn nicht selten weiß man nach sechs oder neun Monaten nicht mehr zwingend, warum an welcher Stelle der Site welche Daten an das Messsystem weitergereicht wurden. Die Anforderung an ein zu erstellendes technisches System muss grundsätzlich einer Reihe von Ansprüchen genügen. Sie muss genau, vollständig, eindeutig, verständlich beschrieben, frei von Redundanzen und nachprüfbar sein. Vor allem der letzte Punkt, die Nachprüfbarkeit, bedarf einer genaueren Betrachtung, die wir am Ende dieses Abschnitts vornehmen. Generell sollten bei der Erstellung der Anforderungsspezifikation folgende Aspekte berücksichtigt werden:
229
12 Einführung eines Web-Analytics-Systems Beschreiben Sie die Anforderung oder das Problem, keine möglichen Lösungen. Fügen Sie Beispiele an, etwa Musterreports oder Beispielrechnungen. Definieren Sie Begriffe. Nicht jeder weiß, was eine Conversion Rate ist. Zudem gibt es viele Möglichkeiten bei der Berechnung sehr unterschiedlicher Conversion Rates. Fragen Sie bei jedem einzelnen Schritt nach dem „Wozu“: Wozu benötigen Sie Report XY? Wozu dient die Kennzahl ABC? Lassen Sie die Spezifikation von den Fachabteilungen prüfen und abzeichnen, am besten im Rahmen einer förmlichen Abnahme. Eine wegen ihrer Selbstverständlichkeit gerne vergessene Frage lautet: „Wozu machen wir das Projekt überhaupt?“ Die Anforderungsspezifikation sollte in einer Präambel die generelle Zielsetzung des Projekts daher umfassend festlegen. Darin sollten definiert werden, welche Ziele erreicht werden sollen, welche ROIs geplant sind und was die Veranlassung für das Projekt gewesen ist. Bei bestehenden Lösungen hat es sich in der Praxis als hilfreich erwiesen, genau abzufragen, welche Probleme im Moment existieren. Wir bezeichnen diesen Prozess als „Pain“, denn es geht darum zu ermitteln, welche „Schmerzen“ die Anwender derzeit haben. Des Weiteren ist es sinnvoll zu hinterfragen, welche bereits verworfenen oder gescheiterten Lösungsansätze es gab und warum diese verworfen wurden oder gescheitert sind. Dies rundet das Gesamtbild ab und grenzt sowohl das Problemfeld als auch das spätere Lösungsfeld sinnvoll ein. Weil die Anforderungen an ein Web-Analytics-System nachprüfbar sein müssen, ist es nicht nur sinnvoll, Beispielreports beizufügen. Zudem sollten so genannte Use-Cases beschrieben werden, um damit die Anforderung zu überprüfen. Ein „Use-Case“ beschreibt einen konkreten Anwendungsfall, ausgehend von einer Ausgangssituation und einem Endzustand. Im konkreten Fall Web Analytics bedeutet dies: Beschreiben Sie, wie Sie mit Hilfe der angestrebten Lösung das Problem beheben können. Dazu ein Beispiel: Anforderung: Das System muss den zeitlichen Verlauf der Conversion Rates (CVRs) verschiedener Kampagnenkanäle, berechnet aus „Orders zu Visits“ als Tabelle und Kurvenchart, in einem Zeitdiagramm darstellen können. Orders sind alle Bestellungen von Besuchern, die innerhalb von n Tagen einen Kanalkontakt hatten. Ein Kanalkontakt ist ein Klick auf ein Werbemittel, das diesem Kanal zugeordnet ist. Der Use-Case: Durch die Gegenüberstellung der CVRs einzelner Kanäle im zeitlichen Verlauf kann eine kanalübergreifende Optimierung der Spendings in den einzelnen Online-MarketingKanälen vorgenommen werden, um damit zu einer allgemeinen Anhebung der CVR zu gelangen.
Durch die umfassende Beschreibung der Anforderung sowie ihres Zwecks kann die Anforderung als „erfüllt“ oder „nicht erfüllt“ bewertet werden. Zudem ist die Nachprüfbarkeit zu einem späteren Zeitpunkt möglich. Und ein Tool-Anbieter bekommt eine klare Vorstellung davon, welche übergeordneten Ziele durch Einsatz seines Tools erfüllt werden sollen.
230
12.6 Der Projektplan – die Vorbereitung Es ist nicht sehr sinnvoll, für jede auch noch so kleine Kennzahl einen Anforderungskatalog in der beschriebenen Tiefe aufzustellen. Pragmatischer ist es, nur die wirtschaftlich und strategisch relevanten Kennzahlen aufzugreifen. Sie können hierbei von einem „Common Sense“ aller Tool-Anbieter ausgehen, die Basiszahlen allgemeingültig und umfassend zu messen und zu erfassen. Derzeit ist uns kein Tool bekannt, das nicht bereits bei einer „Standardvertaggung“ umfangreiche Statistiken über die Reichweite einer Website liefert. Sofern also nicht spezielle Anforderungen an Basiszahlen wie PageViews, Visits oder Unique Vistors gestellt werden, wird man diese in einem Kapitel oder einer tabellarischen Aufstellung subsumieren und der Vollständigkeit halber der Spezifikation anfügen.
12.6.2 Erarbeitung des Optimierungspotenzials Während eines Workshops in einem Großunternehmen zum Thema „Anforderungsaufnahme“ beschwerte sich eine Mitarbeiterin über die unzureichenden Statistiken und das fehlende Zahlenmaterial, um die Mikrokonversion eines Warenkorbprozesses auf einer Website zu betrachten, für die sie zuständig war. Es sei ihr nicht möglich, die Abbruchsquote zu verringern oder die Usability zu optimieren, weil das eingesetzte Tool nicht die nötigen Zahlen liefere. Weil der Workshop ein anderes Thema behandelte und die „Mikrokonversion einzelner Bestellprozesse“ nicht dazu passte, stellte ich ihr folgende Frage: Stellen Sie sich vor, heuten gingen alle diese Wünsche in Erfüllung: Ab sofort haben Sie umfangreiches Material über die Mikrokonversion aller Bestellprozesse zur Verfügung. Damit stellen Sie fest, dass ein bestimmter Prozentsatz der Bestellenden bei der Eingabe der CVC-Nummer der Kreditkarte abbrechen. Wie gehen Sie jetzt konkret vor? Nicht nur die betroffene Mitarbeiterin war perplex, sondern der ganze Kreis der Workshopteilnehmer. Was war passiert? Man hatte sich derart auf das Fehlen von Zahlenmaterial „eingeschossen“, dass man das übergeordnete Ganze völlig aus den Augen verlor: Was wäre, wenn wir diese Statistiken zur Verfügung hätten? Welche Handlungsoptionen hätten wir, welches Verbesserungspotenzial stünde uns dadurch zur Verfügung? Was könnten wir konkret mit solchen Ergebnissen anstellen, und welche Unternehmensprozesse existieren oder müssten geschaffen werden, um zu einer Verbesserung zu gelangen? Die Empfehlung lautet: Ändern Sie die Perspektive, denken Sie ganzheitlich. Nicht das Sammeln der Zahlen ist wichtig, sondern die in Form des Zahlenmaterials zur Verfügung stehenden Optionen. Was lässt sich damit bewerkstelligen? Bewerten Sie die möglichen Kosten einer Anforderung und deren Nutzen, und priorisieren Sie die einzelnen Anforderungen anhand dieser Kosten-Nutzen-Bewertung. Hinzu kommt: Kein Workshop-Teilnehmer war in der Lage, den Prozess zu beschreiben, der notwendig gewesen wäre, um den Ablauf der Bezahlung mit einer Kreditkarte in dem betreffenden Shop zu optimieren.
231
12 Einführung eines Web-Analytics-Systems Nicht alles, was machbar ist, ist sinnvoll und steht in einer vernünftigen Relation zu den Kosten. Zahlenmaterial, das Ihnen zwar umfangreiche Informationen gibt, aber keinerlei Verbesserungspotenzial bietet, hat eine niedrigere Priorität als Statistiken, die Sie direkt in eine Verbesserung, etwa der Bestellkosten, umsetzen können. Beschreiben Sie nicht nur die Handlungsoptionen, die sich ergeben könnten, sondern legen Sie auch die Mittel und Ressourcen fest, die zu deren Umsetzung notwendig sind. Kennzahlen, Optimierungspotenzial und Handlungsoptionen müssen klar einander gegenübergestellt werden und unter Berücksichtigung der möglichen Umsetzungskosten zu einer Priorisierung der Anforderungen führen.
Es ist überraschend, mit welchen Daten sich Manager (insbesondere in Großunternehmen) immer wieder zufrieden geben, wenn es um den Erfolg ihrer Websites geht. So kommt es vor, dass sie sich mit schicken Powerpoint-Folien den Erfolg anhand von ReichweitenKennzahlen schildern lassen (Anzahl der Besucher pro Monat und Quartal oder Anzahl der Seitenabrufe pro Monat und Quartal). Doch bei einem Shop zum Beispiel haben Besucheranzahl und Seitenabrufe nichts mit Erfolg zu tun – dazu gibt es wesentlich tauglichere Kennzahlen wie die Conversion Rate oder die Bestellkosten (Cost-Per-Order, CPO). Eine sinkende Besucherzahl kann man schnell durch Marketingkampagnen steigern – ob das allerdings sinnvoll und nicht bloß Kosten treibend ist, sei dahingestellt. Leider besteht vielfach eine zentrale Anforderung darin, Management Reports „hübsch“ zu erstellen. Einer unserer Kunden wollte ein Management Dashboard nicht abnehmen, weil ihm die Farben der Tortengrafiken nicht gefielen. Gehen Sie davon aus: Solche Reports sind in gleichem Maße nutzlos wie teuer. Einer unserer Analysten hält unseren Kunden immer gerne vor Augen, dass die Welt voller toter Schwäne ist, die alle in Schönheit gestorben sind. Das soll heißen: Es geht nicht um Tortengrafiken, die zum Corporate Design des Unternehmens passen und um das letzte Promille an Genauigkeit. Es geht um belastbares Zahlenmaterial zur Analyse und Steuerung geschäftsrelevanter Prozesse innerhalb eines komplexen technischen Systems. Sensibilisieren Sie das Management Ihres Unternehmens für die Web Analytics: Zeigen Sie ihm, welche Kennzahlen wann wesentlich sind und betrachtet werden müssen. Führen Sie es in die Begrifflichkeiten der Webanalyse ein. Machen Sie klar, dass nicht die Optik eines Dashboards zentrale Bedeutung hat, sondern sein Inhalt und die Konsequenzen daraus.
12.6.3 Erarbeitung eines „Request for Information“ (RFI) Der RFI („Request for Information“) stellt die Ausschreibungsunterlage dar, die Sie den Tool-Herstellern übergeben, damit diese für Sie ein qualifiziertes Angebot und eine Lösungsbeschreibung erstellen können. Keine gute Idee ist es, die Anforderungsspezifikation als Ausschreibungsunterlage zu verwenden und an die Hersteller zu verteilen. Denn fast immer enthalten solche Spezifikationen sehr vertrauliche Informationen. Daher ist es notwendig, die Anforderungsspezifikation so umzustellen, dass sie einerseits hinreichend Auskunft über die gewünschte Lösung gibt, andererseits aber keine Betriebsgeheimnisse und Vertraulichkeiten enthält.
232
12.7 Die Integrationsphase Wir empfehlen, die Ausschreibung in drei Phasen durchzuführen: 1. Erstellen einer Anbieterliste mit maximal fünf Anbietern. 2. Ankündigung der Ausschreibung anhand eines Anschreibens plus der Aufforderung, eine Geheimhaltungsvereinbarung (NDAs – Non Disclosure Agreements) abzuzeichnen. 3. Zusenden der Ausschreibungsunterlagen, sobald die NDAs vorliegen. Wenn Sie nicht mehr als fünf Anbieter auf Ihre Longlist stellen, enthält Ihre spätere Shortlist voraussichtlich noch zwei bis drei Anbieter – das genügt. Denn ein Mehr an Auswahl bringt keine Steigerung in der Qualität, sondern lediglich mehr Arbeit, weil alle Rückantworten ausgewertet und bewertet werden müssen. Der RFI sollte einen beschreibenden Teil mit den generellen Zielsetzungen und den wesentlichen strategischen Anforderungen enthalten. Dazu kommt ein tabellarischer Teil, in dem Leistungsmerkmale des Tools abgefragt werden. In dieser tabellarischen Aufstellung sollten Sie vermeiden, Plattitüden abzufragen oder Banalitäten aufzulisten. Einen WebAnalytics-Tool-Anbieter zu fragen, ob man mit seinem Tool Seitenabrufe zählen kann, ist als ob Sie von einem Automobilhersteller wissen wollen, ob seine Autos Räder haben. Ein Hersteller, der Reichweiten nicht in der von Ihnen gewünschten Form messen kann, gehört nicht auf Ihre Longlist. Daraus ergibt sich zwingend: Sie dürfen Ihre Longlist nicht wahllos aus der Google-Ergebnisliste abschreiben, sondern eine Vorauswahl treffen. Wählen Sie die Tools anhand eher schlichter Anforderungen aus und ob sie diese vollständig erfüllen (etwa Messen der Reichweitenkennzahlen). Auch die tabellarische Aufstellung der geforderten Leistungsmerkmale sollte keine Featureliste sein, die Sie gängigen Marktbewertungs-Portalen entnommen haben. Stattdessen muss sie jene strategischen Anforderungen an das Tool tabellarisch auflisten, die Sie im Textteil detailliert beschrieben haben. Je präziser und genauer Sie Ihre Forderungen formulieren, desto qualifizierter fallen die Antworten aus – und umso sicherer können Sie Ihre Entscheidung für ein Tool treffen. Zudem ist es unerlässlich, dass Sie sich Anforderungen der höchsten Prioritätsstufe in einer Anbieterpräsentation vorführen lassen. Bei der Auswahl eines Anbieters sollte man sich generell an zwei Kriterien orientieren: Erfüllungsgrad der Anforderung und Wirtschaftlichkeit des Angebots. Bei einer sorgfältigen Vorbereitung und Beschreibung aller Details kann der Erfüllungsgrad leicht festgestellt werden. Wie man das richtige Tool auswählt, beschreiben wir in Kapitel 11.
12.7
Die Integrationsphase Nach dem Erwerb eines Tools beginnt die Integrationsphase. Zunächst werden die Spezifikationen vertieft und finalisiert, damit ein konkretes Implementierungskonzept für das ausgewählte Tool erstellt und umgesetzt werden kann.
233
12 Einführung eines Web-Analytics-Systems Sowohl in dieser Feinspezifikation als auch in der daran anschließenden Implementierung sind wieder einige Besonderheiten zu beachten, die Web-Analytics-Projekte so eigen und auch schwierig machen. Dazu geben wir Ihnen Hinweise und Tipps, wie Sie typische Stolperfallen vermeiden, und erläutern diese anhand von Beispielen.
12.7.1 Vertiefung der Anforderungsspezifikation Nachdem ein konkretes Tool ausgewählt wurde, empfiehlt es sich, die Anforderungsspezifikation so weit zu vertiefen, dass eine technische Lösungsbeschreibung möglich wird. Mitunter ergeben sich durch die Auswahl des Tools und die Herstellerpräsentationen neue Erkenntnisse, die es sinnvoll machen, die Anforderungen noch einmal zu verfeinern oder umzustellen. Inwieweit dies sinnvoll ist, hängt vom Umfang der Spezifikation ab, von deren Detailtiefe, vom Gesamtumfang des Projekts und der Website. Nach diesem Schritt besitzen Sie eine abgeschlossene und abgenommene Anforderungsspezifikation. Sie dient dazu, technische Lösungswege zu finden, zu beschreiben und zu bewerten.
12.7.2 Erstellung eines technischen Umsetzungskonzepts Auf Grundlage der Beschreibung der Anforderungen – dem Lastenheft – erfolgt die Beschreibung der technischen Lösungen: das „Pflichtenheft“. Hierbei werden zu den einzelnen Anforderungen technische Lösungsalternativen aufgezeigt, priorisiert und bewertet. Dazu nutzen Sie am besten die Konzepte und grundlegenden Informationen des gewählten Tools als Basis. Meist bieten die Hersteller gerade zu diesem Punkt umfangreiche Tutorials und White Paper an. In unseren Projekten führen wir zu Beginn dieser Phase einen technischen Workshop durch, in dem die Anforderungen sowie die „Best Practices“ der Hersteller vorgestellt und in Bezug auf die Kunden-Website durchgesprochen werden. Die Erfahrung hat gezeigt, dass technischen Mitarbeitern selten Zeit zum Lesen von Handbüchern zur Verfügung steht. Insofern ist ein solcher Workshop sehr zielführend und hilfreich. In der Praxis hat es sich als sinnvoll erwiesen, die technischen Lösungen und die Anforderungen sowohl textlich als auch tabellarisch zu beschreiben. Dabei sind generell zwei Dimensionen gegenüberzustellen: Anforderungs-Sicht: Zu den Anforderungen – einzeln oder zusammengefasst – werden die technischen Konzepte beschrieben und zugeordnet. Website-Sicht: Bei anspruchsvollen Anforderungen ist es notwendig, einzelne Seiten oder Seitentypen der Website mit den erforderlichen Scripts zu programmieren, die die Daten an das Web-Analytics-Tool weiterreichen. Die Aufgabe wird leichter, wenn in einer weiteren Sicht pro Seite oder Seitentyp die notwendigen Bearbeitungsschritte, Programmcodes und technischen Beschreibungen aufgeführt werden. Dies ist keine neue Beschreibung der technischen Lösung, sondern eine andere Sichtweise, die den Programmierern hilft, denn sie arbeiten ja nicht Anforderung für Anforderung ab, son-
234
12.7 Die Integrationsphase dern Seite für Seite. Wichtig dabei ist, nicht den Faden zu verlieren, d.h., den Bezug zu den Anforderungen aufrechtzuerhalten. Spätestens zu diesem Zeitpunkt kann man sich Gedanken darüber machen, in welcher Form die Anforderungen und die technischen Konzepte erstellt werden sollen. StandardOffice-Programme wie Textverarbeitung oder Tabellenkalkulation bieten sich ob ihrer Omnipräsenz zwar an, taugen aber nur bedingt – und wenn, dann nur für kleinere Vorhaben. Wir bieten unseren Kunden gerne Zugriff auf ein Requirements Engineering Tool an. Das lohnt sich aber nur, wenn es für mehr als ein Projekt verwendet wird. Es gibt eine Reihe von Systemen, die zum Einsatz kommen können; kostenlose und kostenpflichtige. Einer unserer Kunden hatte im Rahmen eines Projekts sehr erfolgreich ein WIKI-System eingesetzt, um Anforderungen und technische Lösungen versionsgesteuert und mit dedizierten Schreib- und Leserechten zu erfassen und zu pflegen. In Verbindung mit einem Bugtracking-System wie Mantis oder Bugzilla kann sich auf diese Weise ein sehr effizientes und kostengünstiges Steuerungssystem ergeben, um ein Projekt umzusetzen. Es gibt auch Großsysteme, etwa von IBM oder SAP. Sofern Sie Zugriff darauf haben, ist es eine Überlegung wert, diese zur Aufnahme der Anforderungen und der Lösungen zu verwenden. Der Vorteil solcher Systeme liegt in der Versionierung aller Änderungen und im einfachen Umschalten der verschiedenen Sichten auf die einzelnen Anforderungs- bzw. Lösungsartefakte. Zudem unterstützen solche Systeme die Zusammenarbeit im Team, was bei Standard-Office-Produkten fast unmöglich ist. Ein weiterer Vorteil einer solchen systemgestützten Pflege der Anforderungs- und der technischen Lösungsbeschreibung: Es ist wesentlich einfacher, diese fortzuführen und konstant auf dem aktuellen Stand zu halten. Bei vielen Projekten wurden wir erst spät hinzugezogen und mussten zunächst viel Zeit in die Recherche investieren, weil es keine aktuelle Dokumentation gab. Wenn solche Informationslücken einen kritischen Umfang erreichen, ist eine vollständig neue Implementierung unter Umständen günstiger als die Optimierung eines undefinierten Ist-Zustands. Tipps für das technische Umsetzungskonzept: 1. Lenken Sie zu Beginn des Projekts einen Teil Ihrer Aufmerksamkeit auf die Frage nach der technischen und organisatorischen Struktur des Projekts selbst, und gestalten Sie die Prozesse und Verantwortlichkeiten innerhalb des Teams. 2. Geben Sie klare Regeln für die Form der Dokumentation vor, und berücksichtigen Sie eine Projektlaufzeit, die doppelt so lang ist wie die Laufzeit der Herstellerverträge. 3. Legen Sie Regeln für Ablage, Versionierung und Change Management fest. Verwenden Sie, sofern möglich, moderne Anforderungsmanagement-Tools. Berücksichtigen Sie bei der Erstellung der technischen Konzepte deren „Life Cycle“ und dass diese permanent auf dem aktuellen Stand gehalten werden müssen.
4. Sorgen Sie für klare Zuständigkeiten und Arbeitsabläufe auch nach Abschluss des Projekts, um sicherzustellen, dass Informationen über das „Wie“ und das „Warum“ im Unternehmen langfristig erhalten und auffindbar bleiben.
235
12 Einführung eines Web-Analytics-Systems
12.7.3 Erstellung eines Prototyps Während der Herstellerauswahl (Kapitel 11) und den teilweise recht komplexen Änderungen, die sich im Laufe der technischen Integration in die Website ergeben, kann man leicht das eigentliche Ziel aus den Augen verlieren: ein belastbares Zahlenwerk, das Aktivitäten auf der Website sichtbar macht, um Kenngrößen wie Conversion Rates, Cost-Per-Order oder Umsatz zu verbessern. Die bisher erstellten Konzepte, Spezifikationen und technischen Beschreibungen dienen dazu, das Gesamtsystem auf unterschiedlichen Ebenen zu beschreiben und für das Projektteam erfassbar zu machen. Doch wie kann man nun sicherstellen, dass die angestrebte Lösung in der Praxis wie geplant funktioniert und nicht unliebsame Überraschungen eintreten? In der Softwareentwicklung hat sich zu diesem Zweck die Erstellung eines Prototyps als pragmatischer Weg zwischen den Zwängen von Kosten und Terminplänen herausgestellt. Bei der Erstellung eines Prototyps für ein Web-Analytics-Projekt haben Sie es gegenüber allen anderen Software-Prototypen mit einer Besonderheit zu tun, deren Ursprung im atomaren Charakter einer Website liegt. So wenig wie man ein bisschen schwanger sein kann, können Sie die Website „teilvertaggen“. Entweder Sie implementieren das ausgewählte Web-Analytics-Tool auf der gesamten Website – oder gar nicht. Wenn Sie nur Teile der Site implementieren, bekommen Sie fragmentarisches Zahlenmaterial, das sich nicht auf die gesamte Site hochrechnen lässt. Und entweder Sie erfassen alle Bestellungen oder keine. Und wenn Sie alle Bestellungen erfassen wollen, brauchen Sie die Implementierung des Tools im gesamten Warenkorb-Prozess. In der Regel stecken darin 60 bis 70 Prozent des technischen Aufwands. Ob man für ein Web-Analytics-Projekt einen Prototypen benötigt oder nicht, ist eine sehr schwer zu beantwortende Frage. Derzeit wird bei geschätzten fünf bis zehn Prozent aller Projekte ein Prototyp erstellt. Die Notwendigkeit, einen Prototyp zu erstellen, ist eher gering zu bemessen, da vielfach ein gewisser Angstfaktor – mithin also eine eher subjektive Komponente – die Zahl nach oben treibt. Sie müssen davon ausgehen, dass der Prototyp einerseits den gesamten Projektumfang in Anspruch nimmt und zugleich die gesamten Implementierungskosten. Dies ist der Grund, warum es so wenig echte Prototypen in WebAnalytics-Projekten gibt. Deshalb haben wir den Begriff „Prototyp“ anders definiert. Bei komplexen Anforderungen empfehlen wir unseren Kunden, mit dem Tool-Hersteller zu vereinbaren, dass sie innerhalb eines festgelegten Zeitrahmens von einem – auch langfristigen – Vertrag ohne Angabe von Gründen zurücktreten können. Dieser Zeitraum sollte nicht zu kurz gewählt sein, auf keinen Fall unter drei Monaten – was ein starkes Verhandeln mit dem Hersteller bedeutet. In dieser Zeit können Sie das Projekt umsetzen und entscheiden, ob die Lösung tatsächlich die geforderten Ziele erfüllt. Wenn nicht, ziehen Sie die „Opt-Out“-Karte und treten vom Vertrag zurück. Die für diese Zeitspanne angefallenen Lizenzkosten sind in der Regel im Vergleich zu den Gesamtkosten zu vernachlässigen. Sie sollten sich jedoch vor der Verhandlung einer solchen Vertragsklausel darüber im Klaren sein, ob der Rücktritt und der damit einhergehende Neustart des Projekts eine valide Option für Sie ist. Wenn
236
12.7 Die Integrationsphase nicht, stecken Sie Ihre Energie lieber in die Preisverhandlung statt in irrelevante Nebenklauseln.
12.7.4 Integration in die Website und Validierung der Zahlen Nach Fertigstellung und Abnahme des technischen Konzepts folgt die Phase der Implementierung und der Programmierung von erforderlichen HTML-Scripts in die Seiten der Website. Spätestens jetzt legen Sie den für diesen Schritt notwendigen Aufwand, die Ressourcen und Zeitpläne fest. Idealerweise erfolgt dies bereits in der Phase der Konzepterstellung (Kapitel 12.7.2). In diesem Abschnitt soll es keinesfalls um technische Fragen rund um die Implementierung des einen oder anderen Tools gehen. Dazu gibt es zahlreiche Foren, Blogs, Bücher und Whitepaper im Internet, bei Herstellern und im Buchhandel. Es geht – wie im gesamten Buch – um die pragmatische und effiziente Durchführung dieses Schritts. Es existieren verschiedene Ansätze, wie man ein technisches Konzept zur Integration eines Web-Analytic-Tools umsetzt. Alle haben unterschiedliche Vor- und Nachteile, anhand deren entschieden werden muss, welcher Ansatz für die gegebene Situation der Website empfehlenswert oder optimal ist. Ansatz 1: Skalierung nach Komplexität Die Skalierung nach Komplexität bedeutet, dass zunächst die vom Hersteller empfohlene Basis-Vertaggung in alle Seiten eingebaut wird und danach sukzessive die komplexeren Anforderungen in den betreffenden Seiten umgesetzt werden, beginnend bei den Anforderungen mit dem niedrigsten Komplexitätsgrad. Nachteil: Bei dieser Vorgehensweise müssen Sie während des Implementierungsprozesses verschiedene Seiten der Site mehrfach anfassen und eventuell einen gerade eingebauten Code wieder ändern. Durch diese Mehrfachbearbeitung steigt unter Umständen der Gesamtaufwand für die Implementierung geringfügig an, was aber die folgenden Vorteile durchaus aufwiegt. Vorteile ergeben sich aus dem iterativen Verfeinerungsprozess der gesamten Website. Wenn man damit beginnt, alle Seiten für die Reichweitenmetriken (sie haben meist die niedrigste Komplexitätsstufe) zu vertaggen, kann man nach erfolgreichem Rollout dieses Schritts bereits Rückschlüsse auf die Validität der Zahlen ziehen. Jeder weitere Schritt kann somit auf den überprüften Ergebnissen des vorherigen aufbauen. Dadurch wird neben der iterativen Implementierung auch eine iterative Qualitätssicherung erreicht. Ein weiterer Vorteil ist, dass bei lange dauernden Implementierungsprozessen nicht erst am Ende der Zeit alles mit einer Art „Urknall“ fertig wird, sondern die Anwender bereits frühzeitig auf Teilergebnisse zugreifen können. Diese iterative Vorgehensweise begünstigt zudem die Fehlersuche, weil jeweils nur der zuletzt vollzogene Teilschritt genauer geprüft werden muss (vorausgesetzt, es gibt keine konzeptionellen Fehler).
237
12 Einführung eines Web-Analytics-Systems Ansatz 2: Skalierung nach Sitebereichen Bei der Skalierung nach Site-Bereichen werden Gruppen aus gleichartigen Seiten oder Seiten mit gleichartigen Anforderungen gebildet, die vollständig und in einem Arbeitsgang durchimplementiert werden. Die Gliederung nach thematischen Zusammenhängen entspricht der üblichen Vorgehensweise in der Softwareentwicklung und findet daher – insbesondere bei den Entwicklern – mehr Freunde als die zuvor beschriebene Alternative. Durch das kompakte „Durchimplementieren“ von Seitenbereichen ist der Gesamtaufwand wahrscheinlich niedriger als im Vergleich zu Ansatz 1. Es gibt aber eine Reihe von Nachteilen, die es zu berücksichtigen gilt: So können Fehler im systemischen Gesamtverhalten der Site erst dann aufgedeckt werden, wenn alle Site-Bereiche vollständig implementiert sind. Die Suche nach der Ursache kann sich als eine schwer lösbare Aufgabe erweisen, da immer das gesamte System getestet werden muss. Zudem erhält man mit diesem Ansatz erst sehr spät Aussagen zur Messgenauigkeit, und die Anwender müssen den gesamten Entwicklungsprozess abwarten, bis die erste Statistik verfügbar ist. Es gibt keinen Königsweg für die eine oder die andere Alternative, das Abwägen der Vorund Nachteile ist eine sehr projektspezifische Aufgabe. Beide Ansätze haben wir mit unseren Kunden durchgeführt. Um die Alternativen bewerten und den Implementierungsaufwand richtig einschätzen zu können, sollten folgende Bemessungsgrundlagen genutzt werden: Anzahl der Websites und der Web-Analytics-Accounts im Tool Anzahl der Seiten – gesamt und je Website Komplexitätsgrad der Anforderungen respektive Umfang der einzubauenden Codes Skill Level des Entwickler-Teams Unter Umständen kann sogar ein Mix der Verfahren von Vorteil sein – zum Beispiel Site A nach Komplexität, Site B nach Seitenbereichen. Die Vorgehensweise für die Code-Implementierung müssen Sie gemeinsam mit den an der Entwicklung beteiligten Personen, Teams und Dienstleistern auswählen. Sie muss dann im Projektablauf stringent eingehalten werden. Erst nach der Entscheidung für eine Vorgehensweise können Sie nach den oben aufgeführten Kriterien eine Aufwandsabschätzung vornehmen. Um zu einer belastbaren und realistischen Einschätzung zu gelangen, empfehlen wir, in jedem Fall ein Mengengerüst anhand der in diesem Kapitel genannten Kriterien zu erstellen.
Nachdem Sie die notwendige Komplexität in den einzelnen Bereichen bewertet haben, erstellen Sie gemeinsam mit dem Entwicklerteam eine Schätzung. Tendenziell wird die Aufwandabschätzung eher zu günstig ausfallen, weil das Entwicklerteam die Test- und Validierungsschleifen sowie die Fehlerkorrektur nicht berücksichtigen wird. Stellen Verbinden Sie diesen zusätzlichen Aufwand in Abhängigkeit zur mit der Komplexität, um einen verfügbaren Puffer in Ihrem Projekt zu erhalten. Nach sorgfältiger Durchführung der
238
12.7 Die Integrationsphase Abschätzung sollten Sie eine Tabelle erhalten, die in etwa wie das Beispiel in Tabelle 12.4 aussieht. Tabelle 12.4 Beispiel für eine Aufwandsabschätzung (PT = Personentage) Phase Basisvertaggung
Komplexitätsgrad
Anzahl Seiten
Aufwand Implementierung
Aufwand Validierung und Fehlerbehebung
niedrig
150
30 PT
3 PT
mittel
20
5 PT
3 PT
Kampagnentracking
hoch
1 (zentrales Script für alle Seiten)
5 PT
5 PT
Kategorienseite
mittel
1
3 PT
3 PT
Warenkorb
hoch
1
2 PT
2 PT
Bestellprozess
hoch
7
14 PT
5 PT
Navigation und Nebenbereiche
niedrig
–
–
– (bereits in Basisvertaggung)
…
…
…
…
x
y
z
… Gesamtsumme
Je nach gewählter Vorgehensweise müssen nach oder während der Implementierung die gemessenen Zahlen validiert werden. Dieser Schritt hat nichts mit den Tests zu tun, die die Entwickler während der Implementierung durchführen. Mit Sicherheit sind das verwendete Tool und ihre Website in der Lage, die 200 Seitenabrufe und fünf Bestellungen Ihres Entwicklerteams, die sie in zwei Monaten getätigt haben, fehlerfrei zu verarbeiten. Ob jedoch das System unter realen Bedingungen, also unter der Last Tausender Anwender und vielfältigster Browsereinstellungen, genaue Zahlen generiert, sollten Sie dringend überprüfen, bevor sie Management Dashboards verteilen. Wie können Sie feststellen, ob die gemessenen Zahlen korrekt sind, wenn ein Vergleichssystem fehlt? Es gibt mehrere Möglichkeiten, die Zahlen zu überprüfen: Am einfachsten ist die Überprüfung von Zahlen wie Bestelleingängen, Bestellwert oder Werbemittel-Klicks: Diese kaufmännischen Zahlen erhalten sie in der Regel aus den nachgeschalteten Warenwirtschaftssystemen oder über die Statistiken der Adserver, die ihre Werbemittel ausliefern. Stellen Sie dabei sicher, dass Sie gleiche Metriken („Anzahl Warenkörbe“ ist nicht gleich „Anzahl Bestellungen“) und gleiche Zeiträume verwenden. Mitunter sind die Warenwirtschaftssysteme nicht darauf ausgerichtet, Tage randscharf um 00:00 Uhr abzugrenzen. Hier helfen dann aufbereitete Daten aus Tabellenkalkulationen. Mit dieser Ausrüstung können Sie die Ergebnisse aus dem Web-Analytics-System und dem Warenwirtschaftssystem nebeneinander legen. Seien Sie nicht überrascht, wenn es
239
12 Einführung eines Web-Analytics-Systems Unterschiede und Abweichungen sowohl nach oben wie nach unten gibt (in Kapitel 4 erfahren Sie, warum diese Abweichungen „normal“ sind). In der Praxis hat sich eine maximale Fehlertoleranz von +/- 5 Prozent als realistisch herausgestellt. Eine höhere Genauigkeit ist mit wirtschaftlich vertretbarem Aufwand nicht erzielbar. Diese Toleranzgrenze sollte über einen längeren Zeitraum nicht überschritten werden. Sollten jedoch Abweichungen vorliegen, die diese überschreiten, ist die Wahrscheinlichkeit, dass ein Programmierfehler des Implementierungsteams die Ursache ist, im Verhältnis zur Wahrscheinlichkeit, dass das eingesetzte Tool nicht zählen kann, 99,9 zu 0,1 Prozent. In unserer Projektpraxis war sie in den letzten sieben Jahren 100,0 zu 0,0 Prozent. Allerdings kann sich die Fehlersuche als wahre Sisyphus-Arbeit herausstellen. In einem Projekt hatten wir Abweichungen zwischen dem Web-Analytics- und dem Warenwirtschaftssystem zwischen 20 und 30 Prozent (das Web-Analytics-System erfasste rund 20 bis 30 Prozent zu wenig Bestellwert). Der Kunde war überzeugt, dass er richtig gemessen hatte. Wo also lag der Fehler? Wir haben uns im Team die Finger „wundgetestet“ und mit fiktiven Bankleitzahlen Testbestellungen getätigt, ohne dem Fehler auch nur ansatzweise auf die Spur zu kommen. Das Problem in diesem Fall war die gewählte Testvorgehensweise: Die Nutzung fiktiver Bankleitzahlen ist ein weit verbreitetes Verfahren, um Bestellabläufe zu testen, ohne am nächsten Tag drei Lastwagen mit Sandalen geliefert zu bekommen. Da aber dieses Verfahren so probat ist, kommt man nicht immer auf die Idee, auch mal etwas anderes auszuprobieren. Erst nachdem wir uns ohne Bankleitzahlen auf die Suche machten, entdeckten wir den Fehler: Er lag in der Abwicklung der Paypal-Bezahlstrecke, denn sie lief über eine zweite Bestellbestätigungsseite, die keinen Messcode enthielt. Das heißt: mit Paypal bezahlte Bestellungen wurden nicht gemessen. Irgendein Entwickler hatte in der Vergangenheit die Bestellbestätigungsseite kopiert und für die Paypal-Strecke eine eigene Seite erstellt. Ein kurzer Quercheck in den Statistiken und im Warenwirtschaftssystem bestätigte das Ergebnis. Mittlerweile liegt die Fehlerquote bei rund 5 Prozent und ist somit akzeptabel niedrig. Stellen Sie sicher, dass in den Tests der Entwickler und in den Tests zur Fehlereingrenzung eine vollständige Testabdeckung erreicht wird: Testen Sie immer alle Varianten und alle Optionen. Durchlaufen Sie alle Pfade einer Web-Anwendung, um die Messgenauigkeit zu überprüfen.
Wie lassen sich die Reichweitenkennzahlen – also PageViews, Visits und Unique Visitors – validieren? Hier bietet sich als Möglichkeit an, entweder die Zahlen mit einem bereits vorhandenen Tool (Altsystem) abzugleichen oder zeitweilig ein zweites System zur Gegenkontrolle zu verwenden. Bei reichweitenstarken Seiten kann man durchaus ein zweites, einfacheres Tool eine Weile parallel mitlaufen lassen, um die Abweichungen zu erkennen und einzugrenzen. Ein Beispiel: Bei der Einführung eines Web-Analytic-Tools in einem Online-Shop mit mehreren Milliarden Seitenabrufen pro Jahr stellten wir nach Implementierung der Basis-Vertaggung fest, dass es Abweichungen zu den internen Logfiles der Webserver gab. Zur „Eichung“ der beiden Messsysteme haben wir einen Monat lang ein
240
12.8 Administration simples Google-Analytics-Tag auf der Homepage eingesetzt. Damit fanden wir heraus, dass auf der sehr heterogenen Infrastruktur des Kunden gleich mehrere „Homepages“ existierten, die alle unterschiedlich benannt waren und demzufolge auch sehr unpräzise gemessen wurden. Am Ende dieses Projektschritts ist das „jungfräuliche“ Web-Analytics-System in der Lage, Daten zu sammeln und aufzubereiten. Allerdings bedarf es noch einer Reihe administrativer Arbeiten, bis eine Organisation damit arbeiten kann.
12.8
Administration Je nach Art des gewählten Tools und Umfang der Verbreitung im Unternehmen wird die Administration mehr oder weniger Aufwand in Anspruch nehmen. Auch die Integration mit den Backend-Systemen und Drittanwendungen wie Warenwirtschaftssystem, CRMSystem und Marketing-Planungssystemen fällt in diese Phase. Dieser Schritt ist wichtig, denn nach aktuellen Studien ist die fehlende Integration in die IT-Gesamtinfrastruktur für viele Web-Analytics-Anwender ein großes Manko ihrer Systeme. What are some of the biggest challenges you have with web analytics within your company? (Please check all that apply:) *As this question can have multiple responses the % column will not add up to 100%
29% Budget is too small to be useful
8% OTHER
41% Veryfying accuracy of data (inflation/deflation)
6% Customer service issues 6% Vendor/solution/dashboard is too difficult to use
23% Data is too complicated to analyze
19% Page tagging difficulties or magnitude of effort
46% Integration with other marketing solutions
32% Not comprehensive/ missing types of data
Abbildung 12.1 Herausforderungen beim WA-Einsatz nach [Unica 2009]
241
12 Einführung eines Web-Analytics-Systems Eine Studie von Unica belegt: Fast die Hälfte der Anwenderunternehmen sehen in der mangelnden Integration mit anderen Marketingsystemen (zum Beispiel CRM und ERP) die größte Herausforderung. Zweitwichtigster Punkt ist laut dieser Studie die Datengenauigkeit (Abbildung 12.2). Dieses Ergebnis zeigt eine Diskrepanz zwischen dem, was Kunden wünschen, und dem, was ihnen Hersteller an Produktinnovationen bieten: Die meisten Tool-Anbieter haben in den Jahren 2008 bis 2010 vorwiegend in die Funktionalitäten zur Reportgestaltung sowie in Zusatzmodule wie Testing oder Targeting investiert – und weniger in die Interoperabilität ihrer Systeme. Der Datenaustausch in und aus den Systemen findet auch 2010 in Form von CSV-Dateien und FTP statt. Nur vereinzelt verfügen Systeme über OLAP-Schnittstellen oder ODBCund SQL-Datenzugriffsmöglichkeiten. Insofern entsteht an dieser Stelle je nach Anforderungen weiterer IT-Aufwand, den es zu berücksichtigen und zu kalkulieren gilt.
12.8.1 Tool-Administration Sofern nur ein kleines Team von zwei oder drei Personen mit dem System arbeiten soll, ist der Aufwand in der Administration von Zugriffsrechten, Kennungen und IT-Sicherheitseinstellungen überschaubar. Wir kennen allerdings insbesondere in Großunternehmen und in sehr Internet-affinen Unternehmen durchaus Anwenderkreise von 100 bis 200 Mitarbeitern. Spätestens bei einem solchen Umfang empfehlen wir dringend, ein Rechte- und Rollenkonzept zu entwickeln, das sich an den Möglichkeiten des Tools orientiert. Es sollte die klassischen „W“-Fragen beantworten: Wer hat wann, von wo und worauf Zugriff und darf welche Funktionen benutzen?
Gehen Sie mit Bedacht vor: Denn haben Sie einmal angefangen, auf „Zuruf“ Benutzer ins System einzutragen und individuelle Rechte zu erteilen (anstatt sie den definierten Rollenund Gruppenrechten zuzuordnen), haben Sie spätestens nach einem Jahr den Überblick darüber verloren, wer was darf und wer wann was gemacht hat. Übrigens: Kein Web-Analytics-System bietet derzeit die Verknüpfung mit Directory Services zur Integration mit einer unternehmensweiten Benutzerverwaltung. Aber es gibt eine Reihe an Konfigurationsoptionen für Reports und für die Art und Weise, wie Daten gesammelt, aggregiert und gegebenenfalls im Tool bereitgestellt werden. All diese Einstellungen und Konfigurationen sind einerseits von den Anforderungen und andererseits vom eingesetzten Tool abhängig und lassen sich generisch nur schwer beziffern. Verschaffen Sie sich in der Konzeptionsphase gemeinsam mit Hersteller und Dienstleistern einen Überblick über den notwendigen Konfigurations- und Administrationsaufwand für das Projekt und den fortlaufenden Betrieb. Stellen Sie ausreichend Ressourcen und Mittel dafür bereit.
242
12.8 Administration
12.8.2 Anbindung an externe Systeme Die Einbindung des Systems in die IT-Infrastruktur ist eine der wesentlichen Anforderungen für den Erfolg eines Web-Analytics-Projekts. In der Praxis scheitert die Integration jedoch weniger an technischen als an organisatorischen Hürden. Die derzeit noch recht altertümlich anmutenden technischen Lösungen, die Hersteller anbieten, sind in der Regel ausreichend und keine Hürde. Es gilt allerdings einige unternehmensweite Vorkehrungen zu treffen, bevor an eine Integration gedacht werden kann. Dazu ein Beispiel aus dem Handel: Eine immer wieder gestellte Anforderung lautet: Es soll auf Basis von „Netto-Umsätzen“ reportet werden. Das Problem: Jeder Hersteller bezeichnet den Wert der Warenkörbe als „Umsatz“. Doch dies ist aus betriebswirtschaftlicher Sicht Unsinn: Bestenfalls kann man den Warenkorbwert als Bestellwert bezeichnen. Einige unserer Handelskunden bezeichnen diesen Wert sogar lediglich als „Nachfrage“. Daraus wird erst der geforderte „Umsatz“, wenn der Kunde die Ware, die er geliefert bekommt, bezahlt und auch behält. Bis dahin kann noch viel passieren, zum Beispiel Storno, Widerruf, Fehl- oder Nichtlieferungen. Insofern „weiß“ erst das Warenwirtschaftssystem, wie viel tatsächlicher Umsatz aus einer Bestellung am Ende herausgekommen ist. Es liegt also nahe, diesen so genannten Netto-Umsatz der ursprünglichen Internet-Bestellung wieder zuzuordnen und auf diese Weise Bestellwert und Netto-Umsatz zum Beispiel in Abhängigkeit zum Marketingkanal gegenüberzustellen. Dazu ist es erforderlich, den Nettoumsatz eines einzelnen Warenkorbs (aus dem Warenwirtschaftssystem) dem Bestellwert exakt dieses einen Warenkorbs (aus dem WebAnalytics-System) zuzuordnen. Dazu muss ein eindeutiges und durchgängiges Kennzeichnungssystem für Bestellungen existieren. Dieses muss jedem Warenkorb bei seiner Erstellung eine eindeutige Nummer geben, die dann durchgängig bis ins Warenwirtschaftssystem genutzt wird. Um die Historie des Anwenders – also seine Werbemittelnutzung – nicht zu verlieren, muss dies auf Transaktionsebene erfolgen. Sonst kann das Web-AnalyticsTool den Marketingkanal, den der Anwender benutzt hat, dem vom Warenwirtschaftssystem zugespielten Nettoumsatz nicht zuordnen. Zwingend notwendig sind somit nicht nur durchgängige Kennzeichnungen bei den Bestellungen, sondern auch bei den Werbemitteln, die als Elemente einer Kampagne erfasst werden. Hat man, wie durchaus üblich, diese Aufgabe an externe Agenturen delegiert und diesen die Steuerung überlassen, ist es schwer, die nötige Eindeutigkeit und Durchgängigkeit herzustellen. Um also die Anforderung „Nettoumsätze im Web-Analytics-System“ erfüllen zu können, steht man vor der Herausforderung, sowohl Bestellabwicklung als auch Marketingabläufe zu modifizieren und „Webanalyse-tauglich“ zu machen! Diese Aufgabe kann kein WebAnalytics-System für Sie übernehmen. Diese durchgängige, konsistente Kennzeichnung müssen Sie gemeinsam mit den betroffenen Abteilungen (Vertrieb, IT, Category-Management, …) selbst entwickeln.
243
12 Einführung eines Web-Analytics-Systems Wir erleben es nicht selten, dass die Integration eines Web-Analytics-Tools mit der Unternehmens-IT ausschließlich daran scheitert, dass es keine durchgängigen Kennzeichnungssystematiken vom Marketing bis zum Warenwirtschaftssystem gibt. Überprüfen Sie die internen Abläufe auf diese Durchgängigkeit, und schaffen Sie rechtzeitig die Voraussetzungen für die Integrationsfähigkeit des Web-Analytics-Tools.
12.8.3 Projektabnahme und Inbetriebnahme Der formale Schritt der Projektabnahme dokumentiert gegenüber allen Beteiligten, dass alle Anforderungen vollständig umgesetzt, getestet und validiert sind. Im Anschluss daran kann die Gesamtlösung in Betrieb genommen werden. Neben dieser Formalität hat die Projektabnahme einen ganz pragmatischen Aspekt. Sie „friert“ alle zu dem Projekt gehörenden Dokumente auf einen fest definierten Stand ein. Dies ist wichtig, weil Websites – insbesondere solche, die eng am Markt operieren wie ECommerce-Websites – einer sehr schnellen und permanenten Änderung unterliegen. Umso mehr ist es notwendig, Fixpunkte zu setzen. Ein erster solcher Fixpunkt ist die Fertigstellung der Web-Analytics-Systemintegration.
12.8.4 Schulungen und Trainings der Mitarbeiter Das Unternehmen verfügt in dieser Phase über ein ausgereiftes Web-Analytics-System, dessen Messmethoden, Metriken, KPIs und Statistiken auch nach den komplexen Anforderungen aus Marketing und Vertrieb ausgerichtet wurden und entsprechend „gecustomized“ sind. Bei dieser Wissensfülle ist es sinnvoll, mehr als eine generische Schulung der mit diesem System arbeitenden Mitarbeiter beim Hersteller durchzuführen. Denn mehr als Bedienungssystematiken würden die Mitarbeiter nicht erlernen. Wir empfehlen – entsprechend dem Aufwand, der in die Systemanpassung investiert wurde – die Mitarbeiter am konkreten System, mit den tatsächlichen Zahlen und sozusagen unter Realbedingungen zu schulen. So haben motivierte Mitarbeiter aus den Bereichen Online-Marketing, Online-Vertrieb oder CRM meistens weniger Probleme mit der Tool-Bedienung als mit der Interpretation der Messergebnisse. Die Schulung der Anwender sollte sich nicht ausschließlich auf die Bedienung des Standard-Tools des Herstellers beschränken. Das an ihre Anforderungen angepasste System sollte als Schulungsgrundlage verwendet werden. Die Ausbildung sollte sich zu einem überwiegenden Teil mit der Frage der Interpretation der Messergebnisse befassen, um einen möglichst großen praktischen Nutzen zu erzielen. Sonst besteht die Gefahr, dass die Anwender das System nur zum Reporting verwenden.
Web-Analytics-Systeme erzielen ihren Return-On-Invest ausschließlich durch Analyse der Zahlen, Ermitteln der Handlungsoptionen, Umsetzen des Gelernten und erneuter Messung und Analyse. Reporting hingegen ist ein statischer Prozess ohne jegliche Verbesserungskomponente. Insofern ist es von eminenter Wichtigkeit, Anwender zu „Analysis Ninjas“
244
12.8 Administration zu machen statt zu „Reporting Squirrels“ – wie der Web-Analytics-Profi Avinash [Kaushik 2007] dies einmal ausgedrückt hat. Diese Grundregeln von Avinash Kaushik sollten sich alle Systemanwender zu Herzen nehmen [Kaushik 2006]: Reporting: The Art of Finding Three Errors in a Thousand Rows Analysis: The Art of Knowing, that Three Errors in a Thousand Rows are Irrelevant
12.8.5 „Einphasen“ der Analyse- und Reportingprozesse Sowohl Analyse als auch Reporting sind normalerweise gewissen standardisierten Prozessen unterworfen – oder sollten es zumindest sein. Es sei an das Beispiel aus Kapitel 12.6.2 erinnert und die daraus zu treffenden Schlussfolgerungen für den Projektabschluss: Denken Sie die Veränderungs- und Optimierungsprozesse vor! Warten Sie nicht ab, bis eine konkrete Handlungsempfehlung vorliegt (denn diese sollte dann schnellstens umgesetzt werden), sondern überlegen Sie bereits im Vorfeld, welche Ressourcen Sie für welche Art der Optimierung benötigen. Gegebenenfalls ist es sinnvoll, betroffene Abteilungen und Teams früh in diese Prozesse mit einzubinden. Für das Testing zur Weiterentwicklung des Systems ist dies absolut notwendig (dies erläutern wir in Kapitel 8).
12.8.6 Change Management und kontinuierliche Pflege „Nichts ist so beständig wie der Wandel“ – dieses Sprichwort trifft besonders auf schnelllebige Websites und Online-Marketing zu. Hierzu ein Beispiel: In einem international agierenden Unternehmen mit zahlreichen, weltweit verstreuten Niederlassungen wurde durch die Zentrale in Großbritannien (UK) ein Web-Analytics-System eingeführt. Sowohl bei der auf das Geschäftsmodell der Sites ausgerichteten Implementierung als auch bei der anschließenden Schulung der Mitarbeiter wurden alle wichtigen Aspekte eingehalten – aber leider nur für die lokale UK-Website. Nach erfolgreichem Projektabschluss wurde die Integration weltweit „ausgerollt“. Dass man dabei regionale Unterschiede der jeweiligen Märkte und somit auch der Websites unberücksichtigt ließ, war noch zu verkraften. Was viel schlimmer war: Die für das UKGeschäft benötigten Business-Anforderungen, die zu der Implementierung geführt hatten und damit bestimmte Reports produzierten, waren weder dokumentiert noch kommuniziert worden. Die lokalen Niederlassungen sahen sich einem Reporting- und Analysesystem gegenüber, von dem sie weder wussten, was es an Daten sammelt, noch was man mit den Daten anfangen soll. Nach etwa einem Jahr Laufzeit wurden wir gebeten, einen Audit der Installation vorzunehmen und Empfehlungen abzugeben, wie sich das System nutzbringend einsetzen lässt. Was wir vorfanden, war Chaos: ein hochpreisiges System, das aufgrund mangelnder Dokumentation und Betreuung keine validen Basiszahlen lieferte und deswegen immer mehr vernachlässigt wurde. Darüber hinaus wurde ein kostenfreies Tool eingesetzt, weil das kostenpflichtige Tool nicht die erwünschten Ergebnisse brachte. Wir
245
12 Einführung eines Web-Analytics-Systems bewerteten den Fall als einen „wirtschaftlichen Totalschaden“ und empfahlen einen Neubeginn, weil das „Herumdoktern“ am System teurer und ineffizienter gewesen wäre. Die Learnings aus dieser Geschichte: In jedem Fall muss die gesamte Kette Geschäftsmodell
Optimierungspotenzial
Anforderung
Lösung und Tool
operativer Einsatz
nicht nur vollständig dokumentiert, sondern permanent auf dem aktuellen Stand gehalten werden. Eine Änderung an einem Element dieser Kette muss zwingend zur Folge haben, dass alle Nachbarn rechts und links auf Konsistenz und Rückwirkungsfreiheit der Änderung hin überprüft werden.
!
Werden Änderungen oder Umstellungen in der Website vorgenommen, die Auswirkungen auf das Web-Analytics-System haben, muss die gesamte Anforderungsdokumentation geprüft und entsprechend angepasst werden, sonst verlieren Sie im Laufe der Zeit wichtige Daten oder erhalten unpräzise oder inkonsistente Ergebnisse. Dadurch wird der zu erzielende Kosten- und Marktvorteil, der durch den Einsatz erreicht werden soll, gefährdet oder sogar vollständig entwertet.
Wie in Kapitel 12.7.1 und 12.7.2 beschrieben, können Softwaresysteme bei der kontinuierlichen Wartung und Weiterentwicklung helfen, vom Requirements Engineering Tool bis zu Knowledge-Management-Systemen. Empfehlenswert ist es in jedem Fall, bereits zu Beginn des Projekts über den Einsatz automatisierter Systeme zur Dokumentation nachzudenken und diese gegebenenfalls aufzubauen.
246
13 13 Anhang 13.1
Glossar A/B-Test Der A/B-Test hilft bei der Optimierung einer Website oder Elementen einer Website bzw. Landing Page. Dazu werden zwei unterschiedliche Versionen einer Landing Page bereitgestellt. Ein Teil der Besucher sieht Variante A, der andere Variante B. Durch den Vergleich der Erfolgskennzahlen beider Varianten kann sehr schnell erkannt werden, welche der Versionen im Dauereinsatz erfolgreicher sein wird. Abbruchquote Verhältnis der Besucher, die einen Transaktionsprozess vorzeitig verlassen, ohne ihn zu beenden, zu allen Besuchern im Transaktionsprozess. Siehe auch Conversion Funnel. Ad Impression Anzahl der tatsächlichen Darstellungen eines Werbemittels in einem Browser. Synonym für Ad Views. Ad Click Anzahl der Klicks auf ein Werbemittel. Durch den Klick auf das Werbemittel wird eine Verbindung zur Website des Auftraggebers hergestellt. Teilt man die Ad Clicks durch Ad Impressions, erhält man die Klickrate. Adserver Technisches System zur Auslieferung von Werbemitteln auf Vermarktungs-Websites. Normalerweise werden die Werbemittel nicht auf der anzeigenden Website gehosted, sondern auf den zentralen Adservern der Vermarkter. Adserver unterliegen in Deutschland einer Zertifizierung der Vermarkter, die hohe Verfügbarkeiten und Antwortgeschwindigkeiten garantiert. Technisch ist der Adserver ein speziell instrumentierter Webserver. Affiliate-Marketing Werbeform, in der Betreiber von Website-Netzwerken („Affiliate-Netzwerke“) Werbemittel von Werbetreibenden auf angeschlossenen Partner-Websites platzieren. Die Finanzierung der
247
13 Anhang Netzwerke erfolgt dabei über ein gestaffeltes Provisionssystem: Sowohl der Partner als auch der Netzwerkbetreiber profitieren von einem Kauf oder Abschluss, der über eine solche Platzierung zustande kam. Sonderformen wie PPC („Pay Per Click“), bei dem Partnersites pro Klick bezahlt werden, sind zur Generierung von Traffic möglich. Zu den bekannten Netzwerken gehören AdButler, CommissionJunction und Affilinet. AJAX „Asynchronous JavaScript and XML“ (AJAX) ist eine besondere Form des AnwendungsDesigns für Web-Anwendungen. Üblicherweise – und ohne Ajax – erzwingt die Interaktion eines Anwenders einen vollständigen Seitenwechsel im Browser. Beispiel einer formulargestützen Interaktion: 1. Formular anzeigen 2. Formulardaten eingeben und „submit“-Button betätigen 3. Formulardaten an Server senden 4. Daten werden auf dem Server verarbeitet 5. Ergebnis der Verarbeitung als HTML-Seite zurücksenden Natürlich kann die Anmutung der in Schritt 5 angezeigten Seite für den Anwender die gleiche sein wie in Schritt 1, das hat aber keinen Einfluss auf den Ablauf oder die Anzahl der Ladevorgänge. Mit Hilfe von AJAX können nun aus dem angezeigten Formular direkt Daten vom Server gelesen oder an den Server gesendet werden, ohne dass die gesamte Seite neu gesendet und empfangen werden muss. Beispiel:
Drei Drop-Down-Boxen auf einer Seite: Erst nach Auswahl der Marke kann die Dropdown-Box „Modell“ gefüllt werden und erst danach die Dropdown-Box „Version“. Will man den Dialog nicht in drei Schritte zerlegen, muss nach Auswahl der Marke die Modellliste vom Server neu geladen werden. Die Kommunikation zwischen Browser und Server erfolgt in Form XML-strukturierter Befehle und Daten. Für die Messung bedeutet dies, dass die Funktionen für den Pixelaufruf ggf. angepasst werden müssen. Für die Webanalyse ist aber zunächst zu klären, welche Interaktion überhaupt als Seitenaufruf gemessen werden soll. Analyse Gewonnene Daten werden statistisch aufbereitet und bei Bedarf angereichert. Auf dieser Basis erfolgt die Analyse der Statistiken. Ziel der Analyse ist es, Gründe für die Abweichung der Zahlen von den Planzielen des Unternehmens oder vom „normalen“ Nutzerverhalten zu identifizieren. Eine zusätzliche externe Analyse steigert die Qualität und Validität der gewonnenen Daten und reichert diese mit Best-Practice-Informationen an. Das ist einer der schnellsten We-
248
13.1 Glossar ge, um zum Beispiel Trends frühzeitig zu entdecken. Kundenspezifische Web Scorecards und Dashboards ermöglichen einen schnellen Überblick über erreichte Ziele und weisen rechtzeitig auf notwendige Veränderungen hin. ASP „Application Service Providing“ – eine Form der Lizenzierung von Software, in der die Software gegen eine zeit- und volumenabhängige Gebühr inklusive Betrieb und Wartung gemietet wird. Audit Anhand einer fundierten Analyse wird die Qualität der Web-Analytics-Implementierungen bewertet, die aktuell angewandt werden. Es werden Empfehlungen entwickelt, wie sich die Effizienz der implementierten Lösung verbessern ließe. Diese Aufgabe wird idealerweise in der Strategiephase, also zu Beginn der Web Analytics, vorgenommen. Average Order Value Durchschnittlicher Wert einer Bestellung, die in einem Shop getätigt wurde. Behavioral Targeting Hier geht es um eine Art „verhaltensgesteuertes Targeting“: Das Verhalten der Website-Besucher wird anhand bestimmter Kriterien (z.B. Klick-Stream) ermittelt. Mit Hilfe der gewonnenen Informationen werden Inhalte oder Werbemittel ausgewählt und angezeigt, die für diesen Besucher vermutlich von hoher Relevanz sind. Dieser bekommt also nur Inhalte zu sehen, die zu seinen lang- und kurzfristigen Verhaltensmustern passen. Eine weitere Variante ist das „Predictive Behavioral Targeting“. Hier werden bereits vorhandene Profile für User eingesetzt, die ein ähnliches Verhaltensmuster aufweisen. Benchmark Vergleich gleichartiger Websites untereinander anhand spezifischer Kennzahlen. So ist zum Beispiel die Zahl der Return Visitors für eine einzelne Website wenig aussagekräftig. Stellt man aber einen Vergleich mehrerer Websites, z.B. aus der gleichen Branche oder mit ähnlichen Geschäftsmodellen her, kann man von einer rein quantitativen zu einer qualitativen Aussage gelangen. Besuchsdauer Zeit zwischen dem ersten und dem vorletzten Seitenabruf. Da die Betrachtungsdauer einer Website nur mit erheblichem Aufwand gemessen werden kann, geht man von dem Hilfskonstrukt aus, dass die zwischen den Abrufen von zwei Seiten vergangene Zeit die Betrachtungszeit der ersten Seite gewesen sein muss. Dadurch kann die Betrachtungszeit der letzten Seite nicht ermittelt werden. Mit diesem Umstand gehen die Tools unterschiedlich um; die einen ignorieren die Betrachtungszeit der letzten Seite – setzen sie also faktisch auf null –, die anderen nehmen für die letzte Seite eines Besuches eine fixe Betrachtungszeit an und setzen sie z.B. auf 30 Sekunden. Single Page Visits haben dann entweder eine undefinierte Besuchsdauer (Sie ist nicht 0 sondern undefiniert!) oder eine Länge von 30 Sekunden.
249
13 Anhang Bid Management Das Bid Management ist eine halbautomatische Verwaltung des Keyword Advertising. Sein Ziel: Innerhalb eines festgelegten Budgetrahmens soll durch die Auswahl der optimalen Keywords ein Maximum an Erfolg erzielt werden. In der Strategiephase wird bei Bedarf die nahtlose Integration des Bid Managements in das Web-Analytics-System eingeplant. Auf diese Weise ist ein integriertes Marketing-Controlling möglich. Zudem werden mit der Einbindung die für effizientes Bid Management nötigen Entscheidungen in Echtzeit von den aktuellen Ergebnissen auf der Website abgeleitet. Die Nutzung der „Sponsored Links“ erreicht eine neue Stufe der Effizienz, weil die manuelle Steuerung der Anzeigen auf ein Mindestmaß reduziert wird. Bot, Robot, Crawler, Spider Programme, die Seiten automatisiert nach bestimmten Kriterien durchsuchen. Suchmaschinen verwenden Bots, um den Suchindex zu erstellen. Die Begriffe Bot, Robot, Spider und Crawler werden synonym verwendet. Bounce Rate Die Bounce Rate ist eine abgeleitete Metrik. In der totalen Betrachtung einer Statistik bezeichnet sie den Anteil der Visits, bei denen nur eine Seite gesehen wurde. In der Detailbetrachtung einer Kampagne oder einer Seite ist es der Anteil der Single Page Visits an den Entries durch diese Kampagne bzw. auf dieser Seite. Einzelne Tools verwenden leicht abweichende Definitionen. Business Intelligence (BI) Unter diesen Gattungsbegriff fallen Systeme und Prozesse zur systematischen Analyse des eigenen Unternehmens und seines Umfelds. Ziel ist die Gewinnung von Erkenntnissen, um bessere operative, taktische oder strategische Entscheidungen treffen zu können. Die Daten in einem Data Warehouse werden mit Hilfe eines Business-Intelligence-Tools untersucht. Click Fraud Insbesondere im Bereich Affiliate und Suchmaschinen-Marketing vorkommende Betrugsform. Für CPC-Kampagnen veranlasst der Affiliate-Partner „künstliche“ Klicks auf die von ihm geschalteten Werbemittel, um so zu einer erhöhten Provision zu gelangen. Mittlerweile wird der Begriff aber auch synonym für jegliche Form des Betrugs bei Werbenetzwerken verwendet. So ist es zum Beispiel möglich, durch geschicktes Scripting auf Websites Cookies zu hinterlegen, die eine aktive Teilnahme an einem Abverkauf vortäuschen und so zu unberechtigten Provisionszahlungen führen ( Cookie Dropping). Auch das gezielt unproduktive Klicken fremder Suchmaschinenanzeigen fällt unter den Begriff Fraud. Click-Stream Ein Click-Stream gibt die meistgenutzten Seitenabfolgen der Website wieder. In der Regel wird eine Liste von Seiten sowie die Häufigkeit dieses „Pfads“ innerhalb einer Betrachtungsperiode analysiert. Interessant sind Click-Streams vor allem in Verbindung mit Kennzahlen wie Velocity, Focus oder Level of Interest. In Kombination mit diesen Kennzahlen können stichhaltige Rückschlüsse über die Usability gezogen werden.
250
13.1 Glossar Click Through Rate (CTR) Verhältnis von Klicks auf ein Werbemittel im Verhältnis zur Anzahl der Impressionen des Werbemittels. Siehe auch Ad Impression. Content Management, Content Management System (CMS) System zur versionsgestützten Verwaltung von Inhalten auf einer Website. Meist mit erweiterten Funktionen für die Content-Erstellung, Layout-Vorlagen für vereinfachtes Publizieren und Rechte/Rollensystem zur Benutzerverwaltung. Conversion Funnel „Konversionstrichter“; ausgehend vom Umstand, dass ein Kaufprozess allgemein aus einer festen Reihenfolge mehrerer Transaktionsschritte besteht, misst man für jeden einzelnen Schritt die Anzahl der Besucher, die diesen Schritt erreichen und stellt diese der Anzahl Besucher gegenüber, die beim vorherigen Schritt abgebrochen haben. Der Prozess erweist sich somit als ein „Trichter“ in dessen Öffnung mehr Besucher eintreten, als am Ende wieder herauskommen. Cookie Möglichkeit für einen Webserver, den Browser zu veranlassen, Informationen persistent auf dem PC des Anwenders abzulegen. Cookies sind notwendig für die Sitzungssteuerung, können aber auch dazu verwendet werden, um Unique Visitors wiederzuerkennen. Es gelten Zugriffsrechtemechanismen, die verhindern, dass Cookies beliebig gespeichert und ausgelesen werden. Grundsätzlich werden Cookies vom Browser nur an die ursprüngliche, „herausgebende“ Website zurückgesendet. Man unterscheidet persistente Cookies und nicht-persistente bzw. Session Cookies. Persistente Cookies werden dauerhaft auf einem PC gespeichert. Beim Internet Explorer erfolgt die Speicherung in Textdateien, bei anderen Browsern in speziellen Datenbanken. Session Cookies werden nur im Hauptspeicher des Browsers gehalten und sind verloren, sobald der Browser beendet wird. Der Informationsgehalt eines Cookies ist standardisiert und das Datenvolumen auf rund 1 KByte begrenzt. In einem Cookie steht die Adresse des herausgebenden Servers, ein Verfallsdatum und „Nutzdaten“. Die Nutzdaten sind anwendungsspezifisch. Einzige Anforderung des Standards ist, dass die Nutzdaten ASCII-Zeichen (lesbare also) enthalten müssen. Es handelt sich bei Cookies demnach nicht um „kleine Programme“, wie fälschlich immer wieder dargestellt wird, sondern um strukturierte Datensätze. Cookie Dropping Betrugsform im Zusammenhang mit Affiliate-Netzwerken, bei der über geschicktes Scripting Cookies verteilt werden und so unberechtigte Provisionen erzielt werden. Cookie-Laufzeit Zeitspanne zwischen dem Setzen eines fallsdatum. Cookie Policy Einstellung des Browser, wie
Cookies und dem beim Setzen angegebenen Ver-
Cookies zu behandeln sind.
251
13 Anhang Cost per Order (CPO) Eine der wichtigsten Kennzahlen im Online-Marketing und für den E-Commerce ist die Cost per Order. Darunter wird generell die Gegenüberstellung aller Online-Marketing-Kosten zu einer Bestellung verstanden. Dies kann entweder als Relation pro eingetroffener Bestellung (Auftrag) oder als prozentualer Auftragseingangswert erfolgen. Unabhängig von der Art der Darstellung ist es notwendig, die mit einer konkreten Bestellung direkt assoziierten Kosten zu ermitteln. In der Regel geschieht dies in zwei Schritten: Als Erstes wird der Marketing-Anstoß erfasst. Dies ist üblicherweise das zuletzt vom Anwender benutzte Werbemittel („last cookie wins“) vor dem Kaufabschluss. Hierbei wird zwischen Direkt- und Postkonversion unterschieden. Im zweiten Schritt werden die (in der Regel extern) verfügbaren Kosten für diesen einen Klick des Anwenders der somit markierten Bestellung zugeordnet. Vielfach sind diese Kosten nicht in Realtime verfügbar, so dass hier eine „Zumischung“ der Daten aus anderen Quellen zu einem späteren Zeitpunkt notwendig ist („External Data Sources“, „Klassifizierung“). Die weitere Darstellung der Metrik „CPO“ ist danach nur noch eine Frage der Arithmetik. Cost per Lead (CPL) Cost per Lead sind alle Werbekosten, die einem qualifizierten Lead zugeordnet werden können, der auf einer Website erfasst wurde. Man wird alle Kosten einer Marketingmaßnahme durch die Anzahl der direkt über diese Maßnahme erzielten Leads teilen und dadurch einen durchschnittlichen CPL erhalten. CPM, TKP Tausenderkontaktpreis (TKP) oder Cost Per Million (CPM) sind Berechnungsformen für Display-Werbung. CPX Der Oberbegriff zu CPO ( Cost per Order) und CPL ( Cost per Lead) fasst alle performanceorientierten Abrechnungs- und Kostenberechnungsmodelle zusammen. Siehe auch PPP CRM Das Customer Relationship Management dient Unternehmen als Basis für ihre Kundenpflege. Im Zentrum aller Aktivitäten (Support, Call Center etc.) steht eine Datenbank, in der Adressen und Handlungen der Kunden festgehalten und stetig aktualisiert werden (im Rahmen des Datenschutzgesetzes). Auf Grundlage der gewonnenen Kundendaten kann das Unternehmen wertvolle Erkenntnisse sammeln, etwa über regionale Besonderheiten oder über das Bestellverhalten bestimmter Zielgruppen. Noch aussagekräftiger werden solche Verbraucheranalysen, wenn CRM mit Web Analytics kombiniert wird. Die Planung dazu sollte frühzeitig, also bereits in der Strategiephase, einsetzen. Custome Lifetime Value Der „Wert“ eines Kunden, dargestellt in Akquisitions- und Betreuungskosten sowie Umsatz und erzieltem Deckungsbeitrag über einen längeren Zeitraum (in der Regel > 1 Jahr).
252
13.1 Glossar Dashboard Englisch für „Schalttafel“ oder „Armaturenbrett“. Bezeichnet in der Business Intelligence (BI) und in der Web Analytics eine Übersicht aus verschiedenen Einzelreports, die stark komprimierte Statistiken darstellt. Meist durch „Tachometeranzeigen“ grafisch aufbereitet, soll ein Dashboard eine erste Einstiegsmöglichkeit in Einzelreports und Analysen bieten. Data Mining Analyse großer Datenbestände (zum Beispiel in einem Data Warehouse) mit definierten Algorithmen. Ziel von Data Mining ist es, wiederkehrende Muster zu finden und zu analysieren. Data Warehouse Sammlung, Integration und Bereitstellung verknüpfter Daten aus verschiedenen Systemen wie Warenwirtschaft, CRM, Finanzbuchhaltung etc. an einer zentralen Stelle, mit dem Ziel, die Daten einheitlich analysier- und auswertbar zu machen. Display-Werbung Streuwerbung von Werbemitteln auf möglichst vielen Plattformen, in der Regel im sogenannten TKP bezahlt. DOM, Document Object Model Das DOM stellt eine programmatische Schnittstelle auf die Strukturen und Elemente eines HTML-Dokumentes dar. Das DOM ist zwar relativ „alt“ und hat gegenüber anderen Technologien wie XPATH als Zugriffsmethode auf XML-basierende Dokumente einige Nachteile. Es stellt aber die einzige in JavaScript integrierte Zugriffsmethode dar. Derartige Zugriffe sind in Rahmen von Testing und Targeting notwendig. Domain Eine Adresse im Domain Name System (DNS). Das DNS stellt einen hierarchisch aufgebauten Adressraum zur Auflösung von Namen zu IP-Adressen bereit. International wurde die erste Ebene der sogenannten Toplevel-Domains (TLD) genormt, Deutschland hat die TLD .de. Die nationalen Network Information Center vergeben die Namen (das DENIC in Deutschland), die sich dazu sogenannter Registrars bedienen, in der Regel Provider und Hosting-Anbieter. Der Begriff „Domain“ steht aber auch synonym für eine vollständige Adresse innerhalb des DNS, z.B. www.meinlieblingsdienst.de. Dabei ist zu beachten, dass der Teil „www“ keine Funktion hat, sondern ein Rechnername ist. Im Beispiel oben liest sich das so: Der Rechner mit dem Namen „www“ in der Domäne „meinlieblingsdienst“ unterhalb der TLD „.de“. DOM-Storage bzw. „Super Cookie“ Als „Super Cookie“ wird eine in den Browsern der jüngsten Generation implementierte Möglichkeit bezeichnet, Teile des DOM-Trees ( DOM) persistent auf der Festplatte des Anwender-PCs zu speichern. Prinzipiell handelt es sich hierbei nicht um Cookies, sondern um die Möglichkeit, jede Art von strukturierten Daten bis zu einem Volumen von 5 MB abzulegen. Die dahinter stehende Idee ist, durch ein lokales Caching Laufzeit- und Ladezeitoptimierungen vornehmen zu können. Natürlich kann die Methode auch verwendet werden, um Informationen, die bisher in Cookies gespeichert wurden, darin abzulegen. Da die Methode aber erst ab Firefox 2.x und ab Internet Explorer 8 zur Verfügung steht, wird es noch einige Zeit dauern, bis sie sich durchsetzen wird.
253
13 Anhang „Super Cookie“ ist eine unpräzise, populärwissenschaftliche Bezeichnung, die falsche Assoziationen weckt: Es handelt sich eben nicht um Cookies! Die Art der Speicherung ähnelt wesentlich stärker den Flash-Shared-Objekten ( FSOs), die unglücklicherweise als Flash Cookies bezeichnet werden. (Merke: Dinge werden nicht richtiger, wenn man sie häufiger falsch macht). Double-Opt-In Verfahren, um bei einem Opt-In die angegebene E-Mail-Adresse zu verifizieren. Nach dem Opt-In erhält der Anwender zunächst eine Bestätigungs-E-Mail gesendet. Erst wenn der Anwender den Link in der E-Mail angeklickt hat, wird seine Einwilligung zum Zusenden von Werbemails anerkannt. Dadurch wird der Erfolgsschritt „Ende Double-Opt-In“ ggf. in einen anderen Visit verschoben.. Entry Beginn eines Visits (auf einer Seite) Entry Page Name der ersten Seite eines
Visits
Erfolgsmessung Messverfahren mit dem Ziel, den Erfolg einzelner Online-Projekte zu ermitteln und zu veranschaulichen. Es soll Entscheidern als Grundlage dienen, um Korrekturen vorzunehmen und neue Strategien zu entwerfen. Vor der Messung müssen alle relevanten Erfolgskriterien (KPI), die von Unternehmen zu Unternehmen variieren, definiert werden. Dies geschieht idealerweise in der ersten Phase, der Strategiebildung. Nur so kommt man zu stichhaltigen Ergebnissen. Firewall „Brandmauer“. Begriff für ein Softwaresystem, das den unkontrollierten bzw. unerwünschten Verbindungsaufbau zu einem Rechner unterbindet. Auf PCs meistens Bestandteil von VirenScannern. Kann die Messung durch clientseitige Scripts erschweren oder sogar verhindern. First Cookie Wins Saloppe Beschreibung für folgenden Mechanismus: Eine Website eines Affiliate-Partners ( Affiliate Marketing) schaltet ein Werbemittel eines Werbetreibenden aus diesem Netzwerk. Das Werbemittel wird im Anwender-Browser einen Cookie setzen. Wenn der Anwender nun innerhalb einer festgelegten Zeitspanne auf der ZielWebsite des Werbemittels einen Abschluss tätigt, wird dem im Cookie hinterlegten AffiliatePartner eine Provision gezahlt. Üblicherweise haben die Cookies eine Laufzeit von 30 Tagen und werden nur beim ersten Mal, wenn ein Anwender ein Werbemittel klickt, gesetzt und „gestartet“. Somit erhält der allererste Affiliate-Partner, der im Cookie steht, die Provision. Siehe auch Last Cookie Wins und Werbemittelnutzungspfad. First Party Cookie, Third Party Cookie Üblicherweise laufen Web-Analytics-Tools auf einem eigenen Server bzw. einer eigenen Domäne. Wird der Cookie zur Markierung des Besuchers auf der Domäne des Web-AnalyticsTools gesetzt, spricht man von Third Party Cookie. Wird er auf der Domäne der zu messenden
254
13.1 Glossar Website gesetzt, spricht man von First Party Cookie. Third Party Cookies sind unzuverlässiger, da moderne Browser über Einstellungen verfügen, Cookies auf anderen als den direkt besuchten Domänen nicht zu akzeptieren. Bei Webauftritten, die über mehr als eine Second Level Domain gehen, kann nur eine Messung mithilfe von Third Party Cookies realisiert werden, weil der First Party Cookie der einen Domain zwangsläufig ein Third Party Cookie auf der anderen Domain ist. Flash Proprietäre Technik von Adobe, multimediale Inhalte im Browser anzuzeigen. Hat sich mittlerweile zu einem komplexen Scripting-System weiterentwickelt (Flex, Adobe Air). Für die Messung von Flash-Applikationen müssen die Funktionen für den Pixelaufruf ggf. angepasst werden. Für die Webanalyse ist aber zunächst zu klären, welche Interaktion überhaupt als Seitenaufruf gemessen werden soll. Fold Abgeleitet aus dem Englischen „Knick“, den eine Zeitung üblicherweise hat. Die Zeitung wird in der Auslage horizontal in der Mitte gefaltet, so dass nur die obere Hälfte der Frontpage sichtbar ist. Alles „beyond the Fold“ – unter dem Knick – ist erst nach Aufschlagen der Zeitung sichtbar. Wird beim Browser als Bezeichnung für die untere Kante des Viewports verwendet. Alles, was „darunter“ liegt, kann erst nach Scrollen des Fensters betrachtet werden. Frequency Capping Begrenzung der Auslieferungshäufigkeit von Werbemitteln. Kann auf Benutzerebene oder global erfolgen. Frontpage Erste Seite einer Zeitung. Sinnbildlich für die erste Seite eines Web-Auftritts, von Laien auch gerne „Homepage“ genannt. FSO – Flash Shared Object Fälschlicherweise auch „Flash Cookies“ genannt, sind FSOs die Möglichkeit für Adobe Flashbasierte Programme ( Flash), Informationen in einem persistenten Bereich des PCs abzuspeichern. Der Anwender kann die Größe dieses Speichers einstellen und das Ablegen von Daten generell unterbinden. Insofern unterliegen FSOs den gleichen Restriktionen wie Cookies. Geosegmentierung Zuordnung der Besucher einer Website zu geografischen Orten wie Ländern, Bundesländern oder Kantonen und Städten. Wird über die IP-Adresse des Anwenders und entsprechende Datenbanken von Drittanbietern aufgelöst und ist daher aus datenschutzrechtlichen Gründen umstritten; für die Webanalyse in der Regel von untergeordneter Bedeutung. Harvester Ein spezialisierter Bot, der Websites nach E-Mail-Adressen durchsucht, um diese in Verzeichnissen aufzunehmen, an dessen Einträge dann SPAM-E-Mails versendet werden.
255
13 Anhang Heatmap/Clickmap Solche „Hitze-“ oder „Klickkarten“ sind Grafiken, die das Klickverhalten der Besucher darstellen. Zur Visualisierung wird über der Website eine virtuelle Folie ausgebreitet, auf der die Clicks der Besucher optisch aufbereitet angezeigt werden. Auch das Visualisieren häufiger Cursor-Positionen ist möglich. Bei Websites mit häufig wechselnden Inhalten nur sinnvoll in Verbindung mit Screenshot-Tools, die die darunter liegende Website ebenfalls festhalten. Die Bedeutung von Heatmap und Clickmap für die Analyse wird allgemein überschätzt. Hit Bitte vergessen Sie diesen Begriff im Zusammenhang mit professioneller Webanalyse. HTML Hypertext Markup Language – Seitenbeschreibungssprache. Die Begriffe HTTP und HTML werden oft synonym verwendet, obwohl sie unterschiedliche Ebenen innerhalb der Kommunikation zwischen Browser und Webserver bezeichnen: HTML-Inhalte werden über das HTTPProtokoll zwischen Client und Server ausgetauscht. HTTP Hypertext Transfer Protokoll. Das von Tim Berners Lee Anfang der 90er-Jahre des vergangenen Jahrtausends am CERN in der Schweiz entwickelte Protokoll zur Übertragung von Informationen des World Wide Web. HTTP Status Code Vom Server an den Browser zurück gesendeter Verarbeitungsstatus einer Anfrage. Die verschiedenen Status werden in mehrere Gruppen eingeteilt: Die Gruppe der 200er-Status bedeutet eine erfolgreiche Anfrage mit nachfolgend durch den Server gesendeten Daten. Die Gruppe der 400er-Status bedeutet eine ungültige oder unvollständige Anfrage des Clients (inklusive 404 – not found, dies wird als Fehler des Clients betrachtet). Die Gruppe der 500er-Status ist ein Fehler im Server, aufgrund dessen die Anfrage gar nicht bearbeitet werden kann. Besonderes Augenmerk im Online-Marketing und in der Web Analytics gilt der Gruppe der 300er-Status: die angeforderte Ressource ist an einem anderen Platz (bzw. unter einem anderem URL) zu finden. Diesen sogenannten Redirect machen sich insbesondere Adserver zunutze. I-Frame Technologie, bei der innerhalb einer Webseite ein Rahmen definiert wird, in dem eine neue Instanz des Browsers eine weitere Seite anzeigen kann. Weder der Rahmen noch die Browserinstanz sind dabei für den Anwender sichtbar, der den Eindruck erhält, eine einheitliche, monolithische Seite angezeigt zu bekommen. Aufgrund erhöhter Sicherheitsrisiken kann das Nachladen von Seiten in I-Frames in modernen Browsern drastisch eingeschränkt werden. Interstitial Werbeform, bei der über dem eigentlichen Inhalt ein Werbemittel aufgeblendet wird, das den Inhalt zunächst verdeckt. Nicht zu verwechseln mit Pop-Up oder Pop-Under, bei dem ein neues
256
13.1 Glossar Browserfenster oberhalb oder unterhalb des aktiven Fensters geöffnet wird. Das Interstitial erscheint im aktuellen Viewport und „überdeckt“ den eigentlichen Inhalt. Es muss aktiv vom Anwender „geschlossen“ werden. Generell eine sehr nervige Werbeform. IP-Adresse IP steht für Internet Protokoll. Die IP-Adresse ist eine 4 Byte lange eindeutige Adresse, über die ein Rechner im Internet mit anderen Rechnern Daten austauschen kann. Die vier Bytes werden üblicherweise in einer dezimalen Punktnotation dargestellt, z.B.: 83.230.86.94. Mit dem neuen Standard IPv6 ist dies nicht mehr so einfach möglich. IPv6 wurde eingeführt, da befürchtet wird, dass der Adressraum der 4 Byte weltweit knapp wird. Die theoretische Grenze von 232 Rechnern (4.294.967.296 Rechner) erscheint sehr groß, man muss aber berücksichtigen, dass damit jeder einzelne PC, jeder Server und jedes Smartphone und jeder PDA weltweit, der online ist, adressiert werden muss und dass bestimmte „Bänder“ im Adressraum bereits für besondere Zwecke reserviert sind. JavaScript Offiziell und korrekt mit „ECMA Script“ bezeichnete Programmiersprache, die ursprünglich von Netscape für den „Navigator“ entwickelt wurde. Die Sprache wird durch entsprechende Interpreter innerhalb der Browser ausgeführt. JavaScript hat rein gar nichts mit der Programmiersprache „Java“ von Sun Microsystems zu tun. Die Namensähnlichkeit hat(te) ausschließlich Marketinggründe am Ende der Neunziger Jahre des vergangenen Jahrtausends. Kampagnen-Tracking Unter Kampagnen-Tracking wird häufig irrtümlicherweise das Messen von Ad Clicks verstanden. Vielmehr geht es um das Beobachten des Kampagnenverlaufs. Dazu werden die Wege erfasst, die User bei der Begutachtung einer Kampagne wählen, zum Beispiel, über welche Sites sie kommen, wie lange sie die Werbung nutzen und wohin sie weiterklicken. Anhand der gewonnenen Informationen kann die Kampagneneffizienz (Mediaschaltung, Bannerformate etc.) beobachtet und bei Bedarf zeitnah optimiert werden. Key Performance Indicator (KPI) Der Key Performance Indikator (KPI) ist ein Maß, das aus einer oder mehreren Kennzahlen gebildet wird und diese zu aussagenkräftigen Erfolgsfaktoren für das Online-Geschäft verdichtet. Mit einem KPI wird das Ergebnis einer Online-Aktion gemessen, wobei der Unterschied zwischen dem aktuellen und dem vorigen Wert als Basis dient. Der KPI ist ein wichtiger Erfolgs- und Bewertungsfaktor für ein Unternehmen. Eric T. Peterson [Peterson 2006] schreibt: „Eine Kennzahl, die bei plötzlichen und unerwarteten Änderungen nicht dazu führt, dass ein Verantwortlicher eine E-Mail schreibt, den Telefonhörer in die Hand nimmt oder sich auf anderem Wege Hilfe sucht, ist es nicht wert, als KPI in das Reporting einzufließen.“ Klassifizierung Aggregationsform, bei der gemessene Einzelwerte einer Dimension nachträglich in übergeordnete Gruppen einsortiert werden. Auf der nächsten Seite finden Sie ein Beispiel:
257
13 Anhang gemessener Wert
1. Klassifikation
Apfel
Obst
2. Klassifikation Pflanzliche Lebensmittel
Birne
Obst
Pflanzliche Lebensmittel
Orange
Obst
Pflanzliche Lebensmittel
Kohlrabi
Gemüse
Pflanzliche Lebensmittel
Gurke
Gemüse
Pflanzliche Lebensmittel
Schnitzel
Schweinefleisch
Tierische Lebensmittel
Kotelett
Schweinefleisch
Tierische Lebensmittel
Synonyme: Mapping, Look Ups Klickabweichungen Abweichungen in den gemessenen Click Throughs bzw. Click Through Rates zwischen Adserver und Web-Analytics-Tool. Entstehen durch den unterschiedlichen Zeitpunkt der Messung: Adserver – unmittelbar beim Klick. Web-Analytics-Tool – nach Aufbau der Landing Page Konversion Konversion ist das Potenzial der Site, Besucher in Kunden „zu konvertieren“ – wenn es zum Beispiel gelingt, den Besucher in einen Shopper oder zu einem Newsletter-Abonnenten zu wandeln. Aus Marketingsicht werden durch Konversion zum Beispiel Nichtkäufer zu Käufern – und aus Controllingsicht Kosten zu Deckungsbeiträgen. Die Konversionsrate ist das Verhältnis der Besucher, die die gewünschte Aktion (Einkauf, Ausfüllen eines Kontaktformulars, Download einer Broschüre etc.) ausgeführt haben, zu allen Besuchern. Sie ist ein entscheidender Erfolgsfaktor bei der Bewertung von Websites und daher für die Analyse ein bedeutender Wert. Die Konversion kann auch in einzelne Teilschritte unterteilt und untersucht werden. Für diese Mikro-Konversion wird ein Kauf zum Beispiel in die Schritte „Look – Click – Basket – Buy“ unterteilt. Dieses Vorgehen gibt Aufschluss über kritische Phasen im „Customer Life Cycle“. Landing Page Zielseite, die hinter einem Werbemittel verlinkt wird. In den seltensten Fällen wird von einem Werbemittel direkt auf eine Landing Page verlinkt, vielmehr verlinkt das Werbemittel zunächst auf eine Anwendung im Adserver, die dann parametriert auf eine Landing Page umleitet. Diese Redirect-Ketten können, je nach Art der Vermarktung, sehr lang werden und damit auch unzuverlässig, siehe Klickabweichungen. Last Cookie Wins Saloppe Beschreibung für folgenden Mechanismus: Eine Website eines Affiliate-Partners ( Affiliate Marketing) schaltet ein Werbemittel eines Werbetreibenden in diesem Netzwerk. Das Werbemittel wird im Anwenderbrowser einen Cookie setzen. Wenn der Anwender nun innerhalb einer festgelegten Zeitspanne auf der Ziel-Website des Werbemittels einen Abschluss tätigt, wird dem im Cookie hinterlegten Affiliate-Partner eine Provision gezahlt. Üblicherweise haben die Cookies eine Laufzeit von 30 Tagen und werden jedes Mal, wenn ein Anwender ein Werbemittel klickt, überschrieben und neu „gestartet“. Somit erhält der letzte Affiliate-Partner, der im Cookie steht, die Provision. Siehe auch First Cookie Wins und Werbemittelnutzungspfad.
258
13.1 Glossar Latency, Latenz Unter Latenz wird die Zeit verstanden, die ein Anwender im Durchschnitt vom Erstbesuch bis zu einer Konversion benötigt. Latenz bezeichnet aber auch die zeitliche Differenz zwischen dem Auftreten eines gemessenen Ereignisses wie einem PageView und dessen Erscheinen im Web-Analytics-Datenbestand. Lead Kontakt mit Verkaufspotential. Unter einem Lead wird ein vollständiger Adressdatensatz eines potenziellen Kunden verstanden, den dieser freiwillig auf einer Website zur Kontaktaufnahme hinterlegt hat. Messfehler Der gesamte Prozess der Datenerhebung in der Webanalyse ist von unzähligen technischen Parametern abhängig. Da sich alle diese Parameter fast ausschließlich außerhalb des Einflussbereichs des Site-Betreibers bzw. des Web-Analytics-Anwenders befinden, ist es unmöglich, zu 100% präzise Daten zu erhalten. Webanalyse ist immer mit einem Messfehler behaftet, dessen Größe in der Testphase eines implementierten Web-Analytics-Tools ermittelt werden muss ( Validierung). Multivariates Testen Unter Multivariaten Testverfahren versteht man die Analyse der Abhängigkeitsstrukturen, die zwischen mehreren Variablen bestehen (im Gegensatz zu einer Variable wie im A/B-Test = Univariat). Mit diesem Testverfahren aus der Marktforschung werden Erkenntnisse über das Zusammenwirken einzelner Variablen ermittelt, zum Beispiel dem Zusammenwirken von Design, Slogan und Kaufbereitschaft in einem Online-Shop. Diese Form der Analyse ist hochkomplex und sollte mit erfahrenen Web-Analytikern entwickelt und durchgeführt werden. Offsite Behavioral Targeting Targeting von Werbemitteln auf Websites der Vermarkter. Aus dem Klickverhalten der Benutzer werden Profile erstellt, aus denen eine optimierte und individualisierte Werbemittelauslieferung gesteuert wird. Off-Time Zeit zwischen zwei Besuchen eines Besuchers bzw. der Durchschnitt über eine bestimmte Besuchergruppe. Onsite Behavioral Targeting Sonderform des Behavioral Targeting, das ausschließlich auf der eigenen Website stattfindet. Siehe auch Offsite Behavioral Targeting. Opt-In Opt-In bezeichnet die explizit vom Benutzer gewährte Erlaubnis, ihm Werbung zuzusenden. Dabei wird der Benutzer in einer Form gefragt, die ein „Nein“ als Vorbelegung hat und er willentlich ein „Ja“ auswählen oder ankreuzen muss. Siehe auch Double Opt-In. Organische Suche, Natürliche Suche Bezeichnung für die von einer Suchmaschine angezeigten Suchergebnisse ohne Werbung.
259
13 Anhang Page Impression, PageView Vollständige Anzeige eines Inhalts im
Viewport des Browsers.
Page Rank Algorithmus, der nach seinem Erfinder Larry Page, einem der Google-Gründer, benannt wurde. Dabei wird der Wert einer Website aus der Zahl und dem Gewicht von ein- und ausgehenden Links ermittelt. Auch „Linkpopularität“ genannt. Fälschlich wird „Page“ oft als „Seite“ missverstanden, es handelt sich aber tatsächlich nicht um eine „Seite“, sondern um den Eigennamen des Google-Mitbegründers. Kleines Rätsel: Wie heißt der andere Gründer? Paid Search Werbeeinblendungen in den Suchergebnissen einer Suchmaschine. Siehe auch ment.
Bid Manage-
Performance Marketing Unter dem Gattungsbegriff Performance Marketing werden alle Marketinginstrumente verstanden, die in digitalen Medien auf eine messbare Reaktion des Nutzers abzielen (Search Engine Marketing, E-Mail-Marketing, Affiliate-Marketing usw.). Dieses Vorgehen ähnelt dem des klassischen Direktmarketings. Um den Erfolg des Performance Marketings zu beobachten, werden direkt messbare Leistungsparameter eingesetzt. Permission Marketing Durch Opt-In erlaubtes Marketing, bei dem der Anwender explizit der Zusendung von Werbe-E-Mails zustimmt. Pixel Siehe
Zählpixel
Pop-up-Blocker Verfahren des Browsers, um zu verhindern, dass Websites per Scripting neue Fenster öffnen, um Werbemittel anzuzeigen. Meistens wird der Java-Script-Befehl Window.Open „abgeklemmt“. Pop up, Pop under Werbeform, bei der Werbemittel in einem neuen Browserfenster über oder unter dem aktuellen Fenster geöffnet werden. Kann teilweise durch in die Browser integrierte Pop-up-Blocker unterbunden werden. PPP Pay per Performance – Werbeform, bei der nur für „erfolgreiche“ Werbemittel bezahlt wird, also solche, die auch tatsächlich zu einem Abschluss auf der Ziel-Website geführt haben. Übliches Bezahlmodell für Affiliate-Werbung. Siehe auch CPX. Prestitials Werbeform, bei der vor die eigentliche Website, die man besuchen möchte, eine komplette Werbeseite vorgeschaltet wird. Im Prinzip ein vollflächig im Viewport erscheinendes Interstitial.
260
13.1 Glossar Proxy „Stellvertreter“. Im Zusammenhang mit dem World Wide Web ein Softwaresystem, das Anfragen aufnimmt und anstelle des Browsers weiterleitet. Die Ergebnisse werden zwischengespeichert („Caching“), was die Ladezeiten auf den an das Proxy-System angeschlossenen Rechnern reduziert. Viele Provider, insbesondere in Mobilfunknetzen, bedienen sich so genannter „transparenter Proxies“: obwohl der Anwender keine Proxy-Konfiguration im Browser vorgenommen hat, wird der gesamte http-Verkehr über ein solches System geleitet. Für Web Analytics ist von Bedeutung, dass das Web-Analytics-Tool lediglich den direkten Verbindungspartner und dessen IP-Adresse erkennen kann. Im Falle einer Proxy-Infrastruktur ist das die Adresse des Proxy, was Auswirkungen auf die Geosegmentierung hat. Unter anderem wegen der Existenz von Proxy-Servern sind IP-Adressen für die Identifikation von Usern in Webanalyse-Systemen ungeeignet. Reach Reichweite einer Website, üblicherweise gemessen in Unique Visitors per Month. Redirect, Redirect-Ketten Dem Browser wird für die angeforderte Adresse eine neue Adresse zugestellt, unter der er den Inhalt abholen soll. Üblicherweise wird dies über den HTTP-Status 302 angekündigt, gefolgt von der neuen Adresse. Dieser serverseitig veranlasste Redirect ist für die Zielseite insofern „transparent“, als Referrer-Informationen und Link-Parameter nicht verloren gehen. Der Server erhält als Ursprung die Adresse der initialen Website gemeldet, nicht die des letzten Redirects. Alle URL-Parameter an der Ziel-URL werden an die „Umleitungsadresse“ wieder angehängt. Die Programmierung eines Redirects erzwingt Eingriffe in die Webserver-Konfiguration. Diese ist mitunter bei gehosteten Systemen nicht verfügbar, oder es fehlt an Kenntnissen über die Art dieser Konfiguration, so dass auf clientseitige Java-Script-Umleitungen verfallen wird. Diese sind intransparent, und der letzte Server erhält als Referrer die Adresse der Zwischenseite. Darüber hinaus sind diese Redirects sehr fehleranfällig und führen zu erhöhten Messfehlern, insbesondere im Kampagnen-Tracking, da ohne zusätzlichen Aufwand die URL-Parameter verloren gehen. Referrer Wird ein Link auf einer Seite angeklickt, sendet der Browser an die hinter dem Link stehende Webseite auch die URL der geladenen Seite als „Referrer“-Bezugspunkt. Der Referrer ist Bestandteil des http. Darin wird er übrigens „Referer“ genannt, ein Schreibfehler, der sich im Protokollstandard manifestiert hat. Aufgrund der vielen Redirects bei Werbemitteln ist es nicht möglich, den Referrer nach einem Werbemittel-Klick auszuwerten, um auf die Website zu schließen, die das Werbemittel angezeigt hat. Da bei den meisten Suchmaschinen das verwendete Suchwort in der URL der Suchergebnisliste steht, kann dieses Suchwort für die Messung von SEO und SEM aus dem Referrer ausge-
261
13 Anhang lesen werden. Darüber hinaus ist der Referrer ein „Kann-Feld“ im Protokoll, und viele Unternehmen filtern den Referrer an ihren Proxies aus. Reporting Über das Reporting werden die verantwortlichen Entscheider und Mitarbeiter regelmäßig über die aktuelle Leistung der Web-Aktivitäten informiert und eventuell auf Schwachstellen aufmerksam gemacht. Das Reporting-Tool sollte in der Lage sein, in kritischen Situationen sofort einen Report zu senden, damit die Empfänger schnell handeln und optimieren können. Zudem sollten sich damit Berichte erstellen lassen, die von Mitarbeiter zu Mitarbeiter unterschiedlich ausfallen – je nach Funktion werden dann nur die für ihn interessanten Kennzahlen aufgeführt. Fällt im Reporting eine Abweichung zur Zielvorgabe oder zu den Erfahrungswerten auf, so folgt eine Analyse. Retargeting Sonderform des Offsite Behavioral Targeting, bei dem aus dem Verhalten des Anwenders während der letzten Besuche auf der Ziel-Website Rückschlüsse gezogen werden, um zielgerichtete Werbung zu schalten. Allgemein wird Retargeting verwendet, um zum Beispiel Produkte, die ein Besucher in einen Warenkorb gelegt, aber letztlich dann doch nicht bestellt hat, für einen bestimmten Zeitraum gezielt diesem Anwender wieder anzuzeigen („Re“-Targeting). Return Visitor, New Visitor Anzahl der Besucher, die eine Website erneut besuchen bzw. eine Website das erste Mal besuchen. Maß für die Attraktivität einer Seite, siehe Benchmark. RMI Return on Marketing Investment, siehe
ROAS.
ROAS Return on Advertising Spend – Umsatz im Verhältnis zu den Kosten der Werbemaßnahmen, die direkt an der Generierung dieses Umsatzes beteiligt waren. Router, Gateway Hardwarekomponente, die Netzwerke mit unterschiedlichen IP-Adressen untereinander verbindet. Generell können Rechner nur innerhalb eines Netzwerkverbunds miteinander kommunizieren, wenn die Adressen aus einer Netzwerkgruppe sind. Um unterschiedliche Netzwerkgruppen miteinander zu verbinden, sind Router und Gateways notwendig. Sampling Verfahren der Datenreduzierung. Bei Websites mit großer Reichweite und damit einhergehendem hohen Datenvolumen kann ein „Stichprobenverfahren“ angewendet werden, in dem z.B. nur jeder 2. oder jeder 5. Besucher (50 % Sampling, 20 % Sampling) tatsächlich in die Messung einbezogen wird. Das Verfahren ist sehr umstritten, weil die Grundungenauigkeit in der Webanalyse damit drastisch erhöht wird.
262
13.1 Glossar Scanning ratio Verhältnis der Visits mit einer Besuchsdauer unter einer Minute im Verhältnis zur Gesamtzahl der Besuche. Der Kennzahl liegt der Gedanke zugrunde, dass eine minimale Zeit zur Erfassung der Website benötigt wird, unabhängig von der in dieser Zeit getätigten Anzahl von PageViews. Ähnliche Kennzahl wie die Bounce Rate. Segment Ausschnitt aus dem Datenbestand eines Data Warehouse, bei dem bestimmte Attribute bestimmte vorgegebene Werte annehmen. In der Web Analytics zum Beispiel: „Alle Kaufprozesse, bei denen die Besucher in den letzten 30 Tagen ein bezahltes Suchwort auf einer Suchmaschine angeklickt haben.“ SEM Search Engine Marketing – Suchmaschinenmarketing. Anzeigenschaltung zu „gebuchten“ Suchwörtern, die in Suchmaschinen eingegeben werden. Bekanntestes System ist Google Adwords, siehe auch Bid Management. SEM Analytics Um den Erfolg des Suchmaschinenmarketings (SEM) zu beobachten und zu analysieren, wird ein Bid-Management-Tool eingesetzt. Damit können beliebig viele Suchbegriffe verwaltet werden, die bei mehreren Paid-Search-Anbietern gebucht sind. Zusätzliche Möglichkeiten wie Gruppieren, Einstellen der genauen Position mit stündlichen Updates oder das Hinzufügen von „Friendly Sites“ erleichtern das Handling umfangreicher SEM-Kampagnen. SEO Search Engine Optimization ist eine Geheimwissenschaft, bei der mit allerlei Zauberei die Wichtigkeit der eigenen Website beschworen wird. Ziel ist die Verbesserung des Page Rank und damit eine höhere Positionierung in der natürlichen Trefferliste einer Suchmaschine. Session Wenn ein Anwender eine Website besucht, um darauf eine Transaktion durchzuführen, wird diese Transaktion üblicherweise als „Session“ bezeichnet. Da http ein zustandsloses Protokoll ist, besteht nach dem Laden der Seite keine Verbindung mehr zwischen Client und Server. Jede Aktion des Anwenders erzwingt einen erneuten Verbindungsaufbau, Datenaustausch und sofortigen Verbindungsabbau. Es muss also ein Token vereinbart werden zwischen Server und Client, anhand dessen der Zustand der Transaktion erkannt werden kann. Üblicherweise ist dieser Token auf dem Client in einem Cookie gespeichert. Dieser sogenannte Session Cookie ist aber nicht persistent, er wird beim Schließen des Browser gelöscht. Er referenziert auf dem Server auf das so genannte „Session Objekt“, in dem der Transaktionszustand gespeichert ist. Der Begriff Session wird auch synonym für „Visit“ verwendet, obwohl ein Visit aus mehreren Sessions bestehen kann. Wird der Browser während einer Transaktion geschlossen, wieder geöffnet und danach die Website erneut besucht, so ist dies zwar immer noch derselbe Visit, aber eine zweite Session, da beim Schließen des Browsers der nicht-persistente Session-Cookie gelöscht wurde.
263
13 Anhang Single Page Visit Visit, bei dem nur eine einzige Seite abgerufen wurde, siehe gle Access, One-Hit-Wonder, Bounce.
Bounce Rate. Synonyme: Sin-
Slipperiness Fähigkeit einer Website, einen Besucher schnellstmöglich wieder loszuwerden. Insbesondere im Kaufprozess wünscht man sich eine hohe S., um den Anwender möglichst schnell und einfach durch die Transaktion „durchzuschleusen“. Siehe auch Stickiness. Social Media (SM) Bezeichnung für alle Dienste, die den Benutzern so genannte Soziale Netzwerke anbieten. Soziale Netzwerke sind zum Beispiel Facebook oder Xing, auf denen Nutzer sich virtuell mit anderen Benutzern, die sie entweder aus dem realen Leben kennen oder mit denen sie in irgend einer anderen Beziehung stehen, „verbinden“ und Nachrichten austauschen können. SPAM Allgemein wird dieser Begriff für unerwünschte Werbe-Mail verwendet. Die offizielle Bezeichnung dafür ist eigentlich „Unsolicited Bulk E-mail“ (UBE), der Begriff Spam hat sich jedoch umgangssprachlich durchgesetzt. Man vermutet, dass der Begriff „Spam“ aus einem Sketch der Komikergruppe „Monty Python“ um John Cleese und Terry Gilliam über Dosenfleisch aus den 1970er-Jahren stammt. Stickiness Fähigkeit einer Website, einen Besucher zu halten und zu weiteren Seitenabrufen zu bewegen. Gegenteil von Slipperiness. Tag Siehe
Zählpixel
Targeting Targeting bedeutet, dass eine Zielgruppe so genau wie möglich ins Visier genommen und angesprochen wird. Durch den Einsatz von Targeting Tools wird diese Aufgabe des OnlineMarketings zu einem automatisierten Prozess: Werbemittel (z.B. Banner) werden anhand verschiedener Parameter ausgesteuert und zielgerichtet platziert. Es gibt zwei Einsatzbereiche des Targetings: In der Online-Werbung dient es dazu, eine Zielgruppe mit möglichst wenig Streuverlust zu erreichen. Durch eine optimale Platzierung der Werbemittel sollen die Klickraten erhöht werden. Der zweite Einsatzbereich des Targetings ist das Bereitstellen von Content, der auf den Online-Besucher zugeschnitten ist. Dieses Verfahren wird gerne in Online-Shops (z.B. Amazon) angewandt, um die Kaufabschlüsse zu erhöhen. Für das Behavioral Targeting wird nicht nur die Zielgruppenzugehörigkeit, sondern auch das Verhalten jedes einzelnen Online-Besuchers genutzt. Darauf aufbauend wird die Mediaschaltung sowie der Content einer Website oder eines Banners personalisiert und präsentiert. Mit einem Web-Analytics-System lassen sich die Erfolge des Targetings zeitnah beobachten. Vorteil: Auf diese Weise können Kampagnen und gesteuerter Content bei Bedarf ohne Zeitver-
264
13.1 Glossar lust optimiert werden. Ein Web-Analytics-System kann die Grundlage für erfolgreiches Targeting bilden. Dies sollte man bei Bedarf in der Strategiephase berücksichtigen. Twitter Elektronischer Nachrichtenticker, der es ähnlich wie bei einer SMS ermöglicht, 140 Zeichen lange Kurzmeldungen an ein großes Publikum zu senden. Anders als bei einer SMS, die im Regelfall 1-zu-1 zugestellt wird, entspricht Twitter eher einem „Börsenticker“, auf dem kontinuierlich Nachrichten der Anwender „durchrauschen“. Insbesondere Organisationen haben mit Letzterem ein Problem, da Twitter es erzwingt, permanent den Dienst zu beobachten. Nachrichten haben eine Halbwertszeit von weniger als 30 Minuten. Die Suche nach älteren Nachrichten ist aufgrund der unglaublichen Menge an Daten wenig sinnvoll. Unique Visitor Ein „eindeutiger Besucher“. Die Bezeichnung ist irreführend, da aufgrund technischer Limitationen nicht der Besucher selbst erfasst wird, sondern sein Browser auf einem konkreten PC unter einer konkreten Benutzerkennung. Dabei spielt es keine Rolle, wie der Besucher identifiziert wird ( Cookies, FSO o.ä.), es wird immer maximal der Browser „erkannt“. URL Der Unified Ressource Locator – Adresse im World Wide Web des Internets. Usability/Usability Check In einem Usability Check untersuchen erfahrene Mitarbeiter die Website nach Usability-Fehlern und zeigen Optimierungspotenziale auf. Dieser Expertencheck wird auch „kognitiver Walkthrough“ genannt. Im Anschluss sollte man die Empfehlungen der Tester durch Web Analytics objektiv kontrollieren, bevor man Entscheidungen fällt. Dieser Check ist eine von vielen Optimierungsmöglichkeiten, um den Erfolg einer Online-Aktivität zu überprüfen. Validierung Nach vollständiger Implementierung eines Web-Analytics-Tools werden die Messergebnisse validiert. Dabei werden durch geeignete Verfahren (Vergleichsmessungen, Benchmarks) die Messfehler ermittelt und bewertet. Der Fehler sollte in allen relevanten Metriken deutlich unter 10% liegen. Viewport Sichtbare Fläche des Browserfensters, das für die Anzeige von Inhalten bereitsteht. Siehe auch Fold. Visit Abfolge von Seitenabrufen auf einer Website, die nicht länger als dreißig Minuten unterbrochen wurde. W3C World Wide Web Consortium, offizielles Standardisierungsgremium für technische Standards des WWW.
265
13 Anhang WAP Wireless Application Protocol. Protokollfamilie zur Übertragung multimedialer Inhalte über langsame Internetverbindungen, wie sie in den Anfängen bei mobilen Endgeräten üblich waren. Im Zeitalter von UMTS und voll funktionsfähiger Browser auf PDAs und Smartphones kaum mehr verwendet. Web Scorecard Von der Balanced Scorecard abgeleitete Kennzahlensystematik für die Webanalyse. Werbemittelnutzungspfad Ausgehend von der Erkenntnis, dass „Last“ bzw. „First Cookie Wins“ lediglich eine Form der Provisionsabrechnung und für eine Gesamtbewertung der Wirkung von Marketingmaßnahmen untauglich ist, versucht man hierbei, die Wirkung aller Werbemittel als Werbemittelstrom aufzufassen, der auf den Anwender einwirkt. WML Website Meta Language, HTML-Generierungssprache, die für Mobile Devices entwickelt und verwendet wurde. XML Extensible Markup Language. Für den Datenaustausch von Web-Anwendungen standardisiertes SGML-Derivat. HTML basiert ebenfalls auf SGML, der so genannten „Standard Generalized Markup Language“. Zählpixel, Tag, Pixel Der Name ist abgeleitet von dem 1 mal 1 Bildpunkte großen Bild, das der Web-AnalyticsServer als Antwort auf den Zählimpuls zurückliefert. Die Messinformationen aus der geladenen Seite werden als HTTP-GET-Request an den Server gesendet. Um den Browser zufriedenzustellen, muss eine valide Antwort zurückgeliefert werden, was in Form dieses „Bildes“ geschieht. Technologien wie AJAX, die auch eine asynchrone Datenübertragung ermöglichen würden, sind aus Kompatibilitätsgründen derzeit noch wenig im Einsatz. Der Begriff „Zählpixel“ oder auch „Tag“ (englisch für „Marke“) steht aber auch synonym für die gesamten Java-Script-Routinen, die den Aufbau und das Absenden des Messimpulses programmatisch vornehmen. Weitere Synonyme: Web Beacon, Tracking Bug, Tracking Pixel, 1×1 gif und Clear gif.
266
13.2 Quellennachweis
13.2
Quellennachweis [Angel 2007]
Gary Angel: „10 Reasons We All Have Ulcers – Key Issues in Web Analytics Implementation and Rollout”, http://semphonic.blogs.com/ (Blog “SemAngel”) März 2007 [BVDW 2009] Bundesverband Digitale Wirtschaft BVDW, Fachgruppe Targeting: „Targeting Begriffe und Definitionen“ (nur für BVDW-Mitglieder) http://www.bvdw.org Düsseldorf 2009 [ComScore 2007] ComScore: „Cookie-Based Counting Overstates Size of Web Site Audiences“ (Pressemitteilung) http://www.comscore.com 2007 [Dréze Zufryden 1998] Xavier Dréze, Fred Zufryden: „Is Internet Advertising Ready For Prime Time?”, http://www.xdreze.org/Publications/internetadvertising.html April 1998 [Düsseldorfer Kreis 2009] Düsseldorfer Kreis der Datenschutzbeauftragten der Länder und des Bundes: „Datenschutzkonforme Ausgestaltung von Analyseverfahren zur Reichweitenmessung bei Internet-Angeboten“, http://www.lfd.m-v.de/dschutz/beschlue/Analyse.pdf 26./27.11.2009 [eConsultancy 2009] eConsultancy „Online-Measurement and Strategy Report”, http://econsultancy.com 2009 [Friedag Schmidt 2004] Herwig R. Friedag und Dr. Walter Schmidt: „Balance Scorecard at work – strategisch, taktisch operativ“ Freiburg, 2004 [Gabler 2001] Gabler Wirtschafts-Lexikon: CD-Version, 15. Auflage 2001 (aktuelle Online-Version: http://wirtschaftslexikon.gabler.de ) [Hamel 2009] Stéphane Hamel: „Web Analytics Maturity Model”, http://blog.immeria.net (immeria Blog) 2009 [Hamel 2009] Stéphane Hamel „Establishing Your Online Analytics Maturity“ http://www.slideshare.net/shamel67/web-analytics-maturity-model 2009 [Hempel Oppenheim 1948] Carl G. Hempel, Paul Oppenheim: „Studies in the Logic of Explanation” http://www.jstor.org 1948 [Hertzig 2008] Melanie Hertzig: „Erfolgsorientierte Website-Optimierung: Steigerung des Return on Online-Investment durch Targeting-Mechanismen auf Basis von Testverfahren“, Diplomarbeit an der Deutschen Dialogmarketing Akademie, München 2008 [Kaplan Norton 1992] Robert S. Kaplan und David P. Norton: „The Balanced Scorecard – Measures that Drive Performance“, Harvard Business Review Januar/ Februar 1992 [Kaplan Norton 1993] Robert S. Kaplan und David P. Norton: „Putting the Balanced Scorecard to work”, Harvard Business Review , September/Oktober 1993 [Kaplan Norton 2004] Robert S. Kaplan und David P. Norton: „Strategy Maps: Der Weg von immateriellen Werten zum materiellen Erfolg“. Stuttgart 2004 [Kaplan Norton 1997] Robert S. Kaplan und David P. Norton: „Balanced Scorecard. Strategien erfolgreich umsetzen“. Stuttgart 1997 [Kaushik] Avinash Kaushik: „Occams Razor” (Blog) http://www.kaushik.net
267
13 Anhang [Kaushik 2007]
Avinash Kaushik: „Web Analytics, an Hour a Day”, Indiana (Indianapolis) 2007 [Kaushik 2008] Avinash Kaushik:„The Ultimate Web Analytics Data Reconciliation Checklist“ http://www.kaushik.net 2008 [Kurbel 2010] Karl Kurbel (Herausgeber): „Enzyklopädie der Wirtschaftsinformatik“ www.enzyklopaedie-der-wirtschaftsinformatik.de, Oldenbourg Wissenschaftsverlag, München 2010 [Neckel Knoblock 2005] Peter Neckel, Bernd Knobloch: „Customer Relationship Analytics – Praktische Anwendung des Data Mining im CRM“, Heidelberg 2005 [Peterson] Eric T. Peterson: „Web Analytics demystified” (Blog) www.webanalyticsdemystified.com [Peterson 2004] Eric T. Peterson: „Web Analytics Demystified: A Marketer's Guide to Understanding How Your Web Site Affects Your Business“, (pdf) www.webanalyticsdemystified.com 2004 [Peterson 2006] Eric T. Peterson: „The Big Book of Key Performance Indicators”, (pdf) www.webanalyticsdemystified.com 2006 [Peterson 2010] Eric T. Peterson: „The Use of Flash Objects in Visitor Tracking: Brilliant Idea or Risky Business?” Whitepaper (pdf) http://www.webanalyticsdemystified.com, Januar 2010 [Poynton 2009] Caroline Poynton, „The minefield of social media monitoring“, http://www.corpcommsmagazine.co.uk Dezember 2009 [Reese 2010] Frank Reese: „Einkaufsführer Web Analytics“,, http://www.idealobserver.de 2010 [Salmon 1998] Wesley Salmon: „Causality and Explanation”. New York 1998 [Sterne 2002] Jim Sterne: „Web metrics: proven methods for measuring Web site success“, New York 2002 [Töpfer 2008] Armin Töpfer (Hrsg.): „Handbuch Kundenmanagement“ (Kapitel 4: Umsetzung und Steuerung durch Customer Relationship Management (CRM)), Berlin Heidelberg, 2008 [Unica 2009] Unica Corporation, „The Web Analytics War“ (pdf) http://www.unica.com September 2009 [iPerceptions 2010] iPerceptions: „WASP – Web Analytics Solution Profiler“, http://webanalyticssolutionprofiler.com (ursprünglich von Stéphane Hamel) [pingdom 2010] pingdom AB: „Study: Ages of social network users“, www.pingdom.com 2010 [Webtrekk 2009] Webtrekk: „Webtrekk-Langzeitstudie“ Quartal 4/2009 (Pressemitteilung, pdf) http://www.webtrekk.de 2009
268
13.3 Herstellernachweise
Herstellernachweise 13.3.1 Testing- und Targeting-Hersteller
Advertisement
Website
dynamisch
Profilattribut
Testing proprietär
teilfraktional
Kostenpflichtig
Optimierung
Targeting
Methoden
vollfraktional
Anbieter
PS
EN
MVT- und Targeting-Anbieter
DE
13.3
Autonomy Interwoven, USA
–
€
Divolution GmbH, D
–
€
Google Inc., USA
–
–
–
–
Maxymiser Ltd, UK Omniture Inc., USA
–
–
–
–
–
€
–
€
Webtrends, USA
–
–
€
SiteSpect, USA
–
–
€
Vertster, USA
–
–
€
Behavioral Targeting – Predictive Targeting wunderloop S.A., L
€
nugg.ad AG, D
€
newtention technologies GmbH, D
€
Omniture Inc., USA
€
Audience Science, USA
€
(Diese Tabelle enthält Herstellerbeispiele und erhebt keinen Anspruch auf Vollständigkeit. Stand: 02/2010)
13.3.2 Web-Analytics-Hersteller Dieses Buch enthält Screenshots von Softwaresystemen folgender Web-Analytics-Hersteller: Adobe – Omniture, Orem, USA AT Internet, Paris, Frankreich coremetrics Inc. Austin, USA snoobi Web Analyse, Zürich, Schweiz Unica Corporation, Waltham, USA Webtrekk GmbH, Berlin
269
13 Anhang
270
Register A
B
A/B-Test 149, 150, 247 A/B-Tests 147 Abbruchquote 231, 247 Abweichungen 92, 122, 240 Ad Click 247 Ad Impression 116, 247 Ad Server 25, 116, 247 Affiliate-Marketing 10, 37, 247 AGOF 211 AJAX 31, 67, 126, 248 Akquisition 105 Alternativhypothesen 152, 155 Analyse 248 Anforderungsanalyse 119, 220 Anforderungskatalog 226, 228 Anforderungsspezifikation 207, 228 Ansprache 104 Application Service Providing 17, 200 ASP 249 siehe auch Application Service Providing Audit 249 Aufwandsabschätzung 239 Ausklingphase 184 Ausschläge 92 Ausschreibung 204, 213 Ausschreibungsunterlage 214 Ausstiegsseiten 82 Auswahl der Kennzahlen 120 Auswahlkriterien 204 Auswahlverfahren 209 Auswertung 90 Auswertungszeitraum 183 Average Order Value 249
Balanced Scorecard 129 Basiskennzahlen 96, 144 Behavioral Targeting 11, 164, 249, 259 Benchmark 249 Beratungsunternehmen 20 Bergsteiger-Algorithmus 185 Besucherpfad 83 Besuchersegmente 24 Besuchsdauer 249 Bewertungskatalog 215 BI siehe Business Intelligence Bid Management 250 Bounce Rate 80, 250 B-to-B-Direktvertrieb 15 B-to-C-Vertrieb 16 Business Intelligence 11, 69, 72, 250
C Change Management 226, 235 Checklisten 206 Click Fraud 250 Click Out 73 Click Through 73, 116 Click Through Rate 251 Clickmap 256 Clickstream 70, 250 Client Based Tracking 55 Client Side Tracking 57, 63 clientbasiertes Tracking 60 Cloaking 178 CMS siehe Content Management System Content 191 Content Management System 18, 62, 65, 172, 251 Content Repository 176 Content-Syndizierung 173
271
Register Content-Zulieferung 172 Contextual Targeting 163 Controlling 17 Conversion Funnel 251 Conversion Rate 230, 236 Cookie 47, 57, 58, 63, 98, 123, 126, 169, 251 Cookie-Akzeptanz 170, 171, 172 Cookie Dropping 251 Cookie-Laufzeit 251 Cookie Policy 251 Cost per Lead 252 Cost per Order 252 CPL siehe Cost per Lead CPO siehe Cost per Order CPX 252 Crawler 43, 54, 64 CRM siehe Customer Relationship Management CRM-System 241 CSV-Dateien 242 CTR siehe Click Through Rate Customer Life Cycle 110 Customer Lifetime Value 252 Customer Relationship Management 252, 12
D Dashboard 253, 63 Data Mining 253 Data Warehouse 11, 253 Data Warehousing 69 Datenbank-Logs 51, 65 Datenquellen 142 Datenschutz 46, 99 Default Content 178 Dialogmarketing 33 Dice 86 Dicing 72 Dimensionen 73, 95, 222 direkter Vertrieb 16 Display-Werbung 253 Document Object Model 61, 174, 253 DOM siehe Document Object Mode Domain 253 DOM-basierte Lösung 173, 174 DOM-Storage 253 DOM-Tree 60 Double-Opt-In 50, 254 Drill Across 72 Drill Down 72, 79
272
Drill Through 72 Drop out 77
E E-Business 10 E-Commerce 36 Einkaufsführer 205 Einphasen 226 Einschwingphase 183 Einstiegsseiten 82 Element 149 E-Mail-Marketing 10 emotionale Ansprache 185 Enterprise Information Integration 11 Erfolgsfaktoren 130 Erfolgskontrolle 167 Erfolgsmessung 254 Explizite Profilbildung 190 Extraction Transformation Load 226
F Facebook 41 Fall-Out-Analyse 83 Fehlerquellen 157 Filter 86 Fingerprint 126 Firewall 254 First Cookie Wins 118, 254 First Party Cookie 60, 254 Flackereffekt 177 Flash 255 Flash-Pixel 210 Flash Shared Object siehe FSO Focus 114 Fold 255 Folgeseiten 82 foursquare 42 Fractional Factorial 152 Frequency 112 Frequency Capping 255 Frontpage 255 FSO 255 Full Fractional 152 Funnel 107 Funnel-Analysen 80
Register
G Geo-IP-Datenbanken 61 Geosegmentierung 255 Google Analytics 5, 47 Gruppierung 117
H Harvester 255 Heatmap siehe Clickmap Heatmaps 216 HTML 256 HTML-Code 56 HTML-Elemente 39, 228 HTML-Script 237 HTTP 256 HTTP Status Code 256 Hypothese 89, 182, 187
I Identgröße 58 Identifizierung des Besuchers 58 I-Frame 256 I-Frame-basierte Lösung 173 Implementierung 2, 17, 32, 219, 233, 236, 245 Implizite Profilbildung 190 indirekter Vertrieb 15 Instanzen 73 Instrumentierte Logfiles 50 Integration 10, 219, 241
mit Content-Management-System 175 eines Targeting-Tools 195 Integrierte Systeme 179 Intelligent Offer 191 Interessensgruppen 137 Interstitial 256 iPad 44 IP-Adresse 46, 55, 101, 257, IP-Datenbank 57 iPhone 44 IP-Scrambling 53
J Java Script 57, 63, 257,
K Kampagnen 115 Kampagneneffizienz 36
Kampagnenmanagement-Tools 27, 29 Kampagnen-Tracking 257 Kennzahl 1, 7, 10, 21, 34, 95, 136, 222, 225
definieren 140 Kennzahlensystem 222 Key Performance Indicator 1, 75, 95, 129, 189, 257 Keyword-Kampagnen 29 Keyword-Targeting 163 Klassifizierung 117, 200, 257 Klickabweichungen 258 Klickmaps 216 Klickstream 190 Konfigurationsoptionen 242 Konversion 34, 110, 258 Konversions-Latenz 156 Konversionsrate 10, 185 Korrelation 124 Kosten 227, 236 KPI siehe Key Performance Indicator Kreativarbeit 196 Kundenbindung 34, 106 Kundenlebenszyklus 24 Kundenwert 36
L Landing Page 258 Langfristverhalten 190 Last Cookie Wins 118, 258 Latency 259 Laufzeit 183 Lead 29, 259 Leitbild 136 Leitkenngröße 136 Leitziel 136 Link-Shortener 43 Logfiles 7 Logfile-Analyse 65 Logfile-Aufbereitungs-Tool 52 Logfile-Auswertung 50 Longlist 213, 233 Löschquote 170
M Markenunternehmen 16 Marketing, Definition 23 Marketingplan 23 Markierung 185 Matching 158
273
Register Messdifferenz 211 Messen mobiler Internetangebote 44 Messfehler 49, 54, 63, 259 Messimpulse 203 Messung von Social Media 42 Metriken 73, 95, 222 Mikrokonversion 231 Mikro-Konversionsschritte 110 Misserfolg 110 Mittelwerte 158 Mom Test 188 Monetary Value 112 Monitoring 25, 37, 43 multivariater Test 151 Multivariates Testen 28, 149, 259 Multivariate Testing-Tools 26 Mutationsalgorithmus 186 MVT siehe Multivariates Testen
N Nachprüfbarkeit 229 Natürliche Suche siehe Organische Suche Nettoumsatz 243 Network Address Translation 53 Network Data Collector 66 New Visitor siehe Return Visitor Non Disclosure Agreement 233 Null-Hypothese 150, 155 Nutzerinformationen 24
O OFAT-Technik 154 Off-Time 259 OLAP siehe Online Analytical Processing OLAP-Cube 71 On Demand 200 On Premise 200 One Click Visit 102 One-to-One-Marketing 33 Online Analytical Processing 69 Online-Reputation 40 Online-Shop 35 Online-Unternehmen 16 Online-Vermarkter 116 On-Site-Targeting 166 Open-Source-Software 200 Open-Source-Systeme 68, 173 Optimierungsprozess 166
274
Opt-In 259 Organische Suche 259
P P3P-Standard 61 Page Impression 97, 260 Page Rank 178, 260 PageView 73, 97, 260, Paid Search 260 Pareto-Prinzip 112 Pathmap 85 Performance Marketing 10, 109, 260 Performance-Marketing-Agenturen 20 Permission Marketing 260 Personalisierung 147, 190 Personas 166 Pfadanalysen 77, 81 Pflichtenheft 234 Pivoting 72 pixelbasiertes Tracking 50, 66 Pixel-Tracking 64 Planungsphase 121, 183 Planungsprozess 133 Pop under siehe Pop up Pop up 260 Pop-up-Blocker 260 Power Webanalyst 22 PPP 260 Preismodelle 203 Prestitials 260 Produktentscheidung 215 Produktpositionierung 201 Produzierendes Gewerbe 15 Profile 48 Profilbildung 188 Profilstruktur 189 Projekt 133, 227 Projektlaufzeit 235 Projektmanagement 145 Promote Best Performer 187 Prototyp 236 Proxy 261 Proxy-Server 173 Publisher 36 Push the Winner 187 Pyramid Model 99
Register
R Reach 104, 261 Realtime 71 Recency 112 Recommendation 191 Redirect 261 Referrer 261 Referrer-Daten 102 Regelkreis 9 Regelwerk 161, 194 Registrierung 182 Registrierungsprozess 21 Relaunch 167 Reloads 82 Report 17, 75, 120, 232 Reporting 71, 88, 139, 143, 219, 244, 262 Request 126
for Information 226, 232 Requirements Engineering Tool 235 Retargeting 11, 170, 188, 195, 262 Retention 106 Retourenquote 141 Return Visitor 262 Revision 22 Rezepte 185 RFM-Würfel 113 RMI 262 ROAS 262 Rohdaten 69 Roll Up 72 Rollen 143 Router 262 Rücksprünge 83
S SaaS siehe Software as a Service Sales Cycle 183 Sampling 262 Scanning ratio 263 Scheitern 220 Schulung 219, 226, 244 Scoring 166 Search Engine Marketing 10 Search Engine Optimization 10, 155 Segment 263 Segmentierung 24, 86, 124, 142, 161 SEM 263 SEM Analytics 263
Semantisches Targeting 163 SEO 263 siehe auch Search Engine Optimization Server Calls 203 Server-Farmen 53 Session 263 Shortlist 233 Single Page Visit 82, 264 Skalierung 237 Slice 86 Slicing 72 Slipperiness 36, 114, 264 Sniffing 51 Social Media 264 Software as a Service 200 Software-Demonstrationen 216 SPAM 264 Spezialisten 20 Spezifikationen 233 Split-Test 150 Spoofing 178 Sprachbasiertes Targeting 163 Stabsstelle 19, 22 Stakeholder 132 Startphase 122 Steuern von Marketingmaßnahmen 24 Stickiness 36, 114, 264 Störer 111 Störfaktoren 156 Strategy Map 134 Streuverhalten 154 Subscription-Anbieter 35 Suchmaschinen-Ranking 155 Super Cookie siehe DOM-Storage Systemintegration 244
T Tag 260, 266 Tagging mit JavaScript 58 Taguchi-Methode 153 Targeting 10, 24, 158, 188, 264 Targeting-Kriterien 165 Tausenderkontaktpreis 252 TCO-Betrachtung 227 Teamarbeit 132 Technische Integration 177 Technisches Targeting 162 Technische Verfahren 50
275
Register technographische Daten 100 Telemediengesetz 46 Testdesign 150 Testing 10, 149
und Targeting 139 Testing-Experiment 181 Testkonzept 155 Testkonzepterstellung 155 Third Party Cookie 60, 169, 254, TKP siehe Tausenderkontaktpreis Tracking 147 Tracking Code 62, 210 Tracking-Grafik 60, 61 Traffic 102 trendgetriebene Analyse 92 Trichter 107 siehe auch Funnel Trichteranalysen 75 Twitter 265
U Unique Client 211 Unique Identified Visitor 99 Unique User 99, 212 Unique Visitor 73, 76, 99, 265 URL 265 Usability 139, 265 Usability Check 28, 265 Use-Case 206, 230 User-declared Information Targeting 165
V Validierung 219, 265 Variable 149 Varianten 149, 182 Velocity 36, 114 Vergleichsnormal 185 Versandhandel 16 Verschwiegenheitserklärung 214 Versionierung 235
276
Versuchsplanung 153 vertaggen 237 Vertaggung 195 Vertragsverhandlung 217 Verweildauer 103, 115 Viewport 265 Visit 52, 73, 97, 211, 265 Visitors 73
W W3C 265 WAMM siehe Web Analytics Maturity Model WAP 266 Warenkorbwert 243 Warenwirtschaftssystem 12, 142, 239, 241 Web Analytics Maturity Model 7 Web-Analytics-Regelkreis 9 Web Controlling 4 Web-Dienstleister 20 Web-Formulare 27 Web Scorecard 16, 92, 95, 129, 196, Werbeagenturen 20 Werbeeffizienz 115 Werbemittelnutzungspfad 85, 118, 266 White Labelling 38 WML 266
X XML 266
Y Yahoo!WebAnalytics 5
Z Zählpixel 55, 56, 65 siehe auch Tag ZAK 137 ZAK-Methode 144 Zielgruppensegmente 158
WEB ANALYTICS PROFESSIONELL // ■ Erfahren Sie, wie Sie die Webanalyse in Ihrem Unternehmen erfolgreich einführen und einsetzen. ■ Entdecken Sie effiziente Wege, wie Sie Ihre Online-Angebote optimieren können. ■ Bauen Sie auf das Know-how von Web-Analytics-Experten.
MEHR ERFOLG DURCH WEB ANALYTICS // Als Marketer, Vertriebsexperte oder Entscheider wissen Sie, dass Sie Internetstrategien nicht aus dem Bauch heraus beurteilen oder Website-Layouts nach Ihrem Geschmack gestalten dürfen. Stattdessen müssen Sie auf den professionellen Einsatz der Webanalyse und auf automatisierte Optimierung setzen. Um erfolgreich zu sein, brauchen Sie intelligente Analysen von Online-Daten, die Aufschluss geben über das Verhalten der Besucher auf Ihren Websites und Shops. In diesem Praxisleitfaden erfahren Sie, wie Sie die komplexen Aufgaben in der Webanalyse effizient und erfolgreich durchführen können. Sie werden in allen Bereichen unterstützt, die zur Webanalyse gehören: • bei der detaillierten Beschreibung aller Ziele und Anforderungen an die Webanalyse • bei der Auswahl der richtigen Tools • bei der Einrichtung und Anwendung des Tools und
Nutzen Sie dieses Buch, um die richtigen Weichenstellungen in Ihrem Unternehmen vorzunehmen und die Webanalyse erfolgreich einzuführen und einzusetzen.
AUS DEM INHALT // Web Analytics in Marketing und Vertrieb // Grundlagen der Web Analytics // Technische Methoden des Site-Tracking // Analyse- und Auswertungsmethoden // Erfolgsfaktoren für Websites // Die Web Scorecard // Die Grundlagen für Testing und Targeting // Technische Methoden Testing und Targeting // Durchführung von Testing und Targeting // Kriterien für die Auswahl eines Web-Analytics-Tools // Einführung eines Web-Analytics-Systems //
Axel AMTHOR und Thomas BROMMUND sind Geschäftsführer des unabhängigen Dienstleistungs- und Beratungshauses contentmetrics GmbH. Für ihre namhaften Kunden haben sie schon zahlreiche auch internationale Web-Analytics-Projekte geplant, aufgebaut und betreut. www.hanser.de/computer ISBN 978-3-446-42139-4
Marketer, Vertriebsexperten, Unternehmer
9
783446 421394
Systemvoraussetzungen für eBook-inside: Internet-Verbindung und eBookreader Adobe Digital Editions.
• bei der Auswertung der Analyseergebnisse aus betriebswirtschaftlicher Sicht.